JP7057309B2 - 音響特性測定システムおよび音響特性測定方法 - Google Patents

音響特性測定システムおよび音響特性測定方法 Download PDF

Info

Publication number
JP7057309B2
JP7057309B2 JP2019054585A JP2019054585A JP7057309B2 JP 7057309 B2 JP7057309 B2 JP 7057309B2 JP 2019054585 A JP2019054585 A JP 2019054585A JP 2019054585 A JP2019054585 A JP 2019054585A JP 7057309 B2 JP7057309 B2 JP 7057309B2
Authority
JP
Japan
Prior art keywords
measurement target
sound
microphone
unit
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019054585A
Other languages
English (en)
Other versions
JP2020153906A (ja
Inventor
慶太 丹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2019054585A priority Critical patent/JP7057309B2/ja
Publication of JP2020153906A publication Critical patent/JP2020153906A/ja
Application granted granted Critical
Publication of JP7057309B2 publication Critical patent/JP7057309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

本発明は、音響特性測定システムおよび音響特性測定方法に関し、特に、音響に関する特性を測定する音響特性測定システムおよび音響特性測定方法に用いて好適なものである。
従来、車室や、試聴室、無響室等の空間や、空間を構成する要素(例えば、車室の内側を形成するドア)について、音響的な観点で様々な設計が行われている。例えば、車室について、スピーカから出力される音を搭乗者が快適に聴取できるようにスピーカの位置や向きが設計されたり、試聴室において聴取者が快適に聴取できるように壁面の材質を選定したりすることが行われている。
空間や空間を構成する要素の音響的な設計は、基本的には、作業者の経験や直感に基づいて行われるか、目的を達成するための試行と修正とが現場で繰り返し行われることによって行われていた。例えば、車室におけるスピーカの位置、向きを設計する場合、作業者の経験に基づいて、スピーカから出力される音を反射する面の音響的な特性が予想されて、作業者の判断で設計がなされるか、スピーカの位置、向きの調整、および、調整後の位置、向きにおける音質の評価が繰り返し行われた上で、評価に基づいて設計がなされていた。
なお、特許文献1には、既に空間内に配置されているスピーカが出力する音を可搬型装置(スマートフォン等)により複数箇所で入力し、複数箇所で入力した音を分析して、デジタル信号プロセッサがスピーカから音を出力するときに使用する調整値(最適等化パラメータ)を算出し、この調整値を用いて音の出力が行われるようにしたシステムが記載されている。
特表2015-513832号公報
従来のように空間や空間を構成する要素の音響的な設計が、作業者の経験や直感に基づいて行われる場合、基本的には経験やスキルを有する作業者のみが行うことができ、その点で改善の余地がある。また、目的を達成するための試行と修正とが現場で繰り返し行われることによって行われる場合、同じ作業を何度も行う必要があるため、作業負担が大きかった。
本発明は、このような問題を解決するために成されたものであり、空間や空間を構成する要素の音響的な設計に関し、経験やスキルを有さない作業者を支援できるようにし、更に作業負担を低減することを目的とする。
上記した課題を解決するために、本発明では、測定装置に設けられたスピーカから測定対象に向かって出力音が出力される音出力動作が行われた際に、測定装置に設けられた第1マイクにより収音された反射音を分析し、測定対象の音響的な特性を測定し、測定対象が配置された現実空間に対応する仮想3次元空間における測定対象の位置と、測定部により測定された測定対象の音響的な特性とを関連付けるようにしている。更に本発明は、測定対象の音響的な特性が定量的な値として表現されるものであり、測定対象の音響的な特性を表す画像として、測定対象の音響的な特性の大きさ、および、測定対象の面の法線方向を矢印によって表す画像を表示するようにしている。また本発明は、測定装置には、第1マイクから、第1マイクの指向方向に沿って離間した位置に第2マイクが設けられており、音出力動作が行われたときに、第1マイクにより反射音が収音されたタイミングと第2マイクにより反射音が収音されたタイミングとの差分を検出し、検出した差分が第1マイクと第2マイクとの離間距離を反射音が進むのに必要な時間に相当するか否かを判定することによって、第1マイクの指向方向と、測定対象の反射面の音響的な法線の方向との一致性を検出し、一致性が検出されているときに測定した測定対象の音響的な特性を、仮想3次元空間における測定対象の位置と関連付けるようにしている。
上記のように構成した本発明によれば、仮想3次元空間における測定対象の位置と、その測定対象を対象として実際に測定された測定対象の音響的な特性とが関連付けられる。このため、測定対象ごとに、その3次元的な配置位置を示す情報とその測定対象の音響的な特性を示す情報とを関連付けて作業者に対して提供することが可能となる。これにより、経験やスキルを有さない作業者も、関連付けられた情報の提供を受けることによって、測定対象ごとの3次元的な配置位置とその測定対象の音響的な特性とを認識できる。つまり、本発明によれば、測定対象ごとの3次元的な配置位置とその測定対象の音響的な特性を、経験やスキルに依存しない体系的な知識として作業者に伝達可能となり、これにより、空間や空間を構成する要素の音響的な設計について、経験やスキルを有さない作業者を支援できる。また、関連付けられた情報によれば、測定対象ごとに、3次元的な配置位置と音響的な特性とが分かるため、現場で行われていた不必要な試行を特定し、削減することが可能となり、作業者の作業負担が低減する。
車室の一例を示す図である。 携帯端末の一例を示す図である。 本発明の一実施形態に係る音響特性測定システムの機能構成例を示すブロック図である。 現実空間で携帯端末が移動する様子および仮想3次元空間で携帯オブジェクトが移動する様子を示す図である。 一致性検出部の処理の説明に利用する図である。 測定対象修正部の処理の説明に利用する図である。 マッピング画面の一例を示す図である。 本発明の一実施形態に係る携帯端末および制御装置の動作例を示すフローチャートである。 本発明の一実施形態に係る携帯端末および制御装置の動作例を示すフローチャートである。
以下、本発明の一実施形態を図面に基づいて説明する。本実施形態に係る音響特性測定システム1は、作業者(ユーザ)により把持可能な程度に小型の携帯端末2(特許請求の範囲の「測定装置」に相当)を利用して、測定対象3の音響的な特性(具体的な内容については後述)を測定する機能を少なくとも有している。本実施形態では、空間は、自動車の車室4であるものとする。図1は、本実施形態において測定対象3の音響的な特性を測定する対象となる車室4の一例を示す図である。
本実施形態において、測定対象3とは、車室4内で露出したまとまった領域であって、略平らな面からなり、領域の全域が同じ材質の素材で構成された部位を指す。「車室4内で露出した、まとまった領域」というのは、車室4内で音が発生したときに、音を反射する領域であることを意味する。「略平らな面」というのは、領域の各部の法線方向が基本的に一致することを意味する。ただし、「略平らな面」は、完全な平面である必要はなく、ある程度の歪み、凹凸が許容される。「領域の全域が同じ材質の素材で構成された部位」というのは、領域の全域において音響的な特性が同じであることを意味する。図1の車室4において、センターコンソール5の上面に形成された領域AR1、ダッシュボード6の中央部に設置されたタッチパネル7の表面に形成された領域AR2、および、ダッシュボード6の上側の面に形成された領域AR3はそれぞれ、測定対象3となり得る部位である。
図2は、本実施形態において、測定対象3の特性の測定に用いられる携帯端末2の一例を単純化して模式的に示す図である。図2において(A)は正面図、(B)は底面図、(C)は右側面図、(D)は背面図である。本実施形態に係る携帯端末2は、いわゆるスマートフォンであり、平板状の筐体9を有し、筐体9の正面9aの広い領域にタッチスクリーン10が設けられている。ただし、携帯端末2はスマートフォンである必要はなく、作業者が把持可能であり、下記で説明する構造的特徴を有し、下記で説明する処理を実行可能であればよい。例えば、電話機能を有さないタブレット端末を携帯端末2として機能させてもよい。以下、携帯端末2を正面視したときに長手方向に沿う方向(図2(C)、(D)の矢印Y1が示す方向)を「携帯軸方向」とし、携帯軸方向において下に向かう向き(図2(C)、(D)の矢印Y2が示す向き)を「携帯軸方向下向き」とする。
図2(B)に示すように、携帯端末2の筐体9の底面9bの中央部にはUSBポート11が設けられ、このUSBポート11の左側および右側には、1つのマイクとして機能する一対の第1マイク12が設けられている。この第1マイク12は、筐体9との関係で、一対の第1マイク12の中央部の位置(図2(A)、(C)、(D)において符号P1で示す位置)に設けられ、この位置に入射する音を収音するマイクとみなすことができる。以下の説明では、「第1マイク12の位置」という場合、図2(A)、(C)、(D)の位置P1を意味する。第1マイク12は指向性マイクであり、その指向方向は、携帯軸方向と一致している。
図2(B)に示すように、携帯端末2の底面9bにおいて、右側に設けられた第1マイク12よりも右側にはスピーカ13が設けられている。スピーカ13は、第1マイク12と共通する面の非常に近い位置に設けられており、スピーカ13の位置と第1マイク12の位置とは同じとみなすことができる。
図2(A)、(D)に示すように、筐体9の正面9aおよび背面9cにおいてタッチスクリーン10の上端よりも上方には、1つのマイクとして機能する一対の第2マイク14が設けられている。この第2マイク14は、筐体9との関係で、一対のマイクの中央部の位置(図2(A)、(C)、(D)において符号P2で示す位置)に設けられ、この位置に入射する音を収音するマイクとみなすことができる。以下の説明では、「第2マイク14の位置」という場合、図2(A)、(C)、(D)の位置P2を意味する。図2(C)では、第1マイク12の位置P1と第2マイク14の位置P2とを結ぶ線を二点鎖線で表している。図2(C)に示すように、第1マイク12の位置P1と第2マイク14の位置P2とを結ぶ線の方向は、携帯軸方向と一致する。つまり、第2マイク14は、第1マイク12から、携帯軸方向(=第1マイク12の指向方向)に沿って離間した位置に設けられている。
図2(D)に示すように、携帯端末2の背面9cにおいて、第2マイク14の下方には、ステレオカメラ15が設けられている。また、携帯端末2は、状態検出センサ群16(図3)を有する。状態検出センサ群16は、携帯端末2の筐体9の前後、左右、上下の3方向(X,Y,Z)の加速度を検出する加速度センサと、X、Y及びZの各軸周りの角速度を検出する3軸ジャイロセンサとを含んで構成されている。
図3は、本実施形態に係る音響特性測定システム1を構成する携帯端末2および制御装置17の機能構成例を示すブロック図である。制御装置17は、ノート型のコンピュータであり、携帯端末2と共に車室4に持ち込まれて使用される。ただし、制御装置17は、ノート型のコンピュータに限られず、車室4に持ち込むことが可能であり、かつ、後述する各種処理を実行可能であればよい。図3に示すように、制御装置17は、マウスやキーボード等の作業者の入力を受け付ける入力装置18と、液晶パネルや有機ELパネル等の表示パネル19とを有している。車室4内での作業中、作業者は、随時、入力装置18に入力を行うことができ、また、表示パネル19に表示された画面を確認することができる。
図3に示すように、本実施形態に係る携帯端末2は、機能構成として、通信部20、出力音処理部21、入力音処理部22、位置監視部23、測定部24、一致性検出部25、一致性通知部26および現実空間離間距離検出部27を備えている。また、本実施形態に係る制御装置17は、機能構成として、通信部30、制御装置制御部31、マッピング部32、仮想空間離間距離検出部33、マッピング表示部34および測定対象修正部35を備えている。
上記各機能ブロック20~27、30~35は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック20~27、30~35は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
図3に示すように、制御装置17は、記憶手段として、制御装置記憶部36を備えている。制御装置記憶部36は、特性データベース37および空間3次元情報データ38を記憶している。特性データベース37については後述する。空間3次元情報データ38は、空間3次元情報と初期位置関連情報とを含んでいる。
空間3次元情報データ38の空間3次元情報は、車室4内で露出した物体の表面を3次元座標系の点の集合として表した情報である。従って、空間3次元情報データ38の空間3次元情報に基づいて、車室4内の物体の表面が3次元的に表現された仮想3次元空間を表示することが可能である。
空間3次元情報は、例えば、以下の方法で事前に生成される。すなわち、携帯端末2に専用のアプリケーションが事前にインストールされる。この専用のアプリケーションは、ステレオカメラ15によって手順に従った適切な方法で空間の撮影が行われた場合に、撮影結果に基づいてその空間の3次元情報が記録された空間3次元情報を生成する機能を有する。空間3次元情報の生成は、撮影範囲に存在する物体の表面までの距離の測距が適宜行われつつ実行される。作業者は、事前に携帯端末2に専用のアプリケーションをインストールした上で、専用のアプリケーションを起動した状態で携帯端末2のステレオカメラ15により手順に従った適切な方法で車室4内の現実空間を撮影することによって空間3次元情報を生成させる。
なお、空間3次元情報を生成する方法は、例示した方法に限られない。携帯端末2以外の端末が専用のアプリケーションの機能を利用して、空間3次元情報を生成する構成でもよい。また、3Dプリンタが使用する3Dデータを作成するための専用の機材により車室4内の撮影や空間3次元情報の生成等が行われてもよい。また、空間3次元情報の内容も、例示したものに限らず、例えば、2次元データを多層化したものであってもよい。
また、空間3次元情報データ38の初期位置関連情報は、車室4の仮想3次元空間において、初期位置に初期姿勢で載置された携帯端末2の状態を示す情報である。初期位置関連情報の詳細な内容については、初期位置および初期姿勢と共に後述する。
携帯端末2の通信部20と、制御装置17の通信部30とは、所定の無線通信規格に従って相互に無線通信する。以下では、携帯端末2と制御装置17との間で通信が行われる場合には、通信部20と通信部30との間で無線通信リンクが確立され、各装置間で通信可能な状態が構築されるものとする。
以下、携帯端末2および制御装置17の動作について、作業者の作業と共に説明する。
まず、作業者によりターゲティングが行われる。ターゲティングに際し、作業者は、制御装置17の入力装置18に対して所定の操作を行って、ターゲット設定モードへの移行を指示する。当該指示に応じて、制御装置17の制御装置制御部31は、制御装置記憶部36に記憶された空間3次元情報データ38を取得する。制御装置制御部31は、取得した空間3次元情報データ38に基づいて、車室4の仮想3次元空間を表す3次元画像(以下、単に「車室4の3次元画像」という)を表示パネル19に表示する。表示パネル19には、車室4の3次元画像が、ワイヤフレームモデル、サーフェスモデル等の表現方法により、アングルの変更や、拡大、縮小、回転、移動等が可能な状態で表示される。
作業者は、表示パネル19に表示された車室4の3次元画像を参照し、アングルの変更や、拡大/縮小等を行いつつ、車室4の3次元画像から、所定の手段により測定対象3とする領域を指定する。表示パネル19に図1に準じた3次元画像が表示されているものとして、所定の手段の具体例を説明すると、所定の手段は、例えば、カーソルによって領域AR2の外縁をなぞるという手段であり、また、カーソルによって領域AR2の外縁を構成する複数の点(例えば、四隅)をポインティングするという手段であり、また、提供されるインターフェースを利用して領域AR2の外縁を構成する複数の点の座標を指定するという手段である。以上が作業者により行われるターゲティングである。
作業者により測定対象3とする領域が指定されると、制御装置制御部31は、仮想3次元空間における測定対象3の領域を示す情報(以下、「仮想測定対象領域情報」という)を生成する。仮想測定対象領域情報は、物体の露出した表面である測定対象3の領域を仮想3次元空間の点の集合として表した情報である。仮想測定対象領域情報が示す仮想3次元空間における測定対象3の領域は、特許請求の範囲の「測定対象が配置された現実空間に対応する仮想3次元空間における測定対象の位置」に相当する。制御装置制御部31は、生成した仮想測定対象領域情報を、ワークエリアとして機能する制御装置バッファBF1に記憶する。
更に、制御装置制御部31は、制御装置記憶部36に記憶された空間3次元情報データ38および制御装置バッファBF1に記憶された仮想測定対象領域情報に基づいて、仮想3次元空間において測定対象3に対応する領域(以下、「仮想測定対象領域40」とする)を明示した状態で、車室4の3次元画像を表示パネル19に表示する。仮想測定対象領域40は、例えば、対応する領域が枠で囲まれたり、特定の色で塗りつぶされたりされることによって明示される。作業者は、以下で説明する測定用作業を行っている間、表示パネル19の画面を確認することにより、随時、仮想3次元空間における仮想測定対象領域40の位置を確認できる。
ターゲティングの後、作業者は、携帯端末2を用いた測定用作業を開始する。測定用作業において、まず作業者は、携帯端末2の「測定対象3の音響的な特性の測定に関する所定のアプリケーション」(以下、「測定アプリ」という)を起動する。更に作業者は、携帯端末2を初期位置Q1(図4)に載置する。その際、作業者は、携帯端末2の姿勢が初期姿勢となるようにして携帯端末2を載置する。初期位置Q1とは、携帯端末2が後述する測定モードへ移行する前に、携帯端末2が載置されるべき位置として予め定められた位置のことである。また、初期姿勢とは、初期位置Q1に携帯端末2が載置される際に、携帯端末2がとるべき姿勢として予め定められた姿勢のことである。初期位置Q1および初期姿勢は、その初期位置Q1にその初期姿勢で携帯端末2が安定して静止できるとの観点で予め定められている。
上述したように、空間3次元情報データ38には、初期位置関連情報が含まれている。この初期位置関連情報は、仮想3次元空間において初期位置Q1に初期姿勢で載置された携帯端末2の状態を示す情報である。具体的には、本実施形態に係る初期位置関連情報は、初期位置Q1に初期姿勢で載置された携帯端末2の状態について、第1マイク12の仮想3次元空間における位置、および、第2マイク14の仮想3次元空間における位置をそれぞれ、3次元座標系の座標によって表した情報である。
携帯端末2を初期位置Q1に載置した後、作業者は、携帯端末2のタッチスクリーン10に対して所定の操作を行って測定モードへの移行を指示し、動作モードを測定モードへ移行させる。測定モードへの移行に応じて、携帯端末2の位置監視部23は、測定モードへ移行したことを示す情報を、制御装置17の制御装置制御部31に通知する。その後、位置監視部23は、状態検出センサ群16から検出値を所定周期で入力し、初期位置Q1に対する携帯端末2の相対的な位置および姿勢を検出する。位置監視部23は、初期位置Q1に対する携帯端末2の相対的な位置および姿勢を検出する度に、この相対的な位置および姿勢を示す情報(以下、「相対位置情報」という)を制御装置17の制御装置制御部31に送信する。
その後、作業者は、携帯端末2を把持し、測定対象3の近傍で、携帯端末2の底面9bが測定対象3に対向した状態となるように携帯端末2を移動する。その際、作業者は、測定対象3の面と携帯端末2の携帯軸方向とが主観的にできるだけ直交した状態となるようにする。図4(A)は、車室4の現実空間において、携帯端末2が移動する様子を模式的に示す図である。図4(A)の切断面は、図1の車室4を、タッチパネル7およびセンターコンソール5の左右方向の中央で切断した面である。図4(A)は携帯端末2が移動する様子を説明することを主目的とする図であり、図面の簡易化、単純化のため、図1と図4(A)とでは厳密には形状が一致していない。
図4(A)の例では、センターコンソール5上の位置Q1が初期位置であり、携帯端末2の背面9cが載置面と対向し、携帯軸方向下向きと図中の左向き(水平面において車両の前方に向かう向き)とが一致するような姿勢が初期姿勢である。また、図4(A)の例では、車室4のタッチパネル7に形成された領域AR2(図1も併せて参照)が測定対象3となっている。この場合、作業者は、初期位置Q1に載置された携帯端末2を移動させて、図4(A)の状態J1のような状態とする。
上述したように、測定モードへ移行した場合、位置監視部23は、測定モードへ移行したことを示す情報を制御装置17の制御装置制御部31に送信し、その後、初期位置Q1に対する携帯端末2の相対的な位置および姿勢を示す相対位置情報を所定周期で制御装置制御部31に送信する。制御装置制御部31は、測定モードへ移行したことを示す情報を受信すると、表示パネル19に表示した3次元画像について、3次元画像における初期位置Q1に相当する位置に、携帯端末2の仮想オブジェクトである携帯オブジェクト41(図4(B)参照)を表示する。その後、制御装置制御部31は、所定周期で受信する相対位置情報に基づいて、3次元画像内における携帯オブジェクト41の状態を変化させる。
図4(B)は、制御装置17の表示パネル19に表示された車室4の3次元画像において、携帯オブジェクト41が移動する様子を模式的に示す図である。図4(B)では、説明の便宜および図4(A)と比較することを考慮して、車室4の仮想3次元空間を、図4(A)の切断面の外縁をなぞった線によって表現している。ただし、実際には、仮想3次元空間は、作業者により指定されたアングルでワイヤフレームモデル等の所定の表現方法によって立体的に表現される。図4(B)では、測定対象3の領域(本例では、タッチパネル7に形成された領域AR2)に対応する仮想測定対象領域40を、斜線が描画された枠によって表現している。
図4(B)に示すように、本実施形態では、携帯オブジェクト41は、第1マイク12の位置を示す球状の第1ポイント画像43と、第2マイク14の位置を示す球状の第2ポイント画像44と、第1ポイント画像43および第2ポイント画像44を結ぶ棒画像45とにより構成される。第1ポイント画像43は、一対の第1マイク12の中央部に対応する位置P1(図2(A)、(C)、(D)参照)を示す画像であり、第2ポイント画像44は、一対の第2マイク14の中央部に対応する位置P2(図2(A)、(C)、(D)参照)を示す画像である。
図4(B)に示すように、制御装置制御部31は、測定モードへ移行したことを示す情報を受信した場合、初期位置Q1に対応する位置Q1’に、初期姿勢を反映した状態で携帯オブジェクト41を表示する。その後、制御装置制御部31は、相対位置情報を受信する度に、受信した相対位置情報に基づいて、仮想3次元空間における携帯オブジェクト41の位置および姿勢を示す端末3次元位置情報を算出し、制御装置バッファBF1に記憶する。制御装置制御部31は、既に制御装置バッファBF1に端末3次元位置情報が記憶されている場合には、新たに算出した端末3次元位置情報により、既存の端末3次元位置情報を上書き更新する。制御装置制御部31は、所定周期で受信する相対位置情報に基づいて更新される端末3次元位置情報に基づいて、3次元画像における携帯オブジェクト41の位置および姿勢を変化させる。この結果、3次元画像における携帯オブジェクト41の位置および姿勢は、現実空間における携帯端末2の位置および姿勢をリアルタイムで反映した状態となる。例えば、現実空間において携帯端末2が図4(A)の状態J1となった場合、3次元画像において携帯オブジェクト41は図4(B)の状態J2となる。
更に、図4(B)に示すように、制御装置制御部31は、携帯オブジェクト41の第1ポイント画像43から携帯軸方向下向きに向かって伸びた破線画像46を表示する。また、制御装置制御部31は、破線画像46と仮想測定対象領域40とが交わる場合には、その接点に目印となる目印画像47を表示する。上述したように、作業者は、制御装置17の表示パネル19を視認ししつつ作業を行うことができる。このため、作業者は、車室4の現実空間を目視することのほか、表示パネル19に表示された3次元画像の携帯オブジェクト41や、破線画像46、目印画像47、仮想測定対象領域40等を参照して、測定対象3に対して携帯軸方向が直交した状態かどうかを確認できる。
携帯端末2を測定対象3に対応する位置に移動させた後、作業者は、タッチスクリーン10に対して所定の操作を行って、音出力動作の開始を指示する。ただし、音出力動作の開始の指示は、携帯端末2が測定対象3に対応する位置に移動する前であればいつでもよい。
携帯端末2の出力音処理部21は、音出力動作の開始が指示されると、所定周波数で所定振幅の一定長の出力音をスピーカ13から出力する、という音出力動作を、間隔をあけて定期的に繰り返し実行する。出力音は、測定対象3において反射し、その反射音が第1マイク12および第2マイク14に収音されることになる。
携帯端末2の入力音処理部22は、音出力動作が行われる度に、以下の処理を実行する。すなわち、入力音処理部22は、出力音処理部21がスピーカ13に出力音を出力させた後、第1マイク12が最初に反射音の成分を収音したか否かを監視する。なお、音出力動作に基づいて第1マイク12に入射する音には、測定対象3に反射した反射音だけでなく、スピーカ13から直接、入射する音が含まれる。スピーカ13から第1マイク12に直接、入射する音の成分は、出力音が出力されたタイミングとほぼ同じタイミングで第1マイク12に入射するため、入力音処理部22は、音が収音されたタイミングにより、スピーカ13から第1マイク12に直接、入射する音を分析対象から排除する。
入力音処理部22は、第1マイク12が最初に反射音の成分を収音したことを検出した場合、スピーカ13から出力音が出力されたタイミング(以下、「出力タイミング」という)から、第1マイク12が最初に反射音の成分を収音したときのタイミング(以下、「第1タイミング」という)までの経過時間を検出する。以下、この経過時間を「第1タイミング時間」という。例えば、出力音処理部21および入力音処理部22に共通する所定周波数のクロック信号が入力され、出力音処理部21は、出力タイミングのクロックと第1タイミングのクロックとの間のクロック数を第1タイミング時間とする。入力音処理部22は、検出した第1タイミング時間を示す第1タイミング情報を、ワークエリアとして機能する携帯端末バッファBF2に記憶する。入力音処理部22は、既に携帯端末バッファBF2に第1タイミング情報が記憶されている場合には、既存の第1タイミング情報を新たに生成した第1タイミング情報により上書き更新する。
更に、入力音処理部22は、第1マイク12が最初に反射音の成分を収音したことを検出した場合、その後継続して収音される反射音の成分を分析し、反射音の音声波形を示す音声波形情報を生成し、生成した音声波形情報を携帯端末バッファBF2に記憶する。入力音処理部22は、既に携帯端末バッファBF2に音声波形情報が記憶されている場合には、既存の音声波形情報を新たに生成した音声波形情報により上書き更新する。
また、入力音処理部22は、出力音処理部21がスピーカ13に出力音を出力させた後、第2マイク14が最初に反射音の成分を収音したか否かを監視する。なお、音出力動作に基づいて第2マイク14に入射する音には、測定対象3に反射した反射音だけでなく、スピーカ13から直接、入射する音が含まれる。スピーカ13から第2マイク14に直接、入射する音の成分は、出力タイミングから、「スピーカ13の位置から第2マイク14の位置までの距離」を音が進む時間だけ経過したタイミングで第2マイク14に入射するため、入力音処理部22は、音が収音されたタイミングにより、スピーカ13から第2マイク14に直接、入射する音を分析対象から排除する。
入力音処理部22は、第2マイク14が最初に反射音の成分を収音したことを検出した場合、出力タイミングから、第2マイク14が最初に反射音の成分を収音したときのタイミング(以下、「第2タイミング」という)までの経過時間を検出する。以下、この経過時間を「第2タイミング時間」という。入力音処理部22は、検出した第2タイミング時間を示す第2タイミング情報を、ワークエリアとして機能する携帯端末バッファBF2に記憶する。入力音処理部22は、既に携帯端末バッファBF2に第2タイミング情報が記憶されている場合には、既存の第2タイミング情報を新たに生成した第2タイミング情報により上書き更新する。
携帯端末2の一致性検出部25は、音出力動作が行われる度に、その音出力動作に係る第1タイミング情報および第2タイミング情報を携帯端末バッファBF2から取得する。一致性検出部25は、取得した第1タイミング情報および第2タイミング情報に基づいて、第1マイク12の指向方向(=携帯端末2の携帯軸方向)と、測定対象3の反射面の音響的な法線の方向(以下、「音響的法線方向」という。詳細は後述)とが一致性を有するか否かを判定する。以下、一致性検出部25の処理について詳述する。
図5は、一致性検出部25の処理の説明に利用する図である。図5では、説明の便宜のため異なる状態の携帯端末2を実線により一部重ねて表示しており、符号Aは第1マイク12の位置(=スピーカ13の位置)を、符号B、B´はそれぞれ第2マイク14の位置を示している。図5を参照し、測定対象3との関係で、携帯端末2の状態が状態J3であるものとする。状態J3は、第1マイク12の指向方向と、音響的法線方向とが一致している状態である。この場合、携帯端末2のスピーカ13から出力された出力音は、基本的には、スピーカ13を波源として同心円状に広がるように進む。スピーカ13が出力音を出力した後、測定対象3の反射面に反射して最も早く第1マイク12に収音される反射音の成分は、基本的には反射面に対して垂直に入射し、垂直に反射した音の反射音であり、図5で単純化して表すと往路K1と復路K2を通って第1マイク12に収音される。本実施形態では、この復路K2の向き(つまり、出力音の出力後、第1マイク12に最も早く収音される反射音の成分が進む向き)に対応する方向が、音響的法線方向に相当する。
図5に示すように、音響的法線方向と、第1マイク12の指向方向とが一致している状態J3の場合には、第1マイク12に最初に収音された反射音の成分は、第1マイク12に収音された後、第1マイク12と第2マイク14との離間距離Dを音響的法線方向に進み、第2マイク14に収音される。従って、状態J1の場合、第1タイミングと第2タイミングとの差分は、離間距離Dを反射音が進むのに必要な時間となる。
一方、図5において、状態J4は、携帯端末2が、状態J3と比して第1マイク12を中心として、角度θだけ音響的法線方向に対して傾いており、音響的法線方向と、第1マイク12の指向方向とが一致していない状態である。この場合、第1タイミングと第2タイミングとの差分は、状態J3のときの差分よりも小さくなる。理由は以下である。すなわち、出力音が出力された後、第1マイク12に収音されるまでに要する時間は、状態J3と状態J4とで同じである。一方、測定対象3の反射面に対して往路K1を通って入射した出力音の成分は、復路K3を通って第2マイク14に収音される。この復路K3を通って伝わる反射音が、最も早く第2マイク14に収音されることになる。この復路K3の距離は、状態J3において第2マイク14に最初に収音される反射音の成分が通る経路の距離(復路K2の距離+離間距離D)よりも小さい。従って、第2タイミングは、状態J4の方が状態J3よりも早い。
以上を踏まえ、一致性検出部25は、取得した第1タイミング情報および第2タイミング情報に基づいて、第1タイミングと第2タイミングとの差分を検出する。一致性検出部25は、検出した差分が、第1マイク12と第2マイク14との離間距離Dを反射音が進むのに必要な時間に相当するか否かを判定することによって、第1マイク12の指向方向と音響的法線方向との一致性を検出する。より具体的には、一致性検出部25は、当該差分と当該時間との差が一定範囲内である場合には、当該差分が当該時間に相当するとして、第1マイク12の指向方向と音響的法線方向とが一致性を有すると判定する。一方、一致性検出部25は、当該差分と当該時間との差が一定範囲内ではない場合には、第1マイク12の指向方向と音響的法線方向とが一致性を有さないと判定する。
なお、離間距離Dは、事前に登録される。また、「離間距離Dを反射音が進むのに必要な時間」を求めるために必要な反射音の速度は、車室4の平均的な温度を考慮した速度が予め登録されるか、または、温度センサが設けられている場合には、温度をパラメータとする計算式により算出される。一致性検出部25は、出力音処理部21により音出力動作が実行され、音出力動作に応じて第1タイミング情報および第2タイミング情報が携帯端末バッファBF2に新たに記憶される度に上記判定を行う。一致性検出部25は、第1マイク12の指向方向と音響的法線方向とが一致性を有すると判定した場合、そのことを示す一致性検出情報を携帯端末2の出力音処理部21、一致性通知部26、測定部24および現実空間離間距離検出部27に出力すると共に、制御装置17の仮想空間離間距離検出部33に送信する。
携帯端末2の出力音処理部21は、一致性検出部25から一致性検出情報を入力した場合、音出力動作を停止する。後に明らかとなるように、一致性検出部25により第1マイク12の指向方向と、音響的法線方向とが一致性を有すると判定された場合、測定対象3の音響的な特性の測定が行われると共に、当該特性に関するマッピングが行われる。
携帯端末2の一致性通知部26は、一致性検出部25から一致性検出情報を入力した場合、第1マイク12の指向方向と音響的法線方向とが一致性を有する状態であることを作業者に通知する。詳述すると、一致性通知部26は、一致性検出情報を入力した場合、スピーカ13から所定態様の通知音を出力する。このように、本実施形態では、第1マイク12の指向方向と音響的法線方向とが一致性を有する状態とならない限り通知音が出力されない。これを踏まえ、作業者は、通知音が出力されるまで、把持している携帯端末2の姿勢を微調整し、第1マイク12の指向方向と音響的法線方向とが一致性を有する状態となるよう試みる。
一方、作業者は、スピーカ13から通知音が出力された場合、第1マイク12の指向方向と音響的法線方向とが一致性を有したことを認識する。後に明らかとなるように、第1マイク12の指向方向と音響的法線方向とが一致性を有した状態となったときに測定対象3の音響的な特性の測定が行われ、当該特性に関するマッピングが完了する。従って、作業者は、通知音が出力された場合、測定用作業を終了する。なお、一致性通知部26の通知方法は、本実施形態で例示する方法に限られない。例えば、携帯端末2の振動や、タッチスクリーン10への表示により通知するようにしてもよい。
携帯端末2の測定部24は、一致性検出部25から一致性検出情報を入力した場合、携帯端末2に設けられた第1マイク12により収音された反射音に基づいて、測定対象3の音響的な特性を測定する。詳述すると、測定部24は、一致性検出部25から一致性検出情報を入力した場合、携帯端末バッファBF2から音声波形情報を取得する。この音声波形情報は、第1マイク12の指向方向と音響的法線方向とが一致性を有する状態のときに第1マイク12により収音された反射音に基づく情報である。
測定部24は、取得した音声波形情報を分析し、反射音の振幅を検出する。更に、測定部24は、出力音の振幅を検出する。なお、出力音の振幅は固定値であり、出力音の振幅を示す情報が事前に登録されている。測定部24は、この情報に基づいて、出力音の振幅を検出する。次いで、測定部24は、出力音の振幅に対する反射音の振幅の比を求めることによって、反射率を測定する。つまり、本実施形態では、測定部24は、反射率を測定対象3の音響的な特性として測定する。なお、事前に第1マイク12の音の収音に関する特性、および、スピーカ13の音の出力に関する特性が調査されており、測定部24は、第1マイク12の特性およびスピーカ13の特性を反映して反射率を測定する。測定部24は、測定した反射率を示す情報を、制御装置17のマッピング部32に送信する。
以上のように、測定部24による反射率の測定には、第1マイク12の指向方向と音響的法線方向とが一致性を有する状態のときに第1マイク12により収音された反射音に基づく音声波形情報が用いられる。ここで、第1マイク12の指向方向と音響的法線方向とを一致させることにより、第1マイク12によって高い感度で収音された反射音を用いて反射率を測定することができる。また、第1マイク12に収音される反射音は、理想的には測定対象3に対して略垂直に入射した後、略垂直に反射した、最も短い経路を通る音である。従って、反射面に対して傾いて入射される場合と比較して、反射の際に測定対象3による吸音以外の事象により反射音が影響を受けるのを抑制でき、また、音が長い経路を通る場合と比較して、反射音がノイズの影響を受けるのを抑制できる。以上の理由により、本実施形態では、高い精度で反射率を測定できる。
制御装置17のマッピング部32は、測定部24から反射率を示す情報を受信した場合、測定対象3の位置と、測定部24により測定された測定対象3の音響的な特性とを関連付ける。詳述すると、マッピング部32は、測定部24から反射率を示す情報を受信した場合、制御装置記憶部36に記憶された特性データベース37に1件のレコードを新たに生成する。特性データベース37の1件のレコードは、項目として仮想測定対象領域<項目>および測定対象音響特性<項目>を有する。マッピング部32は、制御装置バッファBF1から仮想測定対象領域情報を取得し、生成したレコードの仮想測定対象領域<項目>に格納する。更に、マッピング部32は、生成したレコードの測定対象音響特性<項目>に、携帯端末2の測定部24から受信した反射率を示す情報を格納する。これにより、特性データベース37において、作業者により指定された測定対象3の位置と、測定部24により測定された測定対象3の音響的な特性(本実施形態では、反射率)とが関連付けられた状態となる。
携帯端末2の現実空間離間距離検出部27は、一致性検出部25から一致性検出情報を入力した場合に、以下の処理を実行する。すなわち、現実空間離間距離検出部27は、携帯端末バッファBF2に記憶されている第1タイミング情報を取得する。ここで取得された第1タイミング情報は、第1マイク12の指向方向と音響的法線方向とが一致性を有している状態のときにスピーカ13から出力音が出力されてから第1マイク12により反射音が収音されるまでに要した時間を示す情報である。上述したように、第1マイク12とスピーカ13との位置は同一視でき、また、図5を用いて説明したように、上記状態のときの音の成分は、往路K1および復路K2を進む。このため、基本的には、第1タイミング情報が示す第1タイミング時間に音速を乗じて、それを「1/2」することにより、現実空間における第1マイク12と測定対象3との音響的法線方向における離間距離(以下、「第1離間距離」という)を算出可能である。これを踏まえ、現実空間離間距離検出部27は、上記計算方法により、第1離間距離を算出(検出)する。現実空間離間距離検出部27は、算出した第1離間距離を示す情報を、制御装置17の測定対象修正部35に送信する。
制御装置17の仮想空間離間距離検出部33は、一致性検出部25から一致性検出情報を受信した場合に、以下の処理を実行する。すなわち、仮想空間離間距離検出部33は、制御装置バッファBF1に記憶された端末3次元位置情報を取得する。次いで、仮想空間離間距離検出部33は、取得した端末3次元位置情報と、制御装置記憶部36に記憶された空間3次元情報データ38とに基づいて、仮想3次元空間において、携帯オブジェクト41の仮想的な第1マイク12の位置から、仮想測定対象領域40に伸ばした垂線の長さ(以下、「第2離間距離」という)を算出(検出)する。この第2離間距離は、特許請求の範囲の「仮想3次元空間における第1マイクと測定対象との法線に沿った距離」に相当する。第2離間距離は、現実空間における距離に換算された値とされる。仮想空間離間距離検出部33は、第2離間距離を示す情報を、測定対象修正部35に出力する。
制御装置17の測定対象修正部35は、携帯端末2の現実空間離間距離検出部27から第1離間距離を示す情報を受信し、仮想空間離間距離検出部33から第2離間距離を示す情報を入力する。測定対象修正部35は、第1離間距離を示す情報および第2離間距離を示す情報に基づいて、以下の処理を実行する。
ここで、第1離間距離は、現実空間における第1マイク12から測定対象3までの音響的法線方向に伸ばした線の距離であり、第2離間距離は、仮想空間における仮想的な第1マイク12から仮想測定対象領域40までの垂線の距離である。従って、空間3次元情報データ38において、仮想測定対象領域40に相当する領域(以下、単に「仮想測定対象領域40」という)が、現実空間における測定対象3の領域の状態に従って正しく定義されている場合には、第1離間距離と第2離間距離とはほぼ一致すると想定される。
一方で、仮想測定対象領域40が、現実空間における測定対象3と異なる態様で定義されている場合には、第1離間距離と第2離間距離とが相違すると想定される。より具体的には、第1離間距離に比して第2離間距離が短い場合、仮想測定対象領域40が、現実空間における測定対象3の領域よりも突出した状態となっているものと想定され、また、第1離間距離に比して第2離間距離が長い場合、仮想測定対象領域40が、現実空間における測定対象3の領域よりも凹んだ状態となっているものと想定される。
以上を踏まえ、測定対象修正部35は、第1離間距離と第2離間距離とを比較し、その差が一定範囲内に収まっている場合には、何もしない。一方、第1離間距離と第2離間距離との差が一定範囲内に収まっていない場合(第1離間距離と第2離間距離とが相違する場合)、測定対象修正部35は、空間3次元情報データ38を修正し、仮想3次元空間における仮想的な第1マイク12から仮想測定対象領域40までの垂線の距離が、第1離間距離に近づくようにする。以下、測定対象修正部35の処理について単純化した一例を挙げて説明する。
図6は、測定対象修正部35の処理の説明に用いる図であり、図6(A)は、3次元画像において仮想測定対象領域40が形成された部位を断面図として携帯オブジェクト41と共に示す図である。図6(A)において、仮想測定対象領域40に凸部50が形成されているが、これは、空間3次元情報データ38を生成するときのノイズ等により誤って形成された部位であり、現実空間においては、凸部50に相当する部位はなく、仮想測定対象領域40に対応する測定対象3の領域は平らであるものとする。上述したように、音出力動作は、現実空間では、携帯端末2の底面9bが測定対象3に対向するような姿勢とされた状態で行われる。
今、現実空間において第1マイク12から測定対象3までの垂線の距離が、「150mm」であるとする。この場合、現実空間離間距離検出部27により第1タイミングに基づいて算出される第1離間距離は、「150mm」に近い値となる(以下では便宜的に「150mm」であるものとする)。一方、仮想空間離間距離検出部33により算出された第2離間距離が「77mm」であったとする。第1離間距離と第2離間距離との差は、凸部50の存在に起因するものであり、この場合、凸部50の奥行きは「73mm」であるものと想定される。この場合、測定対象修正部35は、仮想測定対象領域40が、現実空間では第1離間距離と第2離間距離との差の「73mm」分、奥にあると判断し、この差がなくなるように空間3次元情報データにおける仮想測定対象領域40(の定義)を修正する。
図6(B)は、修正後の仮想測定対象領域40を示す図である。図6(B)に示すように、本例では測定対象修正部35は、凸部50がなくなるような修正をし、仮想測定対象領域40が平らになるように修正する。ここで、上述のとおり、測定対象3は、ほぼ平らな面である。これを踏まえ、本例では、測定対象修正部35は、仮想測定対象領域40において、平らな面から突出した凸部50の部分を特定し、この凸部50の部分が周辺の平らな面と一体化するように、仮想測定対象領域40を修正している。
以上、測定対象修正部35の処理の簡単な一例を説明した。上記例では、仮想測定対象領域40に突出した部分がある場合を説明したが、凹んだ部分がある場合も同様の処理が行われて仮想測定対象領域40が修正される。
このように、本実施形態では、測定対象3の音響的な特性の測定の作業が行われている間に、測定対象修正部35の機能により、空間3次元情報データ38の修正が行われる。このため、作業者は、空間3次元情報データ38の修正を行うために、特別な作業を行う必要がなく、また、作業者により特別な作業を伴うことなく自動で空間3次元情報データ38の精度が向上する。更に、空間3次元情報データ38の生成が携帯端末2によって行われる場合には、作業者は、1つの携帯端末2で、空間3次元情報データ38の生成、空間3次元情報データ38に基づく表示を利用した音響特性の測定、および、空間3次元情報データ38の修正が可能となる。このため、作業者の利便性が高い。
制御装置17のマッピング表示部34は、作業者(測定用作業を行った者でなくてもよい)によるマッピング画面51(図7)の表示の指示に応じて、仮想3次元空間を3次元画像として表示すると共に、マッピング部32により行われた関連付けに基づいて、3次元画像内の1つ以上の測定対象3の画像と関連付けて、測定対象の音響的な特性を表す画像を表示する。以下、マッピング表示部34の処理について詳述する。以下のマッピング表示部34の処理では、車室4の複数の測定対象3について、マッピング部32によるマッピング(複数の測定対象3についての特性データベース37へのレコードの生成)が完了しているものとする。
作業者は、例えば、車室4における車内スピーカの位置、向きを設計する場合に、制御装置17の入力装置18に所定の入力を行って、マッピング画面51の表示を指示する。マッピング画面51の表示の指示があったことを検出すると、マッピング表示部34は、制御装置記憶部36から空間3次元情報データ38を取得し、車室4の3次元画像を表示パネルに表示する。
更に、マッピング表示部34は、制御装置記憶部36に記憶された特性データベース37を参照し、当該データベースに基づいて、測定対象3ごとに、仮想3次元空間における位置と、音の反射率とを認識する。そして、マッピング表示部34は、3次元画像内の測定対象3の画像と関連付けて、音の反射率を表す特性表現画像52(特許請求の範囲の「測定対象の音響的な特性を表す画像」に相当)を表示する。
図7は、マッピング画面51の一例を示す図である。本実施形態では、マッピング表示部34は、特性表現画像52を、仮想測定対象領域40から伸びる1つ以上の矢印の画像の集合とする。その際、マッピング表示部34は、測定対象3のそれぞれについて、測定対象3の全域に分散して、向き、長さが同じ矢印の画像を配置する。また、マッピング表示部34は、一の測定対象3の矢印の画像の向きを、その領域の面の法線方向に沿った向きとする。また、マッピング表示部34は、一の測定対象3の矢印の画像の長さを、当一の測定対象3の音の反射率に応じた長さ(3次元空間における3次元的な長さ)とする。より具体的には、反射率(0≦反射率≦1とする)が「1」のときの矢印の長さLが予め定められており、マッピング表示部34は、一の測定対象3の矢印の画像の長さを、長さLに対して、当該一の測定対象3の反射率を乗じた値とする。つまり、音の反射率は定量的な値として表現されるものであり、マッピング表示部34は、特性表現画像52として、反射率の大きさ、および、測定対象3の面の法線方向を矢印によって表す画像を表示する。
例えば、図7における測定対象3の1つである領域AR2に着目すると、領域AR2に係る特性表現画像52は、この領域の全域に分散して配置された6本の矢印の画像により構成されている。6本の矢印の画像のそれぞれは、同じ長さで同じ方向に伸びている。また、6本の矢印の画像は、領域AR2の面の法線方向に伸びており、その長さは、反射率に対応した長さとされている。作業者は、マッピング画面51を参照することにより、車室4内の各測定対象3の音の反射率がどのような状態であるかを、現実世界の車室4とリンクするリアルさをもって認識することができる。また、作業者は、車室4内における音の反射率を、なんとなくではなく、各測定対象3の位置を的確に認識しつつ、各測定対象3の法線方向および反射率との比較を通して明確に把握できる。
以上詳しく説明したように、本実施形態に係る音響特性測定システム1は、携帯端末2に設けられたスピーカ13から測定対象3に向かって出力音が出力される音出力動作が行われた際に、携帯端末2に設けられた第1マイク12により収音された反射音を分析し、測定対象3の音の反射率を測定し、測定対象3が配置された現実空間に対応する仮想3次元空間における測定対象3の位置と、測定部24により測定された測定対象3の音の反射率とを関連付けるようにしている。
この構成によれば、仮想3次元空間における測定対象3の位置と、その測定対象3を対象として実際に測定された測定対象3の音の反射率とが関連付けられる。このため、本実施形態におけるマッピング画面51の提供のように、測定対象3ごとに、その3次元的な配置位置を示す情報とその測定対象3の反射率を示す情報とを関連付けて作業者に対して提供することが可能となる。これにより、経験やスキルを有さない作業者も、関連付けられた情報の提供を受けることによって、測定対象3ごとの3次元的な配置位置とその測定対象3の音響的な特性とを認識できる。つまり、上記構成によれば、測定対象3ごとの3次元的な配置位置とその測定対象3の音響的な特性を、経験やスキルに依存しない体系的な知識として作業者に伝達可能となり、これにより、車室4に関する音響的な設計について、経験やスキルを有さない作業者を支援できる。
また、車室4内における車内スピーカの位置、向きを設計する際に、従来、車内スピーカの位置、向きの調整、および、調整後の位置、向きにおける音質の評価が繰り返し行われた上で、評価に基づいて設計がなされることがあった。そして、作業者に提供される関連付けられた情報によれば、作業者は、測定対象3ごとに、3次元的な配置位置とその音響的な特性とが分かるため、現場で行われていた不必要な試行を特定し、削減することが可能となり、作業者の作業負担が低減する。
次に、携帯端末2および制御装置17の動作例、特に出力音処理部21により音出力動作が行われたときの各装置の動作例について図8、9のフローチャートを用いて説明する。図8に示すように、携帯端末2の出力音処理部21は、所定周波数で所定振幅の一定長の出力音をスピーカ13から出力する、という音出力動作を実行する(ステップSA1)。携帯端末2の入力音処理部22は、第1マイク12が最初に反射音の成分を収音したか否かを監視する(ステップSA2)。
第1マイク12が最初に反射音の成分を収音したことを検出した場合(ステップSA2:YES)、入力音処理部22は、第1タイミング時間を検出する(ステップSA3)。入力音処理部22は、検出した第1タイミング時間を示す第1タイミング情報を携帯端末バッファBF2に記憶する(ステップSA4)。更に、入力音処理部22は、反射音の成分を分析し、反射音の音声波形を示す音声波形情報を生成し、携帯端末バッファBF2に記憶する(ステップSA5)。
また、入力音処理部22は、第2マイク14が最初に反射音の成分を収音したか否かを監視する(ステップSA6)。第2マイク14が最初に反射音の成分を収音したことを検出した場合(ステップSA6:YES)、入力音処理部22は、出力タイミングから、第2タイミング時間を検出する(ステップSA7)。入力音処理部22は、検出した第2タイミング時間を示す第2タイミング情報を携帯端末バッファBF2に記憶する(ステップSA8)
携帯端末2の一致性検出部25は、係る第1タイミング情報および第2タイミング情報を携帯端末バッファBF2から取得する(ステップSA9)。一致性検出部25は、取得した第1タイミング情報および第2タイミング情報に基づいて、第1マイク12の指向方向と、音響的法線方向とが一致性を有するか否かを判定する(ステップSA10)。一致性検出部25は、第1マイク12の指向方向と音響的法線方向とが一致性を有すると判定した場合(ステップSA10:YES)、そのことを示す一致性検出情報を携帯端末2の出力音処理部21、一致性通知部26、測定部24および現実空間離間距離検出部27に出力すると共に、制御装置17の仮想空間離間距離検出部33に送信する(ステップSA11)。一方、一致性を有さないと判定した場合(ステップSA10:NO)、一致性検出部25は、一致性検出情報の出力、送信を行わない。この場合、図8、図9のフローチャートは終了する。
図9のフローチャートに示すように、携帯端末2の出力音処理部21は、一致性検出情報を入力し、音出力動作を停止する(ステップSA12)。また、携帯端末2の一致性通知部26は、一致性検出情報を入力し、スピーカ13から所定態様の通知音を出力して、第1マイク12の指向方向と音響的法線方向とが一致したことを通知する(ステップSA13)。携帯端末2の測定部24は、一致性検出情報を入力し、携帯端末バッファBF2から音声波形情報を取得する(ステップSA14)。
測定部24は、取得した音声波形情報を分析し、反射音の振幅を検出し、出力音の振幅に対する反射音の振幅の比を求めることによって、反射率を測定する(ステップSA15)。測定部24は、測定した反射率を示す情報を、制御装置17のマッピング部32に送信する(ステップSA16)。
制御装置17のマッピング部32は、測定部24から反射率を示す情報を受信し、測定対象3の位置と、測定部24により測定された測定対象3の音響的な特性とを関連付ける(ステップSA17)。具体的には、マッピング部32は、特性データベース37に、制御装置バッファBF1に記憶されている仮想測定対象領域情報と受信した反射率を示す情報とが対応付けられたレコードを生成する。
携帯端末2の現実空間離間距離検出部27は、一致性検出情報を入力し、第1タイミング情報を取得する(ステップSA18)。次いで、現実空間離間距離検出部27は、第1タイミング情報に基づいて、第1離間距離を算出(検出)する(ステップSA19)。現実空間離間距離検出部27は、算出した第1離間距離を示す情報を、制御装置17の測定対象修正部35に送信する(ステップSA20)。
制御装置17の仮想空間離間距離検出部33は、一致性検出情報を入力し、端末3次元位置情報を取得する(ステップSA21)。次いで、仮想空間離間距離検出部33は、取得した端末3次元位置情報と、制御装置記憶部36に記憶された空間3次元情報データ38とに基づいて、第2離間距離を算出(検出)する(ステップSA22)。仮想空間離間距離検出部33は、第2離間距離を示す情報を、測定対象修正部35に出力する(ステップSA23)。
制御装置17の測定対象修正部35は、携帯端末2の現実空間離間距離検出部27から第1離間距離を示す情報を受信し、仮想空間離間距離検出部33から第2離間距離を示す情報を入力する(ステップSA24)。測定対象修正部35は、第1離間距離と第2離間距離との差が一定範囲内に収まっていない場合、測定対象修正部35は、空間3次元情報データ38を修正し、仮想3次元空間における仮想的な第1マイク12から仮想測定対象領域40までの垂線の距離が、第1離間距離に近づくようにする(ステップSA25)。
以上、本発明の一実施形態を説明したが、上記実施形態は、本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
例えば、上記実施形態では、測定部24により測定される測定対象3の音響的な特性は、測定対象3の音の反射率であった。しかし、測定対象3の音響的な特性は、測定対象3の音の反射率に限られない。一例として、「出力音の振幅」に対する「出力音の振幅と反射音との差」として算出される表面吸音率を測定対象3の音響的な特性としてもよい。表面吸音率は定量的な値であるため、マッピング画面51において反射率と同様、測定対象3の画像から法線方向に伸びる矢印であって、その長さが表面吸音率に対応する長さ(ただし、反射率と逆に表面吸音率が高いほど短くするようにしてもよい。また、矢印を逆向きにしてもよい)の矢印の画像によって表現することが可能である。このほか、測定対象3の音響的な特性は、測定対象3が音を反射するときに周波数や音圧その他の音響的な要素に影響を与える場合において、その影響の度合いを表す性質とすることができる。
また、携帯オブジェクト41の態様は、上記実施形態で例示したものに限られない。例えば、携帯端末2を模した立体的な形状の仮想オブジェクトであってもよい。
また、マッピング画面51の表示態様は、上記実施形態で例示したものに限られない。一例として、特性表現画像52に含まれる矢印の画像について、反射率の大きさにおいて太さを変化させたり、色を変化させたり、形状を変化させたり(一例として、棒の部分を破線によって表し、破線の間隔を反射率の大きさによって変化させる)するようにしてもよい。また、異なる複数の「測定対象3の音響的な特性」を測定する場合において、1つの測定対象3の画像に、複数の特性に係る特性表現画像52を表示する構成でもよい。この場合、例えば、特性ごとに特性表現画像52の色を変えればよい。
また、上記実施形態では、制御装置17がマッピング画面51を表示する場合を例にして実施形態を説明した。しかしながら、マッピング画面51を表示する装置は、制御装置17(つまり、特性の測定に供される装置)に限られず、他の装置(例えば、設計が行われる部屋の端末)であってもよい。この場合、当該他の装置が、音響特性測定システム1の一部を構成する。
また、上記実施形態では、制御装置17の制御装置制御部31は、携帯端末2の初期位置からの相対的な変化に基づいて、仮想3次元空間における携帯端末2の仮想的な位置を検出した。この点に関し、制御装置制御部31が、専用のシステムによって携帯端末2をトラッキングし、仮想3次元空間における携帯端末2の仮想的な位置を検出する構成でもよい。一例として、携帯端末2に複数の受光センサが設けられたトラッカを設けると共に、車室4の所定の位置に、赤外線レーザを規則に従って所定の態様で照射する複数のトラッキングセンサを設ける。そして、トラッカが赤外線レーザの受光状況に基づいて仮想3次元空間における携帯端末2の位置、姿勢を検出し、制御装置制御部31がトラッカの検出結果を取得する。このような構成でもよい。ただし、本実施携帯では、専用のトラッカやトラッキングセンサを用意することなく、携帯端末2(例えば、スマートフォン)によって簡便に測定を行うことができ、その点で作業者の利便性が高い。
また、上記実施形態では、作業者により測定用作業が行われると、自動で、測定対象修正部35により空間3次元情報データ38の修正が行われる構成であった。これについて、作業者の指示があった場合にのみ、測定対象修正部35により空間3次元情報データ38の修正が行われる構成でもよい。
また、上記実施形態では、測定対象3の音響的な特性を測定する空間は、車室4であった。しかしながら、当該空間は車室4に限らず、試聴室や、無響室等の音響に関する設計が行われ得る空間であればよい。この他、空間を構成する要素(例えば、ドアアッシーのアウターパネルとインナーパネルとの間の部分)を測定対象3の音響的な特性を測定する対象としてもよい。車室の内側を形成するドアを対象とする場合、例えば、測定対象3ごとに、音響的な特性を把握でき、ドアの形状や素材の選択に有効である。
また、上記実施形態で携帯端末2が有していた機能ブロックを制御装置17が有するようにしてもよく、上記実施形態で制御装置17が有していた機能ブロックを携帯端末2が有するようにしてもよい。また、1つの機能ブロックの処理を携帯端末2と制御装置17とが協働して実行する構成でもよい。
1 音響特性測定システム
3 測定対象
12 第1マイク
13 スピーカ
14 第2マイク
17 制御装置
2 携帯端末(測定装置)
24 測定部
25 一致性検出部
26 一致性通知部
27 現実空間離間距離検出部
32 マッピング部
33 仮想空間離間距離検出部
34 マッピング表示部
35 測定対象修正部

Claims (9)

  1. 測定装置に設けられたスピーカから測定対象に向かって出力音が出力される音出力動作が行われた際に、前記測定装置に設けられた第1マイクにより収音された反射音を分析し、前記測定対象の音響的な特性を測定する測定部と、
    前記測定対象が配置された現実空間に対応する仮想3次元空間における前記測定対象の位置と、前記測定部により測定された前記測定対象の音響的な特性とを関連付けるマッピング部と、
    前記仮想3次元空間を3次元画像として表示すると共に、前記マッピング部により行われた関連付けに基づいて、前記3次元画像内の前記測定対象の画像と関連付けて、前記測定対象の音響的な特性を表す画像を表示するマッピング表示部とを備え、
    前記測定対象の音響的な特性が定量的な値として表現されるものであり、
    前記マッピング表示部は、前記測定対象の音響的な特性を表す画像として、前記測定対象の音響的な特性の大きさ、および、前記測定対象の面の法線方向を矢印によって表す画像を表示する
    ことを特徴とする音響特性測定システム。
  2. 前記測定部は、前記出力音の振幅および前記反射音の振幅を検出し、前記出力音の振幅と前記反射音の振幅とに基づいて前記測定対象の表面吸音率または音の反射率を前記測定対象の音響的な特性として測定する
    ことを特徴とする請求項1に記載の音響特性測定システム。
  3. 前記測定装置は、カメラを有し、
    前記マッピング表示部は、空間3次元情報データに基づいて前記3次元画像を表示し、
    前記空間3次元情報データは、前記測定装置の前記カメラの撮影結果に基づいて生成されたデータである
    ことを特徴とする請求項またはに記載の音響特性測定システム。
  4. 測定装置に設けられたスピーカから測定対象に向かって出力音が出力される音出力動作が行われた際に、前記測定装置に設けられた第1マイクにより収音された反射音を分析し、前記測定対象の音響的な特性を測定する測定部と、
    前記測定対象が配置された現実空間に対応する仮想3次元空間における前記測定対象の位置と、前記測定部により測定された前記測定対象の音響的な特性とを関連付けるマッピング部とを備え、
    前記測定装置には、前記第1マイクから、前記第1マイクの指向方向に沿って離間した位置に第2マイクが設けられ、
    前記音出力動作が行われたときに、前記第1マイクにより前記反射音が収音されたタイミングと前記第2マイクにより前記反射音が収音されたタイミングとの差分を検出し、検出した差分が前記第1マイクと前記第2マイクとの離間距離を前記反射音が進むのに必要な時間に相当するか否かを判定することによって、前記第1マイクの指向方向と、前記測定対象の反射面の音響的な法線の方向との一致性を検出する一致性検出部を更に備え、
    前記マッピング部は、前記一致性検出部により一致性が検出されているときに前記測定部により測定された前記測定対象の音響的な特性を、前記仮想3次元空間における前記測定対象の位置と関連付ける
    ことを特徴とする音響特性測定システム。
  5. 前記測定装置は、ユーザにより把持可能な程度に小型の端末であり、
    前記音出力動作は、前記測定装置が前記ユーザにより把持された状態で行われ、
    前記一致性検出部により一致性が検出された場合に、そのことを前記ユーザに通知する一致性検出通知部を更に備える
    ことを特徴とする請求項に記載の音響特性測定システム。
  6. 前記一致性検出部により一致性が検出されている状態のときに、前記スピーカから前記出力音が出力されたタイミングと、前記第1マイクにより前記反射音が収音されたタイミングとの差分を検出し、検出した差分に基づいて前記現実空間における前記第1マイクと前記測定対象との前記法線に沿った第1離間距離を検出する現実空間離間距離検出部と、
    前記一致性検出部により一致性が検出されている状態のときに、前記仮想3次元空間における前記第1マイクと前記測定対象との前記法線に沿った第2離間距離を検出する仮想空間離間距離検出部と、
    前記第1離間距離と前記第2離間距離とが相違する場合、前記仮想3次元空間における前記測定対象の状態を修正し、前記仮想3次元空間における前記第1マイクと状態を修正した後の前記測定対象との前記法線に沿った離間距離が、前記第1離間距離に近づくようにする測定対象修正部と、
    を更に備えることを特徴とする請求項またはに記載の音響特性測定システム。
  7. 前記測定部は、前記出力音の振幅および前記反射音の振幅を検出し、前記出力音の振幅と前記反射音の振幅とに基づいて前記測定対象の表面吸音率または音の反射率を前記測定対象の音響的な特性として測定する
    ことを特徴とする請求項4から6の何れか1項に記載の音響特性測定システム。
  8. 音響特性測定システムの測定部が、測定装置に設けられたスピーカから測定対象に向かって出力音が出力される音出力動作が行われた際に、前記測定装置に設けられた第1マイクにより収音された反射音を分析し、前記測定対象の音響的な特性を測定するステップと、
    前記音響特性測定システムのマッピング部が、前記測定対象が配置された現実空間に対応する仮想3次元空間における前記測定対象の位置と、前記測定部により測定された、定量的な値として表現される前記測定対象の音響的な特性とを関連付けるステップと、
    前記音響特性測定システムのマッピング表示部が、前記測定対象の音響的な特性を表す画像として、前記測定対象の音響的な特性の大きさ、および、前記測定対象の面の法線方向を矢印によって表す画像を表示するステップとを含む
    ことを特徴とする音響特性測定方法。
  9. 音響特性測定システムの測定部が、第1マイクと前記第1マイクの指向方向に沿って離間した場所に位置する第2マイクとが設けられた測定装置に設けられたスピーカから測定対象に向かって出力音が出力される音出力動作が行われた際に、前記第1マイクにより収音された反射音を分析し、前記測定対象の音響的な特性を測定する第1ステップと、
    前記音響特性測定システムのマッピング部が、前記測定対象が配置された現実空間に対応する仮想3次元空間における前記測定対象の位置と、前記測定部により測定された前記測定対象の音響的な特性とを関連付ける第2ステップとを含み、
    前記第1ステップにおいて前記音出力動作が行われたときに、前記音響特性測定システムの一致性検出部が、前記第1マイクにより前記反射音が収音されたタイミングと前記第2マイクにより前記反射音が収音されたタイミングとの差分を検出し、検出した差分が前記第1マイクと前記第2マイクとの離間距離を前記反射音が進むのに必要な時間に相当するか否かを判定することによって、前記第1マイクの指向方向と、前記測定対象の反射面の音響的な法線の方向との一致性を検出し、
    前記第2ステップにおいて前記マッピング部は、前記一致性検出部により一致性が検出されているときに前記測定部により測定された前記測定対象の音響的な特性を、前記仮想3次元空間における前記測定対象の位置と関連付ける
    ことを特徴とする音響特性測定方法。
JP2019054585A 2019-03-22 2019-03-22 音響特性測定システムおよび音響特性測定方法 Active JP7057309B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019054585A JP7057309B2 (ja) 2019-03-22 2019-03-22 音響特性測定システムおよび音響特性測定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019054585A JP7057309B2 (ja) 2019-03-22 2019-03-22 音響特性測定システムおよび音響特性測定方法

Publications (2)

Publication Number Publication Date
JP2020153906A JP2020153906A (ja) 2020-09-24
JP7057309B2 true JP7057309B2 (ja) 2022-04-19

Family

ID=72558740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019054585A Active JP7057309B2 (ja) 2019-03-22 2019-03-22 音響特性測定システムおよび音響特性測定方法

Country Status (1)

Country Link
JP (1) JP7057309B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023012920A1 (ja) * 2021-08-04 2023-02-09

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017163432A (ja) 2016-03-10 2017-09-14 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CZ2014123A3 (cs) * 2014-02-27 2015-05-27 České Vysoké Učení Technické V Praze Univerzitní Centrum Energeticky Efektivních Budov Přenosné zařízení pro měření koeficientu akustické odrazivosti v terénu

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017163432A (ja) 2016-03-10 2017-09-14 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
JP2020153906A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
US8614669B2 (en) Touchless tablet method and system thereof
US11617050B2 (en) Systems and methods for sound source virtualization
KR101464327B1 (ko) 3차원 에어터치 피드백 장치, 시스템 및 방법
CN107179826B (zh) 姿势输入系统和姿势输入方法
US8334841B2 (en) Virtual user interface method and system thereof
US9516241B2 (en) Beamforming method and apparatus for sound signal
CN109164414A (zh) 基于麦克风阵列的定位方法、装置和存储介质
WO2017197867A1 (zh) 一种采集声音信号的方法和装置
JP6097327B2 (ja) 携帯端末、音波測距システムおよび音波測距方法
EP3416032A1 (en) Touch control system, touch control display system, and touch control interaction method
EP3248387A1 (en) Mountable sound capture and reproduction device for determining acoustic signal origin
CN109565629A (zh) 分布式音频捕获和混合控制
CN109564467A (zh) 具有音频、视觉和运动分析的数码相机
US11740350B2 (en) Ultrasonic sensor
JP7057309B2 (ja) 音響特性測定システムおよび音響特性測定方法
US20190353781A1 (en) System of Tracking Acoustic Signal Receivers
CN109240413A (zh) 屏幕发声方法、装置、电子装置及存储介质
US10306394B1 (en) Method of managing a plurality of devices
JP2018034221A (ja) ロボットシステム
JP6751777B2 (ja) コンピュータプログラム、表示装置、頭部装着型表示装置
JP2015130550A (ja) 音響処理装置、音響処理方法および音響処理プログラム
EP3661233B1 (en) Wearable beamforming speaker array
WO2020217591A1 (ja) 治具の配置を示す映像処理システム
JP2013016047A (ja) ポインティングシステム
US20200004489A1 (en) Ultrasonic discovery protocol for display devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220407

R150 Certificate of patent or registration of utility model

Ref document number: 7057309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150