JP2022174479A - Data visualizing system in space - Google Patents
Data visualizing system in space Download PDFInfo
- Publication number
- JP2022174479A JP2022174479A JP2021080301A JP2021080301A JP2022174479A JP 2022174479 A JP2022174479 A JP 2022174479A JP 2021080301 A JP2021080301 A JP 2021080301A JP 2021080301 A JP2021080301 A JP 2021080301A JP 2022174479 A JP2022174479 A JP 2022174479A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- data
- space
- real space
- pressure level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009826 distribution Methods 0.000 claims abstract description 76
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 23
- 238000010586 diagram Methods 0.000 claims abstract description 22
- 238000013507 mapping Methods 0.000 claims abstract description 19
- 238000005520 cutting process Methods 0.000 claims abstract description 3
- 239000003086 colorant Substances 0.000 claims description 3
- 238000013079 data visualisation Methods 0.000 claims 2
- 238000000034 method Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 12
- 238000012800 visualization Methods 0.000 description 11
- 238000009434 installation Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009413 insulation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Landscapes
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
Description
本発明は、音可視化システムに係り、例えば、現実の空間内での奥行き方向での異なる位置からのそれぞれ音圧レベルを計測できて該それぞれの音圧レベル分布の計測結果をリアルタイムで現実の3次元空間上に立体的に可視化できる音などをデータ化して可視化するシステムに関するものである。
The present invention relates to a sound visualization system, for example, capable of measuring sound pressure levels from different positions in the depth direction in a real space, and displaying the measurement results of the respective sound pressure level distributions in real time. This is related to a system that converts and visualizes sounds that can be stereoscopically visualized in a dimensional space.
従来の音可視化装置としては、入力した音信号に基づいて最小分散法を適用したビームフォーミングにより音の到来方向を探査し、該探査結果を提示する特開2015-219138号の発明が知られている。
また、3次元インテンシティプローブを用いて3次元空間における音響インテンシティを測定する手法(特開2003-294822号)も知られている。
As a conventional sound visualization device, the invention disclosed in Japanese Patent Application Laid-Open No. 2015-219138 is known, which searches for the arrival direction of the sound by beamforming applying the minimum variance method based on the input sound signal and presents the search result. there is
Also known is a method of measuring sound intensity in a three-dimensional space using a three-dimensional intensity probe (Japanese Patent Application Laid-Open No. 2003-294822).
しかしながら、前記特許文献1による音可視化装置は、音圧レベル分布を測定する断面からマイクロホンまでの距離を任意で設定することにより測定を行い、測定結果の表示はPCのディスプレイ上で平面的に表示されるのみである。そのため、評価面の例えば奥行方向の異なった位置における音圧レベル情報が把握しにくいという課題があった。
However, the sound visualization device according to
また特許文献2による計測手法では、定常的な音でなければ音の流れを可視化することができず、変動的な音をリアルタイムで計測することができないという課題がある。
Moreover, the measurement method according to
そこで、本発明は前記従来の課題を解消すべく創案されたものであり、ビームフォーミングによる音圧レベル分布データを現実の3次元空間における奥行き方向の異なった位置においてもそれぞれリアルタイムに計測できると共に、計測したそれぞれの音圧レベル分布データからカラー表示で色分けした音圧レベル分布図を現実の空間である3次元空間内で表示すべく生成でき、もって奥行方向の異なった位置での音圧レベル情報について確実に把握、認識できる音可視化システムを提供することを目的とするものである。
Therefore, the present invention has been devised to solve the above-described conventional problems, and enables real-time measurement of sound pressure level distribution data obtained by beam forming even at different positions in the depth direction in an actual three-dimensional space, A color-coded sound pressure level distribution map can be generated from each measured sound pressure level distribution data so as to be displayed in a three-dimensional space, which is a real space, thereby providing sound pressure level information at different positions in the depth direction. The purpose is to provide a sound visualization system that can reliably grasp and recognize about.
本発明は、
現実の空間を空間マッピング処理して、現実の空間でのX、Y、Z座標の座標位置を記憶し、前記座標位置が記憶された現実の空間内に、映像制御が行える別の映像を重ね合わせ、前記映像制御が行える別の映像の所定箇所での横断面を切り出して検知面が形成できると共に、該検知面に複数の計算用メッシュ面が形成でき、前記形成された複数の計算用メッシュ面上での取得データを検知手段で検知し、検知したデータを算出手段により算出して前記複数の計算用メッシュ面上でのデータ値を求め、求めた複数のデータ値からデータ分布図作成手段によりデータ分布図を生成し、現実空間でのデータ分布状況を可視化した、
ことを特徴とし、
または、
音発出部からの音を集音する検知手段が配置された現実の空間を空間マッピング処理をして現実の空間でのX、Y、Z座標の座標位置を記憶し、前記座標位置が認識された現実の空間内に、前記検知手段が配置され、映像制御が行える別の映像を重ね合わせ、前記映像制御が行える別の映像の所定箇所での横断面を切り出して音検知面が形成できると共に、該音検知面に複数の計算用メッシュ面が形成でき、前記形成された複数の計算用メッシュ面上での音データを検知手段で検知し、検知した音データを算出手段により算出して前記複数の計算用メッシュ面上での音データ値を求め、求めた複数の音データ値から音データ分布図作成手段により音データ分布図を生成し、現実空間での音データ分布状況を可視化した、
ことを特徴とし、
または、
前記音データ値は音圧レベル強弱値であり、前記音データ分布図は、音圧レベル強弱分布図である、
ことを特徴とし、
または、
前記分布図は、音圧レベル強弱をカラーで色分け表示できる、
ことを特徴とし、
または、
前記表示部は光透過ディスプレイである、
ことを特徴とするものである。
The present invention
Space mapping processing is performed on the real space to store the coordinate positions of the X, Y, and Z coordinates in the real space, and another image that can be image-controlled is superimposed in the real space in which the coordinate positions are stored. In addition, a detection plane can be formed by cutting out a cross-section at a predetermined location of another video for which the video control can be performed, and a plurality of calculation mesh planes can be formed on the detection plane, and the formed plurality of calculation meshes can be formed. Data obtained on the surface is detected by the detection means, the detected data is calculated by the calculation means to obtain data values on the plurality of calculation mesh surfaces, and a data distribution diagram creation means is obtained from the obtained plurality of data values. generated a data distribution map and visualized the data distribution situation in the real space,
characterized by
or,
Space mapping processing is performed on the real space in which the detection means for collecting sound from the sound emitting unit is arranged, and the coordinate positions of the X, Y, and Z coordinates in the real space are stored, and the coordinate positions are recognized. In the actual space, the detection means is arranged, and another image that can be image-controlled is superimposed, and a cross section at a predetermined position of the another image that can be image-controlled is cut out to form a sound detection surface. a plurality of computational mesh planes can be formed on the sound detection plane, sound data on the formed plurality of computational mesh planes is detected by the detection means, the detected sound data is calculated by the calculation means, and the Obtaining sound data values on a plurality of calculation mesh surfaces, generating a sound data distribution map from the obtained plurality of sound data values by a sound data distribution map creating means, and visualizing the sound data distribution situation in the real space,
characterized by
or,
The sound data value is a sound pressure level intensity value, and the sound data distribution map is a sound pressure level intensity distribution map,
characterized by
or,
The distribution map can display the intensity of sound pressure levels in different colors,
characterized by
or,
The display unit is a light transmissive display,
It is characterized by
本発明によれば、ビームフォーミングによる音圧レベル分布データを現実の3次元空間における奥行き方向の異なった位置においてもそれぞれリアルタイムに計測できると共に、計測したそれぞれの音圧レベル分布データからカラー表示で色分けした音圧レベル分布図を現実の空間である3次元空間内で表示すべく生成でき、もって奥行方向の異なった位置での音圧レベル情報について確実に把握、認識できる音可視化システムを提供出来るとの優れた効果を奏する。
According to the present invention, sound pressure level distribution data obtained by beam forming can be measured in real time even at different positions in the depth direction in an actual three-dimensional space, and the measured sound pressure level distribution data can be color-coded by color display. It is possible to provide a sound visualization system that can generate a sound pressure level distribution map to be displayed in a three-dimensional space, which is an actual space, and that can reliably grasp and recognize sound pressure level information at different positions in the depth direction. excellent effect.
以下本発明を図に示す実施例に基づいて説明する。
図1は本発明の概略構成を説明する概略構成説明図である。
符号1は例えば16個のマイクロホン15を所定間隔に配置して構成した16chのマイクロホンアレイであり、特許請求の範囲の欄に記載されている検知手段に対応する。しかし、検知手段としてはマイクロホンアレイ1に限定されるものではない。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below based on an embodiment shown in the drawings.
FIG. 1 is a schematic configuration explanatory diagram for explaining the schematic configuration of the present invention.
該マイクロホンアレイ1が集音した前方の3次元空間所定位置からの音圧レベルの情報は演算ユニット2に送出される。そして前記音圧レベルは演算ユニット2のバンドパスフィルタ3を通過して所定周波数の音圧レベルが取得され、取得された音圧レベルはビームフォーミング処理部4により、ビームフォーミング処理される。
Information on the sound pressure level from a predetermined position in the front three-dimensional space collected by the
すなわち、マイクロホンアレイ1の複数のマイクロホン15から集音され、演算ユニット2のバンドパスフィルタ3を通過して所定周波数にされた音圧レベルはビームフォーミング処理されて音圧レベル分布データが生成される。音圧レベル分布データとは、例えば、音圧レベル(dB)の強弱を分布図として示すことの出来るデータとして処理されたものをいう。
That is, sound pressure levels collected from the plurality of
そして、この音圧レベル分布データは映像可視化部6においてカラー表示で色分けされた音圧レベル分布図として映像生成され、該映像が表示部11などにおいて可視化されるものとなる。
なお、前記カラー表示で色分けされた音圧レベル分布図のデータは、PCなどで構成された制御装置5に送出され、記憶部に格納可能とされている。
ここで、前記演算ユニット2とPCなどの制御装置5を一体装置として構成しても構わないし、分離して構成しても構わない。
Then, the sound pressure level distribution data is generated as a color-coded sound pressure level distribution diagram in the
The color-coded sound pressure level distribution map data is transmitted to the
Here, the
さらに、前記音圧レベル分布図のデータは、MRデバイス7にも送出され、MRデバイス7の制御部12で処理されて映像可視化される。なお、MRデバイス7における「MR」のフルスペルは「Mixed Reality」であり、「Mixed Reality」は複合現実と訳されている。
Further, the data of the sound pressure level distribution map is also sent to the
ここで、前記MRデバイス7は、RGBカメラなどの撮影手段8及び深度センサなどの検出部9、光透過ディスプレイなどの表示部11、制御部12、入力部18を備えて構成されている(図2参照)。
Here, the
なお、図1において、MRデバイス7は4台設置されているが、この数に限定されない。1台でも構わないし、複数台でも構わない。そして、複数台のMRデバイス7が眼鏡型のデバイスとして構成されると、眼鏡型の光透過ディスプレイである表示部11を介して現実の実空間内に例えば音の発出状態などが可視化された音圧レベル分布図が重畳された映像をそれぞれ視ることが出来る。
Although four
図2、図3はMRデバイス7の概略構成説明図であり、図1に示すように、ビームフォーミング処理されて生成された音圧レベル分布データは、MRデバイス7に送出され、該MRデバイス7の制御部12で音圧レベル分布データ(例えばバイナリーデータ13など)がカラー表示で色分けした音圧レベル分布図(カラーマップ14)が可視化できるよう制御され、生成されるものとなる。
2 and 3 are schematic configuration explanatory diagrams of the
ここで、さらにMRデバイス7の動作につき説明すると、眼鏡型のMRデバイス7は、光透過ディスプレイなどの表示部11を有するため、肉眼で現実の実空間が視られる。
しかし、RGBカメラ8などの撮影手段8と深度センサなどの検出部9も有しており、これにより立体的な現実の空間を撮影でき、かつ撮影された映像データを保存データ10として保存することもできる様にも構成されている。
そして、撮影された立体的な現実の実空間は、X座標、Y座標、Z座標の座標位置が認識できる3次元空間として制御部12により空間マッピング処理される(図4参照)。
Here, the operation of the
However, it also has a photographing means 8 such as an RGB camera 8 and a detection unit 9 such as a depth sensor. It is also configured to be able to
Then, the three-dimensional real space that has been photographed is spatially mapped by the
該空間マッピング処理により例えば眼鏡型MRデバイス7の装着者が現実の実空間である3次元空間のどの位置にいるのかをも認識することもできることとなる(自己位置推定機能)。これらマッピングと自己位置推定の処理については、例えば公知のSLAM(Simultaneous Localization and Mapping,)方式等により行われる。
By the spatial mapping processing, for example, it is also possible to recognize the position of the wearer of the glasses-
ここで、MRデバイス7では、前記空間マッピング処理されたX座標、Y座標、Z座標の座標位置が認識できる現実の実空間内に別の映像オブジェクトも重ね合わせて配置できる。そして、前記X座標、Y座標、Z座標の座標位置が認識できる現実の実空間内に前記別の映像オブジェクトにおける3DCGなどの仮想映像を加えることができる。
ここで、前記仮想映像は制御部12によって映像編集制御ができる様構成されている。
Here, in the
Here, the virtual video is configured so that video editing control can be performed by the
しかして、MRデバイス7で別の映像オブジェクトを取り込む際、該映像オブジェクト内には、前記現実の実空間内の座標位置と別の映像オブジェクト内での座標位置とを一致させるため、例えば、前記空間マッピング処理された現実の実空間で配置されているマイクロホンアレイ1と同様なマイクロホンアレイ1を配置しておく。
Therefore, when capturing another video object with the
そして、先に空間マッピング処理された現実の実空間内でのマイクロホンアレイ1の位置、向きと、別の映像オブジェクト内で取り込んだマイクロホンアレイ1の位置、向きとを合わせ、現実の実空間の座標データと別の映像オブジェクトの座標データとを紐付ける操作を行うのである。
Then, the position and orientation of the
すなわち、MRデバイス7は現実の実空間、例えばマイクロホンアレイ1が配置されたた立体的な現実の実空間をX座標、Y座標、Z座標の座標位置が認識できる3次元空間として空間マッピング処理し、該空間マッピング処理された現実の実空間内に、3DCGなど制御部12によって映像編集制御ができる仮想映像が加えられた別の映像オブジェクトを重ね合わせ、MRデバイス7の眼鏡型光透過ディスプレイの表示部11を通して肉眼で認識できるものとした。
That is, the
すなわち、現実の実空間に、例えば本来映像として可視化できない音の発出状態を3DCGなどに表示できるように構成し、別の映像オブジェクトの映像を重ね合わせ表示して可視化できるように構成したのである。 In other words, in the real space, for example, the state of sound emission, which cannot be visualized as an image, can be displayed in 3DCG or the like, and the image of another image object can be superimposed and displayed for visualization.
例えば、音が現実の実空間においてどこ位置からどの程度の大きさで発出しているかを別の映像オブジェクトを使用して、特に現実の実空間の奥行き方向複数の位置での音の発出状況、音の強弱状況を検知できる様に構成したのである。 For example, using another video object, we can determine the position and volume of the sound emitted in the real space, especially the sound emission situation at multiple positions in the depth direction of the real space. It was configured so that the intensity of the sound could be detected.
さらに、検知した音の発出状況、音の強弱状況のデータを処理して映像として編集し、これを光透過ディスプレイの表示部11に表示出来るように構成し、肉眼で認識できる現実の実空間に重ね合わせて可視できるものとしたのである。
Furthermore, the detected sound emission state and sound strength state data are processed and edited as a video, which is configured to be displayed on the
前記したように、本発明のMRデバイス7にはRGBカメラなどで構成された撮影手段8をも有している。そして、該撮影手段8で撮影された現実空間の映像は、X、Y、Z方向の座標位置が認識された3次元空間映像として空間マッピング処理される。ここで、奥行き方向の座標を認識するために深度センサなどの検出部9も備えられている。
As described above, the
なお、前記撮影手段8と検出部9とによって、撮影された現実の実空間形状につき、奥行き位置をも認識できる3次元空間形状として空間マッピング処理された空間マッピングデータは記憶手段により記憶される。 The space mapping data obtained by spatially mapping the real space shape captured by the photographing means 8 and the detecting portion 9 as a three-dimensional space shape whose depth position can also be recognized is stored in the storage means.
ここで、空間マッピング処理により現実の実空間の座標位置が認識、記憶された後は、MRデバイス7を装着し操作する操作者が前記現実の実空間のいずれの位置に位置してMRデバイス7を装着し操作しているのかについても認識できる。
Here, after the coordinate position in the real space is recognized and stored by the space mapping process, the operator who wears and operates the
また、MRデバイス7では、空間マッピング処理が行われた現実の実空間について重ね合わせる別の映像オブジェクトも生成でき、該別の映像オブジェクトは映像編集制御ができる例えば3DCGなどの映像も付加できる。
In addition, the
この別の映像オブジェクトとしては例えば図4に示す例が挙げられる。そして、この映像オブジェクトには、既に現実の実空間につき空間マッピングが行われ、X、Y、Z座標が認識できる所定位置に配置されたマイクロホンアレイ1と同様のマイクロホンアレイ1を含む映像が採用される。
As another video object, for example, the example shown in FIG. 4 can be cited. For this image object, an image including a
さらに、前記別の映像オブジェクトでの映像内には、映像編集制御できる例えば3DCG映像を取り込むことが出来るものとなっている。
従って、別の映像オブジェクトでは、前記映像編集制御できる3DCG映像としてマイクロホンアレイ1の前方空間の任意位置の空間を横断面に切り取る制御が出来、その横断面を音検知面16などの検知面とする3DCG映像が生成できるのである。さらに、前記音検知面16を複数個の略正方形状をなす計算メッシュ面17に分割する3DCG映像が生成できるのである。
Furthermore, for example, a 3DCG image, which can be edited and controlled, can be incorporated into the image of the separate image object.
Therefore, with another image object, it is possible to cut out a space at an arbitrary position in the space in front of the
このように、別の映像オブジェクトの映像では、例えば音の発出状況、音の強弱状況を処理できる音検知面16、計算メッシュ面17を有し、映像編集が行える3DCG映像を有して構成することが出来る。
In this way, the image of another image object has, for example, a
なお、マイクロホンアレイ1に配置されたマイクロホン15の数は何ら限定されない。本実施例では16chのマイクロホンアレイ1が示されており、16本のマイクロホン15が使用されている。また、音検知面16には複数に分割された計算メッシュ面17が設けられるが、この計算メッシュ面17の数についても何ら限定されない。例えば横33個、縦33個で構成して構わない。
Note that the number of
このように前記別の映像オブジェクトの映像としては、例えば映像内に配置されたマイクロホンアレイ1と、その前方に音を発出する空間においてその空間の横断面を切り出し、切り出した横断面を映像処理できる3DCG映像としての複数の計算メッシュ面17で構成された音検知面16とを有する映像として構成し、この映像を用いて後述するビームフォーミング処理を行うことにより、マイクロホンアレイ1によって映像内に設けられた所定の奥行き位置にある音検知面16の音圧レベルが計測でき、さらに音圧レベル分布データが算出でき、この音圧レベル分布データによる音圧レベル分布図がカラー表示できるものとされるのである。
In this way, as the image of the other image object, for example, the
なお、前記音圧レベルを計測する前記音検知面16の位置はマイクロホンアレイ1に配置された複数のマイクロホン15の位置や向きが基準となって決定されるため、前記現実の実空間につき座標認識を行って空間マッピング処理された現実の実空間内でのマイクロホンアレイ1の設置位置や向きと、別の映像オブジェクトにおける映像の中でのマイクロホンアレイ1の設置位置や向きを一致させなければならず、そのためMRデバイス7などで前記一致させる設定をすることが必要となる。
Since the position of the
そこで本発明では、MRデバイス7で表示される別の映像オブジェクトの映像の中でのマイクロホンアレイ1の設置位置や向きを空間マッピング処理された現実の空間の中でのマイクロホンアレイ1の設置位置や向きに合わせるべく図6に示すように手動で合わせて設定したり、あるいはマイクロホンアレイ1に取り付けたマーカーを用いてマイクロホンアレイ1の設置位置や向きを合わせる設定を行っている。
Therefore, in the present invention, the installation positions and orientations of the
上記のようにマイクロホンアレイ1の設置位置や向きを合わせる操作をすることで、マイクロホンアレイ1の位置や向きを含めた現実の実空間映像と別の映像オブジェクトの映像との位置関係を揃えることができ、ひいては現実の実空間映像内での正しい位置にある音検知面16での音圧レベル分布データに基づく音圧レベル分布図のカラーマップを表示することができるものとなる。
By adjusting the installation position and orientation of the
なお、たとえ眼鏡型のMRデバイス7を装着した装着者が移動したとしてもあらかじめ現実の空間につき空間マッピング処理を行い、座標認識を行った空間映像と、該空間映像に重ね合わされる別の映像オブジェクトの前記カラーマップなど音圧レベル分布図を検出する位置の位置関係は前記空間映像上で固定され、その位置関係が狂ってしまうことがない。
It should be noted that even if the wearer wearing the glasses-
次に、前記マイクロホンアレイ1と音検知面16、計算メッシュ面17を使用してのビームフォーミング処理につき説明する。
ビームフォーミング処理とは音の可視化技術の一手法であり、マイクロホンアレイ1(複数の無指向性マイクロホンを平面上に配置したもの)などを用いて、デジタル処理された3次元空間映像内奥行き方向のある横断面(音検知面16)での計算メッシュ面17上の音圧レベルを算出する手法をいう。
Next, beam forming processing using the
Beamforming processing is a method of visualizing sound, and uses a microphone array 1 (a plurality of omnidirectional microphones arranged on a plane) to digitally process three-dimensional spatial images in the depth direction. This is a method of calculating the sound pressure level on the
そして、上記算出した音圧レベルの分布データからの音圧レベル分布図をカラー表示化し、別のオブジェクトの映像として前記3次元空間映像と重ね合わせることで、3次元空間映像の奥行き方向のいずれの箇所においてもその音位置を可視化することができるものとなるのである。 Then, the sound pressure level distribution map from the calculated sound pressure level distribution data is displayed in color, and superimposed on the three-dimensional spatial image as an image of another object, so that any depth direction of the three-dimensional spatial image can be obtained. It becomes possible to visualize the sound position even at the point.
ビームフォーミング処理方法の概略につき説明する。
ある方向からマイクロホンアレイ1に音が入射した場合、複数配置されている各マイクロホン15での音の到達時刻が少しずつずれる。しかし、各マイクロホン15の位置と音速からこの到達時刻の差は計算できる。すなわち、マイクロホンアレイ1との距離を任意で設定した可視化したい音検知面16に複数の計算メッシュ面17を形成し、マイクロホン15の位置関係と音速をもとに、それぞれの計算メッシュ面17の位置から到来する音が各マイクロホン15に入射する際の時間差を求めるのである。
An outline of the beamforming processing method will be described.
When sound enters the
次に、この時間差の分、各マイクロホン15の信号にディレイ(遅延)をかけて到達時刻をそろえ、同相で足し合わせることにより、その方向から到来する音のみを強調することが出来る。ついで、多数の方向についても同様の処理を行い、可視化したい断面(音圧検知面16)における各計算メッシュ面17上の音圧レベルを算出し、音圧レベル分布データを生成する。
Next, by delaying the signals from the
そして、前記生成された音圧レベル分布データを分布図にし、制御部12にてカラーマップ表示することにより、音の情報を視覚的に把握することができるのである。
Then, the generated sound pressure level distribution data is made into a distribution map and displayed in a color map by the
前記音圧レベル分布データを分布図にし、制御部12にてカラーマップ表示した具体例を図8、図9に示す。実際の図では音圧レベルの強弱を赤色などの色を使用し、色の違いと色の濃淡で表示している。すなわち、濃い赤色は、音圧レベルが高く、強い箇所として表示し、薄い赤色あるいは黄色や緑色は音圧レベルが低く、弱い箇所として表示してある。図8はマイクロホンアレイ1から1.5mの測定距離での音圧レベル分布図を示したものであり、図9はマイクロホンアレイ1から3.0mの測定距離での音圧レベル分布図を示したものである。図において分布図はモノクロで表現せざるを得ないため、色の濃い箇所は音圧レベルが高く、色の薄い箇所は音圧レベルが低い箇所になっている。
いずれも近傍位置に音発出装置であるスピーカー20を配置してあり、そのため音圧レベル分布図はほぼ同じ分布を示した図形になっている。
8 and 9 show specific examples in which the sound pressure level distribution data is converted into a distribution map and displayed in a color map by the
In both cases, a
また、図10は、図8や図9と異なり、MRデバイス7の装着者がマイクロホンアレイ1と音検知面16とが配置してある配置面の左側から音検知面16を視た状態を示しているが、この位置から音検知面16を視た場合にもカラーマップ化した音圧レベル分布図を確認できる。
Also, unlike FIGS. 8 and 9, FIG. 10 shows a state in which the wearer of the
なお、処理制御を高速に行えば、過渡音や非定常な音についても可視化することができる。すなわち、制御部12の処理能力は例えば最大25fpsの処理能力が認められるからである。
If processing control is performed at high speed, transient sounds and unsteady sounds can also be visualized. This is because the processing capability of the
なお、音圧レベル分布図のカラー表示をする際の色分けや輝度はMRデバイス7の制御部12などで変更可能とされており、変更されたカラー表示で色分けした音圧レベル分布図はカラーマップ14として表示部11上に表示されると共に、記憶部に保存データ10として保存される(図3参照)。
The color coding and brightness for color display of the sound pressure level distribution map can be changed by the
すなわち、本発明の音可視化システムでは、リアルタイムな音圧レベル分布の計測が出来ることに加えて、計測した音圧レベル分布をMRデバイス7に保存することができる構成となっている。さらに保存した音圧レベル分布をカラー表示された音圧レベル分布図(カラーマップ14)として現実の実空間上に投影して再現(再生)することもできる様構成されている。
That is, in the sound visualization system of the present invention, in addition to being able to measure the sound pressure level distribution in real time, the measured sound pressure level distribution can be stored in the
ここで、音圧レベル分布のデータは保存時のバンドパスフィルタ3の上下限値や計測断面距離の値とともに、数値データとしてMRデバイス7に保存されることになる。そして、保存データの再生時にはこの数値データをもとにMRデバイス7内でカラーマップ14を作成し、3DCGの形で現実の実空間上に投影されるのである。
Here, the sound pressure level distribution data is stored in the
なお、音圧レベルの計測データの保存及び再生手順につき以下に説明する。
まず、バンドパスフィルタ3の上下限値、測定断面距離、結果を保存する時間(長さ)をUI19で設定する。次に、音圧レベル分布の計測を開始する。
そして、任意のタイミングでUI19の保存開始ボタンを押すと、事前に設定した時間分の計測結果が保存されるものとなる。次に、UI19の保存データ再生ボタンを押すと、保存した音圧レベル分布がカラーマップ14として例えば光透過ディスプレイの表示部11を介して現実の実空間上で再現(再生)されることになる。
The procedure for storing and reproducing sound pressure level measurement data will be described below.
First, the
Then, when a save start button on the
さらに本発明の処理フローについてその概略を説明する。
例えば16chのマイクロホンアレイで集音した音情報から、演算ユニット2では事前にUI(ユーザーインターフェイス)19で設定したバンドパスフィルタの値と音圧レベル分布を計測する断面(音検知面16)の位置の情報をもとにビームフォーミングの処理を行う。この処理によりある断面(音検知面16)での各計算メッシュ面17での音圧レベルが求められ、この情報がMRデバイス7、PCなどの制御装置5に送られる。
Furthermore, the outline of the processing flow of the present invention will be described.
For example, from sound information collected by a 16-channel microphone array, the
なお、UI(ユーザーインターフェイス)19でのバンドパスフィルタ値の設定などの設定操作は図7に示すように、例えば表示部11に設定画面を表示させ、該画面をタップするなどして各設定値が入力できるようにしてある。
Setting operations such as band-pass filter value setting on the UI (user interface) 19 are performed by displaying a setting screen on the
制御装置5からは音圧レベルデータとUI19での計測設定の情報(ビームフォーミング処理する特定周波数の設定、カラーマップを表示する検出距離の設定など)をバイト配列に変換したデータもMRデバイス7に送られ、MRデバイス7の制御部12では前記UI値をもとに音圧レベル分布データから音圧レベル分布図データが生成される。そして、生成された音圧レベル分布図データの情報をカラーマップの表示色データに再変換し、この表示色データからカラーマップ14を作成するのである。
From the
また、眼鏡型のMRデバイス7について光透過ディスプレイなどの表示部11を用いると、肉眼で視る現実の空間映像上に別のオブジェクト映像である音圧レベル分布図のカラーマップ映像を重ね合わせて視ることが出来る。
In addition, if the
すなわち、前述したように、MRデバイス7は眼鏡型の機器が考えられており、この眼鏡型のMRデバイス7には、光透過性の表示部11が採用される。従って、光透過性の表示部11を介して肉眼で視る現実空間に前記音圧レベル分布図のカラーマップ映像を重ね合わせて可視することが出来、映像上での音可視化がリアルに行えることとなる。図11において説明されたとおりである。
That is, as described above, the
また、MRデバイス7の表示部11には、光透過ディスプレイではないタブレット型の表示部11も使用できる。この場合、タブレットの表示部11上にはカメラで撮影された現実空間が映し出され、この映像に前記音圧レベル分布図のカラーマップ映像を重ね合わせて可視するものとなる。図12において説明されたとおりである。
A tablet-
また、奥行き方向に移動させるなどして音検知面16の位置を変更し、検出距離を変更したり、音圧レベルの測定範囲を変更する(検出周波数範囲の変更)などの測定変更設定はMRデバイス7上のみならず制御装置5上でも変更できる。すなわち、設定画面を選択して該画面を表示させ、入力部18によって設定変更するのである。
In addition, measurement change settings such as changing the position of the
その設定変更情報は例えば制御装置5に送られ、ビームフォーミングの処理に反映されるものとなる。なお、別の音検知面16でのカラーマップ情報を欲する場合には、一旦先に行ったカラーマップ表示操作を中止する必要がある。
The setting change information is sent to the
本発明については、以下の示すような実施例が想定されるものである。例えば、建築物における外部騒音の流入部(遮音欠損部)探査、あるいは工場設備、生産ラインでの異音発生箇所の探査による不具合検査、あるいは建設工事現場の設備に対する音探査、あるいは工場建屋など、騒音発生施設の漏音部位の探査などが挙げられる。
The present invention contemplates embodiments such as the following. For example, exploration of external noise inflow points (sound insulation defects) in buildings, defect inspections by exploring abnormal noise locations in factory equipment and production lines, sound exploration of equipment at construction sites, factory buildings, etc. Exploration of sound leakage parts of noise generating facilities, etc. can be mentioned.
1 マイクロホンアレイ
2 演算ユニット
3 バンドパスフィルタ
4 ビームフォーミング処理部
5 制御装置
6 映像可視化部
7 MRデバイス
8 撮影手段
9 検出部
10 保存データ
11 表示部
12 制御部
13 バイナリーデータ
14 カラーマップ
15 マイクロホン
16 音検知面
17 計算メッシュ面
18 入力部
19 UI
20 スピーカー
1
20 speakers
Claims (5)
ことを特徴とする空間内でのデータ可視化システム。
Space mapping processing is performed on the real space to store the coordinate positions of the X, Y, and Z coordinates in the real space, and another image that can be image-controlled is superimposed in the real space in which the coordinate positions are stored. In addition, a detection surface can be formed by cutting out a cross section at a predetermined location of another image that can be controlled, and a plurality of calculation mesh surfaces can be formed on the detection surface, and the formed plurality of calculation meshes Data obtained on the surface is detected by the detection means, the detected data is calculated by the calculation means to obtain data values on the plurality of calculation mesh surfaces, and data distribution diagram creation means is obtained from the obtained plurality of data values. generated a data distribution map and visualized the data distribution situation in the real space,
A data visualization system in space characterized by:
ことを特徴とする空間内での音データ可視化システム。
The real space in which the detection means for collecting the sound from the sound emitting unit is arranged is subjected to space mapping processing, the coordinate positions of the X, Y, and Z coordinates in the real space are stored, and the coordinate positions are recognized. In the actual space, the detection means is arranged, and another image that can be image controlled is superimposed, and a cross section at a predetermined position of the another image that can be image controlled is cut out to form a sound detection surface. a plurality of computational mesh planes can be formed on the sound detection plane, sound data on the formed plurality of computational mesh planes is detected by the detection means, the detected sound data is calculated by the calculation means, and the Obtaining sound data values on a plurality of calculation mesh surfaces, generating a sound data distribution map from the obtained plurality of sound data values by a sound data distribution map creating means, and visualizing the sound data distribution situation in the real space,
A sound data visualization system in space characterized by:
ことを特徴とする請求項2記載の空間内での音データ可視化システム。
The sound data value is a sound pressure level intensity value, and the sound data distribution map is a sound pressure level intensity distribution map,
3. The system for visualizing sound data in space according to claim 2, characterized in that:
ことを特徴とする請求項2または請求項3記載の空間内での音データ可視化システム。
The distribution map can display the intensity of sound pressure levels in different colors,
4. The system for visualizing sound data in space according to claim 2 or 3, characterized in that:
ことを特徴とする請求項2、請求項3または請求項4記載の空間内での音データ可視化システム。
The display unit is a light transmissive display,
5. The system for visualizing sound data in space according to claim 2, claim 3, or claim 4, characterized in that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021080301A JP7506381B2 (en) | 2021-05-11 | 2021-05-11 | Spatial data visualization system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021080301A JP7506381B2 (en) | 2021-05-11 | 2021-05-11 | Spatial data visualization system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022174479A true JP2022174479A (en) | 2022-11-24 |
JP7506381B2 JP7506381B2 (en) | 2024-06-26 |
Family
ID=84144549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021080301A Active JP7506381B2 (en) | 2021-05-11 | 2021-05-11 | Spatial data visualization system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7506381B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013015468A (en) * | 2011-07-06 | 2013-01-24 | Hitachi Engineering & Services Co Ltd | Abnormal sound diagnostic apparatus and abnormal sound diagnostic method |
JP2014137323A (en) * | 2013-01-18 | 2014-07-28 | Hitachi Power Solutions Co Ltd | Abnormality diagnosis apparatus and abnormality diagnosis method using the same |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6969807B2 (en) | 2019-09-24 | 2021-11-24 | サン・シールド株式会社 | Work support system |
-
2021
- 2021-05-11 JP JP2021080301A patent/JP7506381B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013015468A (en) * | 2011-07-06 | 2013-01-24 | Hitachi Engineering & Services Co Ltd | Abnormal sound diagnostic apparatus and abnormal sound diagnostic method |
JP2014137323A (en) * | 2013-01-18 | 2014-07-28 | Hitachi Power Solutions Co Ltd | Abnormality diagnosis apparatus and abnormality diagnosis method using the same |
Also Published As
Publication number | Publication date |
---|---|
JP7506381B2 (en) | 2024-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7488250B2 (en) | Systems and methods for projecting and displaying acoustic data - Patents.com | |
AU2013333803B2 (en) | Improvements in and relating to gathering range and dimensional information underwater surveys | |
JP2020529685A (en) | Equipment and methods for generating scene representations | |
US20100231694A1 (en) | Lighting apparatus | |
Inoue et al. | Three-dimensional sound-field visualization system using head mounted display and stereo camera | |
CN107623832A (en) | Video background replacement method, device and mobile terminal | |
CN107592490A (en) | Video background replacement method, device and mobile terminal | |
WO2018159144A1 (en) | Three-dimensional intrusion detection system and three-dimensional intrusion detection method | |
Kataoka et al. | Real-time measurement and display system of 3D sound intensity map using optical see-through head mounted display | |
JP2022058753A (en) | Information processing apparatus, information processing method, and program | |
JP7506381B2 (en) | Spatial data visualization system | |
KR101960577B1 (en) | Method for transmitting and receiving stereo information about a viewed space | |
Teraoka et al. | Display system for distribution of virtual image sources by using mixed reality technology | |
JP2016188791A (en) | Sound source surveying device and sound source surveying method | |
KR101155610B1 (en) | Apparatus for displaying sound source location and method thereof | |
JP2023542863A (en) | Systems and methods for generating panoramic acoustic images and virtualizing acoustic imaging devices by segmentation | |
KR102039902B1 (en) | Remote device precision inspection system and method | |
WO2017199657A1 (en) | Endoscope device, measurement method, and program | |
RU2215297C2 (en) | Procedure establishing spatial distribution of characteristics of physical fields of object and facility for its realization | |
JP2023057308A (en) | monitoring device | |
Inoue et al. | Sound field visualization system by MVDR beamforming with augmented reality and point clouds | |
KR20160004845A (en) | Method and apparatus for visualizing sound source location | |
KR20230116134A (en) | Unmanned aerial vehicle based abnormal noise detection device | |
JP2022110223A (en) | Information providing device, information providing method and program | |
JP2018173976A (en) | Three-dimensional intrusion detection system and three-dimensional intrusion detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230428 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231201 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240606 |