JP2022174479A - Data visualizing system in space - Google Patents

Data visualizing system in space Download PDF

Info

Publication number
JP2022174479A
JP2022174479A JP2021080301A JP2021080301A JP2022174479A JP 2022174479 A JP2022174479 A JP 2022174479A JP 2021080301 A JP2021080301 A JP 2021080301A JP 2021080301 A JP2021080301 A JP 2021080301A JP 2022174479 A JP2022174479 A JP 2022174479A
Authority
JP
Japan
Prior art keywords
sound
data
space
real space
pressure level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021080301A
Other languages
Japanese (ja)
Other versions
JP7506381B2 (en
Inventor
真人 小林
Masato Kobayashi
康之 岩根
Yasuyuki Iwane
考浩 佐藤
Naruhiro Sato
靖広 及川
Yasuhiro Oikawa
敦登 井上
Atsuto Inoue
航 寺岡
Wataru Teraoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Tobishima Corp
Original Assignee
Waseda University
Tobishima Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University, Tobishima Corp filed Critical Waseda University
Priority to JP2021080301A priority Critical patent/JP7506381B2/en
Publication of JP2022174479A publication Critical patent/JP2022174479A/en
Application granted granted Critical
Publication of JP7506381B2 publication Critical patent/JP7506381B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

To provide a sound visualizing system capable of measuring sound-pressure level distribution data by beam-forming, respectively in real time even at different positions in depth directions in real three-dimensional space.SOLUTION: A data visualizing system is characterized by: storing coordinate positions of X, Y, Z coordinates in real space by carrying out space mapping processing of real space; superposing a different video image subjectable to video image control in real space where the coordinate positions are stored; forming a detection surface by cutting out a cross sectional face in a prescribed position of the different video image subjectable to video image control and also forming a plurality of mesh faces for calculation on the detection surface; detecting acquired data on the formed mesh faces for calculation by detection means; deriving data values on the mesh faces for calculation by calculating the detected data by calculation means; generating a data distribution diagram by data distribution diagram creating means from the acquired data values; and visualizing the data distribution situation in real space.SELECTED DRAWING: Figure 1

Description

本発明は、音可視化システムに係り、例えば、現実の空間内での奥行き方向での異なる位置からのそれぞれ音圧レベルを計測できて該それぞれの音圧レベル分布の計測結果をリアルタイムで現実の3次元空間上に立体的に可視化できる音などをデータ化して可視化するシステムに関するものである。
The present invention relates to a sound visualization system, for example, capable of measuring sound pressure levels from different positions in the depth direction in a real space, and displaying the measurement results of the respective sound pressure level distributions in real time. This is related to a system that converts and visualizes sounds that can be stereoscopically visualized in a dimensional space.

従来の音可視化装置としては、入力した音信号に基づいて最小分散法を適用したビームフォーミングにより音の到来方向を探査し、該探査結果を提示する特開2015-219138号の発明が知られている。
また、3次元インテンシティプローブを用いて3次元空間における音響インテンシティを測定する手法(特開2003-294822号)も知られている。
As a conventional sound visualization device, the invention disclosed in Japanese Patent Application Laid-Open No. 2015-219138 is known, which searches for the arrival direction of the sound by beamforming applying the minimum variance method based on the input sound signal and presents the search result. there is
Also known is a method of measuring sound intensity in a three-dimensional space using a three-dimensional intensity probe (Japanese Patent Application Laid-Open No. 2003-294822).

特開2015-219138号公報JP 2015-219138 A 特開2003-294822号公報JP 2003-294822 A

しかしながら、前記特許文献1による音可視化装置は、音圧レベル分布を測定する断面からマイクロホンまでの距離を任意で設定することにより測定を行い、測定結果の表示はPCのディスプレイ上で平面的に表示されるのみである。そのため、評価面の例えば奥行方向の異なった位置における音圧レベル情報が把握しにくいという課題があった。 However, the sound visualization device according to Patent Document 1 performs measurement by arbitrarily setting the distance from the cross section where the sound pressure level distribution is to be measured to the microphone, and displays the measurement results two-dimensionally on the display of the PC. only be done. Therefore, there is a problem that it is difficult to grasp sound pressure level information at different positions on the evaluation plane, for example, in the depth direction.

また特許文献2による計測手法では、定常的な音でなければ音の流れを可視化することができず、変動的な音をリアルタイムで計測することができないという課題がある。 Moreover, the measurement method according to Patent Document 2 has the problem that the flow of sound cannot be visualized unless the sound is stationary, and fluctuating sound cannot be measured in real time.

そこで、本発明は前記従来の課題を解消すべく創案されたものであり、ビームフォーミングによる音圧レベル分布データを現実の3次元空間における奥行き方向の異なった位置においてもそれぞれリアルタイムに計測できると共に、計測したそれぞれの音圧レベル分布データからカラー表示で色分けした音圧レベル分布図を現実の空間である3次元空間内で表示すべく生成でき、もって奥行方向の異なった位置での音圧レベル情報について確実に把握、認識できる音可視化システムを提供することを目的とするものである。
Therefore, the present invention has been devised to solve the above-described conventional problems, and enables real-time measurement of sound pressure level distribution data obtained by beam forming even at different positions in the depth direction in an actual three-dimensional space, A color-coded sound pressure level distribution map can be generated from each measured sound pressure level distribution data so as to be displayed in a three-dimensional space, which is a real space, thereby providing sound pressure level information at different positions in the depth direction. The purpose is to provide a sound visualization system that can reliably grasp and recognize about.

本発明は、
現実の空間を空間マッピング処理して、現実の空間でのX、Y、Z座標の座標位置を記憶し、前記座標位置が記憶された現実の空間内に、映像制御が行える別の映像を重ね合わせ、前記映像制御が行える別の映像の所定箇所での横断面を切り出して検知面が形成できると共に、該検知面に複数の計算用メッシュ面が形成でき、前記形成された複数の計算用メッシュ面上での取得データを検知手段で検知し、検知したデータを算出手段により算出して前記複数の計算用メッシュ面上でのデータ値を求め、求めた複数のデータ値からデータ分布図作成手段によりデータ分布図を生成し、現実空間でのデータ分布状況を可視化した、
ことを特徴とし、
または、
音発出部からの音を集音する検知手段が配置された現実の空間を空間マッピング処理をして現実の空間でのX、Y、Z座標の座標位置を記憶し、前記座標位置が認識された現実の空間内に、前記検知手段が配置され、映像制御が行える別の映像を重ね合わせ、前記映像制御が行える別の映像の所定箇所での横断面を切り出して音検知面が形成できると共に、該音検知面に複数の計算用メッシュ面が形成でき、前記形成された複数の計算用メッシュ面上での音データを検知手段で検知し、検知した音データを算出手段により算出して前記複数の計算用メッシュ面上での音データ値を求め、求めた複数の音データ値から音データ分布図作成手段により音データ分布図を生成し、現実空間での音データ分布状況を可視化した、
ことを特徴とし、
または、
前記音データ値は音圧レベル強弱値であり、前記音データ分布図は、音圧レベル強弱分布図である、
ことを特徴とし、
または、
前記分布図は、音圧レベル強弱をカラーで色分け表示できる、
ことを特徴とし、
または、
前記表示部は光透過ディスプレイである、
ことを特徴とするものである。
The present invention
Space mapping processing is performed on the real space to store the coordinate positions of the X, Y, and Z coordinates in the real space, and another image that can be image-controlled is superimposed in the real space in which the coordinate positions are stored. In addition, a detection plane can be formed by cutting out a cross-section at a predetermined location of another video for which the video control can be performed, and a plurality of calculation mesh planes can be formed on the detection plane, and the formed plurality of calculation meshes can be formed. Data obtained on the surface is detected by the detection means, the detected data is calculated by the calculation means to obtain data values on the plurality of calculation mesh surfaces, and a data distribution diagram creation means is obtained from the obtained plurality of data values. generated a data distribution map and visualized the data distribution situation in the real space,
characterized by
or,
Space mapping processing is performed on the real space in which the detection means for collecting sound from the sound emitting unit is arranged, and the coordinate positions of the X, Y, and Z coordinates in the real space are stored, and the coordinate positions are recognized. In the actual space, the detection means is arranged, and another image that can be image-controlled is superimposed, and a cross section at a predetermined position of the another image that can be image-controlled is cut out to form a sound detection surface. a plurality of computational mesh planes can be formed on the sound detection plane, sound data on the formed plurality of computational mesh planes is detected by the detection means, the detected sound data is calculated by the calculation means, and the Obtaining sound data values on a plurality of calculation mesh surfaces, generating a sound data distribution map from the obtained plurality of sound data values by a sound data distribution map creating means, and visualizing the sound data distribution situation in the real space,
characterized by
or,
The sound data value is a sound pressure level intensity value, and the sound data distribution map is a sound pressure level intensity distribution map,
characterized by
or,
The distribution map can display the intensity of sound pressure levels in different colors,
characterized by
or,
The display unit is a light transmissive display,
It is characterized by

本発明によれば、ビームフォーミングによる音圧レベル分布データを現実の3次元空間における奥行き方向の異なった位置においてもそれぞれリアルタイムに計測できると共に、計測したそれぞれの音圧レベル分布データからカラー表示で色分けした音圧レベル分布図を現実の空間である3次元空間内で表示すべく生成でき、もって奥行方向の異なった位置での音圧レベル情報について確実に把握、認識できる音可視化システムを提供出来るとの優れた効果を奏する。
According to the present invention, sound pressure level distribution data obtained by beam forming can be measured in real time even at different positions in the depth direction in an actual three-dimensional space, and the measured sound pressure level distribution data can be color-coded by color display. It is possible to provide a sound visualization system that can generate a sound pressure level distribution map to be displayed in a three-dimensional space, which is an actual space, and that can reliably grasp and recognize sound pressure level information at different positions in the depth direction. excellent effect.

本発明の概略構成を説明する説明図である。It is an explanatory view explaining a schematic structure of the present invention. MRデバイスの概略構成を説明する説明図(1)である。1 is an explanatory diagram (1) for explaining the schematic configuration of an MR device; FIG. MRデバイスの概略構成を説明する説明図(2)である。FIG. 2 is an explanatory diagram (2) for explaining the schematic configuration of the MR device; MRデバイスで別の映像オブジェクトを取り込み、該映像オブジェクト内でのマイクロホンアレイの位置、向きを認識し、先に読み込んだ3次元空間でのマイクロホンアレイの位置、向きと合わせ、3次元空間の座標データと紐付ける操作を説明する説明図である。The MR device captures another video object, recognizes the position and orientation of the microphone array in the video object, and combines the position and orientation of the microphone array in the previously read three-dimensional space to obtain coordinate data in the three-dimensional space. FIG. 10 is an explanatory diagram for explaining an operation for associating with . 前記紐付け操作によりMRデバイスの装着者が移動してもマイクロホンアレイが配置された3次元空間の映像が変化しないことを説明する説明図である。FIG. 10 is an explanatory diagram for explaining that even if the wearer of the MR device moves due to the linking operation, the image of the three-dimensional space in which the microphone array is arranged does not change. マイクロホンアレイの位置や向きを手動で調整する操作を説明する説明図である。FIG. 10 is an explanatory diagram illustrating an operation of manually adjusting the position and orientation of the microphone array; 本発明による音可視化システムの設定操作を説明する説明図である。FIG. 4 is an explanatory diagram for explaining a setting operation of the sound visualization system according to the present invention; 本発明により音を可視化した状態を説明する説明図(1)である。It is explanatory drawing (1) explaining the state which visualized the sound by this invention. 本発明により音を可視化した状態を説明する説明図(2)である。It is explanatory drawing (2) explaining the state which visualized the sound by this invention. 本発明により音を可視化した状態を説明する説明図(3)である。It is explanatory drawing (3) explaining the state which visualized the sound by this invention. 表示部に光透過性ディスプレイを使用した場合の説明図である。FIG. 10 is an explanatory diagram when a light transmissive display is used for the display section; 表示部に光透過性ディスプレイではないディスプレイを使用した場合の説明図である。FIG. 10 is an explanatory diagram when a display that is not a light transmissive display is used for the display section;

以下本発明を図に示す実施例に基づいて説明する。
図1は本発明の概略構成を説明する概略構成説明図である。
符号1は例えば16個のマイクロホン15を所定間隔に配置して構成した16chのマイクロホンアレイであり、特許請求の範囲の欄に記載されている検知手段に対応する。しかし、検知手段としてはマイクロホンアレイ1に限定されるものではない。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below based on an embodiment shown in the drawings.
FIG. 1 is a schematic configuration explanatory diagram for explaining the schematic configuration of the present invention.
Reference numeral 1 denotes a 16-channel microphone array configured by arranging, for example, 16 microphones 15 at predetermined intervals, and corresponds to detection means described in the claims. However, the detection means is not limited to the microphone array 1 .

該マイクロホンアレイ1が集音した前方の3次元空間所定位置からの音圧レベルの情報は演算ユニット2に送出される。そして前記音圧レベルは演算ユニット2のバンドパスフィルタ3を通過して所定周波数の音圧レベルが取得され、取得された音圧レベルはビームフォーミング処理部4により、ビームフォーミング処理される。 Information on the sound pressure level from a predetermined position in the front three-dimensional space collected by the microphone array 1 is sent to the arithmetic unit 2 . The sound pressure level passes through the band-pass filter 3 of the arithmetic unit 2 to obtain a sound pressure level of a predetermined frequency.

すなわち、マイクロホンアレイ1の複数のマイクロホン15から集音され、演算ユニット2のバンドパスフィルタ3を通過して所定周波数にされた音圧レベルはビームフォーミング処理されて音圧レベル分布データが生成される。音圧レベル分布データとは、例えば、音圧レベル(dB)の強弱を分布図として示すことの出来るデータとして処理されたものをいう。 That is, sound pressure levels collected from the plurality of microphones 15 of the microphone array 1, passed through the band-pass filter 3 of the arithmetic unit 2, and converted to a predetermined frequency are beam-formed to generate sound pressure level distribution data. . The sound pressure level distribution data is, for example, data processed as data capable of showing the intensity of the sound pressure level (dB) as a distribution map.

そして、この音圧レベル分布データは映像可視化部6においてカラー表示で色分けされた音圧レベル分布図として映像生成され、該映像が表示部11などにおいて可視化されるものとなる。
なお、前記カラー表示で色分けされた音圧レベル分布図のデータは、PCなどで構成された制御装置5に送出され、記憶部に格納可能とされている。
ここで、前記演算ユニット2とPCなどの制御装置5を一体装置として構成しても構わないし、分離して構成しても構わない。
Then, the sound pressure level distribution data is generated as a color-coded sound pressure level distribution diagram in the image visualization unit 6, and the image is visualized on the display unit 11 or the like.
The color-coded sound pressure level distribution map data is transmitted to the control device 5 such as a PC, and can be stored in the storage unit.
Here, the arithmetic unit 2 and the control device 5 such as a PC may be configured as an integrated device, or may be configured separately.

さらに、前記音圧レベル分布図のデータは、MRデバイス7にも送出され、MRデバイス7の制御部12で処理されて映像可視化される。なお、MRデバイス7における「MR」のフルスペルは「Mixed Reality」であり、「Mixed Reality」は複合現実と訳されている。 Further, the data of the sound pressure level distribution map is also sent to the MR device 7, processed by the control unit 12 of the MR device 7, and visualized as an image. The full spelling of "MR" in the MR device 7 is "Mixed Reality", and "Mixed Reality" is translated as mixed reality.

ここで、前記MRデバイス7は、RGBカメラなどの撮影手段8及び深度センサなどの検出部9、光透過ディスプレイなどの表示部11、制御部12、入力部18を備えて構成されている(図2参照)。 Here, the MR device 7 includes an image capturing means 8 such as an RGB camera, a detection section 9 such as a depth sensor, a display section 11 such as a light transmissive display, a control section 12, and an input section 18 (FIG. 2).

なお、図1において、MRデバイス7は4台設置されているが、この数に限定されない。1台でも構わないし、複数台でも構わない。そして、複数台のMRデバイス7が眼鏡型のデバイスとして構成されると、眼鏡型の光透過ディスプレイである表示部11を介して現実の実空間内に例えば音の発出状態などが可視化された音圧レベル分布図が重畳された映像をそれぞれ視ることが出来る。 Although four MR devices 7 are installed in FIG. 1, the number is not limited to this. It does not matter if it is one or more than one. When a plurality of MR devices 7 are configured as spectacle-type devices, for example, sound emission states are visualized in the real space through the display unit 11, which is a spectacle-type light transmission display. Images on which the pressure level distribution map is superimposed can be viewed.

図2、図3はMRデバイス7の概略構成説明図であり、図1に示すように、ビームフォーミング処理されて生成された音圧レベル分布データは、MRデバイス7に送出され、該MRデバイス7の制御部12で音圧レベル分布データ(例えばバイナリーデータ13など)がカラー表示で色分けした音圧レベル分布図(カラーマップ14)が可視化できるよう制御され、生成されるものとなる。 2 and 3 are schematic configuration explanatory diagrams of the MR device 7. As shown in FIG. 1, sound pressure level distribution data generated by beamforming processing is sent to the MR device 7 and The control unit 12 controls and generates a color-coded sound pressure level distribution map (color map 14) in which the sound pressure level distribution data (for example, binary data 13) can be visualized.

ここで、さらにMRデバイス7の動作につき説明すると、眼鏡型のMRデバイス7は、光透過ディスプレイなどの表示部11を有するため、肉眼で現実の実空間が視られる。
しかし、RGBカメラ8などの撮影手段8と深度センサなどの検出部9も有しており、これにより立体的な現実の空間を撮影でき、かつ撮影された映像データを保存データ10として保存することもできる様にも構成されている。
そして、撮影された立体的な現実の実空間は、X座標、Y座標、Z座標の座標位置が認識できる3次元空間として制御部12により空間マッピング処理される(図4参照)。
Here, the operation of the MR device 7 will be further described. Since the glasses-type MR device 7 has a display unit 11 such as a light transmissive display, the real space can be viewed with the naked eye.
However, it also has a photographing means 8 such as an RGB camera 8 and a detection unit 9 such as a depth sensor. It is also configured to be able to
Then, the three-dimensional real space that has been photographed is spatially mapped by the control unit 12 as a three-dimensional space in which the coordinate positions of the X, Y, and Z coordinates can be recognized (see FIG. 4).

該空間マッピング処理により例えば眼鏡型MRデバイス7の装着者が現実の実空間である3次元空間のどの位置にいるのかをも認識することもできることとなる(自己位置推定機能)。これらマッピングと自己位置推定の処理については、例えば公知のSLAM(Simultaneous Localization and Mapping,)方式等により行われる。 By the spatial mapping processing, for example, it is also possible to recognize the position of the wearer of the glasses-type MR device 7 in the three-dimensional space, which is the real space (self-position estimation function). These mapping and self-position estimation processes are performed, for example, by a known SLAM (Simultaneous Localization and Mapping) method.

ここで、MRデバイス7では、前記空間マッピング処理されたX座標、Y座標、Z座標の座標位置が認識できる現実の実空間内に別の映像オブジェクトも重ね合わせて配置できる。そして、前記X座標、Y座標、Z座標の座標位置が認識できる現実の実空間内に前記別の映像オブジェクトにおける3DCGなどの仮想映像を加えることができる。
ここで、前記仮想映像は制御部12によって映像編集制御ができる様構成されている。
Here, in the MR device 7, another image object can also be superimposed and arranged in the actual real space where the coordinate positions of the X, Y, and Z coordinates subjected to the spatial mapping process can be recognized. Then, a virtual image such as 3DCG of the other image object can be added to the real space where the coordinate positions of the X, Y, and Z coordinates can be recognized.
Here, the virtual video is configured so that video editing control can be performed by the control unit 12 .

しかして、MRデバイス7で別の映像オブジェクトを取り込む際、該映像オブジェクト内には、前記現実の実空間内の座標位置と別の映像オブジェクト内での座標位置とを一致させるため、例えば、前記空間マッピング処理された現実の実空間で配置されているマイクロホンアレイ1と同様なマイクロホンアレイ1を配置しておく。 Therefore, when capturing another video object with the MR device 7, the video object contains the above-described A microphone array 1 similar to the microphone array 1 arranged in the real space subjected to spatial mapping is arranged.

そして、先に空間マッピング処理された現実の実空間内でのマイクロホンアレイ1の位置、向きと、別の映像オブジェクト内で取り込んだマイクロホンアレイ1の位置、向きとを合わせ、現実の実空間の座標データと別の映像オブジェクトの座標データとを紐付ける操作を行うのである。 Then, the position and orientation of the microphone array 1 in the real space that has undergone spatial mapping processing are matched with the position and orientation of the microphone array 1 captured in another video object, and the coordinates of the real space are obtained. An operation of associating the data with the coordinate data of another video object is performed.

すなわち、MRデバイス7は現実の実空間、例えばマイクロホンアレイ1が配置されたた立体的な現実の実空間をX座標、Y座標、Z座標の座標位置が認識できる3次元空間として空間マッピング処理し、該空間マッピング処理された現実の実空間内に、3DCGなど制御部12によって映像編集制御ができる仮想映像が加えられた別の映像オブジェクトを重ね合わせ、MRデバイス7の眼鏡型光透過ディスプレイの表示部11を通して肉眼で認識できるものとした。 That is, the MR device 7 spatially maps the actual real space, for example, the three-dimensional real space in which the microphone array 1 is arranged, as a three-dimensional space in which the coordinate positions of the X, Y, and Z coordinates can be recognized. , superimposing another image object added with a virtual image such as 3DCG that can be edited and controlled by the control unit 12 in the real space that has undergone the space mapping process, and displaying the glasses-type transmissive display of the MR device 7. It was assumed to be visible to the naked eye through the portion 11 .

すなわち、現実の実空間に、例えば本来映像として可視化できない音の発出状態を3DCGなどに表示できるように構成し、別の映像オブジェクトの映像を重ね合わせ表示して可視化できるように構成したのである。 In other words, in the real space, for example, the state of sound emission, which cannot be visualized as an image, can be displayed in 3DCG or the like, and the image of another image object can be superimposed and displayed for visualization.

例えば、音が現実の実空間においてどこ位置からどの程度の大きさで発出しているかを別の映像オブジェクトを使用して、特に現実の実空間の奥行き方向複数の位置での音の発出状況、音の強弱状況を検知できる様に構成したのである。 For example, using another video object, we can determine the position and volume of the sound emitted in the real space, especially the sound emission situation at multiple positions in the depth direction of the real space. It was configured so that the intensity of the sound could be detected.

さらに、検知した音の発出状況、音の強弱状況のデータを処理して映像として編集し、これを光透過ディスプレイの表示部11に表示出来るように構成し、肉眼で認識できる現実の実空間に重ね合わせて可視できるものとしたのである。 Furthermore, the detected sound emission state and sound strength state data are processed and edited as a video, which is configured to be displayed on the display unit 11 of the light transmissive display, so that it can be recognized by the naked eye in a real space. It was made visible by superimposing them.

前記したように、本発明のMRデバイス7にはRGBカメラなどで構成された撮影手段8をも有している。そして、該撮影手段8で撮影された現実空間の映像は、X、Y、Z方向の座標位置が認識された3次元空間映像として空間マッピング処理される。ここで、奥行き方向の座標を認識するために深度センサなどの検出部9も備えられている。 As described above, the MR device 7 of the present invention also has the photographing means 8 composed of an RGB camera or the like. Then, the image of the physical space photographed by the photographing means 8 is spatially mapped as a three-dimensional space image in which the coordinate positions in the X, Y, and Z directions are recognized. Here, a detection unit 9 such as a depth sensor is also provided for recognizing coordinates in the depth direction.

なお、前記撮影手段8と検出部9とによって、撮影された現実の実空間形状につき、奥行き位置をも認識できる3次元空間形状として空間マッピング処理された空間マッピングデータは記憶手段により記憶される。 The space mapping data obtained by spatially mapping the real space shape captured by the photographing means 8 and the detecting portion 9 as a three-dimensional space shape whose depth position can also be recognized is stored in the storage means.

ここで、空間マッピング処理により現実の実空間の座標位置が認識、記憶された後は、MRデバイス7を装着し操作する操作者が前記現実の実空間のいずれの位置に位置してMRデバイス7を装着し操作しているのかについても認識できる。 Here, after the coordinate position in the real space is recognized and stored by the space mapping process, the operator who wears and operates the MR device 7 can locate the MR device 7 at any position in the real space. You can also recognize whether you are wearing and operating.

また、MRデバイス7では、空間マッピング処理が行われた現実の実空間について重ね合わせる別の映像オブジェクトも生成でき、該別の映像オブジェクトは映像編集制御ができる例えば3DCGなどの映像も付加できる。 In addition, the MR device 7 can also generate another image object to be superimposed on the real space on which the space mapping processing has been performed, and the other image object can add images such as 3DCG images that can be edited and controlled.

この別の映像オブジェクトとしては例えば図4に示す例が挙げられる。そして、この映像オブジェクトには、既に現実の実空間につき空間マッピングが行われ、X、Y、Z座標が認識できる所定位置に配置されたマイクロホンアレイ1と同様のマイクロホンアレイ1を含む映像が採用される。 As another video object, for example, the example shown in FIG. 4 can be cited. For this image object, an image including a microphone array 1 similar to the microphone array 1 already spatially mapped in the real space and arranged at a predetermined position where the X, Y, and Z coordinates can be recognized is adopted. be.

さらに、前記別の映像オブジェクトでの映像内には、映像編集制御できる例えば3DCG映像を取り込むことが出来るものとなっている。
従って、別の映像オブジェクトでは、前記映像編集制御できる3DCG映像としてマイクロホンアレイ1の前方空間の任意位置の空間を横断面に切り取る制御が出来、その横断面を音検知面16などの検知面とする3DCG映像が生成できるのである。さらに、前記音検知面16を複数個の略正方形状をなす計算メッシュ面17に分割する3DCG映像が生成できるのである。
Furthermore, for example, a 3DCG image, which can be edited and controlled, can be incorporated into the image of the separate image object.
Therefore, with another image object, it is possible to cut out a space at an arbitrary position in the space in front of the microphone array 1 as a 3DCG image that can be edited and controlled as described above. 3DCG images can be generated. Furthermore, a 3DCG image can be generated by dividing the sound detection plane 16 into a plurality of calculation mesh planes 17 each having a substantially square shape.

このように、別の映像オブジェクトの映像では、例えば音の発出状況、音の強弱状況を処理できる音検知面16、計算メッシュ面17を有し、映像編集が行える3DCG映像を有して構成することが出来る。 In this way, the image of another image object has, for example, a sound detection plane 16 and a calculation mesh plane 17 that can process sound emission conditions and sound strength conditions, and has a 3DCG image that can be edited. can do

なお、マイクロホンアレイ1に配置されたマイクロホン15の数は何ら限定されない。本実施例では16chのマイクロホンアレイ1が示されており、16本のマイクロホン15が使用されている。また、音検知面16には複数に分割された計算メッシュ面17が設けられるが、この計算メッシュ面17の数についても何ら限定されない。例えば横33個、縦33個で構成して構わない。 Note that the number of microphones 15 arranged in the microphone array 1 is not limited at all. In this embodiment, a 16ch microphone array 1 is shown, and 16 microphones 15 are used. Further, although the sound detection surface 16 is provided with a plurality of divided computational mesh surfaces 17, the number of computational mesh surfaces 17 is not limited at all. For example, it may be composed of 33 horizontal and 33 vertical.

このように前記別の映像オブジェクトの映像としては、例えば映像内に配置されたマイクロホンアレイ1と、その前方に音を発出する空間においてその空間の横断面を切り出し、切り出した横断面を映像処理できる3DCG映像としての複数の計算メッシュ面17で構成された音検知面16とを有する映像として構成し、この映像を用いて後述するビームフォーミング処理を行うことにより、マイクロホンアレイ1によって映像内に設けられた所定の奥行き位置にある音検知面16の音圧レベルが計測でき、さらに音圧レベル分布データが算出でき、この音圧レベル分布データによる音圧レベル分布図がカラー表示できるものとされるのである。 In this way, as the image of the other image object, for example, the microphone array 1 arranged in the image and the cross section of the space in front of which the sound is emitted can be cut out, and the cut out cross section can be image-processed. A sound detection surface 16 composed of a plurality of computational mesh surfaces 17 as a 3DCG image is configured as an image, and beam forming processing, which will be described later, is performed using this image. The sound pressure level of the sound detection surface 16 at a predetermined depth position can be measured, the sound pressure level distribution data can be calculated, and the sound pressure level distribution map based on the sound pressure level distribution data can be displayed in color. be.

なお、前記音圧レベルを計測する前記音検知面16の位置はマイクロホンアレイ1に配置された複数のマイクロホン15の位置や向きが基準となって決定されるため、前記現実の実空間につき座標認識を行って空間マッピング処理された現実の実空間内でのマイクロホンアレイ1の設置位置や向きと、別の映像オブジェクトにおける映像の中でのマイクロホンアレイ1の設置位置や向きを一致させなければならず、そのためMRデバイス7などで前記一致させる設定をすることが必要となる。 Since the position of the sound detection surface 16 for measuring the sound pressure level is determined based on the positions and orientations of the plurality of microphones 15 arranged in the microphone array 1, coordinate recognition for the actual real space is performed. The installation position and orientation of the microphone array 1 in the real space that has undergone spatial mapping processing must match the installation position and orientation of the microphone array 1 in the video of another video object. Therefore, it is necessary to set the matching in the MR device 7 or the like.

そこで本発明では、MRデバイス7で表示される別の映像オブジェクトの映像の中でのマイクロホンアレイ1の設置位置や向きを空間マッピング処理された現実の空間の中でのマイクロホンアレイ1の設置位置や向きに合わせるべく図6に示すように手動で合わせて設定したり、あるいはマイクロホンアレイ1に取り付けたマーカーを用いてマイクロホンアレイ1の設置位置や向きを合わせる設定を行っている。 Therefore, in the present invention, the installation positions and orientations of the microphone array 1 in the video of another video object displayed by the MR device 7 are changed to the installation positions and orientations of the microphone array 1 in the real space subjected to spatial mapping processing. In order to match the orientation, setting is performed manually as shown in FIG.

上記のようにマイクロホンアレイ1の設置位置や向きを合わせる操作をすることで、マイクロホンアレイ1の位置や向きを含めた現実の実空間映像と別の映像オブジェクトの映像との位置関係を揃えることができ、ひいては現実の実空間映像内での正しい位置にある音検知面16での音圧レベル分布データに基づく音圧レベル分布図のカラーマップを表示することができるものとなる。 By adjusting the installation position and orientation of the microphone array 1 as described above, it is possible to align the positional relationship between the actual real space image including the position and orientation of the microphone array 1 and the image of another image object. Furthermore, it is possible to display a color map of a sound pressure level distribution diagram based on the sound pressure level distribution data on the sound detection surface 16 at the correct position in the actual real space image.

なお、たとえ眼鏡型のMRデバイス7を装着した装着者が移動したとしてもあらかじめ現実の空間につき空間マッピング処理を行い、座標認識を行った空間映像と、該空間映像に重ね合わされる別の映像オブジェクトの前記カラーマップなど音圧レベル分布図を検出する位置の位置関係は前記空間映像上で固定され、その位置関係が狂ってしまうことがない。 It should be noted that even if the wearer wearing the glasses-type MR device 7 moves, spatial mapping processing is performed in advance for the real space, and a spatial image obtained by performing coordinate recognition and another image object superimposed on the spatial image are generated. The positional relationship of the positions where the sound pressure level distribution diagram such as the color map is detected is fixed on the spatial image, and the positional relationship does not go out of order.

次に、前記マイクロホンアレイ1と音検知面16、計算メッシュ面17を使用してのビームフォーミング処理につき説明する。
ビームフォーミング処理とは音の可視化技術の一手法であり、マイクロホンアレイ1(複数の無指向性マイクロホンを平面上に配置したもの)などを用いて、デジタル処理された3次元空間映像内奥行き方向のある横断面(音検知面16)での計算メッシュ面17上の音圧レベルを算出する手法をいう。
Next, beam forming processing using the microphone array 1, the sound detection surface 16, and the calculation mesh surface 17 will be described.
Beamforming processing is a method of visualizing sound, and uses a microphone array 1 (a plurality of omnidirectional microphones arranged on a plane) to digitally process three-dimensional spatial images in the depth direction. This is a method of calculating the sound pressure level on the calculation mesh plane 17 in a certain cross section (sound detection plane 16).

そして、上記算出した音圧レベルの分布データからの音圧レベル分布図をカラー表示化し、別のオブジェクトの映像として前記3次元空間映像と重ね合わせることで、3次元空間映像の奥行き方向のいずれの箇所においてもその音位置を可視化することができるものとなるのである。 Then, the sound pressure level distribution map from the calculated sound pressure level distribution data is displayed in color, and superimposed on the three-dimensional spatial image as an image of another object, so that any depth direction of the three-dimensional spatial image can be obtained. It becomes possible to visualize the sound position even at the point.

ビームフォーミング処理方法の概略につき説明する。
ある方向からマイクロホンアレイ1に音が入射した場合、複数配置されている各マイクロホン15での音の到達時刻が少しずつずれる。しかし、各マイクロホン15の位置と音速からこの到達時刻の差は計算できる。すなわち、マイクロホンアレイ1との距離を任意で設定した可視化したい音検知面16に複数の計算メッシュ面17を形成し、マイクロホン15の位置関係と音速をもとに、それぞれの計算メッシュ面17の位置から到来する音が各マイクロホン15に入射する際の時間差を求めるのである。
An outline of the beamforming processing method will be described.
When sound enters the microphone array 1 from a certain direction, the arrival time of the sound at each of the multiple microphones 15 slightly shifts. However, this arrival time difference can be calculated from the position of each microphone 15 and the speed of sound. That is, a plurality of computational mesh planes 17 are formed on the sound detection plane 16 to be visualized, the distance from the microphone array 1 is arbitrarily set, and the position of each computational mesh plane 17 is determined based on the positional relationship of the microphones 15 and the speed of sound. In other words, the time difference when the sound arriving from 1 is incident on each microphone 15 is obtained.

次に、この時間差の分、各マイクロホン15の信号にディレイ(遅延)をかけて到達時刻をそろえ、同相で足し合わせることにより、その方向から到来する音のみを強調することが出来る。ついで、多数の方向についても同様の処理を行い、可視化したい断面(音圧検知面16)における各計算メッシュ面17上の音圧レベルを算出し、音圧レベル分布データを生成する。 Next, by delaying the signals from the microphones 15 by the amount of this time difference to align the arrival times and adding them in phase, only the sound arriving from that direction can be emphasized. Next, similar processing is performed for a large number of directions to calculate the sound pressure level on each calculation mesh plane 17 in the cross section (sound pressure detection plane 16) to be visualized, and generate sound pressure level distribution data.

そして、前記生成された音圧レベル分布データを分布図にし、制御部12にてカラーマップ表示することにより、音の情報を視覚的に把握することができるのである。 Then, the generated sound pressure level distribution data is made into a distribution map and displayed in a color map by the control unit 12, so that the sound information can be visually grasped.

前記音圧レベル分布データを分布図にし、制御部12にてカラーマップ表示した具体例を図8、図9に示す。実際の図では音圧レベルの強弱を赤色などの色を使用し、色の違いと色の濃淡で表示している。すなわち、濃い赤色は、音圧レベルが高く、強い箇所として表示し、薄い赤色あるいは黄色や緑色は音圧レベルが低く、弱い箇所として表示してある。図8はマイクロホンアレイ1から1.5mの測定距離での音圧レベル分布図を示したものであり、図9はマイクロホンアレイ1から3.0mの測定距離での音圧レベル分布図を示したものである。図において分布図はモノクロで表現せざるを得ないため、色の濃い箇所は音圧レベルが高く、色の薄い箇所は音圧レベルが低い箇所になっている。
いずれも近傍位置に音発出装置であるスピーカー20を配置してあり、そのため音圧レベル分布図はほぼ同じ分布を示した図形になっている。
8 and 9 show specific examples in which the sound pressure level distribution data is converted into a distribution map and displayed in a color map by the control unit 12. FIG. In the actual figure, the intensity of the sound pressure level is displayed using colors such as red, and the difference in color and the shade of the color. That is, dark red indicates a high sound pressure level and indicates a strong point, and light red, yellow, or green indicates a low sound pressure level and indicates a weak point. FIG. 8 shows a sound pressure level distribution map at a measurement distance of 1.5 m from the microphone array 1, and FIG. 9 shows a sound pressure level distribution map at a measurement distance of 3.0 m from the microphone array 1. It is. In the figure, since the distribution map has to be expressed in monochrome, dark-colored areas have high sound pressure levels, and light-colored areas have low sound pressure levels.
In both cases, a speaker 20, which is a sound emitting device, is arranged in the vicinity, and therefore the sound pressure level distribution diagrams are figures showing substantially the same distribution.

また、図10は、図8や図9と異なり、MRデバイス7の装着者がマイクロホンアレイ1と音検知面16とが配置してある配置面の左側から音検知面16を視た状態を示しているが、この位置から音検知面16を視た場合にもカラーマップ化した音圧レベル分布図を確認できる。 Also, unlike FIGS. 8 and 9, FIG. 10 shows a state in which the wearer of the MR device 7 views the sound detection surface 16 from the left side of the arrangement surface on which the microphone array 1 and the sound detection surface 16 are arranged. However, even when the sound detection surface 16 is viewed from this position, the color-mapped sound pressure level distribution diagram can be confirmed.

なお、処理制御を高速に行えば、過渡音や非定常な音についても可視化することができる。すなわち、制御部12の処理能力は例えば最大25fpsの処理能力が認められるからである。 If processing control is performed at high speed, transient sounds and unsteady sounds can also be visualized. This is because the processing capability of the control unit 12 is recognized to be, for example, a maximum of 25 fps.

なお、音圧レベル分布図のカラー表示をする際の色分けや輝度はMRデバイス7の制御部12などで変更可能とされており、変更されたカラー表示で色分けした音圧レベル分布図はカラーマップ14として表示部11上に表示されると共に、記憶部に保存データ10として保存される(図3参照)。 The color coding and brightness for color display of the sound pressure level distribution map can be changed by the control unit 12 of the MR device 7, etc., and the sound pressure level distribution map color-coded by the changed color display is color map. 14 is displayed on the display unit 11 and stored as the storage data 10 in the storage unit (see FIG. 3).

すなわち、本発明の音可視化システムでは、リアルタイムな音圧レベル分布の計測が出来ることに加えて、計測した音圧レベル分布をMRデバイス7に保存することができる構成となっている。さらに保存した音圧レベル分布をカラー表示された音圧レベル分布図(カラーマップ14)として現実の実空間上に投影して再現(再生)することもできる様構成されている。 That is, in the sound visualization system of the present invention, in addition to being able to measure the sound pressure level distribution in real time, the measured sound pressure level distribution can be stored in the MR device 7 . Furthermore, the stored sound pressure level distribution can be reproduced (reproduced) by projecting it onto the real space as a color-displayed sound pressure level distribution diagram (color map 14).

ここで、音圧レベル分布のデータは保存時のバンドパスフィルタ3の上下限値や計測断面距離の値とともに、数値データとしてMRデバイス7に保存されることになる。そして、保存データの再生時にはこの数値データをもとにMRデバイス7内でカラーマップ14を作成し、3DCGの形で現実の実空間上に投影されるのである。 Here, the sound pressure level distribution data is stored in the MR device 7 as numerical data together with the upper and lower limit values of the band-pass filter 3 at the time of storage and the values of the measured cross-sectional distance. Then, when reproducing the stored data, a color map 14 is created in the MR device 7 based on this numerical data, and projected onto the real space in the form of 3DCG.

なお、音圧レベルの計測データの保存及び再生手順につき以下に説明する。
まず、バンドパスフィルタ3の上下限値、測定断面距離、結果を保存する時間(長さ)をUI19で設定する。次に、音圧レベル分布の計測を開始する。
そして、任意のタイミングでUI19の保存開始ボタンを押すと、事前に設定した時間分の計測結果が保存されるものとなる。次に、UI19の保存データ再生ボタンを押すと、保存した音圧レベル分布がカラーマップ14として例えば光透過ディスプレイの表示部11を介して現実の実空間上で再現(再生)されることになる。
The procedure for storing and reproducing sound pressure level measurement data will be described below.
First, the UI 19 is used to set the upper and lower limits of the band-pass filter 3, the cross-sectional distance to be measured, and the time (length) for storing the results. Next, measurement of the sound pressure level distribution is started.
Then, when a save start button on the UI 19 is pressed at an arbitrary timing, the measurement results for the preset time are saved. Next, when the saved data reproduction button of the UI 19 is pressed, the saved sound pressure level distribution is reproduced (reproduced) in the actual real space as the color map 14 via the display unit 11 such as a light transmission display. .

さらに本発明の処理フローについてその概略を説明する。
例えば16chのマイクロホンアレイで集音した音情報から、演算ユニット2では事前にUI(ユーザーインターフェイス)19で設定したバンドパスフィルタの値と音圧レベル分布を計測する断面(音検知面16)の位置の情報をもとにビームフォーミングの処理を行う。この処理によりある断面(音検知面16)での各計算メッシュ面17での音圧レベルが求められ、この情報がMRデバイス7、PCなどの制御装置5に送られる。
Furthermore, the outline of the processing flow of the present invention will be described.
For example, from sound information collected by a 16-channel microphone array, the calculation unit 2 uses the value of the band-pass filter set in advance on the UI (user interface) 19 and the position of the cross section (sound detection surface 16) for measuring the sound pressure level distribution. Beamforming processing is performed based on this information. By this processing, the sound pressure level on each calculation mesh plane 17 in a certain section (sound detection plane 16) is obtained, and this information is sent to the MR device 7, the control device 5 such as a PC.

なお、UI(ユーザーインターフェイス)19でのバンドパスフィルタ値の設定などの設定操作は図7に示すように、例えば表示部11に設定画面を表示させ、該画面をタップするなどして各設定値が入力できるようにしてある。 Setting operations such as band-pass filter value setting on the UI (user interface) 19 are performed by displaying a setting screen on the display unit 11 and tapping the screen, as shown in FIG. can be entered.

制御装置5からは音圧レベルデータとUI19での計測設定の情報(ビームフォーミング処理する特定周波数の設定、カラーマップを表示する検出距離の設定など)をバイト配列に変換したデータもMRデバイス7に送られ、MRデバイス7の制御部12では前記UI値をもとに音圧レベル分布データから音圧レベル分布図データが生成される。そして、生成された音圧レベル分布図データの情報をカラーマップの表示色データに再変換し、この表示色データからカラーマップ14を作成するのである。 From the control device 5, sound pressure level data and measurement setting information on the UI 19 (specific frequency settings for beamforming processing, detection distance settings for color map display, etc.) converted into byte array data are also sent to the MR device 7. The control unit 12 of the MR device 7 generates sound pressure level distribution map data from the sound pressure level distribution data based on the UI value. Then, the information of the generated sound pressure level distribution diagram data is reconverted into the display color data of the color map, and the color map 14 is created from this display color data.

また、眼鏡型のMRデバイス7について光透過ディスプレイなどの表示部11を用いると、肉眼で視る現実の空間映像上に別のオブジェクト映像である音圧レベル分布図のカラーマップ映像を重ね合わせて視ることが出来る。 In addition, if the display unit 11 such as a light transmissive display is used for the spectacles type MR device 7, the color map image of the sound pressure level distribution diagram, which is another object image, is superimposed on the actual spatial image viewed with the naked eye. can see.

すなわち、前述したように、MRデバイス7は眼鏡型の機器が考えられており、この眼鏡型のMRデバイス7には、光透過性の表示部11が採用される。従って、光透過性の表示部11を介して肉眼で視る現実空間に前記音圧レベル分布図のカラーマップ映像を重ね合わせて可視することが出来、映像上での音可視化がリアルに行えることとなる。図11において説明されたとおりである。 That is, as described above, the MR device 7 is considered to be a spectacles-type device, and the spectacles-type MR device 7 employs the light-transmitting display section 11 . Therefore, the color map image of the sound pressure level distribution map can be superimposed and visualized on the real space viewed with the naked eye through the light-transmitting display unit 11, and the sound can be visualized on the image in a realistic manner. becomes. As described in FIG.

また、MRデバイス7の表示部11には、光透過ディスプレイではないタブレット型の表示部11も使用できる。この場合、タブレットの表示部11上にはカメラで撮影された現実空間が映し出され、この映像に前記音圧レベル分布図のカラーマップ映像を重ね合わせて可視するものとなる。図12において説明されたとおりである。 A tablet-type display unit 11 that is not a light-transmissive display can also be used as the display unit 11 of the MR device 7 . In this case, the real space photographed by the camera is displayed on the display unit 11 of the tablet, and the color map image of the sound pressure level distribution map is superimposed on this image for visualization. As described in FIG.

また、奥行き方向に移動させるなどして音検知面16の位置を変更し、検出距離を変更したり、音圧レベルの測定範囲を変更する(検出周波数範囲の変更)などの測定変更設定はMRデバイス7上のみならず制御装置5上でも変更できる。すなわち、設定画面を選択して該画面を表示させ、入力部18によって設定変更するのである。 In addition, measurement change settings such as changing the position of the sound detection surface 16 by moving it in the depth direction, changing the detection distance, changing the sound pressure level measurement range (change of the detection frequency range), etc. It can be changed not only on the device 7 but also on the controller 5 . That is, the setting screen is selected, the screen is displayed, and the setting is changed by the input section 18 .

その設定変更情報は例えば制御装置5に送られ、ビームフォーミングの処理に反映されるものとなる。なお、別の音検知面16でのカラーマップ情報を欲する場合には、一旦先に行ったカラーマップ表示操作を中止する必要がある。 The setting change information is sent to the control device 5, for example, and is reflected in the beam forming process. If color map information for another sound detection surface 16 is desired, the previous color map display operation must be canceled.

本発明については、以下の示すような実施例が想定されるものである。例えば、建築物における外部騒音の流入部(遮音欠損部)探査、あるいは工場設備、生産ラインでの異音発生箇所の探査による不具合検査、あるいは建設工事現場の設備に対する音探査、あるいは工場建屋など、騒音発生施設の漏音部位の探査などが挙げられる。
The present invention contemplates embodiments such as the following. For example, exploration of external noise inflow points (sound insulation defects) in buildings, defect inspections by exploring abnormal noise locations in factory equipment and production lines, sound exploration of equipment at construction sites, factory buildings, etc. Exploration of sound leakage parts of noise generating facilities, etc. can be mentioned.

1 マイクロホンアレイ
2 演算ユニット
3 バンドパスフィルタ
4 ビームフォーミング処理部
5 制御装置
6 映像可視化部
7 MRデバイス
8 撮影手段
9 検出部
10 保存データ
11 表示部
12 制御部
13 バイナリーデータ
14 カラーマップ
15 マイクロホン
16 音検知面
17 計算メッシュ面
18 入力部
19 UI
20 スピーカー
1 Microphone array 2 Arithmetic unit 3 Bandpass filter 4 Beamforming processing unit 5 Control device 6 Image visualization unit 7 MR device 8 Photographing means 9 Detection unit 10 Saved data 11 Display unit 12 Control unit 13 Binary data 14 Color map 15 Microphone 16 Sound Detection surface 17 Calculation mesh surface 18 Input unit 19 UI
20 speakers

Claims (5)

現実の空間を空間マッピング処理して、現実の空間でのX、Y、Z座標の座標位置を記憶し、前記座標位置が記憶された現実の空間内に、映像制御が行える別の映像を重ね合わせ、前記映像制御が行える別の映像の所定箇所での横断面を切り出して検知面が形成できると共に、該検知面に複数の計算用メッシュ面が形成でき、前記形成された複数の計算用メッシュ面上での取得データを検知手段で検知し、検知したデータを算出手段により算出して前記複数の計算用メッシュ面上でのデータ値を求め、求めた複数のデータ値からデータ分布図作成手段によりデータ分布図を生成し、現実空間でのデータ分布状況を可視化した、
ことを特徴とする空間内でのデータ可視化システム。
Space mapping processing is performed on the real space to store the coordinate positions of the X, Y, and Z coordinates in the real space, and another image that can be image-controlled is superimposed in the real space in which the coordinate positions are stored. In addition, a detection surface can be formed by cutting out a cross section at a predetermined location of another image that can be controlled, and a plurality of calculation mesh surfaces can be formed on the detection surface, and the formed plurality of calculation meshes Data obtained on the surface is detected by the detection means, the detected data is calculated by the calculation means to obtain data values on the plurality of calculation mesh surfaces, and data distribution diagram creation means is obtained from the obtained plurality of data values. generated a data distribution map and visualized the data distribution situation in the real space,
A data visualization system in space characterized by:
音発出部からの音を集音する検知手段が配置された現実の空間を空間マッピング処理をして現実の空間でのX、Y、Z座標の座標位置を記憶し、前記座標位置が認識された現実の空間内に、前記検知手段が配置され、映像制御が行える別の映像を重ね合わせ、前記映像制御が行える別の映像の所定箇所での横断面を切り出して音検知面が形成できると共に、該音検知面に複数の計算用メッシュ面が形成でき、前記形成された複数の計算用メッシュ面上での音データを検知手段で検知し、検知した音データを算出手段により算出して前記複数の計算用メッシュ面上での音データ値を求め、求めた複数の音データ値から音データ分布図作成手段により音データ分布図を生成し、現実空間での音データ分布状況を可視化した、
ことを特徴とする空間内での音データ可視化システム。
The real space in which the detection means for collecting the sound from the sound emitting unit is arranged is subjected to space mapping processing, the coordinate positions of the X, Y, and Z coordinates in the real space are stored, and the coordinate positions are recognized. In the actual space, the detection means is arranged, and another image that can be image controlled is superimposed, and a cross section at a predetermined position of the another image that can be image controlled is cut out to form a sound detection surface. a plurality of computational mesh planes can be formed on the sound detection plane, sound data on the formed plurality of computational mesh planes is detected by the detection means, the detected sound data is calculated by the calculation means, and the Obtaining sound data values on a plurality of calculation mesh surfaces, generating a sound data distribution map from the obtained plurality of sound data values by a sound data distribution map creating means, and visualizing the sound data distribution situation in the real space,
A sound data visualization system in space characterized by:
前記音データ値は音圧レベル強弱値であり、前記音データ分布図は、音圧レベル強弱分布図である、
ことを特徴とする請求項2記載の空間内での音データ可視化システム。
The sound data value is a sound pressure level intensity value, and the sound data distribution map is a sound pressure level intensity distribution map,
3. The system for visualizing sound data in space according to claim 2, characterized in that:
前記分布図は、音圧レベル強弱をカラーで色分け表示できる、
ことを特徴とする請求項2または請求項3記載の空間内での音データ可視化システム。
The distribution map can display the intensity of sound pressure levels in different colors,
4. The system for visualizing sound data in space according to claim 2 or 3, characterized in that:
前記表示部は光透過ディスプレイである、
ことを特徴とする請求項2、請求項3または請求項4記載の空間内での音データ可視化システム。


The display unit is a light transmissive display,
5. The system for visualizing sound data in space according to claim 2, claim 3, or claim 4, characterized in that:


JP2021080301A 2021-05-11 2021-05-11 Spatial data visualization system Active JP7506381B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021080301A JP7506381B2 (en) 2021-05-11 2021-05-11 Spatial data visualization system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021080301A JP7506381B2 (en) 2021-05-11 2021-05-11 Spatial data visualization system

Publications (2)

Publication Number Publication Date
JP2022174479A true JP2022174479A (en) 2022-11-24
JP7506381B2 JP7506381B2 (en) 2024-06-26

Family

ID=84144549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021080301A Active JP7506381B2 (en) 2021-05-11 2021-05-11 Spatial data visualization system

Country Status (1)

Country Link
JP (1) JP7506381B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013015468A (en) * 2011-07-06 2013-01-24 Hitachi Engineering & Services Co Ltd Abnormal sound diagnostic apparatus and abnormal sound diagnostic method
JP2014137323A (en) * 2013-01-18 2014-07-28 Hitachi Power Solutions Co Ltd Abnormality diagnosis apparatus and abnormality diagnosis method using the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6969807B2 (en) 2019-09-24 2021-11-24 サン・シールド株式会社 Work support system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013015468A (en) * 2011-07-06 2013-01-24 Hitachi Engineering & Services Co Ltd Abnormal sound diagnostic apparatus and abnormal sound diagnostic method
JP2014137323A (en) * 2013-01-18 2014-07-28 Hitachi Power Solutions Co Ltd Abnormality diagnosis apparatus and abnormality diagnosis method using the same

Also Published As

Publication number Publication date
JP7506381B2 (en) 2024-06-26

Similar Documents

Publication Publication Date Title
JP7488250B2 (en) Systems and methods for projecting and displaying acoustic data - Patents.com
AU2013333803B2 (en) Improvements in and relating to gathering range and dimensional information underwater surveys
JP2020529685A (en) Equipment and methods for generating scene representations
US20100231694A1 (en) Lighting apparatus
Inoue et al. Three-dimensional sound-field visualization system using head mounted display and stereo camera
CN107623832A (en) Video background replacement method, device and mobile terminal
CN107592490A (en) Video background replacement method, device and mobile terminal
WO2018159144A1 (en) Three-dimensional intrusion detection system and three-dimensional intrusion detection method
Kataoka et al. Real-time measurement and display system of 3D sound intensity map using optical see-through head mounted display
JP2022058753A (en) Information processing apparatus, information processing method, and program
JP7506381B2 (en) Spatial data visualization system
KR101960577B1 (en) Method for transmitting and receiving stereo information about a viewed space
Teraoka et al. Display system for distribution of virtual image sources by using mixed reality technology
JP2016188791A (en) Sound source surveying device and sound source surveying method
KR101155610B1 (en) Apparatus for displaying sound source location and method thereof
JP2023542863A (en) Systems and methods for generating panoramic acoustic images and virtualizing acoustic imaging devices by segmentation
KR102039902B1 (en) Remote device precision inspection system and method
WO2017199657A1 (en) Endoscope device, measurement method, and program
RU2215297C2 (en) Procedure establishing spatial distribution of characteristics of physical fields of object and facility for its realization
JP2023057308A (en) monitoring device
Inoue et al. Sound field visualization system by MVDR beamforming with augmented reality and point clouds
KR20160004845A (en) Method and apparatus for visualizing sound source location
KR20230116134A (en) Unmanned aerial vehicle based abnormal noise detection device
JP2022110223A (en) Information providing device, information providing method and program
JP2018173976A (en) Three-dimensional intrusion detection system and three-dimensional intrusion detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230428

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240606