JP2021532357A - Systems and methods for analyzing and displaying acoustic data - Google Patents

Systems and methods for analyzing and displaying acoustic data Download PDF

Info

Publication number
JP2021532357A
JP2021532357A JP2021504177A JP2021504177A JP2021532357A JP 2021532357 A JP2021532357 A JP 2021532357A JP 2021504177 A JP2021504177 A JP 2021504177A JP 2021504177 A JP2021504177 A JP 2021504177A JP 2021532357 A JP2021532357 A JP 2021532357A
Authority
JP
Japan
Prior art keywords
acoustic
display
image data
image
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021504177A
Other languages
Japanese (ja)
Other versions
JP7417587B2 (en
Inventor
マイケル・ディー・スチュアート
ディレパ・プラバカール
スコット・エム・ツカマキ
ダーウィン・シー・ウィット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fluke Corp
Original Assignee
Fluke Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fluke Corp filed Critical Fluke Corp
Publication of JP2021532357A publication Critical patent/JP2021532357A/en
Priority to JP2024000575A priority Critical patent/JP2024041847A/en
Application granted granted Critical
Publication of JP7417587B2 publication Critical patent/JP7417587B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8977Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using special techniques for image reconstruction, e.g. FFT, geometrical transformations, spatial deconvolution, time deconvolution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H3/00Measuring characteristics of vibrations by using a detector in a fluid
    • G01H3/10Amplitude; Power
    • G01H3/12Amplitude; Power by electric means
    • G01H3/125Amplitude; Power by electric means for representing acoustic field distribution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M13/00Testing of machine parts
    • G01M13/02Gearings; Transmission mechanisms
    • G01M13/028Acoustic or vibration analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M13/00Testing of machine parts
    • G01M13/04Bearings
    • G01M13/045Acoustic or vibration analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M3/00Investigating fluid-tightness of structures
    • G01M3/02Investigating fluid-tightness of structures by using fluid or vacuum
    • G01M3/04Investigating fluid-tightness of structures by using fluid or vacuum by detecting the presence of fluid at the leakage point
    • G01M3/24Investigating fluid-tightness of structures by using fluid or vacuum by detecting the presence of fluid at the leakage point using infrasonic, sonic, or ultrasonic vibrations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M3/00Investigating fluid-tightness of structures
    • G01M3/38Investigating fluid-tightness of structures by using light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/8086Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining other position line of source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/008Visual indication of individual signal levels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Studio Devices (AREA)

Abstract

あるシステムは、音響信号を受信するように構成された音響センサアレイと、電磁放射を受信するように構成された電磁撮像ツールと、ユーザインタフェースと、ディスプレイと、プロセッサを含む。プロセッサは、電磁撮像ツールから電磁データを受信するとともに、音響センサアレイから音響データを受信する。プロセッサは、受信した音響データに基づきシーンの音響画像データを生成し、組み合わされた音響画像データと電磁画像データからなるディスプレイ画像を生成し、ディスプレイにディスプレイ画像を提供する。プロセッサは、ユーザインタフェースから注釈入力を受信し、その受信した注釈入力に基づいてディスプレイ画像を更新することができる。プロセッサは、受信した音響信号に関連した一又はそれ以上の音響パラメータを決定し、音響信号に関連した臨界を決定するように構成され得る。ユーザは、決められた臨界情報又は他の決められた情報によりディスプレイ画像に注釈を付すことができる。One system includes an acoustic sensor array configured to receive acoustic signals, an electromagnetic imaging tool configured to receive electromagnetic radiation, a user interface, a display, and a processor. The processor receives electromagnetic data from the electromagnetic imaging tool and acoustic data from the acoustic sensor array. The processor generates acoustic image data of the scene based on the received acoustic data, generates a display image consisting of the combined acoustic image data and electromagnetic image data, and provides the display image to the display. The processor can receive annotation input from the user interface and update the display image based on the received annotation input. The processor may be configured to determine one or more acoustic parameters associated with the received acoustic signal and to determine the criticality associated with the acoustic signal. The user can annotate the display image with defined critical information or other defined information.

Description

関連出願の相互参照Cross-reference of related applications

本出願は、2018年7月24日に出願された米国特許出願第62/702,716号の優先権を主張し、ここにその内容全体が引用により組み入れられる。 This application claims the priority of US Patent Application No. 62 / 702,716 filed July 24, 2018, the entire contents of which are incorporated herein by reference.

現在入手可能な音響撮像装置は、様々なファクターに起因して各種の周波数感度制限を有する音響センサアレイ構成を含んでいる。例えば、ある音響撮像装置は、ほぼ20Hzとほぼ20kHzの間の音響周波数範囲において反応するように設計されている。他の装置(例えば、超音波装置)は、ほぼ38kHzとほぼ45kHzの間の音響周波数範囲において反応するように設計されている。 Currently available acoustic imaging devices include acoustic sensor array configurations with various frequency sensitivity limits due to various factors. For example, some acoustic imaging devices are designed to respond in the acoustic frequency range between approximately 20 Hz and approximately 20 kHz. Other devices (eg, ultrasonic devices) are designed to respond in the acoustic frequency range between approximately 38 kHz and approximately 45 kHz.

しかしながら、20Hzから20kHzの周波数範囲内で作動するように一般的に設計された音響撮像装置は、たとえば、ほぼ50kHzまで若しくはそれ以上の高周波数を有効に検出又は撮像することができない。同様に、20kHzから50kHzの周波数範囲内で作動するように設計された音響装置又は超音波装置は、たとえば、20kHz若しくはそれ以下の低周波数を有効に検出及び/又は撮像することができない。このことは様々な理由のためである。例えば、低周波数(例えば、可聴周波数)用に最適化されたセンサアレイは、高周波数(例えば、超音波周波数)用に最適化されたセンサアレイが行うよりもはるかにかけ離れた個々のセンサを概して含んでいる。 However, an acoustic image pickup device generally designed to operate in the frequency range of 20 Hz to 20 kHz cannot effectively detect or image high frequencies up to, for example, approximately 50 kHz or higher. Similarly, an acoustic or ultrasonic device designed to operate in the frequency range of 20 kHz to 50 kHz cannot effectively detect and / or image low frequencies of, for example, 20 kHz or less. This is for various reasons. For example, a sensor array optimized for low frequencies (eg, audible frequencies) generally refers to individual sensors that are far more distant than a sensor array optimized for high frequencies (eg, ultrasonic frequencies) does. Includes.

ハードウェアの懸念に加えて、又は、それとは別に、音響撮像の異なる計算アルゴリズムと方法は、異なる周波数及び/又はターゲットへの異なる距離を有する音響信号により高い適性があることが多く、特に未経験のユーザにとって、これらなしで音響的にシーンをもっともよく画像化する方法を決めることは難しい。 In addition to or apart from hardware concerns, different computational algorithms and methods of acoustic imaging are often more suitable for acoustic signals with different frequencies and / or different distances to the target, especially inexperienced. It is difficult for the user to determine the best way to image the scene acoustically without them.

異なる音響周波数範囲を撮像する場合のこのような不一致は、異なる周波数及び波長の音波の空気中の伝搬の背後の物理現象にある程度起因している。ある複数のアレイ配向とアレイサイズと計算方法は、一般に、異なる周波数(例えば、可聴周波数や超音波周波数など)特性を有する音響信号により高い適性がある。 Such discrepancies when imaging different acoustic frequency ranges are due in part to the physical phenomenon behind the propagation of sound waves of different frequencies and wavelengths in the air. A plurality of array orientations, array sizes and calculation methods are generally more suitable for acoustic signals with different frequency characteristics (eg, audible frequency, ultrasonic frequency, etc.).

同様に、異なるアレイ特性及び/又は計算方法は、ターゲットへの異なる距離にある音響シーンにとってより高い適性がありうる。例えば、非常に近い距離においてターゲットに向けた近接場音響ホログラフィやより遠い距離においてターゲットに向けた各種音響ビーム形成方法です。 Similarly, different array characteristics and / or computational methods may be more suitable for acoustic scenes at different distances to the target. For example, near-field acoustic holography aimed at a target at a very short distance and various acoustic beam forming methods aimed at a target at a farther distance.

したがって、(例えば、音響撮像用の)音響アレイを用いた音響点検は、例えば、異なる周波数範囲を有する音響信号の分析のために広範な装備と、音響分析を行うためにいつ異なるハードウェアと計算技術が適切となるのかを理解する専門的技術を必要とすることがある。このことは、音響点検に時間とコストを強度にかけることとなり、そのような点検をするために専門家を必要とすることがある。 Therefore, acoustic inspection using an acoustic array (eg, for acoustic imaging) is, for example, extensive equipment for the analysis of acoustic signals with different frequency ranges, and when performing acoustic analysis with different hardware and computation. You may need specialized skills to understand if the technology is appropriate. This puts time and cost on acoustic inspections and may require specialists to perform such inspections.

例えば、ユーザは、音響分析をするために手動で各種のハードウェア及び/又はソフトウェアを選択することを余儀なくされることがある。しかしながら、経験のない分析者は、与えられた分析及び/又は音響シーンにとってハードウェアとソフトウェアの好適な組み合わせを知ることは不可能である場合がある。その上、シーン内から目標の音を分離することは、特に煩雑なシーンにおいては、それ自体難題を提供することであり、経験のないユーザにとってつまらないいらいらを示すことになるかもしれない。例えば、特に雑音環境の下で、所定の音響シーンは、目標の音響信号を不明瞭にするいくつもの周波数や強度や他の特性を含む音響信号を含んでいることがある。 For example, the user may be forced to manually select various hardware and / or software for acoustic analysis. However, an inexperienced analyst may not be able to know the preferred combination of hardware and software for a given analysis and / or acoustic scene. Moreover, separating the target sound from within the scene poses a challenge in itself, especially in cumbersome scenes, and may present a boring annoyance to inexperienced users. For example, a given acoustic scene may contain an acoustic signal containing a number of frequencies, intensities, and other characteristics that obscure the target acoustic signal, especially in a noisy environment.

従来のシステムは、目標の音を分析するために点検に先立ち、ユーザに目標の各種の音響パラメータを手動で特定することをたびたび要求していた。しかし、経験のないユーザは、目標の各種の音をもっともよく分離及び/又は特定する方法を知らないことがある。 Traditional systems often require the user to manually identify the various acoustic parameters of the target prior to inspection to analyze the target sound. However, inexperienced users may not know how to best separate and / or identify the various sounds of the target.

その上、複数の撮像技術(例えば、可視光撮像技術、赤外線撮像技術、紫外線撮像技術、可聴撮像技術若しくは他の撮像技術)が同じ対象又はシーンを点検しているときに協調して使用されている場合、異なる撮像技術を実施するために用いられるツールの物理的な配置及び又は他のセッテング(例えば、フォーカス位置)は分析に強い影響を与えることがある。例えば、各撮像装置の異なる位置及び/又はフォーカス位置は、結果的に視差となり、結果として生じる画像はずれて並置されることがある。このことは、シーン内の目標の領域及び/又は問題領域、ドキュメンテーションエラー、問題の誤診を適切に突き止めることを結果的にできなくしてしまうことがある。例えば、音響画像データに関して、音響画像データが他の撮像技術(例えば、可視光画像データ及び/又は赤外線画像データ)から画像データに関してずれている場合には、目標の音響信号の位置又は音源を特定することは難しいことがある。 Moreover, multiple imaging techniques (eg, visible light imaging technology, infrared imaging technology, ultraviolet imaging technology, audible imaging technology or other imaging technology) are used in concert when inspecting the same object or scene. If so, the physical placement of tools and / or other setting (eg, focus position) used to perform different imaging techniques can have a strong impact on the analysis. For example, different positions and / or focus positions of each image pickup device may result in parallax and the resulting images may be misaligned and juxtaposed. This can result in the inability to properly locate target areas and / or problem areas, documentation errors, and misdiagnosis of problems in the scene. For example, with respect to acoustic image data, if the acoustic image data deviates from other imaging techniques (eg, visible light image data and / or infrared image data) with respect to the image data, the position or sound source of the target acoustic signal is specified. It can be difficult to do.

既存の超音波試験及び点検ツールは、受信中のセンサに音を収束させるときに役立たせるために、パラボラディッシュを使用するか若しくはそれを使用しないで、超音波センサを用いている。特定周波数の音が検出された時、装置のディスプレイ上で、それは上昇若しくは降下する数値として、若しくは、周波数又はデシベルレベルグラフ上で一般に表示される。このことは、多くのユーザにとって、非常に紛らわしく且つ非直感的でありうる。ライブシーンの画像又は音の視覚化は利用できない。 Existing ultrasonic testing and inspection tools use ultrasonic sensors with or without parabolic dishes to help the receiving sensor converge the sound. When a sound of a particular frequency is detected, it is generally displayed on the display of the device as a rising or falling number, or on a frequency or decibel level graph. This can be very confusing and non-intuitive to many users. Visualization of live scene images or sounds is not available.

特定の音を分離し、その場所を突き止め、分析することは、冗長なプロセスであり、多くのエンドユーザにとって困惑させられることがある。装置と人間の間の複雑で非直感的なインタフェースが装置の有効利用にとって障害となることがあり、装置上で基本的な機能を操作するためにですら追加のトレーニングを必要とすることがある。 Separating, locating, and analyzing a particular sound is a tedious process that can be confusing to many end users. The complex and non-intuitive interface between the device and humans can be an obstacle to the effective use of the device and may require additional training even to operate basic functions on the device. ..

上等な音響撮像装置は、シーンの静止又はライブ可視画像と統合した音の偽色視覚化表現を生成する可能性を有する。それら装置においてすら、選択及び調整制御は、音の適切な視覚化にとって重要である。しかしながら、伝統的な制御は、高度に訓練された音響技術者と専門家による利用のために発展されてきた。これらの制御は、平均的なユーザにとっては、非直感的であることが多く、結果的に適切な選択及び視覚化パラメータ制御にいくばくかの混乱を生じることがあった。低レベルの訓練を受けた人によるこれらの制御の利用は取り扱いにくいことがあり、パラメータ選択の誤りへとつながり、究極的には劣化した音響視覚化へとなる。 A good acoustic imager has the potential to produce a false color visualization of sound integrated with a still or live visible image of the scene. Selection and adjustment control, even in those devices, is important for proper sound visualization. However, traditional controls have been developed for use by highly trained audio technicians and professionals. These controls are often non-intuitive to the average user and can result in some confusion in proper selection and visualization parameter control. The use of these controls by low-level trained personnel can be cumbersome, leading to misselection of parameters and ultimately poor acoustic visualization.

その上、適切な分析報告活動をするためには、この方法とともに追加のコンテキスト情報を必要とされることが多い。一般的に従来の超音波試験装置若しくは音響イマージャーによって点検されているシーンについての追加のコンテキスト情報を収集したい技術者は、別のカメラ又は装置により写真を撮り、及び/又は、記述された注釈又はPC、タブレット、スマートホン若しくは他のモバイル装置のような別の装置に記録された注釈とともに記録しなければならない。そして、これらの2次的な注釈は、超音波ツール若しくは音響イマ―ジャーからのデータと手動で同期又は一致されねばならない。このことは、かなり多くの時間がかかり、適正なデータと対応する2次的コンテキスト情報を整合するときに誤りがちになりうる。 Moreover, additional contextual information is often required along with this method for proper analytical reporting activities. A technician who wants to collect additional contextual information about a scene that is typically inspected by a conventional ultrasound test device or acoustic imager may take a picture with another camera or device and / or note or describe it. Must be recorded with annotations recorded on another device such as a PC, tablet, smartphone or other mobile device. And these secondary annotations must be manually synchronized or matched with the data from the ultrasonic tool or acoustic imager. This takes quite a lot of time and can be erroneous when matching the correct data with the corresponding secondary context information.

本開示のある面は、音響分析システムに向けられている。システムは、複数の音響センサ要素からなる音響センサアレイであって、各音響センサ要素が音響シーンから音響信号を受信するとともに受信した音響信号に基づき音響データを出力するように構成されている音響センサアレイを含むことがある。 Some aspects of this disclosure are directed to acoustic analysis systems. The system is an acoustic sensor array composed of a plurality of acoustic sensor elements, and each acoustic sensor element receives an acoustic signal from an acoustic scene and outputs acoustic data based on the received acoustic signal. May include an array.

システムは、ターゲットシーンから電磁放射を受信し、受信した電磁放射を示す電磁画像データを出力するように構成された電磁撮像ツールを含むことがある。電磁撮像ツールは、可視光スペクトラム及び/又は近接赤外光スペクトラムを含む範囲のような波長範囲から電磁放射を検出するように構成されていることがある。あるシステムにおいては、電磁撮像システムは、可視光カメラモジュール及び/又は赤外線カメラモジュールを具備しうる。 The system may include an electromagnetic imaging tool configured to receive electromagnetic radiation from the target scene and output electromagnetic image data indicating the received electromagnetic radiation. Electromagnetic imaging tools may be configured to detect electromagnetic radiation from a wavelength range, such as a range that includes a visible light spectrum and / or a near infrared light spectrum. In some systems, the electromagnetic imaging system may include a visible light camera module and / or an infrared camera module.

システムは、ユーザインタフェースと、ディスプレイと、プロセッサを含んでいることがある。プロセッサは、音響センサアレイと、電磁撮像ツールと、ユーザインタフェースと、ディスプレイと通信可能である。 The system may include a user interface, a display, and a processor. The processor can communicate with the acoustic sensor array, the electromagnetic imaging tool, the user interface, and the display.

あるシステムにおいては、プロセッサは、電磁撮像ツールから電磁データを受信し、音響センサアレイからの音響データを受信するように構成されることがある。プロセッサは、また受信した音響データに基づいてシーンの音響画像データを生成し、組み合わされた音響画像データと電磁画像データからなるディスプレイ画像を生成し、ディスプレイにディスプレイ画像を提供することもある。ある実施の形態においては、プロセッサは、ユーザインタフェースから注釈入力を受信し、受信した注釈入力に基づいてディスプレイ上のディスプレイ画像を更新することがある。注釈入力は、タッチスクリーンを介して受信されたフリースタイル注釈、アイコンの選択又は予め定義された形状、及び/又は英数字入力からなることがある。 In some systems, the processor may be configured to receive electromagnetic data from an electromagnetic imaging tool and acoustic data from an acoustic sensor array. The processor may also generate acoustic image data for the scene based on the received acoustic data, generate a display image consisting of the combined acoustic image data and electromagnetic image data, and provide the display image to the display. In certain embodiments, the processor may receive annotation input from the user interface and update the display image on the display based on the received annotation input. Annotation input may consist of freestyle annotations received via the touch screen, icon selection or predefined shapes, and / or alphanumerical input.

あるシステムにおいては、プロセッサは、受信した音響信号に関連した一又はそれ以上の音響パラメータを決定し、例えば、一又はそれ以上の音響パラメータと一又はそれ以上の所定の閾値の比較に基づいて音響信号に関連した臨界を決定するように構成されている。ある実施の形態においては、プロセッサは、決定された臨界に基づいてディスプレイを更新することができる。ユーザは、決定された臨界情報により画像に注釈付けを行うことができる。ユーザは、同様に、ターゲットへの距離値のような決められた情報により画像に注釈付けを行うことができる。 In some systems, the processor determines one or more acoustic parameters associated with the received acoustic signal, eg, acoustically based on a comparison of one or more acoustic parameters with one or more predetermined thresholds. It is configured to determine the criticality associated with the signal. In certain embodiments, the processor can update the display based on the determined criticality. The user can annotate the image with the determined critical information. The user can also annotate the image with predetermined information such as the distance value to the target.

一又はそれ以上の例の詳細が添付の図面と以下の明細書記述により明らかにされている。他の特徴や目的や効果は、明細書や図面や請求の範囲から明らかとなる。 Details of one or more examples are provided in the accompanying drawings and the description below. Other features, purposes and effects will be apparent from the description, drawings and claims.

図1Aは、例示的な音響撮像装置の正面図および背面図を示す。FIG. 1A shows a front view and a rear view of an exemplary acoustic image pickup device. 図1Bは、例示的な音響撮像装置の正面図および背面図を示す。FIG. 1B shows a front view and a rear view of an exemplary acoustic image pickup device.

図2は、音響分析システムの一例の構成要素を示す機能ブロック図である。FIG. 2 is a functional block diagram showing components of an example of an acoustic analysis system.

図3Aは、音響分析システム内の例示的な音響センサアレイ構成の概略図を示す。FIG. 3A shows a schematic diagram of an exemplary acoustic sensor array configuration within an acoustic analysis system. 図3Bは、音響分析システム内の例示的な音響センサアレイ構成の概略図を示す。FIG. 3B shows a schematic diagram of an exemplary acoustic sensor array configuration within an acoustic analysis system. 図3Cは、音響分析システム内の例示的な音響センサアレイ構成の概略図を示す。FIG. 3C shows a schematic diagram of an exemplary acoustic sensor array configuration within an acoustic analysis system.

図4Aは、可視光画像データ及び音響画像データのフレームの生成における視差エラーの概略図を示す。FIG. 4A shows a schematic diagram of a parallax error in the generation of frames for visible light image data and acoustic image data. 図4Bは、可視光画像データ及び音響画像データのフレームの生成における視差エラーの概略図を示す。FIG. 4B shows a schematic diagram of a parallax error in the generation of frames for visible light image data and acoustic image data.

図5Aは、可視光画像と音響画像との間の視差補正を示す。FIG. 5A shows the parallax correction between the visible light image and the acoustic image. 図5Bは、可視光画像と音響画像との間の視差補正を示す。FIG. 5B shows the parallax correction between the visible light image and the acoustic image.

図5Cは、図5A及び図5Bの着色されたバージョンである。5C is a colored version of FIGS. 5A and 5B. 図5Dは、図5A及び図5Bの着色されたバージョンである。FIG. 5D is a colored version of FIGS. 5A and 5B.

図6は、音響画像データと電磁画像データを組み合わせた最終画像を生成するための例示的な方法を示すプロセスフロー図である。FIG. 6 is a process flow diagram showing an exemplary method for generating a final image by combining acoustic image data and electromagnetic image data.

図7は、受信した音響信号から音響画像データを生成するための例示的なプロセスを示すプロセスフロー図である。FIG. 7 is a process flow diagram showing an exemplary process for generating acoustic image data from a received acoustic signal.

図8は、音響撮像プロセス中に使用するための適切なアルゴリズム及びセンサアレイを決定するための例示的なルックアップテーブルを示す。FIG. 8 shows an exemplary look-up table for determining the appropriate algorithm and sensor array for use during the acoustic imaging process.

図9Aは、音響シーンにおける経時的な受信した画像データの周波数コンテンツの例示的なプロットである。FIG. 9A is an exemplary plot of frequency content of received image data over time in an acoustic scene.

図9Bは、音響信号を放出する複数の位置を含む例示的なシーンを示す。FIG. 9B shows an exemplary scene that includes multiple positions that emit acoustic signals.

図9Cは、複数の前待って定義された周波数範囲での複数の組み合わされた音響及び可視光画像データを示す。FIG. 9C shows a plurality of combined acoustic and visible light image data in a plurality of pre-waiting defined frequency ranges.

図10Aは、組み合わされた可視光画像データおよび音響画像データを含む例示的なディスプレイ画像である。FIG. 10A is an exemplary display image containing combined visible light image data and acoustic image data. 図10Bは、組み合わされた可視光画像データおよび音響画像データを含む例示的なディスプレイ画像である。FIG. 10B is an exemplary display image containing the combined visible light image data and acoustic image data.

図11Aは、音響シーンにおける音響データの周波数対時間の例示的なプロットを示す。FIG. 11A shows an exemplary plot of frequency vs. time of acoustic data in an acoustic scene. 図11Bは、音響シーンにおける音響データの周波数対時間の例示的なプロットを示す。FIG. 11B shows an exemplary plot of frequency vs. time of acoustic data in an acoustic scene.

図12Aは、音響画像データをデータベースに記憶された過去の音響画像データと比較するための複数の例示的な方法を示す。FIG. 12A shows a plurality of exemplary methods for comparing acoustic image data with past acoustic image data stored in a database. 図12Bは、音響画像データをデータベースに記憶された過去の音響画像データと比較するための複数の例示的な方法を示す。FIG. 12B shows a plurality of exemplary methods for comparing acoustic image data with past acoustic image data stored in a database. 図12Cは、音響画像データをデータベースに記憶された過去の音響画像データと比較するための複数の例示的な方法を示す。FIG. 12C shows a plurality of exemplary methods for comparing acoustic image data with past acoustic image data stored in a database.

図13は、受信した音響画像データを物体診断のためのデータベースと比較する例示的な動作を示すプロセスフロー図である。FIG. 13 is a process flow diagram showing an exemplary operation of comparing received acoustic image data with a database for object diagnosis.

図14は、グラデーション調色技術(palettization scheme)を使用した音響データの視覚化を示す。FIG. 14 shows the visualization of acoustic data using a gradation toning technique.

図15は、複数の陰影付き同心円を使用した音響データの視覚化を示す。FIG. 15 shows a visualization of acoustic data using a plurality of shaded concentric circles.

図16は、非数値情報と英数字情報の両方を含む視覚化例を示す。FIG. 16 shows an example of visualization including both non-numeric information and alphanumerical information.

図17は、非数値情報と英数字情報の両方を含む別の視覚化例を示す。FIG. 17 shows another visualization example that includes both non-numeric information and alphanumerical information.

図18は、非数値情報と英数字情報の両方を含む別の視覚化例を示す。FIG. 18 shows another visualization example that includes both non-numeric information and alphanumerical information.

図19は、異なる音響パラメータ値を表す異なるサイズと色のインジケータを示す例示的な視覚化を示す。FIG. 19 shows an exemplary visualization showing different size and color indicators representing different acoustic parameter values.

図20は、対応する位置からの音響信号によって示される重大度を示す異なる色を有する複数のインジケータを示す例示的な視覚化を示す。FIG. 20 shows an exemplary visualization showing a plurality of indicators with different colors indicating the severity indicated by the acoustic signal from the corresponding position.

図21は、所定の条件を満たす音響信号を区別して示す、シーン内の複数の位置におけるインジケータを含むシーンを示す。FIG. 21 shows a scene including indicators at a plurality of positions in the scene, which distinguish and show acoustic signals satisfying a predetermined condition.

図22は、シーン内で認識された音プロファイルを示す、ディスプレイ画像内に配置された複数のアイコンを含むディスプレイ画像を示す。FIG. 22 shows a display image including a plurality of icons arranged in the display image, showing the sound profile recognized in the scene.

図23は、各音響信号に関連して音響強度を表す、同心円と英数字情報を使用する複数のインジケータを介して音響データを示す別の例示的なディスプレイ画像を示す。FIG. 23 shows another exemplary display image showing acoustic data via a plurality of indicators using concentric circles and alphanumerical information that represent the acoustic intensity in relation to each acoustic signal.

図24は、表示された音響信号に関連するインジケータ及び追加の英数字情報を有する例示的なディスプレイ画像を示す。FIG. 24 shows an exemplary display image with indicators and additional alphanumerical information associated with the displayed acoustic signal.

図25Aは、ディスプレイ画像内のインジケータが選択されるディスプレイと、シーンに向かってレーザを放出するレーザポインタとを含むシステムを示す。FIG. 25A shows a system comprising a display from which an indicator in a display image is selected and a laser pointer that emits a laser towards the scene.

図25Bは、図25のシステムビューに示されるディスプレイを示す。25B shows the display shown in the system view of FIG.

図26は、音響画像データを表すグラデーション調色技術(palettization scheme)を有し、音響画像ブレンド制御を含むインジケータを含むディスプレイ画像を示す。FIG. 26 shows a display image including an indicator that has a gradation toning technique (palettization scene) that represents acoustic image data and includes acoustic image blending control.

図27は、音響画像データを表す同心円調色技術(palettization scheme)を有し、音響画像ブレンド制御を含むインジケータを含むディスプレイ画像を示す。FIG. 27 shows a display image having an acoustic image blending technique, including a palettigation technique for representing acoustic image data, including an indicator that includes acoustic image blending control.

図28は、一又はそれ以上のフィルタ条件を満たすシーン内の位置を示すグラデーション調色を有するインジケータを含むディスプレイ画像を示す。FIG. 28 shows a display image including an indicator with a gradation toning indicating a position in the scene that satisfies one or more filter conditions.

図29は、一又はそれ以上のフィルタ条件を満たすシーン内の位置を示す同心円調色を有するインジケータを含むディスプレイ画像を示す。FIG. 29 shows a display image including an indicator with concentric toning indicating a position in the scene that satisfies one or more filter conditions.

図30は、2つのインジケータを含むディスプレイ画像であって、それぞれのインジケータが異なるフィルタ条件を満たすシーン内の位置を示すグラデーション調色を有するディスプレイ画像を示す。FIG. 30 shows a display image comprising two indicators, each indicator having a gradation toning indicating a position in the scene that satisfies different filter conditions.

図31は、ディスプレイ画像及び仮想キーボードを含むディスプレイインタフェースを示す。FIG. 31 shows a display interface including a display image and a virtual keyboard.

図32は、ユーザが着用してディスプレイ画像を表示することができるアイウェアに組み込まれたディスプレイを示す。FIG. 32 shows a display built into eyewear that can be worn by a user to display a display image.

図33Aは、音響センサアレイのポインティングに基づく動的強度を有するインジケータを含む動的ディスプレイ画像を示す。FIG. 33A shows a dynamic display image including an indicator with dynamic intensity based on the pointing of the acoustic sensor array. 図33Bは、音響センサアレイのポインティングに基づく動的強度を有するインジケータを含む動的ディスプレイ画像を示す。FIG. 33B shows a dynamic display image including an indicator with dynamic intensity based on the pointing of the acoustic sensor array.

図34は、シーン内で特定された空気漏れの潜在的な臨界及び空気漏れに起因する潜在的な損出コストに関係する表示をユーザ又は技術者に提供をする例示的なディスプレイ画像を示す。FIG. 34 shows an exemplary display image that provides a user or technician with a display related to the potential criticality of an air leak identified in the scene and the potential cost of loss due to the air leak.

図35は、ディスプレイ上のフリーフォーム注釈によりディスプレイ画像に注釈を付すユーザの一例を示す。FIG. 35 shows an example of a user annotating a display image with freeform annotations on the display.

図36は、命令と関連する位置情報を含む注釈付きのディスプレイ画像の一例を示す。FIG. 36 shows an example of an annotated display image that includes location information associated with the instruction.

図37は、ディスプレイ上のアイコン注釈によりディスプレイ画像に注釈を付すユーザの一例を示す。FIG. 37 shows an example of a user annotating a display image with icon annotations on the display.

図38は、ディスプレイ上の形状注釈によりディスプレイ画像に注釈を付すユーザの一例を示す。FIG. 38 shows an example of a user annotating a display image with shape annotations on the display.

図39は、ディスプレイ上の形状とアイコンの注釈を含む注釈付きディスプレイ画像の一例を示す。FIG. 39 shows an example of an annotated display image including annotations of shapes and icons on the display.

図40は、ディスプレイ画像と、該ディスプレイ画像の右手側の複数の周波数範囲を含むマルチパラメータデータ視覚化を含むインタフェースを示す。FIG. 40 shows a display image and an interface that includes a multi-parameter data visualization that includes a plurality of frequency ranges on the right hand side of the display image.

図41は、ディスプレイ画像と、該ディスプレイ画像の下縁に沿って配置された複数の周波数範囲を含む、周波数情報のマルチパラメータ表示を含むインタフェースを示す。FIG. 41 shows an interface that includes a display image and a multi-parameter display of frequency information, including a plurality of frequency ranges arranged along the lower edge of the display image.

図42は、複数の周波数帯域の周波数情報と、複数の周波数帯域のピーク値を含むディスプレイ画像を示す。FIG. 42 shows a display image including frequency information of a plurality of frequency bands and peak values of the plurality of frequency bands.

図43は、複数の周波数の強度情報を示すマルチパラメータ表示を含むディスプレイ画像を示す。FIG. 43 shows a display image including a multi-parameter display showing intensity information for a plurality of frequencies.

図44は、調色を施された組の周波数範囲を含むマルチパラメータ表示であって、各周波数範囲が分類分けされているデシベル範囲を調色が表している表示を示す。FIG. 44 shows a multi-parameter display including a toned set of frequency ranges, in which the toning represents the decibel range in which each frequency range is classified.

図45は、異なる周波数範囲を示すマルチパラメータ表示と、重大度に従って調色されたインジケータを含む例示のディスプレイ画像を示す。FIG. 45 shows an exemplary display image including a multi-parameter display showing different frequency ranges and an indicator toned according to severity.

図46は、ディスプレイ画像のマルチパラメータ表示内の複数の周波数範囲のそれぞれにおける強度(dB表示)対時間の傾向を示す。FIG. 46 shows the trend of intensity (dB display) vs. time in each of the plurality of frequency ranges in the multi-parameter display of the display image.

図1A及び図1Bは、例示的な音響撮像装置の正面図及び背面図を示す。図1Aは、音響センサアレイ104及び電磁撮像ツール106を支持する筐体102を有する音響撮像装置100の前面を示す。ある実施形態では、音響センサアレイ104は、複数の音響センサ要素を含み、複数の音響センサ要素のそれぞれは、音響シーンから音響信号を受信し、受信した音響信号に基づいて音響データを出力するように構成されている。電磁撮像ツール106は、ターゲットシーンから電磁放射を受信し、受信した電磁放射を表す電磁画像データを出力するように構成され得る。電磁撮像ツール106は、可視光、赤外線、紫外線などの複数の範囲の波長のうちの一又はそれ以上の電磁放射を検出するように構成され得る。 1A and 1B show a front view and a rear view of an exemplary acoustic imaging device. FIG. 1A shows the front surface of an acoustic imaging device 100 having a housing 102 that supports an acoustic sensor array 104 and an electromagnetic imaging tool 106. In one embodiment, the acoustic sensor array 104 comprises a plurality of acoustic sensor elements, each of which receives an acoustic signal from an acoustic scene and outputs acoustic data based on the received acoustic signal. It is configured in. The electromagnetic imaging tool 106 may be configured to receive electromagnetic radiation from the target scene and output electromagnetic image data representing the received electromagnetic radiation. The electromagnetic imaging tool 106 may be configured to detect electromagnetic radiation in one or more of a range of wavelengths such as visible light, infrared light, ultraviolet light and the like.

図示の例では、音響撮像装置100は、周囲光センサ108と、GPSなどの位置センサ116とを含む。装置100はレーザポインタ110を含み、これは、ある実施形態では、レーザ距離計を含む。装置100は、シーンに向けて可視光放射を放出するように構成され得るトーチ112と、シーンに向けて赤外線放射を放出するように構成され得る赤外線照射器118とを含む。ある例では、装置100は、任意の範囲の波長にわたってシーンを照射するための照射器を含むことがある。装置100は、生成された画像を着色画像などのシーンに投影するように構成できる画像リプロジェクタなどのプロジェクタ114、及び/又は、例えば、シーンの深度プロファイルを判定するために、一連のドットをシーンに投影するように構成されたドットプロジェクタをさらに含む。 In the illustrated example, the acoustic image pickup device 100 includes an ambient light sensor 108 and a position sensor 116 such as GPS. The device 100 includes a laser pointer 110, which, in certain embodiments, includes a laser rangefinder. The device 100 includes a torch 112 that may be configured to emit visible light radiation towards the scene and an infrared irradiator 118 that may be configured to emit infrared radiation towards the scene. In one example, the device 100 may include an irradiator for illuminating the scene over any range of wavelengths. The apparatus 100 scenes a series of dots to determine a projector 114, such as an image reprojector, which can be configured to project the generated image onto a scene, such as a colored image, and / or, for example, the depth profile of the scene. Further includes a dot projector configured to project on.

図1Bは、音響撮像装置100の裏側を示す。図示されたように、装置は、画像又は他のデータを表示することができるディスプレイ120を含む。ある例では、ディスプレイ120は、タッチスクリーンディスプレイを含む。音響撮像装置100は、音声フィードバック信号をユーザに提供することができるスピーカと、音響撮像装置100と外部装置との間の無線通信を可能にすることができる無線インタフェース124とを含む。装置は、ユーザが音響撮像装置100と接続することを可能にするために、一又はそれ以上のボタン、ノブ、ダイヤル、スイッチ、又は他のインタフェース構成要素を含むことができる制御126をさらに含む。ある例では、制御126とタッチスクリーンディスプレイが組み合わさって、音響撮像装置100のユーザインタフェースを提供する。 FIG. 1B shows the back side of the acoustic imaging device 100. As illustrated, the device includes a display 120 capable of displaying images or other data. In one example, the display 120 includes a touch screen display. The acoustic image pickup device 100 includes a speaker capable of providing a voice feedback signal to the user, and a wireless interface 124 capable of enabling wireless communication between the acoustic image pickup device 100 and an external device. The device further includes a control 126 that may include one or more buttons, knobs, dials, switches, or other interface components to allow the user to connect to the acoustic imaging device 100. In one example, the control 126 and the touch screen display combine to provide a user interface for the acoustic imaging device 100.

様々な実施形態では、音響撮像装置は、図1A及び図1Bの実施形態に示されるすべての要素を含む必要はない。図示された一又はそれ以上の構成要素は、音響撮像装置から除外することができる。ある例では、図1A及び図1Bの実施形態に示された一又はそれ以上の構成要素は、音響撮像システムの一部として含まれ得るが、筐体102とは別個に含まれ得る。そのような構成要素は、例えば、無線インタフェース124を使用して、有線又は無線通信技術を介して音響撮像システムの他の構成要素と通信することができる。 In various embodiments, the acoustic imaging device need not include all the elements shown in the embodiments of FIGS. 1A and 1B. One or more of the illustrated components can be excluded from the acoustic imaging device. In one example, one or more of the components shown in the embodiments of FIGS. 1A and 1B may be included as part of the acoustic imaging system, but separately from the housing 102. Such components can be communicated with other components of the acoustic imaging system, for example, using the wireless interface 124, via wired or wireless communication technology.

図2は、音響分析システム200の一例の構成要素を示す機能ブロック図である。図2の例示的な音響分析システム200は、音響センサアレイ202内に配置されたマイクロフォン、MEMS、トランスデューサなどの複数の音響センサを含むことができる。このようなアレイは、1次元、2次元、又は3次元であり得る。様々な例において、音響センサアレイは、任意の適切なサイズ及び形状を定義することができる。ある例では、音響センサアレイ202は、例えば、垂直列及び水平行に配置されたセンサ要素のアレイなどのグリッドパターンに配置された複数の音響センサを含む。様々な例において、音響センサアレイ202は、例えば、8×8、16×16、32×32、64×64、128×128、256×256などの水平行×垂直列のアレイを含むことができる。他の例も可能であり、様々なセンサアレイに列と同じ数の行を含める必要はない。ある実施形態では、そのようなセンサは、例えば、プリント回路基板(PCB)基板などの基板上に配置することがある。 FIG. 2 is a functional block diagram showing components of an example of the acoustic analysis system 200. The exemplary acoustic analysis system 200 of FIG. 2 can include a plurality of acoustic sensors such as microphones, MEMS, transducers, etc. arranged within the acoustic sensor array 202. Such an array can be one-dimensional, two-dimensional, or three-dimensional. In various examples, the acoustic sensor array can define any suitable size and shape. In one example, the acoustic sensor array 202 includes a plurality of acoustic sensors arranged in a grid pattern, such as, for example, an array of sensor elements arranged in vertical rows and horizontally parallel. In various examples, the acoustic sensor array 202 can include, for example, an array of horizontal x vertical columns such as 8x8, 16x16, 32x32, 64x64, 128x128, 256x256. .. Other examples are possible and the various sensor arrays do not need to contain the same number of rows as the columns. In certain embodiments, such sensors may be placed on a substrate, such as a printed circuit board (PCB) substrate, for example.

図2に示される構成では、音響センサアレイ202と通信するプロセッサ212は、複数の音響センサのそれぞれから音響データを受信することができる。音響分析システム200の例示的な動作中に、プロセッサ212は、音響センサアレイ202と通信して、音響画像データを生成することができる。例えば、プロセッサ212は、音響センサアレイに配置された複数の音響センサのそれぞれから受信したデータを分析し、音響信号を音響発生源に「バックプロパゲーション」することによって音響シーンを決定するように構成され得る。ある実施形態では、プロセッサ212は、2次元シーン全体にわたる音響信号の様々な発生源位置及び強度を特定することによって、音響画像データのデジタル「フレーム」を生成することができる。音響画像データのフレームを生成することによって、プロセッサ212は、実質的に所与の時点でのターゲットシーンの音響画像を取り込む。ある例では、フレームは、音響画像を構成する複数のピクセルを含み、各ピクセルは、音響信号がバックプロパゲーションされた発生源シーンの一部を表す。 In the configuration shown in FIG. 2, the processor 212 communicating with the acoustic sensor array 202 can receive acoustic data from each of the plurality of acoustic sensors. During the exemplary operation of the acoustic analysis system 200, the processor 212 can communicate with the acoustic sensor array 202 to generate acoustic image data. For example, the processor 212 is configured to analyze data received from each of a plurality of acoustic sensors arranged in an acoustic sensor array and "backpropagate" the acoustic signal to an acoustic source to determine the acoustic scene. Can be done. In certain embodiments, processor 212 can generate digital "frames" of acoustic image data by identifying various source locations and intensities of acoustic signals throughout a two-dimensional scene. By generating a frame of acoustic image data, the processor 212 captures an acoustic image of the target scene at a substantially given point in time. In one example, a frame contains multiple pixels that make up an acoustic image, where each pixel represents part of the source scene in which the acoustic signal is backpropagated.

プロセッサ212を含む音響分析システム200内でプロセッサとして説明される構成要素は、一又はそれ以上のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジック回路等の、単独若しくは任意に適切に組み合わされた、一又はそれ以上のプロセッサとして実装され得る。プロセッサ212は、また、プロセッサ212によって実行されると、音響分析システム200及びプロセッサ212をして本開示においてそれらに起因する機能を実行させるプログラム命令及び関連データを記憶するメモリを含むこともある。メモリは、RAM、ROM、CD−ROM、ハードディスク又はフロッピー磁気ディスク、EEPROMなどの固定又は取り外し可能な磁気、光学、又は電気媒体を含み得る。メモリは、また、メモリの更新又はメモリ容量の増加を提供するために使用され得る取り外し可能なメモリ部分を含み得る。リムーバブルメモリは、また、音響画像データを別のコンピューティング装置に容易に転送し得ること、若しくは、音響分析システム200が別の用途で使用される前に音響画像データを除去し得ることを可能にする。プロセッサ212は、また、コンピュータ又は他の電子システムの一部又はすべての構成要素を単一のチップに統合するシステムオンチップとして実装されることもある。プロセッサ212(処理回路)は、処理されたデータをディスプレイ214又は他の出力/制御装置218に通信するように構成され得る。 The components described as a processor in the acoustic analysis system 200 including the processor 212 are one or more microprocessors, digital signal processors (DSPs), application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs). , Programmable logic circuits, etc., may be implemented as one or more processors, alone or optionally in combination. Processor 212 may also include memory when executed by processor 212 to store program instructions and related data that causes the acoustic analysis system 200 and processor 212 to perform functions resulting from them in the present disclosure. The memory may include fixed or removable magnetic, optical, or electrical media such as RAM, ROM, CD-ROM, hard disk or floppy magnetic disk, EEPROM, etc. The memory may also include a removable portion of memory that may be used to provide memory updates or memory capacity increases. Removable memory also allows the acoustic image data to be easily transferred to another computing device, or the acoustic image data to be removed before the acoustic analysis system 200 is used for another application. do. Processor 212 may also be implemented as a system-on-chip that integrates some or all components of a computer or other electronic system into a single chip. The processor 212 (processing circuit) may be configured to communicate the processed data to the display 214 or other output / control device 218.

ある実施形態では、音響センサアレイ202内の音響センサは、各音響センサによって受信された音響信号に対応する一連の信号を生成して、音響画像を表す。音響画像データの「フレーム」は、音響センサアレイ202を構成するすべての行をスキャンすることによって各音響センサからの信号が取得されるときに生成される。ある例では、プロセッサ212は、音響画像データのビデオ表現(例えば、30Hz、又は60Hz)を生成するのに十分な速度で音響画像フレームを取得することができる。特定の回路とは独立して、音響分析システム200は、ターゲットシーンの音プロファイルを表す音響データを操作して、ユーザによって表示、保存、送信、又は他の方法で利用できる出力を提供するように構成され得る。 In one embodiment, the acoustic sensors in the acoustic sensor array 202 generate a series of signals corresponding to the acoustic signals received by each acoustic sensor to represent an acoustic image. A "frame" of acoustic image data is generated when a signal from each acoustic sensor is acquired by scanning all the rows that make up the acoustic sensor array 202. In one example, the processor 212 may acquire an acoustic image frame at a speed sufficient to generate a video representation of the acoustic image data (eg, 30 Hz, or 60 Hz). Independent of the particular circuit, the acoustic analysis system 200 manipulates acoustic data representing the sound profile of the target scene to provide output that can be viewed, stored, transmitted, or otherwise used by the user. Can be configured.

ある実施形態では、音響画像データを生成するための受信音響信号の「バックプロパゲーション」は、例えばプロセッサを介して、音響センサアレイ202内の複数の音響センサで受信信号を分析することを含む。様々な例において、バックプロパゲーションの実行は、ターゲットまでの距離、周波数、音の強度(例えば、dBレベル)例えば、一又はそれ以上のアレイ内の個々のセンサの間隔及び配置を含むセンサアレイの寸法/構成を含む、一又はそれ以上のパラメータの関数である。ある実施形態では、そのようなパラメータは、システムに、例えば、メモリ内に事前にプログラムされることがある。例えば、音響センサアレイ202の特性は、内部メモリ又は特に音響センサアレイ202に関連するメモリなどのメモリに記憶することができる。ターゲットまでの距離などの他のパラメータは、様々な方法で受信することができる。例えば、ある例では、音響分析システム200は、プロセッサ212と通信する距離測定ツール204を含む。距離測定ツールは、距離測定ツール204からターゲットシーン内の特定の位置までの距離を表す距離情報を提供するように構成され得る。様々な距離測定ツールは、レーザ距離計又は他の光学的又は音声的距離測定装置などの他の既知の距離測定装置を含むことがある。追加的又は代替的に、距離測定ツールは、ターゲットシーンの各部分が関連するターゲットまでの距離値を有するような3次元深度データを生成するように構成され得る。したがって、ある例では、本明細書で使用されるターゲットまでの距離測定は、ターゲットシーン内の各位置までの距離に対応することができる。そのような3次元深度データは、例えば、ターゲットシーンの異なるビューを有する複数の撮像ツールを介して、又は、他の既知の距離走査ツールを介して生成することができる。一般に、様々な実施形態では、距離測定ツールが使用され、レーザ距離測定、アクティブ音波距離測定、パッシブ超音波距離測定、LIDAR距離測定、RADAR距離測定、ミリ波距離測定などを含むがこれらに限定されない一又はそれ以上の距離測定機能を実行することができる。 In one embodiment, "backpropagation" of a received acoustic signal to generate acoustic image data comprises analyzing the received signal with a plurality of acoustic sensors in the acoustic sensor array 202, eg, via a processor. In various examples, the execution of backpropagation involves the distance to the target, frequency, sound intensity (eg, dB level), eg, the spacing and placement of individual sensors within one or more arrays of the sensor array. A function of one or more parameters, including dimensions / configurations. In certain embodiments, such parameters may be pre-programmed into the system, eg, in memory. For example, the characteristics of the acoustic sensor array 202 can be stored in a memory such as an internal memory or, in particular, a memory associated with the acoustic sensor array 202. Other parameters, such as the distance to the target, can be received in various ways. For example, in one example, the acoustic analysis system 200 includes a distance measuring tool 204 that communicates with the processor 212. The distance measuring tool may be configured to provide distance information representing the distance from the distance measuring tool 204 to a particular position in the target scene. Various distance measuring tools may include other known distance measuring devices such as laser rangefinders or other optical or audio distance measuring devices. Additional or alternative, the distance measurement tool may be configured to generate 3D depth data such that each part of the target scene has a distance value to the associated target. Thus, in one example, the distance measurement to the target as used herein can correspond to the distance to each position in the target scene. Such 3D depth data can be generated, for example, through multiple imaging tools with different views of the target scene, or through other known distance scanning tools. In general, in various embodiments, distance measuring tools are used, including, but not limited to, laser distance measurement, active sound distance measurement, passive ultrasonic distance measurement, LIDAR distance measurement, RADAR distance measurement, millimeter wave distance measurement, and the like. One or more distance measurement functions can be performed.

距離測定ツール204からの距離情報は、バックプロパゲーション計算に使用することができる。その上若しくはそれとは別に、システム200は、ユーザがターゲットまでの距離パラメータを手動で入力することができるユーザインタフェース216を含むことがある。例えば、ユーザは、音響信号を生成することが疑われる構成要素までの距離が既知であるか、又は距離測定ツール204で測定することが困難である場合に、システム200にターゲットまでの距離値を入力し得る。 The distance information from the distance measuring tool 204 can be used for backpropagation calculation. On top of that, or separately, the system 200 may include a user interface 216 that allows the user to manually enter distance parameters to the target. For example, if the user knows the distance to a component suspected of producing an acoustic signal or is difficult to measure with the distance measuring tool 204, the user can give the system 200 a distance value to the target. You can enter it.

図示の実施形態では、音響分析システム200は、ターゲットシーンを表す画像データを生成するための電磁撮像ツール203を含む。例示的な電磁撮像ツールは、ターゲットシーンから電磁放射を受信し、受信した電磁放射を表す電磁画像データを生成するように構成され得る。ある例では、電磁撮像ツール203は、赤外線放射、可視光放射、及び紫外線放射など、電磁スペクトル内の特定の範囲の波長を表す電磁画像データを生成するように構成され得る。例えば、ある実施形態では、電磁タイミングツール203は、例えば、可視光カメラモジュール206などの、電磁スペクトル内の特定の範囲の波長を表す画像データを生成するように構成された一又はそれ以上のカメラモジュールを含むことができる。 In the illustrated embodiment, the acoustic analysis system 200 includes an electromagnetic imaging tool 203 for generating image data representing a target scene. An exemplary electromagnetic imaging tool may be configured to receive electromagnetic radiation from a target scene and generate electromagnetic image data representing the received electromagnetic radiation. In one example, the electromagnetic imaging tool 203 may be configured to generate electromagnetic image data representing a range of wavelengths within the electromagnetic spectrum, such as infrared radiation, visible light radiation, and ultraviolet radiation. For example, in one embodiment, the electromagnetic timing tool 203 is one or more cameras configured to generate image data representing a range of wavelengths within the electromagnetic spectrum, such as the visible light camera module 206. Can include modules.

可視光カメラモジュールは一般的によく知られている。例えば、スマートフォンやその他の多くの装置には、様々な可視光カメラモジュールが含まれている。ある実施形態では、可視光カメラモジュール206は、ターゲットシーンから可視光エネルギーを受け取り、例えば、ディスプレイ214上に可視光画像の形態で表示されるか、及び/又は、メモリに保存されうる可視光エネルギーデータを生成するために、可視光エネルギーを可視光センサに集中するように構成され得る。可視光カメラモジュール206は、ここでモジュールに起因する機能を実行するための任意の適切な構成要素を含むことができる。図2の例では、可視光カメラモジュール206は、可視光レンズアセンブリ208及び可視光センサ210を含むものとして示されている。あるそのような実施形態では、可視光レンズアセンブリ208は、ターゲットシーンによって放出された可視光エネルギーを受け取り、可視光エネルギーを可視光センサ210に集中させる少なくとも1つのレンズを含む。可視光センサ210は、例えば、CMOS検出器、CCD検出器、PINダイオード、アバランシェフォトダイオードなどの複数の可視光センサ要素を含むことができる。可視光センサ210は、変換され、ディスプレイ214上に可視光画像として表示され得る電気信号を生成することによって、集中されたエネルギーに応答する。ある例では、可視光モジュール206は、ユーザによって構成可能であり、例えば、様々なフォーマットでディスプレイ214に出力を提供することができる。可視光カメラモジュール206は、照射若しくは他の動作条件の変更又はユーザの好みに対する補償機能を含み得る。可視光カメラモジュールは、画像データを含むデジタル出力を提供することができ、画像データは、様々なフォーマット(例えば、RGB、CYMK、YCbCrなど)のデータを含み得る。 Visible light camera modules are generally well known. For example, smartphones and many other devices include various visible light camera modules. In certain embodiments, the visible light camera module 206 receives visible light energy from a target scene and, for example, visible light energy that can be displayed in the form of a visible light image on display 214 and / or stored in memory. Visible light energy can be configured to be concentrated on the visible light sensor to generate data. The visible light camera module 206 can now include any suitable component for performing the functions resulting from the module. In the example of FIG. 2, the visible light camera module 206 is shown as including a visible light lens assembly 208 and a visible light sensor 210. In one such embodiment, the visible light lens assembly 208 comprises at least one lens that receives the visible light energy emitted by the target scene and concentrates the visible light energy on the visible light sensor 210. The visible light sensor 210 can include a plurality of visible light sensor elements such as CMOS detectors, CCD detectors, PIN diodes, avalanche photodiodes and the like. The visible light sensor 210 responds to the concentrated energy by generating an electrical signal that can be converted and displayed as a visible light image on the display 214. In one example, the visible light module 206 is user configurable and can provide output to the display 214 in various formats, for example. Visible light camera module 206 may include irradiation or other changes in operating conditions or compensation for user preference. The visible light camera module can provide a digital output containing image data, which may include data in various formats (eg RGB, CYMK, YCbCr, etc.).

ある例示的な可視光カメラモジュール206の動作において、ターゲットシーンから受け取られた光エネルギーは、可視光レンズアセンブリ208を通過し、可視光センサ210に収束され得る。光エネルギーが可視光センサ210の可視光センサ要素に衝突すると、光検出器内の光子が放出され、検出電流に変換され得る。プロセッサ212は、この検出電流を処理して、ターゲットシーンの可視光画像を形成することができる。 In the operation of an exemplary visible light camera module 206, the light energy received from the target scene may pass through the visible light lens assembly 208 and be converged on the visible light sensor 210. When light energy collides with a visible light sensor element of the visible light sensor 210, photons in the photodetector can be emitted and converted into a detection current. Processor 212 can process this detection current to form a visible light image of the target scene.

音響分析システム200の使用中、プロセッサ212は、可視光カメラモジュール206を制御して、可視光画像を作成するために、取り込まれたターゲットシーンから可視光データを生成することができる。可視光データは、取り込まれたターゲットシーンの異なる部分に関連する色(複数可)及び/又は取り込まれたターゲットシーンの異なる部分に関連する光の大きさを示す光度データを含み得る。プロセッサ212は、音響分析システム200の各可視光センサ要素の応答を一回測定することによって、可視光画像データの「フレーム」を生成することができる。可視光データのフレームを生成することによって、プロセッサ212は、所与の時点でのターゲットシーンの可視光画像を取り込む。プロセッサ212は、また、音響分析システム200の各可視光センサ要素の応答を繰り返し測定して、ターゲットシーンの動的可視光画像(例えば、動画表現)を生成し得る。ある例では、可視光カメラモジュール206は、可視光カメラモジュール206を動作させることができるそれ自体の専用プロセッサ又は他の回路(例えば、ASIC)を含み得る。あるそのような実施形態では、専用プロセッサは、可視光画像データ(例えば、RGB画像データ)をプロセッサ212に提供するためにプロセッサ212と通信する。擦れに代わる実施形態では、可視光カメラモジュール206用の専用プロセッサをプロセッサ212と統合されることがある。 During use of the acoustic analysis system 200, the processor 212 can control the visible light camera module 206 to generate visible light data from the captured target scene in order to create a visible light image. Visible light data may include luminosity data indicating the color (s) associated with different parts of the captured target scene and / or the magnitude of light associated with different parts of the captured target scene. The processor 212 can generate a "frame" of visible light image data by measuring the response of each visible light sensor element of the acoustic analysis system 200 once. By generating a frame of visible light data, the processor 212 captures a visible light image of the target scene at a given point in time. Processor 212 may also iteratively measure the response of each visible light sensor element of the acoustic analysis system 200 to generate a dynamic visible light image (eg, moving image representation) of the target scene. In one example, the visible light camera module 206 may include its own dedicated processor or other circuit (eg, an ASIC) capable of operating the visible light camera module 206. In one such embodiment, the dedicated processor communicates with the processor 212 to provide visible light image data (eg, RGB image data) to the processor 212. In an alternative to rubbing, a dedicated processor for the visible light camera module 206 may be integrated with the processor 212.

可視光カメラモジュール206の各センサ要素がセンサピクセルとして機能することにより、プロセッサ212は、各センサ要素の電気的応答を、例えば、ディスプレイ214での視覚化及び/又はメモリへの保存のために、処理され得る時間多重化電気信号に変換することによって、ターゲットシーンからの可視光の2次元画像又はピクチャ表現を生成することができる。 By allowing each sensor element of the visible light camera module 206 to act as a sensor pixel, the processor 212 receives the electrical response of each sensor element, for example for visualization on display 214 and / or storage in memory. By converting to a time-multiplexed electrical signal that can be processed, a two-dimensional image or picture representation of visible light from the target scene can be generated.

プロセッサ212は、ディスプレイ214を制御して、取り込まれたターゲットシーンの可視光画像の少なくとも一部を表示するようにすることができる。ある例では、プロセッサ212はディスプレイ214を制御して、可視光カメラモジュール206の各センサ要素の電気的応答がディスプレイ214上の単一のピクセルに関連付けられる。他の例では、プロセッサ212は、可視光画像の解像度を増加又は減少させて、可視光カメラモジュール206内のセンサ要素よりも多く又は少ないピクセルがディスプレイ214に表示されるようにし得る。プロセッサ212は、ディスプレイ214を制御して、可視光画像全体(例えば、音響分析システム200によって取り込まれたターゲットシーンのすべての部分)又は可視光画像全体よりも少なく(例えば、音響分析システム200によって取り込まれたターゲットシーン全体より少ない部分)表示し得る。 The processor 212 can control the display 214 to display at least a portion of the captured visible light image of the target scene. In one example, the processor 212 controls the display 214 so that the electrical response of each sensor element of the visible light camera module 206 is associated with a single pixel on the display 214. In another example, the processor 212 may increase or decrease the resolution of the visible light image so that more or less pixels than the sensor elements in the visible light camera module 206 are displayed on the display 214. The processor 212 controls the display 214 to be less than the entire visible light image (eg, all parts of the target scene captured by the acoustic analysis system 200) or less than the entire visible light image (eg, captured by the acoustic analysis system 200). Can be displayed (less than the entire target scene).

ある実施形態では、プロセッサ212はディスプレイ214を制御して、音響分析システム200によって取り込まれた可視光画像の少なくとも一部と、音響センサアレイ202を介して生成された音響画像の少なくとも一部とを同時に表示させることができる。そのような同時表示は、オペレータが可視光画像に表示された特徴を参照して、音響画像に同時に表示された音響信号の発生源を見るのを助け得るという点で有用であり得る。様々な例において、プロセッサ212は、ディスプレイ214を制御して、可視光画像と音響画像を並べて、画像の一方が他方の画像を取り囲むピクチャ・イン・ピクチャ配置で、又は、可視光と音響画像が同時に表示されるその他の適切な配置で表示することがあり得る。 In one embodiment, the processor 212 controls the display 214 to capture at least a portion of the visible light image captured by the acoustic analysis system 200 and at least a portion of the acoustic image generated via the acoustic sensor array 202. It can be displayed at the same time. Such simultaneous display may be useful in that it may help the operator to see the source of the acoustic signal simultaneously displayed in the acoustic image with reference to the features displayed in the visible light image. In various examples, the processor 212 controls the display 214 to arrange the visible and acoustic images side by side in a picture-in-picture arrangement in which one of the images surrounds the other, or the visible and acoustic images. It may be displayed in other appropriate arrangements that are displayed at the same time.

例えば、プロセッサ212は、ディスプレイ214を制御して、可視光画像と音響画像を組み合わせた配置で表示することができる。そのような配置では、ターゲットシーンの一部を表す可視光画像内のピクセル又はピクセルのセットについて、ターゲットシーンの実質的に同じ部分を表す、音響画像内の対応するピクセル又はピクセルのセットが存在する。様々な実施形態において、音響画像及び可視光画像のサイズ及び/又は解像度は、同じである必要はない。したがって、音響画像又は可視光画像の一方の単一のピクセルに対応する音響画像又は可視光画像の他方のピクセルのセット、若しくは、異なるサイズのピクセルのセットが存在し得る。同様に、可視光画像又は音響画像の一方に、他方の画像のピクセルのセットに対応するピクセルが存在することがある。したがって、ここに使用されるように、対応関係は、1対1のピクセル関係であることを必要としないが、一致しないサイズのピクセル又はピクセルのグループを含み得る。画像の一方をアップサンプリング若しくはダウンサンプリングする、又は、ピクセルを対応するピクセルのセットの平均値と組み合わせるなど、画像の一致しないサイズの領域の様々な組み合わせ技術が行われ得る。他の例は既知であり、本開示の範囲内である。 For example, the processor 212 can control the display 214 to display a combination of a visible light image and an acoustic image. In such an arrangement, for a set of pixels or pixels in a visible light image that represents part of the target scene, there is a corresponding set of pixels or pixels in the acoustic image that represent substantially the same part of the target scene. .. In various embodiments, the size and / or resolution of the acoustic and visible light images need not be the same. Thus, there may be a set of the other pixel of the acoustic or visible light image, or a set of pixels of different sizes, corresponding to one single pixel of the acoustic or visible light image. Similarly, one of the visible or acoustic images may have pixels that correspond to a set of pixels in the other image. Thus, as used herein, the correspondence does not need to be a one-to-one pixel relationship, but may include pixels or groups of pixels of mismatched sizes. Various combinatorial techniques can be performed for areas of non-matching size of the image, such as upsampling or downsampling one of the images, or combining pixels with the average value of the corresponding set of pixels. Other examples are known and are within the scope of this disclosure.

したがって、対応するピクセルは直接1対1の関係を持つ必要はない。むしろ、ある実施形態では、単一の音響ピクセルが複数の対応する可視光ピクセルを有するか、又は、単一の可視光ピクセルが複数の対応する音響ピクセルを有する。その上又はそれとは別に、ある実施形態では、すべての可視光ピクセルが対応する音響ピクセルを有するわけではなく、又はその逆も成り立つ。そのような実施形態は、例えば、前述のようなピクチャ・イン・ピクチャタイプのディスプレイを示し得る。したがって、可視光ピクセルは、対応する音響ピクセルがそうであるように、可視光画像内で必ずしも同じピクセル座標を有するとは限らない。したがって、ここで使用される場合、対応するピクセルは、一般に、ターゲットシーンの実質的に同じ部分からの情報を含む任意の画像(例えば、可視光画像、音響画像、結合画像、ディスプレイ画像など)からのピクセルを指す。このようなピクセルは、画像間に1対1の関係を持つ必要はなく、それぞれの画像内で同様の座標位置を持つ必要もない。 Therefore, the corresponding pixels do not have to have a direct one-to-one relationship. Rather, in certain embodiments, a single acoustic pixel has a plurality of corresponding visible light pixels, or a single visible light pixel has a plurality of corresponding acoustic pixels. Moreover or separately, in certain embodiments, not all visible light pixels have corresponding acoustic pixels, and vice versa. Such embodiments may indicate, for example, a picture-in-picture type display as described above. Therefore, visible light pixels do not necessarily have the same pixel coordinates in a visible light image, as do the corresponding acoustic pixels. Therefore, as used herein, the corresponding pixels are generally from any image (eg, visible light image, acoustic image, combined image, display image, etc.) that contains information from substantially the same part of the target scene. Points to the pixel of. Such pixels do not have to have a one-to-one relationship between images and do not have to have similar coordinate positions within each image.

同様に、対応するピクセル(すなわち、ターゲットシーンの同じ部分を表すピクセル)を有する画像は、対応する画像と呼ばれ得る。したがって、あるそのような配置では、対応する可視光画像と音響画像は、対応するピクセルにおいて互いに重ね合わされ得る。オペレータは、ユーザインタフェース216と接して、ディスプレイ214に表示される画像の一方又は両方の透明性又は不透明性を制御し得る。例えば、オペレータは、ユーザインタフェース216と接して、音響画像を完全に透明と完全に不透明との間で調整し、また可視光画像を完全に透明と完全に不透明との間で調整し得る。アルファブレンド配置と呼ばれ得るそのような例示的な組み合わせ配置は、オペレータにディスプレイ214を調整して、音響画像のみと可視光画像のみの画像の両極端間の2つの画像の任意の重なり合う組み合わせの音響画像のみの画像、可視光画像のみの画像を表示させることを可能にし得る。プロセッサ212は、また、シーン情報を、警報データなどの他のデータと組み合わせることも可能である。一般に、可視光画像と音響画像のアルファブレンドされた組み合わせは、200%の音響と0%の可視光から0%の音響と200%の可視光までのどこでも含むことができる。ある実施形態では、ブレンドの量は、カメラのユーザによって調整することができる。したがって、ある実施形態では、ブレンドされた画像は、200%の可視光と200%の音響との間で調整することができる。 Similarly, an image with corresponding pixels (ie, pixels representing the same part of the target scene) may be referred to as the corresponding image. Thus, in some such arrangements, the corresponding visible light and acoustic images can be superimposed on each other at the corresponding pixels. The operator may contact the user interface 216 to control the transparency or opacity of one or both of the images displayed on the display 214. For example, the operator may contact the user interface 216 to adjust the acoustic image between fully transparent and completely opaque, and the visible light image between completely transparent and completely opaque. Such an exemplary combinational arrangement, which may be referred to as an alpha blend arrangement, adjusts the display 214 to the operator to make the acoustics of any overlapping combination of the two images between the extremes of the acoustic image only and the visible light image only images. It may be possible to display an image of only an image or an image of only a visible light image. Processor 212 can also combine scene information with other data, such as alarm data. In general, alpha-blended combinations of visible and acoustic images can be included anywhere from 200% acoustic and 0% visible light to 0% acoustic and 200% visible light. In certain embodiments, the amount of blend can be adjusted by the user of the camera. Thus, in certain embodiments, the blended image can be adjusted between 200% visible light and 200% acoustics.

さらに、ある実施形態では、プロセッサ212は、ユーザインタフェース216、及び/又は出力/制御装置218からのコマンドを解釈及び実行することができる。さらに、入力信号が用いられて、プロセッサ212で発生する可視光及び/又は音響画像データの処理を変更し得る。 Further, in certain embodiments, the processor 212 is capable of interpreting and executing commands from the user interface 216 and / or the output / control device 218. Further, the input signal can be used to modify the processing of visible light and / or acoustic image data generated by the processor 212.

オペレータは、ボタン、キー、又はユーザからの入力を受信するための別の機構を含み得るユーザインタフェース216を介して、音響分析システム200と対話し得る。オペレータは、ディスプレイ214を介して音響分析システム200からの出力を受信し得る。ディスプレイ214は、任意の許容可能な調色又は配色で音響画像及び/又は可視光画像を表示するように構成されることがあり、調色は、例えば、ユーザ制御に応答して変化し得る。ある実施形態では、音響画像データは、シーン内の異なる位置からの様々な大きさの音響データを表すために調色に提示され得る。例えば、ある例では、ディスプレイ214は、グレースケールなどの単独の調色で音響画像を表示するように構成される。他の例では、ディスプレイ214は、例えば、琥珀色、アイアンボー(ironbow)、青赤、又は他の高コントラストの配色などのカラーパレットで音響画像を表示するように構成される。グレースケール表示とカラーパレット表示の組み合わせも考えられる。ある例では、そのような情報を表示するように構成されているディスプレイは、そのような画像データを生成及び提示するための処理能力を含み得る。他の例では、そのような情報を表示するように構成されることは、プロセッサ212などの他の構成要素から画像データを受信する機能を含み得る。例えば、プロセッサ212は、表示される各ピクセルの値(例えば、RGB値、グレースケール値、又は他の表示オプション)を生成し得る。ディスプレイ214は、そのような情報を受信し、各ピクセルを視覚的表示にマッピングし得る。 The operator may interact with the acoustic analysis system 200 via a user interface 216, which may include buttons, keys, or another mechanism for receiving input from the user. The operator may receive the output from the acoustic analysis system 200 via the display 214. Display 214 may be configured to display acoustic and / or visible light images in any acceptable toning or color scheme, which may change, for example, in response to user control. In certain embodiments, the acoustic image data may be presented in toning to represent different sizes of acoustic data from different locations in the scene. For example, in one example, the display 214 is configured to display an acoustic image in a single toning such as grayscale. In another example, the display 214 is configured to display an acoustic image in a color palette such as, for example, amber, ironbow, blue-red, or other high contrast color scheme. A combination of grayscale display and color palette display is also conceivable. In one example, a display configured to display such information may include processing power to generate and present such image data. In another example, being configured to display such information may include the ability to receive image data from other components such as processor 212. For example, processor 212 may generate a value for each pixel displayed (eg, RGB values, grayscale values, or other display options). Display 214 may receive such information and map each pixel to a visual display.

プロセッサ212は、ディスプレイ214を制御して、音響画像の少なくとも一部と可視光画像の少なくとも一部を任意の適切な配置で同時に表示することができるが、ピクチャ・イン・ピクチャ配置は、同じシーンの対応する可視画像を隣接するアライメントで表示することにより、オペレータが容易に音響画像の焦点を合わせ、及び/又は解釈するのを助ける。 The processor 212 can control the display 214 to simultaneously display at least a portion of the acoustic image and at least a portion of the visible light image in any suitable arrangement, whereas the picture-in-picture arrangement is the same scene. Displaying the corresponding visible image of is in adjacent alignment helps the operator to easily focus and / or interpret the acoustic image.

電源(図示せず)は、音響分析システム200の様々な構成要素に動作電力を供給する。様々な例において、電源は、充電式又は非充電式電池及び発電回路、AC電源、誘導電力ピックアップ、光起電電源、又は任意の他の適切な電源構成を含み得る。充電式電池と、装置を動作させるため、及び/又は充電式電池を充電するための電力を提供するように構成された別の構成要素のような電力供給構成要素の組み合わせも可能である。 A power source (not shown) supplies operating power to various components of the acoustic analysis system 200. In various examples, the power source may include rechargeable or non-rechargeable batteries and power generation circuits, AC power sources, inductive power pickups, photovoltaic power sources, or any other suitable power source configuration. A combination of the rechargeable battery and a power supply component such as another component configured to provide power for operating the device and / or charging the rechargeable battery is also possible.

音響分析システム200の動作中、プロセッサ212は、メモリに記憶されているプログラム情報に関連する命令の助けを借りて、音響センサアレイ202及び可視光カメラモジュール206を制御して、ターゲットシーンの可視光画像及び音響画像を生成させる。プロセッサ212は、さらに、ディスプレイ214を制御して、音響分析システム200によって生成された可視光画像及び/又は音響画像を表示させる。 During operation of the acoustic analysis system 200, the processor 212 controls the acoustic sensor array 202 and the visible light camera module 206 with the help of instructions related to program information stored in memory to control the visible light of the target scene. Generate images and acoustic images. The processor 212 also controls the display 214 to display a visible light image and / or an acoustic image generated by the acoustic analysis system 200.

前述のように、状況によっては、音響画像内のターゲットシーンの実際の(目に見える)特徴を特定して区別することが難しいことがある。音響画像を可視光情報で補足することに加えて、ある実施形態では、ターゲットシーン内の可視輪郭を強調することが有用であり得る。ある実施形態では、既知の輪郭検出方法が、ターゲットシーンの可視光画像に対して実行することができる。音響画像と可視光画像との間の対応関係のために、ターゲットシーンの可視輪郭を表すと決定された可視光ピクセルは、音響画像の可視輪郭も表す音響ピクセルに対応する。ここで使用される「輪郭(edge)」は、物体の物理的境界を指す必要はないが、可視光画像の十分に鋭いグラデーションを指し得ることが理解されよう。例としては、物体の物理的な境界、物体内の色の変化、シーン全体の陰影などを含み得る。 As mentioned above, in some situations it can be difficult to identify and distinguish the actual (visible) features of the target scene in the acoustic image. In addition to supplementing the acoustic image with visible light information, in certain embodiments it may be useful to enhance the visible contours within the target scene. In certain embodiments, known contour detection methods can be performed on a visible light image of the target scene. Due to the correspondence between the acoustic image and the visible light image, the visible light pixels determined to represent the visible contour of the target scene correspond to the acoustic pixels that also represent the visible contour of the acoustic image. It will be appreciated that the "edge" used herein does not have to refer to the physical boundaries of the object, but can refer to a sufficiently sharp gradation of the visible light image. Examples may include physical boundaries of the object, color changes within the object, shading of the entire scene, and so on.

可視光カメラモジュール206を含むものとして図2に関して一般的に説明されているが、ある例では、音響分析システム200の電磁撮像ツール203は、様々なスペクトルを表す画像データを生成することができる撮像ツールをその上若しくはそれとは別に含むことができる。例えば、様々な例において、電磁撮像ツール203は、赤外線画像データ、可視光画像データ、紫外線画像データ、又は任意の他の有用な波長、若しくはそれらの組み合わせを生成することができる一又はそれ以上のツールを含むことができる。ある実施形態では、音響撮像システムは、赤外線レンズアセンブリと赤外線センサアレイを有する赤外線カメラモジュールを含むことができる。例えば、赤外線カメラモジュールとインタフェースするための追加の構成要素を含めることができ、例えば、2015年8月27日に出願され、「熱視覚化可能に結合された画像とカメラのための輪郭強調(EDGE ENHANCEMENT FOR THERMAL−VISIBLE COMBINED IMAGES AND CAMERAS)」と題された米国特許出願第14/837,757号に記載されているものなどであるが、これは本出願の譲受人に譲受され、参照によりその全体が組み込まれる。 Although generally described with respect to FIG. 2 as including the visible light camera module 206, in one example, the electromagnetic imaging tool 203 of the acoustic analysis system 200 can generate imaging data representing various spectra. Tools can be included on or separately from it. For example, in various examples, the electromagnetic imaging tool 203 can generate infrared image data, visible light image data, ultraviolet image data, or any other useful wavelength, or a combination thereof. Can include tools. In certain embodiments, the acoustic imaging system can include an infrared camera module having an infrared lens assembly and an infrared sensor array. For example, it can include additional components to interface with the infrared camera module, for example, filed August 27, 2015, "Thermal Visualizing Combined Image and Contour Enhancement for Cameras (" EDGE ENHANCEMENT FOR THERMAL-VISIBLE COMBINED IMAGES AND CAMERAS) ”, such as those described in US Patent Application No. 14 / 837,757, which are transferred to the transferee of this application and by reference. The whole is incorporated.

ある例では、2つ以上のデータストリームが、表示のためにブレンドされることがある。例えば、可視光カメラモジュール206、音響センサアレイ202、及び赤外線カメラモジュール(図2には示されていない)を含む例示的なシステムは、可視光(VL)画像データ、赤外線(IR)画像データ、及び音響(Acoustic)画像データのブレンドを含む出力画像を生成するように構成され得る。例示的なブレンド技術では、ディスプレイ画像は、α × IR + β × VL + γ×音響、ただしα+β+γ=1である式によって表すことができる。一般に、任意の数のデータストリームが、表示のために組み合わされる。様々な実施形態において、α、β、及びγなどのブレンド比は、ユーザによって設定することができる。その上若しくはそれとは別に、設定された表示プログラムは、例えば、「レーザポインタを有する可視光及び赤外光結合画像カメラ(VISIBLE LIGHT AND IR COMBINED IMAGE CAMERA WITH A LASER POINTER)」と題された米国特許第7,538,326号に記載された様な、警報条件(例えば、一又はそれ以上のデータストリーム内の一又はそれ以上の値が所定の閾値を満たす)又は他の条件に基づいて、異なる画像データストリームを含むように構成されることができ、このことは本出願の譲受人に譲受され、参照によりその全体が組み込まれる。 In one example, two or more data streams may be blended for display. For example, an exemplary system including a visible light camera module 206, an acoustic sensor array 202, and an infrared camera module (not shown in FIG. 2) may include visible light (VL) image data, infrared (IR) image data, and more. And can be configured to produce an output image containing a blend of acoustic image data. In an exemplary blending technique, a display image can be represented by the equation α × IR + β × VL + γ × acoustic, where α + β + γ = 1. Generally, any number of data streams are combined for display. In various embodiments, blend ratios such as α, β, and γ can be set by the user. In addition to or separately from it, the set display program is, for example, a US patent entitled "VISIBLE LIGHT AND IR COMBINED IMAGE CAMERA WITH A LASER POINT". Different based on alarm conditions (eg, one or more values in one or more data streams satisfy a predetermined threshold) or other conditions, as described in No. 7,538,326. It can be configured to include an image data stream, which is transferred to the transferee of this application, which is incorporated by reference in its entirety.

図2に関して説明された音響分析システム200の一又はそれ以上の構成要素は、携帯型(例えば、手持ち式)音響分析ツールに含めることができる。例えば、ある実施形態では、携帯型音響分析ツールは、音響分析ツール内に構成要素を収容するように構成された筐体230を含むことができる。ある例では、システム200の一又はそれ以上の構成要素は、音響分析ツールの筐体230の外部に配置することができる。例えば、ある実施形態では、プロセッサ212、ディスプレイ214、ユーザインタフェース216、及び/又は出力制御装置218は、音響分析ツールの筐体の外部に配置することができ、例えば無線通信(例えば、Bluetooth通信、Wi−Fiなど)を介して様々な他のシステム構成要素と通信することができる。音響分析ツールの外部にあるそのような構成要素は、例えば、コンピュータ、スマートフォン、タブレット、ウェアラブル装置などの外部装置を介して提供することができる。その上若しくはそれとは別に、音響分析ツールに関してマスター又はスレーブ装置として機能するように構成された他の試験及び測定又はデータ収集ツールは、音響分析ツールの外部の音響分析システムの様々な構成要素を同様に提供することができる。外部装置は、有線及び/又は無線接続を介して携帯型音響分析ツールと通信でき、様々な処理、表示、及び/又はインタフェースのステップを実行するために使用できる。 One or more components of the acoustic analysis system 200 described with respect to FIG. 2 can be included in a portable (eg, handheld) acoustic analysis tool. For example, in one embodiment, the portable acoustic analysis tool may include a housing 230 configured to house components within the acoustic analysis tool. In one example, one or more components of the system 200 may be located outside the housing 230 of the acoustic analysis tool. For example, in one embodiment, the processor 212, display 214, user interface 216, and / or output control device 218 may be located outside the housing of the acoustic analysis tool, eg, wireless communication (eg, Bluetooth communication, etc.). It can communicate with various other system components via Wi-Fi, etc.). Such components that are external to the acoustic analysis tool can be provided via an external device such as, for example, a computer, smartphone, tablet, wearable device. On top of that or separately, other test and measurement or data acquisition tools configured to act as master or slave devices with respect to the acoustic analysis tool as well as various components of the external acoustic analysis system of the acoustic analysis tool. Can be provided to. The external device can communicate with the portable acoustic analysis tool via a wired and / or wireless connection and can be used to perform various processing, display, and / or interface steps.

ある実施形態では、そのような外部装置は、携帯型音響分析ツールに収容された構成要素として冗長機能を提供することができる。例えば、ある実施形態では、音響分析ツールは、音響画像データを表示するためのディスプレイを含むことができ、さらに、記憶及び/又は表示のために画像データを外部装置に通信するように構成され得る。同様に、ある実施形態では、音響分析ツール自体で実行することもできる一又はそれ以上の機能を実行するために、ユーザは、スマートフォン、タブレット、コンピュータなどで実行されているアプリケーション(「アプリ」)を介して音響分析ツールとインタフェースし得る。 In certain embodiments, such an external device can provide redundancy as a component housed in a portable acoustic analysis tool. For example, in certain embodiments, the acoustic analysis tool may include a display for displaying acoustic image data and may be further configured to communicate the image data to an external device for storage and / or display. .. Similarly, in one embodiment, a user is running an application (“app”) on a smartphone, tablet, computer, etc. to perform one or more functions that can also be performed by the acoustic analysis tool itself. Can interface with acoustic analysis tools via.

図3Aは、音響分析システム内の音響センサアレイの例示的な構成の概略図である。図示の例では、音響センサアレイ302は、複数の第1の音響センサ(白で示されている)及び複数の第2の音響センサ(陰影付き)を含む。第1の音響センサは、第1のアレイ320に配置され、第2の音響センサは、第2のアレイ322に配置される。ある例では、第1のアレイ320及び第2のアレイ322は、選択的に使用されて、音響画像データを生成するための音響信号を受信することができる。例えば、ある構成では、特定の音響周波数に対する特定の音響センサアレイの感度は、音響センサ要素間の距離の関数である。 FIG. 3A is a schematic configuration of an exemplary configuration of an acoustic sensor array in an acoustic analysis system. In the illustrated example, the acoustic sensor array 302 includes a plurality of first acoustic sensors (shown in white) and a plurality of second acoustic sensors (shaded). The first acoustic sensor is arranged in the first array 320, and the second acoustic sensor is arranged in the second array 322. In one example, the first array 320 and the second array 322 can be selectively used to receive acoustic signals for producing acoustic image data. For example, in some configurations, the sensitivity of a particular acoustic sensor array to a particular acoustic frequency is a function of the distance between the acoustic sensor elements.

ある構成では、より近接して間隔を置いたセンサ要素(例えば、第2のアレイ322)は、さらに間隔を置いたセンサ要素(例えば、第1のアレイ320)よりも高周波音響信号(例えば、20kHz〜100kHzの超音波信号など、20kHzを超える周波数を有する音)をよりよく分解することができる。同様に、より間隔の広いセンサ要素(例えば、第1のアレイ320)は、より間隔の狭いセンサ要素(例えば、第2のアレイ322)よりも、より低い周波数の音響信号(例えば、20kHz未満)を検出するのにより適し得る。超低周波数(20Hz未満)、可聴周波数(約20Hz〜20kHz)、超音波周波数(20kHz〜100kHz)などの様々な周波数範囲の音響信号を検出するために、センサ要素を互いに離して配置した様々な音響センサアレイが提供され得る。ある実施形態では、特定の周波数帯域の検出を最適化するために、部分アレイ(例えば、アレイ320以外のすべての音響センサ要素)が使用され得る。 In some configurations, more closely spaced sensor elements (eg, second array 322) have higher frequency acoustic signals (eg, 20 kHz) than more spaced sensor elements (eg, first array 320). Sounds having frequencies above 20 kHz, such as ultrasonic signals of ~ 100 kHz) can be better decomposed. Similarly, a wider spacing sensor element (eg, first array 320) has a lower frequency acoustic signal (eg, less than 20 kHz) than a narrower spacing sensor element (eg, second array 322). May be more suitable for detecting. Various sensor elements placed apart from each other to detect acoustic signals in various frequency ranges such as ultra-low frequency (less than 20Hz), audible frequency (about 20Hz-20kHz), ultrasonic frequency (20kHz-100kHz). An acoustic sensor array may be provided. In certain embodiments, partial arrays (eg, all acoustic sensor elements other than array 320) may be used to optimize detection for a particular frequency band.

さらに、ある例では、ある音響センサ要素は、低周波数又は高周波数などの異なる周波数特性を有する音響信号を検出するのにより適していることがある。したがって、ある実施形態では、例えば、さらに間隔を置いたセンサ要素を有する第1のアレイ320などの低周波数音響信号を検出するために構成されたアレイは、低周波数音響信号を検出するのにより適した第1の音響センサ要素を含み得る。同様に、第2のアレイ322などのより高い周波数の音響信号を検出するように構成されたアレイは、高周波音響信号を検出するのにより適した第2の音響センサ要素を含み得る。したがって、ある例では、音響センサ要素の第1のアレイ320及び第2のアレイ322は、異なるタイプの音響センサ要素を含み得る。あるいは、ある実施形態では、第1のアレイ320及び第2のアレイ322は、同じタイプの音響センサ要素を含むことができる。 Further, in some examples, some acoustic sensor elements may be better suited to detect acoustic signals with different frequency characteristics, such as low or high frequencies. Thus, in certain embodiments, an array configured to detect a low frequency acoustic signal, such as, for example, a first array 320 with more spaced sensor elements, is more suitable for detecting the low frequency acoustic signal. It may also include a first acoustic sensor element. Similarly, an array configured to detect higher frequency acoustic signals, such as the second array 322, may include a second acoustic sensor element that is more suitable for detecting high frequency acoustic signals. Thus, in one example, the first array 320 and the second array 322 of acoustic sensor elements may include different types of acoustic sensor elements. Alternatively, in certain embodiments, the first array 320 and the second array 322 may include the same type of acoustic sensor element.

したがって、例示的な実施形態では、音響センサアレイ302は、第1のアレイ320と第2のアレイ322などの複数の音響センサ要素アレイを含むことができる。ある実施形態では、アレイは、個別に又は組み合わせて使用することができる。例えば、ある例では、ユーザは、音響撮像手順を実行するために、第1のアレイ320を使用するか、第2のアレイ322を使用するか、又は、第1のアレイ320と第2のアレイ322の両方を同時に使用するかを選択し得る。ある例では、ユーザは、ユーザインタフェースを介してどのアレイ(複数可)を使用するかを選択し得る。その上若しくはそれ以外に、ある実施形態では、音響分析システムは、受信した音響信号の分析、又は、予想される周波数範囲などの他の入力データなどに基づいて、使用するアレイ(複数可)を自動的に選択し得る。図3Aに示される構成は、概して、長方形の格子状に概ね配置された2つのアレイ(第1のアレイ320と第2のアレイ322)を含むが、複数の音響センサ要素が、任意の形状の任意の数の個別のアレイにグループ化できることが理解されよう。さらに、ある実施形態では、一又はそれ以上の音響センサ要素を、動作のために選択することができる複数の別個のアレイに含めることができる。本明細書の他の個所で説明するように、様々な実施形態では、シーンからの音響画像データを確立するために音響信号をバックプロパゲーションするプロセスは、音響センサ要素の配置に基づいて実行される。したがって、音響センサの配置は、音響画像生成技術を実行するために、プロセッサによって既知であるか、そうでなければアクセス可能であり得る。 Thus, in an exemplary embodiment, the acoustic sensor array 302 can include a plurality of acoustic sensor element arrays such as the first array 320 and the second array 322. In certain embodiments, the arrays can be used individually or in combination. For example, in one example, the user may use the first array 320, the second array 322, or the first array 320 and the second array to perform the acoustic imaging procedure. You can choose to use both of the 322 at the same time. In one example, the user may choose which array (s) to use via the user interface. In addition or otherwise, in certain embodiments, the acoustic analysis system determines the array (s) to be used, based on the analysis of the received acoustic signal, or other input data such as the expected frequency range. Can be selected automatically. The configuration shown in FIG. 3A generally includes two arrays (first array 320 and second array 322) roughly arranged in a rectangular grid, with multiple acoustic sensor elements of any shape. It will be appreciated that it can be grouped into any number of individual arrays. Further, in certain embodiments, one or more acoustic sensor elements can be included in a plurality of separate arrays that can be selected for operation. As described elsewhere herein, in various embodiments, the process of backpropagating an acoustic signal to establish acoustic image data from a scene is performed based on the placement of acoustic sensor elements. NS. Therefore, the placement of the acoustic sensor may be known or otherwise accessible by the processor to perform the acoustic image generation technique.

図3Aの音響分析システムは、音響センサアレイ302内に配置された距離測定ツール304とカメラモジュール306をさらに含んでいる。カメラモジュール306は、電磁撮像ツール(例えば、203)のカメラモジュールを表してみいいし、可視光カメラモジュール、赤外線カメラモジュール、紫外線カメラモジュールなどを含んでもよい。さらに、図3Aには示されていないが、音響分析システムは、カメラモジュール306と同じタイプ若しくは異なるタイプの一又はそれ以上の追加のカメラモジュールを含むことができる。図示の例では、距離測定ツール304及びカメラモジュール306は、第1のアレイ320と第2のアレイ322の音響センサ要素の格子内に配置されている。第1のアレイ320と第2のアレイ322内の格子サイト間に配置されるように示されているが、ある実施形態では、一又はそれ以上の構成要素(例えば、カメラモジュール306及び/又は距離測定ツール304は、第1のアレイ320及び/又は第2のアレイ322内の対応する一又はそれ以上の格子サイトに配置することができる。あるそのような実施形態では、構成要素(複数可)は、典型的には格子配置に従ってそのような位置にあるであろう音響センサ要素の代わりに、格子サイトに配置することができる。 The acoustic analysis system of FIG. 3A further includes a distance measuring tool 304 and a camera module 306 disposed within the acoustic sensor array 302. The camera module 306 may represent a camera module of an electromagnetic imaging tool (for example, 203), and may include a visible light camera module, an infrared camera module, an ultraviolet camera module, and the like. Further, although not shown in FIG. 3A, the acoustic analysis system may include one or more additional camera modules of the same type or different type as the camera module 306. In the illustrated example, the distance measuring tool 304 and the camera module 306 are arranged in a grid of acoustic sensor elements of the first array 320 and the second array 322. Although shown to be located between the grid sites in the first array 320 and the second array 322, in certain embodiments, one or more components (eg, camera module 306 and / or distance). The measurement tool 304 can be located at one or more corresponding grid sites within the first array 320 and / or the second array 322. In one such embodiment, the components (s). Can be placed at the grid site instead of the acoustic sensor element that would typically be in such a position according to the grid layout.

本明細書の他の個所で説明されているように、音響センサアレイは、様々な構成のいずれかに配置された音響センサ要素を含むことができる。図3B及び3Cは、例示的な音響センサアレイ構成を示す概略図である。図3Bは、ほぼ正方形の格子内に等間隔に配置された複数の音響センサ要素を含む音響センサアレイ390を示している。距離測定ツール314及びカメラアレイ316は、音響センサアレイ390内に配置されている。図示の例では、音響センサアレイ390内の音響センサ要素は同じタイプのセンサであるが、ある実施形態では、異なるタイプの音響センサ要素をアレイ390内で使用することができる。 As described elsewhere herein, an acoustic sensor array can include acoustic sensor elements arranged in any of a variety of configurations. 3B and 3C are schematic views showing an exemplary acoustic sensor array configuration. FIG. 3B shows an acoustic sensor array 390 containing a plurality of acoustic sensor elements evenly spaced within a substantially square grid. The distance measuring tool 314 and the camera array 316 are arranged in the acoustic sensor array 390. In the illustrated example, the acoustic sensor elements in the acoustic sensor array 390 are the same type of sensor, but in certain embodiments, different types of acoustic sensor elements can be used in the array 390.

図3Cは、複数の音響センサアレイを示している。音響センサアレイ392、394、及び396は、それぞれ、異なる形状のアレイに配置された複数の音響センサ要素を含んでいる。図3Cの例では、音響センサアレイ392、394、及び396を別々に又は一緒に任意の組み合わせで使用して、様々なサイズのセンサアレイを作成することができる。図示の実施形態では、アレイ396のセンサ要素は、アレイ392のセンサ要素よりも互いに接近して配置されている。ある例では、アレイ396は、高周波音響データを感知するように設計されており、アレイ392は、低周波数音響データを感知するように設計されている。 FIG. 3C shows a plurality of acoustic sensor arrays. The acoustic sensor arrays 392, 394, and 396 each include a plurality of acoustic sensor elements arranged in arrays of different shapes. In the example of FIG. 3C, the acoustic sensor arrays 392, 394, and 396 can be used separately or together in any combination to create sensor arrays of various sizes. In the illustrated embodiment, the sensor elements of the array 396 are located closer to each other than the sensor elements of the array 392. In one example, the array 396 is designed to sense high frequency acoustic data and the array 392 is designed to sense low frequency acoustic data.

様々な実施形態では、アレイ392、394、及び396は、同じ又は異なるタイプの音響センサ要素を含むことができる。例えば、音響センサアレイ392は、音響センサアレイ396のセンサ要素の周波数動作範囲よりも低い周波数動作範囲を有するセンサ要素を含むことができる。 In various embodiments, the arrays 392, 394, and 396 can include the same or different types of acoustic sensor elements. For example, the acoustic sensor array 392 can include a sensor element having a frequency operating range lower than the frequency operating range of the sensor element of the acoustic sensor array 396.

本明細書の他の個所で説明するように、ある例では、異なる音響センサアレイ(例えば、392、394、396)は、様々な動作モード(例えば、撮像される異なる所望の周波数スペクトル)中に選択的にターンオフ及びターンオンにすることができる。その上若しくはそれとは別に、様々な音響センサ要素(例えば、一又はそれ以上のセンサアレイ内の音響センサ要素の一部又はすべて)は、所望のシステム動作に従って有効化又は無効化されることが可能である。例えば、ある音響撮像プロセスでは、多数のセンサ要素(例えば、センサアレイ396内のように高密度に配置されたセンサ要素)からのデータは、音響画像データの解像度をわずかに改善するが、各センサ要素で受信したデータから音響画像データを抽出するには必要な処理の費用がかかる。すなわち、ある例では、(例えば、多数の音響センサ要素からの)多数の入力信号を処理するために必要な増加した処理負担(例えば、コスト、処理時間、電力消費などにおいて)は、追加のデータストリームによって提供される任意の追加の信号解像度と否定的に比較される。したがって、ある実施形態では、所望の音響撮像動作に応じて、一又はそれ以上の音響センサ要素からのデータを無効化又は無視することに価値があることがある。 As described elsewhere herein, in one example, different acoustic sensor arrays (eg, 392, 394, 396) are in different modes of operation (eg, different desired frequency spectra to be imaged). It can be selectively turned off and turned on. On top of that or separately, various acoustic sensor elements (eg, some or all of the acoustic sensor elements in one or more sensor arrays) can be enabled or disabled according to the desired system operation. Is. For example, in one acoustic imaging process, data from a large number of sensor elements (eg, densely arranged sensor elements, such as in a sensor array 396) will slightly improve the resolution of the acoustic image data, but each sensor. Extracting acoustic image data from the data received by the element requires the necessary processing costs. That is, in one example, the increased processing load (eg, in cost, processing time, power consumption, etc.) required to process a large number of input signals (eg, from a large number of acoustic sensor elements) is additional data. Negatively compared to any additional signal resolution provided by the stream. Therefore, in certain embodiments, it may be worthwhile to invalidate or ignore data from one or more acoustic sensor elements, depending on the desired acoustic imaging operation.

図3A及び3Bのシステムと同様に、図3Cのシステムは、音響センサアレイ392、394、及び396内に配置された距離測定ツール314及びカメラアレイ316を含んでいる。ある例では、(例えば、カメラアレイ316からの電磁スペクトルの異なる部分を撮像するために使用される)追加のカメラアレイなどの追加の構成要素は、音響センサアレイ392、394、及び396内に同様に配置され得る。図3A〜図2Cには、一又はそれ以上の音響センサアレイ内に配置されるように示されているが、距離測定ツール及び/又は一又はそれ以上の撮像ツール(例えば、可視光カメラモジュール、赤外線カメラモジュール、紫外線センサ、など)は、音響センサアレイ(複数可)の外側に配置できる。あるそのような例では、音響センサアレイ(複数可)の外側に配置された距離測定ツール及び/又は一又はそれ以上の撮像ツールは、音響撮像ツールによって、例えば、音響センサアレイを収容する筐体によって支持され得るか、又は音響撮像ツールの筐体の外部に配置できる。 Similar to the systems of FIGS. 3A and 3B, the system of FIG. 3C includes an acoustic sensor array 392, 394, and a distance measuring tool 314 and a camera array 316 disposed within 396. In one example, additional components (eg, used to image different parts of the electromagnetic spectrum from the camera array 316), such as an additional camera array, are similarly within the acoustic sensor arrays 392, 394, and 396. Can be placed in. 3A-2C show distance measurement tools and / or one or more imaging tools (eg, visible light camera modules, although shown to be located within one or more acoustic sensor arrays. Infrared camera modules, UV sensors, etc.) can be located outside the acoustic sensor array (s). In one such example, the distance measurement tool and / or one or more imaging tools located outside the acoustic sensor array (s) are provided by the acoustic imaging tool, eg, a housing that houses the acoustic sensor array. Can be supported by or can be placed outside the housing of the acoustic imaging tool.

ある例では、音響センサアレイと、カメラモジュールなどの撮像ツールの一般的な不整合は、音響センサアレイ及び撮像ツールによって生成された対応する画像データの重ね合わせ不良につながることがある。図4Aは、可視光画像データ及び音響画像データのフレームの生成における視差エラーの概略図を示す。一般に、視差エラーは垂直、水平、又はその両方であることがある。図示の実施形態では、音響センサアレイ420と、可視光カメラモジュール406を含む撮像ツールである。可視光画像フレーム440は、可視光カメラモジュール406の視野441に従って取り込まれて示され、一方、音響画像フレーム450は、音響センサアレイ420の視野451に従って取り込まれているように示されている。 In one example, a general inconsistency between an acoustic sensor array and an imaging tool such as a camera module can lead to poor overlay of the corresponding image data generated by the acoustic sensor array and the imaging tool. FIG. 4A shows a schematic diagram of a parallax error in the generation of frames for visible light image data and acoustic image data. In general, parallax errors can be vertical, horizontal, or both. In the illustrated embodiment, it is an imaging tool that includes an acoustic sensor array 420 and a visible light camera module 406. The visible light image frame 440 is shown to be captured according to the field of view 441 of the visible light camera module 406, while the acoustic image frame 450 is shown to be captured according to the field of view 451 of the acoustic sensor array 420.

示されるように、可視光画像フレーム440と音響撮像フレーム450は、互いに整列されていない。ある実施形態では、プロセッサ(例えば、図2のプロセッサ212)は、可視光画像データと音響画像データを整列させるために、可視光画像フレーム440と音響画像フレーム450の一方又は両方を操作するように構成される。そのような操作は、一方の画像フレームを他方に対してシフトすることを含み得る。画像フレームが互いに対してシフトされる量は、例えば、可視光カメラモジュール406及び/又は音響センサアレイ420からのターゲットまでの距離を含む、様々な要因に基づいて決定することができる。そのような距離データは、例えば、距離測定ツール404を使用して、又は、ユーザインタフェース(例えば、216)を介して距離値を受信することによって決定することができる。 As shown, the visible light image frame 440 and the acoustic imaging frame 450 are not aligned with each other. In certain embodiments, the processor (eg, processor 212 in FIG. 2) operates one or both of the visible light image frame 440 and the acoustic image frame 450 in order to align the visible light image data and the acoustic image data. It is composed. Such an operation may include shifting one image frame with respect to the other. The amount by which the image frames are shifted relative to each other can be determined based on a variety of factors, including, for example, the distance from the visible light camera module 406 and / or the acoustic sensor array 420 to the target. Such distance data can be determined, for example, by using the distance measuring tool 404 or by receiving the distance value via a user interface (eg, 216).

図4Bは、図4Aのものと同様の概略図であるが、シーンの可視光画像を含んでいる。図4Bの例では、可視光画像442は、複数の電力線及び支持タワーのシーンを示している。音響画像452は、複数の位置454、456、458を含み、そのような位置はそこから来る高マグニチュード音響データを示している。図示されるように、可視光画像442と音響画像452は両方とも同時に表示される。しかしながら、両方の画像の観察は、可視光画像442の特定の構造と一致していないように見える位置458で少なくとも1つの音響画像極大値を示している。したがって、両方の画像を観察する人は、音響画像452と可視光画像442との間に重ね合わせ不良(例えば、視差エラー)があると結論付けることができる。 FIG. 4B is a schematic similar to that of FIG. 4A, but includes a visible light image of the scene. In the example of FIG. 4B, the visible light image 442 shows a scene of a plurality of power lines and support towers. The acoustic image 452 includes a plurality of positions 454, 456, 458, such positions indicating high magnitude acoustic data coming from them. As shown, both the visible light image 442 and the acoustic image 452 are displayed simultaneously. However, observations of both images show at least one acoustic image maxima at position 458, which appears to be inconsistent with the particular structure of the visible light image 442. Therefore, a person observing both images can conclude that there is an overlay defect (eg, parallax error) between the acoustic image 452 and the visible light image 442.

図5A及び5Bは、可視光画像と音響画像との間の視差補正を示す。図5Aは、図4Bと同様に、可視光画像542及び音響画像552を示す。音響画像552は、位置554、556、及び558における極大値を含む。見て分かるように、位置554と558での最大値は、可視光画像のいずれの構造とも一致していないように見える。図5Bの例では、可視光画像542と音響画像552は、互いに関して重ね合わされている。音響画像の位置554、556、及び558の極大値は、可視光画像542内の様々な位置と一致するように見える。 5A and 5B show the parallax correction between the visible light image and the acoustic image. FIG. 5A shows a visible light image 542 and an acoustic image 552, similar to FIG. 4B. The acoustic image 552 includes local maxima at positions 554, 556, and 558. As can be seen, the maximum values at positions 554 and 558 do not appear to match any of the structures of the visible light image. In the example of FIG. 5B, the visible light image 542 and the acoustic image 552 are superimposed on each other. Maxima at positions 554, 556, and 558 in the acoustic image appear to coincide with various positions in the visible light image 542.

使用中、オペレータは、図5Bの表現を(例えば、ディスプレイ214を介して)見て、受信した音響信号の発生源である可能性が高い可視シーン542内のおおよその位置を決定し得る。このような信号は、シーン内の様々な構成要素の音響シグネチャに関する情報を決定するために、さらに処理することができる。様々な実施形態において、周波数コンテンツ、周期性、振幅などの音響パラメータは、音響画像内の様々な位置に関して分析することができる。そのようなパラメータを様々なシステム構成要素に関連付けることができるように可視光データにオーバレイする場合、音響画像データが使用されて、可視光画像内の物体の様々な特性(例えば、性能特性)を分析し得る。 During use, the operator may look at the representation in FIG. 5B (eg, via display 214) to determine an approximate location within the visible scene 542 that is likely to be the source of the received acoustic signal. Such signals can be further processed to determine information about the acoustic signatures of the various components in the scene. In various embodiments, acoustic parameters such as frequency content, periodicity, amplitude, etc. can be analyzed for different positions in the acoustic image. When overlaying visible light data so that such parameters can be associated with various system components, acoustic image data is used to capture various characteristics (eg, performance characteristics) of the object in the visible light image. Can be analyzed.

図5C及び図5Dは、図5A及び図5Bの着色されたバージョンである。図5A及び図5Bに示され、図5C及び図5Dの着色された表現でより容易に見られるように、位置554、556、及び558は、色の円形グラデーションを示す。本明細書の他の個所で説明するように、音響画像データは調色技術に従って視覚的に表すことができ、音響画像データの各ピクセルは、対応する位置での音響強度に基づいて着色される。したがって、図5A〜図5Dの例示的な表現では、位置554、556、558の円形グラデーションは、一般に、バックプロパゲーションされた受信音響信号に基づく撮像平面における音響強度のグラデーションを表している。 5C and 5D are colored versions of FIGS. 5A and 5B. Positions 554, 556, and 558 show a circular gradation of color, as shown in FIGS. 5A and 5B and more easily seen in the colored representations of FIGS. 5C and 5D. As described elsewhere herein, the acoustic image data can be visually represented according to toning techniques, and each pixel of the acoustic image data is colored based on the acoustic intensity at the corresponding location. .. Therefore, in the exemplary representation of FIGS. 5A-5D, the circular gradation at positions 554, 556, 558 generally represents a gradation of acoustic intensity in the imaging plane based on the backpropagated received acoustic signal.

図4A、図4B、図5A〜図5Dの例示的な図は、音響画像データ及び可視光画像データに関して説明されているが、そのようなプロセスは、様々な電磁画像データを用いて同様に実行できることが理解されよう。例えば、本明細書の他の個所で説明するように、様々な実施形態において、様々なそのようなプロセスは、音響画像データと、一又はそれ以上の可視光画像データ、赤外線画像データ、紫外線画像データなどとの組み合わせを使用して実行することができる。 Illustrative diagrams of FIGS. 4A, 4B, 5A-5D are described with respect to acoustic and visible light image data, but such processes are similarly performed with various electromagnetic image data. It will be understood that it can be done. For example, as described elsewhere herein, in various embodiments, various such processes include acoustic image data and one or more visible light image data, infrared image data, ultraviolet images. It can be executed using a combination with data and so on.

本明細書の他の個所で説明するように、ある実施形態では、音響画像を形成するための音響信号のバックプロパゲーションは、ターゲットまでの距離値に基づくことができる。すなわち、ある例では、バックプロパゲーション計算は、距離に基づくことができ、音響センサアレイからその距離に位置する2次元音響シーンを決定することを含むことができる。2次元撮像平面が与えられると、平面内の発生源から発する球形の音波は、一般に、断面が円形に見え、図5A〜図5Bに示されるように、強度が半径方向に減衰する。 As described elsewhere herein, in certain embodiments, the backpropagation of the acoustic signal for forming an acoustic image can be based on the distance value to the target. That is, in one example, the backpropagation calculation can be based on a distance and can include determining a two-dimensional acoustic scene located at that distance from the acoustic sensor array. Given a two-dimensional imaging plane, spherical sound waves emanating from sources in the plane generally appear circular in cross section and are radially attenuated in intensity, as shown in FIGS. 5A-5B.

あるそのような例では、バックプロパゲーション計算で使用されるターゲットまでの距離に位置しないデータを表す音響シーンの部分は、シーンにおける一又はそれ以上の音の位置の不正確さなど、音響画像データにエラーをもたらす。このようなエラーは、音響画像が他の画像データ(例えば、可視光、赤外線、又は紫外線画像データなどの電磁画像データ)と同時に表示される場合(例えば、ブレンドされる、組み合わされるなどした場合)、音響画像データとその他の画像データとの間の視差エラーにつながることがある。したがって、ある実施形態では、(例えば、図5A及び図5Bに示されるように)視差エラーを補正するためのある技術は、音響画像データを生成するためのバックプロパゲーション計算で使用されるターゲットまでの距離値を調整することを含む。 In one such example, the portion of the acoustic scene that represents the data that is not located at a distance to the target used in the backpropagation calculation is the acoustic image data, such as the inaccuracy of the position of one or more sounds in the scene. Brings an error to. Such an error occurs when the acoustic image is displayed at the same time as other image data (eg, electromagnetic image data such as visible light, infrared, or ultraviolet image data) (eg, blended, combined, etc.). , May lead to misalignment error between acoustic image data and other image data. Thus, in certain embodiments, certain techniques for correcting parallax errors (eg, as shown in FIGS. 5A and 5B) up to the target used in the backpropagation calculation to generate acoustic image data. Includes adjusting the distance value of.

ある場合、システムは、第1のターゲットまでの距離値を使用してバックプロパゲーションプロセスを実行し、音響画像データと別のデータストリームが整列されない可能性がある図5Aに示されるようなディスプレイ画像を表示するように構成されることがある。その後、音響分析システムは、バックプロパゲーションに使用されるターゲットまでの距離値を調整し、バックプロパゲーションを再度実行し、新しい音響画像データでディスプレイ画像を更新することができる。このプロセスは繰り返すことができ、ユーザがディスプレイ上で結果として得られるディスプレイ画像を観察しながら、音響分析システムが複数のターゲットまでの距離値を通じて反復する。ターゲットまでの距離値が変化するにつれて、ユーザは、図5Aに示されるディスプレイ画像から図5Bに示されるディスプレイ画像への漸進的な遷移を観察し得る。あるそのような場合、ユーザは、音響画像データが電磁画像データなどの別のデータストリームに適切に重ね合わされたように見えるときを視覚的に観察し得る。ユーザは、音響画像データが適切に重ね合わされたように見えることを音響分析システムに通知して、最新のバックプロパゲーションを実行するために使用されたターゲットまでの距離値がほぼ正しいことをシステムに示すことがあり、その距離の値をターゲットまでの正しい距離としてメモリに保存し得る。同様に、ユーザは、音響画像データが適切に重ね合わされていることを確認するまで、更新されたバックプロパゲーションプロセスで新しい距離値を使用してディスプレイ画像が更新されるときに、ユーザはターゲットまでの距離値を手動で調整し得る。ユーザは、音響分析システムにおけるターゲットまでの現在の距離を、ターゲットまでの現在の距離として保存することを選択し得る。 In some cases, the system performs a backpropagation process using the distance value to the first target, and the display image as shown in FIG. 5A where the acoustic image data and another data stream may not be aligned. May be configured to display. The acoustic analysis system can then adjust the distance value to the target used for backpropagation, perform the backpropagation again, and update the display image with the new acoustic image data. This process can be repeated and the acoustic analysis system iterates through distance values to multiple targets while the user observes the resulting display image on the display. As the distance value to the target changes, the user may observe a gradual transition from the display image shown in FIG. 5A to the display image shown in FIG. 5B. In some such cases, the user may visually observe when the acoustic image data appears to be properly superimposed on another data stream, such as electromagnetic image data. The user informs the acoustic analysis system that the acoustic image data appears to be properly superimposed and informs the system that the distance value to the target used to perform the latest backpropagation is almost correct. It may indicate that the value of that distance may be stored in memory as the correct distance to the target. Similarly, when the user updates the display image with the new distance value in the updated backpropagation process, the user reaches the target until the user confirms that the acoustic image data is properly overlaid. The distance value of can be adjusted manually. The user may choose to save the current distance to the target in the acoustic analysis system as the current distance to the target.

ある例では、視差エラーを修正することは、他の画像データ(例えば、電磁画像データ)に対する音響画像データの位置を、ターゲットまでの距離データに基づいて所定の量及び所定の方向に調整することを含み得る。ある実施形態では、そのような調整は、音響信号を特定されたターゲットまでの距離にバックプロパゲーションすることによる音響画像データの生成とは無関係である。 In one example, correcting a parallax error is adjusting the position of the acoustic image data relative to other image data (eg, electromagnetic image data) in a predetermined amount and direction based on the distance data to the target. May include. In certain embodiments, such adjustment is independent of the generation of acoustic image data by backpropagating the acoustic signal to the distance to the identified target.

ある実施形態では、音響画像データを生成し、音響画像データと他の画像データとの間の視差エラーを低減するために使用されることに加えて、ターゲットまでの距離値が他の決定のためにもちられることがある。例えば、ある例では、プロセッサ(例えば、212)は、参照により組み込まれる米国特許第7,538,326号に記載されているように、赤外線画像などの画像に焦点を合わせるか、又は、焦点を合わせる際にユーザを支援するために、ターゲットまでの距離値を使用することができる。そこに記載されているように、これは、可視光画像データと赤外線画像データとの間の視差エラーを補正するために同様に使用することができる。したがって、ある例では、距離値を使用して、音響画像データを、赤外線画像データや可視光画像データなどの電磁画像データに重ね合わせることができる。 In one embodiment, in addition to being used to generate acoustic image data and reduce parallax errors between the acoustic image data and other image data, the distance value to the target is for other determinations. May be used. For example, in one example, the processor (eg, 212) focuses on or focuses on an image, such as an infrared image, as described in US Pat. No. 7,538,326 incorporated by reference. Distance values to the target can be used to assist the user in aligning. As described therein, it can also be used to correct parallax errors between visible light image data and infrared image data. Therefore, in one example, distance values can be used to superimpose acoustic image data on electromagnetic image data such as infrared image data or visible light image data.

本明細書の他の個所で説明するように、ある例では、距離測定ツール(例えば、204)は、音響画像データを生成及び重ね合わせるためにプロセッサ(例えば、212)によって使用できる距離情報を提供するように構成される。ある実施形態では、距離測定ツールは、距離が測定される位置でターゲットシーンに光を放出するように構成されたレーザ距離計を備える。あるそのような例では、レーザ距離計は可視スペクトル内の光を放出することができるため、ユーザは物理的シーンのレーザスポットを見て、距離計がシーンの所望の部分までの距離を測定していることを確認できる。その上若しくはそれとは別に、レーザ距離計は、一又はそれ以上の撮像構成要素(例えば、カメラモジュール)が高感度であるスペクトル内の光を放出するように構成される。したがって、分析ツールを介して(例えば、ディスプレイ214を介して)ターゲットシーンを見ているユーザは、シーン内のレーザスポットを観察して、レーザがターゲットシーン内の正しい位置までの距離を測定していることを確認し得る。ある例では、プロセッサ(例えば、212)は、現在の距離値に基づいて(例えば、レーザ距離計と音響センサアレイと間の既知の距離ベースの視差関係に基づいて)、レーザスポットが音響シーン内に配置される位置を表すディスプレイ画像内に参照マークを生成するように構成され得る。参照マークの位置は、(例えば、ディスプレイ上にグラフィカルに、及び/又はターゲットシーン内で物理的に)実際のレーザマークの位置と比較でき、参照マークとレーザが一致するまでシーンを調整できる。そのようなプロセスは、参照により組み込まれる米国特許第7,538,326号に記載されている赤外線重ね合わせ及び焦点技術と同様に実行することができる。 As described elsewhere herein, in one example, a distance measuring tool (eg, 204) provides distance information that can be used by a processor (eg, 212) to generate and superimpose acoustic image data. It is configured to do. In one embodiment, the distance measuring tool comprises a laser rangefinder configured to emit light to the target scene at the position where the distance is measured. In one such example, the laser rangefinder can emit light within the visible spectrum, so the user sees the laser spot in the physical scene and the rangefinder measures the distance to the desired part of the scene. You can confirm that it is. On or apart from that, the laser rangefinder is configured such that one or more imaging components (eg, camera modules) emit light within a spectrum that is sensitive. Therefore, a user viewing a target scene through an analysis tool (eg, through display 214) will observe the laser spot in the scene and measure the distance the laser is to the correct position in the target scene. You can confirm that you are there. In one example, the processor (eg, 212) has the laser spot in the acoustic scene based on the current distance value (eg, based on the known distance-based parallax relationship between the laser rangefinder and the acoustic sensor array). It may be configured to generate a reference mark in the display image that represents the position placed in. The position of the reference mark can be compared to the actual position of the laser mark (eg, graphically on the display and / or physically within the target scene) and the scene can be adjusted until the reference mark matches the laser. Such a process can be performed in the same manner as the infrared overlay and focus technique described in US Pat. No. 7,538,326 incorporated by reference.

図6は、音響画像データと電磁画像データを組み合わせた最終画像を生成するための例示的な方法を示すプロセスフロー図である。この方法は、音響センサアレイを介して音響信号を受信する工程(680)と、距離情報を受信する工程(682)を含んでいる。距離情報は、例えば、手動入力を介して、又は、観察された重ね合わせに基づいて距離が決定される距離調整プロセスの結果としてなど、距離測定装置及び/又はユーザインタフェースを介して受信することができる。 FIG. 6 is a process flow diagram showing an exemplary method for generating a final image by combining acoustic image data and electromagnetic image data. This method includes a step of receiving an acoustic signal via an acoustic sensor array (680) and a step of receiving distance information (682). Distance information may be received via a distance measuring device and / or a user interface, for example via manual input or as a result of a distance adjustment process in which the distance is determined based on the observed superposition. can.

この方法は、受信した音響信号をバックプロパゲーションして、音響シーンを表す音響画像データを決定することをさらに含む(684)。本明細書の他の個所で説明するように、バックプロパゲーションは、受信した距離情報と組み合わせて、音響センサアレイ内の複数のセンサ要素で受信した複数の音響信号を分析して、受信音響信号の発生源パターンを決定することを含むことができる。 The method further comprises backpropagating the received acoustic signal to determine acoustic image data representing the acoustic scene (684). As described elsewhere herein, backpropagation, in combination with received distance information, analyzes multiple acoustic signals received by multiple sensor elements within an acoustic sensor array to analyze the received acoustic signal. Can include determining the source pattern of.

図6の方法は、電磁画像データを取り込む工程(686)と、音響画像データに電磁画像データを重ね合わせる工程(688)をさらに含む。ある実施形態では、音響画像データに電磁画像データを重ねわせることは、音響画像データを生成するためのバックプロパゲーションステップの一部として行われる(684)。他の例では、音響画像データに電磁画像データを重ね合わせることは、音響画像データの生成とは別個に行われる。 The method of FIG. 6 further includes a step of capturing electromagnetic image data (686) and a step of superimposing the electromagnetic image data on the acoustic image data (688). In one embodiment, superimposing the electromagnetic image data on the acoustic image data is performed as part of a backpropagation step for generating the acoustic image data (684). In another example, superimposing the electromagnetic image data on the acoustic image data is performed separately from the generation of the acoustic image data.

図6の方法は、ディスプレイ画像を生成するために、音響画像データを電磁画像データと組み合わせる工程(690)を含む。本明細書の他の個所で説明するように、電磁画像データと音響画像データとを組み合わせることは、電磁画像データと音響画像データとをアルファブレンドすることを含み得る。画像データを組み合わせることは、ピクチャ・イン・ピクチャモードのような、一方の画像データセットを他方の画像データセットにオーバレイすること、若しくは、特定の条件(警報条件など)が満たされる位置に画像データセットをオーバレイすることを含んでいる。ディスプレイ画像は、例えば、音響センサアレイを支持する筐体によって支持されるディスプレイを介して、及び/又は、外部装置(例えば、スマートフォン、タブレット、コンピュータなど)のディスプレイなどの、センサアレイとは別個のディスプレイを介して、ユーザに提示され得る。 The method of FIG. 6 includes combining acoustic image data with electromagnetic image data (690) to generate a display image. Combining electromagnetic image data with acoustic image data, as described elsewhere herein, may include alpha blending the electromagnetic image data with the acoustic image data. Combining image data means overlaying one image data set to the other image data set, such as in picture-in-picture mode, or image data at a position where certain conditions (such as alarm conditions) are met. Includes overlaying the set. The display image is separate from the sensor array, for example, through a display supported by a housing that supports the acoustic sensor array and / or, such as the display of an external device (eg, smartphone, tablet, computer, etc.). It may be presented to the user via the display.

その上若しくはそれとは別に、ディスプレイ画像は、将来見るためにローカル(例えば、オンボード)メモリ及び/又はリモートメモリに保存することができる。ある実施形態では、保存されたディスプレイ画像は、ブレンド比、バックプロパゲーション距離、若しくは画像を生成するために使用される他のパラメータなどのディスプレイ画像特性の将来の調整を可能にするメタデータを含むことができる。ある例では、生の音響信号データ及び/又は電磁画像データは、その後の処理又は分析のためにディスプレイ画像と共に保存することができる。 On top of that or separately, display images can be stored in local (eg, onboard) memory and / or remote memory for future viewing. In certain embodiments, the stored display image contains metadata that allows future adjustment of display image characteristics such as blend ratio, backpropagation distance, or other parameters used to generate the image. be able to. In some examples, raw acoustic signal data and / or electromagnetic image data can be stored with the display image for subsequent processing or analysis.

音響画像データと電磁画像データとを組み合わせて最終画像を生成する方法として示されているが、音響画像データを、可視光画像データ、赤外線画像データ、紫外線画像データなどの電磁スペクトルの任意の部分にまたがる画像データの一又はそれ以上のセットと組み合わせるために図6の方法が使用され得ることが理解されよう。あるそのような例では、可視光画像データ及び赤外線画像データなどの画像データの複数のセットを両方とも音響画像データと組み合わせて、図6に関して説明したのと同様の方法を介してディスプレイ画像を生成することができる。 Although shown as a method of combining acoustic image data and electromagnetic image data to generate a final image, the acoustic image data can be applied to any part of the electromagnetic spectrum such as visible light image data, infrared image data, and ultraviolet image data. It will be appreciated that the method of FIG. 6 can be used to combine with one or more sets of straddling image data. In one such example, multiple sets of image data, such as visible light image data and infrared image data, are both combined with acoustic image data to generate a display image via a method similar to that described with respect to FIG. can do.

ある例では、センサアレイを介して音響信号を受信する(680)ことは、音響信号を受信するための音響センサアレイを選択するステップを含むことができる。例えば、図3A〜図Cに関して説明したように、音響分析システムは、変化していく周波数の音響信号を分析するのに適し得る複数の音響センサアレイを含むことができる。その上若しくはそれとは別に、ある例では、異なる音響センサアレイは、異なる距離から伝搬する音響信号を分析するのに有用であり得る。ある実施形態では、異なるアレイを互いに入れ子にすることができる。その上若しくはそれとは別に、部分アレイを選択的に使用して、音響画像信号を受信することができる。 In one example, receiving an acoustic signal via a sensor array (680) can include selecting an acoustic sensor array for receiving the acoustic signal. For example, as described with respect to FIGS. 3A-C, an acoustic analysis system can include a plurality of acoustic sensor arrays that may be suitable for analyzing acoustic signals of varying frequencies. Moreover or separately, in one example, different acoustic sensor arrays may be useful for analyzing acoustic signals propagating from different distances. In certain embodiments, different arrays can be nested together. On top of that or separately, partial arrays can be selectively used to receive acoustic image signals.

例えば、図3Aは、第1のアレイ320と、第1のアレイ内に入れ子にされた第2のアレイ322を示す。例示的な実施形態では、第1のアレイ320は、音響信号を受信し、第1の周波数範囲の周波数の音響画像データを生成するように(例えば、間隔を置いて)構成されたセンサアレイを含むことができる。第2のアレイ322は、例えば、第2の周波数範囲の周波数の音響画像データを生成するために、単独で、若しくは、第1のアレイ320の全部又は一部と組み合わせて使用されるように構成された第2のセンサアレイを含むことができる。 For example, FIG. 3A shows a first array 320 and a second array 322 nested within a first array. In an exemplary embodiment, the first array 320 is a sensor array configured (eg, at intervals) to receive acoustic signals and generate acoustic image data for frequencies in the first frequency range. Can include. The second array 322 is configured to be used alone or in combination with all or part of the first array 320, for example, to generate acoustic image data for frequencies in the second frequency range. The second sensor array can be included.

同様に、図3Cは、第1のアレイ392、第1のアレイ392内に少なくとも部分的に入れ子にされた第2のアレイ394、並びに第1のアレイ392及び第2のアレイ394内に少なくとも部分的に入れ子にされた第3のアレイ396を示す。ある実施形態では、第1のアレイ392は、音響信号を受信し、第1の周波数範囲の周波数の音響画像データを生成するように構成され得る。第2のアレイ394は、音響信号を受信し、第2の周波数範囲の周波数の音響画像データを生成するために、第1のアレイ392の全部又は一部と共に使用することができる。第3のアレイ396は、音響信号を受信し、第3の周波数範囲の周波数の音響画像データを生成するために、単独で、第2のアレイ394の全部又は一部と共に、及び/又は第1のアレイ392の全部又は一部と共に使用することができる。 Similarly, FIG. 3C shows the first array 392, the second array 394 at least partially nested within the first array 392, and at least a portion within the first array 392 and the second array 394. A third array 396 nested in a targeted manner is shown. In certain embodiments, the first array 392 may be configured to receive an acoustic signal and generate acoustic image data for frequencies in the first frequency range. The second array 394 can be used in conjunction with all or part of the first array 392 to receive acoustic signals and generate acoustic image data for frequencies in the second frequency range. The third array 396 alone, with all or part of the second array 394, and / or the first, to receive the acoustic signal and generate acoustic image data for frequencies in the third frequency range. Can be used with all or part of the array 392 of.

ある実施形態では、入れ子にされたアレイ構成において、1つのアレイからの音響センサ要素は、例えば、一般に、第1のアレイ392の要素の間にある第3のアレイ396の要素のように、音響センサ要素の間に配置されることがある。あるそのような例では、入れ子にされたアレイ(例えば、第3のアレイ396)内の音響センサ要素は、それが入れ子にされているアレイ(例えば、第1のアレイ392)内の音響センサ要素と同じ平面、前、若しくは後ろに配置され得る。 In one embodiment, in a nested array configuration, the acoustic sensor elements from one array are acoustically, for example, generally like the elements of a third array 396 between the elements of the first array 392. May be placed between sensor elements. In one such example, the acoustic sensor element in the nested array (eg, the third array 396) is the acoustic sensor element in the array in which it is nested (eg, the first array 392). Can be placed on the same plane as, in front of, or behind.

様々な実装において、より高い周波数の音響信号を感知するために使用されるアレイは、一般に、個々のセンサ間のより短い距離を必要とする。したがって、図3Cに関して、例えば、第3のアレイ396は、高周波音響信号を含む音響撮像プロセスを実行するのにより適していることがある。他のセンサアレイ(例えば、第1のアレイ392)は、より低い周波数信号を含む音響撮像プロセスを実行するのに十分であることがあり、アレイ396と比較した場合、より少ない音響センサ要素からの信号を処理する計算要求を低減するために使用され得る。したがって、ある例では、高周波センサアレイは、低周波センサアレイ内に入れ子にされ得る。本明細書の他の個所で説明されているように、そのようなアレイは、一般に、個別に(例えば、アクティブなアレイ間の切り替えを介して)又は、一緒に作動し得る。 In various implementations, arrays used to sense higher frequency acoustic signals generally require shorter distances between individual sensors. Thus, with respect to FIG. 3C, for example, the third array 396 may be more suitable for performing an acoustic imaging process involving high frequency acoustic signals. Other sensor arrays (eg, first array 392) may be sufficient to perform an acoustic imaging process containing lower frequency signals and are from fewer acoustic sensor elements when compared to array 396. It can be used to reduce the computational demand to process the signal. Thus, in one example, the high frequency sensor array can be nested within the low frequency sensor array. As described elsewhere herein, such arrays can generally operate individually (eg, through switching between active arrays) or together.

分析のために予想される/望ましい周波数スペクトルに基づいて適切なセンサアレイを選択することに加えて、又は、その代わりに、ある例では、異なるセンサアレイが、ターゲットシーンまでの異なる距離で音響撮像プロセスを実行するのにより適していることがある。例えば、ある実施形態では、音響センサアレイとターゲットシーンとの間の距離が小さい場合、音響センサアレイ内の外側のセンサ要素は、より中央に配置されたセンサ要素よりも著しく少ない有用な音響情報をターゲットシーンから受信することがある。 In addition to or instead of selecting the appropriate sensor array based on the expected / desired frequency spectrum for analysis, in one example, different sensor arrays acoustically image at different distances to the target scene. It may be better suited to run the process. For example, in one embodiment, when the distance between the acoustic sensor array and the target scene is small, the outer sensor elements in the acoustic sensor array provide significantly less useful acoustic information than the more centrally located sensor elements. May be received from the target scene.

他方、音響センサアレイとターゲットシーンとの間の距離が大きい場合、近接して配置された音響センサ要素は、単独では有用な情報を提供しないことがある。すなわち、第1及び第2の音響センサ要素が互いに接近しており、ターゲットシーンが一般に遠くにある場合、第2の音響センサ要素は、第1の音響センサ要素と有意に異なる情報を提供しないことがある。したがって、そのような第1及び第2のセンサ要素からのデータストリームは冗長であり、分析のために処理時間及びリソースを不必要に消費することがある。 On the other hand, if the distance between the acoustic sensor array and the target scene is large, the acoustic sensor elements placed in close proximity may not provide useful information by themselves. That is, when the first and second acoustic sensor elements are close to each other and the target scene is generally far away, the second acoustic sensor element does not provide significantly different information than the first acoustic sensor element. There is. Therefore, the data streams from such first and second sensor elements are redundant and may unnecessarily consume processing time and resources for analysis.

本明細書の他の個所で説明するように、どのセンサアレイが音響撮像を実行するのに最も適しているかに影響を与えることに加えて、ターゲットまでの距離は、受信した音響信号から音響画像データを決定するためのバックプロパゲーションを実行する際にも使用できる。ただし、バックプロパゲーションアルゴリズムへの入力値であることに加えて、ターゲットまでの距離は、使用する適切なバックプロパゲーションアルゴリズムを選択するのに、使用し得る。例えば、ある例では、遠距離では、球形に伝搬する音波は、音響センサアレイのサイズと比較して実質的に平面であるように近似され得る。したがって、ある実施形態では、ターゲットまでの距離が大きい場合、受信した音響信号のバックプロパゲーションは、音響ビームフォーミング計算を含むことができる。ただし、音波の発生源に近い場合、音波の平面近似は適切でないことがある。したがって、近接場音響ホログラフィなど、種々のバックプロパゲーションアルゴリズムを使用し得る。 In addition to affecting which sensor array is most suitable for performing acoustic imaging, as described elsewhere herein, the distance to the target is the acoustic image from the received acoustic signal. It can also be used to perform backpropagation to determine data. However, in addition to being the input value to the backpropagation algorithm, the distance to the target can be used to select the appropriate backpropagation algorithm to use. For example, in one example, at long distances, a sound wave propagating in a sphere can be approximated to be substantially planar relative to the size of the acoustic sensor array. Thus, in certain embodiments, backpropagation of the received acoustic signal can include acoustic beamforming calculations if the distance to the target is large. However, if it is close to the source of the sound wave, the plane approximation of the sound wave may not be appropriate. Therefore, various backpropagation algorithms such as near-field acoustic holography can be used.

説明したように、ターゲットまでの距離メトリックは、アクティブなセンサアレイ(複数可)の決定、バックプロパゲーションアルゴリズムの決定、バックプロパゲーションアルゴリズムの実行、及び/又は、得られた音響画像を電磁画像データ(例えば、可視光、赤外線など)に重ね合わせることなど、音響撮像プロセスで様々な方法で使用できる。図7は、受信した音響信号から音響画像データを生成するための例示的なプロセスを示すプロセスフロー図である。 As described, the distance metric to the target is the determination of the active sensor array (s), the determination of the backpropagation algorithm, the execution of the backpropagation algorithm, and / or the obtained acoustic image as electromagnetic image data. It can be used in a variety of ways in acoustic imaging processes, such as overlaying on (eg, visible light, infrared light, etc.). FIG. 7 is a process flow diagram showing an exemplary process for generating acoustic image data from a received acoustic signal.

図7のプロセスは、例えば、距離測定装置から距離情報を受信すること(780)、若しくは、ユーザインタフェースを介してなど、入力された距離情報を受信することを含む。この方法は、受信した距離情報に基づいて音響撮像を実行するための一又はそれ以上の音響センサアレイ(複数可)を選択する工程(782)をさらに含む。説明したように、様々な例において、選択されたアレイは、単一のアレイ、複数のアレイの組み合わせ、あるいは一又はそれ以上のアレイの一部を含むことができる。 The process of FIG. 7 includes receiving distance information from, for example, a distance measuring device (780), or receiving input distance information, such as via a user interface. The method further comprises the step (782) of selecting one or more acoustic sensor arrays (s) for performing acoustic imaging based on the received distance information. As described, in various examples, the selected array can include a single array, a combination of multiple arrays, or a portion of one or more arrays.

図7の方法は、受信した距離情報に基づいて音響撮像を実行するための処理技術を選択する工程(784)をさらに含む。ある例では、処理技術の選択は、音響信号から音響画像データを生成するためのバックプロパゲーションアルゴリズムの選択を含むことができる。 The method of FIG. 7 further comprises the step (784) of selecting a processing technique for performing acoustic imaging based on the received distance information. In one example, the choice of processing technique can include the choice of backpropagation algorithm for generating acoustic image data from the acoustic signal.

音響撮像を実行するために、音響センサアレイを選択し(782)、そして、処理技術を選択した(784)後で、方法は、選択された音響センサアレイを介して音響信号を受信する工程(786)を含む。次に、受信した音響信号は、距離と選択された処理技術を使用してバックプロパゲーションされ、音響画像データを決定する(788)。 After selecting an acoustic sensor array (782) and selecting a processing technique (784) to perform acoustic imaging, the method is the step of receiving an acoustic signal via the selected acoustic sensor array (782). 786) is included. The received acoustic signal is then backpropagated using the distance and selected processing technique to determine the acoustic image data (788).

様々な実施形態では、図7の各工程は、ユーザ、音響分析システム(例えば、プロセッサ212を介して)、又はそれらの組み合わせによって実行することができる。例えば、ある実施形態では、プロセッサは、距離測定ツール及び/又はユーザ入力を介して距離情報を受信する(780)ように構成され得る。ある例では、例えば、物体までの距離が、既知であるか、及び/又は、距離測定ツールを介して分析することが困難である場合(例えば、小さい物体サイズ及び/又はターゲットまでの長い距離など)、ユーザは、距離情報として使用するために測定距離を上書きする値を入力することができる。プロセッサは、例えば、ルックアップテーブル又は他のデータベースを使用して、受信した距離情報に基づいて音響撮像を実行するために適切な音響センサアレイを自動的に選択するようにさらに構成され得る。ある実施形態では、音響センサアレイを選択することは、所望の音響センサアレイを利用するために、一又はそれ以上の音響センサ要素を有効化及び/又は無効化することを含む。 In various embodiments, each step of FIG. 7 can be performed by a user, an acoustic analysis system (eg, via processor 212), or a combination thereof. For example, in certain embodiments, the processor may be configured to receive distance information (780) via a distance measuring tool and / or user input. In one example, for example, if the distance to an object is known and / or difficult to analyze via a distance measuring tool (eg, a small object size and / or a long distance to a target, etc.). ), The user can enter a value that overrides the measured distance for use as distance information. The processor may be further configured, for example, using a look-up table or other database to automatically select the appropriate acoustic sensor array to perform acoustic imaging based on the distance information received. In certain embodiments, selecting an acoustic sensor array comprises enabling and / or disabling one or more acoustic sensor elements in order to utilize the desired acoustic sensor array.

同様に、ある例では、プロセッサは、受信した距離情報に基づいて音響撮像を実行するための処理技術(例えば、バックプロパゲーションアルゴリズム)を自動的に選択するように構成され得る。あるそのような例では、これは、メモリに記憶された複数の既知の処理技術から1つを選択することを含むことができる。その上若しくはそれとは別に、処理技術を選択することは、所望の処理技術に到達するために単一のアルゴリズムの一部を調整することになり得る。例えば、ある実施形態では、単一のバックプロパゲーションアルゴリズムは、(例えば、距離情報に基づいて)複数の項及び変数を含み得る。あるそのような例では、処理技術(784)を選択することは、一又はそれ以上の項の係数を調整する(例えば、様々な係数をゼロ又は1に設定するなど)など、単一のアルゴリズムにおいて一又はそれ以上の値を定義することを含み得る。 Similarly, in one example, the processor may be configured to automatically select a processing technique (eg, backpropagation algorithm) for performing acoustic imaging based on received distance information. In one such example, this can include selecting one from a plurality of known processing techniques stored in memory. On top of that, or separately, choosing a processing technique can result in the adjustment of part of a single algorithm to reach the desired processing technique. For example, in one embodiment, a single backpropagation algorithm may contain multiple terms and variables (eg, based on distance information). In one such example, selecting the processing technique (784) is a single algorithm, such as adjusting the coefficients of one or more terms (eg, setting various coefficients to zero or one). May include defining one or more values in.

したがって、ある実施形態では、音響撮像システムは、受信した距離データに基づいて、選択された音響センサアレイ及び/又は処理技術(例えば、バックプロパゲーションアルゴリズム)を提案及び/又は自動的に実装することによって、音響撮像プロセスのいくつかの工程を自動化することができる。これにより、音響撮像プロセスを高速化、改善、及び簡素化することができ、音響撮像プロセスを実行するための音響撮像の専門家が必要でなくなる。したがって、様々な例において、音響撮像システムは、そのようなパラメータを自動的に実装し、そのようなパラメータが実装されようとしていることをユーザに通知し、そのようなパラメータを実装する許可をユーザに求め、ユーザによる手動入力のためにそのようなパラメータを提案することができる。 Therefore, in one embodiment, the acoustic imaging system proposes and / or automatically implements a selected acoustic sensor array and / or processing technique (eg, backpropagation algorithm) based on the received distance data. Allows you to automate several steps in the acoustic imaging process. This allows the acoustic imaging process to be accelerated, improved, and simplified, eliminating the need for an acoustic imaging expert to perform the acoustic imaging process. Therefore, in various examples, the acoustic imaging system automatically implements such parameters, informs the user that such parameters are about to be implemented, and permits the user to implement such parameters. And can suggest such parameters for manual input by the user.

そのようなパラメータ(例えば、処理技術、センサアレイ)の自動選択及び/又は提案は、他の形態の画像データ、処理速度、及び音響画像データの分析に関して音響画像データの位置限定を最適化するのに有用であり得る。例えば、本明細書の他の個所で説明されるように、正確なバックプロパゲーション決定(例えば、適切なアルゴリズム及び/又は正確な距離メトリックを使用すること)は、音響画像データと他の(例えば、可視光、赤外線などの電磁)画像データとの間の視差エラーを低減することができる。さらに、音響分析システムによって自動的に選択又は提案され得るような適切なアルゴリズム及び/又はセンサアレイを利用することは、熱画像データの精度を最適化して、受信した音響データの分析を可能にし得る。 Automatic selection and / or proposals for such parameters (eg, processing techniques, sensor arrays) optimize the positioning of acoustic image data with respect to other forms of image data, processing speed, and analysis of acoustic image data. Can be useful for. For example, as described elsewhere herein, accurate backpropagation decisions (eg, using appropriate algorithms and / or accurate distance metrics) can be used for acoustic image data and other (eg, for example). , Visible light, infrared rays, etc.) It is possible to reduce the misalignment error with the image data. In addition, utilizing appropriate algorithms and / or sensor arrays that can be automatically selected or suggested by the acoustic analysis system may optimize the accuracy of the thermal image data and allow analysis of the received acoustic data. ..

説明したように、ある例では、音響分析システムは、受信した距離情報に基づいて音響撮像プロセスを実行するためのアルゴリズム及び/又はセンサアレイを自動的に選択するように構成され得る。あるそのような実施形態では、システムは、例えばメモリに記憶された、音響画像データを決定するための、複数のバックプロパゲーションアルゴリズム及び音響センサアレイのどれを使用するか決定するためのルックアップテーブルを含む。図8は、音響撮像プロセス中に使用するための適切なアルゴリズム及びセンサアレイを決定するための例示的なルックアップテーブルを示す。 As described, in one example, the acoustic analysis system may be configured to automatically select an algorithm and / or sensor array for performing an acoustic imaging process based on received distance information. In one such embodiment, the system looks up table to determine which of a plurality of backpropagation algorithms and acoustic sensor arrays to use, eg, stored in memory, to determine acoustic image data. including. FIG. 8 shows an exemplary look-up table for determining the appropriate algorithm and sensor array for use during the acoustic imaging process.

図示の例では、図8のルックアップテーブルは、それぞれが異なるアレイのアレイ1、アレイ2、…、アレイNを表すN個の列を含む。様々な例において、各アレイは、配置された音響センサ要素の固有のセットを含む。異なるアレイは、格子に配置されたセンサ要素を含み得る(例えば、図3Cのアレイ392及びアレイ396)。ルックアップテーブル内のアレイは、一又はそれ以上のそのような格子からのセンサ要素の組み合わせを含めることもできる。一般に、ある実施形態では、アレイ1、アレイ2、…、アレイNのそれぞれは、音響センサ要素の一意の組み合わせに対応する。そのような組み合わせのいくつかは、特定の格子に配置されたセンサ要素のセット全体を含むことができるか、若しくは、特定の格子に配置されたセンサ要素のサブセットを含むことができる。音響センサ要素の様々な組み合わせのいずれも、ルックアップテーブル内のセンサアレイとして使用するための可能な選択肢である。 In the illustrated example, the look-up table of FIG. 8 contains N columns, each representing an array 1, an array 2, ..., An array N of different arrays. In various examples, each array contains a unique set of placed acoustic sensor elements. Different arrays may include sensor elements arranged in a grid (eg, Array 392 and Array 396 in FIG. 3C). The array in the look-up table can also contain a combination of sensor elements from one or more such grids. In general, in one embodiment, each of Array 1, Array 2, ..., Array N corresponds to a unique combination of acoustic sensor elements. Some of such combinations can include the entire set of sensor elements arranged in a particular grid, or can include a subset of the sensor elements placed in a particular grid. Any of the various combinations of acoustic sensor elements are possible options for use as a sensor array in a look-up table.

図8のルックアップテーブルはM行をさらに含み、それぞれは異なるアルゴリズムのアルゴリズム1、アルゴリズム2、…、アルゴリズムMを表す。ある例では、異なるアルゴリズムは、受信した音響信号のバックプロパゲーション分析を実行するための異なるプロセスを含み得る。本明細書の他の個所で説明するように、ある例では、ある異なるアルゴリズムは、バックプロパゲーション結果を修正するための異なる係数及び/又は項を有しながら、互いに類似し得る。 The lookup table of FIG. 8 further includes M rows, each representing algorithm 1, algorithm 2, ..., Algorithm M of different algorithms. In one example, different algorithms may include different processes for performing backpropagation analysis of the received acoustic signal. As described elsewhere herein, in some examples, different algorithms may be similar to each other, with different coefficients and / or terms for modifying the backpropagation results.

図8の例示的なルックアップテーブルは、M×Nエントリを含む。ある実施形態では、そのようなルックアップテーブルを利用する音響分析システムは、受信した距離情報を分析し、距離情報をM×Nビンの1つに分類するように構成され、各ビンは、図8のルックアップテーブルのエントリに対応する。このような例では、音響分析システムが距離情報を受信すると、システムは、距離情報が存在するビンに対応するルックアップテーブルでエントリ(i、j)を見つけ、音響撮像プロセスの間に使用する適切なアルゴリズム及びセンサアレイを決定できる。例えば、受信した距離情報がエントリ(i、j)に関連付けられたビンに対応する場合、音響分析システムは、音響撮像プロセスのためにアルゴリズムiとアレイjの使用を自動的に利用又は提案できる。 The exemplary lookup table of FIG. 8 contains M × N entries. In one embodiment, an acoustic analysis system utilizing such a look-up table is configured to analyze the received distance information and classify the distance information into one of the M × N bins, where each bin is illustrated. Corresponds to 8 lookup table entries. In such an example, when the acoustic analysis system receives the distance information, the system finds an entry (i, j) in the look-up table corresponding to the bin in which the distance information resides and is suitable for use during the acoustic imaging process. Algorithms and sensor arrays can be determined. For example, if the received distance information corresponds to the bin associated with the entry (i, j), the acoustic analysis system can automatically utilize or suggest the use of algorithm i and array j for the acoustic imaging process.

様々なそのような例において、距離情報ビンは、均一なサイズの距離範囲に対応することができ、例えば、第1のビンは1フィート以内の距離に対応し、第2のビンは1〜2フィートの距離に対応するなどである。他の例では、ビンは均一なサイズの距離スパンに対応する必要はない。さらに、ある実施形態では、M×N未満のビンを使用することができる。例えば、ある実施形態では、特定のアレイ(例えば、アレイy)とともにこれまで使用されたことのないアルゴリズム(例えば、アルゴリズムx)が存在し得る。したがって、このような例では、M×Nルックアップテーブルのエントリ(x、y)に対応する、対応距離情報ビンはない。 In various such examples, the distance information bins can accommodate a range of uniform sizes, for example, the first bin corresponds to a distance within one foot and the second bin corresponds to 1-2. For example, it corresponds to the distance of feet. In another example, the bin does not have to accommodate uniform sized distance spans. Further, in certain embodiments, less than M × N bottles can be used. For example, in certain embodiments, there may be an algorithm (eg, algorithm x) that has never been used with a particular array (eg, array y). Therefore, in such an example, there is no corresponding distance information bin corresponding to the entry (x, y) of the M × N look-up table.

ある実施形態では、ポピュレートされた距離ビンに関する統計分析が使用されて、ターゲットシーン内で最も普通の距離又は距離範囲を特定することができる。あるそのような実施形態では、最大数の対応する位置(例えば、音響信号に関して最大数の位置)を有する距離ビンが、図7のプロセスにおける距離情報として使用されることがある。すなわち、ある実施形態では、利用された音響センサアレイ及び/又は処理技術は、ターゲットシーン内の様々な物体の距離分布の統計分析に基づいて実装及び/又は推奨され得る。これは、シーンの音響撮像に使用されるセンサアレイ及び/又は処理技術が、音響シーン内の最大数の位置に適切である蓋然性を高めることを可能にする。 In certain embodiments, statistical analysis of populated distance bins can be used to identify the most common distances or distance ranges within a target scene. In certain such embodiments, distance bins with a maximum number of corresponding positions (eg, the maximum number of positions with respect to an acoustic signal) may be used as distance information in the process of FIG. That is, in certain embodiments, the acoustic sensor array and / or processing technique utilized may be implemented and / or recommended based on statistical analysis of the distance distribution of various objects in the target scene. This makes it possible to increase the probability that the sensor array and / or processing technique used for acoustic imaging of the scene is appropriate for the maximum number of positions in the acoustic scene.

その上若しくはそれとは別に、距離情報以外のパラメータは、音響画像データの生成に使用する適切なセンサアレイ及び/又は処理技術を選択するために使用され得る。本明細書の他の個所で説明されているように、様々なセンサアレイは、特定の周波数及び/又は周波数帯域に好感度であるように構成され得る。ある例では、同様の異なるバックプロパゲーション計算が、異なる音響信号周波数コンテンツに従って使用され得る。したがって、ある例では、一又はそれ以上のパラメータが、処理技術及び/又は音響センサアレイを決定するために使用されることがある。 Moreover or separately, parameters other than distance information can be used to select the appropriate sensor array and / or processing technique to use for the generation of acoustic image data. As described elsewhere herein, various sensor arrays may be configured to be responsive to specific frequencies and / or frequency bands. In one example, similar different backpropagation calculations may be used according to different acoustic signal frequency content. Therefore, in some examples, one or more parameters may be used to determine the processing technique and / or the acoustic sensor array.

ある実施形態では、音響分析システムは、受信した音響信号処理/分析の様々なパラメータを最初に分析するために使用されることがある。図7に戻って参照すると、音響画像データを生成するための方法は、音響信号を受信した(786)後、受信信号の周波数コンテンツを分析する工程(790)を含むことができる。あるそのような例では、音響センサアレイ(複数可)及び/又は処理技術が選択されている場合(例えば、それぞれ工程782及び/又は784を介して)、方法は、分析された周波数コンテンツに基づいて、選択されたアレイ(複数可)を更新する、及び/又は、選択された処理技術を更新する工程(792)を含むことができる。 In certain embodiments, an acoustic analysis system may be used to initially analyze various parameters of received acoustic signal processing / analysis. Referring back to FIG. 7, the method for generating acoustic image data can include the step (790) of analyzing the frequency content of the received signal after receiving the acoustic signal (786). In one such example, if an acoustic sensor array (s) and / or processing techniques are selected (eg, via steps 782 and / or 784, respectively), the method is based on the analyzed frequency content. The step (792) of updating the selected array (s) and / or updating the selected processing technique can be included.

センサアレイ(複数可)及び/又は処理技術を更新した後、方法は更新されたパラメータを使用して様々なアクションを実行できる。例えば、選択されたセンサアレイが、分析された周波数コンテンツ(790)に基づいて更新された場合(792)、新しい音響信号は、(新たに)選択された音響センサアレイ(786)から受信することができ、その後、音響画像データを決定するためにバックプロパゲーションされることができる(788)。あるいは、処理技術が792で更新される場合、既に捕捉された音響信号は、更新された処理技術に従ってバックプロパゲーションされて、更新された音響画像データを決定することができる。処理技術とセンサアレイの両方が更新された場合、新しい音響信号は、更新されたセンサアレイを使用して受信されることができ、更新された処理技術に従ってバックプロパゲーションされることができる。 After updating the sensor array (s) and / or processing technology, the method can perform various actions using the updated parameters. For example, if the selected sensor array is updated based on the analyzed frequency content (790) (792), the new acoustic signal is received from the (newly) selected acoustic sensor array (786). Can then be backpropagated to determine the acoustic image data (788). Alternatively, if the processing technique is updated at 792, the already captured acoustic signal can be backpropagated according to the updated processing technique to determine the updated acoustic image data. If both the processing technology and the sensor array are updated, the new acoustic signal can be received using the updated sensor array and can be backpropagated according to the updated processing technology.

ある実施形態では、音響分析システムは、受信した音響信号の周波数コンテンツを分析すること(790)なく、周波数情報を受信すること(778)ができる。例えば、ある例では、音響分析システムは、将来の音響分析のために、所望の又は予想される周波数範囲に関する情報を受信することができる。あるそのような例では、所望の又は予想される周波数情報が、該周波数情報に最も適合する一又はそれ以上のセンサアレイ及び/又は処理技術を選択するために使用されることがある。あるそのような例では、音響センサアレイ(複数可)を選択する工程(782)及び/又は処理技術を選択する工程(784)は、受信した距離情報に加えて、又はその代わりに、受信周波数情報に基づくことがある。 In certain embodiments, the acoustic analysis system is capable of receiving frequency information (778) without analyzing the frequency content of the received acoustic signal (790). For example, in one example, the acoustic analysis system may receive information about the desired or expected frequency range for future acoustic analysis. In some such examples, the desired or expected frequency information may be used to select one or more sensor arrays and / or processing techniques that best fit the frequency information. In one such example, the step of selecting the acoustic sensor array (s) (782) and / or the step of selecting the processing technique (784) is in addition to or instead of the received distance information the received frequency. May be informed.

ある例では、受信した音響信号(例えば、音響センサ要素を介して受信した)は、例えば、音響分析システムのプロセッサ(例えば、210)を介して分析され得る。このような分析は、周波数、強度、周期性、見かけの近接度(例えば、受信した音響信号に基づいて推定される距離)、測定された近接度、若しくは、それらの任意の組み合わせなど、音響信号の一又はそれ以上の特性を決定するために使用されることがある。ある例では、音響画像データは、例えば、特定の周波数コンテンツ、周期性などを有する音響信号を表す音響画像データのみを表示するために、フィルタ処理されることがある。ある例では、そのようなフィルタをいくつでも同時に適用することができる。 In one example, the received acoustic signal (eg, received via an acoustic sensor element) may be analyzed, for example, via a processor in an acoustic analysis system (eg, 210). Such analysis includes acoustic signals such as frequency, intensity, periodicity, apparent proximity (eg, distance estimated based on the received acoustic signal), measured proximity, or any combination thereof. May be used to determine one or more properties. In some examples, the acoustic image data may be filtered to display, for example, only the acoustic image data representing the acoustic signal having a particular frequency content, periodicity, and the like. In one example, any number of such filters can be applied at the same time.

本明細書の他の個所で説明するように、ある実施形態では、音響ビデオデータと同様に、音響画像データの一連のフレームが経時的に取り込むことがある。その上若しくはそれとは別に、音響画像データが繰り返し生成されない場合でも、ある例では、音響信号が繰り返しサンプリングされ、分析される。したがって、繰り返される音響画像データ生成(例えば、ビデオ)の有無にかかわらず、周波数などの音響データのパラメータが経時的に監視され得る。 As described elsewhere herein, in certain embodiments, a series of frames of acoustic image data may be captured over time, similar to acoustic video data. Moreover, or separately, the acoustic signal is repeatedly sampled and analyzed in some cases, even if the acoustic image data is not repeatedly generated. Therefore, parameters of acoustic data such as frequency can be monitored over time with or without repeated acoustic image data generation (eg, video).

図9Aは、音響シーンにおける経時的な受信した画像データの周波数コンテンツの例示的なプロットである。図示されるように、図9Aのプロットによって表される音響シーンは、一般に、周波数1、周波数2、周波数3、及び周波数4としてラベル付けされた、経時的な4つの持続周波数を含む。ターゲットシーンの周波数コンテンツなどの周波数データは、例えば、高速フーリエ変換(FFT)又は他の既知の周波数分析方法を使用して、受信した音響信号を処理することによって、決定され得る。 FIG. 9A is an exemplary plot of frequency content of received image data over time in an acoustic scene. As shown, the acoustic scene represented by the plot of FIG. 9A generally includes four sustained frequencies over time, labeled as frequency 1, frequency 2, frequency 3, and frequency 4. Frequency data, such as the frequency content of the target scene, can be determined, for example, by processing the received acoustic signal using the Fast Fourier Transform (FFT) or other known frequency analysis method.

図9Bは、音響信号を放出する複数の位置を含む例示的なシーンを示す。図示の画像では、音響画像データが可視光画像データと組み合わされて、位置910、920、930、及び940に存在する音響信号を示している。ある実施形態では、音響分析システムは、任意の検出された周波数範囲の音響画像データを表示するように構成されている。例えば、例示的な実施形態では、位置910は、周波数1を含む音響画像データを含み、位置920は、周波数2を含む音響画像データを含み、位置930は、周波数3を含む音響画像データを含み、位置940は、周波数4を含む音響画像データを含む。 FIG. 9B shows an exemplary scene that includes multiple positions that emit acoustic signals. In the illustrated image, the acoustic image data is combined with the visible light image data to show the acoustic signals present at positions 910, 920, 930, and 940. In certain embodiments, the acoustic analysis system is configured to display acoustic image data in any detected frequency range. For example, in an exemplary embodiment, position 910 includes acoustic image data including frequency 1, position 920 contains acoustic image data including frequency 2, and position 930 contains acoustic image data including frequency 3. , Position 940 contains acoustic image data including frequency 4.

あるそのような例では、音響画像データの代表的な周波数範囲を表示することは、選択可能な動作モードである。同様に、ある実施形態では、音響分析システムは、所定の周波数帯域内の周波数のみを表す音響画像データを表示するように構成される。あるそのような例では、所定の周波数範囲を表す音響画像データを表示することは、そこから音響画像データを生成するための音響信号を受信するための一又はそれ以上の音響センサアレイを選択することを含む。このようなアレイは、選択的な周波数範囲を受信するように構成され得る。同様に、ある例では、一又はそれ以上のフィルタが、音響画像データを生成するために使用される周波数コンテンツを制限するために、使用されることがある。その上若しくはそれとは別に、ある実施形態では、広範囲の周波数を表す情報を含む音響画像データが分析され、音響画像データが所定の条件(例えば、所定の周波数範囲内にある)を満たす場合にのみ、ディスプレイに表示することができる。 In one such example, displaying a representative frequency range of acoustic image data is a selectable mode of operation. Similarly, in certain embodiments, the acoustic analysis system is configured to display acoustic image data representing only frequencies within a predetermined frequency band. In one such example, displaying acoustic image data representing a given frequency range selects one or more acoustic sensor arrays for receiving acoustic signals from which acoustic image data is generated. Including that. Such an array may be configured to receive a selective frequency range. Similarly, in some examples, one or more filters may be used to limit the frequency content used to generate acoustic image data. On top of that, or separately, in certain embodiments, acoustic image data containing information representing a wide range of frequencies is analyzed and only if the acoustic image data meets certain conditions (eg, within a given frequency range). , Can be shown on the display.

図9Cは、複数の事前定義された周波数範囲での複数の組み合わされた音響及び可視光画像データを示している。第1の画像は、周波数1の周波数コンテンツを含む第1の位置910での音響画像データを含んでいる。第2の画像は、周波数2の周波数コンテンツを含む第2の位置920での音響画像データを含んでいる。第3の画像は、周波数3の周波数コンテンツを含む第3の位置930での音響画像データを含んでいる。第4の画像は、周波数4の周波数コンテンツを含む第4の位置940での音響画像データを含んでいる。 FIG. 9C shows a plurality of combined acoustic and visible light image data over a plurality of predefined frequency ranges. The first image contains acoustic image data at a first position 910 that includes frequency content of frequency 1. The second image contains acoustic image data at a second position 920 that includes frequency content of frequency 2. The third image contains acoustic image data at a third position 930 that includes frequency content at frequency 3. The fourth image contains acoustic image data at a fourth position 940 that includes frequency content at frequency 4.

例示的な実施形態では、ユーザは、選択された周波数範囲以外の周波数コンテンツを表す音響画像データをフィルタ処理するために、周波数1、周波数2、周波数3、又は周波数4を含む範囲などの様々な周波数範囲を選択することができる。したがって、そのような例では、第1、第2、第3、又は第4の画像のいずれかが、ユーザによって選択された所望の周波数範囲の結果として表示され得る。 In an exemplary embodiment, the user has a variety of ranges including frequency 1, frequency 2, frequency 3, or frequency 4 to filter acoustic image data representing frequency content outside the selected frequency range. You can select the frequency range. Thus, in such an example, any of the first, second, third, or fourth images may be displayed as a result of the desired frequency range selected by the user.

その上若しくはそれとは別に、ある例では、音響分析システムは、それぞれが異なる周波数コンテンツを有する複数のディスプレイ画像間を循環表示し得る。例えば、図9Cに関して、例示的な実施形態では、音響分析システムは、図9Cの矢印によって示されるような、第1、第2、第3、及び第4の画像を表示することができる。 On or apart from that, in one example, the acoustic analysis system may cyclically display between multiple display images, each with different frequency content. For example, with respect to FIG. 9C, in an exemplary embodiment, the acoustic analysis system can display the first, second, third, and fourth images as indicated by the arrows in FIG. 9C.

ある例では、ディスプレイ画像は、画像に表示されている周波数コンテンツを表すテキスト又は他の表示を含むことができ、ユーザは、画像内のどの位置が特定の周波数コンテンツを表す音響画像データを含むかを観察できる。例えば、図9Cに関して、各画像は、音響画像データで表される周波数のテキスト表現を示し得る。図9Bに関して、複数の周波数範囲を示す画像は、音響画像データを含む各位置での周波数コンテンツの表示を含み得る。あるそのような例では、ユーザは、例えば、ユーザインタフェースを介して画像内の位置を選択することができ、その位置に存在する周波数コンテンツを音響シーンで見ることがある。例えば、ユーザは、第1の位置910を選択することがあり、音響分析システムは、第1の位置の周波数コンテンツ(例えば、周波数1)を提示し得る。したがって、様々な例において、シーン内のどこが特定の周波数コンテンツに対応するかを見ることによって、及び/又は、様々な位置にどの周波数コンテンツが存在するかを見ることによってなど、ユーザは音響シーンの周波数コンテンツを分析するために音響分析システムを使用することができる。 In one example, the display image may include text or other display representing the frequency content displayed in the image, and the user may include acoustic image data representing which position in the image represents the particular frequency content. Can be observed. For example, with respect to FIG. 9C, each image may indicate a textual representation of the frequency represented by the acoustic image data. With respect to FIG. 9B, an image showing a plurality of frequency ranges may include display of frequency content at each position including acoustic image data. In one such example, the user may, for example, select a position in the image via the user interface and view the frequency content present at that position in the acoustic scene. For example, the user may select the first position 910 and the acoustic analysis system may present the frequency content of the first position (eg, frequency 1). Thus, in various examples, the user can see where in the scene corresponds to a particular frequency content, and / or by seeing which frequency content exists at different locations, and so on. An acoustic analysis system can be used to analyze frequency content.

例示的な音響撮像操作中に、周波数によって音響画像データをフィルタ処理することは、例えば、背景若しくは他の重要でない音からの画像クラッタを低減するのに役立ち得る。例示的な音響撮像手順では、ユーザは、産業環境におけるフロアノイズなどの背景音を除去したいと希望することがある。あるそのような例では、バックグラウンドノイズは主に低周波ノイズを含み得る。したがって、ユーザは、所定の周波数(例えば、10kHz)より大きい音響信号を表す音響画像データを表示することを選択し得る。別の例では、ユーザは、(例えば、図5A〜図D5に示されるように)伝送線路からのコロナ放電など、特定の範囲内の音響信号を一般に放出する特定の物体を分析したいと思うことがある。そのような例では、ユーザは、音響撮像のために特定の周波数範囲(例えば、コロナ放電の場合は11kHz〜14kHz)を選択し得る。 Filtering acoustic image data by frequency during an exemplary acoustic imaging operation can help reduce image clutter, for example from the background or other non-essential sounds. In an exemplary acoustic imaging procedure, the user may wish to remove background sounds such as floor noise in an industrial environment. In one such example, background noise may primarily include low frequency noise. Therefore, the user may choose to display acoustic image data that represents an acoustic signal that is greater than a predetermined frequency (eg, 10 kHz). In another example, the user wants to analyze a particular object that generally emits an acoustic signal within a particular range, such as a corona discharge from a transmission line (eg, as shown in FIGS. 5A-5D). There is. In such an example, the user may select a specific frequency range (eg, 11 kHz to 14 kHz for corona discharge) for acoustic imaging.

ある例では、音響分析システムは、受信した音響信号の強度に関連する情報を分析及び/又は提示するために、使用されることがある。例えば、ある実施形態では、受信した音響信号をバックプロパゲーションすることは、音響シーン内の複数の位置での音響強度値を決定することを含むことができる。ある例では、上記の周波数と同様に、音響信号の強度が一又はそれ以上の所定の要件を満たす場合にのみ、音響画像データがディスプレイ画像に含まれる。 In some examples, an acoustic analysis system may be used to analyze and / or present information related to the strength of the received acoustic signal. For example, in one embodiment, backpropagating a received acoustic signal can include determining acoustic intensity values at multiple locations within the acoustic scene. In one example, similar to the frequencies mentioned above, the acoustic image data is included in the display image only if the intensity of the acoustic signal meets one or more predetermined requirements.

様々なそのような実施形態では、ディスプレイ画像は、所定の閾値(例えば、15dB)を超える音響信号、所定の閾値(例えば、100dB)を下回る音響信号、又は所定の強度範囲内の音響信号(例えば、15dB〜40dB)を表す音響画像データを含むことができる。ある実施形態では、閾値は、平均音響強度からの標準偏差より上か、又は、下など、音響シーンの統計分析に基づくことができる。 In various such embodiments, the display image is an acoustic signal above a predetermined threshold (eg, 15 dB), below a predetermined threshold (eg, 100 dB), or within a predetermined intensity range (eg, 100 dB). , 15 dB to 40 dB) can include acoustic image data. In certain embodiments, the threshold can be based on a statistical analysis of the acoustic scene, such as above or below the standard deviation from the average acoustic intensity.

周波数情報に関して上記と同様に、ある実施形態では、一又はそれ以上の強度要件を満たす音響信号を表すように音響画像データを制限することは、所定の条件を満たす受信信号のみが音響画像データを生成するために使用されるように、受信した音響信号をフィルタ処理することを含むことができる。他の例では、音響画像データは、どの音響画像データが表示されるかを調整するためにフィルタ処理される。 Similar to the above with respect to frequency information, in certain embodiments, limiting the acoustic image data to represent an acoustic signal that meets one or more intensity requirements means that only the received signal that meets the predetermined conditions will have the acoustic image data. It can include filtering the received acoustic signal as used to generate it. In another example, the acoustic image data is filtered to adjust which acoustic image data is displayed.

その上若しくはそれとは別に、ある実施形態では、(例えば、ビデオ音響画像表現と組み合わせて、又は、必ずしもディスプレイ画像を更新することなく背景分析を介して)、音響シーン内の位置での音響強度が経時的に監視され得る。あるそのような例では、音響画像データを表示するための所定の要件は、画像内のある位置での音響強度の変化の量又は率を含み得る。 Moreover or separately, in certain embodiments (eg, in combination with a video-acoustic image representation or through background analysis without necessarily updating the display image), the acoustic intensity at a position within the acoustic scene. Can be monitored over time. In one such example, certain requirements for displaying acoustic image data may include the amount or rate of change in acoustic intensity at a location in the image.

図10A及び10Bは、組み合わされた可視光画像データ及び音響画像データを含む例示的なディスプレイ画像である。図10Aは、複数の位置1010、1020、1030、1040、1050、1060、1070、1080、及び1090で示される音響画像データを含むディスプレイ画像を示している。ある例では、強度値は調色されることができ、例えば、音響強度値は、所定の調色技術に基づいて色を割り当てられる。例示的な実施形態では、強度値は、強度範囲(例えば、10dB〜20dB、20dB〜30dBなど)に従って分類され得る。各強度範囲は、調色技術に従って特定の色に関連付けられ得る。音響画像データは、複数のピクセルを含むことができ、各ピクセルは、音響画像データのピクセルによって表される強度が入る強度範囲に関連する色で着色される。色によって区別されることに加えて、又はその代わりに、異なる強度は、(例えば、音響画像データが他の画像データにオーバレイされる画像オーバレイにおいて)透明度などの他の特性に従って区別することができる。 10A and 10B are exemplary display images containing combined visible light image data and acoustic image data. FIG. 10A shows a display image containing acoustic image data shown at multiple positions 1010, 1020, 1030, 1040, 1050, 1060, 1070, 1080, and 1090. In one example, the intensity value can be toned, for example, the acoustic intensity value is assigned a color based on a predetermined toning technique. In an exemplary embodiment, the intensity values can be classified according to the intensity range (eg, 10 dB to 20 dB, 20 dB to 30 dB, etc.). Each intensity range can be associated with a particular color according to toning techniques. The acoustic image data can include multiple pixels, and each pixel is colored with a color associated with the intensity range that contains the intensity represented by the pixels of the acoustic image data. In addition to or instead of being distinguished by color, different intensities can be distinguished according to other properties such as transparency (eg, in an image overlay where acoustic image data is overlaid with other image data). ..

音響強度の変化率など、別のパラメータも調色されることがある。強度と同様に、音響強度の変化率の変化は、音響強度変化の異なる率及び/又は量を示すシーンの部分が異なる色で表示されるように、調色することができる。 Other parameters, such as the rate of change in acoustic intensity, may also be toned. Similar to the intensity, the change in the rate of change in acoustic intensity can be toned so that parts of the scene showing different rates and / or amounts of change in acoustic intensity are displayed in different colors.

図示の例では、音響画像データは、強度パレットに従って調色され、その結果、異なる音響信号強度を表す音響画像データは、異なる色及び/又は陰影で示される。例えば、位置1010及び1030での音響画像データは、第1の強度の調色された表現を示し、位置1040、1060、及び1080は、第2の強度の調色された表現を示し、位置1020、1050、1070、及び1090は、第3の強度の調色された表現を示している。図10Aの例示的な表現に示されるように、音響画像データの調色された表現を示す各位置は、中心から外側に延びる色のグラデーションを有する円形パターンを示している。これは、信号が音響信号の発生源から伝播するときの音響強度の減衰が原因であることがある。 In the illustrated example, the acoustic image data is toned according to the intensity palette, so that the acoustic image data representing different acoustic signal intensities is shown in different colors and / or shading. For example, the acoustic image data at positions 1010 and 1030 show a toned representation of the first intensity, positions 1040, 1060, and 1080 show a toned representation of the second intensity, and positions 1020. 1050, 1070, and 1090 indicate a toned representation of the third intensity. As shown in the exemplary representation of FIG. 10A, each position showing the toned representation of the acoustic image data shows a circular pattern with a color gradation extending outward from the center. This may be due to the attenuation of the acoustic intensity as the signal propagates from the source of the acoustic signal.

図10Aの例では、音響画像データは、可視光画像データと組み合わされて、ディスプレイ画像を生成し、これは、例えば、ディスプレイを介してユーザに提示され得る。ユーザは、可視シーン内のどの位置が音響信号を生成しているか、並びに、そのような信号の強度を見るために、図10Aのディスプレイ画像を見ることができる。したがって、ユーザは、どの位置が音を発しているのかを迅速かつ容易に観察し、シーン内の様々な位置から来る音の強度を比較し得る。 In the example of FIG. 10A, the acoustic image data is combined with the visible light image data to generate a display image, which can be presented to the user, for example, via a display. The user can see the display image of FIG. 10A to see which position in the visible scene is producing the acoustic signal and the intensity of such signal. Therefore, the user can quickly and easily observe which position is producing the sound and compare the intensities of the sounds coming from different positions in the scene.

本明細書の他の個所で周波数に関して説明したのと同様に、ある実施形態では、音響画像データは、対応する音響信号が所定の強度条件を満たす場合にのみ提示され得る。図10Bは、図10Aのディスプレイ画像と同様に例示的なディスプレイ画像を示し、可視光画像データ及び所定の閾値を超える音響信号を表す音響画像を含む。図示されるように、音響画像データを含む図10Aの位置1010、1020、1030、1040、1050、1060、1070、1080、及び1090のうち、位置1020、1050、1070、及び1090のみが、所定の条件を満たす音響信号を表す音響画像データを含んでいる。 Similar to those described with respect to frequency elsewhere herein, in certain embodiments, acoustic image data may only be presented if the corresponding acoustic signal meets certain intensity conditions. FIG. 10B shows an exemplary display image similar to the display image of FIG. 10A, and includes visible light image data and an acoustic image representing an acoustic signal that exceeds a predetermined threshold. As shown, of the positions 1010, 1020, 1030, 1040, 1050, 1060, 1070, 1080, and 1090 of FIG. 10A containing the acoustic image data, only the positions 1020, 1050, 1070, and 1090 are predetermined. It contains acoustic image data representing an acoustic signal that satisfies the conditions.

例示的なシナリオでは、図10Aは、位置1010〜990のそれぞれでノイズフロア閾値を超えるすべての音響画像データを含むことができ、一方、図10Bは、図10Aと同じシーンを示すが、40dBを超える強度を有する音響画像データのみを示す。これは、環境内(例えば、図10A及び10Bのターゲットシーン内)のどの音源が特定の音(例えば、シーン内で最も大きな音)に寄与しているのかをユーザが特定するのを役立たせることを可能にする。 In an exemplary scenario, FIG. 10A can contain all acoustic image data above the noise floor threshold at each of positions 110-990, while FIG. 10B shows the same scene as FIG. 10A, but with 40 dB. Only acoustic image data with greater intensity is shown. This helps the user identify which sound source in the environment (eg, in the target scene of FIGS. 10A and 10B) contributes to a particular sound (eg, the loudest sound in the scene). Enables.

本明細書の他の位置で説明されるように、強度閾値(例えば、40dB)と直接比較されることに加えて、又はその代わりに、あるそのような例では、音響画像データを表示するための所定の要件は、画像内のある位置での音響強度の変化の量又は率を含むことがある。あるそのような例では、音響画像データは、所与の位置での音響強度の変化率又は変化量が所定の条件を満たす場合(例えば、閾値よりも大きい、閾値よりも小さい、所定の範囲内など)にのみ提示され得る。ある実施形態では、音響強度の変化の量又は率は、強度音響画像データとして、又は、強度音響画像データと組み合わせて、調色して表示することができる。例えば、例示的な実施形態では、変化率が、音響画像データを含む位置を決定するための閾値として使用される場合、音響画像データは、表示のための調色された強度変化率メトリックを含むことができる。 In addition to, or instead, in direct comparison with an intensity threshold (eg, 40 dB), as described elsewhere herein, to display acoustic image data in some such examples. Certain requirements may include the amount or rate of change in acoustic intensity at a location in the image. In one such example, the acoustic image data is within a predetermined range, where the rate of change or amount of change in acoustic intensity at a given position meets certain conditions (eg, greater than or equal to the threshold, less than or equal to the threshold). Etc.) can only be presented. In certain embodiments, the amount or rate of change in acoustic intensity can be toned and displayed as intensity acoustic image data or in combination with intensity acoustic image data. For example, in an exemplary embodiment, where the rate of change is used as a threshold for determining the position containing the acoustic image data, the acoustic image data includes a toned intensity rate of change metric for display. be able to.

ある例では、ユーザは、表示される音響画像データの強度要件(例えば、最小値、最大値、範囲、変化率、変化量など)を手動で設定し得る。ここの他の場所で論じられるように、この強度要件を満たすのみ音響画像データを含むことは、音響画像データ生成中に(例えば、受信した音響信号をフィルタ処理することによって)達成することができ、及び/又は、設定された要件(複数可)を満たさない音響信号を表す生成された音響画像データを表示しないことによって実行できる。あるそのような例では、強度値に従ってディスプレイ画像をフィルタ処理することは、音響画像データ及び可視光画像データが取り込まれ、メモリに記憶された後に実行され得る。すなわち、メモリに記憶されたデータは、例えば、事前定義された強度条件を満たす音響画像データのみを表示するなど、任意の数のフィルタ処理パラメータを含むディスプレイ画像を生成するために使用することができる。 In one example, the user may manually set the intensity requirements for the displayed acoustic image data (eg, minimum, maximum, range, rate of change, amount of change, etc.). As discussed elsewhere here, including only acoustic image data that meets this intensity requirement can be achieved during acoustic image data generation (eg, by filtering the received acoustic signal). , And / or by not displaying the generated acoustic image data representing the acoustic signal that does not meet the set requirements (s). In one such example, filtering the display image according to the intensity value may be performed after the acoustic and visible light image data have been captured and stored in memory. That is, the data stored in memory can be used to generate a display image that includes any number of filtering parameters, for example displaying only acoustic image data that satisfies a predefined intensity condition. ..

ある例では、音響画像の強度の下限を設定すること(例えば、所定の強度を超える音響信号を表す音響画像データのみを表示すること)は、音響画像データから望ましくないバックグラウンド又は周囲の音及び/又は音の反射を含むことを排除することができる。他の例では、音響画像の強度の上限を設定すること(例えば、所定の強度未満の音響信号を表す音響画像データのみを表示すること)は、大きな音で通常隠されている音響信号を観察するために、音響画像データに予想されるそのような大きな音を含めることを排除することができる。 In one example, setting a lower bound on the intensity of an acoustic image (eg, displaying only acoustic image data that represents an acoustic signal that exceeds a given intensity) is an undesired background or ambient sound from the acoustic image data. / Or the inclusion of sound reflections can be excluded. In another example, setting an upper bound on the intensity of an acoustic image (eg, displaying only acoustic image data representing an acoustic signal below a given intensity) observes an acoustic signal that is normally hidden by loud noise. Therefore, it is possible to exclude the inclusion of such loud sounds expected in the acoustic image data.

いくつかの表示機能が可能である。例えば、図9Cに関して説明した周波数分析/表示と同様に、ある例では、音響分析システムは、それぞれが異なる強度要件を満たす音響画像データを示す複数のディスプレイ画像を循環表示することができる。同様に、ある例では、ユーザは、所与の範囲の音響強度を有する音響画像データ内の位置を見るために、一連の音響強度範囲をスクロールし得る。 Several display functions are possible. For example, similar to the frequency analysis / display described with respect to FIG. 9C, in one example, the acoustic analysis system may cyclically display a plurality of display images, each showing acoustic image data satisfying different intensity requirements. Similarly, in one example, the user may scroll through a set of acoustic intensity ranges to see positions within acoustic image data that have a given range of acoustic intensity.

音響データの分析に使用できるもう1つのパラメータは、音響信号の周期性値である。図11A及び11Bは、音響シーンにおける音響データの周波数対時間の例示的なプロットを示す。図11Aのプロットに示されるように、音響データは、第1の周期性を有する周波数Xの信号、第2の周期性を有する周波数Yの信号、及び第3の周期性を有する周波数Zの信号を含む。図示の例では、異なる周波数を有する音響信号は、また、音響信号に異なる周期性を含むこともある。 Another parameter that can be used to analyze acoustic data is the periodicity value of the acoustic signal. 11A and 11B show exemplary plots of frequency vs. time of acoustic data in an acoustic scene. As shown in the plot of FIG. 11A, the acoustic data is a frequency X signal having a first periodicity, a frequency Y signal having a second periodicity, and a frequency Z signal having a third periodicity. including. In the illustrated example, acoustic signals with different frequencies may also contain different periodicities in the acoustic signal.

あるそのような例では、音響信号は、周波数コンテンツに加えて、又はその代わりに周期性に基づいてフィルタ処理することができる。例えば、ある例では、音響シーン内の音響信号の複数の発生源が、特定の周波数で音響信号を生成することがある。ユーザが音響撮像のためにそのような音源の1つを分離したい場合、ユーザは、音響データに関連する周期性に基づいて、音響画像データを最終ディスプレイ画像に含めるか除外するかを選択し得る。 In one such example, the acoustic signal can be filtered based on periodicity in addition to or instead of frequency content. For example, in one example, multiple sources of an acoustic signal in an acoustic scene may generate an acoustic signal at a particular frequency. If the user wants to isolate one of such sources for acoustic imaging, the user may choose to include or exclude the acoustic image data in the final display image based on the periodicity associated with the acoustic data. ..

図11Bは、音響信号の周波数対時間のプロットを示す。図示されているように、周波数は時間と共にほぼ直線的に増加する。ただし、図示されているように、信号には時間の経過と共にほぼ一定の周期性が含まれる。したがって、そのような信号は、選択された表示パラメータに応じて、音響画像に現れるか、若しくは現れないことがある。例えば、信号は、ある時点で表示される周波数基準を満たしているが、他の時点では、表示される周波数範囲外にあることがある。しかしながら、ユーザは、周波数コンテンツに関係なく、信号の周期性に基づいて、そのような信号を含めるか、又は、音響画像データから除外するかを選択することができる。 FIG. 11B shows a plot of the frequency vs. time of the acoustic signal. As shown, the frequency increases almost linearly over time. However, as shown, the signal contains a nearly constant periodicity over time. Therefore, such signals may or may not appear in the acoustic image, depending on the display parameters selected. For example, the signal may meet the frequency reference displayed at one point in time, but may be outside the displayed frequency range at another point in time. However, the user can choose to include or exclude such signals from the acoustic image data, based on the periodicity of the signal, regardless of the frequency content.

ある例では、特定の周期性の音響信号を抽出することは、ターゲットシーンの特定の部分(例えば、通常特定の周期性で動作する特定の装置又は装置のタイプ)を分析するのに役立ち得る。例えば、目標のある物体が特定の周期性(例えば、1秒に1回)で動作する場合、これとは異なる周期性を持つ信号を除外することは、目標の物体の音響分析を改善できる。例えば、図11Bを参照すると、目標のある物体が周期性4で動作する場合、分析のために周期性4を有する信号を分離することは、目標のある物体の改善された分析を生じさせることがある。例えば、目標のある物体は、周期性4を有するが、図11Bに示されるように周波数が増加する音を発し得る。これは、物体の特性が変化している(例えば、トルクや負荷の増加など)可能性があることを意味していることがあり、点検する必要がある。 In one example, extracting an acoustic signal of a particular periodicity can help analyze a particular part of the target scene (eg, a particular device or type of device that normally operates with a particular periodicity). For example, if an object with a target operates at a specific periodicity (eg, once per second), excluding signals with a different periodicity can improve the acoustic analysis of the target object. For example, referring to FIG. 11B, if a target object operates with periodicity 4, separating the signal with periodicity 4 for analysis results in an improved analysis of the target object. There is. For example, an object with a target may have a periodicity of 4, but may emit a sound with increasing frequency, as shown in FIG. 11B. This may mean that the properties of the object may have changed (eg, increased torque or load) and should be inspected.

例示的な音響撮像プロセスでは、(例えば、産業環境でのフロアノイズ、屋外環境での風などの)バックグラウンドノイズは一般に周期的ではないが、シーン内の目標のある特定の物体は周期的な音響信号を放出する(例えば、一定の間隔で動作する機械)。したがって、ユーザは、バックグラウンド信号を除去し、目標の音響データをより明確に提示するために、音響画像から非周期的な音響信号を除外することを選択し得る。他の例では、ユーザは、一定のトーンの発生源を見つけようとすることがあり、したがって、一定のトーンの表示を不明瞭にすることがある音響画像データから周期信号を除外することを選択し得る。一般に、ユーザは、特定の周期性より上、特定の周期性より下、若しくは周期性の所望の範囲内にある音響信号を音響画像データに含めることを選択し得る。様々な例において、周期性は、周期的信号間の時間の長さ、若しくは周期的信号の発生頻度のいずれかによって特定され得る。図11Bに示される周波数と同様に、所与の周期性での強度の分析(例えば、その周期性で動作する目標のある物体による)が、物体からの音響信号が時間と共にどのように変化するかを追跡するために、使用されることがある。一般に、ある実施形態では、周期性は、周波数、強度などの様々なパラメータの変化率分析を実行するために、使用され得る。 In an exemplary acoustic imaging process, background noise (eg, floor noise in an industrial environment, wind in an outdoor environment, etc.) is generally not periodic, but certain objects with targets in the scene are periodic. Emit an acoustic signal (eg, a machine that operates at regular intervals). Therefore, the user may choose to exclude the aperiodic acoustic signal from the acoustic image in order to remove the background signal and present the target acoustic data more clearly. In another example, the user may try to find the source of a constant tone and therefore choose to exclude the periodic signal from the acoustic image data which may obscure the display of the constant tone. Can be. In general, the user may choose to include the acoustic signal in the acoustic image data above the specific periodicity, below the specific periodicity, or within the desired range of periodicity. In various examples, periodicity can be specified either by the length of time between the periodic signals or by the frequency of occurrence of the periodic signals. Similar to the frequency shown in FIG. 11B, an analysis of intensity at a given periodicity (eg, with a target object operating at that periodicity) shows how the acoustic signal from the object changes over time. May be used to track the frequency. In general, in certain embodiments, periodicity can be used to perform rate of change analysis of various parameters such as frequency, intensity and the like.

本明細書の他の個所で説明するように、ある例では、ターゲットシーンの様々な部分は、音響撮像センサからの異なる距離に関連付けられることができる。例えば、ある実施形態では、距離情報は、シーン内の様々な部分に関する3次元の深さ情報を含むことができる。その上若しくはそれとは別に、ユーザは、シーン内の複数の位置に関連付けられた距離値を(例えば、レーザ距離ツールで)測定するか、若しくは手動で入力することができることがある。ある例では、シーンの様々な部分のそのような異なる距離値は、そのような位置でのバックプロパゲーション計算を調整して、その位置での特定の距離値に対応するために、使用され得る。 As described elsewhere herein, in one example, different parts of the target scene can be associated with different distances from the acoustic imaging sensor. For example, in certain embodiments, the distance information can include three-dimensional depth information about various parts of the scene. On top of that, or separately, the user may be able to measure distance values associated with multiple locations in the scene (eg, with a laser distance tool) or manually enter them. In one example, such different distance values for different parts of the scene can be used to adjust the backpropagation calculation at such a position to accommodate a particular distance value at that position. ..

その上若しくはそれとは別に、シーンの異なる部分が異なる距離値に関連付けられている場合、音響センサアレイからの近接度(例えば、測定された近接度及び/又は見かけの近接度)は、そのような部分間の別の区別可能なパラメータであり得る。例えば、図10Bに関して、位置1020、1050、1070、及び1090は、それぞれ、異なる距離値に関連付けられている。ある例では、ここの他の場所で説明されている周波数又は周期性と同様に、ユーザは、音響画像データをディスプレイに含める特定の距離範囲を選択することができる。例えば、ユーザは、所定の距離よりも近い、所定の距離より遠い、若しくは所定の距離範囲内の音響信号を表す音響画像データのみを表示するように選択し得る。 On top of that, or separately, if different parts of the scene are associated with different distance values, the proximity from the acoustic sensor array (eg, measured proximity and / or apparent proximity) is such. It can be another distinguishable parameter between the parts. For example, with respect to FIG. 10B, positions 1020, 1050, 1070, and 1090 are each associated with different distance values. In one example, the user may select a particular range of distance to include the acoustic image data in the display, similar to the frequency or periodicity described elsewhere here. For example, the user may choose to display only acoustic image data that represents an acoustic signal that is closer than a predetermined distance, farther than a predetermined distance, or within a predetermined distance range.

さらに、ある実施形態では、図9Cの周波数に関して説明したのと同様に、音響分析システムは、複数の距離範囲を循環表示して、現在の距離範囲を満たすターゲットシーン内の位置から放出された音響信号を表す音響画像データのみを示すように構成することがある。様々な表示のそのような循環表示は、異なる音響信号間の情報をユーザが視覚的に区別することに役立たせることができる。例えば、場合によっては、関連する電磁撮像ツール(例えば、可視光カメラモジュール)からの視線から物体が互いに接近しているように見えることがあり、したがって、そのような物体の電磁画像データと組み合わされた音響画像データは、区別するのが難しい。しかし、物体が深度差によって分離されている場合は、音響画像データの異なる深度範囲の循環表示は、音響データの各発生源を他の発生源から分離するために使用されることができる。 Further, in one embodiment, as described for the frequency of FIG. 9C, the acoustic analysis system cyclically displays multiple distance ranges and emits sound from a position in the target scene that meets the current distance range. It may be configured to show only acoustic image data representing a signal. Such a circular display of the various displays can help the user visually distinguish the information between different acoustic signals. For example, in some cases, objects may appear to be in close proximity to each other from the line of sight from the associated electromagnetic imaging tool (eg, a visible light camera module) and are therefore combined with electromagnetic image data of such objects. It is difficult to distinguish the acoustic image data. However, if the objects are separated by a depth difference, a cyclic display of different depth ranges of the acoustic image data can be used to separate each source of acoustic data from other sources.

一般に、音響分析システムは、一又はそれ以上の事前定義されたパラメータを満たす音響信号を表す音響画像データを含める及び/又は除外するために、様々な設定を適用するように構成され得る。ある例では、音響分析システムは、音響信号が、例えば、ディスプレイ画像内で表示されていることを示す音響画像データのために、該音響信号によって満たされねばならない複数の条件を選択するために使用され得る。 In general, an acoustic analysis system may be configured to apply various settings to include and / or exclude acoustic image data representing acoustic signals that satisfy one or more predefined parameters. In one example, an acoustic analysis system is used to select multiple conditions that must be met by an acoustic signal, eg, for acoustic image data indicating that the acoustic signal is displayed in a display image. Can be done.

例えば、図10A及び10Bに関して、図10Aのシーンにおける閾値強度を超える音響信号のみが図10Bに示されている。ただし、追加若しくは代替の制限が可能である。例えば、ある実施形態では、ユーザは、音響画像データをさらにフィルタ処理して、音響画像データが、所定の周波数範囲内の周波数コンテンツを有する、及び/又は、所定の周期性を有する音響信号についてのみ示されるようにし得る。例示的な実施形態では、所定の周波数及び/又は目標の周期性に限定して、音響画像データは、1020及び1090などの追加の位置から排除され得る。 For example, for FIGS. 10A and 10B, only acoustic signals that exceed the threshold intensity in the scene of FIG. 10A are shown in FIG. 10B. However, additional or alternative restrictions are possible. For example, in one embodiment, the user further filters the acoustic image data so that the acoustic image data has frequency content within a predetermined frequency range and / or only for an acoustic signal having a predetermined periodicity. Can be shown. In an exemplary embodiment, acoustic image data may be excluded from additional locations such as 1020 and 1090, limited to a given frequency and / or target periodicity.

一般に、ユーザは、強度、周波数、周期性、見かけの近接度、測定された近接度、音圧、粒子速度、粒子変位、音響出力、音エネルギー、音エネルギー密度、音響曝露量、ピッチ、振幅、輝度、倍音、そのようなパラメータの変化率などのパラメータを含む、音響画像データを含めるか、又は、ディスプレイ画像から除外するために任意の数の音響データ要件を適用できる。さらに、ある実施形態では、ユーザは、AND、OR、XORなどの任意の適切な論理的組み合わせを使用して要件を組み合わせ得る。例えば、ユーザは、(所定の閾値を超える強度)AND(所定の範囲内の周波数)を有する音響信号のみを表示したいことがある。 In general, users use intensity, frequency, periodicity, apparent proximity, measured proximity, sound pressure, particle velocity, particle displacement, acoustic output, sound energy, sound energy density, acoustic exposure, pitch, amplitude, Any number of acoustic data requirements can be applied to include or exclude acoustic image data, including parameters such as brightness, harmonics, rate of change of such parameters. Further, in certain embodiments, the user may combine the requirements using any suitable logical combination such as AND, OR, XOR and the like. For example, a user may want to display only acoustic signals having an AND (frequency within a predetermined range) (intensity exceeding a predetermined threshold).

その上若しくはそれとは別に、音響分析システムは、図9Cの複数の周波数の循環表示に関して示されるように、ターゲットシーンの異なる部分を示すために一又はそれ以上のパラメータ範囲を循環表示するように構成され得る。一般に、一又はそれ以上のパラメータは、このような方法で循環表示され得る。例えば、パラメータ(例えば強度)は、複数の範囲(例えば、10dB〜20dBと20dB〜30dB)に分割され、音響分析システムはそのような範囲を循環表示でき、第1の範囲にあるすべての音響画像データを表示し、次に第2の範囲にあるすべての音響画像データを表示する。 On or apart from that, the acoustic analysis system is configured to cyclically display one or more parameter ranges to indicate different parts of the target scene, as shown for the cyclic display of multiple frequencies in FIG. 9C. Can be done. In general, one or more parameters can be cyclically displayed in this way. For example, the parameter (eg, intensity) is divided into multiple ranges (eg, 10 dB to 20 dB and 20 dB to 30 dB), and the acoustic analysis system can cyclically display such ranges, and all acoustic images in the first range. Display the data and then display all the acoustic image data in the second range.

同様に、ある実施形態では、音響分析システムは、入れ子にされた範囲を循環表示することによってパラメータ要件を組み合わせるように構成され得る。例えば、例示的な実施形態では、第1の強度範囲AND第1の周波数範囲を満たす音響画像データが、表示され得る。表示される音響画像データを第1の強度範囲を満たす音響信号に制限しながら、表示される周波数範囲は循環表示され得る。周波数範囲を循環表示した後、強度範囲を第2の強度範囲に更新して、表示された音響画像データが第2の強度範囲及び第1の周波数範囲を満たすようにすることができる。第1の強度範囲を組み込むプロセスと同様に、周波数範囲は、第2の強度範囲を維持しながら同様に循環表示され得る。このプロセスは、周波数範囲と強度範囲のすべての組み合わせが満たされるまで続けることができる。同様のそのようなプロセスは、複数のパラメータのいずれかに対して実行することができる。 Similarly, in certain embodiments, the acoustic analysis system may be configured to combine parameter requirements by cyclically displaying nested ranges. For example, in an exemplary embodiment, acoustic image data satisfying the first intensity range AND the first frequency range may be displayed. The displayed frequency range may be cyclically displayed while limiting the displayed acoustic image data to acoustic signals that satisfy the first intensity range. After the frequency range is cyclically displayed, the intensity range can be updated to the second intensity range so that the displayed acoustic image data fills the second intensity range and the first frequency range. Similar to the process of incorporating the first intensity range, the frequency range may be similarly cyclically displayed while maintaining the second intensity range. This process can continue until all combinations of frequency and intensity ranges have been met. A similar such process can be run for any of multiple parameters.

その上若しくはそれとは別に、ある実施形態では、音響分析システムは、音響シーン内の複数の音を特定及び区別するように構成され得る。例えば、図9Bに関して、音響分析システムは、位置910、920、930、及び940で4つの個別の音を特定するように構成され得る。システムは、それぞれが必ずしもパラメータ値に依存する必要はないが、図9Cに示されるのと同様に、単一の個別の位置で音響画像データを示している複数の表示を循環するように構成することができる。同様に、個々の位置での音響画像データ間のそのような循環表示は、一又はそれ以上のパラメータ要件が表示された音響画像データを制限した後に実行することができる。 Moreover or separately, in certain embodiments, the acoustic analysis system may be configured to identify and distinguish multiple sounds in an acoustic scene. For example, with respect to FIG. 9B, the acoustic analysis system may be configured to identify four individual sounds at positions 910, 920, 930, and 940. The system is configured to cycle through multiple displays showing acoustic image data at a single individual location, although each does not necessarily depend on parameter values, as shown in FIG. 9C. be able to. Similarly, such a cyclic display between acoustic image data at individual locations can be performed after limiting the acoustic image data displaying one or more parameter requirements.

例えば、図10A及び10Bに関して、強度閾値が適用される前に、音響分析システムは、各シーンが単一の位置にある音響画像データを含んでいる(例えば、可視光画像データを伴う音響画像シーンを含むディスプレイ画像としての)複数の音響画像シーンを循環表示してもよい。ある実施形態では、図10Aの図示の例によれば、10個の別個の画像の循環表示であり、各画像は、位置1010、1020、1030、1040、1050、1060、1070、1080、及び1090のうちの異なる1つでの画像データを含んでいる。しかしながら、ある実施形態によれば、閾値を超える強度を有する位置のみが表示されるように強度フィルタが適用された後(例えば、図10Bのように)、音響分析システムは、フィルタ処理の閾値を満たす位置に対応する画像のみを循環表示するように循環表示プロセスを更新し得る。すなわち、図10Bに関して、循環表示プロセスは、それぞれが位置1020、1050、1070、及び1090でそれぞれ個別の音響画像データを示す4つの画像間でのみ循環表示するように更新されることがある。 For example, with respect to FIGS. 10A and 10B, before the intensity threshold is applied, the acoustic analysis system contains acoustic image data in which each scene is in a single position (eg, an acoustic image scene with visible light image data). Multiple acoustic image scenes (as display images including) may be cyclically displayed. In one embodiment, according to the illustrated example of FIG. 10A, there is a circular representation of 10 separate images, where each image is in position 1010, 1020, 1030, 1040, 1050, 1060, 1070, 1080, and 1090. Contains image data from one of the different ones. However, according to certain embodiments, after the intensity filter has been applied so that only positions with an intensity above the threshold are displayed (eg, as in FIG. 10B), the acoustic analysis system sets the threshold for filtering. The cyclic display process may be updated to cycle display only the images corresponding to the filled positions. That is, with respect to FIG. 10B, the cyclic display process may be updated to cyclically display only between four images, each showing separate acoustic image data at positions 1020, 1050, 1070, and 1090.

したがって、様々な実施形態では、どの音響画像データが表示されるかを制限するために一又はそれ以上のフィルタを適用する前又はその後のいずれかで、音響画像データを含むターゲットシーン内の各位置が、複数の循環表示ディスプレイ画像のうちの1つに示される。個々の音響発生源位置のそのような循環表示は、特定の音響発生源を特定する際に画像を見るユーザを支援することができる。ある実施形態では、循環内の各画像は、音響データの単一の発生源のみを含み、あるそのような実施形態では、周波数コンテンツ、強度、周期性、見かけの近接度などの音響データの一又はそれ以上のパラメータをさらに含む。 Thus, in various embodiments, each position in the target scene containing the acoustic image data, either before or after applying one or more filters to limit which acoustic image data is displayed. Is shown in one of a plurality of cyclic display images. Such a circular display of individual sound source locations can assist the user viewing the image in identifying a particular sound source. In some embodiments, each image in the circulation contains only a single source of acoustic data, and in such embodiments, one of the acoustic data such as frequency content, intensity, periodicity, apparent accessibility, etc. Or more parameters are included.

特定の条件を満たす音響画像データを示す画像間の循環表示に加えて、又はその代わりに、ある例では、音響信号源の位置を音響画像データにおいて検出し、他の音響信号とは別に音響画像データに表示することができる。例えば、図10Aに関して、ある実施形態では、位置1010〜990のそれぞれから発生する音響信号を表す音響画像データは、特定され、循環表示され得る。例えば、例示的な動作プロセスでは、位置1010〜990の1つでの音響画像データを含むディスプレイ画像は、音響信号の各発生源の個々の分析のために、自動的に又はユーザの指示で、循環表示され得る。様々な実施形態において、循環表示中に音響画像データの異なる位置が表示される順序は、位置、近接度、強度、周波数コンテンツなどの様々なパラメータに依存することができる。 In addition to, or instead of, circularly displaying between images showing acoustic image data that meet certain conditions, in one example, the location of the acoustic signal source is detected in the acoustic image data and the acoustic image is separate from the other acoustic signals. Can be displayed in the data. For example, with respect to FIG. 10A, in certain embodiments, acoustic image data representing acoustic signals generated from each of the positions 110-990 may be identified and cyclically displayed. For example, in an exemplary operating process, a display image containing acoustic image data at one of positions 110-990 is automatically or at the user's direction for individual analysis of each source of the acoustic signal. Can be circularly displayed. In various embodiments, the order in which different positions of the acoustic image data are displayed during the cyclic display can depend on various parameters such as position, proximity, intensity, frequency content, and the like.

その上若しくはそれとは別に、ある例では、個々の位置からの音響画像データは、一又はそれ以上のフィルタを適用して一又はそれ以上の所定の条件を満たす音響画像データのみを分離した後に循環表示され得る。例えば、図10Bに関して、位置1020、1050、1070、及び1090は、所定の強度要件を満たす音響信号を表す音響画像データを含むものとして示されている。ある実施形態では、そのような表示要件は、音響信号の発生源位置の個々の循環表示に適用することができる。例えば、図10Bをさらに参照すると、音響強度条件を満たす位置1020、1050、1070、及び1090のうちの1つのみからの画像データを含むディスプレイ画像は、各位置での個々の分析のために循環表示されることができる。 Above or separately, in one example, the acoustic image data from individual positions is circulated after applying one or more filters to separate only the acoustic image data that meets one or more predetermined conditions. Can be displayed. For example, with respect to FIG. 10B, positions 1020, 1050, 1070, and 1090 are shown as including acoustic image data representing acoustic signals that meet predetermined intensity requirements. In certain embodiments, such display requirements can be applied to the individual cyclic display of the source location of the acoustic signal. For example, further referring to FIG. 10B, a display image containing image data from only one of positions 1020, 1050, 1070, and 1090 satisfying the acoustic intensity condition is cycled for individual analysis at each position. Can be displayed.

図10A及び10Bを参照する例示的なプロセスでは、シーンから収集された音響画像データは、一般に、位置1010、1020、1030、1040、1050、1060、1070、1080、及び1090で図10Aに示され得る。そのような位置は、様々な強度、周波数コンテンツ、周期性などのような様々な音響パラメータを有する音響信号を表す音響画像データを含むことがある。 In an exemplary process with reference to FIGS. 10A and 10B, acoustic image data collected from the scene is generally shown in FIG. 10A at positions 1010, 1020, 1030, 1040, 1050, 1060, 1070, 1080, and 1090. obtain. Such locations may include acoustic image data representing acoustic signals with different acoustic parameters such as different intensities, frequency content, periodicity, and so on.

本明細書の他の個所で説明するように、ユーザは、最小の音響強度を有する音響信号などの、一又はそれ以上の特定の音響パラメータを有する音響信号を分離することを望むことがある。そのような条件を満たさない音響信号を表す音響画像データは、画像から除外することができ、例えば、図10Bに示されるような、位置1020、1050、1070、及び1090の音響画像データを捨てることができる。しかしながら、ユーザは、表示条件(例えば、閾値を超える強度を有する)を満たす特定の音の発生源をさらに特定したいことがある。したがって、ユーザは、各音の発生源の位置を見て、個々に分析するために、位置1020、1050、1070、及び1090に関連付けられた音響画像データを1つずつ表示することを選択し得る。様々な実施形態では、ユーザが、そのような位置を手動で循環表示することを選択することがあるか、若しくは、プロセッサが、ディスプレイ画像を自動的に更新して個々の位置の音響画像データを順次表示するようにすることがある。これは、目標とはしないが、画像に適用される1つ以上のフィルタ処理パラメータを偶然満たす音響信号をユーザがさらに排除して無視するのに役立つことがある。 As described elsewhere herein, the user may wish to separate acoustic signals with one or more specific acoustic parameters, such as acoustic signals with minimal acoustic intensity. Acoustic image data representing acoustic signals that do not meet such conditions can be excluded from the image and, for example, discard the acoustic image data at positions 1020, 1050, 1070, and 1090 as shown in FIG. 10B. Can be done. However, the user may want to further identify a particular sound source that meets the display conditions (eg, having an intensity above a threshold). Thus, the user may choose to view the acoustic image data associated with positions 1020, 1050, 1070, and 1090 one by one in order to see the location of each sound source and analyze them individually. .. In various embodiments, the user may choose to manually cycle through such positions, or the processor automatically updates the display image to provide acoustic image data for individual positions. It may be displayed sequentially. This is not a goal, but may help the user to further eliminate and ignore acoustic signals that accidentally satisfy one or more filtering parameters applied to the image.

強度並びに図10A及び10Bに関して説明されているが、一般に、複数の位置から選択された単一の位置からの音響画像データを含むディスプレイ画像は、個々の分析のために1つずつ循環表示することができる。典型的な音響画像データが含まれる複数の位置は、音響シーン内の音響信号の発生源に対応する位置のセット全体であるか、又は、例えば、一又はそれ以上の条件を満たす音響信号を有する位置のみを含むそのような位置のサブセットであり得る。そのような条件は、強度、周波数コンテンツ、周期性、近接度などの任意の一又はそれ以上の音響パラメータに依存することがあり、所定の値未満、所定の値を超える、若しくは、所定の値の範囲内にある様々なパラメータに基づいて満たされることがある。 Although described with respect to intensity and FIGS. 10A and 10B, display images containing acoustic image data from a single position selected from multiple positions are generally cyclically displayed one by one for individual analysis. Can be done. The plurality of positions containing typical acoustic image data are the entire set of positions corresponding to the source of the acoustic signal in the acoustic scene, or have, for example, an acoustic signal satisfying one or more conditions. It can be a subset of such positions, including only the positions. Such conditions may depend on any one or more acoustic parameters such as intensity, frequency content, periodicity, accessibility, etc., and may be less than a predetermined value, greater than a predetermined value, or a predetermined value. May be satisfied based on various parameters within the range of.

様々な例において、ディスプレイ画像に音響画像データを選択的に含めるようにディスプレイ画像を修正することは、様々な方法で行うことができる。ある実施形態では、(例えば、電磁画像データ及び音響画像データを含む)ディスプレイ画像は、リアルタイム画像であることができ、この場合、電磁画像データ及び音響画像データは、シーンの変化を反映するように継続的に更新される。ある例では、音響画像データがディスプレイ画像に含まれるかどうかを決定するために特定の条件が使用される場合、受信した音響信号が分析されて、更新されたリアルタイム画像の様々な位置で音響画像データを含んでいるか否かを判定する。すなわち、新たに受信した音響信号及び電磁放射に基づいて新しいディスプレイ画像が生成されるとき、ディスプレイ画像の構築は、どの音響信号がディスプレイ画像に認められた特定の条件(例えば、強度閾値など)を満たすかを決定するための音響信号の分析に依存することができる。ディスプレイ画像は、そして、そのような条件に従って適切な場合にのみ、音響画像データを含んで生成され得る。 In various examples, modifying the display image to selectively include acoustic image data in the display image can be done in various ways. In certain embodiments, the display image (including, for example, electromagnetic image data and acoustic image data) can be a real-time image, in which case the electromagnetic image data and the acoustic image data are such to reflect changes in the scene. It will be updated continuously. In one example, when certain conditions are used to determine if acoustic image data is included in the display image, the received acoustic signal is analyzed and the acoustic image at various locations in the updated real-time image. Determine if it contains data. That is, when a new display image is generated based on the newly received acoustic signal and electromagnetic radiation, the construction of the display image sets the specific conditions (eg, intensity threshold, etc.) that the acoustic signal is recognized in the display image. You can rely on the analysis of the acoustic signal to determine if it meets. Display images can then be generated containing acoustic image data only where appropriate according to such conditions.

他の例では、ディスプレイ画像は、以前に取り込まれた音響データ及び電磁画像データなどの、メモリに記憶されたデータから生成され得る。あるそのような例では、以前に取得された音響データが、音響画像データに認められる様々な条件に関して分析され、以前に取り込まれた音響データがそのような条件を満たす位置で電磁画像データと組み合わされる。そのような実施形態では、単一のシーンは、例えば、異なる音響パラメータを分析することによって、多くの方法で見ることができる。以前に取り込まれた音響画像データを表すディスプレイ画像は、ディスプレイ画像の様々な位置に音響画像データを含めるかどうかについて、ディスプレイ画像に認められた更新された条件に基づいて更新することができる。 In another example, the display image may be generated from data stored in memory, such as previously captured acoustic data and electromagnetic image data. In one such example, previously acquired acoustic data is analyzed for various conditions found in the acoustic image data, and the previously captured acoustic data is combined with the electromagnetic image data at positions that meet such conditions. Is done. In such embodiments, a single scene can be viewed in many ways, for example by analyzing different acoustic parameters. The display image representing the previously captured acoustic image data can be updated based on the updated conditions recognized in the display image as to whether the acoustic image data is included at various positions in the display image.

ある実施形態では、音響画像データをディスプレイ画像に選択的に含めるために使用される一又はそれ以上の音響パラメータが使用されて、ディスプレイ画像及び/又は画像取り込み技術を変更し得る。例えば、リアルタイム撮像例では、音響画像データを表示に含めるかどうかを決定するための様々な条件は、ターゲットまでの距離(例えば、見かけの距離若しくは測定された距離)及び/又は周波数コンテンツを含み得る。本明細書の他の個所で説明するように、あるそのようなパラメータは、音響センサアレイ及び/又は音響画像データを生成するための処理技術を選択する際に使用することができる。したがって、あるそのような例では、音響画像データが一又はそれ以上の所定の条件を満たすそのようなパラメータに基づいてのみ表される場合、音響センサアレイ及び/又は音響画像データを生成するための処理技術は、そのような条件に基づいて選択され得る。 In certain embodiments, one or more acoustic parameters used to selectively include acoustic image data in a display image may be used to modify the display image and / or image capture technique. For example, in a real-time imaging example, various conditions for deciding whether to include acoustic image data in the display may include distance to the target (eg, apparent distance or measured distance) and / or frequency content. .. As described elsewhere herein, certain such parameters can be used in selecting acoustic sensor arrays and / or processing techniques for producing acoustic image data. Thus, in one such example, to generate an acoustic sensor array and / or acoustic image data if the acoustic image data is represented only based on such parameters that meet one or more predetermined conditions. The processing technique may be selected based on such conditions.

例えば、例示的な実施形態では、音響画像データが、対応する音響信号が第1の周波数範囲内の周波数コンテンツを含む位置のリアルタイム画像にのみ含まれるべきである場合、第1の周波数範囲に最適な音響信号を取得するために、一又はそれ以上の音響センサアレイが選択され得る。同様に、音響画像データが、音響信号の発生源が第1の距離範囲内にある位置でリアルタイム画像にのみ含まれるべきである場合、第1の距離範囲での音響撮像用に最適な音響信号を取得するために、一又はそれ以上の音響センサアレイが選択され得る。その上若しくはそれとは別に、例えば、図6に関して説明したように、音響画像データを生成するための処理技術は、所望の周波数又は距離条件に基づいて選択することができる。そのような選択された音響撮像センサアレイ及び処理技術は、その後、音響信号を受信し、含まれる音響画像データを最適化するために、更新されたリアルタイムディスプレイ画像の音響画像データを生成するために使用され得る。 For example, in an exemplary embodiment, the acoustic image data is best suited for the first frequency range if the corresponding acoustic signal should only be included in a real-time image at a location containing frequency content within the first frequency range. One or more acoustic sensor arrays may be selected to obtain a good acoustic signal. Similarly, if the acoustic image data should only be included in the real-time image at a location where the source of the acoustic signal is within the first range of distance, then the best acoustic signal for acoustic imaging in the first range of distance. One or more acoustic sensor arrays may be selected to obtain. Moreover or separately, the processing technique for generating the acoustic image data can be selected based on the desired frequency or distance condition, for example, as described with respect to FIG. Such selected acoustic imaging sensor arrays and processing techniques are then used to receive the acoustic signal and generate the acoustic image data of the updated real-time display image in order to optimize the contained acoustic image data. Can be used.

同様に、ディスプレイ画像が以前にメモリに記憶された履歴データから生成されるある実施形態では、ディスプレイ画像に音響画像データを含める位置を決定する様々な条件が、音響シーンを表す音響画像データを更新するために用いられ得る。例えば、ある実施形態では、メモリに記憶されたデータは、音響信号が受信されたときから音響センサアレイによって受信された生の音響データを含む。音響画像データがディスプレイ画像の様々な位置に含まれるかどうかを決定するための条件(例えば、所望の距離及び/又は周波数範囲)に基づいて、表示する所望のパラメータに最適化された音響画像データを生成するために、メモリに記憶された生データと共に使用するために処理技術(例えば、バックプロパゲーションアルゴリズム)が選択されることがある。 Similarly, in certain embodiments where the display image is generated from historical data previously stored in memory, various conditions that determine where the acoustic image data is included in the display image update the acoustic image data representing the acoustic scene. Can be used to For example, in one embodiment, the data stored in memory includes raw acoustic data received by the acoustic sensor array from the time the acoustic signal is received. Acoustic image data optimized for the desired parameters to display, based on conditions (eg, desired distance and / or frequency range) for determining whether the acoustic image data is contained at various locations in the display image. Processing techniques (eg, backpropagation algorithms) may be selected for use with raw data stored in memory to generate.

可視光画像データ及び音響画像データを使用して一般的に説明及び示されているけれども、図9A〜図9C、図10A及び図10Bに関して説明されたプロセスは、様々な電磁画像データのいずれかを含めて使用されうることが理解されよう。例えば、様々な実施形態において、同様のプロセスは、可視光画像データの代わりに、赤外線画像データ若しくは紫外線画像データを用いて実行され得る。その上若しくはそれとは別に、電磁スペクトルの組み合わせは、混合された赤外線画像データと可視光画像データなどのそのようなプロセスで使用することができる。一般に、様々な例において、音響画像データは、電磁画像データの任意の組み合わせと組み合わせて、選択的に示される(例えば、対応する音響信号が一又はそれ以上の所定のパラメータを満たすときに含まれる)ことがある。 Although generally described and shown using visible light and acoustic image data, the process described for FIGS. 9A-9C, 10A and 10B captures any of a variety of electromagnetic image data. It will be understood that it can be used inclusively. For example, in various embodiments, similar processes can be performed using infrared or ultraviolet image data instead of visible light image data. Moreover or separately, combinations of electromagnetic spectra can be used in such processes such as mixed infrared and visible light image data. In general, in various examples, acoustic image data is selectively shown in combination with any combination of electromagnetic image data (eg, included when the corresponding acoustic signal meets one or more predetermined parameters. )Sometimes.

ある実施形態では、音響分析システムは、一又はそれ以上の音響信号及び/又は音響画像データを、例えば、ローカルメモリ内の、及び/又は、外部又はリモート装置からアクセス可能なデータベースに記憶するように構成される。そのような音響信号は、通常の動作中の音響シーンを表す音響画像データ、及び/又は、周波数データ、強度データ、周期性データなどの音響シーンに関連する他のパラメータを含むことができる。様々な例において、データベースシーンは、広いシーン(例えば、工場)及び/又はより具体的なシーン(例えば、特定の物体)を表す音響画像データ及び/又は他の音響パラメータ(例えば、強度、周波数、周期性など)を含むことができる。 In certain embodiments, the acoustic analysis system stores one or more acoustic signals and / or acoustic image data in, for example, in local memory and / or in a database accessible from an external or remote device. It is composed. Such acoustic signals may include acoustic image data representing the acoustic scene during normal operation and / or other parameters related to the acoustic scene such as frequency data, intensity data, periodicity data. In various examples, the database scene is an acoustic image data representing a wide scene (eg, a factory) and / or a more specific scene (eg, a particular object) and / or other acoustic parameters (eg, intensity, frequency, etc.). Periodicity, etc.) can be included.

ある実施形態では、データベースシーンは、特定のモデルの装置など、特定のタイプの装置に一般的(generic)であり得る。その上若しくはそれとは別に、データベースシーンは、異なる物体が同じ物体の異なる例(例えば、同じモデルである2つの別個のマシーン)である場合でも、個々の物体に対しては特有(specific)であり得る。同様に、データベースシーンは、例えば、物体の特定の動作状態を含めると、より特有8speific)となりうる。例えば、特定の物体が複数の操作モードを有する場合、データベースは、そのような物体の複数のシーンを、動作モードごとに1つずつ含めることができる。 In certain embodiments, the database scene can be generic to a particular type of device, such as a particular model of device. On top of that, or separately, database scenes are specific to individual objects, even if different objects are different examples of the same object (eg, two separate machines of the same model). obtain. Similarly, a database scene can be more specific 8spec), for example, including certain operating states of the object. For example, if a particular object has multiple modes of operation, the database may include multiple scenes of such objects, one for each mode of operation.

様々な実施形態では、データベースシーンは、単一の音響画像及び/又は関連する音響パラメータであり得る。他の例では、データベースシーンは、以前に取り込まれた複数の音響画像及び/又は関連するパラメータから形成された複合データを含むことができる。一般に、データベースシーン(例えば、音響画像及び/又はパラメータ)は、通常の動作中のシーンの音響表現を含むことができる。ある例では、データベースは、例えば、対応する可視光画像、赤外線画像、紫外線画像、又はそれらの組み合わせなど、シーンに関連する他の要素を含むことができる。ある実施形態では、データベースの生成及び/又は比較は、本出願の譲受人に譲受され、その全体が参照により本明細書に組み込まれる2016年6月23日に出願され、「熱異常検出(THERMAL ANOMALY DETECTION)」と題された米国特許出願第15/190,792号に記載されている赤外線画像データのデータベース生成及び比較と同様に実行することができる。ある実施形態では、データベースは、シーン内の物体が正しく動作している間に、シーンの音響画像データ及び/又は一又はそれ以上の関連する音響パラメータ(例えば、周波数、強度、周期性など)を取り込むことによって生成することができる。あるそのような例では、ユーザは、取り込まれたデータベース画像にタグを付けて、画像を一又はそれ以上の物体、位置、シーンなどに関連付けることがあり、その結果、取り込まれた音響画像及び/又は関連するパラメータ(複数可)が、将来データベース分析及び比較において特定され得る。 In various embodiments, the database scene can be a single acoustic image and / or associated acoustic parameters. In another example, the database scene can contain composite data formed from multiple previously captured acoustic images and / or related parameters. In general, a database scene (eg, an acoustic image and / or a parameter) can include an acoustic representation of a normal operating scene. In one example, the database can include other elements related to the scene, such as, for example, the corresponding visible light image, infrared image, ultraviolet image, or a combination thereof. In one embodiment, the generation and / or comparison of the database is delegated to the transferee of this application, which was filed on June 23, 2016, which is incorporated herein by reference in its entirety, and "THERMAL". It can be performed in the same manner as the database generation and comparison of infrared image data described in US Patent Application No. 15 / 190,792 entitled "ANOMALY RECORDION)". In certain embodiments, the database captures the acoustic image data of the scene and / or one or more related acoustic parameters (eg, frequency, intensity, periodicity, etc.) while the object in the scene is operating correctly. It can be generated by capturing. In one such example, the user may tag the captured database image and associate the image with one or more objects, positions, scenes, etc., resulting in the captured acoustic image and /. Or related parameters (s) may be identified in future database analysis and comparison.

新しく生成された音響画像データは、データベースに記憶されている音響画像データと比較され、音響シーンの音プロファイルが典型的な動作基準内にあるかどうかを判定できる。その上若しくはそれとは別に、ライブ音響シーン及び/又は新しく生成された音響画像からの強度、周波数、周期性などの音響パラメータが、データベース内の同様のパラメータと比較されることがある。 The newly generated acoustic image data can be compared with the acoustic image data stored in the database to determine whether the sound profile of the acoustic scene is within typical operating criteria. On top of that or separately, acoustic parameters such as intensity, frequency, periodicity, etc. from live acoustic scenes and / or newly generated acoustic images may be compared to similar parameters in the database.

現在の音響画像データをデータベースに記憶された音響画像履歴データ(例えば、以前に取り込まれた画像、複数の以前に取り込まれた画像から生成された合成画像、工場提供の予想される画像など)と比較することは、複数の方法で実行できる。図12A〜図12Cは、音響画像データをデータベースに記憶された音響画像履歴データと比較するための複数の例示的な方法を示している。図12Aは、音響視野1212を有する音響センサアレイ1202と、電磁視野1214を有する電磁撮像ツール1204とを含む音響撮像ツール1200を示している。図示されるように、電磁視野1214及び音響視野1212は、目標物体1222を含むターゲットシーン1220を含む。ある実施形態では、音響撮像ツール1200は、目標物体1222が電磁視野1214及び音響視野1212内にあるような位置に恒久的に固定されている。ある実施形態では、音響撮像ツール1200は、誘導電力又は寄生電力を介して電力を供給され得るか、建物内のAC主電力に配線され得るか、若しくは、物体1222を継続的に監視するように構成され得る。 Current acoustic image data with acoustic image history data stored in a database (eg, previously captured images, composite images generated from multiple previously captured images, expected factory-provided images, etc.) The comparison can be done in multiple ways. 12A-12C show a plurality of exemplary methods for comparing acoustic image data with acoustic image history data stored in a database. FIG. 12A shows an acoustic imaging tool 1200 including an acoustic sensor array 1202 with an acoustic field of view 1212 and an electromagnetic imaging tool 1204 with an electromagnetic field of view 1214. As shown, the electromagnetic field of view 1214 and the acoustic field of view 1212 include a target scene 1220 that includes a target object 1222. In one embodiment, the acoustic imaging tool 1200 is permanently fixed in a position such that the target object 1222 is within the electromagnetic field of view 1214 and the acoustic field of view 1212. In certain embodiments, the acoustic imaging tool 1200 can be powered via inductive or parasitic power, wired to AC main power within the building, or to continuously monitor the object 1222. Can be configured.

固定された音響撮像ツール1200は、物体1222の音響及び/又は電磁画像データを周期的に取り込むように構成され得る。音響撮像ツール1200がほぼ決まった位置に固定されているため、異なる時間に取り込まれた画像は、ほぼ同じ地点からのものである。ある例では、音響撮像ツール1200を介して取り込まれた音響画像データは、例えば、音響シーンの異常を検出するために、ほぼ同じシーンを表す音響画像データのデータベースと比較され得る。これは、例えば、参照により組み込まれる米国特許出願第15/190,792号に記載されているように実施され得る。 The fixed acoustic imaging tool 1200 may be configured to periodically capture the acoustic and / or electromagnetic image data of the object 1222. Since the acoustic imaging tool 1200 is fixed in a substantially fixed position, the images captured at different times are from approximately the same point. In one example, the acoustic image data captured via the acoustic imaging tool 1200 may be compared to a database of acoustic image data representing approximately the same scene, for example, to detect anomalies in the acoustic scene. This can be done, for example, as described in US Patent Application No. 15 / 190,792, which is incorporated by reference.

図12Bは、例えば、手持ち式音響撮像ツール上の例示的なディスプレイを示す。ディスプレイ1230は、2つのセクション、1232と1234を含む。図示の例では、セクション1234は、目標物体のデータベース画像1244を示し、一方セクション1232は、物体のリアルタイム音響画像データのライブ画像1242を含む。そのような並列表示では、ユーザは、(例えば、データベース画像1244に示される)典型的な音響信号と現在のリアルタイム画像1242との間の差異を見るために、ライブ画像1242をデータベース画像1244と比較することができる。同様に、ユーザは、ライブ画像1242がデータベース画像1244とほぼ一致するかどうかを比較することができる。そうである場合、ユーザは、データベース画像1244とのさらなる分析及び/又は比較のために、ライブ音響画像を取り込むことができる。 FIG. 12B shows, for example, an exemplary display on a handheld acoustic imaging tool. The display 1230 includes two sections, 1232 and 1234. In the illustrated example, section 1234 shows a database image 1244 of the target object, while section 1232 contains a live image 1242 of real-time acoustic image data of the object. In such a parallel display, the user compares the live image 1242 with the database image 1244 to see the difference between the typical acoustic signal (eg, shown in the database image 1244) and the current real-time image 1242. can do. Similarly, the user can compare whether the live image 1242 closely matches the database image 1244. If so, the user can capture the live acoustic image for further analysis and / or comparison with the database image 1244.

図12Cは、例えば、手持ち式音響撮像ツール上の別の例示的なディスプレイを示す。図12Cのディスプレイ1250は、同じディスプレイ1252上のデータベース画像1254とライブ画像1256を示す。図12Cの例では、ユーザは、差異を示すために、ライブ画像1256内の音響画像データをデータベース画像1254内の音響画像データと同様に比較することができる。さらに、ユーザは、さらなる分析と比較のために、ライブ画像1256内の物体をデータベース画像1254内の物体と整列するために、音響撮像ツールのアライメントを調整し得る。 FIG. 12C shows, for example, another exemplary display on a handheld acoustic imaging tool. Display 1250 in FIG. 12C shows database image 1254 and live image 1256 on the same display 1252. In the example of FIG. 12C, the user can compare the acoustic image data in the live image 1256 as well as the acoustic image data in the database image 1254 to show the difference. In addition, the user may adjust the alignment of the acoustic imaging tool to align the object in the live image 1256 with the object in the database image 1254 for further analysis and comparison.

図12A〜図12Cのプロセスの結果として、ライブ及び/又は最近取り込まれた音響画像は、データベースなどからの以前の音響画像データと比較されることがある。ある例では、そのようなプロセスは、自動比較のために、ライブ及び/又は最近取り込まれた音響画像をデータベース画像と重ね合わせするために用いられる。データベース画像と同様の地点から音響画像データを「再取り込み」するために使用できる他のプロセスは、2011年12月20日に出願され、「赤外線リホトグラフィのための熱撮像カメラ(THERMAL IMAGING CAMERA FOR INFRARED REPHOTOGRAPHY)」と題された米国特許出願第13/331,633号、2011年12月20日に出願され、「赤外線リホトグラフィのための熱撮像カメラ(THERMAL IMAGING CAMERA FOR INFRARED REPHOTOGRAPHY)」と題された米国特許出願第13/331,644号、並びに、2011年12月23日に出願され、「赤外線リホトグラフィのための熱撮像カメラ(THERMAL IMAGING CAMERA FOR INFRARED REPHOTOGRAPHY)」と題された米国特許出願第13/336,607号に記載されているが、それぞれは本出願の譲受人に譲受されており、その全体が参照により組み込まれている。 As a result of the process of FIGS. 12A-12C, live and / or recently captured acoustic images may be compared with previous acoustic image data from a database or the like. In one example, such a process is used to overlay live and / or recently captured acoustic images with database images for automatic comparison. Other processes that can be used to "recapture" acoustic image data from points similar to database images were filed on 20 December 2011 and are "THERMAL IMAGING CAMERA FOR INFRANED". US Patent Application No. 13 / 331,633, entitled "REPHOTOGRAPHY", filed December 20, 2011, entitled "THERMAL IMAGING CAMERA FOR INFLATED REPHOTOGRAPHY". US Patent Application No. 13 / 331,644, as well as US Patent Application No. 13 entitled "THERMAL IMAGING CAMERA FOR INFORMATION REPHOTOGRAPHY" filed on December 23, 2011. / 336,607, each of which has been transferred to the transferee of the present application, which is incorporated by reference in its entirety.

リアルタイムの音響画像データ及び/又は音響シグネチャを、比較可能なシーン/物体の対応する音響画像及び/又は音響シグネチャと比較することが、シーン/物体の動作状態の迅速かつ単純化された分析を提供するために使用されることがある。例えば、比較は、音響シーン内の特定の位置が、典型的な動作中とは異なる強度又は周波数スペクトルを有する音響信号を放出していることを示すことがあり、これは、問題を示していることがある。同様に、シーン内の位置は、典型的には無音の音響信号を放出していることがある。その上若しくはそれとは別に、ライブシーンとデータベースからの履歴シーンの全体的な音響シグネチャの比較は、一般に、周波数コンテンツ、音響強度などのシーン内の音響パラメータの変化を示すことがありうる。 Comparing real-time acoustic image data and / or acoustic signatures with the corresponding acoustic images and / or acoustic signatures of comparable scenes / objects provides a quick and simplified analysis of the operating state of the scene / object. May be used to. For example, comparisons may indicate that a particular location in the acoustic scene emits an acoustic signal with a different intensity or frequency spectrum than during typical operation, which indicates a problem. Sometimes. Similarly, locations within the scene may typically emit silent acoustic signals. Moreover or separately, a comparison of the overall acoustic signatures of the live scene and the historical scene from the database may generally indicate changes in acoustic parameters within the scene such as frequency content, acoustic intensity, etc.

ある例では、音響分析システムは、最近/リアルタイムの音響シーンをデータベースと比較するように構成されている。ある実施形態では、音響分析システムは、最近/リアルタイムシーンとデータベースシーンとの間の差異を特徴付け、比較に基づいて現在のシーンで起こり得る一又はそれ以上の問題を診断するように構成される。例えば、ある実施形態では、ユーザは、音響データベースと比較するための、目標物体又はターゲットシーンを事前に選択し得る。音響分析システムは、選択された物体/シーンに基づいて、データベース画像及び/又は他のパラメータを最近/現在の画像及び/又は他のパラメータと比較して、シーンを分析することができる。データベースから選択された物体/シーンに基づいて、音響分析システムは、データベース画像/パラメータと最近/現在の画像/パラメータとの間の一又はそれ以上の差異を特定し、特定された差異(複数可)を一又はそれ以上の差異の考えられる原因に関連付けることができ得る。 In one example, the acoustic analysis system is configured to compare recent / real-time acoustic scenes with a database. In one embodiment, the acoustic analysis system is configured to characterize the differences between recent / real-time scenes and database scenes and diagnose one or more possible problems in the current scene based on comparisons. .. For example, in one embodiment, the user may preselect a target object or target scene for comparison with an acoustic database. The acoustic analysis system can analyze the scene by comparing the database image and / or other parameters with the recent / current image and / or other parameters based on the selected object / scene. Based on the object / scene selected from the database, the acoustic analysis system identifies one or more differences between the database image / parameter and the recent / current image / parameter, and the identified difference (s). ) Can be associated with one or more possible causes of difference.

ある例では、音響分析システムは、複数の診断情報により事前にプログラムされることができ、例えば、データベース画像/パラメータと、最近/現在の画像/パラメータとの間の様々な差異を、考えられる原因及び/又は原因の解決策と関連付ける。その上若しくはそれとは別に、ユーザは、例えば、診断データのリポジトリからそのような診断情報をロードし得る。そのようなデータは、例えば、音響分析システムの製造業者、目標物体の製造業者などによって提供され得る。さらに別の例では、音響分析システムは、例えば、一又はそれ以上の機械学習プロセスを介して、診断情報をその上若しくはそれとは別に学習することができる。あるそのような例では、ユーザは、典型的なシーンからのシーンの音響逸脱を観察した後、ターゲットシーンの一又はそれ以上の問題を診断し、一又はそれ以上の問題及び/又は一又はそれ以上の解決策を表すデータを音響分析システムに入力し得る。システムは、時間の経過と共に、複数のデータエントリを介して、最近/現在の画像及び/又はパラメータと、データベースに保存されているものとの間の様々な不一致を、特定の問題及び/又は解決策に関連付けることを学習するように構成できる。問題を診断し、及び/又は、提案された解決策を決定すると、音響分析システムは、例えば、ディスプレイを介して、疑わしい問題及び/又は提案された解決策をユーザに出力するように構成され得る。このようなディスプレイは、手持ち式音響点検ツール又はリモート装置(例えば、ユーザのスマートフォン、タブレット、コンピュータなど)に配置できる。その上若しくはそれとは別に、潜在的な問題及び/又は解決策を示すそのようなディスプレイは、例えば、ネットワークを介して、オフサイトのオペレータ/システムモニタなどのリモートサイトに通信することができる。 In one example, the acoustic analysis system can be pre-programmed with multiple diagnostic information, eg, various differences between database images / parameters and recent / current images / parameters, possible causes. And / or associate with the solution of the cause. On top of that or separately, the user may load such diagnostic information from, for example, a repository of diagnostic data. Such data may be provided, for example, by the manufacturer of the acoustic analysis system, the manufacturer of the target object, and the like. In yet another example, the acoustic analysis system can learn diagnostic information on or off the machine learning process, eg, via one or more machine learning processes. In one such example, the user observes the acoustic deviation of the scene from a typical scene, then diagnoses one or more problems in the target scene, one or more problems and / or one or more. Data representing the above solutions can be input to the acoustic analysis system. Over time, the system resolves various discrepancies between recent / current images and / or parameters and those stored in the database, through multiple data entries, specific problems and / or. It can be configured to learn to associate with a strategy. After diagnosing the problem and / or determining the proposed solution, the acoustic analysis system may be configured to output the suspicious problem and / or the proposed solution to the user, for example, via a display. .. Such a display can be placed on a handheld acoustic inspection tool or remote device (eg, a user's smartphone, tablet, computer, etc.). On top of that or separately, such displays showing potential problems and / or solutions can communicate with remote sites, such as offsite operators / system monitors, over a network, for example.

ある例の診断特性では、音響分析システムは、動作中の機械に追加の注油が必要であることを示す特定の周期的なきしみ音を観察することがある。同様に、一定の高音の信号は、ターゲットシーンでのガス又は空気の漏れを示している可能性がある。他の問題も同様に、分析中の物体内のベアリングの破損など、認識可能な音響シグネチャがあることがあり、音響撮像システム(手持ち式音響撮像ツールなど)を介して音響シグネチャを見ると、システム又は物体の異常を診断するのに役立つことがある。 In some diagnostic characteristics, the acoustic analysis system may observe certain periodic squeaks that indicate that the machine in operation requires additional lubrication. Similarly, a constant treble signal may indicate a gas or air leak in the target scene. Other problems as well may have recognizable acoustic signatures, such as bearing breakage in the object being analyzed, and when viewed through an acoustic imaging system (such as a handheld acoustic imaging tool), the system Or it may be useful in diagnosing abnormalities in objects.

受信した音響信号を基準(例えば、音響画像データ及び/又はデータベースからのパラメータ)と比較し、診断情報を実行し、及び/又は是正措置を提案することができる音響分析システムは、シーンの音響データを経験豊富な専門家が分析する必要をなくすことができる。むしろ、音響点検及び分析は、音響データの分析の経験が限られているか、又は全くないシステムオペレータによって実行することができる。 An acoustic analysis system capable of comparing the received acoustic signal with a reference (eg, acoustic image data and / or parameters from a database), performing diagnostic information, and / or proposing corrective action is the acoustic data of the scene. Can be eliminated from the need for experienced professionals to analyze. Rather, acoustic inspection and analysis can be performed by a system operator with limited or no experience in analyzing acoustic data.

図13は、受信した音響画像データを物体診断のためのデータベースと比較する例示的な動作を示すプロセスフロー図である。この方法は、目標ターゲットの選択を受信し(1380)、データベースから目標ターゲットの基準音響画像及び/又は音響パラメータを取得すること(1382)を含む。例えば、ユーザは、億票の特定の物体の音響分析を実行することを望むことがあり、利用可能な基準音響画像及び/又はデータベースで利用可能なパラメータを有する物体の事前定義されたリストからそのような物体を選択し得る。 FIG. 13 is a process flow diagram showing an exemplary operation of comparing received acoustic image data with a database for object diagnosis. The method comprises receiving a selection of a target target (1380) and obtaining a reference acoustic image and / or acoustic parameters of the target target from a database (1382). For example, a user may wish to perform an acoustic analysis of a particular object of 100 million votes, from a predefined list of objects with reference acoustic images available and / or parameters available in the database. You can choose such an object.

この方法は、例えば、手持ち式音響撮像ツールを使用して、目標ターゲットを表す音響画像データ及び関連するパラメータを取り込む工程(1384)をさらに含む。音響画像データ及び関連するパラメータを取り込んだ(1384)後、この方法は、取り込まれた音響画像データ及び/又は関連するパラメータを、取得された基準画像及び/又はパラメータと比較すること(1386)を含む。 The method further comprises the step (1384) of capturing acoustic image data representing a target target and related parameters using, for example, a handheld acoustic imaging tool. After capturing the acoustic image data and related parameters (1384), the method compares the captured acoustic image data and / or related parameters with the acquired reference image and / or parameters (1386). include.

図13の方法は、取り込まれた音響画像データ及び/又はパラメータが基準から十分に逸脱している場合(1388)、比較に基づいて関心のあるターゲットの動作問題を診断すること(1390)をさらに含む。この方法は、起こり得る問題及び/又は是正措置の表示をユーザに表示するステップをさらに含むことができる(1392)。ある実施形態では、比較表示、例えば、現在の音響画像データと基準音響画像データとの間の差を示す差分画像が、その上若しくはそれとは別にユーザに表示され得る。 The method of FIG. 13 further diagnoses behavioral problems of the target of interest based on comparisons (1388) when the captured acoustic image data and / or parameters deviate sufficiently from the criteria (1388). include. The method may further include displaying to the user an indication of possible problems and / or corrective actions (1392). In certain embodiments, a comparative display, eg, a differential image showing the difference between the current acoustic image data and the reference acoustic image data, may be displayed to the user on or separately from it.

あるそのような例では、基準(1388)からの逸脱があるかどうかを判定することは、取り込まれたデータの一又はそれ以上の音響パラメータを基準データ内の同様のパラメータと比較し、取り込まれたパラメータと基準パラメータとの間の差異が所定の閾値を超えるかどうかを判定することを含む。様々な例において、異なるパラメータは、異なる閾値を含むことがあり、そのような閾値は、絶対閾値、統計的閾値などであり得る。ある実施形態では、比較は、位置ごとに行うことができ、シーン内の位置のサブセットに対して実行し得る。 In one such example, determining if there is a deviation from the reference (1388) is to compare the acoustic parameters of one or more of the captured data with similar parameters in the reference data and capture. It involves determining whether the difference between a given parameter and a reference parameter exceeds a predetermined threshold. In various examples, different parameters may include different thresholds, such thresholds can be absolute thresholds, statistical thresholds, and the like. In certain embodiments, the comparison can be made position by position and can be performed on a subset of positions in the scene.

例えば、図9Bに関して、音響画像データを含み、物体上に現れる位置(例えば、位置910と940)のみが、物体の動作に関して分析されることが可能である。そのような例では、比較される各位置(例えば、910と940)での異なる音響パラメータが、取り込まれた画像とデータベース画像との間で個別に比較される。例えば、取り込まれたデータ及び/又は関連するパラメータをデータベースからのものと比較することは、図9Bを参照して、取り込まれた画像内の位置910の周波数、強度、及び周期性をそれぞれ、データベース画像内の位置910の周波数、強度、及び周期性と比較することを含むことができる。同様の比較は、取り込まれた画像とデータベース画像との間の位置940で実行され得る。説明したように、各比較は、基準からの十分な逸脱があるかどうかを判定する(1388)ための異なるメトリックを含むことができる。 For example, with respect to FIG. 9B, only the positions that include acoustic image data and appear on the object (eg, positions 910 and 940) can be analyzed with respect to the movement of the object. In such an example, different acoustic parameters at each position to be compared (eg, 910 and 940) are compared individually between the captured image and the database image. For example, comparing the captured data and / or related parameters with those from the database can refer to FIG. 9B for the frequency, intensity, and periodicity of position 910 in the captured image, respectively. Comparison with the frequency, intensity, and periodicity of position 910 in the image can be included. A similar comparison can be performed at position 940 between the captured image and the database image. As described, each comparison can include different metrics to determine if there is sufficient deviation from the criteria (1388).

動作の問題を診断(1390)し、起こり得る問題及び/又は是正措置の指示(1392)を表示することは、取り込まれた画像データと基準画像データ及び/又はパラメータと間の比較の組み合わせに基づいて実行することができる。ある例では、そのような診断は、所定の位置での複数のパラメータの比較を組み合わせるなどの多次元分析を含むことができる。例えば、例示的な実施形態では、特定の条件は、第1の閾値よりも大きい基準からの周波数の逸脱と、第2の閾値よりも大きい基準からの強度の逸脱の両方によって示され得る。 Diagnosis of operational problems (1390) and display of possible problems and / or corrective action instructions (1392) are based on a combination of comparisons between captured image data and reference image data and / or parameters. Can be executed. In one example, such a diagnosis can include multidimensional analysis, such as combining comparisons of multiple parameters at a given position. For example, in an exemplary embodiment, a particular condition may be indicated by both a frequency deviation from a reference greater than the first threshold and an intensity deviation from a reference greater than the second threshold.

ある例では、起こり得る問題及び/又は是正措置の指示を表示した(1392)後でも、プロセスは、新しい音響画像データ及び関連するパラメータを取り込み(1384)、比較及び診断プロセスを繰り返すことを含むことがある。したがって、ユーザは、取られた是正措置が特定された問題を修正するために物体の音響シグネチャを効果的に変更しているかどうか、及び/又は、物体の音響シグネチャを基準に一致させているかどうかを観察し得る。 In one example, the process involves incorporating new acoustic image data and related parameters (1384) and repeating the comparison and diagnostic process, even after displaying possible problems and / or instructions for corrective action (1392). There is. Therefore, the user is whether the corrective action taken is effectively modifying the acoustic signature of the object to correct the identified problem and / or is it consistent with the acoustic signature of the object. Can be observed.

ある実施形態では、取り込まれたデータを基準データと比較した(1386)後で、基準からの十分な逸脱がない(1388)場合、プロセスは、物体の現在の音響シグネチャに基づいて、物体は正常に動作しているとの結論とともに終了し得る(1394)。その上若しくはそれとは別に、目標ターゲットの新しい音響画像データ及び関連するパラメータを取り込むことができ(1384)、比較及び診断プロセスが繰り返されることができる。ある例では、継続的な繰り返し分析が、例えば、図12Aの音響撮像ツール1200を含む、固定された音響分析システムを使用して実行され得る。 In one embodiment, after comparing the captured data with the reference data (1386), if there is no sufficient deviation from the reference (1388), the process is based on the object's current acoustic signature and the object is normal. Can be terminated with the conclusion that it is working (1394). On top of that or separately, new acoustic image data and related parameters of the target target can be captured (1384) and the comparison and diagnostic process can be repeated. In one example, continuous iterative analysis may be performed using a fixed acoustic analysis system, including, for example, the acoustic imaging tool 1200 of FIG. 12A.

音響データ(例えば、画像データ及び/又は他の音響パラメータ)の比較は、ユーザを物体が正しく機能しているかどうかをより簡単に特定させ、そうでない場合は物体の問題を診断するのに役立つ。ある例では、基準との比較が、物体の操作上の問題とは無関係であり得る予想される動作音やフロア/バックグラウンド音など、シーン内の「通常の」音をユーザが無視するのに役立つ。 Comparing acoustic data (eg, image data and / or other acoustic parameters) can help the user more easily identify whether an object is functioning properly and, if not, diagnose problems with the object. In one example, the comparison with the criteria allows the user to ignore "normal" sounds in the scene, such as expected operating sounds and floor / background sounds that may be unrelated to object manipulation problems. Useful.

動作中、音響画像データ及び/又は関連する音響パラメータの観察、あるいは現在の音響シーンとデータベースの音響シーンとの間の比較の結果の観察は、さらなる点検のために目標位置をユーザに示し得る。例えば、データベース画像からの逸脱を示す比較音響画像は、異常に動作しているシーン内の一又はそれ以上の位置を示し得る。同様に、予期しない一又はそれ以上の位置で音響シグネチャを有する音響画像を見ることは、目標位置をユーザに示すことができる。例えば、図10Bを参照すると、音響撮像システムのディスプレイ上で図10Bを観察しているユーザは、特定の位置(例えば、1020)が予期せぬ音響信号を放出していることに気付くことがあり、又は同様に、基準画像との比較は、その位置での音響信号の予期しないパラメータ(例えば、予期しない周波数、強度など)を示す。 During operation, observation of acoustic image data and / or associated acoustic parameters, or observation of the results of a comparison between the current acoustic scene and the acoustic scene in the database, may indicate the target position to the user for further inspection. For example, a comparative acoustic image showing deviations from a database image may indicate one or more positions in a scene that is behaving abnormally. Similarly, viewing an acoustic image with an acoustic signature at one or more unexpected positions can indicate the target position to the user. For example, referring to FIG. 10B, a user observing FIG. 10B on the display of an acoustic imaging system may notice that a particular location (eg, 1020) emits an unexpected acoustic signal. , Or similarly, the comparison with the reference image indicates unexpected parameters of the acoustic signal at that location (eg, unexpected frequency, intensity, etc.).

あるそのような例では、異常がないか位置をより綿密に点検するために、ユーザはそのような位置に近づくことがある。物体に近づくと、ターゲットまでの距離値が更新され、音響アレイとターゲット位置との間の新しい距離が反映され得る。音響センサアレイ及び/又はバックプロパゲーションアルゴリズムは、更新されたターゲットまでの距離に基づいて更新され得る。その上若しくはそれとは別に、より近い位置からの更新された音響分析は、ターゲットからの音響信号の異なる分析をもたらすことがある。例えば、高周波音響信号(例えば、超音波信号)は、音響信号の発生源から比較的短い距離にわたって減衰する傾向がある。したがって、ユーザがさらなる点検のためにターゲットに近づくと、追加の信号(例えば、高周波信号)が音響センサアレイにとって可視であることがある。観察可能なシーンにおけるそのような明らかな変化はまた、音響撮像に使用される音響センサアレイ及び/又はバックプロパゲーションアルゴリズムの調整をもたらすことがある。 In one such example, the user may approach such a position in order to more closely check the position for anomalies. As you approach the object, the distance value to the target may be updated to reflect the new distance between the acoustic array and the target position. The acoustic sensor array and / or backpropagation algorithm can be updated based on the updated distance to the target. On top of that, or separately, updated acoustic analysis from a closer location may result in a different analysis of the acoustic signal from the target. For example, high frequency acoustic signals (eg, ultrasonic signals) tend to be attenuated over a relatively short distance from the source of the acoustic signal. Therefore, additional signals (eg, high frequency signals) may be visible to the acoustic sensor array as the user approaches the target for further inspection. Such obvious changes in observable scenes may also result in adjustments to the acoustic sensor array and / or backpropagation algorithm used for acoustic imaging.

したがって、音響撮像に使用されるセンサアレイ及び/又はバックプロパゲーションアルゴリズムは、ユーザが目標物体又は領域に近づくにつれて、1回又はそれ以上の回数で更新されることがある。各更新は、異なるセンサアレイ及び/又はバックプロパゲーションアルゴリズムを使用して、遠くからは観察できなかった可能性のある目標物体又は領域に関する追加の詳細を提供することができる。例えば、より広いシーンの初期の観察に基づいて、目標物体又は領域に近づくと、環境内のバックグラウンド音と比較して、目標の音響信号の音響強度を高めることもできる。 Therefore, the sensor array and / or backpropagation algorithm used for acoustic imaging may be updated one or more times as the user approaches the target object or region. Each update can use a different sensor array and / or backpropagation algorithm to provide additional details about a target object or region that may not have been observable from a distance. For example, closer to a target object or region based on early observations of a wider scene can also increase the acoustic intensity of the target acoustic signal compared to the background sound in the environment.

ある実施形態では、音響分析システム(例えば、手持ち式音響撮像ツール)は、シーン内の目標物体又は領域により近く移動するようにユーザに促すことがある。例えば、現在の音響画像を基準データベース画像と比較すると、音響分析システムは、基準から逸脱するシーン内の一又はそれ以上の位置を特定することができる。音響分析システムは、例えば、ディスプレイを介して、そのような一又はそれ以上の位置をユーザに強調表示し、さらなる分析のために、ユーザが特定された位置に近づくことを提案し得る。ある例では、音響分析システムは、環境内の物体の副構成要素又は特定の物体などの特定された位置を、データベースに記憶された独自の基準プロファイルを有するものとして分類することができる。システムは、分類された位置のそのようなプロファイルを提案及び/又は実施して、ユーザが追加の点検のために近づくときに特定された位置のさらなる分析を容易にするように構成され得る。 In certain embodiments, an acoustic analysis system (eg, a handheld acoustic imaging tool) may prompt the user to move closer to a target object or region in the scene. For example, comparing the current acoustic image with the reference database image, the acoustic analysis system can identify one or more positions in the scene that deviate from the reference. The acoustic analysis system may, for example, highlight such one or more positions to the user via a display and suggest that the user approach the specified position for further analysis. In one example, an acoustic analysis system can classify a particular location, such as a sub-component of an object in the environment or a particular object, as having its own reference profile stored in a database. The system may be configured to propose and / or implement such a profile of the classified locations to facilitate further analysis of the identified locations as the user approaches for additional inspection.

本明細書に記載のシステム及びプロセスは、音響点検の速度、効率、精度、及び徹底性を改善するために使用することができる。様々な自動化されたアクション及び/又は提案(例えば、センサアレイ、バックプロパゲーションアルゴリズムなど)は、経験の浅いユーザが音響シーンの徹底的な音響点検を実行し得るという点で、点検の容易さを向上することを可能にする。さらに、このようなプロセスは、システム全体、個々の物体、そして、個々の物体の副構成要素など、幅広いシーンを分析するのに使用され得る。音響シーンの基準音響データの事前定義及び/又はユーザ生成のプロファイルは、経験の浅いユーザでも、取り込まれた音響データの異常を特定するのに役立つことができる。 The systems and processes described herein can be used to improve the speed, efficiency, accuracy, and thoroughness of acoustic inspections. Various automated actions and / or suggestions (eg, sensor arrays, backpropagation algorithms, etc.) make inspection easier in that inexperienced users can perform a thorough acoustic inspection of the acoustic scene. Allows for improvement. In addition, such processes can be used to analyze a wide range of scenes, including entire systems, individual objects, and subcomponents of individual objects. Predefinition and / or user-generated profiles of reference acoustic data for acoustic scenes can help even inexperienced users identify anomalies in captured acoustic data.

音響画像データを可視光、赤外線、及び/又は紫外線画像データなどの他のデータストリームに重ね合わせることは、音響画像データ内で表される音響信号を放出している物体に追加のコンテキスト及び詳細を提供することができる。音響センサアレイと距離測定ツール(レーザ距離ファインダーなど)を組み合わせることは、音響撮像プロセスで使用する適切なターゲットまでの距離値をすばやく簡単に決定するときにユーザに役立つことがある。様々な例において、音響センサアレイ、距離測定ツール、プロセッサ、メモリ、及び一又はそれ以上の追加の撮像ツール(例えば、可視光カメラモジュール、赤外線カメラモジュールなど)は、複数のシーンの効率的な音響分析を提供できる手持ち式音響撮像ツールの単一の筐体によって支持され得る。このような手持ち式音響撮像ツールは、複数の目標物体を迅速に分析するために、シーンからシーンに移動されることがある。同様に、手持ち式ツールを使用すると、ユーザはシーン内の幕表位置に近づいて、さらなる点検又は分析をすることができる。 Superimposing acoustic image data on other data streams such as visible, infrared, and / or ultraviolet image data provides additional context and details to the object emitting the acoustic signal represented in the acoustic image data. Can be provided. Combining an acoustic sensor array with a distance measurement tool (such as a laser distance finder) can help the user in quickly and easily determining the distance value to the appropriate target for use in the acoustic imaging process. In various examples, acoustic sensor arrays, distance measurement tools, processors, memory, and one or more additional imaging tools (eg, visible light camera modules, infrared camera modules, etc.) provide efficient acoustics for multiple scenes. It may be supported by a single enclosure of handheld acoustic imaging tools that can provide analysis. Such handheld acoustic imaging tools may be moved from scene to scene in order to quickly analyze multiple target objects. Similarly, handheld tools allow the user to approach the curtain position in the scene for further inspection or analysis.

本明細書では、音響撮像を実行し、音響画像データを生成及び表示するための様々なシステム及び方法がここに説明されている。例示的なシステムは、音響シーンから音響信号を受信し、受信した音響信号に基づいて音響データを出力するように構成された複数の音響センサ要素を含む音響センサアレイを含むことができる。 Various systems and methods for performing acoustic imaging and generating and displaying acoustic image data are described herein. An exemplary system can include an acoustic sensor array that includes a plurality of acoustic sensor elements configured to receive an acoustic signal from an acoustic scene and output acoustic data based on the received acoustic signal.

システムは、ターゲットシーンから電磁放射を受信し、受信した電磁放射を表す電磁画像データを出力するように構成された電磁撮像ツールを含むことができる。そのような撮像ツールは、赤外線撮像ツール、可視光撮像ツール、紫外線撮像ツールなど、若しくはそれらの組み合わせを含むことができる。 The system can include an electromagnetic imaging tool configured to receive electromagnetic radiation from the target scene and output electromagnetic image data representing the received electromagnetic radiation. Such imaging tools can include infrared imaging tools, visible light imaging tools, ultraviolet imaging tools, and the like, or a combination thereof.

システムは、音響センサアレイと電磁撮像ツールと通信するプロセッサを含むことができる。プロセッサは、電磁撮像ツールから電磁画像データを受信し、音響センサアレイから音響データを受信するように構成され得る。プロセッサは、例えば、バックプロパゲーション計算を介して、受信した音響データと、ターゲットまでの距離を表す受信した距離情報に基づいて、シーンの音響画像データを生成するように構成され得る。音響画像データは、本明細書の他の場所で説明されているような調色若しくは配色などによる音響データの視覚的表現を含むことができる。 The system can include a processor that communicates with an acoustic sensor array and an electromagnetic imaging tool. The processor may be configured to receive electromagnetic image data from an electromagnetic imaging tool and acoustic data from an acoustic sensor array. The processor may be configured to generate acoustic image data of the scene, for example, via backpropagation calculations, based on the received acoustic data and the received distance information representing the distance to the target. The acoustic image data can include a visual representation of the acoustic data, such as toning or color scheme, as described elsewhere herein.

プロセッサは、生成された音響画像データと受信した電磁画像データとを組み合わせて、音響画像データと電磁画像データの両方を含むディスプレイ画像を生成し、ディスプレイ画像をディスプレイに通信するように構成され得る。音響画像データと電磁画像データとの組み合わせは、例えば、受信した距離情報に基づいて、音響画像データと電磁画像データとの間の視差エラーを補正することを含むことができる。 The processor may be configured to combine the generated acoustic image data with the received electromagnetic image data to generate a display image containing both the acoustic image data and the electromagnetic image data and to communicate the display image to the display. The combination of the acoustic image data and the electromagnetic image data can include, for example, correcting a parallax error between the acoustic image data and the electromagnetic image data based on the received distance information.

ある例では、距離情報は、プロセッサと通信する距離測定ツールから受信することができる。距離測定ツールは、例えば、レーザ距離測定装置などの光学距離測定装置、及び/又は音響距離測定装置を含むことができる。その上若しくはそれとは別に、ユーザは、例えば、ユーザインタフェースを介して、手動で距離情報を入力することができる。 In one example, distance information can be received from a distance measurement tool that communicates with the processor. The distance measuring tool can include, for example, an optical distance measuring device such as a laser distance measuring device and / or an acoustic distance measuring device. On top of that or separately, the user can manually enter distance information, for example via a user interface.

システムは、周波数、デシベルレベル、周期性、距離など、若しくはそれらの組み合わせなどの選択されたパラメータに基づいて、音又は音プロファイルなどの目標ポイントの位置を特定するのを助けるためのレーザポインタを含むことができる。このようなレーザポインタは、シーンの視野をディスプレイに表示される適切な音の視覚化と正確に合わせるとともに、整列するために使用されることがある。これは、点検下の物体が音響撮像装置に対して離れている環境、若しくは、ディスプレイ上の音の視覚化が実際のシーンに対してどこにあるかが明確でない場合に役立つ。 The system includes a laser pointer to help locate a target point such as a sound or sound profile based on selected parameters such as frequency, decibel level, periodicity, distance, etc., or a combination thereof. be able to. Such laser pointers may be used to accurately align and align the field of view of the scene with the appropriate sound visualization displayed on the display. This is useful in environments where the object under inspection is far from the acoustic imager, or when it is not clear where the sound visualization on the display is relative to the actual scene.

ある例では、レーザポインタは、ディスプレイ上に視覚化され得る。そのような視覚化は、実際のシーンにおけるレーザポインタを表すディスプレイ上に(例えば、プロセッサを介して)レーザポインタスポットを生成することを含むことができる。ある例では、レーザポインタの位置は、例えば、シーン内のレーザポインタを表すアイコン又は別の整列されたディスプレイマーカによりディスプレイ上で強調され、実際のシーンに対するディスプレイ上の位置をより適切に決定することができる。 In one example, the laser pointer can be visualized on the display. Such visualization can include generating a laser pointer spot (eg, via a processor) on a display that represents a laser pointer in a real scene. In one example, the position of the laser pointer is highlighted on the display by, for example, an icon representing the laser pointer in the scene or another aligned display marker to better determine the position on the display with respect to the actual scene. Can be done.

本明細書の他の個所で説明するように、熱画像システムは、音響画像データを作成することなどによって、一又はそれ以上の音響センサによって生成された音響データの偽色(例えば、調色された)、記号、又は他の非数値視覚表現を作成するように構成され得る。その上若しくはそれとは別に、システムは、スピーカ、ヘッドホン、有線又はリモート通信ヘッドセットなどを介して、ユーザに音声フィードバックを提供することができる。このような音声又はヘテロダイン音声の送信は、検出及び表示された音の視覚的表現に同期させることができる。 As described elsewhere herein, thermal imaging systems are false colors (eg, toned) of acoustic data generated by one or more acoustic sensors, such as by creating acoustic image data. It can be configured to create a), symbol, or other non-numerical visual representation. Moreover or separately, the system can provide voice feedback to the user via speakers, headphones, wired or remote communication headsets and the like. The transmission of such audio or heterodyne audio can be synchronized with the visual representation of the detected and displayed sound.

様々な例において、音響データは、例えば、そのようなデータの理解を容易にし、視聴者が視覚化される音の性質について誤った想定をすることを防ぐために、様々な方法で視覚化することができる。ある例では、異なるタイプの視覚化が、視覚化された音の直感的な理解を提供することを可能にする。 In various examples, acoustic data is visualized in different ways, for example, to facilitate understanding of such data and prevent viewers from making false assumptions about the nature of the sound being visualized. Can be done. In one example, different types of visualizations make it possible to provide an intuitive understanding of the visualized sound.

ある実施形態では、生成されたディスプレイは、視覚化されている音に関する情報の完全な提示を提供するために、数値及び/又は英数字のコンテキストデータを伴う非数値視覚表現を含み、これは、ユーザが一又はそれ以上の適切な行動方針を決定及び/又は実施するのを支援することを可能にする。 In certain embodiments, the generated display includes a non-numerical visual representation with numerical and / or alphanumerical contextual data to provide a complete presentation of information about the sound being visualized. Allows users to help determine and / or implement one or more appropriate policies of conduct.

様々な非数値グラフィック表現(例えば、記号、調色など)や英数字情報を含む様々な表示特徴は、組み合わせることができる。ある実施形態では、所定のシーン表現に存在する表示特徴は、例えば、複数の選択可能な設定から、ユーザによってカスタマイズされ得る。その上若しくはそれとは別に、表示特徴の事前設定された組み合わせは、ユーザにより選択されて、ディスプレイ画像に情報の所望の組み合わせを自動的に含めることを可能にする。様々な実施形態では、ディスプレイ画像の態様は、例えば、仮想インタフェース(例えば、タッチスクリーンを介して提供される)及び/又は物理的制御を介して、ユーザによって調整可能である。 Various display features, including various non-numeric graphic representations (eg, symbols, tonings, etc.) and alphanumerical information, can be combined. In certain embodiments, the display features present in a given scene representation may be customized by the user, for example, from a plurality of selectable settings. Moreover or separately, a preset combination of display features can be selected by the user to automatically include the desired combination of information in the display image. In various embodiments, the aspect of the display image is user adjustable, for example, via a virtual interface (eg, provided via a touch screen) and / or physical control.

図14は、グラデーション調色技術(palettization scheme)を使用した音響データの視覚化を示す。図示されているように、音響パラメータ(例えば、強度)は、グラデーション調色技術(palettization scheme)を介して示されている。例示的なグラデーション調色技術(palettization scheme)では、パラメータ値は、調色技術に従ってそれに関連付けられた固有の色を有する。所与のピクセルでのパラメータ値の変更は、通常、そのピクセルに関連付けられた色の変更をもたらし、新しいパラメータ値を表す。図14の例に示されるように、音響パラメータ値は、位置232、234、236において、音響信号の中心位置から半径方向に変化するように見える。グラデーション調色の他の例は、2017年11月2日に出願され、本出願の譲受人に譲受された米国特許出願第15/802,153号に記載されている。 FIG. 14 shows the visualization of acoustic data using a gradation toning technique. As shown, acoustic parameters (eg, intensity) are shown via a gradation toning technique. In an exemplary gradation scheme, a parameter value has a unique color associated with it according to the toning technique. A change in a parameter value at a given pixel usually results in a color change associated with that pixel, representing a new parameter value. As shown in the example of FIG. 14, the acoustic parameter values appear to change radially from the center position of the acoustic signal at positions 232, 234, and 236. Other examples of gradation toning are described in US Patent Application No. 15 / 802,153, filed November 2, 2017 and transferred to the transferee of this application.

図15は、複数の陰影付き同心円を使用した音響データの視覚化を示す。あるそのような例では、パラメータ値に関連付けられた色を有するグラデーション調色技術(palettization scheme)とは対照的に、図15に示される同心円のそれぞれの同一色は、その色に関連付けられた値の範囲内の音響パラメータ値を有するピクセルを表すことができる。図示の例では、位置332、334、336における音響信号に関連する音響パラメータ(例えば、強度)は、音響信号の中心から半径方向に変化している。例示的な調色技術において、赤で示されるピクセルは、パラメータ値の第1の範囲内の音響パラメータ値を表し、黄色で示されるピクセルは、パラメータ値の第2の範囲内の音響パラメータ値を表し、緑で示されるピクセルは、パラメータ値の第3の範囲内の音響パラメータ値を表すが、追加又は代替の色、パターンなどを含む他の表示技術が可能である。様々な実施形態において、値の範囲は、10dB〜20dBの間の強度値などの絶対範囲に対応することができるか、又は最大強度の90%〜100%の間の強度値などの相対範囲であり得る。 FIG. 15 shows a visualization of acoustic data using a plurality of shaded concentric circles. In one such example, each identical color of the concentric circles shown in FIG. 15 is the value associated with that color, as opposed to a gradation scheme with a color associated with the parameter value. Can represent pixels with acoustic parameter values within the range of. In the illustrated example, the acoustic parameters (eg, intensity) associated with the acoustic signal at positions 332, 334, 336 vary radially from the center of the acoustic signal. In an exemplary toning technique, the pixels shown in red represent acoustic parameter values within the first range of parameter values, and the pixels shown in yellow represent acoustic parameter values within the second range of parameter values. Represented and represented in green, the pixels represent acoustic parameter values within a third range of parameter values, but other display techniques including additional or alternative colors, patterns, etc. are possible. In various embodiments, the range of values can correspond to an absolute range, such as an intensity value between 10 dB and 20 dB, or a relative range, such as an intensity value between 90% and 100% of maximum intensity. could be.

本明細書の他の個所で説明するように、ある実施形態では、電磁画像データと音響画像データを含むディスプレイ画像は、音響信号の視覚的表示と音響信号に関連する一又はそれ以上のパラメータの英数字表現の両方を含むことができる。図16は、非数値情報(例えば、パラメータ値範囲を介した調色)と英数字情報の両方を示す例示的な視覚化を示している。図示の例では、英数字音強度値ラベルが、調色された音響画像データ(例えば、強さのデータ)を有する3つの位置のそれぞれに関連付けられている。図示されているように、音響信号は、それに関連する音響パラメータ(1602、1604、1606)、と英数字情報(それぞれ、1612、1614、1616)を表す対応する視覚的インジケータを有する。例示的な実施形態では、英数字情報は、調色された音響データが表示される位置に関連する最大強度値などの数値を提供することができる。ある例では、ユーザは、調色及び/又は英数字データを表示するための一又はそれ以上の位置を選択し得る。例えば、ユーザは、シーン内の一又はそれ以上の音響信号に関連する音響パラメータの英数字表現を使用して、ディスプレイ画像に注釈を付けることを選択し得る。 As described elsewhere herein, in certain embodiments, the display image, including the electromagnetic image data and the acoustic image data, is a visual representation of the acoustic signal and one or more parameters associated with the acoustic signal. It can contain both alphanumeric representations. FIG. 16 shows an exemplary visualization showing both non-numerical information (eg, toning over a parameter value range) and alphanumerical information. In the illustrated example, an alphanumerical sound intensity value label is associated with each of the three positions having toned acoustic image data (eg, intensity data). As illustrated, the acoustic signal has associated acoustic parameters (1602, 1604, 1606) and corresponding visual indicators representing alphanumerical information (1612, 1614, 1616, respectively). In an exemplary embodiment, the alphanumerical information can provide a numerical value, such as a maximum intensity value, associated with the location where the toned acoustic data is displayed. In one example, the user may select one or more positions for displaying toning and / or alphanumerical data. For example, the user may choose to annotate the display image using an alphanumerical representation of the acoustic parameters associated with one or more acoustic signals in the scene.

ある例では、英数字情報は、シーン内の所与の位置での音響信号に関連する複数のパラメータ(例えば、音響パラメータ)を表すことができる。図17は、非数値情報(例えば、パラメータ値範囲を介した調色)と英数字情報の両方を含む視覚化の例を示している。図示の例では、音の強度値と対応する周波数値(例えば、平均周波数又はピーク周波数)が、それぞれインジケータ1702、1704、1706を介して示される調色された音響データ(例えば、強度データ)を有する3つの位置のそれぞれに関連する英数字情報1712、1714、1716に示されている。図16に関して説明したのと同様に、様々な位置での様々なそのようなデータの包含は、ユーザによって開始されることができる。例えば、ユーザは、シーン内の一又はそれ以上の音響信号に関連する一又はそれ以上の音響パラメータの英数字表現を使用して、ディスプレイ画像に注釈を付けることを選択し得る。 In one example, the alphanumerical information can represent multiple parameters (eg, acoustic parameters) associated with an acoustic signal at a given location in the scene. FIG. 17 shows an example of a visualization that includes both non-numerical information (eg, toning over a parameter value range) and alphanumerical information. In the illustrated example, toned acoustic data (eg, intensity data) in which a sound intensity value and a corresponding frequency value (eg, average frequency or peak frequency) are indicated via indicators 1702, 1704, 1706, respectively. It is shown in the alphanumeric information 1712, 1714, 1716 associated with each of the three positions it has. As described with respect to FIG. 16, inclusion of various such data at various locations can be initiated by the user. For example, the user may choose to annotate the display image using an alphanumerical representation of one or more acoustic parameters associated with one or more acoustic signals in the scene.

図18は、非数値情報(例えば、パラメータ値範囲を介した調色)と英数字情報の両方を示す別の例示的な視覚化を示している。図示の例では、距離測定が、それぞれインジケータ1802、1804、1806を介して示される、調色された音響データ(例えば、強度データ)を有する3つの位置のそれぞれに関連する英数字情報1812、1814、1816と共に含まれている。図16に関して説明したのと同様に、様々な位置に様々なそのようなデータを含めることは、例えば、ディスプレイ画像注釈の一部として、ユーザによって選択され得る。 FIG. 18 shows another exemplary visualization showing both non-numerical information (eg, toning over a parameter value range) and alphanumerical information. In the illustrated example, the distance measurements are indicated via indicators 1802, 1804, 1806, respectively, with alphanumerical information 1812, 1814 associated with each of the three positions having toned acoustic data (eg, intensity data). , 1816. The inclusion of various such data in various locations, as described with respect to FIG. 16, may be selected by the user, for example, as part of the display image annotation.

ある例では、非数値表現が、複数の音響パラメータに関連する情報を伝達するために使用されることがある。例えば、図19は、異なる音響パラメータ値を表す異なるサイズと色のインジケータ1902、1904、1906(この場合、円)を示す例示的な視覚化を示している。例示的な実施形態では、インジケータのサイズは、所与の位置での音響信号の強度に対応し、インジケータの色は、ピーク又は平均周波数に対応している。例示的な実施形態では、あるインジケータのサイズを別のインジケータのサイズと比較することが、インジケータに関連付けられた位置で表される音響パラメータ値間の相対差を表すように、インジケータサイズは相対値を示すことができる。その上若しくはそれとは別に、英数字情報は、絶対的又は相対的な音響パラメータ値を提供するために、含められ得る。 In some examples, non-numerical representations may be used to convey information related to multiple acoustic parameters. For example, FIG. 19 shows an exemplary visualization showing different size and color indicators 1902, 1904, 1906 (in this case, circles) representing different acoustic parameter values. In an exemplary embodiment, the size of the indicator corresponds to the intensity of the acoustic signal at a given position, and the color of the indicator corresponds to the peak or average frequency. In an exemplary embodiment, the indicator size is a relative value, just as comparing the size of one indicator to the size of another indicator represents the relative difference between the acoustic parameter values represented at the location associated with the indicator. Can be shown. On top of that or separately, alphanumerical information can be included to provide absolute or relative acoustic parameter values.

ある実施形態では、色付きインジケータが、一又はそれ以上の検出された音響信号、及び/又は、基準パラメータからの逸脱量などの関連する音響パラメータの重大度を表すために使用されることがある。図20は、対応する位置からの音響信号によって示される重大度を示す異なる色を有する複数のインジケータ2002、2004、2006を示す例示的な視覚化を示している。例えば、例示的な実施形態では、赤色のインジケータは、(例えば、典型的な動作条件の基準などの基準と比較した場合)もう1つの音響パラメータに基づく重大な重大度を示し、黄色のインジケータは中程度の重大度を示し、緑色はインジケータは軽度の重大度を表す。他の例では、他の配色又は外観特性(例えば、インジケータの透明度、インジケータのサイズなど)が、音響信号の重大度を視覚的に区別するために使用されることがある。図示の例では、インジケータ2004は最大レベルの重大度を表し、インジケータ2006は次に大きいレベルを表し、インジケータ2002は最も重大度の低い音響信号を表している。 In certain embodiments, a colored indicator may be used to indicate the severity of one or more detected acoustic signals and / or associated acoustic parameters such as deviations from reference parameters. FIG. 20 shows an exemplary visualization showing a plurality of indicators 2002, 2004, 2006 with different colors indicating the severity indicated by the acoustic signal from the corresponding position. For example, in an exemplary embodiment, the red indicator indicates significant severity based on another acoustic parameter (eg, when compared to criteria such as typical operating condition criteria), and the yellow indicator is Medium severity, green indicates a mild severity indicator. In other examples, other color schemes or appearance characteristics (eg, indicator transparency, indicator size, etc.) may be used to visually distinguish the severity of the acoustic signal. In the illustrated example, indicator 2004 represents the highest level of severity, indicator 2006 represents the next highest level, and indicator 2002 represents the least severe acoustic signal.

本明細書の他の個所で説明するように、様々な実施形態では、一又はそれ以上の音響パラメータが、例えば、調色されたカラーディスプレイ又はグレースケールディスプレイによって、音響シーンの視覚的表現に表示されることがある。ある実施形態では、システムは、特定された周波数範囲、強度範囲、距離範囲などのような、一又はそれ以上の音響条件を満たすシーン内の一又はそれ以上の位置を特定するように構成され得る。ある例では、(例えば、特定のセットの条件又はパラメータを満たす)音プロファイルに対応する様々な位置が特定され得る。そのような特定された位置は、ディスプレイ画像を作成する際に他の方法で使用される音響画像データ調色技術とは異なる方法で提示され得る。例えば、図21は、シーン内の複数の位置におけるインジケータを含むシーンを示している。インジケータ2101、2102、2103、2104、及び2105は、シーン内に配置される。インジケータ2103、2104、及び2105は、例えば、スケール2110に対応する一又はそれ以上の音響パラメータの値を表す、調色された音響画像データを含んでいる。インジケータ2101及び2102は、位置2103、2104、及び2105に現れる調色技術と区別できる独特の提示技術を有することが示されている。そのような実施形態では、ユーザは、一又はそれ以上の所望の条件を満たす画像内のそれらの位置を迅速かつ容易に特定し得る。あるそのような例では、ユーザは、例えば、2110などのスケールからの値の範囲の選択に基づいて、区別できる方法で表示するための一又はそれ以上の所望の条件を選択し得る。 As described elsewhere herein, in various embodiments, one or more acoustic parameters are displayed in a visual representation of the acoustic scene, for example, by a toned color display or grayscale display. May be done. In certain embodiments, the system may be configured to identify one or more positions in a scene that satisfy one or more acoustic conditions, such as a specified frequency range, intensity range, distance range, and the like. .. In one example, various positions corresponding to a sound profile (eg, satisfying a particular set of conditions or parameters) may be identified. Such identified locations may be presented in a manner different from the acoustic image data toning techniques used in other methods in creating display images. For example, FIG. 21 shows a scene that includes indicators at multiple positions within the scene. Indicators 2101, 2102, 2103, 2104, and 2105 are arranged in the scene. Indicators 2103, 2104, and 2105 include toned acoustic image data representing, for example, the values of one or more acoustic parameters corresponding to scale 2110. Indicators 2101 and 2102 are shown to have a unique presentation technique that distinguishes them from the toning techniques that appear at positions 2103, 2104, and 2105. In such an embodiment, the user can quickly and easily identify their position in an image that meets one or more desired conditions. In one such example, the user may select one or more desired conditions for display in a distinguishable manner, based on the selection of a range of values from a scale, such as 2110.

その上若しくはそれとは別に、特定の音プロファイルの条件を満たす位置は、対応する音プロファイルなど、満たされた条件を表すアイコンで提示することができる。例えば、図22は、シーン内の認識された音プロファイルを示すディスプレイ画像内に配置された複数のアイコン2202、2204、2206、2208を示している。図22に示される例示的なプロファイルは、ベアリングの摩耗、空気漏れ、及び電気アーク放電を含む。そのようなプロファイルは、そのようなプロファイルに分類されるために、そのようなプロファイルに関連付けられた一又はそれ以上のパラメータのセットを満たす音響信号によって特定され得る。 On top of that, or separately, positions that meet the conditions for a particular sound profile can be presented with icons that represent the conditions, such as the corresponding sound profile. For example, FIG. 22 shows a plurality of icons 2202, 2204, 2206, 2208 arranged in a display image showing a recognized sound profile in the scene. The exemplary profile shown in FIG. 22 includes bearing wear, air leaks, and electric arc discharge. Such profiles may be identified by acoustic signals that satisfy one or more sets of parameters associated with such profiles in order to be classified into such profiles.

図23は、各音響信号に関連する音響強度を表す同心円と英数字情報を使用して、複数のインジケータ2302、2304及び2306を介した音響データを示す別の例示的なディスプレイ画像を示している。本明細書の他の位置で説明するように、ある例では、インジケータのサイズは、対応する位置に存在する一又はそれ以上の音響パラメータを表すことができる。ある実施形態では、インジケータは単色であることがあり、インジケータサイズ、線の太さ、線のタイプ(例えば、実線、破線など)などによって、一又はそれ以上の他の方法で音響パラメータを示すことができる。 FIG. 23 shows another exemplary display image showing acoustic data via a plurality of indicators 2302, 2304 and 2306, using concentric circles representing the acoustic intensity associated with each acoustic signal and alphanumerical information. .. As described elsewhere herein, in one example, the size of the indicator can represent one or more acoustic parameters present at the corresponding position. In certain embodiments, the indicator may be monochromatic, indicating acoustic parameters in one or more other ways, such as by indicator size, line thickness, line type (eg, solid line, dashed line, etc.). Can be done.

ある例では、ディスプレイは、ユーザによって行われた選択に基づく英数字情報を含むことができる。例えば、ある実施形態では、システムは(例えば、プロセッサを介して)、そのような位置での(例えば、ユーザインタフェースを介した)ディスプレイ上のインジケータのユーザ選択に応答して特定の位置に位置する音響信号の一又はそれ以上の音響パラメータを表す情報を含むことができる。図24は、表示された音響信号に関連するインジケータ及び追加の英数字情報を有する例示的なディスプレイ画像を示している。一例では、ディスプレイ上のインジケータ2402は、さらなる分析のために選択され得る(例えば、十字線を介して表され、これは、タッチスクリーン入力を介するなど、選択を示すことができる)。ディスプレイは、ピーク強度及び対応する周波数、周波数範囲、位置までの測定距離、並びにその位置からの音響信号によって示される臨界レベルを含む、インジケータに対応する位置に関連するデータのリストを含む英数字情報2404を示している。 In one example, the display may contain alphanumerical information based on the choices made by the user. For example, in one embodiment, the system is located in a particular position (eg, via a processor) in response to a user selection of an indicator on the display at such position (eg, via a user interface). It can contain information that represents one or more acoustic parameters of the acoustic signal. FIG. 24 shows an exemplary display image with indicators and additional alphanumerical information associated with the displayed acoustic signal. In one example, the indicator 2402 on the display may be selected for further analysis (eg, represented via a crosshair, which may indicate a selection, such as via a touch screen input). The display contains alphanumerical information including a list of data related to the position corresponding to the indicator, including the peak intensity and the corresponding frequency, frequency range, measurement distance to the position, and the critical level indicated by the acoustic signal from that position. 2404 is shown.

ある例では、ディスプレイ画像は、シーン内の対応する複数の音響信号を表す複数のインジケータを含むことができる。ある実施形態では、そのような場合、ユーザは、一又はそれ以上のインジケータを(例えば、タッチスクリーン又は他のユーザインタフェースを介して)選択することがあり、選択の検出に応答して、プロセッサは、音響信号に関する追加情報を提示し得る。このような追加情報には、一又はそれ以上の音響パラメータの英数字を含めることができる。ある例では、そのような追加情報は、複数の音響信号に対して同時に表示することができる。他の例では、所与の音響信号に関するそのような追加情報は、別の音響信号が選択されるときに隠される。 In one example, the display image can include multiple indicators that represent the corresponding multiple acoustic signals in the scene. In certain embodiments, in such cases, the user may select one or more indicators (eg, via a touch screen or other user interface), and in response to detection of the selection, the processor. , May provide additional information about the acoustic signal. Such additional information may include alphanumericals for one or more acoustic parameters. In one example, such additional information can be displayed simultaneously for multiple acoustic signals. In another example, such additional information about a given acoustic signal is hidden when another acoustic signal is selected.

本明細書の他の場所で説明されているように、ある例では、システムはレーザポインタを含むことができる。ある例では、レーザポインタは、固定された方向を有することができるか、若しくは、例えば、プロセッサを介して制御可能な調整可能なポインティングを有することができる。ある例では、システムは、画像内の選択された位置に関連付けられたターゲットシーン内の位置にレーザポインタを向けるように構成され得る。図25Aは、インジケータ2502が選択されている、図24に示されているディスプレイなどのディスプレイを含むシステム(ある例では、手持ち式ツールとして具体化されている)を示している。レーザポインタ2504は、シーンに向かってレーザビーム2506を放出し、レーザは、画像内の選択されたインジケータ2502の位置に対応してシーン内にレーザスポット2508を作成する。これは、ユーザが環境内の選択及び/又は分析された音響信号の位置を視覚化するのに役立たせることができる。ある実施形態では、レーザスポット2508は、電磁撮像ツールによって検出可能であり、表示されたインジケータ2502と、音響パラメータ情報を含む英数字情報2512と共にディスプレイ上に見ることができる。ある例では、音響撮像システムは、シーン内のレーザの位置を検出又は予測し、レーザ位置の視覚的表示2510を提供するように構成されている。図25Bは、図25Aのシステムビューに示されるようなディスプレイ画像を示している。 In some examples, the system can include a laser pointer, as described elsewhere herein. In some examples, the laser pointer can have a fixed orientation or, for example, can have adjustable pointing that can be controlled via a processor. In one example, the system may be configured to point the laser pointer at a position in the target scene associated with the selected position in the image. FIG. 25A shows a system (in one example, embodied as a handheld tool), including a display such as the display shown in FIG. 24, to which indicator 2502 is selected. The laser pointer 2504 emits a laser beam 2506 towards the scene, and the laser creates a laser spot 2508 in the scene corresponding to the position of the selected indicator 2502 in the image. This can help the user visualize the location of the selected and / or analyzed acoustic signal in the environment. In certain embodiments, the laser spot 2508 is detectable by an electromagnetic imaging tool and can be seen on the display along with the displayed indicator 2502 and the alphanumerical information 2512 including acoustic parameter information. In one example, the acoustic imaging system is configured to detect or predict the position of the laser in the scene and provide a visual indication of the laser position 2510. 25B shows a display image as shown in the system view of FIG. 25A.

レーザポインタが固定された向きを有する実施形態では、ユーザは、レーザ位置を視覚的に示すディスプレイ画像をフィードバックとして見ることができ、その結果、ユーザは、選択された音響信号と一致するようにレーザの照準を調整することができる。 In embodiments where the laser pointer has a fixed orientation, the user can see as feedback a display image that visually indicates the laser position, so that the user can see the laser to match the selected acoustic signal. You can adjust the aim of.

本明細書の他の個所で説明するように、ある実施形態では、音響画像データを電磁画像データと組み合わせて、ディスプレイ画像で提示することができる。ある例では、音響画像データは、電磁画像データの様々な側面が完全に隠されないように調整可能な透明度を含むことができ、図26は、シーン内のある位置でインジケータ2602によって表される音響画像データを示し、インジケータ2602は、グラデーション調色技術(palettization scheme)を含んでいる。システムは、音響撮像ツールと一体若しくは別個である表示装置であって、電磁画像データと音響画像データを含む表示データを提示するように構成された表示装置を含むことができる。 As described elsewhere herein, in certain embodiments, the acoustic image data can be combined with the electromagnetic image data and presented as a display image. In one example, the acoustic image data can include transparency that can be adjusted so that various aspects of the electromagnetic image data are not completely hidden, and FIG. 26 shows the acoustics represented by the indicator 2602 at some point in the scene. Showing image data, indicator 2602 includes a gradation scheme. The system may include a display device that is integrated with or separate from the acoustic imaging tool and is configured to present display data, including electromagnetic image data and acoustic image data.

ある実施形態では、装置(例えば、手持ち式音響撮像ツール)は、物理的ブレンド制御2614(例えば、ユーザインタフェースの一部として含まれ得る一又はそれ以上のボタン、ノブ、スライダーなど)及び/又はタッチスクリーン若しくは他の仮想的に実装されたインタフェースを介するなどの仮想ブレンド制御2604を含むことができる。ある実施形態では、そのような機能は、スマートフォン、タブレット、コンピュータなどの外部ディスプレイ装置によって提供され得る。 In certain embodiments, the device (eg, a handheld acoustic imaging tool) is a physical blend control 2614 (eg, one or more buttons, knobs, sliders, etc. that may be included as part of the user interface) and / or touch. Virtual blend control 2604, such as via a screen or other virtually implemented interface, can be included. In certain embodiments, such functionality may be provided by an external display device such as a smartphone, tablet, computer or the like.

図27は、部分的に透明な同心円調色技術を含む、ディスプレイ画像のための仮想及び/又は物理的ブレンド制御ツールを示している。図26に関する説明と同様に、インジケータ2702は、シーン内の音響信号を表すことができる。音響撮像システムは、ディスプレイ画像内の音響画像データ(例えば、インジケータ2702)の透明度を調整するために使用することができる物理的ブレンド制御2714及び/又は仮想ブレンド制御2704を含むことができる。 FIG. 27 shows a virtual and / or physical blend control tool for display images, including a partially transparent concentric toning technique. Similar to the description with respect to FIG. 26, the indicator 2702 can represent an acoustic signal in the scene. The acoustic imaging system can include physical blend control 2714 and / or virtual blend control 2704 that can be used to adjust the transparency of the acoustic image data (eg, indicator 2702) in the display image.

その上若しくはそれとは別に、物理的及び/又は仮想インタフェースが、一又はそれ以上の表示パラメータを調整するために使用され得る。例えば、ある実施形態では、一又はそれ以上のフィルタが、本明細書の他の場所で説明するような、一又はそれ以上の条件を満たす音響画像データを選択的に表示するために、適用され得る。図28は、一又はそれ以上のフィルタを満たすシーン内の位置を示す(例えば、一又はそれ以上の対応する閾値又は所定の条件を満たす一又はそれ以上の音響又は他のパラメータを有する)グラデーション調色を有するインジケータ2802を含むシーンを示している。様々な例において、フィルタ処理は、物理的制御2814(例えば、一又はそれ以上のボタン、ノブ、スイッチなどを介して)及び/又は仮想制御2804(例えば、タッチスクリーン)を介して選択及び/又は調整され得る。図示の例では、フィルタは、音響パラメータの事前定義された範囲2806内にある音響パラメータ(例えば、周波数)を有する音響信号のみの音響画像データを表示することを含む。図示されているように、事前定義された範囲2806は、可能なフィルタ範囲2816のサブセットである。ある例では、ユーザは、例えば、仮想2804又は物理2814的制御を介して、フィルタ効果を調整するために、事前定義された範囲2806の制限を調整し得る。 On top of that or separately, physical and / or virtual interfaces may be used to adjust one or more display parameters. For example, in one embodiment, one or more filters are applied to selectively display acoustic image data that meets one or more conditions, as described elsewhere herein. obtain. FIG. 28 shows a position in a scene that satisfies one or more filters (eg, has one or more corresponding thresholds or one or more acoustics or other parameters that meet a given condition). It shows a scene containing an indicator 2802 with a color. In various examples, filtering is selected and / or via physical control 2814 (eg, via one or more buttons, knobs, switches, etc.) and / or virtual control 2804 (eg, through a touch screen). Can be adjusted. In the illustrated example, the filter comprises displaying acoustic image data of only acoustic signals having acoustic parameters (eg, frequency) within a predefined range 2806 of acoustic parameters. As shown, the predefined range 2806 is a subset of the possible filter range 2816. In one example, the user may adjust the limits of the predefined range 2806 to adjust the filter effect, for example, via virtual 2804 or physical 2814 control.

図29は、部分的に透明な同心円調色技術を含む、ディスプレイ画像の仮想及び/又は物理的なフィルタ調整を示している。図示されるように、インジケータ2902は、フィルタに基づく値の所定の範囲2906内にある音響パラメータに基づいて、シーン内に示される。フィルタは、例えば、仮想2904及び/又は物理的な2914制御を介して、値の範囲2916内で調整可能であり得る。 FIG. 29 shows a virtual and / or physical filter adjustment of a display image, including a partially transparent concentric toning technique. As shown, the indicator 2902 is shown in the scene based on acoustic parameters within a predetermined range 2906 of values based on the filter. The filter may be adjustable within the range of values 2916, for example via virtual 2904 and / or physical 2914 control.

ある実施形態では、複数のフィルタが、調色された音響画像データを含むディスプレイ画像をカスタマイズするために利用されることがある。図30は、第1のインジケータと第2のインジケータを示すディスプレイ画像を示している。本明細書の他の個所で説明するように、一又はそれ以上のフィルタが、(例えば、物理的フィルタ制御及び/又は仮想フィルタ制御を介して)ディスプレイ画像に適用され、表示されたデータをカスタマイズすることができる。図30の図示の例では、フィルタ処理は、第1のフィルタ範囲3006と第2のフィルタ範囲3008を確立することを含んでいる。ある例では、フィルタ範囲は、例えば、仮想3004及び/又は物理的3014制御を介して、値の範囲3016内で調整可能であり得る。 In certain embodiments, a plurality of filters may be used to customize a display image that includes toned acoustic image data. FIG. 30 shows a display image showing a first indicator and a second indicator. As described elsewhere herein, one or more filters are applied to the display image (eg, via physical filter control and / or virtual filter control) to customize the displayed data. can do. In the illustrated example of FIG. 30, filtering involves establishing a first filter range 3006 and a second filter range 3008. In one example, the filter range may be adjustable within the range of values 3016, for example via virtual 3004 and / or physical 3014 control.

このようなフィルタ範囲は、周波数、振幅、近接度など、様々なパラメータのいずれかを表すことができる。図示されているように、第1のフィルタ範囲と第2のフィルタ範囲はそれぞれ色に関連付けられ(ある例では、ユーザによって調整可能である)、インジケータ3002、3012は、対応する音響信号が各フィルタ範囲に関連付けられる一又はそれ以上のフィルタ条件を満たす画像内の位置に配置される。図示されているように、第1のインジケータ3002は、第1のフィルタ範囲3006(暗い陰影で示される)を満たす音響信号を表し、第2のインジケータ3012は、第2のフィルタ範囲3008(明るい陰影で示される)を満たす音響信号を表している。したがって、ユーザは、どの位置がどの条件を満たすかを特定しながらも、同時に様々な条件を満たす音響データを有するシーン内の位置を迅速に特定することができ得る。 Such a filter range can represent any of a variety of parameters such as frequency, amplitude, and proximity. As shown, the first filter range and the second filter range are each associated with a color (in one example, user adjustable), and the indicators 3002, 3012 have corresponding acoustic signals for each filter. It is placed at a position in the image that meets one or more filter criteria associated with the range. As shown, the first indicator 3002 represents an acoustic signal that fills the first filter range 3006 (indicated by dark shading) and the second indicator 3012 represents a second filter range 3008 (bright shading). Represents an acoustic signal that satisfies). Therefore, the user can quickly identify a position in the scene having acoustic data satisfying various conditions at the same time while specifying which position satisfies which condition.

ある例では、音響撮像ツール又は外部ディスプレイ装置などのディスプレイ装置は、図31に示されるような入力装置として仮想キーボードを含むことができる。図31は、シーン内の音響信号の一又はそれ以上の音響パラメータを表すインジケータ3102を含むディスプレイインタフェースを示している。仮想キーボード3110がディスプレイに含まれており、これを使用して、英数字情報3112をディスプレイ画像に追加することができる。このような仮想キーボードを利用することは、画像と共に保存できる様々な点検メモ、ラベル、日付/タイムスタンプ、又はその他のデータなど、カスタマイズされた注釈をユーザに入力させることを可能にする。様々な例において、仮想キーボードが使用されて、画像データに含まれる、及び/又は、ディスプレイ画像に関連付けられたメタデータに記憶されることなどによって画像データに追加されるテキストを追加することができる。 In one example, a display device such as an acoustic imaging tool or an external display device may include a virtual keyboard as an input device as shown in FIG. FIG. 31 shows a display interface that includes an indicator 3102 that represents one or more acoustic parameters of an acoustic signal in the scene. A virtual keyboard 3110 is included in the display, which can be used to add alphanumerical information 3112 to the display image. Utilizing such a virtual keyboard allows the user to enter customized annotations such as various inspection notes, labels, date / time stamps, or other data that can be stored with the image. In various examples, a virtual keyboard can be used to add text that is included in the image data and / or that is stored in the metadata associated with the display image and is added to the image data. ..

様々な装置が使用されて、音響画像データと、英数字データ、一又はそれ以上の電磁スペクトルからの画像データ、記号などの他のデータとの様々な組み合わせを含むディスプレイ画像を提示することがある。ある例では、手持ち式音響撮像ツールは、ディスプレイ画像を提示するためのビルトインディスプレイを含むことができる。他の例では、表示されるべき情報、若しくは、表示を生成するために処理されるデータ(例えば、生のセンサデータ)は、表示のために外部装置に通信され得る。そのような外部装置は、例えば、スマートフォン、タブレット、コンピュータ、ウェアラブル装置などを含むことができる。ある実施形態では、ディスプレイ画像は、拡張されたリアルティタイプのディスプレイにおいて、リアルタイムの電磁画像データ(例えば、可視光画像データ)と組み合わせて提示される。 Various devices may be used to present display images containing various combinations of acoustic image data with alphanumerical data, image data from one or more electromagnetic spectra, symbols and other data. .. In one example, the handheld acoustic imaging tool can include a built-in display for presenting display images. In another example, the information to be displayed, or the data processed to generate the display (eg, raw sensor data), may be communicated to an external device for display. Such external devices can include, for example, smartphones, tablets, computers, wearable devices and the like. In certain embodiments, the display image is presented in combination with real-time electromagnetic image data (eg, visible light image data) on an enhanced realty type display.

図32は、ユーザに着用され得るアイウェア3210に組み込まれたディスプレイを示している。ある例では、アイウェアは、関連部分が参照により本明細書に組み込まれる「試験及び測定ツールに組み込まれるか、若しくは、付属される撮像ツールからの画像表示(DISPLAY OF IMAGES FROM AN IMAGING TOOL EMBEDDED OR ATTACHED TO A TEST AND MEASUREMENT TOOL)」と題され、本出願の譲受人に譲受された米国特許公開第20160076937号に記載されるような一又はそれ以上の組み込まれた撮像ツールを含むことができる。あるそのような例では、統合ディスプレイは、リアルタイムディスプレイ画像3220を表示することができる。例えば、ディスプレイは、ユーザが向いているシーンを表す電磁画像データ(例えば、可視光画像データ)を表示することができ、同時に(例えば、ブレンド、オーバレイなどを介して)、音響画像データ(例えば、インジケータ3202を含む)などの一又はそれ以上の追加のデータストリームを表示して、ユーザに追加情報を提供することができる。ある実施形態では、図32に示されるようなアイウェアは、透明な表示画面を含み、その結果、ディスプレイ画像がディスプレイに提供されない場合、ユーザは、リアルタイム可視光画像データを提示されるのではなく、アイウェアを通して自分の目で直接シーンを見ることができる。あるそのような例では、音響画像データ、英数字データなどの追加のデータが、ユーザの視野内の他の透明なディスプレイに表示して、ユーザは、ディスプレイを介してシーンの自分の視野に加えてそのようなデータを見ることができる。 FIG. 32 shows a display built into eyewear 3210 that can be worn by the user. In one example, the eyewear is "incorporated into a test and measurement tool, or image display from an attached imaging tool (DISPLAY OF IMAGES FROM AN IMAGING TOOL EMBEDDOR), the relevant part of which is incorporated herein by reference. ATTACEED TO A TEST AND MEASUREMENT TOOL) ", which may include one or more built-in imaging tools as described in US Patent Publication No. 20160076937 transferred to the transferee of this application. In one such example, the integrated display can display a real-time display image 3220. For example, the display can display electromagnetic image data (eg, visible light image data) that represents the scene the user is facing, and at the same time (eg, via blends, overlays, etc.) and acoustic image data (eg, via an overlay, etc.). One or more additional data streams such as (including indicator 3202) can be displayed to provide additional information to the user. In certain embodiments, eyewear as shown in FIG. 32 includes a transparent display screen, so that if no display image is provided to the display, the user is not presented with real-time visible light image data. , You can see the scene directly with your own eyes through eyewear. In one such example, additional data, such as acoustic image data, alphanumerical data, etc., is displayed on another transparent display within the user's field of view, allowing the user to add to their field of view of the scene through the display. You can see such data.

本明細書の他の個所で説明するように、様々な例において、ディスプレイ画像に提示される様々なデータは、他のデータストリームとのブレンド(例えば、音響画像データと可視光画像データとのブレンド)を含む様々な方法で組み合わせることができる。ある例では、ブレンドの強さは、単一のディスプレイ画像内の異なる位置間で異なる可能性がある。ある実施形態では、ユーザは、複数の位置のそれぞれ(例えば、検出された音響信号の複数のインジケータのそれぞれ)のブレンド比を手動で調整することができる。その上若しくはそれとは別に、ブレンドは、周波数、振幅、近接度などのような一又はそれ以上のパラメータの関数であり得る。 As described elsewhere herein, in various examples, the various data presented in the display image is a blend with another data stream (eg, a blend of acoustic and visible light image data). ) Can be combined in various ways. In one example, the strength of the blend can vary between different locations within a single display image. In certain embodiments, the user can manually adjust the blend ratio of each of the plurality of positions (eg, each of the plurality of indicators of the detected acoustic signal). Moreover or separately, the blend can be a function of one or more parameters such as frequency, amplitude, proximity and the like.

ある実施形態では、音響撮像ツールは、センサアレイが検出された音響信号を放出している複数の位置のそれぞれを指している程度を特定し、対応する音響画像データを、例えば、可視光画像データとブレンドするように構成され得る。図33Aは、音響シーンにおける音響信号を表す第1のインジケータ3302と第2のインジケータ3304を含む例示的なディスプレイを示している。図33Aでは、音響センサは、第2のインジケータ3304の位置に対応するパイプ2と比較した場合、第1のインジケータ3302の位置に対応するパイプ1をより直接的に指している。したがって、図33Aの表示技術では、第1のインジケータ3302は、第2のインジケータ3304よりも目立つように表示される(例えば、より高いブレンド係数又はより低い透明度を有する)。逆に、図33Bで、音響センサは、第1のインジケータ3302の位置に対応するパイプ1と比較した場合、第2のインジケータ3304の位置に対応するパイプ2をより直接的に指している。したがって、図33Bの表示技術では、第2のインジケータ3304は、第1のインジケータ3302よりも目立つように表示される(例えば、より高いブレンド係数又はより低い透明度を有する)。一般に、ある実施形態では、音響撮像システムは、センサが所与の位置に向けられている程度を示すメトリックを決定し(例えば、音響画像データのインジケータに対応して)、それに応じた位置に対応するブレンド比を調整することができる(例えば、照準の程度が大きいほど、対応してブレンド率が高くなる)。 In one embodiment, the acoustic imaging tool identifies the extent to which the sensor array points to each of a plurality of locations emitting the detected acoustic signal and provides the corresponding acoustic image data, eg, visible light image data. Can be configured to blend with. FIG. 33A shows an exemplary display including a first indicator 3302 and a second indicator 3304 that represent acoustic signals in an acoustic scene. In FIG. 33A, the acoustic sensor more directly points to the pipe 1 corresponding to the position of the first indicator 3302 when compared to the pipe 2 corresponding to the position of the second indicator 3304. Therefore, in the display technique of FIG. 33A, the first indicator 3302 is displayed more prominently than the second indicator 3304 (eg, has a higher blend factor or lower transparency). Conversely, in FIG. 33B, the acoustic sensor more directly points to the pipe 2 corresponding to the position of the second indicator 3304 when compared to the pipe 1 corresponding to the position of the first indicator 3302. Therefore, in the display technique of FIG. 33B, the second indicator 3304 is displayed more prominently than the first indicator 3302 (eg, has a higher blend factor or lower transparency). In general, in one embodiment, the acoustic imaging system determines a metric that indicates how much the sensor is oriented at a given position (eg, corresponding to an indicator of acoustic image data) and corresponds to the corresponding position. The blending ratio to be applied can be adjusted (for example, the greater the degree of aiming, the higher the blending ratio correspondingly).

ある例では、プロセッサは、シーン内で検出された音プロファイルを保存することができる。例えば、例示された実施の態様において、ユーザは、一又はそれ以上のパラメータに対応する音プロファイルとして、検出された音響データ(例えば、音響画像データとして表示された)を保存することができる。あるそのような例において、そのような音プロファイルは、空気漏れの存在のようなシーンの一又はそれ以上の特徴に応じて及び/又はそれに関連してラベル付けされることがある。その上若しくはそれとは別に、予め定義された音プロファイルが、音響撮像システムの工場組立時にシステムメモリに読み込まれ得る、及び/又は、音響撮像システムにダウンロードされ得るか、若しくは、それとは別に通信され得る。 In one example, the processor can save the sound profile detected in the scene. For example, in an exemplary embodiment, the user can store the detected acoustic data (eg, displayed as acoustic image data) as a sound profile corresponding to one or more parameters. In certain such examples, such sound profiles may be labeled according to and / or in connection with one or more features of the scene, such as the presence of air leaks. Moreover or separately, a predefined sound profile may be read into the system memory during factory assembly of the acoustic imaging system and / or may be downloaded to the acoustic imaging system or communicated separately. ..

ある例では、音プロファイルがシーン内に存在する一又はそれ以上の音を含むことがある。様々な音プロファイルが、周波数やデシベルレベルや周期性や距離などの一又はそれ以上の音響パラメータによって定義され得る(例えば、例示される音プロファイルは、所定の範囲内の周波数値とそのプロファイルに関連する所定の範囲内の周期性を含むことがある)。音プロファイルは、シーン内の一又はそれ以上の音により定義されることがあり、ある例では、複数の音のそれぞれが周波数やデシベルレベルや周期性や距離などの一又はそれ以上の音響パラメータによって定義され得る。所与のプロファイルの複数の音が、同様のパラメータによって特定される(例えば、2つの音のそれぞれが周波数範囲と周期性範囲を有する)か、若しくは、異なるパラメータによって特定される(例えば、ある音が対応する周波数範囲を有するが、他の音が対応するデシベルレベル範囲と最大距離値を有する)ことがある。 In some examples, the sound profile may include one or more sounds present in the scene. Various sound profiles can be defined by one or more acoustic parameters such as frequency, decibel level, periodicity, distance, etc. (eg, the illustrated sound profile is associated with a frequency value within a predetermined range and that profile. May include periodicity within a given range). A sound profile may be defined by one or more sounds in the scene, in one example where each of the sounds is one or more acoustic parameters such as frequency, decibel level, periodicity, or distance. Can be defined. Multiple sounds of a given profile are specified by similar parameters (eg, each of the two sounds has a frequency range and a periodic range), or by different parameters (eg, a sound). Has a corresponding frequency range, but other sounds may have a corresponding decibel level range and maximum distance value).

ある例では、システムは、音響シーン内の一又はそれ以上の音が既知の音プロファイルに対応している場合のような、音プロファイルに関する通知を提供するように構成されることがある。例えば、通知はユーザ若しくは技術者に認識された音プロファイルの警告を与えることができる。その上若しくはそれとは別に、システムは、認識された音プロファイルに基づいて、音響画像データ、電磁画像データ、及び/又は、ディスプレイ画像に注釈を付すように構成されることがある。通知は、可聴音、ディスプレイ上の視覚化、LEDライトなどを含むことがある。 In one example, the system may be configured to provide notifications about a sound profile, such as when one or more sounds in an acoustic scene correspond to a known sound profile. For example, the notification can give the user or technician a warning of the recognized sound profile. Moreover or separately, the system may be configured to annotate acoustic image data, electromagnetic image data, and / or display images based on the recognized sound profile. Notifications may include audible sounds, visualizations on the display, LED lights, and so on.

ある例では、システムプロセッサが、例えば、一又はそれ以上の音プルファイルを考慮して、音響シグナチュアの臨界を分析するように構成されることがある。音響データ(例えば、音プロファイルに関連して)とシステムの臨界の対応が、例えば、機械学習入力及び/又はユーザ入力に基づいて学習され得る。 In one example, the system processor may be configured to analyze the criticality of an acoustic signature, taking into account, for example, one or more sound pull files. The correspondence between acoustic data (eg, in relation to sound profiles) and the criticality of the system can be learned, for example, based on machine learning inputs and / or user inputs.

ある例では、プロセッサが音響シーン内のデータを一又はそれ以上の既知の音プロファイルパターンと比較して、例えば、検知されたシグナチュアの臨界に関してシーンを分析するように構成されることがある。様々な例において、プロセッサは、潜在的な臨界に基づいてユーザに通知するように構成されることがある。このことは、例えば、特定された音響シグナチュアと一又はそれ以上の記憶された基準との比較、ユーザ定義の閾値と比較された相対値、及び/又は、(例えば、過去の実績やエラーや対応する履歴的音響シグナチュアに基づく)機械学習アルゴリズム及び/又は人工知能プログラミングを介して自動的に決められた値に基づいてなしうる。 In one example, a processor may be configured to compare data in an acoustic scene with one or more known sound profile patterns, eg, to analyze the scene with respect to the criticality of the detected signature. In various examples, the processor may be configured to notify the user based on potential criticality. This can be, for example, a comparison of the identified acoustic signature with one or more stored criteria, a relative value compared to a user-defined threshold, and / or (eg, past performance, errors, or responses). It can be done based on automatically determined values via machine learning algorithms and / or artificial intelligence programming (based on historical acoustic signatures).

そのような様々な例において、プロセッサは、一又はそれ以上の音プロファイルに関して音響シーンを分析して、シーンの若しくはシーン内の対象物の発見された音プロファイルの影響を推定するように構成されることがある。影響を推定することは、音プロファイルの潜在的な臨界及び/又は音響シグナチュアに関する潜在的なコスト若しくは利益ロスを含むことがある。ある例では、(例えば、プロセッサを介して)システムは、(例えば、音響シグナチュアを音響シーン内の空気漏れに関する一又はそれ以上の音プロファイルと比較することによって)シーン内の一又はそれ以上の空気漏れを認識するように構成されることがある。そのようなある例では、システムが、検出された空気漏れの数、一又はそれ以上の空気漏れの厳しさ、及び/又は、そのような一又はそれ以上の漏れを修繕することに関連する推定経費節約のような、様々なデータを自動的に算出及び/又は報告することができる。ある例では、コスト見積が、検出された漏れに関連してあらかじめプログラムされた値及び/又はユーザ入力値に基づいてなされ得る。例示されたれ応用例では、システムが、適切に修繕されていない場合、単位時間(例えば、1時間)当たりの圧縮空気漏れのコストインパクトを決定するように構成されることがある。 In such various examples, the processor is configured to analyze the acoustic scene with respect to one or more sound profiles to estimate the effect of the discovered sound profile of an object in or within the scene. Sometimes. Estimating the effect may include potential cost or loss of profit with respect to the potential criticality of the sound profile and / or the acoustic signature. In one example, the system (eg, via a processor) has one or more air in the scene (eg, by comparing the acoustic signature to one or more sound profiles for air leaks in the acoustic scene). May be configured to recognize leaks. In one such example, estimates related to the number of air leaks detected, the severity of one or more air leaks, and / or repairing such one or more leaks. Various data such as cost savings can be calculated and / or reported automatically. In one example, cost estimates may be made based on pre-programmed values and / or user input values associated with detected leaks. In the illustrated applications, the system may be configured to determine the cost impact of compressed air leaks per unit time (eg, 1 hour) if not properly repaired.

ある例では、音響撮像システムは、圧力、穴径、又は漏れ量のような、音響シーン内の空気漏れに関する様々な情報を決定するように構成されることがある。ある例では、一又はそれ以上のそのような値は、ユーザによって入力され、残りの値が産出されることがある。例えば、ある例では、ユーザが特定の空気ラインに関連する圧力値を入力することができ、そして、入力された圧力情報を用いて、システムはシーンからの音響データに基づいて穴径や漏れ量を決定するように構成されることがある。そのような決定は、例えば、メモリ内に記憶されたルックアップテーブル及び/又は式を用いて、行われることができる。 In one example, the acoustic imaging system may be configured to determine various information about air leaks in the acoustic scene, such as pressure, hole diameter, or leak amount. In some examples, one or more such values may be entered by the user and the remaining values may be produced. For example, in one example, the user can enter a pressure value associated with a particular air line, and with the pressure information entered, the system will use acoustic data from the scene to enter hole diameters and leaks. May be configured to determine. Such a determination can be made, for example, using a look-up table and / or an expression stored in memory.

例示的なシナリオでは、検出された音プロファイルが1/4インチの径の穴を介して100PSIGの空気漏れに関連されていることがある。ある実施形態では、そのような記憶された音プロファイルにアクセスされた音響撮像システムは、音響シーン内のそのようなプロファイル認識して、例えば、ルックアップテーブルに基づいて、そのような漏れに関連する時間当たりのコストを推定するようにプログラムされることがある。同様の例では、検出された音プロファイルは、(例えば、手動入力を介して)100PSIGの入力圧力に基づいて1/4インチの径の穴に関連づけられ得る。そのような記憶された音プロファイルにアクセスされた音響撮像システムは、音響シーン内のそのようなプロファイルを認識して、例えば、ルックアップテーブルに基づいて、そのような漏れに関連する時間当たりのコストを推定するようにプログラムされることがある。 In an exemplary scenario, the detected sound profile may be associated with a 100 PSIG air leak through a 1/4 inch diameter hole. In certain embodiments, an acoustic imaging system that has access to such a stored sound profile recognizes such profile in an acoustic scene and is associated with such leaks, eg, based on a look-up table. It may be programmed to estimate the cost per hour. In a similar example, the detected sound profile can be associated with a 1/4 inch diameter hole based on an input pressure of 100 PSIG (eg, via manual input). An acoustic imaging system that has access to such a stored sound profile recognizes such a profile in an acoustic scene and, for example, based on a look-up table, the cost per hour associated with such a leak. May be programmed to estimate.

ある例では、音響撮像システムは、式及び/又はルックアップテーブルに基づいて、複数の検出漏れを明確にするためにコスト節約分析を行うように構成されることがある。ある例では、そのような式及び/又はルックアップテーブルは、特定された漏れのコスト分析をするために、音響撮像装置のメモリ若しくはそれによりアクセス可能な他の個所に記憶されることができる。 In one example, the acoustic imaging system may be configured to perform cost-saving analysis to clarify multiple detection omissions based on equations and / or look-up tables. In one example, such equations and / or look-up tables can be stored in the memory of the acoustic imaging device or elsewhere accessible by it for cost analysis of the identified leaks.

ある例示の実施では、音響撮像システムは、シーン若しくは施設の点検中において環境内で検出された一又はそれ以上の漏れを特徴づけるように構成されることがある。そのような特徴づけは、例えば、そのような漏れに対応する記憶された音プロファイルに基づき、行われることがある。(例えば、決められた漏れ量の)検出された漏れは、そのような漏れがはっきりしたときのコスト節約を算出するために用いられることがある。例えば、音響撮像システムは、存在する漏れの数とそのような漏れに関する漏れ量を決定して、そのような漏れに関連するコスト節約を算出するために使用されることがある。 In one exemplary implementation, the acoustic imaging system may be configured to characterize one or more leaks detected in the environment during a scene or facility inspection. Such characterization may be done, for example, based on a stored sound profile corresponding to such a leak. Detected leaks (eg, of a defined leak amount) may be used to calculate cost savings when such leaks become apparent. For example, an acoustic imaging system may be used to determine the number of leaks present and the amount of leaks associated with such leaks to calculate the cost savings associated with such leaks.

ある例では、コスト節約は、以下の式(1)に示すように、漏れの数と、漏れ量(cfm)と、漏れに関連するエネルギー量(例えば、kW/cfm)と、稼働時間数と、エネルギー当たりのコストの乗算により算出され得る。 In one example, the cost savings are the number of leaks, the amount of leaks (cfm), the amount of energy associated with the leaks (eg, kW / cfm), and the number of hours of operation, as shown in equation (1) below. , Can be calculated by multiplying the cost per energy.

コスト節約($)=漏れの数×漏れ量(cfm) ×kW/cfm×時間数×$/kWh…(1) Cost saving ($) = number of leaks x amount of leaks (cfm) x kW / cfm x number of hours x $ / kWh ... (1)

音響撮像システムは、漏れの数とそのような漏れに関連した(例えば、cfmでの) 漏れ量を決定するように使用されることがある。他のパラメータは、システムにプログラムされるか(例えば、空気発生当たりのエネルギーをkW/cfmで)、データベースを介してアクセスされるか(例えば、現状のエネルギーコストを$/kWhで)、若しくは、システムによって推定される(例えば、平均稼働時間数)ことがある。システムは、そのような漏れをはっきりさせることに関連するコスト節約を算出するようにプログラムされることがある。 Acoustic imaging systems may be used to determine the number of leaks and the amount of leaks associated with such leaks (eg, at cfm). Other parameters are either programmed into the system (eg, energy per air generation at kW / cfm), accessed via a database (eg, current energy cost at $ / kWh), or It may be estimated by the system (eg, average number of hours of operation). The system may be programmed to calculate the cost savings associated with clarifying such leaks.

ある例では、システムは、90PSIGで1/32インチの100個の漏れと、90PSIGで1/16インチの50個の漏れと、100PSIGで1/4インチの10個の漏れ有する。7000年間稼働時間と、0.05$/kWhの総電力量と、ほぼ18kW/100cfmの圧縮空気発生条件を想定すると、式(1)による各漏れに関連するコスト節約は以下のようになる。 In one example, the system has 100 leaks of 1/32 inch at 90PSIG, 50 leaks of 1/16 inch at 90PSIG, and 10 leaks of 1/4 inch at 100PSIG. Assuming an operating time of 7,000 years, a total electric energy of 0.05 $ / kWh, and compressed air generation conditions of approximately 18 kW / 100 cfm, the cost savings associated with each leak according to the equation (1) are as follows.

1/32インチの漏れからのコスト節約=100×1.5×0.61×0.18×7000×0.05=$5,765 Cost savings from 1/32 inch leaks = 100 x 1.5 x 0.61 x 0.18 x 7000 x 0.05 = $ 5,765

1/16インチの漏れからのコスト節約=50×5.9×0.61×0.18×7000×0.05=$11,337 Cost savings from 1/16 inch leaks = 50 x 5.9 x 0.61 x 0.18 x 7000 x 0.05 = $ 11,337

1/4インチの漏れからのコスト節約=10×104×0.61×0.18×7000×0.05=$39,967 Cost savings from 1/4 inch leaks = 10 x 104 x 0.61 x 0.18 x 7000 x 0.05 = $ 39,967

この例に示すように、1/4インチのまさに10個の漏れを取り除くことによる節約が全節約のうちほぼ70%を占めている。漏れが特定されているので、ある例では、音響撮像システムは、漏れを分析してどの漏れがより高いコスト節約を生み出す(ただし明らかである場合)のかを特定するように構成されることがある。ある例では、システムは、より高いコスト節約を有する漏れをランク付け若しくは優先順位をつけて、そのようなランクや優先順位をユーザに提供することができる。その上若しくはそれとは別に、システムは、特定された一又はそれ以上の漏れのコスト節約に関する通知をユーザに提供するように構成されることがある。 As shown in this example, the savings from removing exactly 10 leaks in a quarter inch account for almost 70% of the total savings. Since the leak has been identified, in one example, the acoustic imaging system may be configured to analyze the leak and identify which leak produces higher cost savings (if obvious). .. In one example, the system can rank or prioritize leaks with higher cost savings and provide such ranks and priorities to users. In addition or separately, the system may be configured to provide the user with notification of cost savings for one or more of the identified leaks.

図34は、シーン内で特定された空気漏れの潜在的な臨界及び空気漏れに起因する潜在的な損出コストに関係する指示をユーザ又は技術者に提供をする例示的なディスプレイ画像を示している。ある例示の実施形態では、(例えば、プロセッサを介して)音響撮像システムは、例えば、音響シーン内に存在する漏れに関連した既知の音プロファイルに似た音響信号の認識を介して、音響シーン内の漏れの存在を検出する。システムは、検出した音響信号を分析して、例えば、検出された音響信号に対応する一又はそれ以上の音プロファイルを決定することにより、特定された漏れの臨界を確認するように構成されることがある。 FIG. 34 shows an exemplary display image that provides a user or technician with instructions relating to the potential criticality of an air leak identified in the scene and the potential cost of loss due to the air leak. There is. In one exemplary embodiment, the acoustic imaging system (eg, via a processor) is within the acoustic scene, for example, through recognition of an acoustic signal similar to a known sound profile associated with a leak present in the acoustic scene. Detects the presence of leaks. The system is configured to identify the criticality of the identified leak by analyzing the detected acoustic signal and, for example, determining one or more sound profiles corresponding to the detected acoustic signal. There is.

本明細書の他の個所に記載されたように、ある例では、音響画像データは決められた臨界に従って調色されることがある。ある実施形態では、音響データの臨界は、一又はそれ以上の音プロファイルに従って決定されることがある。例えば、ユーザが漏れ検出動作モードを選択し、音響撮像システムが漏れに関連した一又はそれ以上の音プロファイルに対して音響データを分析してシーン内の音響データの臨界を決定することができる。 As described elsewhere herein, in some cases the acoustic image data may be toned according to a determined criticality. In certain embodiments, the criticality of acoustic data may be determined according to one or more sound profiles. For example, the user can select a leak detection operating mode and the acoustic imaging system can analyze the acoustic data for one or more sound profiles associated with the leak to determine the criticality of the acoustic data in the scene.

上記のように、システムは、一又はそれ以上の式及び/又はルックアップテーブルなどにより、一又はそれ以上の漏れに関連して数字で表されたコストを算出するように構成されることがある。ある例示の実施形態で、システムは、例えば、そのような漏れに関連した音プロファイルに基づき漏れの大きさと漏れに関連した圧力を特定することができ、その後ルックアップテーブル及び/又は式によりそのような漏れに関連した単位時間当たりのコストを算出できる。 As mentioned above, the system may be configured to calculate the numerical cost associated with one or more leaks, such as by one or more equations and / or look-up tables. .. In one exemplary embodiment, the system can identify the size of the leak and the pressure associated with the leak, eg, based on the sound profile associated with such a leak, and then by look-up table and / or equation. The cost per unit time associated with a leak can be calculated.

図34の図示例において、臨界と単位時間当たりのコスト($/年)は、音響シーン内の複数の位置のそれぞれと関連している。図示された実施形態では、そのような位置は、臨界に従って調色されるとともに、可視光画像データと組み合わせて各位置に関しユーザに漏れ臨界情報を提供するディスプレイ画像を形成する複数のインジケータ3410、3412、3414を含む音響画像データを介して示されている。そのような臨界は、本明細書に記載されているように、一又はそれ以上の対応する音プロファイルに関連して音響シーンの分析により決定され得る。 In the illustrated example of FIG. 34, the criticality and cost per unit time ($ / year) are associated with each of the plurality of positions in the acoustic scene. In the illustrated embodiment, such positions are toned according to criticality and combined with visible light image data to form a display image that provides the user with leak critical information for each position 3410, 3412. , 3414 are shown via acoustic image data. Such criticality can be determined by analysis of the acoustic scene in relation to one or more corresponding sound profiles, as described herein.

様々な実施形態では、臨界の程度及び/又は潜在的な損出コストを変動する漏れが、各種の色、形状、大きさ、不透明度などを含む音響画像データにより示されることがある。同様に、一又はそれ以上のアイコンが、(例えば、特別な音プロファイルに対応する)特別な漏れ若しくはその漏れのコスト又は臨界の範囲を表すために用いられることがある。その上若しくはそれとは別に、コスト/年などのような、英数字情報が対応する漏れの最も近くに含まれることがある。図34のディスプレイ画像は、さらに、各臨界レベルに関連するおおよそのコストを示す通知3420を含んでいる。そのような値は、例えば、特定の空気漏れを表すメモリ内に保存されたプロファイルを考慮して、シーン内で検出された各音響信号に関する音響パラメータに基づいて算出され得る。 In various embodiments, leaks that vary in degree of criticality and / or potential loss cost may be indicated by acoustic image data including various colors, shapes, sizes, opacity, and the like. Similarly, one or more icons may be used to represent a special leak (eg, corresponding to a special sound profile) or the cost or critical range of the leak. On top of that or separately, alphanumerical information such as cost / year may be included closest to the corresponding leak. The display image of FIG. 34 further includes a notification 3420 showing an approximate cost associated with each critical level. Such values may be calculated based on the acoustic parameters for each acoustic signal detected in the scene, for example, taking into account profiles stored in memory representing a particular air leak.

ある例では、別のコンテキスト情報が、適切な分析を行うため、そして、シーンの報告活動をするために、有用若しくは必須である。例えば、ある動作中、音響的にシーンを撮像しているとき、ユーザ若しくは技術者は、点検しているシーンについてのコンテキスト情報を記録することを望むことがある。以前のシステムでは、このタスクを行うために、ユーザ若しくは技術者は別のカメラ又は装置で写真を撮るか、文書メモを取るか、若しくは、別の装置を使ってノートを記録する必要がある。そのようなノートは、音響撮像装置からのデータと手動で同期されねばならず、潜在的に収集時のエラーや再収集やデータのミスマッチに導かれ、そして、分析や報告をするときのエラーに潜在的に導かれる。 In one example, another contextual information is useful or essential for proper analysis and for reporting the scene. For example, during an operation, when acoustically capturing a scene, the user or technician may wish to record contextual information about the scene being inspected. In older systems, to perform this task, the user or technician would need to take a picture with another camera or device, take document notes, or record notes with another device. Such notes must be manually synchronized with the data from the acoustic imager, potentially leading to collection errors and recollections and data mismatches, and to errors when analyzing and reporting. Potentially guided.

ある実施形態では、本開示の音響撮像システムは、ターゲットシーンの音響データを取り込み、それをターゲットシーンに関する情報に関連付けすることができる。ターゲットシーンに関するそのような情報は、シーン内の一若しくはそれ以上の物体、シーンの周囲、及び/又は、シーンの位置の周囲に関する詳細を含むことができる。ある実施形態では、関連情報は、画像、オーディオレコーディング若しくはビデオレコーディングの形式で、取り込まれ、シーンを表す音響データ(例えば、音響データそれ自体、対応する音響画像データを含むディスプレイ画像など)と関連付けされ得る。ある例では、関連情報は、音響データと関連付けされて、その情報が何を示しているのかのよりよい理解を提供する。例えば、関連情報は、ターゲットシーン若しくはターゲットシーン内の物体に関する詳細を含むことがある。 In certain embodiments, the acoustic imaging system of the present disclosure can capture acoustic data of a target scene and associate it with information about the target scene. Such information about the target scene can include details about one or more objects in the scene, around the scene, and / or around the position of the scene. In certain embodiments, the relevant information is captured in the form of an image, audio recording or video recording and associated with acoustic data representing the scene (eg, the acoustic data itself, a display image containing the corresponding acoustic image data, etc.). obtain. In one example, the relevant information is associated with acoustic data to provide a better understanding of what that information represents. For example, relevant information may include details about the target scene or objects within the target scene.

ある例では、システムは、シーン内の物体若しくはシーン一般に関する情報を集めるために、一又はそれ以上の装置を含むことができる。一又はそれ以上のそのような装置は、カメラ、位置決め装置、時計、タイマー及び/又は温度センサや電磁センサや湿度センサなどの各種センサを含むことができる。ある例では、音響撮像システムは、画像及び/又はビデオ映像取得のために注釈情報を集めるように構成され得る (例えば、音響撮像装置のハウジングに埋め込まれた) カメラを含むことができる。そのような埋め込みカメラが写真又はビデオ注釈を生成して、音響画像データ又は音響撮像装置によって取得された他のデータに付加される若しくは他の方法でそれらとともに保存されることができる。 In one example, the system may include one or more devices for gathering information about objects in the scene or the scene in general. One or more such devices may include cameras, positioning devices, clocks, timers and / or various sensors such as temperature sensors, electromagnetic sensors and humidity sensors. In one example, an acoustic imaging system can include a camera (eg, embedded in the housing of an acoustic imaging device) that may be configured to collect annotation information for image and / or video image acquisition. Such embedded cameras can generate photo or video annotations that are added to or otherwise stored with the acoustic image data or other data acquired by the acoustic imaging device.

ある例では、そのような埋め込みカメラは、本明細書の他の個所で記載されているように、ディスプレイ用に音響画像データを組み合わせることができる電磁撮像データを生成するように構成されることがある。ある実施形態では、音響撮像システムは、タイムスタンプと一緒に、音響データや音響画像データや電磁画像データや注釈データ(例えば、センサデータ、画像/ビデオ注釈データなど)などの様々な情報を保存するように構成されることがある。ある例では、音響撮像システムは、装置上と後でソフトにおいての双方で関連情報を表示し、及び/又は、記録するように構成されることがある。関連情報は、例えば、保存されたディスプレイ画像若しくは音響画像ファイルとともにディスプレイ上に表示されるか、及び/又は、メタデータとして保存され得る。 In one example, such an embedded camera may be configured to produce electromagnetic imaging data that can be combined with acoustic image data for a display, as described elsewhere herein. be. In certain embodiments, the acoustic imaging system stores various information, such as acoustic data, acoustic image data, electromagnetic image data, and annotation data (eg, sensor data, image / video annotation data, etc.), along with a time stamp. It may be configured as follows. In one example, the acoustic imaging system may be configured to display and / or record relevant information both on the device and later in software. The relevant information may be displayed on the display along with the stored display image or acoustic image file and / or stored as metadata, for example.

ある実施形態に従うと、埋め込みカメラ、音響撮像システム内の画像取得装置若しくはビデオ取得装置の使用を通じて、そのような装置は、一次音響データ、組み合わされた電磁及び音響画像データ、及び/又は、オーディオレコーディングに付加される及び/又は、それらとともに保存される写真若しくはビデオ注釈を生成するために利用されることがある。 According to certain embodiments, through the use of an embedded camera, an image acquisition device or a video acquisition device in an acoustic imaging system, such device can be used for primary acoustic data, combined electromagnetic and acoustic image data, and / or audio recording. May be used to generate photo or video annotations that are added to and / or stored with them.

ある例では、ユーザ又は技術者は、例えば、ユーザインタフェース(例えば、タッチスクリーンや一又はそれ以上のボタンなど)を介して、ディスプレイ上に示された音響画像データ若しくは音響撮像システムによって収集された他のデータに注釈を付することができる。例えば、ある例では、ユーザ又は技術者は、ディスプレイ上の注釈(on−display annotation)を用いて、データの記録中又は以前に収集されたデータのプレイバック中に、データに注釈を付すことができる。 In one example, the user or technician may have been collected by an acoustic image data or acoustic imaging system shown on a display, eg, via a user interface (eg, a touch screen or one or more buttons). Data can be annotated. For example, in one example, a user or technician may use on-display annotations to annotate data during data recording or playback of previously collected data. can.

ある例では、音響撮像システムは、システム利用からのオンスクリーン相互作用を介して、(例えば、音響画像データ及び/又は電磁画像データを含む)ディスプレイ画像に注釈を付することができる。あるそのような例では、装置がすべての関連する注釈情報を一次音響画像とともに保存し、同期の必要性に先行するか、若しくは、事後のデータマッチングをする。そのような実施が、結果的に一次データと二次データの不正確なペアリングとなる人間の記憶に関するエラーを減少するか、又は、排除することを可能にする。 In one example, the acoustic imaging system can annotate display images (including, for example, acoustic image data and / or electromagnetic image data) via on-screen interactions from system utilization. In one such example, the device stores all relevant annotation information along with the primary acoustic image, either prior to the need for synchronization or for subsequent data matching. Such practices make it possible to reduce or eliminate errors in human memory that result in inaccurate pairing of primary and secondary data.

(例えば、ユーザインタフェースを介して)ユーザによって追加され得る様々なディスプレイ上の注釈(on−display annotation)は、 (例えばフリーハンドでの) ディスプレイ上の図(on−display drawings)、ディスプレイ上のテキスト及び記述(on−display text and writing)、ディスプレイ上の形状生成(on−display shape creation)、ディスプレイ上の物体の移動(on−display movement of object)、ディスプレイ上の予め構成されたマーカーの配置(on−display placement of pre−configured markers)、ディスプレイ上の予め構成されたテキスト、命令又はノートの配置(on−display placement of pre−configured text、instruments or notes)、ディスプレイ上の予め構成された形状の配置(on−display placement of pre−configured shapes)、ディスプレイ上の予め構成された図又は図表の配置(on−display placement of pre−configured drawings or illustrations)、ディスプレイ上の予め構成された若しくはプログラムされたアイコンの配置(on−display placement of pre−configured or programmed icons)、又は、一又はそれ以上の音響パラメータのディスプレイ上の視覚化を含むことができるが、これらに限定されるものではない。 Various on-display annotations that can be added by the user (eg, via the user interface) are on-display drawings (eg, freehand), text on the display. And description (on-display extend and writing), on-display shape creation, on-display move (movement of object), placement of preconfigured markers on the display (on-display movement of object). On-display precision of pre-configured marks), placement of pre-configured text, instructions or notes on the display (on-display precision of pre-confixed textures, instruments or notes), pre-configured shapes on the display. On-display precision of pre-confixed patterns, on-display precision of pre-confixed drivings or illuminations or pre-configured on the display. It may include, but is not limited to, the placement of icons (on-display precision of pre-configured or programmed icons), or the visualization of one or more acoustic parameters on the display.

ある例では、音響撮像装置はディスプレイを含むことがあり、それは収集された(例えば、ライブ又は予め収集された)音響画像データ及び/又は電磁画像データを示すことができる。ユーザは、ディスプレイに一体化された制御部又はタッチインタフェースを介してそのような画像に注釈を付すことができる。 In one example, the acoustic imaging device may include a display, which can show collected (eg, live or pre-collected) acoustic and / or electromagnetic image data. The user can annotate such an image via a control unit or touch interface integrated into the display.

図35は、ディスプレイ上の注釈によりディスプレイ画像に注釈を付すユーザの一例を示している。図35の例においては、3つの音響信号が、そのような音響信号に関連する音響データを表す調色されたインジケータを介して、ディスプレイ画像上の対応する位置に示されている。図示されているように、ある例では、ユーザは、ディスプレイ画像の部分をハイライト若しくは強調するために、フリーフォームの形状3540を描くことによって、ディスプレイ画像に注釈を加えることができる。この例では、ユーザは、フリーフォームの図3540により中心近くの音を取り囲むことによって、ディスプレイ画像に注釈を付している。図示された例は、また、丸で囲まれた音に関連する構成部分のような、ディスプレイ画像の一又はそれ以上の構成部分を特定又は記述するために使用され得るテキスト3542の形式の別の注釈情報を示している。例えば、図示の例では、丸で囲まれた音の明らかな音源(「メインライン2B−28」 )のラベルがディスプレイ画像に付加されている。そのようなテキストは、(例えば、タッチスクリーンインタフェースを介して)手書きされるか、若しくは、(例えば、システムと通信されている仮想キーボード又は物理的キーボードを介して)タイプされる。 FIG. 35 shows an example of a user annotating a display image with annotations on the display. In the example of FIG. 35, three acoustic signals are shown at corresponding positions on the display image via toned indicators representing acoustic data associated with such acoustic signals. As illustrated, in one example, the user can annotate the display image by drawing a freeform shape 3540 to highlight or emphasize a portion of the display image. In this example, the user annotates the display image by surrounding the sound near the center with freeform Figure 3540. The illustrated example is also another in the form of text 3542 that can be used to identify or describe one or more components of the display image, such as the components associated with the circled sound. Shows annotation information. For example, in the illustrated example, a label of a clearly circled sound source (“Mainline 2B-28”) is added to the display image. Such text is either handwritten (eg, via a touch screen interface) or typed (eg, via a virtual or physical keyboard that is communicating with the system).

図36は、命令と関連する位置情報を含む注釈付きのディスプレイ画像の一例を示している。この図において、ユーザになすべきタスクを命じるテキスト情報とグラフィカルインディケーションに加えて2つの音がディスプレイ上に示されている。ユーザは、そのような位置の音響点検をしている間に更なるユーザに一又はそれ以上のタスクを実行するように命じるか又は勧めるために、図示のように画像に注釈を付すことができる。 FIG. 36 shows an example of an annotated display image that includes location information associated with the instruction. In this figure, two sounds are shown on the display in addition to textual information and graphical indications that command the task to be done by the user. The user may annotate the image as shown to order or encourage further users to perform one or more tasks while performing an acoustic check of such a position. ..

図36に示されたもののような注釈付き画像を生成するとき、ユーザは予め構成されたマーカー(例えば、矢印3640)及び/又は手書きテキスト3642を挿入することでディスプレイ画像に注釈を付すことができる。例えば、図示された例では、ユーザは、シーン内のバルブスイッチに向けた矢印3640と「まずメインバルブを閉めろ」との文字による命令3642を挿入することでディスプレイ画像に注釈を付している。 When generating an annotated image such as that shown in FIG. 36, the user can annotate the display image by inserting a preconfigured marker (eg, arrow 3640) and / or handwritten text 3642. .. For example, in the illustrated example, the user annotates the display image by inserting an arrow 3640 towards a valve switch in the scene and a textual command 3642 "Close the main valve first".

図37は、ディスプレイ上の注釈によりディスプレイ画像に注釈を付すユーザの一例を示している。この例では、ディスプレイ画像上の対応するインジケータを介した単独の音響信号が示されている。図示の例は、空気漏れアイコンのようなあらかじめプログラムされたアイコン3740をディスプレイ画像に挿入することによりディスプレイ画像に注釈を付しているユーザを示している。そのようなアイコンは、ユーザにより選択されるか、及び/又は、一又はそれ以上の認識された(例えば、履歴的音プロファイルと比較された)特徴音に基づいて、システムによって勧められ、そして、特定された音に配置されることがある。また、ユーザは画像に注釈を付して、観測された音響信号の可能な音源を特定又はフリーフォームラベル、予め定義された形状などでラベル付けすることができる。 FIG. 37 shows an example of a user annotating a display image with annotations on the display. In this example, a single acoustic signal is shown via the corresponding indicator on the display image. The illustrated example shows a user annotating a display image by inserting a pre-programmed icon 3740, such as an air leak icon, into the display image. Such icons are recommended by the system and / or based on one or more recognized (eg, historical sound profiles) characteristic sounds selected by the user and / or more. May be placed on the specified sound. The user can also annotate the image to identify possible sound sources for the observed acoustic signal or label them with a freeform label, a predefined shape, or the like.

図38は、ディスプレイ上の注釈によりディスプレイ画像に注釈を付すユーザの一例を示している。この例では、ディスプレイ画像上の対応するインジケータを介した単独の音響信号が示されている。図示のように、ユーザは形状3840を画像に挿入することでディスプレイ画像に注釈を付すことができる。図示の例では、ユーザはディスプレイ画像の左手側の構成部分の周囲にボックス3840を追加して、音響画像データから可能な音源を示している。このようなボックス3840は、あらかじめ決められた形状(例えば、位置決め可能で調節可能な大きさの矩形)として選択されうる。ユーザにより、他の形状が使用され、サイズが決められ、位置決めされて、所望のようにディスプレイ画像に注釈を付すことができる。 FIG. 38 shows an example of a user annotating a display image with annotations on the display. In this example, a single acoustic signal is shown via the corresponding indicator on the display image. As shown, the user can annotate the display image by inserting the shape 3840 into the image. In the illustrated example, the user adds a box 3840 around the left-hand component of the display image to show a possible sound source from the acoustic image data. Such a box 3840 may be selected as a predetermined shape (eg, a positionable and adjustable sized rectangle). Other shapes can be used, sized, positioned and annotated on the display image as desired by the user.

ある例では、異なるタイプのラベルがディスプレイ上で組み合わされることがある。例えば、図39は、シーン内の音響信号を表す音響画像データのインジケータの近くでディスプレイ画像に配置されたアイコンラベル3942とシーン内の構成部分を取り囲んでいる矩形3940を示している。各種の注釈の組み合わせが可能である。ある実施形態では、例えば、特定の音プロファイルがシーン内で認識されたときに、注釈がディスプレイ画像に自動的に加えられる。ある例では、システムはユーザを喚起して認識された音プロファイルを考慮してディスプレイ画像に注釈をつけることがある。 In some cases, different types of labels may be combined on the display. For example, FIG. 39 shows an icon label 3942 placed on a display image near an indicator of acoustic image data representing an acoustic signal in the scene and a rectangle 3940 surrounding a component in the scene. Various annotation combinations are possible. In certain embodiments, for example, annotations are automatically added to the display image when a particular sound profile is recognized in the scene. In one example, the system may arouse the user to annotate the display image in light of the perceived sound profile.

その上若しくはそれとは別に、ある例で、ユーザは、音響シーンに関連する音響パラメータを表す視覚若しくは文字情報を含めることで、画像に注釈を付すことを選択することができる。例えば、ユーザは、(例えば、タッチスクリーン若しくは物理的制御部)を介して、シーンに関連した一又はそれ以上の音響パラメータを示すために特定のタイプのディスプレイを選択することができる。ユーザは、同様に、画像に注釈を付して、検出された漏れのようなシーンの一部に関連したコスト又は臨界の表示に関する情報を含めることができる。 On or apart from that, in one example, the user may choose to annotate the image by including visual or textual information that represents the acoustic parameters associated with the acoustic scene. For example, the user may select a particular type of display to show one or more acoustic parameters associated with the scene via (eg, a touch screen or physical control unit). The user can also annotate the image to include information about cost or critical indications associated with parts of the scene, such as detected leaks.

注釈は、ディスプレイ画像のライブ画面内に含まれた、及び/又は、例えば、メモリに保存された、取り込まれた単独のディスプレイ画像に含まれた表示特徴を含むことがある。 Annotations may include display features contained within the live screen of the display image and / or contained in a single displayed display image captured, eg, stored in memory.

本明細書の他の個所に記載されているように、様々な実施形態において、音響撮像装置は、検出された音を表示し、その発生場所を突き止め、それを示し、それを分析するかなりの異なる方法を採用することができる。視覚化方法は各種の色付き形状、アイコンを含んでおり、それらが表示されている見てわかる背景を調節する様々なレベルの透明度調節を伴うことができる。装置上で音響視覚化のためのパラメータ制御を単純化すること、若しくは、そのような制御をより直感的にすることで、ユーザは、より少ない時間で、より少ない訓練で、より容易により良い視覚化の結果を達成することができる。視覚化パラメータ制御の様々な方法が用途やユーザの必要性に従って実行され得る。それらの方法の多くが音視覚化及び音発生場所突き止めの教育や訓練の特別な個々のレベルによる利用に応じて変更適合され、様々なタイプの用途や組織におけるより適応した装置を提供する。本明細書の他の個所に記載されているように、ある例では、ユーザは、特定のデータ視覚化技術をディスプレイ画像に含むことで、ディスプレイ画像に注釈を付すことを選択することができる。 As described elsewhere herein, in various embodiments, the acoustic imaging device displays the detected sound, locates it, indicates it, and analyzes it considerably. Different methods can be adopted. Visualization methods include various colored shapes, icons, which can be accompanied by various levels of transparency adjustments that adjust the visible background in which they are displayed. By simplifying parameter control for acoustic visualization on the device, or making such control more intuitive, users can have less time, less training, and easier and better vision. The result of conversion can be achieved. Various methods of visual parameter control can be performed according to the application and user needs. Many of these methods have been modified and adapted according to the use of sound visualization and location location education and training by special individual levels to provide more adapted equipment in various types of applications and organizations. As described elsewhere herein, in one example, the user may choose to annotate the display image by including a particular data visualization technique in the display image.

図40は、ディスプレイ画像4002と、該ディスプレイ画像の右手側の複数の周波数範囲を含むマルチパラメータデータ視覚化4040を含むインタフェースを示している。ある例では、ユーザは、複数の表示された周波数範囲から(例えば、タッチスクリーン及び/又は他のインタフェースを介して)一又はそれ以上の周波数範囲を選択することができ、例えば、音響画像データをろ過して、選択された周波数範囲に関連した周波数コンテンツ(例えば、ある大きさを超える周波数コンテンツ)を有する音響画像を表示する。図示の例では、2つの周波数範囲4042と4044が選択されている。ディスプレイ画像の対応するインジケータ4010と4012は、スクリーン上に表示された複数の周波数範囲のうち対応する周波数範囲を満足する音響信号を有するシーン内の位置を示している。図示の例では、周波数範囲4042と対応するインジケータ4010が明るい影線で示されているが、周波数範囲4044と対応するインジケータ4012が暗い影線で示されている。一般に、ある実施形態では、ある周波数範囲を満たすシーン内の音響信号は、その周波数範囲として対応する視覚化表現を有するインジケータを介して、表されることができる。 FIG. 40 shows an interface that includes a display image 4002 and a multi-parameter data visualization 4040 that includes a plurality of frequency ranges on the right hand side of the display image. In one example, the user may select one or more frequency ranges (eg, via a touch screen and / or other interface) from a plurality of displayed frequency ranges, eg, acoustic image data. It is filtered to display an acoustic image with frequency content associated with the selected frequency range (eg, frequency content above a certain size). In the illustrated example, two frequency ranges 4042 and 4044 are selected. Corresponding indicators 4010 and 4012 of the display image indicate a position in the scene having an acoustic signal satisfying the corresponding frequency range among the plurality of frequency ranges displayed on the screen. In the illustrated example, the frequency range 4042 and the corresponding indicator 4010 are shown with a bright shadow line, while the frequency range 4044 and the corresponding indicator 4012 are shown with a dark shadow line. In general, in certain embodiments, an acoustic signal in a scene that fills a frequency range can be represented via an indicator having a corresponding visualization representation as that frequency range.

一般に、周波数範囲は、右手寄せ軸、左手寄せ軸、下端寄せ軸、上端寄せ軸又は中心軸のように様々な方法で表示されることが可能である。様々な実施形態において、周波数範囲は、1kHz毎(例えば、1kHz〜2kHz、2kHz〜3kHzなどの)を含む、解像度に分割されることがある。そのような周波数範囲は、必ずしも同じ大きさである必要はなく、又は、同じ周波数範囲にわたる必要もない。ある例では、マルチパラメータ画像4040内に表示された周波数範囲の物理的な大きさ(例えば、幅)は、周波数コンテンツの相対量、音響シーン内のそのような周波数の振幅、そのような周波数の近接度などの一又はそれ以上のパラメータに対応している。 In general, the frequency range can be displayed in various ways, such as a right-handed axis, a left-handed axis, a lower-end aligned axis, an upper-end aligned axis, or a central axis. In various embodiments, the frequency range may be divided into resolutions, including every 1 kHz (eg, 1 kHz to 2 kHz, 2 kHz to 3 kHz, etc.). Such frequency ranges do not necessarily have to be the same magnitude or span the same frequency range. In one example, the physical magnitude (eg, width) of the frequency range displayed in the multi-parameter image 4040 is the relative amount of frequency content, the amplitude of such frequencies in the acoustic scene, of such frequencies. It corresponds to one or more parameters such as proximity.

様々な実施形態において、タッチスクリーンの相互作用及び/又は方向パッドなどの物理的制御機構を通じて仮想制御で周波数範囲が選択されるが、ユーザは上下左右にスクロールして、所望の範囲バーがハイライト表示されその後選択されるまでボタンを押し続ける。ある例では、複数の範囲がユーザによって選択され、又は、選択解除される。 In various embodiments, the frequency range is selected by virtual control through physical control mechanisms such as touch screen interactions and / or directional pads, but the user scrolls up, down, left and right to highlight the desired range bar. Press and hold the button until it is displayed and then selected. In one example, multiple ranges are selected or deselected by the user.

ある実施形態では、様々な周波数範囲に関連したディスプレイ画像4002上の周波数バー(例えば、4042,4044)が、リアルタイムディスプレイ画像内の範囲のデシベルレベルで上下する。様々な例で、範囲のデシベルレベルは、ピークデシベルレベル、平均デシベルレベル、最小デシベルレベル、時間ベースの平均デシベルレベルなどの、かなりの方法で決定され得る。ある実施形態では、各周波数範囲に関連したデシベルレベルは、経時的に追跡されることがある。経時的な追跡は、所与の間隔をおいたような複数の時間のそれぞれにおける周波数情報を保存することを含むことができる。その上若しくはそれとは別に、経時的に周波数データを追跡することは、経時的に(例えば、特別な期間内、動作セッション内で)各周波数範囲において観察されたピークデシベルレベルを追跡することを含むことができる。ピークレベルは、様々な方法で算出可能である。 In certain embodiments, the frequency bars (eg, 4042,4044) on the display image 4002 associated with the various frequency ranges move up and down at decibel levels within the range within the real-time display image. In various examples, the range decibel level can be determined in a number of ways, including peak decibel levels, average decibel levels, minimum decibel levels, and time-based average decibel levels. In certain embodiments, the decibel level associated with each frequency range may be tracked over time. Tracking over time can include storing frequency information at each of multiple times, such as at given intervals. Tracking frequency data over time, on or apart from it, involves tracking peak decibel levels observed over time (eg, within a special period, within an operating session) in each frequency range. be able to. The peak level can be calculated by various methods.

周波数情報の表示は、電流/現在の周波数情報に加えて、ピーク周波数データを含むことが可能である。図41は、ディスプレイ画像4102と、該ディスプレイ画像の下縁に沿って配置された複数の周波数範囲を含む、周波数情報のマルチパラメータ表示4140を含むインタフェースを示している。図41に示されているように、ディスプレイ画像の下端に表示された周波数情報は、複数の周波数範囲の振幅情報(例えば、4150)を含んでいる(図41の例ではデシベルで測定されている)。ある例では、最大デシベルレベルが一又はそれ以上の周波数範囲において表示される。あるケースでは、最大デシベルレベルを示す周波数範囲がユーザによって選択可能である。ピークマーカー4152は、マルチパラメータ表示上に残存することができ、最大デシベルレベルを示すとともに、対照的な色、バーキャップ、矢印、シンボル、数値などのかなりの数の若しくは可能な方法で表されることが可能である。ある例では、データ視覚化において示された最大デシベルレベルは、選択された測定開始から過去5秒以内、過去30分以内などの期間にわたって検出された最大値を含む。ある例では、ユーザは最大値表示をリセットして、以前の最大値を無視することができる。 The display of frequency information can include peak frequency data in addition to current / current frequency information. FIG. 41 shows an interface comprising a display image 4102 and a multi-parameter display 4140 of frequency information including a plurality of frequency ranges arranged along the lower edge of the display image. As shown in FIG. 41, the frequency information displayed at the bottom edge of the display image contains amplitude information (eg, 4150) in a plurality of frequency ranges (measured in decibels in the example of FIG. 41). ). In one example, the maximum decibel level is displayed in the frequency range of one or more. In some cases, the frequency range indicating the maximum decibel level is selectable by the user. The peak marker 4152 can remain on the multi-parameter display, indicating the maximum decibel level and represented in a significant number or possible ways such as contrasting colors, bar caps, arrows, symbols, numbers, etc. It is possible. In one example, the maximum decibel level shown in the data visualization includes the maximum value detected over a period of time, such as within the last 5 seconds, within the last 30 minutes, etc., from the start of the selected measurement. In one example, the user can reset the maximum value display to ignore the previous maximum value.

様々な実施形態において、ディスプレイ画像に含まれた周波数帯域は、ユーザによって調整され得るか、若しくは、プログラムされたアルゴリズム又は機械学習で装置により自動的に決定され得る。様々な例において、周波数帯域は、均等にサイズ分けされ配分されるか、異なるサイズに分けられるか、等化されたヒストグラムであるか、若しくは、かなりの組み合わされた方法により決定され得る。 In various embodiments, the frequency band contained in the display image can be adjusted by the user or automatically determined by the device with a programmed algorithm or machine learning. In various examples, the frequency band can be determined evenly and distributed, divided into different sizes, is an equalized histogram, or by a considerable combination of methods.

図42は、複数の周波数帯域の周波数情報と、図41に示されたのと同様の複数の周波数帯域のピーク値を含むディスプレイ画像を示している。図42の例では、強度と周波数情報を含むマルチパラメータ表示4240がスクリーンの右手部分に示され、振幅情報(例えば、4250)が右寄りの軸を伴い水平に示されている。図41と同様に、マルチパラメータ表示4240は、期間内における一又はそれ以上の周波数範囲のピーク振幅を示すピークマーカー4252を含んでいる。 FIG. 42 shows a display image including frequency information of the plurality of frequency bands and peak values of the plurality of frequency bands similar to those shown in FIG. 41. In the example of FIG. 42, a multi-parameter display 4240 containing intensity and frequency information is shown on the right hand portion of the screen and amplitude information (eg, 4250) is shown horizontally with a right-handed axis. Similar to FIG. 41, the multi-parameter display 4240 includes a peak marker 4252 indicating the peak amplitude in one or more frequency ranges within the period.

ある例では、デシベルレベルが、例えば、鏡像において中心軸の右と左に向かって増加する。同様に、デシベルレベルピークも鏡像に現れることがある。 In one example, the decibel level increases towards the right and left of the central axis, for example in a mirror image. Similarly, decibel level peaks may appear in the mirror image.

中心軸に対して鏡像化されたそのようなデシベル情報が図43に示されている。図43のディスプレイ画像は、複数の周波数の強度情報を示すマルチパラメータ表示4340を含んでいる。そのような鏡像軸表示は、ユーザに周波数範囲選択において重要である小さな変化又は低デシベルレベル変化を一層よく特定することを可能にする。 Such decibel information mirrored to the central axis is shown in FIG. The display image of FIG. 43 includes a multi-parameter display 4340 showing intensity information for a plurality of frequencies. Such a mirror image axis display allows the user to better identify small changes or low decibel level changes that are important in frequency range selection.

図41と42と同様に、図43のマルチパラメータ表示4340は、期間内における一又はそれ以上の周波数範囲のピーク振幅を示すピークマーカー4352を含んでいる。 Similar to FIGS. 41 and 42, the multi-parameter display 4340 of FIG. 43 includes a peak marker 4352 indicating the peak amplitude in one or more frequency ranges within the period.

ある実施形態では、一又はそれ以上の周波数範囲が調色されて、そのような周波数範囲のデシベルレベルのような、そのような周波数範囲に関する追加の情報を示すことがある。図44は、調色を施された組の周波数範囲を含むマルチパラメータ表示4440を示しているが、そこでは各周波数範囲が分類分けされているデシベル範囲を調色が表している。例えば、例示の実施形態では、白で示された周波数範囲(例えば、4450)は0〜20dBに入り、明るいグレーで示された周波数範囲(例えば、4450)は21〜40dBに入り、暗いグレーで示された周波数範囲は41〜100dBに入る。ある例では、調色は、例えば、白で示された周波数範囲が「低」強度を有すると考えられ、明るいグレーで示された周波数範囲が「普通の」強度を有すると考えられ、暗いグレーで示された周波数範囲が「高」強度を有すると考えられるように、絶対値よりむしろ相対値に対応する。例示の実施形態では、強度に関して周波数範囲の下の3つが白に分類され、強度に関して周波数範囲の真ん中の3つが明るいグレーに分類され、強度に関して周波数範囲の上の3つが暗いグレーに分類されている。他の例では、最大強度の三分の一までの強度を有する周波数範囲が白で示され、最大強度の三分の一と三分の二の間の強度を有する周波数範囲が明るいグレーで示され、最大強度の三分の二と最大強度の間の強度を有する周波数範囲が暗いグレーで示される。ある例では、表示された周波数情報に示されている調色技術は、音響画像データに存在する一又はそれ以上のインジケータにも使用されることがある。一般に、カラー化技術若しくは(例えば、様々なパターンや透明化などを介した)他の視覚化技術のいずれかが使用され得る。 In certain embodiments, one or more frequency ranges may be toned to provide additional information about such frequency ranges, such as decibel levels in such frequency ranges. FIG. 44 shows a multi-parameter display 4440 that includes a toned set of frequency ranges, in which the toning represents the decibel range in which each frequency range is classified. For example, in an exemplary embodiment, the frequency range shown in white (eg, 4450) falls within 0-20 dB, the frequency range shown in light gray (eg, 4450) falls within 21-40 dB, and in dark gray. The frequency range shown falls within 41-100 dB. In one example, toning is, for example, the frequency range shown in white is considered to have "low" intensity, the frequency range shown in light gray is considered to have "normal" intensity, and dark gray. Corresponds to relative values rather than absolute values, as the frequency range indicated by is considered to have "high" intensity. In an exemplary embodiment, the three below the frequency range with respect to intensity are classified as white, the three in the middle of the frequency range with respect to intensity are classified as light gray, and the three above the frequency range with respect to intensity are classified as dark gray. There is. In another example, the frequency range with an intensity of up to one-third of the maximum intensity is shown in white, and the frequency range with an intensity between one-third and two-thirds of the maximum intensity is shown in light gray. And the frequency range with an intensity between two-thirds of the maximum intensity and the maximum intensity is shown in dark gray. In one example, the toning technique shown in the displayed frequency information may also be used for one or more indicators present in the acoustic image data. In general, either colorization techniques or other visualization techniques (eg, via various patterns, transparency, etc.) may be used.

ある例では、各周波数範囲における検出された音響データの重大度に関して周波数範囲が調色されることがある。例えば、ある例では、暗いグレーで示された周波数範囲は極めて厳しいと考えられ、明るいグレーで示された周波数範囲は中ぐらいに厳しいと考えられ、白で示された周波数範囲は軽微な重大性を示すと考えられる。上記と同様に、ある例では、音響画像データに存在する一又はそれ以上のインジケータが、音響シーン内の一又はそれ以上の位置において同様の調色された重大性指示を含むことがある。 In one example, the frequency range may be toned with respect to the severity of the detected acoustic data in each frequency range. For example, in one example, the frequency range shown in dark gray is considered to be extremely tight, the frequency range shown in light gray is considered to be moderately tight, and the frequency range shown in white is of minor significance. Is considered to indicate. Similar to the above, in some examples, one or more indicators present in the acoustic image data may include similar toned severity indications at one or more positions in the acoustic scene.

図45は、異なる周波数範囲を示すマルチパラメータ表示4540と、重大度に従って調色されたインジケータ4510、4512、4514を含む例示のディスプレイ画像を示している。様々な例において、異なる重大度レベルに対応する色彩が、装置により自動的に若しくはユーザにより手動で設定されることがある。 FIG. 45 shows an exemplary display image including a multi-parameter display 4540 showing different frequency ranges and indicators 4510, 4512, 4514 toned according to severity. In various examples, colors corresponding to different severity levels may be set automatically by the device or manually by the user.

本明細書の他の個所に記載されているように、ある例では、周波数強度データが経時的に保存若しくは追跡されることがある。ある実施形態では、強度対時間情報がマルチパラメータ表示の一若しくはそれ以上の周波数範囲のそれぞれにおいて表示されることがある。図46は、マルチパラメータ表示4640内の複数の周波数範囲(例えば、4650)のそれぞれにおける強度(dB表示)対時間傾向を示している。例えば、ある例では、強度対時間に加えて、ピーク強度情報が、ピークマーカー(例えば4652)のように、一又はそれ以上の周波数範囲の一又はそれ以上におけるマルチパラメータ表示4640に表示されることがある。図46に示されているように、マルチパラメータ表示4640は時間軸を含み、複数の音響周波数若しくは音響周波数範囲(例えば4650)のそれぞれにおいて、経時的に音響周波数若しくは音響周波数範囲に対応する強度情報を表示する。 In some cases, frequency intensity data may be stored or tracked over time, as described elsewhere herein. In certain embodiments, intensity vs. time information may be displayed in each of the frequency ranges of one or more of the multi-parameter displays. FIG. 46 shows the intensity (dB display) vs. time trend in each of the plurality of frequency ranges (eg, 4650) within the multi-parameter display 4640. For example, in one example, in addition to intensity vs. time, peak intensity information is displayed on a multi-parameter display 4640 in one or more frequency ranges, such as a peak marker (eg, 4652). There is. As shown in FIG. 46, the multi-parameter display 4640 includes a time axis and intensity information corresponding to an acoustic frequency or acoustic frequency range over time in each of a plurality of acoustic frequencies or acoustic frequency ranges (eg, 4650). Is displayed.

本明細書に記載の様々なプロセスは、一又はそれ以上のプロセッサをそのようなプロセスに実行させるための実行可能命令を含む非一時的なコンピュータ可読媒体として具体化することができる。システムは、例えば、プロセッサと一体の、若しくは、プロセッサの外部のメモリに記憶された命令に基づいて、そのようなプロセスを実行するように構成された一又はそれ以上のプロセッサを含むことができる。場合によっては、様々な構成要素がシステム全体に分散させることができる。例えば、システムは、複数の分散プロセッサを含むことができ、各構成されたプロセッサは、システムによって実行されるプロセス全体の少なくとも一部を実行する。さらに、本明細書に記載の様々な特徴及び機能が、例えば、手持ち式音響撮像ツール又は様々な別個の及び/又は分離可能な構成要素を有する分散システムとして具体化される単一の音響撮像システムに組み合わせることができることが理解されよう。 The various processes described herein can be embodied as non-transitory computer-readable media containing executable instructions for causing such processes to execute one or more processors. The system may include, for example, one or more processors configured to perform such processes, either integrally with the processor or based on instructions stored in memory outside the processor. In some cases, various components can be distributed throughout the system. For example, a system can include multiple distributed processors, each configured processor performing at least a portion of the entire process performed by the system. Further, a single acoustic imaging system in which the various features and functions described herein are embodied, for example, as a handheld acoustic imaging tool or a distributed system with various separate and / or separable components. It will be understood that it can be combined with.

本明細書に記載の構成要素の様々な機能は組み合わされることが可能である。ある実施形態では、本出願に記載されている特徴は、「音響データを投影及び映写するシステムと方法(SYSTEMS AND METHODS FOR PROJECTING AND DISPLAYING ACOUSTIC DATA)」と題され、本出願の譲受人に譲受され、参照により本明細書に組み込まれた、弁護士整理番号56581.178.2を有し、2019年7月24日に出願されたPCT出願に記載されている特徴と組み合わせることができる。ある実施形態では、本出願に記載されている特徴は、「音響画像にタグ付けし、関連付けるシステムと方法(SYSTEMS AND METHODS FOR TAGGING AND LINKING ACOUSTIC IMAGES)」と題され、本出願の譲受人に譲受され、参照により本明細書に組み込まれた、弁護士整理番号56581.179.2を有し、2019年7月24日に出願されたPCT出願に記載されている特徴と組み合わせることができる。ある実施形態では、本出願に記載されている特徴は、「着脱自在の音響撮像センサのためのシステムと方法(SYSTEMS AND METHODS FOR DETACHABLE AND ATTACHABLE ACOUSTIC IMAGING SENSORS)」と題され、本出願の譲受人に譲受され、参照により本明細書に組み込まれた、弁護士整理番号56581.180.2を有し、2019年7月24日に出願されたPCT出願に記載されている特徴と組み合わせることができる。ある実施形態では、本出願に記載されている特徴は、「ターゲットシーンからの音響シグネチャを表示するシステムと方法(SYSTEMS AND METHODS FOR REPRESENTING ACOUSTIC SIGNATURES FROM A TARGET SCENE)」と題され、本出願の譲受人に譲受され、参照により本明細書に組み込まれた、弁護士整理番号56581.182.2を有し、2019年7月24日に出願されたPCT出願に記載されている特徴と組み合わせることができる。 The various functions of the components described herein can be combined. In one embodiment, the feature described in this application is entitled "Systems and Methods for Projecting and Projecting Acoustic Data (SYSTEMS AND METHODS FOR PROJECTING AND DISPLAYING ACOUSTIC DATA)" and is transferred to the transferee of this application. , With reference to attorney reference number 56581.178.2, incorporated herein by reference, which can be combined with the features described in the PCT application filed July 24, 2019. In one embodiment, the feature described in this application is entitled "Systems and Methods for Tagging and Associating Acoustic Images (SYSTEMS AND METHODS FOR TAGGING AND LINKING ACOUSTIC IMAGES)" and is transferred to the transferee of this application. It has attorney reference number 56581.179.2 and is incorporated herein by reference and can be combined with the features described in the PCT application filed July 24, 2019. In certain embodiments, the feature described in this application is entitled "Systems and Methods for Detachable Acoustic Image Sensors (SYSTEMS AND METHODS FOR DETACHANBLE AND ATTACHABLE ACOUSTIC IMAGING SENSORS)" and the transferee of this application. It has attorney reference number 56581.180.2, which has been transferred to and incorporated herein by reference, and can be combined with the features described in the PCT application filed July 24, 2019. In certain embodiments, the feature described in this application is entitled "Systems and Methods for Displaying Acoustic Signatures from Target Scenes (SYSTEMS AND METHODS FOR REPRESENTING ACOUSTIC SIGNATURES FROM A TARGET SCENE)". It has attorney reference number 56581.182.2, which has been transferred to a person and incorporated herein by reference, and can be combined with the features described in the PCT application filed July 24, 2019. ..

様々な実施形態が説明されてきた。このような例は非限定的であり、いかなる方法でも本発明の範囲を限定又は制限するものではない。 Various embodiments have been described. Such examples are non-limiting and do not limit or limit the scope of the invention in any way.

図示の実施形態では、音響分析システム200は、ターゲットシーンを表す画像データを生成するための電磁撮像ツール203を含む。例示的な電磁撮像ツールは、ターゲットシーンから電磁放射を受信し、受信した電磁放射を表す電磁画像データを生成するように構成され得る。ある例では、電磁撮像ツール203は、赤外線放射、可視光放射、及び紫外線放射など、電磁スペクトル内の特定の範囲の波長を表す電磁画像データを生成するように構成され得る。例えば、ある実施形態では、電磁撮像ツール203は、例えば、可視光カメラモジュール206などの、電磁スペクトル内の特定の範囲の波長を表す画像データを生成するように構成された一又はそれ以上のカメラモジュールを含むことができる。
In the illustrated embodiment, the acoustic analysis system 200 includes an electromagnetic imaging tool 203 for generating image data representing a target scene. An exemplary electromagnetic imaging tool may be configured to receive electromagnetic radiation from a target scene and generate electromagnetic image data representing the received electromagnetic radiation. In one example, the electromagnetic imaging tool 203 may be configured to generate electromagnetic image data representing a range of wavelengths within the electromagnetic spectrum, such as infrared radiation, visible light radiation, and ultraviolet radiation. For example, in one embodiment, the electromagnetic imaging tool 203 is one or more cameras configured to generate image data representing a range of wavelengths within the electromagnetic spectrum, such as the visible light camera module 206. Can include modules.

同様に、対応するピクセル(すなわち、ターゲットシーンの同じ部分を表すピクセル)を有する画像は、対応する画像と呼ばれ得る。したがって、あるそのような配置では、対応する可視光画像と音響画像は、対応するピクセルにおいて互いに重ね合わされ得る。オペレータは、ユーザインタフェース216と接して、ディスプレイ214に表示される画像の一方又は両方の透明性又は不透明性を制御し得る。例えば、オペレータは、ユーザインタフェース216と接して、音響画像を完全に透明と完全に不透明との間で調整し、また可視光画像を完全に透明と完全に不透明との間で調整し得る。アルファブレンド配置と呼ばれ得るそのような例示的な組み合わせ配置は、オペレータにディスプレイ214を調整して、音響画像のみと可視光画像のみの画像の両極端間の2つの画像の任意の重なり合う組み合わせの音響画像のみの画像、可視光画像のみの画像を表示させることを可能にし得る。プロセッサ212は、また、シーン情報を、警報データなどの他のデータと組み合わせることも可能である。一般に、可視光画像と音響画像のアルファブレンドされた組み合わせは、100%の音響と0%の可視光から0%の音響と100%の可視光までのどこでも含むことができる。ある実施形態では、ブレンドの量は、カメラのユーザによって調整することができる。したがって、ある実施形態では、ブレンドされた画像は、100%の可視光と100%の音響との間で調整することができる。
Similarly, an image with corresponding pixels (ie, pixels representing the same part of the target scene) may be referred to as the corresponding image. Thus, in some such arrangements, the corresponding visible light and acoustic images can be superimposed on each other at the corresponding pixels. The operator may contact the user interface 216 to control the transparency or opacity of one or both of the images displayed on the display 214. For example, the operator may contact the user interface 216 to adjust the acoustic image between fully transparent and completely opaque, and the visible light image between completely transparent and completely opaque. Such an exemplary combinational arrangement, which may be referred to as an alpha blend arrangement, adjusts the display 214 to the operator to make the acoustics of any overlapping combination of the two images between the extremes of the acoustic image only and the visible light image only images. It may be possible to display an image of only an image or an image of only a visible light image. Processor 212 can also combine scene information with other data, such as alarm data. In general, alpha-blended combinations of visible and acoustic images can be included anywhere from 100 % acoustic and 0% visible light to 0% acoustic and 100% visible light. In certain embodiments, the amount of blend can be adjusted by the user of the camera. Thus, in some embodiments, blended image can be adjusted between 100% of the visible light and 100% of the acoustic.

図3Aの音響分析システムは、音響センサアレイ302内に配置された距離測定ツール304とカメラモジュール306をさらに含んでいる。カメラモジュール306は、電磁撮像ツール(例えば、203)のカメラモジュールを表してみいいし、可視光カメラモジュール、赤外線カメラモジュール、紫外線カメラモジュールなどを含んでもよい。さらに、図3Aには示されていないが、音響分析システムは、カメラモジュール306と同じタイプ若しくは異なるタイプの一又はそれ以上の追加のカメラモジュールを含むことができる。図示の例では、距離測定ツール304及びカメラモジュール306は、第1のアレイ320と第2のアレイ322の音響センサ要素の格子内に配置されている。第1のアレイ320と第2のアレイ322内の格子サイト間に配置されるように示されているが、ある実施形態では、一又はそれ以上の構成要素(例えば、カメラモジュール306及び/又は距離測定ツール304は、第1のアレイ320及び/又は第2のアレイ322内の対応する一又はそれ以上の格子サイトに配置することができる。あるそのような実施形態では、構成要素(複数可)は、典型的には格子配置に従ってそのような位置にあるであろう音響センサ要素の代わりに、格子サイトに配置することができる。
The acoustic analysis system of FIG. 3A further includes a distance measuring tool 304 and a camera module 306 disposed within the acoustic sensor array 302. The camera module 306 may represent a camera module of an electromagnetic imaging tool (for example, 203), and may include a visible light camera module, an infrared camera module, an ultraviolet camera module, and the like. Further, although not shown in FIG. 3A, the acoustic analysis system may include one or more additional camera modules of the same type or different type as the camera module 306. In the illustrated example, the distance measuring tool 304 and the camera module 306 are arranged in a grid of acoustic sensor elements of the first array 320 and the second array 322. Although shown to be located between the grid sites in the first array 320 and the second array 322, in certain embodiments, one or more components (eg, camera module 306 and / or distance). The measuring tool 304 ) can be placed at the corresponding one or more grid sites within the first array 320 and / or the second array 322. In certain such embodiments, the components (s) can be placed at the grid site instead of the acoustic sensor elements that would typically be in such positions according to the grid layout.

図3A及び3Bのシステムと同様に、図3Cのシステムは、音響センサアレイ392、394、及び396内に配置された距離測定ツール314及びカメラアレイ316を含んでいる。ある例では、(例えば、カメラアレイ316からの電磁スペクトルの異なる部分を撮像するために使用される)追加のカメラアレイなどの追加の構成要素は、音響センサアレイ392、394、及び396内に同様に配置され得る。図3A〜図Cには、一又はそれ以上の音響センサアレイ内に配置されるように示されているが、距離測定ツール及び/又は一又はそれ以上の撮像ツール(例えば、可視光カメラモジュール、赤外線カメラモジュール、紫外線センサ、など)は、音響センサアレイ(複数可)の外側に配置できる。あるそのような例では、音響センサアレイ(複数可)の外側に配置された距離測定ツール及び/又は一又はそれ以上の撮像ツールは、音響撮像ツールによって、例えば、音響センサアレイを収容する筐体によって支持され得るか、又は音響撮像ツールの筐体の外部に配置できる。
Similar to the systems of FIGS. 3A and 3B, the system of FIG. 3C includes an acoustic sensor array 392, 394, and a distance measuring tool 314 and a camera array 316 disposed within 396. In one example, additional components (eg, used to image different parts of the electromagnetic spectrum from the camera array 316), such as an additional camera array, are similarly within the acoustic sensor arrays 392, 394, and 396. Can be placed in. Figure 3A~ in Figure 3 C is one or more are shown to be placed in acoustic sensor array, the distance measuring tool and / or one or more of the imaging tool (e.g., a visible light camera module , Infrared camera module, UV sensor, etc.) can be placed outside the acoustic sensor array (s). In one such example, the distance measurement tool and / or one or more imaging tools located outside the acoustic sensor array (s) are provided by the acoustic imaging tool, eg, a housing that houses the acoustic sensor array. Can be supported by or can be placed outside the housing of the acoustic imaging tool.

例示的な音響撮像操作中に、周波数によって音響画像データをフィルタ処理することは、例えば、背景若しくは他の重要でない音からの画像クラッタを低減するのに役立ち得る。例示的な音響撮像手順では、ユーザは、産業環境におけるフロアノイズなどの背景音を除去したいと希望することがある。あるそのような例では、バックグラウンドノイズは主に低周波ノイズを含み得る。したがって、ユーザは、所定の周波数(例えば、10kHz)より大きい音響信号を表す音響画像データを表示することを選択し得る。別の例では、ユーザは、(例えば、図5A〜図5Dに示されるように)伝送線路からのコロナ放電など、特定の範囲内の音響信号を一般に放出する特定の物体を分析したいと思うことがある。そのような例では、ユーザは、音響撮像のために特定の周波数範囲(例えば、コロナ放電の場合は11kHz〜14kHz)を選択し得る。
Filtering acoustic image data by frequency during an exemplary acoustic imaging operation can help reduce image clutter, for example from the background or other non-essential sounds. In an exemplary acoustic imaging procedure, the user may wish to remove background sounds such as floor noise in an industrial environment. In one such example, background noise may primarily include low frequency noise. Therefore, the user may choose to display acoustic image data that represents an acoustic signal that is greater than a predetermined frequency (eg, 10 kHz). In another example, a user wants to analyze a particular object that generally emits an acoustic signal within a particular range, such as a corona discharge from a transmission line (eg, as shown in FIGS. 5A- 5D). There is. In such an example, the user may select a specific frequency range (eg, 11 kHz to 14 kHz for corona discharge) for acoustic imaging.

例示的なシナリオでは、図10Aは、位置1010〜1090のそれぞれでノイズフロア閾値を超えるすべての音響画像データを含むことができ、一方、図10Bは、図10Aと同じシーンを示すが、40dBを超える強度を有する音響画像データのみを示す。これは、環境内(例えば、図10A及び10Bのターゲットシーン内)のどの音源が特定の音(例えば、シーン内で最も大きな音)に寄与しているのかをユーザが特定するのを役立たせることを可能にする。
In an exemplary scenario, 10A may include all of the acoustic image data above the noise floor threshold at each position 1010 to 1090, while FIG 10B shows the same scene as in FIG. 10A, a 40dB Only acoustic image data with greater intensity is shown. This helps the user identify which sound source in the environment (eg, in the target scene of FIGS. 10A and 10B) contributes to a particular sound (eg, the loudest sound in the scene). Enables.

特定の条件を満たす音響画像データを示す画像間の循環表示に加えて、又はその代わりに、ある例では、音響信号源の位置を音響画像データにおいて検出し、他の音響信号とは別に音響画像データに表示することができる。例えば、図10Aに関して、ある実施形態では、位置1010〜1090のそれぞれから発生する音響信号を表す音響画像データは、特定され、循環表示され得る。例えば、例示的な動作プロセスでは、位置1010〜1090の1つでの音響画像データを含むディスプレイ画像は、音響信号の各発生源の個々の分析のために、自動的に又はユーザの指示で、循環表示され得る。様々な実施形態において、循環表示中に音響画像データの異なる位置が表示される順序は、位置、近接度、強度、周波数コンテンツなどの様々なパラメータに依存することができる。
In addition to, or instead of, circular display between images showing acoustic image data that meet certain conditions, in one example, the location of the acoustic signal source is detected in the acoustic image data and the acoustic image is separate from the other acoustic signals. Can be displayed in the data. For example, with respect to FIG. 10A, in certain embodiments, acoustic image data representing acoustic signals generated from each of positions 1010 to 1090 may be identified and cyclically displayed. For example, in an exemplary operation process, the display image including the sound image data at one of the positions 1010 to 1090, for the individual analysis of each source of acoustic signals, at the direction of automatic or user, Can be circularly displayed. In various embodiments, the order in which different positions of the acoustic image data are displayed during the cyclic display can depend on various parameters such as position, proximity, intensity, frequency content, and the like.

ある例では、レーザポインタは、ディスプレイ上に視覚化され得る。そのような視覚化は、実際のシーンにおけるレーザポインタのディスプレイ表示上に(例えば、プロセッサを介して)レーザポインタスポットを生成することを含むことができる。ある例では、レーザポインタの位置は、例えば、シーン内のレーザポインタを表すアイコン又は別の整列されたディスプレイマーカによりディスプレイ上で強調され、実際のシーンに対するディスプレイ上の位置をより適切に決定することができる。
In one example, the laser pointer can be visualized on the display. Such visualization can include generating a laser pointer spot on the display display of the laser pointer in a real scene (eg, via a processor). In one example, the position of the laser pointer is highlighted on the display by, for example, an icon representing the laser pointer in the scene or another aligned display marker to better determine the position on the display with respect to the actual scene. Can be done.

図14は、グラデーション調色技術(palettization scheme)を使用した音響データの視覚化を示す。図示されているように、音響パラメータ(例えば、強度)は、グラデーション調色技術(palettization scheme)を介して示されている。例示的なグラデーション調色技術(palettization scheme)では、パラメータ値は、調色技術に従ってそれに関連付けられた固有の色を有する。所与のピクセルでのパラメータ値の変更は、通常、そのピクセルに関連付けられた色の変更をもたらし、新しいパラメータ値を表す。図14の例に示されるように、音響パラメータ値は、位置1432、1434、1436において、音響信号の中心位置から半径方向に変化するように見える。グラデーション調色の他の例は、2017年11月2日に出願され、本出願の譲受人に譲受された米国特許出願第15/802,153号に記載されている。
FIG. 14 shows the visualization of acoustic data using a gradation toning technique. As shown, acoustic parameters (eg, intensity) are shown via a gradation toning technique. In an exemplary gradation scheme, a parameter value has a unique color associated with it according to the toning technique. A change in a parameter value at a given pixel usually results in a color change associated with that pixel, representing a new parameter value. As shown in the example of FIG. 14, the acoustic parameter values appear to vary radially from the center position of the acoustic signal at positions 1432, 1434, 1436. Other examples of gradation toning are described in US Patent Application No. 15 / 802,153, filed November 2, 2017 and transferred to the transferee of this application.

図15は、複数の陰影付き同心円を使用した音響データの視覚化を示す。あるそのような例では、パラメータ値に関連付けられた色を有するグラデーション調色技術(palettization scheme)とは対照的に、図15に示される同心円のそれぞれの同一色は、その色に関連付けられた値の範囲内の音響パラメータ値を有するピクセルを表すことができる。図示の例では、位置1532、1534、1536における音響信号に関連する音響パラメータ(例えば、強度)は、音響信号の中心から半径方向に変化している。例示的な調色技術において、赤で示されるピクセルは、パラメータ値の第1の範囲内の音響パラメータ値を表し、黄色で示されるピクセルは、パラメータ値の第2の範囲内の音響パラメータ値を表し、緑で示されるピクセルは、パラメータ値の第3の範囲内の音響パラメータ値を表すが、追加又は代替の色、パターンなどを含む他の表示技術が可能である。様々な実施形態において、値の範囲は、10dB〜20dBの間の強度値などの絶対範囲に対応することができるか、又は最大強度の90%〜100%の間の強度値などの相対範囲であり得る。
FIG. 15 shows a visualization of acoustic data using a plurality of shaded concentric circles. In one such example, each identical color of the concentric circles shown in FIG. 15 has a value associated with that color, as opposed to a gradation scheme with a color associated with the parameter value. Can represent pixels with acoustic parameter values within the range of. In the illustrated example, the acoustic parameters (eg, intensity) associated with the acoustic signal at positions 1532, 1534, 1536 vary radially from the center of the acoustic signal. In an exemplary toning technique, the pixels shown in red represent acoustic parameter values within the first range of parameter values, and the pixels shown in yellow represent acoustic parameter values within the second range of parameter values. Represented and represented in green, the pixels represent acoustic parameter values within a third range of parameter values, but other display techniques including additional or alternative colors, patterns, etc. are possible. In various embodiments, the range of values can correspond to an absolute range, such as an intensity value between 10 dB and 20 dB, or a relative range, such as an intensity value between 90% and 100% of maximum intensity. could be.

ある実施形態では、色付きインジケータが、一又はそれ以上の検出された音響信号、及び/又は、基準パラメータからの逸脱量などの関連する音響パラメータの重大度を表すために使用されることがある。図20は、対応する位置からの音響信号によって示される重大度を示す異なる色を有する複数のインジケータ2002、2004、2006を示す例示的な視覚化を示している。例えば、例示的な実施形態では、赤色のインジケータは、(例えば、典型的な動作条件の基準などの基準と比較した場合)一又はそれ以上の音響パラメータに基づく重大な重大度を示し、黄色のインジケータは中程度の重大度を示し、緑色インジケータは軽度の重大度を表す。他の例では、他の配色又は外観特性(例えば、インジケータの透明度、インジケータのサイズなど)が、音響信号の重大度を視覚的に区別するために使用されることがある。図示の例では、インジケータ2004は最大レベルの重大度を表し、インジケータ2006は次に大きいレベルを表し、インジケータ2002は最も重大度の低い音響信号を表している。
In certain embodiments, a colored indicator may be used to indicate the severity of one or more detected acoustic signals and / or associated acoustic parameters such as deviations from reference parameters. FIG. 20 shows an exemplary visualization showing a plurality of indicators 2002, 2004, 2006 with different colors indicating the severity indicated by the acoustic signal from the corresponding position. For example, in an exemplary embodiment, a red indicator indicates a critical severity based on one or more acoustic parameters (eg, when compared to criteria such as typical operating condition criteria) and is yellow. indicator showed moderate severity, green indicator represents a mild severity. In other examples, other color schemes or appearance characteristics (eg, indicator transparency, indicator size, etc.) may be used to visually distinguish the severity of the acoustic signal. In the illustrated example, indicator 2004 represents the highest level of severity, indicator 2006 represents the next highest level, and indicator 2002 represents the least severe acoustic signal.

ある例では、そのような埋め込みカメラは、本明細書の他の個所で記載されているように、ディスプレイ用に音響画像データを組み合わせることができる電磁画像データを生成するように構成されることがある。ある実施形態では、音響撮像システムは、タイムスタンプと一緒に、音響データや音響画像データや電磁画像データや注釈データ(例えば、センサデータ、画像/ビデオ注釈データなど)などの様々な情報を保存するように構成されることがある。ある例では、音響撮像システムは、装置上と後でソフトにおいての双方で関連情報を表示し、及び/又は、記録するように構成されることがある。関連情報は、例えば、保存されたディスプレイ画像若しくは音響画像ファイルとともにディスプレイ上に表示されるか、及び/又は、メタデータとして保存され得る。
In one example, such an embedded camera may be configured to produce electromagnetic image data that can be combined with acoustic image data for a display, as described elsewhere herein. be. In certain embodiments, the acoustic imaging system stores various information, such as acoustic data, acoustic image data, electromagnetic image data, and annotation data (eg, sensor data, image / video annotation data, etc.), along with a time stamp. It may be configured as follows. In one example, the acoustic imaging system may be configured to display and / or record relevant information both on the device and later in software. The relevant information may be displayed on the display along with the stored display image or acoustic image file and / or stored as metadata, for example.

Claims (39)

複数の音響センサ要素からなる音響センサアレイであって、各音響センサ要素が音響シーンから音響信号を受信するとともに受信した音響信号に基づき音響データを出力するように構成された音響センサアレイと、
ターゲットシーンからの電磁放射を受信し、受信した電磁放射を示す電磁画像データを出力するように構成された電磁撮像ツールと、
ユーザインタフェースと、
ディスプレイと、
前記音響センサアレイと前記電磁撮像ツールと前記ユーザインタフェースと前記ディスプレイと通信するプロセッサであって、前記電磁撮像ツールから電磁画像データを受信し、前記音響センサアレイからの音響データを受信し、該受信した音響データに基づいてシーンの音響画像データを生成し、組み合わされた音響画像データと電磁画像データからなるディスプレイ画像を生成し、前記ディスプレイに該ディスプレイ画像を提供し、前記ユーザインタフェースから注釈入力を受信し、該受信した注釈入力に基づいてディスプレイ上のディスプレイ画像を更新するように構成されたプロセッサと、
からなる音響分析システム。
An acoustic sensor array composed of a plurality of acoustic sensor elements, wherein each acoustic sensor element receives an acoustic signal from an acoustic scene and outputs acoustic data based on the received acoustic signal.
An electromagnetic imaging tool configured to receive electromagnetic radiation from the target scene and output electromagnetic image data indicating the received electromagnetic radiation.
User interface and
With the display
A processor that communicates with the acoustic sensor array, the electromagnetic imaging tool, the user interface, and the display, receives electromagnetic image data from the electromagnetic imaging tool, receives acoustic data from the acoustic sensor array, and receives the reception. Generates acoustic image data of the scene based on the acoustic data, generates a display image consisting of the combined acoustic image data and electromagnetic image data, provides the display image to the display, and inputs an annotation from the user interface. A processor configured to receive and update the display image on the display based on the received annotation input.
Acoustic analysis system consisting of.
前記ユーザインタフェースが、タッチスクリーンからなり、前記受信された注釈入力が、該タッチスクリーンを介して受信されたフリースタイル注釈からなる請求項1に記載のシステム。
The system of claim 1, wherein the user interface comprises a touch screen and the received annotation input comprises a freestyle annotation received via the touch screen.
さらに、前記プロセッサと通信するメモリであって、一又はそれ以上のアイコンからなるメモリを具備し、前記受信した注釈入力がメモリ内に格納されたアイコンの選択と、ディスプレイ画像上のアイコンの位置を設定する入力からなる請求項1又は2に記載のシステム。
Further, a memory that communicates with the processor and is composed of one or more icons, and the received comment input is used to select an icon stored in the memory and to determine the position of the icon on the display image. The system according to claim 1 or 2, which comprises an input to be set.
前記注釈入力が、あらかじめ定義された形状の選択と、該あらかじめ定義された形状のサイズを設定する入力と、ディスプレイ画像内の前記あらかじめ定義された形状の位置を設定する入力とからなる請求項1〜3のいずれかに記載のシステム。
Claim 1 the annotation input comprises a selection of a predefined shape, an input for setting the size of the predefined shape, and an input for setting the position of the predefined shape in a display image. The system according to any one of 3 to 3.
前記プロセッサが、音響シーン内に存在する音響信号の位置を検出するように構成され、
前記受信された注釈入力に基づいてディスプレイ上のディスプレイ画像を更新することが、音響信号の位置に位置するインジケータをディスプレイ画像内に含むことと、該インジケータの透明度に関連して受信した注釈入力に応じてディスプレイ画像内でインジケータの透明度を調節することからなる請求項1〜4のいずれかに記載のシステム。
The processor is configured to detect the position of an acoustic signal present in the acoustic scene.
Updating the display image on the display based on the received comment input includes an indicator located in the position of the acoustic signal in the display image and the comment input received in relation to the transparency of the indicator. The system according to any one of claims 1 to 4, wherein the transparency of the indicator is adjusted accordingly in the display image.
ディスプレイ画像内でインジケータの透明度を調節することが、電磁撮像データと音響画像データのブレンドに応じてブレンド比を調節することからなる請求項5に記載のシステム。
The system according to claim 5, wherein adjusting the transparency of the indicator in the display image comprises adjusting the blend ratio according to the blend of the electromagnetic imaging data and the acoustic image data.
前記プロセッサが、音響シーン内に存在する音響信号の位置を検出し、音響信号に関連して音響パラメータを決定するように構成され、
前記受信された注釈入力が、音響パラメータに関連して数値の範囲の選択を受信することからなり、
前記受信した注釈入力に基づいてディスプレイ上のディスプレイ画像を更新することが、音響信号に関連した音響パラメータが該音響パラメータに関連して選択された数値範囲内にあるときにのみ、音響信号の位置に位置するインジケータをディスプレイ画像内に含むことからなる請求項1〜6のいずれかに記載のシステム。
The processor is configured to detect the location of an acoustic signal present in the acoustic scene and determine acoustic parameters in relation to the acoustic signal.
The received annotation input comprises receiving a selection of a range of numbers in relation to acoustic parameters.
Updating the display image on the display based on the received comment input is the position of the acoustic signal only when the acoustic parameter associated with the acoustic signal is within the numerical range selected in relation to the acoustic parameter. The system according to any one of claims 1 to 6, comprising an indicator located in the display image.
前記受信した注釈入力が、音響パラメータに関連した複数の数値範囲の選択を受信することからなり、前記受信した注釈入力に基づいてディスプレイ上のディスプレイ画像を更新することが、音響信号に関連した音響パラメータが該音響パラメータに関連して選択された複数のいずれかの数値範囲内にあるときにのみ、音響信号の位置に位置するインジケータをディスプレイ画像内に含むことからなるように構成されている請求項7に記載のシステム。
The received comment input comprises receiving a selection of a plurality of numerical ranges related to the acoustic parameter, and updating the display image on the display based on the received comment input is acoustic associated with the acoustic signal. Claims configured to include an indicator located at the location of an acoustic signal in the display image only when the parameter is within any of a plurality of numerical ranges selected in relation to the acoustic parameter. Item 7. The system according to Item 7.
前記プロセッサが、音響シーン内に存在する音響信号の位置を検出し、音響信号に関連してターゲットへの距離を決定するように構成され、
前記ディスプレイ画像が、音響信号の位置に位置するインジケータを含み、
前記受信した注釈入力に基づいてディスプレイ上のディスプレイ画像を更新することが、音響信号の位置に位置するインジケータの近くで、音響信号に関連したターゲットへの距離を示す注釈を含んでいることからなる請求項1〜8のいずれかに記載のシステム。
The processor is configured to detect the location of an acoustic signal present in the acoustic scene and determine the distance to the target in relation to the acoustic signal.
The display image comprises an indicator located at the position of the acoustic signal.
Updating the display image on the display based on the received annotation input comprises an annotation indicating the distance to the target associated with the acoustic signal near the indicator located at the location of the acoustic signal. The system according to any one of claims 1 to 8.
前記プロセッサが、音響信号に関連した一又はそれ以上の音響パラメータを決定し、単独の所定の閾値又は複数の所定の閾値に対する音響パラメータの比較に基づいて音響信号に関連した臨界値を決定するように構成され、
前記受信した注釈入力に基づいてディスプレイ上のディスプレイ画像を更新することが、さらに音響信号の位置に位置するインジケータの近くで、音響信号に関連して臨界値と一又はそれ以上の音響パラメータを示す注釈を含んでいることからなる請求項9に記載のシステム。
As the processor determines one or more acoustic parameters associated with an acoustic signal and determines the critical value associated with the acoustic signal based on a comparison of the acoustic parameters against a single predetermined threshold or a plurality of predetermined thresholds. Consists of
Updating the display image on the display based on the received annotation input further indicates a critical value and one or more acoustic parameters in relation to the acoustic signal, near the indicator located at the location of the acoustic signal. The system of claim 9, comprising commentary.
さらにシーンに向かってレーザを発射し、ターゲットシーンへの距離を示す情報をプロセッサに提供するように構成されたレーザポインタからなるレーザ距離センサを具備し、
前記ディスプレイ画像が、さらにターゲットシーン内でレーザポインタの位置を示すレーザインジケータを含んでいる請求項9又は10に記載のシステム。
It also comprises a laser distance sensor consisting of a laser pointer configured to fire a laser towards the scene and provide the processor with information indicating the distance to the target scene.
The system of claim 9 or 10, wherein the display image further comprises a laser indicator indicating the position of the laser pointer within the target scene.
前記注釈入力が、英数字注釈を定義した英数字入力と、ディスプレイ画像内の英数字注釈の位置を設定する入力からなる請求項1〜11のいずれかに記載のシステム。
The system according to any one of claims 1 to 11, wherein the annotation input comprises an alphanumerical input defining an alphanumerical annotation and an input for setting the position of the alphanumerical annotation in a display image.
前記英数字入力が、英数字注釈オプションのあらかじめ定義されたリストから英数字注釈を選択することからなる請求項12に記載のシステム。
12. The system of claim 12, wherein the alphanumerical input comprises selecting an alphanumerical annotation from a predefined list of alphanumerical annotation options.
前記プロセッサが、音響シーン内の複数の音響信号を検出し、検出された複数の音響信号のそれぞれに関連して第1の音響パラメータを決定するように構成され、
前記ユーザインタフェースから注釈入力を受信することが、ディスプレイ画像を更新して第1の音響パラメータを表す情報を含める命令を受信することからなり、
受信した注釈入力に基づいてディスプレイ画像を更新することが、検出された音響信号のそれぞれに関連して決定された第1の音響パラメータを表すディスプレイ画像上の指示を含むことからなる請求項1〜13のいずれかに記載のシステム。
The processor is configured to detect a plurality of acoustic signals in an acoustic scene and determine a first acoustic parameter in relation to each of the detected acoustic signals.
Receiving an annotation input from the user interface consists of receiving an instruction to update the display image and include information representing the first acoustic parameter.
Claims 1 to include updating the display image based on the received annotation input including instructions on the display image representing a first acoustic parameter determined in relation to each of the detected acoustic signals. 13. The system according to any of 13.
検出された複数の音響信号のそれぞれに関連して決定された第1の音響パラメータを表すディスプレイ上の指示が、各音響信号の位置に位置する等音響性のインジケータからなり、かつ第1の音響パラメータに関連した特定の数値又は数値範囲を表す単独色を含んでいる請求項14に記載のシステム。
The indication on the display representing the first acoustic parameter determined in relation to each of the plurality of detected acoustic signals consists of an isoacoustic indicator located at the position of each acoustic signal and the first acoustic. The system according to claim 14, which comprises a single color representing a particular numerical value or numerical range associated with a parameter.
各等音響性のインジケータの単独色が、第1の音響パラメータの臨界レベルを表している請求項15に記載のシステム。
15. The system of claim 15, wherein the single color of each isoacoustic indicator represents the critical level of the first acoustic parameter.
前記プロセッサが、検出された複数の音響信号のそれぞれに関連して第2の音響パラメータを決定するように構成されており、各等音響性のインジケータが第1の音響パラメータと第2の音響パラメータの特定の数値又は範囲を表している請求項15又は16に記載のシステム。
The processor is configured to determine a second acoustic parameter in relation to each of the plurality of detected acoustic signals, with each equal acoustic indicator being the first acoustic parameter and the second acoustic parameter. The system of claim 15 or 16, which represents a particular numerical value or range of.
前記プロセッサが、検出された複数の音響信号のそれぞれに関連して第2の音響パラメータを決定するように構成されており、前記指示が、検出された複数の音響信号のそれぞれに対し、各検出された音響信号に関連した第1の音響パラメータと第2の音響パラメータの英数字表示からなる請求項14〜17のいずれかに記載のシステム。
The processor is configured to determine a second acoustic parameter in relation to each of the detected acoustic signals, and the instructions indicate for each of the detected acoustic signals. The system according to any one of claims 14 to 17, comprising an alphanumeric display of a first acoustic parameter and a second acoustic parameter associated with the acoustic signal.
前記指示が、検出された複数の音響信号のそれぞれに対し、検出された音響信号に対応して音響シーン内の位置においてディスプレイ画像に配置されたインジケータであって、音響信号の第1の音響パラメータを表す視覚化文字を有するインジケータと、
音響シーン内の第1の音響パラメータと第2の音響パラメータの間の関係を示す複数パラメータ表示からなる請求項14〜18のいずれかに記載のシステム。
The indication is an indicator placed on the display image at a position in the acoustic scene corresponding to the detected acoustic signal for each of the plurality of detected acoustic signals, the first acoustic parameter of the acoustic signal. An indicator with visualization characters that represent
The system according to any one of claims 14 to 18, comprising a plurality of parameter displays indicating the relationship between the first acoustic parameter and the second acoustic parameter in the acoustic scene.
前記複数パラメータ表示が、第1の音響パラメータと第2の音響パラメータの間の関係の経年にわたる進展を示す時間軸を含んでいる請求項19に記載のシステム。
19. The system of claim 19, wherein the multi-parameter display comprises a time axis showing the evolution of the relationship between the first acoustic parameter and the second acoustic parameter over time.
前記複数パラメータ表示が、音響シーン内の複数の周波数又は周波数範囲に関連して音響強さのグラフィカルな表示からなる請求項19又は20に記載のシステム。
19. The system of claim 19 or 20, wherein the multi-parameter display comprises a graphical display of acoustic intensity in relation to a plurality of frequencies or frequency ranges within an acoustic scene.
さらに、一又はそれ以上の音プロファイルであって、それぞれが一又はそれ以上の音に対応した一又はそれ以上の音響パラメータによって定義される音プロファイルを含むメモリを具備し、
前記プロセッサが、受信した音響データを分析し、受信した音響データがメモリ内に格納された音プロファイルのうちの一つに合致した場合、該音プロファイルに関連した注釈によりディスプレイ画像に注釈をつけ、
受信した注釈入力が音響シーン内に存在する音プロファイルを検出する命令からなる請求項1〜21のいずれかに記載のシステム。
Further comprising a memory containing one or more sound profiles, each of which contains a sound profile defined by one or more acoustic parameters corresponding to one or more sounds.
The processor analyzes the received acoustic data, and if the received acoustic data matches one of the sound profiles stored in the memory, annotates the display image with the annotation associated with the sound profile.
The system according to any one of claims 1 to 21, wherein the received annotation input comprises an instruction to detect a sound profile present in the acoustic scene.
前記注釈が、合致した音プロファイルに基づいて、音響シーンの検出条件の指示からなる請求項22に記載のシステム。
22. The system of claim 22, wherein the annotation comprises instructions for detection conditions of an acoustic scene based on a matched sound profile.
検出された条件が空気漏れからなる請求項23に記載のシステム。
23. The system of claim 23, wherein the detected condition comprises an air leak.
前記指示が、空気漏れの英数字注釈からなる請求項24に記載のシステム。
24. The system of claim 24, wherein the instructions consist of alphanumerical annotations of air leaks.
前記プロセッサが、さらに、空気漏れに関連したコストを決定するように構成されており、英数字注釈が、空気漏れに関連したコストの表示からなる請求項25に記載のシステム。
25. The system of claim 25, wherein the processor is further configured to determine a cost associated with an air leak, the alphanumerical annotation comprising displaying the cost associated with the air leak.
前記指示が、空気漏れを表すアイコン注釈からなる請求項24〜26のいずれかに記載のシステム。
The system according to any one of claims 24 to 26, wherein the instruction comprises an icon annotation representing an air leak.
複数の音響センサ要素からなる音響センサアレイであって、各音響センサ要素が音響シーンから音響信号を受信するとともに受信した音響信号に基づき音響データを出力するように構成された音響センサアレイと、
第1の音響パラメータと該第1の音響パラメータに関連した第1の所定の条件からなる音プロファイルを含むメモリと、
ディスプレイと、
前記音響センサアレイと前記ディスプレイと前記メモリと通信するプロセッサであって、前記音響センサアレイからの音響データを受信し、受信した音響データがメモリ内に格納された音プロファイルに合致しているか否かを決定し、受信した音響データがメモリ内に格納された音プロファイルと合致している場合には、ディスプレイ上の指示であって合致した音プロファイルに関する情報からなる指示を介して、受信した音響データがメモリ内に格納された音プロファイルと合致していることを示す音響分析システム。
An acoustic sensor array composed of a plurality of acoustic sensor elements, wherein each acoustic sensor element receives an acoustic signal from an acoustic scene and outputs acoustic data based on the received acoustic signal.
A memory containing a sound profile comprising a first acoustic parameter and a first predetermined condition associated with the first acoustic parameter.
With the display
Whether or not the processor communicates with the acoustic sensor array, the display, and the memory, receives acoustic data from the acoustic sensor array, and the received acoustic data matches the sound profile stored in the memory. And if the received acoustic data matches the sound profile stored in memory, the received acoustic data via an instruction on the display that consists of information about the matched sound profile. An acoustic analysis system that shows that is matched with the sound profile stored in memory.
受信した音響データが音プロファイルに合致しているか否かを決定することが、受信した音響データが第1の音響パラメータに関連した第1の所定の条件を満足する音響信号を含んでいるか否かを決定することからなる請求項28に記載のシステム。
Determining whether the received acoustic data matches the sound profile is whether the received acoustic data contains an acoustic signal that satisfies the first predetermined condition associated with the first acoustic parameter. 28. The system of claim 28.
前記音プロファイルが、第2の音響パラメータと該第2の音響パラメータに関連した第2の所定の条件からなる請求項28又は29に記載のシステム。
28. The system of claim 28 or 29, wherein the sound profile comprises a second acoustic parameter and a second predetermined condition associated with the second acoustic parameter.
前記受信した音響データが第1の音響パラメータに関連した第1の所定の条件と第2の音響パラメータに関連した第2の所定の条件を満足する音響信号を含んでいる場合に、前記受信した音響データが音プロファイルに合致する請求項30に記載のシステム。
The received acoustic data is the case where the received acoustic data includes an acoustic signal satisfying the first predetermined condition related to the first acoustic parameter and the second predetermined condition related to the second acoustic parameter. 30. The system of claim 30, wherein the acoustic data matches the sound profile.
前記第1の音響パラメータが周波数からなり、前記第1の所定の条件が周波数範囲からなり、前記第2の音響パラメータが強度からなり、前記第2の所定の条件が閾値強度からなり、前記受信した音響データが周波数範囲内の周波数と閾値強度よりも大きい強度を有する音響信号を含む場合に、前記受信した音響データが音プロファイルに合致するようにする請求項31に記載のシステム。
The first acoustic parameter consists of frequency, the first predetermined condition consists of frequency range, the second acoustic parameter consists of intensity, the second predetermined condition consists of threshold intensity, and the reception. 31. The system of claim 31, wherein the received acoustic data matches a sound profile when the resulting acoustic data includes a frequency within the frequency range and an acoustic signal having an intensity greater than the threshold intensity.
前記受信した音響データが第1の音響パラメータに関連した第1の所定の条件を満足する第1の音響信号と第2の音響パラメータに関連した2の所定の条件第2の音響信号を含んでいる場合に、前記受信した音響データが音プロファイルに合致する請求項30〜32のいずれかに記載のシステム。
The received acoustic data includes a first acoustic signal satisfying the first predetermined condition related to the first acoustic parameter and two predetermined conditions second acoustic signal related to the second acoustic parameter. The system according to any one of claims 30 to 32, wherein the received acoustic data matches the sound profile, if any.
複数の音響センサ要素からなる音響センサアレイであって、各音響センサ要素が音響シーンから音響信号を受信するとともに受信した音響信号に基づき音響データを出力するように構成された音響センサアレイと、
ターゲットシーンからの電磁放射を受信し、受信した電磁放射を示す電磁画像データを出力するように構成された電磁撮像ツールであって、電磁放射を検出するように構成された電磁撮像ツールと、
ディスプレイと、
前記音響センサアレイと前記電磁撮像ツールと前と前記ディスプレイと通信するプロセッサであって、前記電磁撮像ツールから電磁画像データを受信し、前記音響センサアレイからの音響データを受信し、該受信した音響データに基づいてシーンの音響画像データを生成し、組み合わされた音響画像データと電磁画像データからなるディスプレイ画像を生成し、前記ディスプレイに該ディスプレイ画像を提供するように構成されたプロセッサとを具備し、
ディスプレイ画像が、検出された音響信号に対応して音響シーン内の位置でディスプレイ上に位置するインジケータであって、音響信号の音響パラメータを表す視覚化文字を有するインジケータと、複数の音響周波数又は音響周波数範囲のそれぞれに対応して受信された音響データを表す強度情報を含むマルチパラメータ表示を含む音響分析システム。
An acoustic sensor array composed of a plurality of acoustic sensor elements, wherein each acoustic sensor element receives an acoustic signal from an acoustic scene and outputs acoustic data based on the received acoustic signal.
An electromagnetic imaging tool configured to receive electromagnetic radiation from a target scene and output electromagnetic image data indicating the received electromagnetic radiation, and an electromagnetic imaging tool configured to detect electromagnetic radiation.
With the display
A processor that communicates with the acoustic sensor array, the electromagnetic imaging tool, the front, and the display, receives electromagnetic image data from the electromagnetic imaging tool, receives acoustic data from the acoustic sensor array, and receives the received acoustics. It comprises a processor configured to generate acoustic image data of a scene based on the data, generate a display image consisting of the combined acoustic image data and electromagnetic image data, and provide the display image to the display. ,
The display image is an indicator located on the display at a position within the acoustic scene corresponding to the detected acoustic signal, the indicator having visualization characters representing the acoustic parameters of the acoustic signal, and a plurality of acoustic frequencies or acoustics. An acoustic analysis system that includes a multi-parameter display that contains intensity information that represents the acoustic data received for each of the frequency ranges.
前記マルチパラメータ表示が、時間軸を含むとともに、複数の音響周波数又は音響周波数範囲のそれぞれに対して、該音響周波数又は音響周波数範囲に対応する強度情報を経時的に表す請求項34に記載のシステム。
34. The system of claim 34, wherein the multi-parameter display includes a time axis and, for each of a plurality of acoustic frequencies or acoustic frequency ranges, represents intensity information corresponding to the acoustic frequency or acoustic frequency range over time. ..
さらに、プロセッサに連絡するユーザインタフェースを具備し、該プロセッサが、ユーザインタフェースを介して、一又はそれ以上の複数の音響周波数又は音響周波数範囲の選択を受信し、選択された一又はそれ以上の複数の音響周波数又は音響周波数範囲内の周波数成分を含む音響信号を有する音響シーン内の位置を決定するように構成され、
発生された音響画像データが、選択された一又はそれ以上の複数の音響周波数又は音響周波数範囲内の周波数成分を含む音響信号を有する決められた位置のみの情報を含んでいる請求項34又は35に記載のシステム。
Further, a user interface for contacting a processor is provided, and the processor receives a selection of one or more acoustic frequencies or acoustic frequency ranges via the user interface, and the selected one or more. It is configured to determine a position in an acoustic scene that has an acoustic signal containing an acoustic frequency or frequency component within the acoustic frequency range of.
30. The system described in.
前記マルチパラメータ表示が、複数の音響周波数又は音響周波数範囲のそれぞれに対して、現状の強度値指示と最大の音響強度値の表示を含んでいる請求項34〜36のいずれかに記載のシステム。
The system of any of claims 34-36, wherein the multi-parameter display comprises displaying the current intensity value indication and the maximum acoustic intensity value for each of the plurality of acoustic frequencies or acoustic frequency ranges.
前記最大の音響強度値が、複数の音響周波数又は音響周波数範囲のそれぞれに対して、所定の時間にわたって観測された最大の音響強度を表している請求項37に記載のシステム。
37. The system of claim 37, wherein the maximum acoustic intensity value represents the maximum acoustic intensity observed over a predetermined time for each of the plurality of acoustic frequencies or acoustic frequency ranges.
前記インジケータ及び/又はマルチパラメータ表示が、音響シーン内の位置及び/又は音響シーン内の所定の音響周波数若しくは音響周波数の範囲における音響データの臨界を表している臨界情報を含んでいる請求項34〜36のいずれかに記載のシステム。 34- 36. The system according to any one of 36.
JP2021504177A 2018-07-24 2019-07-24 Systems and methods for analyzing and displaying acoustic data Active JP7417587B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024000575A JP2024041847A (en) 2018-07-24 2024-01-05 System for analyzing and displaying acoustic data

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862702716P 2018-07-24 2018-07-24
US62/702,716 2018-07-24
PCT/US2019/043224 WO2020023627A1 (en) 2018-07-24 2019-07-24 Systems and methods for analyzing and displaying acoustic data

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024000575A Division JP2024041847A (en) 2018-07-24 2024-01-05 System for analyzing and displaying acoustic data

Publications (2)

Publication Number Publication Date
JP2021532357A true JP2021532357A (en) 2021-11-25
JP7417587B2 JP7417587B2 (en) 2024-01-18

Family

ID=67539638

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2021504176A Active JP7488250B2 (en) 2018-07-24 2019-07-24 Systems and methods for projecting and displaying acoustic data - Patents.com
JP2021504180A Active JP7403526B2 (en) 2018-07-24 2019-07-24 Systems and methods for removable and attachable acoustic imaging sensors
JP2021504177A Active JP7417587B2 (en) 2018-07-24 2019-07-24 Systems and methods for analyzing and displaying acoustic data
JP2021504173A Withdrawn JP2021532355A (en) 2018-07-24 2019-07-24 Systems and methods for tagging and associating acoustic images
JP2024000575A Pending JP2024041847A (en) 2018-07-24 2024-01-05 System for analyzing and displaying acoustic data

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2021504176A Active JP7488250B2 (en) 2018-07-24 2019-07-24 Systems and methods for projecting and displaying acoustic data - Patents.com
JP2021504180A Active JP7403526B2 (en) 2018-07-24 2019-07-24 Systems and methods for removable and attachable acoustic imaging sensors

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021504173A Withdrawn JP2021532355A (en) 2018-07-24 2019-07-24 Systems and methods for tagging and associating acoustic images
JP2024000575A Pending JP2024041847A (en) 2018-07-24 2024-01-05 System for analyzing and displaying acoustic data

Country Status (6)

Country Link
US (6) US11762089B2 (en)
EP (5) EP3827230A1 (en)
JP (5) JP7488250B2 (en)
KR (5) KR20210034661A (en)
CN (5) CN112739997A (en)
WO (5) WO2020023629A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11209306B2 (en) 2017-11-02 2021-12-28 Fluke Corporation Portable acoustic imaging tool with scanning and analysis capability
CN112739997A (en) 2018-07-24 2021-04-30 弗兰克公司 Systems and methods for detachable and attachable acoustic imaging sensors
DE102020107181B4 (en) 2020-03-16 2023-09-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. DEVICE AND ITS USE FOR LOCATING NOISE SOURCES BY BEAMFORMING
WO2022056327A1 (en) 2020-09-11 2022-03-17 Fluke Corporation System and method for acoustic imaging with an accumulated-time view
WO2022056330A2 (en) 2020-09-11 2022-03-17 Fluke Corporation System and method for generating panoramic acoustic images and virtualizing acoustic imaging devices by segmentation
EP4009126B1 (en) * 2020-12-04 2024-05-08 United Grinding Group Management AG Method of operating a machine for a production facility
KR102487086B1 (en) * 2021-01-19 2023-01-10 국방과학연구소 Variable flank array sonar system, underwater submersible including same, and operating method of underwater submersible
KR20220170653A (en) 2021-06-23 2022-12-30 한국전력공사 Partial discharge diagnosis method and device using ultrasonic visualization and phase resolution analysis
CN113759314A (en) * 2021-09-01 2021-12-07 浙江讯飞智能科技有限公司 Sound source visualization method, device and system and computer readable storage medium
US20230115216A1 (en) * 2021-10-09 2023-04-13 Theon Technologies, Inc. Utilization Of Coordinate Systems For Compression And Encryption
WO2023149963A1 (en) 2022-02-01 2023-08-10 Landscan Llc Systems and methods for multispectral landscape mapping
CN114858271B (en) * 2022-07-05 2022-09-23 杭州兆华电子股份有限公司 Array amplification method for sound detection
KR102523631B1 (en) 2022-09-19 2023-04-19 주식회사 창성에이스산업 Gas Leak And Fire Detection System

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09304055A (en) * 1996-05-10 1997-11-28 Nec Corp Apparatus for measuring distance
WO2004021031A1 (en) * 2002-08-30 2004-03-11 Nittobo Acoustic Engineering Co.,Ltd. Sound source search system
JP2012150059A (en) * 2011-01-20 2012-08-09 Chubu Electric Power Co Inc Method and device for estimating sound source
JP2014137323A (en) * 2013-01-18 2014-07-28 Hitachi Power Solutions Co Ltd Abnormality diagnosis apparatus and abnormality diagnosis method using the same
WO2016148825A1 (en) * 2015-03-19 2016-09-22 Intel Corporation Acoustic camera based audio visual scene analysis
WO2018055232A1 (en) * 2016-09-22 2018-03-29 Noiseless Acoustics Oy An acoustic camera and a method for revealing acoustic emissions from various locations and devices

Family Cites Families (139)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3592534A (en) 1969-04-07 1971-07-13 Bell & Howell Co Audiovisual display system
JPS5939341B2 (en) 1979-07-04 1984-09-22 富士重工業株式会社 vehicle carrier
DE3233059C2 (en) 1982-09-06 1985-03-21 Oerlikon-Boehringer GmbH, 7320 Göppingen Deep drilling machine
US4662222A (en) 1984-12-21 1987-05-05 Johnson Steven A Apparatus and method for acoustic imaging using inverse scattering techniques
NL9201787A (en) 1992-10-14 1994-05-02 Jacobus Lambertus Van Merkstei Locating malfunctions
US6006175A (en) 1996-02-06 1999-12-21 The Regents Of The University Of California Methods and apparatus for non-acoustic speech characterization and recognition
US7085387B1 (en) 1996-11-20 2006-08-01 Metcalf Randall B Sound system and method for capturing and reproducing sounds originating from a plurality of sound sources
JP3678016B2 (en) 1998-09-01 2005-08-03 いすゞ自動車株式会社 Sound source search method
DE19844870A1 (en) 1998-09-30 2000-04-20 Bruno Stieper Displaying sound field of object such as machine or motor vehicle involves generating combined acoustic-visual image and displaying on monitor
US20040021031A1 (en) 1998-11-16 2004-02-05 Dan Klaus Device for traversing a flexible linear product for spooling
US6239348B1 (en) 1999-09-10 2001-05-29 Randall B. Metcalf Sound system and method for creating a sound event based on a modeled sound field
US7092882B2 (en) 2000-12-06 2006-08-15 Ncr Corporation Noise suppression in beam-steered microphone array
CN1287741C (en) 2001-07-31 2006-12-06 皇家菲利浦电子有限公司 Transesophageal and transnasal, transesophageal ultrasound imaging systems
US6907799B2 (en) 2001-11-13 2005-06-21 Bae Systems Advanced Technologies, Inc. Apparatus and method for non-destructive inspection of large structures
DE10200561B4 (en) 2002-01-09 2006-11-23 Eads Deutschland Gmbh Radar system with a phased array antenna
US6901028B2 (en) 2002-03-14 2005-05-31 Input/Output, Inc. Marine seismic survey apparatus with graphical user interface and real-time quality control
US7093974B2 (en) 2002-03-13 2006-08-22 Ulrich Kienitz Radiometer with digital imaging system
JP2004021031A (en) 2002-06-18 2004-01-22 Olympus Corp Camera
EP1551303A4 (en) 2002-05-16 2009-03-18 Karmanos B A Cancer Inst Method and system for combined diagnostic and therapeutic ultrasound system incorporating noninvasive thermometry, ablation control and automation
JP2004077277A (en) 2002-08-19 2004-03-11 Fujitsu Ltd Visualization display method for sound source location and sound source location display apparatus
AU2003275290B2 (en) 2002-09-30 2008-09-11 Verax Technologies Inc. System and method for integral transference of acoustical events
GB0229059D0 (en) 2002-12-12 2003-01-15 Mitel Knowledge Corp Method of broadband constant directivity beamforming for non linear and non axi-symmetric sensor arrays embedded in an obstacle
DE10304215A1 (en) 2003-01-30 2004-08-19 Gesellschaft zur Förderung angewandter Informatik eV Method and device for imaging acoustic objects and a corresponding computer program product and a corresponding computer-readable storage medium
WO2006060746A2 (en) 2004-12-03 2006-06-08 Infrared Solutions, Inc. Visible light and ir combined image camera with a laser pointer
KR100677554B1 (en) 2005-01-14 2007-02-02 삼성전자주식회사 Method and apparatus for recording signal using beamforming algorithm
US20070189544A1 (en) 2005-01-15 2007-08-16 Outland Research, Llc Ambient sound responsive media player
US8253619B2 (en) 2005-02-15 2012-08-28 Techtronic Power Tools Technology Limited Electromagnetic scanning imager
WO2006090320A1 (en) 2005-02-23 2006-08-31 Lyncee Tec S.A. Wave front sensing method and apparatus
US7996212B2 (en) 2005-06-29 2011-08-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device, method and computer program for analyzing an audio signal
DE102005030326B4 (en) 2005-06-29 2016-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for analyzing an audio signal
JP4983207B2 (en) 2006-01-30 2012-07-25 日産自動車株式会社 Abnormal noise check device and abnormal noise check method
US7532541B2 (en) * 2006-02-23 2009-05-12 Fev Engine Technology, Inc Object detection using acoustic imaging
CN100489851C (en) * 2006-04-29 2009-05-20 上海杰图软件技术有限公司 Method for establishing panorama electronic map service
US20080074307A1 (en) 2006-05-17 2008-03-27 Olga Boric-Lubecke Determining presence and/or physiological motion of one or more subjects within a doppler radar system
DE102006052451B4 (en) 2006-07-24 2008-05-08 Siemens Ag Method for operating a decentralized data network
DE602006004230D1 (en) 2006-12-18 2009-01-22 Aloka Co Ltd Diagnostic ultrasound device
US7798967B2 (en) 2006-12-19 2010-09-21 Aloka Co., Ltd. Ultrasound diagnosis apparatus
AU2008207265B2 (en) * 2007-01-19 2013-08-01 Sunnybrook Health Sciences Centre Scanning mechanisms for imaging probe
US8395496B2 (en) * 2007-03-29 2013-03-12 Shiv P Joshi Miniature modular wireless sensor
CN100505837C (en) * 2007-05-10 2009-06-24 华为技术有限公司 System and method for controlling image collector for target positioning
CN101079947A (en) * 2007-05-17 2007-11-28 孟均 An image collection system
US8638362B1 (en) * 2007-05-21 2014-01-28 Teledyne Blueview, Inc. Acoustic video camera and systems incorporating acoustic video cameras
ATE554481T1 (en) 2007-11-21 2012-05-15 Nuance Communications Inc TALKER LOCALIZATION
JP5050935B2 (en) 2008-03-06 2012-10-17 日本電気株式会社 Sonar receiver
WO2009130243A2 (en) 2008-04-25 2009-10-29 Stichting Voor De Technische Wetenschappen Acoustic holography
CN101290347B (en) 2008-06-13 2011-04-27 清华大学 Method for obtaining still acoustic source acoustic field image by regular sound array and single video camera
US8446254B2 (en) 2008-11-03 2013-05-21 Thingmagic, Inc. Methods and apparatuses for RFID tag range determination
JP2010133964A (en) * 2008-12-04 2010-06-17 Honda Motor Co Ltd Sound source position estimation system
TWI389579B (en) 2009-04-27 2013-03-11 Univ Nat Chiao Tung Acoustic camera
WO2010148141A2 (en) 2009-06-16 2010-12-23 University Of Florida Research Foundation, Inc. Apparatus and method for speech analysis
JP2011015050A (en) 2009-06-30 2011-01-20 Nittobo Acoustic Engineering Co Ltd Array for beam forming, and sound source exploration/measurement system using the same
US8121618B2 (en) 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
WO2011069964A1 (en) 2009-12-11 2011-06-16 Sorama Holding B.V. Acoustic transducer assembly
JP2011163776A (en) 2010-02-04 2011-08-25 Ono Sokki Co Ltd Device for monitoring sound source
US8707785B2 (en) 2010-04-16 2014-04-29 U.E. Systems, Inc. On-board ultrasonic frequency spectrum and image generation
JP5553672B2 (en) * 2010-04-26 2014-07-16 キヤノン株式会社 Acoustic wave measuring apparatus and acoustic wave measuring method
CN201718024U (en) * 2010-05-07 2011-01-19 中国科学院声学研究所 Plane spiral microphone array
JP2012021969A (en) 2010-06-18 2012-02-02 Panasonic Electric Works Co Ltd Room and wiring tool
EP2413115A1 (en) 2010-07-30 2012-02-01 Technische Universiteit Eindhoven Generating a control signal based on acoustic data
KR101219746B1 (en) 2010-08-24 2013-01-10 서울대학교산학협력단 Apparatus and method for imaging a subsurface using frequency domain reverse time migration in an elastic medium
US11120818B2 (en) 2010-11-12 2021-09-14 Nokia Technologies Oy Processing audio with a visual representation of an audio source
KR101736911B1 (en) * 2010-12-07 2017-05-19 한국전자통신연구원 Security Monitoring System Using Beamforming Acoustic Imaging and Method Using The Same
JP2012133250A (en) 2010-12-24 2012-07-12 Sony Corp Sound information display apparatus, method and program
US9176990B2 (en) 2011-03-04 2015-11-03 Fluke Corporation Visual image annotation, tagging of infrared images, and infrared image linking
US20160025993A1 (en) 2014-07-28 2016-01-28 Apple Inc. Overlapping pattern projector
KR101213540B1 (en) 2011-08-18 2012-12-18 (주)에스엠인스트루먼트 Acoustic senseing device and acoustic camera using mems microphone array
US20130155248A1 (en) 2011-12-20 2013-06-20 Fluke Corporation Thermal imaging camera for infrared rephotography
US20130155249A1 (en) 2011-12-20 2013-06-20 Fluke Corporation Thermal imaging camera for infrared rephotography
US20130162835A1 (en) 2011-12-23 2013-06-27 Fluke Corporation Thermal imaging camera for infrared rephotography
US9495591B2 (en) 2012-04-13 2016-11-15 Qualcomm Incorporated Object recognition using multi-modal matching scheme
KR101204499B1 (en) 2012-05-25 2012-11-26 주식회사 서울산전 Ultrasonic apparatus having an image for diagnosis of electrical facilities
JP2013250111A (en) 2012-05-31 2013-12-12 Ono Sokki Co Ltd Sound source survey device
US9599632B2 (en) 2012-06-22 2017-03-21 Fitbit, Inc. Fitness monitoring device with altimeter
TW201412092A (en) * 2012-09-05 2014-03-16 Acer Inc Multimedia processing system and audio signal processing method
CN102879080B (en) * 2012-09-11 2014-10-15 上海交通大学 Sound field analysis method based on image recognition positioning and acoustic sensor array measurement
CN103686136A (en) * 2012-09-18 2014-03-26 宏碁股份有限公司 Multimedia processing system and audio signal processing method
WO2014064689A1 (en) 2012-10-22 2014-05-01 Tomer Goshen A system and methods thereof for capturing a predetermined sound beam
US20140115055A1 (en) * 2012-10-23 2014-04-24 Dean Kenneth Jackson Co-relating Visual Content with Geo-location Data
US9247367B2 (en) 2012-10-31 2016-01-26 International Business Machines Corporation Management system with acoustical measurement for monitoring noise levels
US9260958B2 (en) 2012-12-20 2016-02-16 Schlumberger Technology Corporation System and method for acoustic imaging using a transducer array
CN103226038B (en) * 2013-01-08 2014-09-17 中科声相(天津)科技有限公司 Splicable and detachable floating line-free sensor array
FR3000862B1 (en) * 2013-01-08 2015-01-09 ACB Engineering PASSIVE LARGE BAND ACOUSTIC ACQUISITION DEVICES AND PASSIVE LARGE BAND ACOUSTIC IMAGING SYSTEMS.
CN105073073B (en) * 2013-01-25 2018-12-07 胡海 Apparatus and method for for sound visualization and auditory localization
WO2014163797A1 (en) 2013-03-13 2014-10-09 Kopin Corporation Noise cancelling microphone apparatus
US9654704B2 (en) 2013-03-15 2017-05-16 Infrared Integrated Systems, Ltd. Apparatus and method for multispectral imaging with three dimensional overlaying
US20140269163A1 (en) 2013-03-15 2014-09-18 Navico, Inc. Sonar Multi-Function Display With Built-In Chirp Processing
US20140267757A1 (en) 2013-03-15 2014-09-18 Fluke Corporation Parallax correction in thermal imaging cameras
US11641536B2 (en) 2013-03-15 2023-05-02 Fluke Corporation Capture and association of measurement data
US9462362B2 (en) * 2013-03-29 2016-10-04 Nissan Motor Co., Ltd. Microphone support device for sound source localization
KR102080746B1 (en) * 2013-07-12 2020-02-24 엘지전자 주식회사 Mobile terminal and control method thereof
JP6342136B2 (en) * 2013-10-15 2018-06-13 三菱重工業株式会社 Radar equipment
GB2519347A (en) 2013-10-18 2015-04-22 Pole Star Space Applic Ltd Method and apparatus for tracking and checking compliance of vessels such as ships
US9635456B2 (en) 2013-10-28 2017-04-25 Signal Interface Group Llc Digital signal processing with acoustic arrays
US9798030B2 (en) 2013-12-23 2017-10-24 General Electric Company Subsea equipment acoustic monitoring system
JP2015152316A (en) * 2014-02-10 2015-08-24 株式会社小野測器 Sound visualizing apparatus
FR3018023B1 (en) 2014-02-25 2017-07-07 Micro Db DEVICE FOR IDENTIFYING ACOUSTIC SOURCES
US9697465B2 (en) 2014-04-30 2017-07-04 Google Technology Holdings LLC Drawing an inference of a usage context of a computing device using multiple sensors
JP6218090B2 (en) 2014-05-09 2017-10-25 パナソニックIpマネジメント株式会社 Directivity control method
US9892328B2 (en) 2014-06-18 2018-02-13 Mobileye Vision Technologies Ltd. Hazard detection from a camera in a scene with moving shadows
WO2016011479A1 (en) 2014-07-23 2016-01-28 The Australian National University Planar sensor array
KR101866609B1 (en) * 2014-07-28 2018-06-12 두산중공업 주식회사 Intelligent noise monitoring device and noise monitoring method using it
US20160073087A1 (en) 2014-09-10 2016-03-10 Lenovo (Singapore) Pte. Ltd. Augmenting a digital image with distance data derived based on acoustic range information
US20160076937A1 (en) 2014-09-17 2016-03-17 Fluke Corporation Display of images from an imaging tool embedded or attached to a test and measurement tool
EP3210055B1 (en) * 2014-10-24 2023-02-22 Fluke Electronics Corporation Handheld infrared imaging device to detect underlying structures
CN104361586A (en) * 2014-10-31 2015-02-18 国网上海市电力公司 Electric pole and tower maintenance and pre-warning system based on panoramas
WO2016085051A1 (en) 2014-11-26 2016-06-02 주식회사 아띠베뷰티 Ultrasonic wave generating device and procedure method using same
US20160165341A1 (en) 2014-12-05 2016-06-09 Stages Pcs, Llc Portable microphone array
US10028053B2 (en) * 2015-05-05 2018-07-17 Wave Sciences, LLC Portable computing device microphone array
WO2016176854A1 (en) 2015-05-07 2016-11-10 SZ DJI Technology Co., Ltd. System and method for detecting an object
KR101687825B1 (en) 2015-05-18 2016-12-20 현대자동차주식회사 Vehicle and method of controlling the same
US20160364960A1 (en) 2015-06-09 2016-12-15 Elwha Llc Systems and methods for ultrasonically induced tactile stimuli in an entertainment system
US20170225033A1 (en) * 2015-06-23 2017-08-10 Ipcomm Llc Method and Apparatus for Analysis of Gait and to Provide Haptic and Visual Corrective Feedback
GB2540224A (en) * 2015-07-08 2017-01-11 Nokia Technologies Oy Multi-apparatus distributed media capture for playback control
US20170010359A1 (en) 2015-07-09 2017-01-12 Deca System, Inc. Golf device with gps and laser rangefinder functionalities
JP5939341B1 (en) * 2015-07-14 2016-06-22 パナソニックIpマネジメント株式会社 Monitoring system and monitoring method
US10152811B2 (en) 2015-08-27 2018-12-11 Fluke Corporation Edge enhancement for thermal-visible combined images and cameras
JP6543844B2 (en) 2015-08-27 2019-07-17 本田技研工業株式会社 Sound source identification device and sound source identification method
US10042038B1 (en) * 2015-09-01 2018-08-07 Digimarc Corporation Mobile devices and methods employing acoustic vector sensors
KR101678203B1 (en) * 2015-09-08 2016-12-07 (주)에스엠인스트루먼트 Acoustic Camera
CN205067744U (en) 2015-10-23 2016-03-02 河海大学 Mobile terminal control type obstacle detection system with adjustable scope
JP6665379B2 (en) 2015-11-11 2020-03-13 株式会社国際電気通信基礎技術研究所 Hearing support system and hearing support device
US20170150254A1 (en) * 2015-11-19 2017-05-25 Vocalzoom Systems Ltd. System, device, and method of sound isolation and signal enhancement
US10008028B2 (en) 2015-12-16 2018-06-26 Aquifi, Inc. 3D scanning apparatus including scanning sensor detachable from screen
US10408933B1 (en) 2016-01-08 2019-09-10 Johnson Outdoors Inc. Sonar imaging system with lateral target placement and multiple color display
KR20170098089A (en) 2016-02-19 2017-08-29 삼성전자주식회사 Electronic apparatus and operating method thereof
US20170281982A1 (en) 2016-03-31 2017-10-05 Family Health International Methods and systems for generating an occlusion using ultrasound
JP2017207399A (en) 2016-05-19 2017-11-24 株式会社小野測器 Sound source survey device and sound source survey method
US10375325B2 (en) 2016-06-23 2019-08-06 Fluke Corporation Thermal anomaly detection
JP6610640B2 (en) 2016-10-28 2019-11-27 Jfeスチール株式会社 Position recognition method and system, and abnormality determination method and system
KR102625247B1 (en) * 2016-11-11 2024-01-16 삼성전자주식회사 Electronic device including camera and acoustic component
EP3611933A1 (en) 2017-01-05 2020-02-19 Harman Becker Automotive Systems GmbH Active noise reduction earphones
WO2018208616A1 (en) * 2017-05-08 2018-11-15 Masimo Corporation System for pairing a medical system to a network controller by use of a dongle
GB201710093D0 (en) * 2017-06-23 2017-08-09 Nokia Technologies Oy Audio distance estimation for spatial audio processing
US11209306B2 (en) 2017-11-02 2021-12-28 Fluke Corporation Portable acoustic imaging tool with scanning and analysis capability
US20190129027A1 (en) 2017-11-02 2019-05-02 Fluke Corporation Multi-modal acoustic imaging tool
US11099075B2 (en) 2017-11-02 2021-08-24 Fluke Corporation Focus and/or parallax adjustment in acoustic imaging using distance information
WO2019231630A1 (en) 2018-05-31 2019-12-05 Shure Acquisition Holdings, Inc. Augmented reality microphone pick-up pattern visualization
CN112739997A (en) 2018-07-24 2021-04-30 弗兰克公司 Systems and methods for detachable and attachable acoustic imaging sensors
US10694167B1 (en) * 2018-12-12 2020-06-23 Verizon Patent And Licensing Inc. Camera array including camera modules

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09304055A (en) * 1996-05-10 1997-11-28 Nec Corp Apparatus for measuring distance
WO2004021031A1 (en) * 2002-08-30 2004-03-11 Nittobo Acoustic Engineering Co.,Ltd. Sound source search system
JP2012150059A (en) * 2011-01-20 2012-08-09 Chubu Electric Power Co Inc Method and device for estimating sound source
JP2014137323A (en) * 2013-01-18 2014-07-28 Hitachi Power Solutions Co Ltd Abnormality diagnosis apparatus and abnormality diagnosis method using the same
WO2016148825A1 (en) * 2015-03-19 2016-09-22 Intel Corporation Acoustic camera based audio visual scene analysis
WO2018055232A1 (en) * 2016-09-22 2018-03-29 Noiseless Acoustics Oy An acoustic camera and a method for revealing acoustic emissions from various locations and devices

Also Published As

Publication number Publication date
US11960002B2 (en) 2024-04-16
JP2021532358A (en) 2021-11-25
EP3827230A1 (en) 2021-06-02
WO2020023631A1 (en) 2020-01-30
JP2021532359A (en) 2021-11-25
KR20210035273A (en) 2021-03-31
JP2021532355A (en) 2021-11-25
KR20210033532A (en) 2021-03-26
US20210311187A1 (en) 2021-10-07
CN112703375A (en) 2021-04-23
JP7403526B2 (en) 2023-12-22
US20210311188A1 (en) 2021-10-07
WO2020023627A1 (en) 2020-01-30
KR20210034661A (en) 2021-03-30
JP2024041847A (en) 2024-03-27
EP3827226A1 (en) 2021-06-02
KR20210035881A (en) 2021-04-01
CN112739997A (en) 2021-04-30
KR20210034076A (en) 2021-03-29
CN112703376A (en) 2021-04-23
WO2020023629A1 (en) 2020-01-30
CN112739996A (en) 2021-04-30
JP7488250B2 (en) 2024-05-21
JP7417587B2 (en) 2024-01-18
EP3827229A1 (en) 2021-06-02
US20240118416A1 (en) 2024-04-11
WO2020023622A1 (en) 2020-01-30
EP3827228A1 (en) 2021-06-02
US20210310856A1 (en) 2021-10-07
US20210310857A1 (en) 2021-10-07
JP2021532356A (en) 2021-11-25
CN112739995A (en) 2021-04-30
US11965958B2 (en) 2024-04-23
EP3827227A1 (en) 2021-06-02
US11762089B2 (en) 2023-09-19
US20210293953A1 (en) 2021-09-23
WO2020023633A1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP7417587B2 (en) Systems and methods for analyzing and displaying acoustic data
US20220146668A1 (en) Multi-modal acoustic imaging tool
US11913829B2 (en) Portable acoustic imaging tool with scanning and analysis capability
CN109756720B (en) Focus and/or parallax adjustment in acoustic imaging using distance information
JP7493491B2 (en) System and method for representing an acoustic signature from a target scene - Patents.com

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220414

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230602

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240105

R150 Certificate of patent or registration of utility model

Ref document number: 7417587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150