WO2013157305A1 - 放射信号可視化装置 - Google Patents

放射信号可視化装置 Download PDF

Info

Publication number
WO2013157305A1
WO2013157305A1 PCT/JP2013/055175 JP2013055175W WO2013157305A1 WO 2013157305 A1 WO2013157305 A1 WO 2013157305A1 JP 2013055175 W JP2013055175 W JP 2013055175W WO 2013157305 A1 WO2013157305 A1 WO 2013157305A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
signal
section
dimensional
image
Prior art date
Application number
PCT/JP2013/055175
Other languages
English (en)
French (fr)
Inventor
武志 石田
正彦 井出
健司 近藤
顕司 藤井
Original Assignee
株式会社ノイズ研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ノイズ研究所 filed Critical 株式会社ノイズ研究所
Priority to DE112013001946.9T priority Critical patent/DE112013001946B4/de
Publication of WO2013157305A1 publication Critical patent/WO2013157305A1/ja
Priority to US14/513,310 priority patent/US9417128B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01KMEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
    • G01K3/00Thermometers giving results other than momentary value of temperature
    • G01K3/08Thermometers giving results other than momentary value of temperature giving differences of values; giving differentiated values
    • G01K3/14Thermometers giving results other than momentary value of temperature giving differences of values; giving differentiated values in respect of space
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/443Emission spectrometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01KMEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
    • G01K11/00Measuring temperature based upon physical or chemical changes not covered by groups G01K3/00, G01K5/00, G01K7/00 or G01K9/00
    • G01K11/12Measuring temperature based upon physical or chemical changes not covered by groups G01K3/00, G01K5/00, G01K7/00 or G01K9/00 using changes in colour, translucency or reflectance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R29/00Arrangements for measuring or indicating electric quantities not covered by groups G01R19/00 - G01R27/00
    • G01R29/08Measuring electromagnetic field characteristics
    • G01R29/0864Measuring electromagnetic field characteristics characterised by constructional or functional features
    • G01R29/0871Complete apparatus or systems; circuits, e.g. receivers or amplifiers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R29/00Arrangements for measuring or indicating electric quantities not covered by groups G01R19/00 - G01R27/00
    • G01R29/08Measuring electromagnetic field characteristics
    • G01R29/0864Measuring electromagnetic field characteristics characterised by constructional or functional features
    • G01R29/0892Details related to signal analysis or treatment; presenting results, e.g. displays; measuring specific signal features other than field strength, e.g. polarisation, field modes, phase, envelope, maximum value
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J2003/283Investigating the spectrum computer-interfaced
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2803Investigating the spectrum using photoelectric array detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01KMEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
    • G01K2213/00Temperature mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/012Dimensioning, tolerancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Definitions

  • the present invention relates to an apparatus for visualizing a radiation signal, which can inform in detail the information of a signal generated around an object to be measured.
  • noise unnecessary electromagnetic field noise
  • the apparatus of Patent Document 1 creates a diagram in which the electromagnetic field strength (signal level) of noise is displayed by color on a two-dimensional plane.
  • the apparatus of Patent Document 3 performs frequency analysis of noise on the surface of the measurement target object and creates a contour map of noise at a specific frequency.
  • the apparatus of Patent Document 2 determines the position of a sensor in a three-dimensional space around the object to be measured by parallax, and displays the electromagnetic field strength (signal level) of noise at that position by color. Therefore, the measurer can obtain information on noise at the position of the sensor.
  • Patent Documents 1 and 3 hold only noise information in a two-dimensional plane
  • the device of Patent Document 2 holds only noise information at a sensor position, both of which are three-dimensional.
  • the present invention has been made to solve the above problems, and provides a radiation signal visualization device capable of knowing in detail the distribution and intensity of noise in a three-dimensional space around the object to be measured. It is an object.
  • the present invention acquires a signal generated from the object to be measured as a detection signal while moving the sensor in a rectangular parallelepiped measurement space where one surface faces the object to be measured, and displays the signal level of the detection signal
  • a radiation signal visualization device for displaying color by color on the device, and a captured image storage means for storing captured images obtained by capturing the measurement space at regular intervals, and the measurement space in a depth direction, a width direction, and a height direction.
  • each section of the analytical three-dimensional space model is divided into the three-dimensional coordinates of the section in the analytical three-dimensional space model, the detection signal, and the A three-dimensional memory in which section management information including the color value of the maximum signal level among detection signals is stored in association with each other, and the captured image storage means Means for displaying a shadow image on the display device, means for displaying a screen mesh frame composed of a screen section associated with the section on the captured image as a mesh frame for displaying an analysis result, and the object to be measured Means for sequentially designating the sections having depth coordinates corresponding to the designated distance from the object; for each designated section, the two-dimensional coordinates constituting the three-dimensional coordinates assigned to the section and the assignment to the sections
  • a radiation signal visualization apparatus comprising: means for reading the read color value; and means for displaying the screen section corresponding to the two-dimensional coordinates in the color of the read color value.
  • the section of the analytical three-dimensional space model of the three-dimensional memory is further assigned a maximum signal level among the detection signals for each predetermined time together with the color value, and is designated from the object to be measured.
  • the section management information includes a signal acquisition number for identifying the detection signal, and a signal storage means for storing the signal acquisition number in association with the detection signal for each predetermined time; and It is preferable to further comprise means for displaying the detection signal identified by the signal acquisition number on the display device together with the analysis result display mesh frame.
  • a first video camera that shoots from the front direction of the measurement space; a second video camera that shoots from a side direction of the measurement space; a color value table that represents the correspondence between the signal level and the color value;
  • An image input unit that captures the captured image from the video camera and the captured image from the second video camera at regular intervals, and stores them in the captured image storage unit in association with each other, and from the first video camera
  • Means for making this a shape image of the sensor from the front direction, and detecting a cluster of adjacent pixels having color information of the sensor from the second photographed image, and detecting this from the side direction The sensor position is determined from a means for making an image, a center position of the sensor shape image from the front direction and a center position of the sensor shape image from the side direction, and the analysis three-dimensional space model including the sensor position is determined.
  • the senor is a frequency information detection sensor that detects a signal including frequency information
  • the sensor further includes a frequency analysis unit that calculates spectrum data of the detection signal detected by the frequency information detection sensor as the detection signal.
  • the frequency information detection sensor may be an electromagnetic field detection sensor or a sound detection sensor that detects a signal including frequency information.
  • the sensor may be a radiation detection sensor that detects radiation, digitizes the detection signal, and outputs the detection signal as the detection signal.
  • the sensor may be a temperature detection sensor that detects a temperature, digitizes the detection signal, and outputs the detection signal as the detection signal.
  • FIG. 1 is an explanatory diagram of the measurement space Ai.
  • FIG. 2 is an explanatory diagram of the analytical three-dimensional space model KAMi.
  • FIG. 3 is a connection configuration diagram of the radiation signal visualization apparatus.
  • FIG. 4 is an explanatory diagram of the sensor 11.
  • FIG. 5 is a schematic configuration diagram of a radiation signal visualization apparatus.
  • FIG. 6 is a schematic configuration diagram of the analysis distribution output unit 119 and the three-dimensional display unit 121.
  • FIG. 7 is an explanatory diagram of the memory 110b.
  • FIG. 8 is a flowchart for explaining the three-dimensional mesh frame creation process.
  • FIG. 9 is a flowchart for explaining the schematic operation of the radiation signal visualization apparatus according to the present embodiment.
  • FIG. 10 is an explanatory diagram for explaining an analysis result display screen according to the present embodiment.
  • FIG. 11 is a flowchart for explaining sensor three-dimensional position calculation processing.
  • FIG. 12 is an explanatory diagram of the front image AGi and the sensor lateral surface image Gbi.
  • FIG. 13 is an explanatory diagram for explaining the calculation of the center of gravity.
  • FIG. 14 is a flowchart for explaining electromagnetic field information assignment processing.
  • FIG. 15 is a flowchart for explaining the operation of the analysis distribution output unit 119 in the measuring mode.
  • FIG. 16 is an explanatory diagram for explaining the processing of the interpolation unit.
  • FIG. 17 is a flowchart for explaining the operation when the analysis distribution output unit 119 is in a state of analysis display at a single distance.
  • FIG. 11 is a flowchart for explaining sensor three-dimensional position calculation processing.
  • FIG. 12 is an explanatory diagram of the front image AGi and the sensor lateral surface image Gbi.
  • FIG. 13 is an
  • FIG. 18 is a flowchart for explaining the operation when the analysis distribution output unit 119 is in the analysis display mode in the designated distance range.
  • FIG. 19 is an explanatory diagram illustrating a 3D display screen.
  • FIG. 20 is a flowchart for explaining the spectrum data display process.
  • FIG. 21 is an explanatory diagram of spectrum data display.
  • FIG. 22 is a flowchart for explaining the spectrum data display process when the frequency range Ffi is designated.
  • FIG. 23 is an explanatory diagram of spectrum data display when the frequency range Ffi is designated.
  • FIG. 24 is a schematic configuration diagram of a radiation signal visualization device according to another embodiment.
  • the object to be measured is an IC substrate, a television, etc.
  • the distribution of electromagnetic field noise (also simply referred to as noise) included in the signal from the object to be measured is displayed by color, and the noise is displayed.
  • This is a radiation signal visualization device for visualization.
  • FIG. 5 is a schematic configuration diagram of the radiation signal visualization apparatus according to the present embodiment.
  • FIG. 3 is a specific connection configuration diagram.
  • the radiation signal visualization apparatus includes a sensor 11, a front video camera 12, a lateral video camera 13, a spectrum analyzer 15, and an analysis main body 100. Yes.
  • the analysis main body 100 is provided with a display device 120 that displays an output result from the analysis main body 100.
  • the measurer fixes the relative positional relationship of the front video camera 12 and the horizontal video camera 13 with respect to the object to be measured 10.
  • the measurer fixes the front video camera 12 so as to photograph the object 10 to be measured from the front, and the direction of the line of sight of the video camera 13 for the horizontal plane is orthogonal to the direction of the line of sight of the front video camera 10.
  • the horizontal video camera 13 is fixed so as to be parallel to the horizontal plane.
  • the viewing direction of the front video camera 12 is defined as the Z axis
  • the viewing direction of the lateral video camera 13 is defined as the X axis
  • a direction orthogonal to both the X axis and the Z axis is defined as the Y axis.
  • the viewing direction of the front video camera 12 is referred to as a front direction, and the viewing direction of the lateral video camera 13 is referred to as a lateral direction.
  • the front video camera 12 is referred to as a first video camera, and the lateral video camera 13 is referred to as a second video camera.
  • FIG. 1 shows the measurement space Ai.
  • This measurement space Ai exists in a range from the measurement surface of the measurement object 10 (may be several centimeters, several tens of centimeters, or several meters away) to the position where the front video camera 12 is placed. It is a rectangular parallelepiped area.
  • the side in the depth direction of the measurement space Ai is parallel to the Z axis, and the side in the horizontal width direction of the measurement space Ai is parallel to the X axis.
  • the size of the measurement space Ai is defined by the depth Azi, the width Axi, and the height Ayi.
  • the depth Azi is the length of the side in the depth direction (Z axis) of the measurement space Ai.
  • the horizontal width Axi is the length of the side in the horizontal width direction (X axis) of the measurement space Ai.
  • the height Ayi is the length of a side in the height direction (Y axis) of the measurement space Ai.
  • the depth Azi, the width Axi, and the height Ayi are information that is input by the measurer operating the mouse and keyboard by opening a measurement space input screen.
  • Information on the relative positional relationship between the measurement space Ai, the front video camera 12, and the horizontal video camera 13 is information input by the measurer operating the mouse and keyboard after opening the measurement space input screen. It is. Alternatively, the information on the relative positional relationship may be information automatically determined by the apparatus.
  • the front surface of the measurement target object 10 is a surface that is measured by the measurer, and may be a rear surface or a side surface (left lateral surface, right lateral surface, lower surface, upper surface) of the measurement target object 10. It doesn't matter. That is, the measurement surface of the measurement target 10 determined by the measurer is the front.
  • Measurer moves the sensor 11 in the measurement space Ai and measures noise. With this operation, the three-dimensional noise distribution in the measurement space Ai is stored in the radiation signal visualization device. Based on the stored information, noise can be analyzed.
  • the senor 11 is provided with antennas orthogonal to each other (X-axis direction, Y-axis direction, Z-axis direction) inside a spherical casing 11 a and outputs an electromagnetic field detection signal in each direction. Output.
  • an amplification amplifier, an output signal line, and a power supply line are connected to these antennas (not shown).
  • a rod 11e having a predetermined length that can be held by a human hand is connected to the housing 11a.
  • the spectrum analyzer 15 includes an X-axis direction FFT, a Y-axis direction FFT, a Z-axis direction FFT, a synthesis unit, and the like (not shown).
  • the X-axis direction FFT discretizes and samples the electromagnetic field detection signal in the X-axis direction from the sensor 11 and outputs spectrum data (Fourier coefficient) in the X-axis direction from these data.
  • the Y-axis direction FFT discretizes and samples the Y-axis direction electromagnetic field detection signal from the sensor 11, and outputs spectrum data (Fourier coefficient) in the Y-axis direction from these data.
  • the Z-axis direction FFT discretizes and samples the electromagnetic field detection signal in the Z-axis direction from the sensor 11, and outputs spectrum data (Fourier coefficient) in the Z-axis direction from these data.
  • the synthesizing unit synthesizes and outputs the spectrum data in the axial direction.
  • the measurer selects either direction or the combined output.
  • the analysis main body unit 100 includes a camera image input unit 101, a sensor front position calculation unit 104, a sensor lateral surface position calculation unit 105, a sensor three-dimensional position calculation unit 106, a reference analysis mesh creation unit 107, and an analysis three-dimensional space. Creation unit 108, image output unit 109, spectrum data reading unit 114, electromagnetic field information allocation unit 116, color value table 117, interpolation unit 118, analysis distribution output unit 119, three-dimensional display unit 121, The mode setting unit 124 is provided.
  • various memories 102, 103, 110a, 110b, 115, 122 are provided.
  • a timer (not shown) is also provided.
  • the sensor front position calculation unit 104, the sensor horizontal surface calculation unit 105, the sensor three-dimensional position calculation unit 106, the reference analysis mesh generation unit 107, the analysis three-dimensional space generation unit 108, and the image output unit 109 are described above.
  • the electromagnetic field information assigning unit 116, the color value table 117, the interpolation unit 118, the analysis distribution output unit 119, the three-dimensional display unit 121, the mode setting unit 124, and the like are stored in a storage medium (not shown). Alternatively, these may be read into a program execution memory (not shown) to execute this processing.
  • the camera image input unit 101 is connected to the front video camera 12 and the horizontal video camera 13.
  • the camera image input unit 101 is referred to as an image input unit.
  • the camera image input unit 101 captures the video signal from the front video camera 12 every predetermined time Ti (for example, 1/30 sec) in accordance with the input of the measurement start instruction, and converts it into a front image AGi (first image). Output to the image output unit 109 as one captured image). At the same time, the front image AGi is overwritten and saved in the memory 102.
  • the camera image input unit 101 captures the video signal from the horizontal video camera 13 every predetermined time Ti (for example, 1/30 sec) in response to the input of the measurement start instruction, and converts it into a horizontal image BGi. (Also referred to as a second captured image) is output to the image output unit 109. At the same time, the horizontal image BGi is overwritten and saved in the memory 103.
  • the front video camera 12 and the horizontal video camera 13 are preferably arranged so that the entire measurement space Ai is reflected in the front image AGi and the horizontal image BGi.
  • the position of the sensor 11 in the measurement space Ai can be determined by a sensor three-dimensional position calculation process described later.
  • the memory 102 and the memory 103 are collectively referred to as a captured image storage unit.
  • the captured image is preferably stored in association with information such as a place input by the measurer, an object name, a date, and the like (collectively, data identification information Rji).
  • the image output unit 109 is a front image AGi or a horizontal image BGi from the camera image input unit 101, a front image AGi stored in the memory 102 (hereinafter referred to as a registered front image AGir), or a horizontal image BGi in the memory 103. (Hereinafter referred to as a registered lateral image BGir) is output to the three-dimensional display unit 121.
  • the three-dimensional display unit 121 receives information for screen display from the image output unit 109, a reference analysis mesh creation unit 107 described later, and an analysis distribution output unit 119 described later, and displays the received information on the display device 120. .
  • the three-dimensional display unit 121 uses a display form stored in the memory 122 when outputting information.
  • the sensor front position calculation unit 104 reads the front image AGi or the registered front image AGir and determines information related to the position of the sensor 11 in the X-axis direction and the Y-axis direction.
  • the sensor lateral surface position calculation unit 105 reads the lateral surface image BGi or the registered lateral surface image BGir, and determines information related to the position of the sensor 11 in the Y-axis direction and the Z-axis direction.
  • the sensor three-dimensional position calculation unit 106 determines the position of the sensor 11 using information from the sensor front position calculation unit 104 and the sensor lateral surface position calculation unit 105.
  • the spectrum data reading unit 114 reads the spectrum data from the spectrum analyzer 15 every predetermined time Ti in accordance with the input of the measurement start instruction by the measurer.
  • the frequency range is designated in advance by the measurer, and the spectrum data Hi in the designated frequency range is extracted from the spectrum data and output to the electromagnetic field information assigning unit 116.
  • the fixed time Ti is 1/30 sec, 1/60 sec, or 1/100 sec.
  • a signal fetch number HFi that can identify Ti for a certain period of time is added to the spectrum data Hi and sequentially stored in the memory 115. In storing in the memory 115, it is preferable to add and store the data identification information Rji and the signal fetch number HFi.
  • the reference analysis mesh creation unit 107 and the analysis solid space creation unit 108 create an analysis solid space model KAMi, which will be described later, and section management information MBi of the analysis solid space model KAMi.
  • the analytical three-dimensional space model KAMi is generated in the three-dimensional memory 110a, and the partition management information MBi is generated in the memory 110b.
  • the memories 110a, 110b, and 115 are also referred to as detection signal storage means.
  • the reference analysis mesh creation unit 107 creates a screen mesh frame PMi described later.
  • the screen mesh frame PMi is managed by the three-dimensional display unit 121, and the screen mesh frame PMi is displayed on the display device 120 as a mesh frame for displaying the analysis result.
  • the electromagnetic field information allocation unit 116 reads the position information of the sensor 11 determined by the sensor three-dimensional position calculation unit 106 and the spectrum data Hi from the spectrum data reading unit 114, and stores the analysis display data Li in the memory 110b. To do.
  • Interpolation unit 118 operates in conjunction with electromagnetic field information allocation unit 116.
  • the analysis distribution output unit 119 uses the analysis three-dimensional space model KAMi and the partition management information MBi to call up the analysis display data Li at the corresponding positions in the cross section and the fixed area of the measurement space Ai to be displayed.
  • the analysis distribution output unit 119 internally processes the called data, and outputs the processed result to the three-dimensional display unit 121.
  • the mode setting unit 124 determines the operations of the analysis distribution output unit 119 and the three-dimensional display unit 121 based on the mode information instructed by the measurer.
  • the measurer can set the cross section and the constant region of the measurement space Ai to be displayed by setting the analysis type Ki to the mode setting unit 124.
  • the color value table 117 is a table representing the correspondence between the electromagnetic field intensity (signal level) and the color when performing display by color.
  • the color value table 117 provides color value Ci information to the electromagnetic field information assigning unit 116.
  • FIG. 6 is a schematic configuration diagram of the analysis distribution output unit 119 and the three-dimensional display unit 121.
  • the analysis distribution output unit 119 includes an intensity distribution diagram creation unit 254, a spectrum data determination unit 256, and the like as shown in FIG.
  • the three-dimensional display unit 121 includes a screen mesh frame display memory 304, a camera image display memory 305, and a spectrum waveform display memory 306 as image memories.
  • a color palette 301 corresponding to the color value is provided.
  • the screen mesh frame PMi created by the reference analysis mesh creating unit 107 is stored in the screen mesh frame display memory 304.
  • the front image AGi, the registered front image AGir, the lateral image BGi, and the registered lateral image BGir output from the image output unit 109 are stored in the camera image display memory 305.
  • the 3D display unit 121 periodically reads the screen mesh frame PMi, the camera image display memory 305, and the spectrum waveform display memory 306 stored in the screen mesh frame display memory 304, and reads them.
  • the image is displayed in the corresponding area (front image / lateral image display area 120a, spectrum display area 120b).
  • a display mesh frame size determination unit 310 is connected to the 3D display unit 121.
  • the display mesh frame size determination unit 310 changes the size of the screen mesh frame PMi. For example, the size of the screen mesh frame PMi is changed in order to display the intensity distribution of only a desired area on the measurement object 10.
  • the analytical three-dimensional space model KAMi is defined as a grid-like mesh obtained by virtually dividing the measurement space Ai in the X-axis, Y-axis, and Z-axis directions at intervals of the grid size dmi.
  • the Mx axis, My axis, and Mz axis of the analytical three-dimensional space model KAMi correspond to the X axis, Y axis, and Z axis of the measurement space Ai, respectively.
  • Each section mi of this mesh is uniquely specified by the three-dimensional coordinates (Mxi, Myi, Mzi) in the analytical three-dimensional space model KAMi.
  • the three-dimensional coordinates (Mxi, Myi, Mzi) in the analytical three-dimensional space model KAMi are uniquely specified by each section mi.
  • the reference analysis mesh creation unit 107 creates the analysis space model KAMi, the size of the measurement space Ai, the size dmi of the section mi constituting the mesh (for example, about 10 cm corresponding to the size of the sensor 11 is preferable) Is read.
  • the size of the measurement space Ai and the size dmi of the section mi constituting the mesh are set by the measurer or determined by the apparatus.
  • Information on the created analytical three-dimensional space model KAMi is stored in the three-dimensional memory 110a.
  • the analytical three-dimensional space model KAMi is used for determining the position of the sensor 11 in the measurement space Ai and determining the section mi.
  • the analytical three-dimensional space model KAMi may be defined by virtually dividing the measurement space Ai at equal intervals in the X-axis, Y-axis, and Z-axis directions, and the division intervals differ in each direction. May be.
  • the section management information MBi includes a section mi, the three-dimensional coordinates of the section mi, and analysis display data Li. Further, the analysis display data Li is composed of the signal fetch number HFi of the spectrum data Hi in the memory 115a, the maximum intensity Eimax of the electromagnetic field that is maximum in the spectrum data Hi, and the color value Ci. The color value Ci corresponds to the maximum intensity Eimax and is determined based on the color value table 117.
  • the electromagnetic field information allocation unit 116 reads the position information of the sensor 11 determined by the sensor three-dimensional position calculation unit 106 and the spectrum data Hi from the spectrum data reading unit 114, and stores the analysis display data Li in the memory 110b. Therefore, the partition management information MBi is updated by the electromagnetic field information assigning unit 116.
  • Each section management information MBi has a one-to-one correspondence with each section mi of the analytical three-dimensional space model KAMi.
  • the stored partition management information MBi can be referred to by referring to the memory 110b.
  • each section mi of the analysis three-dimensional space model KAMi and each section management information MBi have a one-to-one correspondence is managed by the three-dimensional memory 110a and the memory 110b.
  • the three-dimensional memory 110a and the memory 110b are used for an analytical three-dimensional space model KAMi defined as a grid-like mesh obtained by dividing the measurement space Ai in the depth direction, the horizontal width direction, and the height direction at regular intervals.
  • the screen mesh frame PMi is a rectangular area displayed on the display device 120. That is, the screen mesh frame PMi is displayed on the display device 120 as a mesh frame for displaying the analysis result.
  • the three-dimensional display unit 121 displays the cross section of the measurement space Ai to be displayed and the intensity distribution diagram Qi of the electromagnetic field intensity (signal level) in a certain region on the screen mesh frame PMi by color.
  • the screen mesh frame PMi is displayed, it is superimposed on the front image AGi, the lateral image BGi, the registered front image AGir, or the registered lateral image BGir.
  • the screen mesh frame PMi is displayed on the display device 120, the height direction of the measurement space Ai and the height direction of the screen mesh frame PMi are displayed in parallel.
  • the size of the screen mesh frame PMi can be changed by the input of the measurer.
  • the screen mesh frame PMi is defined as a grid mesh divided in the horizontal direction and the height direction.
  • Each screen section Pmi of the mesh is displayed in a color based on the color value Ci by the three-dimensional display unit 121 according to the information output from the analysis distribution output unit 119.
  • the screen mesh frame PMi is created by the reference analysis mesh creation unit 107 and managed by the 3D display unit 121.
  • each screen section Pmi of the screen mesh frame PMi is a three-dimensional section of the section mi of the analytical three-dimensional space model KAMi.
  • two-dimensional coordinates are managed in association with the section mi.
  • each screen segment Pmi of the screen mesh frame PMi is the same as the segment mi of the analysis stereoscopic space model KAMi.
  • the three-dimensional coordinates are managed in association with the section mi by two-dimensional coordinates (Myi, Mzi).
  • the associated section mi and the screen section Pmi are displayed overlapping each other in the image display area 120a.
  • the mode setting unit 124 determines the operation of the three-dimensional display unit 121.
  • the radiation signal visualization apparatus includes a pre-measurement preparation mode, a measurement-in-progress mode, and a post-registration mode.
  • the measurer inputs the depth Azi, width Axi, and height Ayi of the measurement space Ai by opening a measurement space input screen.
  • the measurement space Ai, the front video camera 12 and the horizontal video camera 13 are also input by the measurer by opening the measurement space input screen.
  • the measurer also inputs measurement conditions such as a lower limit frequency and an upper limit frequency set in the spectrum analyzer 15.
  • the analytical three-dimensional space model KAMi is generated.
  • the spectrum data reading unit 114 and the electromagnetic field information assigning unit 116 are operated, whereby the electromagnetic field detection signal from the sensor 11 is analyzed, and the analyzed information is stored in the memories 110b and 115.
  • the spectrum data reading unit 114 and the electromagnetic field information allocating unit 116 do not operate, and the information stored in the memories 110b and 115 is not updated.
  • the measurer determines through the mode setting unit 124 whether the pre-measurement preparation mode, the measurement-in-progress mode, or the post-registration mode is to be taken by the radiation signal visualization device. Generally, the mode of the apparatus is changed in the order of pre-measurement preparation mode, measuring mode, and post-registration mode.
  • the analysis distribution output unit 119 takes different modes in the pre-measurement preparation mode, the measurement-in-progress mode, and the post-registration mode.
  • the analysis distribution output unit 119 does not operate.
  • the analysis distribution output unit 119 takes only a real-time display state.
  • the analysis distribution output unit 119 takes two types of states: an analysis display state at a single distance and an intensity analysis state at a specified distance range.
  • the measurer determines whether the analysis distribution output unit 119 takes the analysis display state at a single distance or the intensity analysis state at a specified distance range through the mode setting unit 124. .
  • the radiation signal visualization apparatus has a front display state and a horizontal display state as display modes on the display device 120.
  • the measurer determines through the mode setting unit 124 whether the radiation signal visualization device takes the front display state or the horizontal display state.
  • the sensor front position calculation unit 104 reads the front image AGi, and the sensor lateral surface position calculation unit 105 reads the lateral image BGi.
  • the sensor front position calculation unit 104 reads the registered front image AGir, and the sensor side surface position calculation unit 105 reads the registered side image BGir.
  • the image output unit 109 outputs the front image AGi to the three-dimensional display unit 121 in the front display state in the pre-measurement preparation mode or the measurement in progress mode. Therefore, at this time, the screen mesh frame PMi is displayed superimposed on the front image AGi.
  • the image output unit 109 outputs the horizontal image BGi to the three-dimensional display unit 121 in the horizontal display state. Therefore, at this time, the screen mesh frame PMi is displayed so as to overlap with the horizontal image BGi.
  • the image output unit 109 In the post-registration mode and in the front display state, the image output unit 109 outputs the registered front image AGir to the three-dimensional display unit 121. Therefore, at this time, the screen mesh frame PMi is superimposed on the front image AGir.
  • the image output unit 109 In the post-registration mode, in the horizontal display state, the image output unit 109 outputs the registered horizontal image BGir to the three-dimensional display unit 121. Therefore, at this time, the screen mesh frame PMi is displayed so as to overlap with the horizontal image BGir.
  • the screen mesh frame PMi displays an intensity distribution diagram Qi corresponding to a cross section formed when the measurement space Ai is cut along the xy plane. That is, each screen section Pmi of the screen mesh frame PMi is associated with a two-dimensional coordinate (Mxi, Myi) among the three-dimensional coordinates (Mxi, Myi, Mzi) of the section mi of the analytical three-dimensional space model KAMi that overlaps the screen section Pmi. Managed.
  • the screen mesh frame PMi displays an intensity distribution diagram Qi corresponding to a cross section formed when the measurement space Ai is cut along the yz plane. That is, each screen section Pmi of the screen mesh frame PMi is associated with a two-dimensional coordinate (Myi, Mzi) among the three-dimensional coordinates (Mxi, Myi, Mzi) of the section mi of the analytical three-dimensional space model KAMi that overlaps the screen section Pmi. Managed.
  • the mode setting unit 124 determines the operations of the analysis distribution output unit 119 and the three-dimensional display unit 121 as described above based on the mode information instructed by the measurer.
  • FIG. 8 is a flowchart for explaining the processing of the reference analysis mesh creation unit 107 and the analysis 3D space creation unit 108 (collectively referred to as 3D mesh frame creation processing).
  • 3D mesh frame creation processing is performed before measurement.
  • the reference analysis mesh creation unit 107 displays a mesh frame setting screen (not shown) on the screen of the display device 120, and the height Ayi of the measurement space Ai for generating the analytical three-dimensional space model KAMi input to the mesh frame setting screen. Then, the depth Azi of the measurement space Ai, the lateral width Axi of the measurement space Ai, and the size dmi of the section mi of the analytical three-dimensional space model KAMi are read (S20).
  • the reference analysis mesh creation unit 107 creates a screen mesh frame PMi (S21).
  • the front video camera 12 captures the measurement space Ai from the front
  • the lateral video camera 13 captures the measurement space Ai from the lateral surface.
  • These captured images are captured by the camera image input unit 101, and the image output unit 109 selects the front image AGi or the horizontal image BGi and displays it on the image display area 120 a of the display device 120.
  • the three-dimensional display unit 121 displays the screen mesh frame PMi on the front image AGi in the front display state, while the screen mesh frame PMi is displayed on the horizontal image BGi in the horizontal display state. Overlapping display is performed (S22).
  • a confirmation change input screen for setting the screen mesh frame PMi is displayed (for example, the right end).
  • the screen mesh frame PMi setting confirmation change input screen includes, for example, a section size dmi, a horizontal width Axi, a vertical width Ayi, a depth Azi, a confirmation button, a change button box, and the like.
  • the screen mesh frame PMi is created based on the size dmi of the screen section Pmi, the screen mesh frame PMi may not necessarily satisfy the horizontal width Axi, the vertical width Ayi, and the depth Azi.
  • step S23 it is determined whether or not the confirm button for the screen mesh frame PMi has been selected.
  • step S23 it is determined whether or not the change button for the screen mesh frame PMi has been selected.
  • step S23 If it is determined in step S23 that the confirm button has been selected, the horizontal width Axi, vertical width Ayi, depth Azi, and size dmi of the screen section Pmi are output to the analysis three-dimensional space creation unit 108 (S25).
  • the analysis three-dimensional space creation unit 108 creates the analysis three-dimensional space model KAMi shown in FIG. 2 using the horizontal width Axi, the vertical width Ayi, the depth Azi, and the size dmi of the screen section Pmi from the reference analysis mesh creation unit 107. And stored in the three-dimensional memory 110a. Further, as shown in FIG. 7, section management information MBi in which the section mi and the three-dimensional coordinates (Mxi, Myi, Mzi) of the section mi are associated is created in the memory 110b (S26).
  • the analysis display data Li is not registered in the section management information MBi created by the 3D mesh frame creation process.
  • the above-mentioned three-dimensional coordinates may be constructed with the coordinates of the minimum point (Mximin, Myimin, Mzimin) and the coordinates of the maximum point (Mximax, Myimax, Mzimax) of the section mi.
  • the three-dimensional memory 110a and the memory 110b may be a single memory.
  • the measurer selects the measurement start button (not shown) displayed on the screen and activates the front video camera 12 and the horizontal video camera 13. Then, as shown in FIG. 1, the measurer holds the sensor 11 with his hand and moves the sensor 11 in the measurement space Ai (S1). At this time, the sensor 11 is scanned (moved) up and down, left and right, and back and forth in the measurement space Ai.
  • the front video camera 12 images the measurement space Ai from the front
  • the horizontal video camera 13 images the measurement space Ai from the horizontal surface.
  • These captured images are captured by the camera image input unit 101, and the image output unit 109 selects the front image AGi or the horizontal image BGi and displays it on the image display area 120a of the display device 120 (S2).
  • the three-dimensional display unit 121 displays the front image AGi in the image display area 120a in the front display state, and displays the horizontal image BGi in the image display area 120a in the horizontal display state.
  • step S2 The specific processing of step S2 is that the camera image input unit 101 converts the video signal from the front video camera 12 every predetermined time (for example, 1/30 sec), stores the front image AGi in the memory 102, and simultaneously Then, the video signal from the horizontal video camera 13 is digitally converted, and the horizontal image BGi is stored in the memory 103.
  • predetermined time for example, 1/30 sec
  • the sensor front position calculation unit 104 extracts color information (for example, yellow) of the hue, saturation, and brightness of the sensor 11 from the front image AGi, and obtains the sensor front image Gai.
  • the sensor lateral surface position calculation unit 105 extracts the color information (for example, yellow) of the hue, saturation, and brightness of the sensor 11 from the lateral surface image BGi, and obtains the sensor lateral surface image Gbi (S3).
  • the center of the sensor front image Gai is obtained as the center of gravity gai, and at the same time, the center of the sensor lateral image Gbi is obtained as the center of gravity gbi (S4).
  • the sensor three-dimensional position calculation unit 106 determines a partition mi in the analytical three-dimensional space model KAMi using the center of gravity gai and the center of gravity gbi (S6).
  • the spectrum analyzer 15 takes in the electromagnetic field detection signal detected by the sensor 11 (S7).
  • the spectrum analyzer 15 analyzes the captured electromagnetic field detection signal (S8). Specifically, spectrum data in each axis direction is obtained using an FFT for X-axis direction, an FFT for Y-axis direction, and an FFT for Z-axis direction. That is, the intensity of the signal at each frequency of the electromagnetic field detection signal is obtained.
  • the spectrum data in the respective axis directions are synthesized to obtain synthesized spectrum data.
  • the spectrum data reading unit 114 receives the spectrum data of each axis direction and the synthesized spectrum data from the spectrum analyzer 15. Further, the spectrum data reading unit 114 stores the received spectrum data in the memory 115, and simultaneously outputs one of the received spectrum data to the electromagnetic field information assigning unit 116 as the spectrum data Hi (S9).
  • the measurer may select which of the spectrum data in each axis direction and the synthesized spectrum data is output to the electromagnetic field information assigning unit 116 as the spectrum data Hi.
  • the signal fetch number HFi is generated by a random number generator or a hash value generator (not shown), added to the spectrum data Hi, and stored in the memory 115.
  • the signal acquisition number HFi is generated as a unique number so that the stored spectrum data Hi can be distinguished from each other.
  • the electromagnetic field information assigning unit 116 reads the maximum intensity Eimax from the spectrum data Hi from the spectrum data reading unit 114. Further, a color value Ci corresponding to the maximum intensity Eimax is determined based on the color value table 117 (S10).
  • the electromagnetic field information assigning unit 116 obtains the maximum intensity Eimax, the color value Ci, and the signal capture number HFi of the spectrum data Hi defined in step S6 as analysis display data Li (S11a).
  • the electromagnetic field information assigning unit 116 updates the partition management information MBi of the memory 110b using the partition mi, the three-dimensional coordinates (Mxi, Myi, Mzi) of the partition mi, and the analysis display data Li (S11b). ).
  • the analysis distribution output unit 119 displays the color value Ci of the analysis display data Li of the corresponding section mi and the three-dimensional coordinates (Mxi, Myi, Mzi) is output to the three-dimensional display unit 121.
  • the three-dimensional display unit 121 displays the screen section Pmi of the screen mesh frame PMi that overlaps the section mi when superimposed on the captured image in the color of the color value Ci (S12).
  • the analysis distribution output unit 119 takes a real-time display state.
  • the process ends. If the measurement end is not instructed, the process returns to step S1 again.
  • the intensity distribution diagram is displayed superimposed on the front image AGi or the horizontal image BGi.
  • Steps S3, S4, and S6 in the flowchart of FIG. 9 are referred to as sensor three-dimensional position calculation processing.
  • the processes of the sensor front surface position calculation unit 104, the sensor lateral surface position calculation unit 105, and the sensor three-dimensional position calculation unit 106 will be described with reference to the flowchart of FIG.
  • the sensor front position calculation unit 104 reads the front image AGi stored in the memory 102 as shown in FIG. 12A in accordance with the selection of the measurement start button. As the measurement start button is selected, the sensor lateral surface position calculation unit 105 reads the lateral image BGi in the memory 103 as shown in FIG. 12B (S31).
  • the sensor front position calculation unit 104 detects, for example, a group of pixels having yellow color information (hue, saturation, or brightness) in the front image AGi as a sensor front image.
  • the center of the sensor front image Gai is obtained as the center of gravity gai (S32).
  • the geometric center of gravity of the sensor front image Gai may be obtained as the center of gravity gai.
  • the sensor lateral surface position calculation unit 105 detects, for example, a group of pixels having yellow color information (hue, saturation, or brightness) in the lateral image BGi.
  • a horizontal image Gbi is obtained, and the center of the sensor horizontal image Gbi is obtained as the center of gravity gbi (S33).
  • the geometric center of gravity of the sensor lateral image Gbi may be obtained as the center of gravity gbi.
  • the center of gravity gai and the center of gravity gbi are pixel positions on the captured image.
  • the positional relationship between the measurement space Ai, the front video camera 12 and the lateral video camera 13 is known from information input by the measurer at the start of measurement. Therefore, using the positional relationship information, the front point mia of the measurement space Ai corresponding to the center of gravity ga and the point mib of the lateral surface of the measurement space Ai corresponding to the center of gravity gbi are calculated (S34).
  • the sensor three-dimensional position calculation unit 106 includes a straight line connecting a point mia in front of the measurement space Ai corresponding to the center of gravity ga and the location where the front video camera 12 exists, and a horizontal surface of the measurement space Ai corresponding to the center of gravity gbi.
  • the position of the sensor 11 in the measurement space Ai is determined by calculating the intersection of the straight line connecting the point mib and the location where the video camera 13 for the horizontal surface exists (S35).
  • the sensor three-dimensional position calculation unit 106 determines the section mi of the analytical three-dimensional space model KAMi including the determined position of the sensor 11 by using the analytical three-dimensional space model KAMi (S37).
  • the three-dimensional coordinates (Mxi, Myi, Mzi) of the section mi are uniquely determined, the three-dimensional coordinates of the determined section are set as sensor three-dimensional section coordinates Wmi (Mxi, Myi, Mzi). It outputs to the electromagnetic field information allocation part 116 (S38).
  • a measurement end instruction has been issued by the measurer (S39). If no measurement end instruction has been issued, whether or not a certain time Ti (for example, 1/30 sec) has elapsed. It is determined whether or not (S40). If the predetermined time Ti has elapsed, the process returns to step S31. If the predetermined time Ti has not elapsed, the process waits again and returns to step S40.
  • a certain time Ti for example, 1/30 sec
  • the sensor three-dimensional partition coordinates Wmi (Mxi, Myi, Mzi) in the analytical three-dimensional space model KAMi when the sensor 11 scans (moves) the measurement space Ai up and down, left and right, and back and forth at every fixed time Ti are electromagnetic fields.
  • the information allocation unit 116 is informed.
  • Steps S7, S8, S9, and S10 in the flowchart of FIG. 9 are referred to as electromagnetic field information allocation processing.
  • the processing of the electromagnetic field information assigning unit 116 will be described using the flowchart of FIG.
  • the spectrum data reading unit 114 adds the signal acquisition number HFi to the spectrum data Hi (see FIG. 14) from the spectrum analyzer 15 every predetermined time Ti in accordance with the input of the measurement start instruction. Assume that the data is stored in the memory 115a.
  • the electromagnetic field information assigning unit 116 determines whether the sensor three-dimensional section coordinates Wmi (Mxi, Myi, Mzi) are input from the sensor three-dimensional position calculating unit 106 in accordance with the input of the measurement start instruction (S51).
  • step S51 If it is determined in step S51 that the sensor three-dimensional section coordinates Wmi (Mxi, Myi, Mzi) have been input, the spectrum data Hi is read (S52).
  • the electromagnetic field information assigning unit 116 reads the maximum intensity Eimax in the spectrum data Hi (S53).
  • the color value Ci corresponding to the maximum intensity Eimax of the spectrum data Hi is determined from the color value table 117 (S54).
  • the section management information MBi corresponding to the section mi of the analytical three-dimensional space model KAMi indicated by the input sensor three-dimensional section coordinates Wmi (Mxi, Myi, Mzi) are stored in the memory 110b as analysis display data Li (S55).
  • the section mi is determined by the sensor three-dimensional position calculation process corresponding to the position of the sensor 11, and the analysis display data Li is used as the section management information MBi corresponding to the section mi.
  • the electromagnetic field information allocation process stored in the memory 110b is repeated.
  • spectrum data Hi at a fixed time Ti when the sensor 11 is scanned (moved) up and down, left and right, and back and forth is sequentially assigned to each section mi of the analytical three-dimensional space model KAMi.
  • FIG. 15 is a flowchart for explaining the operation when the analysis distribution output unit 119 is in a real-time display state.
  • the electromagnetic field detection signal measured by the sensor 11 is analyzed in real time by the processing of the analysis distribution output unit 119 described below, and the intensity distribution diagram Qi of the electromagnetic field intensity (signal level) is displayed on the display device 120. Is displayed.
  • the intensity distribution map creation unit 254 determines whether or not the analysis display data Li (the signal acquisition number HFi of the spectrum data Hi, the color value Ci, and the maximum intensity Eimax) has been assigned to the section mi of the analysis three-dimensional space model KAMi ( S62).
  • step S62 When it is determined in step S62 that the analysis display data Li has been allocated, the following processing after step S63 is performed.
  • the intensity distribution map creation unit 254 allocates all the sections mi having the same Mzi coordinates of the analysis solid space model KAMi as the section mi to which the analysis display data Li is assigned.
  • the horizontal plane display state all the sections mi having the Mxi coordinates of the same analytical three-dimensional space model KAMi as the section mi to which the analysis display data Li is assigned are allocated (S63).
  • the intensity distribution diagram creating unit 254 reads the two-dimensional coordinates of each section mi for all assigned sections mi (S64). Next, the color value Ci and the two-dimensional coordinate assigned to each section mi are output to the three-dimensional display unit 121, and the screen section Pmi associated with the two-dimensional coordinate is displayed in the color of the color value Ci. (S65).
  • the three-dimensional display unit 121 displays the screen section Pmi corresponding to the two-dimensional coordinates (Mxi, Myi) with the color of the color value Ci.
  • the three-dimensional display unit 121 displays the screen section Pmi corresponding to the two-dimensional coordinates (Myi, Mzi) with the color value Ci.
  • the three-dimensional display unit 121 stores the spectrum section display memory 306 when the screen section Pmi stored in the mesh frame display memory 304 is stored in the color of the color value Ci and the camera image display memory 305. The information is periodically read and information is displayed on the display device 120.
  • an intensity distribution diagram Qi corresponding to the maximum intensity Eimax as shown in FIG. 10 in a cross section including the section mi corresponding to the position of the sensor 11 is displayed on the display device 120 in real time. While looking at this screen, the measurer can acquire the spectrum data so that there is no leakage.
  • step S66 it is determined whether or not the measurement end instruction is issued by the measurer (S66). If the measurement end instruction has not been issued, the process returns to step S62. On the other hand, if a measurement end instruction is issued, the process ends.
  • the measurer can see at a glance which area where noise with high electromagnetic field strength (signal level) is generated by looking at this screen.
  • the interpolation unit 118 determines whether or not the spectrum data Hi is allocated to the section mi of the analytical three-dimensional space model AMi. For the unassigned section mi, the spectrum data value of the section mi of the mesh frame is calculated from the values of the spectrum data Hi assigned to the front, rear, left, and right sections mi of the lattice mesh of the analytical three-dimensional space model KAMi. Interpolate.
  • spectrum data Hi when spectrum data Hi is assigned to “10: For example, intensity” at m5 at time T1, and there is no spectrum data Hi at m5 at time T2, m5 at time T3. If the spectrum data Hi is assigned “8: For example, intensity”, “8” is assigned to m5 at time T2, as shown in FIG.
  • interpolation unit 118 is not an essential component. It shall be started when there is an interpolation instruction.
  • the analysis display data Li stored in the memory 110b in the measurement mode and the spectrum data Hi stored in the memory 115 with the signal acquisition number HFi added are analyzed.
  • the analysis display data Li stored in the memory 110b is analyzed by the intensity distribution diagram creation unit 254 of the analysis distribution output unit 119, and the spectrum data Hi stored in the memory 115 with the signal acquisition number HFi added thereto is analyzed. Is performed by the spectrum data determination unit 256 of the analysis distribution output unit 119.
  • the measurer designates the analysis type Ki as a parameter for determining the operation of the intensity distribution creating unit 254 of the analysis distribution output unit 119 when the apparatus is set to the mode after registration completion through the mode setting unit 124.
  • the analysis type Ki includes a parameter di that specifies the cross-sectional position of the measurement space Ai, and a distance di.
  • the analysis distribution output unit 119 has two types of states, that is, an analysis display state at a single distance and an intensity analysis state at a specified distance range. The processing contents of the unit 119 will be described.
  • FIG. 17 is a flowchart for explaining the operation when the analysis distribution output unit 119 is in a state of analysis display at a single distance.
  • Measurer specifies only one value as the distance di.
  • the intensity distribution creating unit 254 performs a process for displaying an intensity distribution diagram Qi corresponding to a cross section of the measurement space Ai defined by a plane having a constant Z-axis coordinate specified by the distance di. .
  • the intensity distribution creating unit 254 performs a process for displaying an intensity distribution diagram Qi corresponding to a cross section of the measurement space Ai defined by a surface having a constant X-axis coordinate specified by the distance di. Do.
  • the distance di is defined as representing the Z-axis coordinate or the X-axis coordinate, but may be defined as a distance from the front of the measurement space Ai or a distance from the lateral surface of the measurement space Ai.
  • the intensity distribution map creation unit 254 allocates all the sections mi including the cross section of the measurement space Ai specified by the distance di (S117).
  • the intensity distribution map creation unit 254 designates one of all allocated sections mi (S118).
  • the color value Ci and the two-dimensional coordinate assigned to the designated section mi are output to the three-dimensional display unit 121, and the screen section Pmi associated with the two-dimensional coordinate is displayed in the color of the color value Ci. (S120).
  • the three-dimensional display unit 121 displays the screen section Pmi corresponding to the two-dimensional coordinates (Mxi, Myi) with the color of the color value Ci.
  • the three-dimensional display unit 121 displays the screen section Pmi corresponding to the two-dimensional coordinates (Myi, Mzi) with the color value Ci.
  • the 3D display unit 121 periodically reads the screen mesh frame PMi display memory 304, the camera image display memory 305, and the spectrum waveform display memory 306, and inputs the screen mesh frame PMi and the image to the display device 120. Displays images and spectrum waveforms.
  • step S120 It is determined whether or not the process of step S120 has been performed on all allocated sections mi (S121).
  • step S120 If all the assigned sections mi have not been processed in step S120, one of the sections mi that has not been processed is designated (S122). Then, it returns to step S120.
  • step S120 When the process of step S120 is performed for all allocated sections mi, the process is terminated.
  • the above is the processing of the analysis distribution output unit 119 in the analysis display state at a single distance.
  • FIG. 18 is a flowchart for explaining the operation when the analysis distribution output unit 119 is in the analysis display mode in the designated distance range.
  • Measurer specifies two values for distance di.
  • the intensity distribution creating unit 254 performs processing for displaying an intensity distribution diagram Qi in a region in the measurement space Ai sandwiched between two designated Z-axis coordinate constant surfaces.
  • the intensity distribution creating unit 254 When in the horizontal plane display state, two planes with constant X-axis coordinates are designated by the two values designated as the distance di.
  • the intensity distribution creating unit 254 performs a process for displaying an intensity distribution diagram Qi in a region in the measurement space Ai sandwiched between two designated planes having a constant X-axis coordinate.
  • the distance di is defined as representing the Z-axis coordinate or the X-axis coordinate, but may be defined as a distance from the front of the measurement space Ai or a distance from the lateral surface of the measurement space Ai.
  • the intensity distribution diagram creation unit 254 allocates all the sections mi including the area of the measurement space Ai sandwiched between two planes with constant coordinates (S141).
  • the intensity distribution diagram creation unit 254 classifies all assigned sections mi for each section group GMi of the sections mi having the same two-dimensional coordinates (S142).
  • Each partition mi in one partition group GMi has the same two-dimensional coordinates (Mxi, Myi) when in the front display state, and all the same two-dimensional coordinates (Myi, Mzi) when in the horizontal surface display state. .
  • the intensity distribution map creation unit 254 designates one from all the partition groups GMi (S143).
  • the maximum intensity Eimax assigned to each section mi in the specified section group GMi is read (S144).
  • the largest value among the read maximum intensities Eimax is defined as the maximum intensity MaxEimax assigned to the partition group GMi (S145).
  • the maximum intensity MaxEimax is defined as the largest value among the maximum intensities Eimax assigned to each section mi belonging to the section group GMi. However, the maximum intensity assigned to each section mi according to the analysis method. The maximum intensity MaxEimax may be determined by an average value of Eimax or other methods.
  • the color value MaxCi corresponding to the maximum intensity MaxEimax is determined based on the color value table 117 (S146).
  • the color value MaxCi determined by the section group GMi and the two-dimensional coordinates of the section mi belonging to the section group GMi are output to the three-dimensional display unit 121, and the screen section Pmi associated with the two-dimensional coordinates is output as the color value MaxCi. (S147).
  • the 3D display unit 121 periodically reads the screen mesh frame PMi display memory 304, the camera image display memory 305, and the spectrum waveform display memory 306, and inputs the screen mesh frame PMi and the image to the display device 120. Displays images and spectrum waveforms.
  • step S144 to S147 When the processing from step S144 to S147 is not performed for all the partition groups GMi, one is specified from the partition groups GMi that are not processed (S149). Then, it returns to step S144.
  • step S144 to S147 When the processing from step S144 to S147 has been performed for all the partition groups GMi, the processing ends.
  • the above is the processing of the analysis distribution output unit 119 in the analysis display mode within the specified distance range.
  • the analysis distribution output unit 119 constructs a surface model by combining the maximum intensities assigned to the sections of the analysis three-dimensional space model KAMi, outputs this to the three-dimensional display unit 121, and inputs the viewing angle. May be displayed in 3D (see FIG. 19).
  • the spectrum data determination unit 256 analyzes the spectrum data Hi according to the parameters set by the measurer.
  • the spectrum data determination unit 256 reads the spectrum data Hi detected by the sensor 11 at one point in the measurement space Ai designated by the measurer from the memory 115, and analyzes the read spectrum data Hi.
  • the measurer can designate one point in the measurement space Ai by designating the screen section Pmi of the screen mesh frame PMi and the distance di. That is, the measurer designates the screen section Pmi of the screen mesh frame PMi on the screen with the cursor, and further inputs (specifies) the distance di by a distance value input box (not shown), thereby performing the tertiary in the three-dimensional space. Since the original position can be determined, one point in the measurement space Ai can be designated as a result.
  • FIG. 20 is a flowchart for explaining the spectrum data display process.
  • FIG. 21 is an explanatory diagram of spectrum data display.
  • the spectrum data determination unit 256 determines whether or not a spectrum display instruction is issued by the measurer. If a display instruction has been issued, it is determined whether the screen section Pmi of the screen mesh frame PMi displayed on the display device 120 has been designated by the measurer (S151).
  • step S151 If it is determined in step S151 that the screen section Pmi is designated, the two-dimensional coordinates of this screen section Pmi are read (S152).
  • the distance di is set in the post-registration mode.
  • the coordinates common to the section mi including the cross section of the measurement space Ai specified by the distance di are the Z-axis coordinates in the front display state and the X-axis coordinates in the horizontal surface display state.
  • the section mi of the analytical three-dimensional space model KAMi including one point in the measurement space Ai is determined (S154). .
  • the analysis display data Li assigned to the section mi is read from the memory 110b (S155).
  • the registered spectrum data Hi corresponding to the signal acquisition number HFi of the registered spectrum data Hi included in the analysis display data Li is read from the memory 115a (S156).
  • the waveform of the read registered spectrum data Hi is converted (S157).
  • the waveform-converted data is displayed on the three-dimensional display unit 121 (S158).
  • the vertical cursor CPi is displayed by the three-dimensional display unit 121 at the position of the maximum peak of the spectrum waveform on the screen (S159).
  • the section mi of the analytical three-dimensional space model KAMi corresponding to the specified point Pi is searched and associated with this section mi.
  • the registered spectrum data Hi is displayed after waveform conversion, and the vertical cursor CPi is displayed on the peak waveform of the maximum intensity.
  • the spectrum data determination unit 256 performs the processing described below. Do.
  • the analysis distribution output unit 119 displays the intensity distribution map Qi by color using the maximum intensity Eimax measured over the entire frequency range as described above.
  • the spectrum data determination unit 256 obtains the maximum intensity RfEimax in the designated frequency range Ffi, and the analysis distribution output unit 119 uses the color distribution Ci corresponding to the maximum intensity RfEimax as an intensity distribution diagram.
  • Qi is displayed by color.
  • FIG. 22 is a flowchart for explaining the spectrum data display process when the frequency range Ffi is designated.
  • FIG. 23 is an explanatory diagram of spectrum data display when the frequency range Ffi is designated.
  • the spectrum data determination unit 256 reads the distance di set by the measurer when the frequency range Ffi is designated by the measurer (S161).
  • the intensity distribution map creation unit 254 allocates all the sections mi including the cross section of the measurement space Ai specified by the distance di (S162).
  • the spectrum data determination unit 256 reads the designated frequency range Ffi (S163).
  • the three-dimensional display unit 121 displays the corresponding frequency range of the spectrum waveform on the screen by color (S164).
  • the frequency range displayed for each color is indicated by an area bordered by a diagonal line pattern.
  • the spectrum data determination unit 256 determines whether or not the screen section Pmi of the screen mesh frame PMi displayed on the display device 120 is specified by the measurer, and when it is determined that the screen section Pmi is specified, The two-dimensional coordinates of Pmi are read (S165).
  • the section mi of the analytical three-dimensional space model KAMi including one point in the measurement space Ai is determined (S166). .
  • the frequency range Ffi portion of the registered spectrum data Hi of the signal fetch number HFi is read from the memory 115 as the specified range spectrum data Hfi (S168).
  • the color value RfCi corresponding to the maximum intensity RfEimax in the frequency range Ffi is determined from the color value table 117 (S170).
  • the three-dimensional display unit 121 displays the screen section Pmi of the designated point Pi on the screen by color (see FIG. 23).
  • step S172 If the processing from step S167 to S171 has not been performed for all the sections mi allocated in step S162, one of the sections mi that has not been processed is designated (S172). Then, it returns to step S167.
  • step S167 to S171 When the processes from step S167 to S171 have been performed for all the sections mi allocated in step S162, the process ends.
  • the intensity distribution diagram Qi is displayed by color based on the maximum intensity RfEimax in the frequency range Ffi.
  • FIG. 24 is a schematic configuration diagram of a radiation signal visualization device according to another embodiment. 24, the description of the same components as those in FIG. 5 is omitted.
  • the object to be measured is not limited to an IC substrate, a television, or the like, but may be an electronic device, a building, a food, or the like with radiation.
  • the radiation signal visualization device displays the distribution of radiation from the object to be measured by color and visualizes the distribution.
  • the radiation detection sensor 202 is used as the sensor.
  • the main body 200 is provided with a radiation intensity reading unit 201. Moreover, the information allocation part 116a is provided. This information assigning unit 116a is similar to the electromagnetic field information assigning unit 116.
  • the radiation intensity reading unit 201 stores the detection value (digital value: radiation dose value) from the radiation detection sensor 202 in the memory 203 for each predetermined time Ti.
  • the radiation detection value is stored by associating the time information of the timer with a preset date, place, object name, and the like.
  • a measurement space Ai is defined in front of a person or an object, and the above-described analytical three-dimensional space model KAMi is generated in the three-dimensional memory 110a.
  • the sensor front position calculation unit 104, the sensor lateral surface position calculation unit 105, and the sensor three-dimensional position calculation unit while scanning (moving) the measurement space Ai up and down, left and right, and back and forth while holding the radiation detection sensor 202 by hand. Based on the position of the radiation detection sensor 202 determined using 106 or the like, it is defined in a section of the analytical three-dimensional space model KAMi.
  • the information assigning unit 116a assigns the radiation dose value detected by the radiation detection sensor 202 to the corresponding section mi of the analytical three-dimensional space model KAMi. Specifically, the information assigning unit 116a stores the radiation dose value in the memory 110b as the partition management information MBi.
  • the analysis distribution output unit 119 and the three-dimensional display unit 121 display the front image AGi (or the registered front image AGir) on the display device 120, and radiate the screen section Pmi according to the input analysis type Ki. Display in the color corresponding to the quantity value.
  • the spectrum analyzer 15 is provided outside the main body, but the function of the spectrum analyzer 15 may be provided in the main body.
  • the senor has been described as detecting a noise of an electronic device or a radiation dose of an object to be measured.
  • the sound volume is defined in an analytical three-dimensional space model KAMi.
  • the sections may be displayed by color.
  • the senor may be a temperature sensor.
  • the analysis distribution output unit 119 has been described as outputting the two-dimensional coordinates assigned to the section mi of the analysis three-dimensional space model KAMi to the three-dimensional display unit 121.
  • the three-dimensional display unit 121 When only the two-dimensional coordinates are extracted from the three-dimensional coordinates, the corresponding screen sections Pmi may be displayed by color by outputting the three-dimensional coordinates.
  • an A / D converter is provided in the spectrum data reading unit 114, and the analog spectrum data in the input frequency range is taken in every predetermined time Ti to obtain digital data. This may be used as the above spectrum data Hi.
  • the state of the spatial distribution of noise is recorded by scanning (moving) the sensor up and down, left and right, and back and forth in a three-dimensional space around the measurement object. be able to.
  • the recorded data can be used in analysis work after measurement. This makes it possible to analyze the distribution and intensity of noise in the three-dimensional space, and to capture the characteristics of noise intensity and frequency.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Radiation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

 被測定対象物を正面から撮影する正面用ビデオカメラ(12)と、被測定対象物から発生する放射信号を検出する信号検出センサ(11)と、信号検出センサを横から撮影する横面用ビデオカメラ(13)と、スペクトラムアナライザー(15)と、解析本体部(100)から構成され、信号検出センサ(11)が検出した信号の空間的分布の状況を記録し、解析する放射信号可視化装置。

Description

放射信号可視化装置
 本発明は、被測定対象物の周囲で発生している信号の情報を詳細に知らせることが可能な、放射信号を可視化する装置に関する。
 電子・情報・通信・産業機器等から発生する不要な電磁界ノイズ(以下単にノイズという)は、他の電子装置に誤動作等の悪影響を及ぼすことが知られている。
 また、ノイズは人体に何らかの影響を与えることが懸念されており、ノイズの与える影響が研究されている。
 こうした目に見えないノイズの発生源を特定するためには、ノイズを可視化することが有効である。これまでにもノイズを可視化する装置が提案されている(特許文献1~3参照)。
 例えば特許文献1の装置は、二次元平面にノイズの電磁界強度(信号レベル)を色別表示した図を作成する。特許文献3の装置は、被測定対象物の表面上におけるノイズの周波数解析を行い、特定周波数のノイズの等高線図を作成する。
 特許文献2の装置は、被測定対象物の周囲の三次元空間内におけるセンサの位置を視差により決定し、その位置におけるノイズの電磁界強度(信号レベル)を色別表示する。そのため測定者はセンサの位置におけるノイズの情報を得ることができる。
特許第2769472号公報 国際公開第2009/028186号 特開2003-66079号公報
 前記特許文献1、3の装置は二次元平面内におけるノイズの情報のみを保持しており、また、前記特許文献2の装置はセンサ位置におけるノイズの情報のみを保持しており、いずれも三次元空間内におけるノイズの分布や強度等を詳細に知ることができないという問題を持つ。
 本発明は、以上の課題を解決するためになされたもので、被測定対象物の周囲の三次元空間内におけるノイズの分布や強度等を詳細に知ることが可能な放射信号可視化装置を得ることを目的としている。
 本発明は、被測定対象物に一面が静対する直方体状の測定空間の中でセンサを移動させながら前記被測定対象物から発生する信号を検出信号として取得し、前記検出信号の信号レベルを表示装置に色別表示する放射信号可視化装置であって、一定時間ごとに前記測定空間を撮影した撮影画像を記憶した撮影画像用記憶手段と、前記測定空間を奥行方向、横幅方向、高さ方向にそれぞれ一定の間隔で分割した格子状のメッシュとして定義される解析立体空間モデルにおいて、前記解析立体空間モデルの各区画に、前記解析立体空間モデルでのその区画の三次元座標と前記検出信号と前記検出信号の中の最大となる信号レベルの色値とを含む区画管理情報を関連付けて記憶させた三次元メモリと、前記撮影画像用記憶手段に記憶されている前記撮影画像を前記表示装置に表示する手段と、前記区画と関連付けられる画面区画から構成される画面メッシュ枠を、解析結果表示用のメッシュ枠として前記撮影画像に重ね表示する手段と、前記被測定対象物からの指定距離に対応する奥行き座標を有する前記区画を順次指定する手段と、指定された区画ごとに、この区画に割付けられている前記三次元座標を構成する二次元座標及び該区画に割付けられている前記色値を読込む手段と、前記二次元座標に対応する前記画面区画を、読込んだ色値の色で表示する手段とを有することを特徴とする放射信号可視化装置である。
 前記三次元メモリの前記解析立体空間モデルの前記区画には、前記色値と共に前記一定時間ごとの前記検出信号の内で最大の信号レベルがさらに割付けられており、前記被測定対象物からの指定距離範囲に対応する奥行き座標を有する前記区画を順次指定する手段と、前記指定された区画について、同一の二次元座標を持つ区画の区画グループごとに分類する手段と、前記区画グループごとに、前記区画グループに属する各々の区画に割付けられている各々の前記最大となる信号レベルを読込み、これらの中で最も大きな値を最大強度信号レベルとして決定する手段と前記二次元座標に対応する前記画面区画を、前記最大強度信号レベルに対応する色値の色で表示する手段とをさらに有することが好ましい。
 前記区画管理情報は前記検出信号を識別する信号取込番号を含んでおり、前記一定時間ごとの前記検出信号に、前記信号取込番号が関連付けられて記憶された信号用の記憶手段と、前記信号取込番号によって識別される前記検出信号を前記解析結果表示用のメッシュ枠と共に前記表示装置に表示する手段とをさらに有することが好ましい。
 前記測定空間の正面方向から撮影する第1ビデオカメラと、前記測定空間の側面方向から撮影する第2ビデオカメラと、前記信号レベルと前記色値の対応関係を表す色値テーブルと、前記第1ビデオカメラからの前記撮影画像及び前記第2ビデオカメラからの前記撮影画像を一定時間ごとに取込み、これらを関連付けて前記撮影画像用記憶手段に記憶する画像入力手段と、前記第1ビデオカメラからの第1撮影画像又は前記第2ビデオカメラからの第2撮影画像を前記表示装置に生じする手段と、前記測定空間を奥行方向、横幅方向、高さ方向にそれぞれ一定の間隔で分割した格子状のメッシュとして定義される前記解析立体空間モデルを作成する手段と、前記第1撮影画像から前記センサの色情報を有する隣接するピクセルの塊を検出し、これを前記正面方向からの前記センサの形状画像とする手段と、前記第2撮影画像から前記センサの色情報を有する隣接するピクセルの塊を検出し、これを前記側面方向からの前記センサの形状画像とする手段と、前記正面方向からのセンサの形状画像の中心位置と前記側面方向からのセンサの形状画像の中心位置とからセンサ位置を決定し、前記センサ位置を含む前記解析立体空間モデルの区画を前記センサ位置に対応する区画として定義する手段と、前記解析立体空間モデルに前記センサ位置に対応する区画が定義されるごとに、この区画に前記検出信号の内で前記最大となる信号レベルに対応する色値を前記色値テーブルから決定して前記定義された区画に割付ける手段とをさらに有することが好ましい。
 前記センサが周波数情報を含む信号を検出する周波数情報検出センサの場合は、周波数情報検出センサが検出した検出信号のスペクトラムデータを前記検出信号として算出する周波数分析手段をさらに有することが好ましい。
 前記周波数情報検出センサは、周波数情報を含む信号を検出する電磁界検出センサ又は音検出センサであっても良い。
 前記センサは、放射線を検出し、この検出信号をデジタル化して前記検出信号として出力する放射線検出センサであっても良い。
 前記センサは、温度を検出し、この検出信号をデジタル化して前記検出信号として出力する温度検出センサであっても良い。
図1は測定空間Aiの説明図である。 図2は解析立体空間モデルKAMiの説明図である。 図3は放射信号の可視化装置の接続構成図である。 図4はセンサ11の説明図である。 図5は放射信号の可視化装置の概略構成図である。 図6は解析分布出力部119および三次元表示部121の概略構成図である。 図7はメモリ110bの説明図である。 図8は立体メッシュ枠作成処理を説明するフローチャートである。 図9は本実施の形態の放射信号可視化装置の概略動作を説明するフローチャートである。 図10は本実施の形態の解析結果の表示画面を説明する説明図である。 図11はセンサ三次元位置算出処理を説明するフローチャートである。 図12は正面画像AGi、センサ横面画像Gbiの説明図である。 図13は重心の算出を説明する説明図である。 図14は電磁界情報割付処理を説明するフローチャートである。 図15は測定中モードでの解析分布出力部119の動作を説明するフローチャートである。 図16は補間部の処理を説明する説明図である。 図17は解析分布出力部119が単一距離での解析表示の状態であるときの動作を説明するフローチャートである。 図18は解析分布出力部119が指定距離範囲での解析表示モードであるときの動作を説明するフローチャートである。 図19は3D表示画面を説明する説明図である。 図20はスペクトラムデータ表示の処理を説明するフローチャートである。 図21はスペクトラムデータ表示の説明図である。 図22は周波数範囲Ffiが指定されたときのスペクトラムデータ表示の処理を説明するフローチャートである。 図23は周波数範囲Ffiが指定されたときのスペクトラムデータ表示の説明図である。 図24は他の実施の形態の放射信号可視化装置の概略構成図である。
 本実施の形態では被測定対象物はIC基板、テレビジョン等とし、このような被測定対象物からの信号に含まれる電磁界ノイズ(単にノイズともいう)の分布を色別表示し、ノイズを可視化する放射信号可視化装置である。
 図5は本実施の形態の放射信号可視化装置の概略構成図である。図3は具体的な接続構成図である。
 図3に示すように、本実施の形態の放射信号可視化装置は、センサ11と、正面用ビデオカメラ12と、横面用ビデオカメラ13と、スペクトラムアナライザー15と、解析本体部100から構成されている。この解析本体部100には、解析本体部100からの出力結果を表示する表示装置120が設けられている。
 図1に示すように、測定者は、正面用ビデオカメラ12および横面用ビデオカメラ13の被測定対象物10に対する相対的な位置関係を固定する。ここで測定者は、被測定対象物10を正面から撮影するように正面用ビデオカメラ12を固定し、横面用ビデオカメラ13の視線方向が、正面用ビデオカメラ10の視線方向と直交する方向と平行となるように横面用ビデオカメラ13を固定する。以下、正面用ビデオカメラ12の視線方向をZ軸、横面用ビデオカメラ13の視線方向をX軸とし、X軸とZ軸の両方に直交する方向をY軸とする。
 正面用ビデオカメラ12の視線方向を正面方向、横面用ビデオカメラ13の視線方向を横面方向と称する。また、正面用ビデオカメラ12を第1ビデオカメラ、横面用ビデオカメラ13を第2ビデオカメラと称する。
 後の説明の便宜のため、測定空間Aiについて、図1を用いて説明する。
 図1は測定空間Aiを示している。この測定空間Aiは被測定対象物10の測定面(数センチ、数十センチ、数m程度離れてあってもよい)から、正面用ビデオカメラ12の置かれている位置までの範囲に存在する直方体状の領域である。測定空間Aiの奥行方向の辺は、Z軸と平行となっており、測定空間Aiの横幅方向の辺はX軸と平行となっている。
 この測定空間Aiの大きさは、奥行Aziと横幅Axiと高さAyiによって定義される。奥行Aziは、測定空間Aiの奥行方向(Z軸)の辺の長さである。横幅Axiは、測定空間Aiの横幅方向(X軸)の辺の長さである。高さAyiは、測定空間Aiの高さ方向(Y軸)の辺の長さである。
 なお、奥行Azi、横幅Axi、高さAyiは、測定空間入力用の画面を開いて測定者がマウス、キーボードを操作して入力する情報である。
 また、測定空間Ai、正面用ビデオカメラ12、横面用ビデオカメラ13の相対的な位置関係の情報は、測定空間入力用の画面を開いて測定者がマウス、キーボードを操作して入力する情報である。もしくはこの相対的な位置関係の情報は、装置によって自動的に決定する情報であってもよい。
 また、被測定対象物10の正面とは、測定者が正面とする面であり、被測定対象物10の後ろの面、側面(左横面、右横面、下面、上面)であってもかまわない。つまり、測定者が決めた被測定対象物10の測定面を正面とする。
 測定者はこの測定空間Ai内でセンサ11を動かし、ノイズの測定を行う。この作業により測定空間Ai内での三次元的なノイズの分布が放射信号可視化装置に記憶される。記憶された情報を元に、ノイズの解析が可能となる。
 (放射信号可視化装置の構成)
 放射信号可視化装置の構成について説明する。
 図4に示すように、センサ11は、球状の筐体11aの内部に、互いに直交(X軸方向、Y軸方向、Z軸方向)させたアンテナを設けて各々の方向の電磁界検出信号を出力する。
 また、これらのアンテナには増幅アンプ、出力信号線、電力供給線が接続されている(図示せず)。筐体11aには人間が手で持つことができる所定の長さの棒11eが接続されている。
 スペクトラムアナライザー15は、X軸方向用FFT、Y軸方向用FFT、Z軸方向用FFT、合成部等を備えている(図示せず)。
 X軸方向用FFTは、センサ11からのX軸方向の電磁界検出信号を離散化してサンプリングし、これらのデータからX軸方向のスペクトラムデータ(フーリエ係数)を出力する。
 Y軸方向用FFTは、センサ11からのY軸方向の電磁界検出信号を離散化してサンプリングし、これらのデータからY軸方向のスペクトラムデータ(フーリエ係数)を出力する。
 Z軸方向用FFTは、センサ11からのZ軸方向の電磁界検出信号を離散化してサンプリングし、これらのデータからZ軸方向のスペクトラムデータ(フーリエ係数)を出力する。
 合成部は、これらの軸方向のスペクトラムデータを合成して出力する。いずれかの方向又は合成出力にするかは測定者が選択する。
 次に、図5を用いて、解析本体部100の構成について説明する。
 解析本体部100は、カメラ画像入力部101と、センサ正面位置算出部104と、センサ横面位置算出部105と、センサ三次元位置算出部106と、基準解析メッシュ作成部107と、解析立体空間作成部108と、画像出力部109と、スペクトラムデータ読込部114と、電磁界情報割付部116と、色値テーブル117と、補間部118と、解析分布出力部119と、三次元表示部121と、モード設定部124を備えている。
 また、各種のメモリ102、103、110a、110b、115、122を備えている。また、タイマー(図示せず)を備えている。
 なお、前述のセンサ正面位置算出部104と、センサ横面位置算出部105と、センサ三次元位置算出部106と、基準解析メッシュ作成部107と、解析立体空間作成部108と、画像出力部109と、電磁界情報割付部116と、色値テーブル117と、補間部118と、解析分布出力部119と、三次元表示部121と、モード設定部124等は記憶媒体(図示せず)に記憶されていてもよく、これらをプログラム実行用メモリ(図示せず)に読み出して本処理を実行するものであっても良い。
 カメラ画像入力部101は、正面用ビデオカメラ12および横面用ビデオカメラ13と接続する。カメラ画像入力部101を画像入力手段と称する。
 カメラ画像入力部101は、測定開始指示の入力に伴って正面用ビデオカメラ12からの映像信号を一定時間Tiごと(例えば1/30sec)に取込んでデジタル変換し、これを正面画像AGi(第1撮影画像ともいう)として画像出力部109に出力する。同時に正面画像AGiをメモリ102に上書き保存する。
 カメラ画像入力部101は、測定開始指示の入力に伴って横面用ビデオカメラ13からの映像信号を一定時間Tiごと(例えば1/30sec)に取込んでデジタル変換し、これを横面画像BGi(第2撮影画像ともいう)として画像出力部109に出力する。同時に横面画像BGiをメモリ103に上書き保存する。
 なお、正面画像AGiおよび横面画像BGiに測定空間Aiの全体が写るよう、正面用ビデオカメラ12と横面用ビデオカメラ13は配置されていることが好ましい。この配置により、後に説明するセンサ三次元位置算出処理にて測定空間Aiにおけるセンサ11の位置を決定することが可能となる。
 メモリ102及びメモリ103を総称して撮影画像用記憶手段と称する。このとき、撮影画像は、測定者が入力する場所、対象物名、年月日等(総称してデータ識別情報Rjiという)の情報を関連付けて記憶されるのが好ましい。
 画像出力部109は、カメラ画像入力部101からの正面画像AGi又は横面画像BGi、もしくはメモリ102に保存された正面画像AGi(以下、登録済正面画像AGirという)又はメモリ103の横面画像BGi(以下、登録済横面画像BGirという)を、三次元表示部121に出力する。
 三次元表示部121は、画像出力部109、後述する基準解析メッシュ作成部107、および後述する解析分布出力部119からの画面表示のための情報を受け付け、表示装置120に受け付けた情報を表示する。三次元表示部121は、情報を出力する際にメモリ122に記憶された表示フォームを使用する。
 センサ正面位置算出部104は、正面画像AGiもしくは登録済正面画像AGirを読み込んで、センサ11のX軸方向およびY軸方向の位置に関連する情報を決定する。
 センサ横面位置算出部105は、横面画像BGiもしくは登録済横面画像BGirを読み込んで、センサ11のY軸方向およびZ軸方向の位置に関連する情報を決定する。
 センサ三次元位置算出部106は、センサ正面位置算出部104およびセンサ横面位置算出部105からの情報を用いて、センサ11の位置を決定する。
 スペクトラムデータ読込部114は、測定者の測定開始指示の入力に伴って、スペクトラムアナライザー15からのスペクトラムデータを一定時間Tiごとに読込む。事前に測定者によって周波数範囲が指定されており、このスペクトラムデータの中から、指定された周波数範囲のスペクトラムデータHiを取出して電磁界情報割付部116に出力する。例えば一定時間Tiは1/30sec、1/60sec又は1/100secである。またスペクトラムデータHiに一定時間Tiを識別できる信号取込番号HFiを付加してメモリ115に順次記憶する。なお、メモリ115への記憶にあたって、前述のデータ識別情報Rjiと信号取込番号HFiとを付加して記憶するのが好ましい。
 基準解析メッシュ作成部107と解析立体空間作成部108は、後述する解析立体空間モデルKAMi、およびこの解析立体空間モデルKAMiの区画管理情報MBiを作成する。解析立体空間モデルKAMiは三次元メモリ110aに生成され、区画管理情報MBiはメモリ110bに生成される。
 このメモリ110a、110b、115を検出信号用記憶手段とも称する。
 基準解析メッシュ作成部107は、後述する画面メッシュ枠PMiを作成する。画面メッシュ枠PMiは三次元表示部121によって管理され、画面メッシュ枠PMiは解析結果表示用のメッシュ枠として表示装置120に表示される。
 電磁界情報割付部116は、センサ三次元位置算出部106が決定したセンサ11の位置の情報と、スペクトラムデータ読込部114からのスペクトラムデータHiを読込んで、解析表示用データLiをメモリ110bに記憶する。
 補間部118は、電磁界情報割付部116と連動して動作する。
 解析分布出力部119は、解析立体空間モデルKAMiおよび区画管理情報MBiを使用して、表示対象とする測定空間Aiの断面および一定領域の、対応する位置での解析表示用データLiを呼び出す。解析分布出力部119は呼び出したデータを内部で処理し、処理した結果を三次元表示部121に出力する。
 モード設定部124は、測定者が指示したモードの情報に基づいて、解析分布出力部119および三次元表示部121の動作を決定する。測定者は、解析種類Kiをモード設定部124に対して設定することで、表示対象とする測定空間Aiの断面および一定領域を設定することができる。
 色値テーブル117は、電磁界強度(信号レベル)と色別表示を行う際の色の対応関係を表すテーブルである。色値テーブル117は、電磁界情報割付部116に対して色値Ciの情報を提供する。
 図6は解析分布出力部119、および三次元表示部121が有する概略構成図である。
 解析分布出力部119は、図6に示すように、強度分布図作成部254とスペクトラムデータ決定部256等を備えている。
 三次元表示部121は、図6に示すように、画像メモリとして、画面メッシュ枠表示用のメモリ304と、カメラ画像表示用のメモリ305と、スペクトラム波形表示用のメモリ306と備えている。また、色値に対応したカラーパレット301を備えている。
 基準解析メッシュ作成部107によって作成された画面メッシュ枠PMiは、画面メッシュ枠表示用のメモリ304に記憶される。
 画像出力部109から出力された正面画像AGi、登録済正面画像AGir、横面画像BGi、登録済横面画像BGirは、カメラ画像表示用のメモリ305に記憶される。
 また、三次元表示部121は、画面メッシュ枠表示用のメモリ304に記憶された画面メッシュ枠PMi、カメラ画像表示用のメモリ305、スペクトラム波形表示用のメモリ306を定期的に読込んで、これらを該当の領域(正面画像/横面画像表示領域120a、スペクトラム表示領域120b)に表示させる。
 さらに、三次元表示部121には表示メッシュ枠サイズ決定部310を接続している。
 表示メッシュ枠サイズ決定部310は、画面メッシュ枠PMiのサイズを変更する。例えば、被測定対象物10の上で希望のエリアだけの強度分布を表示させるために、画面メッシュ枠PMiのサイズを変更する。
 (解析立体空間モデルKAMi)
 次に、解析立体空間モデルKAMiについて図2を用いて説明する。
 図2に示すように、解析立体空間モデルKAMiは、仮想的に測定空間AiをX軸、Y軸、Z軸の各方向を格子サイズdmiの間隔で分割した格子状のメッシュとして定義される。測定空間AiのX軸、Y軸、Z軸に、それぞれ解析立体空間モデルKAMiのMx軸、My軸、Mz軸が対応している。このメッシュの各区画miは解析立体空間モデルKAMiでの三次元座標(Mxi,Myi,Mzi)によって一意に指定される。
 また解析立体空間モデルKAMiでの三次元座標(Mxi,Myi,Mzi)は、各区画miによって一意に指定される。
 基準解析メッシュ作成部107は、解析立体空間モデルKAMiを作成するために、測定空間Aiの大きさ、メッシュを構成する区画miのサイズdmi(例えばセンサ11の大きさに相当する10cm程度が好ましい)を読込む。測定空間Aiの大きさ、メッシュを構成する区画miのサイズdmiは、測定者によって設定されるか、もしくは装置によって決定される。作成された解析立体空間モデルKAMiの情報は、三次元メモリ110aに記憶される。
 解析立体空間モデルKAMiは、センサ11の測定空間Aiにおける位置の決定、および区画miの決定のために使用される。
 なお、解析立体空間モデルKAMiは、仮想的に測定空間AiをX軸、Y軸、Z軸の各方向において等間隔で分割して定義されていれば良く、分割の間隔が各方向で異なっていても良い。
 (区画管理情報MBi)
 次に、区画管理情報MBiについて、図7を用いて説明する。
 区画管理情報MBiは、区画mi、その区画miの三次元座標、解析表示用データLiから構成される。さらに解析表示用データLiは、メモリ115aのスペクトラムデータHiの信号取込番号HFi、スペクトラムデータHi内で最大となる電磁界の最大強度Eimax、および色値Ciから構成される。色値Ciは、最大強度Eimaxに対応しており、色値テーブル117に基づいて決定される。
 電磁界情報割付部116は、センサ三次元位置算出部106が決定したセンサ11の位置の情報と、スペクトラムデータ読込部114からのスペクトラムデータHiを読込んで、解析表示用データLiをメモリ110bに記憶するため、区画管理情報MBiは電磁界情報割付部116によって更新されることとなる。
 解析立体空間モデルKAMiの各区画miには、各区画管理情報MBiが一対一に対応する。区画miが指定されると、メモリ110bを参照することにより、記憶された区画管理情報MBiを参照することができる。この作業により、区画miに対応する測定空間Ai内の領域における電磁界検出信号についての情報を得ることができる。
 解析立体空間モデルKAMiの各区画miと各区画管理情報MBiが一対一に対応する関係は、三次元メモリ110aおよびメモリ110bによって管理されている。言い換えると、三次元メモリ110aおよびメモリ110bは、測定空間Aiを奥行方向、横幅方向、高さ方向にそれぞれ一定の間隔で分割した格子状のメッシュとして定義される解析立体空間モデルKAMiにおいて、解析立体空間モデルKAMiの各区画miに、解析立体空間モデルKAMiでのその区画miの三次元座標(Mxi,Myi,Mzi)と前記検出信号と検出信号の中の最大となる信号レベルEimaxの色値Ciとを含む区画管理情報MBiを関連付けて記憶させたメモリということができる。
 (画面メッシュ枠PMi)
 次に、画面メッシュ枠PMiについて説明する。
 図10のように、画面メッシュ枠PMiは表示装置120に表示される長方形状の領域である。すなわち画面メッシュ枠PMiは解析結果表示用のメッシュ枠として表示装置120に表示される。三次元表示部121によって、画面メッシュ枠PMiには表示対象とする測定空間Aiの断面および一定領域における電磁界強度(信号レベル)の強度分布図Qiが色別表示される。画面メッシュ枠PMiが表示される際には、正面画像AGi、横面画像BGi、登録済正面画像AGir、又は登録済横面画像BGirと重ね表示される。画面メッシュ枠PMiは、表示装置120に表示した際に、測定空間Aiの高さ方向と画面メッシュ枠PMiの高さ方向は平行となるように表示される。
 画面メッシュ枠PMiのサイズは、測定者の入力によって変更できるようになっている。また、画面メッシュ枠PMiは横方向、高さ方向で分割された格子状のメッシュとして定義される。メッシュの各画面区画Pmiは、解析分布出力部119の出力する情報に従い、三次元表示部121により色値Ciに基づく色で表示される。
 画面メッシュ枠PMiは基準解析メッシュ作成部107によって作成され、三次元表示部121によって管理される。
 画面メッシュ枠PMiが、正面画像AGiと登録済正面画像AGirのうちのひとつと重ね表示される際には、画面メッシュ枠PMiの各画面区画Pmiは、解析立体空間モデルKAMiの区画miの三次元座標のうち二次元座標(Mxi,Myi)によって区画miと対応付けて管理されている。
 画面メッシュ枠PMiが、横面画像BGiと登録済横面画像BGirのうちのひとつと重ね表示される際には、画面メッシュ枠PMiの各画面区画Pmiは、解析立体空間モデルKAMiの区画miの三次元座標のうち二次元座標(Myi,Mzi)によって区画miと対応付けて管理されている。
 撮影画像と重ね表示した際に、対応付けられた区画miと画面区画Pmiは、画像表示領域120aで重なって表示される。
 なお、画面メッシュ枠PMiが正面画像AGi、横面画像BGi、登録済正面画像AGir、又は登録済横面画像BGirのいずれと重ね表示されるかは、測定者が装置のモードを設定することにより決定される。測定者が装置のモードを設定することにより、モード設定部124が三次元表示部121の動作を決定する。
 (装置のモード)
 これまで、装置の構成要素、および管理されるデータについての説明を行ってきた。次に、装置のとりうるモードに関して説明する。
 本実施の形態の放射信号可視化装置には、測定前準備モードと、測定中モードと、登録完了後モードが存在する。
 測定前準備モードにおいて、測定空間Aiの奥行Azi、横幅Axi、高さAyiを、測定空間入力用の画面を開いて測定者が入力する。また、測定空間Ai、正面用ビデオカメラ12、横面用ビデオカメラ13の位置関係の情報についても、測定空間入力用の画面を開いて測定者が入力する。さらに、スペクトラムアナライザー15に設定する下限周波数および上限周波数などの測定条件も、測定者が入力する。
 測定者による入力が完了した後、解析立体空間モデルKAMiが生成される。
 測定中モードにおいては、スペクトラムデータ読込部114と電磁界情報割付部116が動作することにより、センサ11からの電磁界検出信号は解析され、メモリ110b、115に解析された情報が記憶される。
 登録完了後モードにおいては、スペクトラムデータ読込部114と電磁界情報割付部116は動作せず、メモリ110b、115に記憶された情報は更新されない。
 測定前準備モード、測定中モード、登録完了後モードのいずれのモードを放射信号可視化装置がとるかは、測定者がモード設定部124を通じて決定する。一般には、測定前準備モード、測定中モード、登録完了後モードの順に装置のモードを遷移させる。
 ここで、測定準備前モード、測定中モード、登録完了後モードにおいて、解析分布出力部119は異なるモードをとる。
 測定準備前モードにおいては、解析分布出力部119は動作しない。
 測定中モードにおいては、解析分布出力部119はリアルタイム表示状態のみをとる。
 登録完了後モードにおいては、解析分布出力部119は単一距離での解析表示の状態と指定距離範囲での強度解析の状態の2種類の状態をとる。
 登録完了後モードにおいて、単一距離での解析表示の状態と指定距離範囲での強度解析の状態のいずれの状態を解析分布出力部119がとるかは、測定者がモード設定部124を通じて決定する。
 その他、本実施の形態の放射信号可視化装置は、表示装置120への表示のモードとして、正面表示状態と横面表示状態が存在する。
 正面表示状態と横面表示状態のいずれの状態を放射信号可視化装置がとるかは、測定者がモード設定部124を通じて決定する。
 以下、各モードでの動作について補足しておく。
 測定前準備モードもしくは測定中モードのとき、センサ正面位置算出部104は正面画像AGiを読込み、センサ横面位置算出部105は横面画像BGiを読込む。
 登録完了後モードのとき、センサ正面位置算出部104は登録済正面画像AGirを読込み、センサ横面位置算出部105は登録済横面画像BGirを読込む。
 測定前準備モードもしくは測定中モードで、正面表示状態のとき、画像出力部109は、正面画像AGiを三次元表示部121に出力する。そのため、このとき画面メッシュ枠PMiは正面画像AGiと重ね表示される。
 測定前準備モードもしくは測定中モードで、横面表示状態のとき、画像出力部109は、横面画像BGiを三次元表示部121に出力する。そのため、このとき画面メッシュ枠PMiは横面画像BGiと重ね表示される。
 登録完了後モードで、正面表示状態のとき、画像出力部109は、登録済正面画像AGirを三次元表示部121に出力する。そのため、このとき画面メッシュ枠PMiは正面画像AGirと重ね表示される。
 登録完了後モードで、横面表示状態のとき、画像出力部109は、登録済横面画像BGirを三次元表示部121に出力する。そのため、このとき画面メッシュ枠PMiは横面画像BGirと重ね表示される。
 なお正面表示状態では、画面メッシュ枠PMiには、測定空間Aiをx-y面で切断したときにできる断面に対応する強度分布図Qiが表示される。すなわち、画面メッシュ枠PMiの各画面区画Pmiは、画面区画Pmiと重なる解析立体空間モデルKAMiの区画miの三次元座標(Mxi,Myi,Mzi)のうち二次元座標(Mxi,Myi)と関連付けて管理される。
 また横面表示状態では、画面メッシュ枠PMiには、測定空間Aiをy-z面で切断したときにできる断面に対応する強度分布図Qiが表示される。すなわち、画面メッシュ枠PMiの各画面区画Pmiは、画面区画Pmiと重なる解析立体空間モデルKAMiの区画miの三次元座標(Mxi,Myi,Mzi)のうち二次元座標(Myi,Mzi)と関連付けて管理される。
 モード設定部124は、測定者が指示したモードの情報に基づいて、上記のように解析分布出力部119および三次元表示部121等の動作を決定する。
 上記のように構成された放射信号可視化装置について以下に動作を説明する。
 <測定前準備モードでの動作>
 測定前における処理について説明する。
 図8は基準解析メッシュ作成部107と解析立体空間作成部108の処理(総称して立体メッシュ枠作成処理ともいう)を説明するフローチャートである。
 立体メッシュ枠作成処理は測定前に行われる。
 基準解析メッシュ作成部107は、図示しないメッシュ枠設定画面を表示装置120の画面に表示させて、メッシュ枠設定画面に入力された解析立体空間モデルKAMiを生成するための測定空間Aiの高さAyiと、測定空間Aiの奥行Aziと、測定空間Aiの横幅Axiと、解析立体空間モデルKAMiの区画miのサイズdmiとを読込む(S20)。
 次に、基準解析メッシュ作成部107は画面メッシュ枠PMiを作成する(S21)。
 ここで、正面用ビデオカメラ12は正面から測定空間Aiを撮影すると共に、横面用ビデオカメラ13は測定空間Aiを横面から撮影する。これらの撮影画像をカメラ画像入力部101が取込んで、画像出力部109が正面画像AGiもしくは横面画像BGiを選択してこれを表示装置120の画像表示領域120aに表示する。
 なお三次元表示部121は、正面表示状態の際には、画面メッシュ枠PMiを正面画像AGiと重ね表示させ、一方、横面表示状態の際には、画面メッシュ枠PMiを横面画像BGiと重ね表示させる(S22)。
 このとき、画面メッシュ枠PMi設定の確定変更入力画面(図示せず)を表示する(例えば右端)。画面メッシュ枠PMi設定の確定変更入力画面は、例えば区画のサイズdmi、横幅Axi、縦幅Ayi、奥行きAzi、確定ボタン、変更ボタンのボックス等からなる。
 前述の画面メッシュ枠PMiは画面区画Pmiのサイズdmiを基準にして作成するので、必ずしも横幅Axi、縦幅Ayi、奥行きAziを満たさない画面メッシュ枠PMiとなる場合もある。
 次に、画面メッシュ枠PMiの確定ボタンが選択されたかどうかを判断する(S23)。ステップS23で変更ボタンが選択されたと判定したときは、表示装置120に表示した画面メッシュ枠PMiを三次元表示部121によって消去する(S24)。その後、処理をステップS20に戻す。
 ステップS23において、確定ボタンが選択されたと判断した場合は、横幅Axi、縦幅Ayi、奥行きAzi及び画面区画Pmiのサイズdmiを解析立体空間作成部108に出力する(S25)。
 次に、解析立体空間作成部108は、基準解析メッシュ作成部107からの横幅Axi、縦幅Ayi、奥行きAzi及び画面区画Pmiのサイズdmiを用いて図2に示す解析立体空間モデルKAMiを作成し、三次元メモリ110aに記憶する。また図7のように、メモリ110bに区画miと区画miの三次元座標(Mxi,Myi,Mzi)とを関連付けた区画管理情報MBiが作成される(S26)。
 立体メッシュ枠作成処理は測定前に行われるため、立体メッシュ枠作成処理で作成された区画管理情報MBiには、解析表示用データLiは登録されていない。
 前述の三次元座標は、区画miの最小点の座標(Mximin,Myimin,Mzimin)と最大点の座標(Mximax,Myimax,Mzimax)とで構築してもかまわない。
 なお、三次元メモリ110aとメモリ110bとは一つのメモリとしてもかまわない。
 <測定中モードでの動作>
 (動作の概略説明)
 次に、測定中の動作の概略を図9のフローチャートを用いて説明する。すなわち、測定中モードにおける動作を説明する。なお、図9においては、既に解析立体空間モデルKAMiが生成されているとする。
 測定者は画面に表示した測定開始ボタン(図示せず)を選択して正面用ビデオカメラ12及び横面用ビデオカメラ13を起動させる。そして、測定者は図1に示すように、センサ11を手で持って、測定空間Ai内でセンサ11を移動させる(S1)。このとき、センサ11を測定空間Aiにおいて上下、左右、前後に走査(移動)させる。
 この移動に伴って解析本体部100は図9に示す並列的な処理を実行している。
 正面用ビデオカメラ12は正面から測定空間Aiを撮影すると共に、横面用ビデオカメラ13は測定空間Aiを横面から撮影する。これらの撮影画像をカメラ画像入力部101が取込んで、画像出力部109が正面画像AGiもしくは横面画像BGiを選択してこれを表示装置120の画像表示領域120aに表示する(S2)。
 なお三次元表示部121は、正面表示状態の際には正面画像AGiを画像表示領域120aに表示させ、一方、横面表示状態の際には横面画像BGiを画像表示領域120aに表示させる。
 ステップS2の具体的処理は、カメラ画像入力部101は、一定時間ごと(例えば1/30sec)に正面用ビデオカメラ12からの映像信号をデジタル変換し、正面画像AGiをメモリ102に記憶し、同時に、横面用ビデオカメラ13からの映像信号をデジタル変換し、横面画像BGiをメモリ103に記憶する。
 次に、センサ正面位置算出部104が正面画像AGiからセンサ11の色相、彩度、明度の色情報(例えば黄色)を抽出し、センサ正面画像Gaiを得る。同時に、センサ横面位置算出部105が横面画像BGiからセンサ11の色相、彩度、明度の色情報(例えば黄色)を抽出し、センサ横面画像Gbiを得る(S3)。
 センサ正面画像Gaiの中心を重心gaiとして求め、同時に、センサ横面画像Gbiの中心を重心gbiとして求める(S4)。
 そして、センサ三次元位置算出部106が重心gaiと重心gbiを用いて解析立体空間モデルKAMiにおける区画miを決定する(S6)。
 一方、スペクトラムアナライザー15は、センサ11が検出した電磁界検出信号を取込む(S7)。
 スペクトラムアナライザー15は、取込んだ電磁界検出信号を分析する(S8)。具体的には、X軸方向用FFT、Y軸方向用FFT、Z軸方向用FFTを使用して、各軸方向のスペクトラムデータを得る。すなわち、電磁界検出信号の各周波数における信号の強度を得る。各軸方向のスペクトラムデータを合成し、合成されたスペクトラムデータを得る。
 そして、スペクトラムデータ読込部114がスペクトラムアナライザー15から各軸方向のスペクトラムデータおよび合成されたスペクトラムデータを受け取る。さらにスペクトラムデータ読込部114は、受け取ったスペクトラムデータをメモリ115に記憶し、同時に、受け取ったスペクトラムデータのうちひとつを、スペクトラムデータHiとして電磁界情報割付部116に出力する(S9)。
 各軸方向のスペクトラムデータおよび合成されたスペクトラムデータのどれを、スペクトラムデータHiとして電磁界情報割付部116に出力するかは、測定者が選べるようにしても良い。
 このとき、信号取込番号HFiを乱数発生器もしくはハッシュ値発生器等(図示せず)で生成して、スペクトラムデータHiに付加してメモリ115に記憶する。信号取込番号HFiは記憶されたスペクトラムデータHiを互いに識別できるよう、ユニークな番号として生成される。
 次に、電磁界情報割付部116がスペクトラムデータ読込部114からのスペクトラムデータHiの中から、最大強度Eimaxを読込む。さらに、色値テーブル117に基づいて、この最大強度Eimaxに対応する色値Ciを決定する(S10)。
 そして、電磁界情報割付部116は、ステップS6で定義された最大強度Eimax、色値Ci及びスペクトラムデータHiの信号取込番号HFiを解析表示用データLiとして得る(S11a)。
 次に、電磁界情報割付部116は、区画mi、その区画miの三次元座標(Mxi,Myi,Mzi)、解析表示用データLiを用いて、メモリ110bの区画管理情報MBiを更新する(S11b)。
 次に、解析分布出力部119が、表示対象とする測定空間Aiの断面および一定領域の、対応する区画miの解析表示用データLiの色値Ciと区画miの三次元座標(Mxi,Myi,Mzi)とを三次元表示部121に出力する。三次元表示部121は、撮影画像と重ね表示した際に区画miと重なる画面メッシュ枠PMiの画面区画Pmiを、色値Ciの色で表示する(S12)。
 放射信号可視化装置のモードが測定中モードのときには、解析分布出力部119はリアルタイム表示状態をとる。
 測定者によって測定終了が指示されたかどうかを判断する(S13)。
 測定者によって測定終了が指示された場合には終了し、測定終了が指示されていない場合には、再びステップS1に処理を戻す。
 すなわち、図10のように、強度分布図が正面画像AGiもしくは横面画像BGiに重ね表示されることになる。
 (動作の概略説明)
 次に、各部の処理について詳細に説明する。
 (センサ三次元位置算出処理)
 図9のフローチャートにおけるステップS3、S4、S6をセンサ三次元位置算出処理と呼ぶ。センサ正面位置算出部104、センサ横面位置算出部105、センサ三次元位置算出部106の処理を図11のフローチャートを用いて説明する。
 センサ正面位置算出部104は、測定開始ボタンの選択に伴って、図12(a)に示すようにメモリ102に記憶された正面画像AGiを読込む。測定開始ボタンの選択に伴って、図12(b)に示すようにセンサ横面位置算出部105はメモリ103の横面画像BGiを読込む(S31)。
 次に、図13(a)に示すように、センサ正面位置算出部104は、正面画像AGiの中で例えば黄色の色情報(色相、彩度又は明度)を有するピクセル群の塊をセンサ正面画像Gaiとし、このセンサ正面画像Gaiの中心を重心gaiとして求める(S32)。
 なお、センサ正面画像Gaiの中心の代わりに、センサ正面画像Gaiの幾何学的な重心を重心gaiとして求めても良い。
 次に、図13(b)に示すように、センサ横面位置算出部105は、横面画像BGiの中で例えば黄色の色情報(色相、彩度又は明度)を有するピクセル群の塊をセンサ横面画像Gbiとし、このセンサ横面画像Gbiの中心を重心gbiとして求める(S33)。
 なお、センサ横面画像Gbiの中心の代わりに、センサ横面画像Gbiの幾何学的な重心を重心gbiとして求めても良い。
 重心gaiおよび重心gbiは撮影画像上のピクセル位置であることに注意する。ここで、測定空間Aiと、正面用ビデオカメラ12及び横面用ビデオカメラ13の位置関係は測定開始時に測定者が入力した情報によって既知である。そのため、位置関係の情報を用いて、重心gaiに対応する測定空間Aiの正面の点mia、および重心gbiに対応する測定空間Aiの横面の点mibを計算する(S34)。
 センサ三次元位置算出部106は、重心gaiに対応する測定空間Aiの正面の点miaと正面用ビデオカメラ12の存在する場所とを結んだ直線と、重心gbiに対応する測定空間Aiの横面の点mibと横面用ビデオカメラ13の存在する場所とを結んだ直線の交点を計算することにより、測定空間Aiにおけるセンサ11の位置を決定する(S35)。
 次にセンサ三次元位置算出部106は、解析立体空間モデルKAMiを使用することで、決定されたセンサ11の位置を含む解析立体空間モデルKAMiの区画miを決定する(S37)。
 そして、区画miが決定すると、区画miの三次元座標(Mxi,Myi,Mzi)が一意に決まるため、この決定した区画の三次元座標をセンサ三次元区画座標Wmi(Mxi,Myi,Mzi)として電磁界情報割付部116に出力する(S38)。
 次に、測定者によって測定の終了指示が出されているかどうかを判断する(S39)、測定の終了指示が出されていない場合には、さらに一定時間Ti(例えば1/30sec)が経過したかどうかを判断する(S40)。一定時間Tiを経過した場合は処理をステップS31に戻す。一定時間Tiを経過していない場合は、再び待ち状態となり、ステップS40に戻す。
 すなわち、一定時間Tiごとに、センサ11が測定空間Aiを上下、左右、前後に走査(移動)したときの解析立体空間モデルKAMiにおけるセンサ三次元区画座標Wmi(Mxi,Myi,Mzi)を電磁界情報割付部116に知らせている。
 (電磁界情報割付処理)
 図9のフローチャートにおけるステップS7、S8、S9、S10を電磁界情報割付処理と呼ぶ。電磁界情報割付部116の処理を図14のフローチャートを用いて説明する。但し、本実施の形態ではスペクトラムデータ読込部114が測定開始指示の入力に伴って、スペクトラムアナライザー15からのスペクトラムデータHi(図14参照)を一定時間Tiごとに信号取込番号HFiを付加してメモリ115aに記憶しているとする。
 電磁界情報割付部116は、測定開始指示の入力に伴って、センサ三次元区画座標Wmi(Mxi,Myi,Mzi)がセンサ三次元位置算出部106から入力したかどうかを判断する(S51)。
 ステップS51において、センサ三次元区画座標Wmi(Mxi,Myi,Mzi)が入力したと判定したときは、スペクトラムデータHiを読込む(S52)。
 そして、電磁界情報割付部116は、このスペクトラムデータHiの内で最大強度Eimaxを読込む(S53)。
 次に、このスペクトラムデータHiの最大強度Eimaxに対応する色値Ciを色値テーブル117から決定する(S54)。
 次に、入力したセンサ三次元区画座標Wmi(Mxi,Myi,Mzi)が示す解析立体空間モデルKAMiの区画miに対応する区画管理情報MBiとして、スペクトラムデータHiの信号取込番号HFiと最大強度Eimaxと色値Ciとを解析表示用データLiをメモリ110bに記憶する(S55)。
 次に、測定者によって測定の終了指示が出されているかどうかを判断し、測定の終了指示が出されていない場合には、処理をステップS51に戻す(S56)
 測定者によって測定の終了指示が出されるまで、センサ11の位置に対応して区画miがセンサ三次元位置算出処理によって決定され、区画miに対応する区画管理情報MBiとして、解析表示用データLiをメモリ110bに記憶する電磁界情報割付処理が繰り返される。
 従って、センサ11を上下、左右、前後に測定空間Aiを走査(移動)したときの一定時間TiにおけるスペクトラムデータHiが解析立体空間モデルKAMiの各区画miに順次割付けられていくことになる。
 (解析分布出力部の処理)
 図15は解析分布出力部119がリアルタイム表示状態であるときの動作を説明するフローチャートである。
 測定中においては、以下に説明する解析分布出力部119の処理によって、センサ11で測定した電磁界検出信号はリアルタイムで解析され、電磁界強度(信号レベル)の強度分布図Qiが表示装置120に表示される。
 強度分布図作成部254は、解析立体空間モデルKAMiの区画miに解析表示用データLi(スペクトラムデータHiの信号取込番号HFi、色値Ci、最大強度Eimax)が割付けられたかどうかを判断する(S62)。
 ステップS62において、解析表示用データLiが割付けられたと判定したときには、以下のステップS63以降の処理が行われる。
 正面表示状態のとき、強度分布図作成部254はこの解析表示用データLiが割付けられた区画miと同じ解析立体空間モデルKAMiのMzi座標を持つ区画miをすべて引き当てる。一方、横面表示状態のとき、この解析表示用データLiが割付けられた区画miと同じ解析立体空間モデルKAMiのMxi座標を持つ区画miをすべて引き当てる(S63)。
 そして、強度分布図作成部254は引き当てられたすべての区画miについて、各区画miの二次元座標を読込む(S64)。次に、各区画miに割付けられている色値Ciと二次元座標とを三次元表示部121に出力して、その二次元座標に関連付けられている画面区画Pmiを色値Ciの色で表示させる(S65)。
 具体的には、正面表示状態のとき、三次元表示部121は二次元座標(Mxi,Myi)に対応する画面区画Pmiを色値Ciの色で表示する。横面表示状態のとき、三次元表示部121は二次元座標(Myi,Mzi)に対応する画面区画Pmiを色値Ciの色で表示する。
 なお、三次元表示部121はメッシュ枠表示用のメモリ304に記憶された画面区画Pmiを色値Ciの色と、カメラ画像表示用のメモリ305に記憶されたと、スペクトラム波形表示用のメモリ306を定期的に読込んで、表示装置120への情報の表示を行う。
 すなわち、リアルタイムで、センサ11の位置に対応する区画miを含む断面での、図10に示すような最大強度Eimaxに応じた強度分布図Qiが表示装置120に表示される。この画面を見ながら測定者はもれがないようにスペクトラムデータを取得することが可能となる。
 次に、測定者によって測定の終了指示が出されているかどうかを判断する(S66)。測定の終了指示が出されていない場合には、処理をステップS62に戻す。一方、測定の終了指示が出されている場合には終了する。
 従って、測定者は、この画面を見てどの領域に電磁界強度(信号レベル)が高いノイズが発生しているかが一目で分かる。
 なお、補間部118は、測定者によって測定の終了指示が出されると、解析立体空間モデルAMiの区画miにスペクトラムデータHiが割り付けられているかどうかを判断する。割り付けられていない区画miに対しては、解析立体空間モデルKAMiの格子状メッシュの前後左右の区画miに割り付けられているスペクトラムデータHiの値から、そのメッシュ枠の区画miのスペクトラムデータの値を補間する。
 例えば、図16(a)に示すように、時刻T1においてm5にスペクトラムデータHiが「10:例えば強度」と割付けられていて、時刻T2においてm5にスペクトラムデータHiがない場合で、時刻T3においてm5にスペクトラムデータHiが「8:例えば強度」と割付けられていて場合は、図16(b)に示すように、時刻T2のm5に「8」を割付ける。
 なお、補間部118というのは必須な構成要件ではない。補間指示があって起動するものとする。
 <登録完了後モードでの動作>
 次に、登録完了後モードにおける動作を説明する。
 登録完了後モードでは、測定中モードにおいてメモリ110bに記憶した解析表示用データLi、および信号取込番号HFiを付加してメモリ115に記憶したスペクトラムデータHiの解析処理を行う。
 メモリ110bに記憶した解析表示用データLiの解析は、解析分布出力部119の強度分布図作成部254によって行われ、また信号取込番号HFiを付加してメモリ115に記憶したスペクトラムデータHiの解析は、解析分布出力部119のスペクトラムデータ決定部256によって行われる。
 測定者はモード設定部124を通じて装置を登録完了後モードにする際、解析分布出力部119の強度分布作成部254の動作を決定するパラメータとして、解析種類Kiを指定する。解析種類Kiは、測定空間Aiの断面位置を指定するパラメータ、距離diを含んでいる。
 登録完了後モードにおいては、解析分布出力部119が単一距離での解析表示の状態と指定距離範囲での強度解析の状態の2種類の状態をとるため、以下では場合分けして解析分布出力部119の処理内容を説明する。
 (単一距離での解析表示の状態における解析分布出力部119の処理)
 図17は解析分布出力部119が単一距離での解析表示の状態であるときの動作を説明するフローチャートである。
 測定者は、距離diとして1つの値のみを指定する。
 正面表示状態のとき、強度分布作成部254は、距離diで指定されるZ軸座標が一定の面で定義される測定空間Aiの断面に対応する強度分布図Qiを表示するための処理を行う。
 横面表示状態のとき、強度分布作成部254は、距離diで指定されるX軸座標が一定の面で定義される測定空間Aiの断面に対応する強度分布図Qiを表示するための処理を行う。
 距離diはZ軸座標、もしくはX軸座標を表すものとして定義したが、それぞれ測定空間Aiの正面からの距離、もしくは測定空間Aiの横面からの距離として定義されるものであっても良い。
 強度分布図作成部254は距離diで指定される測定空間Aiの断面を含む区画miをすべて引き当てる(S117)。
 そして、強度分布図作成部254は引き当てられたすべての区画miの中からひとつを指定する(S118)。
 指定された区画miに割付けられている色値Ciと二次元座標とを三次元表示部121に出力して、その二次元座標に関連付けられている画面区画Pmiを色値Ciの色で表示させる(S120)。
 具体的には、正面表示状態のとき、三次元表示部121は二次元座標(Mxi,Myi)に対応する画面区画Pmiを色値Ciの色で表示する。横面表示状態のとき、三次元表示部121は二次元座標(Myi,Mzi)に対応する画面区画Pmiを色値Ciの色で表示する。
 なお、三次元表示部121は画面メッシュ枠PMi表示用のメモリ304、カメラ画像表示用のメモリ305、スペクトラム波形表示用のメモリ306を定期的に読込んで、表示装置120へ画面メッシュ枠PMi、撮影画像、スペクトラム波形を表示する。
 引き当てられたすべての区画miに対して、ステップS120の処理が行われたかを判定する(S121)。
 引き当てられたすべての区画miに対して、ステップS120の処理が行われていない場合、処理が行われていない区画miの中からひとつを指定する(S122)。その後、ステップS120に戻す。
 引き当てられたすべての区画miに対して、ステップS120の処理が行われたとき、処理を終了する。
 以上が、単一距離での解析表示の状態における解析分布出力部119の処理である。
 (指定距離範囲での解析表示モードにおける解析分布出力部119の処理)
 図18は解析分布出力部119が指定距離範囲での解析表示モードであるときの動作を説明するフローチャートである。
 測定者は、距離diとして2つの値を指定する。
 正面表示状態のとき、距離diとして指定された2つの値によって、Z軸座標一定の面が2枚指定される。強度分布作成部254は、指定された2枚のZ軸座標一定の面で挟まれる測定空間Ai内の領域における強度分布図Qiを表示するための処理を行う。
 横面表示状態のとき、距離diとして指定された2つの値によって、X軸座標一定の面が2枚指定される。強度分布作成部254は、指定された2枚のX軸座標一定の面で挟まれる測定空間Ai内の領域における強度分布図Qiを表示するための処理を行う。
 距離diはZ軸座標、もしくはX軸座標を表すものとして定義したが、それぞれ測定空間Aiの正面からの距離、もしくは測定空間Aiの横面からの距離として定義されるものであっても良い。
 強度分布図作成部254は2枚の座標一定の面で挟まれる測定空間Aiの領域を含む区画miをすべて引き当てる(S141)。
 そして、強度分布図作成部254は引き当てられたすべての区画miについて、同一の二次元座標を持つ区画miの区画グループGMiごとに分類する(S142)。
 ひとつの区画グループGMi内の各区画miは、正面表示状態のときにはすべて同一の二次元座標(Mxi,Myi)を持ち、横面表示状態のときにはすべて同一の二次元座標(Myi,Mzi)を持つ。
 そして、強度分布図作成部254はすべての区画グループGMiの中からひとつを指定する(S143)。
 指定された区画グループGMi内の各区画miに割付けられている最大強度Eimaxを読込む(S144)。
 読込んだ最大強度Eimaxの中で最も大きな値を区画グループGMiに割り付けられた最大強度MaxEimaxとして定義する(S145)。
 ここでは、最大強度MaxEimaxは区画グループGMiに属する各区画miに割付けられている最大強度Eimaxの中で最も大きな値として定義したが、解析方法に合わせて、各区画miに割付けられている最大強度Eimaxの平均値、もしくはその他の方法によって最大強度MaxEimaxを決定しても良い。
 色値テーブル117に基づいて、最大強度MaxEimaxに対応する色値MaxCiを決定する(S146)。
 区画グループGMiによって決まる色値MaxCiと、その区画グループGMiに属する区画miの二次元座標とを三次元表示部121に出力して、その二次元座標に関連付けられている画面区画Pmiを色値MaxCiの色で表示させる(S147)。
 なお、三次元表示部121は画面メッシュ枠PMi表示用のメモリ304、カメラ画像表示用のメモリ305、スペクトラム波形表示用のメモリ306を定期的に読込んで、表示装置120へ画面メッシュ枠PMi、撮影画像、スペクトラム波形を表示する。
 すべての区画グループGMiに対して、ステップS144からS147までの処理が行われたかを判定する(S148)。
 すべての区画グループGMiに対して、ステップS144からS147までの処理が行われていない場合、処理が行われていない区画グループGMiの中からひとつを指定する(S149)。その後、ステップS144に戻す。
 すべての区画グループGMiに対して、ステップS144からS147までの処理が行われたとき、処理を終了する。
 以上が、指定距離範囲での解析表示モードにおける解析分布出力部119の処理である。
 なお、解析分布出力部119は、解析立体空間モデルKAMiの区画に割付けられている最大強度を組み合わせてサーフェースモデルを構築して、これを三次元表示部121に出力して、入力された視角で3D表示させてもよい(図19参照)。
 登録完了後モードにおいては、解析分布出力部119の他に、スペクトラムデータ決定部256が測定者の設定したパラメータに従ってスペクトラムデータHiの解析を行う。スペクトラムデータ決定部256は、測定者が指定した測定空間Ai内の1点でセンサ11によって検出されたスペクトラムデータHiを、メモリ115から読出し、読出されたスペクトラムデータHiの解析を行う。
 なお測定者は、画面メッシュ枠PMiの画面区画Pmiと、距離diを指定することによって、測定空間Ai内の1点を指定することが可能である。すなわち、測定者は、画面上において画面メッシュ枠PMiの画面区画Pmiをカーソルで指定し、さらに、図示しない距離値入力ボックスによって距離diを入力(指定)することによって、三次元空間内での三次元位置を決定することができるため、結果として測定空間Ai内の1点を指定することができる。
 (スペクトラムデータ決定部の説明)
 図20はスペクトラムデータ表示の処理を説明するフローチャートである。図21はスペクトラムデータ表示の説明図である。
 スペクトラムデータ決定部256は、測定者によってスペクトラムの表示指示が出されているかどうかを判断する。表示指示が出されている場合には、表示装置120に表示している画面メッシュ枠PMiの画面区画Pmiが測定者によって指定されたかどうかを判定する(S151)。
 ステップS151において、画面区画Pmiが指定されたと判定した場合は、この画面区画Pmiの二次元座標を読む(S152)。
 登録完了後モードにおいては、距離diが設定されていることに注意する。距離diで指定される測定空間Aiの断面を含む区画miが共通してもつ座標は、正面表示状態においてはZ軸座標、横面表示状態においてはX軸座標となる。
 ステップS152で決定されている画面区画Pmiの二次元座標と、距離diで指定される座標を元に、測定空間Ai内の1点を含む解析立体空間モデルKAMiの区画miを決定する(S154)。
 そして、この区画miに割付けられている解析表示用データLiをメモリ110bから読込む(S155)。
 次に、この解析表示用データLiに含まれている登録済スペクトラムデータHiの信号取込番号HFiに対応する登録済スペクトラムデータHiをメモリ115aから読込む(S156)。
 読込んだ登録済スペクトラムデータHiを波形変換する(S157)。
 その後、波形変換したデータを三次元表示部121によって表示させる(S158)。
 そして、図21に示すように画面のスペクトラム波形の最大ピークの箇所に縦カーソルCPiを三次元表示部121によって表示する(S159)。
 すなわち、図21に示すように、画面メッシュ枠PMiの画面区画Pmiが指定されると、この指定ポイントPiに対応する解析立体空間モデルKAMiの区画miを検索し、この区画miに関連付けられている登録済スペクトラムデータHiが波形変換されて表示され、かつ最大強度のピーク波形に縦カーソルCPiが表示される。
 従って、指定ポイントPiの画面区画Pmiは、どのような周波数のものが最大となっているかを把握できることになる。
 一方、測定者によってスペクトラムの表示指示が出されたときに、画面区画Pmiと同時に周波数範囲Ffi(例えば400~600MHz)も指定された場合には、スペクトラムデータ決定部256は以下に説明する処理を行う。
 周波数範囲Ffiが指定されていない場合、これまで説明したとおり解析分布出力部119は測定した全周波数範囲での最大強度Eimaxを用いて強度分布図Qiの色別表示を行う。周波数範囲Ffiが指定された場合、スペクトラムデータ決定部256は指定された周波数範囲Ffiの中で最大強度RfEimaxを求め、解析分布出力部119はこの最大強度RfEimaxに対応する色値Ciで強度分布図Qiを色別表示する。
 図22は周波数範囲Ffiが指定されたときのスペクトラムデータ表示の処理を説明するフローチャートである。図23は周波数範囲Ffiが指定されたときのスペクトラムデータ表示の説明図である。
 スペクトラムデータ決定部256は、測定者によって周波数範囲Ffiが指定された場合、測定者によって設定されている距離diを読込む(S161)。
 強度分布図作成部254は距離diで指定される測定空間Aiの断面を含む区画miをすべて引き当てる(S162)。
 次に、スペクトラムデータ決定部256は、指定された周波数範囲Ffiを読込む(S163)。
 図23に示すように、周波数範囲Ffiに基づき三次元表示部121は画面のスペクトラム波形の該当の周波数範囲を色別表示する(S164)。図23においては、この色別表示された周波数範囲を斜線模様で縁取りされた領域で示している。
 スペクトラムデータ決定部256は、測定者によって表示装置120に表示している画面メッシュ枠PMiの画面区画Pmiが指定されたかどうかを判定し、画面区画Pmiが指定されたと判定した場合は、この画面区画Pmiの二次元座標を読む(S165)。
 ステップS164で決定されている画面区画Pmiの二次元座標と、距離diで指定される座標を元に、測定空間Ai内の1点を含む解析立体空間モデルKAMiの区画miを決定する(S166)。
 次に、この区画miに割付けられている登録済スペクトラムデータHiの信号取込番号HFiを読込む(S167)。
 そして、この信号取込番号HFiの登録済スペクトラムデータHiの周波数範囲Ffiの部分を指定範囲スペクトラムデータHffiとしてメモリ115から読込む(S168)。
 次に、この指定範囲スペクトラムデータHffiの中から最大強度RfEimaxを読込む(S169)。
 そして、この周波数範囲Ffiにおける最大強度RfEimaxに対応する色値RfCiを色値テーブル117から決定する(S170)。
 そして、区画miに割付けられている二次元座標と決定した色値RfCiとを三次元表示部121に出力する(S171)。三次元表示部121は画面の指定ポイントPiの画面区画Pmiを色別表示する(図23参照)。
 ステップS162において引き当てられたすべての区画miに対して、ステップS167からS171までの処理が行われたかを判定する(S172)。
 ステップS162において引き当てられたすべての区画miに対して、ステップS167からS171までの処理が行われていない場合、処理が行われていない区画miの中からひとつを指定する(S172)。その後、ステップS167に戻す。
 ステップS162において引き当てられたすべての区画miに対して、ステップS167からS171までの処理が行われたとき、処理を終了する。
 以上の処理によって、全周波数範囲での最大強度Eimaxの代わりに、周波数範囲Ffiにおける最大強度RfEimaxによって強度分布図Qiが色別表示される。
 従って、指定ポイントPi(区画)において、指定した周波数範囲ではどの周波数が支配的かを把握できる。
 (変形例)
 図24は他の実施の形態の放射信号可視化装置の概略構成図である。図24においては図5と同様なものについては説明を省略する。
 被測定対象物はIC基板、テレビジョン等に限られるものではなく、放射線を帯びた電子機器、建物、食品等であってもよい。この場合、被測定対象物からの放射線の分布を色別表示し、可視化する放射信号可視化装置である。
 本実施の形態は、センサは放射線検出センサ202を用いる。
 そして、本体部200には、放射線強度読込部201を備える。また、情報割付部116aを備える。この情報割付部116aは、電磁界情報割付部116と同様なものである。
 放射線強度読込部201は、一定時間Tiごとに放射線検出センサ202からの検出値(デジタル値:放射線量値)をメモリ203に記憶する。例えば、予め設定された年月日、場所、対象物名等にタイマーの時刻情報を関連付けて放射線の検出値を記憶する。
 また、人物又は対象物の正面に測定空間Aiを定義して、上記の解析立体空間モデルKAMiを三次元メモリ110aに生成する。
 そして、前述放射線検出センサ202を手で持って測定空間Aiを上下、左右、前後に走査(移動)させながら、センサ正面位置算出部104、センサ横面位置算出部105及びセンサ三次元位置算出部106等を用いて決定した放射線検出センサ202の位置を元に、解析立体空間モデルKAMiの区画に定義する。
 そして、情報割付部116aは放射線検出センサ202が検出した放射線量値を解析立体空間モデルKAMiの該当の区画miに割付ける。具体的には情報割付部116aは区画管理情報MBiとして放射線量値をメモリ110bに記憶する。
 また、解析分布出力部119と三次元表示部121は、正面画像AGi(又は登録済正面画像AGir)を表示装置120に表示させて、入力された解析種類Kiに応じて、画面区画Pmiを放射線量値に対応する色で表示する。
 従って、解析担当者は、この表示装置120の画面を見てどの領域に高い放射線が発生しているかを一目で分かる。
 なお、上記実施の形態ではスペクトラムアナライザー15を本体部の外部に設けたがこのスペクトラムアナライザー15の機能を本体部内に設けてもよい。
 また、上記実施の形態では、電子機器のノイズ又は被測定対象物の放射線量を検出するセンサとして説明したが、音量を検出するセンサを用いて、その音量を解析立体空間モデルKAMiに定義して、距離に応じて区画を色別表示してもかまわない。
 また、センサは温度センサであってもかまわない。
 さらに、上記実施の形態では、解析分布出力部119が解析立体空間モデルKAMiの区画miに割付けられている二次元座標を三次元表示部121に出力するとして説明したが、三次元表示部121が三次元座標の中から二次元座標のみを取り出す場合は、三次元座標を出力して該当の画面区画Pmiを色別表示させてもよい。
 さらに、スペクトラムアナライザー15の出力がアナログデータの場合は、スペクトラムデータ読込部114にA/D変換器を設けて、一定時間Tiごとに、入力された周波数範囲のアナログのスペクトラムデータを取込んでデジタル化し、これを上記のスペクトラムデータHiとしてもよい。
 本出願は、2012年4月20日に出願された日本国特許願第2012-097176号に基づく優先権、および2012年11月28日に出願された日本国特許願第2012-259631号に基づく優先権を主張しており、この2つの出願の全内容が参照により本明細書に組み込まれる。
 本発明に係る放射信号可視化装置によれば、被測定対象物の周囲の三次元空間内においてセンサを上下、左右、前後に走査(移動)させることで、ノイズの空間的分布の状態を記録することができる。記録されたデータは、測定後の解析作業において利用することができる。これにより、三次元空間内におけるノイズの分布や強度等の解析を行い、ノイズの強度、周波数の特徴を捉えることが可能となる。
10 被測定対象物
11 センサ
12 正面用ビデオカメラ
13 横面用ビデオカメラ
15 スペクトラムアナライザー
100 解析本体部
101 カメラ画像入力部
107 基準解析メッシュ作成部
108 解析立体空間作成部
109 画像出力部
104 センサ正面位置算出部
105 センサ横面位置算出部
106 センサ三次元位置算出部
114 スペクトラムデータ読込部
116 電磁界情報割付部
119 解析分布出力部

Claims (8)

  1.  被測定対象物に一面が静対する直方体状の測定空間の中でセンサを移動させながら前記被測定対象物から発生する信号を検出信号として取得し、前記検出信号の信号レベルを表示装置に色別表示する放射信号可視化装置であって、
     一定時間ごとに前記測定空間を撮影した撮影画像を記憶した撮影画像用記憶手段と、
     前記測定空間を奥行方向、横幅方向、高さ方向にそれぞれ一定の間隔で分割した格子状のメッシュとして定義される解析立体空間モデルにおいて、前記解析立体空間モデルの各区画に、前記解析立体空間モデルでのその区画の三次元座標と前記検出信号と前記検出信号の中の最大となる信号レベルの色値とを含む区画管理情報を関連付けて記憶させた三次元メモリと、
     前記撮影画像用記憶手段に記憶されている前記撮影画像を前記表示装置に表示する手段と、
     前記区画と関連付けられる画面区画から構成される画面メッシュ枠を、解析結果表示用のメッシュ枠として前記撮影画像に重ね表示する手段と、
     前記被測定対象物からの指定距離に対応する奥行き座標を有する前記区画を順次指定する手段と、
     指定された区画ごとに、この区画に割付けられている前記三次元座標を構成する二次元座標及び該区画に割付けられている前記色値を読込む手段と、
     前記二次元座標に対応する前記画面区画を、読込んだ色値の色で表示する手段と
    を有することを特徴とする放射信号可視化装置。
  2.  請求項1記載の放射信号可視化装置であって、
     前記三次元メモリの前記解析立体空間モデルの前記区画には、前記色値と共に前記一定時間ごとの前記検出信号の内で最大の信号レベルがさらに割付けられており、
     前記被測定対象物からの指定距離範囲に対応する奥行き座標を有する前記区画を順次指定する手段と、
     前記指定された区画について、同一の二次元座標を持つ区画の区画グループごとに分類する手段と、
     前記区画グループごとに、前記区画グループに属する各々の区画に割付けられている各々の前記最大となる信号レベルを読込み、これらの中で最も大きな値を最大強度信号レベルとして決定する手段と
     前記二次元座標に対応する前記画面区画を、前記最大強度信号レベルに対応する色値の色で表示する手段と
    をさらに有することを特徴とする放射信号可視化装置。
  3.  請求項1又は2に記載の放射信号可視化装置であって、
     前記区画管理情報は前記検出信号を識別する信号取込番号を含んでおり、
     前記一定時間ごとの前記検出信号に、前記信号取込番号が関連付けられて記憶された信号用の記憶手段と、
     前記信号取込番号によって識別される前記検出信号を前記解析結果表示用のメッシュ枠と共に前記表示装置に表示する手段と
    をさらに有することを特徴とする放射信号可視化装置。
  4.  請求項1乃至3のいずれかに記載の放射信号可視化装置であって、
     前記測定空間の正面方向から撮影する第1ビデオカメラと、
     前記測定空間の側面方向から撮影する第2ビデオカメラと、
     前記信号レベルと前記色値の対応関係を表す色値テーブルと、
     前記第1ビデオカメラからの前記撮影画像及び前記第2ビデオカメラからの前記撮影画像を一定時間ごとに取込み、これらを関連付けて前記撮影画像用記憶手段に記憶する画像入力手段と、
     前記第1ビデオカメラからの第1撮影画像又は前記第2ビデオカメラからの第2撮影画像を前記表示装置に生じする手段と、
     前記測定空間を奥行方向、横幅方向、高さ方向にそれぞれ一定の間隔で分割した格子状のメッシュとして定義される前記解析立体空間モデルを作成する手段と、
     前記第1撮影画像から前記センサの色情報を有する隣接するピクセルの塊を検出し、これを前記正面方向からの前記センサの形状画像とする手段と、
     前記第2撮影画像から前記センサの色情報を有する隣接するピクセルの塊を検出し、これを前記側面方向からの前記センサの形状画像とする手段と、
     前記正面方向からのセンサの形状画像の中心位置と前記側面方向からのセンサの形状画像の中心位置とからセンサ位置を決定し、前記センサ位置を含む前記解析立体空間モデルの区画を前記センサ位置に対応する区画として定義する手段と、
     前記解析立体空間モデルに前記センサ位置に対応する区画が定義されるごとに、この区画に前記検出信号の内で前記最大となる信号レベルに対応する色値を前記色値テーブルから決定して前記定義された区画に割付ける手段と
    をさらに有することを特徴とする放射信号可視化装置。
  5.  請求項1乃至4のいずれかに記載の放射信号可視化装置であって、
     前記センサが周波数情報を含む信号を検出する周波数情報検出センサの場合は、
     該周波数情報検出センサが検出した検出信号のスペクトラムデータを前記検出信号として算出する周波数分析手段と
    をさらに有することを特徴とする放射信号可視化装置。
  6.  請求項5記載の放射信号可視化装置であって、
     前記周波数情報検出センサは、周波数情報を含む信号を検出する電磁界検出センサ又は音検出センサであることを特徴とする放射信号可視化装置。
  7.  請求項1乃至4のいずれかに記載の放射信号可視化装置であって、
     前記センサは、放射線を検出し、この検出信号をデジタル化して前記検出信号として出力する放射線検出センサであることを特徴とする放射信号可視化装置。
  8.  請求項1乃至4のいずれかに記載の放射信号可視化装置であって、
     前記センサは、温度を検出し、この検出信号をデジタル化して前記検出信号として出力する温度検出センサであることを特徴とする放射信号可視化装置。
PCT/JP2013/055175 2012-04-20 2013-02-27 放射信号可視化装置 WO2013157305A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112013001946.9T DE112013001946B4 (de) 2012-04-20 2013-02-27 Emissionssignal-Visualisierungsvorrichtung
US14/513,310 US9417128B2 (en) 2012-04-20 2014-10-14 Emission signal visualization device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-097176 2012-04-20
JP2012097176 2012-04-20
JP2012259631A JP5205547B1 (ja) 2012-04-20 2012-11-28 放射信号可視化装置
JP2012-259631 2012-11-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/513,310 Continuation US9417128B2 (en) 2012-04-20 2014-10-14 Emission signal visualization device

Publications (1)

Publication Number Publication Date
WO2013157305A1 true WO2013157305A1 (ja) 2013-10-24

Family

ID=48713079

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/055175 WO2013157305A1 (ja) 2012-04-20 2013-02-27 放射信号可視化装置

Country Status (5)

Country Link
US (1) US9417128B2 (ja)
JP (1) JP5205547B1 (ja)
CN (1) CN103376367B (ja)
DE (1) DE112013001946B4 (ja)
WO (1) WO2013157305A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104299493A (zh) * 2014-10-29 2015-01-21 上海大学 一种基于增强现实的电磁场教学与实验系统
WO2016009872A1 (ja) * 2014-07-15 2016-01-21 株式会社白寿生科学研究所 可視化装置および可視化方法
CN104299493B (zh) * 2014-10-29 2017-01-04 上海大学 一种基于增强现实的电磁场教学与实验系统

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6467404B2 (ja) 2013-03-14 2019-02-13 ヤンセン ファーマシューティカ エヌ.ベー. P2x7モジュレーター
EP3321266A1 (en) 2013-03-14 2018-05-16 Janssen Pharmaceutica NV P2x7 modulators
TWI599567B (zh) 2013-03-14 2017-09-21 健生藥品公司 P2x7調節劑
JP6158134B2 (ja) * 2014-04-24 2017-07-05 株式会社東芝 放電位置特定装置、放電位置計測装置および放電位置特定方法
EP3191492B1 (en) 2014-09-12 2019-01-09 Janssen Pharmaceutica NV P2x7 modulators
ITUA20163620A1 (it) * 2016-05-19 2017-11-19 Milano Politecnico Sistema e metodo per rilevare una grandezza ambientale e mapparne una distribuzione in un ambiente
WO2018123801A1 (ja) * 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
CN107132567B (zh) * 2017-03-25 2019-06-18 浙江君安检测技术有限公司 封闭空间内X、γ射线电离辐射强度检测方法
JPWO2018211904A1 (ja) * 2017-05-16 2020-03-19 コニカミノルタ株式会社 測定システムおよび測定システムにおける通信処理方法
US11306937B2 (en) * 2018-08-24 2022-04-19 Pixart Imaging Inc. Temperature detecting device and air conditioner
CN112739976B (zh) * 2018-09-28 2023-05-12 松下知识产权经营株式会社 尺寸测量装置以及尺寸测量方法
CN110333396A (zh) * 2019-06-17 2019-10-15 广州视源电子科技股份有限公司 场强成像系统及其成像方法
CN112132921A (zh) * 2020-09-15 2020-12-25 扬芯科技(深圳)有限公司 测试数据的展示方法、装置、设备及存储介质
JP2022080675A (ja) * 2020-11-18 2022-05-30 Tdk株式会社 電磁環境分析システム、電磁環境分析方法、及び、プログラム
JP2022080680A (ja) 2020-11-18 2022-05-30 Tdk株式会社 電磁環境分析システム、電磁環境分析方法、及び、プログラム
JP7474183B2 (ja) 2020-11-18 2024-04-24 Tdk株式会社 電磁環境分析システム、電磁環境分析方法、及び、プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04205570A (ja) * 1990-11-30 1992-07-27 Hitachi Plant Eng & Constr Co Ltd 三次元温度分布表示方法
JPH0658970A (ja) * 1992-08-11 1994-03-04 Matsushita Electric Ind Co Ltd 両面妨害測定装置
JP2769472B2 (ja) * 1992-05-06 1998-06-25 栃木県 ノイズファインダー装置
JP2003066079A (ja) * 2001-08-30 2003-03-05 Ricoh Co Ltd 電磁妨害波測定装置
JP2003329716A (ja) * 2002-05-15 2003-11-19 Ricoh Co Ltd 電磁妨害波測定装置
WO2009028186A1 (ja) * 2007-08-29 2009-03-05 Kanazawa University 電磁界空間分布可視化装置、電磁界空間分布可視化方法およびそのプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002319034A (ja) * 2001-04-23 2002-10-31 Pfu Ltd 電磁波シミュレーション装置及び方法、3次元モデルデータ生成装置
CN101013202A (zh) * 2006-07-04 2007-08-08 李溢雯 三维可视显示方法及其装置
JP5434761B2 (ja) 2010-04-08 2014-03-05 株式会社ニコン 撮像デバイスおよび撮像装置
JP5573603B2 (ja) 2010-11-01 2014-08-20 日産化学工業株式会社 トリアジン環含有重合体およびそれを含む膜形成用組成物
CN102141587A (zh) * 2010-12-03 2011-08-03 湖州电力局 一种雷电定位数据成图方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04205570A (ja) * 1990-11-30 1992-07-27 Hitachi Plant Eng & Constr Co Ltd 三次元温度分布表示方法
JP2769472B2 (ja) * 1992-05-06 1998-06-25 栃木県 ノイズファインダー装置
JPH0658970A (ja) * 1992-08-11 1994-03-04 Matsushita Electric Ind Co Ltd 両面妨害測定装置
JP2003066079A (ja) * 2001-08-30 2003-03-05 Ricoh Co Ltd 電磁妨害波測定装置
JP2003329716A (ja) * 2002-05-15 2003-11-19 Ricoh Co Ltd 電磁妨害波測定装置
WO2009028186A1 (ja) * 2007-08-29 2009-03-05 Kanazawa University 電磁界空間分布可視化装置、電磁界空間分布可視化方法およびそのプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016009872A1 (ja) * 2014-07-15 2016-01-21 株式会社白寿生科学研究所 可視化装置および可視化方法
JP2016019700A (ja) * 2014-07-15 2016-02-04 株式会社白寿生科学研究所 可視化装置および可視化方法
CN104299493A (zh) * 2014-10-29 2015-01-21 上海大学 一种基于增强现实的电磁场教学与实验系统
CN104299493B (zh) * 2014-10-29 2017-01-04 上海大学 一种基于增强现实的电磁场教学与实验系统

Also Published As

Publication number Publication date
JP5205547B1 (ja) 2013-06-05
JP2013238581A (ja) 2013-11-28
CN103376367B (zh) 2015-07-22
DE112013001946T5 (de) 2015-01-15
DE112013001946B4 (de) 2019-06-13
US20150029190A1 (en) 2015-01-29
US9417128B2 (en) 2016-08-16
CN103376367A (zh) 2013-10-30

Similar Documents

Publication Publication Date Title
WO2013157305A1 (ja) 放射信号可視化装置
US9117278B2 (en) System and method for geometric modeling using multiple data acquisition means
WO2014192316A1 (ja) モデリング装置、3次元モデル生成装置、モデリング方法、プログラム、レイアウトシミュレータ
JP6635690B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9841277B2 (en) Graphical feedback during 3D scanning operations for obtaining optimal scan resolution
JP5538667B2 (ja) 位置姿勢計測装置及びその制御方法
JP6310149B2 (ja) 画像生成装置、画像生成システム及び画像生成方法
WO2013186160A1 (en) Closed loop 3d video scanner for generation of textured 3d point cloud
JP6377536B2 (ja) 空間情報可視化装置、プログラムおよび空間情報可視化方法
US20200107004A1 (en) Information processing apparatus, information processing method, and storage medium
JP5611875B2 (ja) 情報表示装置、情報表示方法、及びプログラム
Wujanz et al. Model based viewpoint planning for terrestrial laser scanning from an economic perspective
JPWO2013108391A1 (ja) 画像処理装置、立体画像表示装置、および、画像処理方法
JP5595207B2 (ja) 医用画像表示装置
CN112669392A (zh) 一种应用于室内视频监控系统的地图定位方法及系统
WO2019230171A1 (ja) レーザ較正装置、その較正方法、及びレーザ較正装置を含む画像入力装置
KR101260220B1 (ko) 방사 신호 가시화 장치
JP2020060907A (ja) 避雷保護範囲生成システムおよびプログラム
JP2023018180A (ja) 計測システム及び計測方法
He et al. Optical tracking based EM-field probing system for EMC near field manual scanning
JP2015203597A (ja) 情報処理装置、情報処理方法、プログラム
JP2022080683A (ja) 電磁環境分析システム、電磁環境分析方法、及び、プログラム
AU2020277020A1 (en) Novel systems and methods for collecting, locating and visualizing sensor signals in extended reality
CN116958220B (zh) 相机视野范围的生成方法及装置、存储介质、电子设备
JP2013027433A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13777468

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112013001946

Country of ref document: DE

Ref document number: 1120130019469

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13777468

Country of ref document: EP

Kind code of ref document: A1