WO2022190622A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2022190622A1
WO2022190622A1 PCT/JP2022/001100 JP2022001100W WO2022190622A1 WO 2022190622 A1 WO2022190622 A1 WO 2022190622A1 JP 2022001100 W JP2022001100 W JP 2022001100W WO 2022190622 A1 WO2022190622 A1 WO 2022190622A1
Authority
WO
WIPO (PCT)
Prior art keywords
vibration
frequency
information
information processing
event
Prior art date
Application number
PCT/JP2022/001100
Other languages
English (en)
French (fr)
Inventor
佳孝 宮谷
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US18/263,657 priority Critical patent/US20240073552A1/en
Priority to JP2023505155A priority patent/JPWO2022190622A1/ja
Priority to EP22766590.8A priority patent/EP4306918A1/en
Publication of WO2022190622A1 publication Critical patent/WO2022190622A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/47Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H9/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M7/00Vibration-testing of structures; Shock-testing of structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a program, and particularly relates to an information processing device, an information processing method, and a program that enable more suitable vibration monitoring.
  • Patent Document 1 discloses a vibration analysis system that calculates a phase difference that represents the vibration state of an object to be inspected based on time-series images.
  • the present disclosure has been made in view of such circumstances, and is intended to realize more suitable vibration monitoring.
  • the information processing apparatus of the present disclosure outputs from an event-based vision sensor (EVS), based on event data including pixel positions, times, and polarities at which events, which are brightness changes for each pixel, have occurred. It is an information processing apparatus including a vibration detection unit that generates vibration information representing
  • the information processing apparatus outputs from an EVS (event-based vision sensor), based on event data including pixel positions, times, and polarities at which events, which are brightness changes for each pixel, have occurred.
  • EVS event-based vision sensor
  • the program of the present disclosure is output to a computer from an EVS (event-based vision sensor), based on event data including the pixel position, time, and polarity of an event that is a brightness change for each pixel. It is a program for executing a process of generating vibration information representing a state.
  • EVS event-based vision sensor
  • vibration-based vision sensor based on event data output from an EVS (event-based vision sensor), including the pixel position, time, and polarity at which an event, which is a brightness change for each pixel, occurred, vibration representing the vibration state of the subject Information is generated.
  • EVS event-based vision sensor
  • FIG. 1 is a diagram showing a configuration example of a vibration monitoring system according to an embodiment of the present disclosure
  • FIG. 7 is a flowchart for explaining the flow of vibration detection processing; It is a figure explaining generation of frequency two-dimensional data. It is a figure explaining the specific example of calculation of a frequency. It is a figure explaining the example of calculation of amplitude.
  • 4 is a flowchart for explaining the flow of displaying frequency images. It is a figure explaining calculation of the amplitude of the vibration in real space. It is a figure explaining calculation of the amplitude of the vibration in real space. It is a figure explaining the restoration of a luminance change.
  • FIG. 10 is a diagram showing an example of frequency separation when the EVS camera is vibrating; 4 is a flowchart for explaining the flow of frequency separation; 1 is a diagram illustrating a configuration example of an EVS camera according to an embodiment of the present disclosure; FIG. FIG. 4 is a diagram showing an example of a companion chip; It is a figure explaining the application example of the technique which concerns on this indication. It is a figure explaining the application example of the technique which concerns on this indication. It is a figure explaining the application example of the technique which concerns on this indication. It is a figure explaining the application example of the technique which concerns on this indication. It is a block diagram which shows the structural example of a computer.
  • a vibration sensor usually measures the displacement of one point on the surface of the object to be measured. Therefore, in order to grasp the vibration state of the entire object, a plurality of vibration sensors are required, which lengthens the measurement time.
  • contact-type vibration sensors that measure vibration by contacting an object may malfunction or be damaged by the vibration of the object.
  • a non-contact type vibration sensor that uses reflection of laser light or the like requires a light source and is therefore expensive.
  • an event-based vision sensor (hereafter referred to as EVS) that asynchronously outputs pixel data in an event-based manner has been known as an image sensor that outputs images in such a frame-based manner.
  • the EVS asynchronously detects the brightness change of each pixel as an event and outputs only the data of the pixel where the event is detected, so it is possible to output data with high efficiency, high speed and low delay.
  • EVS has features such as high time resolution and low power consumption compared to conventional image sensors.
  • FIG. 1 is a diagram showing a configuration example of a vibration monitoring system that is one embodiment of the present disclosure.
  • the vibration monitoring system in FIG. 1 consists of an EVS camera 10 and an information processing device 20.
  • the EVS camera 10 has an EVS (event-based vision sensor) 11 and outputs event data to the information processing device 20 by photographing a subject whose vibration is to be monitored.
  • EVS event-based vision sensor
  • the EVS 11 is configured to include a plurality of pixels arranged in a matrix, for example.
  • the EVS 11 detects a luminance change of a pixel as an event, and asynchronously outputs event data for each pixel in which an event has occurred. Note that the event data for each pixel does not necessarily have to be output asynchronously.
  • the event data includes information on the pixel position (coordinates) (x, y) of the pixel where the event occurred, time t, and polarity p.
  • the polarity p is binary information representing an increase or decrease in the luminance value of each pixel compared to before the event occurred.
  • the event data is data that is output when the luminance value changes by a predetermined threshold value or more, and is not output unless the luminance value changes by the threshold value or more. Therefore, the data is extremely sparse compared to the image data output by the frame-based method.
  • the information processing device 20 is configured as a computer such as a personal computer (PC), for example.
  • the information processing device 20 includes an input section 21 , a processing section 22 and a display section 23 .
  • the input unit 21 is configured by a connection interface that connects the EVS camera 10 and the information processing device 20 .
  • the input unit 21 inputs event data for each pixel output from the EVS 11 to the processing unit 22 .
  • the processing unit 22 is composed of a processor such as a CPU (Central Processing Unit).
  • the processing unit 22 executes predetermined processing based on the event data from the input unit 21 and supplies the processing result to the display unit 23 .
  • the display unit 23 is configured by a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like.
  • the display unit 23 displays information according to the processing result from the processing unit 22 .
  • the display unit 23 may be provided outside the information processing device 20 .
  • the processing unit 22 implements the vibration detection unit 30 and the display control unit 40 by executing a predetermined program.
  • the vibration detection unit 30 generates vibration information representing the vibration state of the subject whose vibration is to be monitored, based on the event data for each pixel output from the EVS 11 , and supplies the vibration information to the display control unit 40 .
  • the vibration information includes the frequency and amplitude of vibration of the subject.
  • the vibration detector 30 is composed of a frequency calculator 31 and an amplitude calculator 32 .
  • the frequency calculation unit 31 calculates the vibration frequency of the subject as the vibration information described above. Specifically, the frequency calculator 31 generates two-dimensional frequency data having frequency information representing the frequency for each pixel position of the pixels of the EVS 11 based on the event data output during a predetermined period.
  • the frequency two-dimensional data is two-dimensional array data having, as pixel values, the frequency of vibration of the subject only at the pixel positions corresponding to the vibrating subject in the imaging range of the EVS camera 10 .
  • the luminance change is large at the edge (outline) of the vibrating subject. Information is retained.
  • the amplitude calculator 32 calculates the amplitude of the vibration of the subject as the vibration information described above based on the frequency two-dimensional data generated by the frequency calculator 31 . Specifically, the amplitude calculator 32 calculates the amplitude of the vibration of a subject, which is a pixel area having the same frequency information (pixel value) in the frequency two-dimensional data. In the frequency two-dimensional data, the continuous pixel length of the pixel region corresponding to the edge portion of the object corresponds to the amplitude of vibration of the object.
  • the frequency and amplitude of the vibration of the subject are calculated as vibration information.
  • the display control unit 40 causes the display unit 23 to display a display image that visualizes the vibration state of the subject based on the vibration information generated by the vibration detection unit 30 by controlling the display unit 23 . Specifically, the display control unit 40 controls display of a display image having display information corresponding to frequency information for each pixel position based on the two-dimensional frequency data generated by the frequency calculation unit 31 .
  • step S ⁇ b>11 the vibration detection unit 30 acquires event data (x, y, t, p) input from the input unit 21 .
  • the EVS 11 outputs event data for each pixel in which an event (pixel brightness change) has occurred in units of microseconds.
  • step S12 the frequency calculation unit 31 calculates the vibration frequency of the subject based on the event data output from the EVS 11 during a predetermined period.
  • event data (x, y, t, p) for a predetermined period. event data is acquired.
  • the time series of polarities p of events occurring at respective pixel positions are indicated by upward and downward arrows.
  • An upward arrow indicates that the luminance value of the pixel has increased by a predetermined threshold or more
  • a downward arrow indicates that the luminance value of the pixel has decreased by a predetermined threshold or more.
  • frequency information (the frequency of the subject corresponding to the pixel) is calculated based on the time interval t at which the event of the same polarity occurs at the same pixel position.
  • the event indicated by the upward arrow occurs at intervals of 100 ms
  • the event indicated by the downward arrow also occurs at 100 ms intervals. occurring at intervals.
  • the vibration frequency of the object corresponding to the pixel position (x0, y0) is calculated to be 10 Hz.
  • the frequency of vibration of the subject corresponding to pixel position (x1, y1) is 20 Hz
  • the frequency of vibration of the subject corresponding to pixel position (x2, y2) is 9 Hz
  • the frequency of vibration of the subject corresponding to pixel position (x3 , y3) is calculated to be 21 Hz.
  • frequency two-dimensional data 100 having frequency information for each pixel position (x, y) is generated.
  • the frequency two-dimensional data 100 is generated for each predetermined period.
  • the event Ep indicating the increase of the brightness value occurs continuously as indicated by the circle
  • the event Ep is indicated by the triangle.
  • the event En representing the increase in luminance value occurs continuously.
  • the frequency calculation target event when events of the same polarity occur consecutively, the event that is temporally leading among the consecutive events of the same polarity is set as the frequency calculation target event, and the frequency calculation target event is generated.
  • the frequency information is calculated based on the time interval.
  • the amplitude calculation unit 32 calculates the amplitude of the vibration of the object based on the two-dimensional frequency data. calculate.
  • pixels having the same frequency information in the frequency two-dimensional data are grouped into one pixel region.
  • three pixels are grouped into one pixel area PG. Since the subjects corresponding to the pixel regions PG grouped in this manner vibrate at the same frequency, they are presumed to be one subject.
  • the objects corresponding to the pixel area PG are regarded as one object if they are temporally continuous. Note that, as shown in FIG. 5, the intervals at which events of different polarities occur differ depending on the pixel positions corresponding to the edge portions of the vibrating object. For example, the closer the pixel is to the apex of the vibration amplitude of the edge portion, the shorter the intervals at which events of different polarities occur.
  • the amplitude of the vibration of the subject is calculated with the pixel region PG as one subject.
  • the amplitude of vibration is calculated based on the pixel continuous length (three pixels in the example of FIG. 5) of the pixel region PG. That is, in the image captured by the EVS 11, the subject corresponding to the pixel area PG vibrates with an amplitude of 3 pixels. Therefore, the amplitude calculated here is not the amplitude of the vibration of the object in real space.
  • step S14 the vibration detection unit 30 outputs the frequency and amplitude of the vibration of the object calculated as described above as vibration information.
  • the vibration of the object can be detected based on the event data output from the EVS. can be measured by
  • the event data output from the EVS is used, it is possible to perform sampling at a sufficient sampling frequency with low power consumption compared to the method using time-series images output by the frame-based method.
  • vibration detection based on event data from the EVS makes it possible to achieve more suitable vibration monitoring.
  • FIG. 6 is a flowchart explaining the flow of displaying frequency images.
  • the processes of steps S31 to S34 are executed for each pixel position (x, y) each time an event occurs in each pixel.
  • the frequency image is displayed at a frame rate of 30 fps, for example.
  • step S ⁇ b>31 the vibration detection unit 30 acquires event data (x, y, t, p) input from the input unit 21 .
  • the EVS 11 outputs event data for each pixel in which an event (pixel brightness change) has occurred in units of microseconds.
  • step S32 the vibration detection unit 30 determines whether or not the polarity p has changed in the event data output each time an event occurs. If it is determined that the polarity p has not changed, the process returns to step S31, and if it is determined that the polarity p has changed, the process proceeds to step S33.
  • step S32 if the events of the same polarity occur consecutively, the event is the first event (event for frequency calculation) among the consecutive events of the same polarity. It is determined whether there is
  • step S33 the frequency calculation unit 31 calculates the frequency based on the interval between the time t of the current event and the time t' of the event at the time of the previous polarity change.
  • step S34 the frequency calculation unit 31 updates the frequency information of the frequency two-dimensional data described with reference to FIG. 3 with the calculated frequency for each pixel position (x, y), and Store t as the time t' of the previous event.
  • step S35 the frequency calculation unit 31 determines whether or not the time for one frame, that is, 1/30 second in this example, has elapsed. If it is determined that the time for one frame has not elapsed, the calculation of the frequency for each pixel position (x, y) and the update of the frequency information are repeated.
  • the frequency calculation unit 31 converts the frequency two-dimensional data containing the most recently updated frequency information for each pixel position (x, y) into It is supplied to the display control unit 40 .
  • the average value of the frequencies calculated for each pixel position (x, y) for one frame may be used as the frequency information. good.
  • step S36 the display control unit 40 displays a frame image of a frequency image having display information corresponding to frequency information for each pixel position (x, y) based on the two-dimensional frequency data from the frequency calculation unit 31. display on the part 23.
  • the display information may be color information or luminance information.
  • the display information is color information
  • a frame image is displayed in which the pixel area is color-coded for each frequency.
  • the display information is brightness information, for example, a frame image having a brighter pixel area is displayed as the frequency is higher.
  • step S31 the process returns to step S31, and the subsequent processes are repeated as the process for displaying the next frame image.
  • the frequency and amplitude of the vibration of the subject can be calculated as the vibration information based on the event data output from the EVS.
  • the amplitude calculated in the vibration detection process is not the amplitude of the vibration of the object in real space.
  • the vibration of the subject in the image captured by the EVS 11 differs depending on the vibration direction of the subject and from which direction the subject is captured (the subject's capturing direction).
  • the amplitude calculator 32 calculates the amplitude of the vibration of the subject in real space based on the relationship between the vibration direction of the subject and the shooting direction of the EVS camera 10 .
  • the amplitude calculator 32 calculates the vibration projected on the XY plane and the vibration projected on the YZ plane, as shown in FIG. , and the amplitude of each vibration projected onto the XZ plane. Then, the amplitude calculator 32 obtains the amplitude of the vibration in the three-dimensional space based on the amplitude of each vibration projected onto the three planes.
  • the amplitude obtained as described above is the pixel-by-pixel amplitude on the image captured by the EVS 11, not the real-scale amplitude in the real space.
  • the amplitude calculator 32 calculates the real-scale amplitude of the vibration of the subject in real space based on the relationship between the distance to the subject and the lens focal length of the EVS camera 10 .
  • the amplitude calculator 32 converts the coordinates on the image coordinate system (x, y) projected onto the image plane 150I to the camera coordinate system (X, Y) based on the lens focal length. to the coordinates of Based on the distance from the EVS camera 10 to the subject SB, the amplitude calculator 32 transforms the coordinates on the camera coordinate system (X, Y) into the coordinates on the real space plane 150W in the world coordinate system. As a result, the pixel-by-pixel amplitude on the image captured by the EVS 11 is converted to real-scale amplitude.
  • the amplitude of the vibration of the subject in the real space can be calculated.
  • the left diagram of FIG. 9 shows an example of luminance change at a predetermined pixel position (x, y).
  • event data is output when the luminance value changes by a predetermined threshold or more.
  • the luminance value of the pixel increases by the threshold value Lth or more at times t 1 , t 2 , and t 3
  • the luminance value of the pixel increases by the threshold value Lth or more at times t 4 and t 5 .
  • the occurrence of the polarity event indicated by the upward arrow is assumed to be the addition of the luminance value for the threshold Lth
  • the occurrence of the polarity event indicated by the downward arrow is assumed to be the subtraction of the luminance value for the threshold Lth.
  • the frequency calculation unit 31 restores the luminance change for each pixel as shown in FIG. 9 based on the polarity time series included in the event data. Then, the frequency calculation unit 31 can calculate frequency information by performing frequency analysis on the restored brightness change using FFT (Fast Fourier Transform).
  • FFT Fast Fourier Transform
  • the threshold value Lth is decreased, noise also increases, so noise removal processing may be performed on the restored luminance change.
  • the vibration detected by the vibration detection unit 30 includes both the vibration of the subject and the vibration of the EVS camera 10 . In this case, in order to detect only the vibration of the subject, it is necessary to separate the frequency of the vibration detected by the vibration detection section 30 .
  • the EVS camera 10 can calibration.
  • the EVS camera 10 is calibrated in a shooting direction in which the subject vibration projected on the camera plane and the camera vibration are orthogonal.
  • FIG. 11 is a flowchart explaining the flow of frequency separation using luminance changes for each pixel restored based on event data.
  • step S ⁇ b>51 the vibration detection unit 30 acquires event data (x, y, t, p) input from the input unit 21 .
  • the EVS 11 outputs event data for each pixel in which an event (pixel brightness change) has occurred in units of microseconds.
  • event data for a certain period of time is acquired.
  • step S52 the frequency calculation unit 31 restores luminance changes for each pixel based on the time series of the polarity p included in the acquired event data, as described with reference to FIG.
  • step S53 the frequency calculation unit 31 performs frequency analysis on the restored luminance change.
  • step S54 the frequency calculation unit 31 determines whether a plurality of frequency components (specifically, two frequency components) are mixed in the result of frequency analysis. If it is determined that a plurality of frequency components are mixed, the process proceeds to step S55.
  • a plurality of frequency components specifically, two frequency components
  • the frequency calculator 31 removes the frequency component of the vibration of the EVS camera 10 from the multiple frequency components.
  • the frequency component of the vibration of the EVS camera 10 can be obtained by detecting the vibration of the EVS camera 10 from event data obtained by photographing a stationary subject with the EVS camera 10 vibrating in advance.
  • step S55 is skipped.
  • the result of the frequency analysis is the vibration frequency of the object or the vibration frequency of the EVS camera 10 .
  • frequency separation can be performed from luminance changes for each pixel restored based on event data.
  • the combination of the vibration of the subject and the vibration of the EVS camera 10 and the brightness change due to these vibrations may be learned by simulating various patterns. As a result, it is possible to easily detect the vibration of the object and the vibration of the EVS camera 10 from the luminance change restored based on the event data.
  • the vibration detection unit 30 is implemented by the processing unit 22 of the information processing device 20 configured as a computer, but may be implemented within the EVS camera.
  • FIG. 12 is a diagram showing a configuration example of an EVS camera that is one embodiment of the present disclosure.
  • the EVS camera 210 in FIG. 12 includes an EVS (event-based vision sensor) 211 and a processing section 212.
  • the EVS 211 like the EVS 11 in FIG. 1, detects changes in luminance of pixels as events, and outputs event data for each pixel where an event has occurred.
  • the processing unit 212 is composed of a processor such as a CPU.
  • the processing unit 212 implements the vibration detection unit 30 by executing a predetermined program. Vibration information representing the vibration state of the subject generated by the vibration detection unit 30 is output to an external device or the like connected to the EVS camera 210 .
  • the processor that configures the processing unit 212 may be, for example, integrated into one chip together with the EVS 211, or may be mounted on a companion chip or the like electrically connected to the EVS 211.
  • the processing unit 212 When the processing unit 212 is mounted on a companion chip separate from the EVS 211, as shown in FIG. 13, the EVS 211 and the companion chip 231 can be stacked to be electrically connected to each other. .
  • FIG. 14 is a diagram illustrating a configuration example of a failure prediction system.
  • the failure prediction system in FIG. 14 predicts the presence or absence of a failure in the vibration monitoring target object 300 by monitoring the vibration of the vibration monitoring target object 300 .
  • the vibration monitoring target object 300 is, for example, a plurality of facilities and equipment installed in a factory or the like.
  • the failure prediction system in FIG. 14 is composed of an EVS camera 310, a vibration analyzer 320, and an information presentation device 330.
  • the EVS camera 310 corresponds to the EVS camera 10 in FIG. 1, and the vibration analysis device 320 and the information presentation device 330 correspond to the information processing device 20 in FIG.
  • the vibration analyzer 320 analyzes the vibration of the vibration monitoring target object 300 based on the event data from the EVS camera 310 .
  • the vibration analysis device 320 analyzes the vibration of the vibration monitoring target object 300 by using techniques such as time-series analysis and anomaly detection algorithm.
  • the information presentation device 330 presents information based on the analysis results of vibration by the vibration analysis device 320 . For example, when abnormal vibration is detected in a part of the vibration monitoring target object 300, the information presentation device 330 detects the abnormal vibration in the frequency image that visualizes the frequency two-dimensional data generated by the vibration analysis device 320. The detected part is highlighted or surrounded by a frame. Further, in this case, the information presentation device 330 may output a predetermined alarm by display or sound.
  • vibration analyzer 320 feeds back control parameters for controlling vibration monitoring target object 300 to vibration monitoring target object 300, as shown in FIG. good too.
  • a control parameter is, for example, a current value or a voltage value for driving the vibration monitoring target object 300 .
  • vibration analysis device 320 feeds back ROI (Region of Interest) and a threshold for event data output to EVS camera 310.
  • ROI Region of Interest
  • the ROI is fed back to the EVS camera 310, so that the EVS camera 310 can perform shooting centering on the pixel area where the event occurs, and can output the event data more efficiently.
  • the EVS camera 310 can output event data more appropriately in response to changes in luminance, and can prevent erroneous detection and omission of detection of vibration. .
  • FIG. 16 is a diagram showing a configuration example of a microvibration detection system.
  • the minute vibration detection system in FIG. 16 monitors minute vibrations of the vibration monitoring target object 400 .
  • the micro-vibration detection system in FIG. 16 consists of an EVS camera 410, a vibration detection device 420, and an active light source 430.
  • the EVS camera 410 corresponds to the EVS camera 10 in FIG. 1, and the vibration detection device 420 corresponds to the information processing device 20 in FIG.
  • the vibration detection device 420 detects vibrations of the vibration monitoring target object 400 based on event data from the EVS camera 410 .
  • the active light source 430 irradiates light onto the surface of the vibration monitoring object 400 vibrating with minute amplitude.
  • the EVS camera 410 captures the reflected light reflected by the surface of the vibration monitoring target object 400 as a subject.
  • the vibration amplitude w of the vibration monitoring target object 400 changes within one pixel in the imaging range of the EVS camera 410, even if the vibration monitoring target object 400 is captured as a subject, the vibration is not detected.
  • the vibration of the vibration monitoring target object 400 is detected by increasing the amplitude w of the vibration of the vibration monitoring target object 400 (area where the brightness changes) by the reflected light reflected on the surface of the vibration monitoring target object 400. becomes possible.
  • the vibration direction of the vibration monitoring target object 400 is not specified. It is also possible to
  • Computer configuration example> The series of processes described above can be executed by hardware or by software.
  • a program that constitutes the software is installed in the computer.
  • the computer includes, for example, a computer built into dedicated hardware and a general-purpose personal computer capable of executing various functions by installing various programs.
  • FIG. 17 is a block diagram showing an example of the hardware configuration of a computer that executes the series of processes described above by a program.
  • a CPU 601 In the computer, a CPU 601 , a ROM (Read Only Memory) 602 and a RAM (Random Access Memory) 603 are interconnected by a bus 604 .
  • a bus 604 In the computer, a CPU 601 , a ROM (Read Only Memory) 602 and a RAM (Random Access Memory) 603 are interconnected by a bus 604 .
  • An input/output interface 605 is further connected to the bus 604 .
  • An input unit 606 , an output unit 607 , a storage unit 608 , a communication unit 609 and a drive 610 are connected to the input/output interface 605 .
  • the input unit 606 consists of a keyboard, mouse, microphone, and the like.
  • the output unit 607 includes a display, a speaker, and the like.
  • a storage unit 608 includes a hard disk, a nonvolatile memory, or the like.
  • a communication unit 609 includes a network interface and the like.
  • a drive 610 drives a removable medium 611 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory.
  • the CPU 601 loads, for example, a program stored in the storage unit 608 into the RAM 603 via the input/output interface 605 and the bus 604, and executes the above-described series of programs. is processed.
  • the program executed by the computer (CPU 601) can be provided by being recorded on removable media 611 such as package media, for example. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 608 via the input/output interface 605 by loading the removable medium 611 into the drive 610 . Also, the program can be received by the communication unit 609 and installed in the storage unit 608 via a wired or wireless transmission medium. In addition, the program can be installed in the ROM 602 or the storage unit 608 in advance.
  • the program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be executed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the present disclosure can be configured as follows.
  • An information processing device comprising a detection unit.
  • the vibration detection unit includes a frequency calculation unit that calculates a frequency of vibration of the subject as the vibration information based on the event data.
  • the frequency calculation unit generates frequency two-dimensional data having frequency information for each pixel position based on the event data output during a predetermined period.
  • the information processing apparatus is luminance information.
  • the vibration detection unit further includes an amplitude calculation unit that calculates the amplitude of vibration of the subject as the vibration information based on the two-dimensional frequency data.
  • the amplitude calculator calculates the amplitude of the vibration of the subject, with pixel regions having the same frequency information in the two-dimensional frequency data as one subject.
  • the amplitude calculation unit calculates an amplitude of vibration of the subject based on a pixel continuous length of the pixel region.
  • the amplitude calculator calculates the amplitude of the vibration of the subject in real space based on the relationship between the direction of vibration of the subject and the shooting direction of the EVS, and the relationship between the distance to the subject and the focal length of the lens.
  • the information processing apparatus according to (11).
  • the frequency calculation unit calculates the frequency information by performing frequency analysis by restoring luminance changes for each pixel based on the time series of the polarities included in the event data. processing equipment.
  • the frequency calculation unit calculates the frequency information by removing a frequency component of the vibration of the EVS from the result of the frequency analysis. .
  • the information processing apparatus configured as a computer.
  • the information processing device configured as a companion chip electrically connected to the EVS.
  • the information processing device Vibration information representing the vibration state of the object is generated based on the event data output from the EVS (event-based vision sensor), which includes the pixel position, time, and polarity at which the event, which is the brightness change of each pixel, occurred. Processing method.
  • Vibration information representing the vibration state of the object is generated based on the event data output from the EVS (event-based vision sensor), which includes the pixel position, time, and polarity at which an event, which is a brightness change for each pixel, occurred. program to run the
  • EVS camera 10 EVS camera, 11 EVS, 20 information processing device, 21 input unit, 22 processing unit, 23 display unit, 30 vibration detection unit, 31 frequency calculation unit, 32 amplitude calculation unit, 40 display control unit, 210 EVS camera, 211 EVS , 212 processing unit, 231 companion chip

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本開示は、より好適な振動モニタリングを実現することができるようにする情報処理装置、情報処理方法、およびプログラムに関する。 振動検出部は、EVSから出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報を生成する。本開示に係る技術は、例えば、振動モニタリングシステムに適用することができる。

Description

情報処理装置、情報処理方法、およびプログラム
 本開示は、情報処理装置、情報処理方法、およびプログラムに関し、特に、より好適な振動モニタリングを実現できるようにする情報処理装置、情報処理方法、およびプログラムに関する。
 従来、時系列で撮影された複数の画像を解析することにより、モニタリング対象となる被写体の振動状態を把握する振動解析方法がある。
 例えば、特許文献1には、時系列画像に基づいて、検査対象の振動状態を表す位相差を算出する振動解析システムが開示されている。
特開2020-186957号公報
 一般的に、振動を計測する場合、計測する振動の周波数の2倍以上のサンプリング周波数でサンプリングする必要がある。
 しかしながら、フレームレートに応じて一定間隔で出力される時系列画像では、そのフレームレートによっては、十分なサンプリング周波数でサンプリングできず、高い周波数の振動を正確にモニタリングできないおそれがあった。
 本開示は、このような状況に鑑みてなされたものであり、より好適な振動モニタリングを実現するようにするものである。
 本開示の情報処理装置は、EVS(イベントベースビジョンセンサ)から出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報を生成する振動検出部を備える情報処理装置である。
 本開示の情報処理方法は、情報処理装置が、EVS(イベントベースビジョンセンサ)から出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報を生成する情報処理方法である。
 本開示のプログラムは、コンピュータに、EVS(イベントベースビジョンセンサ)から出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報を生成する処理を実行させるためのプログラムである。
 本開示においては、EVS(イベントベースビジョンセンサ)から出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報が生成される。
本開示の実施の形態の振動モニタリングシステムの構成例を示す図である。 振動検出処理の流れについて説明するフローチャートである。 周波数二次元データの生成について説明する図である。 周波数の算出の具体例について説明する図である。 振幅の算出の具体例について説明する図である。 周波数画像の表示の流れについて説明するフローチャートである。 実空間における振動の振幅の算出について説明する図である。 実空間における振動の振幅の算出について説明する図である。 輝度変化の復元について説明する図である。 EVSカメラが振動している場合の周波数分離の例を示す図である。 周波数分離の流れについて説明するフローチャートである。 本開示の実施の形態のEVSカメラの構成例を示す図である。 コンパニオンチップの例を示す図である。 本開示に係る技術の適用例について説明する図である。 本開示に係る技術の適用例について説明する図である。 本開示に係る技術の適用例について説明する図である。 コンピュータの構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.従来技術の課題
 2.振動モニタリングシステムの構成例
 3.振動検出処理の流れ
 4.周波数画像の表示
 5.振幅の算出における課題と対策
 6.輝度変化の復元による周波数の算出
 7.EVSカメラが振動している場合の周波数分離
 8.EVSカメラの構成例
 9.本開示に係る技術の適用例
 10.コンピュータの構成例
<1.従来技術の課題>
 振動の計測に用いられる各種の振動センサが知られている。
 通常、振動センサは、計測対象となる物体表面の1点の変位を測定する。そのため、物体全体の振動状態を把握するには、複数の振動センサが必要となり、その分計測時間が長くなる。
 また、物体に接触することで振動を計測する接触型の振動センサは、物体の振動によって故障したり破損したりするおそれがある。レーザ光などの反射を用いた非接触型の振動センサは、光源が必要となるため高コストである。
 非接触で物体全体の振動状態を把握する手法として、時系列で撮影された複数の画像(時系列画像)を解析することにより、モニタリング対象となる被写体の振動状態を把握する振動解析方法がある。
 一般的に、振動を計測する場合、計測する振動の周波数の2倍以上のサンプリング周波数でサンプリングする必要がある。
 しかしながら、フレームレートに応じて一定間隔で出力される時系列画像では、そのフレームレートによっては、十分なサンプリング周波数でサンプリングできず、高い周波数の振動を正確にモニタリングできないおそれがあった。
 このようなフレームベース方式で画像を出力するイメージセンサに対して、近年、イベントベース方式で非同期に画素データを出力するイベントベースビジョンセンサ(以下、EVSという)が知られている。
 EVSは、各画素の輝度変化をイベントとして非同期で検出し、イベントが検出された画素のデータのみを出力するため、高効率で高速、低遅延なデータ出力が可能である。EVSは、従来のイメージセンサと比較して、高時間分解能、低消費電力といった特長を有する。
 そこで、本開示に係る技術においては、EVSからのデータに基づいた振動検出によって、より好適な振動モニタリングを実現する。
<2.振動モニタリングシステムの構成例>
 図1は、本開示の実施の形態の1つである振動モニタリングシステムの構成例を示す図である。
 図1の振動モニタリングシステムは、EVSカメラ10と情報処理装置20から構成される。
 EVSカメラ10は、EVS(イベントベースビジョンセンサ)11を備え、振動のモニタリング対象となる被写体を撮影することで、イベントデータを情報処理装置20に出力する。
 EVS11は、例えば行列状に配置された複数の画素を含むように構成される。EVS11は、画素の輝度変化をイベントとして検出し、イベントが発生した画素毎のイベントデータを非同期に出力する。なお、画素毎のイベントデータは、必ずしも非同期に出力されなくともよい。
 イベントデータは、イベントが発生した画素の画素位置(座標)(x,y)、時刻t、および極性pの情報を含む。極性pは、各画素におけるイベント発生前と比較した輝度値の増減を表す二値の情報である。イベントデータは、輝度値に所定の閾値以上の変化があったときに出力されるデータであり、輝度値に閾値以上の変化がなければ出力されない。したがって、フレームベース方式で出力される画像データに比べて極めてスパースなデータとされる。
 情報処理装置20は、例えばパーソナルコンピュータ(PC)などのコンピュータとして構成される。情報処理装置20は、入力部21、処理部22、および表示部23を備えている。
 入力部21は、EVSカメラ10と情報処理装置20を接続する接続インタフェースにより構成される。入力部21は、EVS11から出力される画素毎のイベントデータを処理部22に入力する。
 処理部22は、CPU(Central Processing Unit)などのプロセッサにより構成される。処理部22は、入力部21からのイベントデータに基づいて所定の処理を実行し、その処理結果を表示部23に供給する。
 表示部23は、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイなどにより構成される。表示部23は、処理部22からの処理結果に応じた情報を表示する。表示部23は、情報処理装置20の外部に設けられてもよい。
 処理部22は、所定のプログラムを実行することにより、振動検出部30と表示制御部40を実現する。
 振動検出部30は、EVS11から出力される画素毎のイベントデータに基づいて、振動のモニタリング対象となる被写体の振動状態を表す振動情報を生成し、表示制御部40に供給する。振動情報には、被写体の振動の周波数と振幅が含まれる。
 振動検出部30は、周波数算出部31と振幅算出部32から構成される。
 周波数算出部31は、EVS11からのイベントデータに基づいて、上述した振動情報として、被写体の振動の周波数を算出する。具体的には、周波数算出部31は、所定期間に出力されたイベントデータに基づいて、EVS11の画素の画素位置毎に周波数を表す周波数情報を有する周波数二次元データを生成する。
 すなわち、周波数二次元データは、EVSカメラ10の撮影範囲において、振動している被写体に対応する画素位置のみに、その被写体の振動の周波数を画素値として有する二次元配列データとなる。EVS11からのイベントデータにおいては、振動している被写体のエッジ(輪郭)部分の輝度変化が大きくなることから、周波数二次元データにおいては、振動している被写体のエッジ部分に対応する画素位置に周波数情報が保持される。
 振幅算出部32は、周波数算出部31により生成された周波数二次元データに基づいて、上述した振動情報として、被写体の振動の振幅を算出する。具体的には、振幅算出部32は、周波数二次元データにおいて、同一の周波数情報(画素値)を有する画素領域を1つの被写体として、その被写体の振動の振幅を算出する。周波数二次元データにおいては、被写体のエッジ部分に対応する画素領域の画素連続長が、その被写体の振動の振幅に対応する。
 このようにして、振動情報として、被写体の振動の周波数と振幅が算出される。
 表示制御部40は、表示部23を制御することで、振動検出部30により生成された振動情報に基づいて、被写体の振動状態を視覚化した表示画像を表示部23に表示させる。具体的には、表示制御部40は、周波数算出部31により生成された周波数二次元データに基づいて、画素位置毎に、周波数情報に応じた表示情報を有する表示画像の表示を制御する。
<3.振動検出処理の流れ>
 次に、図2のフローチャートを参照して、振動検出部30による振動検出処理の流れについて説明する。
 ステップS11において、振動検出部30は、入力部21から入力されたイベントデータ(x,y,t,p)を取得する。EVS11からは、イベント(画素の輝度変化)が発生した画素毎のイベントデータが、μ秒単位で出力される。
 ステップS12において、周波数算出部31は、EVS11から所定期間に出力されたイベントデータに基づいて、被写体の振動の周波数を算出する。
 図3を参照して、周波数の算出の具体例について説明する。
 図3の例では、所定期間のイベントデータ(x,y,t,p)として、画素位置(x0,y0),(x1,y1),(x2,y2),(x3,y3)の4画素のイベントデータが取得されている。
 図3においては、それぞれの画素位置において発生したイベントの極性pの時系列が、上向きの矢印と下向きの矢印で示されている。上向きの矢印は、当該画素の輝度値が所定の閾値以上増加したことを示し、下向きの矢印は、当該画素の輝度値が所定の閾値以上減少したことを示している。
 ここでは、同画素位置において同極性のイベントが発生した時刻tの間隔に基づいて、周波数情報(当該画素に対応する被写体の周波数)が算出される。
 例えば、画素位置(x0,y0)においては、上向きの矢印で示されるイベント(輝度値の増加)が100ms間隔で発生し、同様に、下向きの矢印で示されるイベント(輝度値の減少)も100ms間隔で発生している。この場合、同極性のイベントが100msおきに発生していることから、画素位置(x0,y0)に対応する被写体の振動の周波数は10Hzと算出される。
 図3の例では、同様にして、画素位置(x1,y1)に対応する被写体の振動の周波数は20Hz、画素位置(x2,y2)に対応する被写体の振動の周波数は9Hz、画素位置(x3,y3)に対応する被写体の振動の周波数は21Hzと算出されている。
 そして、画素位置(x,y)毎に周波数情報を有する周波数二次元データ100が生成される。周波数二次元データ100は、所定期間毎に生成される。
 なお、図3の例では、各画素位置において、上向きの矢印で示されるイベント(輝度値の増加)と、下向きの矢印で示されるイベント(輝度値の減少)が交互に発生するものとした。しかしながら、実際には、同極性のイベントが連続して発生するケースがある。
 例えば、図4上段に示されるように、ある画素位置における輝度が、正弦曲線状に変化しているとする。この場合において、輝度値が増加しているときには、丸印で示されるように、輝度値の増加を表すイベントEpが連続して発生し、輝度値が減少しているときには、三角印で示されるように、輝度値の増加を表すイベントEnが連続して発生している。
 このように、同極性のイベントが連続して発生している場合には、連続する同極性のイベントのうちの時間的に先頭となるイベントを周波数算出対象イベントとして、その周波数算出対象イベントが発生した時刻の間隔に基づいて、周波数情報が算出されるようにする。
 以上のようにして、画素位置毎の周波数情報が算出され、周波数二次元データが生成されると、ステップS13において、振幅算出部32は、周波数二次元データに基づいて、被写体の振動の振幅を算出する。
 図5を参照して、振幅の算出の具体例について説明する。
 まず、周波数二次元データにおいて同一の周波数情報を有する画素が1つの画素領域にグルーピングされる。図5の例では、3つの画素が1つの画素領域PGにグルーピングされている。このようにしてグルーピングされた画素領域PGに対応する被写体は、同じ周波数で振動していることから、1つの被写体と推測される。
 さらに、図中右側に示されるように、画素領域PGに対応する各画素において発生したイベントとして、上向きの矢印で示される極性のイベントと下向きの矢印で示される極性のイベントが発生した時刻tが、時間的に連続していれば、画素領域PGに対応する被写体は、1つの被写体としてみなされる。なお、図5に示されるように、異なる極性のイベントの発生間隔は、振動している被写体のエッジ部分に対応する画素位置によって異なる。例えば、エッジ部分の振動の振幅の頂点に近い画素ほど、異なる極性のイベントの発生間隔が短くなる。
 図5の例では、画素領域PGを1つの被写体として、その被写体の振動の振幅が算出される。振動の振幅は、画素領域PGの画素連続長(図5の例では3画素)に基づいて算出される。すなわち、EVS11により撮影された画像上では、画素領域PGに対応する被写体は、3画素の振幅で振動している。したがって、ここで算出される振幅は、実空間における当該被写体の振動の振幅ではない。
 さて、図2のフローチャートに戻り、ステップS14において、振動検出部30は、上述のようにして算出された被写体の振動の周波数と振幅を振動情報として出力する。
 以上の処理によれば、EVSから出力されたイベントデータに基づいて被写体の振動を検出することができるので、複数の振動センサや高コストな光源を必要とせず、同時に多点の変位を非接触で計測することができる。
 また、EVSから出力されたイベントデータが用いられるので、フレームベース方式で出力された時系列画像を用いた手法と比較して、低消費電力で、十分なサンプリング周波数でのサンプリングが可能となる。
 このように、EVSからのイベントデータに基づいた振動検出によって、より好適な振動モニタリングを実現することが可能となる。
<4.周波数画像の表示>
 次に、上述した周波数二次元データを視覚化した表示画像である周波数画像の表示について説明する。
 図6は、周波数画像の表示の流れについて説明するフローチャートである。図6の処理のうち、ステップS31乃至S34の処理は、全ての画素位置(x,y)それぞれについて、各画素においてイベントが発生する毎に実行される。ここでは、周波数画像は、例えば30fpsのフレームレートで表示されるものとする。
 ステップS31において、振動検出部30は、入力部21から入力されたイベントデータ(x,y,t,p)を取得する。上述したように、EVS11からは、イベント(画素の輝度変化)が発生した画素毎のイベントデータが、μ秒単位で出力される。
 ステップS32において、振動検出部30は、イベントが発生する毎に出力されるイベントデータにおいて、極性pが変化したか否かを判定する。極性pが変化していないと判定された場合、ステップS31に戻り、極性pが変化したと判定された場合、ステップS33に進む。
 すなわち、ステップS32においては、同極性のイベントが連続して発生している場合には、当該イベントが、連続する同極性のイベントのうちの時間的に先頭となるイベント(周波数算出対象イベント)であるか否かが判定される。
 ステップS33において、周波数算出部31は、今回のイベントの時刻tと、前回の極性変化時のイベントの時刻t´の間隔に基づいて周波数を算出する。
 ステップS34において、周波数算出部31は、各画素位置(x,y)について、算出された周波数で、図3を参照して説明した周波数二次元データの周波数情報を更新し、今回のイベントの時刻tを、前回のイベントの時刻t´として記憶する。
 ステップS35において、周波数算出部31は、1フレーム分の時間、すなわち、この例では1/30秒が経過したか否かを判定する。1フレーム分の時間が経過していないと判定された場合、各画素位置(x,y)についての周波数の算出と、周波数情報の更新が繰り返される。
 一方、ステップS35において、1フレーム分の時間が経過したと判定された場合、周波数算出部31は、各画素位置(x,y)について直近に更新された周波数情報を含む周波数二次元データを、表示制御部40に供給する。
 ここでは、各画素位置(x,y)について直近に算出された周波数ではなく、各画素位置(x,y)について1フレーム分の時間の間に算出された周波数の平均値を周波数情報としてもよい。
 ステップS36において、表示制御部40は、周波数算出部31からの周波数二次元データに基づいて、画素位置(x,y)毎に周波数情報に応じた表示情報を有する周波数画像のフレーム画像を、表示部23に表示させる。
 表示情報は、色情報であってもよいし、輝度情報であってもよい。表示情報を色情報とした場合、周波数毎に画素領域が色分けされたフレーム画像が表示される。表示情報を輝度情報とした場合、例えば周波数が高いほど明るい画素領域を有するフレーム画像が表示される。
 このようにして、フレーム画像が表示されると、ステップS31に戻り、これ以降の処理が、次のフレーム画像を表示するための処理として繰り返される。
 以上の処理によれば、EVSからのイベントデータに基づいた振動検出結果を、視覚的に表現することが可能となる。
<5.振幅の算出における課題と対策>
 上述した振動検出処理によれば、EVSから出力されたイベントデータに基づいて、振動情報として、被写体の振動の周波数と振幅を算出することができる。しかしながら、振動検出処理において算出される振幅は、実空間における当該被写体の振動の振幅ではない。
 まず、EVS11により撮影された画像における被写体の振動は、その被写体の振動方向と、その被写体がどの方向から撮影されているか(被写体の撮影方向)によって異なる。
 これに対して、振幅算出部32は、被写体の振動方向とEVSカメラ10の撮影方向との関係に基づいて、実空間における被写体の振動の振幅を算出する。
 具体的には、振動のモニタリング対象となる被写体を3方向から撮影することで、振幅算出部32は、図7に示されるように、XY平面に投影される振動、YZ平面に投影される振動、およびXZ平面に投影される振動それぞれの振幅を算出する。そして、振幅算出部32は、3平面に投影された振動それぞれの振幅に基づいて、三次元空間における振動の振幅を求める。
 次に、以上のようにして求められる振幅は、EVS11により撮影された画像上における画素単位の振幅であって、実空間における実スケールの振幅ではない。
 これに対して、振幅算出部32は、被写体までの距離とEVSカメラ10のレンズ焦点距離との関係に基づいて、実空間における被写体の振動の実スケールの振幅を算出する。
 図8に示されるように、振幅算出部32は、レンズ焦点距離に基づいて、画像平面150Iに投影された画像座標系(x,y)上の座標を、カメラ座標系(X,Y)上の座標に変換する。そして、振幅算出部32は、EVSカメラ10から被写体SBまでの距離に基づいて、カメラ座標系(X,Y)上の座標を、ワールド座標系における実空間平面150W上の座標に変換する。これにより、EVS11により撮影された画像上における画素単位の振幅が、実スケールの振幅に変換される。
 以上のようにして、実空間における被写体の振動の振幅を算出することができる。
<6.輝度変化の復元による周波数の算出>
 以上においては、同画素位置において同極性のイベントが発生した時刻tの間隔に基づいて、周波数情報が算出されるものとした。
 これに限らず、イベントデータに含まれる極性の時系列に基づいて、画素毎の輝度変化を復元することで、周波数情報が算出されるようにもできる。
 図9を参照して、輝度変化の復元について説明する。
 図9の左図には、所定の画素位置(x,y)における輝度変化の例が示されている。
 上述したように、イベントデータは、輝度値に所定の閾値以上の変化があったときに出力される。
 図9の左図においては、時刻t,t,tそれぞれにおいて、当該画素の輝度値が閾値Lth以上増加し、時刻t,tそれぞれにおいて、当該画素の輝度値が閾値Lth以上減少している。すなわち、時刻t,t,tそれぞれにおいては、図3における上向きの矢印で示される極性のイベントが発生し、時刻t,tそれぞれにおいては、図3における下向きの矢印で示される極性のイベントが発生している。
 ここで、上向きの矢印で示される極性のイベント発生を、閾値Lth分の輝度値の加算とし、下向きの矢印で示される極性のイベント発生を、閾値Lth分の輝度値の減算とする。そうすると、図9の左図に示される輝度変化は、図9の右図に示されるように、階段状の輝度変化として復元される。
 すなわち、周波数算出部31は、イベントデータに含まれる極性の時系列に基づいて、画素毎の輝度変化を、図9のようにして復元する。そして、周波数算出部31は、復元された輝度変化を、FFT(Fast Fourier Transform)を用いて周波数解析することで、周波数情報を算出することができる。
 上述した例においては、EVS11において設定される閾値Lthが小さいほど、より正確に輝度変化を復元することができる。但し、閾値Lthを小さくした場合には、ノイズも大きくなることから、復元された輝度変化に対してノイズ除去処理を行うようにしてもよい。
<7.EVSカメラが振動している場合の周波数分離>
 振動のモニタリング対象となる被写体を撮影するEVSカメラ10が振動している場合、振動検出部30により検出される振動には、被写体の振動とEVSカメラ10の振動が混在してしまう。この場合、被写体の振動のみを検出するために、振動検出部30により検出される振動に対して周波数分離を行う必要がある。
 例えば、図10の左図に示されるように、三次元空間において、被写体とEVSカメラ10が互いに異なる方向に振動している場合、被写体振動とカメラ振動とを分離できる撮影方向で、EVSカメラ10のキャリブレーションを行うようにする。
 具体的には、図10の右図に示されるように、カメラ平面に投影される被写体振動とカメラ振動とが直交するような撮影方向で、EVSカメラ10のキャリブレーションを行うようにする。
 これにより、被写体の振動のみを検出することが可能となる。
 また、被写体のみが振動している場合と、被写体とEVSカメラ10とが振動している場合では、被写体の輝度変化が大きく異なる。そこで、図10のような振動方向による周波数分離が難しい場合には、イベントデータに基づいて復元された画素毎の輝度変化から、周波数分離を行うこともできる。
 図11は、イベントデータに基づいて復元された画素毎の輝度変化を用いた周波数分離の流れについて説明するフローチャートである。
 ステップS51において、振動検出部30は、入力部21から入力されたイベントデータ(x,y,t,p)を取得する。上述したように、EVS11からは、イベント(画素の輝度変化)が発生した画素毎のイベントデータが、μ秒単位で出力される。ここでは、ある一定期間分のイベントデータが取得されるものとする。
 ステップS52において、周波数算出部31は、図9を参照して説明したように、取得されたイベントデータに含まれる極性pの時系列に基づいて、画素毎の輝度変化を復元する。
 ステップS53において、周波数算出部31は、復元された輝度変化に対して周波数解析を行う。
 ステップS54において、周波数算出部31は、周波数解析の結果において、複数の周波数成分(具体的には2つの周波数成分)が混在しているか否かを判定する。複数の周波数成分が混在していると判定された場合、ステップS55に進む。
 ステップS55において、周波数算出部31は、複数の周波数成分から、EVSカメラ10の振動の周波数成分を除去する。EVSカメラ10の振動の周波数成分は、あらかじめ振動しているEVSカメラ10で静止している被写体を撮影することで得られるイベントデータから、EVSカメラ10の振動を検出することで求められる。
 一方、複数の周波数成分が混在していないと判定された場合、ステップS55はスキップされる。この場合、周波数解析の結果は、被写体の振動の周波数か、または、EVSカメラ10の振動の周波数となる。
 以上のようにして、振動方向による周波数分離が難しい場合であっても、イベントデータに基づいて復元された画素毎の輝度変化から、周波数分離を行うことができる。
 なお、被写体の振動およびEVSカメラ10の振動の組み合わせと、それらの振動による輝度変化を、様々なパターンでシミュレーションすることで学習してもよい。これにより、イベントデータに基づいて復元された輝度変化から、容易に、被写体の振動とEVSカメラ10の振動を検出することができる。
<8.EVSカメラの構成例>
 以上においては、振動検出部30が、コンピュータとして構成される情報処理装置20の処理部22により実現されるものとしたが、EVSカメラ内で実現されてもよい。
 図12は、本開示の実施の形態の1つであるEVSカメラの構成例を示す図である。
 図12のEVSカメラ210は、EVS(イベントベースビジョンセンサ)211と処理部212を備えている。
 EVS211は、図1のEVS11と同様、画素の輝度変化をイベントとして検出し、イベントが発生した画素毎のイベントデータを出力する。
 処理部212は、CPUなどのプロセッサにより構成される。処理部212は、所定のプログラムを実行することにより、振動検出部30を実現する。振動検出部30により生成された、被写体の振動状態を表す振動情報は、EVSカメラ210に接続される外部の機器などに出力される。
 処理部212を構成するプロセッサは、例えば、EVS211とともに1チップ化されてもよいし、EVS211に電気的に接続されるコンパニオンチップなどに搭載されてもよい。
 処理部212が、EVS211とは別のコンパニオンチップに搭載される場合、図13に示されるように、EVS211とコンパニオンチップ231とが積層されることで、互いに電気的に接続されるようにもできる。
<9.本開示に係る技術の適用例>
 以下においては、本開示に係る技術の適用例について説明する。
(故障予測システム)
 図14は、故障予測システムの構成例を示す図である。
 図14の故障予測システムは、振動モニタリング対象物体300の振動をモニタリングすることで、振動モニタリング対象物体300の故障の有無を予測する。
 振動モニタリング対象物体300は、例えば工場などに設置される複数の設備や機器などとされる。
 図14の故障予測システムは、EVSカメラ310、振動分析装置320、および情報提示装置330から構成される。
 EVSカメラ310は、図1のEVSカメラ10に対応し、振動分析装置320と情報提示装置330は、図1の情報処理装置20に対応する。
 振動分析装置320は、EVSカメラ310からのイベントデータに基づいて、振動モニタリング対象物体300の振動を分析する。例えば、振動分析装置320は、時系列解析や異常検出アルゴリズムなどの手法を用いることで、振動モニタリング対象物体300の振動を分析する。
 情報提示装置330は、振動分析装置320による振動の分析結果に基づいた情報を提示する。例えば、振動モニタリング対象物体300の一部において異常な振動が検出された場合、情報提示装置330は、振動分析装置320により生成された周波数二次元データを視覚化した周波数画像において、異常な振動が検出された箇所を強調表示したり、枠で囲うなどする。またこの場合、情報提示装置330は、所定のアラームを表示や音声により出力してもよい。
 また、異常な振動が検出された場合、図14に示されるように、振動分析装置320が、振動モニタリング対象物体300を制御するための制御パラメータを、振動モニタリング対象物体300に対してフィードバックしてもよい。制御パラメータは、例えば振動モニタリング対象物体300を駆動する電流値や電圧値などとされる。
 さらに、異常な振動が検出された場合、図15に示されるように、振動分析装置320が、ROI(Region of Interest)や、イベントデータ出力のための閾値を、EVSカメラ310に対してフィードバックしてもよい。
 EVSカメラ310に対してROIがフィードバックされることで、EVSカメラ310は、イベントが発生している画素領域を中心とした撮影を行うことができ、より効率的にイベントデータを出力することができる。
 また、EVSカメラ310に対して閾値がフィードバックされることで、EVSカメラ310は、輝度変化に対してより適切にイベントデータを出力することができ、振動の誤検出や検出漏れを防ぐことができる。
(微小振動検出システム)
 図16は、微小振動検出システムの構成例を示す図である。
 図16の微小振動検出システムは、振動モニタリング対象物体400の微小な振動をモニタリングする。
 図16の微小振動検出システムは、EVSカメラ410、振動検出装置420、およびアクティブ光源430から構成される。
 EVSカメラ410は、図1のEVSカメラ10に対応し、振動検出装置420は、図1の情報処理装置20に対応する。
 振動検出装置420は、EVSカメラ410からのイベントデータに基づいて、振動モニタリング対象物体400の振動を検出する。
 アクティブ光源430は、微小な振幅で振動する振動モニタリング対象物体400の表面に光を照射する。EVSカメラ410は、振動モニタリング対象物体400の表面で反射された反射光を被写体として撮影する。
 振動モニタリング対象物体400の振動の振幅wが、EVSカメラ410の撮影範囲において1画素以内の変化である場合、振動モニタリング対象物体400を被写体として撮影しても、その振動は検出されない。
 そこで、振動モニタリング対象物体400の表面で反射された反射光により、振動モニタリング対象物体400の振動の振幅w(輝度変化する領域)を増大させることで、振動モニタリング対象物体400の振動を検出することが可能となる。
 なお、図16の例のように、アクティブ光源430が1つの場合、振動モニタリング対象物体400の振動方向は特定されないが、アクティブ光源430を複数設けることで、振動モニタリング対象物体400の振動方向を特定することも可能となる。
<10.コンピュータの構成例>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図17は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU601,ROM(Read Only Memory)602,RAM(Random Access Memory)603は、バス604により相互に接続されている。
 バス604には、さらに、入出力インタフェース605が接続されている。入出力インタフェース605には、入力部606、出力部607、記憶部608、通信部609、およびドライブ610が接続されている。
 入力部606は、キーボード、マウス、マイクロフォンなどよりなる。出力部607は、ディスプレイ、スピーカなどよりなる。記憶部608は、ハードディスクや不揮発性のメモリなどよりなる。通信部609は、ネットワークインタフェースなどよりなる。ドライブ610は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア611を駆動する。
 以上のように構成されるコンピュータでは、CPU601が、例えば、記憶部608に記憶されているプログラムを、入出力インタフェース605およびバス604を介して、RAM603にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU601)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア611に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア611をドライブ610に装着することにより、入出力インタフェース605を介して、記憶部608にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部609で受信し、記憶部608にインストールすることができる。その他、プログラムは、ROM602や記憶部608に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本開示は以下のような構成をとることができる。
(1)
 EVS(イベントベースビジョンセンサ)から出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報を生成する振動検出部
 を備える情報処理装置。
(2)
 前記振動検出部は、前記イベントデータに基づいて、前記振動情報として、前記被写体の振動の周波数を算出する周波数算出部を有する
 (1)に記載の情報処理装置。
(3)
 前記周波数算出部は、所定期間に出力された前記イベントデータに基づいて、前記画素位置毎に周波数情報を有する周波数二次元データを生成する
 (2)に記載の情報処理装置。
(4)
 前記周波数算出部は、同画素位置において同極性の前記イベントが発生した前記時刻の間隔に基づいて、前記周波数情報を算出する
 (3)に記載の情報処理装置。
(5)
 前記周波数算出部は、連続する前記同極性の前記イベントのうちの時間的に先頭となる前記イベントを、周波数算出対象イベントとして、前記周波数情報を算出する
 (4)に記載の情報処理装置。
(6)
 前記周波数二次元データに基づいて、前記画素位置毎に、前記周波数情報に応じた表示情報を有する表示画像の表示を制御する表示制御部をさらに備える
 (3)乃至(5)のいずれかに記載の情報処理装置。
(7)
 前記表示情報は、色情報である
 (6)に記載の情報処理装置。
(8)
 前記表示情報は、輝度情報である
 (6)に記載の情報処理装置。
(9)
 前記振動検出部は、前記周波数二次元データに基づいて、前記振動情報として、前記被写体の振動の振幅を算出する振幅算出部をさらに有する
 (3)乃至(8)のいずれかに記載の情報処理装置。
(10)
 前記振幅算出部は、前記周波数二次元データにおいて同一の前記周波数情報を有する画素領域を1つの前記被写体として、前記被写体の振動の振幅を算出する
 (9)に記載の情報処理装置。
(11)
 前記振幅算出部は、前記画素領域の画素連続長に基づいて、前記被写体の振動の振幅を算出する
 (10)に記載の情報処理装置。
(12)
 前記振幅算出部は、前記被写体の振動方向と前記EVSによる撮影方向との関係、および、前記被写体までの距離とレンズ焦点距離との関係に基づいて、実空間における前記被写体の振動の振幅を算出する
 (11)に記載の情報処理装置。
(13)
 前記周波数算出部は、前記イベントデータに含まれる前記極性の時系列に基づいて前記画素毎の輝度変化を復元して周波数解析を行うことで、前記周波数情報を算出する
 (3)に記載の情報処理装置。
(14)
 前記周波数算出部は、前記EVSが振動している場合、前記周波数解析の結果から、前記EVSの振動の周波数成分を除去することで、前記周波数情報を算出する
 (13)に記載の情報処理装置。
(15)
 コンピュータとして構成される
 (1)乃至(14)のいずれかに記載の情報処理装置。
(16)
 前記EVSに電気的に接続されるコンパニオンチップとして構成される
 (1)乃至(14)のいずれかに記載の情報処理装置。
(17)
 情報処理装置が、
 EVS(イベントベースビジョンセンサ)から出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報を生成する
 情報処理方法。
(18)
 コンピュータに、
 EVS(イベントベースビジョンセンサ)から出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報を生成する
 処理を実行させるためのプログラム。
 10 EVSカメラ, 11 EVS, 20 情報処理装置, 21 入力部, 22 処理部, 23 表示部, 30 振動検出部, 31 周波数算出部, 32 振幅算出部, 40 表示制御部, 210 EVSカメラ, 211 EVS, 212 処理部, 231 コンパニオンチップ

Claims (18)

  1.  EVS(イベントベースビジョンセンサ)から出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報を生成する振動検出部
     を備える情報処理装置。
  2.  前記振動検出部は、前記イベントデータに基づいて、前記振動情報として、前記被写体の振動の周波数を算出する周波数算出部を有する
     請求項1に記載の情報処理装置。
  3.  前記周波数算出部は、所定期間に出力された前記イベントデータに基づいて、前記画素位置毎に周波数情報を有する周波数二次元データを生成する
     請求項2に記載の情報処理装置。
  4.  前記周波数算出部は、同画素位置において同極性の前記イベントが発生した前記時刻の間隔に基づいて、前記周波数情報を算出する
     請求項3に記載の情報処理装置。
  5.  前記周波数算出部は、連続する前記同極性の前記イベントのうちの時間的に先頭となる前記イベントを、周波数算出対象イベントとして、前記周波数情報を算出する
     請求項4に記載の情報処理装置。
  6.  前記周波数二次元データに基づいて、前記画素位置毎に、前記周波数情報に応じた表示情報を有する表示画像の表示を制御する表示制御部をさらに備える
     請求項3に記載の情報処理装置。
  7.  前記表示情報は、色情報である
     請求項6に記載の情報処理装置。
  8.  前記表示情報は、輝度情報である
     請求項6に記載の情報処理装置。
  9.  前記振動検出部は、前記周波数二次元データに基づいて、前記振動情報として、前記被写体の振動の振幅を算出する振幅算出部をさらに有する
     請求項3に記載の情報処理装置。
  10.  前記振幅算出部は、前記周波数二次元データにおいて同一の前記周波数情報を有する画素領域を1つの前記被写体として、前記被写体の振動の振幅を算出する
     請求項9に記載の情報処理装置。
  11.  前記振幅算出部は、前記画素領域の画素連続長に基づいて、前記被写体の振動の振幅を算出する
     請求項10に記載の情報処理装置。
  12.  前記振幅算出部は、前記被写体の振動方向と前記EVSによる撮影方向との関係、および、前記被写体までの距離とレンズ焦点距離との関係に基づいて、実空間における前記被写体の振動の振幅を算出する
     請求項11に記載の情報処理装置。
  13.  前記周波数算出部は、前記イベントデータに含まれる前記極性の時系列に基づいて前記画素毎の輝度変化を復元して周波数解析を行うことで、前記周波数情報を算出する
     請求項3に記載の情報処理装置。
  14.  前記周波数算出部は、前記EVSが振動している場合、前記周波数解析の結果から、前記EVSの振動の周波数成分を除去することで、前記周波数情報を算出する
     請求項13に記載の情報処理装置。
  15.  コンピュータとして構成される
     請求項1に記載の情報処理装置。
  16.  前記EVSに電気的に接続されるコンパニオンチップとして構成される
     請求項1に記載の情報処理装置。
  17.  情報処理装置が、
     EVS(イベントベースビジョンセンサ)から出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報を生成する
     情報処理方法。
  18.  コンピュータに、
     EVS(イベントベースビジョンセンサ)から出力される、画素毎の輝度変化であるイベントが発生した画素位置、時刻、および極性を含むイベントデータに基づいて、被写体の振動状態を表す振動情報を生成する
     処理を実行させるためのプログラム。
PCT/JP2022/001100 2021-03-08 2022-01-14 情報処理装置、情報処理方法、およびプログラム WO2022190622A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/263,657 US20240073552A1 (en) 2021-03-08 2022-01-14 Information processing apparatus, information processing method, and program
JP2023505155A JPWO2022190622A1 (ja) 2021-03-08 2022-01-14
EP22766590.8A EP4306918A1 (en) 2021-03-08 2022-01-14 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021036012 2021-03-08
JP2021-036012 2021-03-08

Publications (1)

Publication Number Publication Date
WO2022190622A1 true WO2022190622A1 (ja) 2022-09-15

Family

ID=83227267

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/001100 WO2022190622A1 (ja) 2021-03-08 2022-01-14 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US20240073552A1 (ja)
EP (1) EP4306918A1 (ja)
JP (1) JPWO2022190622A1 (ja)
TW (1) TW202300875A (ja)
WO (1) WO2022190622A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020120782A1 (en) * 2018-12-13 2020-06-18 Prophesee Method of tracking objects in a scene
WO2020157157A1 (en) * 2019-01-30 2020-08-06 Prophesee Method of processing information from an event-based sensor
WO2020216953A1 (en) * 2019-04-25 2020-10-29 Prophesee Sa Systems and methods for imaging and sensing vibrations
JP2020186957A (ja) 2019-05-10 2020-11-19 国立大学法人広島大学 振動解析システム、振動解析方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020120782A1 (en) * 2018-12-13 2020-06-18 Prophesee Method of tracking objects in a scene
WO2020157157A1 (en) * 2019-01-30 2020-08-06 Prophesee Method of processing information from an event-based sensor
WO2020216953A1 (en) * 2019-04-25 2020-10-29 Prophesee Sa Systems and methods for imaging and sensing vibrations
JP2020186957A (ja) 2019-05-10 2020-11-19 国立大学法人広島大学 振動解析システム、振動解析方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHARLES DORN, SUDEEP DASARI, YONGCHAO YANG, CHARLES FARRAR, GARRETT KENYON, PAUL WELCH, DAVID MASCAREñAS: "Efficient Full-Field Vibration Measurements and Operational Modal Analysis Using Neuromorphic Event-Based Imaging", JOURNAL OF ENGINEERING MECHANICS, AMERICAN SOCIETY OF CIVIL ENGINEERS, NEW YORK, NY, US, vol. 144, no. 7, 1 July 2018 (2018-07-01), US , pages 04018054, XP055713983, ISSN: 0733-9399, DOI: 10.1061/(ASCE)EM.1943-7889.0001449 *

Also Published As

Publication number Publication date
JPWO2022190622A1 (ja) 2022-09-15
TW202300875A (zh) 2023-01-01
EP4306918A1 (en) 2024-01-17
US20240073552A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
CN101888535B (zh) 运动对象检测装置、运动对象检测方法和计算机程序
JP6364845B2 (ja) 振動計測装置
WO2018043251A1 (ja) 欠陥検出装置、欠陥検出方法、及びコンピュータ読み取り可能記録媒体
US11521312B2 (en) Image processing apparatus, image processing method, and storage medium
CN110620887B (zh) 图像生成装置和图像生成方法
JP6703279B2 (ja) 異常検知装置、異常検知方法、及び異常検知プログラム
JP2006293820A (ja) 外観検査装置、外観検査方法およびコンピュータを外観検査装置として機能させるためのプログラム
WO2019117247A1 (ja) 瞳孔検出装置および検出システム
WO2022190622A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2020255728A1 (ja) 振動計測装置、振動計測方法、及びコンピュータ読み取り可能な記録媒体
JP7359607B2 (ja) 振動試験解析装置および振動試験解析方法
WO2020162426A1 (ja) 解析装置、解析方法、およびプログラム、ならびに、センサの構造
KR20090053670A (ko) 엔티에스씨/피에이엘 카메라용 영상 추적 칩 개발 장치
WO2019198534A1 (ja) 振動解析装置、振動解析装置の制御方法、振動解析プログラムおよび記録媒体
JP2023163356A (ja) 損傷箇所特定装置、損傷箇所特定システム、損傷箇所特定方法及びプログラム
US10789705B2 (en) Quality monitoring system
US20230003664A1 (en) Abnormality determination device, abnormality determination method, and program storage medium
JP2022089017A (ja) 情報処理装置、情報処理方法およびプログラム
WO2018207528A1 (ja) 構造物異常診断装置
JP5022981B2 (ja) 荷電粒子線装置
US20220283020A1 (en) Vibration detection system
RU2546714C2 (ru) Способ бесконтактного оптического измерения параметров вибрации механизмов, конструкций и биологических объектов
Muralidharan et al. Comparative Study of Vision Camera-based Vibration Analysis with the Laser Vibrometer Method
US20120288144A1 (en) Image processing apparatus, image processing method, and motion detection system
JP2008175550A (ja) 欠陥検出装置および欠陥検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22766590

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023505155

Country of ref document: JP

Ref document number: 18263657

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2022766590

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022766590

Country of ref document: EP

Effective date: 20231009