WO2023112532A1 - 測定装置、測定方法、プログラム - Google Patents

測定装置、測定方法、プログラム Download PDF

Info

Publication number
WO2023112532A1
WO2023112532A1 PCT/JP2022/040816 JP2022040816W WO2023112532A1 WO 2023112532 A1 WO2023112532 A1 WO 2023112532A1 JP 2022040816 W JP2022040816 W JP 2022040816W WO 2023112532 A1 WO2023112532 A1 WO 2023112532A1
Authority
WO
WIPO (PCT)
Prior art keywords
cluster
unit
feature amount
measuring device
event
Prior art date
Application number
PCT/JP2022/040816
Other languages
English (en)
French (fr)
Inventor
進 高塚
秀仁 佐藤
弘樹 鉄川
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023112532A1 publication Critical patent/WO2023112532A1/ja

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • C12M1/34Measuring or testing with condition measuring or sensing means, e.g. colony counters
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12QMEASURING OR TESTING PROCESSES INVOLVING ENZYMES, NUCLEIC ACIDS OR MICROORGANISMS; COMPOSITIONS OR TEST PAPERS THEREFOR; PROCESSES OF PREPARING SUCH COMPOSITIONS; CONDITION-RESPONSIVE CONTROL IN MICROBIOLOGICAL OR ENZYMOLOGICAL PROCESSES
    • C12Q1/00Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions
    • C12Q1/02Measuring or testing processes involving enzymes, nucleic acids or microorganisms; Compositions therefor; Processes of preparing such compositions involving viable microorganisms
    • C12Q1/04Determining presence or kind of microorganism; Use of selective media for testing antibiotics or bacteriocides; Compositions containing a chemical indicator therefor
    • C12Q1/06Quantitative determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/02Investigating particle size or size distribution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/06Investigating concentration of particle suspensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration

Definitions

  • This technology relates to measurement devices, measurement methods, and programs, and in particular to technology for measurement using a vision sensor.
  • a measuring device for measuring the abundance of phytoplankton by irradiating excitation light of a predetermined wavelength to excite phytoplankton and measuring the intensity of fluorescence emitted from the excited phytoplankton has been proposed (for example, See Patent Document 1).
  • the above measuring device can only measure phytoplankton excited by excitation light.
  • it is conceivable to measure not only phytoplankton, but also zooplankton, organisms such as larvae of aquatic organisms, and non-living organisms such as microplastics, dust, sand, marine snow, and air bubbles. are desired to be classified with high accuracy.
  • the purpose of this technology is to classify target particles with high accuracy.
  • a measurement apparatus includes a vision sensor that includes a plurality of pixels that asynchronously output event signals in accordance with changes in the brightness of incident light, and based on the event signals input within a predetermined period, the same target particle
  • a cluster formation unit that forms a cluster of points of events generated by; a feature amount calculation unit that calculates the feature amount of the cluster; and the cluster based on the feature amount calculated by the feature amount calculation unit.
  • a cluster classifier for classifying. This allows the measurement device to classify clusters based on event signals input from the vision sensor.
  • FIG. 4 is a diagram for explaining calculation of an average velocity of clusters; It is a figure which shows the average speed for every classification. It is a figure explaining calculation of the body length of a cluster. It is a figure explaining the body length for every classification. It is a figure explaining calculation of the body width of a cluster. It is a figure explaining the body width for every classification.
  • FIG. 10 is a diagram for explaining changes in the number of events of type A and frequency components;
  • FIG. 10 is a diagram for explaining changes in the number of events of type C and frequency components;
  • It is a figure explaining cluster combination processing. It is a figure explaining the feature-value for every classification.
  • FIG. 2 is a diagram for explaining the configuration of the measuring device of Usage Example 1; 6 is a flow chart showing the flow of processing in Usage Example 1;
  • FIG. 10 is a diagram illustrating the configuration of the measuring device of Usage Example 2; 10 is a flow chart showing the flow of processing in Usage Example 2.
  • FIG. 10 is a diagram for explaining the configuration of the measuring device of Usage Example 3; 10 is a flow chart showing the flow of processing in use example 3; FIG. 12 is a diagram illustrating the configuration of the measuring device of Usage Example 4; 10 is a flow chart showing the flow of processing in use example 4; FIG. 11 is a diagram for explaining the configuration of the measuring device of Usage Example 5;
  • the measurement device 1 is a device that measures target particles by calculating feature amounts of target particles, for example, biological and non-living organisms that exist in water such as the sea.
  • the measurement is a concept including any of the classification of the type of target particles, the calculation of the number of target particles and the feature amount, the recording and storage of captured images of the target particles, and the like.
  • the organisms to be the target particles are phytoplankton, zooplankton, and aquatic microorganisms such as larvae of aquatic organisms existing in water.
  • the non-living matter to be the target particles includes microplastics, dust, sand, marine snow, air bubbles, and the like.
  • the target particles may be other than these.
  • the target particles may also be particles that move by themselves, such as zooplankton and larvae of aquatic organisms (hereinafter referred to as active particles).
  • the target particles may be particles that do not move by themselves, such as phytoplankton, microplastics, dust, sand, marine snow, air bubbles, etc. (hereinafter referred to as passive particles).
  • FIG. 1 is a diagram for explaining the configuration of the measuring device 1.
  • the measuring device 1 includes a main body portion 2 and an illumination portion 3.
  • the lighting unit 3 may be provided inside the main body unit 2 .
  • the body section 2 includes a vision sensor 11, a lens 12, a signal analysis section 13, a control section 14, a memory 15, a gravity sensor 16, and a communication section 17.
  • FIG. 2 is a diagram for explaining the configuration of the vision sensor 11.
  • FIG. 3 is a diagram explaining an outline of an event signal output from the vision sensor 11. As shown in FIG.
  • the vision sensor 11 is a sensor called DVS (Dynamic Vision Sensor) or EVS (Event-Based Vision Sensor).
  • the vision sensor 11 detects events that occur in a predetermined range underwater through the lens 12 . Note that the event means that the luminance change of incident light exceeds a certain ratio.
  • the vision sensor 11 has a two-dimensional array of pixels each having a photodiode 31, a voltage conversion circuit 32, an asynchronous difference detection circuit 33, and a comparator .
  • the photodiode 31 When the photodiode 31 is irradiated with incident light, it generates a current proportional to the brightness of the incident light by the photoelectric effect.
  • a voltage conversion circuit 32 converts the current generated by the photodiode 31 into a voltage.
  • the asynchronous difference detection circuit 33 detects the difference between the voltage converted by the voltage conversion circuit 32 and the reference voltage.
  • the comparator 34 outputs an event signal (indicated by a black arrow in the figure) indicating that a positive event has occurred when the voltage difference exceeds the positive threshold. Also, the comparator 34 outputs an event signal (indicated by an outline arrow in the figure) indicating that a negative event has occurred when the voltage difference exceeds (falls below) the negative threshold.
  • the event signal contains the coordinates (x, y) of the pixel where the event occurred, the time, and the sign (plus or minus) of the event. Also, the plus threshold and the minus threshold are usually set to predetermined values, but can be changed depending on the situation.
  • a negative event signal is output at time T1.
  • a voltage corresponding to the current luminance is set as the reference voltage.
  • a line corresponding to a positive threshold is set on the positive side of the reference voltage (indicated by a dashed line in the figure), and a line corresponding to a negative threshold is set on the negative side of the reference voltage (dashed line in the figure). ) is set.
  • the vision sensor 11 After that, when the luminance of the incident light drops and falls below the line corresponding to the negative threshold at time T2, the vision sensor 11 outputs a negative event signal. At this time, as at time T1, a voltage corresponding to the current luminance is set as the reference voltage, and lines corresponding to the plus threshold value and the minus threshold value are set.
  • the vision sensor 11 when the luminance of the incident light falls below the line corresponding to the negative threshold at time T3, the vision sensor 11 outputs a negative event signal.
  • a voltage corresponding to the current luminance is set as the reference voltage, and lines corresponding to the plus threshold value and the minus threshold value are set.
  • the vision sensor 11 After that, when the luminance of the incident light rises and exceeds the line corresponding to the plus threshold at time T4, the vision sensor 11 outputs a plus event signal.
  • the vision sensor 11 is an asynchronous image sensor that detects events in real time for each pixel.
  • a synchronous image sensor that executes a readout operation for all pixels at a predetermined frame rate can be used. Also, very high-speed reading is possible, and the amount of data read out for one frame can be reduced.
  • the vision sensor 11 in the measuring device 1, it is possible to detect the movement of the target particles more quickly.
  • the vision sensor 11 can reduce the amount of data and the power consumption.
  • the signal analysis unit 13 is configured with a microcomputer having, for example, a CPU (Central Processing Unit), ROM (Read Only Memory), and RAM (Random Access Memory).
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the signal analysis unit 13 functions as a cluster formation unit 21, a cluster tracking unit 22, a feature amount calculation unit 23, and a cluster classification unit 24 in this embodiment.
  • the cluster forming unit 21 forms a cluster of points of events based on the same target particle.
  • a cluster tracking unit 22 tracks clusters formed by the cluster forming unit 21 .
  • the feature amount calculation unit 23 calculates feature amounts of the clusters formed by the cluster formation unit 21 and tracked by the cluster tracking unit 22 .
  • the cluster classification unit 24 classifies the clusters formed by the cluster formation unit 21 and tracked by the cluster tracking unit 22 based on the feature amount calculated by the feature amount calculation unit 23 . That is, the cluster classification unit 24 classifies the types of target particles that are clustered. Details of the cluster formation unit 21, cluster tracking unit 22, feature quantity calculation unit 23, and cluster classification unit 24 will be described later.
  • the control unit 14 includes, for example, a microcomputer having a CPU, a ROM, and a RAM, and performs overall control of the measuring device 1 . Further, the control unit 14 reads data stored in the memory 15 , stores data in the memory 15 , and transmits/receives various data to/from an external device via the communication unit 17 . Note that the signal analysis unit 13 and the control unit 14 may be configured by the same hardware.
  • the memory 15 is composed of a non-volatile memory.
  • the gravity sensor 16 detects gravitational acceleration (direction of gravity) and outputs the detection result to the control unit 14 .
  • the communication unit 17 performs wired or wireless data communication with an external device. Note that the measuring device 1 does not have to include the gravity sensor 16 .
  • the illumination unit 3 irradiates the imaging range of the vision sensor 11 with light.
  • the illumination unit 3 can switch and irradiate light with different wavelengths, for example, irradiate light with different wavelengths at intervals of 10 nm.
  • FIG. 4 is a flowchart for explaining the flow of signal analysis processing.
  • the cluster formation unit 21 acquires an event signal input from the vision sensor 11 in step S1. As described above, since the vision sensor 11 outputs an event signal when an event is detected for each pixel, the cluster formation unit 21 acquires an event signal for each pixel where an event has occurred as needed. It will be.
  • step S2 the cluster formation unit 21 performs a cluster formation process of forming a cluster of point groups of events based on the same target particle at predetermined intervals (for example, every 1 ms) based on the event signal acquired in step S1. . Details of the cluster forming process will be described later.
  • step S3 the cluster tracking unit 22 performs cluster tracking processing for tracking clusters formed by the cluster forming unit 21 at predetermined intervals (for example, every 1 ms). Details of the cluster tracking process will be described later.
  • step S4 the feature quantity calculation unit 23 performs feature quantity calculation processing for calculating the feature quantity of the cluster formed by the cluster formation unit 21 and tracked by the cluster tracking unit 22. Note that the feature amount calculation process will be described later in detail.
  • step S5 the cluster tracking unit 22 performs a cluster combining process to combine the different clusters into one cluster when multiple different clusters are detected for the same target particle. Details of the cluster combination processing will be described later.
  • step S6 the feature amount calculation unit 23 determines whether the clusters are combined in step S5. Then, when the clusters are combined (Yes in step S6), the feature amount calculation unit 23 performs feature amount calculation processing on the combined clusters in step S7. Note that the feature amount calculation process in step S7 is the same process as the feature amount calculation process in step S4.
  • step S8 the cluster classification unit 24 performs step S4 or step S7. Classify the type of target particles for the cluster based on the feature amount calculated in . Details of the cluster classification process will be described later.
  • FIG. 5 is a diagram for explaining captured images based on event signals.
  • FIG. 6 is a diagram for explaining events in a captured image. Note that in FIG. 6, the pixels of the captured image are represented by a plurality of grids.
  • an event signal readout operation is executed for pixels in which the occurrence of an event has been detected. Therefore, as shown in FIG. 5, when a captured image of one frame is generated based on event signals acquired within a predetermined period of time, point groups of events based on the same target particle appear as clusters 41 . On the other hand, in addition to these clusters 41, many events are captured as noise.
  • the cluster formation unit 21 first removes events that are not events (effective events) based on target particles, that is, events that are noise.
  • the cluster forming unit 21 adds, for example, an event 51 (indicated in black in the figure) based on the event signal acquired within the latest 1 ms, and an earlier event. For example, it is determined whether there are a predetermined number of events 52 (indicated by hatching in the drawing) based on event signals acquired within 3 ms.
  • the predetermined number is set to a value that can distinguish whether the event 51 is noise or part of the cluster 41 .
  • the cluster formation unit 21 regards the event 51 as a valid event. On the other hand, when there are less than the predetermined number of events 52 around the event 51, the cluster forming unit 21 determines that the event 51 is an invalid event, ie, noise.
  • the cluster forming unit 21 removes noise from the events 51 based on the event signal acquired from the vision sensor 11 at predetermined intervals (for example, every 1 ms), and only valid events are subjected to subsequent processing. do.
  • the cluster forming unit 21 stores event signals of a predetermined period (for example, 100 ms) that are determined to be valid events in a predetermined buffer of the RAM. Therefore, when the latest 1 ms event signal is stored in the predetermined buffer, the cluster formation unit 21 deletes the oldest 1 ms event signal from the predetermined buffer.
  • a predetermined period for example, 100 ms
  • the cluster forming unit 21 groups events within a predetermined range (for example, within two pixels around) of the events based on the event signals stored in the predetermined buffer as events based on the same target particle.
  • One cluster 41 is formed.
  • Cluster tracking process> When the event signal stored in the predetermined buffer is updated at predetermined intervals (for example, every 1 ms), the cluster tracking unit 22 updates the cluster 41 based on the updated event signal. Chase.
  • the cluster tracking unit 22 removes the event from the cluster 41 if the event contained in the cluster 41 is based on the oldest event signal deleted from the predetermined buffer.
  • the cluster tracking unit 22 adds the event to the cluster 41 if the event based on the latest event signal is within a predetermined range of any of the events forming the cluster 41 .
  • the cluster tracking unit 22 can always form a cluster 41 that includes only the latest events. Also, the cluster tracking unit 22 can track the clusters 41 that move along with the movement of the target particles.
  • the feature quantity calculator 23 calculates the feature quantity of the cluster 41 tracked by the cluster tracker 22 .
  • the feature amount movement-related, frequency-related, event-related, and shape-related feature amounts can be considered.
  • the movement-related feature values of the cluster 41 are the average velocity, body length, body width, frequency of angle change, body length ratio to average velocity, body length ratio to instantaneous maximum velocity, direction change persistence, presence/absence of chemotaxis, positive/negative of chemotaxis.
  • stop frequency longitudinal mobility, lateral mobility, constant velocity persistence, number or frequency of rapid velocity changes, dispersion of time transition of absolute value of velocity, absolute velocity components in lateral and longitudinal directions Variance of time transition of values
  • Each value or summed value width of arc of rotation, period of spiral motion, variance of speed, maximum instantaneous acceleration, and the like.
  • taxis includes phototaxis, thermotaxis, chemotaxis, haptotaxis, pressure taxis, electrotaxis and the like.
  • Frequency-related features include the frequency of increase/decrease (change) in the number of events, the frequency of increase/decrease in size change, and the number or peaks of the frequency analysis result of the time transition of event increase for positive events and/or negative events.
  • Event-related feature amounts include the ratio of positive events and negative events, the rate of increase in events, and the like.
  • Shape-related features include vertical and horizontal scale ratio, vertical and horizontal scale ratio change range, ratio of events near the head and tail depending on the presence or absence of antennae protruding from the head, variance of coordinate values of positive and negative events, It is the variance of the distance between the center of gravity (coordinate average value) of each positive event and negative event. In this way, various feature amounts of the cluster 41 are conceivable.
  • the feature amount calculation unit 23 calculates one or more feature amounts of the cluster 41 classified into movement-related, frequency-related, event-related, and shape-related.
  • frequency the average speed, body length, body width, angle change frequency, and event increase/decrease frequency (hereinafter simply referred to as frequency) of the cluster 41.
  • the feature amount calculation unit 23 calculates the average velocity, body length, body width, angle change frequency, and Calculate the frequency.
  • FIG. 7 is a diagram for explaining calculation of the average velocity of clusters.
  • the feature quantity calculator 23 calculates the moving distance (the number of pixels) from the start point 61 to the end point 62 of the cluster 41 tracked by the cluster tracking process.
  • the starting point 61 is calculated as the center position (center in the vertical and horizontal directions) of the cluster 41 formed first.
  • the end point 62 is calculated as the center position of the current cluster 41 .
  • the total distance of the movement route 63 from the start point 61 to the end point 62 is calculated as the movement distance.
  • the feature amount calculation unit 23 calculates the movement speed by dividing the calculated movement distance by the time required for the movement. In addition, the feature amount calculation unit 23 calculates the average speed by calculating the average value of the moving speeds of the same cluster 41 calculated for each predetermined cycle.
  • FIG. 8 is a diagram showing the average speed for each type.
  • FIG. 8 is a diagram showing measurement results of average velocities for four different types of organisms (types A to D). Note that in FIG. 8, the vertical and horizontal axes of the four graphs are shown on the same scale.
  • type A shows a distribution in which the average speed is relatively low.
  • type B the average speed is evenly distributed from low speed to high speed.
  • the average speed of type C is higher than that of type A.
  • Type D has a higher percentage of slower average speeds than types A, B, and C, and there is almost no difference in average speed between individuals.
  • the average speed shows different distributions for each type. Therefore, by calculating the average speed as the feature amount by the feature amount calculation unit 23, the cluster classification unit 24, which will be described later, uses the average speed in the cluster classification process, thereby improving the classification accuracy.
  • FIG. 9 is a diagram explaining calculation of the body length of a cluster.
  • the feature amount calculator 23 sets a rectangular bounding box 64 surrounding the cluster 41 tracked by the cluster tracking process. Then, the feature amount calculation unit 23 calculates the horizontal (horizontal) length (X) and the vertical (longitudinal) length (Y) of the bound box 64 .
  • the feature amount calculation unit 23 sets the longer one of the calculated horizontal length (X) and vertical length (Y) as the temporary body length. In addition, the feature amount calculation unit 23 calculates the average value of the temporary body lengths of the same cluster 41 calculated at predetermined intervals, and uses the average value as the body length of the cluster 41 .
  • FIG. 10 is a diagram explaining the body length for each type.
  • FIG. 10 is a diagram showing body length measurement results for four different types of organisms (types A to D) similar to FIG. Note that in FIG. 10, the vertical and horizontal axes of the four graphs are shown on the same scale.
  • type A is distributed over a wide range from relatively short to long body lengths.
  • Type B has a relatively wide range of body lengths, and is distributed in a range in which there are many longer than type A.
  • Type C has a shorter body length than types A and B, and is distributed in a narrow range.
  • Type D has a shorter body length than types A, B, and C, and there is not much difference in body length between individuals.
  • body length shows different distributions for each species. Therefore, by calculating the body length as a feature amount by the feature amount calculation unit 23, the cluster classification unit 24, which will be described later, uses the body length in the cluster classification process, thereby making it possible to improve the accuracy of classification.
  • FIG. 11 is a diagram for explaining calculation of the body width of a cluster.
  • the feature amount calculation unit 23 calculates a traveling direction vector 65 of the cluster 41 tracked by the cluster tracking process. Specifically, the feature amount calculation unit 23 calculates, as the traveling direction vector 65, a vector connecting the center position of the cluster 41 from 100 ms ago to the current (latest) center position of the cluster 41, for example.
  • the feature amount calculation unit 23 calculates a unit vector orthogonal to the traveling direction vector 65 as an orthogonal unit vector 66 .
  • the feature quantity calculation unit 23 extracts an arbitrary plurality of (for example, 16) events as target events 67 from among the latest (most recent 1 ms) events among the events forming the cluster 41 . After that, the feature amount calculation unit 23 calculates a vector connecting the target event 67 from the center position of the current (latest) cluster 41 as a body width vector 68 .
  • the feature quantity calculation unit 23 calculates the length of the cluster 41 orthogonal to the traveling direction by taking the inner product of the orthogonal unit vector 66 and the body width vector 68 for each target event 67 .
  • the feature amount calculation unit 23 takes the longest length among the lengths perpendicular to the traveling direction calculated for each target event 67 as the temporary body width. Further, the feature amount calculation unit 23 calculates the average value of temporary body widths for the same cluster 41 calculated at predetermined intervals, and uses the average value as the body width of the cluster 41 .
  • FIG. 12 is a diagram explaining the body width for each type.
  • FIG. 11 shows the measurement results of the body width of four different types of creatures (types A to D) similar to FIGS. 8 and 10.
  • FIG. 12 the vertical and horizontal axes of the four graphs are shown on the same scale.
  • type A is distributed over a wide range from those with relatively short body widths to those with long body widths.
  • Type B has a relatively wide range of body lengths, and is distributed in a range in which there are many longer than type A.
  • Type C has a shorter body length than types A and B, and is distributed in a narrow range.
  • Type D has a shorter body length than types A, B, and C, and there is almost no difference in body length between individuals.
  • body width shows different distributions for each type. Therefore, by calculating the body width as a feature amount by the feature amount calculation unit 23, the accuracy of classification can be improved by using the body width in cluster classification processing by the cluster classification unit 24, which will be described later.
  • FIG. 13 is a diagram for explaining calculation of the frequency of angle change.
  • the feature amount calculation unit 23 calculates the traveling direction vector 65 of the cluster 41 tracked by the cluster tracking process in the same manner as when calculating the body width, and stores the traveling direction vector 65 in the RAM.
  • the feature amount calculation unit 23 reads the traveling direction vector 65 of 100 ms before, for example, from the RAM and uses it as the forward traveling direction vector 69 .
  • the feature amount calculation unit 23 calculates the inner product of the unit lengths of the traveling direction vector 65 and the forward traveling direction vector 69, that is, the angle 70 formed by the traveling direction vector 65 and the forward traveling direction vector 69.
  • the feature amount calculation unit 23 counts the number of times that the angle 70 formed by the traveling direction vector 65 and the forward traveling direction vector 69 is within a predetermined angle range, and uses the count value as the frequency of angle change.
  • the predetermined angle is set to an angle at which the direction of the target particle is changed.
  • FIG. 14 is a diagram explaining the frequency of angle change for each type.
  • FIG. 14 is a diagram showing measurement results of the angle change frequency for four different types of creatures (types A to D) similar to FIGS. Note that in FIG. 14, the vertical and horizontal axes of the four graphs are shown on the same scale.
  • type A is distributed in a range in which the frequency of angle change is relatively low.
  • Type B is distributed in a range in which the frequency of angle change is higher than type A.
  • Type C is distributed over a wide range from a range in which the frequency of angle change is lower than that of type A to a higher range.
  • Type D has a higher frequency of angle change than types A, B, and C, and is distributed in a narrow range.
  • the frequency of angle change shows a different distribution for each type. Therefore, when the feature amount calculation unit 23 calculates the frequency of angle change as a feature amount, the accuracy of classification can be improved by using the frequency of angle change in cluster classification processing by the cluster classification unit 24, which will be described later. becomes.
  • FIG. 15 is a diagram for explaining changes in the number of events of type A and frequency components.
  • FIG. 16 is a diagram for explaining changes in the number of events of type C and frequency components.
  • the number of events detected by the vision sensor 11 changes depending on how the target particle moves (how it swims). This is because the swimming organs of the target object are moving at a predetermined frequency. Therefore, depending on the type of target particle, the number of events changes at a fixed frequency.
  • the feature quantity calculation unit 23 performs frequency analysis on the number of events in the cluster 41 and calculates the peak frequency. In addition, as described above, the peak frequency may not be calculated.
  • Cluster merging process As described above, the clusters 41 formed by the cluster forming section 21 are tracked by the cluster tracking section 22 . However, since the vision sensor 11 outputs an event signal when the brightness of the incident light changes, the event signal is not output when, for example, the living thing that is the target particle is stationary. Therefore, when the organism that is the target particle is stationary, the cluster tracking unit 22 cannot track the cluster 41 . Then, when the stopped organism starts to move again, the cluster 41 for that organism is newly formed by the cluster forming unit 21 . That is, even if the cluster 41 before stopping and the cluster 41 after re-moving are formed and tracked based on the same organism, they will be detected as different clusters 41 .
  • the clusters 41 based on the respective organisms are combined or separated, making it difficult to track the same organism as the cluster 41. Become.
  • the cluster tracking unit 22 combines a plurality of different clusters 41 based on the same target particle into one cluster 41 by performing cluster combining processing.
  • FIG. 17 is a diagram explaining cluster combination processing. Specifically, as shown in FIG. 17, the cluster tracking unit 22 detects the position (indicated by the concentrated line in ) within a predetermined range and within a predetermined period of time (hereinafter referred to as a new cluster 72).
  • the cluster tracking unit 22 defines the new cluster 72 as the cluster 41 that is within a predetermined range from the position where the lost cluster 71 is lost and within a predetermined period of time. Then, the cluster tracking unit 22 compares the feature amounts of the lost cluster 71 and the new cluster 72, and if the respective feature amounts are within the range of the same target particle, the lost cluster 71 and the new cluster 72 are identified. Combined to form one cluster 41 .
  • the feature amount calculation unit 23 calculates again the feature amount for the combined clusters 41 .
  • the average velocity, body length, body width, angle change frequency, and frequency of the cluster 41 are calculated again.
  • the feature amount can be calculated using information for a longer period of time, and the feature amount can be calculated. It is possible to improve the accuracy.
  • the cluster classification unit 24 identifies the classification of the cluster 41, that is, the type of the target particle, based on the calculated feature amount.
  • the type of target particles may be specified based on a rule, or the type of target particles may be specified by machine learning.
  • FIG. 18 is a diagram explaining feature amounts for each type. For example, in specifying the type of target particles based on a rule, as shown in FIG. Then, when the feature amount of the cluster 41 is included in the range of feature amounts of a specific type, the cluster classification unit 24 identifies the cluster 41 as being of the specific type.
  • a learning model is generated by learning the relationship between the known feature amount and the type for each type as teacher data, and the learning model is stored in the ROM or the memory 15. stored in Then, the cluster classification unit 24 identifies the type of the cluster 41 by introducing the feature amount of the cluster 41 into the learning model.
  • the cluster classification unit 24 comprehensively identifies the type from various feature amounts.
  • the signal analysis unit 13 forms and tracks the cluster 41 based on the event signal input from the vision sensor 11 and calculates the feature amount of the cluster 41 . Then, the signal analysis unit 13 identifies the type of target particle based on the feature amount of the cluster 41 . Also, the control unit 14 stores the specified information in the memory 15 . At this time, the control unit 14 may store the specified information in association with the external environment information.
  • the external environment information includes depth, position coordinates (latitude and longitude of the measurement point), electrical conductivity, temperature, ph, concentration of gas (eg, methane, hydrogen, helium), concentration of metal (eg, manganese, iron), the flow velocity of the surrounding liquid, and the like.
  • FIG. 19 is a diagram illustrating the configuration of the measuring device 100 of Usage Example 1.
  • FIG. Usage example 1 is an example in which power consumption is reduced by suspending or reducing signal analysis processing in the measuring apparatus 100 . Since the measurement apparatus 100 is maintained in the ocean for several months to several years, for example, it is possible to lengthen the measurement period by reducing power consumption.
  • the measurement apparatus 100 includes a power supply 101, a power supply control section 102, and a timer 103 in addition to the configuration of the measurement apparatus 1.
  • FIG. 1 is an example in which power consumption is reduced by suspending or reducing signal analysis processing in the measuring apparatus 100 . Since the measurement apparatus 100 is maintained in the ocean for several months to several years, for example, it is possible to lengthen the measurement period by reducing power consumption.
  • the measurement apparatus 100 includes a power supply 101, a power supply control section 102, and a timer 103 in addition to the configuration of the measurement apparatus 1.
  • the power supply 101 is a battery that stores power supply power to be supplied to each part.
  • the power control unit 102 is a computer having a CPU, RAM, and ROM, and controls the power supplied from the power supply 101 to each unit. Note that the power control unit 102 may be configured with the same hardware as the signal analysis unit 13 or the control unit 14 .
  • the timer 103 outputs a trigger signal to the power control unit 102 at regular intervals.
  • FIG. 20 is a flow chart showing the flow of processing in use example 1.
  • the power control unit 102 shifts the measuring device 100 to the power saving mode in step S11.
  • the power supply is stopped or reduced (intermittently supplied) to each part of the measuring device 100 (for example, the vision sensor 11, the signal analysis part 13, the control part 14, the gravity sensor 16). It controls power supply from 101 .
  • the measuring apparatus 100 By setting the measuring apparatus 100 to the power saving mode in this way, it is possible to interrupt or reduce the signal analysis processing.
  • step S12 the power control unit 102 determines whether the start condition is satisfied.
  • the start conditions are that a trigger signal is input from the timer 103, that the number of event signals input from the vision sensor 11 operating in the power saving mode is equal to or greater than a predetermined value, and that the communication unit 17 is activated. It is set such that a start instruction command is input from the outside via the device.
  • Step S12 is repeated until the start condition is satisfied, and if the start condition is satisfied (Yes in step S12), the power control unit 102 shifts the measuring device 100 to the normal processing mode in step S13.
  • the normal processing mode power supply from the power supply 101 is controlled so as to always supply power to each unit of the measurement device 100 (eg, the vision sensor 11, the signal analysis unit 13, the control unit 14, the gravity sensor 16).
  • step S14 the power supply control unit 102 determines whether the termination condition is satisfied.
  • the end condition is that a signal serving as a trigger is input from the timer 103, that a predetermined condition based on the number of clusters 41 and the feature amount calculated in the signal analysis process is satisfied, and that the At least one of inputting an end instruction command from the outside.
  • step S1 to S8 The measurement process (steps S1 to S8) is performed until the end condition is satisfied, and when the end condition is satisfied (Yes in step S14), the process returns to step S11, and the power control unit 102 puts the measuring apparatus 100 into the power saving mode. move to
  • the power supply control unit 102 can reduce power consumption and efficiently measure the target particles by switching the mode based on the number of clusters or the feature amount, for example. Become.
  • FIG. 21 is a diagram illustrating the configuration of the measuring device 200 of Usage Example 2.
  • the vision This leads to an increase in power consumption of the sensor 11 and signal analysis unit 13 .
  • the target particles move slowly, the required number of events cannot be obtained, and accurate measurement results cannot be obtained.
  • the event threshold (plus threshold, minus threshold) of the vision sensor 11 or the light intensity of the light emitted from the illumination unit 3 is adjusted to optimize the number of events.
  • the measurement apparatus 200 includes an illumination control section 201 and an event number monitor section 202 in addition to the configuration of the measurement apparatus 1.
  • the illumination control unit 201 is a computer including a CPU, RAM, and ROM, and controls the amount of light emitted from the illumination unit 3.
  • the event number monitor unit 202 is a computer having a CPU, RAM, and ROM, and monitors the number of event signals output from the vision sensor 11, that is, the number of events captured by the vision sensor 11.
  • FIG. Note that the illumination control unit 201 and the event number monitor unit 202 may be configured by the same hardware as the signal analysis unit 13 or the control unit 14 .
  • FIG. 22 is a flowchart showing the flow of processing in Usage Example 2.
  • the control unit 14 sets the event threshold (plus threshold, minus threshold) of the vision sensor 11 to a default value in step S21.
  • the illumination control unit 201 sets the amount of light emitted from the illumination unit 3 to a default value.
  • the event number monitor unit 202 monitors the number of events.
  • the control unit 14 determines whether the conditions for changing the event threshold value and the light amount are satisfied.
  • the change conditions are that the number of events is equal to or greater than a first predetermined number or equal to or less than a second predetermined number, that the percentage of failures in tracking the cluster 41 is equal to or greater than a first predetermined value or equal to or less than a second predetermined value, At least one of the following: Clusters 41 of a predetermined size or larger have a sufficient amount of momentum (average velocity is a predetermined value or higher, etc.), and the number of events may become excessive.
  • the first predetermined number is a number larger than the second predetermined number
  • the first predetermined value is a value larger than the second predetermined value.
  • the change conditions for determining that the number of events is large include that the number of events is equal to or greater than a first predetermined number, that the percentage of failures in tracking the cluster 41 is equal to or less than a second predetermined value, At least one of the above clusters 41 has sufficient momentum and the number of events may become excessive. Further, the change condition for determining that the number of events is small is at least one of the number of events being equal to or less than the second predetermined number, and the percentage of failures in tracking the cluster 41 being equal to or greater than the first predetermined value.
  • step S22 If the change condition is not satisfied (No in step S22), the process returns to the signal analysis processing of steps S1 to S8 described above, and if the change condition is satisfied (Yes in step S22), the control unit 14 detects the vision sensor in step S23. 11 event thresholds (plus threshold, minus threshold) are changed. Also, the illumination control unit 201 changes the amount of light emitted from the illumination unit 3 .
  • the event threshold is increased or the light amount is decreased. Further, when a change condition that the number of events is small is met, the event threshold is decreased or the light amount is increased.
  • the measurement apparatus 200 by appropriately adjusting the number of events, power consumption can be reduced, and the target particles can be measured with high accuracy.
  • the change condition when the change condition is satisfied, at least one of the change of the event threshold and the change of the light amount of the light emitted from the illumination unit 3 may be performed. You can do it.
  • FIG. 23 is a diagram illustrating the configuration of the measuring device 300 of Usage Example 3.
  • the illumination unit 301 includes a plurality of light sources 301a that can be turned on and off individually, and the light sources 301a are switched between on and off, wavelength, and light intensity based on the result of signal analysis processing.
  • the measurement device 300 includes an illumination unit 301 in place of the illumination unit 3 of the measurement device 1 and an illumination control unit 201 .
  • the illumination unit 301 includes a plurality of light sources 301a that can be turned on and off individually.
  • the illuminating unit 301 can change the position to irradiate the light as a whole by switching on/off the plurality of light sources 301a.
  • FIG. 24 is a flow chart showing the flow of processing in Usage Example 3. As shown in FIG. 24, when the process is started, the illumination control unit 201 sets the wavelength, position, and amount of light emitted from the illumination unit 301 to default values in step S31.
  • step S32 the control unit 14 specifies only one type of classification result for a specific cluster 41 based on the result of the signal analysis processing. determine whether the
  • the lighting control unit 201 selects one type of classification destination in step S33.
  • the wavelength, position, and amount of light emitted from the illumination unit 301 are changed so as to be specified.
  • the on/off of each light source 301a, the wavelength of the emitted light, and the amount of light are changed according to the phototaxis of the type of classification destination candidate.
  • the signal analysis processing (steps S1 to S8) is continued.
  • the phototaxis of the target particles is measured as a new feature amount, thereby classifying the target particles. It is possible to improve the accuracy. In addition, for example, it is possible to select only one specific type of target particles, irradiate them with light, and perform measurement.
  • the illumination control unit 201 changes the wavelength, position, and amount of light emitted from the illumination unit 301 even when a predetermined condition other than the identification of multiple types of classification destination candidates is satisfied. good too.
  • the illumination control section 201 may change only the position of the light emitted from the illumination section 301 .
  • FIG. 25 is a diagram illustrating the configuration of the measuring device 400 of Usage Example 4. As shown in FIG. Usage example 4 is an example in which external environment information measured by various sensors is associated and stored in addition to the result of signal analysis processing.
  • the measurement device 400 includes a particle analysis unit 401, a GNSS sensor (Global Navigation Satellite System) 402, a water depth gauge 403, a pH gauge 404, and a real-time clock 405 in addition to the configuration of the measurement device 100.
  • GNSS Global Navigation Satellite System
  • the measurement device 400 includes a particle analysis unit 401, a GNSS sensor (Global Navigation Satellite System) 402, a water depth gauge 403, a pH gauge 404, and a real-time clock 405 in addition to the configuration of the measurement device 100.
  • GNSS Global Navigation Satellite System
  • the particle analysis unit 401 is a computer having a CPU, RAM, and ROM, and includes a particle determination unit 411 and a particle count unit 412 .
  • the particle determination unit 411 further classifies the target particles classified by the signal analysis process based on preset conditions. For example, based on the moving direction of the target particles (clusters 41), the particle determination unit 411 classifies target particles that also move upward as active particles, and classifies target particles that only move downward as passive particles.
  • the particle counting section 412 counts the number of particles classified by the particle determining section 411 .
  • the particle analysis unit 401 may be configured with the same hardware as the signal analysis unit 13 or the control unit 14 . Also, the particle determination unit 411 and the particle count unit 412 may be provided within the cluster classification unit 24 .
  • the GNSS sensor 402 acquires the position information of the measuring device 400.
  • the water depth gauge 403 measures the water depth at the position where the measuring device 400 is placed.
  • the pH meter 404 measures the pH value of the water area in which the measuring device 400 is placed.
  • a real-time clock 405 is an integrated circuit having a clock function and outputs the current time.
  • FIG. 26 is a flow chart showing the flow of processing in use example 4.
  • FIG. 26 when the processing is started, the signal analysis processing of steps S1 to S8 described above is executed. Further classification is performed based on preset conditions. Also, the particle counting unit 412 counts the number of classified particles.
  • step S42 the control unit 14 acquires values measured or output from the gravity sensor 16, GNSS 402, water depth gauge 403, pH meter 404, and real-time clock 405. Then, in step S43, the control unit 14 associates the processing result in step S41 with the result obtained in step S42 as external environment information and stores them in the memory 15.
  • the measuring device 400 stores the number of active particles and passive particles in association with various external environment information, so that, for example, the number and density of organisms can be observed, and the ratio of passive particles such as marine snow can be measured. can be obtained. This will also make it possible to find indicators for evaluating marine biodiversity and the degree of environmental pollution.
  • FIG. 27 is a diagram illustrating the configuration of the measuring device 500 of Usage Example 5. As shown in FIG. Usage example 5 is an example of estimating the amount of carbon deposited on the seabed based on the result of signal analysis processing.
  • the measuring device 500 includes a particle analyzing section 501 instead of the particle analyzing section 401 in the measuring device 400 of the usage example 4.
  • the particle analysis unit 501 is a computer having a CPU, RAM, and ROM, and includes a particle determination unit 411 , a particle count unit 412 and a carbon content estimation unit 511 .
  • the carbon amount estimating unit 511 regards the target particles classified as passive particles by the particle determining unit 411 as particles deposited on the seabed, and determines the passive particle type and feature amount (feature amount indicating size such as body length and body width). , based on numbers, estimate the amount of carbon deposited on the seafloor. For example, the carbon content per unit size for each type classified as passive particles is stored in the memory 15, and the carbon content estimation unit 511 calculates the carbon content per unit size and the size of each passive particle. and the relationship with the numbers to estimate the carbon content.
  • the measuring device 500 can acquire an index for greenhouse gas reduction by estimating the amount of carbon deposited on the seabed.
  • the measurement device may be equipped with an imaging sensor.
  • the imaging sensor is, for example, a CCD (Charge Coupled Device) type or a CMOS (Complementary Metal-Oxide-Semiconductor) type image sensor, and may image the same imaging range as the vision sensor 11 .
  • CCD Charge Coupled Device
  • CMOS Complementary Metal-Oxide-Semiconductor
  • the feature amount calculation unit 23 calculates the average speed, body length, body width, angle change frequency, and frequency of the cluster 41 as feature amounts, and classifies the clusters 41 based on these feature amounts. .
  • the feature amount calculation unit 23 calculates one or more of the average speed, body length, body width, angle change frequency, and frequency of the cluster 41 as feature amounts, and classifies the clusters 41 based on the calculated feature amounts. You may make it That is, the feature amount calculation unit 23 may calculate one or more of the movement-related, frequency-related, event-related, and shape-related feature amounts described above.
  • the vision sensor 11 has a plurality of pixels that asynchronously output event signals in response to changes in the luminance of incident light, and the event signals input within a predetermined period. , a cluster forming unit 21 for forming clusters 41 of points of events generated by the same target particle, a feature amount calculating unit 23 for calculating the feature amount of the cluster, and based on the feature amount calculated by the feature amount calculating unit and a cluster classification unit 24 for classifying clusters.
  • the measuring device 1 can classify the clusters 41 based on the event signal input from the vision sensor 11 .
  • the measuring device 1 can accurately classify clusters.
  • a cluster tracking unit 22 that tracks the cluster 41 is also provided, and a feature amount calculation unit 23 calculates the feature amount of the cluster tracked by the cluster tracking unit. Thereby, the measuring device 1 can calculate the feature amount (average speed, frequency, etc.) based on the movement of the cluster 41 .
  • the cluster tracking unit 22 combines a plurality of clusters 41 based on the same target particle into one cluster based on the feature quantity. As a result, the measuring device 1 can reduce erroneous detection of a plurality of clusters 41 based on the same target particle as clusters 41 based on different target particles.
  • the feature amount calculation unit 23 recalculates the feature amount based on the information of the combined clusters.
  • the measuring device 1 calculates the feature amount based on the information (event signal) of the cluster 41 before and after the combination, so that the cluster 41 can be observed over a long period of time, and the feature amount can be calculated. It can be calculated with high accuracy.
  • the feature amount calculation unit 23 calculates one or more of the feature amounts classified into movement-related, frequency-related, event-related, and shape-related of the cluster 41 .
  • the measuring device 1 can classify the clusters 41 with high accuracy by appropriately selecting the feature quantity that is effective for classifying the target particles.
  • the feature amount calculation unit 23 calculates one or more of the average velocity, body length, body width, angle change frequency, and change frequency of the number of events forming the cluster as feature amounts of the cluster 41 . Thereby, the measuring device 1 can classify the clusters 41 based on the feature quantity effective for classifying the target particles.
  • the feature amount calculation unit 23 calculates all of the average velocity, body length, body width, frequency of angle change, and change frequency of the number of events forming the cluster as feature amounts of the cluster 41 .
  • the measuring device 1 can classify the clusters 41 with higher accuracy based on a combination of a plurality of feature quantities effective for classifying the target particles.
  • a power control unit 102 that controls the supply of power from the power supply 101 is provided. Switches between the normal processing mode in which power is supplied to each part of . As a result, the measuring apparatus 100 can reduce power consumption when no measurement is performed or when no measurement is required, and can extend the measurement period.
  • the power control unit 102 switches modes based on the number of clusters formed by the cluster forming unit 21 or the feature amount calculated by the feature amount calculating unit 23 .
  • the measurement apparatus 100 can perform measurement under an environment in which the measurement can be performed optimally, such as when there are many target particles, and can reduce power consumption by the power saving mode in other cases.
  • the illumination unit 3 irradiates the imaging range of the vision sensor 11 with light, and the illumination control unit 201 controls the amount of light emitted from the illumination unit 3. Change the amount of light when it is established.
  • the measurement apparatus 200 can optimize the number of events detected by the vision sensor 11, improve measurement accuracy, and reduce power consumption.
  • the change conditions are that the number of event signals output from the vision sensor 11 is equal to or greater than a first predetermined number or equal to or less than a second predetermined number, and that the rate of cluster tracking failure is equal to or greater than a first predetermined value or equal to or less than a second predetermined number. and at least one of the fact that the clusters of a predetermined size or larger have sufficient momentum and the number of events may become excessive.
  • the measurement apparatus 200 can optimize the number of events by changing the amount of light emitted from the illumination unit 3 when the number of events is too large or too small.
  • a control unit 14 for controlling the event threshold of the vision sensor 11 is provided, and the control unit 14 changes the event threshold when a change condition is satisfied.
  • the measurement apparatus 200 can optimize the number of events detected by the vision sensor 11, improve measurement accuracy, and reduce power consumption.
  • the lighting unit 301 includes a plurality of light sources 301a that can be turned on and off independently, and a lighting control unit 201 that controls the on/off of the light sources 301a. Change on/off. As a result, the measurement apparatus 300 can change the position of the light emitted from the illumination unit, and can perform measurement focusing on, for example, organisms exhibiting phototaxis.
  • the illumination control unit 201 changes the on/off, wavelength, and amount of light of the light source 301a when a predetermined condition is satisfied.
  • the measurement apparatus 300 irradiates a specific target particle (organism exhibiting phototaxis) with light suitable for the target particle, thereby improving the measurement accuracy of the target particle.
  • the measuring device 400 can calculate the ratio of living organisms and non-living organisms, the ratio of particles deposited on the seabed, and the like.
  • the measuring device 400 can calculate the ratio of living organisms and non-living organisms, the ratio of particles deposited on the seabed, and the like.
  • a sensor for measuring the external environment is provided, and the number of active particles and passive particles and the information of the external environment measured by the sensor are Store in association. This makes it possible to calculate the ratio of active particles and passive particles, biodiversity, the degree of environmental pollution, etc. due to the influence of the external environment.
  • It also includes a carbon amount estimation unit 511 that estimates the amount of carbon deposited in water based on the number of passive particles and the feature amount. Thereby, the measuring device 500 can estimate the amount of marine carbon that contributes to the reduction of greenhouse gases.
  • the measurement method is based on event signals input within a predetermined period by a vision sensor having a plurality of pixels that asynchronously output event signals according to changes in luminance of incident light. is formed as a cluster, the feature amount of the cluster is calculated, and the cluster is classified based on the feature amount.
  • the program detects events generated by the same target particle based on event signals input within a predetermined period by a vision sensor having a plurality of pixels that asynchronously output event signals in accordance with changes in luminance of incident light.
  • a point cloud is formed as a cluster, the feature amount of the cluster is calculated, and the cluster is classified based on the feature amount.
  • Such a program can be recorded in advance in a HDD as a recording medium built in equipment such as a computer device, or in a ROM or the like in a microcomputer having a CPU.
  • a flexible disc a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disc, a DVD (Digital Versatile Disc), a Blu-ray disc (Blu-ray Disc (registered trademark)), a magnetic disc, a semiconductor memory
  • It can be temporarily or permanently stored (recorded) in a removable recording medium such as a memory card.
  • Such removable recording media can be provided as so-called package software.
  • it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • the present technology can also adopt the following configuration.
  • a vision sensor having a plurality of pixels that asynchronously output event signals according to luminance changes of incident light; a cluster forming unit that forms a cluster of point groups of events generated by the same target particle based on the event signal input within a predetermined period; A feature amount calculation unit that calculates the feature amount of the cluster; a cluster classification unit that classifies the cluster based on the feature amount calculated by the feature amount calculation unit;
  • a measuring device comprising a (2) A cluster tracking unit that tracks the cluster, The measuring device according to (1), wherein the feature amount calculation unit calculates the feature amount of the cluster tracked by the cluster tracking unit.
  • the measuring device (2) The measuring device according to (2), wherein the cluster tracking unit combines a plurality of the clusters based on the same target particle into one cluster based on the feature amount. (4) (3) The measuring device according to (3), wherein, when the clusters are combined, the feature amount calculation unit recalculates the feature amount based on the information of the combined clusters. (5) The feature amount calculation unit calculates any one or more of the feature amounts classified into movement-related, frequency-related, event-related, and shape-related of the cluster according to any one of (1) to (4). measuring device.
  • the feature amount calculation unit calculates one or more of the average speed, body length, body width, frequency of angle change, and change frequency of the number of events that constitute the cluster as the feature amount from (1) of the cluster (5)
  • the measuring device according to any one of the items.
  • the feature amount calculation unit calculates all of the average speed, body length, body width, frequency of angle change, and change frequency of the number of events constituting the cluster as the feature amount of the cluster. measuring device.
  • the power control unit According to any one of (1) to (7), switching between a power saving mode in which supply of power supply power to each part of the measuring apparatus is stopped or reduced and a normal processing mode in which power supply power is supplied to each part of the measuring apparatus. measuring device. (9) (8) The measuring device according to (8), wherein the power control unit switches modes based on the number of the clusters formed by the cluster forming unit or the feature amount calculated by the feature amount calculation unit.
  • the measuring device according to any one of (1) to (9), wherein the amount of light is changed when a change condition is satisfied.
  • the modification conditions are the number of the event signals output from the vision sensor becomes greater than or equal to a first predetermined number or less than or equal to a second predetermined number; (10), the measuring device according to (10), wherein the clusters of a predetermined size or larger have sufficient momentum and the number of events may become excessive.
  • a control unit that controls an event threshold of the vision sensor The control unit The measuring device according to any one of (1) to (11), wherein the event threshold is changed when a change condition is satisfied.
  • the lighting control unit (13) The measurement device according to (13), wherein the on/off, wavelength, and amount of light of the light source are changed when the predetermined condition is satisfied.
  • the measuring device according to any one of (1) to (14), further comprising a particle determination unit that classifies target particles classified by the cluster classification unit into active particles or passive particles.
  • a particle determination unit that classifies target particles classified by the cluster classification unit into active particles or passive particles.
  • the measuring device further comprising a particle counting section that counts the number of the active particles and the number of the passive particles.
  • the measuring device according to (16) or (17), further comprising a carbon amount estimating unit that estimates the amount of carbon deposited in water based on the number of passive particles and the feature amount.
  • the measuring device A point cloud of events generated by the same target particle is clustered based on the event signals input within a predetermined period by a vision sensor having a plurality of pixels that asynchronously output event signals according to luminance changes of incident light. form as calculating the feature amount of the cluster; A measurement method of classifying the cluster based on the feature amount. (20) A point cloud of events generated by the same target particle is clustered based on the event signals input within a predetermined period by a vision sensor having a plurality of pixels that asynchronously output event signals according to luminance changes of incident light. form as calculating the feature amount of the cluster; A program that causes a measuring device to execute a process of classifying the clusters based on the feature amount.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Organic Chemistry (AREA)
  • Immunology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Pathology (AREA)
  • Biotechnology (AREA)
  • General Physics & Mathematics (AREA)
  • Genetics & Genomics (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • Dispersion Chemistry (AREA)
  • Microbiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Toxicology (AREA)
  • Medicinal Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Sustainable Development (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Analysis (AREA)

Abstract

測定装置は、入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサと、所定期間内に入力されたイベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスターとして形成するクラスター形成部と、クラスターの特徴量を算出する特徴量算出部と、特徴量算出部により算出された特徴量に基づいて、クラスターを分類するクラスター分類部と、を備える。

Description

測定装置、測定方法、プログラム
 本技術は測定装置、測定方法、プログラムに関し、特に、ビジョンセンサを用いて測定する技術に関する。
 所定の波長の励起光を照射して植物プランクトンを励起させ、励起された植物プランクトンから発する蛍光の強度を計測することで、植物プランクトンの存在量を測定する測定装置が提案されている(例えば、特許文献1参照)。
特開2019-165687号公報
 上記した測定装置では、励起光によって励起する植物プランクトンについてしか測定することができない。しかしながら、例えば海洋調査等では、植物プランクトンのみならず、動物プランクトン、水中生物の幼生等の生物、マイクロプラスチック、塵、砂、マリンスノー、気泡等の非生物についても測定することが考えられ、これらを精度よく分類することが望まれている。
 そこで本技術は、対象粒子を精度よく分類することを目的とする。
 本技術に係る測定装置は、入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサと、所定期間内に入力された前記イベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスターとして形成するクラスター形成部と、前記クラスターの特徴量を算出する特徴量算出部と、前記特徴量算出部により算出された前記特徴量に基づいて、前記クラスターを分類するクラスター分類部と、を備える。
 これにより、測定装置は、ビジョンセンサから入力されるイベント信号に基づいてクラスターを分類することが可能となる。
測定装置の構成を説明する図である。 ビジョンセンサの構成を説明する図である。 ビジョンセンサから出力されるイベント信号の概要を説明する図である。 信号解析処理の流れを説明するフローチャートである。 イベント信号に基づく撮像画像を説明する図である。 撮像画像におけるイベントを説明する図である。 クラスターの平均速度の算出を説明する図である。 種別ごとの平均速度を示す図である。 クラスターの体長の算出を説明する図である。 種別ごとの体長を説明する図である。 クラスターの体幅の算出を説明する図である 種別ごとの体幅を説明する図である。 角度変化の頻度の算出を説明する図である。 種別ごとの角度変化の頻度を説明する図である。 種別Aのイベント数の変化および周波数成分を説明する図である。 種別Cのイベント数の変化および周波数成分を説明する図である。 クラスター結合処理を説明する図である。 種別ごとの特徴量を説明する図である。 使用例1の測定装置の構成を説明する図である。 使用例1の処理の流れを示すフローチャートである。 使用例2の測定装置の構成を説明する図である。 使用例2の処理の流れを示すフローチャートである。 使用例3の測定装置の構成を説明する図である。 使用例3の処理の流れを示すフローチャートである。 使用例4の測定装置の構成を説明する図である。 使用例4の処理の流れを示すフローチャートである。 使用例5の測定装置の構成を説明する図である。
 以下、実施形態を次の順序で説明する。
<1.測定装置の構成>
<2.信号解析処理>
<3.クラスター形成処理>
<4.クラスター追跡処理>
<5.特徴量算出処理>
<6.クラスター結合処理>
<7.クラスター分類処理>
<8.使用例>
<9.測定装置の他の構成例>
<10.実施形態のまとめ>
<11.本技術>
<1.測定装置の構成>
 先ず、本技術に係る実施形態としての測定装置1の構成について説明する。
 測定装置1は、例えば海中などの水中に存在する生物および非生物を対象粒子とし、対象粒子の特徴量を算出していくことで対象粒子の測定を行う装置である。ここでの測定とは、対象粒子の種別の分類、対象粒子の数や特徴量の算出、対象粒子の撮像画像の記録や記憶等のいずれかを含む概念である。
 ここで、対象粒子となる生物は、水中に存在する植物プランクトン、動物プランクトン、水中生物の幼生等の水中微生物である。また、対象粒子となる非生物は、マイクロプラスチック、塵、砂、マリンスノー、気泡等である。ただし、これらは一例であり、対象粒子は、これら以外であってもよい。
 また、対象粒子は、動物プランクトン、水中生物の幼生等のように自らによって移動する粒子(以下、アクティブ粒子と表記する)であってもよい。同様に、対象粒子は、植物プランクトン、マイクロプラスチック、塵、砂、マリンスノー、気泡等のように自らによって移動しない粒子(以下、パッシブ粒子と表記する)であってもよい。
 図1は、測定装置1の構成を説明する図である。図1に示すように、測定装置1は、本体部2および照明部3を備えている。なお、照明部3は、本体部2内に設けられるようにしてもよい。
 本体部2は、ビジョンセンサ11、レンズ12、信号解析部13、制御部14、メモリ15、重力センサ16、通信部17を備えている。
 図2は、ビジョンセンサ11の構成を説明する図である。図3は、ビジョンセンサ11から出力されるイベント信号の概要を説明する図である。
 ビジョンセンサ11は、DVS(Dynamic Vision Sensor)またはEVS(Event-Based Vision Sensor)と呼ばれるセンサである。ビジョンセンサ11は、レンズ12を通した水中の所定範囲で発生するイベントを検出する。なお、イベントとは、入射光の輝度変化が一定比率を超えることである。
 図2に示すように、ビジョンセンサ11は、フォトダイオード31、電圧変換回路32、非同期差分検出回路33および比較器34を有する画素が二次元に複数配列されている。フォトダイオード31は、入射光が照射されると、光電効果により入射光の輝度に比例した電流を発生させる。電圧変換回路32は、フォトダイオード31で発生された電流を電圧に変換する。非同期差分検出回路33は、電圧変換回路32によって変換された電圧と、基準電圧との差分を検出する。
 比較器34は、電圧差分がプラス閾値を超えた場合に、プラスのイベントが発生したことを示すイベント信号(図中、黒塗り矢印で示す)を出力する。また、比較器34は、電圧差分がマイナス閾値を超えた場合(下回った場合)に、マイナスのイベントが発生したことを示すイベント信号(図中、白抜き矢印で示す)を出力する。
 なお、イベント信号には、イベントが発生した画素の座標(x、y)、時刻、イベントの正負(プラスまたはマイナス)の情報が含まれている。また、プラス閾値およびマイナス閾値は、通常、予め決められた既定値に設定されているが、場合によって変更可能となっている。
 例えば、図3に示すように、時刻T1においてマイナスのイベント信号を出力したとする。このとき、現在の輝度に応じた電圧が基準電圧として設定される。そうすると、基準電圧に対してプラス側にプラス閾値に相当するライン(図中、一点鎖線で示す)が設定されるとともに、基準電圧に対してマイナス側にマイナス閾値に相当するライン(図中、破線で示す)が設定されることになる。
 その後、入射光の輝度が下がり時刻T2においてマイナス閾値に相当するラインを下回ると、ビジョンセンサ11はマイナスのイベント信号を出力する。このとき、時刻T1と同様に、現在の輝度に応じた電圧が基準電圧として設定されるとともに、プラス閾値およびマイナス閾値に相当するラインが設定されることになる。
 また、入射光の輝度が下がり時刻T3においてマイナス閾値に相当するラインを下回ると、ビジョンセンサ11はマイナスのイベント信号を出力する。このとき、時刻T1と同様に、現在の輝度に応じた電圧が基準電圧として設定されるとともに、プラス閾値およびマイナス閾値に相当するラインが設定されることになる。
 その後、入射光の輝度が上がり時刻T4においてプラス閾値に相当するラインを超えると、ビジョンセンサ11はプラスのイベント信号を出力する。
 このように、ビジョンセンサ11は、画素ごとにイベントをリアルタイムに検出する非同期型のイメージセンサである。
 ビジョンセンサ11では、イベントの発生が検出された画素に対してイベント信号の読み出し動作が実行されるため、所定のフレームレートで全ての画素に対して読み出し動作が実行される同期型のイメージセンサよりも非常に高速な読み出しが可能であり、かつ、1フレーム分として読み出されるデータ量を削減することが可能となる。
 そのため、測定装置1では、ビジョンセンサ11を用いることで、より迅速に対象粒子の動きを検出することが可能となる。また、ビジョンセンサ11は、データ量を削減するとともに、消費電力を低減することも可能となる。
 信号解析部13は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、および、RAM(Random Access Memory)を有するマイクロコンピュータを備えて構成される。
 信号解析部13は、本実施形態において、クラスター形成部21、クラスター追跡部22、特徴量算出部23、クラスター分類部24として機能する。
 クラスター形成部21は、ビジョンセンサ11から所定期間内に入力されるイベント信号に基づいて、同一の対象粒子に基づくイベントの点群をクラスターとして形成する。
 クラスター追跡部22は、クラスター形成部21で形成されたクラスターを追跡する。
 特徴量算出部23は、クラスター形成部21で形成されクラスター追跡部22で追跡されているクラスターの特徴量を算出する。
 クラスター分類部24は、クラスター形成部21で形成されクラスター追跡部22で追跡されているクラスターについて、特徴量算出部23で算出された特徴量に基づいて分類する。すなわち、クラスター分類部24は、クラスターとされた対象粒子の種別を分類する。
 なお、これらクラスター形成部21、クラスター追跡部22、特徴量算出部23、クラスター分類部24について詳しくは後述する。
 制御部14は、例えばCPU、ROM、および、RAMを有するマイクロコンピュータを備えて構成され、測定装置1の全体制御を行う。また、制御部14は、メモリ15に記憶されたデータの読み出し処理やメモリ15にデータを記憶させる処理、および、通信部17を介した外部機器との間での各種データの送受信を行う。なお、信号解析部13および制御部14は、同一のハードウェアによって構成されるようにしてもよい。
 メモリ15は、不揮発性メモリで構成される。重力センサ16は、重力加速度(重力方向)を検出し、検出結果を制御部14に出力する。通信部17は、外部機器との間で有線または無線によるデータ通信を行う。なお、測定装置1は、重力センサ16を備えていなくてもよい。
 照明部3は、ビジョンセンサ11の撮像範囲に光を照射する。照明部3は、波長が異なる光を切り替えて照射可能であり、例えば10nmごとの異なる波長の光を照射する。
<2.信号解析処理>
 次に、イベント信号に基づいて対象粒子の種別を分類する信号解析処理(測定方法)について説明する。図4は、信号解析処理の流れを説明するフローチャートである。
 図4に示すように、信号解析処理が開始されると、ステップS1でクラスター形成部21は、ビジョンセンサ11から入力されるイベント信号を取得する。なお、上記したように、ビジョンセンサ11では、画素ごとにイベントを検出するとイベント信号を出力するようになされているため、クラスター形成部21は、イベントが発生した画素ごとのイベント信号を随時取得することになる。
 ステップS2でクラスター形成部21は、所定間隔ごと(例えば1msごと)に、ステップS1で取得したイベント信号に基づいて、同一の対象粒子に基づくイベントの点群をクラスターとして形成するクラスター形成処理を行う。なお、クラスター形成処理について、詳しくは後述する。
 ステップS3でクラスター追跡部22は、所定間隔ごと(例えば1msごと)に、クラスター形成部21で形成されたクラスターを追跡するクラスター追跡処理を行う。なお、クラスター追跡処理について、詳しくは後述する。
 ステップS4で特徴量算出部23は、クラスター形成部21で形成されクラスター追跡部22で追跡されているクラスターの特徴量を算出する特徴量算出処理を行う。なお、特徴量算出処理について、詳しくは後述する。
 ステップS5でクラスター追跡部22は、同一の対象粒子について異なる複数のクラスターが検出された場合に、異なる複数のクラスターを1つのクラスターに結合するクラスター結合処理を行う。なお、クラスター結合処理について、詳しくは後述する。
 ステップS6で特徴量算出部23は、ステップS5でクラスターが結合されたかを判定する。そして、クラスターが結合された場合(ステップS6でYes)、ステップS7で特徴量算出部23は、結合されたクラスターについて特徴量算出処理を行う。なお、ステップS7の特徴量算出処理は、ステップS4の特徴量算出処理と同一の処理である。
 ステップS7で特徴量算出処理が行われた場合、または、ステップS6でクラスターが結合されていないと判定された場合(ステップS6でNo)、ステップS8でクラスター分類部24は、ステップS4またはステップS7で算出された特徴量に基づいて、クラスターについて対象粒子の種別を分類する。なお、クラスター分類処理について、詳しくは後述する。
<3.クラスター形成処理>
 次に、クラスター形成処理について説明する。図5は、イベント信号に基づく撮像画像を説明する図である。図6は、撮像画像におけるイベントを説明する図である。なお、図6では、複数の格子によって撮像画像の画素を表現している。
 ビジョンセンサ11では、イベントの発生が検出された画素に対してイベント信号の読み出し動作が実行される。そのため、図5に示すように、所定時間内で取得されるイベント信号に基づいて1フレームの撮像画像を生成した場合、同一の対象粒子に基づくイベントの点群がクラスター41として写る。一方で、これらのクラスター41以外にも、ノイズとしてのイベントが多数写っている。
 そこで、クラスター形成部21は、まず、対象粒子に基づくイベント(有効なイベント)でないイベント、すなわち、ノイズであるイベントを除去する。
 具体的には、クラスター形成部21は、図6に示すように、例えば最新の1ms内に取得したイベント信号に基づくイベント51(図中、黒塗りで示す)の周辺に、それよりも以前の例えば3ms内に取得したイベント信号に基づくイベント52(図中、ハッチングで示す)が所定数あるかを判定する。ここで、所定数は、そのイベント51がノイズであるかクラスター41の一部であるかを区別可能な値に設定されている。
 そして、クラスター形成部21は、イベント51の周辺に所定数以上のイベント52がある場合、そのイベント51を有効なイベントとする。一方、クラスター形成部21は、イベント51の周辺に所定数未満のイベント52しかない場合、そのイベント51を無効なイベント、すなわち、ノイズであると判定する。
 このように、クラスター形成部21は、所定間隔ごと(例えば、1msごと)に、ビジョンセンサ11から取得したイベント信号に基づくイベント51からノイズを除去し、有効なイベントのみを後段の処理の対象とする。
 また、クラスター形成部21は、有効なイベントと判定された所定期間(例えば、100ms)のイベント信号をRAMの所定バッファに記憶する。したがって、クラスター形成部21は、最新の1msのイベント信号を所定バッファに記憶する際に、最も古い1msのイベント信号を所定バッファから削除する。
 そして、クラスター形成部21は、所定バッファに記憶されているイベント信号に基づくイベントについて、所定範囲内(例えば、周囲2ピクセル以内)のイベントを同一の対象粒子に基づくイベントとしてグループ化していくことで1つのクラスター41を形成する。
<4.クラスター追跡処理>
 クラスター追跡部22は、所定間隔ごと(例えば1msごと)に、所定バッファに記憶されるイベント信号が更新されると、更新されたイベント信号に基づいて、クラスター41を更新していくことでクラスターを追跡する。
 具体的には、クラスター追跡部22は、クラスター41に含まれるイベントが所定バッファから削除される最も古いイベント信号に基づくものであれば、そのイベントをクラスター41から除去する。
 また、クラスター追跡部22は、最新のイベント信号に基づくイベントがクラスター41を構成するイベントのいずれかの所定範囲内にあれば、そのイベントをクラスター41に追加する。
 このようにすることで、クラスター追跡部22は、常に最新のイベントのみが含まれるクラスター41を形成することができる。また、クラスター追跡部22は、対象粒子の移動に伴って移動するクラスター41を追跡することが可能となる。
<5.特徴量算出処理>
 特徴量算出部23は、クラスター追跡部22によって追跡されているクラスター41の特徴量を算出する。特徴量としては、移動関連、周波数関連、イベント関連、形状関連の特徴量が考えられる。
 移動関連の特徴量は、クラスター41の平均速度、体長、体幅、角度変化の頻度、平均速度の体長比、瞬間最大速度の体長比、方向変更持続性、走性の有無、走性の正負、停止頻度、縦方向の移動度、横方向の移動度、等速持続性、急激な速度変化の回数または頻度、速度の絶対値の時間推移の分散、横方向および縦方向の速度成分の絶対値の時間推移の分散それぞれの値または足し合わせた値、回転の弧の幅、螺旋運動の周期、速さの分散、最大瞬間加速度等である。なお、走性は、光走性、温度走性、化学走性、接触走性、圧力走性、電気走性等を含む。
 周波数関連の特徴量は、イベント数の増減(変化)の周波数、サイズ変化の増減の周波数、プラスイベントおよびマイナスイベントもしくはその両方についてイベント増加の時間推移を周波数解析した結果の周波数ピークの数またはピーク値、プラスイベントおよびマイナスイベントもしくはその両方についてイベントの重心(座標平均値)の時間推移もしくは軌跡を周波数解析した結果の周波数ピークの数またはピーク値等である。
 イベント関連の特徴量は、プラスイベントおよびマイナスイベントの割合、イベントの増加速度等である。
 形状関連の特徴量は、縦横の縮尺比、縦横の縮尺比の変化レンジ、頭部から突き出した触角等の有無による頭部と尾部付近のイベント比率、プラスイベントおよびマイナスイベントの座標値の分散、プラスイベントとマイナスイベントそれぞれの重心(座標平均値)間距離の分散等である。
 このように、クラスター41の特徴量は、様々なものが考えられる。特徴量算出部23は、クラスター41の移動関連、周波数関連、イベント関連、形状関連に分類される特徴量のいずれか一つ以上を算出する。ここでは、一例として、クラスター41の平均速度、体長、体幅、角度変化の頻度、および、イベントの増減の周波数(以下、単に周波数と表記する)の5つの特徴量を算出する場合について説明する。
 特徴量算出部23は、所定周期ごと(例えば4msごと)に、クラスター追跡処理において追跡されているクラスター41の特徴量として、クラスター41の平均速度、体長、体幅、角度変化の頻度、および、周波数を算出する。
[5-1.平均速度]
 図7は、クラスターの平均速度の算出を説明する図である。図7に示すように、特徴量算出部23は、クラスター追跡処理によって追跡されたクラスター41の始点61から終点62までの移動距離(ピクセル数)を算出する。なお、始点61は、最初に形成されたクラスター41の中心位置(縦方向および横方向の中心)として算出される。終点62は、現在のクラスター41の中心位置として算出される。また、始点61から終点62までの移動経路63の総距離が移動距離として算出される。
 そして、特徴量算出部23は、算出された移動距離を、移動にかかった時間で除算することにより移動速度を算出する。また、特徴量算出部23は、所定周期ごとに算出される同一のクラスター41についての移動速度についての平均値を算出することで平均速度を算出する。
 図8は、種別ごとの平均速度を示す図である。図8は、異なる4つの種別の生物(種別A~D)についての平均速度の測定結果を示す図である。なお、図8では、4つのグラフの縦軸および横軸について同一の尺度で示している。
 図8に示すように、種別Aは、平均速度が比較的低速の範囲で分布を示している。種別Bは、平均速度が低速から高速まで万遍なく分布している。種別Cは、平均速度が種別Aよりも低速な割合が高い。種別Dは、平均速度が種別A、B、Cよりもさらに低速な割合が高く、かつ、個体ごとに平均速度の差が殆どない。
 このように、平均速度は種別ごとに異なる分布を示す。したがって、特徴量算出部23が特徴量として平均速度を算出することによって、後述するクラスター分類部24によるクラスター分類処理において平均速度を用いることで、分類の精度を向上することが可能となる。
[5-2.体長]
 図9は、クラスターの体長の算出を説明する図である。図9に示すように、特徴量算出部23は、クラスター追跡処理によって追跡されたクラスター41を囲む長方形のバウンドボックス64を設定する。そして、特徴量算出部23は、バウンドボックス64の水平方向(横方向)の長さ(X)、および、垂直方向(縦方向)の長さ(Y)を算出する。
 その後、特徴量算出部23は、算出した水平方向の長さ(X)、および、垂直方向の長さ(Y)のうち、長い方を一時的な体長とする。また、特徴量算出部23は、所定周期ごとに算出される同一のクラスター41についての一時的な体長の平均値を算出することで、その平均値をクラスター41の体長とする。
 図10は、種別ごとの体長を説明する図である。図10は、図8と同様の異なる4つの種別の生物(種別A~D)についての体長の測定結果を示す図である。なお、図10では、4つのグラフの縦軸および横軸について同一の尺度で示している。
 図10に示すように、種別Aは、体長が比較的短いものから長いものまで広範囲に分布している。種別Bは、体長が比較的広範囲でかつ種別Aよりも長いものが多い範囲で分布している。種別Cは、体長が種別A、Bよりも短く、狭い範囲で分布している。種別Dは、体長が種別A、B、Cよりもさらに短く、かつ、個体ごとに体長の差があまりない。
 このように、体長は種別ごとに異なる分布を示す。したがって、特徴量算出部23が特徴量として体長を算出することによって、後述するクラスター分類部24によるクラスター分類処理において体長を用いることで、分類の精度を向上することが可能となる。
[5-3.体幅]
 図11は、クラスターの体幅の算出を説明する図である。図11に示すように、特徴量算出部23は、クラスター追跡処理によって追跡されたクラスター41の進行方向ベクトル65を算出する。具体的には、特徴量算出部23は、例えば100ms前のクラスター41の中心位置から、今回(最新)のクラスター41の中心位置を結んだベクトルを進行方向ベクトル65として算出する。
 また、特徴量算出部23は、進行方向ベクトル65に直交する単位ベクトルを直交単位ベクトル66として算出する。
 また、特徴量算出部23は、クラスター41を構成するイベントのうち、最新(直近1ms)のイベントの中から任意の複数(例えば16個)のイベントを対象イベント67として抽出する。その後、特徴量算出部23は、今回(最新)のクラスター41の中心位置から対象イベント67を結んだベクトルを体幅ベクトル68として算出する。
 その後、特徴量算出部23は、各対象イベント67について、直交単位ベクトル66と体幅ベクトル68との内積をとることにより、クラスター41の進行方向に直交する長さを算出する。
 そして、特徴量算出部23は、各対象イベント67についての算出した進行方向に直交する長さのうち、最も長いものを一時的な体幅とする。また、特徴量算出部23は、所定周期ごとに算出される同一のクラスター41についての一時的な体幅の平均値を算出することで、その平均値をクラスター41の体幅とする。
 図12は、種別ごとの体幅を説明する図である。図11では、図8、図10と同様の異なる4つの種別の生物(種別A~D)についての体幅の測定結果を示す図である。なお、図12では、4つのグラフの縦軸および横軸について同一の尺度で示している。
 図12に示すように、種別Aは、体幅が比較的短いものから長いものまで広範囲に分布している。種別Bは、体長が比較的広範囲でかつ種別Aよりも長いものが多い範囲で分布している。種別Cは、体長が種別A、Bよりも短く、狭い範囲で分布している。種別Dは、体長が種別A、B、Cよりもさらに短く、かつ、個体ごとに体長の差が殆どない。
 このように、体幅は種別ごとに異なる分布を示す。したがって、特徴量算出部23が特徴量として体幅を算出することによって、後述するクラスター分類部24によるクラスター分類処理において体幅を用いることで、分類の精度を向上することが可能となる。
[5-4.角度変化の頻度]
 図13は、角度変化の頻度の算出を説明する図である。図13に示すように、特徴量算出部23は、体幅を算出したときと同様に、クラスター追跡処理によって追跡されたクラスター41の進行方向ベクトル65を算出し、その進行方向ベクトル65をRAMに記憶しておく。また、特徴量算出部23は、例えば100ms前の進行方向ベクトル65をRAMから読み出して前進行方向ベクトル69とする。
 そして、特徴量算出部23は、進行方向ベクトル65と前進行方向ベクトル69との単位長さ同士の内積、すなわち、進行方向ベクトル65と前進行方向ベクトル69とのなす角70を算出する。
 そして、特徴量算出部23は、進行方向ベクトル65と前進行方向ベクトル69とのなす角70が所定角度範囲内である回数をカウントしていき、そのカウント値を角度変化の頻度とする。なお、所定角度は、対象粒子が方向を変化させたとする角度に設定されている。
 図14は、種別ごとの角度変化の頻度を説明する図である。図14では、図8、図10、図12と同様の異なる4つの種別の生物(種別A~D)についての角度変化の頻度の測定結果を示す図である。なお、図14では、4つのグラフの縦軸および横軸について同一の尺度で示している。
 図14に示すように、種別Aは、角度変化の頻度が比較的少ない範囲で分布している。種別Bは、角度変化の頻度が種別Aよりも多い範囲で分布している。種別Cは、角度変化の頻度が種別Aよりも少ない範囲から多い範囲までの広範囲で分布している。種別Dは、角度変化の頻度が種別A、B、Cよりも多く、かつ、狭い範囲に分布している。
 このように、角度変化の頻度は種別ごとに異なる分布を示す。したがって、特徴量算出部23が特徴量として角度変化の頻度を算出することによって、後述するクラスター分類部24によるクラスター分類処理において角度変化の頻度を用いることで、分類の精度を向上することが可能となる。
[5-5.周波数]
 図15は、種別Aのイベント数の変化および周波数成分を説明する図である。図16は、種別Cのイベント数の変化および周波数成分を説明する図である。
 対象粒子が生物である場合、対象粒子の動き方(泳ぎ方)によってビジョンセンサ11で検出されるイベントの数が変化する。これは、対象物体の遊泳器官が所定周波数で動いていることによるものである。したがって、対象粒子の種別によっては、イベントの数が決まった周波数で変化することになる。
 図15上段に示すように、種別Aについてイベント数を測定した場合、イベント数が特定のパターンで変化している。そこで、図15上段における破線で囲んだ部分について周波数解析を行うと、図15下段に示すように、約7Hzの周波数成分がピークとして検出される。すなわち、種別Aは、約7Hzで遊泳器官を移動させていることがわかる。
 一方、図16上段に示すように、種別Cについてイベント数を測定した場合、種別Cの生物が移動している間のイベント数が略一定の値をとる。そして、図16上段における破線で囲んだ部分について周波数解析を行うと、図16下段に示すように、特定のピークを示す周波数は検出されない。
 そこで、特徴量算出部23は、クラスター41のイベント数について周波数解析を行い、ピークとなる周波数を算出する。なお、上記したように、ピークとなる周波数が算出されないこともある。
 このように、周波数は種別ごとに異なる値を示す。したがって、特徴量算出部23が特徴量として周波数の分布を算出することによって、後述するクラスター分類部24によるクラスター分類処理において周波数を用いることで、分類の精度を向上することが可能となる。
<6.クラスター結合処理>
 上記したように、クラスター形成部21によって形成されたクラスター41は、クラスター追跡部22によって追跡されることになる。しかしながら、ビジョンセンサ11は、入射光の輝度変化が発生した場合にイベント信号を出力するため、例えば対象粒子となる生物が停止している場合などにはイベント信号が出力されなくなる。そのため、対象粒子となる生物が停止している場合、クラスター追跡部22によってクラスター41を追跡することができなくなる。
 そして、停止していた生物が再度移動を開始すると、その生物に対するクラスター41がクラスター形成部21によって新たに形成されることになる。すなわち、停止前のクラスター41と、再移動後のクラスター41とが同一の生物に基づいて形成、追跡されていたとしても、それぞれ異なるクラスター41として検出されることになってしまう。
 また、複数の生物がビジョンセンサ11の撮像範囲で重なってしまった場合、それぞれの生物に基づくクラスター41が合体したり、分離したりし、同一の生物についてのクラスター41として追跡することが困難となる。
 そこで、クラスター追跡部22は、クラスター結合処理を行うことにより、同一の対象粒子に基づく複数の異なるクラスター41を結合して1つのクラスター41にする。
 図17は、クラスター結合処理を説明する図である。具体的には、図17に示すように、クラスター追跡部22は、一度見失ったクラスター41(以下、ロストクラスター71と表記する)について、ロストクラスター71を見失った位置(図中、集中線で示す)から所定範囲内であって、かつ、所定時間内に新たに発生したクラスター41(以下、ニュークラスター72と表記する)と特徴量の比較を行う。
 例えば、クラスター追跡部22は、ロストクラスター71を見失った位置から所定範囲内であって、かつ、所定時間内に発生したクラスター41をニュークラスター72とする。そして、クラスター追跡部22は、ロストクラスター71とニュークラスター72との特徴量を比較し、それぞれの特徴量が同一の対象粒子とされる範囲内である場合、ロストクラスター71とニュークラスター72とを結合して1つのクラスター41とする。
 また、クラスター41が結合された場合、特徴量算出部23は、結合されたクラスター41について特徴量を再度算出する。ここでは、例えば、クラスター41の平均速度、体長、体幅、角度変化の頻度、周波数が再度算出されることになる。
 このように、同一の対象粒子について異なるクラスター41として検出された場合に、それらのクラスター41を結合することにより、より長い時間の情報を用いて特徴量を算出することができ、特徴量の算出精度を向上することが可能となる。
 また、同一の対象粒子について1つのクラスター41とすることができるので、対象粒子の数を算出する際の算出精度を向上することが可能となる。
<7.クラスター分類処理>
 クラスター41について特徴量が算出されると、クラスター分類部24は、算出された特徴量に基づいて、クラスター41の分類、すなわち、対象粒子の種別を特定する。ここでは、ルールベースによる対象粒子の種別の特定であってもよく、また、機械学習による対象粒子の種別の特定であってもよい。
 図18は、種別ごとの特徴量を説明する図である。例えば、ルールベースによる対象粒子の種別の特定では、図18に一例を示すように、特定する種別ごとに特徴量の範囲が設定されており、その情報がROMやメモリ15に記憶されている。そして、クラスター分類部24は、クラスター41の特徴量が、特定の種別の特徴量の範囲内に含まれている場合、クラスター41がその特定の種別であると特定する。
 また、機械学習による対象粒子の種別の特定では、まず、種別ごとに既知となっている特徴量と種別との関係を教師データとして学習した学習モデルが生成され、その学習モデルがROMやメモリ15に記憶されている。そして、クラスター分類部24は、クラスター41の特徴量を学習モデルに導入することにより、クラスター41の種別を特定する。
 なお、同一の種別であっても変態時期や成長過程により算出される特徴量(例えば、体長および体幅)が異なる値を示す場合もある。したがって、クラスター分類部24では、様々な特徴量から総合的に種別を特定する。
 以上のようにして、信号解析部13は、ビジョンセンサ11から入力されるイベント信号に基づいて、クラスター41を形成、追跡するとともにクラスター41の特徴量を算出する。そして、信号解析部13は、クラスター41の特徴量に基づいて、対象粒子の種別を特定する。また、制御部14は、特定した情報をメモリ15に記憶する。このとき、制御部14は、特定した情報を外部環境情報と関連付けて記憶するようにしてもよい。なお、外部環境情報としては、深度、位置座標(測定地点の緯度および経度)、電気伝導度、温度、ph、気体(例えば、メタン、水素、ヘリウム)の濃度、金属の濃度(例えば、マンガン、鉄)、周辺液体の流速度などが考えられる。
<8.使用例>
 以下では、測定装置1の使用例について使用例1~使用例5を例に挙げて説明する。なお、使用例1~使用例5では、上記した実施形態の測定装置1と同一の構成について同一の符号を付してその説明を省略する。また、使用例1~使用例5は、それぞれ独立して用いられるようにしてもよく、複数の使用例が組み合わされて用いられるようにしてもよい。
[8-1.使用例1]
 図19は、使用例1の測定装置100の構成を説明する図である。使用例1では、測定装置100での信号解析処理を中断または軽減させて低消費電力化する例である。測定装置100は、例えば数ヶ月~数年に亘って海洋内に維持されることになるため、低消費電力化することにより、測定期間を長くすることが可能となる。
 図19に示すように、測定装置100は、測定装置1の構成に加え、電源101、電源制御部102、タイマー103を備えている。
 電源101は、各部に供給する電源電力を貯蔵するバッテリである。電源制御部102は、CPU、RAM、ROMを備えるコンピュータでなり、電源101から各部に供給する電源電力を制御する。なお、電源制御部102は、信号解析部13または制御部14と同一のハードウェアにより構成されるようにしてもよい。タイマー103は、一定期間ごとにトリガーとなる信号を電源制御部102に出力する。
 図20は、使用例1の処理の流れを示すフローチャートである。図20に示すように、処理が開始されると、ステップS11で電源制御部102は、測定装置100を省電力モードに移行させる。省電力モードでは、測定装置100の各部(例えば、ビジョンセンサ11、信号解析部13、制御部14、重力センサ16)への電源電力の供給を停止または低減(間欠的に供給)させるように電源101からの電力供給を制御する。このように測定装置100を省電力モードにすることで信号解析処理を中断または軽減させることが可能となる。
 その後、ステップS12で電源制御部102は、開始条件が成立したかを判定する。ここで、開始条件としては、タイマー103からトリガーとなる信号が入力されること、省電力モードで動作するビジョンセンサ11から入力されるイベント信号の数が所定値以上であること、通信部17を介して外部から開始指示のコマンドが入力されること等が設定されている。
 開始条件が成立するまでステップS12を繰り返し、開始条件が成立した場合(ステップS12でYes)、ステップS13で電源制御部102は、測定装置100を通常処理モードに移行させる。通常処理モードでは、測定装置100の各部(例えば、ビジョンセンサ11、信号解析部13、制御部14、重力センサ16)に電源電力を常時供給するように電源101からの電力供給を制御する。
 その後、上記したステップS1~ステップS8の信号解析処理が実行された後、ステップS14で電源制御部102は、終了条件が成立したかを判定する。ここで、終了条件としては、タイマー103からトリガーとなる信号が入力されること、信号解析処理において算出されたクラスター41の数や特徴量に基づく所定条件が成立したこと、通信部17を介して外部から終了指示のコマンドが入力されることの少なくともいずれかである。
 終了条件が成立するまで測定処理(ステップS1~ステップS8)が行われ、終了条件が成立した場合(ステップS14でYes)、ステップS11に戻って電源制御部102は、測定装置100を省電力モードに移行させる。
 このように、電源制御部102は、例えばクラスターの数または特徴量に基づいてモードを切り替えることのより、低消費電力化することができるとともに、効率よく対象粒子の測定を行わせることが可能となる。
[8-2.使用例2]
 図21は、使用例2の測定装置200の構成を説明する図である。例えば、ビジョンセンサ11の測定範囲内の対象粒子が十分な大きさを持ち、かつ活発に動いている場合、信号解析部13が必要とする数以上のイベント信号が対象粒子から得られると、ビジョンセンサ11や信号解析部13の消費電力増大につながる。また、対象粒子の動きが緩慢な場合、必要なイベント数が得られず、正確な測定結果が得られない。
 そこで、使用例2では、ビジョンセンサ11で検出されるイベント数が過多または過小な場合に、ビジョンセンサ11のイベント閾値(プラス閾値、マイナス閾値)、または、照明部3から照射される光の光量を調整して、イベント数を最適なものとする例である。
 図21に示すように、測定装置200は、測定装置1の構成に加え、照明制御部201、イベント数モニタ部202を備えている。
 照明制御部201は、CPU、RAM、ROMを備えるコンピュータでなり、照明部3から出射される光の光量を制御する。イベント数モニタ部202は、CPU、RAM、ROMを備えるコンピュータでなり、ビジョンセンサ11から出力されるイベント信号の数、すなわち、ビジョンセンサ11で捉えたイベントの数をモニタリングする。なお、照明制御部201およびイベント数モニタ部202は、信号解析部13または制御部14と同一のハードウェアにより構成されるようにしてもよい。
 図22は、使用例2の処理の流れを示すフローチャートである。図22に示すように、処理が開始されると、ステップS21で制御部14は、ビジョンセンサ11のイベント閾値(プラス閾値、マイナス閾値)を既定値に設定する。また、照明制御部201は、照明部3から照射される光の光量を既定値に設定する。
 その後、上記したステップS1~ステップS8の信号解析処理が実行される。このとき、イベント数モニタ部202は、イベント数をモニタリングしている。そして、ステップS22で制御部14は、イベント閾値、光量の変更条件が成立したかを判定する。ここで、変更条件としては、イベント数が第1所定数以上または第2所定数以下であること、クラスター41の追跡に失敗した割合が第1所定値以上または第2所定値以下であること、所定サイズ以上のクラスター41が十分な運動量を持ち(平均速度が所定値以上など)イベント数が過大になるおそれがあることの少なくともいずれかである。なお、第1所定数は第2所定数よりも大きな数であり、第1所定値は第2所定値よりも大きな値である。
 より具体的には、イベント数が多いとされる変更条件としては、イベント数が第1所定数以上であること、クラスター41の追跡に失敗した割合が第2所定値以下であること、所定サイズ以上のクラスター41が十分な運動量を持ちイベント数が過大になるおそれがあることの少なくともいずれかである。また、イベント数が少ないとされる変更条件としては、イベント数が第2所定数以下であること、クラスター41の追跡に失敗した割合が第1所定値以上であることの少なくともいずれかである。
 変更条件が成立しない場合(ステップS22でNo)、上記したステップS1~ステップS8の信号解析処理に戻り、変更条件が成立した場合(ステップS22でYes)、ステップS23で制御部14は、ビジョンセンサ11のイベント閾値(プラス閾値、マイナス閾値)を変更する。また、照明制御部201は、照明部3から照射される光の光量を変更する。ここでは、イベント数が多いとされる変更条件が成立した場合、イベント閾値を大きくしたり、光量を減少させたりする。また、イベント数が少ないとされる変更条件が成立した場合、イベント閾値を小さくしたり、光量を増大させたりする。
 このように、測定装置200では、イベント数を適宜調整することにより、低消費電力化することができるとともに、精度よく対象粒子の測定を行わせることが可能となる。なお、測定装置200では、変更条件が成立した場合に、イベント閾値の変更、および、照明部3から照射される光の光量の変更の少なくとも一方のみを行うようにしてもよく、また、両方を行うようにしてもよい。
[8-3.使用例3]
 図23は、使用例3の測定装置300の構成を説明する図である。使用例3では、照明部301が個別にオンオフが可能な複数の光源301aを備え、信号解析処理の結果に基づいて、光源301aのオンオフ、波長、光量を切り替える例である。
 図23に示すように、測定装置300は、測定装置1の照明部3に代えて照明部301を備えるとともに、照明制御部201を備えている。照明部301は、個別にオンオフが可能な複数の光源301aを備える。照明部301は、複数の光源301aのオンオフを切り替えることにより、全体として光を照射させる位置を変更することができる。
 図24は、使用例3の処理の流れを示すフローチャートである。図24に示すように、処理が開始されると、ステップS31で照明制御部201は、照明部301から照射される光の波長、位置、光量を既定値に設定する。
 その後、上記したステップS1~ステップS8の信号解析処理が実行された後、ステップS32で制御部14は、信号解析処理の結果に基づいて、特定のクラスター41について、分類結果が1種別のみに特定されたかを判定する。
 そして、分類結果が1種別のみに特定されていない場合(ステップS32でNo)、すなわち、複数種別の分類先候補が特定された場合、ステップS33で照明制御部201は、1種別の分類先に特定されるように、照明部301から照射される光の波長、位置、光量を変更する。ここでは、分類先候補の種別の光走性等に応じて、各光源301aのオンオフ、出射される光の波長、光量を変更する。一方、分類結果が1種別のみに特定された場合(ステップS32でYes)、信号解析処理(ステップS1~ステップS8)を継続する。
 このように、測定装置300では、照明部301から照射される光の波長、位置、光量を変更することにより、対象粒子の光走性を新たな特徴量として測定することで、対象粒子の分類精度を向上させることが可能となる。また、例えば特定の1種別の対象粒子についてのみ選別して光を照射し、測定を行うことが可能となるなど測定対象を絞ることが可能となり、効率よく測定を行うことが可能となる。
 なお、照明制御部201は、複数種別の分類先候補が特定されたこと以外の所定条件が成立した場合にも、照明部301から照射される光の波長、位置、光量を変更するようにしてもよい。また、照明制御部201は、照明部301から照射される光の位置のみを変更するようにしてもよい。
[8-4.使用例4]
 図25は、使用例4の測定装置400の構成を説明する図である。使用例4では、信号解析処理の結果に加えて、各種センサで計測された外部環境情報を関連付けて記憶する例である。
 図25に示すように、測定装置400は、測定装置100の構成に加え、粒子解析部401、GNSSセンサ(Global Navigation Satellite System)402、水深計403、pH計404、リアルタイムクロック405を備える。
 粒子解析部401は、CPU、RAM、ROMを備えるコンピュータでなり、粒子判定部411および粒子カウント部412を備える。
 粒子判定部411は、信号解析処理によって分類された対象粒子を予め設定された条件に基づいてさらに分類する。例えば、粒子判定部411は、対象粒子(クラスター41)の移動方向に基づいて、上方向にも移動する対象粒子をアクティブ粒子とし、下方向のみに移動する対象粒子をパッシブ粒子に分類する。
 粒子カウント部412は、粒子判定部411によって分類された粒子の数をカウントする。
 なお、粒子解析部401は、信号解析部13または制御部14と同一のハードウェアにより構成されるようにしてもよい。また、粒子判定部411および粒子カウント部412は、クラスター分類部24内に設けられるようにしてもよい。
 GNSSセンサ402は、測定装置400の位置情報を取得する。水深計403は、測定装置400が置かれている位置の水深を測定する。pH計404は、測定装置400が置かれている水域のpH値を測定する。リアルタイムクロック405は、時計機能を有する集積回路であり、現時刻を出力する。
 図26は、使用例4の処理の流れを示すフローチャートである。図26に示すように、処理が開始されると、上記したステップS1~ステップS8の信号解析処理が実行された後、ステップS41で粒子判定部411は、信号解析処理によって分類された対象粒子を予め設定された条件に基づいてさらに分類する。また、粒子カウント部412は、分類された粒子の数をカウントする。
 ステップS42で制御部14は、重力センサ16、GNSS402、水深計403、pH計404、リアルタイムクロック405から測定または出力された値を取得する。そして、ステップS43で制御部14は、ステップS41での処理結果に、ステップS42での取得結果を外部環境情報として関連付けてメモリ15に記憶する。
 このように、測定装置400は、アクティブ粒子およびパッシブ粒子の数を様々な外部環境情報に関連付けて記憶することで、例えば、生物の数および密度を観察したり、マリンスノーなどのパッシブ粒子の割合を取得したりすることが可能となる。これにより、海洋中の生物多様性や環境汚染度合を評価する指標を見出すことも可能となる。
[8-5.使用例5]
 図27は、使用例5の測定装置500の構成を説明する図である。使用例5では、信号解析処理の結果に基づいて、海底に堆積する炭素量の推定を行う例である。
 図27に示すように、測定装置500は、使用例4の測定装置400における粒子解析部401に代えて、粒子解析部501を備える。
 粒子解析部501は、CPU、RAM、ROMを備えるコンピュータでなり、粒子判定部411、粒子カウント部412および炭素量推定部511を備える。
 炭素量推定部511は、粒子判定部411によりパッシブ粒子に分類された対象粒子を海底に堆積する粒子とし、そのパッシブ粒子の種別、特徴量(体長、体幅等の大きさを示す特徴量)、数に基づいて、海底に堆積する炭素量を推定する。
 例えば、パッシブ粒子に分類される種別ごとの単位大きさ当たりの炭素量がメモリ15に記憶されており、炭素量推定部511は、単位大きさあたりの炭素量と、それぞれのパッシブ粒子の大きさおよび数との関係により炭素量を推定する。
 このように、測定装置500は、海底に堆積する炭素量を推定することで、温室効果ガス削減のための指標を取得することができる。
<9.測定装置の他の構成例>
 なお、実施形態としては上記により説明した具体例に限定されるものではなく、多様な変形例としての構成を採り得るものである。
 測定装置は、撮像センサを備えるようにしてもよい。撮像センサは、例えば、CCD(Charge Coupled Device)型やCMOS(Complementary Metal-Oxide-Semiconductor)型のイメージセンサであり、ビジョンセンサ11と同一の撮像範囲を撮像するようにしてもよい。
 また、特徴量算出部23は、クラスター41の平均速度、体長、体幅、角度変化の頻度、および、周波数を特徴量として算出し、それらの特徴量に基づいてクラスター41を分類するようにした。しかしながら、特徴量算出部23は、クラスター41の平均速度、体長、体幅、角度変化の頻度、および、周波数の一つ以上を特徴量として算出し、算出した特徴量に基づいてクラスター41を分類するようにしてもよい。すなわち、特徴量算出部23は、上記した移動関連、周波数関連、イベント関連、形状関連の特徴量のいずれか1または複数を算出するようにしてもよい。
<10.実施形態のまとめ>
 上記のように実施形態の測定装置1においては、入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサ11と、所定期間内に入力されたイベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスター41として形成するクラスター形成部21と、クラスターの特徴量を算出する特徴量算出部23と、特徴量算出部により算出された特徴量に基づいて、クラスターを分類するクラスター分類部24と、を備える。
 これにより、測定装置1は、ビジョンセンサ11から入力されるイベント信号に基づいてクラスター41を分類することが可能となる。
 かくして、測定装置1は、クラスターを精度よく分類することができる。
 また、クラスター41を追跡するクラスター追跡部22を備え、特徴量算出部23は、クラスター追跡部によって追跡されているクラスターの特徴量を算出する。
 これにより、測定装置1は、クラスター41の移動に基づく特徴量(平均速度、周波数など)を算出することが可能となる。
 また、クラスター追跡部22は、特徴量に基づいて、同一の対象粒子に基づく複数のクラスター41を1つのクラスターに結合する。
 これにより、測定装置1は、同一の対象粒子に基づく複数のクラスター41を、別々の対象粒子に基づくクラスター41と誤検出してしまうことを低減することができる。
 また、特徴量算出部23は、クラスター41が結合された場合、結合された複数のクラスターの情報に基づいて特徴量を再度算出する。
 これにより、測定装置1は、結合前後のクラスター41の情報(イベント信号)に基づいて特徴量を算出することになるため、長期間に亘ってクラスター41を観察することが可能となり、特徴量を精度よく算出することができる。
 また、特徴量算出部23は、クラスター41の移動関連、周波数関連、イベント関連、形状関連に分類される前記特徴量のいずれか一つ以上を算出する。
 これにより、測定装置1は、対象粒子を分類する上で有効な特徴量を適切に選択させることで、クラスター41を精度よく分類することができる。
 また、特徴量算出部23は、クラスター41の平均速度、体長、体幅、角度変化の頻度、および、クラスターを構成するイベント数の変化周波数の一つ以上を特徴量として算出する。
 これにより、測定装置1は、対象粒子を分類する上で有効な特徴量に基づいてクラスター41を分類することができる。
 また、特徴量算出部23は、クラスター41の平均速度、体長、体幅、角度変化の頻度、および、クラスターを構成するイベント数の変化周波数の全てを特徴量として算出する。
 これにより、測定装置1は、対象粒子を分類する上で有効な複数の特徴量の組合せに基づいてクラスター41をより精度よく分類することができる。
 また、電源101からの電源電力の供給を制御する電源制御部102を備え、電源制御部102は、測定装置100の各部への電源電力の供給を停止または低減させる省電力モードと、測定装置100の各部に電源電力を供給する通常処理モードとを切り替える。
 これにより、測定装置100は、測定を行わない場合や、測定を行う必要がない状況において低消費電力化することができ、測定期間をより長くすることができる。
 また、電源制御部102は、クラスター形成部21によって形成されたクラスターの数、または、特徴量算出部23によって算出された特徴量に基づいてモードを切り替える。
 これにより、測定装置100は、対象粒子が多い場合など、測定を最適に行える環境下で測定を行い、それ以外のときには省電力モードによって低消費電力化を図ることができる。
 また、ビジョンセンサ11の撮像範囲に対して光を照射する照明部3と、照明部3から照射される光の光量を制御する照明制御部201とを備え、照明制御部201は、変更条件が成立した場合に光量を変更する。
 これにより、測定装置200は、ビジョンセンサ11で検出されるイベント数を最適な数にすることができ、測定精度を向上するとともに、低消費電力化を図ることができる。
 また、変更条件は、ビジョンセンサ11から出力されるイベント信号の数が第1所定数以上または第2所定数以下となったこと、クラスターの追跡失敗の割合が第1所定値以上または第2所定値以下となったこと、所定サイズ以上の前記クラスターが十分な運動量を持ちイベント数が過大となるおそれがあることの少なくともいずれかである。
 これにより、測定装置200は、イベント数が過大または過小な場合に照明部3から照射される光の光量を変更してイベント数を最適にすることができる。
 また、ビジョンセンサ11のイベント閾値を制御する制御部14を備え、制御部14は、変更条件が成立した場合にイベント閾値を変更する。
 これにより、測定装置200は、ビジョンセンサ11で検出されるイベント数を最適な数にすることができ、測定精度を向上するとともに、低消費電力化を図ることができる。
 また、独立してオンオフが可能な複数の光源301aを有する照明部301と、光源301aのオンオフを制御する照明制御部201とを備え、照明制御部201は、所定条件が成立した場合に光源のオンオフを変更する。
 これにより、測定装置300は、照明部から照射される光の位置を変更することが可能となり、例えば光走性を示す生物に焦点を当てた測定を行うことができる。
 また、照明制御部201は、所定条件が成立した場合に光源301aのオンオフ、波長および光量を変更する。
 これにより、測定装置300は、特定の対象粒子(光走性を示す生物)に合わせた光を照射させることで、その対象粒子についての測定精度を向上することができる。
 また、クラスター分類部24によって分類された対象粒子をアクティブ粒子またはパッシブ粒子に分類する粒子判定部411を備える。
 これにより、測定装置400は、生物、非生物の割合や、海底に堆積する粒子の割合などを算出することができる。
 また、アクティブ粒子および前記パッシブ粒子の数をカウントする粒子カウント部412を備える。
 これにより、測定装置400は、生物、非生物の割合や、海底に堆積する粒子の割合などを算出することができる。
 また、外部環境を測定するセンサ(重力センサ16、GNSS402、水深計403、pH計404、リアルタイムクロック405)を備え、アクティブ粒子およびパッシブ粒子の数と、センサによって測定された外部環境の情報とを関連付けて記憶する。
 これにより、外部環境の影響によるアクティブ粒子およびパッシブ粒子の割合、生物多様性、環境汚染度合などを算出することができる。
 また、パッシブ粒子の数および特徴量に基づいて、水中に堆積する炭素量を推定する炭素量推定部511を備える。
 これにより、測定装置500は、温室効果ガス削減に貢献する海洋炭素量を推定することができる。
 また、測定方法は、入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサによって所定期間内に入力されたイベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスターとして形成し、クラスターの特徴量を算出し、特徴量に基づいて、クラスターを分類する。
 また、プログラムは、入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサによって所定期間内に入力されたイベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスターとして形成し、クラスターの特徴量を算出し、特徴量に基づいて、クラスターを分類する処理を測定装置に実行させる。
 このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
 あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<11.本技術>
 本技術は以下のような構成も採ることができる。
(1)
 入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサと、
 所定期間内に入力された前記イベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスターとして形成するクラスター形成部と、
 前記クラスターの特徴量を算出する特徴量算出部と、
 前記特徴量算出部により算出された前記特徴量に基づいて、前記クラスターを分類するクラスター分類部と、
を備える測定装置。
(2)
 前記クラスターを追跡するクラスター追跡部を備え、
 前記特徴量算出部は、前記クラスター追跡部によって追跡されている前記クラスターの特徴量を算出する
 (1)に記載の測定装置。
(3)
 前記クラスター追跡部は、前記特徴量に基づいて、同一の対象粒子に基づく複数の前記クラスターを1つの前記クラスターに結合する
 (2)に記載の測定装置。
(4)
 前記特徴量算出部は、前記クラスターが結合された場合、結合された複数の前記クラスターの情報に基づいて前記特徴量を再度算出する
 (3)に記載の測定装置。
(5)
 前記特徴量算出部は、前記クラスターの移動関連、周波数関連、イベント関連、形状関連に分類される前記特徴量のいずれか一つ以上を算出する
 (1)から(4)のいずれかに記載の測定装置。
(6)
 前記特徴量算出部は、前記クラスターの平均速度、体長、体幅、角度変化の頻度、および、前記クラスターを構成するイベント数の変化周波数の一つ以上を前記特徴量として算出する
 (1)から(5)のいずれかに記載の測定装置。
(7)
 前記特徴量算出部は、前記クラスターの平均速度、体長、体幅、角度変化の頻度、および、前記クラスターを構成するイベント数の変化周波数の全てを前記特徴量として算出する
 (6)に記載の測定装置。
(8)
 電源からの電源電力の供給を制御する電源制御部を備え、
 前記電源制御部は、
 前記測定装置の各部への電源電力の供給を停止または低減させる省電力モードと、前記測定装置の各部に電源電力を供給する通常処理モードとを切り替える
 (1)から(7)のいずれかに記載の測定装置。
(9)
 前記電源制御部は、前記クラスター形成部によって形成された前記クラスターの数、または、前記特徴量算出部によって算出された前記特徴量に基づいてモードを切り替える
 (8)に記載の測定装置。
(10)
 前記ビジョンセンサの撮像範囲に対して光を照射する照明部と、
 前記照明部から照射される光の光量を制御する照明制御部とを備え、
 前記照明制御部は、
 変更条件が成立した場合に前記光量を変更する
 (1)から(9)のいずれかに記載の測定装置。
(11)
 前記変更条件は、
 前記ビジョンセンサから出力される前記イベント信号の数が第1所定数以上または第2所定数以下となったこと、前記クラスターの追跡失敗の割合が第1所定値以上または第2所定値以下となったこと、所定サイズ以上の前記クラスターが十分な運動量を持ちイベント数が過大となるおそれがあることの少なくともいずれかである
 (10)に記載の測定装置。
(12)
 前記ビジョンセンサのイベント閾値を制御する制御部を備え、
 前記制御部は、
 変更条件が成立した場合に前記イベント閾値を変更する
 (1)から(11)のいずれかに記載の測定装置。
(13)
 独立してオンオフが可能な複数の光源を有する照明部と、
 前記光源のオンオフを制御する照明制御部とを備え、
 前記照明制御部は、
 所定条件が成立した場合に前記光源のオンオフを変更する
 (1)から(12)のいずれかに記載の測定装置。
(14)
 前記照明制御部は、
 前記所定条件が成立した場合に前記光源のオンオフ、波長および光量を変更する
 (13)に記載の測定装置。
(15)
 前記クラスター分類部によって分類された対象粒子をアクティブ粒子またはパッシブ粒子に分類する粒子判定部を備える
 (1)から(14)のいずれかに記載の測定装置。
(16)
 前記アクティブ粒子および前記パッシブ粒子の数をカウントする粒子カウント部を備える
 (15)に記載の測定装置。
(17)
 外部環境を測定するセンサを備え、
 前記アクティブ粒子および前記パッシブ粒子の数と、前記センサによって測定された前記外部環境の情報とを関連付けて記憶する
 (16)に記載の測定装置。
(18)
 前記パッシブ粒子の数および前記特徴量に基づいて、水中に堆積する炭素量を推定する炭素量推定部を備える
 (16)または(17)に記載の測定装置。
(19)
 測定装置が、
 入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサによって所定期間内に入力された前記イベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスターとして形成し、
 前記クラスターの特徴量を算出し、
 前記特徴量に基づいて、前記クラスターを分類する
 測定方法。
(20)
 入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサによって所定期間内に入力された前記イベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスターとして形成し、
 前記クラスターの特徴量を算出し、
 前記特徴量に基づいて、前記クラスターを分類する
 処理を測定装置に実行させるプログラム。
1 測定装置
3 照明部
11 ビジョンセンサ
13 信号処理部
14 制御部
21 クラスター形成部
22 クラスター追跡部
23 特徴量算出部
24 クラスター分類部

Claims (20)

  1.  入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサと、
     所定期間内に入力された前記イベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスターとして形成するクラスター形成部と、
     前記クラスターの特徴量を算出する特徴量算出部と、
     前記特徴量算出部により算出された前記特徴量に基づいて、前記クラスターを分類するクラスター分類部と、
    を備える測定装置。
  2.  前記クラスターを追跡するクラスター追跡部を備え、
     前記特徴量算出部は、前記クラスター追跡部によって追跡されている前記クラスターの特徴量を算出する
     請求項1に記載の測定装置。
  3.  前記クラスター追跡部は、前記特徴量に基づいて、同一の対象粒子に基づく複数の前記クラスターを1つの前記クラスターに結合する
     請求項2に記載の測定装置。
  4.  前記特徴量算出部は、前記クラスターが結合された場合、結合された複数の前記クラスターの情報に基づいて前記特徴量を再度算出する
     請求項3に記載の測定装置。
  5.  前記特徴量算出部は、前記クラスターの移動関連、周波数関連、イベント関連、形状関連に分類される前記特徴量のいずれか一つ以上を算出する
     請求項1に記載の測定装置。
  6.  前記特徴量算出部は、前記クラスターの平均速度、体長、体幅、角度変化の頻度、および、前記クラスターを構成するイベント数の変化周波数の一つ以上を前記特徴量として算出する
     請求項1に記載の測定装置。
  7.  前記特徴量算出部は、前記クラスターの平均速度、体長、体幅、角度変化の頻度、および、前記クラスターを構成するイベント数の変化周波数の全てを前記特徴量として算出する
     請求項6に記載の測定装置。
  8.  電源からの電源電力の供給を制御する電源制御部を備え、
     前記電源制御部は、
     前記測定装置の各部への電源電力の供給を停止または低減させる省電力モードと、前記測定装置の各部に電源電力を供給する通常処理モードとを切り替える
     請求項1に記載の測定装置。
  9.  前記電源制御部は、前記クラスター形成部によって形成された前記クラスターの数、または、前記特徴量算出部によって算出された前記特徴量に基づいてモードを切り替える
     請求項8に記載の測定装置。
  10.  前記ビジョンセンサの撮像範囲に対して光を照射する照明部と、
     前記照明部から照射される光の光量を制御する照明制御部とを備え、
     前記照明制御部は、
     変更条件が成立した場合に前記光量を変更する
     請求項1に記載の測定装置。
  11.  前記変更条件は、
     前記ビジョンセンサから出力される前記イベント信号の数が第1所定数以上または第2所定数以下となったこと、前記クラスターの追跡失敗の割合が第1所定値以上または第2所定値以下となったこと、所定サイズ以上の前記クラスターが十分な運動量を持ちイベント数が過大となるおそれがあることの少なくともいずれかである
     請求項10に記載の測定装置。
  12.  前記ビジョンセンサのイベント閾値を制御する制御部を備え、
     前記制御部は、
     変更条件が成立した場合に前記イベント閾値を変更する
     請求項1に記載の測定装置。
  13.  独立してオンオフが可能な複数の光源を有する照明部と、
     前記光源のオンオフを制御する照明制御部とを備え、
     前記照明制御部は、
     所定条件が成立した場合に前記光源のオンオフを変更する
     請求項1に記載の測定装置。
  14.  前記照明制御部は、
     前記所定条件が成立した場合に前記光源のオンオフ、波長および光量を変更する
     請求項13に記載の測定装置。
  15.  前記クラスター分類部によって分類された対象粒子をアクティブ粒子またはパッシブ粒子に分類する粒子判定部を備える
     請求項1に記載の測定装置。
  16.  前記アクティブ粒子および前記パッシブ粒子の数をカウントする粒子カウント部を備える
     請求項15に記載の測定装置。
  17.  外部環境を測定するセンサを備え、
     前記アクティブ粒子および前記パッシブ粒子の数と、前記センサによって測定された前記外部環境の情報とを関連付けて記憶する
     請求項16に記載の測定装置。
  18.  前記パッシブ粒子の数および前記特徴量に基づいて、水中に堆積する炭素量を推定する炭素量推定部を備える
     請求項16に記載の測定装置。
  19.  測定装置が、
     入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサによって所定期間内に入力された前記イベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスターとして形成し、
     前記クラスターの特徴量を算出し、
     前記特徴量に基づいて、前記クラスターを分類する
     測定方法。
  20.  入射光の輝度変化に応じてイベント信号を非同期で出力する複数の画素を有するビジョンセンサによって所定期間内に入力された前記イベント信号に基づいて、同一の対象粒子によって発生したイベントの点群をクラスターとして形成し、
     前記クラスターの特徴量を算出し、
     前記特徴量に基づいて、前記クラスターを分類する
     処理を測定装置に実行させるプログラム。
PCT/JP2022/040816 2021-12-15 2022-10-31 測定装置、測定方法、プログラム WO2023112532A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021203356 2021-12-15
JP2021-203356 2021-12-15

Publications (1)

Publication Number Publication Date
WO2023112532A1 true WO2023112532A1 (ja) 2023-06-22

Family

ID=86774054

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040816 WO2023112532A1 (ja) 2021-12-15 2022-10-31 測定装置、測定方法、プログラム

Country Status (1)

Country Link
WO (1) WO2023112532A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06304546A (ja) * 1993-04-21 1994-11-01 Hitachi Ltd 上水道プラントの運用制御装置
JP2016165274A (ja) * 2010-10-25 2016-09-15 政彦 佐藤 弁別的細胞イベントの定量的な識別を行う装置及び方法
JP2021021568A (ja) * 2019-07-24 2021-02-18 Optech Innovation合同会社 光吸収量差分計測装置及び光吸収量差分計測方法、並びに光吸収量差分画像の撮影装置及び光吸収量差分画像の撮影方法
WO2021084833A1 (ja) * 2019-10-30 2021-05-06 ソニー株式会社 物体認識システム及び物体認識システムの信号処理方法、並びに、電子機器
WO2021215173A1 (ja) * 2020-04-22 2021-10-28 ソニーグループ株式会社 測定装置、撮像制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06304546A (ja) * 1993-04-21 1994-11-01 Hitachi Ltd 上水道プラントの運用制御装置
JP2016165274A (ja) * 2010-10-25 2016-09-15 政彦 佐藤 弁別的細胞イベントの定量的な識別を行う装置及び方法
JP2021021568A (ja) * 2019-07-24 2021-02-18 Optech Innovation合同会社 光吸収量差分計測装置及び光吸収量差分計測方法、並びに光吸収量差分画像の撮影装置及び光吸収量差分画像の撮影方法
WO2021084833A1 (ja) * 2019-10-30 2021-05-06 ソニー株式会社 物体認識システム及び物体認識システムの信号処理方法、並びに、電子機器
WO2021215173A1 (ja) * 2020-04-22 2021-10-28 ソニーグループ株式会社 測定装置、撮像制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MIYAI, HIROSHI ET AL.: "A Simple Method for the Estimation of Phytoplankton Biomass Based on Cell Morphology", PLANKTON SOCIETY OF JAPAN. BULLETIN, PLANKTON SOCIETY OF JAPAN, TOKYO, JP, vol. 35, no. 2, 1 January 1988 (1988-01-01), JP , pages 121 - 126, XP009543708, ISSN: 0387-8961 *

Similar Documents

Publication Publication Date Title
Weikersdorfer et al. Event-based particle filtering for robot self-localization
JP2020052694A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
CN108961312A (zh) 用于嵌入式视觉系统的高性能视觉对象跟踪方法及系统
Du et al. Simple training strategies and model scaling for object detection
JP2020052695A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
CN109344717A (zh) 一种多阈值动态统计的深海目标在线检测识别方法
WO2022205632A1 (zh) 目标检测方法、装置、设备及存储介质
Palconit et al. Towards Tracking: Investigation of Genetic Algorithm and LSTM as Fish Trajectory Predictors in Turbid Water
CN104090262A (zh) 一种基于多采样率多模型融合估计的移动目标跟踪方法
WO2023112532A1 (ja) 測定装置、測定方法、プログラム
Colque Progressive background image generation of surveillance traffic videos based on a temporal histogram ruled by a reward/penalty function
JP6419260B1 (ja) 交通情報取得装置、交通情報取得システム、交通情報取得方法、および交通情報取得プログラム
CN108697314B (zh) 控制体内装置中的图像捕获和传输速率的方法及系统
US20220172027A1 (en) Inference execution method
WO2023026551A1 (ja) 測定装置、測定方法、プログラム
WO2023210330A1 (ja) データ生成装置、データ生成方法、プログラム、解析装置
JP2021196899A (ja) 画像処理装置、画像処理方法、及びプログラム
EP4350284A1 (en) Measurement device, measurement method, program
WO2023026880A1 (ja) 測定装置、測定方法、プログラム
EP4350307A1 (en) Measurement device, measurement method, and program
WO2021059263A4 (en) Navigation indication of a vehicle
Gupta et al. Enhancing Road Safety and ITS Efficiency: A Comprehensive Evaluation of Traffic Sign Detection using YOLOv8
US11879725B2 (en) Optical measuring method and optical measuring device
Atrey et al. Experiential sampling based foreground/background segmentation for video surveillance
Li et al. Robust target detection, tracking and following for an indoor mobile robot

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22907065

Country of ref document: EP

Kind code of ref document: A1