WO2023210330A1 - データ生成装置、データ生成方法、プログラム、解析装置 - Google Patents

データ生成装置、データ生成方法、プログラム、解析装置 Download PDF

Info

Publication number
WO2023210330A1
WO2023210330A1 PCT/JP2023/014589 JP2023014589W WO2023210330A1 WO 2023210330 A1 WO2023210330 A1 WO 2023210330A1 JP 2023014589 W JP2023014589 W JP 2023014589W WO 2023210330 A1 WO2023210330 A1 WO 2023210330A1
Authority
WO
WIPO (PCT)
Prior art keywords
subcluster
events
data generation
information
subclusters
Prior art date
Application number
PCT/JP2023/014589
Other languages
English (en)
French (fr)
Inventor
秀仁 佐藤
進 高塚
弘樹 鉄川
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023210330A1 publication Critical patent/WO2023210330A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/47Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data

Definitions

  • the present technology relates to a data generation device, a data generation method, a program, and an analysis device, and particularly relates to a technology using a vision sensor.
  • An asynchronous vision sensor (solid-state image sensor) has been proposed that detects in real time as an event that the amount of incident light exceeds a predetermined threshold in each pixel arranged in a two-dimensional grid (for example, Patent Document 1 ).
  • a vision sensor that detects an event on a pixel-by-pixel basis is called a DVS (Dynamic Vision Sensor) or an EVS (Event-Based Vision Sensor).
  • the number of detected events increases as the object image becomes larger. Therefore, in a device using a vision sensor, if all information related to detected events is recorded, the amount of data may become enormous.
  • the present technology aims to reduce the amount of data when using a vision sensor.
  • the data generation device classifies events detected by a vision sensor in which pixels are two-dimensionally arranged to asynchronously detect events that occur based on the brightness of incident light, according to predetermined conditions. and a data generation section that generates information regarding the subclusters based on information on the classified events. Thereby, the data generation device does not need to record all event signals of events detected by the vision sensor, and can record only information related to subclusters.
  • FIG. 2 is a diagram illustrating the configuration of a measurement system.
  • FIG. 2 is a diagram illustrating the configuration of a data generation device.
  • FIG. 2 is a diagram illustrating the configuration of a vision sensor.
  • FIG. 2 is a diagram illustrating an overview of an event signal output from a vision sensor.
  • FIG. 3 is a diagram illustrating a captured image based on an event signal. It is a figure explaining the event in a captured image. It is a figure explaining subcluster formation processing. It is a figure explaining subcluster formation processing. It is a figure explaining subcluster formation processing. It is a figure explaining subcluster formation processing. It is a figure explaining subcluster formation processing. It is a figure explaining subcluster formation processing. It is a figure explaining subcluster formation processing. It is a figure explaining subcluster formation processing. It is a figure explaining subcluster formation processing. It is a figure explaining subcluster formation processing. It is a figure explaining subcluster formation processing.
  • FIG. 3 is a diagram illustrating an example of a data structure of a subcluster.
  • FIG. 3 is a diagram illustrating an example of a data structure of a subcluster. It is a flow chart showing the flow of subcluster formation processing.
  • FIG. 2 is a diagram illustrating the configuration of an analysis device. 3 is a flowchart showing the flow of analysis processing. It is a figure explaining the structure of the data generation device of a modification.
  • FIG. 1 is a diagram illustrating the configuration of a measurement system 1. As shown in FIG. As shown in FIG. 1, the measurement system 1 includes an imaging device 2 and an analysis device 3.
  • the imaging device 2 uses the vision sensor 13 to detect an event based on a change in brightness. Further, the imaging device 2 generates information regarding a subcluster corresponding to a part of the object as subcluster data based on information regarding the detected event (event signal).
  • the imaging device 2 images various objects.
  • the imaging device 2 is placed, for example, underwater, and images an object existing underwater.
  • target objects are living things and non-living things that exist in water.
  • the target organisms are aquatic microorganisms such as phytoplankton, zooplankton, and larvae of aquatic organisms that exist in water.
  • target non-living objects include microplastics, dust, sand, marine snow, and air bubbles. Therefore, in the following, a case will be described in which the imaging device 2 is placed underwater and images an object existing underwater.
  • the imaging device 2 may be placed other than underwater, for example, on land, and may image an object existing on land. That is, the imaging target may be any object.
  • the analysis device 3 receives subcluster data from the imaging device 2, and generates (calculates) information regarding the imaged object (for example, feature amounts, types, and the number of each type described later) based on the received subcluster data. do.
  • FIG. 2 is a diagram illustrating the configuration of the imaging device 2. As shown in FIG. As shown in FIG. 2, the imaging device 2 includes a main body section 11 and an illumination section 12. Note that the illumination section 12 may be provided within the main body section 11.
  • the main body section 11 includes a vision sensor 13, a lens 14, a signal analysis section 15, a control section 16, a memory 17, a gravity sensor 18, and a communication section 19.
  • a diffraction grating instead of the lens 14, a diffraction grating, a zone plate, a mask film, a three-dimensional scatterer, etc. may be used.
  • FIG. 3 is a diagram illustrating the configuration of the vision sensor 13.
  • FIG. 4 is a diagram illustrating an outline of an event signal output from the vision sensor 13.
  • the vision sensor 13 is a sensor called DVS (Dynamic Vision Sensor) or EVS (Event-Based Vision Sensor).
  • the vision sensor 13 detects events that occur within a predetermined imaging range.
  • An event is something that occurs in response to a change in the brightness of incident light; for example, the change in brightness of incident light exceeds a threshold value.
  • the vision sensor 13 has a plurality of pixels each including a photodiode 31, a voltage conversion circuit 32, an asynchronous difference detection circuit 33, and a comparator 34 arranged in a two-dimensional square grid.
  • a photodiode 31 When the photodiode 31 is irradiated with incident light, it generates a current proportional to the brightness of the incident light due to the photoelectric effect.
  • the voltage conversion circuit 32 converts the current generated by the photodiode 31 into voltage.
  • the asynchronous difference detection circuit 33 detects the difference between the voltage converted by the voltage conversion circuit 32 and the reference voltage.
  • the comparator 34 When the voltage difference exceeds the positive threshold, the comparator 34 outputs an event signal (indicated by a black arrow in the figure) indicating that a positive event has occurred. Furthermore, when the voltage difference exceeds (below) the minus threshold, the comparator 34 outputs an event signal (indicated by a white arrow in the figure) indicating that a minus event has occurred.
  • the event signal includes information regarding the detected event, such as the coordinates (x, y) of the pixel where the event was detected, time, and the sign (plus or minus) of the event.
  • the plus threshold and the minus threshold are usually set to predetermined default values, but can be changed depending on the case.
  • a negative event signal is output at time T1.
  • a voltage corresponding to the current brightness is set as the reference voltage.
  • a line corresponding to the positive threshold (indicated by a dashed line in the figure) is set on the positive side with respect to the reference voltage, and a line corresponding to the negative threshold is set on the negative side with respect to the reference voltage (indicated by the broken line in the figure). ) will be set.
  • the vision sensor 13 outputs a negative event signal.
  • the reference voltage is set similarly to time T1, and lines corresponding to the plus threshold and the minus threshold are set.
  • the vision sensor 13 outputs a minus event signal.
  • the reference voltage is set similarly to time T1, and lines corresponding to the plus threshold and the minus threshold are set.
  • the vision sensor 13 outputs a plus event signal.
  • the vision sensor 13 is an asynchronous image sensor that detects events for each pixel in real time.
  • the vision sensor 13 an event signal readout operation is performed for pixels in which the occurrence of an event has been detected. Therefore, the vision sensor 13 can perform much faster readout than a synchronous image sensor, in which the readout operation is executed for all pixels at a predetermined frame rate, and can also reduce power consumption. becomes.
  • the signal analysis unit 15 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the signal analysis section 15 functions as a subcluster formation section 21 and a data generation section 22 in this embodiment.
  • the subcluster forming unit 21 forms subclusters by classifying events detected by the vision sensor 13 according to predetermined conditions.
  • the data generation unit 22 generates information regarding subclusters based on event signals of events divided into subclusters. Note that the subcluster forming section 21 and data generating section 22 will be described in detail later.
  • a "subcluster” is formed by dividing a plurality of events detected by the vision sensor 13 according to predetermined conditions. Furthermore, a “cluster” is formed by associating a plurality of subclusters based on the same object. Therefore, clusters can be formed for each object imaged by the vision sensor 13. Note that one cluster may be formed by only one subcluster.
  • the control unit 16 includes, for example, a microcomputer having a CPU, ROM, and RAM, and performs overall control of the imaging device 2. Further, the control unit 16 performs a process of reading data recorded in the memory 17, a process of recording data in the memory 17, and transmits and receives various data to and from an external device via the communication unit 19. Note that the signal analysis section 15 and the control section 16 may be configured by the same hardware.
  • the memory 17 is composed of a recording medium such as a nonvolatile memory.
  • the memory 17 may be detachably attached to the imaging device 2 .
  • the gravity sensor 18 detects gravitational acceleration (in the direction of gravity) and outputs the detection result to the control unit 16.
  • the communication unit 19 performs wired or wireless data communication with an external device. Note that the imaging device 2 does not need to include both or one of the gravity sensor 18 and the communication unit 19.
  • the illumination unit 12 irradiates the imaging range of the vision sensor 13 with light.
  • the illumination unit 12 can switch and emit light with different wavelengths, and emit light with different wavelengths, for example, every 10 nm. Note that the imaging device 2 may not include the illumination unit 12 depending on conditions such as environmental light.
  • the data compression process includes a noise removal process, a subcluster formation process, and a data generation process, which will be described below.
  • FIG. 5 is a diagram illustrating a captured image based on an event signal.
  • FIG. 6 is a diagram illustrating events in a captured image. Note that in FIG. 6, pixels of the captured image are expressed by a plurality of grids.
  • an event signal reading operation is performed for the pixel in which an event has been detected. Therefore, as shown in FIG. 5, when one frame of captured image is generated based on event signals acquired within a predetermined time, a point group of events based on the same object (more specifically, the movement of the object) ( (hereinafter referred to as event point group 41) are collectively photographed. On the other hand, in addition to these event point groups 41, many events as noise are also captured.
  • the subcluster forming unit 21 first removes events that are not object-based events (valid events), that is, events that are noise.
  • the subcluster forming unit 21 generates clusters around an event 42 (shown in black in the figure) based on an event signal acquired within the latest 1 ms (for example, 2 to 3 horizontally and vertically). It is determined whether there is a predetermined number of events 43 (indicated by hatching in the figure) based on event signals acquired within, for example, 3 ms before that pixel).
  • the predetermined number is set to a value that makes it possible to distinguish whether the event 42 is noise or a part of the event point group 41.
  • the subcluster forming unit 21 determines that the event 42 is part of the event point group 41 and is a valid event. On the other hand, if there are less than a predetermined number of events 43 around an event 42, the subcluster forming unit 21 determines that the event 42 is not part of the event point group 41 and is an invalid event, that is, noise.
  • the subcluster forming unit 21 removes noise from the events 42 based on the event signal acquired from the vision sensor 13 at predetermined intervals (for example, every 1 ms), and targets only valid events for subsequent processing. shall be.
  • the amount of data may become enormous depending on the size of the object on the imaging surface. Furthermore, if the amount of data (number of events) increases, the amount of calculations and processing load will increase when the data is used later.
  • events that have been validated by noise removal are divided into subclusters, and information regarding the subclusters is generated and recorded as subcluster data based on the event signals of the divided events. This makes it possible to reduce the amount of data and reduce the processing load in subsequent stages, compared to the case where the event signal itself is recorded.
  • FIGS. 7 to 12 are diagrams illustrating subcluster formation processing.
  • FIG. 7 shows an event point cloud 41 based on the same object (here, a microorganism).
  • An example of forming subclusters for the event point group 41 shown in FIG. 7 will be described below.
  • the event point group 41 shown in FIG. 7 is a collection of events detected at different times.
  • the event 44 (first event 44) that formed the subcluster 45 is shown in black, and the event 44 added to the subcluster 45 is shown in hatching.
  • the sizes of pixels in the event point group 41 and FIGS. 8 to 12 are different.
  • the subcluster forming unit 21 creates a new subcluster that includes the event 44.
  • a subcluster 45 is generated (formed). Further, the subcluster forming unit 21 assigns a unique ID to the generated subcluster 45.
  • the subcluster 45 generated here includes only one event 44.
  • the subcluster forming unit 21 determines whether the detected event 44 satisfies a predetermined condition for being included in the formed subcluster 45.
  • the predetermined conditions are, for example, that the vertical and horizontal dimensions (vertical and horizontal dimensions) of the subcluster 45 are equal to or less than the maximum dimension (for example, 20 pixels x 20 pixels), and that the number of events of the subcluster 45 is the maximum number (for example, 1 10,000 points) or less.
  • the subcluster forming unit 21 adds the event 44 (indicated by hatching in the figure) to a subcluster 45 for which the predetermined condition is satisfied. Note that if the event 44 satisfies a predetermined condition for a plurality of subclusters 45, the subcluster forming unit 21 selects a specific one from the subclusters 45 that satisfy the predetermined condition, and assigns the event 44 to the selected subcluster 45. Add.
  • various methods can be considered for selecting the sub-cluster 45. For example, the subcluster forming unit 21 may preferentially select the subcluster 45 generated first or last. Further, the subcluster forming unit 21 may preferentially select the subcluster 45 with the largest number of events.
  • the subcluster forming unit 21 generates (forms) a new subcluster 45 including the event 44, as shown in FIGS. 10 and 11. )do.
  • the subcluster forming unit 21 determines whether a predetermined condition for being included in an existing subcluster 45 is met, and if the predetermined condition is met, the event 44 is added to the subcluster 45, and if the predetermined condition is not satisfied, a new subcluster 45 is formed.
  • a plurality of subclusters 45 may be formed for the same object (event point group 41). Furthermore, the subclusters 45 may overlap each other (including the same coordinates). Furthermore, if the object is moving, subclusters 45 for that object will be formed while moving.
  • a plurality of subclusters 45 formed from the same object and the event point group 41 are overlapped and compared.
  • FIGS. 13 and 14 are diagrams illustrating an example of the data structure of a subcluster. Note that X, n, m, and l in FIGS. 13 and 14 represent integers.
  • the amount of data may become enormous. Therefore, in this embodiment, instead of recording the event signal itself, it is compressed and recorded in a form that can be used in subsequent processing (analysis processing by the analysis device 3) as information representing the subcluster 45. .
  • the data generating unit 22 When the sub-clusters 45 are formed, the data generating unit 22 generates a total number of newly added events (for example, at predetermined intervals (for example, 1 ms) for all the formed sub-clusters, as shown in FIG. 13). The total number of new events), the center coordinates of the sub-cluster 45, and the vertical and horizontal dimensions (the number of pixels in the vertical and horizontal directions) of the sub-cluster 45 are calculated.
  • the data generation unit 22 generates subcluster data 51 by associating the current time, the calculated total number of new events, center coordinates, and vertical and horizontal dimensions with the ID of the subcluster 45.
  • the generated subcluster data 51 will be recorded in the memory 17 by the control unit 16. Therefore, the control unit 16 functions as a data recording unit that records the subcluster data 51 in the memory 17.
  • the data generation unit 22 calculates the total number of new events and the total number of positive events (new positive polarity events) among newly added events at predetermined intervals (for example, 1 ms). total number). Then, the data generation unit 22 generates subcluster data 52 by associating the current time, the calculated total number of new events, and the calculated total number of new positive polarity events with the ID of the subcluster. In addition, the data generation unit 22 calculates the center coordinates, vertical and horizontal dimensions, total number of events, and number of repetitions of the sub-cluster 45 at intervals that are longer than a predetermined interval (for example, 4 ms), and calculates the calculated center coordinates and vertical and horizontal dimensions. , the total number of events, and the number of repetitions are associated with the ID of the subcluster to generate subcluster data 52.
  • predetermined intervals for example, 1 ms. total number
  • the data generation unit 22 calculates the center coordinates, vertical and horizontal dimensions, total number of events, and number of repetitions of the sub-
  • the total number of new events that require high time resolution are calculated and recorded at predetermined intervals, and the center coordinates, vertical and horizontal dimensions, and total number of events that do not require high time resolution are calculated and recorded at predetermined intervals. Open it, calculate, and record. This makes it possible to further reduce the amount of data while maintaining the necessary amount of information.
  • FIG. 15 is a flowchart showing the flow of data compression processing.
  • the subcluster forming unit 21 acquires an event signal from the vision sensor 13 in step S1.
  • the subcluster forming unit 21 performs noise removal processing on events based on the acquired event signal, and extracts only valid events.
  • step S3 the subcluster forming unit 21 determines whether the event extracted in step S2 is included in the range where the vertical and horizontal dimensions of the existing subcluster 45 are equal to or less than the maximum dimension.
  • step S4 the sub-cluster forming unit 21 adds the event to the sub-cluster 45. Then, it is determined whether the number of events in that subcluster 45 is less than or equal to the maximum number. As a result, if the number of events in the subcluster 45 is equal to or less than the maximum number (Yes in step S4), the subcluster forming unit 21 adds the event to the subcluster 45 in step S5.
  • steps S3 and S4 it is determined whether the event extracted in step S2 satisfies a predetermined condition for being included in the existing sub-cluster 45.
  • step S6 the subcluster forming unit 21 forms a new subcluster 45 and adds the event to the new subcluster 45.
  • step S7 the data generation unit 22 calculates and generates subcluster data for the subcluster 45. Then, the data generation unit 22 records the generated subcluster data in the memory 17 via the control unit 16.
  • FIG. 16 is a diagram illustrating the configuration of the analysis device 3. As shown in FIG. 16, the analysis device 3 includes a control section 61, a memory 62, a communication section 63, an operation section 64, and a display section 65.
  • the control unit 61 includes, for example, a microcomputer having a CPU, ROM, and RAM, and performs overall control of the analysis device 3.
  • the control unit 61 includes a data acquisition unit 71, a reclustering unit 72, and an object information generation unit 73.
  • the data acquisition unit 71 acquires subcluster data generated and recorded by the imaging device 2.
  • the data acquisition unit 71 may acquire subcluster data from the imaging device 2 via the communication unit 63, and if the memory 17 (recording medium) of the imaging device 2 is installed as the memory 62 Alternatively, the information may be obtained from the memory 62.
  • the reclustering unit 72 associates a plurality of subclusters to form a cluster based on the subcluster data.
  • the object information generation unit 73 calculates information regarding the object indicated by the cluster based on subcluster data of the subcluster associated with the cluster. Note that the re-clustering section 72 and the object information generating section 73 will be described in detail later.
  • the memory 62 is composed of a storage medium such as a nonvolatile memory.
  • the memory 62 may be detachably attached to the analysis device 3.
  • the communication unit 63 performs wired or wireless data communication with an external device.
  • the operation unit 64 accepts an input operation by the user and outputs a signal corresponding to the input operation by the user to the control unit 61.
  • the display unit 65 is configured with an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display, and displays various images.
  • the analysis process includes a re-clustering process, a feature amount calculation process, and a cluster classification process, which will be described below.
  • the reclustering unit 72 combines subclusters 45 based on the same object as one cluster 46 (see FIG. 12) based on the acquired subcluster data ( ).
  • the re-clustering unit 72 separates sub-clusters 45 whose center coordinates are within a predetermined distance range and whose formation times are within a predetermined time range from the same object. It is associated as the detected subcluster 45.
  • the predetermined distance range is a distance range that is considered to be the same object.
  • the predetermined time range is a time range in which the objects are considered to be the same.
  • the cluster 46 associated with the plurality of subclusters 45 includes information regarding the shape of the object, as also shown in FIG. 12. Furthermore, if the object is moving over time, the cluster 46 will be associated with sub-clusters 45 whose positions differ depending on the direction of movement of the object, so information regarding the moving direction, speed, etc. of the object will be associated. will be included. In this way, a cluster 46 with which a plurality of subclusters 45 are associated includes information regarding the object indicated by the cluster 46.
  • the object information generation unit 73 calculates feature amounts for the clusters 46 re-clustered by the re-clustering unit 72.
  • Possible feature amounts include movement-related, frequency-related, event-related, and shape-related feature amounts.
  • the movement-related features are the average speed of the cluster 46, body length, body width, frequency of angular changes, body length ratio of average speed, body length ratio of instantaneous maximum speed, direction change persistence, presence or absence of chemotaxis, positive and negative of chemotaxis. , stopping frequency, longitudinal mobility, lateral mobility, constant velocity, width of arc of rotation, period of spiral motion, dispersion of speed, maximum instantaneous acceleration, etc.
  • chemotaxis includes phototaxis, thermotaxis, chemotaxis, haptotaxis, pressureotaxis, electrotaxis, and the like.
  • the frequency-related feature amount includes the frequency of increase/decrease (change) in the number of events, the frequency of increase/decrease in size change, etc.
  • Event-related feature amounts include the ratio of positive events and negative events, the rate of increase in events, and the like.
  • Shape-related feature amounts include a vertical and horizontal scale ratio, a change range of the vertical and horizontal scale ratio, and the like. Note that these are examples of feature amounts, and other feature amounts may be used.
  • the object information generation unit 73 calculates feature amounts classified into movement-related, frequency-related, event-related, and shape-related for the cluster 46.
  • feature quantities of the cluster 46 are calculated: average speed, body length, and frequency of angle change.
  • the object information generation unit 73 calculates the center coordinates of the cluster 46 at each time based on the center coordinates and vertical and horizontal dimensions of the subcluster 45 associated with the cluster 46 at each time. Then, the object information generation unit 73 calculates the moving distance of the cluster 46 by tracking the center coordinates of the cluster 46, and calculates the average speed by dividing the calculated moving distance by the time taken for the movement. calculate.
  • the object information generation unit 73 calculates the vertical and horizontal dimensions of the cluster 46 at each time based on the central coordinates and the vertical and horizontal dimensions at each time of the subcluster 45 associated with the cluster 46 . Then, the object information generation unit 73 averages the vertical and horizontal dimensions at each time, and determines the longer of the calculated horizontal length and vertical length as the body length.
  • the object information generation unit 73 calculates the traveling direction vector of the cluster 46 at each time by tracking the center coordinates of the cluster 46, similarly to when calculating the average speed. Thereafter, the object information generation unit 73 calculates the inner product of the unit lengths of the front and rear traveling direction vectors, that is, the angle formed by the front and rear traveling direction vectors. Then, the object information generation unit 73 counts the number of times that the angle formed by the forward and backward traveling direction vectors is within a predetermined angle range, and uses the count value as the frequency of angle change. Note that the predetermined angle is set to the angle at which the object changes direction.
  • the object information generation unit 73 specifies the classification of the cluster 46, that is, the type of the object, based on the calculated feature amount.
  • the type of object may be specified based on a rule base, or may be specified using machine learning.
  • a range of feature amounts is set for each type to be specified, and this information is stored in the ROM or memory 62. Then, when the feature amount of the cluster 46 is included within the range of the feature amount of a specific type, the object information generation unit 73 specifies that the cluster 46 is of that specific type.
  • a learning model is first generated by learning the relationship between the known feature amounts and type for each type as training data, and the learning model is stored in the ROM or memory 62. remembered. Then, the object information generation unit 73 specifies the type of the cluster 46 by introducing the feature amount of the cluster 46 into the learning model.
  • the object information generation unit 73 comprehensively identifies the type from various feature amounts.
  • the object information generation unit 73 may calculate the number for each type by adding up the number of clusters 46 for each specified type.
  • FIG. 17 is a flowchart showing the flow of analysis processing.
  • the subcluster data acquisition unit 71 acquires subcluster data from the imaging device 2 in step S11.
  • the re-clustering unit 72 performs a re-clustering process to associate sub-clusters 45 based on the same object as one cluster 46 based on the acquired sub-cluster data.
  • step S13 the object information generation unit 73 performs feature amount calculation processing to calculate feature amounts for the cluster 46 that has been reclustered.
  • step S14 the object information generation unit 73 performs cluster classification processing to identify the type of cluster 46 based on the calculated feature amount.
  • the imaging device 2 may include an imaging sensor.
  • the image sensor is, for example, a CCD (Charge Coupled Device) type or CMOS (Complementary Metal-Oxide-Semiconductor) type image sensor, and may be configured to image the same imaging range as the vision sensor 13.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal-Oxide-Semiconductor
  • the subcluster forming section 21 and the data generating section 22 are provided in the imaging device 2, and the subcluster data obtaining section 71, the reclustering section 72, and the object information generating section 73 are provided in the analyzing device 3. I did it like that.
  • these functional units may be provided in one device, or may be provided in three or more devices.
  • the signal analysis unit 15 of the imaging device 100 including the vision sensor 13 includes a subcluster formation unit 21, a data generation unit 22, a subcluster data acquisition unit 71, a reclustering unit 72, and object information. It may also function as the generation unit 73.
  • the subcluster data acquisition unit 71 can be omitted.
  • the imaging device may include the vision sensor 13, and the subcluster forming unit 21 and the data generation unit 22 may be included in the analysis device 3, or a device (computer) different from the imaging device and the analysis device 3. It may be possible to prepare for
  • the predetermined conditions for determining whether the newly detected event 44 is included in the subcluster 45 are that the vertical and horizontal dimensions of the subcluster 45 are equal to or less than the maximum dimensions, and The number of events was set to be less than or equal to the maximum number.
  • the predetermined condition may be other than this.
  • the information may include that the event was detected within a predetermined time from the time when the first added event was detected.
  • the maximum vertical and horizontal dimensions may be dynamically changed depending on the state of the sub-cluster 45 or the state of the re-clustering unit 72 or the like.
  • the data amount can be reduced by setting a larger maximum dimension.
  • the compression ratio can be improved.
  • the sub-clusters can be clustered by setting a larger maximum dimension. 45 can be reduced, and the processing load on the re-clustering unit 72 can be reduced.
  • the subcluster data includes time, total number of new events, center coordinates, vertical and horizontal dimensions, and the like.
  • other information may be included as long as the information is required in the analysis process and the amount of data can be compressed compared to the case where event signals are recorded. Any of the information may not be included.
  • an event detected by the vision sensor 13 in which pixels are arranged two-dimensionally for asynchronously detecting an event that occurs in response to a change in the brightness of incident light a subcluster forming unit 21 that forms subclusters by dividing them according to predetermined conditions; a data generating unit 22 that generates information regarding subclusters (subcluster data) based on information on the classified events; Equipped with Thereby, the data generation device does not need to record all event signals of events detected by the vision sensor 13, and can record only information regarding the sub-cluster 45.
  • the data generation device can reduce the data volume of recorded data without generally reducing the amount of information about the object.
  • the maximum size of the subcluster 45 is determined in advance, and the subcluster forming unit 21 divides the events so that the subcluster 45 has a maximum size or less.
  • the data generation device can reduce the possibility that events detected from different objects located at spatially distant positions are classified into the same sub-cluster 45. Therefore, the data generation device can maintain data accuracy of subcluster data.
  • the maximum number of events that can be divided into sub-clusters 45 is predetermined, and the sub-cluster forming unit 21 divides the events so that the number of events that can be divided into sub-clusters 45 is equal to or less than the maximum number.
  • the data generation device can reduce events detected from different objects that are spatially close but temporally distant from being grouped into the same subcluster 45. Therefore, the data generation device can maintain data accuracy of subcluster data.
  • the maximum size and the maximum number of events to be divided into subclusters 45 are predetermined, and the subcluster forming unit 21 is configured such that the subclusters 45 have a maximum size or less and are divided into subclusters 45.
  • the events are divided so that the number of events is less than or equal to the maximum number.
  • the data generation unit 22 generates information regarding the subcluster 45 at predetermined intervals. Thereby, the data generation unit 22 calculates information regarding the sub-clusters 45 based on event signals of events classified into the sub-clusters 45 at predetermined intervals. Therefore, the data generation device can generate subcluster data that maintains the temporal resolution of events detected at high speed.
  • the data generation unit 22 calculates the number of events classified into the subclusters 45 as information regarding the subclusters 45 (subcluster data). This allows the data generation device to understand the movement of objects, etc. based on changes in the number of events.
  • the data generation unit 22 calculates the center coordinates of the sub-cluster 45 as information regarding the sub-cluster 45. This allows the data generation device to compress information regarding the shape and position of the object indicated by the subcluster 45.
  • the data generation unit 22 calculates the vertical and horizontal dimensions of the subcluster as information regarding the subcluster 45. This allows the data generation device to compress information regarding the shape and position of the object indicated by the subcluster 45.
  • the data generation unit 22 calculates information regarding the number of events divided into sub-clusters 45 at predetermined intervals, and calculates information other than information regarding the number of events at intervals longer than the predetermined intervals. As a result, the number of events that require high time resolution is calculated at short intervals, and other information that does not require as much time resolution is acquired at longer intervals, thereby reducing the amount of data while maintaining data accuracy. It can be further reduced.
  • the data generation device also includes a reclustering unit 72 that generates clusters 46 by associating a plurality of subclusters based on information regarding subclusters 45 . Thereby, the data generation device can connect sub-clusters 45 based on the same object and calculate (specify) the feature amount, type, etc. of the object.
  • the data generation device also includes an object information generation unit that generates information about the object indicated by the cluster 46 based on information about the subcluster 45 associated with the cluster 46. Thereby, the data generation device can calculate (specify) the feature amount, type, etc. of the object indicated by the cluster 46.
  • the data generation device uses the vision sensor 13 in which pixels are arranged two-dimensionally to asynchronously detect events that occur in response to changes in the brightness of incident light.
  • Subclusters are generated by classifying events according to predetermined conditions, and information regarding the subclusters is generated based on information on the classified events.
  • the program of the embodiment detects an event detected by the vision sensor 13 in which pixels are arranged two-dimensionally, which asynchronously detects an event that occurs in response to a change in the brightness of incident light, according to a predetermined condition. By dividing, subclusters are generated, and information regarding the subclusters is generated based on the information of the divided events.
  • Such a program can be recorded in advance in an HDD as a recording medium built into equipment such as a computer device, or in a ROM in a microcomputer having a CPU.
  • a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a Blu-ray Disc (registered trademark), a magnetic disk, a semiconductor memory It can be stored (recorded) temporarily or permanently in a removable recording medium such as a memory card.
  • a removable recording medium can be provided as so-called package software.
  • it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • a sub-cluster data acquisition unit 71 that acquires information (sub-cluster data) regarding the sub-clusters 45 formed by the classification, and an object information generation unit that generates information regarding objects based on the information regarding the sub-clusters 45.
  • the analysis device 3 can calculate (specify) information regarding the object indicated by the sub-cluster 45 based on the sub-cluster data whose data amount has been compressed.
  • the present technology can also adopt the following configuration.
  • Sub-cluster formation in which sub-clusters are formed by dividing events detected by a vision sensor in which pixels are two-dimensionally arranged to asynchronously detect events that occur based on the brightness of incident light, according to predetermined conditions.
  • Department and a data generation unit that generates information regarding the subcluster based on information on the classified event;
  • a data generation device comprising: (2) a maximum dimension of the subcluster is predetermined;
  • a maximum number of the events to be divided into the sub-clusters is predetermined;
  • the sub-cluster has a maximum size and a maximum number of events to be classified in advance, and The subcluster forming unit divides the events such that the subcluster has a maximum size or less, and the number of events divided into the subclusters is not more than the maximum number.
  • the data generation device according to any one of (8).
  • the data generation device (10) The data generation device according to any one of (1) to (9), including a reclustering unit that associates a plurality of the subclusters to form a cluster based on information regarding the subclusters.
  • the data generation device (11) The data generation device according to (10), further comprising an object information generation unit that generates information about the object indicated by the cluster based on information about the subcluster associated with the cluster.
  • the data generation device Generating subclusters by dividing the events detected by a vision sensor in which pixels that asynchronously detect events that occur in response to changes in the brightness of incident light are arranged two-dimensionally according to predetermined conditions; A data generation method that generates information regarding the subcluster based on information on the classified event.
  • a reclustering unit that generates clusters by associating the plurality of subclusters based on information regarding the subclusters;
  • the analysis device according to (14), wherein the object information generation unit generates information regarding the object indicated by the cluster based on information regarding the subcluster associated with the cluster.
  • Measurement system 2 Data generation device 3 Analysis device 13 Vision sensor 15 Signal analysis section 21 Subcluster formation section 22 Information generation section 61 Control section 71 Subcluster data acquisition section 72 Reclustering section 73 Object information generation section

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

データ生成装置は、入射光の輝度に基づいて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサで検出された前記イベントを、所定条件に応じて区分けすることでサブクラスターを形成するサブクラスター形成部と、区分けされたイベントの情報に基づいてサブクラスターに関する情報を生成するデータ生成部と、を備える。

Description

データ生成装置、データ生成方法、プログラム、解析装置
 本技術はデータ生成装置、データ生成方法、プログラム、解析装置に関し、特に、ビジョンセンサを用いる技術に関する。
 二次元格子状に配置された各画素において入射光の光量が所定の閾値を超えたことをイベントとしてリアルタイムに検出する非同期型のビジョンセンサ(固体撮像素子)が提案されている(例えば特許文献1)。このように、画素毎にイベントを検出するビジョンセンサは、DVS(Dynamic Vision Sensor)またはEVS(Event-Based Vision Sensor)と呼ばれている。
国際公開第2019/087471号
 上記したビジョンセンサでは、物体像が大きくなるに連れて検出されるイベント数も増加することになる。そのため、ビジョンセンサを用いた装置では、検出されたイベントに関する情報を全て記録していくとなると、データ量が膨大となるおそれがある。
 そこで本技術は、ビジョンセンサを用いた際のデータ量を低減することを目的とする。
 本技術に係るデータ生成装置は、入射光の輝度に基づいて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサで検出された前記イベントを、所定条件に応じて区分けすることでサブクラスターを形成するサブクラスター形成部と、区分けされた前記イベントの情報に基づいて前記サブクラスターに関する情報を生成するデータ生成部と、を備える。
 これにより、データ生成装置は、ビジョンセンサで検出されたイベントのイベント信号を全て記録させる必要がなく、サブクラスターに関する情報のみを記録させることが可能となる。
測定システムの構成を説明する図である。 データ生成装置の構成を説明する図である。 ビジョンセンサの構成を説明する図である。 ビジョンセンサから出力されるイベント信号の概要を説明する図である。 イベント信号に基づく撮像画像を説明する図である。 撮像画像におけるイベントを説明する図である。 サブクラスター形成処理を説明する図である。 サブクラスター形成処理を説明する図である。 サブクラスター形成処理を説明する図である。 サブクラスター形成処理を説明する図である。 サブクラスター形成処理を説明する図である。 サブクラスター形成処理を説明する図である。 サブクラスターのデータ構造の一例を説明する図である。 サブクラスターのデータ構造の一例を説明する図である。 サブクラスター形成処理の流れを示したフローチャートである。 解析装置の構成を説明する図である。 解析処理の流れを示したフローチャートである。 変形例のデータ生成装置の構成を説明する図である。
 以下、実施形態を次の順序で説明する。
<1.測定システム1の構成>
<2.撮像装置2の構成>
<3.データ圧縮処理>
<4.解析装置3の構成>
<5.解析処理>
<6.データ生成システムの他の構成例>
<7.実施形態のまとめ>
<8.本技術>
<1.測定システム1の構成>
 先ず、本技術に係る実施形態の測定システム1の構成について説明する。図1は、測定システム1の構成を説明する図である。図1に示すように、測定システム1は、撮像装置2および解析装置3を備える。
 撮像装置2は、詳しくは後述するように、ビジョンセンサ13によって輝度変化に基づくイベントを検出する。また、撮像装置2は、検出したイベントに関する情報(イベント信号)に基づいて、物体の一部に相当するサブクラスターに関する情報をサブクラスターデータとして生成する。
 ここで、撮像装置2は、様々な物体を対象として撮像することが考えられる。その一例として、撮像装置2は、例えば水中に配置され、水中に存在する物体を撮像する。対象となる物体の一例としては、水中に存在する生物および非生物である。対象となる生物は、水中に存在する植物プランクトン、動物プランクトン、水中生物の幼生等の水中微生物である。また、対象となる非生物は、マイクロプラスチック、塵、砂、マリンスノー、気泡等である。
 そこで、以下では、撮像装置2が水中に配置され、水中に存在する物体を撮像する場合について説明する。ただし、撮像装置2は、水中以外の例えば陸上に配置され、陸上に存在する物体を撮像するようにしてもよい。すなわち、撮像対象はどのような物体であってもよい。
 解析装置3は、撮像装置2からサブクラスターデータを受け取り、受け取ったサブクラスターデータに基づいて、撮像された物体に関する情報(例えば、後述する特徴量、種別、種別ごとの数)を生成(算出)する。
<2.撮像装置2の構成>
 図2は、撮像装置2の構成を説明する図である。図2に示すように、撮像装置2は、本体部11および照明部12を備える。なお、照明部12は、本体部11内に設けられるようにしてもよい。
 本体部11は、ビジョンセンサ13、レンズ14、信号解析部15、制御部16、メモリ17、重力センサ18、通信部19を備える。なお、レンズ14の代わりに、回折格子、ゾーンプレート、マスクフィルム、三次元散乱体等を用いてもよい。
 図3は、ビジョンセンサ13の構成を説明する図である。図4は、ビジョンセンサ13から出力されるイベント信号の概要を説明する図である。
 ビジョンセンサ13は、DVS(Dynamic Vision Sensor)またはEVS(Event-Based Vision Sensor)と呼ばれるセンサである。ビジョンセンサ13は、所定の撮像範囲で発生するイベントを検出する。イベントとは、入射光の輝度変化に応じて発生するものであり、例えば、入射光の輝度変化が閾値を超えることである。
 図3に示すように、ビジョンセンサ13は、フォトダイオード31、電圧変換回路32、非同期差分検出回路33および比較器34を有する複数の画素が二次元正方格子状に配列されている。フォトダイオード31は、入射光が照射されると、光電効果により入射光の輝度に比例した電流を発生させる。電圧変換回路32は、フォトダイオード31で発生した電流を電圧に変換する。非同期差分検出回路33は、電圧変換回路32によって変換された電圧と、基準電圧との差分を検出する。
 比較器34は、電圧差分がプラス閾値を超えた場合に、プラスのイベントが発生したことを示すイベント信号(図中、黒塗り矢印で示す)を出力する。また、比較器34は、電圧差分がマイナス閾値を超えた場合(下回った場合)に、マイナスのイベントが発生したことを示すイベント信号(図中、白抜き矢印で示す)を出力する。
 なお、イベント信号には、検出されたイベントに関する情報として、イベントが検出された画素の座標(x、y)、時刻、イベントの正負(プラスまたはマイナス)等の情報が含まれている。また、プラス閾値およびマイナス閾値は、通常、予め決められた既定値に設定されているが、場合によって変更可能となっている。
 例えば、図4に示すように、時刻T1においてマイナスのイベント信号を出力したとする。このとき、現在の輝度に応じた電圧が基準電圧として設定される。そうすると、基準電圧に対してプラス側にプラス閾値に相当するライン(図中、一点鎖線で示す)が設定されるとともに、基準電圧に対してマイナス側にマイナス閾値に相当するライン(図中、破線で示す)が設定されることになる。
 その後、入射光の輝度が下がり時刻T2においてマイナス閾値に相当するラインを下回ると、ビジョンセンサ13はマイナスのイベント信号を出力する。このとき、時刻T1と同様に基準電圧が設定され、プラス閾値およびマイナス閾値に相当するラインが設定されることになる。
 また、入射光の輝度が下がり時刻T3においてマイナス閾値に相当するラインを超えると、ビジョンセンサ13はマイナスのイベント信号を出力する。このとき、時刻T1と同様に基準電圧が設定され、プラス閾値およびマイナス閾値に相当するラインが設定されることになる。
 その後、入射光の輝度が上がり時刻T4においてプラス閾値に相当するラインを超えると、ビジョンセンサ13はプラスのイベント信号を出力する。
 このように、ビジョンセンサ13は、画素ごとにイベントをリアルタイムに検出する非同期型のイメージセンサである。
 ビジョンセンサ13では、イベントの発生が検出された画素に対してイベント信号の読み出し動作が実行される。そのため、ビジョンセンサ13では、所定のフレームレートで全ての画素に対して読み出し動作が実行される同期型のイメージセンサよりも非常に高速な読み出しが可能となるとともに、消費電力を低減することも可能となる。
 信号解析部15は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、および、RAM(Random Access Memory)を有するマイクロコンピュータを備えて構成される。
 信号解析部15は、図2に示すように、本実施形態において、サブクラスター形成部21およびデータ生成部22として機能する。
 サブクラスター形成部21は、ビジョンセンサ13で検出されたイベントを、所定条件に応じて区分けすることでサブクラスターを形成する。
 データ生成部22は、サブクラスターに区分けされたイベントのイベント信号に基づいてサブクラスターに関する情報を生成する。
 なお、これらサブクラスター形成部21、データ生成部22について詳しくは後述する。
 ここで、「サブクラスター」とは、ビジョンセンサ13で検出された複数のイベントを所定条件に応じて区分けすることにより形成されるものである。
 また、「クラスター」とは、同一の物体に基づく複数のサブクラスターが関連付けられることによって形成されるものである。したがって、ビジョンセンサ13で撮像される物体ごとにクラスターがそれぞれ形成可能である。
 なお、1つのクラスターが、1つのサブクラスターのみによって形成されることがあってもよい。
 制御部16は、例えばCPU、ROMおよびRAMを有するマイクロコンピュータを備えて構成され、撮像装置2の全体制御を行う。また、制御部16は、メモリ17に記録されたデータの読み出し処理やメモリ17にデータを記録させる処理、および、通信部19を介した外部機器との間での各種データの送受信を行う。なお、信号解析部15および制御部16は、同一のハードウェアによって構成されるようにしてもよい。
 メモリ17は、不揮発性メモリ等の記録媒体で構成される。メモリ17は、撮像装置2に対して着脱自在とされてもよい。
 重力センサ18は、重力加速度(重力方向)を検出し、検出結果を制御部16に出力する。
 通信部19は、外部機器との間で有線または無線によるデータ通信を行う。
 なお、撮像装置2は、重力センサ18および通信部19の双方または一方を備えていなくてもよい。
 照明部12は、ビジョンセンサ13の撮像範囲に光を照射する。照明部12は、波長が異なる光を切り替えて照射可能であり、例えば10nmごとの異なる波長の光を照射する。なお、撮像装置2は、環境光などの条件によっては照明部12を備えていなくてもよい。
<3.データ圧縮処理>
 次に、信号解析部15により行われるデータ圧縮処理について説明する。データ圧縮処理は、以下で説明するノイズ除去処理、サブクラスター形成処理およびデータ生成処理を含むものである。
[3.1.ノイズ除去処理]
 図5は、イベント信号に基づく撮像画像を説明する図である。図6は、撮像画像におけるイベントを説明する図である。なお、図6では、複数の格子によって撮像画像の画素を表現している。
 ビジョンセンサ13では、イベントが検出された画素に対してイベント信号の読み出し動作が実行される。そのため、図5に示すように、所定時間内で取得されるイベント信号に基づいて1フレームの撮像画像を生成した場合、同一の物体(より詳しくは、物体の動き)に基づくイベントの点群(以下、イベント点群41と表記する)がまとまって写る。一方で、これらのイベント点群41以外にも、ノイズとしてのイベントが多数写っている。
 そこで、サブクラスター形成部21は、まず、物体に基づくイベント(有効なイベント)でないイベント、すなわち、ノイズであるイベントを除去する。
 具体的には、サブクラスター形成部21は、図6に示すように、例えば最新の1ms内に取得したイベント信号に基づくイベント42(図中、黒塗りで示す)の周辺(例えば縦横2~3ピクセル内)に、それよりも以前の例えば3ms内に取得したイベント信号に基づくイベント43(図中、ハッチングで示す)が所定数あるかを判定する。ここで、所定数は、そのイベント42がノイズであるかイベント点群41の一部であるかを区別可能な値に設定されている。
 そして、サブクラスター形成部21は、イベント42の周辺に所定数以上のイベント43がある場合、そのイベント42がイベント点群41の一部であり有効なイベントと判定する。
 一方、サブクラスター形成部21は、イベント42の周辺に所定数未満のイベント43しかない場合、そのイベント42がイベント点群41の一部でなく無効なイベント、すなわち、ノイズであると判定する。
 このように、サブクラスター形成部21は、所定間隔ごと(例えば、1msごと)に、ビジョンセンサ13から取得したイベント信号に基づくイベント42からノイズを除去し、有効なイベントのみを後段の処理の対象とする。
[3.2.サブクラスター形成処理]
 ところで、同一の物体に基づくイベント点群41について、全てのイベント信号(イベントの情報)を記録する場合、データ量が撮像面上での物体の寸法の2乗に比例して増加することになる。
 例えば、水平方向(横方向)および垂直方向(縦方向)の画素数が数十ピクセルの範囲に物体が写っている場合、その物体に基づくイベント信号の数は約1万点となるとする。このような場合において、水平方向および垂直方向の画素数が数百ピクセルの範囲に物体が写るとなると、イベント信号の数は約100万点となる。
 このように、イベント信号を全て記録していくとなると、撮像面上での物体の大きさによってはデータ量が膨大になってしまうおそれがある。また、データ量(イベント点数)が多くなると、その後においてデータを利用する際に、計算量が多くなり処理負荷も増加することになる。
 そこで、本実施形態では、ノイズ除去により有効とされたイベントをサブクラスターに区分けし、区分けしたイベントのイベント信号に基づいてサブクラスターに関する情報をサブクラスターデータとして生成、記録する。これにより、イベント信号そのものを記録していく場合と比べて、データ量の削減、および、後段での処理負荷の低減を可能にする。
 図7~図12は、サブクラスター形成処理を説明する図である。図7は、同一の物体(ここでは微生物)に基づくイベント点群41を示している。そして、以下では、図7に示すイベント点群41についてサブクラスターを形成する例を説明する。
 なお、図7に示すイベント点群41は、異なる時刻で検出されたイベントをまとめて表示しているものである。また、図8~図12では、サブクラスター45を形成する元となったイベント44(最初のイベント44)を黒塗りで示し、サブクラスター45に追加されたイベント44をハッチングで示している。また、説明の便宜上、イベント点群41と図8~図12における画素の大きさは異なるものである。
 図8に示すように、サブクラスター形成部21は、ノイズ除去により有効とされたイベント44が見つかると、そのイベント44を含むことが可能なサブクラスターがない場合、そのイベント44が含まれる新たなサブクラスター45を生成(形成)する。また、サブクラスター形成部21は、生成したサブクラスター45に固有のIDを付与する。ここで生成されたサブクラスター45には、1つのイベント44のみが含まれることになる。
 その後、サブクラスター形成部21は、新たに有効なイベント44が検出されると、検出されたイベント44が、形成されているサブクラスター45に含まれるための所定条件を満たすかを判定する。
 所定条件は、例えば、サブクラスター45の縦横寸法(垂直方向および水平方向の寸法)が最大寸法(例えば20ピクセル×20ピクセル)以下であり、かつ、サブクラスター45のイベント数が最大数(例えば1万点)以下であることである。
 サブクラスター形成部21は、図9に示すように、所定条件が満たされる場合、そのイベント44(図中、ハッチングで示す)を、所定条件が満たされたサブクラスター45に追加する。なお、複数のサブクラスター45について所定条件を満たすイベント44である場合、サブクラスター形成部21は、所定条件を満たすサブクラスター45から特定の1つを選択し、選択したサブクラスター45にそのイベント44を追加する。この際、サブクラスター45の選択方法として様々な方法が考えられる。例えば、サブクラスター形成部21は、最も先または最も後に生成されたサブクラスター45を優先して選択するようにしてもよい。また、サブクラスター形成部21は、最もイベント数が多いサブクラスター45を優先して選択するようにしてもよい。
 一方、いずれのサブクラスター45の所定条件も満たさないイベント44である場合、図10および図11に示すように、サブクラスター形成部21は、そのイベント44を含む新たなサブクラスター45を生成(形成)する。
 このように、有効なイベント44が検出される度に、サブクラスター形成部21は、既存のサブクラスター45に含まれるための所定条件を満たすかを判定し、所定条件を満たす場合にはそのイベント44をサブクラスター45に追加し、所定条件を満たさない場合には新たなサブクラスター45を形成していく。
 したがって、同一の物体(イベント点群41)に対して複数のサブクラスター45が形成されることがある。また、サブクラスター45同士が互いに重なる(同じ座標を含む)こともある。
 さらに、物体が移動している場合には、その物体についてのサブクラスター45が移動しながら形成されることになる。
 ここで、図12に示すように、同一の物体から形成される複数のサブクラスター45とイベント点群41とを重ねて比較する。そうすると、イベント点群41から形成される複数のサブクラスター45による形状と、イベント点群41(物体)の形状とは概ね一致するなど、複数のサブクラスター45によって物体の特徴を概ね把握することが可能である。
[3.3.データ生成処理]
 次に、サブクラスターデータを生成、記録するデータ生成処理について説明する。図13および図14は、サブクラスターのデータ構造の一例を説明する図である。なお、図13および図14におけるX、n、m、lは整数を示すものである。
 上記したように、同一の物体ごとにイベント信号を全て記録していくとなると、データ量が膨大になってしまうおそれがある。そこで、本実施形態においては、イベント信号そのものを記録していくのではなく、サブクラスター45を表す情報として後段の処理(解析装置3による解析処理)で利用できる形に圧縮して記録していく。
 データ生成部22は、サブクラスター45が形成されると、例えば図13に示すように、形成された全てのサブクラスターについて、所定間隔(例えば1ms)ごとに、新たに追加されたイベントの総数(新イベント総数)、サブクラスター45の中心座標、サブクラスター45の縦横寸法(垂直方向および水平方向の画素数)を算出する。
 そして、データ生成部22は、現在の時刻、算出した新イベント総数、中心座標、縦横寸法をサブクラスター45のIDに関連付けてサブクラスターデータ51を生成する。
 生成されたサブクラスターデータ51は、制御部16によってメモリ17に記録されることになる。したがって、制御部16は、サブクラスターデータ51をメモリ17に記録するデータ記録部として機能する。
 また、図14に示す別の例では、データ生成部22は、所定間隔(例えば1ms)ごとに、新イベント総数、および、新たに追加されたイベントのうちプラスのイベントの総数(新プラス極性イベント総数)を算出する。そして、データ生成部22は、現在の時刻、算出した新イベント総数および新プラス極性イベント総数をサブクラスターのIDに関連付けてサブクラスターデータ52を生成する。
 また、データ生成部22は、所定間隔よりも間を開けた間隔(例えば4ms)ごとに、サブクラスター45の中心座標、縦横寸法、イベント総数、繰り返し回数を算出し、算出した中心座標、縦横寸法、イベント総数、繰り返し回数をサブクラスターのIDに関連付けてサブクラスターデータ52を生成する。
 図14に示す別の例では、高い時間分解能が必要である新イベント総数等については所定間隔で算出、記録し、時間分解能がそれほど必要ない中心座標、縦横寸法、イベント総数については所定間隔よりも開けて算出、記録する。これにより、必要な情報量を維持しつつ、データ量をより低減することができる。
 このように、データ圧縮処理では、後段の処理で必要なサブクラスター45に関する情報だけを記録していくことになるため、ビジョンセンサ13で検出されたイベントのイベント信号を全て記録する場合に比べてデータ量を低減(圧縮)することが可能となる。
[3.4.データ圧縮処理の流れ]
 図15は、データ圧縮処理の流れを示したフローチャートである。図15に示すように、ステップS1でサブクラスター形成部21は、ビジョンセンサ13からイベント信号を取得する。ステップS2でサブクラスター形成部21は、取得したイベント信号に基づくイベントに対してノイズ除去処理を行い、有効なイベントのみを抽出する。
 ステップS3でサブクラスター形成部21は、既存のサブクラスター45の縦横寸法が最大寸法以下となる範囲に、ステップS2で抽出されたイベントが含まれるかを判定する。
 その結果、既存のサブクラスター45の縦横寸法が最大寸法以下となる範囲にイベントが含まれる場合(ステップS3でYes)、ステップS4でサブクラスター形成部21は、サブクラスター45にイベントを追加した場合にそのサブクラスター45のイベント数が最大数以下となるかを判定する。その結果、サブクラスター45のイベント数が最大数以下となる場合(ステップS4でYes)、ステップS5でサブクラスター形成部21は、サブクラスター45にイベントを追加する。
 すなわち、ステップS3およびステップS4では、ステップS2で抽出されたイベントが、既存のサブクラスター45に含まれるための所定条件を満たすかが判定される。
 一方、既存のサブクラスター45の縦横寸法が最大寸法以下となる範囲にイベントが含まれない場合(ステップS3でNo)、および、サブクラスター45のイベント数が最大数以下とならない場合(ステップS4でNo)、ステップS6でサブクラスター形成部21は、新たなサブクラスター45を形成するとともに、そのイベントを新たなサブクラスター45に追加する。
 ステップS7でデータ生成部22は、サブクラスター45についてサブクラスターデータを算出、生成する。そして、データ生成部22は、生成したサブクラスターデータを、制御部16を介してメモリ17に記録する。
<4.解析装置3の構成>
 図16は、解析装置3の構成を説明する図である。図16に示すように、解析装置3は、制御部61、メモリ62、通信部63、操作部64、表示部65を備える。
 制御部61は、例えばCPU、ROMおよびRAMを有するマイクロコンピュータを備えて構成され、解析装置3の全体制御を行う。
 制御部61は、本実施形態において、データ取得部71、再クラスター化部72、物体情報生成部73を備える。
 データ取得部71は、撮像装置2で生成、記録されているサブクラスターデータを取得する。例えば、データ取得部71は、通信部63を介して撮像装置2からサブクラスターデータを取得するようにしてもよく、また、撮像装置2のメモリ17(記録媒体)がメモリ62として取り付けられた場合にはメモリ62から取得するようにしてもよい。
 再クラスター化部72は、サブクラスターデータに基づいて、複数のサブクラスターを関連付けてクラスターを形成する。
 物体情報生成部73は、クラスターに関連付けられたサブクラスターのサブクラスターデータに基づいて、クラスターによって示される物体に関する情報を算出する。
 なお、これら再クラスター化部72、物体情報生成部73について詳しくは後述する。
 メモリ62は、不揮発性メモリ等の記憶媒体で構成される。メモリ62は、解析装置3に対して着脱自在とされてもよい。
 通信部63は、外部機器との間で有線または無線によるデータ通信を行う。
 操作部64は、ユーザによる入力操作を受け付け、ユーザによる入力操作に応じた信号を制御部61に出力する。
 表示部65は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイで構成され、種々の画像を表示する。
<5.解析処理>
 次に、制御部61により行われる解析処理について説明する。解析処理は、以下で説明する再クラスター化処理、特徴量算出処理およびクラスター分類処理を含むものである。
[5.1.再クラスター化処理]
 再クラスター化部72は、データ取得部71がサブクラスターデータを取得すると、取得したサブクラスターデータに基づいて、同一の物体に基づくサブクラスター45同士を1つのクラスター46(図12参照)として結びつける(関連づける)。
 具体的には、再クラスター化部72は、サブクラスター45の中心座標が所定距離範囲内で、かつ、サブクラスター45が形成された時刻が所定時間範囲内であるもの同士を、同一の物体から検出されたサブクラスター45として関連づける。
 なお、所定距離範囲は、同一の物体であるとされる距離範囲である。また、所定時間範囲は、同一の物体であるとされる時間範囲である。
 したがって、複数のサブクラスター45が関連付けられたクラスター46は、図12にも示したように、物体の形状に関する情報が含まれることになる。
 また、物体が時間とともに移動していた場合、クラスター46には、物体の移動方向に伴って位置が異なるサブクラスター45同士が関連付けられていくことになるため、物体の移動方向や速度等に関する情報が含まれることになる。
 このように、複数のサブクラスター45が関連付けられたクラスター46には、そのクラスター46によって示される物体に関する情報が含まれることになる。
[5.2.特徴量算出処理]
 物体情報生成部73は、再クラスター化部72によって再クラスター化されたクラスター46についての特徴量を算出する。特徴量としては、移動関連、周波数関連、イベント関連、形状関連等の特徴量が考えられる。
 移動関連の特徴量は、クラスター46の平均速度、体長、体幅、角度変化の頻度、平均速度の体長比、瞬間最大速度の体長比、方向変更持続性、走性の有無、走性の正負、停止頻度、縦方向の移動度、横方向の移動度、等速持続性、回転の弧の幅、螺旋運動の周期、速さの分散、最大瞬間加速度等である。なお、走性は、光走性、温度走性、化学走性、接触走性、圧力走性、電気走性等を含む。
 周波数関連の特徴量は、イベント数の増減(変化)の周波数、サイズ変化の増減の周波数等である。
 イベント関連の特徴量は、プラスイベントおよびマイナスイベントの割合、イベントの増加速度等である。
 形状関連の特徴量は、縦横の縮尺比、縦横の縮尺比の変化レンジ等である。
 なお、これらは特徴量の一例であり、他の特徴量であってもよい。
 このように、クラスター46の特徴量は、様々なものが考えられる。本実施形態では、物体情報生成部73は、クラスター46の移動関連、周波数関連、イベント関連、形状関連に分類される特徴量を算出する。ここでは、一例として、クラスター46の平均速度、体長、角度変化の頻度の3つの特徴量を算出する場合について説明する。
 物体情報生成部73は、クラスター46に関連付けられたサブクラスター45の時刻ごとの中心座標と縦横寸法とに基づいて、時刻ごとのクラスター46の中心座標を算出する。
 そして、物体情報生成部73は、クラスター46の中心座標を追跡していくことでクラスター46の移動距離を算出し、算出された移動距離を、移動にかかった時間で除算することにより平均速度を算出する。
 また、物体情報生成部73は、クラスター46に関連付けられたサブクラスター45の時刻ごとの中心座標と縦横寸法とに基づいて、時刻ごとのクラスター46の縦横寸法を算出する。
 そして、物体情報生成部73は、時刻ごとの縦横寸法を平均し、算出した水平方向の長さ、および、垂直方向の長さのうち、長い方を体長とする。
 また、物体情報生成部73は、平均速度を算出したときと同様に、クラスター46の中心座標を追跡していくことでクラスター46の時刻ごとの進行方向ベクトルを算出する。その後、物体情報生成部73は、前後の進行方向ベクトルの単位長さ同士の内積、すなわち、前後の進行方向ベクトルのなす角を算出する。
 そして、物体情報生成部73は、前後の進行方向ベクトルのなす角が所定角度範囲内である回数をカウントしていき、そのカウント値を角度変化の頻度とする。なお、所定角度は、物体が方向を変化させたとする角度に設定されている。
[5.3.クラスター分類処理]
 クラスター46について特徴量が算出されると、物体情報生成部73は、算出された特徴量に基づいて、クラスター46の分類、すなわち、物体の種別を特定する。ここでは、ルールベースによる物体の種別の特定であってもよく、また、機械学習による物体の種別の特定であってもよい。
 例えば、ルールベースによる物体の種別の特定では、特定する種別ごとに特徴量の範囲が設定されており、その情報がROMやメモリ62に記憶されている。そして、物体情報生成部73は、クラスター46の特徴量が、特定の種別の特徴量の範囲内に含まれている場合、クラスター46がその特定の種別であると特定する。
 また、機械学習による物体の種別の特定では、まず、種別ごとに既知となっている特徴量と種別との関係を教師データとして学習した学習モデルが生成され、その学習モデルがROMやメモリ62に記憶されている。そして、物体情報生成部73は、クラスター46の特徴量を学習モデルに導入することにより、クラスター46の種別を特定する。
 なお、同一の種別であっても変態時期や成長過程により算出される特徴量(例えば、体長および体幅)が異なる値を示す場合もある。したがって、物体情報生成部73では、様々な特徴量から総合的に種別を特定する。
 また、物体情報生成部73は、特定した種別ごとにクラスター46の数を加算していくことで、種別ごとの数を算出するようにしてもよい。
[5.4.解析処理の流れ]
 図17は、解析処理の流れを示したフローチャートである。図17に示すように、ステップS11でサブクラスターデータ取得部71は、撮像装置2からサブクラスターデータを取得する。ステップS12で再クラスター化部72は、取得したサブクラスターデータに基づいて、同一の物体に基づくサブクラスター45同士を1つのクラスター46として関連付ける再クラスター化処理を行う。
 ステップS13で物体情報生成部73は、再クラスター化されたクラスター46について特徴量を算出する特徴量算出処理を行う。ステップS14で物体情報生成部73は、算出された特徴量に基づいてクラスター46の種別を特定するクラスター分類処理を行う。
<6.データ生成システムの他の構成例>
 なお、実施形態としては上記により説明した具体例に限定されるものではなく、多様な変形例としての構成を採り得るものである。
 例えば、撮像装置2は、撮像センサを備えるようにしてもよい。撮像センサは、例えば、CCD(Charge Coupled Device)型やCMOS(Complementary Metal-Oxide-Semiconductor)型のイメージセンサであり、ビジョンセンサ13と同一の撮像範囲を撮像するようにしてもよい。
 また、実施形態においては、サブクラスター形成部21およびデータ生成部22が撮像装置2に設けられ、サブクラスターデータ取得部71、再クラスター化部72および物体情報生成部73が解析装置3に設けられるようにした。
 しかしながら、これらの機能部は、1つの装置に設けられていてもよく、また、3以上の装置に分けて設けられていてもよい。
 例えば、図18に示すように、ビジョンセンサ13を備える撮像装置100の信号解析部15が、サブクラスター形成部21、データ生成部22、サブクラスターデータ取得部71、再クラスター化部72および物体情報生成部73として機能するようにしてもよい。なお、1つの装置に全ての機能部を備える場合にはサブクラスターデータ取得部71は省略可能である。
 また、撮像装置はビジョンセンサ13を備え、サブクラスター形成部21、データ生成部22は、解析装置3に備えられるようにしてもよく、また、撮像装置および解析装置3とは異なる装置(コンピュータ)に備えられるようにしてもよい。
 また、実施形態においては、新たに検出されたイベント44がサブクラスター45に含まれるかを判定するための所定条件として、サブクラスター45の縦横寸法が最大寸法以下であり、かつ、サブクラスター45のイベント数が最大数以下であることとした。
 しかしながら、所定条件はこれ以外であってもよい。例えば、最初に追加されたイベントが検出された時刻から所定時間以内に検出されたことが含まれるようにしてもよい。
 また、縦横寸法の最大寸法について、サブクラスター45の状態または再クラスター化部72等の状態に応じて動的に変更するようにしてもよい。具体例としては、サブクラスター45内のイベントの一様性が高く、プラスイベントまたはマイナスイベントの割合が予め設定された閾値以上になった場合には、より大きい最大寸法を設定することでデータ量の圧縮率を向上させることができる。また、別の具体例としては、多数のサブクラスター45が発生し、再クラスター化部72の処理負荷が予め設定された閾値以上になる場合には、より大きい最大寸法を設定することでサブクラスター45の発生数を減らし、再クラスター化部72の処理負荷を低減させることができる。
 また、実施形態においては、サブクラスターデータとして、時刻、新イベント総数、中心座標、縦横寸法等が含まれるようにした。しかしながら、解析処理において必要とされる情報であり、かつ、イベント信号を記録していく場合よりもデータ量が圧縮できるのであれば他の情報が含まれていてもよいし、実施形態において説明した情報のいずれかが含まれないようにしてもよい。
<7.実施形態のまとめ>
 上記のように実施形態のデータ生成装置(撮像装置2)においては、入射光の輝度変化に応じて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサ13で検出されたイベントを、所定条件に応じて区分けすることでサブクラスターを形成するサブクラスター形成部21と、区分けされたイベントの情報に基づいてサブクラスターに関する情報(サブクラスターデータ)を生成するデータ生成部22と、を備える。
 これにより、データ生成装置は、ビジョンセンサ13で検出されたイベントのイベント信号を全て記録させる必要がなく、サブクラスター45に関する情報のみを記録させることが可能となる。
 一方で、サブクラスター45に関する情報には、サブクラスターに区分けされたイベントの情報が圧縮して含まれることになるため、後段の解析処理においても、イベント信号を全て記録した場合と同じように、物体に関する情報を算出することが可能となる。
 したがって、データ生成装置は、物体に関する情報量を概ね低下させることなく、記録されるデータのデータ容量を低減することができる。
 また、サブクラスター45の最大寸法が予め決められており、サブクラスター形成部21は、サブクラスター45が最大寸法以下となるようにイベントを区分けする。
 これにより、データ生成装置は、空間的に離れた位置にある異なる物体から検出されるイベントが同一のサブクラスター45に区分けされてしまうことを低減することができる。
 したがって、データ生成装置は、サブクラスターデータのデータ精度を保つことができる。
 また、サブクラスター45に区分けされるイベントの最大数が予め決められており、サブクラスター形成部21は、サブクラスター45に区分けされるイベント数が最大数以下となるようにイベントを区分けする。
 これにより、データ生成装置は、空間的には近い位置であっても時間的に離れた異なる物体から検出されるイベントが同一のサブクラスター45に区分けされてしまうことを低減することができる。
 したがって、データ生成装置は、サブクラスターデータのデータ精度を保つことができる。
 また、サブクラスター45は、最大寸法と、区分けされるイベントの最大数とが予め決められており、サブクラスター形成部21は、サブクラスター45が最大寸法以下となり、かつ、サブクラスター45に区分けされるイベント数が最大数以下となるように前記イベントを区分けする。
 これにより、データ生成装置は、空間的および時間的に離れた異なる物体から検出されるイベントが同一のサブクラスター45に区分けされてしまうことを低減することができる。
 したがって、データ生成装置は、サブクラスターデータのデータ精度をより保つことができる。
 また、データ生成部22は、サブクラスター45に関する情報を所定間隔ごとに生成する。
 これにより、データ生成部22は、所定間隔ごとにサブクラスター45に分類されたイベントのイベント信号に基づいて、サブクラスター45に関する情報を算出することになる。
 したがって、データ生成装置は、高速で検出されるイベントの時間的分解能を維持したサブクラスターデータを生成することができる。
 また、データ生成部22は、サブクラスター45に関する情報(サブクラスターデータ)として、サブクラスター45に区分けされたイベントの数を算出する。
 これにより、データ生成装置は、イベント数の変化に基づいて、物体の動き等を把握することが可能となる。
 また、データ生成部22は、サブクラスター45に関する情報として、サブクラスター45の中心座標を算出する。
 これにより、データ生成装置は、サブクラスター45によって示される物体の形状および位置に関する情報を圧縮して持たせることができる。
 また、データ生成部22は、サブクラスター45に関する情報として、サブクラスターの縦横寸法を算出する。
 これにより、データ生成装置は、サブクラスター45によって示される物体の形状および位置に関する情報を圧縮して持たせることができる。
 また、データ生成部22は、サブクラスター45に区分けされたイベントの数に関する情報を所定間隔ごとに算出し、イベントの数に関する情報以外の情報を所定間隔よりも長い間隔で算出する。
 これにより、高い時間分解能が必要なイベントの数に関しては短い間隔で算出し、時間分解能をそれほど必要としない他の情報に関しては取得間隔を長くすることで、データ精度を維持しつつ、データ量をさらに低減することができる。
 また、データ生成装置は、サブクラスター45に関する情報に基づいて、複数のサブクラスターを関連付けてクラスター46を生成する再クラスター化部72を備える。
 これにより、データ生成装置は、同一の物体に基づくサブクラスター45を結びつけて、その物体の特徴量や種別等を算出(特定)可能にすることができる。
 また、データ生成装置は、クラスター46に関連付けられたサブクラスター45に関する情報に基づいて、クラスター46によって示される物体に関する情報を生成する物体情報生成部を備える。
 これにより、データ生成装置は、クラスター46によって示される物体の特徴量や種別等を算出(特定)することができる。
 また、上記のように実施形態のデータ生成方法は、データ生成装置が、入射光の輝度変化に応じて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサ13で検出されたイベントを所定条件に応じて区分けすることでサブクラスターを生成し、区分けされたイベントの情報に基づいてサブクラスターに関する情報を生成する。
 また、上記のように実施形態のプログラムは、入射光の輝度変化に応じて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサ13で検出されたイベントを所定条件に応じて区分けすることでサブクラスターを生成し、区分けされたイベントの情報に基づいてサブクラスターに関する情報を生成する。
 このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
 あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 また、上記のように実施形態の解析装置3においては、入射光の輝度に基づいて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサ13で検出されたイベントが所定条件に応じて区分けされることで形成されたサブクラスター45に関する情報(サブクラスターデータ)を取得するサブクラスターデータ取得部71と、サブクラスター45に関する情報に基づいて、物体に関する情報を生成する物体情報生成部73と、を備える。
 これにより、解析装置3は、データ量が圧縮されたサブクラスターデータに基づいて、サブクラスター45によって示される物体に関する情報を算出(特定)することができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<8.本技術>
 本技術は以下のような構成も採ることができる。
(1)
 入射光の輝度に基づいて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサで検出された前記イベントを、所定条件に応じて区分けすることでサブクラスターを形成するサブクラスター形成部と、
 区分けされた前記イベントの情報に基づいて前記サブクラスターに関する情報を生成するデータ生成部と、
を備えるデータ生成装置。
(2)
 前記サブクラスターの最大寸法が予め決められており、
 前記サブクラスター形成部は、前記サブクラスターが最大寸法以下となるように前記イベントを区分けする
(1)に記載のデータ生成装置。
(3)
 前記サブクラスターに区分けされる前記イベントの最大数が予め決められており、
 前記サブクラスター形成部は、前記サブクラスターに区分けされるイベント数が前記最大数以下となるように前記イベントを区分けする
(1)または(2)に記載のデータ生成装置。
(4)
 前記サブクラスターは、最大寸法と、区分けされる前記イベントの最大数とが予め決められており、
 前記サブクラスター形成部は、前記サブクラスターが最大寸法以下となり、かつ、前記サブクラスターに区分けされるイベント数が前記最大数以下となるように前記イベントを区分けする
(1)から(3)のいずれかに記載のデータ生成装置。
(5)
 前記データ生成部は、前記サブクラスターに関する情報を所定間隔ごとに生成する
(1)から(4)のいずれかに記載のデータ生成装置。
(6)
 前記データ生成部は、前記サブクラスターに関する情報として、前記サブクラスターに区分けされた前記イベントの数を算出する
(1)から(5)のいずれかに記載のデータ生成装置。
(7)
 前記データ生成部は、前記サブクラスターに関する情報として、前記サブクラスターの中心位置を算出する
(1)から(6)のいずれかに記載のデータ生成装置。
(8)
 前記データ生成部は、前記サブクラスターに関する情報として、前記サブクラスターの寸法を算出する
(1)から(7)のいずれかに記載のデータ生成装置。
(9)
 前記データ生成部は、前記サブクラスターに区分けされたイベントの数に関する情報を所定間隔ごとに算出し、前記イベントの数に関する情報以外の情報を前記所定間隔よりも長い間隔で算出する
(1)から(8)のいずれかに記載のデータ生成装置。
(10)
 前記サブクラスターに関する情報に基づいて、複数の前記サブクラスターを関連付けてクラスターを形成する再クラスター化部を備える
(1)から(9)のいずれかに記載のデータ生成装置。
(11)
 前記クラスターに関連付けられた前記サブクラスターに関する情報に基づいて、前記クラスターによって示される物体に関する情報を生成する物体情報生成部を備える
(10)に記載のデータ生成装置。
(12)
 データ生成装置が、
 入射光の輝度変化に応じて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサで検出された前記イベントを所定条件に応じて区分けすることでサブクラスターを生成し、
 区分けされた前記イベントの情報に基づいて前記サブクラスターに関する情報を生成する
 データ生成方法。
(13)
 入射光の輝度変化に応じて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサで検出された前記イベントを所定条件に応じて区分けすることでサブクラスターを生成し、
 区分けされた前記イベントの情報に基づいて前記サブクラスターに関する情報を生成する
 処理をデータ生成装置に実行させるプログラム。
(14)
 入射光の輝度に基づいて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサで検出された前記イベントが所定条件に応じて区分けされることで形成されたサブクラスターに関する情報を取得するサブクラスターデータ取得部と、
 前記サブクラスターに関する情報に基づいて、物体に関する情報を生成する物体情報生成部と、
を備える解析装置。
(15)
 前記サブクラスターに関する情報に基づいて、複数の前記サブクラスターを関連付けてクラスターを生成する再クラスター化部を備え、
 前記物体情報生成部は、前記クラスターに関連付けられた前記サブクラスターに関する情報に基づいて、前記クラスターによって示される物体に関する情報を生成する
(14)に記載の解析装置。
1 測定システム
2 データ生成装置
3 解析装置
13 ビジョンセンサ
15 信号解析部
21 サブクラスター形成部
22 情報生成部
61 制御部
71 サブクラスターデータ取得部
72 再クラスター化部
73 物体情報生成部

Claims (15)

  1.  入射光の輝度に基づいて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサで検出された前記イベントを、所定条件に応じて区分けすることでサブクラスターを形成するサブクラスター形成部と、
     区分けされた前記イベントの情報に基づいて前記サブクラスターに関する情報を生成するデータ生成部と、
    を備えるデータ生成装置。
  2.  前記サブクラスターの最大寸法が予め決められており、
     前記サブクラスター形成部は、前記サブクラスターが最大寸法以下となるように前記イベントを区分けする
    請求項1に記載のデータ生成装置。
  3.  前記サブクラスターに区分けされる前記イベントの最大数が予め決められており、
     前記サブクラスター形成部は、前記サブクラスターに区分けされるイベント数が前記最大数以下となるように前記イベントを区分けする
    請求項1に記載のデータ生成装置。
  4.  前記サブクラスターは、最大寸法と、区分けされる前記イベントの最大数とが予め決められており、
     前記サブクラスター形成部は、前記サブクラスターが最大寸法以下となり、かつ、前記サブクラスターに区分けされるイベント数が前記最大数以下となるように前記イベントを区分けする
    請求項1に記載のデータ生成装置。
  5.  前記データ生成部は、前記サブクラスターに関する情報を所定間隔ごとに生成する
    請求項1に記載のデータ生成装置。
  6.  前記データ生成部は、前記サブクラスターに関する情報として、前記サブクラスターに区分けされた前記イベントの数を算出する
    請求項1に記載のデータ生成装置。
  7.  前記データ生成部は、前記サブクラスターに関する情報として、前記サブクラスターの中心位置を算出する
    請求項1に記載のデータ生成装置。
  8.  前記データ生成部は、前記サブクラスターに関する情報として、前記サブクラスターの寸法を算出する
    請求項1に記載のデータ生成装置。
  9.  前記データ生成部は、前記サブクラスターに区分けされたイベントの数に関する情報を所定間隔ごとに算出し、前記イベントの数に関する情報以外の情報を前記所定間隔よりも長い間隔で算出する
    請求項1に記載のデータ生成装置。
  10.  前記サブクラスターに関する情報に基づいて、複数の前記サブクラスターを関連付けてクラスターを形成する再クラスター化部を備える
    請求項1に記載のデータ生成装置。
  11.  前記クラスターに関連付けられた前記サブクラスターに関する情報に基づいて、前記クラスターによって示される物体に関する情報を生成する物体情報生成部を備える
    請求項10に記載のデータ生成装置。
  12.  データ生成装置が、
     入射光の輝度変化に応じて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサで検出された前記イベントを所定条件に応じて区分けすることでサブクラスターを生成し、
     区分けされた前記イベントの情報に基づいて前記サブクラスターに関する情報を生成する
     データ生成方法。
  13.  入射光の輝度変化に応じて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサで検出された前記イベントを所定条件に応じて区分けすることでサブクラスターを生成し、
     区分けされた前記イベントの情報に基づいて前記サブクラスターに関する情報を生成する
     処理をデータ生成装置に実行させるプログラム。
  14.  入射光の輝度に基づいて発生するイベントを非同期で検出する画素が二次元に配置されたビジョンセンサで検出された前記イベントが所定条件に応じて区分けされることで形成されたサブクラスターに関する情報を取得するサブクラスターデータ取得部と、
     前記サブクラスターに関する情報に基づいて、物体に関する情報を生成する物体情報生成部と、
    を備える解析装置。
  15.  前記サブクラスターに関する情報に基づいて、複数の前記サブクラスターを関連付けてクラスターを生成する再クラスター化部を備え、
     前記物体情報生成部は、前記クラスターに関連付けられた前記サブクラスターに関する情報に基づいて、前記クラスターによって示される物体に関する情報を生成する
    請求項14に記載の解析装置。
PCT/JP2023/014589 2022-04-26 2023-04-10 データ生成装置、データ生成方法、プログラム、解析装置 WO2023210330A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022072585 2022-04-26
JP2022-072585 2022-04-26

Publications (1)

Publication Number Publication Date
WO2023210330A1 true WO2023210330A1 (ja) 2023-11-02

Family

ID=88518390

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/014589 WO2023210330A1 (ja) 2022-04-26 2023-04-10 データ生成装置、データ生成方法、プログラム、解析装置

Country Status (1)

Country Link
WO (1) WO2023210330A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020195769A1 (ja) * 2019-03-27 2020-10-01 ソニー株式会社 物体検出装置、物体検出システム及び物体検出方法
JP2022513214A (ja) * 2018-12-13 2022-02-07 プロフジー シーン内の物体を追跡する方法
JP2022523505A (ja) * 2019-01-30 2022-04-25 プロフジー イベントベースセンサからの情報を処理する方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022513214A (ja) * 2018-12-13 2022-02-07 プロフジー シーン内の物体を追跡する方法
JP2022523505A (ja) * 2019-01-30 2022-04-25 プロフジー イベントベースセンサからの情報を処理する方法
WO2020195769A1 (ja) * 2019-03-27 2020-10-01 ソニー株式会社 物体検出装置、物体検出システム及び物体検出方法

Similar Documents

Publication Publication Date Title
CN111931752B (zh) 一种基于事件相机的动态目标检测方法
US11450114B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
US9330446B2 (en) Method and apparatus for processing image
US8179466B2 (en) Capture of video with motion-speed determination and variable capture rate
KR101052207B1 (ko) 물체의 속도에 따른 카메라 모듈의 영상 녹화 속성 조절 방법 및 장치
TWI554099B (zh) 用於決定一影像調整參數之方法及攝影機
US8488878B2 (en) Sky detection system used in image extraction device and method using sky detection system
KR101664123B1 (ko) 필터링에 기반하여 고스트가 없는 hdri를 생성하는 장치 및 방법
JP4694589B2 (ja) 自動監視システム
JP6565600B2 (ja) アテンション検出装置及びアテンション検出方法
US20210082127A1 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
JP2013135468A (ja) 場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するためのカメラおよび方法
US11074716B2 (en) Image processing for object detection
JP7255819B2 (ja) 映像ストリームからの物体検出において用いるためのシステム及び方法
CN112884805A (zh) 一种跨尺度自适应映射的光场成像方法
Ma et al. A lightweight neural network for crowd analysis of images with congested scenes
WO2023210330A1 (ja) データ生成装置、データ生成方法、プログラム、解析装置
WO2018037479A1 (ja) 画像処理装置、ステレオカメラ装置及び画像処理方法
KR20140045834A (ko) 단일객체의 크기를 추정하는 영상 감시장치 및 방법
JP5864230B2 (ja) 物体検出装置
JP2008047991A (ja) 画像処理装置
KR20150033047A (ko) 객체를 검출하기 위한 전처리 장치 및 방법
JP5864231B2 (ja) 移動方向識別装置
JP2021093694A (ja) 情報処理装置およびその制御方法
KR20090008621A (ko) 중요 움직임 검출 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23796075

Country of ref document: EP

Kind code of ref document: A1