WO2023053239A1 - 材質推定装置、材質推定システム及び材質推定方法 - Google Patents

材質推定装置、材質推定システム及び材質推定方法 Download PDF

Info

Publication number
WO2023053239A1
WO2023053239A1 PCT/JP2021/035743 JP2021035743W WO2023053239A1 WO 2023053239 A1 WO2023053239 A1 WO 2023053239A1 JP 2021035743 W JP2021035743 W JP 2021035743W WO 2023053239 A1 WO2023053239 A1 WO 2023053239A1
Authority
WO
WIPO (PCT)
Prior art keywords
estimation
information
particle size
result
estimating
Prior art date
Application number
PCT/JP2021/035743
Other languages
English (en)
French (fr)
Inventor
敢 木村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/035743 priority Critical patent/WO2023053239A1/ja
Publication of WO2023053239A1 publication Critical patent/WO2023053239A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/21Polarisation-affecting properties
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection

Definitions

  • the present invention relates to a material estimation device and the like.
  • Patent Document 1 discloses a technique for determining whether or not a target object (for example, a product or a work target of a robot) is covered with a translucent container using a ToF (Time of Flight) distance sensor. disclosed.
  • the distance sensor uses a laser (see paragraph [0019] of Patent Document 1).
  • the technique of patent document 2 and patent document 3 is also known as a related technique.
  • the technology described in Patent Document 1 determines whether or not a target object (hereinafter sometimes referred to as "object") is covered with a translucent container. That is, the technique described in Patent Document 1 is such that when an object is composed of a granular material, the size of the particles in the granular material (hereinafter sometimes referred to as “particle size” or “particle size”) It does not presume the material of the object based on this. In other words, the technique described in Patent Document 1 does not have means for estimating the material of the object based on the grain size of the object. Therefore, according to the technique described in Patent Document 1, there is a problem that the material of the object cannot be estimated based on the particle size of the object.
  • An object of the present invention is to provide a material estimation device or the like that can estimate the material of an object based on the grain size of the object, in view of the above-mentioned problems.
  • the material estimating apparatus of the present invention obtains particle size estimation information used for estimating the size of particles in a powder or granular material that constitutes an object, based on a laser beam irradiated on the object and a reflected light reflected by the object.
  • Particle size estimation means for estimating the size of particles in the granular material using the information acquisition means to be acquired and the information for particle size estimation;
  • the material estimation system of the present invention obtains particle size estimation information used for estimating the size of particles in a powder or granular material that constitutes an object, based on a laser beam irradiated on the object and a reflected light reflected by the object.
  • Particle size estimation means for estimating the size of particles in the granular material using the information acquisition means to be acquired and the information for particle size estimation;
  • the material estimation method of the present invention is used by the information acquisition means to estimate the size of the particles in the granular material that constitutes the object based on the laser beam irradiated to the object and the reflected light reflected by the object.
  • Information for particle size estimation is acquired, particle size estimation means uses the information for particle size estimation to estimate the size of particles in the granular material, and material estimation means estimates the size of the object based on the result of estimation by the particle size estimation means Estimate the material of
  • the present invention it is possible to provide a material estimation device or the like that can estimate the material of an object based on the grain size of the object.
  • FIG. 1 is a block diagram showing a material estimation system according to the first embodiment.
  • FIG. 2 is a block diagram showing a LiDAR device in the material estimation system according to the first embodiment.
  • FIG. 3 is a block diagram showing the material estimation device according to the first embodiment.
  • FIG. 4 is a block diagram showing an output device in the material estimation system according to the first embodiment.
  • FIG. 5 is a block diagram showing the hardware configuration of the material estimation device according to the first embodiment.
  • FIG. 6 is a block diagram showing another hardware configuration of the material estimation device according to the first embodiment.
  • FIG. 7 is a block diagram showing another hardware configuration of the material estimation device according to the first embodiment.
  • FIG. 8 is a flow chart showing the operation of the material estimation device according to the first embodiment.
  • FIG. 9 is a block diagram showing a material estimation system according to the second embodiment.
  • FIG. 10 is a block diagram showing a material estimation device according to the second embodiment.
  • FIG. 11 is a flow chart showing the operation of the material estimation device according to the second embodiment.
  • FIG. 12 is a block diagram showing a material estimation device according to the third embodiment.
  • FIG. 13 is a block diagram showing a material estimation system according to the third embodiment.
  • FIG. 1 is a block diagram showing a material estimation system according to the first embodiment.
  • FIG. 2 is a block diagram showing a LiDAR device in the material estimation system according to the first embodiment.
  • FIG. 3 is a block diagram showing the material estimation device according to the first embodiment.
  • FIG. 4 is a block diagram showing an output device in the material estimation system according to the first embodiment. A material estimation system according to the first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 is a block diagram showing a material estimation system according to the first embodiment.
  • the material estimation system 100 includes a LiDAR device 1 and a material estimation device 2. That is, as shown in FIG. 1, the material estimation system 100 includes the LiDAR device 1. As shown in FIG. As shown in FIG. 2 , the LiDAR device 1 includes a light emitting section 11 and a light receiving section 12 . The light emitting unit 11 is configured by an optical transmitter for LiDAR. The light receiving unit 12 is configured by an optical receiver for LiDAR. The LiDAR device 1 may include a LiDAR signal processing section (not shown) in addition to the light emitting section 11 and the light receiving section 12 . The signal processing unit is composed of, for example, a dedicated circuit.
  • the light emitting unit 11 emits laser light toward the object.
  • the emitted laser light is applied to an object.
  • the direction in which the laser light is emitted by the light emitting section 11 is variable.
  • the light emitting unit 11 sequentially emits laser light in multiple directions. Thereby, the laser light is irradiated so as to scan the object.
  • the irradiated laser light is reflected by the object.
  • a backscattered component (that is, backscattered light) of the reflected light (hereinafter sometimes referred to as “reflected light”) is received by the light receiving section 12 .
  • the light received by the light receiving unit 12 out of the reflected light may be referred to as "received light”.
  • the object is composed of a collection of minute solid particles.
  • the target object is composed of granules.
  • the object is a pile of raw materials in a raw material yard or a concrete product.
  • a pile of raw materials is, for example, a sand pile or a gravel pile.
  • Concrete products are, for example, concrete roads, concrete walls or concrete blocks.
  • the material estimation system 100 includes a material estimation device 2 .
  • the material estimation device 2 is communicably connected to the LiDAR device 1 by wire or wirelessly.
  • the material estimation device 2 is configured by a computer. Note that such a computer may be provided in a so-called "cloud”.
  • the material estimation device 2 includes an information acquisition section 21 , a granularity estimation section 22 , a material estimation section 23 and an output control section 24 .
  • the following information is obtained based on the laser light emitted by the LiDAR device 1 (that is, the laser light that is applied to the object) and the reflected light that is received by the LiDAR device 1 (that is, received light). That is, the position of the point where the LiDAR device 1 is installed and the position of the point (hereinafter sometimes referred to as "reflection point") where the laser light emitted in each direction is reflected by the object (including the target object) Information indicating the distance D between is obtained. Such information is used, for example, to estimate the shape of the object. Hereinafter, such information may be referred to as “distance information" or "first information”.
  • the information acquisition unit 21 calculates the distance based on the laser light emitted by the LiDAR device 1 (that is, the laser light that is applied to the target object) and the reflected light that is received by the LiDAR device 1 (that is, received light). Get information that is different from the information.
  • Such information is used by the particle size estimation unit 22, which will be described later, to estimate the size of the particles in the granular material that constitutes the object. In other words, such information is used to estimate the particle size (or grain size) of the object.
  • such information may be referred to as "granularity estimation information" or "second information”.
  • the granularity estimation information may include information indicating the intensity of received light corresponding to laser light emitted in each direction (hereinafter sometimes referred to as "intensity information"). That is, the information acquisition section 21 detects the intensity of the received light. As a result, intensity information indicating the detected intensity is acquired by the information acquisition unit 21 .
  • the intensity of the received light may be detected by the signal processing unit of the LiDAR device 1 instead of being detected by the information acquisition unit 21. . In this case, the LiDAR device 1 may output intensity information, and the information acquisition unit 21 may acquire the output intensity information.
  • the granularity estimation information may include information indicating the polarization of the received light corresponding to the laser light emitted in each direction (hereinafter sometimes referred to as "polarization information"). That is, in this case, the LiDAR device 1 has a function of detecting the polarization of received light. The LiDAR device 1 outputs information indicating the detected polarization (ie, polarization information). The information acquisition unit 21 acquires the output polarization information.
  • polarization information information indicating the polarization of the received light corresponding to the laser light emitted in each direction
  • the granularity estimation information may include information indicating the frequency shift of the received light corresponding to the laser light emitted in each direction (hereinafter sometimes referred to as "frequency shift information"). That is, the information acquisition unit 21 detects the frequency shift of the received light based on the frequency components contained in the received light. As a result, the information acquisition unit 21 acquires frequency shift information indicating the detected frequency shift. Note that when the LiDAR device 1 includes a signal processing unit, the frequency shift of the received light is detected by the signal processing unit of the LiDAR device 1 instead of being detected by the information acquisition unit 21. Also good. In this case, the LiDAR device 1 may output frequency shift information, and the information acquisition unit 21 may acquire the output frequency shift information.
  • the information for granularity estimation is information indicating statistics (for example, variance) of the plurality of distances D corresponding to the plurality of emission directions (hereinafter sometimes referred to as "statistics information"). .). That is, the information acquisition unit 21 calculates each of the plurality of distances D.
  • FIG. ToF or FMCW (Frequency Modulated Continuous Wave), for example, is used to calculate each distance D.
  • the information acquisition unit 21 calculates such a statistic based on the calculated distance D.
  • FIG. As a result, the information acquisition unit 21 acquires statistic information indicating the calculated statistic.
  • the statistics may be calculated by the signal processing unit of the LiDAR device 1 instead of being calculated by the information acquisition unit 21 . In this case, the LiDAR device 1 may output statistic information, and the information acquisition unit 21 may acquire the output statistic information.
  • the granularity estimation information includes at least one of intensity information, polarization information, frequency shift information, and statistic information.
  • the information for granularity estimation is information obtained using the LiDAR device 1, and is information different from the first information regarding the distance D (that is, distance information).
  • the particle size estimation unit 22 uses the particle size estimation information acquired by the information acquisition unit 21 to estimate the size of the particles in the granular material that constitutes the object. In other words, the particle size estimation unit 22 estimates the particle size (that is, particle size) of the object.
  • the intensity of the corresponding received light changes according to the granularity of the object.
  • the polarization of the corresponding received light changes according to the granularity of the object.
  • the frequency shift of the corresponding received light changes according to the granularity of the object.
  • the statistic of the corresponding distance D changes according to the granularity of the object.
  • a database (hereinafter referred to as "first database”) is prepared in advance.
  • the first database may be stored inside the material estimation device 2, or may be stored in an external device (not shown).
  • the granularity estimation unit 22 determines the granularity of the object based on the first database using the acquired information for granularity estimation.
  • the first database may be updated based on the information used for estimation by the granularity estimating unit 22 (that is, the obtained granularity estimation information) and the results of estimation by the granularity estimating unit 22.
  • the updating of the first database may be performed inside the material estimation device 2 .
  • updating of the first database may be performed by an external device (not shown).
  • the value indicating the granularity of the object is obtained.
  • a model to be output (hereinafter sometimes referred to as "first model") is prepared in advance.
  • the first model may be stored inside the material estimation device 2, or may be stored in an external device (not shown).
  • the granularity estimation unit 22 inputs a value corresponding to the obtained information for granularity estimation to the first model.
  • the first model outputs a value indicating the granularity of the object to the granularity estimating section 22 in response to such input.
  • the granularity estimator 22 determines the granularity of the object based on the value output by the first model.
  • the first model is, for example, a predetermined statistical model or a machine learning model generated by prior machine learning.
  • Such machine learning models are generated, for example, by supervised learning.
  • Such supervised learning includes, for example, learning data corresponding to at least one of the intensity of received light, the polarization of received light, the frequency shift of received light, and the statistic of distance D, and the granularity of the object. Use the correct label to
  • the first model may be updated based on the information used for estimation by the granularity estimating unit 22 (that is, the obtained information for granularity estimation) and the result of estimation by the granularity estimating unit 22.
  • the update of the first model may be performed inside the material estimation device 2 .
  • updating of the first model may be performed by an external device (not shown).
  • the external device is, for example, a computer for machine learning.
  • Such a computer may update the structure of the first model or the values of individual parameters (eg weights) in the first model.
  • the material estimation unit 23 estimates the material of the object based on the result of estimation by the particle size estimation unit 22 .
  • a database (hereinafter sometimes referred to as a “second database”) showing the correspondence between the grain size of the object and the material (sand, gravel, concrete, etc.) of the object is prepared in advance.
  • the second database may be stored inside the material estimation device 2, or may be stored in an external device (not shown).
  • the material estimation unit 23 acquires information indicating the result of estimation by the particle size estimation unit 22 (hereinafter sometimes referred to as “particle size information”).
  • particle size information the particle size information
  • the material estimation unit 23 determines the material of the object based on the second database using the acquired grain size information.
  • the second database may be updated based on the information used for estimation by the material estimation unit 23 (that is, the obtained granularity information) and the result of estimation by the material estimation unit 23.
  • the updating of the second database may be performed inside the material estimation device 2 .
  • updating of the second database may be performed by an external device (not shown).
  • a model (hereinafter sometimes referred to as "second model") that outputs a value indicating the material of the object when a value indicating the grain size of the object is input is prepared in advance.
  • the second model may be stored inside the material estimation device 2, or may be stored in an external device (not shown).
  • the material estimation unit 23 acquires grain size information.
  • the material estimation unit 23 inputs a value corresponding to the acquired grain size information to the second model.
  • the second model outputs a value indicating the material of the object to the material estimation unit 23 in response to such input.
  • the material estimation unit 23 determines the material of the object based on the value output by the second model.
  • the second model is, for example, a predetermined statistical model or a machine learning model generated by prior machine learning.
  • Such machine learning models are generated, for example, by supervised learning.
  • Such supervised learning uses, for example, learning data corresponding to the granularity of the object and correct labels corresponding to the material of the object.
  • the second model may be updated based on the information used for estimation by the material estimation unit 23 (that is, the obtained granularity information) and the result of estimation by the material estimation unit 23.
  • the update of the second model may be executed inside the material estimation device 2 .
  • updating of the second model may be performed by an external device (not shown).
  • the external device is, for example, a computer for machine learning.
  • Such a computer may update the structure of the second model or the values of individual parameters (eg weights) in the second model.
  • candidate objects include sand dunes, gravel heaps, and concrete products.
  • the second database or the second model includes a value indicating the grain size corresponding to sand, a value indicating the grain size corresponding to gravel, and a value indicating the grain size corresponding to concrete.
  • the material estimation unit 23 uses the acquired particle size information to determine whether the material of the object is sand, gravel, or concrete. Thereby, it is determined whether the object is a sand pile, a gravel pile, or a concrete product.
  • the output control unit 24 executes control to output information indicating the result of estimation by the material estimation unit 23 (hereinafter sometimes referred to as "material information"). That is, the material information includes information indicating the material of the object. An output device 3, which will be described later, is used to output the material information (see FIG. 1).
  • the output control unit 24 executes control to display an image corresponding to the material information.
  • a predetermined GUI Graphic User Interface
  • the output control unit 24 executes control to output a sound corresponding to the material information. Thereby, a person can be notified of the material of the object.
  • the output control unit 24 executes control to transmit a signal corresponding to the material information to another device (not shown) or another system (not shown).
  • a predetermined API Application Programming Interface
  • the material estimation system 100 includes an output device 3.
  • the output device 3 is communicably connected to the material estimation device 2 by wire or wirelessly.
  • the output device 3 has an output section 31 .
  • the output unit 31 outputs material information under the control of the output control unit 24 .
  • the output unit 31 is composed of, for example, at least one of a display, a speaker and a transceiver.
  • the output device 3 is composed of at least one of a display device, an audio output device and a communication device.
  • the material estimation system 100 is configured in this way.
  • the light emitting section 11 may be referred to as “light emitting means”.
  • the light receiving section 12 may be referred to as “light receiving means”.
  • the information acquisition part 21 may be called “information acquisition means.”
  • the granularity estimating unit 22 may be referred to as “granularity estimating means”.
  • the material estimation unit 23 may be referred to as “material estimation means”.
  • the output control unit 24 may be referred to as "output control means”.
  • FIG. 5 the hardware configuration of the material estimation device 2 will be described with reference to FIGS. 5 to 7.
  • FIG. 5 the hardware configuration of the material estimation device 2 will be described with reference to FIGS. 5 to 7.
  • the material estimation device 2 uses a computer 41.
  • the computer 41 includes a processor 51 and a memory 52.
  • the memory 52 stores programs for causing the computer 41 to function as the information acquisition section 21 , the grain size estimation section 22 , the material estimation section 23 and the output control section 24 .
  • the processor 51 reads and executes programs stored in the memory 52 . Thereby, the function F1 of the information acquisition unit 21, the function F2 of the granularity estimation unit 22, the function F3 of the material estimation unit 23, and the function F4 of the output control unit 24 are realized.
  • the computer 41 comprises a processing circuit 53 as shown in FIG.
  • the processing circuit 53 executes processing for causing the computer 41 to function as the information acquisition section 21 , the grain size estimation section 22 , the material estimation section 23 and the output control section 24 . Thereby, functions F1 to F4 are realized.
  • the computer 41 comprises a processor 51, a memory 52 and a processing circuit 53, as shown in FIG.
  • some of the functions F1 to F4 are implemented by the processor 51 and the memory 52, and the rest of the functions F1 to F4 are implemented by the processing circuit 53.
  • the processor 51 is composed of one or more processors.
  • the individual processors use, for example, CPUs (Central Processing Units), GPUs (Graphics Processing Units), microprocessors, microcontrollers, or DSPs (Digital Signal Processors).
  • CPUs Central Processing Units
  • GPUs Graphics Processing Units
  • microprocessors microcontrollers
  • DSPs Digital Signal Processors
  • the memory 52 is composed of one or more memories. Individual memories are those using volatile memory or non-volatile memory. That is, individual memories are, for example, RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), hard disk drive, solid state drive It uses a drive, flexible disc, compact disc, DVD (Digital Versatile Disc), Blu-ray disc, MO (Magneto Optical) disc, or mini disc.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory EPROM (Erasable Programmable Read Only Memory)
  • EEPROM Electrical Erasable Programmable Read Only Memory
  • hard disk drive solid state drive It uses a drive, flexible disc, compact disc, DVD (Digital Versatile Disc), Blu-ray disc, MO (Magneto Optical) disc, or mini disc.
  • the processing circuit 53 is composed of one or more processing circuits. Individual processing circuits use, for example, ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field Programmable Gate Array), SoC (System a Chip), or system LSI (Large Scale) is.
  • ASIC Application Specific Integrated Circuit
  • PLD Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • SoC System a Chip
  • system LSI Large Scale Scale
  • processor 51 may include dedicated processors corresponding to each of the functions F1 to F4.
  • Memory 52 may include dedicated memory corresponding to each of functions F1-F4.
  • the processing circuitry 53 may include dedicated processing circuitry corresponding to each of the functions F1-F4.
  • the information acquisition unit 21 acquires information for granularity estimation (step ST1).
  • a specific example of the granularity estimation information has already been described. Therefore, repetitive description is omitted.
  • the particle size estimation unit 22 uses the particle size estimation information acquired in step ST1 to estimate the particle size of the granular material forming the object (step ST2).
  • a specific example of such a method for estimating the particle size has already been described. Therefore, repetitive description is omitted.
  • the material estimation unit 23 estimates the material of the object based on the result of estimation in step ST2 (step ST3).
  • a specific example of the method for estimating the material has already been described. Therefore, repetitive description is omitted.
  • the output control unit 24 executes control to output the material information based on the result of the estimation in step ST3 (step ST4). As a result, material information is output.
  • the granularity estimation information is not limited to the above specific examples.
  • Information for granularity estimation includes any information as long as it is information obtained using the LiDAR device 1, is different from distance information, and is information used for estimating the granularity of an object. It can be anything.
  • the method of estimating granularity in the granularity estimating unit 22 is not limited to the above specific example.
  • Such an estimation method may be any method as long as it estimates the particle size of the object using the acquired information for particle size estimation.
  • the material estimation method in the material estimation unit 23 is not limited to the above specific examples. Such an estimation method may be any method as long as it estimates the material of the object based on the grain size of the object.
  • the material estimation device 2 may include the light emitting section 11 and the light receiving section 12 . In this case, the LiDAR device 1 is unnecessary. In other words, the material estimation device 2 may be configured integrally with the LiDAR device 1 .
  • the material estimation device 2 may include an output unit 31. In this case, the output device 3 is unnecessary. In other words, the material estimation device 2 may be configured integrally with the output device 3 .
  • the database used for estimation in the material estimation device 2 is not limited to the first database and the second database.
  • the following database (hereinafter sometimes referred to as "third database") is generated.
  • the third database is a database showing the correspondence relationship between at least one of the received light intensity, the received light polarization, the received light frequency shift, and the statistics of the distance D, and the material of the object.
  • the third database may be generated inside the material estimation device 2, or may be generated by an external device (not shown).
  • the material estimation unit 23 uses the second information acquired by the information acquisition unit 21 to estimate the material of the object based on the generated third database. That is, the second information in this case is used for estimating the material of the object instead of estimating the grain size of the object.
  • the update of the third database may be executed inside the material estimation device 2 .
  • the update of the third database may be performed by an external device (not shown).
  • the models used for estimation in the material estimation device 2 are not limited to the first model and the second model.
  • the following model (hereinafter sometimes referred to as "third model") is generated.
  • the third model determines the material of the object. It is a model that outputs the value shown.
  • the third model may be generated inside the material estimation device 2, or may be generated by an external device (not shown). Predetermined machine learning (for example, supervised learning) is used to generate the third model.
  • the material estimation unit 23 inputs values corresponding to the second information acquired by the information acquisition unit 21 to the generated third model.
  • the third model outputs a value indicating the material of the object to the material estimation unit 23 in response to such input.
  • the material estimation unit 23 estimates the material of the object based on the values output by the third model. That is, the second information in this case is used for estimating the material of the object instead of estimating the grain size of the object.
  • the update of the third model may be executed inside the material estimation device 2 .
  • the update of the third model may be performed by an external device (not shown).
  • the external device is, for example, a computer for machine learning.
  • Such a computer may set or update the structure of the third model or the values of individual parameters (eg weights) in the third model.
  • the information acquisition unit 21 uses the laser light irradiated to the object and the reflected light reflected by the object to estimate the particle size (particle size) of the powder or granular material that constitutes the object. Get information for granularity estimation.
  • the particle size estimation unit 22 uses the particle size estimation information to estimate the size (particle size) of the particles in the granular material.
  • the material estimation unit 23 estimates the material of the object based on the result of estimation by the particle size estimation unit 22 .
  • the intensity of received light, the polarization of received light, or the frequency shift of received light can be detected, or the distance D can be detected. statistics can be calculated.
  • the information for granularity estimation can be acquired.
  • the acquired information for granularity estimation the granularity of the object can be estimated. This is because the values of the parameters (for example, the intensity of received light, the polarization of received light, the frequency shift of received light, or the statistic of distance D) included in the granularity estimation information change according to the granularity of the object. It is for As a result, the material of the object can be estimated based on the estimated grain size.
  • the material estimation unit 23 estimates the material of the object using a predetermined database (second database or third database).
  • the material estimation system 100 updates the database (second database or third database) based on the result of estimation by the material estimation unit 23 .
  • the accuracy of estimation by the material estimation unit 23 can be gradually improved.
  • the information for particle size estimation includes intensity information indicating the intensity of the received reflected light, polarization information indicating the polarization of the received reflected light, frequency shift information indicating the frequency shift of the received reflected light, and the object. at least one of statistic information indicating the statistic of the distance D of .
  • the material estimation system 100 also outputs information (material information) indicating the result of estimation by the material estimation unit 23 . Thereby, a person can be notified of the material of the object. Alternatively, the material of the object can be communicated to other devices or systems.
  • FIG. 9 is a block diagram showing a material estimation system according to the second embodiment.
  • FIG. 10 is a block diagram showing a material estimation device according to the second embodiment. A material estimation system according to the second embodiment will be described with reference to FIGS. 9 and 10.
  • FIG. 9 blocks similar to those shown in FIG. 1 are denoted by the same reference numerals, and descriptions thereof are omitted. Also, in FIG. 10, blocks similar to those shown in FIG.
  • the material estimation system 100a includes a LiDAR device 1, a material estimation device 2a and an output device 3.
  • the material estimation device 2a includes an information acquisition section 21a, a granularity estimation section 22, a material estimation section 23a, an output control section 24a, and a shape estimation section 25.
  • FIG. 10 the material estimation device 2a includes an information acquisition section 21a, a granularity estimation section 22, a material estimation section 23a, an output control section 24a, and a shape estimation section 25.
  • the information acquisition unit 21a acquires second information (i.e., granularity information for estimation). In addition to this, the information acquisition unit 21a acquires first information (that is, distance information) based on these lights.
  • second information i.e., granularity information for estimation
  • first information that is, distance information
  • the information acquisition unit 21a calculates the distance D by ToF. That is, in this case, the LiDAR device 1 emits pulsed laser light in each direction. Based on the time difference ⁇ T between the time T1 when the LiDAR device 1 emitted laser light in each direction and the time T2 when the LiDAR device 1 received the corresponding reflected light, the information acquisition unit 21a calculates the round-trip propagation time of these lights. Calculate the corresponding one-way propagation distance (ie, distance D). As a result, distance information indicating the distance D is acquired.
  • the information acquisition unit 21a calculates the distance D by FMCW. That is, in this case, the LiDAR device 1 has a function of performing predetermined frequency modulation on laser light emitted in each direction, a function of performing coherent detection on the corresponding received light, and the like. The information acquisition unit 21a calculates the corresponding distance D based on the frequency difference (so-called "beat frequency") between these lights. In this way, distance information indicating the distance D is acquired.
  • the distance D may be calculated based on the phase difference between the emitted laser light and the received reflected light (so-called "indirect ToF").
  • the distance D may be calculated by the signal processing unit of the LiDAR device 1 instead of being calculated by the information acquisition unit 21a.
  • the LiDAR device 1 may output distance information, and the information acquisition unit 21a may acquire the output distance information.
  • a plurality of distances D corresponding to a plurality of emission directions are calculated.
  • Statistical information may be generated using the plurality of distances D thus calculated.
  • the shape estimation unit 25 estimates the shape (more specifically, the outline) of the object using the distance information acquired by the information acquisition unit 21a. Specifically, for example, the shape estimator 25 uses the acquired distance information to calculate coordinate values indicating the positions of individual reflection points. The shape estimation unit 25 plots points corresponding to the calculated coordinate values in a virtual three-dimensional space. As a result, a three-dimensional model composed of point groups and corresponding to the shape of the object is generated. Thus, the shape of the object is detected.
  • the shape estimating unit 25 extracts the point group corresponding to the target object from among the plotted point groups by grouping the point groups based on the distance between points or the result of plane detection. can be Thereby, the shape estimation unit 25 may exclude the point group corresponding to the other object from the three-dimensional model.
  • the material estimation unit 23a estimates the material of the object based on the result of the estimation by the particle size estimation unit 22.
  • the material estimation method in this case is the same as that described in the first embodiment. Therefore, repetitive description is omitted.
  • the material estimation unit 23a estimates the material of the object based on the result of estimation by the particle size estimation unit 22 and the result of estimation by the shape estimation unit 25. A method for such estimation will be described below.
  • a database (hereinafter sometimes referred to as the "fourth database") showing the correspondence between the grain size and shape of the object and the material of the object is prepared in advance.
  • the fourth database may be stored inside the material estimation device 2a, or may be stored in an external device (not shown).
  • the material estimation unit 23a acquires information indicating the result of estimation by the particle size estimation unit 22 (that is, granularity information), and information indicating the result of estimation by the shape estimation unit 25 (hereinafter sometimes referred to as “shape information”). to get The material estimation unit 23a estimates the material of the object based on the fourth database using the acquired grain size information and the acquired shape information.
  • the fourth database is updated based on the information used in the estimation by the material estimation unit 23a (that is, the acquired particle size information and the acquired shape information) and the result of estimation by the material estimation unit 23. It can be.
  • the update of the fourth database may be executed inside the material estimation device 2a. Alternatively, updating of the fourth database may be performed by an external device (not shown).
  • the fourth model when a value indicating the grain size of the object and a value indicating the shape of the object are input, there is a model (hereinafter sometimes referred to as a "fourth model") that outputs a value indicating the material of the object. prepared in advance.
  • the fourth model may be stored inside the material estimation device 2a, or may be stored in an external device (not shown).
  • the material estimation unit 23a acquires the particle size information and also acquires the shape information.
  • the material estimation unit 23a inputs the value corresponding to the acquired grain size information and the value corresponding to the acquired shape information to the fourth model. In response to such an input, the fourth model outputs a value indicating the material of the object to the material estimation unit 23a.
  • the material estimation unit 23a determines the material of the object based on the value output by the fourth model.
  • the fourth model is, for example, a predetermined statistical model or a machine learning model generated by prior machine learning.
  • Such machine learning models are generated, for example, by supervised learning.
  • Such supervised learning uses, for example, learning data corresponding to the grain size and shape of the object, and correct labels corresponding to the material of the object.
  • the fourth model is updated based on the information used for estimation by the material estimation unit 23a (that is, the acquired particle size information and the acquired shape information) and the result of estimation by the material estimation unit 23a. It can be.
  • the update of the fourth model may be executed inside the material estimation device 2a.
  • updating of the fourth model may be performed by an external device (not shown).
  • the external device is, for example, a computer for machine learning.
  • Such a computer may update the structure of the fourth model or the values of individual parameters (eg weights) in the fourth model.
  • candidate objects include sand dunes, gravel heaps, and concrete products.
  • the object based on the shape of the object, there is a high probability that it can be determined whether the object is a pile of raw materials (sand pile or gravel pile) or another object (concrete product).
  • the object when the object is a pile of raw materials, there is a high probability that it is possible to determine whether the object is a sand pile or a gravel pile based on the grain size of the object. That is, based on the grain size of the object and the shape of the object, it can be determined whether the object is a sand pile, a gravel pile, or a concrete product. In other words, it can be determined whether the material of the object is sand, gravel, or concrete.
  • Such determination is realized by using the fourth database or the fourth model in the material estimation unit 23a.
  • the material estimating unit 23a estimates the material of the object based on the result of estimation by the particle size estimating unit 22 and the result of estimation by the shape estimating unit 25 will be mainly described below.
  • the output control unit 24a performs control to output information (that is, material information) indicating the result of estimation by the material estimation unit 23a.
  • the output control unit 24a may perform control to output information indicating the result of estimation by the shape estimating unit 25 (that is, shape information). That is, the output device 3 may output shape information in addition to outputting material information. Thereby, a person can be notified of the material of the object and the shape of the object. Alternatively, the material of the object and the shape of the object can be communicated to another device (not shown) or another system (not shown).
  • the material estimation system 100a is configured in this way.
  • the information acquisition unit 21a may be referred to as “information acquisition means”.
  • the material estimation unit 23a may be referred to as “material estimation means”.
  • the output control section 24a may be referred to as “output control means”.
  • the shape estimation part 25 may be called “shape estimation means.”
  • the hardware configuration of the material estimation device 2a is the same as that described with reference to FIGS. 5 to 7 in the first embodiment. Therefore, detailed description is omitted.
  • the material estimation device 2a has a function F1a of the information acquisition unit 21a, a function F2 of the grain size estimation unit 22, a function F3a of the material estimation unit 23a, a function F4a of the output control unit 24a, and a function F5 of the shape estimation unit 25.
  • Functions F 1 a , F 2 , F 3 a , F 4 a and F 5 may be implemented by processor 51 and memory 52 , or may be implemented by processing circuitry 53 .
  • the processor 51 may include a dedicated processor corresponding to each of the functions F1a, F2, F3a, F4a, and F5.
  • the memory 52 may include dedicated memory corresponding to each of the functions F1a, F2, F3a, F4a and F5.
  • the processing circuitry 53 may include dedicated processing circuitry corresponding to each of the functions F1a, F2, F3a, F4a, and F5.
  • the information acquisition unit 21a acquires distance information and granularity estimation information (step ST1a).
  • a specific example of the distance information acquisition method is as described above.
  • a specific example of the granularity estimation information is as described in the first embodiment. Therefore, repetitive description is omitted.
  • the shape estimation unit 25 estimates the shape of the object using the distance information acquired in step ST1 (step ST5).
  • a specific example of such a shape estimation method has already been described. Therefore, repetitive description is omitted.
  • the particle size estimation unit 22 uses the particle size estimation information acquired in step ST1 to estimate the particle size of the granular material forming the object (step ST2).
  • a specific example of such a method for estimating the particle size is as described in the first embodiment. Therefore, repetitive description is omitted.
  • the execution order of the process of step ST5 and the process of step ST2 is arbitrary. That is, as shown in FIG. 11, the process of step ST2 may be executed after the process of step ST5. Alternatively, the process of step ST5 may be executed after the process of step ST2. Alternatively, the process of step ST5 and the process of step ST2 may be executed in parallel.
  • the material estimation unit 23a estimates the material of the object based on the result of estimation in step ST5 and the result of estimation in step ST2 (step ST3a).
  • a specific example of the method for estimating the material has already been described. Therefore, repetitive description is omitted.
  • the output control unit 24a executes control to output the shape information and the material information (step ST4a). Thereby, shape information and material information are output.
  • the material estimation system 100a can adopt various modifications similar to those described in the first embodiment. In addition to this, the material estimation system 100a can adopt the following modifications.
  • the database used for estimation in the material estimation device 2a is not limited to the first database and the fourth database.
  • the following database (hereinafter "fifth database”) ) may be generated. That is, the fifth database stores at least one of the intensity of the received light, the polarization of the received light, the frequency shift of the received light, and the statistics of the distance D, and the correspondence between the shape of the object and the material of the object. It is a database showing relationships.
  • the fifth database may be generated inside the material estimation device 2a, or may be generated by an external device (not shown).
  • the material estimation unit 23a uses the second information acquired by the information acquisition unit 21a and the information indicating the result of estimation by the shape estimation unit 25 (that is, the shape information) to obtain the generated data.
  • the material of the object is estimated based on the fifth database. That is, the second information in this case is used for estimating the material of the object instead of estimating the grain size of the object.
  • the generated fifth database is based on the second information obtained by the information obtaining unit 21a, the result of estimation by the shape estimation unit 25, and the result of estimation by the material estimation unit 23a. may be updated.
  • the update of the fifth database may be executed inside the material estimation device 2a. Alternatively, the generation and update of the fifth database may be executed by an external device (not shown).
  • the models used for estimation in the material estimation device 2a are not limited to the first model and the fourth model.
  • the following model (hereinafter "fifth model ) may be generated. That is, in the fifth model, a value indicating at least one of the intensity of the received light, the polarization of the received light, the frequency shift of the received light, and the statistics of the distance D, and the value indicating the shape of the object are input.
  • the fifth model may be generated inside the material estimation device 2a, or may be generated by an external device (not shown). Predetermined machine learning (for example, supervised learning) is used to generate the fifth model.
  • the material estimation unit 23a adds a value corresponding to the information for particle size estimation acquired by the information acquisition unit 21 and a value corresponding to the result of estimation by the shape estimation unit 25 to the generated model. 5 Enter the model.
  • the fifth model outputs a value indicating the material of the object to the material estimation unit 23a.
  • the material estimation unit 23a estimates the material of the object based on the value output by the fifth model. That is, the second information in this case is used for estimating the material of the object instead of estimating the grain size of the object.
  • the generated fifth The model may be updated.
  • the update of the fifth model may be executed inside the material estimation device 2a.
  • the generation and update of the fifth model may be executed by an external device (not shown).
  • the external device is, for example, a computer for machine learning.
  • Such a computer may set or update the structure of the fifth model or the values of individual parameters (eg weights) in the fifth model.
  • the information acquisition unit 21a further acquires distance information regarding the distance D to the object based on the laser beam and the reflected light.
  • the shape estimator 25 estimates the shape of the object using the distance information.
  • the material estimator 23 a estimates the material of the object based on the result of the estimation by the shape estimator 25 and the result of the estimation by the grain size estimator 22 .
  • the distance D to each reflection point can be calculated.
  • distance information can be acquired.
  • the shape of the object can be estimated. This is because, for example, a three-dimensional model of the object can be generated.
  • the result of such shape estimation can be used for estimating the material of the object.
  • the same device (eg, LiDAR device 1) used for estimating the shape of the target object (eg, LiDAR device 1) can be used to estimate the shape of the target. It is possible to estimate the particle size of an object. As a result, the number of devices included in the material estimation system 100a can be reduced compared to the case where a device different from the device used for shape estimation is used to estimate the grain size. As a result, the configuration of the material estimation system 100a can be simplified.
  • FIG. 12 is a block diagram showing a material estimation device according to the third embodiment.
  • a material estimation device according to the third embodiment will be described with reference to FIG.
  • FIG. 13 is a block diagram showing a material estimation system according to the third embodiment.
  • a material estimation system according to the third embodiment will be described with reference to FIG.
  • each of the material estimation device 2 according to the first embodiment and the material estimation device 2a according to the second embodiment is an example of the material estimation device 2b according to the third embodiment.
  • Each of the material estimation system 100 according to the first embodiment and the material estimation system 100a according to the second embodiment is an example of the material estimation system 100b according to the third embodiment.
  • the material estimation device 2b includes an information acquisition unit 21, a granularity estimation unit 22, and a material estimation unit 23.
  • the output control unit 24 may be provided outside the material estimation device 2b.
  • the material estimation system 100b includes an information acquisition unit 21, a granularity estimation unit 22, and a material estimation unit 23.
  • the LiDAR device 1 may be provided outside the material estimation system 100b.
  • the light emitting section 11 and the light receiving section 12 may be provided outside the material estimation system 100b.
  • the output control section 24 may be provided outside the material estimation system 100b.
  • the output device 3 may be provided outside the material estimation system 100b.
  • the output unit 31 may be provided outside the material estimation system 100b.
  • the information acquisition unit 21 performs particle size estimation used for estimating the size (particle size) of particles in the powder or granular material constituting the object based on the laser light irradiated to the object and the reflected light reflected by the object.
  • Get information for The particle size estimation unit 22 uses the particle size estimation information to estimate the size (particle size) of the particles in the granular material.
  • the material estimation unit 23 estimates the material of the object based on the result of estimation by the particle size estimation unit 22 .
  • the intensity of received light, the polarization of received light, or the frequency shift of received light can be detected, or the distance D can be detected. statistics can be calculated.
  • the information for granularity estimation can be acquired.
  • the acquired information for granularity estimation the granularity of the object can be estimated. This is because the values of the parameters (for example, the intensity of received light, the polarization of received light, the frequency shift of received light, or the statistic of distance D) included in the granularity estimation information change according to the granularity of the object. It is for As a result, the material of the object can be estimated based on the estimated grain size.
  • the material estimation device 2b may include an information acquisition section 21a, a material estimation section 23a, and a shape estimation section 25 instead of the information acquisition section 21 and the material estimation section 23. Further, the material estimation system 100b may include an information acquisition section 21a, a material estimation section 23a, and a shape estimation section 25 instead of the information acquisition section 21 and the material estimation section 23.
  • FIG. 21a may include an information acquisition section 21a, a material estimation section 23a, and a shape estimation section 25 instead of the information acquisition section 21 and the material estimation section 23.
  • the material estimation system 100b may include the light emitting unit 11 and the light receiving unit 12 . Also, the material estimation system 100b may include the output control section 24 or the output control section 24a. Moreover, the material estimation system 100b may include the output section 31 .
  • each functional unit of the material estimation system 100b may be configured by an independent device. These devices may be geographically or network-distributed. These devices may include, for example, edge computers and cloud computers.
  • [Appendix] an information acquiring means for acquiring particle size estimation information used for estimating the size of particles in the powder or granular material constituting the object based on the laser light irradiated to the object and the reflected light reflected by the object; , Particle size estimation means for estimating the size of particles in the granular material using the information for particle size estimation; material estimation means for estimating the material of the object based on the result of estimation by the particle size estimation means; A material estimation device comprising a [Appendix 2] the information acquisition means further acquires distance information regarding a distance to the object based on the laser light and the reflected light; Shape estimating means for estimating the shape of the object using the distance information, The material estimation device according to Supplementary Note 1, wherein the material estimation means estimates the material of the object based on a result of estimation by the shape estimation means and a result of estimation by the grain size estimation means.
  • the material estimation means estimates the material of the object using a predetermined database, The material estimation device according to appendix 1 or appendix 2, wherein the database is updated based on a result of estimation by the material estimation means.
  • the second information includes intensity information indicating the intensity of the received reflected light, polarization information indicating the polarization of the received reflected light, frequency shift information indicating the frequency shift of the received reflected light, and the target. 3.
  • the material estimation device according to any one of appendices 1 to 3, characterized by including at least one of statistic information indicating a statistic of a distance to an object. [Appendix 5] 5.
  • the material estimation device according to any one of appendices 1 to 4, wherein information indicating a result of estimation by the material estimation means is output.
  • an information acquiring means for acquiring particle size estimation information used for estimating the size of particles in the powder or granular material constituting the object based on the laser light irradiated to the object and the reflected light reflected by the object; , Particle size estimation means for estimating the size of particles in the granular material using the information for particle size estimation; material estimation means for estimating the material of the object based on the result of estimation by the particle size estimation means;
  • the material estimation system according to appendix 6, wherein the material estimation means estimates the material of the object based on a result of estimation by the shape estimation means and a result of estimation by the grain size estimation means.
  • the material estimation means estimates the material of the object using a predetermined database, The material estimation system according to appendix 6 or appendix 7, wherein the database is updated based on a result of estimation by the material estimation means.
  • the granularity estimation information includes intensity information indicating the intensity of the received reflected light, polarization information indicating the polarization of the received reflected light, frequency shift information indicating the frequency shift of the received reflected light, and the 9.
  • the material estimation system according to any one of appendices 6 to 8, characterized by including at least one of statistic information indicating a statistic of distance to the object.
  • Appendix 10 10.
  • An information acquisition means acquires particle size estimation information used for estimating the size of particles in the powder or granular material constituting the object based on the laser light irradiated to the object and the reflected light reflected by the object. death, Particle size estimation means uses the particle size estimation information to estimate the size of particles in the granular material, A material estimation method, wherein a material estimation means estimates a material of the object based on a result of estimation by the particle size estimation means.
  • the information acquisition means further acquires distance information regarding a distance to the object based on the laser light and the reflected light; shape estimating means estimating the shape of the object using the distance information; 12.
  • the material estimation means estimates the material of the object using a predetermined database, 13.
  • the granularity estimation information includes intensity information indicating the intensity of the received reflected light, polarization information indicating the polarization of the received reflected light, frequency shift information indicating the frequency shift of the received reflected light, and the 14.
  • the recording medium according to appendix 16 wherein the material estimation means estimates the material of the object based on a result of estimation by the shape estimation means and a result of estimation by the grain size estimation means.
  • the material estimation means estimates the material of the object using a predetermined database, 18.
  • the granularity estimation information includes intensity information indicating the intensity of the received reflected light, polarization information indicating the polarization of the received reflected light, frequency shift information indicating the frequency shift of the received reflected light, and the 19.
  • the recording medium according to any one of appendices 16 to 18, characterized by including at least one of statistic information indicating a statistic of a distance to an object.
  • Appendix 20 According to any one of Supplementary Notes 16 to 19, wherein the program causes the computer to function as output control means for executing control for outputting information indicating a result of estimation by the material estimation means. Recording medium described.
  • LiDAR device 2a, 2b material estimation device 3 output device 11 light emitting unit 12 light receiving unit 21, 21a information acquisition unit 22 particle size estimation unit 23, 23a material estimation unit 24, 24a output control unit 25 shape estimation unit 31 output unit 41 computer 51 processor 52 memory 53 processing circuit 100, 100a, 100b material estimation system

Abstract

対象物の粒度に基づき対象物の材質を推定することができる材質推定装置等を提供する。材質推定装置(2)は、対象物に照射されるレーザ光及び対象物により反射された反射光に基づき、対象物を構成する粉粒体における粒子の大きさの推定に用いる粒度推定用情報を取得する情報取得手段(21)と、粒度推定用情報を用いて、粉粒体における粒子の大きさを推定する粒度推定手段(22)と、粒度推定手段による推定の結果に基づき、対象物の材質を推定する材質推定手段(23)と、を備える。

Description

材質推定装置、材質推定システム及び材質推定方法
 本発明は、材質推定装置等に関する。
 特許文献1には、ToF(Time оf Flight)方式の距離センサを用いて、対象となる物体(例えば商品又はロボットの作業対象)が半透明の容器に覆われているか否かを判定する技術が開示されている。距離センサは、レーザを用いる(特許文献1の段落[0019]参照)。なお、関連技術として、特許文献2及び特許文献3に記載の技術も知られている。
国際公開第2015/125478号 特開2016-188822号公報 国際公開第2016/152288号
 上記のとおり、特許文献1に記載の技術は、対象となる物体(以下「対象物」ということがある。)が半透明の容器に覆われているか否かを判定するものである。すなわち、特許文献1に記載の技術は、対象物が粉粒体により構成されているとき、かかる粉粒体における粒子の大きさ(以下「粒度」又は「粒子サイズ」ということがある。)に基づき対象物の材質を推定するものではない。換言すれば、特許文献1に記載の技術は、対象物の粒度に基づき対象物の材質を推定する手段を有しない。このため、特許文献1に記載の技術によれば、対象物の粒度に基づき対象物の材質を推定することができないという問題があった。
 本発明の目的は、上述した課題を鑑み、対象物の粒度に基づき対象物の材質を推定することができる材質推定装置等を提供することにある。
 本発明の材質推定装置は、対象物に照射されるレーザ光及び対象物により反射された反射光に基づき、対象物を構成する粉粒体における粒子の大きさの推定に用いる粒度推定用情報を取得する情報取得手段と、粒度推定用情報を用いて、粉粒体における粒子の大きさを推定する粒度推定手段と、粒度推定手段による推定の結果に基づき、対象物の材質を推定する材質推定手段と、を備える。
 本発明の材質推定システムは、対象物に照射されるレーザ光及び対象物により反射された反射光に基づき、対象物を構成する粉粒体における粒子の大きさの推定に用いる粒度推定用情報を取得する情報取得手段と、粒度推定用情報を用いて、粉粒体における粒子の大きさを推定する粒度推定手段と、粒度推定手段による推定の結果に基づき、対象物の材質を推定する材質推定手段と、を備える。
 本発明の材質推定方法は、情報取得手段が、対象物に照射されるレーザ光及び対象物により反射された反射光に基づき、対象物を構成する粉粒体における粒子の大きさの推定に用いる粒度推定用情報を取得し、粒度推定手段が、粒度推定用情報を用いて、粉粒体における粒子の大きさを推定し、材質推定手段が、粒度推定手段による推定の結果に基づき、対象物の材質を推定する。
 本発明によれば、対象物の粒度に基づき対象物の材質を推定することができる材質推定装置等を提供することができる。
図1は、第1実施形態に係る材質推定システムを示すブロック図である。 図2は、第1実施形態に係る材質推定システムにおけるLiDAR装置を示すブロック図である。 図3は、第1実施形態に係る材質推定装置を示すブロック図である。 図4は、第1実施形態に係る材質推定システムにおける出力装置を示すブロック図である。 図5は、第1実施形態に係る材質推定装置のハードウェア構成を示すブロック図である。 図6は、第1実施形態に係る材質推定装置の他のハードウェア構成を示すブロック図である。 図7は、第1実施形態に係る材質推定装置の他のハードウェア構成を示すブロック図である。 図8は、第1実施形態に係る材質推定装置の動作を示すフローチャートである。 図9は、第2実施形態に係る材質推定システムを示すブロック図である。 図10は、第2実施形態に係る材質推定装置を示すブロック図である。 図11は、第2実施形態に係る材質推定装置の動作を示すフローチャートである。 図12は、第3実施形態に係る材質推定装置を示すブロック図である。 図13は、第3実施形態に係る材質推定システムを示すブロック図である。
 以下、本発明の実施形態について、添付の図面を参照して詳細に説明する。
[第1実施形態]
 図1は、第1実施形態に係る材質推定システムを示すブロック図である。図2は、第1実施形態に係る材質推定システムにおけるLiDAR装置を示すブロック図である。図3は、第1実施形態に係る材質推定装置を示すブロック図である。図4は、第1実施形態に係る材質推定システムにおける出力装置を示すブロック図である。図1~図4を参照して、第1実施形態に係る材質推定システムについて説明する。
 図1に示す如く、材質推定システム100は、LiDAR装置1及び材質推定装置2を備える。すなわち、図1に示す如く、材質推定システム100は、LiDAR装置1を含む。図2に示す如く、LiDAR装置1は、光出射部11及び受光部12を備える。光出射部11は、LiDAR用の光送信機により構成されている。受光部12は、LiDAR用の光受信機により構成されている。なお、LiDAR装置1は、光出射部11及び受光部12に加えて、LiDAR用の信号処理部(不図示)を備えるものであっても良い。信号処理部は、例えば、専用の回路により構成されている。
 光出射部11は、対象物に向けてレーザ光を出射する。当該出射されたレーザ光は、対象物に照射される。ここで、LiDAR装置1においては、光出射部11によるレーザ光の出射方向が可変である。光出射部11は、複数方向にレーザ光を順次出射する。これにより、対象物をスキャンするようにレーザ光が照射される。当該照射されたレーザ光は、対象物により反射される。当該反射された光(以下「反射光」ということがある。)のうちの後方散乱成分(すなわち後方散乱光)は、受光部12により受信される。以下、反射光うちの受光部12により受信された光を「受信光」ということがある。
 ここで、対象物は、微小な個体粒子の集合により構成されている。すなわち、対象物は、粉粒体により構成されている。具体的には、例えば、対象物は、原料ヤードにおける原料の山、又はコンクリート製品である。原料の山は、例えば、砂山又は砂利山である。コンクリート製品は、例えば、コンクリート製の道路、コンクリート製の壁又はコンクリート製のブロックである。
 図1に示す如く、材質推定システム100は、材質推定装置2を含む。材質推定装置2は、有線又は無線によりLiDAR装置1と通信自在に接続されている。図5~図7を参照して後述するように、材質推定装置2は、コンピュータにより構成されている。なお、かかるコンピュータは、いわゆる「クラウド」に設けられたものであっても良い。図3に示す如く、材質推定装置2は、情報取得部21、粒度推定部22、材質推定部23及び出力制御部24を備える。
 通常、LiDAR装置1により出射されたレーザ光(すなわち対象物に照射されるレーザ光)及びLiDAR装置1により受信された反射光(すなわち受信光)に基づき、以下の情報が得られる。すなわち、LiDAR装置1が設置された地点の位置と、各方向に出射されたレーザ光が物体(対象物を含む。)により反射された地点(以下「反射点」ということがある。)の位置との距離Dを示す情報が得られる。かかる情報は、例えば、対象物の形状の推定に用いられる。以下、かかる情報を「距離情報」又は「第1情報」ということがある。
 これに対して、情報取得部21は、LiDAR装置1により出射されたレーザ光(すなわち対象物に照射されるレーザ光)及びLiDAR装置1により受信された反射光(すなわち受信光)に基づき、距離情報と異なる情報を取得する。かかる情報は、後述する粒度推定部22により、対象物を構成する粉粒体における粒子の大きさの推定に用いられる。換言すれば、かかる情報は、対象物の粒子サイズ(すなわち粒度)の推定に用いられる。以下、かかる情報を「粒度推定用情報」又は「第2情報」ということがある。
 具体的には、例えば、粒度推定用情報は、各方向に出射されたレーザ光に対応する受信光の強度を示す情報(以下「強度情報」ということがある。)を含み得る。すなわち、情報取得部21は、かかる受信光の強度を検出する。これにより、当該検出された強度を示す強度情報が情報取得部21により取得される。なお、LiDAR装置1が信号処理部を備える場合、かかる受信光の強度は、情報取得部21により検出されるのに代えて、LiDAR装置1の信号処理部により検出されるものであっても良い。この場合、LiDAR装置1が強度情報を出力して、当該出力された強度情報を情報取得部21が取得するものであっても良い。
 また、粒度推定用情報は、各方向に出射されたレーザ光に対応する受信光の偏波を示す情報(以下「偏波情報」ということがある。)を含み得る。すなわち、この場合、LiDAR装置1は、受信光の偏波を検出する機能を有する。LiDAR装置1は、当該検出された偏波を示す情報(すなわち偏波情報)を出力する。情報取得部21は、当該出力された偏波情報を取得する。
 また、粒度推定用情報は、各方向に出射されたレーザ光に対応する受信光の周波数偏移を示す情報(以下「周波数偏移情報」ということがある。)を含み得る。すなわち、情報取得部21は、かかる受信光に含まれる周波数成分に基づき、かかる受信光の周波数偏移を検出する。これにより、当該検出された周波数偏移を示す周波数偏移情報が情報取得部21により取得される。なお、LiDAR装置1が信号処理部を備える場合、かかる受信光の周波数偏移は、情報取得部21により検出されるのに代えて、LiDAR装置1の信号処理部により検出されるものであっても良い。この場合、LiDAR装置1が周波数偏移情報を出力して、当該出力された周波数偏移情報を情報取得部21が取得するものであっても良い。
 また、粒度推定用情報は、複数個の出射方向に対応する複数個の距離Dについて、当該複数個の距離Dの統計量(例えば分散)を示す情報(以下「統計量情報」ということがある。)を含み得る。すなわち、情報取得部21は、当該複数個の距離Dの各々を算出する。個々の距離Dの算出には、例えば、ToF又はFMCW(Frequency Modulated Continuous Wave)が用いられる。情報取得部21は、当該算出された距離Dに基づき、かかる統計量を算出する。これにより、当該算出された統計量を示す統計量情報が情報取得部21により取得される。なお、LiDAR装置1が信号処理部を備える場合、かかる統計量は、情報取得部21により算出されるのに代えて、LiDAR装置1の信号処理部により算出されるものであっても良い。この場合、LiDAR装置1が統計量情報を出力して、当該出力された統計量情報を情報取得部21が取得するものであっても良い。
 すなわち、粒度推定用情報は、強度情報、偏波情報、周波数偏移情報及び統計量情報のうちの少なくとも一つを含む。このように、粒度推定用情報は、LiDAR装置1を用いて得られる情報であって、距離Dに関する第1情報(すなわち距離情報)と異なる情報である。
 粒度推定部22は、情報取得部21により取得された粒度推定用情報を用いて、対象物を構成する粉粒体における粒子の大きさを推定する。換言すれば、粒度推定部22は、対象物の粒子サイズ(すなわち粒度)を推定する。
 すなわち、対象物の粒度に応じて、対応する受信光の強度が変化すると考えられる。また、対象物の粒度に応じて、対応する受信光の偏波が変化すると考えられる。また、対象物の粒度に応じて、対応する受信光の周波数偏移が変化すると考えられる。また、対象物の粒度に応じて、対応する距離Dの統計量が変化すると考えられる。
 そこで、例えば、受信光の強度、受信光の偏波、受信光の周波数偏移及び距離Dの統計量のうちの少なくとも一つと、対象物の粒度との対応関係を示すデータベース(以下「第1データベース」ということがある。)が予め用意されている。第1データベースは、材質推定装置2の内部に記憶されているものであっても良く、又は外部装置(不図示)に記憶されているものであっても良い。粒度推定部22は、上記取得された粒度推定用情報を用いて、第1データベースに基づき、対象物の粒度を判定する。
 なお、第1データベースは、粒度推定部22による推定に用いられた情報(すなわち上記取得された粒度推定用情報)及び粒度推定部22による推定の結果に基づき更新されるものであっても良い。第1データベースの更新は、材質推定装置2の内部にて実行されるものであっても良い。または、第1データベースの更新は、外部装置(不図示)にて実行されるものであっても良い。
 または、例えば、受信光の強度、受信光の偏波、受信光の周波数偏移及び距離Dの統計量のうちの少なくとも一つを示す値が入力されたとき、対象物の粒度を示す値を出力するモデル(以下「第1モデル」ということがある。)が予め用意されている。第1モデルは、材質推定装置2の内部に記憶されているものであっても良く、又は外部装置(不図示)に記憶されているものであっても良い。粒度推定部22は、上記取得された粒度推定用情報に対応する値を第1モデルに入力する。第1モデルは、かかる入力に対して、対象物の粒度を示す値を粒度推定部22に出力する。粒度推定部22は、第1モデルにより出力された値に基づき、対象物の粒度を判定する。ここで、第1モデルは、例えば、所定の統計モデル、又は事前の機械学習により生成された機械学習モデルである。かかる機械学習モデルは、例えば、教師あり学習により生成される。かかる教師あり学習は、例えば、受信光の強度、受信光の偏波、受信光の周波数偏移及び距離Dの統計量のうちの少なくとも一つに対応する学習データと、対象物の粒度に対応する正解ラベルとを用いる。
 なお、第1モデルは、粒度推定部22による推定に用いられた情報(すなわち上記取得された粒度推定用情報)及び粒度推定部22による推定の結果に基づき更新されるものであっても良い。第1モデルの更新は、材質推定装置2の内部にて実行されるものであっても良い。または、第1モデルの更新は、外部装置(不図示)にて実行されるものであっても良い。第1モデルが機械学習モデルである場合、当該外部装置は、例えば、機械学習用のコンピュータである。かかるコンピュータにより、第1モデルの構造又は第1モデルにおける個々のパラメータ(例えば重み)の値が更新され得る。
 材質推定部23は、粒度推定部22による推定の結果に基づき、対象物の材質を推定する。
 具体的には、例えば、対象物の粒度と対象物の材質(砂、砂利、コンクリート等)との対応関係を示すデータベース(以下「第2データベース」ということがある。)が予め用意されている。第2データベースは、材質推定装置2の内部に記憶されているものであっても良く、又は外部装置(不図示)に記憶されているものであっても良い。材質推定部23は、粒度推定部22による推定の結果を示す情報(以下「粒度情報」ということがある。)を取得する。材質推定部23は、当該取得された粒度情報を用いて、第2データベースに基づき、対象物の材質を判定する。
 なお、第2データベースは、材質推定部23による推定に用いられた情報(すなわち上記取得された粒度情報)及び材質推定部23による推定の結果に基づき更新されるものであっても良い。第2データベースの更新は、材質推定装置2の内部にて実行されるものであっても良い。または、第2データベースの更新は、外部装置(不図示)にて実行されるものであっても良い。
 または、例えば、対象物の粒度を示す値が入力されたとき、対象物の材質を示す値を出力するモデル(以下「第2モデル」ということがある。)が予め用意されている。第2モデルは、材質推定装置2の内部に記憶されているものであっても良く、又は外部装置(不図示)に記憶されているものであっても良い。材質推定部23は、粒度情報を取得する。材質推定部23は、当該取得された粒度情報に対応する値を第2モデルに入力する。第2モデルは、かかる入力に対して、対象物の材質を示す値を材質推定部23に出力する。材質推定部23は、第2モデルにより出力された値に基づき、対象物の材質を判定する。ここで、第2モデルは、例えば、所定の統計モデル、又は事前の機械学習により生成された機械学習モデルである。かかる機械学習モデルは、例えば、教師あり学習により生成される。かかる教師あり学習は、例えば、対象物の粒度に対応する学習データと、対象物の材質に対応する正解ラベルとを用いる。
 なお、第2モデルは、材質推定部23による推定に用いられた情報(すなわち上記取得された粒度情報)及び材質推定部23による推定の結果に基づき更新されるものであっても良い。第2モデルの更新は、材質推定装置2の内部にて実行されるものであっても良い。または、第2モデルの更新は、外部装置(不図示)にて実行されるものであっても良い。第2モデルが機械学習モデルである場合、当該外部装置は、例えば、機械学習用のコンピュータである。かかるコンピュータにより、第2モデルの構造又は第2モデルにおける個々のパラメータ(例えば重み)の値が更新され得る。
 例えば、対象物の候補に砂山、砂利山及びコンクリート製品が含まれるものとする。また、砂に対応する粒度を示す値、砂利に対応する粒度を示す値、及びコンクリートに対応する粒度を示す値が第2データベース又は第2モデルに含まれるものとする。この場合、材質推定部23は、上記取得された粒度情報を用いて、対象物の材質が砂、砂利及びコンクリートのうちのいずれであるかを判定する。これにより、対象物が砂山、砂利山及びコンクリート製品のうちのいずれであるかが判定される。
 出力制御部24は、材質推定部23による推定の結果を示す情報(以下「材質情報」ということがある。)を出力する制御を実行する。すなわち、材質情報は、対象物の材質を示す情報を含む。材質情報の出力には、後述する出力装置3が用いられる(図1参照)。
 具体的には、例えば、出力制御部24は、材質情報に対応する画像を表示する制御を実行する。かかる画像の表示には、所定のGUI(Graphical User Interface)が用いられるものであっても良い。または、例えば、出力制御部24は、材質情報に対応する音声を出力する制御を実行する。これにより、対象物の材質を人に知らせることができる。または、例えば、出力制御部24は、材質情報に対応する信号を他の装置(不図示)又は他のシステム(不図示)に送信する制御を実行する。かかる信号の送信による材質情報の提供には、所定のAPI(Application Programming Interface)が用いられるものであっても良い。これにより、対象物の材質を他の装置又は他のシステムに通知することができる。
 図1に示す如く、材質推定システム100は、出力装置3を含む。出力装置3は、有線又は無線により材質推定装置2と通信自在に接続されている。図4に示す如く、出力装置3は、出力部31を備える。出力部31は、出力制御部24による制御の下、材質情報を出力する。出力部31は、例えば、ディスプレイ、スピーカ及びトランシーバのうちの少なくとも一つにより構成されている。換言すれば、出力装置3は、表示装置、音声出力装置及び通信装置のうちの少なくとも一つにより構成されている。
 このようにして、材質推定システム100が構成されている。
 以下、光出射部11を「光出射手段」ということがある。また、受光部12を「受光手段」ということがある。また、情報取得部21を「情報取得手段」ということがある。また、粒度推定部22を「粒度推定手段」ということがある。また、材質推定部23を「材質推定手段」ということがある。また、出力制御部24を「出力制御手段」ということがある。
 次に、図5~図7を参照して、材質推定装置2のハードウェア構成について説明する。
 図5~図7の各々に示す如く、材質推定装置2は、コンピュータ41を用いたものである。
 図5に示す如く、コンピュータ41は、プロセッサ51及びメモリ52を備える。メモリ52は、コンピュータ41を情報取得部21、粒度推定部22、材質推定部23及び出力制御部24として機能させるためのプログラムを記憶する。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行する。これにより、情報取得部21の機能F1、粒度推定部22の機能F2、材質推定部23の機能F3及び出力制御部24の機能F4が実現される。
 または、図6に示す如く、コンピュータ41は、処理回路53を備える。処理回路53は、コンピュータ41を情報取得部21、粒度推定部22、材質推定部23及び出力制御部24として機能させるための処理を実行する。これにより、機能F1~F4が実現される。
 または、図7に示す如く、コンピュータ41は、プロセッサ51、メモリ52及び処理回路53を備える。この場合、機能F1~F4のうちの一部の機能がプロセッサ51及びメモリ52により実現されるとともに、機能F1~F4のうちの残余の機能が処理回路53により実現される。
 プロセッサ51は、1個以上のプロセッサにより構成されている。個々のプロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)を用いたものである。
 メモリ52は、1個以上のメモリにより構成されている。個々のメモリは、揮発性メモリ又は不揮発性メモリを用いたものである。すなわち、個々のメモリは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ソリッドステートドライブ、ハードディスクドライブ、フレキシブルディスク、コンパクトディスク、DVD(Digital Versatile Disc)、ブルーレイディスク、MO(Magneto Optical)ディスク又はミニディスクを用いたものである。
 処理回路53は、1個以上の処理回路により構成されている。個々の処理回路は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、SoC(System on a Chip)又はシステムLSI(Large Scale Integration)を用いたものである。
 なお、プロセッサ51は、機能F1~F4の各々に対応する専用のプロセッサを含むものであっても良い。メモリ52は、機能F1~F4の各々に対応する専用のメモリを含むものであっても良い。処理回路53は、機能F1~F4の各々に対応する専用の処理回路を含むものであっても良い。
 次に、材質推定システム100の動作について説明する。より具体的には、図8に示すフローチャートを参照して、材質推定装置2の動作を中心に説明する。
 まず、情報取得部21が粒度推定用情報を取得する(ステップST1)。粒度推定用情報の具体例は、既に説明したとおりである。このため、再度の説明は省略する。
 次いで、粒度推定部22は、ステップST1にて取得された粒度推定用情報を用いて、対象物を構成する粉粒体の粒度を推定する(ステップST2)。かかる粒度の推定方法の具体例は、既に説明したとおりである。このため、再度の説明は省略する。
 次いで、材質推定部23は、ステップST2における推定の結果に基づき、対象物の材質を推定する(ステップST3)。かかる材質の推定方法の具体例は、既に説明したとおりである。このため、再度の説明は省略する。
 次いで、出力制御部24は、ステップST3における推定の結果に基づき、材質情報を出力する制御を実行する(ステップST4)。これにより、材質情報が出力される。
 次に、材質推定システム100の変形例について説明する。
 粒度推定用情報は、上記の具体例に限定されるものではない。粒度推定用情報は、LiDAR装置1を用いて得られる情報であって、かつ、距離情報と異なる情報であって、かつ、対象物の粒度の推定に用いられる情報であれば、如何なる情報を含むものであっても良い。
 粒度推定部22における粒度の推定方法は、上記の具体例に限定されるものではない。かかる推定方法は、上記取得された粒度推定用情報を用いて対象物の粒度を推定するものであれば、如何なる方法であっても良い。
 材質推定部23における材質の推定方法は、上記の具体例に限定されるものではない。かかる推定方法は、対象物の粒度に基づき対象物の材質を推定するものであれば、如何なる方法であっても良い。
 材質推定装置2は、光出射部11及び受光部12を備えるものであっても良い。この場合、LiDAR装置1は不要である。換言すれば、材質推定装置2は、LiDAR装置1と一体に構成されているものであっても良い。
 材質推定装置2は、出力部31を備えるものであっても良い。この場合、出力装置3は不要である。換言すれば、材質推定装置2は、出力装置3と一体に構成されているものであっても良い。
 材質推定装置2における推定に用いられるデータベースは、第1データベース及び第2データベースに限定されるものではない。例えば、情報取得部21により取得された第2情報の履歴及び材質推定部23による推定の結果の履歴に基づき、以下のデータベース(以下「第3データベース」ということがある。)が生成されるものであっても良い。すなわち、第3データベースは、受信光の強度、受信光の偏波、受信光の周波数偏移及び距離Dの統計量のうちの少なくとも一つと、対象物の材質との対応関係を示すデータベースである。第3データベースは、材質推定装置2の内部にて生成されるものであっても良く、又は外部装置(不図示)にて生成されるものであっても良い。材質推定部23は、第3データベースが生成された後、情報取得部21により取得された第2情報を用いて、当該生成された第3データベースに基づき対象物の材質を推定する。すなわち、この場合における第2情報は、対象物の粒度の推定に用いられるのに代えて、対象物の材質の推定に用いられる。
 なお、第3データベースが生成された後、情報取得部21により取得された第2情報及び材質推定部23による推定の結果に基づき、当該生成された第3データベースが更新されるものであっても良い。第3データベースの更新は、材質推定装置2の内部にて実行されるものであっても良い。または、第3データベースの更新は、外部装置(不図示)にて実行されるものであっても良い。
 材質推定装置2における推定に用いられるモデルは、第1モデル及び第2モデルに限定されるものではない。例えば、情報取得部21により取得された第2情報の履歴及び材質推定部23による推定の結果の履歴に基づき、以下のモデル(以下「第3モデル」ということがある。)が生成されるものであっても良い。すなわち、第3モデルは、受信光の強度、受信光の偏波、受信光の周波数偏移及び距離Dの統計量のうちの少なくとも一つを示す値が入力されたとき、対象物の材質を示す値を出力するモデルである。第3モデルは、材質推定装置2の内部にて生成されるものであっても良く、又は外部装置(不図示)にて生成されるものであっても良い。第3モデルの生成には、所定の機械学習(例えば教師あり学習)が用いられる。材質推定部23は、第3モデルが生成された後、情報取得部21により取得された第2情報に対応する値を当該生成された第3モデルに入力する。第3モデルは、かかる入力に対して、対象物の材質を示す値を材質推定部23に出力する。材質推定部23は、第3モデルにより出力された値に基づき、対象物の材質を推定する。すなわち、この場合における第2情報は、対象物の粒度の推定に用いられるのに代えて、対象物の材質の推定に用いられる。
 なお、第3モデルが生成された後、情報取得部21により取得された第2情報及び材質推定部23による推定の結果に基づき、当該生成された第3モデルが更新されるものであっても良い。第3モデルの更新は、材質推定装置2の内部にて実行されるものであっても良い。または、第3モデルの更新は、外部装置(不図示)にて実行されるものであっても良い。当該外部装置は、例えば、機械学習用のコンピュータである。かかるコンピュータにより、第3モデルの構造又は第3モデルにおける個々のパラメータ(例えば重み)の値が設定又は更新され得る。
 次に、材質推定システム100の効果について説明する。
 上記のとおり、情報取得部21は、対象物に照射されるレーザ光及び対象物により反射された反射光に基づき、対象物を構成する粉粒体における粒子の大きさ(粒度)の推定に用いる粒度推定用情報を取得する。粒度推定部22は、粒度推定用情報を用いて、粉粒体における粒子の大きさ(粒度)を推定する。材質推定部23は、粒度推定部22による推定の結果に基づき、対象物の材質を推定する。
 このように、レーザ光及び反射光を用いることにより(すなわちLiDARを用いることにより)、例えば、受信光の強度、受信光の偏波若しくは受信光の周波数偏移を検出したり、又は距離Dの統計量を算出したりすることができる。これにより、粒度推定用情報を取得することができる。また、当該取得された粒度推定用情報を用いることにより、対象物の粒度を推定することができる。これは、粒度推定用情報に含まれるパラメータ(例えば、受信光の強度、受信光の偏波、受信光の周波数偏移、又は距離Dの統計量)の値が対象物の粒度に応じて変化するためである。この結果、当該推定された粒度に基づき対象物の材質を推定することができる。
 また、材質推定部23は、所定のデータベース(第2データベース又は第3データベース)を用いて対象物の材質を推定する。材質推定システム100は、材質推定部23による推定の結果に基づきデータベース(第2データベース又は第3データベース)を更新する。かかるデータベースが更新されることにより、例えば、材質推定部23による推定の精度を次第に向上すことができる。
 また、粒度推定用情報は、受信した反射光の強度を示す強度情報、受信した反射光の偏波を示す偏波情報、受信した反射光の周波数偏移を示す周波数偏移情報及び対象物までの距離Dの統計量を示す統計量情報のうちの少なくとも一つを含む。これらの情報を用いることにより、対象物の粒度を推定することができる。
 また、材質推定システム100は、材質推定部23による推定の結果を示す情報(材質情報)を出力する。これにより、対象物の材質を人に知らせることができる。または、対象物の材質を他の装置又は他のシステムに通知することができる。
[第2実施形態]
 図9は、第2実施形態に係る材質推定システムを示すブロック図である。図10は、第2実施形態に係る材質推定装置を示すブロック図である。図9及び図10を参照して、第2実施形態に係る材質推定システムについて説明する。なお、図9において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。また、図10において、図3に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 図9に示す如く、材質推定システム100aは、LiDAR装置1、材質推定装置2a及び出力装置3を含む。図10に示す如く、材質推定装置2aは、情報取得部21a、粒度推定部22、材質推定部23a、出力制御部24a及び形状推定部25を備える。
 情報取得部21aは、LiDAR装置1により出射されたレーザ光(すなわち対象物に照射されるレーザ光)及びLiDAR装置1により受信された反射光(すなわち受信光)に基づき、第2情報(すなわち粒度推定用情報)を取得する。これに加えて、情報取得部21aは、これらの光に基づき、第1情報(すなわち距離情報)を取得する。
 具体的には、例えば、情報取得部21aは、ToFにより距離Dを算出する。すなわち、この場合、LiDAR装置1は、各方向にパルス状のレーザ光を出射する。情報取得部21aは、LiDAR装置1が各方向にレーザ光を出射した時刻T1と、対応する反射光をLiDAR装置1が受信した時刻T2との時間差ΔTに基づき、これらの光の往復伝搬時間に対応する片道伝搬距離(すなわち距離D)を算出する。これにより、かかる距離Dを示す距離情報が取得される。
 または、例えば、情報取得部21aは、FMCWにより距離Dを算出する。すなわち、この場合、LiDAR装置1は、各方向に出射されるレーザ光に対して所定の周波数変調を実行する機能、及び対応する受信光に対してコヒーレント検波を実行する機能などを有する。情報取得部21aは、これらの光における周波数差(いわゆる「ビート周波数」)に基づき、対応する距離Dを算出する。このようにして、かかる距離Dを示す距離情報が取得される。
 このほか、距離情報の取得には、公知の種々の技術を用いることができる。これらの技術についての詳細な説明は省略する。例えば、出射されるレーザ光と受信された反射光との位相差に基づき距離Dが算出されるものであっても良い(いわゆる「間接ToF」)。
 なお、LiDAR装置1が信号処理部を備える場合、距離Dは、情報取得部21aにより算出されるのに代えて、LiDAR装置1の信号処理部により算出されるものであっても良い。この場合、LiDAR装置1が距離情報を出力して、当該出力された距離情報を情報取得部21aが取得するものであっても良い。
 また、距離情報を生成することにより、複数個の出射方向に対応する複数個の距離Dが算出される。当該算出された複数個の距離Dを用いて、統計量情報が生成されるものであっても良い。
 形状推定部25は、情報取得部21aにより取得された距離情報を用いて、対象物の形状(より具体的には外形)を推定する。具体的には、例えば、形状推定部25は、当該取得された距離情報を用いて、個々の反射点の位置を示す座標値を算出する。形状推定部25は、当該算出された座標値に対応する点を仮想的な三次元空間にプロットする。これにより、点群により構成された三次元モデルであって、対象物の形状に対応する三次元モデルが生成される。このようにして、対象物の形状が検出される。
 なお、レーザ光が対象物と異なる他の物体(例えば対象物の周囲に存在する他の物体)に照射されることにより、対象物に対応する点群に加えて、当該他の物体に対応する点群がプロットされ得る。このような場合、形状推定部25は、点間距離又は平面検出の結果などに基づき点群をグループ化することにより、プロットされた点群のうちの対象物に対応する点群を抽出するものであっても良い。これにより、形状推定部25は、当該他の物体に対応する点群を三次元モデルから除外するものであっても良い。
 材質推定部23aは、粒度推定部22による推定の結果に基づき、対象物の材質を推定する。この場合における材質の推定方法は、第1実施形態にて説明したものと同様である。このため、再度の説明は省略する。
 または、材質推定部23aは、粒度推定部22による推定の結果及び形状推定部25による推定の結果に基づき、対象物の材質を推定する。以下、かかる推定の方法について説明する。
 具体的には、例えば、対象物の粒度及び対象物の形状と、対象物の材質との対応関係を示すデータベース(以下「第4データベース」ということがある。)が予め用意されている。第4データベースは、材質推定装置2aの内部に記憶されているものであっても良く、又は外部装置(不図示)に記憶されているものであっても良い。材質推定部23aは、粒度推定部22による推定の結果を示す情報(すなわち粒度情報)を取得するとともに、形状推定部25による推定の結果を示す情報(以下「形状情報」ということがある。)を取得する。材質推定部23aは、当該取得された粒度情報及び当該取得された形状情報を用いて、第4データベースに基づき、対象物の材質を推定する。
 なお、第4データベースは、材質推定部23aによる推定に用いられた情報(すなわち上記取得された粒度情報及び上記取得された形状情報)及び材質推定部23による推定の結果に基づき更新されるものであっても良い。第4データベースの更新は、材質推定装置2aの内部にて実行されるものであっても良い。または、第4データベースの更新は、外部装置(不図示)にて実行されるものであっても良い。
 または、例えば、対象物の粒度を示す値及び対象物の形状を示す値が入力されたとき、対象物の材質を示す値を出力するモデル(以下「第4モデル」ということがある。)が予め用意されている。第4モデルは、材質推定装置2aの内部に記憶されているものであっても良く、又は外部装置(不図示)に記憶されているものであっても良い。材質推定部23aは、粒度情報を取得するとともに、形状情報を取得する。材質推定部23aは、当該取得された粒度情報に対応する値及び当該取得された形状情報に対応する値を第4モデルに入力する。第4モデルは、かかる入力に対して、対象物の材質を示す値を材質推定部23aに出力する。材質推定部23aは、第4モデルにより出力された値に基づき、対象物の材質を判定する。ここで、第4モデルは、例えば、所定の統計モデル、又は事前の機械学習により生成された機械学習モデルである。かかる機械学習モデルは、例えば、教師あり学習により生成される。かかる教師あり学習は、例えば、対象物の粒度及び対象物の形状に対応する学習データと、対象物の材質に対応する正解ラベルとを用いる。
 なお、第4モデルは、材質推定部23aによる推定に用いられた情報(すなわち上記取得された粒度情報及び上記取得された形状情報)及び材質推定部23aによる推定の結果に基づき更新されるものであっても良い。第4モデルの更新は、材質推定装置2aの内部にて実行されるものであっても良い。または、第4モデルの更新は、外部装置(不図示)にて実行されるものであっても良い。第4モデルが機械学習モデルである場合、当該外部装置は、例えば、機械学習用のコンピュータである。かかるコンピュータにより、第4モデルの構造又は第4モデルにおける個々のパラメータ(例えば重み)の値が更新され得る。
 例えば、対象物の候補に砂山、砂利山及びコンクリート製品が含まれるものとする。この場合、対象物の形状に基づき、対象物が原料の山(砂山又は砂利山)であるか他の物体(コンクリート製品)であるかを判定可能である蓋然性が高い。そして、対象物が原料の山であるとき、対象物の粒度に基づき、対象物が砂山であるか砂利山であるかを判定可能である蓋然性が高い。すなわち、対象物の粒度及び対象物の形状に基づき、対象物が砂山、砂利山及びコンクリート製品のうちのいずれであるかを判定することができる。換言すれば、対象物の材質が砂、砂利及びコンクリートのうちのいずれであるかを判定することができる。材質推定部23aにおいて、第4データベース又は第4モデルを用いることにより、かかる判定が実現される。
 以下、材質推定部23aが粒度推定部22による推定の結果及び形状推定部25による推定の結果に基づき対象物の材質を推定する場合の例を中心に説明する。
 出力制御部24aは、材質推定部23aによる推定の結果を示す情報(すなわち材質情報)を出力する制御を実行する。これに加えて、出力制御部24aは、形状推定部25による推定の結果を示す情報(すなわち形状情報)を出力する制御を実行するものであっても良い。すなわち、出力装置3は、材質情報を出力するのに加えて、形状情報を出力するものであっても良い。これにより、対象物の材質及び対象物の形状を人に知らせることができる。または、対象物の材質及び対象物の形状を他の装置(不図示)又は他のシステム(不図示)に通知することができる。
 以下、出力制御部24aが材質情報及び形状情報を出力する制御を実行する場合の例を中心に説明する。
 このようにして、材質推定システム100aが構成されている。
 以下、情報取得部21aを「情報取得手段」ということがある。また、材質推定部23aを「材質推定手段」ということがある。また、出力制御部24aを「出力制御手段」ということがある。また、形状推定部25を「形状推定手段」ということがある。
 材質推定装置2aのハードウェア構成は、第1実施形態にて図5~図7を参照して説明したものと同様である。このため、詳細な説明は省略する。
 すなわち、材質推定装置2aは、情報取得部21aの機能F1a、粒度推定部22の機能F2、材質推定部23aの機能F3a、出力制御部24aの機能F4a及び形状推定部25の機能F5を有する。機能F1a,F2,F3a,F4a,F5は、プロセッサ51及びメモリ52により実現されるものであっても良く、又は処理回路53により実現されるものであっても良い。
 ここで、プロセッサ51は、機能F1a,F2,F3a,F4a,F5の各々に対応する専用のプロセッサを含むものであっても良い。メモリ52は、機能F1a,F2,F3a,F4a,F5の各々に対応する専用のメモリを含むものであっても良い。処理回路53は、機能F1a,F2,F3a,F4a,F5の各々に対応する専用の処理回路を含むものであっても良い。
 次に、材質推定システム100aの動作について説明する。より具体的には、図11に示すフローチャートを参照して、材質推定装置2aの動作を中心に説明する。なお、図11において、図8に示すステップと同様のステップには同一符号を付している。
 まず、情報取得部21aが距離情報及び粒度推定用情報を取得する(ステップST1a)。距離情報の取得方法の具体例は、上記のとおりである。また、粒度推定用情報の具体例は、第1実施形態にて説明したとおりである。このため、再度の説明は省略する。
 次いで、形状推定部25は、ステップST1にて取得された距離情報を用いて、対象物の形状を推定する(ステップST5)。かかる形状の推定方法の具体例は、既に説明したとおりである。このため、再度の説明は省略する。
 次いで、粒度推定部22は、ステップST1にて取得された粒度推定用情報を用いて、対象物を構成する粉粒体の粒度を推定する(ステップST2)。かかる粒度の推定方法の具体例は、第1実施形態にて説明したとおりである。このため、再度の説明は省略する。
 なお、ステップST5の処理及びステップST2の処理の実行順は、任意である。すなわち、図11に示す如く、ステップST5の処理に次いでステップST2の処理が実行されるものであっても良い。または、ステップST2の処理に次いでステップST5の処理が実行されるものであっても良い。または、ステップST5の処理及びステップST2の処理が並行して実行されるものであっても良い。
 次いで、材質推定部23aは、ステップST5における推定の結果及びステップST2における推定の結果に基づき、対象物の材質を推定する(ステップST3a)。かかる材質の推定方法の具体例は、既に説明したとおりである。このため、再度の説明は省略する。
 次いで、出力制御部24aは、形状情報及び材質情報を出力する制御を実行する(ステップST4a)。これにより、形状情報及び材質情報が出力される。
 次に、材質推定システム100aの変形例について説明する。
 材質推定システム100aは、第1実施形態にて説明したものと同様の種々の変形例を採用することができる。これに加えて、材質推定システム100aは、以下のような変形例を採用することができる。
 材質推定装置2aにおける推定に用いられるデータベースは、第1データベース及び第4データベースに限定されるものではない。例えば、情報取得部21aにより取得された第2情報の履歴、形状推定部25による推定の結果の履歴及び材質推定部23aによる推定の結果の履歴に基づき、以下のデータベース(以下「第5データベース」ということがある。)が生成されるものであっても良い。すなわち、第5データベースは、受信光の強度、受信光の偏波、受信光の周波数偏移及び距離Dの統計量のうちの少なくとも一つ並びに対象物の形状と、対象物の材質との対応関係を示すデータベースである。第5データベースは、材質推定装置2aの内部にて生成されるものであっても良く、又は外部装置(不図示)にて生成されるものであっても良い。材質推定部23aは、第5データベースが生成された後、情報取得部21aにより取得された第2情報及び形状推定部25による推定の結果を示す情報(すなわち形状情報)を用いて、当該生成された第5データベースに基づき対象物の材質を推定する。すなわち、この場合における第2情報は、対象物の粒度の推定に用いられるのに代えて、対象物の材質の推定に用いられる。
 なお、第5データベースが生成された後、情報取得部21aにより取得された第2情報、形状推定部25による推定の結果及び材質推定部23aによる推定の結果に基づき、当該生成された第5データベースが更新されるものであっても良い。第5データベースの更新は、材質推定装置2aの内部にて実行されるものであっても良い。または、第5データベースの生成及び更新は、外部装置(不図示)にて実行されるものであっても良い。
 材質推定装置2aにおける推定に用いられるモデルは、第1モデル及び第4モデルに限定されるものではない。例えば、情報取得部21aにより取得された粒度推定用情報の履歴、形状推定部25による推定の結果の履歴及び材質推定部23による推定の結果の履歴に基づき、以下のモデル(以下「第5モデル」ということがある。)が生成されるものであっても良い。すなわち、第5モデルは、受信光の強度、受信光の偏波、受信光の周波数偏移及び距離Dの統計量のうちの少なくとも一つを示す値並びに対象物の形状を示す値が入力されたとき、対象物の材質を示す値を出力するモデルである。第5モデルは、材質推定装置2aの内部にて生成されるものであっても良く、又は外部装置(不図示)にて生成されるものであっても良い。第5モデルの生成には、所定の機械学習(例えば教師あり学習)が用いられる。材質推定部23aは、第5モデルが生成された後、情報取得部21により取得された粒度推定用情報に対応する値及び形状推定部25による推定の結果に対応する値を当該生成された第5モデルに入力する。第5モデルは、かかる入力に対して、対象物の材質を示す値を材質推定部23aに出力する。材質推定部23aは、第5モデルにより出力された値に基づき、対象物の材質を推定する。すなわち、この場合における第2情報は、対象物の粒度の推定に用いられるのに代えて、対象物の材質の推定に用いられる。
 なお、第5モデルが生成された後、情報取得部21aにより取得された粒度推定用情報、形状推定部25による推定の結果及び材質推定部23aによる推定の結果に基づき、当該生成された第5モデルが更新されるものであっても良い。第5モデルの更新は、材質推定装置2aの内部にて実行されるものであっても良い。または、第5モデルの生成及び更新は、外部装置(不図示)にて実行されるものであっても良い。当該外部装置は、例えば、機械学習用のコンピュータである。かかるコンピュータにより、第5モデルの構造又は第5モデルにおける個々のパラメータ(例えば重み)の値が設定又は更新され得る。
 次に、材質推定システム100aの効果について説明する。
 材質推定システム100aを用いることにより、第1実施形態にて説明したものと同様の種々の効果が得られる。これに加えて、以下のような効果が得られる。
 上記のとおり、情報取得部21aは、レーザ光及び反射光に基づき、対象物までの距離Dに関する距離情報を更に取得する。形状推定部25は、距離情報を用いて、対象物の形状を推定する。材質推定部23aは、形状推定部25による推定の結果及び粒度推定部22による推定の結果に基づき対象物の材質を推定する。
 このように、レーザ光及び反射光を用いることにより(すなわちLiDARを用いることにより)、個々の反射点までの距離Dを算出することができる。これにより、距離情報を取得することができる。また、当該取得された距離情報を用いることにより、対象物の形状を推定することができる。これは、例えば、対象物の三次元モデルを生成することができるためである。そして、かかる形状の推定の結果を対象物の材質の推定に用いることができる。対象物の形状及び対象物の粒度に基づき対象物の材質を推定することにより、対象物の粒度に基づき対象物の材質を推定する場合に比して、かかる材質の推定に用いられるパラメータが増える。このため、例えば、かかる材質の推定精度の向上を図ることができる。
 また、レーザ光及び反射光を用いることにより(すなわちLiDARを用いることにより)、対象物の形状の推定に用いられるデバイス(例えばLiDAR装置1)と同一のデバイス(例えばLiDAR装置1)を用いて対象物の粒度を推定することができる。これにより、仮に形状の推定に用いられるデバイスと異なるデバイスを用いて粒度を推定する場合に比して、材質推定システム100aに含まれるデバイスの個数を低減することができる。この結果、材質推定システム100aの構成を簡単にすることができる。
[第3実施形態]
 図12は、第3実施形態に係る材質推定装置を示すブロック図である。図12を参照して、第3実施形態に係る材質推定装置について説明する。また、図13は、第3実施形態に係る材質推定システムを示すブロック図である。図13を参照して、第3実施形態に係る材質推定システムについて説明する。なお、図12及び図13の各々において、図3に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 ここで、第1実施形態に係る材質推定装置2及び第2実施形態に係る材質推定装置2aの各々は、第3実施形態に係る材質推定装置2bの一例である。また、第1実施形態に係る材質推定システム100及び第2実施形態に係る材質推定システム100aの各々は、第3実施形態に係る材質推定システム100bの一例である。
 すなわち、図12に示す如く、材質推定装置2bは、情報取得部21、粒度推定部22及び材質推定部23を備える。この場合、材質推定装置2bの外部に出力制御部24が設けられるものであっても良い。
 また、図13に示す如く、材質推定システム100bは、情報取得部21、粒度推定部22及び材質推定部23を備える。この場合、材質推定システム100bの外部にLiDAR装置1が設けられるものであっても良い。換言すれば、材質推定システム100bの外部に光出射部11及び受光部12が設けられるものであっても良い。また、この場合、材質推定システム100bの外部に出力制御部24が設けられるものであっても良い。また、この場合、材質推定システム100bの外部に出力装置3が設けられるものであっても良い。換言すれば、材質推定システム100bの外部に出力部31が設けられるものであっても良い。
 これらの場合であっても、第1実施形態にて説明したものと同様の効果が得られる。
 すなわち、情報取得部21は、対象物に照射されるレーザ光及び対象物により反射された反射光に基づき、対象物を構成する粉粒体における粒子の大きさ(粒度)の推定に用いる粒度推定用情報を取得する。粒度推定部22は、粒度推定用情報を用いて、粉粒体における粒子の大きさ(粒度)を推定する。材質推定部23は、粒度推定部22による推定の結果に基づき、対象物の材質を推定する。
 このように、レーザ光及び反射光を用いることにより(すなわちLiDARを用いることにより)、例えば、受信光の強度、受信光の偏波若しくは受信光の周波数偏移を検出したり、又は距離Dの統計量を算出したりすることができる。これにより、粒度推定用情報を取得することができる。また、当該取得された粒度推定用情報を用いることにより、対象物の粒度を推定することができる。これは、粒度推定用情報に含まれるパラメータ(例えば、受信光の強度、受信光の偏波、受信光の周波数偏移、又は距離Dの統計量)の値が対象物の粒度に応じて変化するためである。この結果、当該推定された粒度に基づき対象物の材質を推定することができる。
 なお、材質推定装置2bは、情報取得部21及び材質推定部23に代えて、情報取得部21a、材質推定部23a及び形状推定部25を備えるものであっても良い。また、材質推定システム100bは、情報取得部21及び材質推定部23に代えて、情報取得部21a、材質推定部23a及び形状推定部25を備えるものであっても良い。
 また、材質推定システム100bは、光出射部11及び受光部12を備えるものであっても良い。また、材質推定システム100bは、出力制御部24又は出力制御部24aを備えるものであっても良い。また、材質推定システム100bは、出力部31を備えるものであっても良い。
 ここで、材質推定システム100bの各機能部は、独立した装置により構成されているものであっても良い。これらの装置は、地理的に又はネットワーク的に分散して配置されたものであっても良い。これらの装置は、例えば、エッジコンピュータ及びクラウドコンピュータを含むものであっても良い。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
[付記]
  [付記1]
 対象物に照射されるレーザ光及び前記対象物により反射された反射光に基づき、前記対象物を構成する粉粒体における粒子の大きさの推定に用いる粒度推定用情報を取得する情報取得手段と、
 前記粒度推定用情報を用いて、前記粉粒体における粒子の大きさを推定する粒度推定手段と、
 前記粒度推定手段による推定の結果に基づき、前記対象物の材質を推定する材質推定手段と、
 を備える材質推定装置。
  [付記2]
 前記情報取得手段は、前記レーザ光及び前記反射光に基づき、前記対象物までの距離に関する距離情報を更に取得し、
 前記距離情報を用いて、前記対象物の形状を推定する形状推定手段を備え、
 前記材質推定手段は、前記形状推定手段による推定の結果及び前記粒度推定手段による推定の結果に基づき前記対象物の材質を推定する
 ことを特徴とする付記1に記載の材質推定装置。
  [付記3]
 前記材質推定手段は、所定のデータベースを用いて前記対象物の材質を推定し、
 前記材質推定手段による推定の結果に基づき前記データベースを更新する
 ことを特徴とする付記1又は付記2に記載の材質推定装置。
  [付記4]
 前記第2情報は、受信した前記反射光の強度を示す強度情報、受信した前記反射光の偏波を示す偏波情報、受信した前記反射光の周波数偏移を示す周波数偏移情報及び前記対象物までの距離の統計量を示す統計量情報のうちの少なくとも一つを含むことを特徴とする付記1から付記3のうちのいずれか一つに記載の材質推定装置。
  [付記5]
 前記材質推定手段による推定の結果を示す情報を出力することを特徴とする付記1から付記4のうちのいずれか一つに記載の材質推定装置。
  [付記6]
 対象物に照射されるレーザ光及び前記対象物により反射された反射光に基づき、前記対象物を構成する粉粒体における粒子の大きさの推定に用いる粒度推定用情報を取得する情報取得手段と、
 前記粒度推定用情報を用いて、前記粉粒体における粒子の大きさを推定する粒度推定手段と、
 前記粒度推定手段による推定の結果に基づき、前記対象物の材質を推定する材質推定手段と、
 を備える材質推定システム。
  [付記7]
 前記情報取得手段は、前記レーザ光及び前記反射光に基づき、前記対象物までの距離に関する距離情報を更に取得し、
 前記距離情報を用いて、前記対象物の形状を推定する形状推定手段を備え、
 前記材質推定手段は、前記形状推定手段による推定の結果及び前記粒度推定手段による推定の結果に基づき前記対象物の材質を推定する
 ことを特徴とする付記6に記載の材質推定システム。
  [付記8]
 前記材質推定手段は、所定のデータベースを用いて前記対象物の材質を推定し、
 前記材質推定手段による推定の結果に基づき前記データベースを更新する
 ことを特徴とする付記6又は付記7に記載の材質推定システム。
  [付記9]
 前記粒度推定用情報は、受信した前記反射光の強度を示す強度情報、受信した前記反射光の偏波を示す偏波情報、受信した前記反射光の周波数偏移を示す周波数偏移情報及び前記対象物までの距離の統計量を示す統計量情報のうちの少なくとも一つを含むことを特徴とする付記6から付記8のうちのいずれか一つに記載の材質推定システム。
  [付記10]
 前記材質推定手段による推定の結果を示す情報を出力することを特徴とする付記6から付記9のうちのいずれか一つに記載の材質推定システム。
  [付記11]
 情報取得手段が、対象物に照射されるレーザ光及び前記対象物により反射された反射光に基づき、前記対象物を構成する粉粒体における粒子の大きさの推定に用いる粒度推定用情報を取得し、
 粒度推定手段が、前記粒度推定用情報を用いて、前記粉粒体における粒子の大きさを推定し、
 材質推定手段が、前記粒度推定手段による推定の結果に基づき、前記対象物の材質を推定する
 材質推定方法。
  [付記12]
 前記情報取得手段は、前記レーザ光及び前記反射光に基づき、前記対象物までの距離に関する距離情報を更に取得し、
 形状推定手段が、前記距離情報を用いて、前記対象物の形状を推定し、
 前記材質推定手段は、前記形状推定手段による推定の結果及び前記粒度推定手段による推定の結果に基づき前記対象物の材質を推定する
 ことを特徴とする付記11に記載の材質推定方法。
  [付記13]
 前記材質推定手段は、所定のデータベースを用いて前記対象物の材質を推定し、
 前記材質推定手段による推定の結果に基づき前記データベースを更新する
 ことを特徴とする付記11又は付記12に記載の材質推定方法。
  [付記14]
 前記粒度推定用情報は、受信した前記反射光の強度を示す強度情報、受信した前記反射光の偏波を示す偏波情報、受信した前記反射光の周波数偏移を示す周波数偏移情報及び前記対象物までの距離の統計量を示す統計量情報のうちの少なくとも一つを含むことを特徴とする付記11から付記13のうちのいずれか一つに記載の材質推定方法。
  [付記15]
 前記材質推定手段による推定の結果を示す情報を出力することを特徴とする付記11から付記14のうちのいずれか一つに記載の材質推定方法。
  [付記16]
 コンピュータを、
 対象物に照射されるレーザ光及び前記対象物により反射された反射光に基づき、前記対象物を構成する粉粒体における粒子の大きさの推定に用いる粒度推定用情報を取得する情報取得手段と、
 前記粒度推定用情報を用いて、前記粉粒体における粒子の大きさを推定する粒度推定手段と、
 前記粒度推定手段による推定の結果に基づき、前記対象物の材質を推定する材質推定手段と、
 として機能させるためのプログラムを記録した記録媒体。
  [付記17]
 前記情報取得手段は、前記レーザ光及び前記反射光に基づき、前記対象物までの距離に関する距離情報を取得し、
 前記プログラムは、前記コンピュータを、前記距離情報を用いて、前記対象物の形状を推定する形状推定手段として機能させ、
 前記材質推定手段は、前記形状推定手段による推定の結果及び前記粒度推定手段による推定の結果に基づき前記対象物の材質を推定する
 ことを特徴とする付記16に記載の記録媒体。
  [付記18]
 前記材質推定手段は、所定のデータベースを用いて前記対象物の材質を推定し、
 前記プログラムは、前記材質推定手段による推定の結果に基づき前記データベースを更新する
 ことを特徴とする付記16又は付記17に記載の記録媒体。
  [付記19]
 前記粒度推定用情報は、受信した前記反射光の強度を示す強度情報、受信した前記反射光の偏波を示す偏波情報、受信した前記反射光の周波数偏移を示す周波数偏移情報及び前記対象物までの距離の統計量を示す統計量情報のうちの少なくとも一つを含むことを特徴とする付記16から付記18のうちのいずれか一つに記載の記録媒体。
  [付記20]
 前記プログラムは、前記コンピュータを、前記材質推定手段による推定の結果を示す情報を出力する制御を実行する出力制御手段として機能させることを特徴とする付記16から付記19のうちのいずれか一つに記載の記録媒体。
1 LiDAR装置
2,2a,2b 材質推定装置
3 出力装置
11 光出射部
12 受光部
21,21a 情報取得部
22 粒度推定部
23,23a 材質推定部
24,24a 出力制御部
25 形状推定部
31 出力部
41 コンピュータ
51 プロセッサ
52 メモリ
53 処理回路
100,100a,100b 材質推定システム

Claims (15)

  1.  対象物に照射されるレーザ光及び前記対象物により反射された反射光に基づき、前記対象物を構成する粉粒体における粒子の大きさの推定に用いる粒度推定用情報を取得する情報取得手段と、
     前記粒度推定用情報を用いて、前記粉粒体における粒子の大きさを推定する粒度推定手段と、
     前記粒度推定手段による推定の結果に基づき、前記対象物の材質を推定する材質推定手段と、
     を備える材質推定装置。
  2.  前記情報取得手段は、前記レーザ光及び前記反射光に基づき、前記対象物までの距離に関する距離情報を更に取得し、
     前記距離情報を用いて、前記対象物の形状を推定する形状推定手段を備え、
     前記材質推定手段は、前記形状推定手段による推定の結果及び前記粒度推定手段による推定の結果に基づき前記対象物の材質を推定する
     ことを特徴とする請求項1に記載の材質推定装置。
  3.  前記材質推定手段は、所定のデータベースを用いて前記対象物の材質を推定し、
     前記材質推定手段による推定の結果に基づき前記データベースを更新する
     ことを特徴とする請求項1又は請求項2に記載の材質推定装置。
  4.  前記粒度推定用情報は、受信した前記反射光の強度を示す強度情報、受信した前記反射光の偏波を示す偏波情報、受信した前記反射光の周波数偏移を示す周波数偏移情報及び前記対象物までの距離の統計量を示す統計量情報のうちの少なくとも一つを含むことを特徴とする請求項1から請求項3のうちのいずれか1項に記載の材質推定装置。
  5.  前記材質推定手段による推定の結果を示す情報を出力することを特徴とする請求項1から請求項4のうちのいずれか1項に記載の材質推定装置。
  6.  対象物に照射されるレーザ光及び前記対象物により反射された反射光に基づき、前記対象物を構成する粉粒体における粒度の大きさの推定に用いる粒度推定用情報を取得する情報取得手段と、
     前記粒度推定用情報を用いて、前記粉粒体における粒子の大きさを推定する粒度推定手段と、
     前記粒度推定手段による推定の結果に基づき、前記対象物の材質を推定する材質推定手段と、
     を備える材質推定システム。
  7.  前記情報取得手段は、前記レーザ光及び前記反射光に基づき、前記対象物までの距離に関する距離情報を更に取得し、
     前記距離情報を用いて、前記対象物の形状を推定する形状推定手段を備え、
     前記材質推定手段は、前記形状推定手段による推定の結果及び前記粒度推定手段による推定の結果に基づき前記対象物の材質を推定する
     ことを特徴とする請求項6に記載の材質推定システム。
  8.  前記材質推定手段は、所定のデータベースを用いて前記対象物の材質を推定し、
     前記材質推定手段による推定の結果に基づき前記データベースを更新する
     ことを特徴とする請求項6又は請求項7に記載の材質推定システム。
  9.  前記粒度推定用情報は、受信した前記反射光の強度を示す強度情報、受信した前記反射光の偏波を示す偏波情報、受信した前記反射光の周波数偏移を示す周波数偏移情報及び前記対象物までの距離の統計量を示す統計量情報のうちの少なくとも一つを含むことを特徴とする請求項6から請求項8のうちのいずれか1項に記載の材質推定システム。
  10.  前記材質推定手段による推定の結果を示す情報を出力することを特徴とする請求項6から請求項9のうちのいずれか1項に記載の材質推定システム。
  11.  情報取得手段が、対象物に照射されるレーザ光及び前記対象物により反射された反射光に基づき、前記対象物を構成する粉粒体における粒子の大きさの推定に用いる粒度推定用情報を取得し、
     粒度推定手段が、前記粒度推定用情報を用いて、前記粉粒体における粒子の大きさを推定し、
     材質推定手段が、前記粒度推定手段による推定の結果に基づき、前記対象物の材質を推定する
     材質推定方法。
  12.  前記情報取得手段は、前記レーザ光及び前記反射光に基づき、前記対象物までの距離に関する距離情報を更に取得し、
     形状推定手段が、前記距離情報を用いて、前記対象物の形状を推定し、
     前記材質推定手段は、前記形状推定手段による推定の結果及び前記粒度推定手段による推定の結果に基づき前記対象物の材質を推定する
     ことを特徴とする請求項11に記載の材質推定方法。
  13.  前記材質推定手段は、所定のデータベースを用いて前記対象物の材質を推定し、
     前記材質推定手段による推定の結果に基づき前記データベースを更新する
     ことを特徴とする請求項11又は請求項12に記載の材質推定方法。
  14.  前記粒度推定用情報は、受信した前記反射光の強度を示す強度情報、受信した前記反射光の偏波を示す偏波情報、受信した前記反射光の周波数偏移を示す周波数偏移情報及び前記対象物までの距離の統計量を示す統計量情報のうちの少なくとも一つを含むことを特徴とする請求項11から請求項13のうちのいずれか1項に記載の材質推定方法。
  15.  前記材質推定手段による推定の結果を示す情報を出力することを特徴とする請求項11から請求項14のうちのいずれか1項に記載の材質推定方法。
PCT/JP2021/035743 2021-09-29 2021-09-29 材質推定装置、材質推定システム及び材質推定方法 WO2023053239A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/035743 WO2023053239A1 (ja) 2021-09-29 2021-09-29 材質推定装置、材質推定システム及び材質推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/035743 WO2023053239A1 (ja) 2021-09-29 2021-09-29 材質推定装置、材質推定システム及び材質推定方法

Publications (1)

Publication Number Publication Date
WO2023053239A1 true WO2023053239A1 (ja) 2023-04-06

Family

ID=85781527

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/035743 WO2023053239A1 (ja) 2021-09-29 2021-09-29 材質推定装置、材質推定システム及び材質推定方法

Country Status (1)

Country Link
WO (1) WO2023053239A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5862540A (ja) * 1981-10-12 1983-04-14 Furukawa Mining Co Ltd ばら物の粒度分布検知装置
JPH05164677A (ja) * 1991-12-13 1993-06-29 Kawasaki Steel Corp 粒状性物体の粒度分布測定方法
JP2015020850A (ja) * 2013-07-18 2015-02-02 清水建設株式会社 積載物管理システム
WO2015156037A1 (ja) * 2014-04-08 2015-10-15 三菱電機株式会社 浮遊粒子検出装置
JP2020537146A (ja) * 2017-10-13 2020-12-17 ザ・リージェンツ・オブ・ザ・ユニバーシティ・オブ・ミシガンThe Regents Of The University Of Michigan 材料感知光画像化、検出、及び測距(lidar)システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5862540A (ja) * 1981-10-12 1983-04-14 Furukawa Mining Co Ltd ばら物の粒度分布検知装置
JPH05164677A (ja) * 1991-12-13 1993-06-29 Kawasaki Steel Corp 粒状性物体の粒度分布測定方法
JP2015020850A (ja) * 2013-07-18 2015-02-02 清水建設株式会社 積載物管理システム
WO2015156037A1 (ja) * 2014-04-08 2015-10-15 三菱電機株式会社 浮遊粒子検出装置
JP2020537146A (ja) * 2017-10-13 2020-12-17 ザ・リージェンツ・オブ・ザ・ユニバーシティ・オブ・ミシガンThe Regents Of The University Of Michigan 材料感知光画像化、検出、及び測距(lidar)システム

Similar Documents

Publication Publication Date Title
US10877152B2 (en) Systems and methods for generating synthetic sensor data
US10228693B2 (en) Generating simulated sensor data for training and validation of detection models
US9989630B2 (en) Structured-light based multipath cancellation in ToF imaging
WO2020243962A1 (zh) 物体检测方法、电子设备和可移动平台
JP2009518622A (ja) 複数の目標が可能な位相不定性の解決方法
US20170132335A1 (en) Method for simulating wave propagation; simulator, computer program and recording medium for implementing the method
JP7337931B2 (ja) レーダによるまたは問合せ電磁放射線の使用によるオブジェクトの向きの決定
JP6979823B2 (ja) 空間フィルタ処理用の確率論的にスパースなツリーグリッドに機能的なグリッドエレメントを付加するためのシステム及び方法
WO2023053239A1 (ja) 材質推定装置、材質推定システム及び材質推定方法
JP2017211348A (ja) 軌跡推定装置、軌跡推定方法及びプログラム
US20200018821A1 (en) Object sensing apparatus, object sensing method, and computer readable recording medium
EP2668475A1 (en) Phase-based tracking
WO2023053238A1 (ja) 形状検出装置、形状検出システム及び形状検出方法
JP2023065307A (ja) ライダーセンサとレーダーセンサを使用して物体検出を実行するニューラルネットワークをトレーニングするためのシステム及び方法
JP2016223780A (ja) 判別式決定方法及び判別装置
US20210215797A1 (en) Object detection apparatus, vehicle, object detection method, and computer readable medium
JP2020143920A (ja) モデル生成装置、車両シミュレーションシステム、モデル生成方法、車両シミュレーション方法およびコンピュータプログラム
US20230341545A1 (en) Near field radar beamforming
Mutti Radar-based ego-motion estimation
US11906623B1 (en) Velocity estimation using light detection and ranging (LIDAR) system
US11760412B2 (en) Systems and methods for controlling a vehicle localization routine
KR102296469B1 (ko) 멀티스태틱 pcl에서 낮은 복잡도의 표적 위치 추정 시스템 및 방법
WO2021005830A1 (ja) レーダ装置、存在判定方法、およびプログラム
Vanhala et al. APPLICATION OF RADAR SENSING IN KOVILTA OY SENSOR FRAMEWORK
US20230162382A1 (en) Method and system for determining lidar intensity values, and training method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21959287

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023550820

Country of ref document: JP