WO2020105225A1 - 機械学習方法、学習済みモデル、制御プログラム、および物体検知システム - Google Patents

機械学習方法、学習済みモデル、制御プログラム、および物体検知システム

Info

Publication number
WO2020105225A1
WO2020105225A1 PCT/JP2019/030323 JP2019030323W WO2020105225A1 WO 2020105225 A1 WO2020105225 A1 WO 2020105225A1 JP 2019030323 W JP2019030323 W JP 2019030323W WO 2020105225 A1 WO2020105225 A1 WO 2020105225A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
distance image
detection target
image
value
Prior art date
Application number
PCT/JP2019/030323
Other languages
English (en)
French (fr)
Inventor
将則 吉澤
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2020558083A priority Critical patent/JPWO2020105225A1/ja
Publication of WO2020105225A1 publication Critical patent/WO2020105225A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a machine learning method, a learned model, a control program, and an object detection system.
  • the distance image is one in which the distance value to the object is mapped to two-dimensional coordinates.
  • a method of extracting pixels including a moving body from a distance image as described in Patent Document 1, a distance image as a measurement result and a background image acquired in advance (that is, a state in which no moving body exists).
  • a method of extracting pixels having a difference in distance by comparing them with the distance image There is known a method of extracting pixels having a difference in distance by comparing them with the distance image).
  • the laser radar acquires the distance value to the object by measuring the time until the irradiated laser light is reflected by the object and returns to the light receiving part. Therefore, if the object is a mirror surface and totally reflected, or if the object surface has a large amount of absorbing components due to being black, etc., the laser beam does not sufficiently return to the light receiving part and Cannot get distance value. For example, in a puddle formed on the road surface due to rain or in a glossy black vehicle, a sufficient amount of reflected light cannot be obtained and the distance value cannot be acquired.
  • Patent Document 2 discloses an object detection unit that extracts an irradiation angle at which the amount of reflected laser light is not obtained and determines that a moving object such as a black vehicle exists at the irradiation angle.
  • Patent Document 2 further discloses a configuration in which a plurality of object detection units are arranged at the four corners of a crossing that crosses a railroad crossing so that their detection areas overlap each other. The shape of the moving object is estimated by matching the detection results obtained from the detection unit.
  • Patent Document 2 Although it is possible to obtain the direction (illumination angle) in which a black vehicle or the like exists, the distance value and shape to the object cannot be detected. In order to detect the distance value and shape, it is necessary to match the detection results from multiple object detection units arranged at the four corners of the pedestrian crossing, which can be applied only to a specific place, and the device becomes large-scale. Become.
  • the present invention has been made in view of the above circumstances, and a machine learning method, a learned model, a control program, and a machine learning method that can accurately detect an object such as a black vehicle in which a reflected wave cannot be obtained.
  • An object is to provide an object detection system.
  • a machine learning method performed by a computer, When a distance image composed of a plurality of pixels indicating a distance value to an object is acquired and the distance image is used as an original original distance image, detection including a predetermined detection object from the original distance image Extracting a target portion and giving a label corresponding to the detection target to the detection target portion (a), A step (b) of obtaining, from the original distance image, a processed distance image in which a distance value of at least a part of pixels included in the detection target portion of the original distance image is changed to an abnormal value; , By performing supervised learning using the input as the processed distance image and the output as the label and the original distance image, a detection target portion including the predetermined detection target is extracted from the input distance image and extracted. Constructing a learned model for outputting a distance image in which distance values of at least some pixels of the detection target portion are replaced with other distance values; Machine learning methods, including.
  • each of the plurality of original distance images includes a distance image generated under a plurality of different weather conditions.
  • a detection target portion including a predetermined detection target object is extracted from a distance image composed of a plurality of pixels indicating a distance value to the target object, and the distance value of the pixel of the detection target portion is set to another distance.
  • a trained model that allows a computer to function by substituting values, When the distance image is an original original distance image, a detection target portion including a predetermined detection target object is extracted from the original distance image, and a label corresponding to the detection target object is attached to the detection target portion.
  • a control program for object detection In the learned model of (5) above, a detection target portion including a predetermined detection target is extracted from the input distance image, and the distance values of at least some pixels of the extracted detection target portion are set to other values. Step (a) of reading the learned model for outputting the distance image replaced with the distance value of A step (b) of obtaining a range image, Extracting the detection target part from the acquired range image using the learned model, (c), A step (d) of extracting a pixel showing an abnormal value from the pixels included in the detection target portion; Replacing a distance value using the learned model with respect to the pixel indicating the extracted abnormal value, (e), Outputting a distance image in which the distance value is replaced (f), A control program for causing a computer to execute a process including.
  • step (f) the control program according to (6) or (7) above, which displays an image based on the distance image replaced on the display unit.
  • the distance image acquired in step (b) is a distance acquired from a distance image capturing device that captures an image of a shooting area and generates a distance image composed of a plurality of pixels indicating a distance value to an object.
  • the processing further includes a step (g) of making an abnormality determination based on position information of the detection target in the imaging region using the distance image after the replacement processing replaced in the step (e).
  • the control program according to any one of (6) to (8) above.
  • a distance image photographing device that photographs a photographing region and generates a distance image composed of a plurality of pixels indicating a distance value to an object
  • the distance image capturing apparatus processes the generated distance image using the learned model described in (5) above, extracts a detection target portion including a predetermined detection target object from the distance image, and extracts the detection target portion.
  • a target area conversion unit that generates a distance image after replacement processing in which the distance value of the pixel of the detection target portion is replaced with another distance value; Using the distance image after the replacement processing, an abnormality determination based on position information in the imaging region of the detection target, a distance information analysis unit, In the distance information analysis unit, when the abnormality determination is made, an output unit that outputs the alarm information, Object detection system including.
  • the distance information analysis unit performs the abnormality determination based on a moving direction or a moving speed of a predetermined target object in the imaging region, according to the above (10) or (11). Object detection system.
  • a processed distance image that has been processed to change the distance value of at least some pixels included in the detection target portion of the original distance image to an abnormal value is input, and the output is detected.
  • a trained model is constructed by performing supervised learning as the original distance image and the label given to the part.
  • the object detection can be performed with high accuracy by using the object detection control program and the object detection system that use the learned model.
  • FIG. 6 is a schematic diagram for explaining an original distance image and a processed distance image generated from the original distance image. It is a flowchart which shows the process of the machine learning method of the learned model. It is a flowchart which shows the object detection process using the learned model. It is a schematic diagram which shows the distance image 1 before a replacement process, and the distance image 2 after a replacement process.
  • FIG. 1 is a block diagram showing the main configuration of the object detection system 10.
  • the object detection system 10 includes a range image capturing device 100, an analysis device 200, and an output unit 300.
  • the distance image capturing apparatus 100 measures the distance to an object by the ToF method. More specifically, the transmitted waves directed to a plurality of directions are radiated toward the measurement space, and the time interval from the reception of the reflected waves from the object of the transmitted waves to the object in each direction Measure the distance.
  • the distance image capturing apparatus 100 is, for example, a lidar (LiDAR: Light Detection and Ranging) that uses infrared (about 800 to 1000 nm) laser light. By using a lidar, the distance to an object can be measured with high resolution. In the present embodiment, a rider will be described as being used as the distance image capturing apparatus 100.
  • LiDAR Light Detection and Ranging
  • the analysis device 200 uses the learned model 290 to recognize a specific object from the range image acquired from the range image capturing device 100. Further, the analysis device 200 performs alert determination based on the recognized position, movement direction, or movement trajectory of the target object, and sends the determination result to the output unit 300. For example, when an object has entered a predetermined area (off-limit area) set within the imaging area of the distance image capturing apparatus 100, alert determination is performed. Then, the analysis device 200 alerts the output unit 300 by performing an alert determination.
  • a predetermined area off-limit area
  • the output unit 300 is a digital signage including a speaker arranged inside or around the photographing area (monitoring area) of the distance image photographing apparatus 100, a liquid crystal display, or the like. Depending on the alert information (alert signal), a warning sound is emitted or a warning is displayed on the digital signage.
  • the output unit 300 may be a contact output (output interface), and may be a PC (personal computer) terminal used by an administrator who manages / monitors an imaging area registered in advance, or a mobile terminal.
  • a display display unit
  • a display image based on the distance image after the replacement process described below may be displayed on this display.
  • FIG. 2 is a cross-sectional view showing a schematic configuration of the distance image capturing apparatus 100.
  • FIG. 3 is a schematic diagram showing a state in which the distance image capturing apparatus 100 is arranged above the pillar 62 so that the capturing area 700 is located on the road 61 as an example.
  • Objects (moving objects) 81 and 82 are present on the road 61 in the shooting area 700.
  • the object 81 is a vehicle (normal passenger car) and the object 82 is a pedestrian.
  • the distance image capturing apparatus 100 includes a light emitting / receiving unit 111 and a distance image generating unit 112.
  • the light projecting / receiving unit 111 has a semiconductor laser 51, a collimator lens 52, a mirror unit 53, a lens 54, a photodiode 55, a motor 56, and a housing 57 that houses each of these components.
  • a distance image generation unit 112 is arranged in the housing 57.
  • the distance image generation unit 112 generates a distance image composed of a plurality of pixels showing the distribution of distance values to the object in the measurement space based on the received light signal. This distance image is also referred to as distance measuring point cloud data or distance map.
  • the semiconductor laser 51 emits a pulsed laser beam.
  • the collimator lens 52 converts the divergent light from the semiconductor laser 51 into parallel light.
  • the mirror unit 53 scans and projects the laser light made parallel by the collimator lens 52 toward the measurement area by the rotating mirror surface, and reflects the reflected light from the object.
  • the lens 54 collects the reflected light from the object reflected by the mirror unit 53.
  • the photodiode 55 receives the light condensed by the lens 54 and has a plurality of pixels arranged in the Y direction.
  • the motor 56 rotationally drives the mirror unit 53.
  • the distance image generation unit 112 controls the operation of the light emitting / receiving unit 111 and generates continuous frames (distance images) at a predetermined cycle (for example, several to 20 Hz).
  • the distance image generation unit 112 obtains distance information (distance value) based on the time interval (time difference) between the emission timing of the semiconductor laser 51 of the distance image capturing device 100 and the light reception timing of the photodiode 55.
  • the distance image generation unit 112 is composed of a CPU (Central Processing Unit) and a memory, and executes a program stored in the memory to perform various processes to obtain a distance image.
  • a dedicated hardware circuit may be provided.
  • the distance image generation unit 112 may be omitted, and this function may be performed by the analysis device 200 described later. In this case, the distance image capturing apparatus 100 simply outputs the light reception signal corresponding to each pixel to the analysis apparatus 200.
  • the semiconductor laser 51 and the collimator lens 52 constitute the emitting section 501
  • the lens 54 and the photodiode 55 constitute the light receiving section 502.
  • the optical axes of the emitting section 501 and the light receiving section 502 are preferably orthogonal to the rotation axis 530 of the mirror unit 53.
  • the box-shaped housing 57 fixedly installed on the pillar 62 or the like which is a rigid body, includes an upper wall 57a, a lower wall 57b facing the upper wall 57a, and a side wall 57c connecting the upper wall 57a and the lower wall 57b.
  • An opening 57d is formed in a part of the side wall 57c, and a transparent plate 58 is attached to the opening 57d.
  • the mirror unit 53 has a shape in which two quadrangular pyramids are joined in the opposite direction and integrated, that is, four pairs of mirror surfaces 531a and 531b tilted in a pair to face each other (but not limited to four pairs). ) I have.
  • the mirror surfaces 531a and 531b are preferably formed by depositing a reflective film on the surface of a resin material (for example, PC (polycarbonate)) in the shape of a mirror unit.
  • the mirror unit 53 is connected to a shaft 56a of a motor 56 fixed to a housing 57 and is rotationally driven.
  • the axis line (rotation axis line) of the shaft 56a extends in the Y direction, which is the vertical direction, in the state of being installed on the column 62, and is formed by the X direction and the Z direction orthogonal to the Y direction.
  • the XZ plane is a horizontal plane, the axis of the shaft 56a may be inclined with respect to the vertical direction.
  • the divergent light emitted intermittently in a pulse form from the semiconductor laser 51 is converted into a parallel light flux by the collimator lens 52, and is incident on the first mirror surface 531a of the rotating mirror unit 53. After that, after being reflected by the first mirror surface 531a and further reflected by the second mirror surface 531b, the light is transmitted as a laser spot light having a vertically long rectangular cross section toward the external measurement space through the transparent plate 58. Be illuminated.
  • the direction in which the laser spot light is emitted and the direction in which the emitted laser spot light is reflected by the object and returns as reflected light overlap, and these two overlapping directions are called the light emitting and receiving directions (see FIG. In FIG. 2, the emitted light and the reflected light are shifted from each other for the sake of clarity).
  • Laser spot light traveling in the same light emitting / receiving direction is detected by the same pixel.
  • the four pairs have different crossing angles.
  • the laser light is sequentially reflected by the rotating first mirror surface 531a and second mirror surface 531b.
  • the laser light reflected by the first mirror surface 531a and the second mirror surface 531b of the first pair is moved horizontally (“main scanning direction”) in the uppermost area of the measurement space according to the rotation of the mirror unit 53. (Also called) from left to right.
  • the laser light reflected by the first mirror surface 531a and the second mirror surface 531b of the second pair horizontally moves from the left to the right in the second area from the top of the measurement space according to the rotation of the mirror unit 53. Scanned into.
  • the laser light reflected by the first mirror surface 531a and the second mirror surface 531b of the third pair horizontally moves from the left to the right in the third area from the top of the measurement space according to the rotation of the mirror unit 53.
  • the laser light reflected by the first mirror surface 531a and the second mirror surface of the fourth pair scans the lowermost region of the measurement space in the horizontal direction from left to right according to the rotation of the mirror unit 53. To be done.
  • a part of the laser light reflected by the object in the scanning projected light beam again passes through the transparent plate 58 and enters the second mirror surface 531b of the mirror unit 53 in the housing 57,
  • the light is reflected here, is further reflected by the first mirror surface 531a, is condensed by the lens 54, and is detected for each pixel by the light receiving surface of the photodiode 55.
  • the distance image generation unit 112 obtains distance information according to the time difference between the emission timing of the semiconductor laser 51 and the light reception timing of the photodiode 55.
  • the object can be detected in the entire area of the measurement space, and a frame as a distance image having distance information for each pixel can be obtained. This frame is generated at a predetermined cycle, for example, 10 fps.
  • the obtained distance image may be stored as background image data in the memory within the distance image generation unit 112 or the memory of the analysis device 200.
  • an identifier for example, FFFF value
  • FFFF value indicating that is embedded in the pixel that cannot be measured.
  • the black vehicle body portion may not obtain a distance value capable of detecting a reflected wave.
  • the irradiated laser light is specularly reflected on the water surface, so that the reflected light from that direction may not return after that. , In that case, the distance value becomes an infinity value.
  • the laser light is a spot light of finite size. Therefore, when a part of the spot light irradiates the edge of the object on the front side and the other part irradiates the object on the back side of the object, the reflected light returns from the front side object and the back side object respectively. Come on. In this case, the graph in which the return time and the reflected light amount are plotted has a two-peak distribution.
  • the analyzer 200 will be described with reference to FIG. 1 again.
  • the analysis device 200 is, for example, a computer, and includes a CPU, a memory (semiconductor memory, magnetic recording medium (hard disk, etc.)), an input / output unit (display, keyboard, etc.), a communication I / F (Interface), and the like.
  • the communication I / F is an interface for communicating with an external device.
  • a network interface according to a standard such as Ethernet (registered trademark), SATA, PCI Express, USB, or IEEE 1394 may be used.
  • a wireless communication interface such as Bluetooth (registered trademark), IEEE 802.11, or 4G may be used for communication.
  • the analysis device 200 functions as a target area conversion unit 210, a distance information analysis unit 220, and an output control unit 230.
  • the analysis device 200 stores the learned model 290 generated in advance by an external learning machine in the memory.
  • the target area conversion unit 210 uses this learned model 290 to perform target area conversion processing.
  • the learned model 290 is machine-learned by using, as an object (hereinafter, referred to as a “detection object”), a specific object that is a target of behavior tracking or behavior monitoring among objects moving in the imaging region 700. .. More specifically, the learned model 290 is prepared by preparing a plurality of distance images obtained by photographing the detection target with the distance image photographing device 100 and performing machine learning using the distance images.
  • the learned model 290 extracts a detection target portion including a predetermined detection target object from the input distance image, and replaces the distance value of at least some pixels of the extracted detection target portion with another distance value. Used to output range image.
  • the detection target includes at least one of a person, a vehicle, and a machine.
  • the detection target is appropriately set depending on the situation (imaging region) in which the object detection system 10 is used.
  • the objects to be detected include people and vehicles (ordinary vehicles, large vehicles (trucks)), and learning is performed.
  • the completed model 290 performs machine learning using range images obtained by shooting these detection objects.
  • detection objects such persons and vehicles will be described as detection objects.
  • the detection target includes a person, a heavy machine as a machine, or a construction machine.
  • the detection target includes a person (worker), a forklift (vehicle), a crane as a machine, an assembly device, a belt conveyor, and the like.
  • the target area conversion unit 210 uses the learned model 290 to detect a detection target object from the distance image (hereinafter also referred to as “distance image 1” or “original distance image”) generated by the distance image capturing apparatus 100.
  • the "detection target portion” that is the included area is extracted. Specifically, a contour (outer periphery) of a person or a vehicle is detected as a detection target from the distance image, and a region surrounded by the contour is extracted as a detection target portion. Then, if the detection target portion includes an abnormal value pixel, this pixel is replaced with a predetermined distance value. The distance value in this replacement process is also set using the learned model 290.
  • the target area conversion unit 210 sends the distance image after the replacement process (hereinafter, also referred to as “distance image 2”) to the distance information analysis unit 220.
  • the distance information analysis unit 220 uses the distance image 2 after the replacement process to recognize an object in the imaging area 700 by the method described below. Further, the distance information analysis unit 220 makes an abnormality determination using the position information of the recognized object. Information on the recognized object and the determination result of the abnormality determination are sent to the output control unit 230.
  • the background subtraction method is adopted in this embodiment.
  • background image data also referred to as reference background data
  • reference background data background image data
  • the distance information analysis unit 220 has a function of recognizing a plurality of types of objects (moving objects) including detected objects.
  • the distance information analysis unit 220 compares the background image data held in the memory with the current distance image, and if there is a difference, some moving body (foreground object) appears in the photographing area 700. I can recognize that.
  • the foreground data is extracted by using the background difference method to compare the background image data with the current distance image (distance image data). Then, the pixels (pixel group) of the extracted foreground data are divided into clusters according to the distance value of the pixels, for example. Then, the size of each cluster is calculated. For example, vertical dimension, horizontal dimension, total area, etc. are calculated.
  • the “size” here is an actual size, and unlike the apparent size (angle of view, that is, the spread of pixels), the cluster of pixel groups is determined according to the distance to the object.
  • the distance information analysis unit 220 determines whether or not the calculated size is equal to or smaller than a predetermined size threshold value for specifying the moving object to be analyzed which is the extraction target.
  • the size threshold can be arbitrarily set depending on the measurement location, the behavior analysis target, and the like. If the behavior of a vehicle or a person is tracked and analyzed, the minimum value of the size of each of the vehicle and the person may be used as the size threshold value for clustering. This makes it possible to exclude fallen leaves, dust such as plastic bags, or small animals from detection targets.
  • the replacement processing by the target area conversion unit 210 can be performed.
  • the replacement processing by the target area conversion unit 210 it is possible to recognize as a lump having the same size as the original size of the vehicle body, and thus it is possible to prevent these vehicles from being excluded from the detection target and to correctly recognize them.
  • the distance information analysis unit 220 also performs an abnormality determination described below, for example. At least one of the determination of an object entering a predetermined area (for example, an out-of-limits area set on the road 61) in the photographing area 700 and the movement trajectory of an object passing through the predetermined area (road 61) is performed. In addition, the various types of determination may be performed by determining the type of the object and for each of the determined types. For example, this type includes people, ordinary vehicles, large vehicles (trucks, etc.), and motorcycles. This type determination is performed by, for example, the features (size, shape) of each type being stored in the memory of the analysis device 200 in advance, and matching with the features.
  • a predetermined area for example, an out-of-limits area set on the road 61
  • the various types of determination may be performed by determining the type of the object and for each of the determined types. For example, this type includes people, ordinary vehicles, large vehicles (trucks, etc.), and motorcycles. This type determination is performed by, for example
  • the abnormality determination when a person is the object, the abnormality determination is performed when the detected object is located in the exclusion zone. Further, when the vehicle is the object, the moving direction and the moving speed are calculated as the moving locus. Then, the abnormality determination is performed by comparing the moving direction or the moving speed with a predetermined reference. For example, it is possible to determine that the vehicle is running backwards or is stopped on a road where suspension is prohibited.
  • the output control unit 230 outputs alert information to the output unit 300 according to the detection result of the distance information analysis unit 220 and the determination result (abnormality determination). For example, when it is determined that an abnormality has occurred due to a person intruding into the exclusion area, the output unit 300 outputs to the output unit 300 alert information for issuing a warning from a speaker arranged around the photographing area 700 or a liquid crystal display. Output. Further, when it is determined that the vehicle is running in reverse, the output unit 300 sends alert information indicating the situation to the administrator's PC terminal.
  • Method of constructing learned model 290 Next, a method of constructing the learned model 290 will be described. First, the distance image used for learning will be described, and then learning of the learned model 290 using this distance image will be described.
  • FIG. 4 is a flowchart showing a procedure for generating learning sample data used for learning the learned model 290.
  • FIG. 5 is a schematic diagram for explaining the original distance image and the processed distance image generated from the original distance image.
  • Step S101 A large number of range images obtained by measurement by the range image capturing device 100 are prepared.
  • This range image is an original range image (original range image).
  • FIG. 5A is an example of the original distance image.
  • an image that is converted into an image density according to the distance value of each pixel and visualized is displayed.
  • each of the prepared range images preferably includes one subject (detection target), but may include two or more detection targets.
  • the original distance images 1 to n are obtained by photographing with the distance image photographing device 100 while one or more vehicles 81 are traveling on the road 61. Further, it is preferable that the distance image is a distance image that does not include an abnormal value pixel.
  • this distance image is preferably a distance image obtained under the same shooting conditions as the situation in which the learned model 290 is used. That is, the range image obtained by the range image photographing device 100 arranged in the photographing area 700 of FIG. 3 is used. However, if a similar target object to be detected is included, a range image obtained by shooting another shooting area by the device itself or another range image shooting device 100 may be used.
  • the shooting environment (weather, brightness) include a plurality of different weather conditions outdoors.
  • it is a distance image obtained by shooting under rain, snow, fog, clear weather, daytime, nighttime weather conditions, or under a shooting environment.
  • the set position and installation angle of this range image shooting device 100 should be changed at multiple levels. May be.
  • the installation height and the orientation (tilt, yaw) of the distance image capturing apparatus 100 on the pillar 62 are changed at a plurality of levels.
  • Step S102 Using the above-described object recognition function of the distance information analysis unit 220, a detection target portion including a detection target object is extracted from each of the original distance image 1 to the original distance image n prepared in step S101, and the target is extracted. Give a label that defines the thing.
  • the diagram of FIG. 5B is a schematic diagram showing an example of a frame and a label indicating the extracted detection target portion, as compared with FIG. 5A. Note that this processing may use the learned model 290 that has already been constructed (in the process of improvement).
  • Step S103 Processing is performed to change the distance value of at least some of the pixels inside the detection target portion extracted in step S102 to an abnormal value.
  • the image after the processing is called a processed distance image (processed distance image).
  • the number of processed distance images is n from processed distance image 1 to processed distance image n, which is the same as the original distance image.
  • This processing may be automatically performed by the distance information analysis unit 220 of the object detection system 10 according to a predetermined algorithm. For example, the pixels included in the detection target portion are randomly changed to abnormal values. Alternatively, the user may use a user interface to manually change a part or all of the detection target portion to an abnormal value. Further, the processed distance image generated by both the distance information analysis unit 220 and the user may be used.
  • Step S104 Using the data prepared in steps S101 to S103, n sets of learning sample data are prepared. For example, three pieces of data of the processed distance image i, the original distance image i, and the label attached to the original distance image i are set as one set (i is any numerical value from 1 to n). Then, n sets of learning sample data are prepared with these combinations. As will be described later, the processed distance images 1 to n are used as input teacher data, and the original distance images 1 to n and their respective labels are used as output teacher data.
  • FIG. 6 is a flowchart showing the processing of the machine learning method for the learned model.
  • the learning sample data prepared in the process of FIG. 4 is used.
  • a learning method using a neural network configured by combining perceptrons in a learning machine (not shown) will be described.
  • the learning method is not limited to this, and if the learning is supervised, various kinds of methods are used. obtain. For example, for example, random forest, support vector machine (SVM), boosting (Boosting), Bayesian (Bsysian) network linear discriminant method, non-linear discriminant method, etc. can be applied.
  • SVM support vector machine
  • Boosting boosting
  • Bayesian network linear discriminant method non-linear discriminant method, etc.
  • a standalone high-performance computer using a CPU and a processor of a GPU (Graphics Processing Unit) or a cloud computer can be used as a learning machine.
  • Step S201 The learning machine reads learning sample data which is teacher data. If it is the first time, the learning sample data of the first set (processing distance image 1, original distance image 1, its label) is read, and if it is the i-th time, i-th group (processing distance image i, original distance image i, its label) ) Read the learning sample data.
  • Step S202 The learning machine inputs the input data (processing distance image i) of the read learning sample data to the neural network.
  • Step S203 The learning machine uses the estimation result of the neural network, that is, the label given to the estimated detection target portion and the replacement result of the pixels in the labeled detection target portion as teacher data (original distance image i and its label). ).
  • Step S204 The learning machine adjusts the parameter from the comparison result. For example, by performing processing called back-propagation (error back propagation), the parameters are adjusted and updated so that the error of the comparison result is reduced.
  • back-propagation error back propagation
  • Step S205 The learning machine advances the processing to step S206 if the processing of all the data up to the 1st to n-th sheets is completed (YES), and returns the processing to step S201 if it is not completed (next) and returns to the next learning sample data. Is read, and the processing from step S201 onward is repeated.
  • Step S206 The learning machine stores the learned model 290 constructed by the processing up to this point and ends (end).
  • FIG. 7 is a flowchart showing an object detection process executed by the object detection system 10.
  • FIG. 8 is a schematic diagram showing a distance image 1 (before replacement processing) and a distance image 2 (after replacement processing).
  • Step S301 The analysis apparatus 200 of the object detection system 10 acquires the learned model 290 constructed by the processing of FIG. 6 from the learning machine and reads it into the memory of its own apparatus.
  • the target area conversion unit 210 acquires the distance image (distance image 1) captured by the distance image capturing apparatus 100, and extracts the detection target portion using the learned model 290.
  • FIG. 8A is a schematic diagram showing an example of the distance image 1.
  • the lower half of the silhouette (detection target portion) of a person (detection target) walking in the center has a low reflectance due to a black material or the like. Is not obtained, that is, the distance values of some pixels included in the detection target portion are abnormal values.
  • Step S303 The target area conversion unit 210 extracts an abnormal value pixel from the detection target portion.
  • the step S303 process may be performed using the learned model 290 for extraction.
  • Step S304 The target area conversion unit 210 uses the learned model 290 to perform the replacement process on the pixel of the abnormal value in the detection target portion.
  • FIG. 8B is a schematic diagram showing an example of the distance image 2 after the replacement process with respect to FIG. In FIG. 8B, the lower half of the body is replaced with a distance value that is substantially the same as the upper half of the person.
  • Step S305 the target area conversion unit 210 generates a distance image after the pixel having the abnormal value is replaced (distance image 2).
  • the distance information analysis unit 220 performs the object detection process using the distance image 2 obtained in step S305 and the abnormality determination (warning determination) using the position information of the detected object. For example, as described above, when the person detected as the detection target is located in the exclusion area, the abnormality determination is performed. Further, when the vehicle is the object, the moving direction and the moving speed are calculated as the moving locus. Then, the abnormality determination is performed by comparing the moving direction or the moving speed with a predetermined reference.
  • Step S307 The output control unit 230 performs the alerting process according to the abnormality determination in step S306. For example, when an abnormality is determined by a person entering the off-limits area, a speaker as an output unit 300 arranged around the imaging area 700 emits a warning sound.
  • the learned model is constructed by performing the supervised learning with the processed distance image as input and the label given to the detection target portion and the original distance image as output.
  • a processed distance image By using such a processed distance image, it is possible to construct a learned model that can exhibit stable performance.
  • by using such a learned model it is possible to replace an abnormal value pixel with a finite pixel value even in an object such as a low reflectance object (target object), and thus use the distance image after the replacement.
  • the object can be detected with high accuracy.
  • control program for object detection and the object detection system use the learned model described above to extract the detection target portion from the acquired range image, and include the detection target portion in the extracted detection target portion.
  • a pixel indicating an abnormal value is extracted from the pixel, and the distance value is replaced for the extracted pixel indicating the abnormal value.
  • An object can be detected with high accuracy by using the distance image after the replacement processing obtained in this way.
  • the configuration of the object detection system 10 described above is the main configuration in describing the features of the above-described embodiment, and is not limited to the above-described configuration, and various modifications may be made within the scope of the claims. it can. Further, the configuration of the general object detection system 10 is not excluded.
  • the processing for changing the distance value of at least some pixels included in the detection target portion of the original distance image to an abnormal value is performed.
  • the range image is used, it is not limited to this.
  • the object to be detected is a person
  • a processing distance image is generated by performing processing that adds an object to be shielded such as a pillar or another person in front of the person, and this processing distance image is also learned. It may be used as sample data. By doing so, learning for replacement processing of the shield can be performed.
  • the means and method for performing various processes in the object detection system 10 can be realized by either a dedicated hardware circuit or a programmed computer.
  • the above program may be provided by a non-transitory computer-readable recording medium such as a USB memory or a DVD (Digital Versatile Disc) -ROM, or may be provided online via a network such as the Internet. Good.
  • the program recorded on the computer-readable recording medium is usually transferred and stored in a storage unit such as a hard disk.
  • the program may be provided as independent application software, or may be incorporated into the software of the device as a function of the device.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】物体の検知を高精度で行う機械学習方法、学習済みモデル、制御プログラム、および物体検知システムを提供する。 【解決手段】対象物までの距離値を示す複数の画素で構成された原距離画像の検出対象部分に含まれる少なくとも一部の画素の距離値を異常値に変更する加工が行われた加工距離画像を入力とし、出力を検出対象部分に付与したラベルと、原距離画像として教師あり学習を行うことにより、学習済みモデルを構築する。そして学習済みモデルを用いた物体検知用の制御プログラム、および物体検知システムとする。

Description

機械学習方法、学習済みモデル、制御プログラム、および物体検知システム
 本発明は、機械学習方法、学習済みモデル、制御プログラム、および物体検知システムに関する。
 近年、測定空間内の侵入者や車両を検出する目的で、レーザーレーダーなどのToF(Time of Flight)方式を用いた測定器で検出した距離画像の中から物体を検出する物体検出システムが使用されている。ここで、距離画像とは、2次元座標に物体までの距離値をマッピングしたものである。距離画像から移動体を含む画素を抽出する方法としては、特許文献1にも記載されるように、計測結果である距離画像と予め取得しておいた背景画像(つまり、移動体が存在しない状態の距離画像)とを比較して距離に差がある画素を抽出する方法が知られている。
 ところで、レーザーレーダーは、照射したレーザー光が対象物で反射され受光部に戻ってくるまでの時間を計測することにより対象物までの距離値を取得している。そのため、対象物が鏡面であることで全反射する場合や、物体表面が黒色であること等により吸収成分が多かったりする場合は、受光部にレーザー光が十分に戻ってこず、対象物までの距離値を取得することができない。例えば、雨が降ることにより道路表面にできた水たまりや、光沢のある黒色の車両では、十分な反射光量が得られずに距離値を取得できない。
 特許文献2では、照射したレーザー光の反射光量が得られない照射角度を抽出し、その照射角度には、黒い車両等の移動物体が存在すると判断する物体検出ユニットが開示されている。また、この特許文献2では、さらに、踏切を跨ぐ横断路の四隅に、複数の物体検出ユニットを互いの検知領域が重複するように配置する構成も開示されており、この構成では、それぞれの物体検出ユニットから得られた検出結果を突き合わせることで、移動物体の形状を推定している。
特開2005-300259号公報 特開2007-126025号公報
 しかしながら、特許文献2では、黒い車両等が存在する方向(照射角度)を得ることはできるが、その物体までの距離値や形状を検知できない。距離値や形状を検知するためには、横断道路の4隅に配置した複数の物体検出ユニットからの検出結果を突き合わせる必要があり、特定の場所にしか適用できず、また、装置が大がかりになる。
 本発明は、上記事情に鑑みてなされたものであり、黒い車両などの反射波が得られない物体であっても、精度よくその物体を検知できる機械学習方法、学習済みモデル、制御プログラム、および物体検知システムを提供することを目的とする。
 本発明の上記目的は、下記の手段によって達成される。
 (1)コンピューターが行う機械学習方法であって、
 対象物までの距離値を示す複数の画素で構成された距離画像を取得し、該距離画像をオリジナルの原距離画像とした場合に、該原距離画像から、所定の検出対象物が含まれる検出対象部分を抽出するとともに、前記検出対象部分に、前記検出対象物に対応するラベルを付与するステップ(a)と、
 前記原距離画像に対して、該原距離画像の前記検出対象部分に含まれる少なくとも一部の画素の距離値を異常値に変更する加工が行われた加工距離画像を取得するステップ(b)と、
 入力を前記加工距離画像、出力を、前記ラベルと前記原距離画像として教師あり学習を行うことにより、入力された距離画像から所定の前記検出対象物が含まれる検出対象部分を抽出し、抽出した該検出対象部分の少なくとも一部の画素の距離値を他の距離値に置換した距離画像を出力するための学習済みモデルを構築するステップ(c)と、
を含む、機械学習方法。
 (2)前記検出対象物には、人物、車両、および機械の少なくとも1つを含む、上記(1)に記載の機械学習方法。
 (3)画素の前記異常値は、無限遠値、もしくは無限遠を示す識別値、または有限距離のノイズ値である、上記(1)、または上記(2)に記載の機械学習方法。
 (4)複数の前記原距離画像は、それぞれ複数の異なる天候条件下で生成された距離画像を含む、上記(1)から上記(3)のいずれかに記載の機械学習方法。
 (5)対象物までの距離値を示す複数の画素で構成された距離画像から所定の検出対象物が含まれる検出対象部分を抽出するとともに、該検出対象部分の画素の距離値を他の距離値に置換するよう、コンピューターを機能させるための学習済みモデルであって、
 前記距離画像をオリジナルの原距離画像とした場合に、該原距離画像から、所定の検出対象物が含まれる検出対象部分を抽出するとともに、前記検出対象部分に前記検出対象物に対応するラベルを付与し、
 前記原距離画像に対して、該原距離画像の前記検出対象部分に含まれる少なくとも一部の画素の距離値を異常値に変更する加工が行われた加工距離画像を取得し、
入力を前記加工距離画像、出力を、前記ラベルと前記原距離画像として教師あり学習された学習済みモデル。
 (6)物体検知用の制御プログラムであって、
 上記(5)の学習済みモデルであって、入力された距離画像から所定の検出対象物が含まれる検出対象部分を抽出し、抽出した該検出対象部分の少なくとも一部の画素の距離値を他の距離値に置換した距離画像を出力するための学習済みモデルを読み込むステップ(a)と、
 距離画像を取得するステップ(b)と、
 前記学習済みモデルを用い、取得した距離画像から、前記検出対象部分を抽出するステップ(c)と、
 前記検出対象部分に含まれる画素において、異常値を示す画素を抽出するステップ(d)と、
 前記抽出した異常値を示す画素について、前記学習済みモデルを用いて、距離値を置換するステップ(e)と、
 前記距離値を置換した距離画像を出力するステップ(f)と、
を含む処理をコンピューターに実行させるための制御プログラム。
 (7)前記ステップ(d)は、前記学習済みモデルを用いて行う、上記(6)に記載の制御プログラム。
 (8)前記ステップ(f)では、表示部に置換した前記距離画像に基づく画像を表示する、上記(6)、または上記(7)に記載の制御プログラム。
 (9)前記ステップ(b)で取得した前記距離画像は、撮影領域を撮影し、対象物までの距離値を示す複数の画素で構成された距離画像を生成する距離画像撮影装置から取得した距離画像であり、
 前記処理は、さらに、前記ステップ(e)で置換した置換処理後の前記距離画像を用いて、前記検出対象物の前記撮影領域における位置情報に基づく異常判定を行うステップ(g)を含む、上記(6)から上記(8)のいずれかに記載の制御プログラム。
 (10)撮影領域を撮影し、対象物までの距離値を示す複数の画素で構成された距離画像を生成する距離画像撮影装置と、
 前記距離画像撮影装置が、生成した距離画像を、上記(5)に記載の学習済みモデルを用いて処理し、距離画像から所定の検出対象物が含まれる検出対象部分を抽出して、抽出した該検出対象部分の画素の距離値を他の距離値に置換した置換処理後の距離画像を生成する対象領域変換部と、
 置換処理後の前記距離画像を用いて、前記検出対象物の前記撮影領域における位置情報に基づく異常判定を行う、距離情報解析部と、
 前記距離情報解析部で、前記異常判定がなされた場合に、発報情報を出力する出力部と、
を備える物体検知システム。
 (11)前記距離情報解析部は、前記撮影領域内の所定領域へ、前記検出対象物が侵入した場合に、前記異常判定を行う、上記(10)に記載の物体検知システム。
 (12)前記距離情報解析部は、前記撮影領域内における、所定の対象物の移動方向、または移動速度に基づいて、前記異常判定を行う、上記(10)、または上記(11)に記載の物体検知システム。
 (13)前記出力部は、前記撮影領域内に設けられた警報装置、または、前記撮影領域を管理する管理者の端末にアラート情報を出力する、上記(10)から上記(12)のいずれかに記載の物体検知システム。
 本発明に係る機械学習方法においては、原距離画像の検出対象部分に含まれる少なくとも一部の画素の距離値を異常値に変更する加工が行われた加工距離画像を入力とし、出力を検出対象部分に付与したラベルと、原距離画像として教師あり学習を行うことにより、学習済みモデルを構築する。そして学習済みモデルを用いた物体検知用の制御プログラム、および物体検知システムとすることで、物体の検知を高精度で行える。
本実施形態に係る物体検知システムの構成を示すブロック図である。 距離画像撮影装置の概略構成を示す断面図である。 車両が通行する道路上が測定空間となるように距離画像撮影装置を配置した状態を示す模式図である。 学習済みモデルの学習に用いる距離画像データを生成する手順を示すフローチャートである。 原距離画像、および原距離画像から生成した加工距離画像を説明するための模式図である。 学習済みモデルの機械学習方法の処理を示すフローチャートである。 学習済みモデルを用いた物体検知処理を示すフローチャートである。 置換処理前の距離画像1、および置換処理後の距離画像2を示す模式図である。
 以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
 図1は、物体検知システム10の主要構成を示すブロック図である。物体検知システム10は、距離画像撮影装置100、解析装置200、および出力部300を備える。
 距離画像撮影装置100は、ToF方式により、物体までの距離を測定する。より具体的には、複数の方位に向けた送信波を、測定空間に向けて照射してから、この送信波の対象物からの反射波を受信するまでの時間間隔により各方位における物体までの距離を測定する。距離画像撮影装置100は、例えば、赤外線(800~1000nm程度)のレーザー光を用いたライダー(LiDAR:Light Detection and Ranging)である。ライダーを用いることで、高い分解能で物体までの距離を測定できる。本実施形態では、ライダーを距離画像撮影装置100として用いるものとして説明する。
 解析装置200は、学習済みモデル290を用いて、距離画像撮影装置100から取得した距離画像から特定の対象物を認識する。また、解析装置200は、認識した対象物の位置、移動方向、または移動軌跡により、アラート判定を行い、判定結果を出力部300に送る。例えば、距離画像撮影装置100の撮影領域内に設定した所定領域(立入禁止領域)に対象物が侵入した場合には、アラート判定を行う。そして解析装置200はアラート判定を行うことにより、出力部300にアラートを行う。
 出力部300は、距離画像撮影装置100の撮影領域(監視領域)の内部、または周辺に配置されたスピーカー、または液晶ディスプレイ等で構成されたデジタルサイネージである。アラート情報(アラート信号)に応じて、警告音を発したり、デジタルサイネージに警告を表示したりする。また出力部300は、接点出力(出力インターフェース)であってもよく、予め登録された撮影領域を管理/監視する管理者が使用するPC(パーソナルコンピューター)端末、またはモバイル端末であってもよい。またディスプレイ(表示部)を出力部300として用い、このディスプレイに後述する置換処理後の距離画像に基づく表示画像を表示するようにしてもよい。
 以下においては、最初に、距離画像撮影装置100の詳細について説明し、その後に解析装置200、および学習済みモデル290の詳細について説明する。
 (距離画像撮影装置100)
 以下、図2、図3を参照し、距離画像撮影装置100の構成について説明する。図2は、距離画像撮影装置100の概略構成を示す断面図である。図3は、一例として道路61上が撮影領域700となるように、柱62の上部に距離画像撮影装置100を配置した状態を示す模式図である。撮影領域700の道路61上には、物体(動体)81、82が存在する。同図の例では、物体81は車両(普通乗用車)であり、物体82は歩行者である。
 図2に示すように距離画像撮影装置100は、投受光ユニット111、および距離画像生成部112を有する。投受光ユニット111は、半導体レーザー51、コリメートレンズ52、ミラーユニット53、レンズ54、フォトダイオード55、およびモーター56、ならびにこれらの各構成部材を収容する筐体57を有する。筐体57内には、距離画像生成部112が配置されている。この距離画像生成部112は、この受光信号に基づいて、測定空間内の対象物までの距離値の分布を示す複数の画素で構成される距離画像を生成する。この距離画像は測距点群データ、または距離マップとも称される。
 半導体レーザー51は、パルス状のレーザー光束を出射する。コリメートレンズ52は、半導体レーザー51からの発散光を平行光に変換する。ミラーユニット53は、コリメートレンズ52で平行とされたレーザー光を、回転するミラー面により測定領域に向かって走査投光するとともに、対象物からの反射光を反射させる。レンズ54は、ミラーユニット53で反射された対象物からの反射光を集光する。フォトダイオード55は、レンズ54により集光された光を受光し、Y方向に並んだ複数の画素を有する。モーター56はミラーユニット53を回転駆動する。
 距離画像生成部112は、投受光ユニット111の動作を制御し、所定周期(例えば、数~20Hz)で連続したフレーム(距離画像)を生成する。距離画像生成部112は、距離画像撮影装置100の半導体レーザー51の出射タイミングと、フォトダイオード55の受光タイミングとの時間間隔(時間差)に基づいて距離情報(距離値)を求める。距離画像生成部112は、CPU(Central Processing Unit)とメモリで構成され、メモリに記憶しているプログラムを実行することにより各種の処理を実行することによって距離画像を求めるが、距離画像生成用の専用ハードウェア回路を備えてもよい。なお、距離画像生成部112を省略し、この機能を後述する解析装置200が担うようにしてもよい。この場合、距離画像撮影装置100は、単に各画素に対応する受光信号を、解析装置200に出力する。
 本実施形態において、半導体レーザー51とコリメートレンズ52とで出射部501を構成し、レンズ54とフォトダイオード55とで受光部502を構成する。出射部501、受光部502の光軸は、ミラーユニット53の回転軸530に対して直交していることが好ましい。
 剛体である柱62等に固定して設置されたボックス状の筐体57は、上壁57aと、これに対向する下壁57bと、上壁57aと下壁57bとを連結する側壁57cとを有する。側壁57cの一部に開口57dが形成され、開口57dには透明板58が取り付けられている。
 ミラーユニット53は、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面531a、531bを4対(但し4対に限られない)有している。ミラー面531a、531bは、ミラーユニットの形状をした樹脂素材(例えばPC(ポリカーボネート))の表面に、反射膜を蒸着することにより形成されていることが好ましい。
 ミラーユニット53は、筐体57に固定されたモーター56の軸56aに連結され、回転駆動されるようになっている。本実施形態では、例えば、柱62に設置された状態で、軸56aの軸線(回転軸線)が鉛直方向であるY方向に延在しており、Y方向に直交するX方向およびZ方向によりなすXZ平面が水平面となっているが、軸56aの軸線を鉛直方向に対して傾けてもよい。
 次に、距離画像撮影装置100の対象物検出原理について説明する。図2において、半導体レーザー51からパルス状に間欠的に出射された発散光は、コリメートレンズ52で平行光束に変換され、回転するミラーユニット53の第1ミラー面531aに入射する。その後、第1ミラー面531aで反射され、さらに第2ミラー面531bで反射した後、透明板58を透過して外部の測定空間に向けて、例えば縦長の矩形断面を持つレーザースポット光として走査投光される。なお、レーザースポット光が出射される方向と、出射されたレーザースポット光が対象物で反射し、反射光として戻ってくる方向は重複し、この重複する2方向を投受光方向という(なお、図2では分かり易さのため、図面では出射光と反射光をずらして示している)。同一の投受光方向に進行するレーザースポット光は、同一の画素で検出される。
 ここで、ミラーユニット53の対のミラー(例えば第1ミラー面531aと第2ミラー面531b)の組み合わせにおいて、4対はそれぞれ交差角が異なっている。レーザー光は、回転する第1ミラー面531aと第2ミラー面531bにて、順次反射される。まず1番対の第1ミラー面531aと第2ミラー面531bにて反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の一番上の領域を水平方向(「主走査方向」ともいう)に左から右へと走査される。次に、2番対の第1ミラー面531aと第2ミラー面531bで反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の上から2番目の領域を水平方向に左から右へと走査される。次に、3番対の第1ミラー面531aと第2ミラー面531bで反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の上から3番目の領域を水平方向に左から右へと走査される。次に、4番対の第1ミラー面531aと第2ミラー面で反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の最も下の領域を水平方向に左から右へと走査される。これにより距離画像撮影装置100が測定可能な測定空間全体(撮影領域700)の1回の走査が完了する。この4つの領域の走査により得られた画像を組み合わせて、1つのフレームが得られる。そして、ミラーユニット53が1回転した後、再び1番対の第1ミラー面531aと第2ミラー面531bに戻り、以降は測定空間の一番上の領域から最も下の領域までの走査(この上下方向を「副走査方向」ともいう)を繰り返し、次のフレームが得られる。
 図2において、走査投光された光束のうち対象物に当たって反射したレーザー光の一部は、再び透明板58を透過して筐体57内のミラーユニット53の第2ミラー面531bに入射し、ここで反射され、さらに第1ミラー面531aで反射されて、レンズ54により集光され、それぞれフォトダイオード55の受光面で画素毎に検知される。さらに、距離画像生成部112が、半導体レーザー51の出射タイミングとフォトダイオード55の受光タイミングとの時間差に応じて距離情報を求める。これにより測定空間内の全領域で対象物の検出を行って、画素毎に距離情報を持つ距離画像としてのフレームを得ることができる。このフレームは、所定周期、例えば10fpsで生成される。また、ユーザーの指示により、得られた距離画像を背景画像データとして、距離画像生成部112内のメモリ、または解析装置200のメモリに記憶してもよい。
 (距離画像における「異常値」)
 また、距離画像撮影装置100の撮影により得られた距離画像においては、測定できない画素には、そのことを示す識別子(例えばFFFF値)が埋め込まれている。具体的には、物体までの距離が非常に遠い(「無限遠」ともいう)場合や、表面が鏡面、もしくは光沢な黒色等である場合は、十分な量(光量)の(十分なエネルギーの)反射波を検知できず、距離値が得られない可能性がある。例えば、黒い光沢のある車体を持つ車両では、黒い車体部分は、反射波を検知できる距離値が得られない可能性がある。また、雨が降ることで、路面が濡れて水たまりが生じた場合には、その水面では、照射したレーザー光が鏡面反射するので、以降は、その方向からの反射光は戻ってこなくなり場合があり、その場合、距離値が無限遠値となる。また、レーザー光は、有限の大きさのスポット光である。そのため、手前側の物体のエッジにスポット光の一部が照射し、その他の部分が物体の後ろ側の物体に照射した場合には、反射光は、手前側と、後ろ側の物体それぞれから戻ってくる。この場合、戻り時間と反射光量でプロットしたグラフでは二山分布になる。このような反射光量の戻り時間から距離値を求めたとしても、距離値の算出エラー(無限遠)になったり、二山分布の中央の距離値(有限距離のノイズ値)になったりする可能性がある。以下、本実施形態においては、このような無限遠の距離値(無限遠値)、または物体のエッジにレーザー光が照射することにより、算出エラーになったり、不正確な距離値になったりした場合を「異常値」として定義する。
 (解析装置200)
 図1を再び参照し、解析装置200について説明する。解析装置200は、例えば、コンピューターであり、CPU、メモリ(半導体メモリ、磁気記録媒体(ハードディスク等))、入出力部(ディスプレイ、キーボード、等)、通信I/F(Interface)等を備える。通信I/Fは、外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394などの規格によるネットワークインターフェースが用いてもよい。また、通信には、Bluetooth(登録商標)、IEEE802.11、4Gなどの無線通信インターフェースを用いてもよい。
 解析装置200は、対象領域変換部210、距離情報解析部220、出力制御部230として機能する。また、解析装置200は、予め外部の学習機で生成した学習済みモデル290をメモリに保存する。対象領域変換部210は、この学習済みモデル290を用いて、対象領域変換処理を行う。学習済みモデル290は、撮影領域700を移動する物体のうち、行動追跡、または行動監視の対象とする特定の物体を対象物(以下、「検出対象物」という)として、機械学習したものである。より具体的には、学習済みモデル290は、検出対象物を距離画像撮影装置100で撮影して得られた距離画像を、複数準備し、この距離画像を用いて機械学習したものである。この学習済みモデル290は、入力された距離画像から所定の検出対象物が含まれる検出対象部分を抽出し、抽出した検出対象部分の少なくとも一部の画素の距離値を他の距離値に置換した距離画像を出力するために用いられる。
 検出対象物としては、人、車両、および機械の少なくとも1つが含まれる。検出対象物は、物体検知システム10が用いられる状況(撮影領域)により、適宜設定される。図3に示すように、一般道路61を撮影領域700として物体検知システム10を用いるのであれば、検出対象物には、人、および車両(普通自動車、大型車両(トラック))が含まれ、学習済みモデル290は、これらの検出対象物を撮影した距離画像を用いて機械学習する。以下に、おいては、このような人、および車両を検出対象物として説明する。別の例として、工事現場を撮影領域とするのであれば、検出対象物には、人、および機械としての重機、または建機が含まれる。また、製造工場内を撮影領域とするのであれば、検出対象物には、人(作業者)、フォークリフト(車両)、および機械としてのクレーン、組立装置、またはベルトコンベアー、等が含まれる。
 (対象領域変換部210)
 対象領域変換部210は、学習済みモデル290を用いて、距離画像撮影装置100が、生成した距離画像(以下、「距離画像1」、または「原距離画像」ともいう)から、検出対象物が含まれる領域である「検出対象部分」を抽出する。具体的には、距離画像から、検出対象として人、または車両の輪郭(外周)を検出し、この輪郭に囲まれる領域を検出対象部分として抽出する。そして、検出対象部分に異常値の画素が含まれている場合、この画素を、所定の距離値へ置換する。この置換処理における距離値の設定も、学習済みモデル290を用いて行う。対象領域変換部210は、置換処理後の距離画像(以下、「距離画像2」ともいう)は、距離情報解析部220に送られる。
 (距離情報解析部220)
 距離情報解析部220は、置換処理後の距離画像2を用いて、以下に説明する手法により撮影領域700内の物体を認識する。また、距離情報解析部220は、認識した物体の位置情報を用いて異常判定を行う。認識した物体の情報、および異常判定の判定結果は、出力制御部230に送られる。
 物体認識の手法としては、本実施形態では、例えば背景差分法を採用する。この背景差分法では、予め生成し、解析装置200のメモリに保存しておいた背景画像データ(基準背景データともいう)を用いる。
 距離情報解析部220は、検出対象物を含む複数種類の対象物(動体)を認識する機能を有する。距離情報解析部220はメモリに保持している背景画像データと現時点での距離画像とを比較して、差が生じた場合、車両等の何らかの動体(前景の物体)が撮影領域700内に現れたことを認識できる。例えば、背景差分法を用いて、背景画像データと、現時点での距離画像(距離画像データ)とを比較することで、前景データを抽出する。そして抽出した前景データの画素(画素群)を、例えば画素の距離値に応じてクラスタに分ける。そして、各クラスタのサイズを算定する。例えば、垂直方向寸法、水平方向寸法、総面積等を算出する。なお、ここでいう「サイズ」は、実寸法であり、見た目上の大きさ(画角、すなわち画素の広がり)とは異なり、対象物までの距離に応じて画素群の塊が判断される。例えば、距離情報解析部220は算定したサイズが抽出対象の解析対象の動体を特定するための所定のサイズ閾値以下か否か判定する。サイズ閾値は、測定場所や行動解析対象等により任意に設定できる。車両、人を追跡して行動を解析するのであれば、車両、または人の大きさそれぞれの最小値を、クラスタリングする場合のサイズ閾値とすればよい。これにより、落ち葉やビニール袋等のゴミ、または小動物を検知対象から除外できる。特に、本実施形態においては、検出対象物である車両の一例として、黒い車両等の検知が難しい車両が測定空間(撮影領域700)を通過した場合に、車両のボディの距離を測定できず、無限遠の距離値(異常値)の場合であっても、対象領域変換部210による置換処理を行える。置換処理後の距離画像の距離値でクラスタリングすることにより、本来の車両本体の大きさと同等の塊と認識できるので、これらの車両が検知対象外となることを防げ、正しく認識できる。
 また距離情報解析部220は、例えば、以下に説明する異常判定も行う。撮影領域700内の所定エリア(例えば道路61上に設定した立入禁止領域)へ物体の進入判定、この所定エリア(道路61)を通過する物体の移動軌跡の判定の少なくとも1つを行う。また、この各種の判定は、物体の種類を判別し、その判別した種類毎に行うようにしてもよい。例えば、この種別は、人、普通車車両、大型車両(トラック等)、および二輪車がある。この種別判定は、例えば種類毎の特徴(サイズ、形状)が予め解析装置200のメモリに記憶されており、この特徴とマッチングすることにより行う。例えば、異常判定として、人を対象物とした場合には、立入禁止領域に、検出した対象物が位置する場合には、異常判定を行う。また、車両を対象物とした場合には、その移動軌跡として、移動方向、および移動速度を算出する。そして移動方向、または移動速度を所定の基準と比較することにより異常判定を行う。例えば、逆走、または一時停止禁止道路での停止を判定できる。
 (出力制御部230)
 出力制御部230は、距離情報解析部220の検出結果、および判定結果(異常判定)に応じて、出力部300にアラート情報を出力する。例えば、人の立入禁止領域への侵入により異常判定した場合には、出力部300として、撮影領域700周辺に配置されたスピーカー、または液晶ディスプレイから警告を行うためのアラート情報を、出力部300へ出力する。また、車両の逆走により異常判定した場合には、出力部300として管理者のPC端末に、状況を示すアラート情報を送信する。
 (学習済みモデル290の構築方法)
 次に学習済みモデル290の構築方法について説明する。最初に学習に用いる距離画像について説明し、その後、この距離画像を用いた学習済みモデル290の学習について説明する。
 (1.使用するサンプル画像の準備)
 図4、図5を参照し、準備する学習サンプルデータについて説明する。図4は、学習済みモデル290の学習に用いる学習サンプルデータを生成する手順を示すフローチャートである。図5は、原距離画像、および原距離画像から生成した加工距離画像を説明するための模式図である。
 (ステップS101)
 距離画像撮影装置100が測定することにより得られた距離画像を多数準備する。この距離画像は、オリジナルの距離画像(原距離画像)である。図5(a)は、原距離画像の例である。図5(a)では、各画素の距離値に応じた画像濃度に変換して可視化した画像を表示している。
 また、ここで取得したサンプル数は、原距離画像1~nまでのn枚であるとする。n枚は、例えば数百~数万であり、多い方が精度の点で好ましいが、対象とする所定の検出対象物の種類数、等に応じて適宜設定できる。なお、この準備する距離画像それぞれには、1つの被写体(検出対象物)が含まれていることが好ましいが、2つ以上の検出対象物が含まれていてもよい。例えば、この原距離画像1~nは、1台以上の車両81が道路61上を走行しているときに距離画像撮影装置100で撮影して得られたものである。また、この距離画像には、異常値の画素が含まれていない距離画像であることが好ましい。
 さらに、この距離画像は、学習済みモデル290を利用する状況と同じ撮影条件で得られた距離画像が好ましい。すなわち、図3の撮影領域700に配置された距離画像撮影装置100で得られた距離画像を用いる。しかしながら、対象とする同様の検出対象物が含まれるのであれば、自装置、または他の距離画像撮影装置100による、他の撮影領域を撮影することにより得られた距離画像を用いてもよい。
 なお、撮影環境(天候、明度)は、屋外において、複数の異なる天候条件が含まれていることが好ましい。例えば、雨、雪、霧、晴天、昼間、夜間の天候条件下、または撮影環境下で撮影され、得られた距離画像である。また、撮影条件としては、同じ撮影領域700を1台の距離画像撮影装置100で、撮影した場合であっても、この距離画像撮影装置100の設定位置、設置角度を複数水準で変更するようにしてもよい。例えば、距離画像撮影装置100の柱62への設置高さや、向き(チルト(tilt)、ヨー(yaw))を複数水準で変更する。
 (ステップS102)
 距離情報解析部220の上述した物体を認識する機能を用いて、ステップS101で準備した、原距離画像1~原距離画像nそれぞれにおいて、検出対象物が含まれる検出対象部分を抽出し、その対象物を定義するラベルを付与する。図5(b)の図は、図5(a)に対して、抽出した検出対象部分を示す枠、およびラベルの例を示した模式図である。なお、この処理は、既に構築した(改善途中の)学習済みモデル290があればこれを利用してもよい。
 (ステップS103)
 ステップS102で抽出した、検出対象部分の内部の画素の少なくとも一部の画素の距離値を異常値に変更する加工処理を行う。加工処理後の画像を加工距離画像(加工後距離画像)という。加工後の距離画像の枚数は、加工距離画像1~加工距離画像nまでのn枚であり、原距離画像と同じである。
 この加工処理は、物体検知システム10の距離情報解析部220が所定のアルゴリズムにより自動的に行うようにしてもよい。例えば、検出対象部分に含まれる画素をランダムに異常値に変更する。または、ユーザーがユーザーインターフェースを用いて、手入力により検出対象部分の一部、または全部を異常値に変更してもよい。さらに、距離情報解析部220、およびユーザーの双方で生成された加工距離画像を用いてもよい。
 また、実際の距離画像撮影装置100から得られた距離画像においては、対象の全ての部位が異常値になるケースはほとんどない。例えば、車両においては、バンパーや高輝度反射板など反射率の高い部位を含んでいることが多いためそのような部位では距離値が得られる。このような部位においては、異常値に置換させる対象からは、除外することが好ましい。
 (ステップS104)
 ステップS101からステップS103で準備したデータを用いてn組の学習サンプルデータを準備する。例えば、加工距離画像i、原距離画像i、および原距離画像iに付与したラベルの3個のデータを一組とする(iは、1~nの任意の数値)。そして、これらの組み合わせでn組の学習サンプルデータを準備する。なお、後述するように加工距離画像1~nは入力用の教師データとして用いられ、原距離画像1~n、およびそれぞれのラベルは、出力用の教師データとして用いられる。
 (2.学習済みモデル290の構築(または改善更新))
 図6は、学習済みモデルの機械学習方法の処理を示すフローチャートである。図6の処理においては、図4の処理で準備された学習サンプルデータを用いる。また、以下においては、学習機(図示せず)において、パーセプトロンを組み合わせて構成したニューラルネットワークを用いた学習方法について説明するが、これに限られず、教師あり学習であれば、種種の手法を取り得る。例えば、例えば、ランダムフォレスト、サポートベクターマシン(SVM)、ブースティング(Boosting)、ベイジアン(Bsysian)ネットワーク線形判別法、非線形判別法、等を適用できる。また、以下の学習方法では、学習機として、CPUおよびGPU(Graphics Processing Unit)のプロセッサを用いたスタンドアロンの高性能のコンピューター、またはクラウドコンピューターを用いて行える。
 (ステップS201)
 学習機は、教師データである学習サンプルデータを読み込む。最初であれば1組目(加工距離画像1、原距離画像1、そのラベル)の学習サンプルデータを読み込み、i回目であれば、i組目(加工距離画像i、原距離画像i、そのラベル)の学習サンプルデータを読み込む。
 (ステップS202)
 学習機は、読み込んだ学習サンプルデータのうち入力データ(加工距離画像i)をニューラルネットワークに入力する。
 (ステップS203)
 学習機は、ニューラルネットワークの推定結果、すなわち推定された検出対象部分に付与したラベル、およびこのラベル付けされた検出対象部分内の画素の置換結果を、教師データ(原距離画像i、およびそのラベル)と比較する。
 (ステップS204)
 学習機は、比較結果からパラメータを調整する。例えば、バックプロパゲーション(Back-propagation、誤差逆伝搬法)という処理を行うことにより、比較結果の誤差が小さくなるように、パラメータを調整し、更新する。
 (ステップS205)
 学習機は、1~n枚目まで全データの処理が完了すれば(YES)、処理をステップS206に進め、完了していなければ(NO)、処理をステップS201に戻し、次の学習サンプルデータを読み込み、ステップS201以下の処理を繰り返す。
 (ステップS206)
 学習機は、これまでの処理で構築された学習済みモデル290を記憶して終了する(エンド)。
 (学習済みモデル290を用いた物体検知処理)
 以下、図7、図8を参照し、図6で構築された学習済みモデル290を用いた、物体検知処理について説明する。図7は、物体検知システム10が実行する物体検知処理を示すフローチャートである。図8は、距離画像1(置換処理前)、および距離画像2(置換処理後)を示す模式図である。
 (ステップS301)
 物体検知システム10の解析装置200は、学習機から、図6の処理で構築された学習済みモデル290を取得し、自装置のメモリに読み込む。
 (ステップS302)
 対象領域変換部210は、距離画像撮影装置100が撮影した距離画像(距離画像1)を取得し、学習済みモデル290を用いて検出対象部分を抽出する。図8(a)は、この距離画像1の例を示す模式図である。図8(a)の例では、中央を歩行する人(検出対象)のシルエット(検出対象部分)に下半身が、黒い材料等の理由により低反射率であるために、その下半身からは、距離値が得られていない、すなわち、検出対象部分に含まれる一部の画素の距離値は異常値である。
 (ステップS303)
 対象領域変換部210は、検出対象部分の中から、異常値の画素を抽出する。なお、このステップS303処理は、抽出用の学習済みモデル290を用いて処理してもよい。
 (ステップS304)
 対象領域変換部210は、学習済みモデル290を用いて、検出対象部分の中の異常値の画素に対する置換処理を実行する。図8(b)は、図8(a)に対して置換処理した後の距離画像2の例を示す模式図である。図8(b)では、下半身の部分は、人物の上半身と略同じ距離値に置換されている。
 (ステップS305)
 対象領域変換部210は、ステップS304で、異常値の画素を置換処理した後の距離画像を生成する(距離画像2)。
 (ステップS306)
 距離情報解析部220は、ステップS305で得られた、距離画像2を用いて、物体検出処理、および検出した物体の位置情報を用いて異常判定(警告判定)を行う。例えば、上述のように、立入禁止領域に、検出対象物として検出した人が位置する場合には、異常判定を行う。また、車両を対象物とした場合には、その移動軌跡として、移動方向、および移動速度を算出する。そして移動方向、または移動速度を所定の基準と比較することにより異常判定を行う。
 (ステップS307)
 出力制御部230は、ステップS306による異常判定に応じて、発報処理を行う。例えば、立入禁止領域への人の立ち入りにより異常判定した場合には、撮影領域700周辺に配置された、出力部300としてのスピーカーから警告音を発する。
 このように本実施形態に係る機械学習方法においては、図4、図5で説明したように、原距離画像の検出対象部分に含まれる少なくとも一部の画素の距離値を異常値に変更する加工が行われた加工距離画像を入力とし、検出対象部分に付与したラベルと、原距離画像を出力として教師あり学習を行うことにより、学習済みモデルを構築する。このような加工距離画像を用いることで、安定した性能を発揮できる学習済みモデルを構築できる。また、このような学習済みモデルを用いることで、低反射率の物体(対象物)等の物体においても、異常値の画素を有限な画素値に置換でき、ひいてはこの置換後の距離画像を用いて物体の検知が高精度で行える。
 また、本実施形態に係る物体検知用の制御プログラム、および物体検知システムは、上述の学習済みモデルを用いて、取得した距離画像から、検出対象部分を抽出し、抽出した検出対象部分に含まれる画素から異常値を示す画素を抽出し、抽出した異常値を示す画素について距離値を置換する。これにより得られた置換処理後の距離画像を用いることで物体の検知を高精度に行える。
 以上に説明した物体検知システム10の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種種改変することができる。また、一般的な物体検知システム10が備える構成を排除するものではない。
 また、本実施形態においては、学習済みモデルの学習用の学習サンプルデータとして、原距離画像の検出対象部分に含まれる少なくとも一部の画素の距離値を異常値に変更する加工が行われた加工距離画像を用いたが、これに限られない。例えば検出対象物が人である場合に、人の前方に柱や、他の人等、遮蔽する対象物を追加する加工処理を行うことで、加工距離画像を生成し、この加工距離画像も学習サンプルデータとして用いてもよい。このようにすることで、遮蔽物の置換処理用の学習を行える。
 上述した実施形態に係る物体検知システム10における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等の非一時的なコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、装置の一機能としてその装置のソフトウエアに組み込まれてもよい。
 本出願は2018年11月22日に出願された日本特許出願(特願2018-219518号)に基づいており、その開示内容は、参照され、全体として組み入れられている。
10 物体検知システム
100 距離画像撮影装置
200 解析装置
 210 対象領域変換部
 220 距離情報解析部
 230 出力制御部
 290 学習済みモデル
300 出力部

Claims (13)

  1.  コンピューターが行う機械学習方法であって、
     対象物までの距離値を示す複数の画素で構成された距離画像を取得し、該距離画像をオリジナルの原距離画像とした場合に、該原距離画像から、所定の検出対象物が含まれる検出対象部分を抽出するとともに、前記検出対象部分に、前記検出対象物に対応するラベルを付与するステップ(a)と、
     前記原距離画像に対して、該原距離画像の前記検出対象部分に含まれる少なくとも一部の画素の距離値を異常値に変更する加工が行われた加工距離画像を取得するステップ(b)と、
     入力を前記加工距離画像、出力を、前記ラベルと前記原距離画像として教師あり学習を行うことにより、入力された距離画像から所定の前記検出対象物が含まれる検出対象部分を抽出し、抽出した該検出対象部分の少なくとも一部の画素の距離値を他の距離値に置換した距離画像を出力するための学習済みモデルを構築するステップ(c)と、
    を含む、機械学習方法。
  2.  前記検出対象物には、人物、車両、および機械の少なくとも1つを含む、請求項1に記載の機械学習方法。
  3.  画素の前記異常値は、無限遠値、もしくは無限遠を示す識別値、または有限距離のノイズ値である、請求項1、または請求項2に記載の機械学習方法。
  4.  複数の前記原距離画像は、それぞれ複数の異なる天候条件下で生成された距離画像を含む、請求項1から請求項3のいずれかに記載の機械学習方法。
  5.  対象物までの距離値を示す複数の画素で構成された距離画像から所定の検出対象物が含まれる検出対象部分を抽出するとともに、該検出対象部分の画素の距離値を他の距離値に置換するよう、コンピューターを機能させるための学習済みモデルであって、
     前記距離画像をオリジナルの原距離画像とした場合に、該原距離画像から、所定の検出対象物が含まれる検出対象部分を抽出するとともに、前記検出対象部分に前記検出対象物に対応するラベルを付与し、
     前記原距離画像に対して、該原距離画像の前記検出対象部分に含まれる少なくとも一部の画素の距離値を異常値に変更する加工が行われた加工距離画像を取得し、
    入力を前記加工距離画像、出力を、前記ラベルと前記原距離画像として教師あり学習された学習済みモデル。
  6.  物体検知用の制御プログラムであって、
     請求項5の学習済みモデルであって、入力された距離画像から所定の検出対象物が含まれる検出対象部分を抽出し、抽出した該検出対象部分の少なくとも一部の画素の距離値を他の距離値に置換した距離画像を出力するための学習済みモデルを読み込むステップ(a)と、
     距離画像を取得するステップ(b)と、
     前記学習済みモデルを用い、取得した距離画像から、前記検出対象部分を抽出するステップ(c)と、
     前記検出対象部分に含まれる画素において、異常値を示す画素を抽出するステップ(d)と、
     前記抽出した異常値を示す画素について、前記学習済みモデルを用いて、距離値を置換するステップ(e)と、
     前記距離値を置換した距離画像を出力するステップ(f)と、
    を含む処理をコンピューターに実行させるための制御プログラム。
  7.  前記ステップ(d)は、前記学習済みモデルを用いて行う、請求項6に記載の制御プログラム。
  8.  前記ステップ(f)では、表示部に置換した前記距離画像に基づく画像を表示する、請求項6、または請求項7に記載の制御プログラム。
  9.  前記ステップ(b)で取得した前記距離画像は、撮影領域を撮影し、対象物までの距離値を示す複数の画素で構成された距離画像を生成する距離画像撮影装置から取得した距離画像であり、
     前記処理は、さらに、前記ステップ(e)で置換した置換処理後の前記距離画像を用いて、前記検出対象物の前記撮影領域における位置情報に基づく異常判定を行うステップ(g)を含む、請求項6から請求項8のいずれかに記載の制御プログラム。
  10.  撮影領域を撮影し、対象物までの距離値を示す複数の画素で構成された距離画像を生成する距離画像撮影装置と、
     前記距離画像撮影装置が、生成した距離画像を、請求項5に記載の学習済みモデルを用いて処理し、距離画像から所定の検出対象物が含まれる検出対象部分を抽出して、抽出した該検出対象部分の画素の距離値を他の距離値に置換した置換処理後の距離画像を生成する対象領域変換部と、
     置換処理後の前記距離画像を用いて、前記検出対象物の前記撮影領域における位置情報に基づく異常判定を行う、距離情報解析部と、
     前記距離情報解析部で、前記異常判定がなされた場合に、発報情報を出力する出力部と、
    を備える物体検知システム。
  11.  前記距離情報解析部は、前記撮影領域内の所定領域へ、前記検出対象物が侵入した場合に、前記異常判定を行う、請求項10に記載の物体検知システム。
  12.  前記距離情報解析部は、前記撮影領域内における、所定の対象物の移動方向、または移動速度に基づいて、前記異常判定を行う、請求項10、または請求項11に記載の物体検知システム。
  13.  前記出力部は、前記撮影領域内に設けられた警報装置、または、前記撮影領域を管理する管理者の端末にアラート情報を出力する、請求項10から請求項12のいずれかに記載の物体検知システム。
PCT/JP2019/030323 2018-11-22 2019-08-01 機械学習方法、学習済みモデル、制御プログラム、および物体検知システム WO2020105225A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020558083A JPWO2020105225A1 (ja) 2018-11-22 2019-08-01 機械学習方法、学習済みモデル、制御プログラム、および物体検知システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-219518 2018-11-22
JP2018219518 2018-11-22

Publications (1)

Publication Number Publication Date
WO2020105225A1 true WO2020105225A1 (ja) 2020-05-28

Family

ID=70773995

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/030323 WO2020105225A1 (ja) 2018-11-22 2019-08-01 機械学習方法、学習済みモデル、制御プログラム、および物体検知システム

Country Status (2)

Country Link
JP (1) JPWO2020105225A1 (ja)
WO (1) WO2020105225A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077786A (ja) * 2016-11-11 2018-05-17 株式会社東芝 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077786A (ja) * 2016-11-11 2018-05-17 株式会社東芝 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHAO DONG ET AL.: "Compression Artifacts Reduction by a Deep Convolutional Network", 2015 IEEE INTERNATIONAL CONFERENCE OR COMPUTER VISION(ICCV, 13 December 2015 (2015-12-13), pages 576 - 584, XP032866378, DOI: 10.1109/ICCV.2015.73 *
JIWON KIM ET AL.: "Accurate Image Super-Resolution Using Very Deep Convolutional Networks", 2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR, 30 June 2016 (2016-06-30), pages 1646 - 1654, XP055570210, DOI: 10.1109/CVPR.2016.182 *
JONATHAN LONG ET AL.: "Fully convolutional networks for semantic segmentation", 2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR, 12 June 2015 (2015-06-12), pages 3431 - 3440, XP055573743, DOI: 10.1109/CVPR.2015.7298965 *
KAIMING HE ET AL.: "Deep Residual Learning for Image Recognition", 2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN REGOGNITION(CVPR, 30 June 2016 (2016-06-30), pages 770 - 778, XP055536240, DOI: 10.1109/CVPR.2016.90 *

Also Published As

Publication number Publication date
JPWO2020105225A1 (ja) 2021-10-14

Similar Documents

Publication Publication Date Title
US10345447B1 (en) Dynamic vision sensor to direct lidar scanning
US10445599B1 (en) Sensor system augmented with thermal sensor object confirmation
US10145951B2 (en) Object detection using radar and vision defined image detection zone
Jebamikyous et al. Autonomous vehicles perception (avp) using deep learning: Modeling, assessment, and challenges
US20190387185A1 (en) Thermal imager with enhanced processing
KR101829556B1 (ko) 객체 움직임의 라이더 기반 분류 기법
WO2020146428A1 (en) Resolution of elevation ambiguity in one-dimensional radar processing
KR102151815B1 (ko) 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치
CN111045000A (zh) 监测系统和方法
Wisultschew et al. 3D-LIDAR based object detection and tracking on the edge of IoT for railway level crossing
WO2020105527A1 (ja) 画像解析装置、画像解析システム、および制御プログラム
KR20210050081A (ko) 객체 인식 방법 및 이를 수행하는 객체 인식 장치
WO2021256223A1 (ja) 物体検知システム及び物体検知方法
Hammer et al. Automated object detection and tracking with a flash LiDAR system
JP7201002B2 (ja) 画像処理装置、制御プログラム、および画像処理方法
JP7073949B2 (ja) 避難誘導装置、避難誘導システム、および制御プログラム
WO2020105225A1 (ja) 機械学習方法、学習済みモデル、制御プログラム、および物体検知システム
WO2020105226A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
WO2020008685A1 (ja) 情報報知装置、情報報知装置用プログラム、および情報報知システム
JP6988797B2 (ja) 監視システム
JP2019105550A (ja) 物体検出装置、物体検出装置の制御方法、および物体検出装置の制御プログラム
JP7184087B2 (ja) 物体検出システム、および物体検出方法
Hammer et al. Person detection and tracking with a 360 lidar system
KR20230109406A (ko) 열화상 카메라와 라이다 센서 융합 기반 객체 탐지 장치 및 방법
CN114581889A (zh) 一种融合方法、装置、设备、介质及产品

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19886729

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020558083

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19886729

Country of ref document: EP

Kind code of ref document: A1