WO2018066352A1 - Image generation system, program and method, and simulation system, program and method - Google Patents

Image generation system, program and method, and simulation system, program and method Download PDF

Info

Publication number
WO2018066352A1
WO2018066352A1 PCT/JP2017/033729 JP2017033729W WO2018066352A1 WO 2018066352 A1 WO2018066352 A1 WO 2018066352A1 JP 2017033729 W JP2017033729 W JP 2017033729W WO 2018066352 A1 WO2018066352 A1 WO 2018066352A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
image generation
position information
shading
Prior art date
Application number
PCT/JP2017/033729
Other languages
French (fr)
Japanese (ja)
Inventor
福原 隆浩
中西 康之
隆 河原
Original Assignee
株式会社アドバンスド・データ・コントロールズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017092950A external-priority patent/JP6548691B2/en
Application filed by 株式会社アドバンスド・データ・コントロールズ filed Critical 株式会社アドバンスド・データ・コントロールズ
Publication of WO2018066352A1 publication Critical patent/WO2018066352A1/en
Priority to US16/367,258 priority Critical patent/US20190236380A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention generates a virtual image of a near-infrared sensor or a LiDAR laser light sensor, and uses the virtual image to simulate a recognition function module for an image that changes with displacement of vehicle position information, a simulation program, and
  • the present invention relates to a simulation method.
  • an in-vehicle sensor In order to recognize and control the situation around the outside with an in-vehicle sensor, it is possible to determine a plurality of obstacles around the host vehicle or a plurality of types of moving bodies such as vehicles, bicycles, pedestrians, and their positions and speeds. It is necessary to detect the information. Furthermore, it is necessary to determine the meaning of the paint such as the lane marker and the stop line on the road and the meaning of the sign when the vehicle travels. As such an in-vehicle sensor that detects external information around the host vehicle, an image recognition technique using an image sensor of a camera has been considered effective.
  • ⁇ Stereo camera The distance is calculated by using the principle of triangulation by using two cameras in the same way as the human eye ⁇
  • Infrared depth sensor Irradiation of an infrared pattern, and the reflection is photographed with an infrared camera Calculate the distance from the deviation (phase difference) of the sensor.
  • -Ultrasonic sensor Calculate the distance from the time required to transmit the ultrasonic wave and receive the reflected wave.
  • -Millimeter wave radar With the same mechanism as the ultrasonic wave. Calculate distance from time taken to transmit millimeter wave radar and receive reflected wave ⁇ LiDAR (Light Detection and Ranging): This is the same mechanism as ultrasonic sensor and millimeter wave radar. use.
  • LiDAR Light Detection and Ranging
  • the distance is calculated from the time taken to receive the reflected wave (TOF: Time of Flight).
  • TOF Time of Flight
  • ⁇ Infrared ray depth sensors and ultrasonic sensors are excellent in terms of inexpensiveness, but they are greatly attenuated by distance. Therefore, when the distance to the object is several tens of meters or more, accurate measurement is difficult or measurement itself is impossible. In that respect, millimeter-wave radar and LiDAR are not easily attenuated even over long distances, and therefore high-precision measurements are possible over long distances. However, there is a problem that the device is expensive and difficult to downsize, but it is considered that the mounting on the vehicle will be accelerated by the progress of research and development in the future.
  • the present invention solves the above problems, and relates to improvement of recognition rate for other vehicles around the host vehicle, obstacles on the road, objects such as pedestrians.
  • An object is to improve the reality of vehicle running tests and sample collection by artificially generating images that are very similar to live-action images under conditions that are difficult to reproduce.
  • Another object of the present invention is to construct a plurality of different types of sensors in a virtual environment and generate each video using CG technology. Furthermore, it aims at providing the simulation system, simulation program, and simulation method of the synchronous control using the produced
  • the present invention provides a system, a program, and a method for generating a virtual image input to a sensor means as computer graphics,
  • a scenario creation unit for creating a scenario relating to the arrangement and behavior of an object present in the virtual image;
  • a 3D modeling unit that performs modeling for each object based on the scenario;
  • a 3D shading unit that performs shading for each model generated by the modeling unit and generates a shading image for each model;
  • a component extraction unit that extracts and outputs a predetermined component included in the shading image as a component image;
  • a depth image generation unit that generates a depth image in which a depth is defined based on information on a three-dimensional shape of each object in the component image; It is provided with.
  • the component is preferably an R component of the RGB image. Moreover, in the said invention, it is preferable to further provide the gray scale conversion part which makes the said component gray scale.
  • the present invention is a system, program, and method for generating a virtual image input to a sensor means as computer graphics,
  • a scenario creation unit for creating a scenario relating to the arrangement and behavior of an object present in the virtual image;
  • a 3D modeling unit that performs modeling for each object based on the scenario;
  • a 3D shading unit that performs shading for each model generated by the modeling unit and generates a shading image for each model;
  • a depth image generation unit that generates a depth image in which a depth is defined based on information on a three-dimensional shape of each object;
  • the shading part is A function of performing shading only on a predetermined portion of the model from which light rays emitted from the sensor means are reflected;
  • a function of outputting only the three-dimensional shape of the predetermined part The depth image generation unit generates a depth image for each object based on information on a three-dimensional shape of the predetermined part.
  • the scenario creating means includes means for determining three-dimensional shape information of the object, operation information of the object, material information of the object, parameter information of the light source, camera position information, and sensor position information. It is preferable.
  • a one-component image and a depth image based on a real image are acquired as teacher data, and a neural network is obtained by backpropagation based on the component image and the depth image generated by the depth image generation unit and the teacher data. It is preferable to further include deep learning recognition learning means for performing the training.
  • an irradiation image and a depth image based on a live-action image are acquired as teacher data, and an image obtained as a result of shading by the shading unit, the depth image generated by the depth image generation unit, and a background based on the teacher data It is preferable to provide deep learning recognition learning means for training a neural network by propagation.
  • a TOF calculation unit that calculates the time required for receiving the reflected wave from the irradiation of light rays as TOF information
  • a distance image generation unit that generates a distance image based on the TOF information by the TOF calculation unit; It is preferable to further include a comparison and evaluation unit that compares the degree of coincidence between the distance image generated by the distance image generation unit and the depth image generated by the depth image generation unit.
  • the modeling unit has a function of acquiring a comparison result by the comparative evaluation unit as feedback information, adjusting a condition in the modeling based on the acquired feedback information, and performing modeling again.
  • the feedback information acquisition based on the modeling and the comparison is repeatedly performed until the matching error in the comparison result by the comparison evaluation unit becomes smaller than a predetermined threshold value.
  • the present invention is a simulation system, program, and method of a recognition function module for an image that changes with displacement of vehicle position information, Position information acquisition means for acquiring position information of the vehicle relative to surrounding objects based on a detection result by the sensor means; Based on the position information acquired by the position information acquisition means, an image generation means for generating an image for simulation that reproduces the area specified by the position information; Image recognition means for recognizing and detecting a specific object from the simulation image generated by the image generation means using the recognition function module; Position information calculation means for generating a control signal for controlling the operation of the vehicle using the recognition result in the image recognition means, and for changing / correcting the position information of the own vehicle based on the generated control signal; Position information acquisition means, the image generation means, the image recognition means, and synchronization control means for synchronously controlling the position information calculation means are provided.
  • the synchronization control means includes: Means for packetizing and sending the position information in a specific format; Means for transmitting packetized data via a network or a transmission bus in a specific device; Means for receiving and de-packetizing the packet data; It is preferable to further comprise means for inputting the de-packetized data and generating an image.
  • the synchronization control means transmits and receives signals transmitted and received between the means by using UDP (User Datagram Protocol).
  • UDP User Datagram Protocol
  • the vehicle position information preferably includes any of XYZ coordinates of the road surface absolute position coordinates of the vehicle, road surface absolute position coordinates XYZ coordinates of the tire, vehicle Euler angles, and wheel rotation angles.
  • the image generation means preferably includes means for synthesizing the three-dimensional shape of the vehicle by computer graphics.
  • the vehicle is set for a plurality of vehicles, and the recognition function module is operated for each vehicle,
  • the position information calculation means uses the information of the recognition result by the recognition means to change / correct the position information of each vehicle for a plurality of vehicles,
  • the synchronization control means executes synchronization control for the plurality of vehicles with respect to the position information acquisition means, the image generation means, the image recognition means, and the position information calculation means.
  • the image generating means preferably includes means for generating a different image for each sensor means.
  • the simulation system includes means for generating images corresponding to a plurality of sensors, and also includes recognition means corresponding to each generated image, and using the plurality of recognition results, It is preferable that a means for performing the synchronization control is provided.
  • the program and the method the invention of the image generation system, the image generation program and the image generation method is provided as the image generation means, It is preferable that the depth image generated by the depth image generation unit of the image generation system is input to the image recognition unit as the simulation image.
  • a learning sample is generated by artificially generating an image very similar to a real image such as CG.
  • the number can be increased, and the recognition rate can be improved by increasing the efficiency of learning.
  • the present invention uses a means for generating and synthesizing a highly realistic CG image that is very similar to a live-action image based on a simulation model based on the displacement of the vehicle position information. It is possible to artificially generate an infinite number of images to which a non-existent environment or light source is added.
  • This generated CG image can be input to the recognition function module in the same way as a conventional camera image, and the camera image can be processed in the same manner to test whether the target object can be recognized and extracted.
  • the application field of the present invention includes an experimental apparatus, a simulator, and a software module and hardware device (for example, a camera mounted on a vehicle, an image sensor, and a three-dimensional shape around the vehicle for automatic driving operation of an automobile.
  • Machine learning software such as deep learning, deep learning, and so on.
  • the CG technology that realizes a real image in real time and the synchronization technology of synchronization control are provided, it can be widely applied in fields other than the automatic driving operation of automobiles. For example, surgical simulators, military simulators, safe driving tests such as robots and drones, etc. are promising as fields of use.
  • FIG. 1 is a block diagram illustrating an overall configuration of an image generation system that generates a virtual image according to a first embodiment. It is explanatory drawing which shows the process which actually drive
  • FIG. 1 is a block diagram for generating a near-infrared virtual image.
  • the near-infrared virtual image generation system is configured such that various virtual modules are constructed on an arithmetic processing device such as a CPU provided in a computer by executing software installed in the computer, for example.
  • This system is implemented.
  • module refers to a functional unit that is configured by hardware such as an apparatus or a device, software having the function, or a combination thereof, and achieves a predetermined operation.
  • the near-infrared virtual image generation system includes a scenario creation unit 10, a 3D modeling unit 11, a 3D shading unit 12, an R image grayscale conversion unit 13, and a depth image generation unit 14. ing.
  • the scenario creation unit 10 is a means for creating scenario data indicating what CG is to be created.
  • the scenario creation unit 10 includes means for determining three-dimensional shape information of an object, operation information of the object, material information of the object, parameter information of the light source, camera position information, and sensor position information.
  • CG used for automatic driving
  • many objects such as roads, buildings, vehicles, pedestrians, bicycles, roadside belts, traffic lights, etc. exist in the virtual space. It is defined in which position (coordinate, altitude) the object is located, in what direction and how it moves, the position of the virtual camera (viewpoint) in the virtual space, the type of light source, This is data that defines the number, the position and orientation of each, and the movement and behavior of the object in the virtual space.
  • the scenario creation unit 10 first determines what CG image is to be generated. According to the scenario set by the scenario creation unit 10, the 3D modeling unit 11 generates a 3D image.
  • the 3D modeling unit 11 is a module that creates the shape of an object in a virtual space, and sets the coordinates of each vertex constituting the outer shape of the object and the shape of the internal configuration, and an equation that expresses the boundary line / surface of the shape
  • the three parameters are set and a three-dimensional object shape is constructed.
  • the 3D modeling unit 11 models information such as a 3D shape of a road, a 3D shape of a vehicle traveling on the road, and a 3D shape of a pedestrian.
  • the 3D shading unit 12 is a module that generates an actual 3DCG using each 3D model data D101 generated by the 3D modeling unit 11.
  • the 3D shading unit 12 expresses a shadow of an object realized by 3DCG by shading processing, and A stereoscopic and realistic image is generated according to the position and the intensity of light.
  • the R image gray scale conversion unit 13 is a component extraction unit that extracts a predetermined component included in the shading image transmitted from the 3D shading unit 12, and as a gray scale conversion unit that converts the extracted component image into a gray scale. It is a functioning module. Specifically, the R image gray scale conversion unit 13 extracts a component of the R component in the shading image D103 that is an RGB image transmitted from the 3D shading unit 12, as a component image, and extracts the R component of the extracted R component. As shown in FIG. 4, the component image is converted into a gray scale, and a gray scale image D104 (Img (x, y), x: horizontal coordinate value, y: vertical coordinate value) is output.
  • a gray scale image D104 Img (x, y), x: horizontal coordinate value, y: vertical coordinate value
  • FIG. 4 is a black-and-white image obtained by converting a real image obtained by photographing a room with a near-infrared sensor into a gray scale.
  • the depth image generation unit 14 acquires 3D shape data of each object on the screen based on the modeling information D102 of each 3D shape model input from the 3D shading unit 12, and based on the distance to each object.
  • This is a module that generates a depth image 105 (also called depth-map).
  • FIG. 5 is an image in which the above depth image is color-coded according to distance. The red component is stronger as the object is further forward, and the blue component is stronger as it is farther away. Those in the middle position change from yellow to green, and depth information regarding all objects in the screen can be obtained.
  • the near-infrared virtual image generation method of the present invention can be implemented by operating the near-infrared virtual image generation system having the above configuration.
  • the scenario creation unit 10 creates a scenario of what CG is to be created.
  • a scenario such as the position of the camera, the type and number of light sources is created.
  • the scenario creation unit 10 determines what CG image to generate. Next, information such as the 3D shape of the road, the 3D shape of the vehicle traveling on the road, and the 3D shape of the pedestrian is modeled along the scenario set by the scenario creating unit 10.
  • the modeling means for example, a road can be easily realized by using a “high-precision map database”, and a large number of vehicles equipped with an in-vehicle device 1b as shown in FIG.
  • the map is converted into 3D from the collected data, and as shown in (c), each road feature is linked into a database using a vectorized drawing.
  • the 3D modeling unit 11 acquires or generates a required 3D shape model of each target object based on the scenario information D100 created by the scenario creation unit 10. Then, the 3D shading unit 12 generates an actual 3DCG using each 3D model data D101 generated by the 3D modeling unit 11.
  • the R component shading image D103 sent from the 3D shading unit 12 is converted into an R image gray scale as shown in FIG. 4 to obtain a gray scale image D104 (Img (x, y), x: horizontal coordinate value, y: vertical coordinate value) is output.
  • a gray scale image D104 Img (x, y), x: horizontal coordinate value, y: vertical coordinate value
  • modeling information D102 of each 3D shape model is obtained from the 3D shading unit 12, and 3D shape data of each object in the screen is obtained from these pieces of information.
  • the depth image generation unit 14 is obtained.
  • a depth image D105 ( ⁇ (x, y), x: horizontal coordinate value, y: vertical coordinate value) is generated.
  • the grayscale image D104 and the depth image D105 obtained by the above operation are output as output images of the present embodiment, and these two image outputs are used for image recognition.
  • the system according to the present embodiment is realized in FIG. 6, and includes a scenario creation unit 10, a 3D modeling unit 11, a shading unit 15, and a depth image generation unit 16.
  • the shading unit 15 is a module that generates an actual 3DCG using each 3D model data D101 generated by the 3D modeling unit 11, and expresses a shadow of an object realized by the 3DCG by shading processing.
  • a three-dimensional and realistic image is generated according to the position of the light source and the intensity of light.
  • the shading unit 15 in the present embodiment has a laser light irradiation part extraction unit 15a, and the laser light irradiation part extraction unit 15a extracts a 3D shape of only the part irradiated with the laser light to perform shading. Then, the shading image D106 is output. Further, since the reflected light of the laser beam is a light beam that does not have a color component such as RGB in the first place, the shading unit 15 outputs a shaded image D106 that is directly converted into a gray scale.
  • the depth image generation unit 16 acquires 3D shape data of each object on the screen based on the modeling information D102 of each 3D shape model input from the 3D shading unit 12, and the distance to each object This is a module for generating a depth image (also called depth-map) 105 based on.
  • the depth image generation unit 16 in the present embodiment outputs a depth image D108 in which only a portion related to laser light irradiation is extracted by the laser light irradiation partial extraction unit 16a.
  • the LiDAR is a sensor that measures the distance to an object at a long distance by measuring scattered light in response to laser irradiation issued in a pulse form. In particular, it is attracting attention as one of the essential sensors for improving the accuracy of automated driving.
  • basic features of LiDAR will be described below.
  • the laser light used for LiDAR is near-infrared light (for example, a wavelength of 905 nm) with a micro pulse.
  • the scanner and optical meter are composed of a motor, a mirror, a lens, and the like.
  • the light receiver and the signal processing unit receive the reflected light and calculate the distance by signal processing.
  • LiDAR scanning device 114 As means adopted in LiDAR, there is a LiDAR scanning device 114 called a TOF method (Time of Flight), and this LiDAR scanning device 114 is based on a laser driver 114a as shown in FIG. Based on the control, the laser light is output from the light emitting element 114b through the irradiation lens 114c as an irradiation pulse Pl1.
  • the irradiation pulse Pl1 is reflected by the measurement object Ob1, is incident on the light receiving lens 114d as a reflection pulse Pl2, and is detected by the light receiving element 114e.
  • the detection result by the light receiving element 114e is output from the LiDAR scanning device 114 as an electric signal by the signal light receiving circuit 114f.
  • an ultrashort pulse having a rise time of several ns and an optical peak power of several tens of watts is irradiated toward the measurement object, and the ultrashort pulse is reflected by the measurement object and returned to the light receiving element.
  • the basic operation of the LiDAR system is as follows.
  • the laser beam emitted from the LiDAR scanning device 114 and reflected by the rotating mirror 114g is reflected from the laser beam.
  • the laser beam which is swung left and right or rotated by 360 ° and scanned and reflected back is captured by the light receiving element 114e of the LiDAR scanning device 114 again.
  • the captured reflected light is finally obtained as point cloud data PelY and PelX in which the signal intensity corresponding to the rotation angle is shown.
  • the central portion is rotated and irradiated with laser light, and scanning of 360 degrees is possible.
  • the laser beam of the LiDAR sensor since the laser beam of the LiDAR sensor has a strong directivity, it has a property that it can be irradiated only to a part of the screen even when it is irradiated to a far distance. Therefore, in the shading unit 15 shown in FIG. 6, the 3D shape of only the portion irradiated with the laser beam is extracted and shaded by the laser beam irradiation portion extraction unit 15a, and the shading image D106 is output. .
  • the laser light irradiation portion extraction unit 16a outputs a depth image D108 in which only the portion related to laser light irradiation is extracted.
  • FIG. 10 shows an example in which a laser negotiator part is extracted, and a laser beam is emitted in a 360-degree direction from LiDAR attached to the upper part of a running vehicle in the center of the image.
  • the car is detected by the reflected light upon beam irradiation on the upper left side of the screen
  • the pedestrian is detected by the reflected light upon beam irradiation on the upper right side of the screen.
  • the shading unit 15 may generate an image as a result of shading the 3D shape of the automobile shown in FIG. 10 using the 3DCG technology.
  • the RGB image is generated internally and then only the R component is output.
  • the reflected light of the laser beam originally has a color component such as RGB.
  • the shaded image D106 that has been directly grayscaled is output because it is a light beam that does not have.
  • the depth image generation unit 16 generates the depth image D108 for only the reflection portion of the laser light, whereas the depth image described in the first embodiment is the entire screen.
  • the gray scaled shading image D106 and depth image D108 obtained by the above operation are transmitted as output images of the present embodiment. These two image outputs can be used for image recognition and learning of the recognition function.
  • the virtual image system using the near-infrared sensor described in the first embodiment and the virtual image system using the LiDAR sensor described in the second embodiment are automatically operated such as a deep learning recognition system. It is applied to AI recognition technology that is widely used, and virtual environment images in an environment that cannot actually be photographed can be supplied to various sensors.
  • FIG. 11 is a configuration diagram of a deep learning recognition system using a back-propagation type neural network that is currently considered to have the highest performance.
  • the deep learning recognition system according to the present embodiment is roughly configured by a neural network calculation unit 17 and a back propagation unit 18.
  • the neural network calculation unit 17 includes a neural network composed of multiple layers as shown in FIG. 12, and the grayscale image D104 and the depth image D105, which are the outputs shown in FIG. 1, are input to this neural network. The Then, non-linear calculation is performed based on coefficients (608, 610) set in advance in the neural network, and a final output 611 is obtained.
  • the backpropagation unit 18 receives a calculation value D110 that is a calculation result of the neural network calculation unit 17, and uses teacher data (for example, data such as an irradiation image or a depth image based on a real image) to be compared. Error can be calculated with In the system illustrated in FIG. 11, a grayscale image D111 is input as teacher data for the grayscale image D104, and a depth image D112 is input as teacher data for the depth image D105.
  • teacher data for example, data such as an irradiation image or a depth image based on a real image
  • the back-propagation unit 18 performs an operation by the back-propagation method.
  • This back-propagation method calculates how much error there is between the output of the neural network and the teacher data, and reversely propagates the result to calculate again from the output in the input direction.
  • the neural network calculation unit 17 that has received the error value D109 fed back performs a predetermined calculation again and inputs the result to the backpropagation unit 18. The above operations in the loop are executed until the error value becomes smaller than a preset threshold value, and the neural network calculation is terminated when it is determined that the error has sufficiently converged.
  • the coefficient values (608, 610) in the neural network in the neural network calculation unit 17 are determined, and deep learning recognition for an actual image can be performed using this neural network. it can.
  • the deep learning recognition for the output image of the near-infrared image described in the first embodiment is exemplified.
  • the deep learning for the output image of the LiDAR sensor of the second embodiment is performed. Recognition can be handled in exactly the same way.
  • the input image at the left end in FIG. 11 is the shading image D106 and the depth image D108 in FIG.
  • a fourth embodiment of the present invention will be described.
  • a depth image D108 is output from the depth image generation unit 16. How accurate this depth image is as a distance image that actually assumes laser light is very important as an evaluation point of this simulation system.
  • an example in which the present invention is applied to an evaluation system for evaluating this depth image will be described.
  • the depth image evaluation system As shown in FIG. 13, the depth image evaluation system according to the present embodiment is configured as an evaluation unit for the depth image D108 output from the depth image generation unit 16 described above, and includes a TOF calculation unit 19 and a distance. An image generation unit 20 and a comparative evaluation unit 21 are included.
  • the TOF calculation unit 19 is a module that calculates TOF information including the TOF value and the like for the depth image D108 generated by the depth image generation unit 16, and the projection pulse sent from the light source is reflected by the subject, and this This corresponds to a delay time that is a time difference when the reflected pulse is received by the sensor as a received light pulse. This delay time is output from the TOF calculation unit 19 as a TOF value D113.
  • the distance image generation unit 20 acquires the TOF of each point of the laser irradiation portion based on the TOF value D113 calculated by the TOF calculation unit 19, and based on the delay time at each point, the distance L to each point And a distance image D114 in which the distance L to each point is represented by an image.
  • the comparison evaluation unit 21 performs a comparison calculation between the distance image D114 generated by the distance image generation unit 20 and the depth image D108 input from the depth image generation unit 16, and includes a comparison including the degree of coincidence thereof. This module evaluates based on the results. As a comparison method, a generally used absolute value square error or the like can be used. The larger the value of this comparison result, the greater the difference between the two. Evaluating how close the depth image based on 3DCG modeling is to the distance image actually generated assuming the TOF of laser light can do.
  • the operation of the depth image evaluation system having the above-described configuration will be described.
  • the time of TOF is calculated.
  • This TOF is t described in FIG. More specifically, as shown in FIG. 14A, the TOF is reflected by a subject when the laser light is emitted from the light source in the form of a pulse as a light projection pulse. The pulse is received by the sensor as a received light pulse. The time difference at that time is measured. This time difference corresponds to a delay time between the light projection pulse and the light reception pulse, as shown in FIG.
  • the TOF value D113 calculated by the TOF calculation unit 19 in FIG. 6 is output.
  • the distance image generation unit 20 generates the distance image D114 of each point of the irradiation unit image by the above calculation. Thereafter, a comparison calculation is performed between the depth image D108 and the distance image D114.
  • a comparison means a commonly used absolute value square error may be used. The larger the value, the greater the difference between the two.
  • the depth image based on 3D CG modeling is actually the distance image generated assuming the TOF of laser light (this is correct). It is possible to evaluate whether the degree is close.
  • the comparison result D115 may be a numerical value such as an absolute value square error, or may be a signal that both are not approximated after the threshold processing. In the latter case, for example, the result may be fed back to the 3D modeling unit 11 in FIG. By repeatedly executing this processing operation to a predetermined approximate level, it is possible to generate a depth image based on highly accurate 3D-CG.
  • the autonomous driving system is a system such as ADAS (advanced driver system) that detects and avoids the possibility of accidents in advance, and in order to realize the automatic driving of the car, It recognizes the camera video mounted on the vehicle using image recognition technology, detects other vehicles, pedestrians, traffic lights, and other objects, and automatically performs control such as speed reduction and avoidance.
  • ADAS advanced driver system
  • FIG. 15 is a conceptual diagram showing the overall configuration of the simulator system according to the present embodiment.
  • the simulator system according to the present embodiment executes a simulation program for one or a plurality of simulation targets, and executes tests and machine learning of these simulator programs.
  • a simulator server 2 is arranged on a communication network 3, and an information processing terminal 1 a that generates or acquires the position of the own vehicle through the communication network 3 with respect to the simulator server 2.
  • the in-vehicle device 1b is connected.
  • the communication network 3 is an IP network using the communication protocol TCP / IP, and includes various communication lines (telephone lines, ISDN lines, ADSL lines, optical lines such as optical lines, dedicated lines, WCDMA (registered trademark)). ) And 3rd generation (3G) communication systems such as CDMA2000, 4th generation (4G) communication systems such as LTE, and 5th generation (5G) and later communication systems, as well as WiFi (registered trademark) and Bluetooth.
  • a wireless communication network such as (registered trademark) is a distributed communication network constructed by connecting each other.
  • This IP network includes a LAN such as an intranet (in-company network) or a home network based on 10BASE-T or 100BASE-TX.
  • simulator software is installed in the PC 1a. In this case, simulation with a single PC can be performed.
  • the simulation execution unit 205 generates a simulation image that reproduces the area specified by the position information based on the position information generated or acquired by the position information acquisition unit on the client device 1 side and transmitted to the simulator server 2 side.
  • a specific object is recognized and detected from the generated simulation image using a recognition function module.
  • an image generation unit 203 and an image recognition unit 204 are provided.
  • the recognition function module 204a of the image recognition unit here, the neural network calculation unit 17 of the virtual image deep learning recognition system described in the third embodiment can be applied, and as the learning unit 204b, The above-described back propagation unit 18 can be applied.
  • the vehicle position information calculation unit 51 first sends the vehicle position information D02 of the own vehicle to the UDP synchronization control unit 202 according to the timing of the control signal D03 from the UDP synchronization control unit 202.
  • initial data of the vehicle position information calculation unit 51 for example, map data, position information of the own vehicle in the map, and information such as the rotation angle and diameter of the wheel of the vehicle body can be loaded from a predetermined storage device 101.
  • the UDP synchronization control unit 202 and the UDP information transmission / reception unit 206 transmit and receive data between them in cooperation with the client side execution unit 102a on the client device 1 side.
  • the packetized data is transmitted via a network or a transmission bus in a specific device, and the simulator server 2 receives the packet data to be de-packetized (S103), and the de-packetized data D05 is input to the image generation unit 203 of the simulation execution unit 205 to generate a CG image.
  • the UDP information transmission / reception unit 206 transmits / receives packet information D04 in which various data groups including vehicle information are packetized between the devices by the UDP synchronization control unit 202 using UDP (User Datagram Protocol).
  • the vehicle information for example, various information such as XYZ coordinates that are vehicle position information, XYZ coordinates that are tire position information, and Euler angles are mainly used as vehicles.
  • the data D05 necessary for generating the CG image is sent out.
  • the packet information D04 in which various data groups are UDP packets is divided into a packet header and a data body payload by the de-packetizing process in the UDP information transmission / reception unit 206.
  • the exchange of UDP packet data may be performed using a network between distant locations, or may be performed between transmission buses within a single device such as a simulator.
  • Data D05 corresponding to the payload is input to the image generation unit 203 of the simulation execution unit 205 (S104).
  • the image generation unit 203 acquires the position information acquired or calculated by the position information acquisition unit on the client device 1 side as data D05, and is specified by the position information based on the position information.
  • a simulation image in which the region (the landscape based on the latitude / longitude, direction, and field of view on the map) is reproduced by computer graphics is generated (S105).
  • the simulation image D13 generated by the image generation unit 203 is sent to the image recognition unit 204.
  • the image generation unit 203 as a predetermined image generation method, for example, a CG image generation technique using the latest physical rendering (PBR) method is used to generate a realistic image.
  • the recognition result information D06 is input again to the vehicle position information calculation unit 51, and is used, for example, to calculate vehicle position information for determining the next operation of the host vehicle.
  • the image generation unit 203 can generate not only vehicles but also surrounding images, for example, objects such as road surfaces, buildings, traffic lights, other vehicles, and pedestrians, using, for example, the CG technique using the PBR method.
  • This is a title by a game machine such as PlayStation, and since the objects as described above are generated very realistically, it can be understood that the latest CG technology can be sufficiently realized.
  • an image of an object other than the own vehicle is already stored as initial data.
  • an automatic driving simulator a large amount of sample data on highways and ordinary roads is stored in a database, and these data may be used as appropriate.
  • the image recognition unit 204 recognizes and extracts a specific target object as an object from the simulation image generated by the image generation unit 203 using the recognition function module 204a that is a test target or a machine learning target. (S106). If there is no recognized object (“N” in step S107), the process proceeds to the next time frame (S109), and the above processing S101 to S107 is performed until there is no time frame (“N” in step S109). Is repeated ("Y" in step S109).
  • step S107 if a recognized object exists in step S107 (“Y” in step S107), the recognition result by the image recognition unit 204 is recognized as recognition result information D06, and the vehicle position information calculation unit 51 on the client device 1 side. Sent to. Then, the vehicle position information calculation unit 51 on the client device 1 side acquires the recognition result information D06 in the image recognition unit 204 through the UDP information transmission / reception unit 206, and controls to control the operation of the vehicle using the acquired recognition result. A signal is generated, and the position information of the host vehicle is changed / corrected based on the generated control signal (S108).
  • the simulation image D13 which is a CG image generated here, is input to the image recognition unit 204 to perform object recognition and detection using a recognition technique such as deep learning as described above.
  • the obtained recognition result is given by area information on the screen (for example, XY two-dimensional coordinates of the extracted rectangular area) such as other vehicles, pedestrians, signs, and traffic lights.
  • a simulator for automatic driving When executing a simulator for automatic driving, there are many objects (objects) such as other vehicles, pedestrians, buildings, and road surfaces in an image during actual vehicle driving.
  • objects such as other vehicles, pedestrians, buildings, and road surfaces in an image during actual vehicle driving.
  • automatic driving for example, automatically turning the steering wheel or stepping on the accelerator while acquiring real-time information from various sensors such as camera images mounted on the vehicle, millimeter waves, radar waves, etc. Perform actions such as applying a brake.
  • the image recognition unit 204 detects approach by image recognition technology and outputs recognition result information D06 of the recognition result to the vehicle position information calculation unit 51. To do. Based on this information, the vehicle position information calculation unit 51 changes the position information of the host vehicle by, for example, performing an operation such as turning the steering wheel to avoid it or decelerating by a brake operation. Alternatively, when a pedestrian suddenly jumps out in front of his / her own vehicle, he / she performs operations such as turning off the steering wheel and avoiding sudden braking, and similarly changing the position information of the own vehicle as a result. .
  • data transmission from the vehicle position information calculation unit 51 to the simulation execution unit 205 via the UDP synchronization control unit 202 and the UDP information transmission / reception unit 206 is performed at a cycle of 25 msec, for example, according to the UDP protocol. It can be sent out (25 msec is an example).
  • the vehicle position information of the next time frame is determined based on the output result from the simulation execution unit 205, so the whole is synchronized. This is because the behavior of an actual vehicle cannot be simulated if it cannot be controlled. Although transmission is performed at a cycle of every 25 msec, it is ideally zero delay, but practically impossible. Therefore, the use of UDP reduces delay time associated with transmission / reception.
  • FIG. 20 is a conceptual diagram showing the overall configuration of the system according to the present embodiment.
  • FIG. 21 is a block diagram showing an internal configuration of the apparatus according to the present embodiment.
  • the embodiment is mainly limited to the case where the number of own vehicles is one. However, in this embodiment, a case where position information for a large number of vehicles is processed simultaneously in parallel is illustrated. is doing.
  • a plurality of client devices 1c to 1f are connected to the simulator server 2.
  • the UDP synchronization control unit 202 and UDP information transmission / reception are performed.
  • the unit 206 is a common component, and the vehicle position information calculation units 51c to 51f are provided in the client devices 1c to f according to the number of vehicles to be simulated, and the simulation execution unit 205c is provided on the simulator server 2 side. To f are provided.
  • the vehicle position information calculation units 51c to 51f send vehicle position information D02c to f of the own vehicle to the UDP synchronization control unit 202 according to the timing of the control signals D03c to f.
  • the UDP synchronization control unit 202 converts the vehicle position information D02c to f of the own vehicle into packet information D04 including various data groups by UDP packetizing. This facilitates transmission / reception using the UDP protocol.
  • the packet information D04 is divided into a packet header and a data body payload by the de-packetizing process in the UDP information transmitting / receiving unit 206.
  • the exchange of UDP packet data may be performed using a network between distant locations, or may be performed between transmission buses within a single device such as a simulator.
  • Data D05c to f corresponding to the payload are input to the simulation execution units 205c to 205f.
  • the PC terminals 1c to 1f and the vehicle synchronization simulator program 4 are remotely connected via the communication network 3, but the program is mounted on a recording medium such as a local HDD or SSD of the PC. It can also be operated stand-alone. In this case, there is an advantage that the verification can be performed with a lower delay, and there is an advantage that the network bandwidth is not affected by the congestion caused when the network bandwidth is congested.
  • 1c it is not necessary to limit 1c to 1f as a PC terminal.
  • a car navigation system mounted on the test vehicle may be used.
  • the simulation image D13 which is a CG image from the image generation unit 203 in FIG. 18, is not recognized by the image recognition unit 204, but a live-action running video is input instead of D13. It can be used for performance evaluation of the image recognition unit 204. For example, pedestrians and vehicles in live-action running images can be recognized instantly and accurately when viewed by humans, but are the results recognized and extracted by the image recognition unit 204 described above the same? This is because it can be verified.
  • the first deep learning recognition unit 61 uses, for example, an image sensor unit, and the 3D graphics composite image is a two-dimensional plane image. Therefore, the deep learning recognition means includes a recognition method for a two-dimensional image.
  • the next deep learning recognition unit 62 is 3D point cloud data input using a LiDAR sensor. The 3D point cloud data is converted into a 3D graphic image by the image generation unit 203.
  • the 3D point cloud data graphic image D61 generated by the above means is input to the deep learning recognition unit 62, where recognition is performed by the recognition means learned for 3D point cloud data. Accordingly, a means different from the deep learning recognition means learned from the image for the image sensor is used, but the effect is great. This is because it is highly possible that an oncoming vehicle that is very far away cannot be acquired by an image sensor, but in the case of LiDAR, the size and shape of an oncoming vehicle several hundred meters away can be acquired. Conversely, LiDAR uses reflected light, so there is a disadvantage that it is not effective for an object that does not reflect, but this problem does not occur in the case of an image sensor.
  • this synchronization unit may be performed outside a network such as a cloud. The reason is that not only will the number of sensors per unit increase rapidly in the future, but the computational load of deep learning recognition processing will also be large, so parts that can be handled externally will be executed in a cloud with large-scale computing power This is because a means for feeding back the result is effective.
  • the material photographing device assumes a LiDAR sensor and a millimeter wave sensor as described above, in addition to the image sensor provided in the in-vehicle camera.
  • a high-quality CG image is generated by the PBR technique described in the first embodiment using parameters such as light information extracted from a captured image after capturing the captured image. Sent out.
  • the LiDAR sensor three-dimensional point cloud data is created from the reflected light of the laser beam actually emitted from the in-vehicle LiDAR sensor. An image obtained by converting the three-dimensional point cloud data into 3DCG is output from the image generation unit 203.
  • CG images corresponding to a plurality of types of sensors are sent from the image generation unit 203, and recognition processing is performed by predetermined means in each deep learning recognition unit in FIG.
  • the LiDAR sensor has been described as an example, but it is also effective to use the near infrared sensor described in the second embodiment.
  • Laser light irradiation partial extraction unit 16 Depth image generation unit 16a ... Laser light irradiation part extraction unit 17 ... Neural network calculation unit 18 ... Back propagation unit 19 ... TOF calculation unit 20 ; Distance image generation unit 21 ... Comparison evaluation unit 51 (51c to f) ... Vehicle position information Calculator 61 ⁇ 6n ... deep learning recognition unit 84 ... learning result synchronization section 101 ... storage device 102 ... CPU DESCRIPTION OF SYMBOLS 102a ... Client side execution part 103 ... Memory 104 ... Input interface 105 ... Output interface 106, 201 ... Communication interface 202 ... UDP synchronous control part 203 ... Image generation part 204 ... Image recognition part 204a ...
  • Recognition function module 204b ... Learning part 205 ... Simulation execution unit 205c to f ... Simulation execution unit 206 ... UDP information transmission / reception unit 210 ... Map database 210-213 ... Species database 211 ... Vehicle database 212 ... Drawing database 402 ... CPU 611 ... Output

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Traffic Control Systems (AREA)

Abstract

[Problem] To generate, with CG synthesis techniques, near infrared sensor or LiDAR laser light sensor images extremely similar to actually imaged images, and to use said CG-synthesized images to make it possible to run simulations of a recognition function module on images which change with displacement in vehicle position information. [Solution] This system uses computer graphics techniques to generate a virtual sensor image. The computer graphics include: a means for creating a scenario of an object present in the image; a means for performing modeling for each object in the computer graphics on the basis of a scenario; a means for performing shading for each model of the modeling result; a means for outputting only one component of a shaded image; and a means for generating a depth image on the basis of three-dimensional shape information for each object in the computer graphics.

Description

画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法Image generation system, program and method, and simulation system, program and method
 本発明は、近赤外線センサーやLiDARのレーザー光センサーの仮想画像を生成し、それらの仮想画像を用いて車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステム、シミュレーションプログラム及びシミュレーション方法に関する。 The present invention generates a virtual image of a near-infrared sensor or a LiDAR laser light sensor, and uses the virtual image to simulate a recognition function module for an image that changes with displacement of vehicle position information, a simulation program, and The present invention relates to a simulation method.
 現在、事故などの可能性を事前に検知し回避するADAS(先進運転システム:advanced driver assistance system)等、自動車の自動運転走行を実現するため、実際に車両に搭載したカメラ映像を、画像認識技術を用いて認識して、他の車両や歩行者、信号機などのオブジェクトを検出し、自動で速度低下、回避などの制御を行うテストが盛んに行われている。上記の実験システムでは、リアルタイム性、高い認識率、全体が同期して制御されていることが特に重要となる。 Currently, in order to realize automatic driving of automobiles such as ADAS (advanced driver assistance system) that detects and avoids the possibility of accidents in advance, image recognition technology is used for the actual video mounted on the vehicle. There are many active tests that automatically detect and detect objects such as other vehicles, pedestrians, traffic lights, etc., and perform control such as speed reduction and avoidance. In the above experimental system, it is particularly important that the real-time property, the high recognition rate, and the whole are controlled synchronously.
 自動運転支援システムに関する従来例としては、例えば、特許文献1に開示された走行制御システムがある。この特許文献1に開示された走行制御システムでは、自車両周辺に存在する道路のレーン・マーカーや停止位置などの路面標示を検知するとともに、自車両周辺に存在する複数の移動体・障害物などの立体物体を検知し、道路上の走行領域を判定して、信号機や標識などの立体物との衝突を回避しながら、予め設定された走行ルートを走行する自動運転システムを実現することを目的としている。 As a conventional example related to an automatic driving support system, for example, there is a traveling control system disclosed in Patent Document 1. In the travel control system disclosed in Patent Document 1, road markings such as lane markers and stop positions of roads existing around the host vehicle are detected, and a plurality of moving objects, obstacles, etc. existing around the host vehicle are detected. The purpose is to realize an automatic driving system that detects a three-dimensional object, determines a traveling area on the road, and avoids a collision with a three-dimensional object such as a traffic light or a sign while traveling on a preset traveling route It is said.
 ところで、車載センサーで外界周辺状況を認識し制御を行うためには、自車両周辺の複数の障害物や複数の移動体の種別である車両、自転車、歩行者を判定し、その位置や速度などの情報を検出する必要がある。さらに、自車両が走行する上で道路上のレーン・マーカーや停止線などのペイントの意味や標識の意味を判定することが必要である。このような自車両周辺の外界情報を検知する車載センサーとしては、カメラのイメージセンサーを用いた画像認識技術が有効とされてきた。 By the way, in order to recognize and control the situation around the outside with an in-vehicle sensor, it is possible to determine a plurality of obstacles around the host vehicle or a plurality of types of moving bodies such as vehicles, bicycles, pedestrians, and their positions and speeds. It is necessary to detect the information. Furthermore, it is necessary to determine the meaning of the paint such as the lane marker and the stop line on the road and the meaning of the sign when the vehicle travels. As such an in-vehicle sensor that detects external information around the host vehicle, an image recognition technique using an image sensor of a camera has been considered effective.
特開2016-99635号公報JP 2016-99635 A
 車両の自動運転の実現には、車両自身が周辺環境を認識する必要がある。そのためには、車両自身から周辺の物体までの距離を正確に計測する必要がある。距離計測を行うための技術としては、以下に挙げるようなものが開発され、レーンキープやクルーズコントロール、自動ブレーキなどのドライビングアシスト技術を実現するために、既にそれらのセンサーが搭載されている市販車も多い。 In order to realize automatic driving of the vehicle, the vehicle itself needs to recognize the surrounding environment. For this purpose, it is necessary to accurately measure the distance from the vehicle itself to surrounding objects. The following technologies have been developed for distance measurement, and commercial vehicles that already have these sensors installed to realize driving assist technologies such as lane keeping, cruise control, and automatic braking. There are also many.
 ・ステレオカメラ:ヒトの目と同様に2つのカメラを用いることで三角測量の原理を利用して距離を算出する
 ・赤外線デプスセンサー:赤外線パターンを照射し、その反射を赤外線カメラで撮影してパターンのズレ(位相差)から距離を算出する
 ・超音波センサー:超音波を発信し、その反射波を受信するまでに要した時間から距離を算出する
 ・ミリ波レーダー:超音波と同様の仕組みで、ミリ波レーダーを発信してその反射波を受信するまでにかかった時間から距離を算出する
 ・LiDAR(Light Detection and Ranging):超音波センサー、ミリ波レーダーと同様の仕組みで、こちらはレーザー光を使用。その反射波を受信するまでにかかった時間(TOF:Time of Flight)から距離を算出する
 以上のように、複数の方式が存在しているが、それぞれ一長一短がある。ステレオカメラの場合は立体視によって距離を正確に計測しやすいが、2つのカメラの間を最低でも30cmは離す必要があり小型化に限界がある。
・ Stereo camera: The distance is calculated by using the principle of triangulation by using two cameras in the same way as the human eye ・ Infrared depth sensor: Irradiation of an infrared pattern, and the reflection is photographed with an infrared camera Calculate the distance from the deviation (phase difference) of the sensor.-Ultrasonic sensor: Calculate the distance from the time required to transmit the ultrasonic wave and receive the reflected wave.-Millimeter wave radar: With the same mechanism as the ultrasonic wave. Calculate distance from time taken to transmit millimeter wave radar and receive reflected wave ・ LiDAR (Light Detection and Ranging): This is the same mechanism as ultrasonic sensor and millimeter wave radar. use. The distance is calculated from the time taken to receive the reflected wave (TOF: Time of Flight). As described above, there are a plurality of methods, but each has advantages and disadvantages. In the case of a stereo camera, it is easy to accurately measure the distance by stereoscopic vision, but it is necessary to separate at least 30 cm between the two cameras, and there is a limit to downsizing.
 赤外線線デプスセンサーや超音波センサーは安価な点が優れているが、距離による減衰が大きい。そのため、対象物までの距離が数10m以上になると正確な測定が困難、もしくは測定自体が不可能になる。その点、ミリ波レーダーやLiDARは長距離でも減衰しにくいので、長距離に対しても高精度の測定が可能である。しかし、装置が高価で小型化も困難という問題点があるが、今後研究開発の進展で車両への搭載が加速すると考えられる。 ¡Infrared ray depth sensors and ultrasonic sensors are excellent in terms of inexpensiveness, but they are greatly attenuated by distance. Therefore, when the distance to the object is several tens of meters or more, accurate measurement is difficult or measurement itself is impossible. In that respect, millimeter-wave radar and LiDAR are not easily attenuated even over long distances, and therefore high-precision measurements are possible over long distances. However, there is a problem that the device is expensive and difficult to downsize, but it is considered that the mounting on the vehicle will be accelerated by the progress of research and development in the future.
 以上より、近距離から遠距離まで対象物までの距離を正確に測定するためには、異なるセンサーを選択的に使用することが、現時点では現実的な手段と言える。
 自動車の自動運転以外の用途としても、自動車内における運転者の居眠り防止のために頭部の動きを検出する技術や、ジェスチャー動作検出、或いは自動走行ロボットの障害物回避などが有望視されている。
From the above, in order to accurately measure the distance from the short distance to the long distance, it can be said that it is a realistic means at this time to selectively use different sensors.
As applications other than automatic driving of automobiles, technologies for detecting head movements, gesture motion detection, and obstacle avoidance of automatic driving robots are promising to prevent the driver from falling asleep in the automobile. .
 ところで、上記のような各種センサーで撮影した実写画像を大量に収集して、ディープラーニング認識技術を用いて、画像の認識率を高めることが将来の自動運転に不可欠とされている。 By the way, it is indispensable for future automatic driving to collect a large number of actual images taken by various sensors as described above and to increase the image recognition rate by using deep learning recognition technology.
 しかしながら、実際に車両を無限に走行させてテストデータを採取することは事実上不可能であり、如何にして実際に代用可能なレベルのリアリティ性をもって上記の検証を行うことができるかが重要な課題となる。例えば、カメラ画像の画像認識技術で外部環境を認識する場合、自車両周辺の天候(雨天、霧など)や時間帯(夜間、薄暗、逆光など)等の外部要因によって、認識率が大幅に変わってしまい検出結果に影響を与える。その結果、自車両周辺の移動体、障害物、道路上のペイントの検知に関して、画像認識手段による誤検知や未検知が増加する。このような画像認識手段による誤検知や未検知は、最も認識率の高いディープラーニング(機械学習)の技術を用いれば、学習のサンプル数を増加させることで解決することができる。 However, it is practically impossible to collect test data by actually driving the vehicle indefinitely, and it is important how the above verification can be performed with a reality level that can actually be substituted. It becomes a problem. For example, when recognizing the external environment using image recognition technology for camera images, the recognition rate changes significantly depending on external factors such as the weather around the vehicle (rainy weather, fog, etc.) and the time zone (nighttime, dim, backlight, etc.). It will affect the detection result. As a result, false detection and non-detection by the image recognition means increase regarding detection of moving objects, obstacles, and paint on the road around the host vehicle. Such false detection or non-detection by the image recognition means can be solved by increasing the number of learning samples by using the deep learning (machine learning) technique with the highest recognition rate.
 ところが、実際に道路を走行中に学習のサンプルを抽出することには限界があり、雨天や逆光、霧などの過酷な天候条件が満たされるのを待って車両の走行テストやサンプル収集を行うことは、その条件の再現が困難である上、機会の到来も希有であることから、開発手法として現実的でない。 However, there is a limit to extracting learning samples while actually driving on the road, and vehicle driving tests and sample collection are performed after severe weather conditions such as rainy weather, backlighting, and fog are met. Is not realistic as a development method because it is difficult to reproduce the conditions and the opportunity is rare.
 一方、将来的な完全自動運転の実現のためには、上記のカメラ画像の画像認識だけでは不十分と言える。なぜならばカメラ画像は2次元画像であり、車両や歩行者、信号機などは画像認識によって対象物を抽出することは可能であるが、対象物までの画素ごとの距離を検知することはできない。したがって、これらの要求に対応するものとしてLiDARというレーザー光を用いたセンサーや、近赤外線を使ったセンサーも有望視されている。したがって、上記の複数の異なる種類のセンサーを組み合わせることで、自動車の走行時の安全性を大幅に向上させることができる。 On the other hand, it can be said that the above-mentioned image recognition alone is not sufficient for the realization of a fully automatic driving in the future. This is because a camera image is a two-dimensional image, and a vehicle, a pedestrian, a traffic light, etc. can extract an object by image recognition, but cannot detect a distance for each pixel to the object. Therefore, a sensor using LiDAR laser light and a sensor using near infrared rays are promising to meet these requirements. Therefore, by combining a plurality of different types of sensors, it is possible to significantly improve the safety during driving of the automobile.
 そこで、本発明は、上記のような問題を解決するものであり、自車両周辺の他車両、路上の障害物、歩行者などの対象物に対する認識率の向上に関し、過酷な天候条件など、その再現が困難な条件下における実写の画像に極めて類似した画像を人工的に生成することによって、車両の走行テストやサンプル収集のリアリティ性を向上させることを目的とする。また、本発明は、複数個の異なる種類のセンサーを仮想環境で構築して、各々の映像をCGの技術を用いて生成することを目的とする。さらに、生成されたCG画像を用いた同期制御のシミュレーションシステム、シミュレーションプログラム及びシミュレーション方法を提供することを目的とする。 Therefore, the present invention solves the above problems, and relates to improvement of recognition rate for other vehicles around the host vehicle, obstacles on the road, objects such as pedestrians, An object is to improve the reality of vehicle running tests and sample collection by artificially generating images that are very similar to live-action images under conditions that are difficult to reproduce. Another object of the present invention is to construct a plurality of different types of sensors in a virtual environment and generate each video using CG technology. Furthermore, it aims at providing the simulation system, simulation program, and simulation method of the synchronous control using the produced | generated CG image.
 上記課題を解決するために、本発明は、センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステム、プログラム及び方法であって、
 前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
 前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
 前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
 前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出して出力するコンポーネント抽出部と、
 前記コンポーネント画像中における対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
を備えたことを特徴とする。
In order to solve the above problems, the present invention provides a system, a program, and a method for generating a virtual image input to a sensor means as computer graphics,
A scenario creation unit for creating a scenario relating to the arrangement and behavior of an object present in the virtual image;
A 3D modeling unit that performs modeling for each object based on the scenario;
A 3D shading unit that performs shading for each model generated by the modeling unit and generates a shading image for each model;
A component extraction unit that extracts and outputs a predetermined component included in the shading image as a component image;
A depth image generation unit that generates a depth image in which a depth is defined based on information on a three-dimensional shape of each object in the component image;
It is provided with.
 上記発明において、前記コンポーネントは、RGB画像のうちのR成分のコンポーネントであることが好ましい。
 また、上記発明において、前記コンポーネントをグレイスケール化するグレイスケール化部をさらに備えていることが好ましい。
In the above invention, the component is preferably an R component of the RGB image.
Moreover, in the said invention, it is preferable to further provide the gray scale conversion part which makes the said component gray scale.
 本発明は、センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステム、プログラム及び方法であって、
 前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
 前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
 前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
 前記対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
を備え、
 前記シェーディング部は、
 前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
 前記所定部位の3次元形状のみを出力する機能と
を有し、
 前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
ことを特徴とする。
The present invention is a system, program, and method for generating a virtual image input to a sensor means as computer graphics,
A scenario creation unit for creating a scenario relating to the arrangement and behavior of an object present in the virtual image;
A 3D modeling unit that performs modeling for each object based on the scenario;
A 3D shading unit that performs shading for each model generated by the modeling unit and generates a shading image for each model;
A depth image generation unit that generates a depth image in which a depth is defined based on information on a three-dimensional shape of each object;
With
The shading part is
A function of performing shading only on a predetermined portion of the model from which light rays emitted from the sensor means are reflected;
A function of outputting only the three-dimensional shape of the predetermined part,
The depth image generation unit generates a depth image for each object based on information on a three-dimensional shape of the predetermined part.
 上記発明において、前記センサー手段は近赤外線センサーであることが好ましい。また、上記発明において前記センサー手段は、照射されたレーザー光の反射光を検出するLiDARセンサーであることが好ましい。 In the above invention, the sensor means is preferably a near infrared sensor. In the above invention, the sensor means is preferably a LiDAR sensor that detects reflected light of the irradiated laser light.
 上記発明において、前記シナリオ作成手段は、対象物の3次元形状情報、対象物の動作情報、対象物のマテリアル情報、光源のパラメータ情報、カメラの位置情報、センサーの位置情報を決定する手段を備えていることが好ましい。 In the above invention, the scenario creating means includes means for determining three-dimensional shape information of the object, operation information of the object, material information of the object, parameter information of the light source, camera position information, and sensor position information. It is preferable.
 上記発明では、実写に基づく1コンポーネント画像及び深度画像を教師データとして取得し、前記コンポーネント画像、前記深度画像生成部によって生成された前記深度画像と前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段をさらに備えたことが好ましい。 In the above invention, a one-component image and a depth image based on a real image are acquired as teacher data, and a neural network is obtained by backpropagation based on the component image and the depth image generated by the depth image generation unit and the teacher data. It is preferable to further include deep learning recognition learning means for performing the training.
 上記発明では、実写に基づく照射画像及び深度画像を教師データとして取得し、前記シェーディング部によるシェーディング結果の画像と、前記深度画像生成部によって生成された前記深度画像と、前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段を備えることが好ましい。 In the above invention, an irradiation image and a depth image based on a live-action image are acquired as teacher data, and an image obtained as a result of shading by the shading unit, the depth image generated by the depth image generation unit, and a background based on the teacher data It is preferable to provide deep learning recognition learning means for training a neural network by propagation.
 上記発明では、前記深度画像生成部により生成された深度画像から、光線の照射からその反射波を受信するまでにかかった所要時間をTOF情報として算出するTOF計算部と、
 前記TOF計算部によるTOF情報に基づいて距離画像を生成する距離画像生成部と、
 前記距離画像生成部によって生成された距離画像と、前記深度画像生成部により生成された深度画像との合致度を比較する比較評価部と
をさらに備えることが好ましい。
In the above invention, from the depth image generated by the depth image generation unit, a TOF calculation unit that calculates the time required for receiving the reflected wave from the irradiation of light rays as TOF information,
A distance image generation unit that generates a distance image based on the TOF information by the TOF calculation unit;
It is preferable to further include a comparison and evaluation unit that compares the degree of coincidence between the distance image generated by the distance image generation unit and the depth image generated by the depth image generation unit.
 上記発明において前記モデリング部は、前記比較評価部による比較結果をフィードバック情報として取得し、取得されたフィードバック情報に基づいて、前記モデリングにおける条件を調整して再度モデリングを行う機能を有することが好ましい。 In the above invention, it is preferable that the modeling unit has a function of acquiring a comparison result by the comparative evaluation unit as feedback information, adjusting a condition in the modeling based on the acquired feedback information, and performing modeling again.
 上記発明では、前記モデリング及び前記比較に基づく前記フィードバック情報の取得を繰り返して行い、前記比較評価部による比較結果におけるマッチング誤差が所定の閾値よりも小さくなるまで実行することが好ましい。 In the above-described invention, it is preferable that the feedback information acquisition based on the modeling and the comparison is repeatedly performed until the matching error in the comparison result by the comparison evaluation unit becomes smaller than a predetermined threshold value.
 さらに、本発明は、車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステム、プログラム及び方法であって、
 センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
 前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
 前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
 前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
 位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備えたことを特徴とする。
Furthermore, the present invention is a simulation system, program, and method of a recognition function module for an image that changes with displacement of vehicle position information,
Position information acquisition means for acquiring position information of the vehicle relative to surrounding objects based on a detection result by the sensor means;
Based on the position information acquired by the position information acquisition means, an image generation means for generating an image for simulation that reproduces the area specified by the position information;
Image recognition means for recognizing and detecting a specific object from the simulation image generated by the image generation means using the recognition function module;
Position information calculation means for generating a control signal for controlling the operation of the vehicle using the recognition result in the image recognition means, and for changing / correcting the position information of the own vehicle based on the generated control signal;
Position information acquisition means, the image generation means, the image recognition means, and synchronization control means for synchronously controlling the position information calculation means are provided.
 上記発明において、前記同期制御手段は、
 前記位置情報を特定のフォーマットにパケット化して送出する手段と、
 パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
 前記パケットデータを受信してデ・パケット化する手段と、
 前記デ・パケット化されたデータを入力して画像を生成する手段と
をさらに備えることが好ましい。
In the above invention, the synchronization control means includes:
Means for packetizing and sending the position information in a specific format;
Means for transmitting packetized data via a network or a transmission bus in a specific device;
Means for receiving and de-packetizing the packet data;
It is preferable to further comprise means for inputting the de-packetized data and generating an image.
 上記発明において、前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することが好ましい。 In the above invention, it is preferable that the synchronization control means transmits and receives signals transmitted and received between the means by using UDP (User Datagram Protocol).
 前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれることが好ましい。
 上記発明において、前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成する手段を備えていることが好ましい。
The vehicle position information preferably includes any of XYZ coordinates of the road surface absolute position coordinates of the vehicle, road surface absolute position coordinates XYZ coordinates of the tire, vehicle Euler angles, and wheel rotation angles.
In the above invention, the image generation means preferably includes means for synthesizing the three-dimensional shape of the vehicle by computer graphics.
 上記発明では、前記車両が複数台の車両分だけ設定されるとともに、前記認識機能モジュールは前記車両ごとに動作され、
 前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
 前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行することが好ましい。
In the above invention, the vehicle is set for a plurality of vehicles, and the recognition function module is operated for each vehicle,
The position information calculation means uses the information of the recognition result by the recognition means to change / correct the position information of each vehicle for a plurality of vehicles,
Preferably, the synchronization control means executes synchronization control for the plurality of vehicles with respect to the position information acquisition means, the image generation means, the image recognition means, and the position information calculation means.
 上記発明において上記画像生成手段は、センサー手段ごとに異なる画像を生成する手段を備えていることが好ましい。
 また、上記発明では、前記センサー手段として、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることが好ましい。
In the above invention, the image generating means preferably includes means for generating a different image for each sensor means.
Moreover, in the said invention, it is preferable to provide any one or all of an image sensor means, a LiDAR sensor, a millimeter wave sensor, and an infrared sensor as said sensor means.
 上記発明では、前記シミュレーションシステムが、複数個のセンサーに対応した画像を生成する手段を備え、またそれぞれの生成された画像に対応した認識手段を備え、同該複数個の認識結果を用いて、前記同期制御を行う手段を備えていることが好ましい。 In the above invention, the simulation system includes means for generating images corresponding to a plurality of sensors, and also includes recognition means corresponding to each generated image, and using the plurality of recognition results, It is preferable that a means for performing the synchronization control is provided.
 さらに、シミュレーションシステム、プログラム及び方法に係る発明では、上記画像生成システム、画像生成プログラム及び画像生成方法の発明を前記画像生成手段として備え、
 前記画像生成システムの前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力することが好ましい。
Furthermore, in the invention relating to the simulation system, the program and the method, the invention of the image generation system, the image generation program and the image generation method is provided as the image generation means,
It is preferable that the depth image generated by the depth image generation unit of the image generation system is input to the image recognition unit as the simulation image.
 以上述べたように、これらの発明によれば、ディープラーニング(機械学習)等の認識機能モジュールの学習に際し、CGなどの実写の画像に極めて類似した画像を人工的に生成することによって学習のサンプル数を増加させることができ、学習の効率を高めて認識率を向上させることができる。 As described above, according to these inventions, when learning a recognition function module such as deep learning (machine learning), a learning sample is generated by artificially generating an image very similar to a real image such as CG. The number can be increased, and the recognition rate can be improved by increasing the efficiency of learning.
 詳述すると、本発明では、車両の位置情報変位を、シミュレーションモデルを基にして、実写の画像に極めて類似した、リアリティ性の高いCG映像を生成及び合成する手段を用いており、実際には存在しない環境や光源などを付加した映像を、人工的に無限に生成することができるようになる。この生成したCG画像を認識機能モジュールに対して、従来のカメラ画像と同様に入力し、カメラ画像に対する処理を同様に行わせ、対象とするオブジェクトが認識・抽出できるかをテストすることができるので、これまで取得・撮影が困難・不可能であった種類の映像での学習ができる上、さらに学習効率を高めて認識率を向上させる効果がある。 More specifically, the present invention uses a means for generating and synthesizing a highly realistic CG image that is very similar to a live-action image based on a simulation model based on the displacement of the vehicle position information. It is possible to artificially generate an infinite number of images to which a non-existent environment or light source is added. This generated CG image can be input to the recognition function module in the same way as a conventional camera image, and the camera image can be processed in the same manner to test whether the target object can be recognized and extracted. In addition, it is possible to learn with the types of images that have been difficult or impossible to acquire and shoot until now, and further increase the learning efficiency and improve the recognition rate.
 また2次元画像の取得ができるイメージセンサーの他に、物体の立体形状の情報が抽出できるLiDAR(レーザー光)やミリ波などの異なる種類のセンサーを併用し、これらのセンサーの画像を生成することで、さらに広範囲なテストが可能になるのみならず、認識技術のブラッシュアップも同時に実現することが可能になるという、相乗効果が見込める。 In addition to image sensors that can acquire two-dimensional images, different types of sensors such as LiDAR (laser light) and millimeter waves that can extract information on the three-dimensional shape of an object are used together to generate images of these sensors. Thus, not only can a wider range of tests be possible, but a synergistic effect can be expected that will also enable the recognition technology to be improved at the same time.
 なお、本発明の応用分野としては、自動車の自動走行運転のための実験装置、シミュレーター、及びそれに関連したソフトウェアモジュール、ハードウェアデバイス(例えば車両搭載のカメラ、イメージセンサー、車両の周囲の3次元形状を測定するためのレーザー)、ディープラーニング等の機械学習ソフトウェア、非常に広範囲に及ぶ。また、本発明によれば、実写画像をリアルに実現するCG技術と同期制御の融合技術を備えているので、自動車の自動走行運転以外の分野でも幅広く応用することができる。例えば外科手術のシミュレーター、軍事シミュレーター、ロボットやドローンなどの安全走行テスト等が利用分野として有望である。 Note that the application field of the present invention includes an experimental apparatus, a simulator, and a software module and hardware device (for example, a camera mounted on a vehicle, an image sensor, and a three-dimensional shape around the vehicle for automatic driving operation of an automobile. Machine learning software such as deep learning, deep learning, and so on. In addition, according to the present invention, since the CG technology that realizes a real image in real time and the synchronization technology of synchronization control are provided, it can be widely applied in fields other than the automatic driving operation of automobiles. For example, surgical simulators, military simulators, safe driving tests such as robots and drones, etc. are promising as fields of use.
第1実施形態に係る仮想画像を生成する画像生成システムの全体構成を示すブロック図である1 is a block diagram illustrating an overall configuration of an image generation system that generates a virtual image according to a first embodiment. 実際の道路を実走行して3次元データを収集する処理を示す説明図であるIt is explanatory drawing which shows the process which actually drive | works the actual road and collects three-dimensional data テスト車両について3次元形状を収集することを示す説明図であるIt is explanatory drawing which shows collecting three-dimensional shape about a test vehicle. 近赤外線センサーで取得したグレイスケール画像である。It is a gray scale image acquired with a near infrared sensor. 近赤外線センサーで取得した距離画像であるThis is a distance image acquired by a near infrared sensor. 第2実施形態に係る仮想画像を生成する画像生成システムの全体構成を示すブロック図であるIt is a block diagram which shows the whole structure of the image generation system which produces | generates the virtual image which concerns on 2nd Embodiment. レーザー光のTOFを示した説明図であるIt is explanatory drawing which showed TOF of the laser beam LiDARの構成と動作原理を示す説明図であるIt is explanatory drawing which shows the structure and operation | movement principle of LiDAR. LiDARのビーム照射を示す説明図であるIt is explanatory drawing which shows the beam irradiation of LiDAR. LiDARのレーザービームが対象物に照射される様子を説明する説明図である。It is explanatory drawing explaining a mode that the laser beam of LiDAR is irradiated to a target object. 第3実施形態に係るニューラルネットワークとバックプロパゲーションを説明するブロック図であるIt is a block diagram explaining the neural network and backpropagation concerning a 3rd embodiment. ニューラルネットワークを説明する説明図であるIt is explanatory drawing explaining a neural network. 第4実施形態に係る深度画像の画質評価システムを説明するブロック図であるIt is a block diagram explaining the image quality evaluation system of the depth image which concerns on 4th Embodiment. TOFの概念と、投光パルスと受光パルスの関係を説明する説明図であるIt is explanatory drawing explaining the concept of TOF and the relationship between a light projection pulse and a light reception pulse. 第5実施形態に係る同期シミュレーションシステムを説明するブロック図であるIt is a block diagram explaining the synchronous simulation system which concerns on 5th Embodiment. クライアント側の構成を説明するブロック図であるIt is a block diagram explaining the structure by the side of a client シミュレーターサーバー側の構成を説明するブロック図であるIt is a block diagram explaining the structure by the side of a simulator server UDP同期制御と画像生成、画像認識の各構成を説明するフロー図である。It is a flowchart explaining each structure of UDP synchronous control, image generation, and image recognition. 本同期制御シミュレーターの動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of this synchronous control simulator. 第6実施形態に係る複数台の同期シミュレーションシステムを説明するブロック図である。It is a block diagram explaining the multiple synchronous simulation system which concerns on 6th Embodiment. 複数台のUDP同期制御システムを説明するブロック図である。It is a block diagram explaining a plurality of UDP synchronous control systems. 第7実施形態に係る複数台のディープラーニング認識手段を説明するブロック図である。It is a block diagram explaining the multiple deep learning recognition means which concerns on 7th Embodiment. 素材撮影手段を備えた複数台のディープラーニング認識手段を説明するブロック図である。It is a block diagram explaining the multiple deep learning recognition means provided with the material imaging | photography means.
[第1実施形態]
(近赤外線仮想画像生成システムの全体構成)
 以下に添付図面を参照して、本発明に係る近赤外線仮想画像生成システムの実施形態について詳細に説明する。本実施形態では、自動運転に必須とされる様々なタイプのセンサーから撮像される実写画像を代替すべく、CG技術を用いて実写画像に極めて類似した画像を生成するシステムを構築する。図1は近赤外線の仮想画像を生成するためのブロック図である。
[First Embodiment]
(Overall configuration of near-infrared virtual image generation system)
Exemplary embodiments of a near-infrared virtual image generation system according to the present invention will be described below in detail with reference to the accompanying drawings. In the present embodiment, a system that generates an image very similar to a live-action image using CG technology is constructed in order to replace the real-image image taken from various types of sensors essential for automatic driving. FIG. 1 is a block diagram for generating a near-infrared virtual image.
 なお、本実施形態に係る近赤外線仮想画像生成システムは、例えばコンピューターにインストールされたソフトウェアを実行することにより、コンピューターに備えられたCPUなどの演算処理装置上に仮想的な各種モジュールが構築されて本システムが実装される。なお、以下の説明において「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。 Note that the near-infrared virtual image generation system according to the present embodiment is configured such that various virtual modules are constructed on an arithmetic processing device such as a CPU provided in a computer by executing software installed in the computer, for example. This system is implemented. In the following description, “module” refers to a functional unit that is configured by hardware such as an apparatus or a device, software having the function, or a combination thereof, and achieves a predetermined operation.
 図1に示すように、本実施形態に係る近赤外線仮想画像生成システムは、シナリオ作成部10、3Dモデリング部11、3Dシェーディング部12、R画像グレイスケール化部13、深度画像生成部14を備えている。 As shown in FIG. 1, the near-infrared virtual image generation system according to the present embodiment includes a scenario creation unit 10, a 3D modeling unit 11, a 3D shading unit 12, an R image grayscale conversion unit 13, and a depth image generation unit 14. ing.
 シナリオ作成部10は、どのようなCGを作成するかのシナリオデータを作成する手段である。このシナリオ作成部10は、対象物の3次元形状情報、対象物の動作情報、対象物のマテリアル情報、光源のパラメータ情報、カメラの位置情報、センサーの位置情報を決定する手段を備えている。例えば自動運転に使うCGであれば、道路、建物、車両、歩行者、自転車、路側帯、信号機などの数多くの対象物が仮想空間内に存在し、シナリオデータには、その仮想空間内でどの対象物がどの位置(座標、標高)に存在してどのような方向に、どのような動きをするかが定義されているとともに、仮想空間内における仮想カメラ(視点)の位置、光源の種類や個数、それぞれの位置や向き等を定義するデータであり、また、仮想空間内における対象物の移動や挙動なども定義される。 The scenario creation unit 10 is a means for creating scenario data indicating what CG is to be created. The scenario creation unit 10 includes means for determining three-dimensional shape information of an object, operation information of the object, material information of the object, parameter information of the light source, camera position information, and sensor position information. For example, in the case of CG used for automatic driving, many objects such as roads, buildings, vehicles, pedestrians, bicycles, roadside belts, traffic lights, etc. exist in the virtual space. It is defined in which position (coordinate, altitude) the object is located, in what direction and how it moves, the position of the virtual camera (viewpoint) in the virtual space, the type of light source, This is data that defines the number, the position and orientation of each, and the movement and behavior of the object in the virtual space.
 このシナリオ作成部10で、先ずどのようなCG画像を生成するかが決められることになる。このシナリオ作成部10で設定されたシナリオに従って、3Dモデリング部11が3D画像を生成する。 The scenario creation unit 10 first determines what CG image is to be generated. According to the scenario set by the scenario creation unit 10, the 3D modeling unit 11 generates a 3D image.
 3Dモデリング部11は、仮想空間上における物体の形状を作成するモジュールであり、物体の外形や内部構成の形状を構成する各頂点の座標を設定し、その形状の境界線・面を表現する方程式のパラメータを設定し、3次元的な物の形を構築する。具体的には、この3Dモデリング部11によって、道路の3D形状や路上を走行する車両の3D形状、歩行者の3D形状等の情報がモデリングされる。 The 3D modeling unit 11 is a module that creates the shape of an object in a virtual space, and sets the coordinates of each vertex constituting the outer shape of the object and the shape of the internal configuration, and an equation that expresses the boundary line / surface of the shape The three parameters are set and a three-dimensional object shape is constructed. Specifically, the 3D modeling unit 11 models information such as a 3D shape of a road, a 3D shape of a vehicle traveling on the road, and a 3D shape of a pedestrian.
 3Dシェーディング部12は、3Dモデリング部11で生成された各3DモデルデータD101を用いて実際の3DCGを生成するモジュールであり、シェーディング処理によって、3DCGで実現される物体の陰影を表現し、光源の位置や光の強さによって立体的でリアルな画像を生成する。 The 3D shading unit 12 is a module that generates an actual 3DCG using each 3D model data D101 generated by the 3D modeling unit 11. The 3D shading unit 12 expresses a shadow of an object realized by 3DCG by shading processing, and A stereoscopic and realistic image is generated according to the position and the intensity of light.
 R画像グレイスケール化部13は、3Dシェーディング部12から送出されたシェーディング画像に含まれる所定のコンポーネントを抽出するコンポーネント抽出部であるとともに、抽出されたコンポーネント画像をグレイスケール化するグレイスケール化部として機能するモジュールである。具体的にこのR画像グレイスケール化部13は、3Dシェーディング部12から送出されたRGB画像であるシェーディング画像D103のうちのR成分のコンポーネントを、コンポーネント画像として抽出し、この抽出されたR成分のコンポーネント画像を、図4に示すように、R成分をグレイスケール化してグレイスケール画像D104(Img(x,y)、x:水平座標値、y:垂直座標値)を出力する。これにより、シェーディング画像D103中のR(赤色)成分だけが抽出され、赤外線の画像に極めて近い画像が生成されることとなる。図4は、室内を近赤外線センサーで撮影した実写画像をグレイスケール化した白黒画像である。 The R image gray scale conversion unit 13 is a component extraction unit that extracts a predetermined component included in the shading image transmitted from the 3D shading unit 12, and as a gray scale conversion unit that converts the extracted component image into a gray scale. It is a functioning module. Specifically, the R image gray scale conversion unit 13 extracts a component of the R component in the shading image D103 that is an RGB image transmitted from the 3D shading unit 12, as a component image, and extracts the R component of the extracted R component. As shown in FIG. 4, the component image is converted into a gray scale, and a gray scale image D104 (Img (x, y), x: horizontal coordinate value, y: vertical coordinate value) is output. As a result, only the R (red) component in the shading image D103 is extracted, and an image very close to an infrared image is generated. FIG. 4 is a black-and-white image obtained by converting a real image obtained by photographing a room with a near-infrared sensor into a gray scale.
 深度画像生成部14は、3Dシェーディング部12から入力された個々の3D形状モデルのモデリング情報D102に基づいて、画面中の各対象物の3D形状データを取得し、各対象物までの距離に基づいて深度画像(Depth-mapとも呼ばれる)105を生成するモジュールである。図5は、上記の深度画像を距離によって色分けした画像である。より前方にある対象物ほど赤の成分が強く、遠方にあるものほど青の成分が強くなっている。中間の位置にあるものは黄色から緑色になっており、画面中における全ての対象物に関する奥行情報が得られることになる。 The depth image generation unit 14 acquires 3D shape data of each object on the screen based on the modeling information D102 of each 3D shape model input from the 3D shading unit 12, and based on the distance to each object. This is a module that generates a depth image 105 (also called depth-map). FIG. 5 is an image in which the above depth image is color-coded according to distance. The red component is stronger as the object is further forward, and the blue component is stronger as it is farther away. Those in the middle position change from yellow to green, and depth information regarding all objects in the screen can be obtained.
(近赤外線仮想画像生成システムの動作)
 以上の構成を有する近赤外線仮想画像生成システムを動作させることによって、本発明の近赤外線仮想画像生成方法を実施することができる。
(Near-infrared virtual image generation system operation)
The near-infrared virtual image generation method of the present invention can be implemented by operating the near-infrared virtual image generation system having the above configuration.
 先ず、シナリオ作成部10では、どのようなCGを作成するかのシナリオを作る。例えば自動運転に使うCGであれば、道路、建物、車両、歩行者、自転車、路側帯、信号機などの数多くの対象物がどの位置に存在してどのような方向に、どのような動きをするか、さらに、カメラの位置、光源の種類や個数等のシナリオを作成する。 First, the scenario creation unit 10 creates a scenario of what CG is to be created. For example, in the case of a CG used for automatic driving, many objects such as roads, buildings, vehicles, pedestrians, bicycles, roadside belts, traffic lights, etc. exist in which position, in what direction, and in what direction. In addition, a scenario such as the position of the camera, the type and number of light sources is created.
 このシナリオ作成部10において、どのようなCG画像を生成するかが決定される。次いで、シナリオ作成部10で設定されたシナリオに沿って、道路の3D形状や路上を走行する車両の3D形状、歩行者の3D形状等の情報をモデリングする。なお、モデリング手段としては、例えば道路に関しては「高精度地図データベース」を用いれば容易に実現でき、図2(a)に示すような車載装置1bを装備した車両を多数走行させて、同図(b)に示すように、収集したデータから地図の3D化を行い、同図(c)に示すように、ベクター化した図面を用いて各道路地物をリンクさせてデータベース化する。 The scenario creation unit 10 determines what CG image to generate. Next, information such as the 3D shape of the road, the 3D shape of the vehicle traveling on the road, and the 3D shape of the pedestrian is modeled along the scenario set by the scenario creating unit 10. As the modeling means, for example, a road can be easily realized by using a “high-precision map database”, and a large number of vehicles equipped with an in-vehicle device 1b as shown in FIG. As shown in (b), the map is converted into 3D from the collected data, and as shown in (c), each road feature is linked into a database using a vectorized drawing.
 次いで、3Dモデリング部11において、シナリオ作成部10で作成されたシナリオ情報D100に基づいて、必要な各対象物の3D形状モデルを取得、又は生成する。そして、3Dモデリング部11で生成された各3DモデルデータD101を用いて3Dシェーディング部12では、実際の3DCGを生成する。 Next, the 3D modeling unit 11 acquires or generates a required 3D shape model of each target object based on the scenario information D100 created by the scenario creation unit 10. Then, the 3D shading unit 12 generates an actual 3DCG using each 3D model data D101 generated by the 3D modeling unit 11.
 また、3Dシェーディング部12から送出されたR成分のシェーディング画像D103に対して、図4に示すようなR画像グレイスケール化してグレイスケール画像D104(Img(x,y)、x:水平座標値、y:垂直座標値)が出力される。他方、3Dシェーディング部12からは、個々の3D形状モデルのモデリング情報D102が得られ、これらの情報から画面中の各対象物の3D形状データが得られ、これを基にして深度画像生成部14において深度画像D105(α(x,y)、x:水平座標値、y:垂直座標値)が生成される。 Further, the R component shading image D103 sent from the 3D shading unit 12 is converted into an R image gray scale as shown in FIG. 4 to obtain a gray scale image D104 (Img (x, y), x: horizontal coordinate value, y: vertical coordinate value) is output. On the other hand, modeling information D102 of each 3D shape model is obtained from the 3D shading unit 12, and 3D shape data of each object in the screen is obtained from these pieces of information. Based on this, the depth image generation unit 14 is obtained. , A depth image D105 (α (x, y), x: horizontal coordinate value, y: vertical coordinate value) is generated.
 そして、以上の動作により得られたグレイスケール化してグレイスケール画像D104と深度画像D105とが、本実施形態の出力画像として送出され、これらの2つの画像出力が、画像認識に用いられる。 Then, the grayscale image D104 and the depth image D105 obtained by the above operation are output as output images of the present embodiment, and these two image outputs are used for image recognition.
[第2実施形態]
 以下に添付図面を参照して、本発明に係るシステムの第2実施形態を詳細に説明する。なお、本実施形態において、上述した第1実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
[Second Embodiment]
Hereinafter, a second embodiment of a system according to the present invention will be described in detail with reference to the accompanying drawings. In the present embodiment, the same components as those in the first embodiment described above are denoted by the same reference numerals, and the functions and the like are the same unless otherwise specified, and the description thereof is omitted.
(LiDARセンサー仮想画像生成システムの全体構成)
 本実施形態では、LiDARセンサーを用いた場合について述べる。本実施形態に係るシステムは、図6で実現され、シナリオ作成部10と、3Dモデリング部11と、シェーディング部15と、深度画像生成部16とから構成される。
(Overall configuration of LiDAR sensor virtual image generation system)
In the present embodiment, a case where a LiDAR sensor is used will be described. The system according to the present embodiment is realized in FIG. 6, and includes a scenario creation unit 10, a 3D modeling unit 11, a shading unit 15, and a depth image generation unit 16.
 本実施形態においてシェーディング部15は、3Dモデリング部11で生成された各3DモデルデータD101を用いて実際の3DCGを生成するモジュールであり、シェーディング処理によって、3DCGで実現される物体の陰影の表現し、光源の位置や光の強さによって立体的でリアルな画像を生成する。特に、本実施形態におけるシェーディング部15は、レーザー光照射部分抽出部15aを有しており、レーザー光照射部分抽出部15aによって、そのレーザー光が照射された部位のみの3D形状を抽出してシェーディングし、そのシェーディング画像D106を出力する。また、レーザー光の反射光はそもそもRGBのような色成分を持たない光線なので、このシェーディング部15からは、直接グレイスケール化したシェーディング画像D106が出力されることになる。 In this embodiment, the shading unit 15 is a module that generates an actual 3DCG using each 3D model data D101 generated by the 3D modeling unit 11, and expresses a shadow of an object realized by the 3DCG by shading processing. A three-dimensional and realistic image is generated according to the position of the light source and the intensity of light. In particular, the shading unit 15 in the present embodiment has a laser light irradiation part extraction unit 15a, and the laser light irradiation part extraction unit 15a extracts a 3D shape of only the part irradiated with the laser light to perform shading. Then, the shading image D106 is output. Further, since the reflected light of the laser beam is a light beam that does not have a color component such as RGB in the first place, the shading unit 15 outputs a shaded image D106 that is directly converted into a gray scale.
 また、深度画像生成部16は、3Dシェーディング部12から入力された個々の3D形状モデルのモデリング情報D102に基づいて、画面中の各対象物の3D形状データを取得し、各対象物までの距離に基づいて深度画像(Depth-mapとも呼ばれる)105を生成するモジュールである。特に、本実施形態における深度画像生成部16は、レーザー光照射部分抽出部16aによって、レーザー光照射に係る部分だけを抽出した深度画像D108が出力される。 Further, the depth image generation unit 16 acquires 3D shape data of each object on the screen based on the modeling information D102 of each 3D shape model input from the 3D shading unit 12, and the distance to each object This is a module for generating a depth image (also called depth-map) 105 based on. In particular, the depth image generation unit 16 in the present embodiment outputs a depth image D108 in which only a portion related to laser light irradiation is extracted by the laser light irradiation partial extraction unit 16a.
(LiDARセンサー仮想画像生成システムの動作)
 次に、上記構成を有するLiDARセンサー仮想画像生成システムの動作について説明する。
(Operation of LiDAR sensor virtual image generation system)
Next, the operation of the LiDAR sensor virtual image generation system having the above configuration will be described.
 3Dモデリングされた各対象物のうちで、近赤外線の場合には、図5に示すような画像が同時に取得できるのに対して、LiDARセンサーのレーザー光は指向性が強い光線のため、画面中の一部箇所だけに照射される性質がある。このLiDARとは、パルス状に発行するレーザー照射に対する散乱光を測定して、遠距離にある対象物までの距離を測定するセンサーである。特に自動運転の高精度化には必須なセンサーの1つとして注目されている。以下、LiDARの基本的な特徴について、以下説明する。 Among the 3D modeled objects, in the case of near-infrared rays, an image as shown in FIG. 5 can be acquired simultaneously, whereas the laser beam of the LiDAR sensor has a strong directivity, so It has the property of being irradiated to only a part of the. The LiDAR is a sensor that measures the distance to an object at a long distance by measuring scattered light in response to laser irradiation issued in a pulse form. In particular, it is attracting attention as one of the essential sensors for improving the accuracy of automated driving. Hereinafter, basic features of LiDAR will be described below.
 LiDARに用いられるレーザー光はマイクロパルスで近赤外光(例えば905nmの波長)を用いる。スキャナと光学計はモータ、ミラー、レンズなどから構成される。一方、受光器、信号処理部では反射光を受光し、信号処理によって距離を算出する。 The laser light used for LiDAR is near-infrared light (for example, a wavelength of 905 nm) with a micro pulse. The scanner and optical meter are composed of a motor, a mirror, a lens, and the like. On the other hand, the light receiver and the signal processing unit receive the reflected light and calculate the distance by signal processing.
 ここでLiDARに採用されている手段としては、TOF方式(Time of Flight)と呼ばれているLiDARスキャン装置114などがあり、このLiDARスキャン装置114は、図7に示すように、レーザードライバー114aによる制御に基づいて発光素子114bから照射レンズ114cを通じてレーザー光を照射パルスPlu1として出力する。この照射パルスPlu1は測定対象Ob1によって反射されて反射パルスPlu2として受光レンズ114dに入射され、受光素子114eで検出される。この受光素子114eによる検出結果は、信号受光回路114fによって電気信号としてLiDARスキャン装置114から出力される。このようなLiDARスキャン装置114では、立ち上がり時間が数nsで、光ピークパワーが数10Wの超短パルスを測定物体に向けて照射し、その超短パルスが測定物体で反射して受光素子に戻ってくるまでの時間tを測定する。このときの物体までの距離をL、光速をcとすると、
 L=(c×t)/2
により算出される。
Here, as means adopted in LiDAR, there is a LiDAR scanning device 114 called a TOF method (Time of Flight), and this LiDAR scanning device 114 is based on a laser driver 114a as shown in FIG. Based on the control, the laser light is output from the light emitting element 114b through the irradiation lens 114c as an irradiation pulse Pl1. The irradiation pulse Pl1 is reflected by the measurement object Ob1, is incident on the light receiving lens 114d as a reflection pulse Pl2, and is detected by the light receiving element 114e. The detection result by the light receiving element 114e is output from the LiDAR scanning device 114 as an electric signal by the signal light receiving circuit 114f. In such a LiDAR scanning device 114, an ultrashort pulse having a rise time of several ns and an optical peak power of several tens of watts is irradiated toward the measurement object, and the ultrashort pulse is reflected by the measurement object and returned to the light receiving element. The time t until it comes is measured. If the distance to the object at this time is L and the speed of light is c,
L = (c × t) / 2
Is calculated by
 このLiDARシステムの基本的な動作としては、図8(a)~(c)に示すように、LiDARスキャン装置114から射出され、変調されたレーザー光が回転するミラー114gで反射され、レーザー光が左右に振られ、或いは360°で回転されることで走査され反射して戻ってきたレーザー光が、再びLiDARスキャン装置114の受光素子114eで捕捉される。補足された反射光は、最終的には、回転角度に応じた信号強度が示された点群データPelY及びPelXとして得られる。なお、回転式のLiDARシステムとしては、例えば、図9のように中心部が回転してレーザー光が照射され、360度の走査が可能になっている。 As shown in FIGS. 8A to 8C, the basic operation of the LiDAR system is as follows. The laser beam emitted from the LiDAR scanning device 114 and reflected by the rotating mirror 114g is reflected from the laser beam. The laser beam which is swung left and right or rotated by 360 ° and scanned and reflected back is captured by the light receiving element 114e of the LiDAR scanning device 114 again. The captured reflected light is finally obtained as point cloud data PelY and PelX in which the signal intensity corresponding to the rotation angle is shown. Note that, as a rotary LiDAR system, for example, as shown in FIG. 9, the central portion is rotated and irradiated with laser light, and scanning of 360 degrees is possible.
 上述したように、LiDARセンサーのレーザー光は指向性が強いので、遠方距離まで照射した場合でも画面の一部分にしか照射されない性質を持っている。したがって、図6に示したシェーディング部15では、レーザー光照射部分抽出部15aによって、そのレーザー光が照射された部位のみの3D形状を抽出してシェーディングし、そのシェーディング画像D106を出力することになる。 As described above, since the laser beam of the LiDAR sensor has a strong directivity, it has a property that it can be irradiated only to a part of the screen even when it is irradiated to a far distance. Therefore, in the shading unit 15 shown in FIG. 6, the 3D shape of only the portion irradiated with the laser beam is extracted and shaded by the laser beam irradiation portion extraction unit 15a, and the shading image D106 is output. .
 一方、同じくレーザー光照射部分の3D形状データD107を入力した深度画像生成部16では、レーザー光照射部分抽出部16aによって、レーザー光照射に係る部分だけを抽出した深度画像D108を出力することになる。図10は、レーザー交渉者部分を抽出した例を図示したものであり、画像中央に走行中の車両の上部に取り付けたLiDARから360度方向にレーザー光のビームが放射されている。同図に示した例では、画面上部左側に自動車が、ビーム照射を受けてその反射光によって検知されており、画面上部右側には歩行者がビーム照射を受けてその反射光によって検知されている。 On the other hand, in the depth image generation unit 16 that has also received the 3D shape data D107 of the laser light irradiation portion, the laser light irradiation portion extraction unit 16a outputs a depth image D108 in which only the portion related to laser light irradiation is extracted. . FIG. 10 shows an example in which a laser negotiator part is extracted, and a laser beam is emitted in a 360-degree direction from LiDAR attached to the upper part of a running vehicle in the center of the image. In the example shown in the figure, the car is detected by the reflected light upon beam irradiation on the upper left side of the screen, and the pedestrian is detected by the reflected light upon beam irradiation on the upper right side of the screen. .
 したがって、シェーディング部15では、例えば図10の自動車の3D形状を、3DCG技術を用いてシェーディングした結果の画像を生成すればよい。なお(なお)、上述した第1実施形態(図1)ではRGB画像を内部で生成してからR成分のみを出力する構成としたが、レーザー光の反射光はそもそもRGBのような色成分を持たない光線なので、本実施形態では、直接グレイスケール化したシェーディング画像D106を出力することになる。次に、深度画像生成部16では、第1実施形態で述べた深度画像が画面全体であったのに対して、レーザー光の反射部分のみを対象とした深度画像D108を生成する。 Therefore, for example, the shading unit 15 may generate an image as a result of shading the 3D shape of the automobile shown in FIG. 10 using the 3DCG technology. Note that, in the first embodiment (FIG. 1) described above, the RGB image is generated internally and then only the R component is output. However, the reflected light of the laser beam originally has a color component such as RGB. In this embodiment, the shaded image D106 that has been directly grayscaled is output because it is a light beam that does not have. Next, the depth image generation unit 16 generates the depth image D108 for only the reflection portion of the laser light, whereas the depth image described in the first embodiment is the entire screen.
 以上の動作により得られたグレイスケール化したシェーディング画像D106と深度画像D108とが、本実施形態の出力画像として送出される。これらの2つの画像出力は画像認識やその認識機能学習に用いることができる。 The gray scaled shading image D106 and depth image D108 obtained by the above operation are transmitted as output images of the present embodiment. These two image outputs can be used for image recognition and learning of the recognition function.
[第3実施形態]
 次いで、本発明の第3実施形態に係る仮想画像のディープラーニング認識システムについて説明する。本実施形態では、第1実施形態で述べた近赤外線センサーを用いた仮想画像システム、及び第2実施形態で述べたLiDARセンサーを用いた仮想画像システムを、ディープラーニング認識システムなど、自動運転などで多用されているAI認識技術に適用し、実際に撮影不可能な環境での仮想環境画像を、様々なセンサーに対して供給可能とする。
[Third Embodiment]
Next, a virtual image deep learning recognition system according to a third embodiment of the present invention will be described. In the present embodiment, the virtual image system using the near-infrared sensor described in the first embodiment and the virtual image system using the LiDAR sensor described in the second embodiment are automatically operated such as a deep learning recognition system. It is applied to AI recognition technology that is widely used, and virtual environment images in an environment that cannot actually be photographed can be supplied to various sensors.
(仮想画像のディープラーニング認識システムの構成)
 図11は、現在最も実績が高いとされているバックプロパゲーション型のニューラルネットワークを用いたディープラーニング認識システムの構成図である。本実施形態に係るディープラーニング認識システムでは、ニューラルネットワーク計算部17とバックプロパゲーション部18とから概略構成される。
(Configuration of virtual image deep learning recognition system)
FIG. 11 is a configuration diagram of a deep learning recognition system using a back-propagation type neural network that is currently considered to have the highest performance. The deep learning recognition system according to the present embodiment is roughly configured by a neural network calculation unit 17 and a back propagation unit 18.
 ニューラルネットワーク計算部17は、図12に示すような多層から構成されるニューラルネットワークを備え、このニューラルネットワークに対して、図1で示した出力であるグレイスケール画像D104と深度画像D105とが入力される。そしてニューラルネット内で予め設定された係数(608、610)に基づいて非線形計算が行われて、最終的な出力611が得られる。 The neural network calculation unit 17 includes a neural network composed of multiple layers as shown in FIG. 12, and the grayscale image D104 and the depth image D105, which are the outputs shown in FIG. 1, are input to this neural network. The Then, non-linear calculation is performed based on coefficients (608, 610) set in advance in the neural network, and a final output 611 is obtained.
 一方、バックプロパゲーション部18では、ニューラルネットワーク計算部17における計算結果である計算値D110が入力されて、比較対象になる教師データ(例えば、実写に基づく照射画像や深度画像などのデータを用いることができる。)との間で誤差を計算する。図11に例示したシステムでは、グレイスケール画像D104に対する教師データとしてグレイスケール画像D111が入力され、深度画像D105に対する教師データとして深度画像D112が入力される。 On the other hand, the backpropagation unit 18 receives a calculation value D110 that is a calculation result of the neural network calculation unit 17, and uses teacher data (for example, data such as an irradiation image or a depth image based on a real image) to be compared. Error can be calculated with In the system illustrated in FIG. 11, a grayscale image D111 is input as teacher data for the grayscale image D104, and a depth image D112 is input as teacher data for the depth image D105.
 ここで、バックプロパゲーション部18では、バックプロパゲーション法による演算が実行される。このバックプロパゲーション法は、ニューラルネットの出力と教師データがどの程度誤差があるかを計算し、その結果を逆伝搬することで出力から再度入力方向に計算を行う。本実施形態では、このフィードバックした誤差値D109を受け取ったニューラルネットワーク計算部17が、再度所定の計算を行い、その結果をバックプロパゲーション部18に入力する。以上のループ内の動作を、誤差値が予め設定した閾値よりも小さくなるまで実行し、十分に収束したと判断されたときにニューラルネット計算を終了する。 Here, the back-propagation unit 18 performs an operation by the back-propagation method. This back-propagation method calculates how much error there is between the output of the neural network and the teacher data, and reversely propagates the result to calculate again from the output in the input direction. In this embodiment, the neural network calculation unit 17 that has received the error value D109 fed back performs a predetermined calculation again and inputs the result to the backpropagation unit 18. The above operations in the loop are executed until the error value becomes smaller than a preset threshold value, and the neural network calculation is terminated when it is determined that the error has sufficiently converged.
 以上の動作を完了すると、ニューラルネットワーク計算部17内のニューラルネットワーク内の係数値(608、610)が確定することになり、このニューラルネットを用いて、実際の画像に対するディープラーニング認識を行うことができる。 When the above operation is completed, the coefficient values (608, 610) in the neural network in the neural network calculation unit 17 are determined, and deep learning recognition for an actual image can be performed using this neural network. it can.
 なお、本実施形態では、第1実施形態で説明した近赤外線画像の出力画像に対するディープラーニング認識を例示したが、同様の手法を用いることで、第2実施形態のLiDARセンサーの出力画像に対するディープラーニング認識にも、全く同様に対応することができる。その場合には、図11の左端の入力画像は、図6のシェーディング画像D106及び深度画像D108となる。 In this embodiment, the deep learning recognition for the output image of the near-infrared image described in the first embodiment is exemplified. However, by using the same method, the deep learning for the output image of the LiDAR sensor of the second embodiment is performed. Recognition can be handled in exactly the same way. In this case, the input image at the left end in FIG. 11 is the shading image D106 and the depth image D108 in FIG.
[第4実施形態]
 次いで、本発明の第4実施形態について説明する。上述した第2実施形態で述べたLiDARセンサーを用いた仮想画像システムの出力画像のうち、深度画像生成部16からは、深度画像D108が出力される。この深度画像が実際にレーザー光を想定した距離画像としてどの程度の精度があるかは、本シミュレーションシステムの評価ポイントとして非常に重要である。本実施形態では、この深度画像を評価する評価システムに本発明を適用した例を説明する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. Of the output images of the virtual image system using the LiDAR sensor described in the second embodiment, a depth image D108 is output from the depth image generation unit 16. How accurate this depth image is as a distance image that actually assumes laser light is very important as an evaluation point of this simulation system. In the present embodiment, an example in which the present invention is applied to an evaluation system for evaluating this depth image will be described.
(深度画像評価システムの構成)
 図13に示すように、本実施形態に係る深度画像評価システムは、上述した深度画像生成部16から出力される深度画像D108の評価手段として構成されたものであり、TOF計算部19と、距離画像生成部20と、比較評価部21とから構成される。
(Configuration of depth image evaluation system)
As shown in FIG. 13, the depth image evaluation system according to the present embodiment is configured as an evaluation unit for the depth image D108 output from the depth image generation unit 16 described above, and includes a TOF calculation unit 19 and a distance. An image generation unit 20 and a comparative evaluation unit 21 are included.
 TOF計算部19は、深度画像生成部16により生成された深度画像D108について、TOF値等を含むTOF情報を計算するモジュールであり、光源から送出された投光パルスが被写体によって反射されて、この反射されたパルスが受光パルスとしてセンサーによって受光された際の時間差である遅れ時間に相当する。この遅れ時間がTOF計算部19からTOF値D113として出力される。 The TOF calculation unit 19 is a module that calculates TOF information including the TOF value and the like for the depth image D108 generated by the depth image generation unit 16, and the projection pulse sent from the light source is reflected by the subject, and this This corresponds to a delay time that is a time difference when the reflected pulse is received by the sensor as a received light pulse. This delay time is output from the TOF calculation unit 19 as a TOF value D113.
 距離画像生成部20は、TOF計算部19で算出されたTOF値D113に基づいて、レーザー照射部分の各点のTOFを取得して、その各点における遅れ時間に基づいて各点までの距離Lを算出し、各点までの距離Lを画像で表現した距離画像D114を生成するモジュールである。 The distance image generation unit 20 acquires the TOF of each point of the laser irradiation portion based on the TOF value D113 calculated by the TOF calculation unit 19, and based on the delay time at each point, the distance L to each point And a distance image D114 in which the distance L to each point is represented by an image.
 比較評価部21は、距離画像生成部20で生成された距離画像D114と、深度画像生成部16から入力された前記深度画像D108との間で比較計算を行い、それらの合致度などを含む比較結果に基づいて評価を行うモジュールである。比較手法としては一般的に用いられている絶対値2乗誤差などを用いることができる。この比較結果の値が大きくなるほど両者の差が大きいことになり、3DCGモデリングを基にした場合の深度画像が、実際にレーザー光のTOFを想定して生成した距離画像とどの程度近いかを評価することができる。 The comparison evaluation unit 21 performs a comparison calculation between the distance image D114 generated by the distance image generation unit 20 and the depth image D108 input from the depth image generation unit 16, and includes a comparison including the degree of coincidence thereof. This module evaluates based on the results. As a comparison method, a generally used absolute value square error or the like can be used. The larger the value of this comparison result, the greater the difference between the two. Evaluating how close the depth image based on 3DCG modeling is to the distance image actually generated assuming the TOF of laser light can do.
(深度画像評価システムの動作)
 次に、上述した構成を有する深度画像評価システムの動作について説明する。
 深度画像生成部16により生成された深度画像D108は、TOF計算部19に入力された後、TOFの時間が計算される。このTOFは、図7で述べたtである。詳述すると、このTOFは、図14(a)に示すように、光源からレーザー光が投光パルスとしてパルス状に送出されると、この投光パルスが被写体によって反射されて、この反射されたパルスが受光パルスとしてセンサーによって受光される。その際の時間差を計測する。この時間差は、図14(b)に示すように、投光パルスと受光パルス間の遅れ時間に相当する。
(Operation of depth image evaluation system)
Next, the operation of the depth image evaluation system having the above-described configuration will be described.
After the depth image D108 generated by the depth image generation unit 16 is input to the TOF calculation unit 19, the time of TOF is calculated. This TOF is t described in FIG. More specifically, as shown in FIG. 14A, the TOF is reflected by a subject when the laser light is emitted from the light source in the form of a pulse as a light projection pulse. The pulse is received by the sensor as a received light pulse. The time difference at that time is measured. This time difference corresponds to a delay time between the light projection pulse and the light reception pulse, as shown in FIG.
 以上より図6のTOF計算部19で算出されたTOF値D113を出力する。このTOF計算部19によって、一旦、レーザー照射部分の各点のTOFが分かれば、これを以下の式で逆算することで各点の距離Lが求まる。
   L=(1/2)×c×t
   (c:光速、t:TOF)
 上記の計算によって照射部画像の各点の距離画像D114が、距離画像生成部20において生成される。その後、前記深度画像D108と、距離画像D114との間で比較計算が行われる。比較手段としては一般的に用いられている絶対値2乗誤差などで構わない。この値が大きくなるほど両者の差が大きいことになり、3D CGモデリングを基にした場合の深度画像が、実際にレーザー光のTOF(こちらの方が正しい)を想定して生成した距離画像とどの程度近いかを評価することができる。
From the above, the TOF value D113 calculated by the TOF calculation unit 19 in FIG. 6 is output. Once the TOF calculation unit 19 knows the TOF of each point of the laser irradiation portion, the distance L of each point can be obtained by performing reverse calculation using the following equation.
L = (1/2) × c × t
(C: speed of light, t: TOF)
The distance image generation unit 20 generates the distance image D114 of each point of the irradiation unit image by the above calculation. Thereafter, a comparison calculation is performed between the depth image D108 and the distance image D114. As a comparison means, a commonly used absolute value square error may be used. The larger the value, the greater the difference between the two. The depth image based on 3D CG modeling is actually the distance image generated assuming the TOF of laser light (this is correct). It is possible to evaluate whether the degree is close.
比較結果D115は上記のように、絶対値2乗誤差のような数値であっても、或いは閾値処理の後で両者が近似されていないというシグナルでも構わない。もし後者の場合には、例えば図6の3Dモデリング部11に結果がフィードバックされて再度モデリングを実行することも考えられる。この処理動作を繰り返し実行して、所定の近似レベルまで実行することで高精度の3D CGを基にした深度画像を生成することができる。 As described above, the comparison result D115 may be a numerical value such as an absolute value square error, or may be a signal that both are not approximated after the threshold processing. In the latter case, for example, the result may be fed back to the 3D modeling unit 11 in FIG. By repeatedly executing this processing operation to a predetermined approximate level, it is possible to generate a depth image based on highly accurate 3D-CG.
[第5実施形態]
 次いで、本発明の第5実施形態について説明する。上述した第1実施形態~第4実施形態までは、いずれも近赤外線画像もしくはLiDARセンサーの仮想画像を生成する手段に関するものであったが、本実施形態では、これらの仮想画像を用いて実際に自動運転の走行をリアルタイムで行う場合の制御について説明する。本実施形態では、本発明のシミュレーターシステムを、自動車の自動運転走行システムにおける画像認識機能モジュールの機械学習及びテストに適用した場合を例示する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described. The first to fourth embodiments described above all relate to means for generating a near-infrared image or a virtual image of a LiDAR sensor, but in this embodiment, these virtual images are actually used. A description will be given of the control in the case of performing the driving in the automatic driving in real time. In this embodiment, the case where the simulator system of this invention is applied to the machine learning and test of the image recognition function module in the automatic driving | running | working driving system of a motor vehicle is illustrated.
 ここで、自動運転システムとは、事故などの可能性を事前に検知し回避するADAS(先進運転システム:advanced driver assistance system)等のシステムであり、自動車の自動運転走行を実現するため、実際に車両に搭載したカメラ映像を、画像認識技術を用いて認識して、他の車両や歩行者、信号機などのオブジェクトを検出し、自動で速度低下、回避などの制御を行う。 Here, the autonomous driving system is a system such as ADAS (advanced driver system) that detects and avoids the possibility of accidents in advance, and in order to realize the automatic driving of the car, It recognizes the camera video mounted on the vehicle using image recognition technology, detects other vehicles, pedestrians, traffic lights, and other objects, and automatically performs control such as speed reduction and avoidance.
(車両同期シミュレーターシステムの全体構成)
 図15は、本実施形態に係るシミュレーターシステムの全体構成を示す概念図である。本実施形態に係るシミュレーターシステムは、単数又は複数のシミュレーション対象について、シミュレーションプログラムを実行するとともに、これらのシミュレータープログラムのテストや機械学習を実行する。このシミュレーターシステムは、図15に示すように、通信ネットワーク3上にシミュレーターサーバー2が配置され、このシミュレーターサーバー2に対して、通信ネットワーク3を通じて、自車両の位置を生成又は取得する情報処理端末1aや車載装置1bが接続されている。
(Overall configuration of vehicle synchronization simulator system)
FIG. 15 is a conceptual diagram showing the overall configuration of the simulator system according to the present embodiment. The simulator system according to the present embodiment executes a simulation program for one or a plurality of simulation targets, and executes tests and machine learning of these simulator programs. In this simulator system, as shown in FIG. 15, a simulator server 2 is arranged on a communication network 3, and an information processing terminal 1 a that generates or acquires the position of the own vehicle through the communication network 3 with respect to the simulator server 2. The in-vehicle device 1b is connected.
 ここで、通信ネットワーク3は、通信プロトコルTCP/IPを用いたIP網であって、種々の通信回線(電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワーク)を相互に接続して構築される分散型の通信ネットワークである。このIP網には、10BASE-Tや100BASE-TX等によるイントラネット(企業内ネットワーク)や家庭内ネットワークなどのLANなども含まれる。また、PC1aの中にシミュレーターのソフトウェアがインストールされているケースも多々ある。この場合には、PC単体でのシミュレーションを行うことができる。 Here, the communication network 3 is an IP network using the communication protocol TCP / IP, and includes various communication lines (telephone lines, ISDN lines, ADSL lines, optical lines such as optical lines, dedicated lines, WCDMA (registered trademark)). ) And 3rd generation (3G) communication systems such as CDMA2000, 4th generation (4G) communication systems such as LTE, and 5th generation (5G) and later communication systems, as well as WiFi (registered trademark) and Bluetooth. (A wireless communication network such as (registered trademark)) is a distributed communication network constructed by connecting each other. This IP network includes a LAN such as an intranet (in-company network) or a home network based on 10BASE-T or 100BASE-TX. In many cases, simulator software is installed in the PC 1a. In this case, simulation with a single PC can be performed.
 シミュレーターサーバー2は、単数又は複数のサーバー装置群により構成され、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。このシミュレーターサーバー2には、サーバー用のアプリケーションソフトウェアを実行するサーバーコンピューター、もしくはそのようなコンピューター上でのアプリケーションの実行を管理補助するミドルウェアで構成されたアプリケーションサーバーが含まれる。 The simulator server 2 is composed of one or a plurality of server device groups, and the function of each server device is realized by a server computer that executes various information processing or software having the function. The simulator server 2 includes an application server configured by a server computer that executes application software for the server, or middleware that assists in managing the execution of the application on such a computer.
 また、シミュレーターサーバー2には、クライアント装置から、HTTPのレスポンス要求を処理するウェブサーバーが含まれ、このウェブサーバーは、バックエンドの関係データベース管理システム(RDBMS)を実行するデータベース中核層への橋渡しを担い、データの加工などの処理を行う。関係データベースサーバーは、データベース管理システム(DBMS)が稼動しているサーバーであり、クライアント装置やアプリケーションサーバー(APサーバー)に要求されたデータを送信したり、操作要求を受け付けてデータを書き換えたり削除したりする機能を有する。 Further, the simulator server 2 includes a web server that processes an HTTP response request from a client device, and this web server serves as a bridge to a database core layer that executes a back-end relational database management system (RDBMS). Responsible for processing such as data processing. The relational database server is a server on which a database management system (DBMS) is operating, and transmits requested data to client devices and application servers (AP servers), and accepts operation requests to rewrite or delete data. It has a function to do.
 情報処理端末1a及び車載装置1bは、通信ネットワーク3に接続されたクライアント装置であり、CPU等の演算処理装置を備え、専用のクライアントプログラム5を実行することによって種々の機能を提供する。この情報処理端末としては、例えば、パーソナルコンピュータ等の汎用コンピューターや機能を特化させた専用装置により実現することができ、スマートフォンやモバイルコンピューター、PDA(Personal Digital Assistance )、携帯電話機、ウェアラブル端末装置等が含まれる。 The information processing terminal 1 a and the in-vehicle device 1 b are client devices connected to the communication network 3, are provided with arithmetic processing devices such as a CPU, and provide various functions by executing a dedicated client program 5. The information processing terminal can be realized by, for example, a general-purpose computer such as a personal computer or a dedicated device specialized in functions, such as a smartphone, a mobile computer, a PDA (Personal Digital Assistance), a mobile phone, a wearable terminal device, etc. Is included.
 この情報処理端末1a又は車載装置1bは、専用のクライアントプログラム5を通じて上記シミュレーターサーバー2にアクセスしてデータの送受信が可能となっている。このクライアントプログラム5は、その一部又は全部が、ドライビングシミュレーションシステムや、車載された自動運転走行システムに組み込まれ、車両に搭載したカメラが撮影した映像や、取り込まれた風景映像(本実施形態ではCG動画が含まれる。)等を、画像認識技術を用いて認識して、映像中の他の車両や歩行者、信号機などのオブジェクトを検出し、その認識結果に基づいて自車両とそのオブジェクトの位置関係を算出し、その算出結果に応じて、自動で速度低下、回避などの制御を行う。なお、本実施形態に係るクライアントプログラム5は、画像認識の機能をシミュレーターサーバー2で行わせ、図18に示す車両位置情報計算部51による自動運転の仕組みによって、シミュレーターサーバー2における認識結果に応じて自動車を仮想的に地図上で走行させたり、実際に車両を走行させたりして、自車両の位置情報を変位させるように位置情報を計算し、又は取得する。 The information processing terminal 1a or the in-vehicle device 1b can access the simulator server 2 through the dedicated client program 5 to transmit and receive data. The client program 5 is partly or wholly incorporated into a driving simulation system or an in-vehicle automated driving system, and images captured by a camera mounted on the vehicle, or captured landscape images (in this embodiment, CG video is included) using image recognition technology to detect other vehicles, pedestrians, traffic lights, and other objects in the video, and based on the recognition results, The positional relationship is calculated, and control such as speed reduction and avoidance is automatically performed according to the calculation result. Note that the client program 5 according to the present embodiment causes the simulator server 2 to perform the image recognition function, and according to the recognition result in the simulator server 2 by the automatic driving mechanism by the vehicle position information calculation unit 51 shown in FIG. The position information is calculated or acquired so as to displace the position information of the own vehicle by causing the automobile to run virtually on the map or actually running the vehicle.
(各装置の構成)
 次いで、各装置の構成について具体的に説明する。図16は、本実施形態に係るクライアント装置の内部構成を示すブロック図であり、図17は、本実施形態に係るシミュレーターサーバーの内部構成を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
(Configuration of each device)
Next, the configuration of each device will be specifically described. FIG. 16 is a block diagram illustrating an internal configuration of the client device according to the present embodiment, and FIG. 17 is a block diagram illustrating an internal configuration of the simulator server according to the present embodiment. The “module” used in the description refers to a functional unit that is configured by hardware such as an apparatus or a device, software having the function, or a combination thereof, and achieves a predetermined operation. .
(1)クライアント装置の構成
 情報処理端末1aは、パーソナルコンピュータ等の汎用的なコンピューターや専用の装置で実現することができ、一方、車載装置1bは、パーソナルコンピュータ等の汎用コンピューターの他、車載される自動運転走行システムなどの専用装置(カーナビゲーションシステムと捉えることもできる)とすることができ、図16に示すように、具体的には、CPU102と、メモリ103と、入力インターフェース104と、ストレージ装置101と、出力インターフェース105と、通信インターフェース106とを備えている。なお、本実施形態では、これらの各デバイスは、CPUバスを介して接続されており、相互にデータの受渡しが可能となっている。
(1) Configuration of Client Device The information processing terminal 1a can be realized by a general-purpose computer such as a personal computer or a dedicated device. On the other hand, the in-vehicle device 1b is mounted on a vehicle in addition to a general-purpose computer such as a personal computer. As shown in FIG. 16, specifically, a CPU 102, a memory 103, an input interface 104, and a storage device can be used. A device 101, an output interface 105, and a communication interface 106 are provided. In the present embodiment, these devices are connected via a CPU bus, and data can be exchanged between them.
 メモリ103及びストレージ装置101は、データを記録媒体に蓄積するとともに、これら蓄積されたデータを各デバイスの要求に応じて読み出す装置であり、例えば、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)、メモリカード等により構成することができる。入力インターフェース104は、キーボードやポインティングデバイス、タッチパネルやボタン等の操作デバイスから操作信号を受信するモジュールであり、受信された操作信号はCPU402に伝えられ、OSや各アプリケーションに対する操作を行うことができる。出力インターフェース105は、ディスプレイやスピーカー等の出力デバイスから映像や音声を出力するために映像信号や音声信号を送出するモジュールである。 The memory 103 and the storage device 101 are devices that store data in a recording medium and read out the stored data in response to a request from each device. For example, a hard disk drive (HDD), a solid state drive (SSD), A memory card or the like can be used. The input interface 104 is a module that receives an operation signal from an operation device such as a keyboard, a pointing device, a touch panel, or a button. The received operation signal is transmitted to the CPU 402 and can perform operations on the OS and each application. The output interface 105 is a module that transmits a video signal and an audio signal in order to output video and audio from an output device such as a display and a speaker.
 特に、クライアント装置が車載装置1bである場合、この入力インターフェース104には、自動運転システムのための上記ADAS等のシステムが接続され、自動車の自動運転走行を実現するため、車両に搭載したカメラ104a等のイメージセンサーの他、LiDARセンサー、ミリ波センサー、赤外線センサー等の各種センサー手段が接続される。 In particular, when the client device is the in-vehicle device 1b, the input interface 104 is connected to a system such as the above-mentioned ADAS for an automatic driving system, and the camera 104a mounted on the vehicle in order to realize automatic driving driving of the automobile. In addition to an image sensor such as the above, various sensor means such as a LiDAR sensor, a millimeter wave sensor, and an infrared sensor are connected.
 通信インターフェース106は、他の通信機器とデータの送受信を行うモジュールであり、通信方式としては、例えば、電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワークが含まれる。 The communication interface 106 is a module that transmits and receives data to and from other communication devices. As a communication method, for example, a public line such as a telephone line, an ISDN line, an ADSL line, and an optical line, a dedicated line, WCDMA (registered trademark) In addition to 3rd generation (3G) communication systems such as CDMA2000, 4th generation (4G) communication systems such as LTE, and 5th generation (5G) and later communication systems, WiFi (registered trademark), Bluetooth ( Wireless communication networks such as registered trademark).
 CPU102は、各部を制御する際に必要な種々の演算処理を行う装置であり、各種プログラムを実行することにより、CPU102上に仮想的に各種モジュールを構築する。このCPU102上では、OS(Operating System)が起動・実行されており、このOSによって情報処理端末1a~c,4,5の基本的な機能が管理・制御されている。また、このOS上では種々のアプリケーションが実行可能になっており、CPU102でOSプログラムが実行されることによって、情報処理端末の基本的な機能が管理・制御されるとともに、CPU102でアプリケーションプログラムが実行されることによって、種々の機能モジュールがCPU上に仮想的に構築される。 The CPU 102 is a device that performs various arithmetic processes necessary for controlling each unit, and virtually constructs various modules on the CPU 102 by executing various programs. On this CPU 102, an OS (Operating System) is activated and executed, and the basic functions of the information processing terminals 1a to 1c, 4 and 5 are managed and controlled by this OS. Various applications can be executed on the OS, and the OS program is executed by the CPU 102, whereby the basic functions of the information processing terminal are managed and controlled, and the application program is executed by the CPU 102. As a result, various functional modules are virtually constructed on the CPU.
 本実施形態では、CPU102上でクライアントプログラム5を実行することによって、クライアント側実行部102aが構成され、このクライアント側実行部102aを通じて、仮想地図上又は実際の地図上における自車両の位置情報を生成又は取得し、シミュレーターサーバー2に送信するとともに、シミュレーターサーバー2側における風景映像(本実施形態ではCG動画が含まれる)の認識結果を受信して、受信した認識結果に基づいて自車両とそのオブジェクトの位置関係を算出し、その算出結果に応じて、自動で速度低下、回避などの制御を行う。 In the present embodiment, the client side execution unit 102a is configured by executing the client program 5 on the CPU 102, and the position information of the host vehicle on the virtual map or the actual map is generated through the client side execution unit 102a. Alternatively, it is acquired and transmitted to the simulator server 2, and a recognition result of a landscape video (including a CG video in the present embodiment) on the simulator server 2 side is received, and the own vehicle and its object are received based on the received recognition result The positional relationship is calculated, and control such as speed reduction and avoidance is automatically performed according to the calculation result.
(2)シミュレーターサーバーの構成
 本実施形態に係るシミュレーターサーバー2は、通信ネットワーク3を通じて車両同期シミュレーターサービスを提供するサーバー装置群であり、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。具体的にシミュレーターサーバー2は、図17に示すように、通信インターフェース201と、UDP同期制御部202と、シミュレーション実行部205と、UDP情報送受信部206と、各種データベース210~213とを備えている。
(2) Configuration of Simulator Server The simulator server 2 according to the present embodiment is a server device group that provides a vehicle synchronization simulator service through the communication network 3, and the function of each server device is a server computer that executes various information processing or Realized by software with this function. Specifically, as shown in FIG. 17, the simulator server 2 includes a communication interface 201, a UDP synchronization control unit 202, a simulation execution unit 205, a UDP information transmission / reception unit 206, and various databases 210 to 213. .
 通信インターフェース201は、通信ネットワーク3を通じて、他の機器とデータの送受信を行うモジュールであり、通信方式としては、例えば、電話回線やISDN回線、ADSL回線、光回線などの公衆回線、専用回線、WCDMA(登録商標)及びCDMA2000などの第3世代(3G)の通信方式、LTEなどの第4世代(4G)の通信方式、及び第5世代(5G)以降の通信方式等の他、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワークが含まれる。 The communication interface 201 is a module that transmits / receives data to / from other devices through the communication network 3. As a communication method, for example, a public line such as a telephone line, an ISDN line, an ADSL line, an optical line, a dedicated line, WCDMA In addition to third-generation (3G) communication systems such as (registered trademark) and CDMA2000, fourth-generation (4G) communication systems such as LTE, and fifth-generation (5G) and subsequent communication systems, WiFi (registered trademark) ), Bluetooth (registered trademark) and the like.
 図18では、UDP同期制御部202は、クライアント装置1側における自車両を変位させる位置情報の計算処理と、シミュレーターサーバー2側における画像生成処理及び画像認識処理とを同期制御するモジュールである。クライアント装置1側の車両位置情報計算部51は、UDP情報送受信部206を通じて、画像認識部204における認識結果を取得し、取得された認識結果を用いて車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する。 In FIG. 18, the UDP synchronization control unit 202 is a module that synchronously controls the position information calculation processing for displacing the host vehicle on the client device 1 side, and the image generation processing and image recognition processing on the simulator server 2 side. The vehicle position information calculation unit 51 on the client device 1 side acquires the recognition result in the image recognition unit 204 through the UDP information transmission / reception unit 206, and generates a control signal for controlling the operation of the vehicle using the acquired recognition result. The position information of the host vehicle is changed / corrected based on the generated control signal.
 UDP情報送受信部206は、クライアント装置1側のクライアント側実行部102aと協働して、これらの間でデータを送受信するモジュールであり、本実施形態では、クライアント装置1側で計算され又は取得された位置情報を特定のフォーマットにパケット化してシミュレーターサーバー2側に送出するとともに、このパケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送し、シミュレーターサーバー2側で上記パケットデータを受信してデ・パケット化し、上記デ・パケット化されたデータを画像生成部203に入力して画像を生成する。また、本実施形態においてUDP情報送受信部206は、UDP同期制御部202によって各装置間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信する。 The UDP information transmission / reception unit 206 is a module that cooperates with the client-side execution unit 102a on the client device 1 side to transmit / receive data between them. In this embodiment, the UDP information transmission / reception unit 206 is calculated or acquired on the client device 1 side. The position information is packetized into a specific format and sent to the simulator server 2 side. The packetized data is transmitted via a network or a transmission bus in a specific device, and the simulator server 2 side transmits the packet data. The data is received and de-packetized, and the de-packetized data is input to the image generation unit 203 to generate an image. In this embodiment, the UDP information transmitting / receiving unit 206 transmits / receives signals transmitted / received between the devices by the UDP synchronization control unit 202 using UDP (User Datagram Protocol).
 上記各種データベースとしては、地図データベース210と、車両データベース211と、描画用データベース212とを備えている。なお、これらのデータベースは、関係データベース管理システム(RDBMS)により、相互に情報の参照が可能となっている。 The various databases include a map database 210, a vehicle database 211, and a drawing database 212. Note that these databases can be mutually referred to by a relational database management system (RDBMS).
 シミュレーション実行部205は、クライアント装置1側の位置情報取得手段によって生成又は取得され、シミュレーターサーバー2側へ送信された位置情報に基づいて、位置情報で特定された領域を再現したシミュレーション用画像を生成し、その生成されたシミュレーション用画像の中から特定の対象物を、認識機能モジュールを用いて認識し、検出するモジュールである。具体的には、画像生成部203と、画像認識部204とを備えている。 The simulation execution unit 205 generates a simulation image that reproduces the area specified by the position information based on the position information generated or acquired by the position information acquisition unit on the client device 1 side and transmitted to the simulator server 2 side. In this module, a specific object is recognized and detected from the generated simulation image using a recognition function module. Specifically, an image generation unit 203 and an image recognition unit 204 are provided.
 画像生成部203は、クライアント装置1側の位置情報取得手段によって取得され又は計算された位置情報を取得し、この位置情報に基づいて、位置情報で特定された領域(地図上の緯度・経度、方角、視野に基づく風景)をコンピューターグラフィックスで再現したシミュレーション用画像を生成するモジュールである。この画像生成部203で生成されたシミュレーション用画像は、画像認識部204に送出される。なお、この画像生成部203としては、上述した第1実施形態で説明した近赤外線仮想画像生成システム、或いは第2実施形態で説明したLiDARセンサー仮想画像生成システムを採用することができ、これらのシステムでコンピューターグラフィックス技術を用いて生成された各種仮想画像を画像認識部204に入力するようにしてもよい。 The image generation unit 203 acquires the position information acquired or calculated by the position information acquisition unit on the client device 1 side, and based on this position information, the area (latitude / longitude on the map, This is a module that generates a simulation image in which computer graphics are used to reproduce a landscape based on the direction and field of view. The simulation image generated by the image generation unit 203 is sent to the image recognition unit 204. As the image generation unit 203, the near-infrared virtual image generation system described in the first embodiment described above or the LiDAR sensor virtual image generation system described in the second embodiment can be adopted. Thus, various virtual images generated using computer graphics technology may be input to the image recognition unit 204.
 画像認識部204は、画像生成部203によって生成されたシミュレーション用画像の中から特定の対象物を、テスト対象又は機械学習対象である認識機能モジュール204aを用いて認識し検出するモジュールである。この画像認識部204による認識結果情報D06は、クライアント装置1側の車両位置情報計算部51に送信される。画像認識部204には、学習部204bが設けられており、認識機能モジュール204aの機械学習を実行するようになっている。 The image recognition unit 204 is a module that recognizes and detects a specific object from the simulation image generated by the image generation unit 203 using the recognition function module 204a that is a test target or a machine learning target. The recognition result information D06 by the image recognition unit 204 is transmitted to the vehicle position information calculation unit 51 on the client device 1 side. The image recognition unit 204 is provided with a learning unit 204b, and executes machine learning of the recognition function module 204a.
 この認識機能モジュール204aは、カメラ装置により撮影された画像又は画像生成部203で生成されたCGを取得して、その取得された画像中の特徴点を階層的に複数抽出し、抽出された特徴点の階層的な組合せパターンによりオブジェクトを認識するモジュールであり、学習部204bは、この認識機能モジュール204aに対して、上記カメラ装置による撮影画像又は仮想的なCG画像を入力することにより、実際には撮影が困難であったり、再現が困難である画像の特徴点を抽出させて、抽出パターンの多様化を図り、学習効率を向上させる。 The recognition function module 204a acquires an image captured by the camera device or a CG generated by the image generation unit 203, and extracts a plurality of feature points in the acquired image in a hierarchical manner. The module recognizes an object by a hierarchical combination pattern of points, and the learning unit 204b actually inputs a photographed image or virtual CG image by the camera device to the recognition function module 204a. Extracts feature points of images that are difficult to shoot or reproduce, thereby diversifying extraction patterns and improving learning efficiency.
 なお、ここでの画像認識部の認識機能モジュール204aとしては、第3実施形態で説明した仮想画像のディープラーニング認識システムのニューラルネットワーク計算部17を適用することができ、また、上記学習部204bとしては、上述したバックプロパゲーション部18を適用することができる。 As the recognition function module 204a of the image recognition unit here, the neural network calculation unit 17 of the virtual image deep learning recognition system described in the third embodiment can be applied, and as the learning unit 204b, The above-described back propagation unit 18 can be applied.
(車両同期シミュレーターシステムの方法)
 以上の構成を有する車両同期シミュレーターシステムを動作させることによって、本発明の車両同期シミュレーション方法を実施することができる。図4は、本実施形態における画像生成・画像認識に係る構成及び動作を示すブロック図である。図19は、本実施形態における同期シミュレーターの処理手順を示したフローチャート図である。
(Vehicle synchronization simulator system method)
By operating the vehicle synchronization simulator system having the above configuration, the vehicle synchronization simulation method of the present invention can be implemented. FIG. 4 is a block diagram showing a configuration and operation related to image generation / image recognition in the present embodiment. FIG. 19 is a flowchart showing the processing procedure of the synchronization simulator in the present embodiment.
 先ず、車両位置情報計算部51で自車の車両位置情報D02の取得を行う(S101)。具体的にはクライアント装置1側でクライアントプログラム5を実行することによって、地図情報や車両初期データ等の各種データ群D01を車両位置情報計算部51に入力する。次いで、これらの各種データ群D01を用いて仮想地図上又は実際の地図上における自車両の位置情報を計算(生成)又は取得し、その結果を車両位置情報D02として、UDP同期制御部202及びUDP情報送受信部206を通じて、シミュレーターサーバー2側のシミュレーション実行部205に送信する(S102)。 First, the vehicle position information calculation unit 51 acquires the vehicle position information D02 of the own vehicle (S101). Specifically, various data groups D01 such as map information and vehicle initial data are input to the vehicle position information calculation unit 51 by executing the client program 5 on the client device 1 side. Next, using these various data groups D01, the position information of the own vehicle on the virtual map or the actual map is calculated (generated) or acquired, and the result is used as the vehicle position information D02, and the UDP synchronization control unit 202 and the UDP The information is transmitted to the simulation execution unit 205 on the simulator server 2 side through the information transmission / reception unit 206 (S102).
 詳述すると、車両位置情報計算部51では、先ず自車の車両位置情報D02を、UDP同期制御部202からの制御信号D03のタイミングに従って、UDP同期制御部202に対して送出する。車両位置情報計算部51の初期データで、例えば地図データや地図中の自車の位置情報や車体の車輪の回転角,口径などの情報は、所定のストレージ装置101からロードすることができる。UDP同期制御部202及びUDP情報送受信部206では、クライアント装置1側のクライアント側実行部102aと協働して、これらの間でデータを送受信する。具体的にUDP同期制御部202及びUDP情報送受信部206は、クライアント装置1側で計算され又は取得された車両位置情報D02は、車両情報を含む各種データ群を、特定のフォーマットにパケット化されたパケット情報D04としてシミュレーターサーバー2側に送出される。 More specifically, the vehicle position information calculation unit 51 first sends the vehicle position information D02 of the own vehicle to the UDP synchronization control unit 202 according to the timing of the control signal D03 from the UDP synchronization control unit 202. As initial data of the vehicle position information calculation unit 51, for example, map data, position information of the own vehicle in the map, and information such as the rotation angle and diameter of the wheel of the vehicle body can be loaded from a predetermined storage device 101. The UDP synchronization control unit 202 and the UDP information transmission / reception unit 206 transmit and receive data between them in cooperation with the client side execution unit 102a on the client device 1 side. Specifically, the UDP synchronization control unit 202 and the UDP information transmission / reception unit 206 are vehicle position information D02 calculated or acquired on the client device 1 side, and various data groups including vehicle information are packetized into a specific format. The packet information D04 is sent to the simulator server 2 side.
 このパケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送し、シミュレーターサーバー2側で上記パケットデータを受信してデ・パケット化され(S103)、上記デ・パケット化されたデータD05をシミュレーション実行部205の画像生成部203に入力してCG画像が生成される。このとき、UDP情報送受信部206は、UDP同期制御部202によって各装置間において、車両情報を含む各種データ群をパケット化したパケット情報D04はUDP(User Datagram Protocol)を用いて送受信される。 The packetized data is transmitted via a network or a transmission bus in a specific device, and the simulator server 2 receives the packet data to be de-packetized (S103), and the de-packetized data D05 is input to the image generation unit 203 of the simulation execution unit 205 to generate a CG image. At this time, the UDP information transmission / reception unit 206 transmits / receives packet information D04 in which various data groups including vehicle information are packetized between the devices by the UDP synchronization control unit 202 using UDP (User Datagram Protocol).
 詳述すると、UDP同期制御部202では、自車の車両位置情報D02をUDPパケッタイズすることで種データ群をパケット情報D04に変換する。これによってUDPプロトコルを用いた送受信が容易になる。ここでUDP(User Datagram Protocol)について少し述べる。一般にTCPが高信頼性、コネクション型、ウィンドウ制御、再送制御、輻輳制御を行うのに対して、UDPはコネクションレス型プロトコルで信頼性を確保する仕組みがない一方で、処理が簡易なため低遅延という大きな利点がある。本実施形態では各構成部の間をデータ伝送する際に低遅延が要求されるので、TCPではなくUDPを採用している。またさらに現在の音声通信や動画通信において最も普及しているRTP(Realtime Transport Protocol)を用いてもよい。 More specifically, the UDP synchronization control unit 202 converts the seed data group into packet information D04 by UDP packetizing the vehicle position information D02 of the own vehicle. This facilitates transmission / reception using the UDP protocol. Here is a little about UDP (User Datagram Protocol). In general, TCP performs high reliability, connection type, window control, retransmission control, and congestion control, whereas UDP does not have a mechanism to ensure reliability with a connectionless protocol, but has a low latency due to simple processing. There is a big advantage. In this embodiment, since low delay is required when data is transmitted between the components, UDP is used instead of TCP. Furthermore, RTP (Realtime Transport Protocol) most widely used in current voice communication and video communication may be used.
 ここで、次に自車の車両位置情報D02の具体的な内容としては、例えば
・自車の位置情報(路面絶対位置座標等の3次元座標(X,Y,Z))
・自車のオイラー角度
・タイヤの位置情報(タイヤの路面絶対位置座標等の3次元座標(X,Y,Z))
・車輪回転角
・ハンドル、ブレーキの踏みしろ
等の情報が挙げられる。
Here, the specific content of the vehicle position information D02 of the own vehicle is, for example, as follows: • Position information of the own vehicle (three-dimensional coordinates (X, Y, Z) such as road surface absolute position coordinates)
・ Euler angle of own vehicle ・ Tire position information (three-dimensional coordinates (X, Y, Z) such as absolute position coordinates of tire road surface)
・ Information such as wheel rotation angle, steering wheel, and brake pedal.
 車両位置情報D02を受信したUDP情報送受信部206では、車両の情報、例えば車両の位置情報であるXYZ座標、タイヤの位置情報であるXYZ座標、オイラー角度等の各種情報の中から、主に車両のCG画像を生成するのに必要なデータD05を送出する。 In the UDP information transmission / reception unit 206 that has received the vehicle position information D02, the vehicle information, for example, various information such as XYZ coordinates that are vehicle position information, XYZ coordinates that are tire position information, and Euler angles are mainly used as vehicles. The data D05 necessary for generating the CG image is sent out.
 そして、各種データ群をUDPパケットとしたパケット情報D04は、UDP情報送受信部206でデ・パケッタイズ処理によってパケットヘッダとデータ本体のペイロードに分割される。ここで、UDPパケットのデータのやり取りは、距離的に離れた場所間のネットワークを用いた送信でもよいし、シミュレーター等の単体装置内部の、伝送バス間の伝送でも可能である。ペイロードに相当するデータD05は、シミュレーション実行部205の画像生成部203に入力される(S104)。 The packet information D04 in which various data groups are UDP packets is divided into a packet header and a data body payload by the de-packetizing process in the UDP information transmission / reception unit 206. Here, the exchange of UDP packet data may be performed using a network between distant locations, or may be performed between transmission buses within a single device such as a simulator. Data D05 corresponding to the payload is input to the image generation unit 203 of the simulation execution unit 205 (S104).
 シミュレーション実行部205において、画像生成部203は、クライアント装置1側の位置情報取得手段によって取得され又は計算された位置情報を、データD05として取得し、この位置情報に基づいて、位置情報で特定された領域(地図上の緯度・経度、方角、視野に基づく風景)をコンピューターグラフィックスで再現したシミュレーション用画像を生成する(S105)。この画像生成部203で生成されたシミュレーション用画像D13は画像認識部204に送出される。 In the simulation execution unit 205, the image generation unit 203 acquires the position information acquired or calculated by the position information acquisition unit on the client device 1 side as data D05, and is specified by the position information based on the position information. A simulation image in which the region (the landscape based on the latitude / longitude, direction, and field of view on the map) is reproduced by computer graphics is generated (S105). The simulation image D13 generated by the image generation unit 203 is sent to the image recognition unit 204.
 画像生成部203では、所定の画像生成法として、例えば、最新の物理レンダリング(PBR)手法を用いたCG画像生成技術によって、リアリティ豊かな画像を生成する。認識結果情報D06は再度車両位置情報計算部51に入力されて、例えば自車両の次の動作を決定するための車両の位置情報を計算するのに用いられる。 In the image generation unit 203, as a predetermined image generation method, for example, a CG image generation technique using the latest physical rendering (PBR) method is used to generate a realistic image. The recognition result information D06 is input again to the vehicle position information calculation unit 51, and is used, for example, to calculate vehicle position information for determining the next operation of the host vehicle.
 画像生成部203では、例えばPBR手法を用いたCG技法によって、車両のみならず周囲画像、例えば路面、建物、信号機、他の車両、歩行者といったオブジェクトを生成することができる。これはPlayStationなどのゲーム機によるタイトルで、上記のようなオブジェクトが非常にリアルに生成されていることからも、最新のCG技術で十分実現可能なことが分かる。自車両以外のオブジェクトの画像については既に初期データとして保持しているものを用いることが多い。特に自動走行運転のシミュレーターでは、数多くの高速道路、一般道などのサンプルデータを大量にデータベース化しており、それらのデータを適宜使えばよい。 The image generation unit 203 can generate not only vehicles but also surrounding images, for example, objects such as road surfaces, buildings, traffic lights, other vehicles, and pedestrians, using, for example, the CG technique using the PBR method. This is a title by a game machine such as PlayStation, and since the objects as described above are generated very realistically, it can be understood that the latest CG technology can be sufficiently realized. In many cases, an image of an object other than the own vehicle is already stored as initial data. In particular, in an automatic driving simulator, a large amount of sample data on highways and ordinary roads is stored in a database, and these data may be used as appropriate.
 続いて、画像認識部204では、画像生成部203によって生成されたシミュレーション用画像の中から特定の対象物をオブジェクトとして、テスト対象又は機械学習対象である認識機能モジュール204aを用いて認識して抽出する(S106)。ここで、認識されたオブジェクトがなければ(ステップS107における「N」)、次のタイムフレームに移行して(S109)、タイムフレームがなくなるまで(ステップS109における「N」)、上記処理S101~S107を繰り返す((ステップS109における「Y」))。 Subsequently, the image recognition unit 204 recognizes and extracts a specific target object as an object from the simulation image generated by the image generation unit 203 using the recognition function module 204a that is a test target or a machine learning target. (S106). If there is no recognized object (“N” in step S107), the process proceeds to the next time frame (S109), and the above processing S101 to S107 is performed until there is no time frame (“N” in step S109). Is repeated ("Y" in step S109).
 他方、ステップS107において、認識されたオブジェクトが存在する場合には(ステップS107における「Y」)、この画像認識部204による認識結果は認識結果情報D06としてクライアント装置1側の車両位置情報計算部51に送信される。そして、クライアント装置1側の車両位置情報計算部51は、UDP情報送受信部206を通じて、画像認識部204における認識結果情報D06を取得し、取得された認識結果を用いて車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する(S108)。 On the other hand, if a recognized object exists in step S107 (“Y” in step S107), the recognition result by the image recognition unit 204 is recognized as recognition result information D06, and the vehicle position information calculation unit 51 on the client device 1 side. Sent to. Then, the vehicle position information calculation unit 51 on the client device 1 side acquires the recognition result information D06 in the image recognition unit 204 through the UDP information transmission / reception unit 206, and controls to control the operation of the vehicle using the acquired recognition result. A signal is generated, and the position information of the host vehicle is changed / corrected based on the generated control signal (S108).
 詳述すると、ここで生成されたCG画像であるシミュレーション用画像D13は、画像認識部204に入力して既に述べたようにオブジェクトの認識・検出を、例えばディープラーニング等の認識技術を用いて行う。得られた認識結果は他車両や、歩行者、標識、信号機のように画面中の領域情報(例えば抽出された矩形領域のXY2次元座標)で与えられる。 More specifically, the simulation image D13, which is a CG image generated here, is input to the image recognition unit 204 to perform object recognition and detection using a recognition technique such as deep learning as described above. . The obtained recognition result is given by area information on the screen (for example, XY two-dimensional coordinates of the extracted rectangular area) such as other vehicles, pedestrians, signs, and traffic lights.
 自動走行運転のためのシミュレーターを実行する場合、実際の車両走行中の画像中には、他車両、歩行者、建物、路面などの数多くのオブジェクト(対象物)が存在する。自動走行運転の実現のためには、それらのオブジェクトを車両搭載のカメラ映像やミリ波、レーダー波等、各種センサーからのリアルタイムの情報を獲得しながら、例えば自動でハンドルを切る、アクセルを踏む、ブレーキをかける等の動作を行う。 When executing a simulator for automatic driving, there are many objects (objects) such as other vehicles, pedestrians, buildings, and road surfaces in an image during actual vehicle driving. For realization of automatic driving, for example, automatically turning the steering wheel or stepping on the accelerator while acquiring real-time information from various sensors such as camera images mounted on the vehicle, millimeter waves, radar waves, etc. Perform actions such as applying a brake.
したがって、実施形態1の近赤外線画像の場合には画面内に映っている物の中から、例えば他の車両や歩行者、標識、信号機等の自動走行に必要なオブジェクトを、実施形態3で述べたようなディープラーニング等の画像認識技術によって認識・識別を行う。 Therefore, in the case of the near-infrared image of the first embodiment, objects necessary for automatic traveling, such as other vehicles, pedestrians, signs, traffic lights, etc. are described in the third embodiment from among the objects shown in the screen. Recognition and identification using image recognition technology such as deep learning.
 画像認識部204は、例えば他車両が自車両の前面に割り込んできた場合には、画像認識技術で接近を検知し、その認識結果の認識結果情報D06を車両位置情報計算部51に対して出力する。車両位置情報計算部51では、この情報を基にして例えば、ハンドルを切って回避する、ブレーキ動作で減速する等の動作を行い、自車両の位置情報を変更する。或いは、歩行者が急に自車の前に飛び出して来た場合には、ハンドルを切って回避する、急ブレーキを踏む等の動作を行い、同様にその結果として自車両の位置情報を変更する。 For example, when another vehicle has interrupted the front surface of the host vehicle, the image recognition unit 204 detects approach by image recognition technology and outputs recognition result information D06 of the recognition result to the vehicle position information calculation unit 51. To do. Based on this information, the vehicle position information calculation unit 51 changes the position information of the host vehicle by, for example, performing an operation such as turning the steering wheel to avoid it or decelerating by a brake operation. Alternatively, when a pedestrian suddenly jumps out in front of his / her own vehicle, he / she performs operations such as turning off the steering wheel and avoiding sudden braking, and similarly changing the position information of the own vehicle as a result. .
 なお、上記の一連の構成において、車両位置情報計算部51からUDP同期制御部202,UDP情報送受信部206を介してシミュレーション実行部205までのデータ送信は、例えばUDPプロトコルに従って、25msecごとの周期で送出できるものとする(25msecは一例である)。 In the series of configurations described above, data transmission from the vehicle position information calculation unit 51 to the simulation execution unit 205 via the UDP synchronization control unit 202 and the UDP information transmission / reception unit 206 is performed at a cycle of 25 msec, for example, according to the UDP protocol. It can be sent out (25 msec is an example).
 ここで、本発明の特徴である「同期モデル」の必要性についてであるが、シミュレーション実行部205からの出力結果に基づいて、次のタイムフレームの車両位置情報を決定するため、全体が同期した制御ができないと、実車両の挙動をシミュレートできなくなるからである。また25msecごとの周期で送出するとしたが、理想的にはゼロ遅延であるが現実的には不可能であるので、UDPを用いることで送受信に伴う遅延時間を削減している。 Here, regarding the necessity of the “synchronization model” which is a feature of the present invention, the vehicle position information of the next time frame is determined based on the output result from the simulation execution unit 205, so the whole is synchronized. This is because the behavior of an actual vehicle cannot be simulated if it cannot be controlled. Although transmission is performed at a cycle of every 25 msec, it is ideally zero delay, but practically impossible. Therefore, the use of UDP reduces delay time associated with transmission / reception.
 一般に自動走行運転のシミュレーターの場合には、非常に多くの動画フレームに対してテストを行う必要がある。本実施形態によれば実走行でカバーし切れない絶対的な量を、ほぼ実写に近いCG映像で代用することを目的としている。したがって長いシーケンスの動画サンプルデータに対しての動作が保証されている必要がある。 In general, in the case of a simulator for automatic driving, it is necessary to test a very large number of video frames. The object of the present embodiment is to substitute an absolute amount that cannot be completely covered by actual driving with a CG image that is substantially similar to a real image. Therefore, it is necessary to guarantee the operation for moving image sample data of a long sequence.
 本実施形態では、学習部204bが、認識機能モジュール204aに対して、実走行時の車載カメラ装置による撮影画像以外にも、画像生成部203が生成した仮想的なCG画像を入力することにより、実際には撮影が困難であったり、再現が困難である画像の特徴点を抽出させて、抽出パターンの多様化を図り、学習効率を向上させる。認識機能モジュール204aは、カメラ装置により撮影された画像やCG画像を取得して、その取得された画像中の特徴点を階層的に複数抽出し、抽出された特徴点の階層的な組合せパターンにより、既に実施形態3で述べたディープラーニング認識技術によって認識を行う。 In the present embodiment, the learning unit 204b inputs, to the recognition function module 204a, a virtual CG image generated by the image generation unit 203 in addition to the image captured by the in-vehicle camera device during actual traveling. In practice, feature points of an image that is difficult to capture or reproduce are extracted to diversify the extraction patterns and improve learning efficiency. The recognition function module 204a acquires an image or CG image captured by the camera device, extracts a plurality of feature points in the acquired image in a hierarchical manner, and uses a hierarchical combination pattern of the extracted feature points. The recognition is performed by the deep learning recognition technique already described in the third embodiment.
[第6実施形態]
 以下に添付図面を参照して、本発明に係るシステムの第6実施形態を詳細に説明する。図20は、本実施形態に係るシステムの全体構成を示す概念図である。図21は、本実施形態に係る装置の内部構成を示すブロック図である。上記第5実施形態では、主に自車両の台数が1台の場合に限った実施形態であったが、本実施形態では、多数の車両分の位置情報を同時並列的に処理する場合を例示している。
[Sixth Embodiment]
Hereinafter, a sixth embodiment of the system according to the present invention will be described in detail with reference to the accompanying drawings. FIG. 20 is a conceptual diagram showing the overall configuration of the system according to the present embodiment. FIG. 21 is a block diagram showing an internal configuration of the apparatus according to the present embodiment. In the fifth embodiment, the embodiment is mainly limited to the case where the number of own vehicles is one. However, in this embodiment, a case where position information for a large number of vehicles is processed simultaneously in parallel is illustrated. is doing.
 図20に示すように、本実施形態では、シミュレーターサーバー2に複数のクライアント装置1c~1fが接続されており、図21に示すように、シミュレーターサーバー2において、UDP同期制御部202及びUDP情報送受信部206を共通の構成要素とし、シミュレーション対象となる車両の台数に応じて、各クライアント装置1c~fには車両位置情報計算部51c~fが設けられ、シミュレーターサーバー2側にはシミュレーション実行部205c~fが設けられている。 As shown in FIG. 20, in this embodiment, a plurality of client devices 1c to 1f are connected to the simulator server 2. As shown in FIG. 21, in the simulator server 2, the UDP synchronization control unit 202 and UDP information transmission / reception are performed. The unit 206 is a common component, and the vehicle position information calculation units 51c to 51f are provided in the client devices 1c to f according to the number of vehicles to be simulated, and the simulation execution unit 205c is provided on the simulator server 2 side. To f are provided.
 車両位置情報計算部51c~fでは、先ず自車の車両位置情報D02c~fを制御信号D03c~fのタイミングに従って、UDP同期制御部202に対して送出する。次にUDP同期制御部202では、自車の車両位置情報D02c~fをUDPパケッタイズすることで各種データ群を含むパケット情報D04に変換する。これによってUDPプロトコルを用いた送受信が容易になる。パケット情報D04は、UDP情報送受信部206でデ・パケッタイズ処理によってパケットヘッダとデータ本体のペイロードに分割される。ここで、UDPパケットのデータのやり取りは、距離的に離れた場所間のネットワークを用いた送信でもよいし、シミュレーター等の単体装置内部の、伝送バス間の伝送でも可能である。ペイロードに相当するデータD05c~fは、シミュレーション実行部205c~fに入力される。 The vehicle position information calculation units 51c to 51f send vehicle position information D02c to f of the own vehicle to the UDP synchronization control unit 202 according to the timing of the control signals D03c to f. Next, the UDP synchronization control unit 202 converts the vehicle position information D02c to f of the own vehicle into packet information D04 including various data groups by UDP packetizing. This facilitates transmission / reception using the UDP protocol. The packet information D04 is divided into a packet header and a data body payload by the de-packetizing process in the UDP information transmitting / receiving unit 206. Here, the exchange of UDP packet data may be performed using a network between distant locations, or may be performed between transmission buses within a single device such as a simulator. Data D05c to f corresponding to the payload are input to the simulation execution units 205c to 205f.
 シミュレーション実行部205c~fでは、既に第1実施形態で述べたように、所定の画像生成法例えば、最新の物理レンダリング(PBR)手法を用いたCG画像生成技術によって、リアリティ豊かな画像を生成する。認識結果情報D06c~fは車両位置情報計算部51c~fにフィードバックされ、各車両の位置が変更される。 As described in the first embodiment, the simulation execution units 205c to 205f generate images with a rich reality by a predetermined image generation method, for example, a CG image generation technique using the latest physical rendering (PBR) method. . The recognition result information D06c to f is fed back to the vehicle position information calculation units 51c to 51f to change the position of each vehicle.
 なお、上記の例では合計4つの車両位置情報計算部51c~fを備える場合を例示したが、この個数には特段制限はない。しかし、対応すべき車両の台数が増えれば、その結果同期制御も複雑になる上、ある車両で多くの遅延が発生した場合には、遅延時間は各々の合算であるので、トータルでの遅延時間の増大につながるという問題点にもなる。したがってシミュレーターのハードウェア規模や処理量などの条件によって、これらの構成を行えばよい。 In the above example, the case where a total of four vehicle position information calculation units 51c to 51f are provided is illustrated, but this number is not particularly limited. However, if the number of vehicles to be handled increases, the synchronous control becomes complicated as a result, and if many delays occur in a certain vehicle, the delay time is the sum of each, so the total delay time This also leads to a problem that leads to an increase. Therefore, these configurations may be performed according to conditions such as the hardware scale and processing amount of the simulator.
 また、図20では、PC端末1c~1fと車両同期シミュレーター・プログラム4とが通信ネットワーク3を介してリモート接続されているが、PCのローカルのHDD、SSDなどの記録媒体にプログラムが実装されていて、スタンドアロンで動作させることも可能である。この場合にはさらに低遅延で検証を行うことができる利点がある上、ネットワーク帯域が混雑時に起こる輻輳等の影響も一切受けない利点もある。 In FIG. 20, the PC terminals 1c to 1f and the vehicle synchronization simulator program 4 are remotely connected via the communication network 3, but the program is mounted on a recording medium such as a local HDD or SSD of the PC. It can also be operated stand-alone. In this case, there is an advantage that the verification can be performed with a lower delay, and there is an advantage that the network bandwidth is not affected by the congestion caused when the network bandwidth is congested.
 また、1c~1fをPC端末と限定する必要なく、例えば実際の走行車両上でテストを行う場合には、テスト車両に搭載されたカーナビゲーションシステムであってもよい。この場合には、図18の画像生成部203からのCG画像であるシミュレーション用画像D13を画像認識部204で認識するのではなく、実写の走行映像をD13の代わりに入力することになるので、画像認識部204の性能評価として利用することができる。例えば、実写の走行映像の中の歩行者や車両などは人間が見れば瞬時に正確に認識可能であるが、上記の画像認識部204で認識及び抽出された結果が、それらと同じになるかの検証を行うことができるからである。 Further, it is not necessary to limit 1c to 1f as a PC terminal. For example, when a test is performed on an actual traveling vehicle, a car navigation system mounted on the test vehicle may be used. In this case, the simulation image D13, which is a CG image from the image generation unit 203 in FIG. 18, is not recognized by the image recognition unit 204, but a live-action running video is input instead of D13. It can be used for performance evaluation of the image recognition unit 204. For example, pedestrians and vehicles in live-action running images can be recognized instantly and accurately when viewed by humans, but are the results recognized and extracted by the image recognition unit 204 described above the same? This is because it can be verified.
[第7実施形態]
 さらに、本発明のシステムの第7実施形態について説明する。本実施形態では、複数個のセンサーを使った別の実施例について図22を用いて説明する。この図22では異なるデバイスのセンサーを搭載した例を示しており、同図においてディープラーニング認識部の1つは、例えばカメラのイメージセンサーであり、もう1つは例えば近赤外線センサーであり、又はLiDAR(Light Detection and Ranging)と仮定する。
[Seventh Embodiment]
Furthermore, a seventh embodiment of the system of the present invention will be described. In this embodiment, another example using a plurality of sensors will be described with reference to FIG. FIG. 22 shows an example in which sensors of different devices are mounted. In FIG. 22, one of the deep learning recognition units is, for example, an image sensor of a camera, and the other is, for example, a near infrared sensor, or LiDAR. Assume (Light Detection and Ranging).
 図22に示すように、1番最初のディープラーニング認識部61は例えばイメージセンサー部を用いたものであり、3Dグラフィックス合成画像は2次元平面の画像である。したがってディープラーニング認識手段は、2次元画像に対する認識手法を具備していることになる。一方、次のディープラーニング認識部62は、一方、LiDARセンサーを用いて入力した3D点群データである。この3D点群データは、画像生成部203において3Dグラフィック画像化される。 As shown in FIG. 22, the first deep learning recognition unit 61 uses, for example, an image sensor unit, and the 3D graphics composite image is a two-dimensional plane image. Therefore, the deep learning recognition means includes a recognition method for a two-dimensional image. On the other hand, the next deep learning recognition unit 62 is 3D point cloud data input using a LiDAR sensor. The 3D point cloud data is converted into a 3D graphic image by the image generation unit 203.
 上記の3Dグラフィック画像化された3D点群データについては、図10で示したように、中央の走行車両の上に設置したLiDARから360度全方位にレーザー光を放射して反射光を測定した結果得られた点群データを示している。また色の強弱は反射光の気強さを示している。したがって隙間など空間が存在しない部分は反射光がないので、黒色になっている。 As for the 3D point cloud data converted into the 3D graphic image, as shown in FIG. 10, the reflected light was measured by emitting laser light in all directions from LiDAR installed on the central traveling vehicle. The point cloud data obtained as a result are shown. The strength of the color indicates the strength of the reflected light. Therefore, a portion where there is no space such as a gap is black because there is no reflected light.
 実際の点群データから相手車両や歩行者、自転車などの対象オブジェクトを、3次元座標を持ったデータとして取得できるので、これらの対象オブジェクトの3Dグラフィック画像を容易に生成することが可能になる。具体的には、点群データを整合させることで複数個のポリゴンデータを生成し、3Dグラフィックはこれらのポリゴンデータをレンダリングすることで描画される。 Since target objects such as the opponent vehicle, pedestrian, and bicycle can be acquired as data having three-dimensional coordinates from the actual point cloud data, it is possible to easily generate 3D graphic images of these target objects. Specifically, a plurality of polygon data are generated by matching the point cloud data, and the 3D graphic is rendered by rendering these polygon data.
 上記の手段によって生成された3D点群データグラフィック画像D61は、ディープラーニング認識部62に入力して、同部において3D点群データ用に学習された認識手段によって認識が実行される。したがって前記のイメージセンサー用の画像で学習されたディープラーニング認識手段とは異なる手段を用いることになるが、これによる効果は大きい。なぜならば、非常に遠方にある対向車はイメージセンサー-では取得できない可能性が高いが、LiDARの場合は数百メートル先の対向車の大きさや形状まで取得できるからである。逆にLiDARは反射光を用いているため、反射しない対象物には有効でないという欠点もあるが、イメージセンサーの場合にはこの問題はない。 The 3D point cloud data graphic image D61 generated by the above means is input to the deep learning recognition unit 62, where recognition is performed by the recognition means learned for 3D point cloud data. Accordingly, a means different from the deep learning recognition means learned from the image for the image sensor is used, but the effect is great. This is because it is highly possible that an oncoming vehicle that is very far away cannot be acquired by an image sensor, but in the case of LiDAR, the size and shape of an oncoming vehicle several hundred meters away can be acquired. Conversely, LiDAR uses reflected light, so there is a disadvantage that it is not effective for an object that does not reflect, but this problem does not occur in the case of an image sensor.
 以上により、異なる性質又は異なるデバイスのセンサーを複数装備して、それらの認識結果を学習結果同期部84で分析して、最終的な認識結果D62を出力する。なお(なお)、この同期部は例えばクラウドなどのネットワークの外部で行ってもよい。理由としては1台当たりのセンサーの数が今後急激に増えるだけでなく、ディープラーニング認識処理の計算負荷も大きいため、外部で対応可能な部分については、大規模なコンピューティングパワーのあるクラウドで実行し、その結果をフィードバックする手段が有効だからである。 As described above, a plurality of sensors having different properties or different devices are installed, and the recognition result is analyzed by the learning result synchronization unit 84, and the final recognition result D62 is output. Note that this synchronization unit may be performed outside a network such as a cloud. The reason is that not only will the number of sensors per unit increase rapidly in the future, but the computational load of deep learning recognition processing will also be large, so parts that can be handled externally will be executed in a cloud with large-scale computing power This is because a means for feeding back the result is effective.
 なお(なお)、図22の実施例は仮想的なCG画像を生成するケースであったが、既に実施形態1で述べたように、実際の車両に本アプリケーションシステムが搭載されて(カーナビゲーションのように)、実写走行を行いながら異なる種類のセンサーからの情報を入力して、ディープラーニング認識を行うこともできる。図23はそのケースの具体的なブロック図である。 Note that the example of FIG. 22 is a case of generating a virtual CG image, but as already described in the first embodiment, the present application system is mounted on an actual vehicle (car navigation system). In this way, it is possible to perform deep learning recognition by inputting information from different types of sensors while performing live action. FIG. 23 is a specific block diagram of the case.
 素材撮影装置は、車載カメラに備えられたイメージセンサーの他、上記の通りLiDARのセンサーやミリ波のセンサーを想定している。イメージセンサーの場合には実写画像を取り込んで実写画像から抽出した光情報などのパラメータを用いて、実施形態1で述べたPBRの技術によって高品質なCG画像を生成されて、画像生成部203から送出される。一方、LiDARセンサーの場合には実際に車載のLiDARセンサーから放射されたビームのレーザー光の反射光から、3次元の点群データを作成する。そしてこの3次元点群データを3DCG化した画像が、上記の画像生成部203から出力される。 The material photographing device assumes a LiDAR sensor and a millimeter wave sensor as described above, in addition to the image sensor provided in the in-vehicle camera. In the case of an image sensor, a high-quality CG image is generated by the PBR technique described in the first embodiment using parameters such as light information extracted from a captured image after capturing the captured image. Sent out. On the other hand, in the case of the LiDAR sensor, three-dimensional point cloud data is created from the reflected light of the laser beam actually emitted from the in-vehicle LiDAR sensor. An image obtained by converting the three-dimensional point cloud data into 3DCG is output from the image generation unit 203.
 このようにして、複数種類のセンサーに応じたCG画像が、画像生成部203から送出され、図23の各々のディープラーニング認識部において所定の手段で認識処理が行われることになる。また上記の実施例では、LiDARセンサーを例にとって説明したが、他にも第2実施形態で述べた近赤外線センサーを用いることも有効である。 In this way, CG images corresponding to a plurality of types of sensors are sent from the image generation unit 203, and recognition processing is performed by predetermined means in each deep learning recognition unit in FIG. In the above embodiment, the LiDAR sensor has been described as an example, but it is also effective to use the near infrared sensor described in the second embodiment.
 D01…種データ群
 D02(D02c~f)…車両位置情報
 D03(D03c~f)…制御信号
 D04…パケット情報
 D05(D05c~f)…データ
 D06(D06c~f)…認識結果情報
 D100…シナリオ情報
 D101…モデルデータ
 D102…モデリング情報
 D103,D106…シェーディング画像
 D104…グレイスケール画像
 D105,D108,D112…深度画像
 D107…D形状データ
 D109…誤差値
 D110…計算値
 D111…グレイスケール画像
 D113…TOF値
 D114…距離画像
 D115…比較結果
 D13…シミュレーション用画像
 D61…3D点群データグラフィック画像
 D62…認識結果
 1…クライアント装置
 1a…情報処理端末
 1b…車載装置
 1c~1f…クライアント装置
 2…シミュレーターサーバー
 3…通信ネットワーク
 4…車両同期シミュレーター・プログラム
 5…クライアントプログラム
 10…シナリオ作成部
 114…LiDARスキャン装置
 114a…レーザードライバー
 114b…発光素子
 114c…照射レンズ
 114d…受光レンズ
 114e…受光素子
 114f…信号受光回路
 114g…ミラー
 11…3Dモデリング部
 12…3Dシェーディング部
 13…R画像グレイスケール化部
 14…深度画像生成部
 15…シェーディング部
 15a…レーザー光照射部分抽出部
 16…深度画像生成部
 16a…レーザー光照射部分抽出部
 17…ニューラルネットワーク計算部
 18…バックプロパゲーション部
 19…TOF計算部
 20…距離画像生成部
 21…比較評価部
 51(51c~f)…車両位置情報計算部
 61~6n…ディープラーニング認識部
 84…学習結果同期部
 101…ストレージ装置
 102…CPU
 102a…クライアント側実行部
 103…メモリ
 104…入力インターフェース
 105…出力インターフェース
 106,201…通信インターフェース
 202…UDP同期制御部
 203…画像生成部
 204…画像認識部
 204a…認識機能モジュール
 204b…学習部
 205…シミュレーション実行部
 205c~f…シミュレーション実行部
 206…UDP情報送受信部
 210…地図データベース
 210~213…種データベース
 211…車両データベース
 212…描画用データベース
 402…CPU
 611…出力
D01 ... Species data group D02 (D02c to f) ... Vehicle position information D03 (D03c to f) ... Control signal D04 ... Packet information D05 (D05c to f) ... Data D06 (D06c to f) ... Recognition result information D100 ... Scenario information D101 ... Model data D102 ... Modeling information D103, D106 ... Shading image D104 ... Gray scale image D105, D108, D112 ... Depth image D107 ... D shape data D109 ... Error value D110 ... Calculation value D111 ... Gray scale image D113 ... TOF value D114 ... Distance image D115 ... Comparison result D13 ... Simulation image D61 ... 3D point cloud data graphic image D62 ... Recognition result 1 ... Client device 1a ... Information processing terminal 1b ... In-vehicle device 1c-1f ... Client device 2 ... Emulator server 3 ... Communication network 4 ... Vehicle synchronization simulator program 5 ... Client program 10 ... Scenario creation unit 114 ... LiDAR scanning device 114a ... Laser driver 114b ... Light emitting element 114c ... Irradiating lens 114d ... Light receiving lens 114e ... Light receiving element 114f ... Signal light receiving circuit 114g ... Mirror 11 ... 3D modeling unit 12 ... 3D shading unit 13 ... R image gray scale conversion unit 14 ... Depth image generation unit 15 ... Shading unit 15a ... Laser light irradiation partial extraction unit 16 ... Depth image generation unit 16a ... Laser light irradiation part extraction unit 17 ... Neural network calculation unit 18 ... Back propagation unit 19 ... TOF calculation unit 20 ... Distance image generation unit 21 ... Comparison evaluation unit 51 (51c to f) ... Vehicle position information Calculator 61 ~ 6n ... deep learning recognition unit 84 ... learning result synchronization section 101 ... storage device 102 ... CPU
DESCRIPTION OF SYMBOLS 102a ... Client side execution part 103 ... Memory 104 ... Input interface 105 ... Output interface 106, 201 ... Communication interface 202 ... UDP synchronous control part 203 ... Image generation part 204 ... Image recognition part 204a ... Recognition function module 204b ... Learning part 205 ... Simulation execution unit 205c to f ... Simulation execution unit 206 ... UDP information transmission / reception unit 210 ... Map database 210-213 ... Species database 211 ... Vehicle database 212 ... Drawing database 402 ... CPU
611 ... Output

Claims (30)

  1.  センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステムであって、
     前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
     前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
     前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
     前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出して出力するコンポーネント抽出部と、
     前記コンポーネント画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
    を備えたことを特徴とする画像生成システム。
    A system for generating, as computer graphics, a virtual image input to a sensor means,
    A scenario creation unit for creating a scenario relating to the arrangement and behavior of an object present in the virtual image;
    A 3D modeling unit that performs modeling for each object based on the scenario;
    A 3D shading unit that performs shading for each model generated by the modeling unit and generates a shading image for each model;
    A component extraction unit that extracts and outputs a predetermined component included in the shading image as a component image;
    A depth image generation unit that generates a depth image in which a depth is defined based on information of a three-dimensional shape related to each object in the component image;
    An image generation system comprising:
  2.  前記コンポーネントは、RGB画像のうちのR成分のコンポーネントであることを特徴とする請求項1に記載の画像生成システム。 2. The image generation system according to claim 1, wherein the component is an R component of an RGB image.
  3.  前記コンポーネントをグレイスケール化するグレイスケール化部をさらに備えていることを特徴とする請求項1に記載の画像生成システム。 The image generation system according to claim 1, further comprising a gray scale conversion unit configured to gray scale the component.
  4.  センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するシステムであって、
     前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
     前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
     前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
     前記対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
    を備え、
     前記シェーディング部は、
     前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
     前記所定部位の3次元形状のみを出力する機能と
    を有し、
     前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
    ことを特徴とする画像生成システム。
    A system for generating, as computer graphics, a virtual image input to a sensor means,
    A scenario creation unit for creating a scenario relating to the arrangement and behavior of an object present in the virtual image;
    A 3D modeling unit that performs modeling for each object based on the scenario;
    A 3D shading unit that performs shading for each model generated by the modeling unit and generates a shading image for each model;
    A depth image generation unit that generates a depth image in which a depth is defined based on information on a three-dimensional shape of each object;
    With
    The shading part is
    A function of performing shading only on a predetermined portion of the model from which light rays emitted from the sensor means are reflected;
    A function of outputting only the three-dimensional shape of the predetermined part,
    The depth image generation unit generates a depth image for each object based on information on a three-dimensional shape of the predetermined part.
  5.  前記センサー手段は近赤外線センサーであることを特徴とする請求項1又は4に記載の画像生成システム。 The image generation system according to claim 1 or 4, wherein the sensor means is a near infrared sensor.
  6.  前記センサー手段は、照射されたレーザー光の反射光を検出するLiDARセンサーであることを特徴とする請求項1又は4に記載の画像生成システム。 The image generation system according to claim 1 or 4, wherein the sensor means is a LiDAR sensor that detects reflected light of irradiated laser light.
  7.  前記シナリオ作成手段は、対象物の3次元形状情報、対象物の動作情報、対象物のマテリアル情報、光源のパラメータ情報、カメラの位置情報、センサーの位置情報を決定する手段を備えていることを特徴とする請求項1又は4に記載の画像生成システム。 The scenario creating means includes means for determining three-dimensional shape information of the object, operation information of the object, material information of the object, parameter information of the light source, camera position information, and sensor position information. The image generation system according to claim 1, wherein the system is an image generation system.
  8.  実写に基づく1コンポーネント画像及び深度画像を教師データとして取得し、前記コンポーネント画像、前記深度画像生成部によって生成された前記深度画像と前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段をさらに備えたことを特徴とする請求項1に記載の画像生成システム。 One component image and depth image based on a real image are acquired as teacher data, and neural network training is performed by back propagation based on the component image and the depth image generated by the depth image generation unit and the teacher data. The image generation system according to claim 1, further comprising deep learning recognition learning means.
  9.  実写に基づく照射画像及び深度画像を教師データとして取得し、前記シェーディング部によるシェーディング結果の画像と、前記深度画像生成部によって生成された前記深度画像と、前記教師データとに基づくバックプロパゲーションによって、ニューラルネットのトレーニングを行うディープラーニング認識学習手段を備えた請求項4に記載の画像生成システム。 By obtaining an irradiation image and a depth image based on a live-action as teacher data, and by an image of a shading result by the shading unit, the depth image generated by the depth image generation unit, and back propagation based on the teacher data, The image generation system according to claim 4, further comprising deep learning recognition learning means for performing neural network training.
  10.  前記深度画像生成部により生成された深度画像から、光線の照射からその反射波を受信するまでにかかった所要時間をTOF情報として算出するTOF計算部と、
     前記TOF計算部によるTOF情報に基づいて距離画像を生成する距離画像生成部と、
     前記距離画像生成部によって生成された距離画像と、前記深度画像生成部により生成された深度画像との合致度を比較する比較評価部と
    をさらに備えた請求項1又は4に記載の画像生成システム。
    A TOF calculation unit that calculates, as TOF information, a time required from receiving a light beam to receiving the reflected wave from the depth image generated by the depth image generation unit;
    A distance image generation unit that generates a distance image based on the TOF information by the TOF calculation unit;
    5. The image generation system according to claim 1, further comprising a comparison evaluation unit that compares the degree of coincidence between the distance image generated by the distance image generation unit and the depth image generated by the depth image generation unit. .
  11.  前記モデリング部は、前記比較評価部による比較結果をフィードバック情報として取得し、取得されたフィードバック情報に基づいて、前記モデリングにおける条件を調整して再度モデリングを行う機能を有することを特徴とする請求項10に記載の画像生成システム。 The modeling unit has a function of acquiring a comparison result by the comparative evaluation unit as feedback information, adjusting a condition in the modeling based on the acquired feedback information, and performing modeling again. The image generation system according to 10.
  12.  前記モデリング及び前記比較に基づく前記フィードバック情報の取得を繰り返して行い、前記比較評価部による比較結果におけるマッチング誤差が所定の閾値よりも小さくなるまで実行することを特徴とする請求項11に記載の画像生成システム。 12. The image according to claim 11, wherein the feedback information based on the modeling and the comparison is repeatedly acquired, and is executed until a matching error in a comparison result by the comparison evaluation unit becomes smaller than a predetermined threshold. Generation system.
  13.  車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションシステムであって、
     センサー手段による検出結果に基づいて、周囲の対象物に対する相対的な前記車両の位置情報を取得する位置情報取得手段と、
     前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
     前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
     前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
     位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
    を備えたことを特徴とするシミュレーションシステム。
    A simulation system of a recognition function module for an image that changes with displacement of vehicle position information,
    Position information acquisition means for acquiring position information of the vehicle relative to surrounding objects based on a detection result by the sensor means;
    Based on the position information acquired by the position information acquisition means, an image generation means for generating an image for simulation that reproduces the area specified by the position information;
    Image recognition means for recognizing and detecting a specific object from the simulation image generated by the image generation means using the recognition function module;
    Position information calculation means for generating a control signal for controlling the operation of the vehicle using the recognition result in the image recognition means, and for changing / correcting the position information of the own vehicle based on the generated control signal;
    A simulation system comprising position information acquisition means, the image generation means, the image recognition means, and synchronization control means for synchronously controlling the position information calculation means.
  14.  前記同期制御手段は、
     前記位置情報を特定のフォーマットにパケット化して送出する手段と、
     パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
     前記パケットデータを受信してデ・パケット化する手段と、
     前記デ・パケット化されたデータを入力して画像を生成する手段と
    を備えたことを特徴とする請求項13に記載のシミュレーションシステム。
    The synchronization control means includes
    Means for packetizing and sending the position information in a specific format;
    Means for transmitting packetized data via a network or a transmission bus in a specific device;
    Means for receiving and de-packetizing the packet data;
    14. The simulation system according to claim 13, further comprising means for inputting the de-packetized data and generating an image.
  15.  前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することを特徴とする請求項13に記載のシミュレーションシステム。 14. The simulation system according to claim 13, wherein the synchronization control means transmits / receives a signal transmitted / received between the means by using UDP (User Datagram Protocol).
  16.  前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれることを特徴とする請求項13に記載のシミュレーションシステム。 The vehicle position information includes any of XYZ coordinates of the road surface absolute position coordinates of the vehicle, road surface absolute position coordinates XYZ coordinates of the tire, vehicle Euler angles, and wheel rotation angles. The simulation system according to claim 13.
  17.  前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成する手段を備えていることを特徴とする請求項13に記載のシミュレーションシステム。 14. The simulation system according to claim 13, wherein the image generation means includes means for synthesizing a three-dimensional shape of the vehicle by computer graphics.
  18.  前記車両は複数台の車両分だけ設定されるとともに、前記認識機能モジュールは前記車両ごとに動作され、
     前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
     前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行する
    ことを特徴とする請求項13に記載のシミュレーションシステム。
    The vehicle is set for a plurality of vehicles, and the recognition function module is operated for each vehicle,
    The position information calculation means uses the information of the recognition result by the recognition means to change / correct the position information of each vehicle for a plurality of vehicles,
    The synchronization control means executes synchronization control for the plurality of vehicles with respect to position information acquisition means, the image generation means, the image recognition means, and the position information calculation means. 13. The simulation system according to 13.
  19.  上記画像生成手段は、センサー手段ごとに異なる画像を生成する手段を備えていることを特徴とする請求項13に記載のシミュレーションシステム。 14. The simulation system according to claim 13, wherein the image generation means includes means for generating a different image for each sensor means.
  20.  前記センサー手段として、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることを特徴とする請求項13に記載のシミュレーションシステム。 14. The simulation system according to claim 13, wherein the sensor means includes any one or all of an image sensor means, a LiDAR sensor, a millimeter wave sensor, and an infrared sensor.
  21.  前記シミュレーションシステムは、複数個のセンサーに対応した画像を生成する手段を備え、またそれぞれの生成された画像に対応した認識手段を備え、同該複数個の認識結果を用いて、前記同期制御を行う手段を備えていることを特徴とする請求項13に記載のシミュレーションシステム。 The simulation system includes means for generating images corresponding to a plurality of sensors, and also includes a recognition means corresponding to each generated image, and the synchronization control is performed using the plurality of recognition results. The simulation system according to claim 13, further comprising means for performing.
  22.  請求項1又は請求項4に記載の画像生成システムを前記画像生成手段として備え、
     前記画像生成システムの前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
    ことを特徴とする請求項13に記載のシミュレーションシステム。
    The image generation system according to claim 1 or 4 is provided as the image generation means,
    The simulation system according to claim 13, wherein a depth image generated by the depth image generation unit of the image generation system is input to the image recognition unit as the simulation image.
  23.  センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するプログラムであって、コンピューターを、
     前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
     前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
     前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
     前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出して出力するコンポーネント抽出部と、
     前記コンポーネント画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部として
    機能させることを特徴とする画像生成プログラム。
    A program for generating, as computer graphics, a virtual image input to a sensor means,
    A scenario creation unit for creating a scenario relating to the arrangement and behavior of an object present in the virtual image;
    A 3D modeling unit that performs modeling for each object based on the scenario;
    A 3D shading unit that performs shading for each model generated by the modeling unit and generates a shading image for each model;
    A component extraction unit that extracts and outputs a predetermined component included in the shading image as a component image;
    An image generation program that functions as a depth image generation unit that generates a depth image in which a depth is defined based on information of a three-dimensional shape related to each object in the component image.
  24.  センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成するプログラムであって、コンピューターを、
     前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオを作成するシナリオ作成部と、
     前記シナリオに基づいて前記対象物ごとにモデリングを行う3Dモデリング部と、
     前記モデリング部により生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を生成する3Dシェーディング部と、
     前記対象物ごとの3次元形状の情報を基にして、奥行きが定義された深度画像を生成する深度画像生成部と、
    して機能させ、
     前記シェーディング部は、
     前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
     前記所定部位の3次元形状のみを出力する機能と
    を有し、
     前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
    ことを特徴とする画像生成プログラム。
    A program for generating, as computer graphics, a virtual image input to a sensor means,
    A scenario creation unit for creating a scenario relating to the arrangement and behavior of an object present in the virtual image;
    A 3D modeling unit that performs modeling for each object based on the scenario;
    A 3D shading unit that performs shading for each model generated by the modeling unit and generates a shading image for each model;
    A depth image generation unit that generates a depth image in which a depth is defined based on information on a three-dimensional shape of each object;
    To function,
    The shading part is
    A function of performing shading only on a predetermined portion of the model from which light rays emitted from the sensor means are reflected;
    A function of outputting only the three-dimensional shape of the predetermined part,
    The depth image generation unit generates a depth image for each target based on information on a three-dimensional shape of the predetermined part.
  25.  車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーションプログラムであって、コンピューターを、
     前記車両の位置情報を取得する位置情報取得手段と、
     前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
     前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
     前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
     位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段として
    機能させることを特徴とするシミュレーションプログラム。
    A simulation program of a recognition function module for an image that changes in accordance with displacement of vehicle position information, the computer,
    Position information acquisition means for acquiring position information of the vehicle;
    Based on the position information acquired by the position information acquisition means, an image generation means for generating an image for simulation that reproduces the area specified by the position information;
    Image recognition means for recognizing and detecting a specific object from the simulation image generated by the image generation means using the recognition function module;
    Position information calculation means for generating a control signal for controlling the operation of the vehicle using the recognition result in the image recognition means, and for changing / correcting the position information of the own vehicle based on the generated control signal;
    A simulation program for causing a position information acquisition unit, the image generation unit, the image recognition unit, and the position information calculation unit to function as a synchronization control unit.
  26.  請求項23又は請求項24に記載の画像生成プログラムを前記画像生成手段として備え、
     前記画像生成システムの前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
    ことを特徴とする請求項25に記載のシミュレーションプログラム。
    An image generation program according to claim 23 or 24 is provided as the image generation means,
    The simulation program according to claim 25, wherein a depth image generated by the depth image generation unit of the image generation system is input to the image recognition unit as the simulation image.
  27.  センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成する方法であって、
     前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオをシナリオ作成部が作成するシナリオ作成ステップと、
     前記シナリオに基づいて前記対象物ごとに3Dモデリング部がモデリングを行う3Dモデリングステップと、
     前記3Dモデリングステップで生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を3Dシェーディング部が生成する3Dシェーディングステップと、
     前記シェーディング画像のうちに含まれる所定のコンポーネントをコンポーネント画像として抽出してコンポーネント抽出部が出力するコンポーネント抽出ステップと、
     前記コンポーネント画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を深度画像生成部が生成する深度画像生成ステップと
    を含むことを特徴とする画像生成方法。
    A method for generating a virtual image input to a sensor means as computer graphics,
    A scenario creation step in which a scenario creation unit creates a scenario related to the arrangement and behavior of an object present in the virtual image;
    A 3D modeling step in which a 3D modeling unit performs modeling for each object based on the scenario;
    A 3D shading step in which shading is performed for each model generated in the 3D modeling step, and a 3D shading unit generates a shading image for each model;
    A component extraction step of extracting a predetermined component included in the shading image as a component image and outputting the component image;
    An image generation method comprising: a depth image generation step in which a depth image generation unit generates a depth image in which a depth is defined based on information on a three-dimensional shape relating to each object in the component image.
  28.  センサー手段に対して入力される仮想画像を、コンピューターグラフィックスとして生成する方法であって、
     前記仮想画像の中に存在する対象物の配置及び挙動に関するシナリオをシナリオ作成部が作成するシナリオ作成ステップと、
     前記シナリオに基づいて前記対象物ごとに3Dモデリング部がモデリングを行う3Dモデリングステップと、
     前記3Dモデリングステップで生成されたモデルごとにシェーディングを行い、モデルごとのシェーディング画像を3Dシェーディング部が生成する3Dシェーディングステップと、
     前記シェーディング画像中における各対象物に関する3次元形状の情報を基にして、奥行きが定義された深度画像を深度画像生成部が生成する深度画像生成ステップと
    を含み、
     前記シェーディング部は、
     前記センサー手段から照射された光線が反射される前記モデルの所定部位のみに対してシェーディングを行う機能と、
     前記所定部位の3次元形状のみを出力する機能と
    を有し、
     前記深度画像生成部は、前記所定部位の3次元形状の情報を基にして、前記対象物ごとの深度画像を生成する
    ことを特徴とする画像生成方法。
    A method for generating a virtual image input to a sensor means as computer graphics,
    A scenario creation step in which a scenario creation unit creates a scenario related to the arrangement and behavior of an object present in the virtual image;
    A 3D modeling step in which a 3D modeling unit performs modeling for each object based on the scenario;
    A 3D shading step in which shading is performed for each model generated in the 3D modeling step, and a 3D shading unit generates a shading image for each model;
    A depth image generation step in which a depth image generation unit generates a depth image in which a depth is defined based on information on a three-dimensional shape related to each object in the shading image,
    The shading part is
    A function of performing shading only on a predetermined portion of the model from which light rays emitted from the sensor means are reflected;
    A function of outputting only the three-dimensional shape of the predetermined part,
    The depth image generation unit generates a depth image for each target based on information on a three-dimensional shape of the predetermined part.
  29.  車両の位置情報の変位に伴って変化する画像に対する認識機能モジュールのシミュレーション方法であって、
     位置情報取得手段によって、前記車両の位置情報を取得する位置情報取得ステップと、
     前記位置情報取得ステップによって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を、画像生成手段が生成する画像生成ステップと、
     前記画像生成ステップによって生成されたシミュレーション用画像の中から特定の対象物を、画像認識手段が前記認識機能モジュールを用いて認識し、検出する画像認識ステップと、
     前記画像認識ステップおける認識結果を用いて、位置情報計算手段が、前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算ステップと、
     位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを、同期制御手段が同期制御する同期制御ステップと
    を備えたことを特徴とするシミュレーション方法。
    A simulation method of a recognition function module for an image that changes with displacement of vehicle position information,
    A positional information acquisition step of acquiring positional information of the vehicle by positional information acquisition means;
    Based on the position information acquired by the position information acquisition step, an image generation step in which an image generation unit generates an image for simulation that reproduces the region specified by the position information;
    An image recognition step in which an image recognition means recognizes and detects a specific object from among the simulation images generated by the image generation step, and
    Using the recognition result in the image recognition step, the position information calculation means generates a control signal for controlling the operation of the vehicle, and changes / corrects the position information of the own vehicle based on the generated control signal. An information calculation step;
    A simulation method comprising: a synchronization control step in which a synchronization control means controls synchronization of position information acquisition means, the image generation means, the image recognition means, and the position information calculation means.
  30.  請求項27又は請求項28に記載の画像生成方法を前記画像生成ステップとして含み、
     前記画像生成方法における前記深度画像生成部によって生成された深度画像を、前記シミュレーション用画像として、前記画像認識手段に入力する
    ことを特徴とする請求項29に記載のシミュレーション方法。
    The image generation method according to claim 27 or 28 is included as the image generation step,
    30. The simulation method according to claim 29, wherein a depth image generated by the depth image generation unit in the image generation method is input to the image recognition unit as the simulation image.
PCT/JP2017/033729 2016-10-06 2017-09-19 Image generation system, program and method, and simulation system, program and method WO2018066352A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/367,258 US20190236380A1 (en) 2016-10-06 2019-03-28 Image generation system, program and method, and simulation system, program and method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016197999 2016-10-06
JP2016-197999 2016-10-06
JP2017092950A JP6548691B2 (en) 2016-10-06 2017-05-09 Image generation system, program and method, simulation system, program and method
JP2017-092950 2017-05-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/367,258 Continuation US20190236380A1 (en) 2016-10-06 2019-03-28 Image generation system, program and method, and simulation system, program and method

Publications (1)

Publication Number Publication Date
WO2018066352A1 true WO2018066352A1 (en) 2018-04-12

Family

ID=61831186

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/033729 WO2018066352A1 (en) 2016-10-06 2017-09-19 Image generation system, program and method, and simulation system, program and method

Country Status (1)

Country Link
WO (1) WO2018066352A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102537A (en) * 2018-06-25 2018-12-28 中德人工智能研究院有限公司 A kind of three-dimensional modeling method and system of laser radar and the combination of ball curtain camera
CN109828267A (en) * 2019-02-25 2019-05-31 国电南瑞科技股份有限公司 The Intelligent Mobile Robot detection of obstacles and distance measuring method of Case-based Reasoning segmentation and depth camera
CN111523409A (en) * 2020-04-09 2020-08-11 北京百度网讯科技有限公司 Method and apparatus for generating location information
CN111612071A (en) * 2020-05-21 2020-09-01 北京华睿盛德科技有限公司 Deep learning method for generating depth map from shadow map of curved surface part
WO2020250620A1 (en) * 2019-06-14 2020-12-17 富士フイルム株式会社 Point cloud data processing device, point cloud data processing method, and program
CN113299104A (en) * 2021-04-20 2021-08-24 湖南海龙国际智能科技股份有限公司 Augmented reality reverse vehicle searching system and method
US11354461B2 (en) 2018-09-07 2022-06-07 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for simulating a distribution of obstacles

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355272A (en) * 2003-05-28 2004-12-16 Toyota Motor Corp Approach notification system for emergency vehicle
JP2007066045A (en) * 2005-08-31 2007-03-15 Hitachi Ltd Simulation device
JP2014229303A (en) * 2013-05-20 2014-12-08 三菱電機株式会社 Method of detection of object in scene
JP2015141721A (en) * 2014-01-29 2015-08-03 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. Method of reducing wrong actions in collision preventive system for use in backing up

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355272A (en) * 2003-05-28 2004-12-16 Toyota Motor Corp Approach notification system for emergency vehicle
JP2007066045A (en) * 2005-08-31 2007-03-15 Hitachi Ltd Simulation device
JP2014229303A (en) * 2013-05-20 2014-12-08 三菱電機株式会社 Method of detection of object in scene
JP2015141721A (en) * 2014-01-29 2015-08-03 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. Method of reducing wrong actions in collision preventive system for use in backing up

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MATSUMOTO, YOSHIO ET AL.: "Proposal of Mobile Robot Simulator Using VR Technology and Its Application to View-Based Robot Navigation", JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 20, no. 5, 15 July 2002 (2002-07-15), pages 497 - 505 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102537A (en) * 2018-06-25 2018-12-28 中德人工智能研究院有限公司 A kind of three-dimensional modeling method and system of laser radar and the combination of ball curtain camera
CN109102537B (en) * 2018-06-25 2020-03-20 中德人工智能研究院有限公司 Three-dimensional modeling method and system combining two-dimensional laser radar and dome camera
US11354461B2 (en) 2018-09-07 2022-06-07 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for simulating a distribution of obstacles
CN109828267A (en) * 2019-02-25 2019-05-31 国电南瑞科技股份有限公司 The Intelligent Mobile Robot detection of obstacles and distance measuring method of Case-based Reasoning segmentation and depth camera
JPWO2020250620A1 (en) * 2019-06-14 2020-12-17
WO2020250620A1 (en) * 2019-06-14 2020-12-17 富士フイルム株式会社 Point cloud data processing device, point cloud data processing method, and program
JP7344289B2 (en) 2019-06-14 2023-09-13 富士フイルム株式会社 Point cloud data processing device, point cloud data processing method, and program
CN111523409A (en) * 2020-04-09 2020-08-11 北京百度网讯科技有限公司 Method and apparatus for generating location information
CN111523409B (en) * 2020-04-09 2023-08-29 北京百度网讯科技有限公司 Method and device for generating position information
CN111612071A (en) * 2020-05-21 2020-09-01 北京华睿盛德科技有限公司 Deep learning method for generating depth map from shadow map of curved surface part
CN111612071B (en) * 2020-05-21 2024-02-02 北京华睿盛德科技有限公司 Deep learning method for generating depth map from curved surface part shadow map
CN113299104A (en) * 2021-04-20 2021-08-24 湖南海龙国际智能科技股份有限公司 Augmented reality reverse vehicle searching system and method
CN113299104B (en) * 2021-04-20 2022-05-06 湖南海龙国际智能科技股份有限公司 Augmented reality reverse vehicle searching system and method

Similar Documents

Publication Publication Date Title
JP6548691B2 (en) Image generation system, program and method, simulation system, program and method
WO2018066352A1 (en) Image generation system, program and method, and simulation system, program and method
US11487288B2 (en) Data synthesis for autonomous control systems
WO2018066351A1 (en) Simulation system, simulation program and simulation method
US11593950B2 (en) System and method for movement detection
TWI703064B (en) Systems and methods for positioning vehicles under poor lighting conditions
US20230251656A1 (en) Generating environmental parameters based on sensor data using machine learning
JP2024055902A (en) Procedural World Generation
KR20210058696A (en) Sequential fusion for 3d object detection
Han et al. Collaborative perception in autonomous driving: Methods, datasets, and challenges
US11841434B2 (en) Annotation cross-labeling for autonomous control systems
WO2022141294A1 (en) Simulation test method and system, simulator, storage medium, and program product
US11798289B2 (en) Streaming object detection and segmentation with polar pillars
Barua et al. A self-driving car implementation using computer vision for detection and navigation
US20220371606A1 (en) Streaming object detection and segmentation with polar pillars
DE102022102187A1 (en) HIGH-FIDELITY DATA-DRIVEN MULTIMODAL SIMULATION
US12020476B2 (en) Data synthesis for autonomous control systems
CN117593686B (en) Model evaluation method and device based on vehicle condition true value data
CN117591847B (en) Model pointing evaluating method and device based on vehicle condition data
CN114092916B (en) Image processing method, device, electronic equipment, automatic driving vehicle and medium
US11682140B1 (en) Methods and apparatus for calibrating stereo cameras using a time-of-flight sensor
US20220309693A1 (en) Adversarial Approach to Usage of Lidar Supervision to Image Depth Estimation
Princiotto Exploiting infrastructure sensors for advanced vehicle manoeuvring assistance
Chen Multi-agent Collaborative Perception for Autonomous Driving: Unsettled Aspects
WO2022246273A1 (en) Streaming object detection and segmentation with polar pillars

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17858191

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17858191

Country of ref document: EP

Kind code of ref document: A1