WO2020189081A1 - カメラシステムの評価装置及び評価方法 - Google Patents

カメラシステムの評価装置及び評価方法 Download PDF

Info

Publication number
WO2020189081A1
WO2020189081A1 PCT/JP2020/004733 JP2020004733W WO2020189081A1 WO 2020189081 A1 WO2020189081 A1 WO 2020189081A1 JP 2020004733 W JP2020004733 W JP 2020004733W WO 2020189081 A1 WO2020189081 A1 WO 2020189081A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
evaluation device
unit
viewpoint
Prior art date
Application number
PCT/JP2020/004733
Other languages
English (en)
French (fr)
Inventor
隆良 千代田
中田 啓明
道雄 森岡
雅之 金井
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to US17/426,969 priority Critical patent/US20220101500A1/en
Priority to DE112020000836.3T priority patent/DE112020000836T5/de
Priority to JP2021506232A priority patent/JP7245318B2/ja
Publication of WO2020189081A1 publication Critical patent/WO2020189081A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/23Pc programming
    • G05B2219/23446HIL hardware in the loop, simulates equipment to which a control module is fixed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2637Vehicle, car, auto, wheelchair
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals

Definitions

  • the present invention relates to an evaluation device that simulates a state in which a vehicle travels on a road and evaluates a camera system mounted on the vehicle.
  • HILS Hardware In the Loop Simulator
  • a simulator is an actual control system by using an actual object as an evaluation target, modeling other vehicle elements, and constructing an evaluation device by combining these. It is a tool to virtually evaluate.
  • a simulator for example, the one described in Patent Document 1 is known.
  • HILS When constructing HILS using an evaluation target that executes arithmetic processing based on various sensor information, it is necessary to provide sensor information at the timing requested by the evaluation target. For example, it is necessary to input an image to the evaluation target at the timing when the camera to be evaluated releases the shutter. In HILS, since the actual image cannot be input to the evaluation target, the virtual image of the outside world created by CG (Computer Graphics) is input. Originally, the evaluation target adjusts the brightness of the lens and the image sensor every moment, and it is desired that the virtual image input to the evaluation target is also changed based on the instruction from the evaluation target.
  • CG Computer Graphics
  • Patent Document 1 Japanese Patent Laid-Open No. 2010-26845
  • the evaluation target camera control ECU
  • the evaluation target since there is no function of feeding back the timing signal from the evaluation target (camera control ECU) to the camera model, it is not possible to input the necessary image according to the control of the evaluation target, and the evaluation There is a problem that the target can correctly recognize the image and cannot control the vehicle based on the recognition result.
  • an object of the present invention is to use the information output from the evaluation target when evaluating the evaluation target in the HILS environment using the CG image, and to use the information output from the evaluation target to optically perform the brightness and distortion required by the evaluation target. Evaluation is performed using a virtual image that has undergone various image processing.
  • a typical example of the invention disclosed in the present application is as follows. That is, it is an evaluation device of a camera system including a camera that captures the outside world, and simulates an image generation unit that generates a simulation image that simulates an image of the outside world taken by the camera and an image that is output from the camera. An optical filter unit that performs optical image processing for the simulation image, and a camera image processing unit that performs recognition processing using the image after the image processing to generate a signal for vehicle control. To be equipped.
  • the camera image processing unit can be appropriately evaluated using a virtual image that has undergone optical image processing such as brightness and distortion required by the evaluation target. Issues, configurations and effects other than those mentioned above will be clarified by the description of the following examples.
  • FIG. 1 It is a figure which shows the structural example of HILS which used the optical filter function which concerns on Example of this invention. It is a figure which shows the structure of the vehicle behavior simulator which concerns on Example 1.
  • FIG. It is a figure which shows the structure of the viewpoint image generation function which concerns on Example 1.
  • FIG. It is a figure which shows the structure of the optical filter function which concerns on Example 1.
  • FIG. It is a conceptual diagram of the gain adjustment part which concerns on Example 1.
  • FIG. It is a figure which shows the structure of the camera format conversion function which concerns on Example 1.
  • FIG. It is a figure which shows the structure of the stereo camera ECU which concerns on Example 1.
  • FIG. It is a sequence diagram which shows the operation of each function constituting HILS which concerns on Example 1.
  • FIG. 1 It is a figure which shows the structural example of HILS which controlled the optical filter function which concerns on Example 2 to the image generation function. It is a figure which shows the structure of the viewpoint image generation function including the optical filter function which concerns on Example 2.
  • FIG. It is a sequence diagram which shows the operation of each function constituting HILS which concerns on Example 2.
  • FIG. It is a figure which shows the structural example of SILS using the optical filter function which concerns on Example 3.
  • FIG. It is a figure which shows the structural example of HILS of the monocular camera which concerns on Example 4.
  • FIG. It is a figure which shows the structure of the viewpoint image CG image part which concerns on Example 5.
  • FIG. 1 is a diagram showing a configuration example of HILS using the optical filter function according to the embodiment of the present invention.
  • the evaluation environment for evaluating the stereo camera ECU 6 to which the CG image S7 is input is the vehicle behavior simulator 1, the left viewpoint image generation function 2, the right viewpoint image generation function 3, the optical filter function 4, and the camera format conversion function 5. It is composed of and.
  • the vehicle behavior simulator 1 calculates the behavior of the vehicle at predetermined time (for example, 1 millisecond) intervals, and calculates the left and right camera coordinates and posture of the own vehicle in the simulation space.
  • the calculated camera coordinates and posture may be a relative change amount of the coordinates and the posture angle at a certain time, or may be an absolute coordinate and an absolute posture angle based on a predetermined position or direction.
  • the behavior of the vehicle is calculated by using the vehicle control information S10 such as the accelerator, the brake, and the steering angle input from the stereo camera ECU 6 in addition to the information that the driver operates the accelerator, the brake, and the steering.
  • the calculated left viewpoint coordinate / posture S1 is transmitted to the left viewpoint image generation function 2, and the right viewpoint coordinate / posture S2 is transmitted to the right viewpoint image generation function 3.
  • vehicle information S11 such as vehicle speed is transmitted to the stereo camera ECU 6.
  • the left viewpoint image generation function 2 generates the left viewpoint image S3 from the left viewpoint coordinates / posture S1 calculated by the vehicle behavior simulator 1 and transmits it to the optical filter function 4.
  • the right viewpoint image generation function 3 generates a right viewpoint image S4 from the right viewpoint coordinates / posture S2 calculated by the vehicle behavior simulator 1 and transmits it to the optical filter function 4.
  • the optical filter function 4 displays the left-viewpoint image S5 and the right-viewpoint image S6 in which the left and right viewpoint images S3 and S4 are subjected to optical image processing such as brightness and noise according to the optical processing information S8 output from the stereo camera ECU 6. It is generated and transmitted to the camera format conversion function 5 at the timing of the shutter signal S9.
  • the camera format conversion function 5 converts the input optical processed left-viewpoint image S5 and right-viewpoint image S6 into a CG image S7 suitable for a hard and soft camera I / F that can be received by the stereo camera ECU6. ..
  • the stereo camera ECU 6 receives the input of the CG image S7 suitable for the camera I / F and the vehicle information S11 such as the vehicle speed, and supplies the vehicle control information S10 such as the accelerator, the brake, and the steering angle to the vehicle behavior simulator 1 as needed. Output. Further, the stereo camera ECU 6 outputs the optical processing information S8 including the exposure information required by the stereo camera ECU 6 and the shutter signal S9 indicating the timing of requesting the image to the optical filter function 4 at the timing of requesting the image. .. The shutter signal S9 is also output to the vehicle behavior simulator 1.
  • FIG. 2 is a diagram showing a configuration of a vehicle behavior simulator 1 according to this embodiment.
  • the vehicle behavior simulator 1 is composed of a simulation model 101, viewpoint information I / F105, and CAN I / F106. Further, the simulation model 101 has a sensor model 102, an environment model 103, and a vehicle model 104.
  • the simulation model 101 calculates the behavior (position and posture) of the vehicle at predetermined time (for example, 1 millisecond) intervals, and outputs the calculated left and right viewpoint coordinates / postures S1 and S2 at the timing of the shutter signal S9. ..
  • the vehicle model 104 runs on the virtual road of the environment model 103, the behavior of the vehicle equivalent to that of the actual vehicle is calculated.
  • the vehicle model 104 acquires vehicle control information S10 such as accelerator, brake, and steering angle input from the stereo camera ECU 6 via CAN I / F 106 and reflects it in the vehicle behavior. Further, the vehicle information S11 simulated by the vehicle model 104 is converted by CAN I / F 106 and transmitted to the stereo camera EUC6.
  • the evaluation environment of this embodiment is composed of a processor (CPU), a memory, an auxiliary storage device, and a computer having a communication interface.
  • the evaluation environment may have an input interface and an output interface.
  • the memory includes a ROM which is a non-volatile storage element and a RAM which is a volatile storage element.
  • the ROM stores an invariant program (for example, BIOS) and the like.
  • RAM is a high-speed and volatile storage element such as DRAM (Dynamic Random Access Memory), and temporarily stores a program executed by a processor and data used when executing the program.
  • the auxiliary storage device is, for example, a large-capacity non-volatile storage device such as a magnetic storage device (HDD) or a flash memory (SSD).
  • the auxiliary storage device stores the data used by the processor when executing the program and the program executed by the processor. That is, the program is read from the auxiliary storage device, loaded into the memory, and executed by the processor to realize each function of the evaluation environment.
  • the communication interface is a network interface device that controls communication with other devices according to a predetermined protocol.
  • the input interface is an interface to which input devices such as a keyboard and mouse are connected and receives input from the operator.
  • the output interface is an interface to which an output device such as a display device or a printer (not shown) is connected and outputs a program execution result in a format that can be visually recognized by an operator.
  • a user terminal connected to the evaluation environment via a network may provide an input device and an output device.
  • the evaluation environment may have the function of a web server, and the user terminal may access the evaluation environment by a predetermined protocol.
  • the program executed by the processor is provided to the evaluation environment via removable media (CD-ROM, flash memory, etc.) or a network, and is stored in a non-volatile auxiliary storage device which is a non-temporary storage medium. Therefore, the evaluation environment may have an interface for reading data from removable media.
  • the evaluation environment is a computer system composed of one computer physically or a plurality of computers logically or physically configured, and a virtual computer constructed on a plurality of physical computer resources. May work on.
  • the vehicle behavior simulator 1, the left viewpoint image generation function 2, the right viewpoint image generation function 3, the optical filter function 4, and the camera format conversion function 5 may be operated on separate physical or logical computers. May be combined to operate on one physical or logical computer.
  • FIG. 3 is a diagram showing the configuration of the viewpoint image generation functions 2 and 3 according to this embodiment. Although FIG. 3 shows the configuration of the left viewpoint image generation function 2, the right viewpoint image generation function 3 also has the same configuration.
  • the left viewpoint image generation function 2 is composed of a CG environment information 201, a coordinate information receiving unit 202, a viewpoint image CG generation unit 203, and a CG image transmitting unit 204.
  • the coordinate information receiving unit 202 converts the viewpoint coordinates / posture S1 calculated by the vehicle behavior simulator 1 into a format that can be processed by the viewpoint image CG generation unit 203, and transmits the viewpoint image CG generation unit 203 to the viewpoint image CG generation unit 203.
  • the viewpoint image CG generation unit 203 generates a CG image according to the viewpoint coordinates / posture S1 converted by the coordinate information receiving unit 202 in the virtual space designated by the CG environment information 201, and causes the CG image transmitting unit 204 to generate the CG image. Send.
  • the CG image transmission unit 204 Upon receiving the image generated by the viewpoint image CG generation unit 203, the CG image transmission unit 204 immediately transmits the left viewpoint image S3 to the optical filter function 4.
  • the CG video transmission unit 204 may have a buffer for storing the video.
  • FIG. 4 is a diagram showing the configuration of the optical filter function 4 according to this embodiment.
  • the optical filter function 4 includes a CG image receiving unit 401, a gain adjusting unit 402, a blur processing unit 403, a noise processing unit 404, a distortion processing unit 405, and a CG image transmitting unit 406.
  • the CG image receiving unit 401 receives the left viewpoint image S3 or the right viewpoint image S4 and transmits the gain adjusting unit 402, the blur processing unit 403, the noise processing unit 404, and the distortion processing unit 405.
  • the CG image receiving unit 401 may have a buffer for storing the received image.
  • the optical filter function 4 may have a configuration in which the gain adjustment adjustment unit 402, the blur processing 403, the noise processing 404, and the distortion processing 405 are changed in any order.
  • the gain adjusting unit 402, the blur processing unit 403, the noise processing unit 404, and the distortion processing unit 405 perform a process of simulating the optical system of the camera based on the optical processing information S8 input from the stereo camera ECU 6.
  • One or more of these processes may be selectively executed according to the characteristics of the simulated optical system (lens and image sensor).
  • the gain adjusting unit 402 is a process for simulating the brightness of an image by adjusting the gain of the image sensor of the camera.
  • the blur processing unit 403 is a process for simulating the optical blur inherent in the lens.
  • the noise processing unit 404 is a process for simulating the noise included in the image captured by the camera.
  • the distortion processing unit 405 is a process for simulating the optical distortion inherent in the lens.
  • the optical filter function 4 stores the viewpoint image subjected to optical image processing in the CG image transmission unit 406, and transmits the left and right viewpoint images S5 and S6 to the camera format conversion function 5 at the timing of the shutter signal S9. To do.
  • the CG image transmission unit 406 may have a buffer for storing the image.
  • FIG. 5 is a conceptual diagram of the gain adjusting unit 402 according to this embodiment.
  • FIG. 6 is a diagram showing the configuration of the camera format conversion function 5 according to this embodiment.
  • the CG image receiving unit 501 inputs the left and right viewpoint images S5 and S6 optically processed by the optical filter function 4, and converts the left and right viewpoint images S5 and S6 into a color pattern such as an RGGB format or an RCC format that can be recognized by the camera ECU. Send.
  • the CG video transmission I / F 504 outputs the CG video S7 converted into a format according to the camera format by the transmission format conversion unit 503 to the stereo camera ECU 6.
  • the stereo camera ECU 6 is composed of a CG image receiving I / F601, an image recognition unit 602, and a vehicle control unit 603.
  • the vehicle control unit 603 outputs the vehicle control information S10.
  • the vehicle control information S10 includes an accelerator, a brake, a steering angle, and the like, which are control feedback information for vehicle control generated based on the recognition result by the image recognition unit 602 and the vehicle information S11. Further, the vehicle control unit 603 outputs optical processing information S8 required by the stereo camera ECU 6 such as an exposure time for determining the brightness of the image, and a shutter signal S9 indicating the timing when the stereo camera ECU 6 requests the image.
  • the optical filter function 4 transmits the optically processed image S5 to the camera format conversion function 5 in a signal format that can be processed by the stereo camera ECU 6 at the timing requested by the stereo camera ECU 6 in the next shutter signal S9.
  • the camera format conversion function 5 converts the received video S5 after optical processing into a camera format and transmits the video to the stereo camera ECU 6.
  • the image generation functions 2 and 3 for generating a simulation image that simulates the image of the outside world taken by the camera, and the optical image for simulating the image output from the camera.
  • a camera image processing unit stereo camera ECU 6, stereo camera model
  • the camera image processing unit can be appropriately evaluated using a virtual image that has undergone optical image processing such as brightness and distortion required by the evaluation target.
  • the optical filter function 4 optics the simulation image generated by the image generation functions 2 and 3. Image processing can be performed to generate a simulation image according to the requirements of the stereo camera ECU 6 while suppressing the system load.
  • the operation of the stereo camera ECU 6 may differ depending on the brightness, and when learning the stereo camera ECU 6, images of the same subject having only different brightness are effective.
  • the live-action video and the CG video generated under the specified conditions have only one brightness, and it is difficult to learn in different brightness states.
  • the stereo camera ECU 6 can be sufficiently learned by specifying the brightness more finely than the live-action image.
  • the vehicle behavior simulator 1 that simulates the behavior of the vehicle on which the camera is mounted and the surrounding environment, and the image generation functions 2 and 3 generate a CG image based on the output of the vehicle behavior simulator 1, the vehicle travels. It is possible to generate a CG image according to the above.
  • the stereo camera ECU 6 since it has a camera format conversion function 5 that converts the data format of the image processed by the optical filter function 4 into an image in a format suitable for input to the stereo camera ECU 6, the format input to the stereo camera ECU 6 when mounted on an actual vehicle. (For example, RGGB pixel data output by the image pickup element) can be input to the stereo camera ECU 6, and the stereo camera ECU 6 can be appropriately evaluated.
  • the camera is a compound eye camera that captures at least a left-viewpoint image and a right-viewpoint image
  • the camera is a monocular camera that captures one image. It can also be used with cameras (imaging elements).
  • the optical filter function 4 executes at least one process of gain adjustment processing, blurring processing, noise processing, and distortion processing, the image is taken by the image sensor through an optical system such as an actual lens. It is possible to generate an image equivalent to the image.
  • FIG. 9 is a diagram showing a configuration example of HILS in which the optical filter function 4 is controlled by the image generation function as an embodiment according to the present invention.
  • the left viewpoint image generation function 2 and the right viewpoint image generation function 3 execute optical image processing when generating a CG image.
  • the parts different from the first embodiment will be mainly described, the same functional configurations as those of the first embodiment will be designated by the same reference numerals, and the description thereof will be omitted.
  • the evaluation environment for evaluating the stereo camera ECU 6 to which the CG image S7 is input is composed of a vehicle behavior simulator 1, a left viewpoint image generation function 2, a right viewpoint image generation function 3, and a camera format conversion function 5.
  • the left viewpoint image generation function 2 generates an optically processed left viewpoint image S5 from the left viewpoint coordinates / posture S1 calculated by the vehicle behavior simulator 1 and the optical processing information S8 output from the stereo camera ECU 6. ,
  • the shutter signal S9 is transmitted to the camera format conversion function 5 at the timing of input.
  • the right viewpoint image generation function 3 generates an optically processed right viewpoint image S6 from the right viewpoint coordinates / posture S2 calculated by the vehicle behavior simulator 1 and the optical processing information S8 output from the stereo camera ECU 6. ,
  • the shutter signal S9 is transmitted to the camera format conversion function 5 at the timing of input.
  • the camera format conversion function 5 converts the input optical processed left-viewpoint image S5 and right-viewpoint image S6 into a CG image S7 suitable for a hard and soft camera I / F that can be received by the stereo camera ECU6. ..
  • the stereo camera ECU 6 receives the input of the CG image S7 suitable for the camera I / F and the vehicle information S11 such as the vehicle speed, and supplies the vehicle control information S10 such as the accelerator, the brake, and the steering angle to the vehicle behavior simulator 1 as needed. Output. Further, the stereo camera ECU 6 outputs optical processing information S8 including exposure information required by the stereo camera ECU 6 to the left viewpoint image generation function 2 and the right viewpoint image generation function 3. Further, the stereo camera ECU 6 controls the timing of requesting an image, and outputs a shutter signal S9 indicating the timing of requesting an image to the left viewpoint image generation function 2, the right viewpoint image generation function 3, and the vehicle behavior simulator 1. ..
  • FIG. 10 is a diagram showing the configuration of viewpoint image generation functions 2 and 3 including the optical filter function 4 according to the present embodiment. Although FIG. 10 shows the configuration of the left viewpoint image generation function 2, the right viewpoint image generation function 3 has the same configuration.
  • the left viewpoint image generation function 2 is composed of a CG environment information 201, a coordinate information receiving unit 202, a viewpoint image CG generation unit 203, and a CG image transmitting unit 204.
  • the viewpoint image CG generation unit 203 has an optical filter function 4, and based on the optical processing information S8, the gain adjusting unit 402, the blur processing 403 unit, the noise processing 404 unit, and the distortion processing 405 unit perform image processing. To generate a CG image.
  • the coordinate information receiving unit 202 receives the viewpoint coordinates / posture S1 calculated by the vehicle behavior simulator 1, it transmits the viewpoint video CG generation unit 203.
  • the viewpoint image CG generation unit 203 generates a CG image corresponding to the viewpoint coordinates / posture S1 converted by the coordinate information receiving unit 202 in the virtual space designated by the CG environment information 201, and inputs the CG image from the stereo camera ECU 6. Based on the optical processing information S8, the gain adjusting unit 402, the blur processing unit 403, the noise processing unit 404, and the distortion processing unit 405 perform processing to generate an optically processed CG image, and CG. It is transmitted to the video transmission unit 204.
  • the CG video transmission unit 204 may have a buffer for storing the video.
  • the CG image transmission unit 204 transmits the left viewpoint image S5 after optical image processing to the camera format conversion function 5 at the timing of the shutter signal S9 input from the stereo camera ECU 6.
  • FIG. 11 is a sequence diagram showing the operation of each function constituting the HILS according to this embodiment.
  • the stereo camera ECU 6 transmits the shutter signal S9 and the optical processing information S8 at each timing when the image is requested.
  • the vehicle behavior simulator 1 receives the shutter signal S9, it calculates the camera viewpoint coordinates / posture S1 at the received timing and transmits it to the viewpoint image generation functions 2 and 3.
  • the viewpoint image generation functions 2 and 3 generate a CG image of the notified camera viewpoint coordinates / posture S1 and receive it according to the optical processing information S8 received from the stereo camera EUC6.
  • a CG image S5 that has undergone optical image processing for output to the stereo camera ECU 6 is generated from the CG image S3. The generated image is held by the viewpoint image generation functions 2 and 3.
  • the optical filter function 4 is provided in the image generation functions 2 and 3
  • the processing time for generating the CG image is longer than that in the first embodiment, but the buffer is supplied. It is possible to reduce the number of processes around video generation such as input / output and data transfer. Therefore, the stereo camera ECU 6 can be evaluated in a short time.
  • FIG. 12 is a diagram showing a configuration example of SILS using the optical filter function 4 as a configuration example according to this embodiment.
  • the stereo camera model 7 configured by the software executes the function of the stereo camera ECU 6 of the first embodiment, it is not necessary to convert the format of the data input to the stereo camera model 7, and the camera format conversion is performed. Function 5 becomes unnecessary.
  • the parts different from the first embodiment will be mainly described, the same reference numerals will be given to the configurations of the same functions as those of the first embodiment, and the description thereof will be omitted.
  • the vehicle behavior simulator 1 calculates the behavior of the vehicle at predetermined time (for example, 1 millisecond) intervals, and calculates the left and right camera coordinates and posture of the own vehicle in the simulation space. Further, the behavior of the vehicle is calculated by using the vehicle control information S10 such as the accelerator, the brake, and the steering angle input from the stereo camera ECU 6 in addition to the information operated by the driver.
  • the calculated left viewpoint coordinate / posture S1 is transmitted to the left viewpoint image generation function 2, and the right viewpoint coordinate / posture S2 is transmitted to the right viewpoint image generation function 3. Further, vehicle information S11 such as vehicle speed is transmitted to the stereo camera ECU 6.
  • the left viewpoint image generation function 2 generates the left viewpoint image S3 from the left viewpoint coordinates / posture S1 calculated by the vehicle behavior simulator 1 and transmits it to the optical filter function 4.
  • the right viewpoint image generation function 3 generates the right viewpoint image S4 from the right viewpoint coordinates / posture S2 calculated by the vehicle behavior simulator 1 and transmits it to the optical filter function 4.
  • the optical filter function 4 displays the left-viewpoint image S5 and the right-viewpoint image S6 in which the left and right viewpoint images S3 and S4 are subjected to optical image processing such as brightness and noise according to the optical processing information S8 output from the stereo camera ECU 6. It is generated and transmitted to the camera format conversion function 5 at the timing of the shutter signal S9.
  • the configuration for simulating a stereo camera which is one of the external world recognition sensors, is configured by hardware (HiLS) as in Examples 1 and 2, but is configured by software (SiLS) as in Example 3. You may.
  • the stereo camera ECU composed of hardware is simulated by software, it is not affected by the hardware specifications (for example, signal level) of the stereo camera ECU.
  • the control logic of the stereo camera ECU can be verified.
  • FIG. 13 is a diagram showing a configuration example of HILS of a monocular camera as a configuration example according to this embodiment.
  • the parts different from the first embodiment will be mainly described, the same reference numerals will be given to the configurations of the same functions as those of the first embodiment, and the description thereof will be omitted.
  • the evaluation environment for evaluating the stereo camera ECU 6 to which the CG image S7 is input is composed of a vehicle behavior simulator 1, a viewpoint image generation function 2, an optical filter function 4, and a camera format conversion function 5.
  • the processing of each function is the same as that of the first embodiment described above.
  • the camera which is one of the external world recognition sensors may be a compound eye camera (for example, a stereo camera) as in Examples 1 to 3 or a monocular camera as in Example 4, and the present invention has the number of image pickup elements of the camera. Is not limited to.
  • the present invention can also be applied to a compound eye camera having three or more eyes (a system that generates an ambient image from a viewpoint looking down from above).
  • each of the above-described configurations, functions, processing units, processing means, etc. may be realized by hardware by designing a part or all of them by, for example, an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing the program to be processed.
  • Information such as programs, tables, and files that realize each function can be stored in a memory, a hard disk, a storage device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • SSD Solid State Drive
  • a recording medium such as an IC card, an SD card, or a DVD.
  • control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines necessary for implementation. In practice, it can be considered that almost all configurations are interconnected.
  • FIG. 14 shows a viewpoint image CG image unit as an example of an embodiment.
  • an RGB image is drawn from a light source existing in the virtual space.
  • Luminance information is included as information on the light emitted by the light source, and is included in the optical processing information S8.
  • the RGB image to be created has a color depth and has a plurality of color information. This color depth can be set arbitrarily and is set to Xbit. Further, the color depth information is associated with the luminance information, and the luminance information and the color depth can be set arbitrarily, and argument references such as one-dimensional and two-dimensional can be made.
  • Vehicle behavior simulator 2 Left viewpoint image generation function 3: Right viewpoint image generation function 4: Optical filter function 5: Camera format conversion function 6: Stereo camera ECU 7: Stereo camera model 101: Simulation model 102: Sensor model 103: Environmental model 104: Vehicle model 105: Viewpoint information I / F 106: CAN I / F 201: CG environment information 202: Coordinate information receiving unit 203: CG generation unit for viewpoint image 204: CG image transmitting unit 401: CG image receiving unit 402: Gain adjustment processing unit 403: Blur processing unit 404: Noise processing unit 405: Distortion Processing unit 406: CG video transmission unit 501: CG video reception unit 502: Color filter conversion unit 503: Video format conversion unit 504: CG video transmission I / F 6011: CG video reception I / F 602: Image recognition unit 603: Vehicle control unit S1: Left viewpoint coordinate / posture S2: Right viewpoint coordinate / posture S3: Left viewpoint image S4: Right viewpoint image S5: Left viewpoint image after optical processing S1:

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

評価対象が必要とする明るさや歪みなどの光学的な画像処理を行った仮想映像を用いて評価を行う、外界を撮像するカメラを含むカメラシステムの評価装置であって、前記カメラが撮影する外界の映像を模擬するシミュレーション用映像を生成する映像生成部と、前記カメラから出力される映像を模擬するための光学的な画像処理を、前記シミュレーション用映像に行う光学フィルタ部と、前記画像処理された後の映像を用いて認識処理を行って、車両制御用の信号を生成するカメラ画像処理部とを備える。

Description

カメラシステムの評価装置及び評価方法
 本発明は、車両が道路を走行する状態をシミュレートして、該車両に搭載されたカメラシステムを評価する評価装置に関する。
 近年、安全かつ快適な車社会を実現するために運転支援システムや自動運転システムが研究されている。今後、自動運転のレベルが向上するに従って、高速道路の合流地点や交差点における右左折など、周辺環境を含めた複雑な制御ロジックの開発が必要になる。また、これらの機能の複雑な制御ロジックを検証し、評価するために膨大なテストケースが必要になると予想されている。現状の検証・評価は、実車走行評価を中心に実施されているが、今後テスト工数が膨大になり、実車を走行させるだけでは評価が困難であり、シミュレータの活用が一般的である。
 このようなシミュレータとしてのHILS(Hardware In the Loop Simulator)は、評価対象には実物を用い、それ以外の車両要素をモデル化して、これらを組み合わせて評価装置を構築することによって、実際の制御システムを仮想的に評価するツールである。このようなシミュレータとしては、例えば特許文献1に記載のものが知られている。
特開2010-26845号公報
 各種センサ情報に基づいて演算処理を実行する評価対象を用いてHILSを構築する場合、評価対象が要求するタイミングでセンサ情報を提供する必要がある。例えば、評価対象であるカメラがシャッタを切るタイミングで、評価対象に映像を入力する必要がある。HILSでは、実際の映像を評価対象に入力できないため、CG(Computer Graphics)で作成した仮想的な外界の映像を入力する。本来、評価対象はレンズや撮像素子に対して時々刻々と明るさなどを調整しており、評価対象に入力される仮想映像も評価対象からの指示に基づいて変化させることが望まれている。
 前述した特許文献1(特開2010-26845号)では、評価対象(カメラ制御ECU)からカメラモデルにタイミング信号をフィードバックする機能が無いため、評価対象の制御に従って必要な映像を入力できず、評価対象が映像を正しく認識したり認識結果に基づく車両の制御が不可能となる問題がある。
 以上のことから、本発明の目的は、CG映像を用いたHILS環境で評価対象を評価する際に、評価対象から出力された情報を用い、評価対象が必要とする明るさや歪みなどの光学的な画像処理を行った仮想映像を用いて評価を行うことである。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、外界を撮像するカメラを含むカメラシステムの評価装置であって、前記カメラが撮影する外界の映像を模擬するシミュレーション用映像を生成する映像生成部と、前記カメラから出力される映像を模擬するための光学的な画像処理を、前記シミュレーション用映像に行う光学フィルタ部と、前記画像処理された後の映像を用いて認識処理を行って、車両制御用の信号を生成するカメラ画像処理部とを備える。
 本発明の一態様によれば、評価対象が必要とする明るさや歪みなどの光学的な画像処理を行った仮想映像を用いてカメラ画像処理部を適切に評価できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の実施例に係る光学フィルタ機能を用いたHILSの構成例を示す図である。 実施例1に係る車両挙動シミュレータの構成を示す図である。 実施例1に係る視点映像生成機能の構成を示す図である。 実施例1に係る光学フィルタ機能の構成を示す図である。 実施例1に係るゲイン調整部の概念図である。 実施例1に係るカメラフォーマット変換機能の構成を示す図である。 実施例1に係るステレオカメラECUの構成を示す図である。 実施例1に係るHILSを構成する各機能の動作を示すシーケンス図である。 実施例2に係る光学フィルタ機能を映像生成機能に統轄したHILSの構成例を示す図である。 実施例2に係る光学フィルタ機能を含む視点映像生成機能の構成を示す図である。 実施例2に係るHILSを構成する各機能の動作を示すシーケンス図である。 実施例3に係る光学フィルタ機能を用いたSILSの構成例を示す図である。 実施例4に係る単眼カメラのHILSの構成例を示す図である。 実施例5に係る視点映像CG映像部の構成を示す図である。 実施例5に係るゲイン調整処理部の構成を示す図である。
 以下、本発明の実施例を図面を用いて説明する。
 [実施例1]
 図1は、本発明の実施例に係る光学フィルタ機能を用いたHILSの構成例を示す図である。CG映像S7が入力されるステレオカメラECU6を評価する評価環境は、車両挙動シミュレータ1と、左視点映像生成機能2と、右視点映像生成機能3と、光学フィルタ機能4と、カメラフォーマット変換機能5とから構成される。
 車両挙動シミュレータ1は、所定の時間(例えば、1ミリ秒)間隔で車両の挙動を計算し、シミュレーション空間内にいる自車両の左右のカメラ座標と姿勢を計算する。計算されるカメラ座標と姿勢は、ある時間における座標と姿勢角の相対的な変化量でも、所定の位置や方向を基準とした絶対的な座標と絶対的な姿勢角でもよい。また、車両の挙動は、アクセル、ブレーキ、ステアリングをドライバーが操作する情報の他に、ステレオカメラECU6から入力されるアクセル、ブレーキ、舵角などの車両制御情報S10を用いて計算する。計算された左視点座標・姿勢S1を左視点映像生成機能2に送信し、右視点座標・姿勢S2を右視点映像生成機能3に送信する。また、車速などの車両情報S11をステレオカメラECU6に送信する。
 左視点映像生成機能2は、車両挙動シミュレータ1によって計算された左視点座標・姿勢S1から左視点映像S3を生成し、光学フィルタ機能4に送信する。
 右視点映像生成機能3は、車両挙動シミュレータ1によって計算された右視点座標・姿勢S2から右視点映像S4を生成し、光学フィルタ機能4に送信する。
 光学フィルタ機能4は、ステレオカメラECU6から出力された光学処理情報S8に従って、左右の視点映像S3、S4に明るさやノイズなどの光学的な画像処理を行った左視点映像S5、右視点映像S6を生成し、シャッタ信号S9のタイミングでカメラフォーマット変換機能5に送信する。
 カメラフォーマット変換機能5は、入力された光学処理後の左視点映像S5と右視点映像S6とを、ステレオカメラECU6が受信できるハード的かつソフト的カメラI/Fに適合したCG映像S7に変換する。
 ステレオカメラECU6は、カメラI/Fに適合したCG映像S7と、車速などの車両情報S11の入力を受け、アクセル、ブレーキ、舵角などの車両制御情報S10を必要に応じて車両挙動シミュレータ1に出力する。また、ステレオカメラECU6は、ステレオカメラECU6が要求する露光情報などを含む光学処理情報S8と、映像を要求するタイミングを示すシャッタ信号S9とを、映像を要求するタイミングで光学フィルタ機能4に出力する。また、シャッタ信号S9は、車両挙動シミュレータ1にも出力される。
 以下の説明において、左右ともに同じ動作をする場合は、左映像について説明する。右映像についての説明は省略するが、左映像と同様の処理が行われる。
 図2は、本実施例に係る車両挙動シミュレータ1の構成を示す図である。
 車両挙動シミュレータ1は、シミュレーションモデル101と、視点情報I/F105と、CAN I/F106とから構成される。また、シミュレーションモデル101は、センサモデル102と、環境モデル103と、車両モデル104とを有する。
 シミュレーションモデル101は、所定の時間(例えば、1ミリ秒)間隔で車両の挙動(位置及び姿勢)を計算し、計算された左右の視点座標・姿勢S1、S2をシャッタ信号S9のタイミングで出力する。環境モデル103が持つ仮想道路上を車両モデル104が走行することによって、実車両と同等の車両の挙動を計算する。車両モデル104は、ステレオカメラECU6から入力されるアクセル、ブレーキ、舵角などの車両制御情報S10をCAN I/F106を介して取得し、車両挙動に反映する。また、車両モデル104で模擬した車両情報S11はCAN I/F106で変換され、ステレオカメラEUC6に送信される。
 センサモデル102は、車両モデル104が模擬する車両に搭載されている外界認識センサの設定を行っており、本実施例ではステレオカメラの車両への取り付け位置が設定される。この外界認識センサの設定は、左右の視点座標・姿勢S1、S2の計算に用いられる。計算された左右の視点座標・姿勢S1、S2は、視点情報I/F105を介し、左右それぞれの視点映像生成機能2、3に送信される。
 ここで、本実施例の評価環境を構成する計算機の物理的な構成を説明する。
 本実施例の評価環境は、プロセッサ(CPU)、メモリ、補助記憶装置及び通信インターフェースを有する計算機によって構成される。評価環境は、入力インターフェース及び出力インターフェースを有してもよい。
 プロセッサは、メモリに格納されたプログラムを実行する演算装置である。プロセッサが、各種プログラムを実行することによって、評価環境の各部(例えば、車両挙動シミュレータ1、左視点映像生成機能2、右視点映像生成機能3、光学フィルタ機能4、カメラフォーマット変換機能5など)による機能が実現される。なお、プロセッサがプログラムを実行して行う処理の一部を、他の演算装置(例えば、ASIC、FPGA等のハードウエアウェア)で実行してもよい。
 メモリは、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサが実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。
 補助記憶装置は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置である。また、補助記憶装置は、プロセッサがプログラムの実行時に使用するデータ、及びプロセッサが実行するプログラムを格納する。すなわち、プログラムは、補助記憶装置から読み出されて、メモリにロードされて、プロセッサによって実行されることによって、評価環境の各機能を実現する。
 通信インターフェースは、所定のプロトコルに従って、他の装置との通信を制御するネットワークインターフェース装置である。
 入力インターフェースは、キーボードやマウスなどの入力装置が接続され、オペレータからの入力を受けるインターフェースである。出力インターフェースは、ディスプレイ装置やプリンタ(図示省略)などの出力装置が接続され、プログラムの実行結果をオペレータが視認可能な形式で出力するインターフェースである。なお、評価環境にネットワークを介して接続されたユーザ端末が入力装置及び出力装置を提供してもよい。この場合、評価環境がウェブサーバの機能を有し、ユーザ端末が評価環境に所定のプロトコルでアクセスしてもよい。
 プロセッサが実行するプログラムは、リムーバブルメディア(CD-ROM、フラッシュメモリなど)又はネットワークを介して評価環境に提供され、非一時的記憶媒体である不揮発性の補助記憶装置に格納される。このため、評価環境は、リムーバブルメディアからデータを読み込むインターフェースを有するとよい。
 評価環境は、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムであり、複数の物理的計算機資源上に構築された仮想計算機上で動作してもよい。例えば、車両挙動シミュレータ1、左視点映像生成機能2、右視点映像生成機能3、光学フィルタ機能4及びカメラフォーマット変換機能5は、各々別個の物理的又は論理的計算機上で動作するものでも、複数が組み合わされて一つの物理的又は論理的計算機上で動作するものでもよい。
 図3は、本実施例に係る視点映像生成機能2、3の構成を示す図である。なお、図3には、左視点映像生成機能2の構成を示すが、右視点映像生成機能3も同じ構成である。
 左視点映像生成機能2は、CG環境情報201と、座標情報受信部202と、視点映像CG生成部203と、CG映像送信部204とから構成される。座標情報受信部202は、車両挙動シミュレータ1によって計算された視点座標・姿勢S1を、視点映像CG生成部203が処理できる形式に変換し、視点映像CG生成部203に送信する。
 視点映像CG生成部203は、CG環境情報201で指定された仮想空間上において、座標情報受信部202で変換された視点座標・姿勢S1に応じたCG映像を生成し、CG映像送信部204に送信する。
 CG映像送信部204は、視点映像CG生成部203によって生成された映像を受信すると、すぐに光学フィルタ機能4に左視点映像S3を送信する。CG映像送信部204は、映像を格納するバッファを有してもよい。
 図4は、本実施例に係る光学フィルタ機能4の構成を示す図である。
 光学フィルタ機能4は、CG映像受信部401と、ゲイン調整部402と、ぼかし処理部403と、ノイズ処理部404と、歪み処理部405と、CG映像送信部406とから構成される。CG映像受信部401は、左視点映像S3又は右視点映像S4を受信し、ゲイン調整部402、ぼかし処理部403、ノイズ処理部404、歪み処理部405に送信する。CG映像受信部401は、受信した映像を格納するバッファを有してもよい。なお、光学フィルタ機能4は、ゲイン調整調整部402と、ぼかし処理403と、ノイズ処理404と、歪み処理405を任意の順に変更する構成であってもよい。
 ゲイン調整部402、ぼかし処理部403、ノイズ処理部404、歪み処理部405は、ステレオカメラECU6から入力される光学処理情報S8に基づいてカメラの光学系を模擬する処理を行う。これらの処理は、模擬される光学系(レンズ及び撮像素子)の特性に応じて、一つ以上が選択的に実行されればよい。具体的には、ゲイン調整部402は、カメラの撮像素子のゲイン調整により映像の明るさを模擬するための処理である。ぼかし処理部403は、レンズが固有に有する光学的なボケを模擬するための処理である。ノイズ処理部404は、カメラが撮影した映像に含まれるノイズを模擬するための処理である。歪み処理部405は、レンズが固有に有する光学的な歪みを模擬するための処理である。
 そして、光学フィルタ機能4は、光学的な画像処理を行った視点映像をCG映像送信部406に格納し、シャッタ信号S9のタイミングで、左右の視点映像S5、S6をカメラフォーマット変換機能5に送信する。CG映像送信部406は、映像を格納するバッファを有してもよい。
 図5は、本実施例に係るゲイン調整部402の概念図である。
 左視点映像生成機能2で生成される左視点映像S3は、複数画素の集合から構成されている。例えば、各画素をRGBの各値で表した場合、RGBの各値に明度情報が含まれることから、RGBの各値を決定する。ステレオカメラECU6は、周辺の明るさに応じてカメラの露光時間を調整しており、光学処理情報S8を出力する。この光学処理情報S8に含まれる露光情報が全体を1/2の明るさにする指令である場合、各画素の明度を1/2にする処理を行う。これにより、実際のレンズなどの光学系を通過して撮像素子で撮影された映像と同等の映像を生成できる。
 図6は、本実施例に係るカメラフォーマット変換機能5の構成を示す図である。
 カメラフォーマット変換機能5は、データ情報である左右の視点映像S5、S6を、ハードウェアと接続するためのインターフェースであり、CG映像受信部501と、カラーフィルタ変換部502と、伝送形式変換部503と、CG映像送信I/F504とから構成される。
 CG映像受信部501は、光学フィルタ機能4によって光学処理された左右の視点映像S5、S6を入力し、カメラECUが認識できるRGGB形式やRCC形式などのカラーパターンへ変換するカラーフィルタ変換部502に送信する。
 カラーフィルタ変換部502は、ステレオカメラECU6に適したカラーパターン(例えば、撮像素子から出力されるものと同じ形式(RGGBなど)の)に変換されたCG映像を、カメラへの送信I/Fに従った映像形式に変更をする伝送形式変換部503に送信する。
 CG映像送信I/F504は、伝送形式変換部503によってカメラフォーマットに従った形式に変換されたCG映像S7を、ステレオカメラECU6に出力する。
 図7は、本実施例に係るステレオカメラECU6の構成を示す図である。
 ステレオカメラECU6は、CG映像受信I/F601と、画像認識部602と、車両制御部603とから構成される。
 CG映像受信I/F601は、カメラフォーマットで入力されるCG映像を受信し、画像認識部602に送信する。
 画像認識部602は、入力されるCG映像を用いて外界認識処理を実行し、認識された物体の速度や距離などの認識結果を出力する。
 車両制御部603は、車両制御情報S10を出力する。車両制御情報S10は、画像認識部602による認識結果と、車両情報S11とに基づいて生成される、車両制御のための制御フィードバック情報であるアクセル、ブレーキ、舵角などを含む。また、車両制御部603は、映像の明るさを決める露光時間などのステレオカメラECU6が要求する光学処理情報S8と、ステレオカメラECU6が映像を要求するタイミングを示すシャッタ信号S9を出力する。
 図8は、本実施例に係るHILSを構成する各機能の動作を示すシーケンス図である。なお、図8には左視点映像を生成する処理を示すが、右視点映像も同様の処理で生成される。
 ステレオカメラEUC6は、映像を要求するタイミング毎にシャッタ信号S9と光学処理情報S8とを送信する。車両挙動シミュレータ1は、シャッタ信号S9を受信すると、受信したタイミングのカメラ視点座標・姿勢S1を計算し、視点映像生成機能2、3に通知する。視点映像生成機能2、3は、カメラ視点座標・姿勢S1が通知されると、通知されたカメラ視点座標・姿勢S1のCG映像S3を生成し、光学フィルタ機能4へ送信する。光学フィルタ機能4は、ステレオカメラECU6から受信する光学処理情報S8に従って、受信したCG映像S3に、ステレオカメラECU6に出力するための光学的な画像処理を行い、画像処理された映像を保持する。光学フィルタ機能4は、ステレオカメラECU6が次のシャッタ信号S9で要求するタイミングにおいて、光学処理された映像S5をステレオカメラECU6が処理可能な信号形式にカメラフォーマット変換機能5に送信する。カメラフォーマット変換機能5は、受信した光学処理後の映像S5をカメラフォーマットに変換し、ステレオカメラECU6に映像を送信する。
 シャッタタイミング内で左右カメラの処理を終え、次のシャッタタイミングでデータを送信することによって、左右でずれがない光学処理を含んだCG映像を提供することが可能となる。
 以上に説明したように実施例1によると、カメラが撮影する外界の映像を模擬するシミュレーション用映像を生成する映像生成機能2、3と、カメラから出力される映像を模擬するための光学的な画像処理をシミュレーション用映像に行う光学フィルタ機能4と、画像処理された後の映像を用いて認識処理を行って、車両制御用の信号を生成するカメラ画像処理部(ステレオカメラECU6、ステレオカメラモデル7)とを備えるので、評価対象が必要とする明るさや歪みなどの光学的な画像処理を行った仮想映像を用いてカメラ画像処理部を適切に評価できる。
 すなわち、ステレオカメラECU6からの情報に基づいて明るさを変更したCG映像を描画するとシステムの負荷が高くなることから、映像生成機能2、3が生成したシミュレーション用映像に、光学フィルタ機能4が光学的な画像処理を行うことによって、システム負荷を抑制しつつ、ステレオカメラECU6の要求に従ったシミュレーション用映像を生成できる。
 また、ステレオカメラECU6は明るさによって動作が異なる場合があり、ステレオカメラECU6の学習時に、明るさだけが異なる同一被写体の映像が有効である。しかし、実写映像や指定された条件で生成されたCG映像は一つの明るさでしかなく、異なる明るさ状態での学習が困難である。しかし、本実施例ではCG環境によって映像を生成するので、異なる条件で同一被写体の映像を生成でき、実写映像より細かな明るさ指定によって、ステレオカメラECU6に十分な学習をさせることができる。
 また、カメラが搭載される車両の挙動及び周辺環境を模擬する車両挙動シミュレータ1を有し、映像生成機能2、3が車両挙動シミュレータ1の出力に基づいてCG映像を生成するので、車両の走行に合わせたCG映像を生成できる。
 また、光学フィルタ機能4によって画像処理された映像をステレオカメラECU6への入力に適する形式の映像にデータフォーマットを変換するカメラフォーマット変換機能5を有するので、実車搭載時にステレオカメラECU6に入力されるフォーマットの映像データ(例えば、撮像素子が出力するRGGBの画素データ)をステレオカメラECU6に入力でき、ステレオカメラECU6を適切に評価できる。
 また、実施例1では、カメラは少なくとも左視点映像と右視点映像とを撮影する複眼カメラであって、実施例4では、カメラは一つの映像とを撮影する単眼カメラとしたので、様々な数のカメラ(撮像素子)にも対応できる。
 また、光学フィルタ機能4は、ゲイン調整処理と、ぼかし処理と、ノイズ処理と、歪み処理との少なくとも一つの処理を実行するので、実際のレンズなどの光学系を通過して撮像素子で撮影された映像と同等の映像を生成できる。
 [実施例2]
 図9は、本発明に係る一実施例として光学フィルタ機能4を映像生成機能に統轄したHILSの構成例を示す図である。実施例2では、左視点映像生成機能2及び右視点映像生成機能3が、CG映像を生成する際に光学的な画像処理を実行する。以下の実施例2の説明において、実施例1と異なる箇所を主に説明し、実施例1と同じ機能の構成には同じ符号を付し、それらの説明は省略する。
 CG映像S7が入力されるステレオカメラECU6を評価する評価環境は、車両挙動シミュレータ1と、左視点映像生成機能2と、右視点映像生成機能3と、カメラフォーマット変換機能5とから構成される。
 車両挙動シミュレータ1は、所定の時間(例えば、1ミリ秒)間隔で車両の挙動を計算し、シミュレーション空間内にいる自車両の左右のカメラ座標と姿勢を計算する。また、車両の挙動は、ドライバーが操作する情報の他に、ステレオカメラECU6から入力されるアクセル、ブレーキ、舵角などの車両制御情報S10を用いて計算する。計算された左視点座標・姿勢S1を左視点映像生成機能2に送信し、右視点座標・姿勢S2を右視点映像生成機能3に送信する。また、車速などの車両情報S11をステレオカメラECU6に送信する。
 左視点映像生成機能2は、車両挙動シミュレータ1によって計算された左視点座標・姿勢S1と、ステレオカメラECU6から出力された光学処理情報S8とから、光学処理された左視点の映像S5を生成し、シャッタ信号S9が入力されたタイミングでカメラフォーマット変換機能5に送信する。
 右視点映像生成機能3は、車両挙動シミュレータ1によって計算された右視点座標・姿勢S2と、ステレオカメラECU6から出力された光学処理情報S8とから、光学処理された右視点の映像S6を生成し、シャッタ信号S9が入力されたタイミングでカメラフォーマット変換機能5に送信する。
 カメラフォーマット変換機能5は、入力された光学処理後の左視点映像S5と右視点映像S6とを、ステレオカメラECU6が受信できるハード的かつソフト的カメラI/Fに適合したCG映像S7に変換する。
 ステレオカメラECU6は、カメラI/Fに適合したCG映像S7と、車速などの車両情報S11の入力を受け、アクセル、ブレーキ、舵角などの車両制御情報S10を必要に応じて車両挙動シミュレータ1に出力する。また、ステレオカメラECU6は、ステレオカメラECU6が要求する露光情報などを含む光学処理情報S8を、左視点映像生成機能2と右視点映像生成機能3とに出力する。また、ステレオカメラECU6は、映像を要求するタイミングを制御し、映像を要求するタイミングを示すシャッタ信号S9を、左視点映像生成機能2と右視点映像生成機能3と車両挙動シミュレータ1とに出力する。
 以下の説明において、左右ともに同じ動作をする場合は、左映像について説明する。右映像についての説明は省略するが、左映像と同様の処理が行われる。
 図10は、本実施例に係る光学フィルタ機能4を含む視点映像生成機能2、3の構成を示す図である。なお、図10には、左視点映像生成機能2の構成を示すが、右視点映像生成機能3も同じ構成である。
 左視点映像生成機能2は、CG環境情報201と、座標情報受信部202と、視点映像CG生成部203と、CG映像送信部204とから構成される。視点映像CG生成部203は、光学フィルタ機能4を有し、光学処理情報S8に基づいてゲイン調整部402と、ぼかし処理403部と、ノイズ処理404部と、歪み処理405部とで画像処理を行って、CG映像を生成する。
 座標情報受信部202は、車両挙動シミュレータ1によって計算された視点座標・姿勢S1を受信すると視点映像CG生成部203に送信する。
 視点映像CG生成部203は、CG環境情報201で指定された仮想空間上において、座標情報受信部202で変換された視点座標・姿勢S1に応じたCG映像を生成し、ステレオカメラECU6から入力された光学処理情報S8に基づいて、ゲイン調整部402と、ぼかし処理部403と、ノイズ処理部404と、歪み処理部405とで処理を行って、光学処理を行ったCG映像を生成し、CG映像送信部204に送信する。CG映像送信部204は、映像を格納するバッファを有してもよい。
 CG映像送信部204は、ステレオカメラECU6から入力されるシャッタ信号S9のタイミングで、光学的な画像処理後の左視点映像S5をカメラフォーマット変換機能5に送信する。
 図11は、本実施例に係るHILSを構成する各機能の動作を示すシーケンス図である。
 ステレオカメラECU6は、映像を要求するタイミング毎にシャッタ信号S9と光学処理情報S8とを送信する。車両挙動シミュレータ1は、シャッタ信号S9を受信すると、受信したタイミングのカメラ視点座標・姿勢S1を計算し、視点映像生成機能2、3に送信する。視点映像生成機能2、3は、カメラ視点座標・姿勢S1が通知されると、通知されたカメラ視点座標・姿勢S1のCG映像を生成し、ステレオカメラEUC6から受信する光学処理情報S8に従って、受信したCG映像S3に、ステレオカメラECU6に出力するための光学的な画像処理を行ったCG映像S5を生成する。生成された映像は視点映像生成機能2、3で保持される。視点映像生成機能2、3は、ステレオカメラECU6が次のシャッタ信号S9で要求するタイミングにおいて、光学処理された映像S5をステレオカメラECU6が処理可能な信号形式にカメラフォーマット変換機能5に送信する。カメラフォーマット変換機能5は、受信した光学処理後の映像S5をカメラフォーマットに変換し、ステレオカメラECU6に映像を送信する。
 以上に説明したように実施例2によると、光学フィルタ機能4を映像生成機能2、3に設けたので、実施例1と比べてCG映像を生成する処理の時間が長くなるが、バッファへの入出力やデータ転送などの映像生成の周辺の処理回数を低減できる。このため、ステレオカメラECU6を短時間で評価できる。
 [実施例3]
 図12は、本実施例に係る一構成例として光学フィルタ機能4を用いたSILSの構成例を示す図である。実施例3では、実施例1のステレオカメラECU6の機能をソフトウェアで構成されたステレオカメラモデル7が実行するので、ステレオカメラモデル7に入力されるデータは形式を変換する必要がなく、カメラフォーマット変換機能5が不要となる。以下の実施例3の説明において、実施例1と異なる箇所を主に説明し、実施例1と同じ機能の構成には同じ符号を付し、それらの説明は省略する。
 CG映像S7が入力されるステレオカメラモデル7を評価する評価環境は、車両挙動シミュレータ1と、左視点映像生成機能2と、右視点映像生成機能3と、光学フィルタ機能4とから構成される。
 車両挙動シミュレータ1は、所定の時間(例えば、1ミリ秒)間隔で車両の挙動を計算し、シミュレーション空間内にいる自車両の左右のカメラ座標と姿勢を計算する。また、車両の挙動は、ドライバーが操作する情報の他に、ステレオカメラECU6から入力されるアクセル、ブレーキ、舵角などの車両制御情報S10を用いて計算する。計算された左視点座標・姿勢S1を左視点映像生成機能2に送信し、右視点座標・姿勢S2を右視点映像生成機能3に送信する。また、車速などの車両情報S11をステレオカメラECU6に送信している。
 左視点映像生成機能2は、車両挙動シミュレータ1によって計算された左視点座標・姿勢S1から左視点映像S3を生成し、光学フィルタ機能4に送信する。
 右視点映像生成機能3は、車両挙動シミュレータ1によって計算された右視点座標・姿勢S2から右視点映像S4を生成し、光学フィルタ機能4に送信する。
 光学フィルタ機能4は、ステレオカメラECU6から出力された光学処理情報S8に従って、左右の視点映像S3、S4に明るさやノイズなどの光学的な画像処理を行った左視点映像S5、右視点映像S6を生成し、シャッタ信号S9のタイミングでカメラフォーマット変換機能5に送信する。
 ステレオカメラモデル7は、光学処理された左右の視点映像S5、S6と、車速などの車両情報S11が入力され、アクセル、ブレーキ、舵角などの車両制御情報S10を必要に応じて車両挙動シミュレータ1に出力する。また、ステレオカメラモデル7は、ステレオカメラECU6が要求する露光情報などを含む光学処理情報S8と、映像を要求するタイミングを示すシャッタ信号S9とを、映像を要求するタイミングで光学フィルタ機能4に出力する。また、シャッタ信号S9は、車両挙動シミュレータ1にも出力される。
 すなわち、外界認識センサの一つであるステレオカメラを模擬する構成は、実施例1、2のようにハードウェア(HiLS)で構成しても、実施例3のようにソフトウェア(SiLS)で構成してもよい。
 以上に説明したように実施例3によると、ハードウェアで構成されるステレオカメラECUをソフトウェアで模擬するので、ステレオカメラECUのハードウェア的な仕様(例えば、信号レベル)に左右されることなく、ステレオカメラECUの制御ロジックを検証できる。
 [実施例4]
 図13は、本実施例に係る一構成例として単眼カメラのHILSの構成例を示す図である。以下の実施例4の説明において、実施例1と異なる箇所を主に説明し、実施例1と同じ機能の構成には同じ符号を付し、それらの説明は省略する。
 CG映像S7が入力されるステレオカメラECU6を評価する評価環境は、車両挙動シミュレータ1と、視点映像生成機能2と、光学フィルタ機能4と、カメラフォーマット変換機能5から構成される。各機能の処理は前述した実施例1と同じである。
 すなわち、外界認識センサの一つであるカメラは、実施例1~3のように複眼カメラ(例えばステレオカメラ)でも、実施例4のように単眼カメラでもよく、本発明はカメラの撮像素子の数を限定するものではない。また、3眼以上の複眼カメラ(上方から見下ろす視点で周囲映像を生成するシステム)にも、本発明を適用できる。
 なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
 また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
 各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
 [実施例5]
 図14は、実施例の一例として視点映像CG映像部を示す。本実施例では、実際のレンズのようにCG映像を作成する場合、仮想空間上に存在する光源からRGB映像を描画する。光源が発する光の情報として輝度情報があり、光学処理情報S8に含まれる。作成するRGB映像には色深度が存在し、複数の色情報を有している。この色深度は任意に設定可能であり、Xbitとする。また、この色深度の情報は、輝度情報から関連付けられ、輝度情報と色深度の設定は任意に設定可能とし、1次元や2次元などの引数参照も可能とする。
図15は、CG映像を光学処理するゲイン調整処理部402を示す。図14に示すRGBデータを受領し、実際のカメラのようなCMOS特性を考慮した光学処理を行う。ゲイン調整処理部402は、RGBデータを受領しCMOS特性などを考慮したゲイン調整を行う。このゲイン調整は1次元や2次元などの引数参照も可能とする。このことで実際のCMOS特性を再現するものである。
 すなわち本実施例は、映像生成部がカメラ画像処理部からの輝度情報に基づいて、任意の映像データを作成する。
 また、輝度情報から映像データへの生成は、任意に設定可能な変数により変換する。
 また、映像生成部で作成された映像データから、光学センサを模擬した映像データに変換する。
 また、映像生成部で作成された映像データは、任意に設定可能な変数を用いて光学センサを模擬した映像データへ変換する。
1:車両挙動シミュレータ
2:左視点映像生成機能
3:右視点映像生成機能
4:光学フィルタ機能
5:カメラフォーマット変換機能
6:ステレオカメラECU
7:ステレオカメラモデル
101:シミュレーションモデル
102:センサモデル
103:環境モデル
104:車両モデル
105:視点情報I/F
106:CAN I/F
201:CG環境情報
202:座標情報受信部
203:視点映像用CG生成部
204:CG映像送信部
401:CG映像受信部
402:ゲイン調整 処理部
403:ぼかし処理部
404:ノイズ処理部
405:歪み処理部
406:CG映像送信部
501:CG映像受信部
502:カラーフィルタ変換部
503:映像形式変換部
504:CG映像送信I/F
601:CG映像受信I/F
602:画像認識部
603:車両制御部
S1:左視点座標・姿勢
S2:右視点座標・姿勢
S3:左視点映像
S4:右視点映像
S5:光学処理後の左視点映像
S6:光学処理後の右視点映像
S7:カメラI/Fに適合した視点映像
S8:光学処理情報
S9:シャッタ信号
S10:アクセル、ブレーキ、舵角などの車両制御情報
S11:車両情報

Claims (14)

  1.  外界を撮像するカメラを含むカメラシステムの評価装置であって、
     前記カメラが撮影する外界の映像を模擬するシミュレーション用映像を生成する映像生成部と、
     前記カメラから出力される映像を模擬するための光学的な画像処理を、前記シミュレーション用映像に行う光学フィルタ部と、
     前記画像処理された後の映像を用いて認識処理を行って、車両制御用の信号を生成するカメラ画像処理部とを備える評価装置。
  2.  請求項1に記載の評価装置であって、
     前記カメラが搭載される車両の挙動及び周辺環境を模擬するシミュレータと、
     映像の形式を変換する変換部とを備え、
     前記映像生成部は、前記シミュレータの出力に基づいて、前記シミュレーション用映像を生成し、
     前記変換部は、前記画像処理された映像を前記カメラ画像処理部への入力に適する形式の映像に変換し、
     前記カメラ画像処理部は、前記画像処理された後に、前記形式が変換された映像を用いて認識処理を行って、車両制御用の信号を生成することを特徴とする評価装置。
  3.  請求項2に記載の評価装置であって、
     前記光学フィルタ部は、前記映像生成部に設けられることを特徴とする評価装置。
  4.  請求項2に記載の評価装置であって、
     前記カメラは、少なくとも左視点映像と右視点映像とを撮影する複眼カメラであって、
     前記映像生成部は、前記シミュレータの出力に基づいて、左視点シミュレーション用映像と右視点シミュレーション用映像とを生成し、
     前記光学フィルタ部は、前記カメラ画像処理部からの出力に基づいて、前記左視点シミュレーション用映像と前記右視点シミュレーション用映像とのそれぞれに前記光学的な画像処理を行い、前記カメラ画像処理部からのタイミング信号に従って前記光学処理された左視点シミュレーション用映像と右視点シミュレーション用映像とを同期して出力し、
     前記変換部は、前記画像処理された左視点シミュレーション用映像と右視点シミュレーション用映像とを前記カメラ画像処理部に入力可能な形式の映像に変換し、
     前記カメラ画像処理部は、前記画像処理された後に、前記形式が変換された映像を用いて認識処理を行って、車両制御用の信号を生成することを特徴とする評価装置。
  5.  請求項4に記載の評価装置であって、
     前記光学フィルタ部は、前記映像生成部に設けられることを特徴とする評価装置。
  6.  請求項1から5のいずれか一つに記載の評価装置であって、
     前記光学フィルタ部は、ゲイン調整処理と、ぼかし処理と、ノイズ処理と、歪み処理との少なくとも一つの処理を行うことを特徴とする評価装置。
  7.  請求項1から5のいずれか一つに記載の評価装置であって、
     前記カメラ画像処理部は、前記カメラシステムに実装される電子制御装置であることを特徴とする評価装置。
  8.  請求項1から5のいずれか一つに記載の評価装置であって、
     前記カメラ画像処理部は、ソフトウェアによるカメラ機能シミュレータであることを特徴とする評価装置。
  9.  外界を撮像するカメラを含むカメラシステムの評価を演算装置が行う方法であって、
     前記演算装置が、前記カメラが撮影する外界の映像を模擬するシミュレーション用映像を生成する映像生成手順と、
     前記演算装置が、前記カメラから出力される映像を模擬するための光学的な画像処理を、前記シミュレーション用映像に行う光学フィルタ手順と、
     前記演算装置が、前記画像処理された後の映像を用いて認識処理を行って、車両制御用の信号を生成するカメラ画像処理手順とを備える方法。
  10.  請求項1から5のいずれか一つに記載の評価装置であって、
     前記光学フィルタ部は、ゲイン調整処理と、ぼかし処理と、ノイズ処理と、歪み処理を任意の順に変更することを特徴とする評価装置。
  11.  請求項2に記載の評価装置であって、
     前記映像生成部は、前記カメラ画像処理部からの輝度情報に基づいて、任意の映像データを作成する評価装置。
  12.  請求項11に記載の評価装置であって、
     前記輝度情報から前記映像データへの生成は、任意に設定可能な変数により変換することを特徴とする評価装置。
  13.  請求項6に記載の評価装置であって、
     前記映像生成部で作成された映像データから、光学センサを模擬した映像データに変換することを特徴とする評価装置。
  14.  請求項13に記載の評価装置であって、
     前記映像生成部で作成された映像データは、任意に設定可能な変数を用いて光学センサを模擬した映像データへ変換することを特徴とする評価装置。
PCT/JP2020/004733 2019-03-19 2020-02-07 カメラシステムの評価装置及び評価方法 WO2020189081A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/426,969 US20220101500A1 (en) 2019-03-19 2020-02-07 Evaluation apparatus for camera system and evaluation method
DE112020000836.3T DE112020000836T5 (de) 2019-03-19 2020-02-07 Auswertungseinrichtung für ein Kamerasystem und Auswertungsverfahren
JP2021506232A JP7245318B2 (ja) 2019-03-19 2020-02-07 カメラシステムの評価装置及び評価方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-051526 2019-03-19
JP2019051526 2019-03-19

Publications (1)

Publication Number Publication Date
WO2020189081A1 true WO2020189081A1 (ja) 2020-09-24

Family

ID=72520611

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/004733 WO2020189081A1 (ja) 2019-03-19 2020-02-07 カメラシステムの評価装置及び評価方法

Country Status (4)

Country Link
US (1) US20220101500A1 (ja)
JP (1) JP7245318B2 (ja)
DE (1) DE112020000836T5 (ja)
WO (1) WO2020189081A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022149411A1 (ja) * 2021-01-07 2022-07-14 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、シミュレーションシステム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008069189A1 (ja) * 2006-12-04 2008-06-12 Fujitsu Limited 運転模擬評価方法、運転模擬評価装置及びコンピュータプログラム
JP2009265915A (ja) * 2008-04-24 2009-11-12 Toyota Central R&D Labs Inc シミュレーション装置及びプログラム
JP2010026845A (ja) * 2008-07-22 2010-02-04 Yokogawa Electric Corp 車載カメラ用電子ユニットの評価システム
WO2017171005A1 (ja) * 2016-04-01 2017-10-05 株式会社wise 3dグラフィック生成、人工知能の検証・学習システム、プログラム及び方法
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272571B1 (ko) * 2011-11-11 2013-06-10 재단법인대구경북과학기술원 지능형 자동차의 스테레오 비전 시스템에 대한 시뮬레이션 장치 및 이를 이용한 카메라 교정 방법
JP6310652B2 (ja) * 2013-07-03 2018-04-11 クラリオン株式会社 映像表示システム、映像合成装置及び映像合成方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008069189A1 (ja) * 2006-12-04 2008-06-12 Fujitsu Limited 運転模擬評価方法、運転模擬評価装置及びコンピュータプログラム
JP2009265915A (ja) * 2008-04-24 2009-11-12 Toyota Central R&D Labs Inc シミュレーション装置及びプログラム
JP2010026845A (ja) * 2008-07-22 2010-02-04 Yokogawa Electric Corp 車載カメラ用電子ユニットの評価システム
WO2017171005A1 (ja) * 2016-04-01 2017-10-05 株式会社wise 3dグラフィック生成、人工知能の検証・学習システム、プログラム及び方法
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022149411A1 (ja) * 2021-01-07 2022-07-14 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、シミュレーションシステム

Also Published As

Publication number Publication date
JPWO2020189081A1 (ja) 2021-10-28
DE112020000836T5 (de) 2022-01-05
JP7245318B2 (ja) 2023-03-23
US20220101500A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
US11092966B2 (en) Building an artificial-intelligence system for an autonomous vehicle
JP7011711B2 (ja) カメラおよび回折光学要素の外因性較正のためのシステムおよび方法
JP7481790B2 (ja) 強化された高ダイナミック・レンジ画像化及びトーン・マッピング
US11663691B2 (en) Method and apparatus for restoring image
TWI705417B (zh) 深度資料處理系統的操作方法
JP7064257B2 (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
US20220319145A1 (en) Image processing device, image processing method, moving device, and storage medium
JP2022506061A (ja) ローリングシャッター画像/ビデオのsfm/slamに対するアプリケーションで畳み込みニューラルネットワークを用いる画像/ビデオにおけるローリングシャッター補正
WO2020189081A1 (ja) カメラシステムの評価装置及び評価方法
GB2564866A (en) Method of and data processing system for providing an output surface
CN113246858B (zh) 车辆行驶状态图像生成方法、设备和系统
US10382679B2 (en) Drawing apparatus, drawing method, and drawing program
US11823353B2 (en) System and method for generating bokeh image for DSLR quality depth-of-field rendering and refinement and training method for the same
US20230276020A1 (en) Image processing device, image processing method, and image processing program
Pfeffer et al. Video injection methods in a real-world vehicle for increasing test efficiency
CN114585487A (zh) 通过使用基于视觉的机器人任务模型训练模拟到真实模型来减轻现实差距
KR20230078502A (ko) 이미지 처리 장치 및 방법
US20210374543A1 (en) System, training device, training method, and predicting device
KR102438490B1 (ko) 단일 체커보드를 이용하는 이종 센서 캘리브레이션 방법 및 장치
KR20220127642A (ko) 전자 장치 및 그 제어 방법
WO2020067204A1 (ja) 学習用データ作成方法、機械学習モデルの生成方法、学習用データ作成装置及びプログラム
JP6838725B2 (ja) カメラ装置
KR102445874B1 (ko) 멀티 카메라 시스템을 보정하기 위한 전자 장치 및 이의 제어 방법
Rebling et al. Development and testing of driver assistance systems with unity
US20230281354A1 (en) System and method for providing autonomous driving simulation architecture with switchable models

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20772546

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021506232

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20772546

Country of ref document: EP

Kind code of ref document: A1