WO2020003903A1 - 車載電子制御装置 - Google Patents

車載電子制御装置 Download PDF

Info

Publication number
WO2020003903A1
WO2020003903A1 PCT/JP2019/021907 JP2019021907W WO2020003903A1 WO 2020003903 A1 WO2020003903 A1 WO 2020003903A1 JP 2019021907 W JP2019021907 W JP 2019021907W WO 2020003903 A1 WO2020003903 A1 WO 2020003903A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
dimensional object
camera
control unit
Prior art date
Application number
PCT/JP2019/021907
Other languages
English (en)
French (fr)
Inventor
山田 哲也
広津 鉄平
朋仁 蛯名
一 芹沢
彰二 村松
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to DE112019002388.8T priority Critical patent/DE112019002388T5/de
Priority to CN201980031706.5A priority patent/CN112272841B/zh
Priority to US17/254,527 priority patent/US11908199B2/en
Publication of WO2020003903A1 publication Critical patent/WO2020003903A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers
    • G01S7/2955Means for determining the position of the radar coordinate system for evaluating the position data of the target in another coordinate system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present invention relates to an on-vehicle electronic control device.
  • a camera is installed in a vehicle such as an automobile, and an on-vehicle electronic control device that performs automatic driving support or the like based on image data captured by the camera is widely used.
  • the image data captured by the camera is taken into the control unit as image data before being changed to an image format such as JPEG, that is, as raw data.
  • the control unit integrates the recognition processing by the plurality of sensors to improve the recognition accuracy and the real-time performance.
  • the raw data is transferred between the camera and the control unit.
  • the transmission bandwidth is several hundred MB / sec. Is required. Therefore, expensive cables, expensive communication transceiver LSIs and communication controller LSIs are used as interfaces between the camera and the control unit.
  • cameras are being developed for higher resolutions such as 8K.
  • Patent Document 1 describes an apparatus that transmits a partial image after transmitting a low-resolution whole image to reduce the transmission capacity.
  • Patent Literature 1 does not consider image data captured from a running vehicle and cannot reduce the transmission band of image data.
  • the on-vehicle electronic control device includes a sensor for detecting a three-dimensional object, and a control unit that determines a position of the three-dimensional object at a predetermined time after a time when the three-dimensional object is detected by the sensor when the vehicle runs. And an imaging device for outputting image data of the three-dimensional object to the control unit at the predetermined time at the position.
  • An in-vehicle electronic control device includes: an in-vehicle electronic control device including an imaging device that images a three-dimensional object and a control unit that performs a recognition process based on image data of the three-dimensional object imaged by the imaging device.
  • the device recognizes the three-dimensional object with the traveling of the vehicle, manages the image data of the recognized three-dimensional object by the corresponding identification number, and corresponds to the identification number when the control unit notifies the identification number. Generating a high-resolution partial image of the three-dimensional object, outputting the generated image data and the identification number to the control unit, wherein the control unit sets the identification number of the image data required for the recognition processing to the Notify the imaging device.
  • the transmission band in transmitting image data captured from a traveling vehicle, can be reduced, and expensive cables and expensive communication components are not required, thereby reducing system cost.
  • FIG. 1 is a block diagram illustrating a configuration of a vehicle equipped with a vehicle-mounted electronic control device according to a first embodiment. It is a figure showing an example which recognizes a sign from a running vehicle.
  • FIG. 3 is a diagram showing a flow of data between a radar and a camera.
  • 5 is a flowchart of a recognition process according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of relative coordinate calculation and coordinate conversion for a single-lens camera in the first embodiment. It is a flowchart which shows the relative coordinate calculation of the marker recognition of 1st Embodiment, and the coordinate conversion process for monocular cameras.
  • FIG. 5 is a diagram illustrating an example of specifying an image width for a monocular camera according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a table of distances and pixel widths of camera images according to the first embodiment.
  • FIG. 3 is a diagram illustrating image clipping by the monocular camera according to the first embodiment.
  • 5 is a flowchart illustrating image clipping processing by the monocular camera according to the first embodiment. It is a figure explaining the principle of a stereo camera.
  • FIG. 5 is a diagram illustrating an example of relative coordinate calculation and coordinate conversion for a stereo camera according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of specifying an image width for a stereo camera according to the first embodiment.
  • FIG. 3 is a diagram illustrating image clipping by the stereo camera according to the first embodiment.
  • FIG. 5 is a flowchart illustrating an image cutout process performed by the stereo camera according to the first embodiment. It is a block diagram showing composition of a vehicle which carries a vehicle-mounted electronic control unit in a 2nd embodiment. It is a figure showing an example of relative coordinate calculation and coordinate conversion in a 2nd embodiment. 9 is a flowchart illustrating a coordinate conversion process according to the second embodiment. It is a figure showing the example recognized by the camera in a 3rd embodiment. It is a block diagram showing composition of a vehicle which carries a vehicle-mounted electronic control unit in a 3rd embodiment. It is a figure showing the example of the recognition management table in a 3rd embodiment. 13 is a flowchart illustrating a process of generating a cut-out image by a camera according to the third embodiment.
  • FIG. 1 is a block diagram showing a configuration of a vehicle equipped with the on-vehicle electronic control device 1 according to the first embodiment.
  • the on-vehicle electronic control device 1 includes a control unit 2, a camera 3, and a radar 4.
  • the camera 3 is a high-resolution imaging device, and may be either a stereo camera or a monocular camera.
  • the radar 4 may be either a front radar or a side radar, or both.
  • the radar may be any sensor other than the camera 3 as an example, and is not limited to the millimeter wave radar, and may be a rider.
  • the control unit 2 includes a sensor interface unit 11, an integrated recognition unit 12, an analysis unit 13, and a route planning unit 14. Vehicle information such as a vehicle speed, a steering angle, and a yaw rate is input to the control unit 2.
  • the sensor interface unit 11 performs input and output with the camera 3 and the radar 4.
  • Raw data is output from the camera 3, and the camera coordinate converter 32 calculates where the extracted partial image corresponds in the global coordinate system of the controller 2.
  • the camera coordinate converter 32 calculates where the extracted partial image corresponds in the global coordinate system of the controller 2. For example, when a distance and an angle are output from a stereo camera with a partial image, a location in a global coordinate system can be calculated from the angle direction and the distance of the camera coordinates. When there is no distance information in the monocular camera, the direction is output from the camera 3 but the distance is not output, so that the location cannot be uniquely specified on the global coordinate system.
  • the radar 4 outputs the detected object data, and the radar coordinate conversion unit 33 converts the object data from the coordinate system of the radar 4 to the global coordinate system of the control unit 2.
  • the camera time coordinate calculator 31 converts the vehicle coordinate system into the coordinate system of the camera 3 as described later.
  • the integrated recognition unit 12 performs a recognition process in the recognition unit 41.
  • the recognition unit 41 includes an overall recognition unit 42 that recognizes the entire image and a partial recognition unit 43 that recognizes the partial image. Perform recognition using machine learning.
  • the partial recognition unit 43 performs character recognition or the like using a high-resolution partial image, and may be configured using DNN (Deep ⁇ Neural ⁇ Network).
  • the overall recognition unit 42 performs the overall image recognition process. By sharing the coordinate system of the overall image recognition result of the camera 3 and the coordinate system of the radar 4 recognition result with the global coordinate system, the object information of the radar 4 is obtained. Is used to increase the recognition accuracy of the camera 3.
  • the analysis unit 13 includes a local dynamic map (LDM) 44 for mapping the map information and the recognition result of the radar 4 and the coordinate information of the recognition result of the recognition unit 41, and a vehicle for selecting data to be cut out as high-resolution data by the camera 3. It is composed of a three-dimensional object calculation unit 45 that calculates the coordinates and time of the coordinate system.
  • the route planning unit 14 performs a safety area calculation and a route calculation based on the LDM 44 in the route calculation unit 46, and the calculated information is used for the automatic driving support.
  • FIG. 2 is a diagram illustrating an example of recognizing a sign from the traveling vehicle 10.
  • the signs include main signs 55 and 57 indicating speed regulation and release, and auxiliary signs 54 and 56 indicating conditions of the main signs 55 and 57.
  • the auxiliary signs 54 and 56 include characters and symbols such as arrows, and cannot be determined unless character recognition is performed accurately. For example, to determine which of the auxiliary signs 54 and 56 a normal car belongs to, it is necessary to be able to accurately recognize "excluding large coins and three-wheel towing". For this reason, accurate character recognition at a long distance is one of the reasons why a high-resolution 4K camera or 8K camera is required.
  • a high-resolution image is required to determine the character recognition of the auxiliary signs 54 and 56
  • a background portion such as a mountain or a guardrail does not require a high resolution. Therefore, an image of a high-resolution limited region for detailed recognition, a low-resolution whole image with a reduced resolution as information of the entire screen, or a high-resolution whole image with a reduced frame rate is used. As a result, the data transmission amount can be reduced as compared with the data transmission amount of the high-resolution whole image at the normal frame rate.
  • the radar 4 mounted on the running vehicle 10 detects some distant three-dimensional object at a time T in a direction of a distance d1 [m] and an angle ⁇ 1. Since the vehicle 10 advances at the own vehicle speed Y [km / h], it is predicted that the camera 3 can capture a distant three-dimensional object at the angle ⁇ 1 or the distance d2 [m] at time T + ⁇ T. Therefore, if the control unit 2 requests the camera 3 to cut out the image of the angle ⁇ 1 or the distance d2 [m] in advance at the time of T + ⁇ T, the camera 3 has reached the time of T + ⁇ T.
  • the whole image and the high-resolution image obtained by cutting out only the relevant partial image are transferred to the control unit 2.
  • the angle ⁇ 1 is described in FIG. 2, when the camera 3 and the coordinate system on the drawing are different, it is necessary to notify the camera 3 at an angle that matches the coordinate system of the camera 3.
  • a recognition unit 41 including, for example, DNN (Deep ⁇ Neural ⁇ Network), in which a high-resolution partial image is input and character recognition is performed.
  • the position where the image of the camera 3 is cut out is specified using the information of the other sensors such as the radar 4 input to the control unit 2. Therefore, for example, the radar 4 having a longer detection distance than the camera 3 uses the camera 3 By using the information of the distance and the time point that cannot be detected by the control unit 2 and notifying the camera 3 from the control unit 2, a high-resolution partial image can be cut out immediately when a valid image can be obtained by the camera 3. .
  • FIG. 3 is a diagram showing a flow of data between the radar 4 and the camera 3. Based on this figure, the sign recognition processing shown in FIG. 2 will be described.
  • the radar 4 detects a distant three-dimensional object in the coordinate system of the radar 4 at (time T, angle ⁇ 1, distance d1) 61 and outputs it. This detection result is input to the control unit 2, and is converted to a global coordinate system (also referred to as a coordinate system 1) by a radar coordinate conversion unit 33, and becomes (time T, coordinate system 1 (x1, y1, z1)) 62. It is output and input to the three-dimensional object calculation unit 45 of the analysis unit 13.
  • the three-dimensional object calculation unit 45 calculates the time and position at which the three-dimensional object appears in the effective area of the camera 3.
  • the vehicle information 60 indicating the behavior of the own vehicle such as the vehicle speed, the steering angle, the yaw rate, etc., input to the control unit 2 via the CAN, the time T of the information of the vehicle coordinate system of the radar 4, and the coordinate system 1 (x1, y1, z1) ) 62, a plurality of times and coordinates of the coordinate system 1 are calculated in accordance with the frame rate interval of the camera 3.
  • the camera time coordinate calculation unit 31 converts the vehicle coordinate system into the coordinate system (time T + ⁇ T, angle ⁇ 1, distance d2) 64 of the camera 3.
  • the angle indicates an angle in the polar coordinate system, and the distance indicates a distance from the camera 3.
  • distance information is also output.
  • the time information it may be notified by time or by frame number.
  • the camera 3 is a camera 3 capable of handling distance using parallax, such as a stereo camera, a high-resolution image extraction 65 and a small-capacity whole image are created by the image conversion extraction unit 21 based on time, angle, and distance. I do.
  • the small-capacity whole image may be either a low-resolution whole image obtained by down-converting an image or data of a high-resolution whole image at a low frame rate by thinning out a specific frame.
  • the image of the raw data output from the camera 3 is converted into a vehicle coordinate system by the camera coordinate conversion unit 32.
  • the cut-out image 65 is converted into the vehicle coordinate system, and is treated as (time T + ⁇ T, coordinate system 1 (x2, y2, z2)) 66. Then, the cut-out image portion is subjected to a recognition process by the partial recognition portion 43 of the recognition portion 41, and recognition and identification of the real sign or the auxiliary sign are performed.
  • FIG. 4 is a flowchart of a recognition process according to the first embodiment.
  • processes S1, S3 to S6, and S9 to S10 are processes of the control unit 2
  • process S2 is a process of the radar 4
  • processes S7 to S8 are processes of the camera 3.
  • step S1 it is determined whether or not a certain time has elapsed, and when the certain time has elapsed, the process proceeds to the processes S2 and S8.
  • the process S2 at time T from the radar 4, detection coordinates of one or a plurality of three-dimensional objects including marker candidates distant from the radar 4 are output to the control unit 2.
  • step S ⁇ b> 8 the camera 3 outputs the image data of the low-capacity whole image of the raw data and the image data of the high-resolution cutout image to the control unit 2.
  • step S3 when the detected coordinates from the radar 4 are output, in step S3, the radar coordinates conversion unit 33 in the control unit 2 converts the coordinates detected from the radar 4 into coordinates in the global coordinate system. . Thereafter, the process proceeds to step S4.
  • the time at which the camera 3 can handle the three-dimensional object as an effective image for example, the width of the image of the three-dimensional object becomes a specific number of pixels .
  • the three-dimensional object calculation unit 45 calculates the vehicle behavior from the vehicle speed, the steering angle, and the yaw rate, and based on the detected coordinates of the three-dimensional object in the radar 4 that has been converted to the global coordinate system in step S3, the camera 3 determined in advance by the system. Calculates the time (T + ⁇ T) at which the three-dimensional object enters an area that can be treated as an effective image and the coordinates (x2, y2, z2) at that time on the global coordinate system.
  • step S5 the camera time coordinate calculation unit 31 converts the coordinates (x2, y2, z2) of the three-dimensional object at the time (T + ⁇ T) calculated in step S4 from the global coordinate system to the camera coordinate system. For example, if the camera 3 is in polar coordinates, conversion to polar coordinates is performed. If the distance can be handled like a stereo camera, the distance from the camera 3 is also calculated.
  • the control unit 2 gives the camera 3 time information of the time (T + ⁇ T) calculated in the process S4, and in the process S5 from the global coordinate system to the camera coordinate system. And the coordinate information (angle, distance) of the three-dimensional object at the time (T + ⁇ T) after the coordinate conversion.
  • the time may be determined by an absolute time or a frame number.
  • a three-dimensional object is imaged by the image conversion cutout unit 21 of the camera 3 using the time information and the coordinate information received from the control unit 2, and a high-resolution image of a portion near the coordinates is captured. Cut out. Further, the entire image is reduced in resolution, the frame rate is reduced, and the entire image is reduced in data volume.
  • the camera 3 outputs the small-capacity whole image to which the time information is added and the high-resolution cutout image to which the time information and the coordinate information are added to the control unit 2.
  • the camera 3 does not necessarily need to output all the images in the imaging region as the entire image. If the image captures at least a wider range than the high-resolution clipped image obtained by cutting out the vicinity of the three-dimensional object, the image can be output as the entire image.
  • the camera coordinate conversion unit 32 converts the coordinates of the received cutout image into a global coordinate system.
  • the recognition unit 41 of the control unit 2 performs recognition of the entire image by the overall recognition unit 42, and recognition of the cut-out image by the partial recognition unit 43.
  • the partial recognition unit 43 may perform a rectangular recognition of a three-dimensional object or a type of recognition different from a lane, such as character recognition of an auxiliary sign.
  • FIG. 5 shows an example of calculating the relative coordinates between the sign and the camera 3 at time (T + ⁇ T) using the sign detection information from the radar 4 and converting the coordinates to the camera coordinate system of the monocular camera.
  • the radar coordinate conversion unit 33 converts the data from the radar coordinate system to the global coordinate system. Since the control unit 2 knows the global coordinates of the own vehicle at the time T, the control unit 2 can plot the coordinates (x, y, z) of the sign using the converted relative coordinates (x1, y1, z1). it can.
  • the own vehicle can calculate the coordinates at time T + ⁇ T using the vehicle information, for example, the vehicle speed V and the acceleration ⁇ .
  • Relative coordinates (x2, y2, z2) are calculated from the coordinates (x, y, z) of the sign and the coordinates of the host vehicle at time T + ⁇ T. At this time, at time T + ⁇ T, it is assumed that the vehicle 3 is in an area that can be detected by the camera 3 based on the distance of the vehicle and the sign in relative coordinates.
  • FIG. 6 is a flowchart showing a coordinate conversion process for the camera coordinate system of the monocular camera shown in FIG. 5 is a flowchart showing in detail a process S4 by the three-dimensional object calculation unit 45 in the flowchart shown in FIG.
  • the radar coordinate conversion unit 33 in the control unit 2 converts the coordinates detected at the radar 4 (time T, distance d1, angle ⁇ 1) into the coordinates of the global coordinate system (time T , Relative coordinates to the host vehicle (x1, y1, z1)).
  • time T Relative coordinates to the host vehicle (x1, y1, z1)
  • the coordinates of the own vehicle relative to the own vehicle (x1, y1, z1) are added to calculate the sign coordinates (x, y, z). .
  • the position of the own vehicle at a certain time is predicted from the vehicle information (vehicle speed, acceleration, steering angle, etc.) of the own vehicle. Since the sign coordinates (x, y, z) are fixed, assuming that the detection distance of the camera 3 is, for example, 100 m, it is possible to calculate an estimated time to enter a point with a radius of 100 m from the sign coordinates. This time is defined as T + ⁇ T. The time can be normalized to the frame period of the camera 3.
  • FIG. 7 is a diagram illustrating an example of specifying an image width for a monocular camera according to the first embodiment.
  • the width of the sign (three-dimensional object) detected by the radar 4 at a time T at a distance d and an angle ⁇ 1 is w.
  • the camera 3 detects a sign (three-dimensional object) at time T + ⁇ T the detected time is different between the radar 4 and the camera 3, so that not only the angle and distance to the sign (three-dimensional object) but also the width w ′ are different.
  • FIG. 8 is a diagram illustrating an example of a table of a distance and a pixel width of a camera image. As shown in FIG. 8, when the width of a certain fixed sign is determined, the number of pixels of the image width according to the distance is shown. Reference is made from this table based on the distance, and if an appropriate distance is not in the table, calculation is performed by linear interpolation. As another means, it may be calculated based on the following formula (1) from the relationship between the width of the radar 4, the radar distance, and the camera distance.
  • Wc Wr ⁇ (Dr / Dc) ⁇ K Equation (1)
  • Wc camera width
  • Wr radar width
  • Dr radar distance
  • Dc camera distance
  • K coefficient.
  • the camera time coordinate calculation unit 31 refers to the table shown in FIG. 8 or calculates the width w ′ in the camera image using equation (1).
  • FIG. 9 is a diagram illustrating image clipping by a monocular camera.
  • the image acquisition processing unit 20 generates an entire image for each frame.
  • the image conversion cutout unit 21 generates a cutout image in addition to the low-resolution whole image or the whole image formed by thinning out frames using only some frames. Since a monocular camera does not have distance information, it does not use distance information.
  • a clipped image is generated at an angle ⁇ 1 and a width w ′ for the entire image at time T + ⁇ T.
  • FIG. 10 is a flowchart showing a process of extracting an image by the monocular camera. This flowchart shows the details of the process S7 in FIG.
  • step S7-1 the image acquisition processing unit 20 generates an entire frame image and outputs it.
  • the image conversion cutout unit 21 generates a cutout image at an angle ⁇ 1 and a width w ′ with respect to the entire image at time T + ⁇ T.
  • processing S7-3 as a small-capacity whole image, an entire image obtained by down-converting the image is generated for each frame, or an entire image is generated as a thinned frame using only some frames.
  • the camera 3 outputs the high-resolution cut-out image generated in the process S7-2 and the small-capacity whole image generated in the process S7-3.
  • FIG. 11 is a diagram illustrating the principle of a stereo camera.
  • a distance distribution image is generated for the entire screen based on the displacement (parallax) between the imaging surfaces of the left and right cameras 3.
  • the distance D is calculated by equation (2).
  • D B ⁇ f / Z Equation (2)
  • D distance
  • B base line length of the camera
  • f camera focal length
  • Z displacement of the imaging surface.
  • FIG. 12 shows an example of calculating the relative coordinates of the sign and the camera 3 at time (T + ⁇ T) using the detection information of the sign radar 4 and converting the coordinates to the camera coordinate system of the stereo camera.
  • the difference from the monocular camera shown in FIG. 5 is that the camera 3 handles the distance of the sign.
  • the radar coordinate conversion unit 33 converts the data from the radar coordinate system to the global coordinate system. Since the control unit 2 knows the global coordinates of the own vehicle at the time T, the control unit 2 can plot the coordinates (x, y, z) of the sign using the converted relative coordinates (x1, y1, z1). it can. The own vehicle can calculate the coordinates at time T + ⁇ T using the vehicle information, for example, the vehicle speed V and the acceleration ⁇ .
  • Relative coordinates (x2, y2, z2) are calculated from the coordinates (x, y, z) of the sign and the coordinates of the host vehicle at time T + ⁇ T. At this time, at time T + ⁇ T, it is assumed that the vehicle 3 is in an area that can be detected by the camera 3 based on the distance of the vehicle and the sign in relative coordinates.
  • the relative coordinates (x2, y2, z2) of the global coordinate system are converted to the camera coordinate system, they are expressed in the direction of angle ⁇ 1 at time T + ⁇ T.
  • the stereo camera has a parallax image indicating a distance in pixel units, and the distance can be determined in pixel units. Therefore, a partial image at a distance (d2) can be derived by superimposing the parallax image on the image at the angle ⁇ 1.
  • FIG. 13 is a diagram illustrating an example of specifying an image width for a stereo camera according to the first embodiment.
  • the width of a sign (three-dimensional object) detected by the radar 4 at a time T at a distance d and an angle ⁇ 1 is w.
  • the camera 3 detects a sign (three-dimensional object) at time T + ⁇ T, the detected time is different between the radar 4 and the camera 3, so that not only the angle and distance to the sign (three-dimensional object) but also the width w ′ are different.
  • the relationship between the distance and the width (the number of pixels) of the camera image is represented as a table as shown in FIG. 8 or the width of the radar 4 and the radar distance as shown in Expression (1). , May be calculated from the relationship of the camera distance.
  • the camera time coordinate calculator 31 refers to the table shown in FIG. 8, or calculates the width w ′ of the camera image using equation (1).
  • the image acquisition processing unit 20 generates an entire image for each frame.
  • a parallax image is generated by the parallax image generation unit 200 for each frame.
  • the image conversion cutout unit 21 generates a cutout image in addition to the low-resolution whole image or the whole image of a thinned frame using only some frames.
  • the whole image and the parallax image at time T + ⁇ T are used.
  • the distance search unit 210 searches for a portion having the distance d2 in the area of the angle ⁇ 1, and sets the matched point as the area of the width w ′.
  • the distance search unit generates a cutout image by cutting out an area having a distance d2 and a width w ′ from the entire image.
  • FIG. 15 is a flowchart showing a process of extracting an image by a stereo camera. This flowchart shows the details of the process S7 in FIG.
  • processing S7-10 the image acquisition processing unit 20 generates the entire image and the parallax image generation unit 200 generates and outputs a parallax image for each frame.
  • the distance search unit 210 searches the parallax image at the time T + ⁇ T for a range in which the distance d2 is obtained at an angle ⁇ 1 and finds an area.
  • step S7-12 a cut-out image is generated from the entire image with the width set to w 'for this area.
  • step S7-13 as a small-capacity whole image, an entire image obtained by down-converting the image is generated for each frame, or an entire image is generated as a thinned frame using only some frames.
  • the camera 3 outputs the high-resolution cut-out image generated in step S7-12 and the small-capacity whole image generated in step S7-13.
  • a cut-out image of the angle ⁇ 1 and the width w ′ is generated at a specific time T + ⁇ T, and in the case of the stereo camera, a cut-out image including the distance d2 is generated.
  • the transmission band in transmitting image data captured from a traveling vehicle, can be reduced, and expensive cables and expensive communication components are not required, so that system cost can be reduced.
  • the second embodiment in comparison with the first embodiment, it is determined whether the three-dimensional object detected by the radar 4 is a moving object or a stationary object, and the size and transmission interval of an image cut out from the camera 3 by the moving object and the stationary object An example in which is changed will be described.
  • the three-dimensional object initially recognized by the radar 4 is tracked for a certain period of time, and is compared with vehicle information such as the vehicle speed, steering angle, and yaw rate of the own vehicle, so that the corresponding three-dimensional object can be moved by coordinates according to the moving amount of the own vehicle. If there is a moving object that is different from the moving amount of the stationary object or the own vehicle, the moving object can be determined.
  • a cut-out image is generated based on the amount of movement of the corresponding three-dimensional object in the cut-out image of the camera 3.
  • a margin may be included such as increasing the image size. Since the stationary object is only the movement of the own vehicle, the margin for the image size may be small.
  • the transmission interval of the cut-out image from the camera 3 to the control unit 2 may be shorter for the moving object, and the transmission interval of the cut-out image for the stationary object may be longer. For example, a moving object may be cut out every frame, while a stationary object may be cut out once every several frames.
  • FIG. 16 is a block diagram illustrating a configuration of a vehicle equipped with the vehicle-mounted electronic control device 1 according to the second embodiment.
  • the same parts as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
  • a moving object stationary object determination unit 71 is provided in the recognition unit 41.
  • the moving object stationary object determination unit 71 tracks the detection result of the radar 4, determines the moving object and the stationary object from the difference from the movement information of the own vehicle, and calculates the relative speed and direction of the moving object with respect to the own vehicle.
  • the three-dimensional object calculation unit 45 determines the transmission interval of the cut-out image for each of the moving object and the stationary object, and in the case of the moving object, calculates the angle and distance to be cut out from the relative speed and direction of the movement.
  • the camera time coordinate calculator 31 performs coordinate conversion from the vehicle coordinate system to the camera coordinate system, and outputs the result to the camera 3.
  • the time, the identifier, the angle, the distance, and the width are transmitted as the instruction information 76 to the camera 3.
  • the camera 3 transmits the small-capacity whole image and the cut-out high-resolution image according to the instruction information 76 from the control unit 2.
  • a cutout image is generated by using an angle in a monocular camera and an angle and distance information in a stereo camera.
  • FIG. 17 is a diagram illustrating an example of relative coordinate calculation and coordinate conversion according to the second embodiment.
  • FIG. 17 shows an example in which whether or not the object is a moving object is determined using the detection information of the three-dimensional object of the radar 4, the relative coordinates of the three-dimensional object and the camera 3 at time (T + ⁇ T) are calculated, and the coordinate is converted into the camera coordinate system. Is shown.
  • three-dimensional object information is acquired a plurality of times in the radar coordinate system of the radar 4 at a sampling cycle of the radar 4. For example, before the time T, the relative coordinates of the three-dimensional object are acquired at times T ′ and T ′′. Then, using the information of the times T ′, T ′′ and T, it is determined whether the object is a moving object. The relative position at time T + ⁇ T is predicted.
  • the radar coordinate conversion unit 33 converts the coordinates of the three-dimensional object at times T ′, T ′′, and T detected by the radar 4 from the radar coordinate system to the global coordinate system. Since the coordinates are known, the coordinates of the vehicle and the coordinates of the three-dimensional object can be plotted in the global coordinate system using the relative coordinates, for example, the relative coordinates (x1, y1, z1) at time T. The coordinates of the three-dimensional object at times T ′ and T ′′ can be plotted in the global coordinate system. A vector v or a vector per unit time can be calculated from the time T ', T "or the time T", T, and thereby the coordinates of the three-dimensional object in the global coordinate system at the time T + ⁇ T are obtained.
  • the relative coordinates are calculated from the three-dimensional object at time T + ⁇ T and the coordinates of the own vehicle. it can. If the relative coordinates of the three-dimensional object with respect to the own vehicle at the time T + ⁇ T are known, the camera time coordinate calculation unit 31 performs coordinate conversion to the camera coordinate system, and the angle ⁇ 2 is obtained.
  • FIG. 18 is a flowchart showing a coordinate conversion process according to the second embodiment. 18 illustrates an operation of determining whether the three-dimensional object is a moving object or a stationary object and calculating relative coordinates with respect to the own vehicle.
  • a process for a moving object is added to the process S4 in the three-dimensional object calculation unit 45.
  • the other processes are the same as those in the flowchart shown in FIG.
  • the radar coordinate conversion unit 33 converts the instantaneous result detected by the radar 4 into global coordinates in order to determine whether the three-dimensional object detected by the radar 4 is a moving object or a stationary object. Calculate the coordinates of the system. For this reason, a repetitive process is performed. As an example, information of the times T ′, T ′′, and T is used.
  • the radar coordinate conversion unit 33 in the control unit 2 converts the vehicle in the radar coordinate system of the times T ′, T ′′, and T into a three-dimensional object. The coordinates are converted from the relative coordinates to the relative coordinates in the global coordinate system.
  • the own vehicle is determined based on the relative coordinates from the own vehicle to the three-dimensional object.
  • the coordinates of the three-dimensional object in the global coordinate system are calculated: coordinates at time T ′ (Xa, Ya, Za), coordinates at time T ′′ b (Xb, Yb, Zb), and coordinates at time T (Xc, Yc, Zc) is calculated.
  • step S4-11 the three-dimensional object calculation unit 45 uses the coordinates of the two points among the coordinates of the three points T ′, T ′′, and T at the time, and calculates the difference between the coordinates and the time difference.
  • a movement vector v ⁇ per unit time is obtained.
  • the moving vector v ⁇ is zero, it is a stationary object, and when it is not zero, it is a moving object.
  • step S4-12 a transmission interval calculation is performed so that the transmission interval of the instruction to the camera 3 is extended every frame for a moving object and once every several frames for a stationary object.
  • the coordinates of the vehicle and the three-dimensional object can be predicted from the vehicle information (vehicle speed, acceleration, steering angle, etc.) of the own vehicle and the movement vector of the three-dimensional object per unit time.
  • vehicle information vehicle speed, acceleration, steering angle, etc.
  • step S4-13 assuming that the detection distance of the camera 3 is, for example, 100 m, an expected time of a vehicle entering a point having a radius of 100 m from the predicted coordinates of the three-dimensional object is calculated. This time is defined as T + ⁇ T.
  • the time can be normalized to the frame period of the camera 3.
  • the position of the own vehicle can be predicted from the vehicle information, and the coordinates of the three-dimensional object can be predicted from the predicted coordinates of the own vehicle and the movement vector v ⁇ per unit time. A difference is calculated from these coordinates to calculate relative coordinates (x3, y3, z3) between the vehicle and the three-dimensional object.
  • the camera time coordinate calculation unit 31 converts the relative coordinates (x3, y3, z3) of the time T + ⁇ T into the camera coordinate system to obtain an angle ⁇ 2 and a distance d2.
  • the three-dimensional object calculation unit 45 calculates the relative coordinates of the vehicle and the three-dimensional object according to the transmission interval, and the camera time coordinate calculation unit 31 uses the camera coordinate system. Is performed.
  • the size and transmission interval of an image cut out from the camera 3 by a moving object and a stationary object are changed.
  • the transmission band can be reduced, and an expensive cable and an expensive communication component are not required, so that the system cost can be reduced.
  • FIG. 19 shows an example of recognition by the camera 3.
  • the number is large, and thus the selection is performed.
  • the three-dimensional object 81 whose content cannot be identified but seems to be a sign, the vehicle 82 entering the lane, and the newly detected pedestrian 87 are selected on the camera 3 side, and the identification ID and the time, the angle ⁇ of the polar coordinates,
  • the stereo camera 3 further adds information on the distance of the three-dimensional object to the cut-out image and transmits the information to the control unit 2.
  • the three-dimensional object 81 as a sign and the vehicle 82 entering the lane continuously transmit the cutout image from the camera 3.
  • the image selected by the camera 3 and the image requested by the control unit 2 are cut out, and the cut-out image is transmitted from the camera 3 to the control unit 2.
  • FIG. 20 is a block diagram illustrating a configuration of a vehicle equipped with the on-vehicle electronic control device 1 according to the third embodiment.
  • the same parts as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
  • the difference from the first embodiment and the second embodiment is that the camera 3 itself also performs the recognition process, so that the camera recognition unit 22 and the recognition management table 23 are provided, and both the camera 3 and the control unit 2 , Based on the recognition ID output from the camera 3.
  • the camera 3 can track the three-dimensional object by the camera recognizing unit 22 to accurately detect the three-dimensional object.
  • image data of a three-dimensional object corresponding to the designated ID can be transmitted.
  • FIG. 21 is a diagram showing an example of the recognition management table 23.
  • the recognition management table 23 stores a frame number 231, a recognition ID 232, an angle 233, a distance 234, a screen coordinate 235, and a screen size 236. Then, the data in the recognition management table 23 is updated every frame.
  • a ⁇ B is described so that the change can be seen. However, in actuality, only the data of “A” is described in the frame of frame number 100, and only the data of “B” is described in the frame of frame number 101.
  • Recognition ID 87 indicates a case where the frame of frame number 101 is registered in recognition management table 23 for the first time. When the vehicle is running, the content of the information in the recognition management table 23 changes every frame.
  • FIG. 22 is a flowchart illustrating a process of generating a cut-out image by the camera 3.
  • the image acquisition processing unit 20 in the camera 3 generates an entire image and a parallax image requested by the control unit 2 for each frame, and outputs the generated images to the camera recognition unit 22.
  • the camera recognizing unit 22 performs a three-dimensional object recognition process such as tracking.
  • the contents of the recognition management table 23 are updated for each frame based on the result of the recognition processing. Since the camera recognition unit 22 updates the recognition management table 23 by recognizing the three-dimensional object, the position of the three-dimensional object 81 or the vehicle 82 can be specified from the running vehicle.
  • the process S24 the time T and the recognition ID are designated by the control unit 2, and when the time reaches the designated time T, the process proceeds to the process S25, where the image conversion cutout unit performs the screen conversion based on the information in the recognition management table 23. Generate a cut-out image of a three-dimensional object using coordinates and screen size.
  • step S26 as a small-capacity whole image, the whole image obtained by down-converting the image is generated for each frame, or the whole image is generated as a thinned frame using only some frames. Thereafter, each time the control unit 2 designates the time T and the recognition ID, the processing from step S24 is repeated.
  • step S27 the camera 3 outputs the high-resolution cut-out image generated in step S25 and the small-capacity whole image generated in step S26 with a recognition ID added thereto.
  • the control unit 2 determines whether or not the high-resolution partial images are necessary for the recognition process of the partial recognition unit 43 of the recognition unit 41 to be continued.
  • the control unit 2 when the control unit 2 determines that the recognition processing needs to be continuously performed, the control unit 2 notifies the camera of the recognition ID of the partial image data as a cutout image request.
  • the transmission band can be reduced, and an expensive cable and an expensive communication component are not required, and the system cost can be reduced.
  • the on-vehicle electronic control device 1 obtains a sensor (radar 4) for detecting a three-dimensional object and a position of the three-dimensional object at a predetermined time after the time when the three-dimensional object is detected by the sensor when the vehicle runs.
  • the control unit 2 includes an imaging device (camera 3) that outputs image data of a three-dimensional object to the control unit 2 at a predetermined time at the position.
  • the transmission band can be reduced in transmitting image data captured from a running vehicle, and expensive cables and expensive communication components are not required, thereby reducing system cost.
  • In-vehicle electronic control device 1 including an imaging device (camera 3) for imaging a three-dimensional object and a control unit 2 for performing recognition processing based on image data of the three-dimensional object captured by the imaging device (camera 3).
  • the imaging device (camera 3) recognizes the three-dimensional object as the vehicle travels, manages the image data of the recognized three-dimensional object by the corresponding identification number, and, when the identification number is notified from the control unit 2, A high-resolution partial image of the three-dimensional object corresponding to the identification number is generated, and the generated image data and the identification number are output to the control unit 2.
  • the control unit 2 obtains the identification number of the image data required for the recognition processing by the imaging device. Notify (camera 3).
  • the transmission band can be reduced in transmitting image data captured from a running vehicle, and expensive cables and expensive communication components are not required, thereby reducing system cost.
  • the present invention is not limited to the above embodiments, and other forms that can be considered within the scope of the technical idea of the present invention are also included in the scope of the present invention unless the characteristics of the present invention are impaired. . Further, a configuration in which the above embodiments are combined may be adopted.

Abstract

走行する車両から撮像された画像データは考慮されておらず、画像データの伝送帯域を削減することができない。走行している車両10に搭載されているレーダ4が時刻Tにおいて、距離d1[m]、角度θ1の方向で何らかの遠方立体物を検知したとする。車両10は、自車速Y[km/h]で進むので、カメラ3は、時刻T+ΔTで、角度φ1、距離d2[m]の位置で遠方立体物を捉えられると予測される。その為、カメラ3に事前にT+ΔTの時刻に、角度φ1、距離d2[m]の画像を切り出すよう制御部2からカメラ3に要求を出しておくと、カメラ3はT+ΔTの時刻になったときに、全体画像と、該当の部分画像のみを切出した全体画像よりも高解像度の画像とを制御部2に転送する。

Description

車載電子制御装置
 本発明は、車載電子制御装置に関する。
 自動車等の車両にはカメラが設置され、カメラで撮像された画像データに基づいて自動運転支援などを行う車載電子制御装置が普及している。 
 このような車載電子制御装置では、カメラで撮像された画像データをJPEG などの画像フォーマットに変更する前の、すなわちローデータのままの画像データとして制御部へ取り込んでいる。これにより、制御部は、複数センサによる認識処理を統合して、認識精度の向上やリアルタイム性能の向上を図っている。他方で、ローデータを制御部へ入力する場合は、カメラと制御部の間でローデータを転送するため、例えば、4Kカメラで30fpsの非圧縮ローデータの場合、数百MB/secの伝送帯域が必要となる。そのため、高価なケーブル、高価な通信トランシーバLSIや通信コントローラLSIをカメラと制御部のインターフェースとして用いることとなる。さらに、カメラは、8Kなどより高解像度化に向けた開発が進んでいる。
 特許文献1には、低解像度の全体画像を送信した後に部分画像を送信することで伝送容量を小さくする装置が記載されている。
特開2006-33793号公報
 特許文献1では、走行する車両から撮像された画像データは考慮されておらず、画像データの伝送帯域を削減することができない。
 本発明による車載電子制御装置は、立体物を検知するセンサと、車両が走行した場合に、前記センサで立体物が検知された時刻から経過した所定時刻における前記立体物の位置を求める制御部と、前記位置における前記所定時刻に、前記立体物を撮像した画像データを前記制御部へ出力する撮像装置とを備える。
 本発明による車載電子制御装置は、立体物を撮像する撮像装置と前記撮像装置で撮像された立体物の画像データに基づいて認識処理を行う制御部とを備えた車載電子制御装置において、前記撮像装置は、車両の走行に伴って立体物を認識し、認識した立体物の画像データを対応する識別番号により管理し、前記制御部より前記識別番号が通知された場合に、前記識別番号に対応する前記立体物の高解像度の部分画像を生成し、生成した画像データおよび前記識別番号を前記制御部へ出力し、前記制御部は、前記認識処理に必要な前記画像データの前記識別番号を前記撮像装置に通知する。
 本発明によれば、走行する車両から撮像された画像データの伝送において、伝送帯域を削減することができ、高価なケーブルや高価な通信部品を必要とせず、システムコストを削減できる。
第1の実施形態における車載電子制御装置を搭載した車両の構成を示すブロック図である。 走行する車両から標識を認識する例を示す図である。 レーダおよびカメラとのデータの流れを示す図である。 第1の実施形態における認識処理のフローチャートである。 第1の実施形態における標識認識の相対座標算出と単眼カメラ向け座標変換の例を示す図である。 第1の実施形態の標識認識の相対座標算出と単眼カメラ向け座標変換処理を示すフローチャートである。 第1の実施形態の単眼カメラ向けの画像幅の指定の例を示す図である。 第1の実施形態のカメラ画像の距離と画素幅のテーブルの例を示す図である。 第1の実施形態の単眼カメラによる画像切出しを説明する図である。 第1の実施形態の単眼カメラによる画像切出しの処理を示すフローチャートである。 ステレオカメラの原理を説明する図である。 第1の実施形態の標識認識の相対座標算出とステレオカメラ向け座標変換の例を示す図である。 第1の実施形態のステレオカメラ向けの画像幅の指定の例を示す図である。 第1の実施形態のステレオカメラによる画像切出しを説明する図である。 第1の実施形態のステレオカメラによる画像切出しの処理を示すフローチャートである。 第2の実施形態における車載電子制御装置を搭載した車両の構成を示すブロック図である。 第2の実施形態における相対座標算出と座標変換の例を示す図である。 第2の実施形態における座標変換の処理を示すフローチャートである。 第3の実施形態におけるカメラにより認識された例を示す図である。 第3の実施形態における車載電子制御装置を搭載した車両の構成を示すブロック図である。 第3の実施形態における認識管理テーブルの例を示す図である。 第3の実施形態におけるカメラによる切出し画像生成の処理を示すフローチャートである。
[第1の実施形態]
 以下、第1の実施形態について図面を参照して説明する。
 第1の実施形態では、カメラ3と制御部2の間のローデータの伝送帯域をどのように削減するかという課題に対し、カメラ3以外のセンサの情報、例えばレーダ4を用いて、必要なデータを特定して、伝送帯域を削減する車載電子制御装置について説明する。
 図1は、第1の実施形態における車載電子制御装置1を搭載した車両の構成を示すブロック図である。車載電子制御装置1は、制御部2、カメラ3、レーダ4を備える。カメラ3は、高解像度の撮像装置であり、ステレオカメラでも単眼カメラのいずれでもよい。レーダ4は、フロントレーダ、サイドレーダのどちらか一方、または両方のいずれでもよい。また、レーダは例として挙げているカメラ3以外のセンサであればよく、ミリ波レーダに限定されず、ライダーとしても構わない。
 制御部2は、センサインターフェース部11、統合認識部12、解析部13、経路計画部14から構成される。制御部2には、車速、舵角、ヨーレートなどの車両情報が入力される。
 センサインターフェース部11は、カメラ3やレーダ4との入出力を行う。カメラ3からはローデータを出力し、切出した部分画像が制御部2のグローバル座標系のどこに相当するかをカメラ座標変換部32にて計算する。例えば、部分画像でステレオカメラから距離と角度を出力すると、カメラ座標の角度の方向と距離からグローバル座標系での場所を算出できる。単眼カメラで距離情報がない場合は、カメラ3から方向を出力するが、距離は出力しないので、グローバル座標系上で一意に場所の特定はできない。レーダ4は検知後のオブジェクトデータを出力し、レーダ座標変換部33にてオブジェクトデータをレーダ4の座標系から制御部2のグローバル座標系に変換する。カメラ時刻座標計算部31は、後述するように車両座標系をカメラ3の座標系に変換する。
 統合認識部12は、認識部41にて認識処理を行う。認識部41は、全体画像を認識する全体認識部42と部分画像を認識する部分認識部43から構成される。機械学習を用いた認識を行う。部分認識部43は、高解像度の部分画像を用いて、文字認識などを行うもので、DNN(Deep Neural Network)を用いて構成してもよい。全体認識部42は、全体画像の認識処理を行うが、カメラ3の全体画像の認識結果とレーダ4の認識結果の座標系をどちらもグローバル座標系に共通化することで、レーダ4のオブジェクト情報を用いて、カメラ3の認識精度を高めることが行われる。
 解析部13は、地図情報とレーダ4の認識結果や、認識部41の認識結果の座標情報をマッピングするローカルダイナミックマップ(LDM)44と、カメラ3で高解像度データとして切出すデータの選択の車両座標系の座標と時刻を計算する立体物計算部45から構成される。
 経路計画部14は経路計算部46にてLDM44を元に安全領域計算と経路計算を行い、算出されたこれらの情報は自動運転支援に用いられる。
 図2は、走行する車両10から標識を認識する例を示す図である。標識は、速度規制や解除を示す本標識55、57と本標識55、57の条件を表す補助標識54、56から構成される。補助標識54、56は文字や矢印などの記号を含んでおり、文字認識を正確に行わないと判断できない。例えば、補助標識54と56において、普通車がどちらに属するかを判定するには、“大貨等・三輪けん引を除く”を正確に認識できなければならない。このため、遠距離での正確な文字認識が、高解像度の4Kカメラや8Kカメラが必要となる理由の一つとなっている。
 補助標識54、56の文字認識の判定には高解像度の画像が必要だが、山やガードレールなど背景部分は高解像度が必要なわけではない。そこで、詳細認識向けの高解像度の限定領域の画像と、画面全体の情報として解像度を下げた低解像度の全体画像か、フレームレートを下げた高解像度の全体画像のいずれかにする。これにより、常に通常フレームレートで、高解像度の全体画像のデータ伝送量に比べて、データ伝送量を削減することができる。
 図2に示すように、走行している車両10に搭載されているレーダ4が時刻Tにおいて、距離d1[m]、角度θ1の方向で何らかの遠方立体物を検知したとする。車両10は、自車速Y[km/h]で進むので、カメラ3は、時刻T+ΔTで、角度φ1、または距離d2[m]の位置で遠方立体物を捉えられると予測される。その為、カメラ3に事前にT+ΔTの時刻に、角度φ1、または距離d2[m]の画像を切り出すよう制御部2からカメラ3に要求を出しておくと、カメラ3はT+ΔTの時刻になったときに、全体画像と該当の部分画像のみを切出した高解像度画像とを制御部2に転送する。ここで図2では角度φ1と記載しているが、カメラ3と図面上の座標系が異なる場合は、カメラ3の座標系に合わせた角度でカメラ3に通知する必要がある。制御部2内では、例えば、DNN(Deep Neural Network)を含む認識部41があり、そこに高解像度の部分画像を入力し、文字認識を行う。
 このように制御部2に入力されるレーダ4などの他センサの情報を用いて、カメラ3の画像の切出し位置を指定するので、例えば、カメラ3よりも検知距離の長いレーダ4で、カメラ3では検知できない距離、時点の情報を利用し、制御部2からカメラ3に通知しておくことで、カメラ3で有効な画像が取得できる時点で直ちに高解像度の部分画像の切り出しを行うことができる。
 図3は、レーダ4およびカメラ3とのデータの流れを示す図である。この図を基に、図2で示した標識認識の処理について説明する。
 まず、レーダ4にて、遠方の立体物をレーダ4の座標系で(時刻T、角度θ1、距離d1)61で検知し、出力する。この検知結果が制御部2に入力され、レーダ座標変換部33にて、グローバル座標系(座標系1とも呼ぶ)に変換され、(時刻T、座標系1(x1、y1、z1))62として出力され、解析部13の立体物計算部45に入力される。
 カメラ3が十分な解像度で立体物を判別できる領域をカメラ3の有効領域と呼ぶとすると、立体物計算部45にて、カメラ3の有効領域に立体物が現れる時刻と位置を計算する。CAN経由で制御部2に入力される車速、舵角、ヨーレートなどの自車の挙動を示す車両情報60と、レーダ4の車両座標系の情報の時刻T、座標系1(x1、y1、z1)62を用いて、カメラ3のフレームレートの間隔に合わせて複数の時刻と座標系1の座標が計算される。ここでは、(時刻T+ΔT、識別子ID=1、座標系1(x2、y2、z2))63を複数点のうちの最初の点の座標とする。
 カメラ時刻座標計算部31にて、車両座標系からカメラ3の座標系(時刻T+ΔT、角度φ1、距離d2)64に変換する。角度は極座標系の角度を示し、距離はカメラ3からの距離を示す。ステレオカメラなどの距離を取り扱えるカメラ3向けには、距離情報も併せて出力する。時間情報に関しては、時刻で通知してもよいし、フレーム番号で通知してもよい。
 カメラ3がステレオカメラのような視差を用いて距離を取り扱えるカメラ3とすると、時間、角度、距離から画像変換切出部21で、高解像度の画像の切出し65と、小容量の全体画像を作成する。小容量の全体画像とは、画像をダウンコンバートして低解像度の全体画像でもよいし、特定のフレームを間引きし、低フレームレートの高解像度の全体画像のデータのいずれでもよい。
 カメラ3から出力されたローデータの画像は、カメラ座標変換部32にて、車両座標系に変換される。切出画像65は、車両座標系に変換され、(時刻T+ΔT、座標系1(x2、y2、z2))66として扱われる。そして、切出し画像部は認識部41の部分認識部43にて認識処理が行われ、本標識または補助標識の認識並びに識別が行われる。
 図4は、第1の実施形態における認識処理のフローチャートである。
 図4において、処理S1、S3~S6、S9~S10は、制御部2の処理であり、処理S2はレーダ4の処理であり、処理S7~S8はカメラ3の処理である。
 処理S1では、一定時間が経過したか判別し、一定時間が経過すると、処理S2、処理S8へ進む。処理S2では、レーダ4から時刻Tにて、レーダ4から遠方の標識候補を含む一つまたは複数の立体物の検知座標が制御部2に出力される。また、処理S8では、カメラ3からローデータの小容量全体画像の画像データと高解像度切出画像の画像データが制御部2に出力される。
 処理S2で、レーダ4からの検知座標が出力されると、処理S3では、制御部2内のレーダ座標変換部33にて、レーダ4での検知座標からグローバル座標系の座標に座標変換される。その後、処理S4へ進む。
 処理S4では、レーダ4の方がカメラ3より遠距離の検知が出来るので、カメラ3で立体物を有効画像として扱える時刻、例えば、該当立体物の画像の幅が特定のピクセル数となるのは、レーダ4での検知時刻(T)より時間が進んでからとなる。立体物計算部45では、車速、舵角、ヨーレートから車両挙動を計算し、処理S3でグローバル座標系に座標変換したレーダ4での立体物の検知座標に基づいて、予めシステムで定めたカメラ3が有効画像として扱える領域に、該当立体物が入る時刻(T+ΔT)とそのときの座標(x2、y2、z2)をグローバル座標系上で計算する。
 次に処理S5では、カメラ時刻座標計算部31で、処理S4で計算した時刻(T+ΔT)における立体物の座標(x2、y2、z2)をグローバル座標系からカメラ座標系に座標変換を行う。例えば、カメラ3が極座標であれば、極座標への変換を行う。ステレオカメラのように距離を取り扱える場合は、カメラ3からの距離も計算する。
 次の処理S6では、カメラ3で取り扱える情報にも依存するが、制御部2からカメラ3に対し、処理S4で計算した時刻(T+ΔT)の時刻情報と、処理S5でグローバル座標系からカメラ座標系に座標変換した時刻(T+ΔT)における立体物の座標情報(角度、距離)とを出力する。時刻は絶対時刻で定めてもよいし、フレーム番号でもよい。
 カメラ3では、処理S7において、カメラ3の画像変換切出部21により、制御部2から受け取った、時刻情報と座標情報を用いて、立体物を撮像して、座標近傍部分の高解像度画像の切出しを行う。さらに、全体画像の低解像度化や、フレームレートを下げ、データ容量を削減した全体画像を生成する。
 次に、処理S8では、時刻情報を付加した小容量全体画像と、時刻情報と座標情報を付加した高解像度切出画像とをカメラ3から制御部2に出力する。なお、カメラ3は必ずしも撮像領域の全ての画像を全体画像として出力しなくてもよい。立体物の近傍部分を切出した高解像度の切出画像よりも少なくとも広い範囲を撮像した画像であれば、全体画像として出力することが可能である。
 制御部2では、処理S9で、カメラ座標変換部32により、受け取った切出画像に関し、グローバル座標系に座標変換する。
 そして、次の処理S10で、制御部2の認識部41は、全体認識部42で全体画像の認識、部分認識部43では切出し画像の認識を行う。部分認識部43では、例えば、補助標識の文字認識など、立体物の矩形認識やレーンとは異なる種類の認識を行ってもよい。
(単眼カメラの場合の座標変換)
 第1の実施形態において、レーダ4のレーダ座標系、制御部2のグローバル座標系、カメラ3のカメラ座標系の座標変換について、単眼カメラの場合を例に、図5~図10を参照して説明する。
 図5は、レーダ4による標識の検知情報を用いて、時刻(T+ΔT)で標識とカメラ3の相対座標を算出し、単眼カメラのカメラ座標系へ変換する例を示している。
 まず、レーダ4のレーダ座標系で、自車両から時刻T、距離(d1)、角度(θ1)で標識を検知したと仮定する。レーダ座標変換部33にて、レーダ座標系からグローバル座標系に変換される。制御部2は、自車両の時刻Tのグローバル座標は把握しているので、変換された相対座標(x1、y1、z1)を用いて標識の座標(x、y、z)をプロットすることができる。自車両は、車両情報の例えば、車速Vや加速度αを用いて、時刻T+ΔTの座標を計算することができる。標識の座標(x、y、z)と時刻T+ΔTの自車両の座標から相対座標(x2、y2、z2)を算出する。このとき、時刻T+ΔTでは、自車両と標識の相対座標での距離よりカメラ3が検知できる領域にあるとする。
 そして、グローバル座標系の相対座標(x2、y2、z2)をカメラ座標系に変換すると、時刻T+ΔTで角度φ1の方向で表される。
 図6は、図5で示した単眼カメラのカメラ座標系について、その座標変換処理を示すフローチャートである。図4で示したフローチャートの立体物計算部45による処理S4を詳細に示したものである。
 処理S3では、図4において前述したように、制御部2内のレーダ座標変換部33にて、レーダ4での検知座標(時刻T、距離d1、角度θ1)からグローバル座標系の座標(時刻T、対自車両相対座標(x1、y1、z1))に座標変換される。
 図6に示す次の処理S4-1では、時刻Tにおいて、自車両の位置に対自車両相対座標(x1、y1、z1)を加算して、標識座標(x、y、z)を計算する。
 そして、処理S4-2では、自車両の車両情報(車速、加速度、操舵角等)から、ある時刻における自車両の位置を予測する。標識座標(x、y、z)は固定であるので、カメラ3の検知距離を例えば、100mとすると、標識の座標から半径100mの地点に入る予想時刻を算出することができる。この時刻をT+ΔTとする。時刻をカメラ3のフレーム周期に正規化することもできる。
 次の処理S4-3では、時刻T+ΔTが定められると、自車両の位置は車両情報から予測できるので、自車両の予測座標と、固定の標識座標の差分をとり、時刻T+ΔTでの相対座標(x2、y2、z2)を算出する。
 処理S5では、時刻T+ΔTでの対車両相対座標(x2、y2、z2)が求められているので、カメラ座標系への座標変換を行なうことにより、時刻T+ΔT、角度φ1を算出する。
(単眼カメラの場合の切り出す画像の幅)
 次に、第1の実施形態において、カメラ3で切り出す画像の幅w’をどのように定めるかについて説明する。
 図7は、第1の実施形態の単眼カメラ向けの画像幅の指定の例を示す図である。図7に示すように、レーダ4が時刻Tに、距離d、角度θ1で検知した標識(立体物)の幅がwであると仮定する。カメラ3は時刻T+ΔTで標識(立体物)を検知する場合、レーダ4とカメラ3では、検知した時刻が異なるので、標識(立体物)への角度、距離だけでなく、幅w’も異なる。
 立体物の幅が決まっている場合、カメラ画像の距離と幅(ピクセル数)の関係をテーブルとして表すことができる。図8は、カメラ画像の距離と画素幅のテーブルの例を示す図である。図8に示すように、ある固定の標識の幅を定めた場合、距離に応じた画像幅のピクセル数を示している。このテーブルより距離を基に参照し、適切な距離がテーブルになければ線形補間をして算出する。別の手段として、レーダ4の幅とレーダ距離、カメラ距離の関係から次式(1)に基づいて算出してもよい。
  Wc=Wr × (Dr/Dc) × K  … 式(1)
 ここで、Wc:カメラ幅、Wr:レーダ幅、Dr:レーダ距離、Dc:カメラ距離、K:係数である。
 カメラ時刻座標計算部31により、図8に示したテーブルを参照し、または式(1)でカメラの画像での幅w’を算出する。
(単眼カメラの場合の画像の切り出し)
 第1の実施形態において、単眼カメラでどのように画像を切り出すかについて説明する。
 図9は、単眼カメラによる画像切出しを説明する図である。制御部2から、切出画像の情報として、時刻T+ΔT、角度φ1、距離d2、幅w’、識別子ID=1の情報を受け取る。画像取得処理部20にて、全体画像を毎フレーム生成する。画像変換切出部21では、低解像度の全体画像、または一部のフレームのみ使用した間引きフレームによる全体画像に加え、切出し画像を生成する。単眼カメラは距離情報を有しないため、距離情報は使用しない。制御部2からの指示に従い、時刻T+ΔTの全体画像に対し、角度φ1、幅w’で切出し画像を生成する。
 図10は、単眼カメラによる画像切出しの処理を示すフローチャートである。このフローチャートは図4の処理S7の詳細を示す。
 制御部2は、処理S6で、図4で述べたと同様に、切出画像の情報として、時刻T+ΔT、識別子ID=1、角度φ1、距離d2、幅w’の情報を出力する。
 次に、処理S7-1で、画像取得処理部20にて、毎フレーム全体画像を生成し、これを出力する。次の処理S7-2で、画像変換切出部21では、時刻T+ΔTの全体画像に対し、角度φ1、幅w’で切出し画像を生成する。そして、処理S7-3で、小容量の全体画像として、画像をダウンコンバートした全体画像を毎フレーム生成するか、もしくは、一部のフレームのみ使用した間引きフレームでの全体画像を生成する。次の処理S8で、処理S7-2で生成した高解像度の切出画像と、処理S7-3で生成した小容量全体画像をカメラ3から出力する。
(ステレオカメラの場合の座標変換)
 第1の実施形態において、レーダ4のレーダ座標系、制御部2のグローバル座標系、カメラ3のカメラ座標系の座標変換について、ステレオカメラの場合を例に、図11~図18を参照して説明する。
 図11はステレオカメラの原理を説明する図である。左右のカメラ3の撮像面の位置ずれ(視差)を基に、画面全体で距離分布画像を生成する。距離Dは式(2)で算出する。
 D=B × f / Z  … 式(2)
 ここで、D:距離、B:カメラの基線長、f:カメラ焦点距離、Z:撮像面の位置ずれ、である。
 図12は、標識のレーダ4の検知情報を用いて、時刻(T+ΔT)での標識とカメラ3の相対座標を算出し、ステレオカメラのカメラ座標系へ変換する例を示している。図5で示した単眼カメラとは、カメラ3で標識の距離を扱う点が異なる。
 まず、レーダ4のレーダ座標系で、時刻T、距離(d1)、角度(θ1)で標識を検知したと仮定する。レーダ座標変換部33にて、レーダ座標系からグローバル座標系に変換される。制御部2は、自車両の時刻Tのグローバル座標は把握しているので、変換された相対座標(x1、y1、z1)を用いて標識の座標(x、y、z)をプロットすることができる。自車両は、車両情報の例えば、車速Vや加速度αを用いて、時刻T+ΔTの座標を計算することができる。標識の座標(x、y、z)と時刻T+ΔTの自車両の座標から相対座標(x2、y2、z2)を算出する。このとき、時刻T+ΔTでは、自車両と標識の相対座標での距離よりカメラ3が検知できる領域にあるとする。
 そして、グローバル座標系の相対座標(x2、y2、z2)をカメラ座標系に変換すると、時刻T+ΔTで角度φ1の方向で表される。ステレオカメラは画素単位での距離を示す視差画像を有しており、画素単位で距離がわかる。そこで、画像の角度φ1の部分と視差画像を重ねることにより、距離(d2)の部分画像を導出することができる。
(ステレオカメラの場合の切り出す画像の幅)
 第1の実施形態のシステムにおいて、ステレオカメラで切り出す画像の幅w’をどのように定めるかについて説明する。
 図13は、第1の実施形態のステレオカメラ向けの画像幅の指定の例を示す図である。 図13に示すように、レーダ4が時刻Tに、距離d、角度θ1で検知した標識(立体物)の幅がwであると仮定する。カメラ3は時刻T+ΔTで標識(立体物)を検知する場合、レーダ4とカメラ3では、検知した時刻が異なるので、標識(立体物)への角度、距離だけでなく、幅w’も異なる。
 立体物の幅が決まっている場合、図8に示したようにカメラ画像の距離と幅(ピクセル数)の関係をテーブルとして表すか、式(1)のように、レーダ4の幅とレーダ距離、カメラ距離の関係から算出してもよい。カメラ時刻座標計算部31により、図8に示したテーブルを参照し、または式(1)でカメラの画像での幅w’を算出する。
(ステレオカメラの場合の画像の切り出し)
 第1の実施形態において、ステレオカメラで距離を考慮して、どのように画像を切り出すかについて説明する。
 図14は、第1の実施形態のステレオカメラによる画像切出しを説明する図である。制御部2から、切出画像の情報として、時刻T+ΔT、角度φ1、距離d2、幅w’、識別子ID=1の情報を受け取る。画像取得処理部20にて、全体画像を毎フレーム生成する。視差画像を視差画像生成部200にて毎フレーム生成する。
 画像変換切出部21では、低解像度の全体画像、または一部のフレームのみ使用した間引きフレームでの全体画像に加え、切出し画像を生成する。時刻T+ΔTの全体画像と視差画像を使用する。距離探索部210にて、角度φ1の領域のうち、距離d2となる部分を探索し、一致した点を中心に幅w’の領域とする。距離探索部で、距離d2、幅w’の領域を全体画像から切り出すことで、切出し画像を生成する。
 図15は、ステレオカメラによる画像切出しの処理を示すフローチャートである。このフローチャートは図4の処理S7の詳細を示す。
 制御部2は、処理S6で、図4で述べたと同様に、切出画像の情報として、時刻T+ΔT、識別子ID=1、角度φ1、距離d2、幅w’の情報を出力する。
 次に、処理S7-10で、画像取得処理部20にて、全体画像と、視差画像生成部200にて視差画像を毎フレーム生成し、出力する。次の処理S7-11で、画像変換切出部21では、距離探索部210にて、時刻T+ΔTの視差画像に対し、角度φ1で距離d2となる範囲を探索し、領域を見つける。そして、処理S7-12で、この領域に対し、幅をw’として、全体画像から切出し画像を生成する。次の処理S7-13で、小容量の全体画像として、画像をダウンコンバートした全体画像を毎フレーム生成するか、もしくは、一部のフレームのみ使用した間引きフレームでの全体画像を生成する。そして、処理S8で、処理S7-12で生成した高解像度の切出画像と、処理S7-13で生成した小容量全体画像をカメラ3から出力する。
 以上のように、単眼カメラの場合は、特定の時刻T+ΔTに、角度φ1と幅w’の切出し画像、ステレオカメラの場合は、更に距離d2も含めた切出し画像を生成する。
 第1の実施形態によれば、走行する車両から撮像された画像データの伝送において、伝送帯域を削減することができ、高価なケーブルや高価な通信部品を必要とせず、システムコストを削減できる。
[第2の実施形態]
 第2の実施形態では、第1の実施形態に対し、レーダ4で検知した立体物が移動体か静止物かを判定し、移動体と静止物でカメラ3から切出す画像の大きさや送信間隔を変える例について説明する。
 レーダ4の初期認識の立体物を一定の時間追跡し、自車の車速、舵角、ヨーレート等の車両情報と比較することにより、該当する立体物が自車の移動量に応じた座標移動であれば静止物、自車の移動量と異なる移動を行う場合は移動体と判定することができる。
 移動体の場合、カメラ3での切出し画像では、該当する立体物の移動量を踏まえて切出し画像を生成する。画像サイズを大きくするなどマージンを含めてもよい。静止物は、自車の移動のみとなるため、画像サイズに対するマージンは少なくてよい。カメラ3から制御部2への切出し画像の送信間隔も移動体は送信間隔を短く、静止物の切出し画像の送信間隔は長くしてよい。例えば、移動体は毎フレーム切り出すが、静止物は数フレームに1回でよい。
 図16は、第2の実施形態における車載電子制御装置1を搭載した車両の構成を示すブロック図である。第1の実施形態と同一箇所には同一の符号を付してその説明を省略する。
 第1の実施形態と異なり、認識部41内に、移動体静止物判定部71を設ける。移動体静止物判定部71では、レーダ4の検知結果をトラッキングし、自車の移動情報との差分から移動体、静止物の判定を行い、移動体は自車に対する相対速度と方向を算出する。
 立体物計算部45は、移動体、静止物それぞれで切出し画像の送信間隔を定め、移動体の場合は、移動の相対速度と方向から切り出す角度と距離を算出する。
 カメラ時刻座標計算部31は、車両座標系からカメラ座標系に座標変換を行い、カメラ3に出力する。カメラ3には時刻、識別子、角度、距離、幅を指示情報76として送信する。
 カメラ3は、小容量の全体画像と、制御部2からの指示情報76に従って、切り出した高解像度画像とを送信する。第1の実施形態と同じく、単眼カメラでは角度、ステレオカメラでは角度、距離情報を用いて切出画像を生成する。
 図17は、第2の実施形態における相対座標算出と座標変換の例を示す図である。図17を参照して、立体物が移動体か静止物を判定し、自車両に対する相対座標を算出する動作について説明する。図17では、レーダ4の立体物の検知情報を用いて、移動体かどうかを判断し、時刻(T+ΔT)での立体物とカメラ3の相対座標を算出し、カメラ座標系へ変換する例を示している。
 まず、レーダ4のレーダ座標系で、立体物情報をレーダ4のサンプリング周期で複数回取得しておく。例えば、時刻Tの前に、時刻T’、T”で立体物の相対座標を取得しておく。そして、時刻T’、T”、Tの情報を用いて、移動体かどうかを判定し、時刻T+ΔTの相対位置を予測する。
 レーダ座標変換部33にて、レーダ4で検知した時刻T’、T”、Tの立体物の座標をレーダ座標系からグローバル座標系に変換する。制御部2は、各時刻の自車両のグローバル座標を把握しているので、相対座標、例えば、時刻Tの相対座標(x1、y1、z1)を用いて、自車両の座標と立体物の座標をグローバル座標系にプロットできる。同じように、時刻T’、T”の立体物の座標をグローバル座標系にプロットできる。時刻T’、T”または時刻T”、Tからベクトルv、あるいは単位時間当たりのベクトルを算出でき、これにより時刻T+ΔTの立体物のグローバル座標系の座標を求める。
 車両情報(車速V、加速度α)を用いて自車両の時刻T+ΔTのグローバル座標系の座標を算出するので、時刻T+ΔTの立体物と自車両の座標から相対座標(x3、y3、z3)を算出できる。時刻T+ΔTの自車両に対する立体物の相対座標がわかれば、カメラ時刻座標計算部31でカメラ座標系へ座標変換を行うと、角度φ2が得られる。
 図18は、第2の実施形態における座標変換の処理を示すフローチャートである。図17の立体物が移動体か静止物を判定し、自車両に対する相対座標を算出する動作を示す。第1の実施形態で示した図4のフローチャートにおいて、立体物計算部45での処理S4に移動体用の処理が追加されたものである。なお、その他の処理は、図4で示したフローチャートと同様の処理を行う。
 図18の処理S3において、レーダ座標変換部33は、レーダ4で検知した立体物が、移動体か静止物であるかどうかを判定するために、レーダ4が検知した時々刻々の結果をグローバル座標系の座標算出を行なう。このため、繰り返し処理を行っている。例として、時刻T’、T”、Tの情報を使用する。制御部2内のレーダ座標変換部33にて、時刻T’、T”、Tのレーダ座標系の自車両から立体物への相対座標からグローバル座標系の相対座標に座標変換される。
 自車両の位置に関して、各時刻T’、T”、Tのグローバル座標系の座標情報を有している。そこで、次の処理S4-10では、自車両から立体物への相対座標から自車両の座標の差分をとると、立体物のグローバル座標系の座標を算出する。時刻T’の座標(Xa、Ya、Za)、時刻T” の座標(Xb、Yb、Zb)、時刻Tの座標(Xc、Yc、Zc)を算出する。
 次に、処理S4-11で、立体物計算部45にて、例として挙げた時刻3点T’、T”、Tの座標のうち、2点の座標を用いて、座標の差分と時間差分から単位時間当たりの移動ベクトルv→を求める。
 移動ベクトルv→がゼロのときは静止物、ゼロでないときは移動体となる。処理S4-12で、移動体のときは毎フレーム、静止物のときは数フレームに1回のようにカメラ3への指示の送信間隔を長くするよう、送信間隔計算を行なう。
 自車両の車両情報(車速、加速度、操舵角等)と、立体物の単位時間の移動ベクトルから、車両と立体物の座標が予測できる。処理S4-13で、カメラ3の検知距離を例えば、100mとすると、予測した立体物の座標から半径100mの地点に入る車両の予想時刻を算出する。この時刻をT+ΔTとする。時刻をカメラ3のフレーム周期に正規化することもできる。
 次に、処理S4-14で、時刻T+ΔTを定めると、自車両の位置は車両情報から予測でき、自車両の予測座標と、単位時間の移動ベクトルv→から立体物の座標が予測できるので、それらの座標から差分をとり、自車両と立体物の相対座標(x3、y3、z3)を計算する。
 そして、処理S5で、カメラ時刻座標計算部31にて、時刻T+ΔTの相対座標(x3、y3、z3)をカメラ座標系に座標変換し、角度φ2、距離d2を得る。
 図18のフローチャートでは省略しているが、時刻T+ΔTの後、送信間隔に従って、立体物計算部45で自車両と立体物の相対座標を計算し、カメラ時刻座標計算部31にて、カメラ座標系の座標変換を行なう。
 第2の実施形態によれば、走行する車両から撮像された画像データの伝送において、移動体と静止物でカメラ3から切出す画像の大きさや送信間隔を変えるので、制御部2との間の伝送帯域を削減することができ、高価なケーブルや高価な通信部品を必要とせず、システムコストを削減できる。
[第3の実施形態]
 第1の実施形態、第2の実施形態では、カメラ3の切出画像に対し、カメラ3以外のレーダ4などのセンサの情報を用いて必要なデータを特定した。第3の実施形態では、カメラ3以外のセンサの情報を使用せず、カメラ3で切出画像を選択する。
 図19は、カメラ3により認識された例を示す。カメラ3で認識した全ての立体物を制御部2に送信すると数が多いため、選択を行う。例えば、内容が識別できていないが標識らしき立体物81、レーンに進入してくる車両82や、新規に検知した歩行者87をカメラ3側で選別し、識別IDと時刻、極座標の角度φや、ステレオカメラ3では更に立体物の距離の情報を切出し画像に付加して、制御部2に送信する。制御部2から送信するようカメラ3に指示があった立体物に関して、例えば、標識らしき立体物81、レーンに進入してくる車両82は、継続してカメラ3から切出画像を送信する。このように、カメラ3で選択した画像、制御部2から要求のあった画像を切出して、カメラ3から制御部2に切出し画像を送信する。
 図20は、第3の実施形態における車載電子制御装置1を搭載した車両の構成を示すブロック図である。第1の実施形態と同一箇所には同一の符号を付してその説明を省略する。
 第1の実施形態、第2の実施形態と異なる点は、カメラ3自体も認識処理を行うので、カメラ認識部22と認識管理テーブル23を設けていることと、カメラ3と制御部2どちらも、カメラ3から出力する認識IDを基に管理をすることである。制御部2からカメラ3にIDを指定することにより、車両が走行して立体物が移動されていても、カメラ3はカメラ認識部22による立体物の追跡(トラッキング)により、正確な立体物の位置を把握して、指定されたIDに対応する立体物の画像データを送信することができる。
 図21は認識管理テーブル23の例を示す図である。認識管理テーブル23は、フレーム番号231、認識ID232、角度233、距離234、画面座標235、画面サイズ236を保存する。そして、毎フレームで認識管理テーブル23内のデータを更新する。図21では、変化が分かるように、A→Bと記述したが、実際は、フレーム番号100のフレームは“A”のデータのみ、フレーム番号101のフレームは“B”のデータのみ記載される。認識ID=87は、フレーム番号101のフレームで初めて認識管理テーブル23に登録される場合を示す。また、車両が走行している場合は、毎フレームで認識管理テーブル23の情報の内容が変わる。
 図22は、カメラ3による切出し画像生成の処理を示すフローチャートである。
 処理S20では、制御部2から切出画像の要求として、時刻T、認識ID=81、82がカメラ3に通知される。次の処理S21で、カメラ3内の画像取得処理部20で、制御部2から要求があった全体画像と視差画像を毎フレーム生成し、カメラ認識部22へ出力する。そして、処理S22で、カメラ認識部22にて、トラッキングなど立体物の認識処理を行う。処理S23で、認識処理の結果に基づいて、認識管理テーブル23の内容を毎フレーム更新する。カメラ認識部22は立体物を認識処理して認識管理テーブル23を更新しているので、走行している車両から立体物81や車両82の位置を特定できる。
 処理S24で、制御部2から時刻T、認識IDの指定があり、時刻が指定された時刻Tになると、処理S25へ進み、画像変換切出し部で、認識管理テーブル23の情報を元に、画面座標、画面サイズで立体物の切出し画像を生成する。
 処理S26では、小容量の全体画像として、画像をダウンコンバートした全体画像を毎フレーム生成するか、もしくは、一部のフレームのみ使用した間引きフレームでの全体画像を生成する。以下、制御部2から時刻T、認識IDの指定がある毎に、処理S24以下の処理を繰り返す。そして、処理S27において、処理S25で生成された高解像度の切出画像と、処理S26で生成された小容量全体画像を認識IDを付加してカメラ3から出力する。制御部2は、高解像度の部分画像のうち、認識部41の部分認識部43の認識処理のために継続して必要かどうかを判断する。以下、処理S20で述べたように、制御部2は、継続して認識処理が必要と判断した場合に、切出画像の要求として、部分画像データの認識IDをカメラに通知する。
 第3の実施形態によれば、走行する車両から撮像された画像データの伝送において、カメラ3で認識した全ての立体物を制御部2へ逐次送信する必要がなくなるので、制御部2との間の伝送帯域を削減することができ、高価なケーブルや高価な通信部品を必要とせず、システムコストを削減できる。
 以上説明した実施形態によれば、次の作用効果が得られる。
(1)車載電子制御装置1は、立体物を検知するセンサ(レーダ4)と、車両が走行した場合に、センサで立体物が検知された時刻から経過した所定時刻における立体物の位置を求める制御部2と、上記位置における所定時刻に、立体物を撮像した画像データを制御部2へ出力する撮像装置(カメラ3)とを備えた。これにより、走行する車両から撮像された画像データの伝送において、伝送帯域を削減することができ、高価なケーブルや高価な通信部品を必要とせず、システムコストを削減できる。
(2)立体物を撮像する撮像装置(カメラ3)と撮像装置(カメラ3)で撮像された立体物の画像データに基づいて認識処理を行う制御部2とを備えた車載電子制御装置1において、撮像装置(カメラ3)は、車両の走行に伴って立体物を認識し、認識した立体物の画像データを対応する識別番号により管理し、制御部2より識別番号が通知された場合に、識別番号に対応する立体物の高解像度の部分画像を生成し、生成した画像データおよび識別番号を制御部2へ出力し、制御部2は、認識処理に必要な画像データの識別番号を撮像装置(カメラ3)に通知する。これにより、走行する車両から撮像された画像データの伝送において、伝送帯域を削減することができ、高価なケーブルや高価な通信部品を必要とせず、システムコストを削減できる。
 本発明は、上記の実施形態に限定されるものではなく、本発明の特徴を損なわない限り、本発明の技術思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。また、上述の実施形態を組み合わせた構成としてもよい。
1・・・車載電子制御装置
2・・・制御部
3・・・カメラ
4・・・レーダ
10・・・車両
11・・・センサインターフェース部
12・・・統合認識部
13・・・解析部
14・・・経路計画部
20・・・画像取得処理部
21・・・画像変換切出部
23・・・認識管理テーブル
31・・・カメラ時刻座標計算部
32・・・カメラ座標変換部
33・・・レーダ座標変換部
41・・・認識部
42・・・全体認識部
43・・・部分認識部
44・・・ローカルダイナミックマップ(LDM)
45・・・立体物計算部
46・・・経路計算部
71・・・移動体静止物判定部

Claims (10)

  1.  立体物を検知するセンサと、
     車両が走行した場合に、前記センサで立体物が検知された時刻から経過した所定時刻における前記立体物の位置を求める制御部と、
     前記位置における前記所定時刻に、前記立体物を撮像した画像データを前記制御部へ出力する撮像装置と
     を備えた車載電子制御装置。
  2.  請求項1に記載の車載電子制御装置において、
     前記撮像装置が前記制御部へ出力する前記画像データはローデータである車載電子制御装置。
  3.  請求項1または請求項2に記載の車載電子制御装置において、
     前記撮像装置は、前記位置における前記所定時刻に、前記立体物を撮像した部分画像と、前記部分画像よりも広い範囲を撮像した前記部分画像よりも低解像度または低フレームレートの全体画像とを生成し、生成した前記部分画像および前記全体画像にそれぞれ基づく前記画像データを前記制御部へ出力する車載電子制御装置。
  4.  請求項1から請求項3までのいずれか一項に記載の車載電子制御装置において、
     前記制御部は、前記撮像装置より出力された前記画像データに基づいて前記立体物を認識する車載電子制御装置。
  5.  請求項1から請求項3までのいずれか一項に記載の車載電子制御装置において、
     前記センサは、レーダであり、前記立体物を検知した時刻と前記立体物の前記位置を表す座標を前記制御部へ出力し、
     前記制御部は、前記レーダから入力された前記時刻と前記座標に基づいて、前記車両が走行して前記所定時刻経過した後における前記立体物の座標を求め、
     前記撮像装置は、前記所定時刻経過した後における前記立体物の座標を用いて、前記立体物を撮像する車載電子制御装置。
  6.  請求項1から請求項3までのいずれか一項に記載の車載電子制御装置において、
     前記制御部は、前記センサで検知された前記立体物が移動体であるかを前記車両の移動量と比較して判定し、
     前記撮像装置は、前記立体物が移動体であるか否かに応じて、前記立体物を撮像した前記画像データを前記制御部へ出力する送信間隔を設定する車載電子制御装置。
  7.  請求項6に記載の車載電子制御装置において、
     前記制御部は、前記センサで検知された前記立体物が移動体であるか静止物であるかを前記車両の移動量と比較して判定し、
     前記撮像装置は、前記立体物が移動体である場合には、前記立体物を撮像した前記画像データを前記制御部へ出力する送信間隔を短くし、前記立体物が静止物である場合には、前記画像データを前記制御部へ出力する送信間隔を長くする車載電子制御装置。
  8.  立体物を撮像する撮像装置と前記撮像装置で撮像された立体物の画像データに基づいて認識処理を行う制御部とを備えた車載電子制御装置において、
     前記撮像装置は、車両の走行に伴って立体物を認識し、認識した立体物の画像データを対応する識別番号により管理し、前記制御部より前記識別番号が通知された場合に、前記識別番号に対応する前記立体物の高解像度の部分画像を生成し、生成した画像データおよび前記識別番号を前記制御部へ出力し、
     前記制御部は、前記認識処理に必要な前記画像データの前記識別番号を前記撮像装置に通知する車載電子制御装置。
  9.  請求項8に記載の車載電子制御装置において、
     前記撮像装置が前記制御部へ出力する前記画像データはローデータである車載電子制御装置。
  10.  請求項8または請求項9に記載の車載電子制御装置において、
     前記撮像装置は、前記立体物を撮像した部分画像と、前記部分画像よりも広い範囲を撮像した前記部分画像よりも低解像度または低フレームレートの全体画像とを生成し、生成した前記部分画像および前記全体画像にそれぞれ基づく前記画像データを前記制御部へ出力する車載電子制御装置。
PCT/JP2019/021907 2018-06-29 2019-06-03 車載電子制御装置 WO2020003903A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112019002388.8T DE112019002388T5 (de) 2018-06-29 2019-06-03 Fahrzeuginterne elektronische steuervorrichtung
CN201980031706.5A CN112272841B (zh) 2018-06-29 2019-06-03 车载电子控制装置
US17/254,527 US11908199B2 (en) 2018-06-29 2019-06-03 In-vehicle electronic control device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018125507A JP7195787B2 (ja) 2018-06-29 2018-06-29 車載電子制御装置
JP2018-125507 2018-06-29

Publications (1)

Publication Number Publication Date
WO2020003903A1 true WO2020003903A1 (ja) 2020-01-02

Family

ID=68987048

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/021907 WO2020003903A1 (ja) 2018-06-29 2019-06-03 車載電子制御装置

Country Status (5)

Country Link
US (1) US11908199B2 (ja)
JP (1) JP7195787B2 (ja)
CN (1) CN112272841B (ja)
DE (1) DE112019002388T5 (ja)
WO (1) WO2020003903A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7354905B2 (ja) * 2020-04-01 2023-10-03 株式会社デンソー 走行支援要求装置
US20210362749A1 (en) * 2020-05-20 2021-11-25 Gm Cruise Holdings Llc Hardware accelerated network interface for an autonomous vehicle switched-network
WO2023242903A1 (ja) * 2022-06-13 2023-12-21 三菱電機株式会社 物体検出装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850696A (ja) * 1994-08-05 1996-02-20 Nippondenso Co Ltd 走行車両のナンバー認識装置
JP2004122805A (ja) * 2002-09-30 2004-04-22 Sanyo Electric Co Ltd 車両用前方表示装置
JP2006033793A (ja) * 2004-06-14 2006-02-02 Victor Co Of Japan Ltd 追尾映像再生装置
JP2015041820A (ja) * 2013-08-20 2015-03-02 キヤノン株式会社 撮像装置及びその制御方法、撮像システム、プログラム
WO2016038949A1 (ja) * 2014-09-09 2016-03-17 株式会社東海理化電機製作所 情報処理システム、プログラムおよび車載器

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
JP5414714B2 (ja) * 2011-03-04 2014-02-12 日立オートモティブシステムズ株式会社 車戴カメラ及び車載カメラシステム
CN107333097A (zh) * 2016-04-29 2017-11-07 宜昌星鑫电子股份有限公司 一种雷达视频监控装置
CN107680012A (zh) * 2016-08-01 2018-02-09 奥迪股份公司 车辆辅助驾驶系统及方法
US10528055B2 (en) * 2016-11-03 2020-01-07 Ford Global Technologies, Llc Road sign recognition
CN107316488B (zh) * 2017-08-23 2021-01-12 苏州豪米波技术有限公司 信号灯的识别方法、装置和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850696A (ja) * 1994-08-05 1996-02-20 Nippondenso Co Ltd 走行車両のナンバー認識装置
JP2004122805A (ja) * 2002-09-30 2004-04-22 Sanyo Electric Co Ltd 車両用前方表示装置
JP2006033793A (ja) * 2004-06-14 2006-02-02 Victor Co Of Japan Ltd 追尾映像再生装置
JP2015041820A (ja) * 2013-08-20 2015-03-02 キヤノン株式会社 撮像装置及びその制御方法、撮像システム、プログラム
WO2016038949A1 (ja) * 2014-09-09 2016-03-17 株式会社東海理化電機製作所 情報処理システム、プログラムおよび車載器

Also Published As

Publication number Publication date
JP7195787B2 (ja) 2022-12-26
DE112019002388T5 (de) 2021-04-08
CN112272841A (zh) 2021-01-26
CN112272841B (zh) 2023-02-03
US11908199B2 (en) 2024-02-20
JP2020004293A (ja) 2020-01-09
US20210248395A1 (en) 2021-08-12

Similar Documents

Publication Publication Date Title
CN106255899B (zh) 用于将对象用信号通知给配备有此装置的车辆的导航模块的装置
Polychronopoulos et al. Sensor fusion for predicting vehicles' path for collision avoidance systems
US11315420B2 (en) Moving object and driving support system for moving object
WO2020003903A1 (ja) 車載電子制御装置
US11308357B2 (en) Training data generation apparatus
JP2010198552A (ja) 運転状況監視装置
US11587442B2 (en) System, program, and method for detecting information on a person from a video of an on-vehicle camera
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
EP3432265A1 (en) Image processing device, apparatus control system, image pickup device, image processing method, and program
WO2019009110A1 (ja) 車両用外界認識装置
WO2017094300A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2007164671A (ja) 障害物接近判断装置および障害物衝突警告システム
JP2017010560A (ja) 車両の運転支援装置
CN113096151B (zh) 对目标的运动信息进行检测的方法和装置、设备和介质
JP2019016188A (ja) 移動体遠隔操作システムおよび移動体遠隔操作方法
CN111731304B (zh) 车辆控制装置、车辆控制方法及存储介质
KR102587085B1 (ko) 자율주행차량의 호출자 탐색 방법
KR102163774B1 (ko) 영상 인식 장치 및 그 방법
WO2020036043A1 (ja) 情報処理装置と情報処理方法とプログラム
JP2006285694A (ja) 車両間通信システム
JP2006285695A (ja) 車両間通信システム
CN110816524A (zh) 物体识别装置、车辆控制装置、物体识别方法及存储介质
CN111311919B (zh) 服务器、车载装置、非易失性存储介质、信息提供系统、提供信息的方法,以及车辆
Perrollaz et al. Proposition of generic validation criteria using stereo-vision for on-road obstacle detection
WO2010113642A1 (ja) 衝突予測システム、衝突予測装置、衝突検知方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19825765

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19825765

Country of ref document: EP

Kind code of ref document: A1