WO2022270183A1 - 演算装置、速度算出方法 - Google Patents

演算装置、速度算出方法 Download PDF

Info

Publication number
WO2022270183A1
WO2022270183A1 PCT/JP2022/020714 JP2022020714W WO2022270183A1 WO 2022270183 A1 WO2022270183 A1 WO 2022270183A1 JP 2022020714 W JP2022020714 W JP 2022020714W WO 2022270183 A1 WO2022270183 A1 WO 2022270183A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
angle
time
distance
unit
Prior art date
Application number
PCT/JP2022/020714
Other languages
English (en)
French (fr)
Inventor
正幸 小林
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to DE112022001636.1T priority Critical patent/DE112022001636T5/de
Publication of WO2022270183A1 publication Critical patent/WO2022270183A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/64Devices characterised by the determination of the time taken to traverse a fixed distance
    • G01P3/68Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present invention relates to an arithmetic device and a speed calculation method.
  • Japanese Patent Laid-Open No. 2004-100001 discloses an object region extracting means for extracting an object region from an image captured by an image capturing means, and distance information to an object outside the image capturing range from a reflected wave of an electromagnetic wave irradiated outside the image capturing range of the image capturing means.
  • the object area extraction means extracts the object. and information creating means for creating prediction area information for extracting an object area.
  • An arithmetic device is an arithmetic device mounted on a mobile object, and is an intersection angle specifying an intersection angle, which is an angle at which the traveling direction of the mobile object and the traveling direction of a detected object intersect.
  • a specifying unit a sensing information acquisition unit that acquires a sensing result including at least an image captured by a camera, and a distance measurement unit that calculates a distance to the detected object at a first time based on the sensing result; an angle-of-view specifying unit that specifies an angle of view that is an angle with respect to the moving direction of the moving body at a second time based on the captured image; the intersection angle; the distance from the moving body at the first time; a velocity calculation unit configured to calculate the velocity of the detected object based on the angle with the moving body at the time point, the time difference between the first time and the second time, and the velocity of the moving body.
  • a speed calculation method is a speed calculation method executed by an arithmetic device mounted on a moving body, and is an angle at which the moving direction of the moving body and the moving direction of the detected object intersect. identifying the crossing angle; obtaining sensing results including at least an image captured by a camera; calculating a distance to the detected object at a first time based on the sensing results; specifying an angle of view that is an angle with respect to a traveling direction of the moving body at a second time based on the captured image, the intersection angle, a distance from the moving body at the first time, and the moving body at the second time and calculating the speed of the detected object based on the angle between and, the time difference between the first time and the second time, and the speed of the moving body.
  • the speed of the object to be measured can be calculated using the sensing results at times when distance information cannot be directly calculated and the sensing results at times when distance information can be directly calculated.
  • FIG. 2 is a functional block diagram showing functions of the camera system according to the first embodiment;
  • FIG. Conceptual diagram explaining the operation of the monocular detection unit
  • Conceptual diagram explaining how the stereo detector detects three-dimensional objects Flowchart showing speed calculation processing Flowchart showing details of steps S705 and S706 in FIG. Flowchart showing details of speed calculation processing shown in step S708 of FIG.
  • a diagram showing a first specific example The figure which replaced the example of FIG. 10 with the relative position centering on the own vehicle.
  • a diagram explaining the distance in FIG. 11 A diagram showing a second specific example The figure which replaced the example of FIG.
  • FIG. 3 is a functional block diagram showing functions of a camera system according to a second embodiment; FIG. The figure which shows the calculation method of the speed by a speed calculation part.
  • the processing performed by executing the program may be explained.
  • the computer executes a program by means of a processor (eg, CPU, GPU) and performs processing determined by the program while using storage resources (eg, memory) and interface devices (eg, communication port). Therefore, the main body of the processing performed by executing the program may be the processor.
  • a main body of processing executed by executing a program may be a controller having a processor, a device, a system, a computer, or a node.
  • the subject of the processing performed by executing the program may be an arithmetic unit, and may include a dedicated circuit for performing specific processing.
  • the dedicated circuit is, for example, FPGA (Field Programmable Gate Array), ASIC (Application Specific Integrated Circuit), CPLD (Complex Programmable Logic Device), or the like.
  • the program may be installed on the computer from the program source.
  • the program source may be, for example, a program distribution server or a computer-readable storage medium.
  • the program distribution server may include a processor and storage resources for storing the distribution target program, and the processor of the program distribution server may distribute the distribution target program to other computers.
  • two or more programs may be implemented as one program, and one program may be implemented as two or more programs.
  • FIG. 1 A first embodiment of an arithmetic device will be described with reference to FIGS. 1 to 18.
  • FIG. The arithmetic device detects a detected object (hereinafter also referred to as a “measurement target”) from the detection and distance measurement results at the time when it exists at an identifiable distance, and from the sensing results other than that time.
  • the speed of the detected object is specified by using the angle of view of the detected object and the speed of the own vehicle. In this embodiment, it is assumed that the course of the own vehicle and the course of the detected object intersect substantially at right angles.
  • the velocity of the detected object is obtained by dividing the time difference from the amount of movement of the detected object between two times.
  • the amount of movement in the depth direction as seen from the computing device is determined to be the amount of movement of the vehicle.
  • the amount of movement in the horizontal direction can also be determined. Identify.
  • the above-mentioned identification of the near-orthogonal movement direction is performed in object type identification.
  • the image processing system detects a target object from an image (hereinafter referred to as a "captured image") captured by a camera.
  • the target object is, for example, a moving object, a three-dimensional object, or a specific object.
  • This "moving object” refers to an object that is moving relative to the background.
  • the “background” is not limited to an area composed of pixels that do not change in the captured image.
  • the background is the road surface whose imaging position changes as the vehicle runs, and pedestrians and vehicles moving on the road surface are moving objects.
  • moving objects include people, animals, and objects that move within the camera image.
  • Three-dimensional objects are, for example, objects that are taller than the road surface, such as vehicles, pedestrians, motorcycles, and utility poles.
  • a “specific object” refers to a specific object such as a vehicle, a pedestrian, a motorcycle, etc., which a designer intentionally determines to detect.
  • Templates, patterns, machine learning dictionaries, and the like are prepared in advance for specific objects, and objects that have a high degree of similarity with the templates, patterns, and machine learning dictionaries are detected. The image processing system performs this detection as well as detects an object within a certain range from the camera and calculates the distance and velocity of the object.
  • Fig. 1 is a diagram explaining the positional relationship between the viewing angle and the vehicle.
  • Vehicle 100 includes camera system 101 , left imaging section 102 , and right imaging section 103 .
  • the left imaging unit 102 is an imaging unit arranged on the left side of the vehicle 100.
  • the optical axis 102Ax faces the front of the vehicle 100 and has a wide right field of view 1021 on the right side of the central axis of the vehicle 100 in the figure.
  • the right imaging unit 103 is arranged on the right side of the vehicle 100.
  • the optical axis 103Ax faces the front of the vehicle 100 and has a wide left field of view 1031 on the left side of the central axis of the vehicle 100 in the figure.
  • Vehicle 100 includes a vehicle speed sensor and at least one of a steering angle sensor and a yaw rate sensor.
  • the image captured by the right imaging unit 103 is hereinafter referred to as a right image 203
  • the image captured by the left imaging unit 102 is hereinafter referred to as a left image 202 .
  • the right field of view 1021 and the left field of view 1031 overlap in front of the vehicle 100 .
  • This overlapping visual field is hereinafter referred to as "stereo visual field”
  • the visual field obtained by removing the stereo visual field from the right visual field 1021 is referred to as the "right monocular visual field”
  • the visual field obtained by removing the stereo visual field from the left visual field 1031 is referred to as the "left monocular visual field”. call.
  • FIG. 2 is a diagram showing the correlation of fields of view.
  • the upper part of the figure shows a left image 202 captured by the left imaging unit 102
  • the middle part of the figure shows a right image 203 that is an image captured by the right imaging unit 103
  • the lower part of the figure shows a composition created using the left image 202 and the right image 203.
  • An image 204 is shown.
  • the composite image 204 is divided into a right monocular region 204R, a stereo region 204S, and a left monocular region 204L.
  • the right monocular region 204R corresponds to the region of the right monocular visual field described with reference to FIG.
  • the stereo region 204S corresponds to the stereo field of view region described with reference to FIG.
  • the left monocular region 204L corresponds to the left monocular visual field region described with reference to FIG.
  • FIG. 3 is a functional block diagram showing functions of the camera system 101 according to the first embodiment.
  • the camera system 101 may be realized as a single piece of hardware, an arithmetic device, or may be realized by a plurality of hardware devices.
  • the camera system 101 includes a left imaging unit 102, a right imaging unit 103, a stereo matching unit 301, a monocular detection unit 302, a monocular distance measurement unit 303, a template generation unit 304, an image storage unit 305, a similar part
  • Camera system 101 is connected to vehicle speed sensor 313 , vehicle steering angle sensor 314 , and yaw rate sensor 315 mounted on vehicle 100 .
  • the crossing angle specifying unit 1901Z specifies the crossing angle, which is the angle at which the traveling direction of the vehicle 100 intersects with the traveling direction of another vehicle.
  • the crossing angle is always assumed to be 90 degrees. Therefore, the crossing angle specifying unit 1901Z in the present embodiment does not perform any particular calculation, and may be configured to hold that the value of the crossing angle is "90" degrees.
  • the crossing angle specifying unit 1901Z can be realized by a nonvolatile storage device.
  • the left imaging unit 102 and the right imaging unit 103 include imaging sensors, and are configured as known cameras, for example.
  • a lens is attached to the imaging sensor and images the outside world of the device.
  • the imaging sensor includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) and converts light into electrical signals.
  • CMOS Complementary Metal Oxide Semiconductor
  • the information converted into electrical signals by the imaging sensors of the left imaging unit 102 and the right imaging unit 103 is further converted into image data representing captured images in the left imaging unit 102 and the right imaging unit 103 .
  • the image data includes luminance values of pixels.
  • a luminance value can be expressed as a digital value, for example, and is expressed as a luminance value for each color such as RGB (Red Green Blue) or RC (Red Clear), or as a monochrome luminance value.
  • the left imaging unit 102 and the right imaging unit 103 convert image data into a stereo matching unit 301, a monocular detection unit 302, a monocular distance measurement unit 303, a template creation unit 304, an image storage unit 305, a similar part search unit 306, and an angle of view specification. 307.
  • Left imaging unit 102 and right imaging unit 103 transmit image data at predetermined intervals, for example, every 17 milliseconds.
  • the left imaging unit 102 and the right imaging unit 103 have the function of changing the exposure conditions of the imaging sensor.
  • an image sensor has an electronic shutter such as a global shutter or a rolling shutter, and can shoot with an arbitrary exposure time.
  • the exposure time is the time from resetting the accumulated charge of the photodiode to extracting the charge to read out information related to the luminance value. Point.
  • the exposure time When the exposure time is lengthened, a large amount of charge is accumulated, so the read luminance value increases. On the other hand, if the exposure time is shortened, less charge is stored, so the readout brightness is lower. Therefore, the brightness of the image obtained from the imaging sensor changes in correlation with the exposure time.
  • the left imaging unit 102 and the right imaging unit 103 convert the amount of charge taken out from the photodiode into a voltage and perform A/D (Analog Digital) conversion to obtain a digital value.
  • the left imaging unit 102 and the right imaging unit 103 have amplifiers used for A/D conversion, and may be configured so that the gain of the amplifiers can be changed as part of the exposure conditions. In that case, the read luminance value changes according to the gain setting of the amplifier. A higher gain results in a higher luminance value, and a lower gain results in a lower luminance value.
  • the luminance value of a dark object becomes 0, or the luminance value of an object with a low contrast ratio becomes 0. It may become uniform, and it may not be possible to distinguish outlines, shading, etc. This problem is conspicuous when the luminance value is expressed as a digital value, but the same problem can occur when it is expressed as an analog value.
  • the luminance value increases due to a change in exposure conditions, the luminance value of a bright object becomes the maximum value, and the outline of the object and the shading of the object cannot be determined in some cases. Therefore, it is necessary to set the exposure conditions according to the brightness of the object to be photographed.
  • the left imaging unit 102 and the right imaging unit 103 can shoot a moving image by repeatedly releasing the electronic shutter in time series and acquiring image data for each shutter.
  • the number of times the electronic shutter is released and image data is output per unit time is called a frame rate, and the frame rate per second is expressed in units of FPS (Frame Per Second).
  • the captured images acquired by the left imaging unit 102 and the right imaging unit 103 are the results obtained by sensing by the imaging device, so the captured images are also referred to as “sensing results" below. Also, since the left imaging unit 102 and the right imaging unit 103 acquire sensing information, they can be called “sensing information acquisition units”. Also, hereinafter, in order to distinguish between the left imaging unit 102 and the right imaging unit 103, the former may be referred to as a "first imaging unit” and the latter may be referred to as a "second imaging unit”. However, this classification is for convenience, and the names are interchangeable.
  • the stereo matching unit 301 receives data including image data from the left imaging unit 102 and the right imaging unit 103 and processes the data to calculate parallax.
  • Parallax is a difference in image coordinates in which the same object is captured, which is caused by differences in the positions of a plurality of imaging units.
  • the parallax is large at short distances and small at long distances, and the distance can be calculated from the parallax.
  • the stereo matching unit 301 corrects the distortion of the image data of the left image 202 and the right image 203 .
  • distortion of image data is corrected so that objects having the same height and the same depth distance, which are called a central projection model or a perspective projection model, are arranged horizontally in the image coordinates.
  • the reason why the left imaging unit 102 and the right imaging unit 103 are arranged side by side in the left-right direction is corrected so that they are aligned in the horizontal direction.
  • the corrected left image 202 and right image 203 one of them is used as reference image data as a reference, and the other is used as comparison image data to be compared, and a parallax is obtained.
  • projection may be performed on a cylindrical or spherical surface in order to reduce the size of the image data.
  • the monocular detection unit 302 detects a specific object appearing in the left image 202 or the right image 203.
  • a specific object is a three-dimensional object or a moving object, specifically a pedestrian, a vehicle, a bicycle, or the like. Detection detects a specific object within a certain range from the camera.
  • the detected result holds image coordinate information of the left image 202 or the right image 203 in which the detected object is captured. For example, they are held as vertical and horizontal image coordinates of the upper left and lower left of a rectangular frame surrounding the object to be detected (hereinafter referred to as "monocular detection frame").
  • a type identification unit 317 identifies the type of an object detected by the monocular detection unit 302 or the stereo detection unit 308 .
  • the orientation of the front surface of the object which is the direction of movement, is also specified.
  • the front orientations of these moving bodies are the front orientations of the objects with respect to the camera system 101 .
  • the operation is limited to the directions of movement that are nearly orthogonal. Whether the direction of movement is nearly orthogonal or not is determined by the angle of view and the orientation of the front surface of the object with respect to the camera system 101 .
  • the type identification unit 317 transmits the determination result as to whether or not the moving direction of the object is nearly orthogonal to the speed calculation unit 309 .
  • the monocular ranging unit 303 identifies the position of a specific object detected by the monocular detection unit 302 and obtains the distance and direction from the left imaging unit 102 or the right imaging unit 103 .
  • the specified distance and direction are represented by a coordinate system that can specify the position on the plane of the depth distance in front of the vehicle 100 and the lateral distance in the lateral direction.
  • information expressed in a polar coordinate system expressed by a Eugrid distance, which is a distance from the camera, and a direction may be held, and a trigonometric function may be used for interconversion between the depth and two horizontal axes.
  • a monocular distance measurement unit 303 uses an overhead image obtained by projecting the left image 202, the right image 203, and the combined image 204 onto the road surface, and calculates the vertical and horizontal coordinates of the overhead image and the vertical and horizontal coordinates of the overhead image with respect to the actual road surface. Locating a location from a directional scale.
  • a bird's-eye view image to identify the position is not an essential configuration. It may be specified by performing geometric calculations using extrinsic parameters of the position and orientation of the camera, and information on the focal length, the pixel pitch of the imaging device, and the distortion of the optical system.
  • the template creation unit 304 selects one of the captured images, cuts out a specific area from this captured image (hereinafter referred to as "detected image”), and uses it as a template. Specifically, the template creation unit 304 creates a template for searching for similar portions from pixel information inside and around the monocular detection frame of the object detected by the monocular detection unit 302 . This template is scaled to a predetermined image size. When scaling a template, maintain the aspect ratio or do not change it significantly. After the enlargement/reduction process, either the brightness value of the pixel itself or the reduced image is divided into a plurality of small regions (hereinafter also referred to as "kernels"), and the relationship between the brightness values in the kernel is stored as a feature of the image. . Image features are extracted in various forms, and there are various feature amounts such as left-right and top-bottom average brightness differences in the kernel, average brightness differences between the periphery and the center, and brightness averages and variances. Any form may be used.
  • the image holding unit 305 holds the left image 202 and the right image 203 for a certain period of time, or until a certain number of left images 202 and right images 203 at different times are accumulated.
  • a storage device such as a DRAM (Dynamic Random Access Memory) is used for this holding.
  • a plurality of addresses and ranges in the storage device to be held may be determined in advance, and the transfer destination address may be changed for each captured image, and after one cycle, the area where the old image is stored may be overwritten. Since the address is determined in advance, there is no need to notify the address when reading out the held image.
  • the similar part searching unit 306 searches for parts similar to the template created by the template creating unit 304 from the image stored in the image holding unit 305 .
  • an image in which the similar portion search unit 306 searches for a similar portion to the template will be referred to as a “search target image”.
  • the search target image is an image different from the image at the time detected by the monocular detection unit 302 .
  • the selection of the image at which time is based on the selection of the image captured at the time immediately preceding the image at the detected time. It is highly probable that the similar part exists near the coordinates of the monocular detection frame at the time of detection, and it is expected that there will be little change in brightness due to changes in the orientation of the detection object and changes in exposure with respect to the template. , a highly accurate search is possible.
  • the imaging interval is short, an image from two or more previous times may be selected as the search target image.
  • the image to be selected may be changed according to the vehicle speed. For example, if the vehicle speed is greater than or equal to the threshold, an older image that is closer to the captured time of the detected image is selected. You can choose an old image.
  • the vehicle speed is high, if the image is taken at a time close to the detected time, the appearance does not change significantly with respect to the template, and it is easy to ensure search accuracy.
  • the vehicle speed is slow, the positional change of the detected object in the image for searching for a similar part increases with respect to the detected time, and the accuracy of the calculated speed can be improved.
  • the angle-of-view specifying unit 307 specifies the horizontal angle of view of the camera for a specific object appearing in the similar location specified by the similar location searching unit 306 . However, if the height is specified along with the position, then the vertical image is also specified. Also, even if there is a possibility that the camera rolls, the speed can be calculated with high accuracy by specifying both the horizontal and vertical angles of view.
  • the horizontal angle of view can be obtained by a trigonometric function from the ratio of the depth distance and the horizontal distance.
  • the stereo detection unit 308 detects, from the parallax image created by the stereo matching unit 301, areas within a certain size range at the same distance as three-dimensional objects.
  • Detected objects carry parallax image coordinate information. For example, they are held as vertical and horizontal image coordinates of the upper left and lower left of a rectangular frame (hereinafter referred to as "stereo detection frame") surrounding the object to be detected.
  • the stereo ranging unit 316 identifies the position of the object detected by the stereo detection unit 308 and identifies the distance and direction.
  • the specified distance and direction are represented by a coordinate system that can specify the position on the plane of the depth distance in front of the vehicle 100 and the lateral distance in the lateral direction.
  • information expressed in a polar coordinate system expressed by a Eugrid distance, which is a distance from the camera, and a direction may be held, and a trigonometric function may be used for interconversion between the depth and two horizontal axes.
  • the stereo ranging unit 316 calculates the distance in the depth direction from the parallax of the object.
  • the stereo ranging unit 316 uses an average or mode when there is variation in the calculated parallax of the object. When the disparity of parallax is large, a method of taking a specific outlier may be used.
  • the horizontal distance is obtained from the horizontal angle of view and the depth distance of the detection frame of the stereo detection unit 308 using a trigonometric function.
  • the speed calculation unit 309 receives the distance measurement result from the monocular distance measurement unit 303 or the stereo distance measurement unit 316, receives the angle of view of the similar part from the angle of view identification unit 307, and inputs the vehicle speed input unit 310 and the vehicle steering angle input unit 311. and the vehicle behavior information from the yaw rate input unit 312, and calculates the speed of the detected specific object.
  • the speed calculation unit 309 may use the calculated differential value of the relative depth distance as the vehicle speed. This is useful when the depth distance can be measured with high accuracy and the horizontal distance is measured with low accuracy. Also, if the depth velocity is used instead of the vehicle velocity, it is possible to accurately predict a collision with a crossing vehicle that is not orthogonal.
  • the vehicle speed input unit 310 receives vehicle speed information from the vehicle speed sensor 313 .
  • Vehicle steering angle input unit 311 receives vehicle steering angle information from vehicle steering angle sensor 314 .
  • Yaw rate input unit 312 receives the turning speed of the vehicle from yaw rate sensor 315 .
  • the vehicle speed sensor 313 is a device mounted on the vehicle 100 that measures the speed of the vehicle. Vehicle speed sensor 313 measures the speed of the vehicle from, for example, the rotational speed of the wheels and the outer circumference of the wheels.
  • the vehicle steering angle sensor 314 is a device mounted on the vehicle 100 that measures the steering angle of the steered wheels. Vehicle steering angle sensor 314 is, for example, a steering rotation angle sensor mounted on vehicle 100 .
  • Yaw rate sensor 315 is a device that measures the turning speed of vehicle 100 . Yaw rate sensor 315 is, for example, an inertial sensor mounted near the center of gravity of vehicle 100 or at a plurality of locations.
  • Stereo matching unit 301, monocular detection unit 302, monocular distance measurement unit 303, template creation unit 304, similar part search unit 306, angle of view identification unit 307, stereo detection unit 308, and speed calculation unit 309 are realized as follows. may be That is, these functional blocks are stored in the ROM by the CPU using a CPU as a central processing unit (not shown), a ROM as a read-only storage device (not shown), and a RAM as a readable/writable storage device (not shown). It may be realized by deploying the program to be executed in RAM and executing it.
  • these functional blocks may be realized by FPGA, which is a rewritable logic circuit, or ASIC, which is an application-specific integrated circuit, instead of the combination of CPU, ROM, and RAM.
  • FPGA a rewritable logic circuit
  • ASIC an application-specific integrated circuit
  • these functional blocks may be realized by a combination of different configurations, for example, a combination of CPU, ROM, RAM and FPGA, instead of the combination of CPU, ROM, and RAM.
  • Vehicle speed input unit 310, vehicle steering angle input unit 311, and yaw rate input unit 312 may be realized by a communication port, for example, a communication module compatible with IEEE 802.3, or by an AD converter capable of reading voltage and current. may be implemented.
  • FIG. 4 is a conceptual diagram explaining the operation of the monocular detection unit 302.
  • FIG. A first right image 203-1 shown in the upper left of FIG. 4 is the right image 203 captured at time t1.
  • the first projected image 401 shown in the upper right of FIG. 4 is obtained by projectively transforming the first right image 203-1 onto the road surface. In this projective transformation, one pixel is transformed so as to correspond to a constant distance in the depth and width of the road surface.
  • the camera's height from the road surface which is the camera's posture, and the orientation of the camera's optical axis with respect to the road surface are calculated using tilt rotation, pan rotation, and roll rotation information.
  • an affine table for conversion is created. Affine transformation is performed using this affine table to obtain a first projected image 401 in which the first right image 203-1 is projected onto the road surface.
  • a second right image 203-2 shown in the middle left of FIG. 4 is the right image 203 captured at time t2.
  • Time t2 is a time later than time t1 described above.
  • a second projected image 402 shown in the middle right of FIG. 4 is obtained by projectively transforming the second right image 203-2 onto the road surface.
  • a differential image 404 shown in the lower part of FIG. 4 is created using the first projected image 401 and the second projected image 402 as follows.
  • the difference image 404 is obtained by translating the second projection image 402 in a direction that cancels out the movement of the vehicle 100 between time t1 and time t2, and superimposing it on the first projection image 401 to extract the difference.
  • This difference can be obtained not only by comparing the brightness of the first projected image 401 and the second projected image 402, but also by comparing the intensity and direction of the edge of each image and extracting the difference.
  • the change in the angle at which an object is reflected can be obtained as a difference.
  • a three-dimensional object can be detected by using the difference image 404 generated in this way.
  • FIG. 5 is a conceptual diagram explaining parallax image generation by the stereo matching unit 301.
  • FIG. A parallax image 500 shown in the lower part of FIG. 5 is an image obtained by using the right image 203 as a reference image and calculating the parallax with the left image 202 .
  • Parallax is a difference in image coordinates in which the same object is captured, which is caused by differences in the positions of a plurality of imaging units.
  • the parallax is large at short distances and small at long distances, and the distance can be calculated from the parallax.
  • FIG. 6 is a conceptual diagram explaining how the stereo detection unit 308 detects a three-dimensional object.
  • a strip parallax image 600 is obtained by dividing the parallax image 500 into vertically long strips, in other words, into a plurality of vertically long regions 601 aligned in the horizontal direction of the figure.
  • the stereo detection unit 308 creates a histogram that indicates the frequency of presence of the same distance or parallax for each divided area and evaluates it.
  • the horizontal axis such as the reciprocal of the distance, is set such that the frequency is constant in the area where only the road surface is shown. Since only the road surface is shown in the strip area indicated by reference numeral 603, the frequency is constant as indicated by the histogram indicated by reference numeral 6031.
  • the parallax of the road surface up to the distance where the three-dimensional object exists has a constant frequency, and the frequency of the distance Z0 where the three-dimensional object exists has a peak.
  • the distance of the three-dimensional object can be specified from the mode value.
  • the stereo detection unit 308 identifies the position of the three-dimensional object in the parallax image after identifying the distance of the three-dimensional object.
  • Reference numeral 604 is an example of displaying the detection result of a three-dimensional object on the parallax image 500 .
  • a rectangle 6022 indicates the range in which the three-dimensional object is detected.
  • the stereo detection unit 308 performs labeling processing and clustering processing for identifying a set of parallax coordinates at the identified distance within the horizontal coordinate range of the three-dimensional object identified by the histogram.
  • parallax of a three-dimensional object contains invalid values of parallax due to invalid parallax or parallax error, or if there are many parallax errors, for example, clustering processing using Mean-Shift may be used to It is preferable to use a method that can extract a set of parallaxes at a constant distance from the parallaxes.
  • FIG. 7 is a flowchart showing speed calculation processing.
  • the stereo matching unit 301 performs stereo matching.
  • stereo matching a parallax image 500 is generated.
  • the monocular detection unit 302 or the stereo detection unit 308 extracts a specific object, three-dimensional object, or moving object, and performs object detection processing for outputting the coordinates of any object on the image coordinates.
  • the velocity calculation unit 309 calculates the distance of the object detected in the immediately previous step S702.
  • the velocity calculation unit 309 extracts the features of the object detected by the template creation unit 304 as a template.
  • the results obtained by the monocular detection unit 302 or the stereo detection unit 308 are used.
  • the similar part searching unit 306 executes both the subsequent search range setting processing in step S705 and the similar part identifying process in step S706.
  • step S705 the range of coordinates on the image for searching for similar locations is set.
  • This setting also sets the interval between points in the search range for query processing, depending on the query method for similar locations.
  • the representative point is the time at which an image for searching for a similar location and an image for which object detection S702 and object ranging S703 are performed are captured based on the behavior information of the vehicle with respect to the distance measured in step S703. Set the position as the center based on the assumption of how close or far it would have been if it had been stationary.
  • step S706 the search range set in S705 is searched for locations similar to the template created in S704.
  • the image to be searched is an image captured at a time different from that of the images detected and distance-measured in S702 and S703.
  • a speed calculation unit 309 searches and outputs the image coordinates of the most similar part.
  • the classifier is used to identify the type of the object to determine whether it matches the type of the detected object, or regression estimation is performed to estimate the coordinates of the detected object type to determine whether the coordinates match.
  • regression estimation is performed to estimate the coordinates of the detected object type to determine whether the coordinates match.
  • We also do a recalculation of what we are doing By performing this recalculation, it is possible to improve the accuracy of identifying similar portions.
  • this verification in the image to search for similar locations, when the detected object cannot be seen in the camera image due to obstructions, light adjustment, and exposure problems, the speed of the object is calculated differently from the actual speed. prevent
  • step S707 the angle-of-view identifying unit 307 identifies the angle of view of the similar portion identified in step S706.
  • the camera position of the object is specified using camera geometry, etc., and the angle of view is specified by a trigonometric function from the ratio of the depth distance and the horizontal distance. If it is difficult to identify changes in camera posture or height, and camera geometry errors are a concern, the angle of view can be calculated from the distance of the coordinates of similar points from the optical axis. The angle of view may be specified without specifying the posture change or height change.
  • the angle of view is calculated from the distance of the coordinates of the similar point from the optical axis, and in this case, the fact that the reliability of the speed is lowered is also output.
  • the speed calculation unit 309 performs speed calculation processing.
  • the speed calculation unit 309 calculates the speed from the angle of view specified in step S707 and the information on the object ranging and vehicle behavior in step S703.
  • information on vehicle speed, vehicle steering angle, and yaw rate obtained by vehicle speed input section 310, vehicle steering angle input section 311, and yaw rate input section 312 is used.
  • FIG. 8 is a flowchart showing details of steps S705 and S706 in FIG.
  • the speed calculation unit 309 identifies the amount of movement between frames using vehicle behavior information. Specifically, the speed calculation unit 309 calculates the difference between the photographing time of the detection image for which the template is created and the photographing time of the image for searching for similar locations, and multiplies the difference by the speed of the vehicle included in the vehicle behavior information. Calculate the amount of movement.
  • the velocity calculation unit 309 identifies the number of pixels in the height and width of the detected object on the detected image.
  • the velocity calculation unit 309 estimates the size of the object on the detection image in the search target image, that is, the number of pixels.
  • the details of the processing in step S803 are as follows. First, in step S803, the camera geometry is used to identify the actual size of the object on the detected image. Next, with respect to the distance of the detected object on the detected image, the position of the object moved by the amount of movement between frames identified in step S801 is specified, and the position of the object on the search target image when this object is stationary is determined. Locate. A case where the object is moving will be described later. Next, the number of pixels in height and width on the image when the object having the specified actual size exists at the specified object position on the search image is specified using camera geometry or the like. As described above, in step S803, the number of pixels in the height and width of the object on the search image is estimated.
  • the moving speed may be assumed based on information about the type and direction of the object known at the time of detection, and the object may be in uniform linear motion.
  • the assumed moving speed is about 30 to 80 km/h for a four-wheeled vehicle, about 10 to 20 km/h for a bicycle, and about 5 to 8 km/h for a pedestrian.
  • Velocity may be assumed. By assuming the speed, it is possible to improve the possibility of searching for similar locations of objects with a high collision probability in a short time, and to increase the success rate of accident avoidance.
  • the moving speed of the object may be assumed, and the object in uniform linear motion may be assumed.
  • eight directions are specified, and the depth or lateral velocity of the object is assumed for the process of specifying the depth and lateral distance according to the left-right direction, the front-back direction, and the oblique direction therebetween.
  • the front-rear direction all velocities assumed for the object are assumed to be in the depth direction, and the sign of the velocity value is determined according to the orientation.
  • step S803 In the left-right direction, all the velocities of the object are assumed to be in the left-right direction, and the sign of the velocity value is determined according to the direction. In the oblique direction, the sign of the velocity value is determined according to the direction, with the velocity 1/ ⁇ 2 times the velocity being the magnitude of the depth and lateral velocity. Search time can be shortened by assuming the speed of an object based on its type and direction. In addition, the accuracy of the calculated speed can be improved by taking the assumption of the speed of the object into consideration when calculating the speed. The above is the description of step S803.
  • the template creation unit 304 determines the template size.
  • the template size is the size to which the image is scaled when extracting features as a template. Excessive enlargement during template creation and search may reduce search accuracy. It is determined from variations of the template size designed in the process.
  • the template creation unit 304 selects a template size variation prepared in advance for a smaller number of pixels from among the number of pixels specified in step S802 and the number of pixels estimated in step S803.
  • a camera system installed facing the front of the vehicle 100 is installed for the purpose of avoiding a collision accident while moving forward.
  • the search target image used in step S803 is an image earlier than the detected image used in step S802. Therefore, since the search target image is farther and has fewer pixels, the template size is determined using the number of pixels estimated in step S803.
  • step S805 the template creation unit cuts out the periphery of the detection frame in the detection image. Specifically, the template creation unit widens the height or width according to the aspect ratio of the template size determined in step S804, and also increases the size of the margin around the object, which is assumed in the processing used in the search processing in advance. to cut out the expanded area.
  • the template creation unit enlarges or reduces the image cut out in step S805 to the template size determined in step S804. When scaling, maintain the aspect ratio or do not change it significantly.
  • the template creation unit performs preprocessing such as brightness adjustment and noise removal processing for the image that has been enlarged or reduced in step S804.
  • the template creation unit extracts feature amounts to be used as a template from the image preprocessed in step S807, and the processing shown in FIG. 8 ends.
  • FIG. 9 is a flowchart showing the details of the speed calculation process shown in step S708 of FIG.
  • the velocity calculation unit 309 uses the movement amount specified in step S801 to specify the depth distance of the detected object in the search target image, as in step S803. Specifically, using the amount of movement in the depth direction between frames identified in step S801, the position of the object moved by the amount of movement in step S801 with respect to the depth distance of the detection object on the detection image is identified. The object depth distance at the time when the search target image is captured when the object is stationary is specified.
  • step S902 the velocity calculation unit 309 uses the depth distance specified in step S901 and the angle of view specified in step S707 to specify the horizontal distance of the similar portion of the search target image. Specifically, when Z is the depth distance and ⁇ is the angle of view, the horizontal distance X is calculated by the following equation (1).
  • the velocity calculation unit 309 subtracts the depth distance and the lateral distance specified in steps S901 and S902 from the depth distance and lateral distance measured in step S703. By this calculation, the amount of movement between the photographing time of the detection image and the photographing time of the search target image is calculated.
  • step S904 the speed calculation unit 309 differentiates the movement amount calculated in step S903 by the time difference between the detected image and the search target image to calculate the speed, and ends the processing shown in FIG. .
  • the calculated speed is checked to see if it is within the expected speed range for the type, and if there is a large discrepancy may output that the velocity is unreliable. If the reliability is low, it is possible to suppress adverse effects due to erroneous control by suspending vehicle control or limiting the amount of control and the type of control.
  • FIG. 10 is a diagram showing a state of collision between the vehicle 100 (hereinafter also referred to as "self-vehicle") and the colliding vehicle.
  • the vehicle 100 runs from the bottom to the top, and the collided vehicle runs from the right to the left.
  • Reference numeral 1000 is the own vehicle at time T0
  • reference numeral 1001 is the own vehicle at time T1
  • reference numeral 1002 is the own vehicle at T2
  • reference numeral 1010 is the colliding vehicle at time T0
  • reference numeral 1011 is the colliding vehicle at time T1
  • reference numeral 1012 is T2. is the colliding vehicle.
  • both vehicles collide at time T2.
  • the own vehicle and the colliding vehicle are in approximately uniform straight-ahead motion, and are not accelerating, decelerating, or turning.
  • FIG. 11 is a diagram of the relative position of the vehicle center, in which the example of FIG. 10 is replaced with the position seen by the colliding vehicle in the relative position with the position of the vehicle as the center.
  • the position of the colliding vehicle with respect to the traveling direction of the own vehicle is called the "angle of view", like the angle of view of the camera.
  • the angle of view 1120 is the angle formed by the straight line connecting the own vehicle and the collided vehicle 1010 at time T0 with the traveling direction of the own vehicle.
  • the angle of view 1121 is the angle formed by the straight line connecting the own vehicle and the collided vehicle 1011 at time T1 with the traveling direction of the own vehicle.
  • the angle of view 1122 is the angle formed by the straight line connecting the own vehicle and the collided vehicle 1012 at time T2 with the traveling direction of the own vehicle.
  • the lateral position of the colliding vehicle can be estimated using the angle of view and the depth distance.
  • FIG. 12 is a diagram explaining the distances in FIG. The position of each vehicle in FIG. 12 is the same as in FIG. However, the colliding vehicle at time T2 is omitted for convenience of drawing.
  • the depth distance Z1 is the distance in the depth direction of the colliding vehicle 1011 from the own vehicle at time T1.
  • the lateral distance X1 is the lateral distance of the colliding vehicle 1011 from the host vehicle at time T1.
  • the depth distance Z0 is the distance in the depth direction from the own vehicle of the colliding vehicle 1010 at the time T0.
  • the lateral distance X0 is the lateral distance of the collided vehicle 1010 from the host vehicle at time T0.
  • the depth difference distance Z10 is the difference between the depth distance Z0 and the depth distance Z1.
  • the lateral distance X1 and the depth distance Z0 are calculated in the process of step S703.
  • the depth difference distance Z10 is calculated from the vehicle behavior, and is calculated by the following equation 2 when the time between times T1 and T0 is T10 and the vehicle speed is V0.
  • the lateral distance X0 is calculated by the following formula 3, where the angle 1220 of the colliding vehicle at time T0 is " ⁇ 0".
  • FIG. 13 is a diagram showing the travel trajectories of the own vehicle traveling straight ahead and the crossing vehicle crossing in front of the own vehicle.
  • Reference numeral 1300 denotes the own vehicle at time T0, 1301 the own vehicle at time T1, 1302 the own vehicle at T2, 1310 the crossing vehicle at time T0, 1311 the crossing vehicle at time T1, and 1312 the crossing vehicle at T2. Since the crossing vehicle crosses the intersection before the own vehicle reaches the intersection, the crossing vehicle does not collide with the own vehicle.
  • Fig. 14 is a diagram of the relative position of the vehicle center, in which the example shown in Fig. 13 is replaced with the position seen by the crossing vehicle in the relative position with the position of the vehicle as the center.
  • the angle of view 1420 is the angle formed by the traveling direction of the vehicle and the straight line connecting the vehicle and the crossing vehicle 1310 at time T0.
  • the angle of view 1421 is the angle formed by the straight line connecting the own vehicle and the crossing vehicle 1311 at time T1 and the traveling direction of the own vehicle.
  • the depth distance Z41 is the distance in the depth direction from the own vehicle of the crossing vehicle 1311 at time T1.
  • the lateral distance X41 is the lateral distance of the crossing vehicle 1311 from the host vehicle at time T1.
  • the depth distance Z40 is the depth direction distance of the crossing vehicle 1310 from the own vehicle at the time T0.
  • the lateral distance X40 is the lateral distance of the crossing vehicle 1310 from the host vehicle at time T0.
  • the depth difference distance Z410 is the difference between the depth distance Z0 and the depth distance Z1.
  • the lateral distance X41 and depth distance Z40 are calculated in the process of step S703.
  • the depth difference distance Z410 is calculated from the vehicle behavior, and is calculated by the following equation 4 when the time between times T41 and T40 is T40 and the vehicle speed is V4.
  • the lateral distance X40 is calculated by the following formula 5, where the angle 1220 of the colliding vehicle at time T0 is " ⁇ 4".
  • FIG. 15 like FIGS. 11 and 14, shows relative positional relationships with other vehicles centering on the position of own vehicle 100.
  • FIG. Reference numeral 1510 is the relative position of the crossing vehicle at time T0
  • reference numeral 1511 is the relative position of the crossing vehicle at time T1.
  • a distance 1521 is the upper limit depth distance for ranging in the camera system 101 of the host vehicle.
  • the crossing vehicle 1511 at time T1 is located in front of the depth distance 1521 that can be measured by the camera system 101, so the camera system 101 calculates the velocity as well as the distance measurement result.
  • the depth distance of crossing vehicle 1510 at time T0 is slightly greater than distance 1521 described above, so even if it can be measured, the accuracy is low. is low and can result in erroneous brake control.
  • the speed is calculated using the distance measurement result of the crossing vehicle 1511 at time T1, the vehicle behavior information, and the angle of view information of the crossing vehicle 1510 at time T0. Accuracy can be improved. It can be said that the advantage of this embodiment is that the speed calculation can be made earlier than when the speed is calculated after the vehicle 1511 has come closer to the fusing vehicle 1511 .
  • the depth distance for ranging is constant at the distance indicated by reference numeral 1521.
  • different ranging ranges and upper limit distances may be determined. good too. For example, when capturing a 360-degree image and processing it with an image projected onto a cylindrical or spherical surface, the distance measurement accuracy varies depending on the Euclidean distance from the camera. There are good cases.
  • Reference numeral 1522 indicates the range-finding limit distance on the near side.
  • the monocular distance measurement unit 303 calculates the distance from the image coordinates of the contact point between the object and the road surface and the camera geometry. Can not. Therefore, distance measurement becomes impossible within a certain distance.
  • a reference numeral 1520 indicates a range in which the camera system 101 can measure the distance.
  • a range 1520 is an area sandwiched between an upper limit distance 1521 for distance measurement on the far side, a limit distance 1522 for distance measurement on the near side, and the upper limit of the angle of view of the sensor.
  • the camera system 101 uses the distance measurement result of the measurement object within the range 1520 and the angle of view of the measurement object outside the range 1520 to calculate the velocity when the measurement object exits or enters the range 1520. By doing so, it is possible to calculate the speed when the conventional technology cannot calculate the speed. In addition, when the object to be measured goes out of the range 1520, not only the speed but also the distance measurement result within the range 1520 and the amount of movement calculated when calculating the speed are added together to determine the position of the object to be measured at the time outside the range 1520. A distance may be calculated.
  • FIG. 16 shows relative positional relationships with other vehicles centering on the position of own vehicle 100 .
  • Reference numeral 1610 is the relative position of the crossing vehicle at time T0
  • reference numeral 1611 is the relative position of the crossing vehicle at time T1.
  • a reference numeral 1620 indicates an angle of view of a monocular visual field, which is an angle of view that can be captured by at least one imaging unit.
  • Reference numeral 1621 denotes a stereo viewing angle at which the fields of view of the left imaging unit 102 and the right imaging unit 103 overlap and stereo matching and stereo detection are performed.
  • the camera system 101 is capable of ranging not only within the range of the stereo viewing angle 1621 but also within the range of the monocular viewing angle 1620.
  • the distance measurement accuracy is higher within the range of the stereoscopic viewing angle 1621 than within the range of the monocular viewing angle 1620 . Therefore, the camera system 101 does not dare to use the distance measurement result at the monocular viewing angle 1620, but uses the distance measurement result at the stereo viewing angle 1621, which has a narrow range, to calculate the speed, thereby increasing the speed accuracy.
  • accuracy can be improved by calculating the speed using the angle of view of the position 1611 of the distance measurement result of stereo vision and the position 1610 of the detection result of monocular vision and the vehicle behavior.
  • Range measurement errors include random errors, in which values are randomly distributed both positively and negatively, and systematic errors, in which the average value is systematically offset positively or negatively.
  • the tendency of the systematic error may change when the distance measurement means, sensor, imaging unit, and the like are switched. This may occur when there is misalignment between sensors or between imaging units.
  • the sensor or image pickup unit is switched, if the movement amount is obtained from the difference in the distance measurement results of different sensors or image pickup units to calculate the speed, accuracy may deteriorate.
  • the accuracy can be improved by calculating the velocity using the distance measurement result using only one of the left imaging unit 102 and the right imaging unit 103 and the angle of view.
  • FIG. 17 is a flowchart showing the details of the template selection process in step S804 of FIG.
  • the template creation unit 304 selects the smaller one of the number of pixels of the detection image and the number of pixels of the search target image calculated in steps S802 and S803, and defines this number of pixels as the "reference number of pixels". Determined as In subsequent step S1702, the template creation unit 304 determines whether or not the number of reference pixels exceeds the reference A, which is a predetermined threshold. If so, the process advances to step S1704. In step S1703, the template creation unit 304 determines template size 1, which is the first template size, as the template size.
  • step S1704 the template creation unit 304 determines whether or not the number of reference pixels exceeds the reference B, which is a predetermined threshold. If so, the process advances to step S1706.
  • step S1705 the template creation unit 304 determines template size 2, which is the second template size, as the template size.
  • step S1706 the template creation unit 304 determines template size 3, which is the third template size, as the template size.
  • Criterion A is greater than Criterion B.
  • the first template size is larger than the second template size and the second template size is larger than the third template size.
  • the first template size and the reference A are the same or close values.
  • the second template size and the reference B are the same or close values.
  • FIG. 18 is a diagram explaining the size of the template.
  • FIG. 18 is associated with the first specific example.
  • a reference numeral 1801 denotes an image of the detection location of the vehicle in the captured image captured at time T0.
  • a reference numeral 1802 denotes an image of the detection location of the vehicle in the captured image captured at time T1.
  • Reference numeral 1811 denotes an image that is referred to when searching for a similar part in the captured image captured at time T0.
  • a reference numeral 1812 is an example of the number of pixels of the image when creating the template in the captured image captured at time T1.
  • the number of pixels of the vehicle in the photographed image 1812 for which the template is to be created and the number of pixels of the vehicle in the photographed image 1811 to be searched for similar locations are smaller in the former. Therefore, a template is created according to a predetermined template size close to the number of pixels of the vehicle in the photographed image 1812, and is also queried during the search.
  • the camera system 101 is mounted on the own vehicle 100 .
  • the camera system 101 includes an intersection angle specifying unit 1901Z that assumes that the intersection angle between the traveling direction of the moving object and the traveling direction of the detected object is 90 degrees, and a photographed image obtained by the camera.
  • a left imaging unit 102 and a right imaging unit 103 including sensing information acquisition units that acquire at least sensing results, and a monocular distance measurement unit 303 that is a distance measurement unit that calculates the distance to the detected object at the first time based on the sensing results. and a stereo ranging unit 316 .
  • the camera system 101 further includes an angle-of-view specifying unit 307 that specifies an angle of view, which is the angle of the detected object with respect to the moving direction of the moving object, at a second time that is different from the first time based on the captured image; a speed calculation unit 309 that calculates the speed of the detected object based on the distance to the moving object at the first time, the angle to the moving object at the second time, the time difference between the first time and the second time, and the speed of the moving object; , provided. Therefore, the speed of the object to be measured can be calculated using the sensing result at the second time when the distance information cannot be directly calculated and the sensing result at the first time when the distance information can be directly calculated.
  • an angle-of-view specifying unit 307 specifies an angle of view, which is the angle of the detected object with respect to the moving direction of the moving object, at a second time that is different from the first time based on the captured image
  • a speed calculation unit 309 that calculates the speed of the detected object based on
  • the speed of the measurement target can be calculated using distance information at different times measured by stereo distance measuring section 316 .
  • two distance measurements cannot be performed unless two measurement cycles are performed after the object to be measured enters the stereo field of view.
  • the angle of view is measured before the object to be measured enters the stereo field of view, and the velocity can be calculated by measuring the distance only once immediately after entering the stereo field of view.
  • Speed can be calculated by timing.
  • the captured images include a left image 202 captured by the left imaging unit 102 and a right image 203 captured by the right imaging unit 103 .
  • the distance measurement unit is composed of a monocular distance measurement unit 303 and a stereo distance measurement unit 316 .
  • a monocular distance measurement unit 303 calculates the distance to the detection object based on the shooting position of the detection object in the left image 202 or the right image 203 .
  • a stereo ranging unit 316 calculates the distance to the detected object based on the parallax of the detected object in the left image 202 and the right image 203 . Therefore, it is possible to calculate the speed of the measurement object by using the information of the measurement object in the captured image for which the distance information cannot be directly calculated.
  • the crossing angle specifying unit 1901Z assumes that the crossing angle is 90 degrees. At a crossroad where two roads intersect, the roads often cross each other at 90 degrees. Therefore, by limiting the case where the crossing angle is 90 degrees, which occurs frequently, the process of specifying the crossing angle can be omitted and the processing speed can be increased.
  • the angle-of-view specifying unit 307 acquires image information of the moving object from the captured image at a certain time, and specifies the angle of view from the position of the moving object captured in the captured image at another time. Therefore, the speed of the object to be measured can be calculated without using the sensing result of a sensor that can directly measure the distance, such as a millimeter wave sensor.
  • the camera system 101 calculates the number of pixels of the moving object in the captured image at a certain time and the movement assumed to be captured in the captured image at another time.
  • a template creation unit 304 is provided for creating a matching template based on the smaller number of pixels of the body.
  • the angle-of-view specifying unit 307 specifies the angle of view by searching the captured image using the template created by the template creating unit 304 . Therefore, erroneous matching in template matching can be reduced.
  • the angle-of-view specifying unit 307 determines the angle of view based on the photographed image of the detected object existing outside the range-measurable area where the stereo range-finding unit 316, which is a range-finding unit, can perform range-finding. Identify. Therefore, in addition to the left image 202 and the right image 203 at a certain time, which are used by the stereo ranging unit 316, the left image 202 or the right image 203 captured at another time when the distance cannot be measured can be used for measurement. Can calculate target speed.
  • the first time is later than the second time. Therefore, when the object to be measured approaches the vehicle 100 from infinity and the distance cannot be measured accurately, the angle of view is measured first, and then the object to be measured approaches the vehicle 100. By measuring the distance, the speed can be calculated with high accuracy and at an early timing.
  • the first time is earlier than the second time. Therefore, by first measuring the distance and then measuring the angle of view, as in the case where the object to be measured moves away from the vehicle 100, even though the distance information cannot be obtained at the second time or later, the measurement Can calculate target speed.
  • the captured images include a left image 202 captured by the left imaging unit 102 and a right image 203 captured by the right imaging unit 103 .
  • the field of view of the left imaging unit 102 and the field of view of the right imaging unit 103 overlap in the stereo field of view.
  • the stereo ranging unit 316 calculates the distance to the detected object based on the parallax of the detected object existing in the stereo field of view in the left image 202 and the right image 203 .
  • the angle-of-view specifying unit 307 specifies the angle of view based on the detected object present in the left image 202 or the right image 203, which is not a stereo field of view, that is, the left monocular region 204L and the right monocular region 204R in FIG. Therefore, by measuring the distance with high precision in the stereo region 204S and calculating the angle of view in the monocular region, the velocity can be calculated with high precision and at an early timing.
  • the captured image is the first image captured by the left imaging unit 102, and the stereo ranging unit 316 calculates the distance to the detected object based on the captured position of the detected object in the first image.
  • the camera system 101 in the first embodiment described above includes a left imaging section 102 and a right imaging section 103 .
  • the camera system 101 may have no imaging unit, and may have a sensing result acquisition unit that acquires a captured image from an imaging unit that exists outside the camera system 101 .
  • FIG. 19 is a functional configuration diagram of the camera system 101A in Modification 1.
  • FIG. A difference from FIG. 3 is that a sensing result acquisition unit 110 is provided instead of the left imaging unit 102 and the right imaging unit 103 .
  • Sensing result acquisition section 110 acquires left image 202 and right image 203, which are sensing results, from left imaging section 102 and right imaging section 103, and outputs them to other functional blocks included in camera system 101A.
  • the function of the sensing result acquisition unit 110 is included in the left imaging unit 102 and the right imaging unit 103 .
  • the camera system 101A does not include an imaging unit, it can be used in combination with any of various imaging devices.
  • the camera system 101 in the first embodiment described above includes the left imaging unit 102 and the right imaging unit 103, but one imaging unit may be replaced with a millimeter wave sensor.
  • the velocity of the object is calculated using the result of distance measurement by the millimeter wave sensor, and the search for similar locations and the specification of the angle of view by the monocular camera.
  • the monocular camera for calculating the angle of view as a base point, the distance from the monocular camera to the millimeter wave sensor is subtracted from the distance measurement result. Convert with .
  • This modification may be combined with modification 1 described above.
  • FIG. 20 is a functional configuration diagram of a camera system 101B in Modification 2.
  • FIG. A difference from FIG. 3 is that a sensing result acquisition unit 110 is provided instead of the left imaging unit 102 and the right imaging unit 103 .
  • the camera system 101B does not have to include the stereo matching unit 301, the template creation unit 304, the stereo detection unit 308, and the stereo ranging unit 316, but in FIG. These configurations are left in consideration of the case where the In this modification, an object assumed to be a moving object is detected from the sensing result of the millimeter wave sensor 103R, and matching is performed in the captured image based on the positional relationship between the vehicle 100 and the object.
  • the sensing result includes the captured image captured by the imaging unit and the distance information measured by the distance sensor.
  • the distance measuring unit uses the distance to the detected object as the distance information. Therefore, the technique described in the first embodiment can also be combined with the combination of the millimeter wave sensor and the camera. This combination is effective when the camera can capture a range that cannot be measured by a millimeter wave sensor.
  • the camera system 101 in the first embodiment described above has two imaging units, the left imaging unit 102 and the right imaging unit 103, it may have only one imaging unit. In this case, the camera system 101 does not need to include the stereo matching unit 301, the stereo detection unit 308, and the stereo distance measurement unit 316, and the monocular distance measurement unit 303 measures the distance.
  • the captured image is the first image captured by the left imaging unit 102 .
  • a monocular distance measurement unit 303 calculates the distance to the detection object based on the shooting position of the detection object in the first image. Therefore, by using the images captured by one camera at different times, the sensing result at the second time when the distance information cannot be directly calculated and the sensing result at the first time when the distance information can be directly calculated are used. can be calculated. In other words, even if the sensing information is a plurality of captured images captured by one camera, the speed of the object to be measured can be calculated early.
  • FIGS. 21 and 22 A second embodiment of the arithmetic device will be described with reference to FIGS. 21 and 22.
  • FIG. In the following description, the same components as those in the first embodiment are assigned the same reference numerals, and differences are mainly described. Points that are not particularly described are the same as those in the first embodiment.
  • This embodiment differs from the first embodiment mainly in that it considers the case where the travel paths of the own vehicle and the crossing vehicle are not orthogonal.
  • FIG. 21 is a functional block diagram showing functions possessed by the camera system 101A according to the second embodiment.
  • a difference from the camera system 101 in the first embodiment is that an intersection angle identification unit 1901 is provided instead of the type identification unit 317 .
  • the vehicle 100 is also equipped with a GPS 1903 and map information 1904 , which are connected to the intersection angle identification unit 1901 .
  • the position specifying device 1903 receives radio waves from a plurality of satellites that make up the satellite navigation system, and analyzes the signals contained in the radio waves to calculate the position of the vehicle 100, that is, the latitude and longitude.
  • the position specifying device 1903 outputs the calculated latitude and longitude to the intersection angle specifying section 1901 .
  • the map information 1904 is a map database that includes information that allows calculation of directions along roads.
  • the map information 1904 includes, for example, nodes indicating intersections and end points of roads, and information on links connecting the nodes.
  • the node information includes information on the combination of latitude and longitude.
  • the link information includes identification information of two nodes to be connected, and may further include a plurality of pieces of latitude and longitude information indicating inflection points and passing points.
  • the link information may include information indicating the direction along the link, for example, information from 0 to 180 degrees where north is 0 degrees.
  • the crossing angle specifying unit 1901 specifies the crossing angle ⁇ , which is the angle at which the traveling direction of the host vehicle 100 intersects with the traveling direction of a vehicle traveling in the vicinity.
  • the crossing angle ⁇ is a value indicating the amount of deviation from orthogonality, and the crossing angle ⁇ is zero when the traveling directions of the two vehicles are orthogonal.
  • the crossing angle specifying unit 1901 first uses the position information acquired from the position specifying device 1903 to obtain the latest position information of the vehicle 100 and information on the traveling direction from differentiation of the position information.
  • the crossing angle identifying unit 1901 refers to the map information 1904 to identify the angle at which the link on which the vehicle 100 travels intersects with another link at the crossing existing in the traveling direction of the vehicle 100 .
  • a speed calculation unit 1904 calculates a speed based on the crossing angle specified by the crossing angle specifying unit 1901, the distance specified by the monocular ranging unit 303 or the stereo ranging unit 316, and the vehicle speed, steering angle, and yaw rate of the own vehicle. calculate. Details will be described later.
  • FIG. 22 is a diagram showing a speed calculation method by the speed calculation unit 1904.
  • FIG. Reference numeral 2000 indicates own vehicle 100 at time T0
  • reference numeral 2001 indicates own vehicle 100 at time T1.
  • Reference numeral 2010 indicates the crossing vehicle at time T0
  • reference numeral 2011 indicates the crossing vehicle at time T1.
  • the angle of view ⁇ is an angle formed by a straight line connecting host vehicle 100 and collided vehicle 2010 at time T0 with the traveling direction of the host vehicle. The definition of this angle of view is the same as in the first embodiment.
  • the angle ⁇ is the angle at which the own vehicle 100 and the crossing vehicle intersect. Note that the angle ⁇ was fixed at zero degrees in the first embodiment.
  • the depth distance z9 is the distance traveled by the vehicle 100 from time T0 to time T1.
  • the depth distance z8 is the distance from the own vehicle 2001 to the intersection at time T1.
  • the sum of the depth distance z9 and the depth distance z8 is called "depth distance z98".
  • Depth distance z5 is the depth distance from host vehicle 100 to crossing vehicle 2010 at time T0.
  • Lateral distance x5 is the illustrated lateral distance between host vehicle 100 and crossing vehicle 2010 at time T0.
  • the horizontal distance x5 is calculated using Equation 6 below, and the depth distance z5 is calculated using Equation 7 below.
  • the depth distance z9 is obtained by multiplying the speed of the vehicle 100 in the depth direction by the time difference from time T0 to time T1.
  • the speed of the vehicle 100 in the depth direction is obtained from the vehicle speed, the steering angle, and the yaw rate.
  • the vehicle speed is the speed in the depth direction.
  • a depth distance Z8 is the depth component of the distance specified by the monocular distance measurement unit 303 or the stereo distance measurement unit 316 .
  • the angle ⁇ is the angle of view of the crossing vehicle seen from the camera of the own vehicle at time T ⁇ b>0 specified by the angle of view specifying unit 307 .
  • the intersection angle identification unit 1901 calculates the intersection angle based on the position information of the moving object acquired by the position identification device 1903 and the map information 1904 . Therefore, a more reliable crossing angle can be calculated based on the position and traveling direction of the vehicle 100 .
  • the intersection angle identification unit 1901 may calculate the intersection angle by identifying the orientation of the crossing vehicle from the identification result of the object in the detected portion and the three-dimensional point group information from the stereo matching unit 301 .
  • the intersection angle identification unit 1901 identifies the intersection angle, for example, from the angle of view on the image of the classifier and the crossing vehicle. If the roads intersect at an angle close to a right angle, the image will appear obliquely in front of the vehicle according to the angle at which the crossing vehicle appears. For example, if it is 45 degrees, the front and side surfaces are captured at angles of 315 degrees and 45 degrees, respectively.
  • the degree of angle difference between the direction of the vehicle identified by the discriminator and the direction of crossing at an angle close to a right angle due to the angle of view is the angle at which the vehicle intersects with the crossing vehicle.
  • the parallax obtained by stereo matching becomes a three-dimensional point group, and the front and side surfaces of the crossing vehicle can also be detected as planes from the point group.
  • the direction of travel of the vehicle may be specified from the direction of this plane, and the crossing angle at which the own vehicle and the crossing vehicle intersect may be calculated.
  • the present invention is not limited to the above-described embodiments, and includes various modifications.
  • the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.
  • it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.
  • each of the above configurations, functions, processing units, processing means, etc. may be realized in hardware, for example, by designing a part or all of them with an integrated circuit.
  • each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function.
  • Information such as programs, tables, and files that implement each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card or SD card.
  • control lines and information lines indicate what is considered necessary for explanation, and not all control lines and information lines are necessarily indicated on the product. In practice, it may be considered that almost all configurations are interconnected.
  • the configuration of the functional blocks is merely an example. Some functional configurations shown as separate functional blocks may be configured integrally, or a configuration represented by one functional block diagram may be divided into two or more functions. Further, a configuration may be adopted in which part of the functions of each functional block is provided in another functional block.

Abstract

演算装置は、移動体に搭載され、移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を特定する交差角度特定部と、カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得するセンシング情報取得部と、センシング結果に基づき第1時刻における検知物体との距離を算出する測距部と、撮影画像に基づき第2時刻における移動体の進行方向に対する角度である画角を特定する画角特定部と、交差角度、第1時刻における移動体との距離、第2時刻における移動体との角度、第1時刻と第2時刻の時間差、および移動体の速度に基づき、検知物体の速度を算出する速度算出部と、を備える。

Description

演算装置、速度算出方法
 本発明は、演算装置、および速度算出方法に関する。
 カメラによって撮像された画像等に基づき、画像中で移動する物体を検知するための様々な技術が知られている。特許文献1には、撮像手段により撮像した画像から物体領域を抽出する物体領域抽出手段と、前記撮像手段の撮像範囲外に照射した電磁波の反射波から前記撮像範囲外の物体までの距離情報を取得する距離情報取得手段と、前記距離情報取得手段が取得した距離情報を用いて、前記撮像範囲外の物体が前記撮像手段の撮像範囲内に入った際に前記物体領域抽出手段が該物体の物体領域を抽出するための予測領域情報を作成する情報作成手段と、を有することを特徴とする画像処理装置が開示されている。
特開2015-195018号公報
 特許文献1に記載されている発明では、測定対象の速度を算出するためには異なる時刻における距離情報を取得する必要があり、距離情報が得られない状況では速度を算出できない。
 本発明の第1の態様による演算装置は、移動体に搭載される演算装置であって、前記移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を特定する交差角度特定部と、カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得するセンシング情報取得部と、前記センシング結果に基づき第1時刻における前記検知物体との距離を算出する測距部と、前記撮影画像に基づき第2時刻における前記移動体の進行方向に対する角度である画角を特定する画角特定部と、前記交差角度、前記第1時刻における前記移動体との距離、前記第2時刻における前記移動体との角度、前記第1時刻と前記第2時刻の時間差、および前記移動体の速度に基づき、前記検知物体の速度を算出する速度算出部と、を備える。
 本発明の第2の態様による速度算出方法は、移動体に搭載される演算装置が実行する速度算出方法であって、前記移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を特定することと、カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得することと、前記センシング結果に基づき第1時刻における前記検知物体との距離を算出することと、前記撮影画像に基づき第2時刻における前記移動体の進行方向に対する角度である画角を特定することと、前記交差角度、前記第1時刻における前記移動体との距離、前記第2時刻における前記移動体との角度、前記第1時刻と前記第2時刻の時間差、および前記移動体の速度に基づき、前記検知物体の速度を算出することと、を含む。
 本発明によれば、距離情報が直接算出できない時刻のセンシング結果と、距離情報が直接算出できる時刻のセンシング結果とを用いて測定対象の速度を算出できる。上記した以外の課題、構成および効果は、以下の発明を実施するための形態の説明により明らかにされる。
視野画角と車両の位置関係を説明する図 視野の相関関係を示す図 第1の実施の形態に係るカメラシステムが有する機能を示す機能ブロック図 単眼検知部の動作を説明する概念図 ステレオマッチング部による視差画像生成を説明する概念図 ステレオ検知部による立体物の検知方法を説明する概念図 速度算出処理を示すフローチャート 図7のステップS705およびステップS706の詳細を示すフローチャート 図7のステップS708に示した速度算出処理の詳細を示すフローチャート 第1の具体例を示す図 図10の例を自車両を中心とした相対的な位置に置き換えた図 図11における距離を説明する図 第2の具体例を示す図 図13の例を自車両を中心とした相対的な位置に置き換えた図 第3の具体例を示す図 第4の具体例を示す図 図8のステップS804に示すテンプレート選択処理の詳細を示すフローチャート テンプレートのサイズを説明する図 変形例1におけるカメラシステムの機能構成図 変形例2におけるカメラシステムの機能構成図 第2の実施の形態に係るカメラシステムが有する機能を示す機能ブロック図 速度算出部による速度の算出方法を示す図
 以下、図面を参照して本発明の実施形態を説明する。実施例は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施することが可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。
 同一あるいは同様の機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。また、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。
 実施例において、プログラムを実行して行う処理について説明する場合がある。ここで、計算機は、プロセッサ(例えばCPU、GPU)によりプログラムを実行し、記憶資源(例えばメモリ)やインターフェースデバイス(例えば通信ポート)等を用いながら、プログラムで定められた処理を行う。そのため、プログラムを実行して行う処理の主体を、プロセッサとしてもよい。同様に、プログラムを実行して行う処理の主体が、プロセッサを有するコントローラ、装置、システム、計算機、ノードであってもよい。プログラムを実行して行う処理の主体は、演算部であれば良く、特定の処理を行う専用回路を含んでいてもよい。ここで、専用回路とは、例えばFPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)、CPLD(Complex Programmable Logic Device)等である。
 プログラムは、プログラムソースから計算機にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサと配布対象のプログラムを記憶する記憶資源を含み、プログラム配布サーバのプロセッサが配布対象のプログラムを他の計算機に配布してもよい。また、実施例において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
―第1の実施の形態―
 図1~図18を参照して、演算装置の第1の実施の形態を説明する。本実施の形態に係る演算装置は、検知物体(以下では「測定対象」とも呼ぶ)が、特定可能な距離に存在している時刻の検知と測距結果と、その時刻以外のセンシング結果から特定したその物体の画角と、自車両の速度とを用いて、検知物体の速度を特定する。本実施の形態では、自車両の進路と検知物体の進路とが、略直交に交わると仮定する。検知物体の速度は、二つの時刻の間の検知物体の移動量から時刻差を割ることで求める。
 検知物体の移動量のうち、演算装置から見て奥行方向の移動量を自車の移動量と断定する。前述の一方の時刻の距離と移動量から、他方の時刻の奥行距離を特定し、該もう一方の時刻の物体の画角から、横方向の距離を特定することで、横方向の移動量も特定する。前述の直交に近い移動方向への特定は、物体の種別識別において行う。識別器で物体の種別を識別する際に、物体の向いている向きを識別し、その画角において該向きが直交に近い移動方向かを特定する。
 本実施の形態に係る画像処理システムは、カメラが撮影して得られる画像(以下では「撮影画像」と呼ぶ)から対象となる物体を検知する。対象となる物体は、たとえば移動体や立体物、特定の物体などである。この「移動体」とは、背景に対して動いているものを指す。ただし、「背景」とは、撮影画像中で変化しない画素からなる領域に限らない。たとえば、走行する車両に搭載されるカメラの撮影画像の場合には、車両の走行に伴い撮像位置が変化する路面も背景であり、路面に対して移動を行う歩行者や車両が移動体である。またたとえば、固定された監視カメラであれば、カメラ画像内で動く人物や動物、動かされる物、などが移動体である。
 「立体物」は、たとえば、路面に対して高さのある物体で、車両や歩行者、二輪車、電柱などである。「特定の物体」は、たとえば、車両や歩行者、二輪車などの設計者が意図的に検知したいと定めた特定の物体を指す。特定の物体は、テンプレートやパターンや機械学習の辞書などを予め用意して、テンプレートやパターンや機械学習の辞書との類似度が高いものを検知する。画像処理システムはこの検知を行うとともに、カメラから一定の範囲の物体を検知し、物体の距離と速度を算出する。
 図1は視野画角と車両の位置関係を説明する図である。車両100は、カメラシステム101と、左撮像部102と、右撮像部103とを備える。左撮像部102は車両100の左側に配された撮像部であり、光軸102Axは車両100の前方に向き、車両100の中心軸に対して図示右側に広い視野である右視野1021を有する。右撮像部103は車両100の右側に配された撮像部であり、光軸103Axは車両100の前方に向き、車両100の中心軸に対して図示左側に広い視野である左視野1031を有する。車両100は車両速度センサと、舵角センサまたはヨーレートセンサの少なくとも1つを備える。以下では、右撮像部103の撮影画像を右画像203と呼び、左撮像部102の撮影画像を左画像202と呼ぶ。
 図1に示すように、右視野1021と左視野1031は車両100の前方では重複している。この重複する視野を以下では「ステレオ視野」と呼び、右視野1021からステレオ視野を除いた視野を「右単眼視野」と呼び、左視野1031からステレオ視野を除いた視野を「左単眼視野」と呼ぶ。
 図2は、視野の相関関係を示す図である。図示上断は左撮像部102の撮影画像である左画像202、図示中断は右撮像部103の撮影画像である右画像203、図示下段は左画像202および右画像203を用いて作成された合成画像204である。合成画像204は、右単眼領域204Rと、ステレオ領域204Sと、左単眼領域204Lとに分けられる。
 右単眼領域204Rは、図1を参照して説明した右単眼視野の領域に相当する。ステレオ領域204Sは、図1を参照して説明したステレオ視野の領域に相当する。左単眼領域204Lは、図1を参照して説明した左単眼視野の領域に相当する。
 図3は、第1の実施の形態に係るカメラシステム101が有する機能を示す機能ブロック図である。カメラシステム101は、1つのハードウェアである演算装置として実現されてもよいし、複数のハードウェア装置により実現されてもよい。カメラシステム101は、左撮像部102と、右撮像部103と、ステレオマッチング部301と、単眼検知部302と、単眼測距部303と、テンプレート作成部304と、画像保持部305と、類似箇所探索部306と、画角特定部307と、ステレオ検知部308と、速度算出部309と、車両速度入力部310と、車両舵角入力部311と、ヨーレート入力部312と、交差角度特定部1901Zとを備える。カメラシステム101は、車両100に搭載される車両速度センサ313と、車両舵角センサ314と、ヨーレートセンサ315とに接続される。
 交差角度特定部1901Zは、車両100の進行方向と他の車両の進行方向とが交差する角度である交差角度を特定するが、本実施の形態では交差角度は常に90度と仮定している。そのため本実施の形態における交差角度特定部1901Zは特段の演算を行わず、交差角度の値が「90」度であることを保持する構成を備えればよい。たとえば交差角度特定部1901Zは、不揮発性記憶装置により実現できる。
 左撮像部102および右撮像部103は撮像センサを含み、たとえば公知のカメラとして構成される。撮像センサにはレンズが取り付けられ、装置の外界を撮像する。撮像センサは、例えばCMOS(Complementary Metal Oxide Semiconductor)を備え、光を電気信号に変換する。
 左撮像部102および右撮像部103の撮像センサで電気信号に変換された情報は、さらに左撮像部102および右撮像部103内で、撮影画像を表す画像データに変換される。画像データは画素の輝度値を含む。輝度値は、たとえばデジタル値として表現することができ、RGB(Red Green Blue)やRC(Red Clear)等の色毎の輝度値や、モノクロの輝度値として表される。左撮像部102および右撮像部103は、画像データをステレオマッチング部301、単眼検知部302、単眼測距部303、テンプレート作成部304、画像保持部305、類似箇所探索部306、および画角特定部307に送信する。左撮像部102および右撮像部103は、所定の周期、たとえば17ミリ秒ごとに画像データを送信する。
 左撮像部102および右撮像部103は、撮像センサの露光条件を変更する機能を備える。たとえば、撮像センサにグローバルシャッタまたはローリングシャッタ等の電子シャッタが備わっており、露光時間を任意の時間に設定して撮影することができる。受光素子として、受光すると電荷が蓄積されるフォトダイオードを用いる場合には、露光時間は、フォトダイオードの蓄積電荷をリセットしてから、輝度値に係る情報を読み出すために電荷を取り出すまでの時間を指す。
 露光時間を長くすると電荷が多く蓄積されるので、読み出される輝度値が高くなる。一方で露光時間を短くすると蓄えられる電荷が少なくなるので、読み出される輝度が低くなる。そのため、露光時間に相関して、撮像センサから得られる画像の明るさが変化する。
 左撮像部102および右撮像部103は、フォトダイオードから取り出される電荷量を電圧に変換し、A/D(Analog Digital)変換を行ってデジタル値を取得する。左撮像部102および右撮像部103はA/D変換に用いる増幅器を備えており、露光条件の一部として増幅器のゲインが変更できるように構成される場合がある。その場合には、増幅器のゲイン設定に応じて読み出される輝度値が変化する。ゲインを高くすれば輝度値は高く、ゲインを低くすれば輝度値は低くなる。
 ここで、一般的に、露光条件(上記の例では露光時間およびゲイン)の変化により輝度値が低くなると、暗い対象物の輝度値が0になったり、コントラスト比が低い対象物の輝度値が一様になったりし、輪郭や濃淡等が判別できなくなる場合がある。この問題は輝度値をデジタル値として表現する場合に顕著であるが、アナログ値として表現する場合にも同質の問題が発生し得る。同様に、露光条件の変化により輝度値が高くなると、明るい対象物の輝度値が最大値となり、対象物の輪郭や対象物の濃淡が判別できなくなる場合がある。従って、撮影する対象物の明るさに応じて露光条件を設定する必要がある。
 左撮像部102および右撮像部103は、時系列的に繰り返し電子シャッタを切り、シャッタ毎の画像データを取得することにより動画を撮影することができる。単位時間あたりの電子シャッタを切り画像データを出力する回数をフレームレートと呼び、1秒あたりのフレームレートをFPS(Frame Per Second)の単位で表す。
 左撮像部102および右撮像部103が取得する撮影画像は、撮像素子がセンシングして得られた結果なので、以下では撮影画像を「センシング結果」とも呼ぶ。また、左撮像部102および右撮像部103は、センシング情報を取得するので、「センシング情報取得部」と呼ぶことができる。また以下では、左撮像部102と右撮像部103とを区別するために、前者を「第1撮像部」、後者を「第2撮像部」と呼ぶことがある。ただしこの呼び分けは便宜的であり、入れ替え可能な呼称である。
 ステレオマッチング部301は、左撮像部102および右撮像部103から画像データを含むデータを受信し、これを処理することにより視差を演算する。視差とは、複数の撮像部の位置の違いから生じる、同一物体の写る画像座標の差である。視差は、近距離のものは大きく、遠距離のものは小さくなり、視差から距離を算出することが可能である。
 ステレオマッチング部301では、左画像202および右画像203の画像データの歪みを補正する。たとえば、中心射影や透視投影モデルと言われる、同一の高さで同一の奥行距離の物体が、画像座標の水平に並ぶように画像データの歪を補正する。なお、水平方向に並ぶように補正するのは、左撮像部102と右撮像部103が左右方向に並んで配されているためである。補正された左画像202および右画像203を用いて、これらの一方を基準となる基準画像データとし、他方を比較対象とする比較画像データとして視差を求める。
 なお上述した説明では中心射影を用いる例を記載したが、画角が広い場合は画像データのサイズを抑制するために、たとえば円筒や球面に射影してもよい。その際のマッチングを行う際には、投影面上同一距離の物体が並ぶ探索線でマッチングをとる必要がある。
 視差を求める際は、まず前述の基準画像データと、比較画像データの消失点の垂直座標を合わせる。そして、基準画像データの各座標に対して、比較画像データの同一垂直座標のどの水平座標が同一物体を映しているのかを、たとえばSSD(Sum of Squared Difference)やSAD(Sum of Absolute Difference)などの手法で検査する。
 ただしSSDやSADに限定されず、そのほかの手法でもよい、たとえばコーナー特徴点抽出を行い、同一特徴点かを検査する、FAST(Features from Accelerated Segment Test)やBRIEF(Binary Robust Independent Elementary Features)などの手法を組み合わせて同一物体のマッチングを行ってもよい。
 単眼検知部302は、左画像202または右画像203に映る特定の物体を検知する。特定の物体とは、立体物や移動体であり、具体的には歩行者、車両、自転車などである。検知はカメラから一定の範囲内の特定の物体を検知する。検知された結果は、検知された物体の写る左画像202または右画像203の画像座標の情報を保持する。たとえば、検知物体を囲む長方形の枠(以下、「単眼検知枠」と呼ぶ)の左上と左下の垂直水平の画像座標として保持する。
 種別識別部317は、単眼検知部302やステレオ検知部308により検知された物体の種別を識別する。物体の種別は、横断動作を行うことが想定される物体である、四輪車、二輪車、歩行者は、移動方向となる物体の前面の向きが、何れの向きなのかも特定する。これらの移動体の前面の向きは、カメラシステム101に対しての物体の前面の向きである。本実施例では、直交に近い移動方向に限定して動作する。直交に近い移動方向かは、画角とカメラシステム101に対する物体の前面の向きにより判断する。例えばカメラシステム101の右側に写る物体の場合、物体の進行する向きの面と側面とが写る。45°の角度の場合は、前面と側面が45°の向きで見える場合に直交に近い移動方向の物体と分かる。種別識別部317は、直交に近い移動方向の物体か否かの判断結果を、速度算出部309に伝達する。
 単眼測距部303は、単眼検知部302で検知された特定の物体の位置を特定し、左撮像部102または右撮像部103からの距離と方向を求める。たとえば、特定された距離と方向は、車両100前方の奥行距離と横方向の横距離の平面上の位置を特定できる座標系で表す。ただし、カメラからの距離であるユーグリッド距離と方向で表す極座標系で表した情報を保持してもよく、奥行と横の2軸との相互変換は三角関数を用いればよい。単眼測距部303は、左画像202、右画像203、および合成画像204を路面に射影した俯瞰画像を用いて、俯瞰画像の垂直座標と水平座標と、実際の路面に対する俯瞰画像の垂直と水平方向の縮尺から位置を特定する。
 ただし位置の特定に俯瞰画像を用いることは必須の構成ではない。カメラの位置と姿勢の外部パラメータと、焦点距離・撮像素子の画素ピッチと光学系の歪の情報を用いて、幾何計算を行うことで特定してもよい。
 テンプレート作成部304は、撮影画像の1つを選択し、この撮影画像(以下、「検知画像」と呼ぶ)から特定の領域を切り抜いてテンプレートとする。具体的にはテンプレート作成部304は、単眼検知部302で検知された物体の単眼検知枠の内部および周辺の画素情報から、類似箇所を探すためのテンプレートを作成する。このテンプレートは、あらかじめ定められた画像サイズに拡大縮小される。テンプレートを拡大縮小する際は、縦横の比率を維持するか、大きく変えないこととする。拡大縮小処理の後に、画素の輝度値自体か、縮小画像内を複数の小領域(以下、「カーネル」とも呼ぶ)に分割し、カーネル内の輝度値の関係を、その画像の特徴として記憶する。画像の特徴は様々な形で抽出され、カーネル内の左右や上下の平均輝度差や、周辺と中央の平均輝度差、輝度の平均や分散など、様々な特徴量が存在するが、本実施の形態ではいずれを用いてもよい。
 画像保持部305は、左画像202および右画像203を一定時間、または異なる時刻の左画像202および右画像203が一定枚数蓄積されるまで保持する。この保持には記憶装置、たとえばDRAM(Dynamic Random Access Memory)などが用いられる。保持する記憶装置内の番地と範囲は、あらかじめ複数定めておき、撮像画像毎に転送先の番地を順に変えていき、一巡後は古い画像が記憶された領域を上書きしていくとよい。予め番地が定められているため、保持された画像を読み出す際に番地を通知する必要がない。
 類似箇所探索部306は、テンプレート作成部304で作成されたテンプレートに類似する箇所を、画像保持部305に格納される画像の中から探し出す。以下では、類似箇所探索部306がテンプレートとの類似箇所を探索する画像を「探索対象画像」と呼ぶ。探索対象画像は、単眼検知部302で検知された時刻の画像とは異なる画像である。どの時刻の画像を選択するかは、検知された時刻の画像のひとつ前の時刻に撮影された画像を選ぶことを基本とする。類似箇所は検知された時刻の単眼検知枠座標の近くに存在する可能性が高く、またテンプレートに対して、検知物体の向きの変化や、露光変化などによる輝度変化も少ないことが期待されるので、高精度な探索が可能である。
 ただし、撮像間隔が短い場合は、2つ以上前の時刻の画像を探索対象画像に選択してもよい。また、車速に応じて選択する画像を変えてもよい。たとえば、車速が閾値以上の場合は、検知された画像の撮像時刻に対して、近い時刻の古い画像を選び、車速が前述の閾値よりも遅い場合は、前述の近い時刻の古い画像よりも更に古い画像を選んでもよい。車両速度が速い場合は、検知された時刻に対して近い時刻の画像であれば、テンプレートに対して大きく見え方が変わらず、探索の精度が確保しやすい。また、車速が遅い場合は、検知された時刻に対して、類似箇所を探す画像での検知物体の位置変化が大きくなり、算出速度の精度を向上できる。
 画角特定部307は、類似箇所探索部306が特定した類似箇所に写る特定の物体の、カメラの水平画角を特定する。ただし位置とともに高さも特定する場合は、垂直画像も特定する。また、カメラがロール回転する可能性がある場合も、水平と垂直の両方の画角を特定することで、速度を高精度に算出できる。水平画角は、奥行距離と横距離の比率から三角関数で求めればよい。
 ステレオ検知部308は、ステレオマッチング部301で作成した視差画から、同一距離で一定のサイズの範囲の箇所を立体物として検知する。検知された物体は視差画座標情報を保持する。たとえば、検知物体を囲む長方形の枠(以下、「ステレオ検知枠」と呼ぶ)の左上と左下の垂直水平の画像座標として保持する。
 ステレオ測距部316は、ステレオ検知部308により検知された物体の位置を特定して距離と方向を特定する。たとえば、特定された距離と方向は、車両100前方の奥行距離と横方向の横距離の平面上の位置を特定できる座標系で表す。ただし、カメラからの距離であるユーグリッド距離と方向で表す極座標系で表した情報を保持してもよく、奥行と横の2軸との相互変換は三角関数を用いればよい。
 ステレオ測距部316は、物体の視差から奥行方向の距離を算出する。ステレオ測距部316は、算出した物体の視差にばらつきがある場合は、平均や最頻値を用いる。視差のばらつきが大きい際は、特定の外れ値をとる手法を用いてもよい。横距離は、ステレオ検知部308の検知枠の水平画角と奥行距離から、三角関数を用いて求める。
 速度算出部309は、単眼測距部303またはステレオ測距部316から測距結果を受け取り、画角特定部307から類似箇所の画角を受け取り、車両速度入力部310と車両舵角入力部311とヨーレート入力部312から車両挙動情報を受け取り、検知された特定の物体の速度を算出する。ただし速度算出部309は、車両速度入力部310から車両速度を受け取る代わりに、算出した相対的な奥行距離の微分値を車両速度として用いてもよい。これは、奥行距離は精度が良く測距でき、横距離は精度が悪く測距される場合に有用である。また奥行速度を車両速度の代わりに用いると、直交しない横断車両との衝突予測も精度よくできる。
 車両速度入力部310は、車両速度センサ313から車両の速度情報が入力される。車両舵角入力部311は、車両舵角センサ314から車両の舵角情報が入力される。ヨーレート入力部312は、ヨーレートセンサ315から車両の旋回速度が入力される。
 車両速度センサ313は、車両100に搭載された車両の速度を測定する装置である。車両速度センサ313はたとえば、車輪の回転速度と車輪の外周長から車両の速度を測定する。車両舵角センサ314は、車両100に搭載された、操舵輪の舵角を測定する装置である。車両舵角センサ314はたとえば、車両100に搭載されるステアリングの回転角度センサである。ヨーレートセンサ315は、車両100の旋回速度を測定する装置である。ヨーレートセンサ315はたとえば、車両100の重心付近や、複数個所に装着された慣性センサである。
 ステレオマッチング部301、単眼検知部302、単眼測距部303、テンプレート作成部304、類似箇所探索部306、画角特定部307、ステレオ検知部308、および速度算出部309は、次のように実現されてもよい。すなわちこれらの機能ブロックは、不図示の中央演算装置であるCPU、不図示の読み出し専用の記憶装置であるROM、および不図示の読み書き可能な記憶装置であるRAMを用いて、CPUがROMに格納されるプログラムをRAMに展開して実行することで実現されてもよい。
 ただしこれらの機能ブロックは、CPU、ROM、およびRAMの組み合わせの代わりに書き換え可能な論理回路であるFPGAや特定用途向け集積回路であるASICにより実現されてもよい。またこれらの機能ブロックは、CPU、ROM、およびRAMの組み合わせの代わりに、異なる構成の組み合わせ、たとえばCPU、ROM、RAMとFPGAの組み合わせにより実現されてもよい。
 車両速度入力部310、車両舵角入力部311、およびヨーレート入力部312は、通信ポート、たとえばIEEE802.3に対応する通信モジュールにより実現されてもよいし、電圧や電流を読み込み可能なADコンバータにより実現されてもよい。
 図4は単眼検知部302の動作を説明する概念図である。図4の上段左に示す第1右画像203-1は、時刻t1に撮影された右画像203である。図4の上段右に示す第1射影画像401は、第1右画像203-1を路面に射影変換して得られる。この射影変換では、1画素が路面の奥行と横の一定距離に相当するように変換される。変換のためには、カメラの姿勢であるカメラの路面からの高さと路面に対するカメラの光軸の向きを、チルト回転、パン回転、ロール回転の情報からカメラ幾何計算を行い、路面の一定距離間隔が第1右画像203-1のどこに対応するのか求めることで、変換用のアフィンテーブルを作成する。このアフィンテーブルを用いてアフィン変換を行い、第1右画像203-1を路面に射影した第1射影画像401を得る。
 図4の中段左に示す第2右画像203-2は、時刻t2に撮影された右画像203である。時刻t2は、前述の時刻t1よりも後の時刻である。図4の中段右に示す第2射影画像402は、第2右画像203-2を路面に射影変換して得られる。図4の下段に示す差分画像404は、第1射影画像401と第2射影画像402とを用いて以下のように作成される。
 差分画像404は、時刻t1と時刻t2との間に車両100が移動した分だけ、この移動を打ち消す方向に第2射影画像402を並進移動させ、第1射影画像401と重ねて差異を抽出して得られる。この差異は、第1射影画像401と第2射影画像402の輝度を比較するだけではなく、各画像のエッジの強度と方向を比較して差異を抽出することで、撮像された画角により立体物が映り込む角度が変わることを差分として取得できる。このようにして生成された差分画像404を用いることで立体物の検知が可能となる。
 図5はステレオマッチング部301による視差画像生成を説明する概念図である。図5の下部に示す視差画像500は、右画像203を基準画像とし、左画像202との視差を算出して得られた画像である。視差とは、複数の撮像部の位置の違いから生じる、同一物体の写る画像座標の差である。視差は、近距離のものは大きく、遠距離のものは小さくなり、視差から距離を算出することが可能である。
 図6はステレオ検知部308による立体物の検知方法を説明する概念図である。短冊視差画像600は、視差画像500を縦長の短冊状に、換言すると図示左右方向に並ぶ縦長の複数の領域601に分割したものである。ステレオ検知部308は、分割された領域毎に、距離または視差が同一である存在の頻度を示すヒストグラムを作成して評価をする。このヒストグラムは、たとえば距離の逆数などの、路面のみが写る領域では頻度が一定となる横軸を設定する。符号603で示す短冊領域は路面しか映らないので、符号6031のヒストグラムに示すように頻度が一定となる。
 立体物を含む領域602のヒストグラム6021は、立体物の存在する距離までの路面の視差が頻度一定に存在し、立体物が存在する距離Z0の頻度にピークが生じる。このように立体物がある場合、ヒストグラム中の最頻値に一定以上の高さの立体物の距離にピークが生じるので、最頻値から立体物の距離を特定できる。
 ステレオ検知部308は、立体物の距離が特定できたら、視差画像の中の立体物の位置を特定する。符号604は、視差画像500上に立体物の検知結果を表示した例である。矩形6022は、立体物を検知した範囲を示している。ステレオ検知部308は、ヒストグラムで特定した立体物の水平座標の範囲で、特定した距離の視差の座標の集合を特定するラベリング処理およびクラスタリング処理を行う。なお無効視差や視差誤差等で立体物の視差の中に視差の無効値が含まれる場合や視差誤差が多い場合は、たとえばMean―Shiftを用いたクラスタリング処理などのように、分散離散した座標の視差から、一定距離の視差の集合を抽出できる手法を用いるとよい。
 図7は速度算出処理を示すフローチャートである。まずステップS701ではステレオマッチング部301がステレオマッチングを行う。ステレオマッチングでは、視差画像500を生成する。続くステップS702では、単眼検知部302またはステレオ検知部308が特定の物体や立体物や移動体を抽出して、画像座標上のいずれかの物体の座標を出力する物体検知処理を行う。
 続くステップS703では速度算出部309は、直前のステップS702において検知された物体の距離を算出する。続くステップS704では速度算出部309は、テンプレート作成部304で検知された物体の特徴をテンプレートとして抽出する。物体検知は、単眼検知部302またはステレオ検知部308で行った結果を用いる。続くステップS705の探索範囲設定処理と、S706の類似箇所特定処理は、いずれも類似箇所探索部306が実行する。ここではステップS705およびS706の概要を説明し、詳細は図8を参照して後に説明する。
 ステップS705では、類似箇所を探索する画像上の座標の範囲を設定する。この設定ではさらに、探索する際のテンプレートと照会するテンプレートの代表点、たとえば下端中央の範囲や、テンプレートと照会する際の画像を切り抜く範囲である幅と高さ、さらには、幅と高さを決める縮尺も決定する。この設定ではさらに、類似箇所との照会方法によって、探索範囲の中の照会処理を行う点の間隔も設定する。代表点は、ステップS703において測距された距離に対して、車両の挙動情報から、類似箇所を探索する画像と、物体検知S702と物体測距S703を行った画像の撮像時刻の時間で、物体が静止していた場合にどの程度接近や離間したのかを想定した位置を中心に設定する。
 ステップS706では、S705で設定された探索範囲を対象として、S704で作成したテンプレートとの類似箇所を探索する。探索処理の対象となる画像は、S702とS703で検知や測距された画像とは異なる時刻に撮像された画像である。速度算出部309は、探索して最も類似した箇所の画像座標を出力する。さらに、最も類似した箇所において、識別器を用いて物体の種別を識別し、検知した物体の種別と一致しているか、または回帰推定を行い、検知された物体種別の座標を推定し座標が一致していることの検算も行う。この検算を行うことで、類似箇所の特定精度を上げることができる。また、この検算により、類似箇所を探索する画像において、遮蔽物や光の加減や露光の問題で、検知物体がカメラ画像上で見えない状態で、実際の物体の速度とは異なる速度を算出することを防ぐ。
 ステップS707では画角特定部307は、ステップS706で特定された類似箇所の画角を特定する。このステップS707では、類似箇所の画像座標から、カメラ幾何等を用いて、物体のカメラかの位置を特定し、奥行距離と横距離の比率から三角関数で画角を特定する。なお、カメラの姿勢変化や高さの変化の特定が困難で、カメラ幾何の誤差が懸念される場合には、光軸からの類似箇所の座標の距離から、画角を算出することで、カメラの姿勢変化や高さ変化を特定せずに画角を特定してもよい。ただし、カメラの姿勢変化や高さの変化を特定し算出した方がカメラ幾何計算による速度算出の精度が高まるので、カメラの姿勢や高さ変化の特定を行い、これらの特定に失敗する場合のみ光軸からの類似箇所の座標の距離からの画角算出を行い、この場合には速度の信頼度が下がったことをあわせて出力する。
 続くステップS708では、速度算出部309が速度算出処理を行う。速度算出部309は、ステップS707において特定した画角と、ステップS703における物体測距と車両挙動の情報から速度を算出する。車両挙動は、車両速度入力部310、車両舵角入力部311、およびヨーレート入力部312が取得する車両速度、車両舵角、およびヨーレートの情報を用いる。
 図8は、図7のステップS705およびステップS706の詳細を示すフローチャートである。まずステップS801では速度算出部309は、車両挙動情報を用いてフレーム間の移動量を特定する。具体的には速度算出部309は、テンプレートを作成した検知画像の撮影時刻と、類似箇所を探索する画像の撮像時刻との差を算出し、車両挙動情報に含まれる車両の速度との乗算により移動量を算出する。続くステップS802では速度算出部309は、検知画像上の、検知物体の高さ幅のピクセル数を特定する。
 続くステップS803では速度算出部309は、探索対象画像における検知画像上の物体の大きさ、すなわちピクセル数を推定する。ステップS803における処理の詳細は次のとおりである。ステップS803ではまず、カメラ幾何を用いて、検知画像上の物体の実サイズを特定する。次に、検知画像上の検知物体の距離に対して、ステップS801において特定したフレーム間の移動量だけ動いた物体の位置を特定し、この物体が静止していた場合の探索対象画像上の物体位置を特定する。物体が移動している場合については後述する。次に、特定した実サイズを有する物体が、探索画像上の特定した物体位置に存在する場合の、画像上の高さおよび幅のピクセル数を、カメラ幾何等を用い特定する。以上のとおりステップS803では、探索画像上の物体の高さおよび幅のピクセル数を推定する。
 特定した物体が静止していない場合は次のように処理する。検知時点で判明している物体の種別と向きの情報から、移動速度を仮定して、等速直線運動している物体としてもよい。仮定する移動速度は、衝突事故の頻度が高い、たとえば四輪車両であれば30~80km/h程度、自転車であれば10~20km/h程度、歩行者であれば5~8km/h程度の速度を仮定してもよい。速度を仮定することで、衝突確率の高い物体の類似箇所を短時間で探索できる可能性を向上させ、事故回避の成功率を高めることができる。
 また、検知した物体の方向から、物体の移動速度を仮定して、等速直線運動の物体を想定してもよい。その場合は、例えば8方向を特定して、左右方向、前後方向、そしてその間の斜め方向に応じて、奥行と横の距離の特定処理に、物体の奥行または横速度を仮定する。前後方向では、物体の想定する速度をすべて奥行方向であると想定し、向きに応じて速度値の符号を決定する。
 左右方向では物体の速度をすべて左右方向であると想定し、向きに応じて速度値の符号を決定する。斜め方向では、速度の1/√2倍の速度を奥行と横速度の大きさとして、向きに応じて速度値の符号を決定する。種別と向きから物体の速度を仮定することで、探索時間の短縮を行うことができる。また、物体の速度の仮定は、速度算出においても考慮することで、算出速度の精度を改善することができる。以上がステップS803の説明である。
 続くステップS804ではテンプレート作成部304は、テンプレートサイズを決定する。テンプレートサイズは、テンプレートとして特徴を抽出する際の、画像を拡大縮小するサイズである。テンプレート作成時と探索時に過度な拡大をしてしまうと、探索精度が落ちる恐れがあるため、テンプレートサイズは、ステップS802で特定したピクセル数とステップS803で推定したピクセル数に応じて、そして予め探索処理で設計したテンプレートサイズのバリエーションの中から決定する。
 具体的にはテンプレート作成部304は、ステップS802で特定したピクセル数と、ステップS803において推定したピクセル数のうち、少ないピクセル数に対して、あらかじめ用意したテンプレートサイズのバリエーションの近いものを選択する。一般的に車両100の前方に向けて取り付けられたカメラシステムでは、前進している際に衝突する事故の回避を行う目的で取り付けられている。前進している際は、ステップS803において用いられる探索対象画像は、ステップS802において用いられる検知画像よりも過去の画像である。そのため、探索対象画像の方が距離が遠くピクセル数が少ないため、ステップS803で推定したピクセル数を用いてテンプレートサイズを決定する。
 ステップS805ではテンプレート作成部は検知画像における検知枠の周辺を切り抜く。具体的にはテンプレート作成部は、ステップS804において決定したテンプレートサイズの縦横比に合わせて、高さまたは幅を広げ、また予め探索処理で用いる処理で想定される、物体の周辺の余白サイズに応じて広げた範囲を切り抜く。
 続くステップS806ではテンプレート作成部は、ステップS805において切り抜かれた画像を、ステップS804において決定したテンプレートサイズに拡大または縮小する。拡大縮小する際は、縦横の比率を維持するか、大きく変えずに処理する。続くステップS807ではテンプレート作成部は、ステップS804において拡大縮小された画像の明るさの調整やノイズ除去処理等の前処理を行う。続くステップS808ではテンプレート作成部は、ステップS807において前処理が施された画像から、テンプレートとする特徴量を抽出し、図8に示す処理を終了する。
 図9は図7のステップS708に示した速度算出処理の詳細を示すフローチャートである。まずステップS901では速度算出部309は、ステップS801において特定した移動量を用いて、ステップS803と同様に、検知された物体が探索対象画像における奥行距離を特定する。具体的には、ステップS801において特定したフレーム間の奥行方向の移動量を用いて、検知画像上の検知物体の奥行距離に対して、S801の移動量だけ動いた物体の位置を特定し、この物体が静止していた場合の探索対象画像の撮像時刻の物体奥行距離を特定する。
 ステップS902では速度算出部309は、ステップS901において特定した奥行距離と、ステップS707において特定した画角とを用いて、探索対象画像の類似箇所の横距離を特定する。具体的には、奥行距離をZとして、画角をθとすると、横距離Xは次の式1により算出される。
   X=Z・Tan(θ) ・・・(式1)
 続くステップS903では速度算出部309は、ステップS703で測距した奥行距離および横距離から、ステップS901~S902で特定した奥行距離と横距離をそれぞれ減算する。この演算により、検知画像の撮影時刻と探索対象画像の撮影時刻との間に移動した移動量を算出する。
 続くステップS904では速度算出部309は、ステップS903において算出された移動量を、検知画像と探索対象画像の時刻差である時間で微分することで速度を算出して図9に示す処理を終了する。なおフローチャートには記載していないが、算出された速度が検知された物体の種別に応じて、種別の想定される速度域の範囲に入っているか否かの検算を行い、大きく乖離がある場合は、速度の信頼度が低いことを出力してもよい。信頼度が低い場合は、車両制御を保留したり、制御量や制御の種類を限定することで、誤制御による弊害を抑制できる。
 図10~図16を参照して4つの具体例を説明する。まず、図10~図12を参照して第1の具体例を説明する。図10は、車両100(以下では「自車両」とも呼ぶ)と被衝突車両の衝突の様子を示す図である。図10では、車両100が図示下部から上部に向かって走行し、被衝突車両が図示右から左に走行する。
 符号1000は時刻T0の自車両、符号1001は時刻T1の自車両、符号1002はT2の自車両、符号1010は時刻T0の被衝突車両、符号1011は時刻T1の被衝突車両、符号1012はT2の被衝突車両である。図10では時刻T2において両車両が衝突する。自車両および被衝突車両は、おおよそ等速直進運動をしており、加減速や旋回をしていない。
 図11は図10の例を、自車両の位置を中心に、相対的な位置で被衝突車両の見た位置に置き換えた、自車中心の相対位置の図である。本実施の形態では、自車両の進行方向に対する被衝突車両の位置をカメラの画角と同様に「画角」と呼ぶ。画角1120は、自車両と時刻T0の被衝突車両1010とを結ぶ直線が、自車両の進行方向となす角度である。画角1121は、自車両と時刻T1の被衝突車両1011とを結ぶ直線が、自車両の進行方向となす角度である。画角1122は、自車両と時刻T2の被衝突車両1012とを結ぶ直線が、自車両の進行方向となす角度である。本実施の形態では、自車両と被衝突車両の走行軌跡が直交する前提なので、被衝突車両の横位置は、画角と奥行距離を用いて推定できる。
 図12は、図11における距離を説明する図である。図12における各車両の位置は図11と同様である。ただし時刻T2における被衝突車両は作図の都合により省略している。奥行距離Z1は、時刻T1における被衝突車両1011の、自車両から奥行き方向の距離である。横距離X1は、時刻T1における被衝突車両1011の、自車両から横方向の距離である。奥行距離Z0は、時刻T0における被衝突車両1010の、自車両から奥行き方向の距離である。横距離X0は、時刻T0における被衝突車両1010の、自車両から横方向の距離である。奥行差分距離Z10は、奥行距離Z0と奥行距離Z1の差分である。
 横距離X1、および奥行距離Z0は、ステップS703の処理で算出される。奥行差分距離Z10は、自車挙動から算出され、時刻T1とT0の時間がT10で、自車速度がV0の場合には、次の式2により算出される。
   Z10=V0・T10 ・・・(式2)
 横距離X0は、時刻T0の被衝突車両の角度1220を「θ0」とおくと、次の式3により算出される。
   X0=Z0・Tan(θ0)=(Z1+Z10)・Tan(θ0)・・・(式3)
 図13~図14を参照して第2の具体例を説明する。第2の具体例では、自車両と横断車両が衝突しない。図13は、直進する自車両と、自車両の前を横切る横断車両の走行軌跡を示す図である。1300は時刻T0の自車両、1301は時刻T1の自車両、1302はT2の自車両、1310は時刻T0の横断車両、1311は時刻T1の横断車両、1312はT2の横断車両である。横断車両は、自車両が交差点へ到達するよりも前に交差点を横断するため、横断車両は自車両に衝突しない。
 図14は、図13に示した例を、自車両の位置を中心に、相対的な位置で横断車両の見た位置に置き換えた、自車中心の相対位置の図である。画角1420は、自車両と時刻T0の横断車両1310とを結ぶ直線が、自車両の進行方向となす角度である。画角1421は、自車両と時刻T1の横断車両1311とを結ぶ直線が、自車両の進行方向となす角度である。
 奥行距離Z41は、時刻T1における横断車両1311の、自車両から奥行き方向の距離である。横距離X41は、時刻T1における横断車両1311の、自車両から横方向の距離である。奥行距離Z40は、時刻T0における横断車両1310の、自車両から奥行き方向の距離である。横距離X40は、時刻T0における横断車両1310の、自車両から横方向の距離である。奥行差分距離Z410は、奥行距離Z0と奥行距離Z1の差分である。
 横距離X41、および奥行距離Z40は、ステップS703の処理で算出される。奥行差分距離Z410は、自車挙動から算出され、時刻T41とT40の時間がT40で、自車速度がV4の場合には、次の式4により算出される。
   Z410=V4・T40 ・・・(式4)
 横距離X40は、時刻T0の被衝突車両の角度1220を「θ4」とおくと、次の式5により算出される。
   X40=Z40・Tan(θ4)=(Z41+Z410)・Tan(θ4)・・・(式5)
 図15を参照して第3の具体例を説明する。この第3の具体例では、算出速度の精度の改善、または短時間で速度を算出する効果を奏する状況を説明する。図15は、図11や図14のように、自車両100の位置を中心として、他の車両との相対的な位置関係を示している。符号1510は時刻T0における横断車両の相対位置であり、符号1511は時刻T1における横断車両の相対位置である。距離1521は、自車両のカメラシステム101における測距の上限の奥行距離である。
 時刻T1における横断車両1511は、カメラシステム101が測距可能な奥行き距離1521よりも手前に存在しているので、カメラシステム101は測距結果とともに速度も算出する。時刻T0における横断車両1510の奥行き距離は、前述の距離1521よりも若干遠いので測定可能であっても精度が低く、横断車両1510の位置の測距結果を用いて速度を算出すると、速度の精度が低く、誤ったブレーキ制御になる可能性がある。
 本実施の形態では、時刻T1における横断車両1511の測距結果と、自車挙動情報と、時刻T0における横断車両1510の画角の情報と、を用いて速度を算出することで、速度の算出精度を高めることができる。本実施の形態の利点は、溶断車両1511よりも近い位置に来てから速度を算出するよりも、速度算出の時刻を早めることができる点にあるともいえる。
 撮像画像の透視射影を奥行距離一定の面に対して行う場合は、同様に奥行距離一定の位置に平面上のキャリブレーションチャートを配置してキャリブレーションされる。この場合は、撮像画像の歪み補正の精度は奥行距離ごとにほぼ同じとなることが多い。画素の幾何精度が奥行距離毎にほぼ同じである場合に、本実施の形態におけるいずれの測距手段も原理上奥行距離が遠方になればなるほど、測距精度も悪くなる。
 なお図15における前述の説明では、測距の奥行距離は符号1521で示す距離で一定としたが、キャリブレーション方法、光学系、測距原理によって、異なる測距の範囲や、上限距離を定めてもよい。たとえば360°の周囲を撮像し、円筒や球面に射影した画像で処理する場合は、カメラからのユーグリッド距離で測距精度が変わるため、カメラからのユークリッド距離で測距上限を設定した方がよい場合がある。
 符号1522は、近傍側の測距限界距離を示す。単眼測距部303は物体と路面の接地点の画像座標とカメラ幾何で距離を算出するが、近傍は垂直画角の制約で、一定よりも近い距離では接地点が撮影画像に写らず測距できない。そのため、一定距離以内となると測距ができなくなる。符号1520は、カメラシステム101が測距可能な範囲を示す。範囲1520は遠方側の測距上限距離1521と、近傍側の測距の限界距離1522と、センサの画角上限に挟まれた領域である。
 カメラシステム101は、測定対象が範囲1520から出る際と、入る際のどちらかにおいて、範囲1520内のにおける測定対象の測距結果と、範囲1520外の測定対象の画角を用いて速度を算出することで、従来技術では速度算出ができなかった際の速度を算出することができる。また、測定対象が範囲1520から出る場合には、速度だけでなく、範囲1520内の測距結果と速度算出の際に算出した移動量とを足し合わせて、範囲1520外の時刻における測定対象の距離を算出してもよい。
 図16を参照して第4の具体例を説明する。第4の具体例では、第3の具体例と同様に、算出速度の精度の改善、または短時間で速度を算出する効果を奏する状況を説明する。図16は、図15などと同様に、自車両100の位置を中心として、他の車両との相対的な位置関係を示している。符号1610は時刻T0における横断車両の相対位置であり、符号1611は時刻T1における横断車両の相対位置である。符号1620は、少なくとも1つの撮像部で撮影可能な画角である、単眼視視野の画角を示す。符号1621は、左撮像部102および右撮像部103の視野が重なり、ステレオマッチングやステレオ検知を行う、ステレオ視の画角を示す。
 カメラシステム101は、ステレオ視画角1621の範囲内だけでなく、単眼視画角1620の範囲内でも測距可能である。しかし、単眼視画角1620の範囲内よりもステレオ視画角1621の範囲内の方が測距精度が高い。そのためカメラシステム101は、単眼視画角1620における測距結果をあえて使わずに、範囲が狭いステレオ視画角1621の測距結果を用いて速度算出をすることで、速度の精度を上げることができる。具体的には、ステレオ視の測距結果の位置1611と単眼視の検知結果の位置1610の画角と自車挙動を用いて速度を算出することで精度を改善することができる。
 測距の誤差には、偶発的に正にも負にも値が分散する偶然誤差と、系統的に正または負に平均値がオフセットする系統誤差とがある。系統誤差は、測距手段、センサ、および撮像部などが切り替わる際に傾向が変化する場合がある。これはセンサ間や撮像部間で、アライメントがとれていない場合に生じることがある。センサや撮像部が切り替わる際に、異なるセンサや撮像部の測距結果の差分から移動量を求めて速度を算出すると精度が悪くなる恐れがある。本実施の形態では、左撮像部102および右撮像部103のいずれか一方のみを用いた測距結果と画角とを用いて速度を算出することで、精度を改善することができる。
 図17は、図8のステップS804であるテンプレート選択処理の詳細を示すフローチャートである。まずステップS1701ではテンプレート作成部304は、ステップS802とS803とで算出された、検知画像のピクセル数と探索対象画像のピクセル数とのうち小さい方を選択し、このピクセル数を「基準ピクセル数」として決定する。続くステップS1702ではテンプレート作成部304は、基準ピクセル数が、あらかじめ定められた閾値である基準Aを超えるかを否かを判断し、超えると判断する場合はステップS1703に進み、超えないと判断する場合はステップS1704に進む。ステップS1703ではテンプレート作成部304は、1番目のテンプレートサイズであるテンプレートサイズ1をテンプレートサイズと決定する。
 続くステップS1704ではテンプレート作成部304は、基準ピクセル数が、あらかじめ定められた閾値である基準Bを超えるかを否かを判断し、超えると判断する場合はステップS1705に進み、超えないと判断する場合はステップS1706に進む。ステップS1705ではテンプレート作成部304は、2番目のテンプレートサイズであるテンプレートサイズ2をテンプレートサイズと決定する。ステップS1706ではテンプレート作成部304は、3番目のテンプレートサイズであるテンプレートサイズ3をテンプレートサイズと決定する。
 基準Aは基準Bよりも大きい。第1テンプレートサイズは第2テンプレートサイズよりも大きく、第2テンプレートサイズは第3テンプレートサイズよりも大きい。第1テンプレートサイズと基準Aは、同一または近い値である。第2テンプレートサイズと基準Bは、同一または近い値である。
 図18は、テンプレートのサイズを説明する図である。図18は第1の具体例に連動しており、時刻T0よりも時刻T1の方が自車両と他の車両の距離が近く、撮影画像には他車両が大きく撮影される。符号1801は、時刻T0に撮影された撮影画像における車両の検知箇所の画像である。符号1802は、時刻T1に撮影された撮影画像における車両の検知箇所の画像である。符号1811は、時刻T0に撮影された撮影画像において、類似箇所を探す際に参照される画像である。符号1812は、時刻T1に撮影された撮影画像において、テンプレートを作成する際の画像のピクセル数の例である。
 図18に示す例では、テンプレートの作成対象となる撮影画像1812における車両のピクセル数と、類似箇所を探索する対象となる撮影画像1811における車両のピクセル数のうち、前者のピクセル数が少ない。そのため、撮影画像1812における車両のピクセル数に近い予め定められたテンプレートサイズに合わせてテンプレートを作り、探索時の照会も行う。
 上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)カメラシステム101は、自車両100に搭載される。カメラシステム101は、移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を90度であると仮定する交差角度特定部1901Zと、カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得するセンシング情報取得部を含む左撮像部102および右撮像部103と、センシング結果に基づき第1時刻における検知物体との距離を算出する測距部である単眼測距部303およびステレオ測距部316と、を備える。カメラシステム101はさらに、撮影画像に基づき第1時刻とは異なる時刻である第2時刻における移動体の進行方向に対する検知物体の角度である画角を特定する画角特定部307と、交差角度、第1時刻における移動体との距離、第2時刻における移動体との角度、第1時刻と第2時刻の時間差、および移動体の速度に基づき、検知物体の速度を算出する速度算出部309と、を備える。そのため、距離情報が直接算出できない第2時刻のセンシング結果と、距離情報が直接算出できる第1時刻のセンシング結果とを用いて測定対象の速度を算出できる。
 たとえば、本実施の形態の構成によらず、たとえばステレオ測距部316が測定する異なる時刻の距離情報を用いて、測定対象の速度を算出することも可能である。しかしこの場合は、測定対象がステレオ視野に入った後に2回の測定周期を経なければ、2回の距離測定ができない。これに対して本実施の形態の構成によれば、測定対象がステレオ視野に入る前に画角を測定し、ステレオ視野に入った直後に1回だけ距離を測定できれば速度を算出できるため、早いタイミングで速度を算出できる。
(2)撮影画像には、左撮像部102が撮影する左画像202と、右撮像部103が撮影する右画像203とを含む。測距部は単眼測距部303とステレオ測距部316とから構成される。単眼測距部303は、左画像202または右画像203における検知物体の撮影位置に基づき検知物体との距離を算出する。ステレオ測距部316は、左画像202および右画像203における検知物体の視差に基づき検知物体との距離を算出する。そのため、距離情報が直接算出できない撮影画像における測定対象の情報も用いて、測定対象の速度を算出できる。
(3)交差角度特定部1901Zは、交差角度を90度と仮定する。2本の道路が交差する十字路では、道路同士が90度で直交することが多い。そのため、発生頻度が高い交差角度が90度のケースに限定することで、交差角度を特定する処理を省いて処理を高速化できる。
(4)画角特定部307は、ある時刻における撮影画像から移動体の画像情報を取得し、別な時刻における撮影画像に撮影された移動体の位置から画角を特定する。そのため、ミリ波センサなどの距離を直接に測定できるセンサのセンシング結果を用いることなく、測定対象の速度を算出できる。
(5)カメラシステム101は、図8や図17を参照して説明したように、ある時刻における撮影画像における移動体のピクセル数、および別の時刻における撮影画像に撮影されると想定される移動体のピクセル数のうち、少ない方のピクセル数に基づきマッチング用テンプレートを作成するテンプレート作成部304を備える。画角特定部307は、テンプレート作成部304が作成したテンプレートを用いて撮影画像を探索することで画角を特定する。そのため、テンプレートマッチングにおける誤マッチングを減らすことができる。
(6)画角特定部307は、測距部であるステレオ測距部316が測距可能な領域である測距可能領域の外側に存在する検知物体が撮影された撮影画像に基づき画角を特定する。そのため、ステレオ測距部316が使用する、ある時刻における左画像202および右画像203に加えて、距離測定が不可能な別時刻に撮影された左画像202または右画像203を利用して、測定対象の速度を算出できる。
(7)第1時刻は第2時刻よりも遅い時刻である。そのため、測定対象が無限遠から車両100に近づいてくる場合のように、遠くて正確な距離が測定できない状態が続く場合には、先に画角を測定し、その後に測定対象がより近づいてから距離を測定することで、高精度にかつ早いタイミングで速度を算出できる。
(8)第1時刻は第2時刻よりも早い時刻である。そのため、測定対象が車両100から遠ざかる場合のように、先に距離を測定し、その後に画角を測定することで、第2時刻やそれ以降では距離情報が得られないにもかかわらず、測定対象の速度を算出できる。
(9)撮影画像は、左撮像部102が撮像する左画像202と、右撮像部103が撮像する右画像203とを含む。図1を参照して説明したように、左撮像部102の視野、および右撮像部103の視野は、ステレオ視野において重複する。ステレオ測距部316は、左画像202および右画像203におけるステレオ視野に存在する検知物体の視差に基づき検知物体との距離を算出する。画角特定部307は、左画像202または右画像203におけるステレオ視野ではない領域、すなわち図2の左単眼領域204Lや右単眼領域204Rに存在する検知物体に基づき画角を特定する。そのため、ステレオ領域204Sで高精度に距離を測定し、単眼領域で画角を算出することで、高精度に早いタイミングで速度を算出できる。
(10)撮影画像は、左撮像部102が撮像する第1画像であり、ステレオ測距部316は、第1画像における検知物体の撮影位置に基づき検知物体との距離を算出する。
(変形例1)
 上述した第1の実施の形態におけるカメラシステム101は、左撮像部102および右撮像部103を備えた。しかしカメラシステム101は撮像部を有さず、カメラシステム101の外部に存在する撮像部から撮影画像を取得するセンシング結果取得部を備えてもよい。
 図19は、変形例1におけるカメラシステム101Aの機能構成図である。図3との相違点は、左撮像部102および右撮像部103の代わりにセンシング結果取得部110を備える点である。センシング結果取得部110は、左撮像部102および右撮像部103からセンシング結果である左画像202および右画像203を取得し、カメラシステム101Aが備える他の機能ブロックに出力する。なお第1の実施の形態では、センシング結果取得部110の機能は左撮像部102および右撮像部103に含まれていた。この変形例1によれば、カメラシステム101Aが撮像部を含まないため、任意の様々な撮像装置と組み合わせて使用できる。
(変形例2)
 上述した第1の実施の形態におけるカメラシステム101は、左撮像部102および右撮像部103を備えたが、一方の撮像部をミリ波センサと入れ替えてもよい。この場合は、ミリ波センサによる測距結果と、単眼カメラにおける類似箇所の探索および画角の特定とを用いて、対象物の速度を算出する。その際に、単眼カメラとミリ波センサの車両100への取り付け位置を考慮する必要があり、画角を算出する単眼カメラを基点として、測距結果から単眼カメラからミリ波センサの距離を差し引くことで変換する。なお本変形例は、前述の変形例1と組み合わせてもよい。
 図20は、変形例2におけるカメラシステム101Bの機能構成図である。図3との相違点は、左撮像部102および右撮像部103の代わりにセンシング結果取得部110を備える点である。なお本変形例ではカメラシステム101Bは、ステレオマッチング部301、テンプレート作成部304、ステレオ検知部308、およびステレオ測距部316を備えなくてもよいが、図20ではカメラシステム101Bに2台のカメラが接続された場合を考慮してこれらの構成を残している。本変形例では、ミリ波センサ103Rのセンシング結果から移動体と想定される物体を検出し、車両100と物体の位置関係に基づき撮影画像においてマッチングを行う。
 本変形例によれば、次の作用効果が得られる。
(11)センシング結果は、撮像部が撮像する撮影画像と、距離センサが計測する距離情報とを含む。測距部は、距離情報を検知物体との距離とする。そのため、ミリ波センサとカメラの組合せに対しても、第1の実施の形態において説明したた手法を組み合わせることができる。この組み合わせは、ミリ波センサによる測定が不可能な範囲をカメラで撮影可能な場合に効果がある。
(変形例3)
 上述した第1の実施の形態におけるカメラシステム101は、左撮像部102および右撮像部103の2つの撮像部を有したが、1つの撮像部のみを備えてもよい。この場合はカメラシステム101は、ステレオマッチング部301、ステレオ検知部308、およびステレオ測距部316を備えなくてもよく、単眼測距部303が測距する。
 この変形例3によれば、次の作用効果が得られる。
(12)撮影画像は、左撮像部102が撮像する第1画像である。単眼測距部303は、第1画像における検知物体の撮影位置に基づき検知物体との距離を算出する。そのため、1台のカメラが撮影する異なる時刻の撮影画像を用いて、距離情報が直接算出できない第2時刻のセンシング結果と、距離情報が直接算出できる第1時刻のセンシング結果とを用いて測定対象の速度を算出できる。換言すると、センシング情報が1台のカメラが撮影する複数の撮影画像であっても、早期に測定対象の速度を算出できる。
―第2の実施の形態―
 図21~図22を参照して、演算装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、自車と横断車両の進行路が直交しない場合を考慮する点で、第1の実施の形態と異なる。
 図21は、第2の実施の形態に係るカメラシステム101Aが有する機能を示す機能ブロック図である。第1の実施の形態におけるカメラシステム101との相違点は、種別識別部317の代わりに交差角度特定部1901を備える点である。車両100には、GPS1903と地図情報1904も搭載され、位置特定装置1903および地図情報1904は交差角度特定部1901に接続される。
 位置特定装置1903は、衛星航法システムを構成する複数の衛星から電波を受信し、その電波に含まれる信号を解析することで車両100の位置、すなわち緯度と経度を算出する。位置特定装置1903は、算出した緯度と経度を交差角度特定部1901に出力する。
 地図情報1904は、道路の沿線方向を算出可能な情報を含む地図データベースである。地図情報1904はたとえば、交差点や道路の端点を示すノードと、ノード同士を接続するリンクの情報を含む。ノードの情報には、その緯度と経度の組合せの情報を含む。リンクの情報には、接続対象となる2つのノードの識別情報を含み、さらに屈曲点や通過点を示す緯度と経度の情報を複数含んでもよい。リンクの情報には、リンクの沿線方向を示す情報、たとえば北を0度とする0~180度の情報が含まれてもよい。
 交差角度特定部1901は、自車両100の進行方向と周辺を走行する車両の進行方向とが交差する角度である交差角度φを特定する。ただし交差角度φは、直交からのずれ分を示す値であり、2つの車両の進行方向が直交する場合には交差角度φはゼロである。交差角度特定部1901はたとえば、まず位置特定装置1903から取得する位置情報を用いて、最新の車両100の位置情報と、位置情報の微分から進行方向の情報とを得る。次に交差角度特定部1901は、地図情報1904を参照して車両100の進行方向に存在する交差点において、車両100が走行するリンクと他のリンクとが交わる角度を特定する。
 速度算出部1904は、交差角度特定部1901が特定する交差角度と、単眼測距部303またはステレオ測距部316が特定する距離と、自車の車速、操舵角、およびヨーレートとから、速度を算出する。詳しくは後述する。
 図22は、速度算出部1904による速度の算出方法を示す図である。符号2000は時刻T0における自車両100を示し、符号2001は時刻T1における自車両100を示す。符号2010は時刻T0における横断車両を示し、符号2011は時刻T1における横断車両を示す。画角θは、自車両100と時刻T0の被衝突車両2010とを結ぶ直線が、自車両の進行方向となす角度である。この画角の定義は第1の実施の形態と同様である。角度φは、自車両100と横断車両が交差する角度である。なお角度φは、第1の実施の形態ではゼロ度に固定されていた。
 奥行距離z9は、時刻T0から時刻T1に自車両100が走行した距離である。奥行距離z8は、時刻T1における自車両2001から交差点までの距離である。なお、奥行距離z9と奥行距離z8との和を「奥行距離z98」と呼ぶ。奥行距離z5は、時刻T0における自車両100から横断車両2010までの奥行距離である。横距離x5は、時刻T0における自車両100と横断車両2010との図示横方向の距離である。横距離x5は次の式6を用いて算出され、奥行距離z5は次の式7を用いて算出される。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 ただし式6および式7における「θ’」は、前述のθと次に示す数8の関係にある。
   θ’=90-θ ・・・(式8)
 奥行距離z9は、自車両100の奥行方向の速度と、時刻T0から時刻T1までの時間差の積で求まる。自車両100の奥行方向の速度は、自車速度と舵角とヨーレートより求められる。舵角とヨーレートが0で直進している場合は、自車速度が奥行方向の速度である。奥行距離Z8は、単眼測距部303またはステレオ測距部316で特定した距離の奥行成分である。角度θは、画角特定部307において特定された時刻T0の自車両のカメラからみた横断車両の画角である。式6と式7を用いることで、時刻T0の距離を直接観測せずに特定し、移動量から速度を算出することができる。
 上述した第2の実施の形態によれば、次の作用効果が得られる。
(13)交差角度特定部1901は、位置特定装置1903が取得する移動体の位置情報と、地図情報1904に基づき交差角度を算出する。そのため、車両100の位置や進行方向に基づき、より確かな交差角度を算出できる。
(第2の実施の形態の変形例)
 交差角度特定部1901は、検知された部分の物体の識別結果や、ステレオマッチング部301の三次元点群情報から、横断する車両の向きを特定することで交差角を算出してもよい。交差角度特定部1901はたとえば、識別器と横断車両の写る画像上の画角から、交差角度を特定する。仮に直交に近い角度で交差する場合は、横断車両の写る角度に応じて、車両の斜め前を角度が写る。例えば45°であれば、前面と側面がそれぞれ315°と45°の角度で写る。識別器で識別された車両の向きが、画角により直交に近い角度で交差する場合の向きに対して、どの程度角度差があるかが、自車と横断車両の交差する角度となる。また例えば、ステレオマッチングにより得られた視差は三次元点群となり、横断車両の前面と側面も、点群が面として検出できる。この面の向きより車両の進行方向を特定し、自車と横断車両の交差する交差角度を算出してもよい。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード等の記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 上述した各実施の形態および変形例において、機能ブロックの構成は一例に過ぎない。別々の機能ブロックとして示したいくつかの機能構成を一体に構成してもよいし、1つの機能ブロック図で表した構成を2以上の機能に分割してもよい。また各機能ブロックが有する機能の一部を他の機能ブロックが備える構成としてもよい。
 上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
101、101A…カメラシステム
102…左撮像部
103…右撮像部
301…ステレオマッチング部
302…単眼検知部
303…単眼測距部
304…テンプレート作成部
306…類似箇所探索部
307…画角特定部
308…ステレオ検知部
309、1904…速度算出部
1901、1901Z…交差角度特定部
1904…地図情報

Claims (13)

  1.  移動体に搭載される演算装置であって、
     前記移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を特定する交差角度特定部と、
     カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得するセンシング情報取得部と、
     前記センシング結果に基づき第1時刻における前記検知物体との距離を算出する測距部と、
     前記撮影画像に基づき第2時刻における前記移動体の進行方向に対する角度である画角を特定する画角特定部と、
     前記交差角度、前記第1時刻における前記移動体との距離、前記第2時刻における前記移動体との角度、前記第1時刻と前記第2時刻の時間差、および前記移動体の速度に基づき、前記検知物体の速度を算出する速度算出部と、を備える演算装置。
  2.  請求項1に記載の演算装置において、
     前記撮影画像は、第1撮像部が撮像する第1画像と、第2撮像部が撮像する第2画像とを含み、
     前記測距部は、前記第1画像または前記第2画像における前記検知物体の撮影位置に基づき前記検知物体との距離を算出する、または前記第1画像および前記第2画像における前記検知物体の視差に基づき前記検知物体との距離を算出する、演算装置。
  3.  請求項1に記載の演算装置において、
     前記センシング結果は、撮像部が撮像する前記撮影画像と、距離センサが計測する距離情報とを含み、
     前記測距部は、前記距離情報を前記検知物体との距離とする、演算装置。
  4.  請求項1に記載の演算装置において、
     前記交差角度特定部は、前記交差角度を90度と仮定する、演算装置。
  5.  請求項1に記載の演算装置において、
     前記交差角度特定部は、前記移動体の位置情報と地図情報に基づき前記交差角度を算出する、演算装置。
  6.  請求項1に記載の演算装置において、
     前記画角特定部は、前記第1時刻における前記撮影画像から前記移動体の画像情報を取得し、前記第2時刻における前記撮影画像に撮影された前記移動体の位置から前記画角を特定する、演算装置。
  7.  請求項6に記載の演算装置において、
     前記第1時刻における前記撮影画像における前記移動体のピクセル数、および前記第2時刻における前記撮影画像に撮影されると想定される前記移動体のピクセル数のうち、少ない方のピクセル数に基づきマッチング用テンプレートを作成するテンプレート作成部をさらに備え、
     前記画角特定部は、前記マッチング用テンプレートを用いて前記第2時刻における前記撮影画像を探索することで前記画角を特定する、演算装置。
  8.  請求項1に記載の演算装置において、
     前記画角特定部は、前記測距部が測距可能な領域である測距可能領域の外側に存在する前記検知物体が撮影された前記撮影画像に基づき前記画角を特定する、演算装置。
  9.  請求項8に記載の演算装置において、
     前記第1時刻は前記第2時刻よりも遅い時刻である、演算装置。
  10.  請求項8に記載の演算装置において、
     前記第1時刻は前記第2時刻よりも早い時刻である、演算装置。
  11.  請求項8に記載の演算装置において、
     前記撮影画像は、第1撮像部が撮像する第1画像と、第2撮像部が撮像する第2画像とを含み、
     前記第1撮像部の視野、および前記第2撮像部の視野は、ステレオ視野において重複し、
     前記測距部は、前記第1画像および前記第2画像における前記ステレオ視野に存在する前記検知物体の視差に基づき前記検知物体との距離を算出し、
     前記画角特定部は、前記第1画像における前記ステレオ視野ではない領域に存在する前記検知物体に基づき前記画角を特定する、演算装置。
  12.  請求項1に記載の演算装置において、
     前記撮影画像は、第1撮像部が撮像する第1画像を含み、
     前記測距部は、前記第1画像における前記検知物体の撮影位置に基づき前記検知物体との距離を算出する、演算装置。
  13.  移動体に搭載される演算装置が実行する速度算出方法であって、
     前記移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を特定することと、
     カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得することと、
     前記センシング結果に基づき第1時刻における前記検知物体との距離を算出することと、
     前記撮影画像に基づき第2時刻における前記移動体の進行方向に対する角度である画角を特定することと、
     前記交差角度、前記第1時刻における前記移動体との距離、前記第2時刻における前記移動体との角度、前記第1時刻と前記第2時刻の時間差、および前記移動体の速度に基づき、前記検知物体の速度を算出することと、を含む速度算出方法。
     
PCT/JP2022/020714 2021-06-25 2022-05-18 演算装置、速度算出方法 WO2022270183A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE112022001636.1T DE112022001636T5 (de) 2021-06-25 2022-05-18 Rechenvorrichtung und geschwindigkeitsberechnungsverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021105309A JP2023003924A (ja) 2021-06-25 2021-06-25 演算装置、速度算出方法
JP2021-105309 2021-06-25

Publications (1)

Publication Number Publication Date
WO2022270183A1 true WO2022270183A1 (ja) 2022-12-29

Family

ID=84544511

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/020714 WO2022270183A1 (ja) 2021-06-25 2022-05-18 演算装置、速度算出方法

Country Status (3)

Country Link
JP (1) JP2023003924A (ja)
DE (1) DE112022001636T5 (ja)
WO (1) WO2022270183A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187974A (ja) * 1996-12-19 1998-07-21 Matsushita Electric Ind Co Ltd 物流計測装置
JP2009150862A (ja) * 2007-11-30 2009-07-09 Nissan Motor Co Ltd 距離計測装置、距離計測方法および車両
US20100066588A1 (en) * 2008-09-17 2010-03-18 Altek Corporation Image pickup device for detecting moving speed of shot object and method thereof
CN110556003A (zh) * 2019-08-27 2019-12-10 精英数智科技股份有限公司 无轨胶轮车速度的监控方法、装置、设备和存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6459659B2 (ja) 2014-03-18 2019-01-30 株式会社リコー 画像処理装置、画像処理方法、運転支援システム、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187974A (ja) * 1996-12-19 1998-07-21 Matsushita Electric Ind Co Ltd 物流計測装置
JP2009150862A (ja) * 2007-11-30 2009-07-09 Nissan Motor Co Ltd 距離計測装置、距離計測方法および車両
US20100066588A1 (en) * 2008-09-17 2010-03-18 Altek Corporation Image pickup device for detecting moving speed of shot object and method thereof
CN110556003A (zh) * 2019-08-27 2019-12-10 精英数智科技股份有限公司 无轨胶轮车速度的监控方法、装置、设备和存储介质

Also Published As

Publication number Publication date
DE112022001636T5 (de) 2024-01-04
JP2023003924A (ja) 2023-01-17

Similar Documents

Publication Publication Date Title
CN112292711B (zh) 关联lidar数据和图像数据
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
US10762643B2 (en) Method for evaluating image data of a vehicle camera
US10909395B2 (en) Object detection apparatus
US8594378B2 (en) 3D object detecting apparatus and 3D object detecting method
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
Nedevschi et al. High accuracy stereovision approach for obstacle detection on non-planar roads
KR101551026B1 (ko) 차량 검출 방법
EP3324359B1 (en) Image processing device and image processing method
US10832428B2 (en) Method and apparatus for estimating a range of a moving object
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
Leu et al. High speed stereo vision based automotive collision warning system
KR102003387B1 (ko) 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
US10789489B2 (en) Vehicle exterior environment recognition apparatus
WO2022270183A1 (ja) 演算装置、速度算出方法
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP7404173B2 (ja) 画像処理装置
JP7293100B2 (ja) カメラシステム
JP7064400B2 (ja) 物体検知装置
Nedevschi et al. Stereovision-based sensor for intersection assistance
Hwang et al. Vehicle detection system design based on stereo vision sensors
WO2021161655A1 (ja) 画像処理装置
US11010625B2 (en) Vehicle exterior environment recognition apparatus and method of recognizing exterior environment outside vehicle
JP7334489B2 (ja) 位置推定装置及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22828102

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112022001636

Country of ref document: DE