WO2006121088A1 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
WO2006121088A1
WO2006121088A1 PCT/JP2006/309420 JP2006309420W WO2006121088A1 WO 2006121088 A1 WO2006121088 A1 WO 2006121088A1 JP 2006309420 W JP2006309420 W JP 2006309420W WO 2006121088 A1 WO2006121088 A1 WO 2006121088A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
image processing
distance
imaging
Prior art date
Application number
PCT/JP2006/309420
Other languages
English (en)
French (fr)
Inventor
Hidekazu Iwaki
Akio Kosaka
Takashi Miyoshi
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2005137848A external-priority patent/JP2006318059A/ja
Priority claimed from JP2005137852A external-priority patent/JP2006318062A/ja
Priority claimed from JP2005145824A external-priority patent/JP2006322795A/ja
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP06746230A priority Critical patent/EP1901225A1/en
Publication of WO2006121088A1 publication Critical patent/WO2006121088A1/ja
Priority to US11/936,641 priority patent/US20080089557A1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9329Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles cooperating with reflectors or transponders

Definitions

  • Image processing apparatus image processing method, and image processing program
  • the present invention relates to an image processing apparatus, an image processing method, and an image processing program that perform image processing on an image generated by imaging a predetermined visual field.
  • an inter-vehicle distance detection device that is mounted on a vehicle such as an automobile and that processes an image obtained by imaging a preceding vehicle that travels ahead of the host vehicle and detects the distance from the host vehicle to the preceding vehicle.
  • This inter-vehicle distance detection device sets a plurality of distance measurement windows at predetermined positions in the image in order to capture the preceding vehicle on the image, and processes the image in each of the set distance measurement windows to arbitrarily set the distance measurement window.
  • the distance to the target object is calculated, and the imaging position of the preceding vehicle is recognized based on the calculated result and the position information of the distance measurement window.
  • the traveling direction of a vehicle is imaged for the purpose of detecting the road surface condition in the traveling direction when the host vehicle is traveling, and a predetermined object is recognized from the captured image.
  • the captured image is used to recognize a road segment line such as a white line and a road segment zone such as a median strip on the road on which the vehicle is traveling.
  • Patent Document 1 Japanese Patent No. 2635246
  • Patent Document 2 Japanese Patent No. 3290318
  • the present invention has been made in view of the above, and when processing a captured image and calculating a distance to a predetermined object such as a preceding vehicle, the processing load is reduced and high speed is achieved.
  • Another object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program that can output distance information and can process various information included in an image to be captured in a multifaceted manner.
  • an image processing apparatus generates an image by imaging a predetermined field of view, and the imaging unit generates the image.
  • a processing region setting unit that sets a region to be processed in the image; and a processing calculation unit that performs a predetermined processing calculation on the region set by the processing region setting unit.
  • the processing area setting means has a calculation range setting means for setting a calculation range for calculating the distance to the object based on the identification result of the identification means.
  • the processing calculation means may include a distance calculation means for performing a distance calculation in the calculation range set by the calculation range setting means.
  • the identification unit is configured to, based on the image signal group, vertical direction information indicating a vertical boundary in the visual field of the object and a horizontal direction in the visual field of the object.
  • the horizontal direction information indicating the boundary may be obtained, and the region occupied by the object in the field of view may be identified by combining the vertical direction information and the horizontal direction information.
  • the identification unit may identify the type of the object based on a region occupied by the object in the visual field.
  • the calculation range setting means is based on an area occupied by a predetermined type of object in the visual field among the types of the object identified by the identification means. V, and may be characterized by setting the calculation range! /.
  • the calculation range setting unit sets the calculation range corresponding to a region obtained by adding a predetermined margin region to a region occupied by the object identified by the identification unit in the visual field. You may do that.
  • the imaging means includes a first group of image signals captured through a first optical path, and a second group of image signals captured through a second optical path.
  • the processing calculation means detects an image signal that matches an arbitrary image signal of the first image signal group from the second image signal group, and the arbitrary image signal in the detected image signal is detected.
  • the distance to the object may be calculated based on the amount of movement of the image signal force.
  • the identification means may be configured such that the object is within the field of view based on one of the first image signal group and the second image signal group. Even if the area occupied and the type of the object are identified.
  • the distances from the imaging positions captured by the imaging means to all or some of the constituent points constituting the image are calculated, and the calculated distances are calculated.
  • Distance information generating means for generating the included distance information; and processing selection means for selecting an image processing technique corresponding to the distance information generated by the distance information generating means from a plurality of image processing techniques.
  • the processing operation means has image processing means for performing image processing on the image by applying the image processing method selected by the processing selection means.
  • the processing region setting unit generates a distance image formed by superimposing the distance information generated by the distance information generating unit on the image, and the generated distance image
  • a distance image generating means for setting a different closed region for each set of constituent points of the image in which the distance of the imaging position force is within a predetermined range.
  • the processing selection unit may select an image processing method for each closed region set by the distance image generation unit! / ⁇ .
  • an object detection unit that detects a predetermined object for each closed region set by the distance image generation unit may be further provided.
  • a storage unit that stores an image generated by the imaging unit together with time information related to the image, and an object to be subjected to image processing is detected from the image captured by the imaging unit.
  • An object detection unit that performs imaging
  • a distance calculation unit that calculates a distance from an imaging position of the imaging unit to an object detected by the object detection unit, and an image stored at the storage unit, and is captured at different times
  • the at least two images are extracted, and the relative position of the object with respect to the moving object after a predetermined time has been predicted using the extracted at least two images and the distance to the object in each image.
  • a position prediction unit wherein the processing region setting unit sets a processing region for performing image processing based on a prediction result in the position prediction unit, and the processing calculation unit includes the processing unit It is assumed that there is an image processing means for performing predetermined image processing on the processing area set by the area setting means.
  • the image processing apparatus further includes model forming means for forming a three-dimensional space model projected onto the image using a prediction result in the position predicting means, and the processing region setting means includes the model
  • the processing area may be set by projecting the three-dimensional space model formed by the forming unit onto the image.
  • the image processing method may further include a process changing unit that changes a technique of image processing performed on the processing region set by the processing region setting unit.
  • the vehicle further includes a movement status detection unit that detects a movement status including a position or a speed of the moving body, and the position prediction unit includes a moving object detection unit for the moving object.
  • the position or speed of the moving body detected by the moving state detecting means may be used.
  • movement status detection means for detecting a movement status including the position of the moving body, and 3D map information including the periphery of the area in which the moving body moves are stored.
  • Map information storage means, and the position prediction means for the moving body When predicting the relative position of the object, it is assumed that the map information around the current position of the moving object detected by the movement status detection means is read from the map information storage means and referred to.
  • the information processing device further includes external information detection means for detecting external information outside the moving body, and the position prediction means predicts a relative position of the object with respect to the moving body.
  • external information detection means for detecting external information outside the moving body
  • the position prediction means predicts a relative position of the object with respect to the moving body.
  • information outside the moving body detected by the external information detecting means may be used.
  • the imaging means includes a pair of imaging optical systems and a pair of imaging elements that convert an optical signal output from each of the pair of imaging optical systems into an electrical signal. Good.
  • the imaging means includes a pair of light guiding optical systems and an imaging region for each light guiding optical system, and an optical signal guided by each light guiding optical system is an electrical signal in each imaging region. And an image sensor that converts to an image sensor.
  • the image processing apparatus may be mounted on a vehicle.
  • An image processing method sets an imaging step for capturing an image of a predetermined field of view and generating an image, and an area to be processed in the image generated in the imaging step. And a processing operation step for performing a predetermined processing operation on the region set in the processing region setting step.
  • the processing region setting step sets a calculation range for calculating a distance to the object based on the identification result of the identification step, and the processing calculation step includes The distance calculation in the calculation range set in the processing area setting step may be performed.
  • the distance from the imaging position imaged in the imaging step to all or some of the component points constituting the image is calculated, and the calculated distance is
  • a distance information generation step for generating the included distance information and an image processing method corresponding to the distance information generated in the distance information generation step is selected from a plurality of image processing methods.
  • a processing selection step, and the processing calculation step may perform image processing on the image by applying the image processing method selected in the processing selection step.
  • a storage step of storing the image generated in the imaging step together with time information related to the image, and an object to be subjected to image processing is detected from the image captured in the imaging step.
  • the object detection step, the distance calculation step for calculating the distance from the imaging position in the imaging step to the object when the object is detected in the object detection step, and the image stored in the storage step Among these, at least two images taken at different times are extracted, and the moving object after a predetermined time has elapsed using the extracted at least two images and the distance to the object in each image.
  • An image processing program is an image processing program for performing image processing on an image generated by an imaging unit that images a predetermined field of view and generates an image.
  • a processing region setting step for setting a region to be processed in the image, and a processing calculation step for performing a predetermined processing calculation on the region set in the processing region setting step.
  • the processing region setting step sets a calculation range for calculating a distance to the object based on the identification result of the identification step, and the processing calculation step
  • the distance calculation in the calculation range set in the processing area setting step may be performed.
  • the distance from the imaging position of the imaging unit to all or some of the constituent points constituting the image is calculated, and the distance including the calculated distance
  • a processing selection step of selecting an image processing method corresponding to the information from a plurality of image processing methods, and the processing calculation step applies the image processing method selected in the processing selection step and applies the image processing method.
  • Image processing may be performed on the image.
  • a storage step of storing an image generated by the imaging unit together with time information related to the image, and an object to be subjected to image processing is detected from the image captured by the imaging unit.
  • An object detection step and when the object is detected in the object detection step, a distance calculation step of calculating a distance from the imaging position of the imaging unit to the object, and an image stored in the storage step And extracting at least two images picked up at different times, and using the extracted at least two images and the distance to the target object in each image,
  • a position prediction step for predicting a relative position wherein the processing region setting step is a process for performing image processing based on a prediction result in the position prediction step.
  • a processing region may be set, and the processing calculation step may perform predetermined image processing on the processing region set in the processing region setting step.
  • the calculation processing load when processing a captured image and calculating a distance to a predetermined object such as a preceding vehicle, the calculation processing load can be reduced and distance information can be output at high speed. Further, it is possible to provide an image processing apparatus, an image processing method, and an image processing program that can process various information included in an image to be captured from various aspects.
  • FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a flowchart showing a processing procedure until the distance information is output in the image processing apparatus shown in FIG.
  • FIG. 3 is an explanatory diagram conceptually showing an imaging process using a stereo camera.
  • FIG. 4 is an explanatory diagram showing correspondence between left and right image regions before rectification processing.
  • FIG. 5 is an explanatory diagram showing the correspondence between the left and right image regions after the rectification process.
  • FIG. 6 is a flowchart showing a processing procedure of identification processing shown in FIG.
  • FIG. 7 is a diagram illustrating an example of an image captured by the image capturing unit of the image processing apparatus illustrated in FIG. 1.
  • FIG. 8 is a diagram illustrating an example of a vertical edge extraction filter.
  • FIG. 9 is a diagram illustrating an example of a horizontal edge extraction filter.
  • FIG. 10 is a diagram showing an example of the result of extracting edges by the vertical edge extraction filter shown in FIG. 8.
  • FIG. 11 is a diagram showing an example of a result of extracting edges by the horizontal edge extraction filter shown in FIG. 9.
  • FIG. 12 is a diagram showing the result of combining the edge extraction images shown in FIGS. 10 and 11.
  • FIG. 13 is a diagram illustrating an example of a result output by the region division processing illustrated in FIG. 6.
  • FIG. 14 is a diagram for explaining template matching performed in the object identification process shown in FIG. 6.
  • FIG. 15 is a diagram showing an example of a result output by the identification process shown in FIG.
  • FIG. 16 is a flowchart showing a processing procedure of a calculation range setting process shown in FIG.
  • FIG. 17 is a diagram for explaining processing for adding a margin area in the calculation range setting shown in FIG.
  • FIG. 18 is a diagram showing an example of a result output in the calculation range setting process shown in FIG.
  • FIG. 19 is a diagram showing an example of a result output by the distance calculation process shown in FIG. 2.
  • FIG. 20 is a time chart illustrating the timing of the process shown in FIG.
  • FIG. 21 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 22 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 3 of the present invention.
  • FIG. 23 is a flowchart showing an outline of an image processing method according to the third embodiment of the present invention.
  • FIG. 24 is a diagram showing an output example of a distance image.
  • FIG. 25 is a diagram showing a correspondence relationship of object recognition according to distance as an example of an image processing method to be selected.
  • FIG. 26 is a diagram showing a display example when image processing related to road detection is performed.
  • FIG. 27 is a diagram illustrating a display example when image processing related to white line detection is performed.
  • FIG. 28 is a diagram showing a display example when image processing related to vehicle detection is performed.
  • FIG. 29 is a diagram illustrating a display example when image processing related to person detection is performed.
  • FIG. 30 is a diagram illustrating a display example when image processing related to sign detection is performed.
  • FIG. 31] FIG. 31 is a diagram illustrating a display example when image processing regarding sky detection is performed.
  • FIG. 32 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 4 of the present invention.
  • FIG. 33 is a flowchart showing an outline of the image processing method according to the fourth embodiment of the present invention.
  • FIG. 34 is an explanatory diagram visually showing the prediction process of the future position of the vehicle.
  • FIG. 35 is a diagram showing a setting example of a processing area.
  • FIG. 36 is a diagram illustrating an example of image processing.
  • FIG. 37 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 5 of the present invention.
  • FIG. 38 is a flowchart showing an outline of the image processing method according to the fifth embodiment of the present invention.
  • FIG. 39 is an example of image output in the image processing apparatus according to Embodiment 5 of the present invention.
  • FIG. 40 is a diagram showing a formation example of a three-dimensional space model representing a range in which the host vehicle can travel.
  • FIG. 41 is a diagram showing a display example when a three-dimensional space model representing the own vehicle travelable area is projected on an image.
  • FIG. 42 is a diagram showing a formation example of a three-dimensional space model representing a preceding vehicle travelable area.
  • FIG. 43 is a diagram showing a display example when a three-dimensional space model representing the preceding vehicle travelable area is projected on the image.
  • FIG. 44 is a block diagram showing a configuration of an image processing apparatus according to a modification of the fifth embodiment of the present invention.
  • FIG. 45 is a block diagram showing a partial configuration of an image processing apparatus according to Embodiment 6 of the present invention.
  • FIG. 46 is a diagram illustrating an example of an image captured by the imaging unit illustrated in FIG. 45.
  • FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention.
  • An image processing device 1 shown in FIG. 1 is an electronic device, has a predetermined imaging field of view, captures an image corresponding to the imaging field of view, and generates an image signal group.
  • An image analysis unit 20 that analyzes the image signal group, a control unit 30 that controls the overall processing and operation of the image processing apparatus 1, an output unit 40 that outputs various information including distance information, and various types that include distance information.
  • a storage unit 50 for storing information.
  • the imaging unit 10, the image analysis unit 20, the output unit 40, and the storage unit 50 are electrically connected to the control unit 30. Note that this connection form includes not only wired but also wireless.
  • the imaging unit 10 is a compound-eye stereo camera, and includes a right camera 11a and a left camera l ib arranged side by side.
  • the right camera 11a includes a lens 12a, an image sensor 13a, an analog Z digital (AZD) converter 14a, and a frame memory 15a.
  • the lens 12a collects light with an arbitrary object force located within a predetermined imaging field on the imaging device 13a.
  • the imaging element 13a is an imaging element such as a CCD or CMOS, detects light from an object condensed by the lens 12a as an optical signal, converts it into an electrical signal that is an analog signal, and outputs it.
  • the A / D converter 14a converts the analog signal output from the image sensor 13a into a digital signal and outputs it.
  • the frame memory 15a stores the digital signal output from the AZD conversion unit 14a, and outputs a digital signal group corresponding to one captured image as image information that is an image signal group corresponding to the imaging field of view.
  • the left camera ib has a configuration similar to that of the right camera 11a, and includes a lens 12b, an image sensor 13b, an AZD conversion unit 14b, and a frame memory 15b. Each component of the left camera l ib has the same function as each corresponding component of the right camera 11a.
  • the lenses 12a and 12b as a pair of imaging optical systems provided in the imaging unit 10 are positioned apart from each other by a distance L with their optical axes parallel.
  • the image sensors 13a and 13b are located at a distance f on the optical axis from the lenses 12a and 12b, respectively.
  • the right camera 11a and the left camera l ib image the same object through different optical paths with different positional forces.
  • the lenses 12a and 12b are usually configured by combining a plurality of lenses, and are in a state where aberrations of the lens such as distortion are corrected satisfactorily.
  • the image analysis unit 20 includes a processing control unit 21 that controls image processing, an identification unit 22 that identifies an area occupied by the captured object in the imaging field and the type of the object, and the identification
  • the calculation range setting means 23 for setting the calculation range processed by the distance calculation unit 24 based on the result, the distance calculation unit 24 for calculating the distance to the imaged object by processing the image signal group, and the image analysis unit 20 And a memory 25 for temporarily storing various information output by each component.
  • the calculation range setting unit 23 forms part of the processing region setting unit 230 that sets a region to be processed in the image generated by the imaging unit 10.
  • the distance calculation unit 24 forms a part of a processing calculation unit 240 that performs a predetermined processing calculation on the processing region set by the processing region setting unit 230.
  • the distance calculation unit 24 detects a right image signal that matches an arbitrary left image signal in the left image signal group output from the left camera ib from the right image signal group output from the right camera 11a. Then, based on the amount of movement of the detected right image signal, which is the distance from the corresponding left image signal, the distance to the object located in the imaging field of view is calculated.
  • the calculation unit 21 superimposes the right image signal group generated by the right camera 11a and the left image signal group generated by the left camera ib on the basis of the position of the optical axis of each imaging optical system, An arbitrary left image signal in the left image signal group and a right image signal in the right image signal group that most closely matches the left image signal are detected, and on the image sensor from the corresponding left image signal to the right image signal.
  • the distance I from the imaging unit 10 to the vehicle C in Fig. 1 is calculated using the following formula (1) based on the principle of triangulation. Note that the movement amount I may be obtained based on the number of pixels of the image sensor and the pixel pitch.
  • the distance calculation unit 24 calculates a distance to an object corresponding to an arbitrary image signal within the calculation range, and creates distance information by associating the calculated distance to the object with the position of the object in the image.
  • the rectification is performed by calibrating the optical axis described in parallel stereo at an angle, calibrating that the focal lengths are different, the positional relationship between the image sensor and the lens is different, etc. It may be corrected by a case to realize parallel stereo by arithmetic processing.
  • the control unit 30 includes a CPU that executes a processing program stored in the storage unit 50, and performs imaging. Various processes and operations performed by the unit 10, the image analysis unit 20, the output unit 40, and the storage unit 50 are controlled.
  • the output unit 40 outputs various types of information including distance information.
  • the output unit 40 includes a display device such as a liquid crystal display or an organic EL (Electroluminescence) display, and displays various displayable information such as an image captured by the imaging unit 10 together with distance information.
  • a voice output device such as a speaker may be provided to output various types of voice information such as distance information and warnings based on distance information.
  • the storage unit 50 stores a ROM in which various types of information such as a program for starting a predetermined OS and an image processing program are stored in advance, arithmetic parameters for each process, various types of information input to and output from each component, and the like. RAM for storage.
  • the storage unit 50 includes image information 51 captured by the imaging unit 10, template information 52 used by the identification unit 22 to identify the type of the object, and information on the region and type of the object identified by the identification unit 22.
  • the identification information 53 and the distance information 54 calculated and created by the distance calculation unit 24 are stored.
  • the above-described image processing program includes a hard disk, a flexible disk, and a CD.
  • FIG. 2 is a flowchart showing a processing procedure until the image processing apparatus 1 outputs distance information corresponding to the captured image.
  • the imaging unit 10 performs an imaging process of imaging a predetermined visual field and outputting the generated image signal group as image information to the image analysis unit 20 (step S101). Specifically, the right camera 11a and the left camera l ib of the imaging unit 10 collect the region force light included in a predetermined viewing angle using the lenses 12a and 12b, respectively, under the control of the control unit 30. To do.
  • the lights collected by the lenses 12a and 12b are imaged on the surfaces of the image sensors 13a and 13b, respectively, and converted into electrical signals (analog signals).
  • the analog signals output from the image sensors 13a and 13b are converted into digital signals by the AZD converters 14a and 14b, respectively, and each of the converted digital signals is received by the frame memories 15a and 15b.
  • the digital signals temporarily stored in the frame memories 15a and 15b are sent to the image analysis unit 20 after a predetermined time has elapsed.
  • FIG. 3 is an explanatory diagram conceptually showing an imaging process using a compound-eye stereo camera.
  • the optical axis z of the right camera 11a and the optical axis z of the left camera l ib are shown in parallel. This a b
  • the point corresponding to point A in the left image area I corresponding to the left camera specific coordinate system is the right image area corresponding to the right camera specific coordinate system (right camera coordinate system). It exists on the line ⁇ (epipolar line) in I a.
  • the left camera l ib is used as a reference.
  • the right camera 1 la can be used as a reference on the contrary.
  • the identification unit 22 refers to the image information, identifies the area occupied by the predetermined object and the type of the object, and associates the identified object area with the type.
  • An identification process for creating the identification information is performed (step S103).
  • the calculation range setting unit 23 refers to the identification information and performs calculation range setting processing for setting a calculation range for performing distance calculation (step S 105).
  • the distance calculation unit 24 calculates the distance to the object based on the image signal group corresponding to the set calculation range, and the distance corresponding the calculated distance and the position of the object on the image.
  • a distance calculation process for generating information and outputting it to the control unit 30 is performed (step S107).
  • step S 107 the coordinate values of all or some of the pixel points in the field of view captured using the left and right camera coordinate systems are calculated. Prior to this, the calculation of the coordinate values in the left and right camera coordinate systems and the association between the coordinate values (corresponding point search) are performed. When three-dimensional reconstruction is performed by this corresponding point search, pixel points located on an arbitrary straight line that passes through the reference image are located on the same straight line even if the other image is present. Desirable (Epipolar restraint condition). However, this epipolar constraint is not always satisfied. For example, the stereo image region I shown in FIG.
  • a b b a exists on the line ⁇ .
  • FIG. 5 shows the correspondence between the left and right image areas after the rectification process. This figure
  • the search range can be narrowed down to the epipolar line a, so that the calculation amount required for the corresponding point search can be reduced.
  • a local region is provided near the pixel point of interest b, and a region similar to this local region is provided on the corresponding epipolar line ⁇ of the right image region I.
  • the local region of the right image region I is defined as Epipo a E a
  • the similarity used in the search for corresponding points includes the sum of absolute values of differences between pixel points in the local region (SAD: Sum of Absolute Difference) and the square of the difference between pixel points in the local region. Sum (SSD) or Normalized Cross Correlation (NCC) between pixel points in the local region can be applied.
  • SAD Sum of Absolute Difference
  • NCC Normalized Cross Correlation
  • control unit 30 outputs the distance information and predetermined distance information based on the distance information to the output unit 40 (step S109), and ends the series of processes.
  • the control unit 30 stores image information 51, identification information 53, and distance information 54, which are information generated in each processing step, in the storage unit 50 as needed.
  • the memory 25 temporarily stores information input / output in each processing step, and each component of the image analysis unit 20 inputs / outputs information via the memory 25.
  • the area occupied by a predetermined object is predicted based on the time-series identification information stored in the identification information 53, so that the identification process can be appropriately skipped and the processing cycle You may use high speed.
  • the series of processes described above is, for example, this The passenger force of the vehicle on which the image processing apparatus 1 is mounted is continuously repeated unless there is an instruction to end or interrupt the predetermined process.
  • FIG. 6 is a flowchart showing the processing procedure of identification processing.
  • the identification unit 22 refers to the image information generated by the imaging unit 10, and performs region division processing to divide the region into a region corresponding to the object and other regions (step S 122).
  • Performs object identification processing that identifies the type of the object creates identification information that associates the area and type of the identified object (step S124), outputs the identification information (step S126), and returns to step S103 .
  • the identification unit 22 extracts an edge that is a boundary of an arbitrary region based on an image captured by the right camera 11a or the left camera 1 lb of the imaging unit 10. An edge extracted image is generated. Specifically, for example, the identification unit 22 extracts edges using the edge extraction filters Fl and F2 illustrated in FIGS. 8 and 9 based on the image 17 illustrated in FIG. 7, and illustrated in FIGS. 10 and 11. Edge extracted images 22a and 22b are generated.
  • FIG. 8 is a diagram illustrating an example of a vertical edge extraction filter used by the identification unit 22.
  • the vertical edge extraction filter F1 shown in FIG. 8 is a 5 ⁇ 5 operator that simultaneously filters a 5 ⁇ 5 pixel area.
  • the vertical edge extraction filter F1 has no extraction sensitivity for the horizontal edge that has the highest extraction sensitivity with respect to the vertical edge.
  • FIG. 9 is a diagram illustrating an example of a horizontal edge extraction filter used by the identification unit 22.
  • the horizontal edge extraction filter F2 shown in Fig. 9 has the extraction sensitivity for the vertical edge, which has the highest extraction sensitivity for the horizontal edge.
  • FIG. 10 is a diagram showing the edges extracted from the image 17 by the identification unit 22 using the vertical edge extraction filter F1.
  • the edge indicated by the solid line indicates the vertical edge extracted by the vertical edge extraction filter F1
  • the edge indicated by the dotted line indicates the vertical edge extracted by the vertical edge extraction filter F1.
  • An edge other than the direction is shown. Note that horizontal edges that cannot be extracted by the vertical edge extraction filter F1 are not shown in the edge extraction image 22a.
  • FIG. 11 is a diagram showing edges extracted from the image 17 by the identification unit 22 by the lateral edge extraction filter F2.
  • the edge indicates the horizontal edge extracted by the horizontal edge extraction filter F2
  • the edge indicated by the dotted line indicates the edge other than the horizontal direction extracted by the horizontal edge extraction filter F2. Note that vertical edges that cannot be extracted by the horizontal edge extraction filter F2 are not shown in the edge extraction image 22b.
  • the identification unit 22 combines the edge extracted image 22a that is vertical information and the edge extracted image 22b that is horizontal information, and creates an edge integrated image 22c as shown in FIG. Further, the identification unit 22 is based on the edge integrated image 22c, and as shown in FIG. 13, the region division is an image obtained by dividing the region into a region surrounded by a closed curve created by the edge and other regions. Create image 2 2d. In the region-divided image 22d, regions Sa1, Sa2 and Sb, which are regions surrounded by a closed curve, are indicated by hatching.
  • the identification unit 22 recognizes the area surrounded by the closed curve as an area corresponding to a predetermined object based on the area division image, Identify the corresponding object type.
  • the identification unit 22 refers to a plurality of templates expressing a typical pattern of a predetermined object stored in the template information 52, sequentially compares the region corresponding to the object with the template, and has the highest correlation. Template matching is performed to identify an object represented by a template or a template showing a correlation coefficient equal to or greater than a predetermined value as an object corresponding to this area, and identification information that correlates the area and type of the identified object is performed. create.
  • the identification unit 22 sequentially superimposes templates on the regions Sal, Sa2, and Sb divided as regions corresponding to the objects in the region-divided image 22d.
  • the vehicle templates 52ecl and 52ec2 and the person template 52eh are selected as highly correlated templates.
  • the identification unit 22 identifies that the object corresponding to the areas Sal and Sa2 is a vehicle, and identifies that the object corresponding to the area Sb is a person.
  • the identification unit 22 creates identification information 53 a that associates the object region with the type.
  • the identification unit 22 may set individual labels for the vehicle areas Sac1, Sac2 and the person area Sbh created as identification information, and may recognize each area based on the set labels.
  • FIG. 16 are the flowcharts which show the process sequence of a calculation range setting process.
  • the calculation range setting unit 23 refers to the identification information, performs identification information processing for adding a predetermined margin area to the area corresponding to the object (step S 142), and adds this margin area.
  • the calculation range setting unit 23 makes room for the vehicle areas Sacl, Sac2 and the human area Sbh in the identification information 53a as needed.
  • the identification information 53b in which the areas are newly set as the vehicle areas Sacbl and Sacb2 and the human area Sbhb is created by adding the areas.
  • This marginal area absorbs a minute error related to the boundary part of the area division at the time of creating the area division image 22d, or the area for the movement and deformation of the object itself to be identified based on the time delay between the photographing and the processing. This area is added based on the purpose of absorbing correction.
  • the calculation range setting unit 23 sets the calculation ranges of the distance calculation for the areas Sacbl, Sacb2 and Sbhb of the identification information 53b as the calculation ranges 23acl, 23ac2 and 23bh, respectively.
  • FIG. 19 is a diagram showing an example of distance information 54a created by the distance calculation unit 24 corresponding to the calculation range information 23a shown in FIG. 18 based on the image 17 shown in FIG.
  • the distance information 54a represents a distance calculation result corresponding to the calculation ranges 23acl, 23ac2 and 23bh, respectively.
  • the distance calculation unit 24 divides the corresponding calculation range into predetermined matrix-like small areas, and the object corresponding to each divided small area, as shown in FIG. Show the result of calculating the average distance to the number!
  • the numerical value indicated by each distance calculation result is a numerical value representing the distance in a predetermined unit system, for example, a numerical value expressed in units of meters.
  • the distance calculation results 54acl, 54ac2 and 54bh represent the distances to the vehicles CI and C2 and the person HI in the image 17, respectively. This division of the matrix-like small area is based on the relationship between the distance calculation processing capability and the processing speed. You can set it based on the resolution of the object to be identified.
  • the image processing apparatus 1 extracts an area corresponding to a predetermined object from the image information, and performs a distance calculation only on the extracted area. Compared to a conventional image processing apparatus that performs distance calculation on all image signals of information, the load of distance calculation processing can be reduced and the time required for distance calculation can be shortened. As a result, the image processing apparatus 1 can shorten the processing time required to acquire the image and output the force / distance information, and output the distance information at high speed.
  • FIG. 20 is a time chart showing the timing of a series of processes shown in FIG. Imaging period Tl, identification period ⁇ 2, setting period ⁇ 3, calculation period ⁇ 4 and output period ⁇ 5 shown in Fig. 20 are the imaging process, identification process, calculation range setting process, distance calculation process and distance shown in Fig. 2, respectively. Corresponds to the time to execute each process of information output.
  • imaging processing is started at time tl, and distance information is output through a series of processing periods from imaging period T1 to output period T5.
  • the imaging process is started at time t2 without waiting for this output by the force nopline processing that starts processing after waiting for the output of the distance information of the first processing cycle.
  • the time t2 is the time when the imaging process of the first processing cycle is completed, and the imaging process of the first processing cycle and the imaging process of the second processing cycle are continuously performed.
  • the same process starts in the second process cycle immediately after the process ends in the first process cycle.
  • each process is executed at the same timing after the third process cycle, and a series of processes is repeated.
  • various methods can be applied to the image processing apparatus 1 as a method for speeding up the arithmetic processing. For example, it is possible to apply a technique that reduces the number of colors handled as image information and speeds up the arithmetic processing. This technique reduces the number of gradations handled by each of the RGB3 primary colors, and The number of data, which is the number of bits, can be reduced to speed up the arithmetic processing.
  • a technique of reducing the number of image signals handled as image information and speeding up the arithmetic processing can be applied.
  • This technique is, for example, a technique that extracts image signals from image information at predetermined intervals and reduces the number of image signals used for calculation processing, thereby speeding up the calculation processing. This is an effective method when there is no need to recognize.
  • the imaging region As a means for reducing the number of image signals handled as image information, it is effective to reduce the imaging region. For example, when the host vehicle travels on an expressway, it is important to detect preceding vehicles and obstacles that are relatively far away, and the need to detect objects at a relatively short distance is low. There are many. In this case, at the stage of capturing an image or processing the image, the image information is reduced by means such as masking the periphery of the imaging field of view, and the number of image signals used for the computation process is reduced to speed up the computation process. can do.
  • each of the two processing mechanisms is made to correspond to the right camera and the left camera, and based on the image information generated by the corresponding camera, the processing mechanisms of each system perform the identification process and the calculation range in parallel.
  • the setting process By executing the setting process, the repetition of the process can be accelerated.
  • the image information power is also extracted by dividing an area, and the type of the object is identified by template matching. Not only this method but also various area division methods and pattern identification methods can be applied.
  • Hough transform may be used, and the image information power may be a straight line.
  • a predetermined curve may be detected to extract the contour of the object.
  • the area may be divided using the clustering method.
  • feature points are extracted from a plurality of time-series image information images, corresponding feature points at different times are compared, and feature points having the same tendency are grouped and grouped. After determining that the surrounding area corresponds to the object to be noticed, identify the magnitude of the deformation of the distribution of the grouped feature points, and it is a rigid body such as a vehicle or a non-rigid body such as a person. Try to judge it.
  • an area corresponding to the road surface such as asphalt, soil, and gravel is roughly extracted in the image information, and a region having different characteristics appears in the road surface area.
  • the region may be determined as a region corresponding to the obstacle.
  • preprocessing such as region segmentation processing may be omitted, and the object may be identified only by template matching.
  • Embodiment 1 the image signal group from the imaging unit 10 is processed to detect the distance to the imaged object, but in this Embodiment 2, the object located within the imaging field of view is detected. Is detected by radar.
  • FIG. 21 is a block diagram showing the configuration of the image processing apparatus according to Embodiment 2 of the present invention.
  • An image processing apparatus 2 shown in FIG. 21 further includes a radar 260 and the image processing apparatus 1 according to the first embodiment.
  • the image analysis unit 220 includes a processing control unit 21, an identification unit 22, a calculation range setting unit 23 (a part of the processing region setting unit 230), and a memory 25. Further, a control unit 130 having a function of controlling the radar 260 is further provided in place of the control unit 30.
  • Other configurations are the same as those of the first embodiment, and the same components are denoted by the same reference numerals.
  • the radar 260 transmits a predetermined transmitted wave, receives the reflected wave reflected by the object surface, and based on the transmission state and the reception state, the radar 260 returns to the object that has reflected the transmitted wave. And the direction in which the object is located.
  • the radar 260 transmits the transmitted wave, the incident angle of the reflected wave, the reception intensity of the reflected wave, and transmits the transmitted wave before receiving the reflected wave.
  • the distance and direction to the object that reflected the transmitted wave is detected based on the time until transmission and the frequency change in the received wave and reflected wave.
  • the radar 260 outputs the distance to the object located in the imaging field of the imaging unit 10 to the control unit 130 together with the direction in which the object is located.
  • the radar 260 transmits, for example, laser light, infrared light, millimeter waves, microwaves, ultrasonic waves, and the like as transmission waves.
  • the distance is detected by the radar 260 instead of calculating the distance by processing the image information from the imaging unit 10, so that the distance information can be obtained at higher speed and with higher accuracy. Can be obtained.
  • the alignment between the positional relationship in the image signal group captured by the imaging unit 10 and the positional relationship in the detection range of the radar 260 is determined in advance as follows.
  • the image processing apparatus 2 performs imaging processing by the imaging unit 10 and detection processing by the radar 260 on an object having a known shape, and positions of the known objects processed by the imaging unit 10 and the radar 260, respectively. Ask for.
  • the image processing device 2 obtains the relationship between the positions of known objects processed by the imaging unit 10 and the radar 260 using the least square method, and the like in the image signal group captured by the imaging unit 10. Matching the positional relationship with the positional relationship in the detection range of the radar 260
  • the distance from the imaging point and the detection point to the image processing apparatus 2 If the distance is sufficiently far away, it can be considered that the imaging origin and the detection origin almost overlap. Furthermore, if the positional relationship in the image signal group captured by the imaging unit 10 and the positional relationship in the detection range of the radar 260 are accurately matched, the geometrical transformation causes a shift between the imaging origin and the detection origin. It is also possible to correct.
  • the radar detection points of the radar 260 are set at predetermined intervals in the pixel row where the image signals of the image signal group captured by the imaging unit 10 are positioned. Good.
  • each radar detection point is not set in this way, radar detection is performed on the same pixel row as each image signal using a primary interpolation method based on a plurality of radar detection points located in the vicinity of each image signal. Find the interpolation point of the point, and use this interpolation point to perform detection processing. You just have to do it.
  • FIG. 22 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 3 of the present invention.
  • the image processing apparatus 3 shown in the figure includes an imaging unit 10 that captures a predetermined field of view, an image analysis unit 320 that analyzes an image generated by the imaging unit 10, and a control unit 330 that controls the operation of the image processing apparatus 3. And an output unit 40 for displaying and outputting information such as images and characters, and a storage unit 350 for storing various data.
  • the same components as those of the image processing apparatus 1 according to the first embodiment are denoted by the same reference numerals.
  • the image analysis unit 320 obtains distance information including distances from the imaging unit 10 to all or some of the constituent points (pixel points) of the image included in the field of view captured by the imaging unit 10.
  • An image processing unit 323 that performs image processing using information and a distance image is provided.
  • the distance image generation unit 322 forms part of a processing region setting unit 3220 that sets a region to be processed in the image generated by the imaging unit 10.
  • the image processing unit 323 forms part of a processing calculation unit 3230 that performs a predetermined processing calculation on the processing region set by the processing region setting unit 3220.
  • the image analysis unit 320 has a function (calculation function) for calculating various parameters necessary for performing various processes to be described later, and a correction process (rectification function) as necessary when generating an image. It has a function to perform processing!
  • the control unit 330 selects, from among a plurality of image processing methods, an image processing method to be performed by the image processing unit 323 corresponding to distance information of all or some of the constituent points of the image. Part 331.
  • the storage unit 350 includes image data 351 picked up by the image pickup unit 10, distance information 352 of all or some constituent points of the image data 351, and image processing to be selected by the processing selection unit 331.
  • FIG. 23 shows an image processing method executed by the image processing apparatus 3 having the above configuration. This will be described in detail with reference to the flowchart shown.
  • the imaging unit 10 performs an imaging process for imaging a predetermined field of view and generating an image (step S301).
  • the distance information generation unit 321 in the image analysis unit 320 calculates the distances to all or some of the constituent points of the image, and all the calculated constituents.
  • Distance information including the distance to the culmination point or a part of the component points is generated (step S303). More specifically, the distance information generation unit 321 calculates the coordinate values of all or some of the pixel points in the field of view captured using the left and right camera coordinate systems. Subsequently, the distance information generation unit 321 calculates the distance R to the point at which the forefront force of the vehicle is also imaged using the calculated coordinate values (X, y, z) of the pixel points. Here, the position of the forefront of the vehicle in the camera coordinate system needs to be measured in advance. Thereafter, the distance information generation unit 321 generates distance information by associating the calculated coordinate values (X, y, z) and the distance R of all or some of the pixel points of the image with the corresponding image. Stored in the storage unit 350.
  • the distance image generation unit 322 generates a distance image by superimposing the distance information generated in step S303 on the image generated in step S301.
  • FIG. 24 is a diagram illustrating a display output example of the distance image in the output unit 40.
  • the distance image 301 shown in the figure represents the distance from the imaging unit 10 depending on the degree of shading, and is displayed darker as the distance increases.
  • the processing selection unit 331 in the control unit 30 performs image processing for each point in the image from the image processing method 353 stored in the storage unit 350 according to the distance information obtained in step S303.
  • the image processing method to be executed by the unit 323 is selected (step S307).
  • the image processing unit 323 performs image processing according to the image processing method selected by the processing selection unit 331 in step S307 (step S309).
  • the image processing unit 323 reads out the image processing method selected by the processing selection unit 331 from the storage unit 350, and performs image processing based on the read image processing method.
  • FIG. 25 is a diagram showing an example of an image processing method selected by the processing selection unit 331 according to the distance information.
  • the correspondence table 81 shown in the figure the object to be recognized according to the distance to all or some of the constituent points of the image calculated in step S303 and the predetermined target in each distance band are recognized. Shows the correspondence of the image processing methods that are actually applied.
  • an image processing technique applied by the image processing unit 323 corresponding to the distance information will be specifically described.
  • distance range 0 to 50 m For a set of pixel points whose distance from the imaging unit 10 is in the range of 0 to 50 m (hereinafter referred to as “distance range 0 to 50 m”). Performs road surface detection. When this road surface is detected, a set of pixel points in the distance range of 0 to 50 m is treated as one closed region, and it is checked whether or not this closed region forms an image corresponding to the road surface. More specifically, a pattern relating to the road surface stored in advance in the template 354 of the storage unit 350, and a pattern in which pixel point forces in the distance range of 0 to 50 m among the pixel points in the distance image 301 are also configured.
  • the correlation between the two is examined by comparing (template matching).
  • template matching when a pattern satisfying a predetermined correlation with the road surface pattern is detected in the distance image 301, the road surface condition is recognized from the pattern.
  • the road surface condition here refers to, for example, the degree of curve of the road surface (straight force curve force, presence / absence of freezing on the road surface, etc. Note that this also applies to image processing methods related to other detection ranges in FIG. By performing the template matching similar to the above, the detection and recognition of the object corresponding to each detection range is performed.
  • FIG. 26 is a diagram illustrating an example of an image processing method performed by the image processing unit 323 when a road surface is detected in a distance range of 0 to 50 m.
  • the display image 401 shown in the figure displays that the road surface on which the host vehicle is traveling is moving straight as a result of detecting the road surface. If it is recognized that the detected road surface is a curved road surface, a message such as “Cut off the needle! /,” May be displayed and output!
  • FIG. 27 is a diagram illustrating a display example in the output unit 40 when it is detected that the host vehicle is traveling in a direction deviating from the travel lane as a result of white line detection in a distance range of 10 to 5 Om. .
  • the display image 402 shown in the figure is a display example in the output unit 40 when it is determined that the direction of the detected white line or pattern force is not normal with respect to the traveling direction of the host vehicle as a determination result in the image processing unit 323 Is displayed and a warning message is displayed, "You will be off the lane, to the right.” is doing.
  • the same content may be output by voice or a warning sound may be generated.
  • the description has been given by taking the white line as an example of the travel route dividing line, but a travel route dividing line other than the white line (eg, a yellow line) may be detected.
  • FIG. 28 is a diagram illustrating a display example of the output unit 40 when the imaging unit 10 force detects a vehicle 40 m ahead.
  • a window that clearly indicates the closed area of the target vehicle is provided on the screen, so that the passenger can easily identify the target and ⁇ Please apply the brake ''. Is output. Note that, in all the following distance ranges including this case, sound and voice messages can be output simultaneously with the message display, as in the processing in the distance range.
  • a person or an obstacle
  • processing such as generation of a warning is performed.
  • Fig. 29 shows a display image 404 when a person crossing the road in front of the imaging unit 10 force 70m is detected and the message "Need to avoid” is displayed.
  • a road sign such as a signal is detected, and if it is detected, at least the type of the sign is recognized.
  • the display image 405 shown in Fig. 30 it is detected that there is a signal 120m ahead of the imaging unit 10, a window for alerting the signal is displayed, and the message ⁇ There is a signal '' is displayed. Show.
  • the color of the signal may be detected at the same time. For example, when the signal is red, a message that prompts for brake preparation may be output.
  • the display image 40 shown in Fig. 31 shows a case where a message prompting the light of the vehicle to turn on is displayed as a result of detecting a sky with a distance range of 150m or more, judging that the traveling direction is dark with a lot of clouds. Show me.
  • the correspondence between the detection ranges and the image processing methods shown in the correspondence table 81 described above is only Is just an example.
  • the correspondence table 81 shows a case where one image processing is performed within one detection range! /, But it is also possible to set to execute a plurality of image processing within one detection range. In this case, for example, road surface detection and person detection are performed in a detection range of 0 to 50 m, and image processing corresponding to the detected object is performed.
  • a plurality of combinations of detection ranges and image processing methods other than correspondence table 81 are stored in image processing method 353 of storage unit 350, and the displacement of any pixel point when distance information is arranged in time series
  • the vehicle's current speed obtained by calculating the vehicle's speed, the current state of the travel area that can be grasped by detecting the road surface and the sky (for example, weather and day / night distinction), or the brake
  • the optimal combination may be changed according to various conditions such as the distance until the vehicle stops (braking distance).
  • the selection method changing means provided separately in the image processing apparatus 3 changes the selection method of the image processing technique in the processing selection unit 331.
  • the combination of the detection range and the image processing method is changed according to the speed of the host vehicle.
  • a plurality of detection ranges in which the upper and lower limits of the detection range to which the same image processing method is applied differ by a certain ratio are prepared and stored in the storage unit 350.
  • the above correspondence table 81 is applied when the host vehicle is traveling in a predetermined medium speed band. At this time, if the host vehicle is traveling in a higher speed band, the upper and lower limits of each detection range are changed to a combination that is larger than the correspondence table 81 by a certain percentage (for example, when the correspondence table 81 is applied).
  • the upper limit of road surface detection is increased by a predetermined percentage from 50 m).
  • the upper and lower limits of each detection range are reduced by a certain percentage and changed to a combination. This makes it possible to perform optimal image processing according to the traveling speed of the host vehicle.
  • FIG. 32 is a block diagram showing a configuration of an image processing apparatus according to Embodiment 4 of the present invention.
  • the image processing apparatus 4 shown in the figure includes an imaging unit 10 that captures a predetermined field of view, an image analysis unit 420 that analyzes an image generated by the imaging unit 10, and a control unit 430 that controls the operation of the image processing apparatus 4.
  • the same components as those in the image processing device 1 of the first embodiment are denoted by the same reference numerals.
  • the image analysis unit 420 detects a predetermined object from the images captured by the image capturing unit 10, an object detection unit 421, and the image capturing unit 10 up to the target object included in the visual field area captured by the image capturing unit 10.
  • a distance calculation unit 422 for calculating a distance from the image processing unit, a processing region setting unit 423 for setting a processing region to be subjected to image processing in the captured image, and a processing region set by the processing region setting unit 423 are predetermined.
  • An image processing unit 424 for performing the image processing.
  • the image processing unit 424 forms part of a processing calculation unit 4240 that performs a predetermined processing calculation on the processing region set by the processing region setting unit 423.
  • the control unit 430 includes a position prediction unit 431 that predicts the future position of the object detected by the object detection unit 421.
  • the storage unit 450 includes the image data 451 captured by the image capturing unit 10, distance information to the imaging target included in the field of the image data 451, and time information related to the image data 451, and time information 452, an image
  • the processing content 453, which is a specific method of image processing in the processing unit 424, and the shape patterns of various objects (vehicles, people, road surfaces, white lines, signs, etc.) used for object recognition in the image in pixel points Store and store the expressed template 454.
  • the imaging unit 10 performs an imaging process for imaging a predetermined field of view and generating an image (step S401).
  • Frame memory 15a The digital signals temporarily stored by 15b and 15b are sent to the image analysis unit 420 after a predetermined time has elapsed. At this time, the time information related to the captured image is also sent to the image analysis unit 420 together. Is done.
  • the object detection unit 421 detects an object to be subjected to image processing using the image generated in step S401 (step S403).
  • the shape pattern of the object is selected from various object shape patterns (vehicles, people, road surfaces, white lines, signs, traffic lights, etc.) stored in the template 454 of the storage unit 450.
  • the correlation between the two is examined by reading and comparing with the pattern in the image (template matching).
  • template matching the preceding vehicle C will be the object for convenience of explanation, but this is merely an example.
  • the distance calculation unit 422 calculates the distance to the vehicle C (step S405).
  • the distance calculation unit 422 first calculates all or some of the coordinate values of the points constituting the vehicle C in the field of view imaged using the left and right camera coordinate systems. Subsequently, the distance calculation unit 422 calculates the distance R from the forefront of the vehicle to the imaged point using the calculated coordinate value (x, y, z) of the pixel point. Note that the position of the forefront of the vehicle in the camera coordinate system is measured in advance. Thereafter, the distance to the vehicle C is obtained by averaging the distances to the respective constituent points, and stored and stored in the storage unit 450.
  • the distance calculation capability of the distance calculation unit 422 improves as the calculation time increases. For this reason, for example, when the distance calculation unit 422 performs processing for improving distance measurement accuracy by the iterative method, the distance calculation is stopped at that stage when the distance to the imaging target is close at the initial stage of the repetition. On the other hand, if the distance to the imaging target is long at the initial stage of repetition, the distance calculation process is repeated until a predetermined accuracy is obtained.
  • a distance image (see Fig. 24) is generated by superimposing information such as the distance generated by the distance calculation unit 422 on the entire visual field constituting the image data 451 generated by the imaging unit 10. A little.
  • FIG. 34 is a diagram visually showing the result of the prediction process in step S407.
  • the vehicle at three different times t, t, and t.
  • n-1 n n + 1 n-and image C are displayed using already captured image data 451.
  • Image C which is the predicted future position, is generated as follows. First, image C and image C
  • n + 1 n-1 n Creates a vector (movement vector) by connecting the corresponding points. Then, each vector is extended so that the length of each vector is doubled (in Fig. 34, the extension is indicated by a broken line). Image C is generated by connecting the end points of this extended vector to form the contour of the vehicle.
  • step S407 an image is generated using two pieces of distance time information, and the future position of the object is predicted.
  • the relative speed of vehicle C to the host vehicle is constant. This is equivalent to calculating this relative speed.
  • the display image 501 shows a case where the vehicle C and the host vehicle travel straight in the same direction, and the speed of the vehicle C with respect to the road surface is smaller than the speed of the host vehicle with respect to the road surface.
  • step S409 the processing area setting unit 423 sets a processing area in which image processing is performed using the image C corresponding to the predicted future position of the vehicle C.
  • Figure 35 shows this step S
  • FIG. 10 is a diagram showing an example of setting of a processing area set in 409.
  • the processing area D indicates the predicted future position (image C) of the vehicle C obtained in step S407.
  • step S407 the future position is predicted based on the assumption that the relative speed is constant. However, the actual movements of the vehicle C and the host vehicle are not necessarily as predicted. For this reason, when setting the processing region D, the predicted future position is set so that the predicted future position force also includes a predetermined range of error. Processing The border of region D does not have to be specified on the screen.
  • FIG. 36 is a diagram showing an example of image processing.
  • the display image 503 shown in FIG. It is determined that the vehicle C is approaching because the vehicle C is detected in the operation area D, and the message “Apply the brake! /,” T ⁇ , is displayed.
  • a warning sound or warning message may be output from a speaker included in the output unit 40.
  • the image processing method may be changed according to the distance from the host vehicle to the processing region, or the image may be changed according to the traveling state of the host vehicle (speed, acceleration, steering angle at the time of steering operation, etc.).
  • the processing method may be changed.
  • the image processing method is changed by referring to the processing content 453 stored in the processing change unit force storage unit 450 provided in the control unit 430.
  • the distance from the imaging position to the detected object is calculated, and images are taken at at least two different times among the plurality of images including the object.
  • the relative position of the target object with respect to the host vehicle after a lapse of a predetermined time is predicted using the distance to the target object included in the captured image, and a processing area for image processing is set based on the prediction result.
  • the future position of the vehicle that is the object is predicted using the three-dimensional movement vector, and the processing region for performing image processing is set based on the prediction result.
  • the processing area for performing predetermined image processing can be narrowed, and rapid and efficient image processing can be realized.
  • the ability to predict the future position of an object using the distance to the object at two different times The power to the object at a time different from those two times.
  • the storage unit 450 may have a function as a 3D map information storage unit for storing 3D map information!
  • the image processing apparatus may be provided with a process changing means for changing the image processing method for the processing area.
  • a process changing means for changing the image processing method for the processing area.
  • the object instead of detecting an object by template matching, the object may be detected by obtaining a segment of the object based on distance time information of the imaging target.
  • the object may be detected using a region segmentation method based on texture or edge extraction, a statistical pattern recognition method based on cluster analysis, or the like.
  • the future position of the object detected in the image to be captured is predicted, a three-dimensional space model is formed using the prediction result, and the formed three-dimensional space model is imaged.
  • the processing area is set by projecting onto the image, and predetermined image processing is performed on the processing area.
  • FIG. 37 is a block diagram showing a configuration of the image processing apparatus according to Embodiment 5 of the present invention.
  • the image processing device 5 shown in the figure has the same configuration as the image processing device 4 according to the fourth embodiment. That is, the image processing device 5 includes an imaging unit 10, an image analysis unit 520, a control unit 430, an output unit 40, and a storage unit 550. For this reason, parts having the same functional configuration as the image processing apparatus 4 are denoted by the same reference numerals.
  • the image analysis unit 520 projects the image in addition to the object detection unit 421, the distance calculation unit 422, the processing region setting unit 423, and the image processing unit 424 (part of the processing calculation unit 4240).
  • a model forming unit 425 for forming a three-dimensional space model is included.
  • the storage unit 550 also stores a model prototype 4 as a prototype for forming a three-dimensional space model projected onto the image, in addition to the image data 451, distance time information 452, processing content 453, and template 454. 55 is stored and stored.
  • the imaging unit 10 performs an imaging process for imaging a predetermined field of view and generating an image (step S501). Thereafter, the target object detection unit 421 detects the target object to be subjected to image processing by template matching (step S503). When an object is detected in step S503, the distance calculation unit 422 performs a distance calculation process (step S505) up to the object.
  • FIG. 39 is a diagram showing a display example of an image obtained as a result of performing the above steps S501 to S505.
  • An image 601 shown in the figure displays a case where the vehicle Ca or the like travels ahead of the lane adjacent to the lane in which the host vehicle travels, and the intersection is approaching forward. At this intersection, the vehicle Cb travels in a direction that is perpendicular to the traveling direction of the host vehicle, and a traffic light Sig is installed near the intersection.
  • steps S501, S503, and S505 so far are the same processes as steps S401, S403, and S405 of the image processing method according to the first embodiment of the present invention, respectively, and details thereof are described above. This is as described in the fourth embodiment.
  • the position (future position) of the target object is predicted (step S507).
  • the future position of the vehicle Ca traveling in the adjacent lane or the vehicle Cb traveling near the intersection may be predicted, or the future may be determined using the road surface Rd or traffic light Sig as targets.
  • the position may be predicted.
  • the model forming unit 425 forms a three-dimensional space model related to the target object from information such as the predicted future position of the target object (step S509).
  • Figure 40 shows a three-dimensional space model. It is explanatory drawing which shows the example of 1 formation.
  • the three-dimensional space model Mdl shown in the figure shows a region where the host vehicle can travel within a predetermined time (a region where the host vehicle can travel).
  • the object to be detected is the road surface Rd
  • the model forming unit 425 uses the model prototype 455 stored in the storage unit 550 in addition to the prediction result of the future position of the road surface Rd, as shown in FIG. Form a three-dimensional space model Md 1.
  • a display image 602 shown in FIG. 41 is a diagram showing a display example when a three-dimensional spatial model Mdl (vehicle travelable area) is projected onto an image captured by the imaging unit 10.
  • FIG. 42 is a diagram showing another example of forming the three-dimensional space model in step S509.
  • This figure shows a case where a vehicle Ca traveling in an adjacent lane is the target, and a three-dimensional space model M d2 relating to the vehicle Ca's travelable region (previous vehicle travelable region) within a predetermined time is formed. Yes.
  • This three-dimensional space model Md2 is formed in consideration of the case where the preceding vehicle C a goes straight ahead and the lane change to the traveling lane of the own vehicle.
  • FIG. 43 is a diagram illustrating a display example when the processing region is set by projecting the three-dimensional space models M dl and Md 2 onto the image captured by the imaging unit 10. As shown in the display image 603 shown in FIG. 43, a processing area may be set by projecting a plurality of three-dimensional spatial models to one image! /.
  • the image processing unit 424 performs predetermined image processing on the processing target region (step S513).
  • the three-dimensional space model Mdl representing the own vehicle travelable area and the three-dimensional space model Md2 representing the preceding vehicle travelable area partially overlap each other. Therefore, when it is detected that the vehicle Ca has entered the vehicle travelable area (Mdl), a process for generating a warning message or a warning sound from the output unit 40 is performed as a subsequent process. In addition, when it is detected that the vehicle Ca has started taking a course that deviates from the preceding vehicle travelable range (Md2), the output unit 40 notifies that fact.
  • the distance from the imaging position to the detected object is calculated, and images are taken at at least two different times among the plurality of images including the object.
  • a relative position with respect to the vehicle is predicted, and a three-dimensional space model is formed using at least one of the current situation of the host vehicle and the surrounding current situation where the host vehicle moves together with the predicted result.
  • a processing area for performing image processing is set, and by performing predetermined image processing on the set processing area, various information contained in the captured image is multifaceted. It is possible to process it.
  • a processing area is set by forming a three-dimensional space model based on the prediction result.
  • an object other than the object (non-object) in the sense of step S501, the moving state of the host vehicle (speed, acceleration, etc.) ) Or external information outside the host vehicle (road surface condition, weather, etc.) may be detected, and the detection result may be used for the model formation process.
  • the movement status detection unit 60 that detects the movement status of the host vehicle, and the external information detection unit 70 that detects external information outside the host vehicle Can be further provided.
  • the movement status detection unit 60 and the external information detection unit 70 are realized by using various sensors or the like according to the contents to be detected.
  • the other configuration of the image processing device 6 is the same as that of the image processing device 5.
  • Embodiment 6 of the present invention will be described.
  • the configuration is such that a stereo image is captured by two cameras, the right camera 11a and the left camera ib, but in Embodiment 6, a pair of light guiding optical systems, A stereo image is picked up by an image pickup device that has an image pickup region corresponding to each light guide optical system and converts an optical signal guided by each light guide optical system into an electric signal in each image pickup region.
  • FIG. 45 is a block diagram showing a partial configuration of the image processing apparatus according to Embodiment 6 of the present invention.
  • the imaging unit 110 illustrated in FIG. 45 includes an imaging unit 10 in the above-described image processing device 1 or the like. Instead of this, an imaging unit provided in the image processing apparatus according to the sixth embodiment is provided.
  • the configuration of the image processing apparatus other than that shown in FIG. 45 is the same as that of any of Embodiments 1 to 5 described above.
  • the imaging unit 110 includes a camera 111 as an imaging device having the same configuration and function as the right camera 11a or the left camera ib of the imaging unit 10.
  • the camera 111 includes a lens 112, an image sensor 113, an AZD conversion unit 114, and a frame memory 115.
  • the imaging unit 110 includes a stereo adapter 119 as a pair of light guiding optical systems configured by mirrors 119a to 119d in front of the camera 111.
  • the stereo adapter 119 includes mirrors 119a and 119b as a pair and faces the reflecting surfaces substantially in parallel, and the mirrors 119c and 119d as another set and includes the reflecting surfaces that face substantially parallel.
  • the stereo adapter 119 includes these two pairs of mirror systems adjacently symmetrically with respect to the optical axis of the lens 112.
  • the imaging unit 110 receives light of an object force located within the imaging field of view with the two left and right mirror systems of the stereo adapter 119, condenses it with the lens 112 as the imaging optical system, and Take an image.
  • the image sensor 113 passes the right image 116a via the right pair of mirrors by the mirrors 119a and 119b and the left pair of mirrors by the mirrors 119c and 119d.
  • the left image 116b is imaged in a completely non-overlapping imaging region shifted left and right (a technique using such a stereo adapter is disclosed in, for example, Japanese Patent Laid-Open No. 8-171151).
  • the imaging unit 110 captures a stereo image with one camera equipped with a stereo adapter, so the imaging unit is simpler than when capturing a stereo image with two cameras. It is possible to make it compact and increase the mechanical strength, and the left and right images can be taken in a relatively stable state. Furthermore, since the left and right images are captured using a common lens and image sensor, variations caused by individual differences can be suppressed, reducing the labor of calibration and the complexity of assembly such as alignment.
  • Fig. 45 shows an example in which plane mirrors are combined so as to face each other substantially in parallel.
  • a lens group may be combined, and a convex mirror, concave mirror, etc.
  • a reflecting surface may be formed by a prism instead of a reflecting mirror which may be configured by combining reflecting mirrors having curvature.
  • the force of taking an image so that the left and right images do not overlap at all is set so that part or all of the left and right images overlap, and is provided, for example, in the light receiving section.
  • the left and right light received by the left and right shutters may be sequentially switched and imaged, and the left and right images captured with a slight time difference may be subjected to image processing as a stereo image.
  • the left and right images are shifted in the left and right positions.
  • the stereo adapter plane mirrors are combined substantially orthogonally, and the left and right images are Even if you move the position to
  • the present invention is not limited to the above-described embodiments 1 to 6.
  • the light receiving unit forces of a pair of cameras or stereo adapters are described as being arranged side by side. It can be arranged side by side, or it can be arranged side by side in an oblique direction.
  • a multi-lens stereo camera for example, a three-lens stereo camera or a four-lens stereo camera may be configured as the stereo camera of the imaging unit. It is known that using a three-eye or four-eye stereo camera will produce more reliable and stable processing results in 3D reconstruction processing (Fumiaki Tomita, “High-performance 3D vision system VW ”, Journal of Information Processing,“ Information Processing ”, Vol. 42, No. 4, pp. 370-375 (2001). In particular, it is known that 3D reconstruction is possible in more complex scenes if multiple cameras are arranged with a baseline length in two directions. In addition, if multiple cameras are arranged in one baseline length direction, a so-called multi-baseline stereo camera can be realized, and stereo measurement with higher accuracy can be achieved.
  • the camera of the imaging unit a monocular camera may be used instead of a stereo camera that is a compound eye.
  • 3D such as shape from focus method, shape from defocus method, shape from motion method, shape from shading method, etc.
  • the distance to an object in the imaging field can be calculated.
  • the shape from focus method is a method for obtaining the distance from the focus position when the best focus is achieved.
  • the shape from defocus method is a method for obtaining a relative blur amount for a plurality of image forces having different in-focus distances, and obtaining a distance based on a correlation between the blur amount and the distance.
  • the shape from motion method is a method for obtaining the distance to an object based on the movement trajectory of a predetermined feature point in a plurality of temporally continuous images.
  • the shape from shading method is a method for obtaining a distance to an object based on shading in an image, reflection characteristics of a target object, and light source information.
  • the image processing apparatus can be mounted on a vehicle other than a four-wheeled vehicle, such as an electric wheelchair. In addition to vehicles, it can also be mounted on mobile objects such as people and robots. Furthermore, the entire image processing apparatus may not be mounted on the moving body. For example, the imaging unit and the output unit are mounted on the moving body, and other components are configured outside the moving body, and wireless communication is performed between them. You may connect with.
  • the image processing device, the image processing method, and the image processing program according to the present invention capture the front of the host vehicle by imaging the front of the host vehicle, and the front of the host vehicle. It is useful for recognizing a certain object, and is particularly suitable for in-vehicle use.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 撮像した画像を処理し、先行車両等の所定の物体までの距離を演算する場合に、演算処理の負荷を軽減し、高速に距離情報を出力することができ、かつ撮像する画像に含まれるさまざまな情報を多面的に処理する。  上記目的を達成するため、所定の視野を撮像して画像を生成する撮像手段と、前記撮像手段で生成した前記画像の中で処理を行うべき領域を設定する処理領域設定手段と、前記処理領域設定手段で設定した前記領域に対して所定の処理演算を行う処理演算手段と、を備えた。

Description

明 細 書
画像処理装置、画像処理方法および画像処理プログラム
技術分野
[0001] 本発明は、所定の視野を撮像して生成する画像に対して画像処理を施す画像処 理装置、画像処理方法および画像処理プログラムに関する。
背景技術
[0002] 従来、自動車等の車両に搭載され、自車両の前方を走行する先行車両を撮像した 画像を処理し、自車両から先行車両までの距離を検出する車間距離検出装置が知 られている (たとえば、特許文献 1参照)。この車間距離検出装置は、画像上で先行 車両を捕捉するために、画像内の所定位置に複数の測距用ウィンドウを設定し、この 設定した各測距用ウィンドウ内で画像を処理して任意の対象物までの距離を演算し 、演算した結果と測距用ウィンドウの位置情報とをもとに先行車両の撮像位置を認識 している。
[0003] また、自車両の走行時に、進行方向の道路の路面状況を検知する目的で、車両の 進行方向を撮像し、この撮像した画像に対して所定の対象物の認識を行う技術も知 られている(たとえば、特許文献 2を参照)。この技術では、撮像した画像を用いて、 自車両が走行する道路上にある白線等の走行路区分線や中央分離帯等の走行路 区分帯の認識を行う。
[0004] 特許文献 1:特許第 2635246号公報
特許文献 2:特許第 3290318号公報
発明の開示
発明が解決しょうとする課題
[0005] ところで、上記特許文献 1に記載された従来技術では、撮像位置が不明な先行車 両を捕捉するため、測距用ウィンドウは画像のほぼ全域をカバーするように設定する 必要があった。この結果、画像のほぼ全域を処理して距離演算を行うので、演算処 理の負荷が大きぐ処理時間が力かるという問題があった。
[0006] また、上記特許文献 2に記載された従来技術では、処理内容が白線などの認識に 特化されて 、るため、撮像する画像に含まれるさまざまな情報を多面的に処理するこ とができな力 た。
[0007] 本発明は、上記に鑑みてなされたものであって、撮像した画像を処理し、先行車両 等の所定の物体までの距離を演算する場合に、演算処理の負荷を軽減し、高速に 距離情報を出力することができ、かつ撮像する画像に含まれるさまざまな情報を多面 的に処理し得る画像処理装置、画像処理方法および画像処理プログラムを提供する ことを目的とする。
課題を解決するための手段
[0008] 上述した課題を解決し、目的を達成するために、本発明の一態様に係る画像処理 装置は、 所定の視野を撮像して画像を生成する撮像手段と、前記撮像手段で生成 した前記画像の中で処理を行うべき領域を設定する処理領域設定手段と、前記処理 領域設定手段で設定した前記領域に対して所定の処理演算を行う処理演算手段と 、を備えたことを特徴とする。
[0009] また、上記発明にお!/ヽて、前記撮像手段で生成した前記画像に含まれる画像信号 群に基づいて、前記視野内に含まれる物体が占める領域と該物体の種別とを識別す る識別手段をさらに備え、前記処理領域設定手段は、前記識別手段の識別結果に 基づ!、て、前記物体までの距離を演算する演算範囲を設定する演算範囲設定手段 を有し、前記処理演算手段は、前記演算範囲設定手段が設定した前記演算範囲に おける距離演算を行う距離演算手段を有するとしてもよい。
[0010] また、上記発明において、前記識別手段は、前記画像信号群に基づいて、前記物 体の前記視野内における縦方向の境界を示す縦方向情報と前記物体の前記視野 内における横方向の境界を示す横方向情報とを求め、該縦方向情報と該横方向情 報とを組み合わせて前記物体が前記視野内にぉ 、て占める領域を識別するとしても よい。
[0011] また、上記発明において、前記識別手段は、前記視野内において前記物体が占め る領域に基づ ヽて、該物体の種別を識別するとしてもよ 、。
[0012] また、上記発明にお!/、て、前記演算範囲設定手段は、前記識別手段が識別した前 記物体の種別のうち、前記視野内において所定の種別の物体が占める領域に基づ V、て、前記演算範囲を設定することを特徴とするとしてもよ!/、。
[0013] また、上記発明において、前記演算範囲設定手段は、前記視野内において前記 識別手段によって識別された前記物体が占める領域に所定の余裕領域を加えた領 域に対応する前記演算範囲を設定するとしてもよい。
[0014] また、上記発明において、前記撮像手段は、第 1の光路を介して撮像した第 1の前 記画像信号群と、第 2の光路を介して撮像した第 2の前記画像信号群とを生成し、前 記処理演算手段は、前記第 2の画像信号群の中から前記第 1の画像信号群の任意 の画像信号と整合する画像信号を検出し、該検出した画像信号における前記任意 の画像信号力もの移動量に基づ 、て前記物体までの距離を演算するとしてもよ 、。
[0015] また、上記発明において、前記識別手段は、前記第 1の画像信号群および前記第 2の画像信号群の 、ずれか一方に基づ 、て、前記物体が前記視野内にお!、て占め る領域と該物体の種別とを識別するとしてもよ 、。
[0016] また、上記発明にお!/ヽて、前記撮像手段で撮像した撮像位置から前記画像を構成 する全ての構成点または一部の構成点までの距離を算出し、この算出した距離を含 む距離情報を生成する距離情報生成手段と、前記距離情報生成手段で生成した距 離情報に対応する画像処理手法を複数の画像処理手法の中から選択する処理選 択手段と、をさらに備え、前記処理演算手段は、前記処理選択手段で選択した画像 処理手法を適用して前記画像に対する画像処理を行う画像処理手段を有するとして ちょい。
[0017] また、上記発明にお!/、て、前記処理領域設定手段は、前記距離情報生成手段で 生成した距離情報を前記画像に重畳して成る距離画像を生成し、この生成した距離 画像に基づいて、前記撮像位置力ゝらの距離が所定の範囲内にある前記画像の構成 点の組ごとに異なる閉領域を設定する距離画像生成手段を有するとしてもよい。
[0018] また、上記発明にお!/、て、前記処理選択手段は、前記距離画像生成手段で設定し た閉領域ごとに画像処理手法を選択するとしてもよ!/ヽ。
[0019] また、上記発明において、前記距離画像生成手段で設定した閉領域ごとに所定の 対象物の検知を行う対象物検知手段をさらに備えてもよい。
[0020] また、上記発明にお!/、て、前記処理選択手段における画像処理手法の選択方法 を変更する選択方法変更手段をさらに備えてもよい。
[0021] また、上記発明にお ヽて、前記撮像手段で生成した画像を該画像に係る時刻情報 とともに記憶する記憶手段と、前記撮像手段で撮像した画像から画像処理を行う対 象物を検知する対象物検知手段と、前記撮像手段の撮像位置から前記対象物検知 手段で検知した対象物までの距離を算出する距離算出手段と、前記記憶手段で記 憶した画像のうち、異なる時刻に撮像した少なくとも二つの画像を抽出し、この抽出し た少なくとも二つの画像と各画像における前記対象物までの距離とを用いて所定時 間経過後の前記移動体に対する前記対象物の相対位置を予測する位置予測手段 と、をさらに備え、前記処理領域設定手段は、前記位置予測手段における予測結果 に基づいて画像処理を行う処理領域を設定し、前記処理演算手段は、前記処理領 域設定手段で設定した処理領域に対して所定の画像処理を行う画像処理手段を有 するとしてちょい。
[0022] また、上記発明にお 、て、前記位置予測手段における予測結果を用いて前記画像 に射影する三次元空間モデルを形成するモデル形成手段をさらに備え、前記処理 領域設定手段は、前記モデル形成手段で形成した前記三次元空間モデルを前記画 像に射影することによって前記処理領域を設定するとしてもよい。
[0023] また、上記発明にお!/ヽて、前記処理領域設定手段で設定した処理領域に対して行 う画像処理の手法を変更する処理変更手段をさらに備えてもよい。
[0024] また、上記発明にお!/、て、前記対象物検知手段で検知した対象物の時間経過に 伴う三次元的な動きを時系列的に重畳して成る画像を表示出力する出力手段をさら に備えてもよい。
[0025] また、上記発明にお 、て、前記移動体の位置または速度を含む移動状況を検知す る移動状況検知手段をさらに備え、前記位置予測手段は、前記移動体に対する前 記対象物の相対位置を予測するに際して、前記移動状況検知手段で検知した前記 移動体の位置または速度を用いるとしてもよ 、。
[0026] また、上記発明にお 、て、前記移動体の位置を含む移動状況を検知する移動状 況検知手段と、前記移動体が移動する領域の周辺を含む三次元地図情報を記憶す る地図情報記憶手段と、をさらに備え、前記位置予測手段は、前記移動体に対する 前記対象物の相対位置を予測するに際して、前記移動状況検知手段で検知した前 記移動体の現在位置周辺の地図情報を前記地図情報記憶手段から読み出して参 照するとしてちょい。
[0027] また、上記発明にお 、て、前記移動体外部の外的情報を検知する外的情報検知 手段をさらに備え、前記位置予測手段は、前記移動体に対する前記対象物の相対 位置を予測するに際して、前記外的情報検知手段で検知した前記移動体外部の情 報を用いるとしてもよい。
[0028] また、上記発明において、前記撮像手段は、一対の撮像光学系と、前記一対の撮 像光学系の各々が出力する光信号を電気信号に変換する一対の撮像素子と、を有 してちよい。
[0029] また、上記発明において、前記撮像手段は、一対の導光光学系と、各導光光学系 に対する撮像領域を有し各導光光学系が導いた光信号を各撮像領域において電気 信号に変換する撮像素子と、を備えてもよい。
[0030] また、上記発明において、当該画像処理装置は、車両に搭載されるとしてもよい。
[0031] 本発明の別な態様に係る画像処理方法は、所定の視野を撮像して画像を生成す る撮像ステップと、前記撮像ステップで生成した前記画像の中で処理を行うべき領域 を設定する処理領域設定ステップと、前記処理領域設定ステップで設定した前記領 域に対して所定の処理演算を行う処理演算ステップと、を含むことを特徴とする。
[0032] また、上記発明にお 、て、前記撮像ステップで生成した前記画像に含まれる画像 信号群に基づ 、て、前記視野内にぉ 、て前記物体が占める領域と該物体の種別と を識別する識別ステップをさらに含み、前記処理領域設定ステップは、前記識別ステ ップの識別結果に基づいて、前記物体までの距離を演算する演算範囲を設定し、前 記処理演算ステップは、前記処理領域設定ステップで設定した前記演算範囲におけ る距離演算を行うとしてもよい。
[0033] また、上記発明にお ヽて、前記撮像ステップで撮像した撮像位置カゝら前記画像を 構成する全ての構成点または一部の構成点までの距離を算出し、この算出した距離 を含む距離情報を生成する距離情報生成ステップと、前記距離情報生成ステップで 生成した距離情報に対応する画像処理手法を複数の画像処理手法の中から選択す る処理選択ステップと、をさらに含み、前記処理演算ステップは、前記処理選択ステ ップで選択した画像処理手法を適用して前記画像に対する画像処理を行うとしても よい。
[0034] また、上記発明にお ヽて、前記撮像ステップで生成した画像を該画像に係る時刻 情報とともに記憶する記憶ステップと、前記撮像ステップで撮像した画像から画像処 理を行う対象物を検知する対象物検知ステップと、前記対象物検知ステップで対象 物を検知した場合、前記撮像ステップでの撮像位置から前記対象物までの距離を算 出する距離算出ステップと、前記記憶ステップで記憶した画像のうち、異なる時刻に 撮像した少なくとも二つの画像を抽出し、この抽出した少なくとも二つの画像と各画 像における前記対象物までの距離とを用いて所定時間経過後の前記移動体に対す る前記対象物の相対位置を予測する位置予測ステップと、をさらに含み、前記処理 領域設定ステップは、前記位置予測ステップにおける予測結果に基づ 、て画像処理 を行う処理領域を設定し、前記処理演算ステップは、前記処理領域設定ステップで 設定した処理領域に対して所定の画像処理を行うとしてもよい。
[0035] 本発明のさらに別な態様に係る画像処理プログラムは、所定の視野を撮像して画 像を生成する撮像部によって生成された画像に対して画像処理を施す画像処理プ ログラムであって、前記画像の中で処理を行うべき領域を設定する処理領域設定ス テツプと、前記処理領域設定ステップで設定した前記領域に対して所定の処理演算 を行う処理演算ステップと、を含むことを特徴とする。
[0036] また、上記発明にお!/ヽて、前記撮像部で生成した前記画像に含まれる画像信号群 に基づ!/、て、前記視野内にお!、て前記物体が占める領域と該物体の種別とを識別 する識別ステップをさらに含み、前記処理領域設定ステップは、前記識別ステップの 識別結果に基づいて、前記物体までの距離を演算する演算範囲を設定し、前記処 理演算ステップは、前記処理領域設定ステップで設定した前記演算範囲における距 離演算を行うとしてもよい。
[0037] また、上記発明にお!/ヽて、前記撮像部の撮像位置から前記画像を構成する全ての 構成点または一部の構成点までの距離を算出し、この算出した距離を含む距離情報 を生成する距離情報生成ステップと、前記距離情報生成ステップで生成した距離情 報に対応する画像処理手法を複数の画像処理手法の中から選択する処理選択ステ ップと、をさらに含み、前記処理演算ステップは、前記処理選択ステップで選択した 画像処理手法を適用して前記画像に対する画像処理を行うとしてもよい。
[0038] また、上記発明にお ヽて、前記撮像部で生成した画像を該画像に係る時刻情報と ともに記憶する記憶ステップと、前記撮像部で撮像した画像から画像処理を行う対象 物を検知する対象物検知ステップと、前記対象物検知ステップで対象物を検知した 場合、前記撮像部の撮像位置から前記対象物までの距離を算出する距離算出ステ ップと、前記記憶ステップで記憶した画像のうち、異なる時刻に撮像した少なくとも二 つの画像を抽出し、この抽出した少なくとも二つの画像と各画像における前記対象物 までの距離とを用いて所定時間経過後の前記移動体に対する前記対象物の相対位 置を予測する位置予測ステップと、をさらに含み、前記処理領域設定ステップは、前 記位置予測ステップにおける予測結果に基づいて画像処理を行う処理領域を設定 し、前記処理演算ステップは、前記処理領域設定ステップで設定した処理領域に対 して所定の画像処理を行うとしてもよ 、。
発明の効果
[0039] 本発明によれば、撮像した画像を処理し、先行車両等の所定の物体までの距離を 演算する場合に、演算処理の負荷を軽減し、高速に距離情報を出力することができ 、かつ撮像する画像に含まれるさまざまな情報を多面的に処理し得る画像処理装置 、画像処理方法および画像処理プログラムを提供することができる。
図面の簡単な説明
[0040] [図 1]図 1は、本発明の実施の形態 1に係る画像処理装置の構成を示すブロック図で ある。
[図 2]図 2は、図 1に示す画像処理装置において距離情報を出力するまでの処理手 順を示すフローチャートである。
[図 3]図 3は、ステレオカメラを用いた撮像処理を概念的に示す説明図である。
[図 4]図 4は、レクティフィケーシヨン処理前の左右画像領域の対応を示す説明図であ る。
[図 5]図 5は、レクティフィケーシヨン処理後の左右画像領域の対応を示す説明図であ る。
[図 6]図 6は、図 2に示す識別処理の処理手順を示すフローチャートである。
[図 7]図 7は、図 1に示す画像処理装置の撮像部が撮像した画像の一例を示す図で ある。
[図 8]図 8は、縦方向エッジ抽出フィルタの一例を示す図である。
[図 9]図 9は、横方向エッジ抽出フィルタの一例を示す図である。
[図 10]図 10は、図 8に示す縦方向エッジ抽出フィルタによってエッジを抽出した結果 の一例を示す図である。
[図 11]図 11は、図 9に示す横方向エッジ抽出フィルタによってエッジを抽出した結果 の一例を示す図である。
[図 12]図 12は、図 10および図 11に示すエッジ抽出画像を合成した結果を示す図で ある。
[図 13]図 13は、図 6に示す領域分割処理で出力される結果の一例を示す図である。
[図 14]図 14は、図 6に示す物体識別処理で行うテンプレートマッチングを説明する図 である。
[図 15]図 15は、図 6に示す識別処理で出力される結果の一例を示す図である。
[図 16]図 16は、図 2に示す演算範囲設定処理の処理手順を示すフローチャートであ る。
[図 17]図 17は、図 16に示す演算範囲設定において余裕領域を付加する処理を説 明する図である。
[図 18]図 18は、図 16に示す演算範囲設定処理で出力される結果の一例を示す図で ある。
[図 19]図 19は、図 2に示す距離演算処理で出力される結果の一例を示す図である。
[図 20]図 20は、図 2に示す処理のタイミングを説明するタイムチャートである。
[図 21]図 21は、本発明の実施の形態 2に係る画像処理装置の構成を示すブロック図 である。
[図 22]図 22は、本発明の実施の形態 3に係る画像処理装置の構成を示すブロック図 である。 [図 23]図 23は、本発明の実施の形態 3に係る画像処理方法の概要を示すフローチ ヤートである。
[図 24]図 24は、距離画像の出力例を示す図である。
[図 25]図 25は、選択する画像処理手法の一例として、距離に応じた物体認識の対応 関係を示す図である。
[図 26]図 26は、道路検知に関する画像処理を行った場合の表示例を示す図である 図 27]図 27は、白線検知に関する画像処理を行った場合の表示例を示す図である 図 28]図 28は、車両検知に関する画像処理を行った場合の表示例を示す図である 図 29]図 29は、人物検知に関する画像処理を行った場合の表示例を示す図である 図 30]図 30は、標識検知に関する画像処理を行った場合の表示例を示す図である 図 31]図 31は、空の検知に関する画像処理を行った場合の表示例を示す図である。 図 32]図 32は、本発明の実施の形態 4に係る画像処理装置の構成を示すブロック図 である。
図 33]図 33は、本発明の実施の形態 4に係る画像処理方法の概要を示すフローチ ヤートである。
図 34]図 34は、車両の未来位置の予測処理を視覚的に示す説明図である。
図 35]図 35は、処理領域の一設定例を示す図である。
図 36]図 36は、画像処理の一例を示す図である。
図 37]図 37は、本発明の実施の形態 5に係る画像処理装置の構成を示すブロック図 である。
図 38]図 38は、本発明の実施の形態 5に係る画像処理方法の概要を示すフローチ ヤートである。
図 39]図 39は、本発明の実施の形態 5に係る画像処理装置における画像の出力例 を示す図である。
[図 40]図 40は、自車両走行可能域を表す三次元空間モデルの形成例を示す図であ る。
[図 41]図 41は、画像に自車両走行可能域を表す三次元空間モデルを射影した場合 の表示例を示す図である。
[図 42]図 42は、先行車両走行可能域を表す三次元空間モデルの形成例を示す図 である。
[図 43]図 43は、画像に先行車両走行可能域を表す三次元空間モデルを射影した場 合の表示例を示す図である。
[図 44]図 44は、本発明の実施の形態 5の一変形例に係る画像処理装置の構成を示 すブロック図である。
[図 45]図 45は、本発明の実施の形態 6に係る画像処理装置の一部構成を示すプロ ック図である。
[図 46]図 46は、図 45に示す撮像部が撮像する画像の一例を示す図である。
符号の説明
1、 2、 3、 4、 5、 6 画像処理装置
10 撮像部
11a 右カメラ
l ib 左カメラ
12a, 12b レンズ
13a, 13b 撮像素子
14a, 14b AZD変換部
15a, 15b フレームメモリ
17、 116、 601 画像
20、 220、 320、 420、 520 画像解析部
21 処理制御部
22 識別部
22a, 22b エッジ抽出画像 c エッジ統合画像
d 領域分割画像
演算範囲設定部
a 演算範囲情報
距離演算部
メモリ
、 130、 330、 430 制御部 出力部
、 350、 450 記憶部
画像情報
テンプレート情報
, 53a, 53b 識別情報
, 54a 距離情報
移動状況検知部
外的情報検知部
0 撮像部
1 カメラ
2 レンズ
3 撮像素子
AZD変換部
5 フレームメモリ
6a 右画像
6b 左画像
9 ステレオアダプタ
9a, 119b, 119c, 119d ミラー 、 423、 3220 処理領域設定部 、 3230、 4240 処理演算部 レーダ 301 距離画像
321 距離情報生成部
322 距離画像生成部
323、 424 画像処理部
331 処理選択部
351 画像データ
352 距離情報
353 画像処理手法
354、 454 テンプレート
401、 402、 403、 404、 405、 406、 501、 502、 503、 602、 603 表示画像
421 対象物検知部
422 距離算出部
423 処理領域設定部
425 空間モデル形成部
451 画像データ
452、 452 、452 距離時刻情報
n-l n
453 処理内容
455 モデル原型
601 画像
C、 Cl、 C2、 Ca、 Cb 車両
D 処理領域
HI 人
Mdl、Md2 三次元空間モデル
Rd 路面
Sig 信号機
発明を実施するための最良の形態
以下、添付図面を参照して本発明を実施するための最良の形態(以後、「実施の形 態」と称する)を詳細に説明する。 [0043] (実施の形態 1)
図 1は、本発明の実施の形態 1に係る画像処理装置の構成を示すブロック図である 。図 1に示す画像処理装置 1は電子的な装置であり、所定の撮像視野を有し、撮像 視野に対応する画像を撮像し画像信号群を生成する撮像部 10と、撮像部 10が生成 した画像信号群を解析する画像解析部 20と、画像処理装置 1の全体の処理および 動作を制御する制御部 30と、距離情報を含む各種情報を出力する出力部 40と、距 離情報を含む各種情報を記憶する記憶部 50とを備える。撮像部 10、画像解析部 20 、出力部 40および記憶部 50は、制御部 30に電気的に接続される。なお、この接続 の形態は、有線に限らず無線も含む。
[0044] 撮像部 10は、複眼のステレオカメラであり、左右に並んで配置された右カメラ 11aと 左カメラ l ibとを備える。右カメラ 11aは、レンズ 12aと、撮像素子 13aと、アナログ Z デジタル (AZD)変換部 14aと、フレームメモリ 15aとを備える。レンズ 12aは、所定の 撮像視野内に位置する任意の物体力もの光を撮像素子 13a上に集光する。撮像素 子 13aは、 CCDあるいは CMOS等の撮像素子であり、レンズ 12aが集光した物体か らの光を光信号として検知し、アナログ信号である電気信号に変換し、出力する。 A /D変換部 14aは、撮像素子 13aが出力したアナログ信号をデジタル信号に変換し 、出力する。フレームメモリ 15aは、 AZD変換部 14aが出力したデジタル信号を記憶 し、 1枚の撮像画像に対応するデジタル信号群を、撮像視野に対応した画像信号群 である画像情報として随時出力する。一方、左カメラ l ibは、右カメラ 11aと同様の構 成を有し、レンズ 12bと、撮像素子 13bと、 AZD変換部 14bと、フレームメモリ 15bと を備える。左カメラ l ibの各構成部位は、右カメラ 11aの対応する各構成部位と同様 の機能を備える。
[0045] 撮像部 10が備える一対の撮像光学系としてのレンズ 12a, 12bは、光軸を平行にし 、距離 Lだけ離れて位置する。撮像素子 13a, 13bは、それぞれレンズ 12a, 12bから 光軸上で距離 fだけ離れて位置する。右カメラ 11aおよび左カメラ l ibは、同一の物 体を互いに異なる位置力も異なる光路を介して撮像する。なお、レンズ 12a, 12bは、 通常は複数のレンズを組み合わせて構成され、たとえばディストーション等のレンズ の収差を良好に補正した状態にある。 [0046] 画像解析部 20は、画像処理を制御する処理制御部 21と、撮像した物体が撮像視 野内にお!、て占める領域とこの物体の種別とを識別する識別部 22と、この識別結果 に基づいて距離演算部 24が処理する演算範囲を設定する演算範囲設定手段 23と 、画像信号群を処理して撮像した物体までの距離を演算する距離演算部 24と、画像 解析部 20の各構成部位が出力する各種情報を一時的に記憶するメモリ 25と、を備 える。ここで、演算範囲設定部 23は、撮像部 10で生成した画像の中で処理を行うベ き領域を設定する処理領域設定部 230の一部をなす。また、距離算出部 24は、処理 領域設定部 230で設定した処理領域に対して所定の処理演算を行う処理演算部 24 0の一部をなす。
[0047] 距離演算部 24は、右カメラ 11aが出力する右画像信号群の中から、左カメラ l ibが 出力する左画像信号群の中の任意の左画像信号と整合する右画像信号を検出し、 この検出した右画像信号の、対応する左画像信号からの距離である移動量に基づ いて、撮像視野内に位置する物体までの距離を演算する。換言すると、演算部 21は 、右カメラ 11aが生成した右画像信号群と、左カメラ l ibが生成した左画像信号群と を、それぞれの撮像光学系の光軸の位置を基準に重ね合わせ、左画像信号群の中 の任意の左画像信号と、これに最も整合する右画像信号群の中の右画像信号とを検 出し、対応する左画像信号から右画像信号までの撮像素子上での距離である移動 量 Iを求め、三角測量の原理に基づく以下の(1)式を利用し、たとえば図 1における 撮像部 10から車両 Cまでの距離 Rを演算する。なお、移動量 Iは、撮像素子の画素 数と画素ピッチとをもとに求めるとよい。
R=f-L/I · ' · (1)
距離演算部 24は、演算範囲内の任意の画像信号に対応する物体までの距離を演 算し、演算した物体までの距離と画像内の物体の位置とを対応させ距離情報を作成 する。なお、ここでは簡単のため、平行ステレオで説明した力 光軸が角度を持って 交差したり、焦点距離がおのおの違う、撮像素子とレンズの位置関係が異なる等をキ ヤリブレーシヨンし、レクティフィケーシヨンにより補正し、演算処理による平行ステレオ を実現しても良い。
[0048] 制御部 30は、記憶部 50が記憶する処理プログラムを実行する CPUを備え、撮像 部 10、画像解析部 20、出力部 40および記憶部 50が行う各種処理および動作を制 御する。
[0049] 出力部 40は、距離情報を含む各種情報を出力する。たとえば、出力部 40は、液晶 ディスプレイ、有機 EL (Electroluminescence)ディスプレイ等の表示装置を備え、撮像 部 10が撮像した画像等、各種の表示可能な情報を距離情報とともに表示する。さら に、スピーカ一等の音声出力装置を備え、距離情報や距離情報に基づく警告等、各 種音声情報を出力するように構成してもよ 、。
[0050] 記憶部 50は、所定の OSを起動するプログラムや画像処理プログラム等の各種情 報が予め記憶された ROMと、各処理の演算パラメータや各構成部位に入出力され る各種情報等を記憶する RAMとを備える。さらに、記憶部 50は、撮像部 10が撮像し た画像情報 51、識別部 22が物体の種別を識別するために使用するテンプレート情 報 52、識別部 22が識別した物体の領域および種別の情報である識別情報 53、距 離演算部 24が演算し作成した距離情報 54を記憶する。
[0051] なお、上述した画像処理プログラムは、ハードディスク、フレキシブルディスク、 CD
-ROM, CD-R, CD-RW, DVD-ROM, DVD±R、 DVD士 RW、 DVD-R AM、 MOディスク、 PCカード、 xDピクチャーカード、スマートメディア等のコンビユー タ読み取り可能な記録媒体に記録して広く流通させることも可能である。
[0052] つぎに、画像処理装置 1が実行する処理について、図 2のフローチャートにしたが つて説明する。図 2は、画像処理装置 1が、撮像した画像に対応する距離情報を出 力するまでの処理手順を示すフローチャートである。
[0053] 図 2に示すように、撮像部 10が、所定の視野を撮像し、生成した画像信号群を画像 情報として画像解析部 20に出力する撮像処理を行う (ステップ S101)。具体的には 、撮像部 10の右カメラ 11aおよび左カメラ l ibでは、制御部 30の制御のもと、レンズ 1 2aおよび 12bをそれぞれ用いて所定の視野角に含まれる領域力 光を集光する。
[0054] レンズ 12aおよび 12bが集光した光は、撮像素子 13aおよび 13bの面上にそれぞ れ結像して電気信号 (アナログ信号)に変換される。撮像素子 13aおよび 13bが出力 するアナログ信号は、 AZD変換部 14aおよび 14bでそれぞれデジタル信号に変換 され、この変換されたデジタル信号の各々を、フレームメモリ 15aおよび 15bがー時 的に格納する。フレームメモリ 15aおよび 15bがそれぞれ一時的に格納したデジタル 信号は、所定時間経過後、画像解析部 20に送出される。
[0055] 図 3は、複眼のステレオカメラによる撮像処理を概念的に示す説明図である。同図 では、右カメラ 11aの光軸 zと左カメラ l ibの光軸 zが平行な場合を示している。この a b
場合、左カメラ固有の座標系(左カメラ座標系)に対応する左画像領域 Iの点 Aに対 b b 応する点が、右カメラ固有の座標系(右カメラ座標系)に対応する右画像領域 I a内の 直線 α (ェピポーラ線)上に存在している。なお、図 3では左カメラ l ibを基準として
E
、右カメラ 11aにおける対応点を探索する場合を図示しているが、これとは反対に右 カメラ 1 laを基準とすることもできる。
[0056] ステップ S101の撮像処理の後、識別部 22が、この画像情報を参照し、所定の物 体が占める領域とこの物体の種別とを識別し、識別した物体の領域と種別とを対応さ せた識別情報を作成する識別処理を行う (ステップ S103)。つぎに、演算範囲設定 部 23が、この識別情報を参照し、距離演算を行う演算範囲を設定する演算範囲設 定処理を行う(ステップ S 105)。
[0057] その後、距離演算部 24が、設定された演算範囲に対応する画像信号群に基づい て物体までの距離を演算し、演算した距離と画像上の物体の位置とを対応させた距 離情報を生成し、制御部 30に出力する距離演算処理を行う (ステップ S107)。
[0058] ところで、このステップ S 107における距離演算を行うためには、まず左右のカメラ座 標系を用いて撮像した視野内の全ての画素点または一部の画素点の座標値を算出 するが、これに先立って、左右のカメラ座標系における座標値の算出と、座標値間の 対応付け (対応点探索)とを行う。この対応点探索によって三次元を再構成する場合 には、基準とする方の画像を通過する任意の直線上に位置する画素点が、他方の画 像にぉ 、ても同一直線上に位置することが望ま 、(ェピポーラ拘束条件)。しかし、 このェピポーラ拘束条件は常に満足されているとは限らず、たとえば図 4に示すステ レオ画像領域 I の
ab 場合、基準とする左画像領域 Iの
b 点 Aに
b 対応する右画像領域 Iの a 点は直線 α 上に存在する一方、左画像領域 Iの点 Βに対応する右画像領域 Iの点
A b b a は直線 α 上に存在する。
Β
[0059] このようにェピポーラ拘束条件が満足されない場合には、探索範囲を絞り切ること ができず、対応点を探索する際の計算量が膨大になってしまう。そのような場合には
、画像解析部 20が、予め左右のカメラ座標系を正規ィ匕して、ェピポーラ拘束条件を 満足するような状態に変換する処理 (レクティフィケーシヨン処理)を行う。図 5は、この レクティフィケーシヨン処理後の左右画像領域の対応関係を示すものである。この図
5に示すようにェピポーラ拘束条件が満足されていれば、探索範囲をェピポーラ線 a に絞って探索することができるので、対応点探索に要する計算量を少なくすることが
E
できる。
[0060] ここで対応点探索法の一例を説明する。まず、基準とする左画像領域 Iにお 、て、 b 注目する画素点近傍に局所領域を設け、この局所領域と同様の領域を右画像領域 I の対応するェピポーラ線 α 上に設ける。そして、右画像領域 Iの局所領域をェピポ a E a
ーラ線 α 上で走査しながら、左画像領域 Iの局所領域との類似度が最も高い局所
E b
領域を探索する。この探索の結果、類似度が最も高い局所領域の中心点を左画像 領域 Iの画素点の対応点とする。
b
[0061] この対応点探索の際に用いる類似度として、局所領域内の画素点間の差の絶対値 の和(SAD : Sum of Absolute Difference)、局所領域内の画素点間の差の 2乗和(SS D : Sum of Squared Difference)、または局所領域内の画素点間の正規化相互相関( NCC : Normalized Cross Correlation)を適用することができる。これらのうち、 SADま たは SSDを適用する場合には、最小値をとる点を類似度が最も高い点とする一方、 NCCを適用する場合には、最大値をとる点を類似度が最も高い点とする。
[0062] 以上説明したステップ S107に続いて、制御部 30は、この距離情報およびこの距離 情報に基づく所定の距離情報を出力部 40に出力し (ステップ S109)、一連の処理を 終了する。なお、制御部 30は、各処理ステップで生成された情報である画像情報 51 、識別情報 53および距離情報 54を記憶部 50に随時記憶する。また、メモリ 25は、各 処理ステップで入出力される情報を一時的に記憶し、画像解析部 20の各構成部位 は、メモリ 25を介して情報を入出力する。
[0063] なお、上述した一連の処理では、識別情報 53が記憶する時系列の識別情報をもと に所定の物体が占める領域を予測することによって、識別処理を適宜スキップして処 理サイクルの高速ィ匕をは力つてもよい。また、上述した一連の処理は、たとえば、この 画像処理装置 1が搭載される車両の搭乗者等力も所定の処理終了あるいは中断の 指示がない限り、継続して繰り返す。
[0064] つぎに、図 2に示したステップ S103の識別処理について説明する。図 6は、識別処 理の処理手順を示すフローチャートである。図 6に示すように、識別部 22が、撮像部 10が生成した画像情報を参照し、物体に対応する領域とこれ以外の領域とに分割す る領域分割処理を行い (ステップ S 122)、物体の種別を識別し、識別した物体の領 域と種別とを対応させた識別情報を作成する物体識別処理を行い (ステップ S124) 、識別情報を出力し (ステップ S126)、ステップ S103にリターンする。
[0065] ステップ S 122に示した領域分割処理では、識別部 22が、撮像部 10の右カメラ 11a もしくは左カメラ 1 lbが撮像した画像をもとに、任意の領域の境界であるエッジを抽出 したエッジ抽出画像を生成する。具体的に、識別部 22は、たとえば、図 7に示す画像 17をもとに、図 8および図 9に示すエッジ抽出フィルタ Fl, F2を用いてエッジを抽出 し、図 10および図 11に示すエッジ抽出画像 22a, 22bを生成する。
[0066] 図 8は、識別部 22が用いる縦方向エッジ抽出フィルタの一例を示す図である。図 8 に示す縦方向エッジ抽出フィルタ F1は、 5 X 5画素の領域を同時にフィルタリングす る 5 X 5オペレータである。この縦方向エッジ抽出フィルタ F1は、縦方向のエッジに対 して抽出感度が最も高ぐ横方向のエッジに対して抽出感度をもたない。一方、図 9 は、識別部 22が用いる横方向エッジ抽出フィルタの一例を示す図である。図 9に示 す横方向エッジ抽出フィルタ F2は、横方向のエッジに対して抽出感度が最も高ぐ縦 方向のエッジに対して抽出感度をもたな 、。
[0067] 図 10は、識別部 22が縦方向エッジ抽出フィルタ F1によって画像 17から抽出したェ ッジを示す図である。図 10に示すエッジ抽出画像 22aでは、実線で表すエッジが、 縦方向エッジ抽出フィルタ F 1によって抽出した縦方向のエッジを示し、点線で表す エッジが、縦方向エッジ抽出フィルタ F 1によって抽出した縦方向以外のエッジを示し ている。なお、縦方向エッジ抽出フィルタ F1によって抽出できない横方向のエッジは 、エッジ抽出画像 22aに示されていない。
[0068] 一方、図 11は、識別部 22が横方向エッジ抽出フィルタ F2によって画像 17から抽 出したエッジを示す図である。図 11に示すエッジ抽出画像 22bでは、実線で表すェ ッジが、横方向エッジ抽出フィルタ F2によって抽出した横方向のエッジ示し、点線で 表すエッジが、横方向エッジ抽出フィルタ F2によって抽出した横方向以外のエッジを 示している。なお、横方向エッジ抽出フィルタ F2によって抽出できない縦方向のエツ ジは、エッジ抽出画像 22bに示されていない。
[0069] 識別部 22は、縦方向情報であるエッジ抽出画像 22aと横方向情報であるエッジ抽 出画像 22bとを合成し、図 12に示すように、エッジ統合画像 22cを作成する。さらに、 識別部 22は、エッジ統合画像 22cをもとに、図 13に示すように、エッジがつくる閉曲 線で囲まれた領域とこれ以外の領域とに領域を分割した画像である領域分割画像 2 2dを作成する。なお、領域分割画像 22dでは、閉曲線で囲まれた領域である領域 Sa 1, Sa2および Sbが斜線で示されている。
[0070] 一方、ステップ S 124に示した物体識別処理で、識別部 22は、領域分割画像をもと に、閉曲線で囲まれた領域を所定の物体に対応する領域と認識し、この領域に対応 する物体の種別を識別する。このとき、識別部 22は、テンプレート情報 52が格納する 所定の物体の典型的なパターンを表現した複数のテンプレートを参照し、物体に対 応する領域とテンプレートとを順次照合し、最も相関の高いテンプレート、もしくは所 定値以上の相関係数を示すテンプレートが表現する物体をこの領域に対応する物 体として識別するテンプレートマッチングを行 、、この識別した物体の領域と種別とを 対応させた識別情報を作成する。
[0071] 具体的に、識別部 22は、図 14に示すように、領域分割画像 22d内の物体に対応 する領域として分割した領域 Sal, Sa2および Sbに順次テンプレートを重ね合わせ、 各領域に最も相関の高いテンプレートとして車両テンプレート 52ecl、 52ec2および 人物テンプレート 52ehを選択する。この結果、識別部 22は、領域 Sal, Sa2に対応 する物体が車両であると識別し、領域 Sbに対応する物体が人であると識別する。そし て、識別部 22は、図 15に示すように、物体の領域と種別とを対応させた識別情報 53 aを作成する。なお、識別部 22は、識別情報として作成した車両領域 Sac 1, Sac2お よび人領域 Sbhに対して個別のラベルを設定し、この設定したラベルによって各領域 を認識するようにしてもよ 、。
[0072] つぎに、図 2に示したステップ S105の演算範囲設定処理について説明する。図 16 は、演算範囲設定処理の処理手順を示すフローチャートである。図 16に示すように、 演算範囲設定部 23が、識別情報を参照し、物体に対応する領域に所定の余裕領域 を付加する識別情報処理を行 、 (ステップ S 142)、この余裕領域を付加した領域を、 距離演算部 24が行う距離演算の演算範囲に設定する演算範囲設定を行い (ステツ プ S144)、設定した演算範囲の情報を出力し (ステップ S146)、ステップ S105にリタ ーンする。
[0073] ステップ S 142に示した識別情報処理で、演算範囲設定部 23は、図 17に示すよう に、識別情報 53a内の車両領域 Sacl, Sac2および人領域 Sbhに対して必要に応じ て余裕領域を付カ卩し、新たに車両領域 Sacbl, Sacb2および人領域 Sbhbとして領 域を設定した識別情報 53bを作成する。この余裕領域は、領域分割画像 22d作成時 の領域分割の境界部分に関する微小誤差を吸収する、あるいは撮影時と処理時の 時間遅れに基づ 、て識別すべき物体自体の動きや変形に対する領域の補正を吸収 する等の目的に基づいて付加する領域である。さらに、演算範囲設定部 23は、図 18 に示すように、識別情報 53bの領域 Sacbl, Sacb2および Sbhbに対する距離演算 の演算範囲を、それぞれ演算範囲 23acl, 23ac2および 23bhと設定し、演算範囲 情報 23aを作成する。
[0074] つぎに、図 2に示したステップ S107の距離演算処理の中で、距離演算部 24が作 成する距離情報の一例について説明する。図 19は、図 7に示した画像 17をもとに、 図 18に示した演算範囲情報 23aに対応して距離演算部 24が作成した距離情報 54a の一例を示す図である。距離情報 54aは、距離演算結果 54acl, 54ac2および 54b h力 それぞれ演算範囲 23acl, 23ac2および 23bhに対応する距離演算の結果を 表す。また、各距離演算結果は、図 19に示すように、距離演算部 24が、それぞれ対 応する演算範囲内を所定のマトリクス状の小領域に分割し、この分割した小領域ごと に対応する物体までの平均距離を演算した結果を数値で示して!/ヽる。この各距離演 算結果で示される数値は、所定の単位系で距離を表した数値であって、たとえばメー トル単位で表した数値である。なお、距離演算結果 54acl, 54ac2および 54bhは、 それぞれ画像 17の車両 CI, C2および人 HIまでの距離を表している。なお、このマ トリタス状の小領域の分割は、距離演算処理能力と処理スピードの関係に基づいて 設定したり、識別すべき物体に対する分解能 (解像度)に基づいて設定したりしてよ い。
[0075] 以上説明したこの実施の形態 1に係る画像処理装置 1は、画像情報から所定の物 体に対応する領域を抽出し、この抽出した領域に限定して距離演算を行うため、画 像情報のすべての画像信号に対して距離演算を行う従来の画像処理装置と比べ、 距離演算の処理の負荷を軽減し、距離演算に要する時間を短縮することができる。こ の結果、画像処理装置 1は、画像を取得して力 距離情報を出力するまでに要する 処理時間を短縮し、高速に距離情報を出力することができる。
[0076] なお、画像処理装置 1が実行する処理について、図 2に示した一連の処理を逐次 実行するように説明したが、実際には、ノ ィプライン処理によって、複数の処理を並 行して実行することが好ましい。このパイプライン処理の一例を図 20で説明する。図 20は、図 2に示した一連の処理のタイミングを示すタイムチャートである。図 20に示 す撮像期間 Tl、識別期間 Τ2、設定期間 Τ3、演算期間 Τ4および出力期間 Τ5は、 それぞれ図 2に示した撮像処理、識別処理、演算範囲設定処理、距離演算処理およ び距離情報出力の各処理を実行する時間に対応する。第 1処理サイクルは、時刻 tl で撮像処理を開始し、撮像期間 T1から出力期間 T5までの一連の処理期間を経て 距離情報を出力する。通常、次の第 2処理サイクルは、第 1処理サイクルの距離情報 の出力を待って処理を開始する力 ノ ィプライン処理によって、この出力を待たずに 時刻 t2で撮像処理を開始する。この場合、時刻 t2は、第 1処理サイクルの撮像処理 が終了した時刻であって、第 1処理サイクルの撮像処理と第 2処理サイクルの撮像処 理とは連続して行われる。撮像処理以外の各処理も同様に、第 1処理サイクルで処 理が終了した直後に第 2処理サイクルで同じ処理が開始される。また、第 3処理サイ クル以降でも、同様のタイミングで各処理が実行され、一連の処理が繰り返される。こ の結果、繰り返し距離情報を出力する場合、出力周期を短縮することができ、一層高 V、頻度で距離情報を出力することができる。
[0077] また、演算処理を高速化する手法として、画像処理装置 1では、さらに各種の手法 が適用できる。たとえば、画像情報として扱う色の数を減らして演算処理を高速化す る手法が適用できる。この手法は、 RGB3原色の各色で扱う階調数を減らし、階調に 係るビット数であるデータ数を減らして演算処理を高速ィ匕することができる。
[0078] また、画像情報として扱う画像信号の数を減らして演算処理を高速化する手法も適 用できる。この手法は、たとえば、画像情報から所定の間隔で画像信号を抽出し、演 算処理に供する画像信号の数を減らして演算処理を高速化することができる手法で あって、高精細に画像を認識する必要がな 、場合等に有効な手法である。
[0079] さらに、画像情報として扱う画像信号の数を減らす手段として、撮像領域を縮小す ることも有効である。たとえば、自車両が高速道路を走行する場合、自車両力も比較 的遠距離にある先行車両や障害物等の検知が重要であり、比較的近距離にある物 体を検知する必要性が低いことが多い。この場合、画像を撮像する段階もしくは画像 を処理する段階で、撮像視野の周辺にマスクをかける等の手段によって画像情報を 削減し、演算処理に供する画像信号の数を減らして演算処理を高速化することがで きる。
[0080] また、処理の繰り返しを高速化する手法として、画像処理装置 1における識別部 22 および演算範囲設定部 23に対応する処理機構を 2系統備え、この 2系統の処理機 構が、並行して識別処理および演算範囲設定処理を実行するようにしてもよい。この 場合、 2系統の処理機構のそれぞれを右カメラおよび左カメラに対応させ、対応する カメラが生成する画像情報をもとに、各系統の処理機構が、並行して識別処理およ び演算範囲設定処理を実行することによって、処理の繰り返しを高速化することがで きる。
[0081] さらに、上述した画像処理装置 1において、所定の物体を識別する方法として、画 像情報力もエッジを抽出して領域分割し、テンプレートマッチングによって物体の種 別を識別するようにしたが、この方法に限らず、各種の領域分割方法やパターンの識 別方法が適用できる。
[0082] たとえば、領域分割の方法として、ハフ変換 (Hough transform)を利用し、画像情報 力も直線ある 、は所定の曲線を検出して物体の輪郭を抽出するようにしてもょ 、。ま た、濃度分布、濃度勾配、色の階調等の特徴から、クラスタリング (Clustering)手法を 利用して領域分割するようにしてもょ ヽ。
[0083] さらに、物体の識別方法として、たとえば、後方力 見る輪郭において多くの車両が 左右の対象性を有することを利用して、画像情報において左右対称な領域を抽出し 、その領域を車両に対応する領域と判断するようにしてもょ ヽ。
[0084] また、時系列の複数枚の画像情報カゝら特徴点を抽出し、異なる時刻の対応する特 徴点を比較し、変動が同じ傾向にある特徴点をグループィ匕し、グループ化した周辺 の領域が着目すべき物体に対応する領域と判断した上で、グループ化した特徴点の 分布の変形の大きさを識別し、車両等の剛体であるか、人等の非剛体であるかを判 断するようにしてちょい。
[0085] さらに、画像情報の中の色や濃度等の分布力 アスファルト、土、砂利等の路面に 相当する領域を概略抽出し、路面の領域に別の異なる特徴を有する領域が現れた 場合に、その領域を障害物に対応する領域と判断するようにしてもよい。なお、領域 分割処理等の前処理を省略し、テンプレートマッチングだけで物体を識別するように してちよい。
[0086] (実施の形態 2)
つぎに、本発明の実施の形態 2について説明する。上述した実施の形態 1では、撮 像部 10からの画像信号群を処理して撮像した物体までの距離を検出するようにして いたが、この実施の形態 2では、撮像視野内に位置する物体までの距離をレーダで 検出するようにしている。
[0087] 図 21は、本発明の実施の形態 2に係る画像処理装置の構成を示すブロック図であ る。図 21に示す画像処理装置 2は、上述した実施の形態 1に係る画像処理装置 1〖こ さらにレーダ 260を備える。また、画像解析部 220は、処理制御部 21と、識別部 22と 、演算範囲設定部 23 (処理領域設定部 230の一部)と、メモリ 25とを備える。さらに、 制御部 30に代えて、さらにレーダ 260を制御する機能を有した制御部 130を備える 。その他の構成は、実施の形態 1と同じであり、同一構成部分には同一符号を付して いる。
[0088] レーダ 260は、所定の発信波を送信し、この発信波が物体表面で反射した反射波 を受信し、発信状態および受信状態をもとに、レーダ 260から発信波を反射した物体 までの距離と、その物体が位置する方向とを検出する。レーダ 260は、発信波の発信 角度、反射波の入射角度、反射波の受信強度、発信波を発信してから反射波を受 信するまでの時間、受信波および反射波における周波数変化をもとに、発信波を反 射した物体までの距離および方向を検出する。レーダ 260は、撮像部 10の撮像視野 内に位置する物体までの距離を、その物体が位置する方向とともに制御部 130に出 力する。レーダ 260は、送信波として、たとえば、レーザ光、赤外光、ミリ波、マイクロ 波、超音波などを送信する。
[0089] この実施の形態 2に係る画像処理装置 2では、撮像部 10からの画像情報を処理し て距離を演算する代わりにレーダ 260により距離を検出するため、一層高速かつ高 精度に距離情報を取得できる。
[0090] なお、画像処理装置 2では、撮像部 10によって撮像された画像信号群における位 置関係とレーダ 260の検出範囲における位置関係との整合は、以下のように予め求 めたうえで各処理を行う。たとえば、画像処理装置 2は、形状が既知の物体に対して 、撮像部 10による撮像処理およびレーダ 260による検出処理を行い、撮像部 10およ びレーダ 260のそれぞれによって処理した既知の物体の位置を求める。その後、画 像処理装置 2は、最小 2乗法などを用いて、撮像部 10およびレーダ 260のそれぞれ によって処理した既知の物体の位置の関係を求め、撮像部 10によって撮像された画 像信号群における位置関係とレーダ 260の検出範囲における位置関係とを整合する
[0091] また、画像処理装置 2では、撮像部 10の撮像原点とレーダ 260の検出原点とがず れている場合があっても、撮像点および検出点カゝら画像処理装置 2までの距離が十 分に離れた場合であれば、撮像原点と検出原点とがほぼ重なっているものとみなす ことができる。さらに、撮像部 10によって撮像された画像信号群における位置関係と レーダ 260の検出範囲における位置関係との整合が正確に行われている場合には、 幾何変換によって、撮像原点と検出原点とのずれを補正することも可能である。
[0092] なお、画像処理装置 2では、撮像部 10によって撮像された画像信号群の各画像信 号が位置する画素行に、レーダ 260の各レーダ検出点が所定間隔で位置するように 設定するとよい。また、このように各レーダ検出点が設定されない場合、各画像信号 の近傍に位置する複数のレーダ検出点をもとに、一次補間法などを用いて各画像信 号と同一画素行にレーダ検出点の補間点を求め、この補間点を用いて検出処理を 行うようにすればよい。
[0093] (実施の形態 3)
図 22は、本発明の実施の形態 3に係る画像処理装置の構成を示すブロック図であ る。同図に示す画像処理装置 3は、所定の視野を撮像する撮像部 10、この撮像部 1 0が生成した画像を解析する画像解析部 320、画像処理装置 3の動作制御を行う制 御部 330、画像や文字等の情報を表示出力する出力部 40、および各種データを記 憶する記憶部 350を有する。なお、画像処理装置 3において、上記実施の形態 1に 係る画像処理装置 1と同一構成部分には同一符号を付している。
[0094] 画像解析部 320は、撮像部 10が撮像する視野に含まれる画像の全ての構成点ま たは一部の構成点 (画素点)までの撮像部 10からの距離を含む距離情報を生成する 距離情報生成部 321、この距離情報生成部 321で生成した距離情報と撮像部 10で 撮像した画像データとを用いて三次元的な距離画像を生成する距離画像生成部 32 2、および距離情報と距離画像とを用いて画像処理を行う画像処理部 323を有する。 ここで、距離画像生成部 322は、撮像部 10で生成した画像の中で処理を行うべき領 域を設定する処理領域設定部 3220の一部をなす。また、画像処理部 323は、処理 領域設定部 3220で設定した処理領域に対して所定の処理演算を行う処理演算部 3 230の一部をなす。また、画像解析部 320は、後述する各種処理を行う上で必要な 種々のパラメータを算出する機能 (キャリブレーション機能)と、画像を生成する際、必 要に応じて補正処理 (レクティフィケーシヨン処理)を行う機能を備えて!/、る。
[0095] 制御部 330は、画像の全ての構成点または一部の構成点の距離情報に対応して 画像処理部 323が行うべき画像処理手法を複数の画像処理手法の中から選択する 処理選択部 331を有する。
[0096] 記憶部 350は、撮像部 10において撮像した画像データ 351、この画像データ 351 の全ての構成点または一部の構成点の距離情報 352、処理選択部 331において選 択対象となる画像処理手法 353、および画像中の物体認識の際に用いるさまざまな 物体 (車両、人物、路面、白線、標識等)のパターンを画素点単位で表現したテンプ レート 354を記憶、格納する。
[0097] 以上の構成を有する画像処理装置 3が実行する画像処理方法について、図 23〖こ 示すフローチャートを参照して詳細に説明する。まず、撮像部 10が、所定の視野を 撮像して画像を生成する撮像処理を行う (ステップ S301)。
[0098] ステップ S301の撮像処理の後、画像解析部 320内の距離情報生成部 321は、画 像の全ての構成点または一部の構成点までの距離を算出し、この算出した全ての構 成点または一部の構成点までの距離を含む距離情報を生成する (ステップ S303)。 より具体的には、距離情報生成部 321が、左右のカメラ座標系を用いて撮像した視 野内の全ての画素点または一部の画素点の座標値を算出する。続いて、距離情報 生成部 321は、算出した画素点の座標値 (X, y, z)を用いて車両最前面力も撮像さ れた点までの距離 Rを算出する。ここで、カメラ座標系における車両最前面の位置は 、予め実測しておく必要がある。その後、距離情報生成部 321は、算出した画像の全 ての画素点または一部の画素点の座標値 (X, y, z)および距離 Rを、対応する画像と 関連付けて距離情報を生成し、記憶部 350に格納する。
[0099] 続くステップ S305では、距離画像生成部 322が、ステップ S 303で生成した距離情 報をステップ S301で生成した画像に重畳することによって距離画像を生成する。図 24は、出力部 40における距離画像の表示出力例を示す図である。同図に示す距離 画像 301は、濃淡の度合いによって撮像部 10からの距離を表現しており、遠方ほど 濃く表示されている。
[0100] その後、制御部 30内の処理選択部 331は、記憶部 350で格納する画像処理手法 353の中から、画像内の各点に対し、ステップ S303で求めた距離情報に応じて画像 処理部 323が実行する画像処理手法の選択を行う(ステップ S307)。画像処理部 32 3は、ステップ S307で処理選択部 331が選択した画像処理手法にしたがって画像 処理を行う(ステップ S309)。この際に画像処理部 323は、処理選択部 331が選択し た画像処理手法を記憶部 350から読み出し、この読み出した画像処理手法に基づく 画像処理を行う。
[0101] 図 25は、処理選択部 331が距離情報に応じて選択する画像処理手法の一例を示 す図である。同図に示す対応表 81では、ステップ S303で算出した画像の全ての構 成点または一部の構成点までの距離に応じて認識すべき対象物と、各距離帯域で 所定の対象物を認識した場合に実際に適用される画像処理手法の対応を示してい る。以下、この対応表 81を参照して、画像処理部 323が距離情報に対応して適用す る画像処理手法を具体的に説明する。
[0102] まず、ステップ S303における距離情報生成処理の結果、撮像部 10からの距離が 0 〜50mの範囲(以後、「距離範囲 0〜50m」と表現する)にある画素点の組に対して は、路面の検知を行う。この路面検知の際には、距離範囲 0〜50mにある画素点の 組を一つの閉領域として取り扱 ヽ、この閉領域が路面に対応する画像を構成して 、 るかどうかを調べる。より具体的には、記憶部 350のテンプレート 354に予め記憶して おいた路面に関するパターンと、距離画像 301内の画素点のうち距離範囲 0〜50m の範囲にある画素点力も構成されるパターンとを比較することによって、両者の相関 を調べる(テンプレートマッチング)。このテンプレートマッチングの結果、路面のパタ ーンと所定の相関関係を満たすパターンを距離画像 301内で検知した場合には、そ のパターンから路面の状況を認識する。ここでいう路面の状況とは、たとえば路面の 曲がり具合 (直進力カーブ力 や路面上の凍結の有無等である。なお、図 25の他の 検知範囲に係る画像処理手法においても、ここで説明したのと同様のテンプレートマ ツチングを行うことにより、各検知範囲に応じた対象物の検知、認識を行う。
[0103] 図 26は、距離範囲 0〜50mで路面を検知した場合に画像処理部 323が行う画像 処理手法の一例を示す図である。同図に示す表示画像 401は、路面を検知した結 果として、自車両が走行している路面が直進していることを表示している。なお、検知 した路面がカーブを描いている路面であると認識した場合には、「ノヽンドルを切ってく ださ!/、」等のメッセージを表示出力するようにしてもよ!、。
[0104] 次に、距離範囲 10〜50mにある画像構成点に対しては、白線の有無を検知し、白 線を検知した場合には、自車両の走行レーンの把握を行う。この場合、自車両が走 行レーンを逸脱しそうになつたときには、その旨報知する。図 27は、距離範囲 10〜5 Omで白線検知を行った結果、走行レーンを逸脱する方向に自車両が走行しつつあ ることを検知した場合の出力部 40における表示例を示す図である。同図に示す表示 画像 402は、画像処理部 323における判断結果として、検知している白線の向きまた はパターン力 自車両の進行方向に対して正常でないと判断した場合の出力部 40 における表示例を示しており、「レーンを外れます、右へ」という警告メッセージを表示 している。この警告メッセージの表示に合わせて、同じ内容を音声で出力したり、警 告音を発生したりしてもよい。なお、ここでは走行路区分線として白線を例にとって説 明を行ったが、白線以外の走行路区分線 (たとえば黄線)を検知してもよい。
[0105] 距離範囲が 30〜70mの範囲にある画像構成点に対しては、先行する車両の検知 を行い、先行車両を検知した場合には警告の発生等の処理を施す。図 28は、撮像 部 10力も 40m前方に車両を検知した場合の出力部 40の表示例を示す図である。同 図に示す表示画像 403では、対象物である車両に閉領域を明示するウィンドウを画 面上に設けることにより、搭乗者が対象物を判別しやすくするとともに、「ブレーキをか けてください」という警告を出力している。なお、この場合を含む以下の全ての距離範 囲においても、上記距離範囲における処理と同様、メッセージの表示と同時に音や 音声メッセージの出力を行うことができる。
[0106] 距離範囲が 50〜: LOOmの範囲にある画像構成点に対しては、人物(または障害物 )の検知を行い、検知した場合には警告の発生等の処理を行う。図 29は、撮像部 10 力 70m前方で人が道路を横断して 、るのを検出し、「回避が必要です」と!、うメッセ ージを表示する場合の表示画像 404を示して 、る。
[0107] 距離範囲が 70〜 150mの範囲にある画像構成点に対しては、信号等の道路標識 の検知を行い、検知した場合には標識の種別等の認識を少なくとも行う。図 30に示 す表示画像 405では、撮像部 10から 120m先に信号があることを検知し、その信号 に注意喚起のためのウィンドウを設けるとともに、「信号あります」というメッセージを表 示した場合を示している。信号の検知時には、同時に信号の色を検知し、たとえば信 号が赤の場合には、ブレーキの準備を促すようなメッセージを出力してもよい。
[0108] 最後に、撮像部 10からの距離が 150mより遠方の範囲にある画像構成点に対して は空の検知を行い、空の色、輝度、雲の量などを認識する。図 31に示す表示画像 4 06は、距離範囲が 150m以遠の空を検知した結果、進行方向は雲が多くて暗くなつ てくると判断し、自車両のライト点灯を促すメッセージを表示した場合を示して 、る。 空の状況判断としては、他にも雨粒を検知してワイパーの作動を促すメッセージを表 示出力したりすることも可能である。
[0109] なお、以上説明した対応表 81に示す検知範囲と画像処理手法との対応はあくまで も一例を示したものに過ぎない。たとえば、対応表 81では、一つの検知範囲で一つ の画像処理を行う場合を示して!/、るが、一つの検知範囲で複数の画像処理を実行 するように設定することもできる。この場合には、たとえば検知範囲 0〜50mにおいて 路面検知と人物検知を行い、検知した対象物に応じた画像処理を行うようにする。
[0110] また、以上の説明では、一つの画像内で一つの画像処理を施した場合について説 明したが、実際には表示画像内の異なる視野領域において、検知範囲に応じた別の 画像処理を同時に実行することも可能である。
[0111] さらに、対応表 81以外の検知範囲と画像処理手法の組み合わせを記憶部 350の 画像処理手法 353に複数記憶しておき、距離情報を時系列に並べたときの任意の 画素点の変位を算出して求められる自車両の速度や、路面や空を検知することによ つて把握することができる走行領域の現況 (たとえば天候や昼夜の区別など)、あるい はブレーキを掛けて力 車両が停止するまでの距離 (制動距離)などのさまざまな条 件に応じて最適な組み合わせに変更するようにしてもよい。この際には、画像処理装 置 3内に別に設けられる選択方法変更手段が、処理選択部 331における画像処理 手法の選択方法を変更する。
[0112] この一例として、自車両の速度に応じて検知範囲と画像処理手法の組み合わせを 変更する場合を説明する。この場合、同じ画像処理手法を適用する検知範囲の上限 と下限が一定の割合だけ異なるものを複数用意して記憶部 350で記憶しておく。たと えば、上述した対応表 81は、自車両が所定の中速帯域で走行しているときに適用さ れるものとする。このとき、自車両がより高速帯域で走行していれば、各検知範囲の 上限と下限の値が対応表 81よりも一定の割合だけ大きくなる組み合わせに変更する (たとえば、対応表 81適用時よりも自車両が高速で走行している場合には、路面検 知の上限を 50mよりも所定の割合だけ大きくする)。他方、自車両がより低速帯域で 走行して 、れば、各検知範囲の上限と下限の値が一定の割合だけ小さ 、組み合わ せに変更する。これにより、自車両の走行速度に応じて最適な画像処理を行うことが 可能となる。
[0113] 以上説明した本発明の実施の形態 3によれば、撮像した画像をもとに生成した画像 の全ての構成点または一部の構成点までの距離情報と距離画像とを用いてその画 像の全ての構成点または一部の構成点までの距離に応じた画像処理手法を選択し 、この選択した画像処理手法を適用することによって、撮像する画像に含まれるさま ざまな情報を多面的に処理することが可能となる。
[0114] (実施の形態 4)
図 32は、本発明の実施の形態 4に係る画像処理装置の構成を示すブロック図であ る。同図に示す画像処理装置 4は、所定の視野を撮像する撮像部 10、この撮像部 1 0が生成した画像を解析する画像解析部 420、画像処理装置 4の動作制御を行う制 御部 430、画像や文字等の情報を表示出力する出力部 40、および各種データを記 憶する記憶部 450を有する。なお、画像処理装置 4において、上記実施の形態 1〖こ 係る画像処理装置 1と同一構成部分には同一符号を付している。
[0115] 画像解析部 420は、撮像部 10で撮像した画像の中から所定の対象物を検知する 対象物検知部 421、撮像部 10が撮像する視野領域に含まれる対象物までの撮像部 10からの距離を算出する距離算出部 422、撮像した画像内で画像処理の対象とな る処理領域を設定する処理領域設定部 423、および処理領域設定部 423で設定し た処理領域に対して所定の画像処理を行う画像処理部 424を有する。ここで、画像 処理部 424は、処理領域設定部 423で設定した処理領域に対して所定の処理演算 を行う処理演算部 4240の一部をなす。
[0116] 制御部 430は、対象物検知部 421で検知した対象物の未来位置を予測する位置 予測部 431を有する。
[0117] 記憶部 450は、撮像部 10において撮像した画像データ 451、画像データ 451の視 野内に含まれる撮像対象までの距離情報と画像データ 451に係る時刻情報とを含む 距離時刻情報 452、画像処理部 424における画像処理の具体的な手法である処理 内容 453、および画像中の物体認識の際に用いるさまざまな物体 (車両、人物、路面 、白線、標識等)の形状パターンを画素点単位で表現したテンプレート 454を記憶、 格納する。
[0118] 以上の構成を有する画像処理装置 4が実行する画像処理方法について、図 33〖こ 示すフローチャートを参照して詳細に説明する。まず、撮像部 10が、所定の視野を 撮像して画像を生成する撮像処理を行う (ステップ S401)。なお、フレームメモリ 15a および 15bがそれぞれ一時的に格納したデジタル信号は、所定時間経過後、画像 解析部 420に送出されるが、この際には、撮像した画像に係る時刻情報も一緒に画 像解析部 420に送出される。
[0119] 次に、対象物検知部 421が、ステップ S401で生成した画像を用いて画像処理の 対象となる対象物の検知を行う (ステップ S403)。対象物を検知する際には、記憶部 450のテンプレート 454内に格納されているさまざまな物体の形状パターン(車両、 人物、路面、白線、標識、信号機等)の中から対象物の形状パターンを読み出し、画 像内のパターンと比較することによって両者の相関を調べる(テンプレートマッチング )。以後の説明においては、説明の便宜上先行する車両 Cを対象物とするが、これは あくまでも一例に過ぎない。
[0120] ステップ S403におけるテンプレートマッチングの結果、対象物である車両 Cに類似 するパターンを検知した場合には、距離算出部 422が車両 Cまでの距離を算出する (ステップ S405)。距離算出部 422は、まず左右のカメラ座標系を用いて撮像した視 野内の車両 Cを構成する点の全ての座標値または一部の座標値を算出する。続ヽ て、距離算出部 422は、算出した画素点の座標値 (x,y,z)を用いて車両最前面から 撮像された点までの距離 Rを算出する。なお、カメラ座標系における車両最前面の位 置は、予め実測しておく。その後、各構成点までの距離を平均することにより、車両 C までの距離を求めて記憶部 450に記憶、格納する。
[0121] ところで、距離算出部 422の距離算出能力は計算時間を増加するにつれて向上す る。このため、たとえば距離算出部 422が繰り返し法によって測距精度が向上する処 理を行う場合、繰り返しの初期の段階で撮像対象までの距離が近 、場合にはその段 階で距離算出を中止する一方、繰り返しの初期の段階で撮像対象までの距離が遠 い場合には所定の精度が得られるまで距離算出処理を繰り返す。
[0122] なお、撮像部 10で生成した画像データ 451を構成する視野全域に対し、距離算出 部 422で生成した距離等の情報を重畳することによって距離画像 (図 24を参照)を 生成してちょい。
[0123] ステップ S405に続いて、位置予測部 431が、車両 Cの距離時刻情報 452 (時刻 t : nは正の整数)と、この距離時刻情報 452における時刻 tよりも所定時間 A tだけ前 の時刻 t =t—A tにおける車両 Cの距離時刻情報 452 とを用いることにより、時 π - 1 n n— 1
刻 t力 所定時間 A t経過した後の時刻 t (=t + A t)における車両 Cの位置 (未来 n n+1 n
位置)を予測する(ステップ S407)。
[0124] 図 34は、このステップ S407における予測処理の結果を視覚的に示す図である。同 図に示す表示画像 501では、各々異なる 3つの時刻 t 、t、および t における車両
n-1 n n+1
Cの画像 C 、C、および C を重畳して表示している。これらの画像のうち、画像 c
n-1 n n+1 n - と画像 Cはすでに撮像した画像データ 451を用いて表示する。これに対して車両 C
1 n
の予測未来位置である画像 C は次のように生成する。まず、画像 C と画像 Cの対
n+1 n-1 n 応点を結んでベクトル (移動ベクトル)を作成する。その後、ベクトルの長さがそれぞ れ 2倍となるように各ベクトルを延長する(図 34では、延長分を破線で表示)。この延 長したベクトルの終点を結んで車両の輪郭を形成することによって画像 C を生成す
n+1
る。ここで車両の輪郭を形成する際には、隣接するベクトルの終点間に適当な補間 処理を施す。なお、図 34では車両の代表的な点の移動ベクトルのみを表示している 力 車両を構成する画素点ごとに移動ベクトルを全て求めることによって三次元ォプ ティカルフローを形成してもよ!/、。
[0125] 以上説明したステップ S407では、二つの距離時刻情報を用いて画像を生成し、対 象物の未来位置を予測したが、この予測処理は車両 Cの自車両に対する相対速度 が一定であると仮定して、この相対速度を算出していることに相当する。この意味で 表示画像 501は、車両 Cと自車両が同じ方向に直進し、車両 Cの路面に対する速さ が自車両の路面に対する速さよりも小さ 、場合を示して 、る。
[0126] 続くステップ S409では、処理領域設定部 423が、車両 Cの予測未来位置に相当 する画像 C を用いて画像処理を行う処理領域を設定する。図 35は、このステップ S
n+1
409で設定した処理領域の一設定例を示す図である。同図に示す表示画像 502に お!、て、処理領域 Dはステップ S407で求めた車両 Cの予測未来位置(画像 C )を
n+1 含む。このステップ S407では、相対速度が一定であるという前提のもとに未来位置 の予測処理を行ったが、実際の車両 Cおよび自車両の動きが必ずしも予測した通り になるとは限らない。このため、処理領域 Dの設定に際しては、予測未来位置を含む とともに、その予測未来位置力も所定範囲の誤差を含むように設定する。なお、処理 領域 Dの境界は画面上で明示しなくてもょ 、。
[0127] このステップ S409の後、処理領域 Dに対して所定の画像処理を行う(ステップ S41 D o図 36は、画像処理の一例を示す図である。同図に示す表示画像 503では、処 理領域 D内で車両 Cを検出したため自車両に近づいてきていると判断し、「ブレーキ をかけてくださ!/、」 t\、うメッセージを表示して 、る。このメッセージの表示に合わせて 警告音または警告メッセージを出力部 40が有するスピーカから出力してもよい。
[0128] 他の画像処理としては、たとえば車両 Cがステップ S407で予測した位置を含む処 理領域を逸脱した場合には、その逸脱した内容に応じたメッセージを出力部 40の画 面上で表示したり、警告音または警告メッセージを出力したりしてもよい。
[0129] また、自車両から処理領域までの距離に応じて画像処理の手法を変更してもよいし 、自車両の走行状況 (速度、加速度、ハンドル操作時の操舵角等)に応じて画像処 理の手法を変更してもよい。このように変更を行う際には、制御部 430に設けられる 処理変更部力 記憶部 450で記憶する処理内容 453を参照することによって画像処 理手法の変更を行う。
[0130] 以上説明した本発明の実施の形態 4によれば、撮像位置から検知した対象物まで の距離を算出し、対象物を含む複数の画像のうち、少なくとも二つの異なる時刻に撮 像された画像に含まれる対象物までの距離を用いて所定時間経過後の対象物の自 車両に対する相対位置を予測し、この予測結果に基づ ヽて画像処理を行う処理領 域を設定し、この設定した処理領域に対して所定の画像処理を行うことにより、撮像 する画像内に含まれるさまざまな情報を多面的に処理することが可能となる。
[0131] また、この実施の形態 4によれば、 3次元移動ベクトルを用いて対象物である車両の 未来位置を予測し、この予測結果に基づ ヽて画像処理を行う処理領域を設定するこ とにより、所定の画像処理を行う処理領域を狭めることができ、迅速かつ効率的な画 像処理を実現することが可能となる。
[0132] 本実施の形態 4では、異なる二つの時刻における対象物までの距離を利用してそ の対象物の未来位置の予測を行った力 それら二つの時刻とは異なる時刻における 対象物までの距離をさらに用いることにより、各点の 2次差分を算出して対象物の自 車両に対する相対加速度を求めることができ、対象物の未来位置をより正確に予測 することが可能となる。
[0133] また、 GPS (Global Positioning System)と自車両の現在位置または自車速度とを用 いることにより、 GPSが記憶する三次元地図情報を参照して距離時刻情報等の補正 を行うとともに、動体判別の処理が容易になる。この結果、より精度の高い未来位置 の予測が可能となり、画像処理装置の信頼性を一段と向上させることができる。なお 、この場合には、記憶部 450が三次元地図情報を記憶する三次元地図情報記憶部 としての機能を有する構成とすればよ!、。
[0134] なお、本実施の形態 4に係る画像処理装置に、処理領域に対する画像処理の手法 を変更する処理変更手段を具備させてもょ 、。このような処理変更手段を具備させる ことにより、たとえば空の検知結果力 把握できる天候や昼夜の区別に応じて各処理 領域の処理内容の変更を行うことが可能となる。なお、外部からの入力によって処理 領域を変更可能な構成にしてもょ 、。
[0135] また、本実施の形態 4においても、テンプレートマッチングによって対象物の検知を 行う代わりに、撮像対象の距離時刻情報に基づいて対象物のセグメントを求めること によって対象物を検知してもよいし、テクスチャやエッジ抽出による領域分割法や、ク ラスタ分析に基づく統計的パターン認識法等を用いて対象物を検知してもよい。
[0136] (実施の形態 5)
本発明の実施の形態 5は、撮像する画像内で検知した対象物の未来位置を予測し 、この予測結果を用いて三次元空間モデルを形成し、この形成した三次元空間モデ ルを撮像した画像に射影することによって処理領域の設定を行 ヽ、この処理領域に 対して所定の画像処理を施すことを特徴とする。
[0137] 図 37は、本発明の実施の形態 5に係る画像処理装置の構成を示すブロック図であ る。同図に示す画像処理装置 5は、上記実施の形態 4に係る画像処理装置 4と同様 の構成を有している。すなわち、画像処理装置 5は、撮像部 10、画像解析部 520、 制御部 430、出力部 40、および記憶部 550を有する。このため、画像処理装置 4と同 じ機能構成を有する部位にっ 、ては、同一の符号を付してある。
[0138] 画像解析部 520は、対象物検知部 421、距離算出部 422、処理領域設定部 423、 および画像処理部 424 (処理演算部 4240の一部)に加えて、画像に対して射影する 三次元空間モデルを形成するモデル形成部 425を有する。また、記憶部 550は、画 像データ 451、距離時刻情報 452、処理内容 453、およびテンプレート 454にカ卩えて 、画像に対して射影する三次元空間モデルを形成する際の原型となるモデル原型 4 55を記憶、格納している。
[0139] 以上の構成を有する画像処理装置 2が行う画像処理方法について、図 38に示すフ ローチャートを参照して説明する。まず、撮像部 10が、所定の視野を撮像して画像を 生成する撮像処理を行う(ステップ S501)。その後、対象物検知部 421が、画像処理 の対象となる対象物の検知をテンプレートマッチングによって行う(ステップ S503)。 このステップ S503で対象物を検知した場合には、距離算出部 422がその対象物ま での距離算出処理 (ステップ S505)を行う。図 39は、以上のステップ S501〜S505 を行った結果として得られる画像の表示例を示す図である。同図に示す画像 601は 、自車両が走行する車線に隣接する車線を車両 Ca等が先行して走行し、前方に交 差点が近づきつつある場合を表示している。この交差点では自車両の進行方向と直 交する方向に車両 Cbが走行しており、その交差点付近には信号機 Sigが設置されて いる。
[0140] なお、ここまでのステップ S 501、 S503、および S505は、本発明の実施の形態 1に 係る画像処理方法のステップ S401、 S403、および S405とそれぞれ同じ処理であり 、その詳細は、上記実施の形態 4で説明した通りである。
[0141] ステップ S505に続いて、位置予測部 431が、ステップ S505で求めた対象物の距 離時刻情報 452 (時刻 t: nは正の整数)と、この距離時刻情報 452における時刻 t よりも所定時間 Δ tだけ前の時刻 t =t — Δ tにおける対象物の距離時刻情報 452
n— 1 n n- とを用いることにより、時刻 t力も所定時間 A t経過した後の時刻 t (=t + A t)にお
1 n n+1 n
ける対象物の位置 (未来位置)を予測する (ステップ S507)。たとえば画像 601の場 合には、隣接する車線を走行する車両 Caや交差点付近を走行する車両 Cbの未来 位置を予測してもよいし、路面 Rdや信号機 Sigなどを対象物として、それらの未来位 置を予測してもよい。
[0142] この後、モデル形成部 425は、対象物の予測未来位置等の情報から、その対象物 に関する三次元空間モデルを形成する (ステップ S509)。図 40は、三次元空間モデ ルの一形成例を示す説明図である。同図に示す三次元空間モデル Mdlは、自車両 が所定時間内に走行可能な領域(自車両走行可能域)を示すものである。この場合 、検知する対象物は路面 Rdであり、モデル形成部 425は路面 Rdの未来位置の予測 結果に加えて、記憶部 550に格納されているモデル原型 455を用いることにより、図 40に示す三次元空間モデル Md 1を形成する。
[0143] 続いて処理領域設定部 423が、ステップ S509で形成された三次元空間モデル M dlを撮像部 10で撮像された画像に射影することによって処理領域を設定する (ステ ップ S511)。図 41に示す表示画像 602は、撮像部 10で撮像された画像に三次元空 間モデル Mdl (自車両走行可能域)を射影した場合の表示例を示す図である。
[0144] 図 42は、ステップ S509における三次元空間モデルの別な形成例を示す図である 。同図においては、隣接するレーンを走行する車両 Caを対象物とし、この車両 Caの 所定時間内の走行可能領域 (先行車両走行可能域)に関する三次元空間モデル M d2を形成した場合を示している。この三次元空間モデル Md2では、先行する車両 C aが直進する場合に加えて自車両の走行レーンに車線変更する場合も考慮して形成 したものである。図 43は、撮像部 10で撮像された画像に対して三次元空間モデル M dlおよび Md2を射影することによって処理領域を設定したときの表示例を示す図で ある。この図 43に示す表示画像 603のように、一つの画像に対して複数の三次元空 間モデルを射影して処理領域を設定してもよ!/、。
[0145] ステップ S511の後、画像処理部 424は、処理対象領域に対して所定の画像処理 を行う(ステップ S 513)。表示画像 603の場合、自車両走行可能域を表す三次元空 間モデル Mdlと先行車両走行可能域を表す三次元空間モデル Md2とは一部重な り合っている。そこで、自車両走行可能域 (Mdl)内に車両 Caが進入して来るのを検 知した場合には、その後処理として出力部 40から警告メッセージや警告音を発生す る処理を行う。また、車両 Caが先行車両走行可能域 (Md2)から外れる進路を取り始 めたと検知した場合にも、その旨を出力部 40によって報知する。
[0146] 以上説明した本発明の実施の形態 5によれば、撮像位置から検知した対象物まで の距離を算出し、対象物を含む複数の画像のうち、少なくとも二つの異なる時刻に撮 像された画像に含まれる対象物までの距離を用いて所定時間経過後の対象物の自 車両に対する相対位置を予測し、この予測結果とともに自車両の現在状況および自 車両が移動する周囲の現在状況のうち少なくともいずれかを用いて三次元空間モデ ルを形成し、この形成した三次元空間モデルを前記画像に射影することによって画 像処理を行う処理領域を設定し、この設定した処理領域に対して所定の画像処理を 行うことにより、撮像する画像内に含まれるさまざまな情報を多面的に処理することが 可能となる。
[0147] また、この実施の形態 5によれば、 3次元移動ベクトルを用いて対象物の未来位置 を予測し、この予測結果に基づく三次元空間モデルを形成して処理領域を設定する ことにより、対象物を検知して所定の画像処理を行う範囲 (処理領域)を狭めることが でき、上記実施の形態 1と同様、迅速かつ効率的な画像処理を実現することが可能と なる。
[0148] なお、上述したステップ S509における三次元空間モデルの形成に際しては、ステ ップ S 501の意味での対象物以外の物体 (非対象物)、自車両の移動状況 (速度、加 速度等)、または自車両外部の外的情報 (路面状況、天候等)などを検知し、その検 知結果をモデル形成処理に利用するようにしてもよい。この際には、図 44に示す画 像処理装置 6のように、自車両の移動状況を検知する移動状況検知部 60と、自車両 外部の外的情報を検知する外的情報検知部 70と、をさらに設けらればよい。移動状 況検知部 60および外的情報検知部 70は、検知すべき内容に応じて、各種センサ等 を用いて実現される。なお、画像処理装置 6の他の構成は、画像処理装置 5の構成と 同じである。
[0149] (実施の形態 6)
つぎに、本発明の実施の形態 6について説明する。上述した実施の形態 1〜5では 、右カメラ 11aおよび左カメラ l ibの 2台のカメラによってステレオ画像を撮像する構 成としていたが、この実施の形態 6では、一対の導光光学系と、各導光光学系に対 応する撮像領域を有し、各導光光学系が導いた光信号を各撮像領域において電気 信号に変換する撮像素子によってステレオ画像を撮像するようにしている。
[0150] 図 45は、本発明の実施の形態 6に係る画像処理装置の一部構成を示すブロック図 である。図 45に示す撮像部 110は、上述した画像処理装置 1等における撮像部 10 に代わり、この実施の形態 6に係る画像処理装置が備える撮像部である。図 45に示 す以外の画像処理装置の構成は、上述した実施の形態 1〜5のいずれかと同じであ る。
[0151] 撮像部 110は、撮像部 10の右カメラ 11aあるいは左カメラ l ibと同様の構成および 機能を有した撮像装置としてのカメラ 111を備える。カメラ 111は、レンズ 112と、撮像 素子 113と、 AZD変換部 114と、フレームメモリ 115とを備える。さらに、撮像部 110 は、カメラ 111の前方に、ミラー 119a〜119dによって構成された一対の導光光学系 としてのステレオアダプタ 119を備える。ステレオアダプタ 119は、図 45に示すように 、ミラー 119a, 119bを組として反射面を略平行に対向して備え、ミラー 119c, 119d を別の組として反射面を略平行に対向して備える。ステレオアダプタ 119は、この 2組 の一対のミラー系を、レンズ 112の光軸を基準に左右対称に隣接して備える。
[0152] 撮像部 110は、撮像視野内に位置する物体力もの光をステレオアダプタ 119の左 右 2組のミラー系で受光し、撮像光学系としてのレンズ 112で集光し、撮像素子 113 で撮像する。このとき、図 46に示すように、撮像素子 113は、ミラー 119a, 119bによ る右の組のミラー系を介した右画像 116aと、ミラー 119c, 119dによる左の組のミラ 一系を介した左画像 116bとを、左右にずらした全く重ならな ヽ撮像領域で撮像する (このようなステレオアダプタを用いた技術は、たとえば、特開平 8— 171151号公報 に開示されている)。
[0153] この実施の形態 6に係る撮像部 110では、ステレオアダプタを備えた 1台のカメラで ステレオ画像を撮像するため、 2台のカメラでステレオ画像を撮像する場合に比べ、 撮像部を簡易化してコンパクトにできるとともに、機械的強度を増強し、左右の画像を 相対的に常に安定した状態で撮像することができる。さらに、左右の画像を、共通の レンズおよび撮像素子を使用して撮像するため、固体差に起因するばらつきを抑え、 キャリブレーションの手間や、位置合わせ等の組み立ての煩雑さを軽減できる。
[0154] なお、ステレオアダプタの構成として、図 45では、平面鏡を略平行に対向して組み 合わせた例を示したが、さらにレンズ群を組み合わせて構成してもよぐまた、凸面鏡 や凹面鏡等、曲率を有した反射鏡を組み合わせて構成してもよぐ反射鏡の代わりに プリズムで反射面を構成してもよ ヽ。 [0155] また、図 46に示すように、この実施の形態 6では、左右の画像を全く重ならないよう に撮像した力 左右の画像の一部ないし全部が重なるようにし、たとえば、受光部に 設けたシャッター等により左右で受光する光を順次切り換えて撮像し、わずかな時間 差をもって撮像した左右の画像をステレオ画像として画像処理に供してもよい。
[0156] さらに、この実施の形態 6では、左右の画像を左右に位置をずらして撮像する構成 としたが、たとえば、ステレオアダプタの平面鏡を略直交に組み合わせて構成し、左 右の画像を上下に位置をずらして撮像するようにしてもょ 、。
[0157] (その他の実施の形態)
ここまで、本発明の好ましい実施の形態を詳述してきたが、本発明は上記実施の形 態 1〜6によって限定されるものではない。たとえば、実施の形態 1〜5における撮像 部 10、または実施の形態 6における撮像部 110の構成について、一対のカメラある いはステレオアダプタの受光部力 左右に並んで配置されるとして説明した力 上下 に並んで配置される構成としてもよぐまた、斜め方向に並んで配置される構成として ちょい。
[0158] さらに、撮像部のステレオカメラとしてより多眼のステレオカメラ、たとえば 3眼ステレ ォカメラ、または 4眼ステレオカメラを構成してもよい。 3眼または 4眼ステレオカメラを 用いると、 3次元再構成処理などにおいて、より信頼度が高ぐ安定した処理結果が 得られることが知られている(富田文明,「高機能 3次元視覚システム VW」,情報処 理学会誌「情報処理」, Vol. 42, No. 4, pp. 370-375 (2001).等を参照)。特に、複数 のカメラを 2方向の基線長を持つように配置すると、より複雑なシーンで 3次元再構成 が可能になることが知られている。また、 1つの基線長方向にカメラを複数台配置する と、いわゆるマルチベースライン方式のステレオカメラを実現することが可能となり、よ り高精度なステレオ計測が可能となる。
[0159] また、撮像部のカメラとして、複眼であるステレオカメラの代わりに単眼のカメラを用 いてもよい。その場合には、シエイプフロムフォーカス(shape from focus)法、シエイプ フロムケノオーカス (shape from defocus 法、シェィプフロムモーション shape from m otion)法、シエイプフロムシェーディング(shape from shading)法等の 3次元再構成技 術を適用することにより、撮像視野内にある物体までの距離を演算することができる。 [0160] ここで、シエイプフロムフォーカス法とは、最もよく合焦したときのフォーカス位置から 距離を求める方法である。また、シエイプフロムデフォーカス法とは、合焦距離の異な る複数の画像力も相対的なボケ量を求め、ボケ量と距離との相関関係をもとに距離を 求める方法である。また、シエイプフロムモーション法とは、時間的に連続する複数の 画像における所定の特徴点の移動軌跡をもとに物体までの距離を求める方法である 。また、シエイプフロムシェーディング法とは、画像における陰影、対象となる物体の 反射特性および光源情報をもとに物体までの距離を求める方法である。
[0161] なお、本発明に係る画像処理装置は、四輪自動車以外の車両、たとえば電動車椅 子等に搭載することが可能である。また、車両以外にも、人やロボット等の移動体に 搭載することもできる。さらに、画像処理装置全体が移動体に搭載されなくてもよぐ たとえば、撮像部および出力部が移動体に搭載され、その他の構成部位が移動体 の外に構成され、これらの間を無線通信で接続してもよい。
[0162] 以上の説明からも明らかなように、本発明は、ここでは記載していないさまざまな実 施の形態等を含みうるものであり、特許請求の範囲により特定される技術的事項を逸 脱しな 、範囲内にお 、て種々の設計変更等を施すことが可能である。
産業上の利用可能性
[0163] 以上のように、本発明に係る画像処理装置、画像処理方法および画像処理プログ ラムは、自車両の前方を撮像することによって自車両の前方を走行する先行車両や 自車両の先方にある対象物を認識するのに有用であり、特に、車載用として好適で ある。

Claims

請求の範囲
[1] 所定の視野を撮像して画像を生成する撮像手段と、
前記撮像手段で生成した前記画像の中で処理を行うべき領域を設定する処理領 域設定手段と、
前記処理領域設定手段で設定した前記領域に対して所定の処理演算を行う処理 演算手段と、
を備えたことを特徴とする画像処理装置。
[2] 前記撮像手段で生成した前記画像に含まれる画像信号群に基づ!ヽて、前記視野 内に含まれる物体が占める領域と該物体の種別とを識別する識別手段をさらに備え 前記処理領域設定手段は、前記識別手段の識別結果に基づいて、前記物体まで の距離を演算する演算範囲を設定する演算範囲設定手段を有し、
前記処理演算手段は、前記演算範囲設定手段が設定した前記演算範囲における 距離演算を行う距離演算手段を有することを特徴とする請求項 1に記載の画像処理 装置。
[3] 前記識別手段は、前記画像信号群に基づいて、前記物体の前記視野内における 縦方向の境界を示す縦方向情報と前記物体の前記視野内における横方向の境界を 示す横方向情報とを求め、該縦方向情報と該横方向情報とを組み合わせて前記物 体が前記視野内にぉ 、て占める領域を識別することを特徴とする請求項 2に記載の 画像処理装置。
[4] 前記識別手段は、前記視野内において前記物体が占める領域に基づいて、該物 体の種別を識別することを特徴とする請求項 2に記載の画像処理装置。
[5] 前記演算範囲設定手段は、前記識別手段が識別した前記物体の種別のうち、前 記視野内にぉ 、て所定の種別の物体が占める領域に基づ 、て、前記演算範囲を設 定することを特徴とする請求項 2に記載の画像処理装置。
[6] 前記演算範囲設定手段は、前記視野内において前記識別手段によって識別され た前記物体が占める領域に所定の余裕領域を加えた領域に対応する前記演算範囲 を設定することを特徴とする請求項 2に記載の画像処理装置。
[7] 前記撮像手段は、第 1の光路を介して撮像した第 1の前記画像信号群と、第 2の光 路を介して撮像した第 2の前記画像信号群とを生成し、
前記処理演算手段は、前記第 2の画像信号群の中から前記第 1の画像信号群の 任意の画像信号と整合する画像信号を検出し、該検出した画像信号における前記 任意の画像信号力 の移動量に基づいて前記物体までの距離を演算することを特 徴とする請求項 2に記載の画像処理装置。
[8] 前記識別手段は、前記第 1の画像信号群および前記第 2の画像信号群の 、ずれ か一方に基づ 、て、前記物体が前記視野内にぉ 、て占める領域と該物体の種別と を識別することを特徴とする請求項 7に記載の画像処理装置。
[9] 前記撮像手段で撮像した撮像位置から前記画像を構成する全ての構成点または 一部の構成点までの距離を算出し、この算出した距離を含む距離情報を生成する距 離情報生成手段と、
前記距離情報生成手段で生成した距離情報に対応する画像処理手法を複数の画 像処理手法の中から選択する処理選択手段と、
をさらに備え、
前記処理演算手段は、前記処理選択手段で選択した画像処理手法を適用して前 記画像に対する画像処理を行う画像処理手段を有することを特徴とする請求項 1〖こ 記載の画像処理装置。
[10] 前記処理領域設定手段は、前記距離情報生成手段で生成した距離情報を前記画 像に重畳して成る距離画像を生成し、この生成した距離画像に基づいて、前記撮像 位置力 の距離が所定の範囲内にある前記画像の構成点の組ごとに異なる閉領域 を設定する距離画像生成手段を有することを特徴とする請求項 9に記載の画像処理 装置。
[11] 前記処理選択手段は、前記距離画像生成手段で設定した閉領域ごとに画像処理 手法を選択することを特徴とする請求項 10に記載の画像処理装置。
[12] 前記距離画像生成手段で設定した閉領域ごとに所定の対象物の検知を行う対象 物検知手段をさらに備えたことを特徴とする請求項 10に記載の画像処理装置。
[13] 前記処理選択手段における画像処理手法の選択方法を変更する選択方法変更手 段をさらに備えたことを特徴とする請求項 9に記載の画像処理装置。
[14] 前記撮像手段で生成した画像を該画像に係る時刻情報とともに記憶する記憶手段 と、
前記撮像手段で撮像した画像から画像処理を行う対象物を検知する対象物検知 手段と、
前記撮像手段の撮像位置から前記対象物検知手段で検知した対象物までの距離 を算出する距離算出手段と、
前記記憶手段で記憶した画像のうち、異なる時刻に撮像した少なくとも二つの画像 を抽出し、この抽出した少なくとも二つの画像と各画像における前記対象物までの距 離とを用いて所定時間経過後の前記移動体に対する前記対象物の相対位置を予測 する位置予測手段と、
をさらに備え、
前記処理領域設定手段は、前記位置予測手段における予測結果に基づ!ヽて画像 処理を行う処理領域を設定し、
前記処理演算手段は、前記処理領域設定手段で設定した処理領域に対して所定 の画像処理を行う画像処理手段を有することを特徴とする請求項 1に記載の画像処 理装置。
[15] 前記位置予測手段における予測結果を用いて前記画像に射影する三次元空間モ デルを形成するモデル形成手段をさらに備え、
前記処理領域設定手段は、前記モデル形成手段で形成した前記三次元空間モデ ルを前記画像に射影することによって前記処理領域を設定することを特徴とする請 求項 14に記載の画像処理装置。
[16] 前記処理領域設定手段で設定した処理領域に対して行う画像処理の手法を変更 する処理変更手段をさらに備えたことを特徴とする請求項 14に記載の画像処理装置
[17] 前記対象物検知手段で検知した対象物の時間経過に伴う三次元的な動きを時系 列的に重畳して成る画像を表示出力する出力手段をさらに備えたことを特徴とする 請求項 14に記載の画像処理装置。
[18] 前記移動体の位置または速度を含む移動状況を検知する移動状況検知手段をさ らに備え、
前記位置予測手段は、前記移動体に対する前記対象物の相対位置を予測するに 際して、前記移動状況検知手段で検知した前記移動体の位置または速度を用いる ことを特徴とする請求項 14に記載の画像処理装置。
[19] 前記移動体の位置を含む移動状況を検知する移動状況検知手段と、
前記移動体が移動する領域の周辺を含む三次元地図情報を記憶する地図情報記 憶手段と、をさらに備え、
前記位置予測手段は、前記移動体に対する前記対象物の相対位置を予測するに 際して、前記移動状況検知手段で検知した前記移動体の現在位置周辺の地図情報 を前記地図情報記憶手段から読み出して参照することを特徴とする請求項 14に記 載の画像処理装置。
[20] 前記移動体外部の外的情報を検知する外的情報検知手段をさらに備え、
前記位置予測手段は、前記移動体に対する前記対象物の相対位置を予測するに 際して、前記外的情報検知手段で検知した前記移動体外部の情報を用いることを特 徴とする請求項 14に記載の画像処理装置。
[21] 前記撮像手段は、
一対の撮像光学系と、
前記一対の撮像光学系の各々が出力する光信号を電気信号に変換する一対の撮 像素子と、
を有することを特徴とする請求項 1に記載の画像処理装置。
[22] 前記撮像手段は、
一対の導光光学系と、
各導光光学系に対する撮像領域を有し各導光光学系が導いた光信号を各撮像領 域にお ヽて電気信号に変換する撮像素子と、
を備えたことを特徴とする請求項 1に記載の画像処理装置。
[23] 当該画像処理装置は、車両に搭載されることを特徴とする請求項 1に記載の画像 処理装置。
[24] 所定の視野を撮像して画像を生成する撮像ステップと、
前記撮像ステップで生成した前記画像の中で処理を行うべき領域を設定する処理 領域設定ステップと、
前記処理領域設定ステップで設定した前記領域に対して所定の処理演算を行う処 理演算ステップと、
を含むことを特徴とする画像処理方法。
[25] 前記撮像ステップで生成した前記画像に含まれる画像信号群に基づ ヽて、前記視 野内において前記物体が占める領域と該物体の種別とを識別する識別ステップ をさらに含み、
前記処理領域設定ステップは、前記識別ステップの識別結果に基づいて、前記物 体までの距離を演算する演算範囲を設定し、
前記処理演算ステップは、前記処理領域設定ステップで設定した前記演算範囲に おける距離演算を行うことを特徴とする請求項 24に記載の画像処理方法。
[26] 前記撮像ステップで撮像した撮像位置カゝら前記画像を構成する全ての構成点また は一部の構成点までの距離を算出し、この算出した距離を含む距離情報を生成する 距離情報生成ステップと、
前記距離情報生成ステップで生成した距離情報に対応する画像処理手法を複数 の画像処理手法の中から選択する処理選択ステップと、
をさらに含み、
前記処理演算ステップは、前記処理選択ステップで選択した画像処理手法を適用 して前記画像に対する画像処理を行うことを特徴とする請求項 24に記載の画像処理 方法。
[27] 前記撮像ステップで生成した画像を該画像に係る時刻情報とともに記憶する記憶 ステップと、
前記撮像ステップで撮像した画像から画像処理を行う対象物を検知する対象物検 知ステップと、
前記対象物検知ステップで対象物を検知した場合、前記撮像ステップでの撮像位 置力も前記対象物までの距離を算出する距離算出ステップと、 前記記憶ステップで記憶した画像のうち、異なる時刻に撮像した少なくとも二つの 画像を抽出し、この抽出した少なくとも二つの画像と各画像における前記対象物まで の距離とを用いて所定時間経過後の前記移動体に対する前記対象物の相対位置を 予測する位置予測ステップと、
をさらに含み、
前記処理領域設定ステップは、前記位置予測ステップにおける予測結果に基づ ヽ て画像処理を行う処理領域を設定し、
前記処理演算ステップは、前記処理領域設定ステップで設定した処理領域に対し て所定の画像処理を行うことを特徴とする請求項 24に記載の画像処理方法。
[28] 所定の視野を撮像して画像を生成する撮像部によって生成された画像に対して画 像処理を施す画像処理プログラムであって、
前記画像の中で処理を行うべき領域を設定する処理領域設定ステップと、 前記処理領域設定ステップで設定した前記領域に対して所定の処理演算を行う処 理演算ステップと、
を含むことを特徴とする画像処理プログラム。
[29] 前記撮像部で生成した前記画像に含まれる画像信号群に基づ!ヽて、前記視野内 にお 、て前記物体が占める領域と該物体の種別とを識別する識別ステップ
をさらに含み、
前記処理領域設定ステップは、前記識別ステップの識別結果に基づいて、前記物 体までの距離を演算する演算範囲を設定し、
前記処理演算ステップは、前記処理領域設定ステップで設定した前記演算範囲に おける距離演算を行うことを特徴とする請求項 28に記載の画像処理プログラム。
[30] 前記撮像部の撮像位置から前記画像を構成する全ての構成点または一部の構成 点までの距離を算出し、この算出した距離を含む距離情報を生成する距離情報生成 ステップと、
前記距離情報生成ステップで生成した距離情報に対応する画像処理手法を複数 の画像処理手法の中から選択する処理選択ステップと、
をさらに含み、 前記処理演算ステップは、前記処理選択ステップで選択した画像処理手法を適用 して前記画像に対する画像処理を行うことを特徴とする請求項 28に記載の画像処理 プログラム。
前記撮像部で生成した画像を該画像に係る時刻情報とともに記憶する記憶ステツ プと、
前記撮像部で撮像した画像から画像処理を行う対象物を検知する対象物検知ステ ップと、
前記対象物検知ステップで対象物を検知した場合、前記撮像部の撮像位置から前 記対象物までの距離を算出する距離算出ステップと、
前記記憶ステップで記憶した画像のうち、異なる時刻に撮像した少なくとも二つの 画像を抽出し、この抽出した少なくとも二つの画像と各画像における前記対象物まで の距離とを用いて所定時間経過後の前記移動体に対する前記対象物の相対位置を 予測する位置予測ステップと、
をさらに含み、
前記処理領域設定ステップは、前記位置予測ステップにおける予測結果に基づ ヽ て画像処理を行う処理領域を設定し、
前記処理演算ステップは、前記処理領域設定ステップで設定した処理領域に対し て所定の画像処理を行うことを特徴とする請求項 28に記載の画像処理プログラム。
PCT/JP2006/309420 2005-05-10 2006-05-10 画像処理装置、画像処理方法および画像処理プログラム WO2006121088A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06746230A EP1901225A1 (en) 2005-05-10 2006-05-10 Image processing device, image processing method, and image processing program
US11/936,641 US20080089557A1 (en) 2005-05-10 2007-11-07 Image processing apparatus, image processing method, and computer program product

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2005-137852 2005-05-10
JP2005137848A JP2006318059A (ja) 2005-05-10 2005-05-10 画像処理装置、画像処理方法、および画像処理用プログラム
JP2005-137848 2005-05-10
JP2005137852A JP2006318062A (ja) 2005-05-10 2005-05-10 画像処理装置、画像処理方法、および画像処理用プログラム
JP2005145824A JP2006322795A (ja) 2005-05-18 2005-05-18 画像処理装置、画像処理方法および画像処理プログラム
JP2005-145824 2005-05-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/936,641 Continuation US20080089557A1 (en) 2005-05-10 2007-11-07 Image processing apparatus, image processing method, and computer program product

Publications (1)

Publication Number Publication Date
WO2006121088A1 true WO2006121088A1 (ja) 2006-11-16

Family

ID=37396595

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/309420 WO2006121088A1 (ja) 2005-05-10 2006-05-10 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US20080089557A1 (ja)
EP (1) EP1901225A1 (ja)
WO (1) WO2006121088A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017157A (ja) * 2007-07-04 2009-01-22 Omron Corp 画像処理装置および方法、並びに、プログラム
WO2009099022A1 (ja) * 2008-02-04 2009-08-13 Konica Minolta Holdings, Inc. 周辺監視装置及び周辺監視方法
JP2009199284A (ja) * 2008-02-21 2009-09-03 Univ Of Tokyo 道路地物認識方法
JP2012123470A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 物体検出装置及び物体検出方法
CN106463060A (zh) * 2014-05-19 2017-02-22 株式会社理光 处理装置、处理系统、处理程序和处理方法
JP2018186574A (ja) * 2018-08-07 2018-11-22 住友建機株式会社 ショベル
JP2018186575A (ja) * 2018-08-09 2018-11-22 住友建機株式会社 ショベル
JP2020064526A (ja) * 2018-10-18 2020-04-23 株式会社Soken 画像処理装置

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101409784A (zh) * 2007-10-10 2009-04-15 联想(北京)有限公司 摄像装置及信息提示装置
JP4876080B2 (ja) * 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
JP5294805B2 (ja) * 2008-11-05 2013-09-18 キヤノン株式会社 撮影システム及びレンズ装置
JP4815488B2 (ja) 2008-12-22 2011-11-16 本田技研工業株式会社 車両周辺監視装置
JP4760918B2 (ja) * 2009-01-23 2011-08-31 カシオ計算機株式会社 撮像装置、被写体追従方法、及びプログラム
CN101930533B (zh) * 2009-06-19 2013-11-13 株式会社理光 在图像采集设备中进行天空检测的装置和方法
US9361706B2 (en) * 2009-11-30 2016-06-07 Brigham Young University Real-time optical flow sensor design and its application to obstacle detection
KR20110071213A (ko) * 2009-12-21 2011-06-29 한국전자통신연구원 스테레오 비젼과 얼굴 검출기를 이용한 3d 아바타 얼굴 생성 장치 및 그 방법
JP5316471B2 (ja) 2010-04-27 2013-10-16 株式会社デンソー 物体認識装置、及びプログラム
EP2402226B1 (en) * 2010-07-02 2014-03-05 Harman Becker Automotive Systems GmbH Computer based system and method for providing a driver assist information
JP5496008B2 (ja) * 2010-08-06 2014-05-21 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
EP2431226B1 (de) * 2010-09-17 2016-07-27 SMR Patents S.à.r.l. Rückblickeinrichtung für ein Kraftfahrzeug
EP2678709B1 (en) 2011-02-21 2018-03-28 Transrobotics, Inc. System and method for sensing distance and/or movement
CN102685382B (zh) * 2011-03-18 2016-01-20 安尼株式会社 图像处理装置和方法、及移动体防碰撞装置
DE102011018157A1 (de) * 2011-04-19 2012-10-25 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Erkennung einer Bushaltestelle
JP5934929B2 (ja) * 2011-05-27 2016-06-15 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
JP5995522B2 (ja) * 2011-05-31 2016-09-21 キヤノン株式会社 撮像装置、撮像装置の制御方法およびプログラム
JP5877376B2 (ja) * 2011-06-02 2016-03-08 パナソニックIpマネジメント株式会社 物体検出装置、物体検出方法および物体検出プログラム
US10638094B2 (en) 2011-09-16 2020-04-28 SMR PATENTS S.á.r.l. Side rearview vision assembly with telescoping head
US10594989B2 (en) 2011-09-16 2020-03-17 SMR Patent S.à.r.l. Safety mirror with telescoping head and motor vehicle
JP6416085B2 (ja) * 2012-05-29 2018-10-31 ブライトウェイ ビジョン リミテッド 適用可能な被写界深度を使用するゲーテッド撮像
JP6080407B2 (ja) 2012-07-03 2017-02-15 キヤノン株式会社 3次元計測装置及びロボット装置
EP2904420A4 (en) 2012-10-05 2016-05-25 Transrobotics Inc SYSTEMS AND METHODS FOR HIGH RESOLUTION DISTANCE DETECTION AND APPLICATIONS
JP5987660B2 (ja) * 2012-11-30 2016-09-07 富士通株式会社 画像処理装置、画像処理方法及びプログラム
US9066085B2 (en) * 2012-12-13 2015-06-23 Delphi Technologies, Inc. Stereoscopic camera object detection system and method of aligning the same
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
US20140218482A1 (en) * 2013-02-05 2014-08-07 John H. Prince Positive Train Control Using Autonomous Systems
US10140717B2 (en) * 2013-02-27 2018-11-27 Hitachi Automotive Systems, Ltd. Imaging apparatus and vehicle controller
JP6214236B2 (ja) * 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6266238B2 (ja) * 2013-07-03 2018-01-24 クラリオン株式会社 接近物検出システム、及び車両
WO2015025497A1 (ja) * 2013-08-23 2015-02-26 パナソニックIpマネジメント株式会社 測距システム及び信号発生装置
JP6547292B2 (ja) 2014-02-05 2019-07-24 株式会社リコー 画像処理装置、機器制御システム、および画像処理プログラム
DE102014204002A1 (de) 2014-03-05 2015-09-10 Conti Temic Microelectronic Gmbh Verfahren zur Identifikation eines projizierten Symbols auf einer Straße in einem Fahrzeug, Vorrichtung und Fahrzeug
WO2015143037A1 (en) * 2014-03-21 2015-09-24 Omron Corporation Method and apparatus for detecting and mitigating optical impairments in an optical system
WO2015174093A1 (ja) 2014-05-16 2015-11-19 パナソニックIpマネジメント株式会社 車載用表示装置、車載用表示装置の制御方法、プログラム
RU2633641C1 (ru) * 2014-05-20 2017-10-16 Ниссан Мотор Ко., Лтд. Устройство обнаружения цели и способ обнаружения цели
CN106462962B (zh) * 2014-06-03 2020-08-04 住友重机械工业株式会社 施工机械用人检测系统以及挖土机
JP6260483B2 (ja) * 2014-07-16 2018-01-17 株式会社デンソー 物標検出装置
US20160096476A1 (en) * 2014-10-03 2016-04-07 Delphi Technologies, Inc. Rearview camera with gps for image storage and retrieval
JP6504693B2 (ja) * 2015-01-06 2019-04-24 オリンパス株式会社 撮像装置、操作支援方法及び操作支援プログラム
JP6525611B2 (ja) * 2015-01-29 2019-06-05 キヤノン株式会社 画像処理装置およびその制御方法
WO2016189878A1 (ja) * 2015-05-27 2016-12-01 京セラ株式会社 演算装置、カメラ装置、車両及びキャリブレーション方法
JP6660751B2 (ja) 2016-02-04 2020-03-11 日立オートモティブシステムズ株式会社 撮像装置
JP6658054B2 (ja) * 2016-02-16 2020-03-04 トヨタ車体株式会社 車体部品の施工部位判定システム及び施工部位判定方法
EP3252712B1 (en) * 2016-06-01 2019-08-21 Veoneer Sweden AB Vision system and method for a motor vehicle
JP6739242B2 (ja) 2016-06-01 2020-08-12 キヤノン株式会社 撮像装置及びその制御方法、プログラム並びに記憶媒体
JP6348947B2 (ja) 2016-11-07 2018-06-27 オリンパス株式会社 移動撮影装置、移動撮影指示装置、撮影機器、移動撮影システム、移動撮影方法及び移動撮影指示方法
US11175146B2 (en) * 2017-05-11 2021-11-16 Anantak Robotics Inc. Autonomously moving machine and method for operating an autonomously moving machine
KR20190013224A (ko) * 2017-08-01 2019-02-11 엘지전자 주식회사 이동 단말기
US10276075B1 (en) * 2018-03-27 2019-04-30 Christie Digital System USA, Inc. Device, system and method for automatic calibration of image devices
JP7195787B2 (ja) * 2018-06-29 2022-12-26 日立Astemo株式会社 車載電子制御装置
JP6705534B2 (ja) * 2018-10-19 2020-06-03 ソニー株式会社 センサ装置、信号処理方法
JP6705533B2 (ja) * 2018-10-19 2020-06-03 ソニー株式会社 センサ装置、パラメータ設定方法
US11815587B2 (en) 2018-12-05 2023-11-14 Telefonaktiebolaget Lm Ericsson (Publ) Object targeting
EP3719532B1 (en) 2019-04-04 2022-12-28 Transrobotics, Inc. Technologies for acting based on object tracking
US11836933B2 (en) * 2019-07-18 2023-12-05 Toyota Motor Europe Method for calculating information relative to a relative speed between an object and a camera
JP7344032B2 (ja) * 2019-07-19 2023-09-13 株式会社Subaru 画像処理装置
JP7236556B2 (ja) * 2019-10-14 2023-03-09 株式会社デンソー 物体検知装置および物体検知プログラム
JP7293100B2 (ja) * 2019-12-17 2023-06-19 日立Astemo株式会社 カメラシステム
CN111985378A (zh) * 2020-08-13 2020-11-24 中国第一汽车股份有限公司 道路目标的检测方法、装置、设备及车辆

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07182484A (ja) * 1993-12-24 1995-07-21 Nissan Motor Co Ltd 移動車の前方認識装置ならびに車輌用走行制御装置
JPH07302325A (ja) * 1994-04-30 1995-11-14 Suzuki Motor Corp 車載用画像認識装置
JPH09264954A (ja) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd レーダを用いた画像処理システム
JPH09272414A (ja) * 1996-04-08 1997-10-21 Mitsubishi Electric Corp 車両制御装置
JPH10283462A (ja) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd 車外監視装置
JPH1116099A (ja) * 1997-06-27 1999-01-22 Hitachi Ltd 自動車走行支援装置
JP2000090243A (ja) * 1998-09-14 2000-03-31 Yazaki Corp 周辺監視装置及び方法
JP2000177513A (ja) * 1998-12-16 2000-06-27 Toyota Autom Loom Works Ltd 車両における後退支援装置及び車両
JP2002074598A (ja) * 2000-08-29 2002-03-15 Hitachi Ltd クルーズコントロールシステムおよびそれが搭載された車両
JP2002083297A (ja) * 2000-06-28 2002-03-22 Matsushita Electric Ind Co Ltd 物体認識方法および物体認識装置
JP2002112252A (ja) * 2000-09-28 2002-04-12 Toshiba Corp 画像処理装置及び画像処理方法
JP2003063340A (ja) * 2001-08-28 2003-03-05 Aisin Seiki Co Ltd 運転補助装置
JP2004257837A (ja) * 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ撮像システム
JP2005098853A (ja) * 2003-09-25 2005-04-14 Toyota Motor Corp 地図データ更新方法および地図データ更新装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07182484A (ja) * 1993-12-24 1995-07-21 Nissan Motor Co Ltd 移動車の前方認識装置ならびに車輌用走行制御装置
JPH07302325A (ja) * 1994-04-30 1995-11-14 Suzuki Motor Corp 車載用画像認識装置
JPH09264954A (ja) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd レーダを用いた画像処理システム
JPH09272414A (ja) * 1996-04-08 1997-10-21 Mitsubishi Electric Corp 車両制御装置
JPH10283462A (ja) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd 車外監視装置
JPH1116099A (ja) * 1997-06-27 1999-01-22 Hitachi Ltd 自動車走行支援装置
JP2000090243A (ja) * 1998-09-14 2000-03-31 Yazaki Corp 周辺監視装置及び方法
JP2000177513A (ja) * 1998-12-16 2000-06-27 Toyota Autom Loom Works Ltd 車両における後退支援装置及び車両
JP2002083297A (ja) * 2000-06-28 2002-03-22 Matsushita Electric Ind Co Ltd 物体認識方法および物体認識装置
JP2002074598A (ja) * 2000-08-29 2002-03-15 Hitachi Ltd クルーズコントロールシステムおよびそれが搭載された車両
JP2002112252A (ja) * 2000-09-28 2002-04-12 Toshiba Corp 画像処理装置及び画像処理方法
JP2003063340A (ja) * 2001-08-28 2003-03-05 Aisin Seiki Co Ltd 運転補助装置
JP2004257837A (ja) * 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ撮像システム
JP2005098853A (ja) * 2003-09-25 2005-04-14 Toyota Motor Corp 地図データ更新方法および地図データ更新装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017157A (ja) * 2007-07-04 2009-01-22 Omron Corp 画像処理装置および方法、並びに、プログラム
WO2009099022A1 (ja) * 2008-02-04 2009-08-13 Konica Minolta Holdings, Inc. 周辺監視装置及び周辺監視方法
EP2249310A1 (en) * 2008-02-04 2010-11-10 Konica Minolta Holdings, Inc. Periphery monitoring device and periphery monitoring method
EP2249310A4 (en) * 2008-02-04 2013-11-27 Konica Minolta Holdings Inc PERIPHERAL MONITORING DEVICE AND PERIPHERAL MONITORING METHOD
JP2009199284A (ja) * 2008-02-21 2009-09-03 Univ Of Tokyo 道路地物認識方法
JP2012123470A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 物体検出装置及び物体検出方法
CN106463060A (zh) * 2014-05-19 2017-02-22 株式会社理光 处理装置、处理系统、处理程序和处理方法
US10402664B2 (en) 2014-05-19 2019-09-03 Ricoh Company, Limited Processing apparatus, processing system, processing program, and processing method
CN106463060B (zh) * 2014-05-19 2020-01-10 株式会社理光 处理装置、处理系统和处理方法
JP2018186574A (ja) * 2018-08-07 2018-11-22 住友建機株式会社 ショベル
JP2018186575A (ja) * 2018-08-09 2018-11-22 住友建機株式会社 ショベル
JP2020064526A (ja) * 2018-10-18 2020-04-23 株式会社Soken 画像処理装置
JP7253693B2 (ja) 2018-10-18 2023-04-07 学校法人 芝浦工業大学 画像処理装置

Also Published As

Publication number Publication date
EP1901225A1 (en) 2008-03-19
US20080089557A1 (en) 2008-04-17

Similar Documents

Publication Publication Date Title
WO2006121088A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US11657604B2 (en) Systems and methods for estimating future paths
US10753758B2 (en) Top-down refinement in lane marking navigation
US11734918B2 (en) Object identification apparatus, moving body system, object identification method, object identification model learning method, and object identification model learning apparatus
US11250288B2 (en) Information processing apparatus and information processing method using correlation between attributes
KR102485480B1 (ko) 가상 주차선 생성에 의한 주차 지원 장치 및 그 방법
CN108692719B (zh) 物体检测装置
WO2006121087A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US11204610B2 (en) Information processing apparatus, vehicle, and information processing method using correlation between attributes
US20160301912A1 (en) Disparity value deriving device, movable apparatus, robot, disparity value producing method, and computer program
JP2014096135A (ja) 移動面境界線認識装置、これを用いた移動体機器制御システム、移動面境界線認識方法及び移動面境界線認識用プログラム
JP2006322795A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4937844B2 (ja) 歩行者検出装置
JP2006318060A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
JP2006318059A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
JP2006318062A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
JP2023184572A (ja) 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体
Raguraman et al. Intelligent drivable area detection system using camera and LiDAR sensor for autonomous vehicle
Barua et al. An Efficient Method of Lane Detection and Tracking for Highway Safety
JP2006318061A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
US11694446B2 (en) Advanced driver assist system and method of detecting object in the same
JP2006317193A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
EP4246467A1 (en) Electronic instrument, movable apparatus, distance calculation method, and storage medium
Hartmann et al. Night time road curvature estimation based on Convolutional Neural Networks
JP7483790B2 (ja) 画像処理装置、画像処理方法、移動体、及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11936641

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006746230

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: RU