WO2023276824A1 - 光学系、撮像装置および撮像システム - Google Patents

光学系、撮像装置および撮像システム Download PDF

Info

Publication number
WO2023276824A1
WO2023276824A1 PCT/JP2022/024914 JP2022024914W WO2023276824A1 WO 2023276824 A1 WO2023276824 A1 WO 2023276824A1 JP 2022024914 W JP2022024914 W JP 2022024914W WO 2023276824 A1 WO2023276824 A1 WO 2023276824A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
optical system
lens
refractive power
image
Prior art date
Application number
PCT/JP2022/024914
Other languages
English (en)
French (fr)
Inventor
真 高橋
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to JP2023531866A priority Critical patent/JPWO2023276824A1/ja
Priority to GB2320076.9A priority patent/GB2622735A/en
Priority to CN202280045366.3A priority patent/CN117561468A/zh
Publication of WO2023276824A1 publication Critical patent/WO2023276824A1/ja
Priority to US18/525,928 priority patent/US20240111134A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0015Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design
    • G02B13/002Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design having at least one aspherical surface
    • G02B13/0045Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design having at least one aspherical surface having five or more lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/04Reversed telephoto objectives
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/18Optical objectives specially designed for the purposes specified below with lenses having one or more non-spherical faces, e.g. for reducing geometrical aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B9/00Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or -
    • G02B9/64Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or - having more than six components
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an optical system suitable for imaging devices such as in-vehicle cameras.
  • Some imaging devices using an imaging device are mounted on a moving body such as a car to acquire image data around the moving body. By using the acquired image data, objects such as obstacles around the mobile object can be visually recognized or machine-recognized.
  • Such an imaging device is used, for example, as a so-called electronic mirror or digital mirror (hereinafter referred to as an E-mirror) that displays image data acquired by an imaging device arranged on the side of a vehicle on an in-vehicle monitor.
  • an E-mirror electronic mirror or digital mirror
  • Patent Literature 1 discloses an optical system having a projection characteristic that allows an imaging device arranged on the side of the vehicle body to image a wide range including the rear and the vicinity of the front wheels. Further, Patent Document 2 discloses an optical system having projection characteristics such that the peripheral area is a fish-eye lens and the central area is a telephoto lens.
  • the present invention provides an optical system, an imaging device, etc. that can ensure a sufficient angle of view and high resolution in the peripheral area, even though it is a single optical system.
  • An optical system as one aspect of the present invention has a plurality of lenses arranged in order from an object side to an image side, and an aperture stop arranged between any two of the plurality of lenses.
  • the projection characteristic of the optical system representing the relationship between the half angle of view ⁇ and the image height y on the image plane is y( ⁇ )
  • the maximum half angle of view of the optical system is ⁇ max
  • the focal length of the optical system is f , 0.20 ⁇ 2ftan( ⁇ max/2)/y( ⁇ max) ⁇ 0.95 It is characterized by satisfying the following conditions.
  • An imaging device having the above optical system, an imaging system in which the imaging device is installed in a moving body, and a moving body equipped with the imaging system also constitute another aspect of the present invention.
  • FIG. 2 is a cross-sectional view of the optical system of Example 1;
  • FIG. 4 is an aberration diagram of the optical system of Example 1 at an imaging distance of ⁇ ;
  • FIG. 5 is a cross-sectional view of the optical system of Example 2;
  • FIG. 10 is an aberration diagram at imaging distance ⁇ of the optical system of Example 2;
  • FIG. 10 is a cross-sectional view of the optical system of Example 3;
  • FIG. 10 is an aberration diagram at imaging distance ⁇ of the optical system of Example 3;
  • FIG. 5 is a cross-sectional view of the optical system of Example 4;
  • FIG. 10 is an aberration diagram at imaging distance ⁇ of the optical system of Example 4;
  • FIG. 5 is a diagram showing projection characteristics of the optical systems of Examples 1 to 4;
  • FIG. 5 is a diagram showing the resolution with respect to the angle of view of the optical systems of Examples 1 to 4;
  • FIG. 10 is a diagram showing a curvature change of an aspherical surface of the optical system of Example 4;
  • FIG. 2 is a schematic diagram showing the arrangement of an E-mirror imaging device; The figure which shows arrangement
  • FIG. 5 is a diagram showing simulation results of images acquired using the f ⁇ lens and the optical systems of Examples 1 to 4;
  • FIG. 3 is a diagram for explaining an imaging element; The figure which shows the simulation result with respect to various parameters.
  • the block diagram which shows the structure of an in-vehicle system. 4 is a flowchart showing an operation example of an in-vehicle system;
  • the imaging magnification differs between the central area near the optical axis and the peripheral area outside (outside the axis), and a single optical system that realizes a sufficient angle of view and high resolution in the peripheral area. It is an optical system.
  • the length of the image height y per unit angle of view (the number of pixels of the imaging device in actual use) is the resolution (mm/deg)
  • the relationship of the image height y to the angle of view ⁇ is the projection characteristic y ( ⁇ )
  • the angle formed by the most off-axis chief ray with respect to the optical axis of the optical system is defined as the maximum half angle of view.
  • a general f ⁇ lens has a constant resolution at each image height, and has projection characteristics in which the image height and the resolution are in a proportional relationship.
  • the optical system of each embodiment has a projection characteristic in which the resolution of the peripheral area (second area) is higher than the resolution of the central area (first area). Used.
  • FIG. 12(a) shows an E-mirror imaging device that is placed on the side of a vehicle body 700 of an automobile as a moving body and that uses a normal fisheye lens in the optical system.
  • the E-mirror is an imaging system that enables confirmation of the following vehicle by imaging the rear a, and confirmation of the relationship between the front wheels and the side road by imaging the lower front b.
  • the optical system is a fisheye lens
  • the rear a and the lower front b are imaged with the same resolution within the angle of view FA of the imaging device
  • the lower rear c is also imaged with the same resolution as the rear a and the lower front b. Since particularly detailed information is not required for the lower rear side c, imaging with the same resolution as for the rear lower side a and the lower front side b in that direction is useless.
  • FIG. 12(b) shows an E-mirror imaging device similarly arranged on the side of the vehicle body 700 and using the optical system of each embodiment.
  • the optical system of each embodiment has a projection characteristic in which the resolution of the peripheral area FA2 is higher than that of the central area FA1 of the angle of view. It can be imaged so that detailed information can be obtained. In other words, the optical system of each embodiment can take enlarged images of objects in different directions, even though it is a single optical system.
  • FIG. 1 shows the configuration of the optical system (imaging distance ⁇ ) of Example 1. Specific numerical values of the optical system of Example 1 are listed in Table 1 as Numerical Column 1.
  • the optical system of Example 1 (numerical example 1) has a plurality of (eight) lenses L1 to L8 in order from the object side (enlargement conjugate side) to the image side (reduction conjugate side), and the maximum half angle of view is 90. °. Further, the optical system of Example 1 has an aperture stop ST1 between the lens L4 and the lens L5. Lenses L1 to L4 constitute a front group, and lenses L5 to L8 constitute a rear group.
  • a flat plate P1 such as an IR cut filter is arranged between the lens L8 and the image plane.
  • An imaging surface of an imaging element 11 such as a CMOS sensor is arranged on the image plane.
  • the imaging apparatus generates image data from the output of the imaging device 11 .
  • FIG. 9(a) shows the ⁇ -y projection characteristics (relationship between half angle of view ⁇ and image height y) of the optical system of Example 1.
  • the optical systems of Example 1 and the other examples have the following formula (1) where ⁇ max is the maximum half angle of view and f is the focal length. satisfy the conditions.
  • FIG. 10(a) shows the ⁇ -resolution characteristic of the optical system of Example 1.
  • FIG. Here, the ⁇ -resolution characteristics when using an image sensor for full high-definition (1920 ⁇ 1080 pixels) are shown.
  • y 2ftan( ⁇ /2)
  • optical system of each embodiment preferably satisfies the condition of the following formula (2), where 80 is the angle of view that is 80% of the maximum half angle of view.
  • Equation (2) indicates the condition regarding the resolution distribution in the peripheral area of the optical system of each embodiment for the fisheye lens. If the value of formula (2) is below the lower limit, various aberrations such as curvature of field and distortion increase, making it impossible to obtain image data with good image quality, which is not preferable. Further, if the value of expression (2) exceeds the upper limit, the difference in resolution between the central area and the peripheral area becomes small, and the required projection characteristics cannot be realized, which is not preferable.
  • FIG. 10(b) shows the ⁇ -resolution characteristics of the optical system of Example 2 having a maximum half angle of view of 60°
  • the resolution increases as the angle of view increases.
  • Example 2 the difference in resolution between the central region and the peripheral region is increased compared to the optical systems of other examples. In this way, even if the specifications such as the maximum half angle of view, the maximum image height, and Fno change, it is possible to realize an optical system that has a sufficiently large angle of view and the desired projection characteristics described above.
  • optical system of each example can have better projection characteristics by satisfying the condition of the following formula (3) when the orthogonal projection is represented by f sin ⁇ .
  • ⁇ max preferably satisfies the condition of the following formula (4).
  • the optical system of each embodiment has an optical configuration that allows manipulation of distortion and curvature of field in order to achieve desired projection characteristics.
  • at least one aspherical surface is arranged on at least one of lens L1 and lens L2 having a high off-axis ray height.
  • At least one aspherical surface is arranged on at least one of the lens L7 and the lens L8 on the image side. These aspheric surfaces allow distortion and field curvature to be effectively manipulated.
  • FIGS. 11A and 11B show the height h (vertical axis) in the radial direction from the optical axis of the aspherical surfaces (surfaces 3 and 15) provided in the optical system of Example 4 and The relationship with curvature (horizontal axis) is shown.
  • Surface 3 is the object-side surface of lens L2
  • surface 15 is the object-side aspherical surface of lens L8.
  • the object-side aspherical surface has a plurality of points of inflection.
  • the curvature is negative up to the point of inflection near 5 mm, and the curvature is positive further on the peripheral side. That is, the three surfaces have a convex shape toward the object side on the paraxial side, gradually change into a concave shape toward the object side, and then change into a convex shape again toward the object side.
  • the first lens with negative refractive power, the second lens with negative refractive power, and the second lens with negative refractive power are arranged in order from the object side to the image side. , an aperture stop and a lens of positive refractive power closest to the image side.
  • the lens L1 has negative refractive power
  • the lens L2 has negative refractive power
  • the lens L3 has negative refractive power
  • the lens L4 has positive refractive power.
  • an aperture stop ST1 is provided between the lens L4 and the lens L5, the lens L5 has positive refractive power, the lens L6 has positive refractive power, the lens L7 has negative refractive power, and the lens L8 has positive refractive power. have power.
  • the three lenses from the object side negative lenses, it is possible to bend light rays at peripheral angles of view in stages, thereby suppressing the occurrence of various aberrations such as extra distortion and curvature of field.
  • the lens closest to the image a positive lens
  • the angle of light rays incident on the image sensor can be relaxed, and a sufficient amount of light can be captured by the image sensor.
  • the first lens with negative refractive power, the second lens with negative refractive power, the third lens with negative refractive power, the positive or having a fourth lens of negative refractive power, an aperture stop, a fifth lens of positive refractive power, a sixth lens of negative refractive power, a seventh lens of positive refractive power and an eighth lens of positive refractive power is even more desirable.
  • Examples 1 to 4 show typical configuration examples of the present invention, and other configuration examples are also included in the examples of the present invention.
  • the projection characteristics and the positions and number of points of inflection of the aspheric surface are not limited to those of the first to fourth embodiments.
  • an E-mirror which is an imaging system including an E-mirror imaging device using the optical system of each embodiment, will be described.
  • the imaging device is installed on the side of the vehicle body 700 to capture an image of a subject (object) in the rear and vertically downward direction (directly below and below the front side).
  • the imaging device has the optical system of each embodiment that forms a subject image, and an imaging device that photoelectrically converts the subject image (captures the subject as an object via the optical system).
  • a plurality of pixels arranged two-dimensionally are provided on the imaging surface of the imaging element.
  • An imaging surface 11a of the imaging device shown in FIG. 15A includes a first region R1 for imaging an object included in a central region (first angle of view) of the angle of view of the optical system, and a peripheral region (first angle of view). and a second region R2 for imaging an object included in a second angle of view (which is larger than the angle of view of ).
  • the optical system has projection characteristics in which the number of pixels per unit angle of view in the second region R2 is greater than the number of pixels per unit angle of view in the first region R1. That is, when the number of pixels per unit angle of view is the resolution, the imaging device is configured so that the resolution of the peripheral area is higher than the resolution of the central area.
  • FIG. 14(a) shows a simulation result of image data (captured image) obtained by an E-mirror imaging device using an f ⁇ lens as an optical system.
  • FIG. 14(b) shows simulation results of captured images obtained by the E-mirror imaging device using the optical system of each example.
  • the upper side shows the rear of the vehicle body
  • the right side shows the vicinity of the side of the vehicle body
  • the lower right side shows the vicinity of the front wheel
  • the left side shows the side of the vehicle body.
  • FIG. 14B also shows an enlarged image of the rear portion of the captured image.
  • FIG. 14(b) compared to FIG. 14(a), the rear bicycle and the following vehicle are magnified and imaged. Therefore, detailed information on the rear side can be obtained from the captured image, and the visibility as an E-mirror can be improved, and recognition accuracy in automatic recognition can be improved.
  • FIG. 13A shows the vehicle body 700 viewed from the front in the longitudinal direction (horizontal direction), which is the moving direction (first direction) of the vehicle body 700 .
  • the downward direction in FIG. 13A is the vertical direction (second direction) orthogonal to the front-rear direction, and the left direction is the lateral direction (third direction) orthogonal to the front-rear direction and the vertical direction.
  • the imaging device 10 is located at a side portion (a portion facing the third direction) of the vehicle body 700 at a position separated by a distance L laterally (in the third direction) from the vehicle body side surface 710 as shown in FIG. 13(a). is installed in Also, as shown in FIG. 12(b), the imaging device 10 is installed so that the optical axis AX is oriented obliquely downward (on the road surface side) from the rear, that is, downward to the rear side c. Further, in the imaging device 10, when the vehicle body 700 is viewed from the front as shown in FIG. 13(a), the optical axis L1 (AX) faces in a direction forming an angle ⁇ L with respect to the vertical direction (second direction). is installed as follows. Specifically, it is preferable to install so as to satisfy the condition of the following formula (5).
  • ⁇ L larger than 0° indicates the inclination angle of the optical axis AX in the direction away from the vehicle body side surface 710 laterally with respect to the vertical direction.
  • FIG. 16(a) shows simulation results of captured images when ⁇ L is 90°.
  • the lane lines on the road surface are not imaged along the sides of the image pickup surface of the image pickup device, resulting in an image that is difficult for the driver to visually recognize intuitively. Images can be generated.
  • FIG. 16B shows simulation results of captured images when ⁇ L is 0°.
  • image processing such as distortion correction is not required. Therefore, it is possible to perform high-response imaging capable of providing a captured image with high real-time performance with a simple configuration.
  • the side surface of the vehicle body can also be imaged, it is possible to provide a captured image in which the distance between the side surface of the vehicle body and the obstacle can be easily recognized.
  • a similar captured image can also be obtained when ⁇ L is greater than 0° and equal to or less than 20°.
  • the optical system is arranged with respect to the imaging element so that the optical axis AX is shifted away from the side surface of the vehicle body with respect to the center of the imaging surface 11a (hereinafter referred to as the sensor center) SAX as shown in FIG. 15(b). may be placed. Thereby, as shown in FIG. 16C, it is possible to obtain a captured image with higher visibility.
  • FIG. 16(c) shows a captured image when the optical axis AX is shifted with respect to the sensor center SAX in a direction away from the side surface of the vehicle body.
  • this captured image compared to the captured image when the optical axis AX and the sensor center SAX shown in FIG. , Objects in a wide range on the side of the vehicle are reflected.
  • the shift amount (shift amount) La of the optical axis AX from the sensor center SAX is expressed by the following formula (6), where Ls is the length of the side extending from the sensor center SAX on the imaging surface 11a toward the optical axis AX. It is preferable to satisfy the following conditions.
  • the imaging device 10 when the vehicle body 700 moving in the horizontal direction is viewed from the front, the imaging device 10 is installed so that the optical axis L1 of the optical system is parallel to the vertical direction. .
  • the imaging device 10 is installed away from the vehicle body side surface 710 . At this time, it is preferable that the shift amount La satisfies the condition of the following formula (7).
  • is the point at which the optical axis L1 (AX) of the optical system intersects the most object-side surface of the optical system and the optical axis L1 when the vehicle body 700 is viewed from the front as shown in FIG. 13(b). is the angle formed by a straight line L2 connecting the vertical end point (grounding point of the front wheel) of the vehicle body side surface 710 from . Also, y ⁇ is the distance from the intersection of the straight line L2 and the imaging surface to the optical axis L1. Appropriate imaging can be performed even if the imaging device 10 is installed at an arbitrary distance from the side surface of the vehicle body within the range that satisfies the condition of expression (7).
  • FIG. 13(c) shows the installation angle of the imaging device 10 with respect to the vehicle body 700.
  • ⁇ b be the rearward tilt angle of the imaging device 10 (optical axis L1 of the optical system) with respect to the vertical direction
  • ⁇ f be the forward tilt angle.
  • the tilt angle ⁇ f is defined by the intersection of the surface closest to the object in the optical system of the imaging device 10 and the optical axis L1 and the end point in the direction of movement of the front wheels of the vehicle body 700 in the peripheral region (second angle of view) of the angle of view. This is the angle formed by the connecting straight line and the optical axis L1. At this time, it is preferable to satisfy the condition of the following formula (8) or (9).
  • the optical axis L1 is tilted from the horizontal direction to the vertical direction so as to face the lower rear side or the lower front side.
  • Equation (8) can be replaced with Equation (8a) below.
  • Lb is the distance between the image position (image point) of the rear subject on the imaging surface and the sensor center SAX, and the image position of the lower front subject on the imaging surface
  • Lf be the distance from the sensor center SAX
  • Lh be the length of the side extending in the direction in which the two image positions are separated from each other on the imaging plane.
  • Lf be the distance
  • Lh be the length of the side of the imaging surface extending from the sensor center SAX toward the image point of the front end point.
  • Equations (10) and (11) indicate conditions for effectively using the most peripheral region R3 of the imaging surface 11a as shown in FIG. 15(c). If these conditions are not satisfied, it is not possible to capture an image in the high-resolution outermost peripheral region R3, making it difficult to obtain detailed information from the captured image, which is not preferable. In other words, by satisfying at least one of formulas (10) and (11), high-resolution imaging can be performed in the most peripheral region R3. By extracting a high-resolution partial image obtained in the outermost peripheral region R3 and outputting it to a vehicle body monitor (display means) for display, the driver can obtain detailed information behind the vehicle. Note that since the object of interest of a moving object is often the object behind it, it is preferable to satisfy equation (10). Also, Equation (11) can be replaced with Equation (11a) below.
  • the imaging system described above is merely an example, and other configurations and arrangements may be adopted.
  • the optical axis of an image pickup device installed on the side of a vehicle body is tilted from the front-rear direction (moving direction) to a vertical direction perpendicular to the front-rear direction, thereby picking up images of the rear and front and lower sides.
  • the imaging device may be installed in the front or rear part of the vehicle body, and the optical axis may be tilted to the side orthogonal to the front-rear direction to image the front and sides or the rear and sides.
  • an imaging system configured in the same manner as the E-mirror may be installed in a moving object other than an automobile, such as an aircraft or ship.
  • the lens configuration (A) of Numerical Example 1 corresponding to this embodiment shown in Table 1 shows the focal length f (mm), the aperture ratio (F number) F, and the maximum half angle of view (°) of the optical system.
  • ri is the radius of curvature of the i-th surface counted from the object side (mm)
  • di is the lens thickness or air gap (mm) between the i-th and (i+1)th surfaces
  • ni is the i-th surface and the i-th ( i+1) is the refractive index at the d-line of the optical material between the planes.
  • ⁇ i is the Abbe number with respect to the d-line of the optical material between the i-th surface and the (i+1)-th surface.
  • ST indicates an aperture stop.
  • "*" means that the surface marked with it has an aspherical shape.
  • the aspherical shape has z as the coordinate in the direction of the optical axis, y as the coordinate in the direction perpendicular to the optical axis, the light traveling direction as positive, ri as the paraxial radius of curvature, K as the conic constant, and A to G as
  • the aspheric coefficient is represented by the following formula.
  • (B) aspherical coefficients in Table 1 shows the conic constant K and the aspherical coefficients A to G.
  • "E ⁇ -x" means ⁇ 10 -x .
  • optical system of this example (numerical example 1) satisfies the conditions of formulas (1) to (4).
  • Table 5 summarizes the values for each condition.
  • FIG. 2 shows longitudinal aberrations (spherical aberration, astigmatism, and distortion aberration) of the optical system of this example (numerical example 1) at an imaging distance of ⁇ .
  • the solid line indicates the spherical aberration for the d-line (wavelength 587.6 nm).
  • a solid line S indicates a sagittal image plane
  • a dashed line T indicates a meridional image plane.
  • the solid line indicates the distortion with respect to the d-line.
  • FIG. 9(a) shows the projection characteristics of the optical system of this embodiment
  • FIG. 10(a) shows the ⁇ -resolution characteristics of the optical system of this embodiment.
  • FIG. 3 shows the configuration of the optical system (imaging distance ⁇ ) of Example 2.
  • the optical system of this embodiment comprises a first lens L21 with negative refractive power, a second lens L22 with negative refractive power, a third lens L23 with negative refractive power, and a positive , an aperture stop ST2, a fifth lens L25 with positive refractive power, a sixth lens L26 with negative refractive power, and a seventh lens L27 with positive refractive power.
  • P21 is a flat plate such as an IR cut filter
  • 21 is an imaging device.
  • the maximum half angle of view ⁇ max of the optical system of the present embodiment is 60°, which is different from 90° of the optical system of the first embodiment.
  • optical system of this example (numerical example 2) satisfies the conditions of formulas (1) to (4).
  • Table 5 summarizes the values for each condition.
  • FIG. 4 shows the longitudinal aberration at the imaging distance ⁇ of the optical system of this embodiment (numerical example 2). Further, FIG. 9(b) shows the projection characteristic of the optical system of this embodiment, and FIG. 10(b) shows the .theta.-resolution characteristic of the optical system of this embodiment as described above.
  • FIG. 5 shows the configuration of the optical system (imaging distance ⁇ ) of Example 3.
  • the optical system of this embodiment comprises a first lens L31 with negative refractive power, a second lens L32 with negative refractive power, a third lens L33 with negative refractive power, and a negative refracting power of fourth lens L34, aperture stop ST3, positive refracting power fifth lens L35, positive refracting power sixth lens L36, negative refracting power seventh lens L37, and positive refracting power eighth lens L37. It is composed of a lens L38.
  • P31 and P32 are flat plates such as an IR cut filter, and 31 is an image sensor.
  • the optical system of this example has a maximum half angle of view of 90°, which is the same as that of Example 1.
  • the maximum image height y ( ⁇ max) is 1.79 mm, which is different from Example 1 (3.64 mm).
  • optical system of this example (numerical example 3) satisfies the conditions of formulas (1) to (4).
  • Table 5 summarizes the values for each condition.
  • FIG. 6 shows the longitudinal aberration at the imaging distance ⁇ of the optical system of this embodiment (numerical example 3). Further, FIG. 9(c) shows the projection characteristics of the optical system of this embodiment, and FIG. 10(c) shows the ⁇ -resolution characteristics of the optical system of this embodiment as described above.
  • FIG. 7 shows the configuration of the optical system (imaging distance ⁇ ) of Example 4.
  • the optical system of this embodiment comprises a first lens L41 with negative refractive power, a second lens L42 with negative refractive power, a third lens L43 with negative refractive power, and a negative refracting power of fourth lens L44, aperture stop ST4, positive refracting power of fifth lens L45, positive refracting power of sixth lens L46, negative refracting power of seventh lens L47 and positive refracting power of eighth lens L44. It is composed of a lens L48.
  • P41 is a flat plate such as an IR cut filter
  • 41 is an imaging element.
  • the optical system of this example has an F-number of 1.80, which is brighter than Example 1 (2.80), and the formula (1) The condition value is 0.92, which is greater than Example 1 (0.78).
  • optical system of this example (numerical example 4) satisfies the conditions of formulas (1) to (4).
  • Table 5 summarizes the values for each condition.
  • FIG. 8 shows the longitudinal aberration at the imaging distance ⁇ of the optical system of this embodiment (numerical example 4). Further, FIG. 9(c) shows the projection characteristics of the optical system of this embodiment, and FIG. 10(c) shows the ⁇ -resolution characteristics of the optical system of this embodiment as described above.
  • FIG. 17 shows the configuration of an in-vehicle system (driving assistance device) 600 as the E-mirror (imaging system) described above.
  • the in-vehicle system 600 described here is a system for assisting the driving (steering) of a vehicle based on the image data of the rear, lower and front lower sides of the vehicle acquired by the imaging device 10 .
  • the in-vehicle system 600 has an imaging device 10 , a vehicle information acquisition device 20 , a control device (control section, ECU: electronic control unit) 30 , and a warning device (warning section) 40 .
  • the imaging device 10 includes an imaging unit 1 including an optical system and an imaging device, an image processing unit 2 , a parallax calculation unit 3 , a distance acquisition unit (acquisition unit) 4 , and a risk determination unit 5 .
  • the imaging units 1 are provided on the left and right sides of the vehicle, respectively.
  • a processing unit is configured by the image processing unit 2 , the parallax calculation unit 3 , the distance acquisition unit 4 and the risk determination unit 5 .
  • step S1 the image capturing unit 1 captures an object (subject) such as an obstacle or a pedestrian behind, below, or on the front side of the vehicle to obtain a captured image (image data).
  • object such as an obstacle or a pedestrian behind, below, or on the front side of the vehicle to obtain a captured image (image data).
  • step S2 the vehicle information acquisition device 20 acquires vehicle information.
  • Vehicle information is information including vehicle speed, yaw rate, steering angle, and the like.
  • step S3 the image processing unit 2 performs image processing on the image data acquired by the imaging unit 1. Specifically, image feature analysis is performed to analyze feature amounts such as the amount and direction of edges in image data and density values.
  • step S4 the parallax calculation unit 3 calculates parallax (image shift) information between the plurality of image data acquired by the imaging unit 1.
  • a method for calculating the parallax information known methods such as the SSDA method and the area correlation method can be used, and thus description thereof is omitted here. Note that steps S2, S3, and S4 may be performed in the order described above, or may be performed in parallel with each other.
  • step S5 the distance acquisition unit 4 acquires (calculates) distance information from the object imaged by the imaging unit 1.
  • the distance information can be calculated based on the parallax information calculated by the parallax calculator 3 and the internal and external parameters of the imaging unit 1 .
  • the distance information here is information related to the relative position to the object, such as the distance from the object, the amount of defocus, and the amount of image shift. It may be expressed indirectly.
  • step S6 the risk determination unit 5 uses the vehicle information acquired by the vehicle information acquisition device 20 and the distance information calculated by the distance acquisition unit 4 to determine the preset distance to the target object. It is determined whether or not it is included in the range of . This makes it possible to determine whether or not there is an object within a set distance behind the vehicle. can determine the possibility of If there is an object within the set distance and there is a possibility of a dangerous event, the danger determination unit 5 determines that there is danger (step S7). None” (step S8).
  • the danger determination unit 5 determines that there is danger, it notifies (transmits) the determination result to the control device 30 and the warning device 40 .
  • the control device 30 controls the vehicle based on the determination result of the danger determination unit 5 (step S6), and the warning device 40 controls the vehicle based on the determination result of the danger determination unit 5.
  • passengers is warned (step S7).
  • the determination result may be notified to at least one of the control device 30 and the warning device 40 .
  • the control device 30 controls the vehicle such as returning the steering wheel so as not to change lanes, or not to fall into the gutter or run onto the sidewalk, or to generate braking force on the wheels. conduct.
  • the warning device 40 warns the user by, for example, issuing a warning sound (warning), displaying warning information on the screen of a car navigation system or the like, or vibrating a seat belt or steering wheel.
  • a split-pupil imaging device having a plurality of pixel units arranged in a two-dimensional array is used as the imaging device of the imaging unit 1
  • one pixel unit is composed of a microlens and a plurality of photoelectric conversion units, receives a pair of light beams passing through different regions in the pupil of the optical system, and converts a pair of image data. It can be output from each photoelectric conversion unit.
  • the image displacement amount of each region is calculated by correlation calculation between the paired image data, and the image displacement map data representing the distribution of the image displacement amount is calculated by the distance acquisition unit 4 .
  • the distance acquisition unit 4 may further convert the image shift amount into a defocus amount and generate defocus map data representing the distribution of the defocus amount (the distribution on the two-dimensional plane of the captured image). Further, the distance acquisition unit 4 may acquire distance map data of the distance to the object converted from the defocus amount.
  • the in-vehicle system 600 includes a notification device (notification unit) for notifying the in-vehicle system manufacturer (manufacturer), the vehicle sales agency (dealer), etc., when a dangerous event such as a collision actually occurs.
  • a notification device for notifying the in-vehicle system manufacturer (manufacturer), the vehicle sales agency (dealer), etc., when a dangerous event such as a collision actually occurs.
  • the notification device it is possible to employ a device that transmits information about a dangerous event to a preset external destination by e-mail or the like.
  • the notification destination of the information on the dangerous event may be any notification destination set by the user, such as an insurance company, a medical institution, the police, or the like.
  • the in-vehicle system 600 is applied to driving support (collision damage reduction), but the in-vehicle system 600 is not limited to this, and can be used for cruise control (including all vehicle speed tracking function), automatic driving, etc. good too.
  • an imaging system having a configuration equivalent to that of the in-vehicle system 600 may be mounted on a moving object such as an aircraft, a ship, or an industrial robot.
  • the lens device is applied to the imaging device 10 as a distance measuring device
  • an imaging device in-vehicle camera
  • an in-vehicle camera may be placed at the rear or side of the vehicle, and the acquired image information may be displayed on a display unit (monitor) inside the vehicle to assist driving.
  • a display unit monitor
  • the lens device may be applied to an imaging device such as a digital still camera, a digital video camera, or a film camera, or may be applied to an optical device such as a telescope or a projection device such as a projector.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Lenses (AREA)

Abstract

【課題】単一の光学系により、十分な画角と周辺領域の高い解像度を確保する。 【解決手段】光学系は、複数のレンズL1~L8と、該複数のレンズのうちいずれか2つレンズの間に配置された開口絞りST1とを有する。半画角θと像高yとの関係を表す光学系の射影特性をy(θ)、該光学系の最大半画角をθmax、該光学系の焦点距離をfとするとき、0.20≦2ftan(θmax/2)/y(θmax)≦0.95なる条件を満足する。

Description

光学系、撮像装置および撮像システム
 本発明は、車載カメラ等の撮像装置に好適な光学系に関する。
 撮像素子を用いた撮像装置には、自動車等の移動体に搭載されて移動体周辺の画像データを取得するものがある。取得された画像データを用いることで、移動体周辺の障害物等の物体を視認したり機械認識したりすることができる。このような撮像装置は、例えば、車体の側面等に配置された撮像装置により取得された画像データを車内モニタに表示する、いわゆる電子ミラーまたはデジタルミラー(以下、Eミラーという)で使用される。Eミラーでは、後続車を大きく撮像しつつ前輪付近も大きく撮像したいという要求がある。
 さらにEミラー以外にも、撮像により取得された画像データを自動認識等に用いるシステムがあり、これらのシステムでは、撮像装置の数を増やすことなく多くの情報を含む画像データを取得することが望まれる。
 特許文献1には、車体の側面に配置された撮像装置によって後方と前輪付近を含む広い範囲を撮像できるような射影特性を有する光学系が開示されている。また、特許文献2には、周辺領域が魚眼レンズ、中心領域が望遠レンズとなるような射影特性を有する光学系が開示されている。
特開2006-224927号公報 特開2018-120125号公報
 しかしながら、特許文献1の光学系の射影特性では、画角に対する撮像倍率(解像度)が一定であるため、後方の車両や自車両の前輪付近を拡大して撮像することが難しい。また、特許文献2の光学系では、後方の車両と自車両の前輪付近のうち一方は大きく撮像できるものの、他方が小さく撮像されることになる。このように、互いに異なる方向に存在する複数の物体を1つの光学系を介して同時に拡大撮像することは困難である。
 本発明は、単一の光学系でありながらも、十分な画角と周辺領域の高い解像度を確保できるようにした光学系および撮像装置等を提供する。
 本発明の一側面としての光学系は、物体側から像側に順に配置された複数のレンズと、該複数のレンズのうちいずれか2つレンズの間に配置された開口絞りとを有する。半画角θと像面での像高yとの関係を表す光学系の射影特性をy(θ)、該光学系の最大半画角をθmax、該光学系の焦点距離をfとするとき、
 0.20≦2ftan(θmax/2)/y(θmax)≦0.95
なる条件を満足することを特徴とする。なお、上記光学系を有する撮像装置や該撮像装置を移動体に設置する撮像システム、さらには該撮像システムを備えた移動体も、本発明の他の一側面を構成する。
 本発明によれば、単一の光学系でありながらも、十分な画角と周辺領域の高い解像度を確保することができる。
実施例1の光学系の断面図。 実施例1の光学系の撮像距離∞における収差図。 実施例2の光学系の断面図。 実施例2の光学系の撮像距離∞における収差図。 実施例3の光学系の断面図。 実施例3の光学系の撮像距離∞における収差図。 実施例4の光学系の断面図。 実施例4の光学系の撮像距離∞における収差図。 実施例1~4の光学系の射影特性を示す図。 実施例1~4の光学系の画角に対する解像度を示す図。 実施例4の光学系の非球面の曲率変化を示す図。 Eミラー用撮像装置の配置を示す模式図。 車体に対する撮像装置の配置を示す図。 fθレンズと実施例1~4の光学系を用いて取得した画像のシミュレーション結果を示す図。 撮像素子を説明する図。 各種パラメータに対するシミュレーション結果を示す図。 車載システムの構成を示すブロック図。 車載システムの動作例を示すフローチャート。
 以下、本発明の実施例について図面を参照しながら説明する。具体的な実施例1~4の説明に先立って、各実施例に共通する事項について説明する。
 各実施例の光学系は、光軸近傍の中心領域とその外側(軸外側)の周辺領域とで結像倍率(解像度)が異なり、かつ十分な画角と周辺領域の高解像度を実現した単一の光学系である。
 各実施例において、単位画角あたりの像高yの長さ(実使用上は撮像素子の画素数)を解像度(mm/deg)、画角θに対する像高yの関係を射影特性y(θ)、光学系の光軸に対して最軸外主光線のなす角度を最大半画角と定義する。 
 一般的なfθレンズは、各像高における解像度が一定で、像高と解像度とが比例関係となる射影特性を有する。これに対して各実施例の光学系は、周辺領域(第2の領域)の解像度が中心領域(第1の領域)の解像度が高くなる射影特性を有し、例えばEミラー用の撮像装置に用いられる。
 図12(a)は、移動体としての自動車の車体700の側部に配置され、光学系に通常の魚眼レンズが用いられたEミラー用撮像装置を示している。Eミラーは、後方aの撮像による後続車の確認と、前側下方bの撮像による前輪と側道との関係の確認を可能とする撮像システムである。光学系が魚眼レンズであると、撮像装置の画角FA内において、後方aと前側下方bは同じ解像度で撮像され、さらに後側下方cも後方aおよび前側下方bと同じ解像度で撮像される。後側下方cは、特に詳細な情報が必要とされないため、その方向の後方aおよび前側下方bと同じ解像度での撮像は無駄となる。
 図12(b)は、同様に車体700の側部に配置され、各実施例の光学系が用いられたEミラー用撮像装置を示している。上述したように各実施例の光学系はその画角の中心領域FA1に比べて周辺領域FA2の解像度が高くなる射影特性を有するため、後側下方cに比べて後方aや前側下方bのより詳細な情報を取得できるように撮像することができる。すなわち、各実施例の光学系は、単一の光学系でありながら、互いに異なる方向にある物体のそれぞれを拡大撮像することができる。
 図1は、実施例1の光学系(撮像距離∞)の構成を示している。実施例1の光学系の具体的な諸数値を、表1に数値列1として記載している。
 実施例1(数値例1)の光学系は、物体側(拡大共役側)から像側(縮小共役側)に順に複数(8つ)のレンズL1~L8を有し、最大半画角は90°である。また、実施例1の光学系は、レンズL4とレンズL5の間に開口絞りST1を有する。レンズL1~L4は前群を構成し、レンズL5~L8は後群を構成する。
 レンズL8と像面との間には、IRカットフィルタ等の平板P1が配置されている。像面には、CMOSセンサ等の撮像素子11の撮像面が配置されている。撮像装置では、撮像素子11の出力から画像データが生成される。
 図9(a)は、実施例1の光学系のθ-y射影特性(半画角θと像高yとの関係)を示している。実施例1の光学系は、光軸近傍の画角が小さい中心領域では像高yの増加率(傾き)が小さく、周辺領域で画角が大きくなるにつれて像高yの増加率が大きくなっていく射影特性を有する。この射影特性は、一般的に知られている等距離射影(y=fθ)よりも、さらには立体射影(y=2ftan(θ/2))よりも像高yの変化が大きい射影特性である。
 このような射影特性y(θ)を実現するために、実施例1および他の実施例の光学系は、最大半画角をθmax、焦点距離をfとするとき、以下の式(1)の条件を満足している。
 0.20≦2ftan(θmax/2)/y(θmax)≦0.95  (1)
 式(1)の値が下限を下回ると、像面湾曲や歪曲収差等の諸収差が増加して良好な画質の画像データを得ることができないため、好ましくない。また、式(1)の値が上限を超えると、中心領域と周辺領域の解像度の差が少なくなり、求めている射影特性を実現できなくなるため、好ましくない。
 なお、式(1)の数値範囲を以下のようにするとより好ましい。
 0.25≦2ftan(θmax/2)/y(θmax)≦0.94  (1a)
 また、式(1)の数値範囲を以下のようにするとさらに好ましい。
 0.30≦2ftan(θmax/2)/y(θmax)≦0.80  (1b)
 図10(a)は、実施例1の光学系のθ-解像度特性を示す。ここでは、フルハイビジョン(1920×1080画素)用の撮像素子を用いた場合のθ-解像度特性を示している。この図から分かるように、y=fθでは画角に対して常に同等の解像度を有し、y=2ftan(θ/2)では画角が大きくなるにつれて解像度が増加する。
 これに対して、実施例1の光学系では、周辺領域においてy=2ftan(θ/2)よりもさらに解像度の増加率(傾き)が大きくなっている。これにより、中心領域1の解像度と周辺領域における最大半画角付近の解像度との差を、y=2ftan(θ/2)よりも大きくしている。
 また、各実施例の光学系は、最大半画角の8割の画角をθ80とするとき、以下の式(2)の条件を満足することが好ましい。
 1.35≦{y(θmax)-y(θ80)}/(fθmax-fθ80)≦2.50  (2)
 式(2)は、魚眼レンズに対する各実施例の光学系の周辺領域での解像度分布に関する条件を示している。式(2)の値が下限を下回ると、像面湾曲や歪曲収差等の諸収差が増加して良好な画質の画像データを得ることができないため、好ましくない。また、式(2)の値が上限を超えると、中心領域と周辺領域の解像度の差が少なくなり、求める射影特性を実現できなくなるため、好ましくない。
 なお、式(2)の数値範囲を以下のようにするとより好ましい。
 1.40≦{y(θmax)-y(θ80)}/(fθmax-fθ80)≦2.30  (2a)
 また、式(2)の数値範囲を以下のようにするとさらに好ましい。
 1.44≦{y(θmax)-y(θ80)}/(fθmax-fθ80)≦2.10  (2b)
 図10(b)は最大半画角が60°である実施例2の光学系のθ-解像度特性を示し、図10(c)は最大半画角が90°である実施例3、4のθ-解像度特性を示す。実施例2~4の光学系でも、実施例1と同様に画角が大きくなるにつれて解像度が増加する。実施例2では、他の実施例の光学系に比べて、中心領域と周辺領域との解像度の差を大きくしている。このように、最大半画角や最大像高、Fno等の仕様が変化しても、十分に画角が大きく、かつ上述した求められる射影特性を有する光学系を実現することができる。
 さらに、各実施例の光学系は、正射影をfsinθで表すとき、以下の式(3)の条件を満足することで、より良好な射影特性を有することができる。
 0.1≦fsinθmax/y(θmax)≦0.8     (3)
 式(3)の値が下限を下回ると、像面湾曲や歪曲収差等の諸収差が増加して良好な画質の画像データを得ることができないため、好ましくない。また、式(3)の値が上限を超えると、中心領域と周辺領域の解像度の差が少なくなり、求める射影特性を実現できなくなるため、好ましくない。
 なお、式(3)の数値範囲を以下のようにするとより好ましい。
 0.1≦fsinθmax/y(θmax)≦0.6     (3a)
 また、式(3)の数値範囲を以下のようにするとさらに好ましい。
 0.2≦fsinθmax/y(θmax)≦0.5     (3b)
また、各実施例の光学系を有する撮像装置が実際に使用されるアプリケーションでは、中心領域と周辺領域の画角差がある程度以上あるほうが、より中心領域と周辺領域の解像度の差分の効果を生かせるため、θmaxは以下の式(4)の条件を満足することが好ましい。
 θmax≧60°    (4)
 なお、移動体(自動車)が水平方向へ移動するとき、撮像装置は光学系の光軸が水平方向に対して非平行となるように設置される。この場合に、最大半画角をθmax、光学系の最大像高に対応する位置での歪曲量をdθmaxとするとき、
 55°≦θmax
 20%<|dθmax|
なる条件を満足することが望ましい。
 さらに各実施例の光学系では、求める射影特性を実現するために、歪曲収差と像面湾曲を操作可能な光学構成を有する。具体的には、軸外光線高さが高いレンズL1およびレンズL2のうち少なくとも一方に少なくとも1つの非球面を配置している。また、像側のレンズL7およびレンズL8のうち少なくとも一方に少なくとも1つの非球面を配置している。これらの非球面により、効果的に歪曲収差と像面湾曲を操作可能となる。
 また、非球面を変曲点を有する形状とすることで、より効果的に求める射影特性を実現することができる。ここにいう変曲点とは、曲率の正負の符号が切り替わる(反転)する位置である。具体的には図11(a)、(b)は、実施例4の光学系に設けられた非球面(3面および15面)の光軸から径方向での高さh(縦軸)と曲率(横軸)との関係を示す。3面はレンズL2の物体側の面であり、15面はレンズL8の物体側の非球面である。これら非球面は、その径方向において曲率の符号が反転する位置である変曲点を有する。
 また、上述した求める射影特性を実現するために、物体側の非球面が複数の変曲点を有することが好ましい。図11(a)に示す3面では、光軸(h=0mm)から近軸のh=4.0mm付近の変曲点までの曲率が正、該変曲点から軸外のh=6.5mm付近の変曲点までの曲率が負、さらにそれよりも周辺側では曲率が正となる。すなわち、3面は、近軸側では物体側に向かって凸形状を有し、徐々に物体側に向かって凹形状へと変化し、再度、物体側に向かって凸形状へと変化する。このように非球面に複数の変曲点を持たせることで、効果的に求める射影特性を実現することができる。
 また、上述した求める射影特性、広画角および高画質を実現するために、物体側から像側に順に、負の屈折力の第1レンズ、負の屈折力の第2レンズ、負の屈折力の第3レンズ、開口絞りおよび最も像側の正の屈折力のレンズを有することが好ましい。例えば、実施例1の光学系において、レンズL1は負の屈折力を、レンズL2は負の屈折力を、レンズL3は負の屈折力を、レンズL4は正の屈折力をそれぞれ有する。また、レンズL4とレンズL5の間に開口絞りST1を有し、レンズL5は正の屈折力を、レンズL6は正の屈折力を、レンズL7は負の屈折力を、レンズL8は正の屈折力を有する。
 このような屈折力配置において、少なくとも上述した式(1)の条件(望ましくは式(2)~(4)の条件)を満足することで、単一の光学系でありながら、十分な画角、中心領域の十分な解像度および周辺領域のより高い解像度を確保することができ、さらに画角全体にわたって良好な光学性能を有する光学系を得ることができる。
 特に、物体側から3つのレンズを負レンズとすることで、周辺画角の光線を段階的に折り曲げて余分な歪曲収差や像面湾曲等の諸収差の発生を抑えることができる。
 さらに最も像側のレンズを正レンズとすることで、撮像素子に入射する光線の角度を緩くして撮像素子の取り込み光量を十分に確保することができる。
 また、求める射影特性と高画質を実現する上で、物体側から像側に順に、負の屈折力の第1レンズ、負の屈折力の第2レンズ、負の屈折力の第3レンズ、正または負の屈折力の第4レンズ、開口絞り、正の屈折力の第5レンズ、負の屈折力の第6レンズ、正の屈折力の第7レンズおよび正の屈折力の第8レンズを有することがさらに望ましい。
 実施例1~4は、本発明の代表的な構成例を示しており、本発明の実施例には他の構成例も含まれる。例えば、射影特性や非球面の変曲点の位置や数は、実施例1~4のものに限定されない。
 次に、各実施例の光学系を用いたEミラー用撮像装置を含む撮像システムであるEミラーについて説明する。撮像装置は、図12(b)に示したように、車体700の側部に設置されて、後方と鉛直方向下側(真下および前側下方)の被写体(物体)を撮像する。
 撮像装置は、被写体像を形成する各実施例の光学系と、該被写体像を光電変換する(光学系を介して物体としての被写体を撮像する)撮像素子とを有する。撮像素子の撮像面には、2次元配列された複数の画素が設けられている。
 図15(a)に示す撮像素子の撮像面11aは、光学系の画角のうち中心領域(第1の画角)に含まれる物体を撮像する第1の領域R1と、周辺領域(第1の画角よりも大きい第2の画角)に含まれる物体を撮像する第2の領域R2とを含む。そして光学系は、第2の領域R2の単位画角あたりの画素数が第1の領域R1の単位画角あたりの画素数より多くなる射影特性を有する。すなわち、単位画角あたりの画素数を解像度とするとき、撮像装置は、周辺領域の解像度が中心領域の解像度より高くなるように構成されている。
 図14(a)は、光学系としてfθレンズを用いたEミラー用撮像装置により得られる画像データ(撮像画像)のシミュレーション結果を示している。図14(b)は、各実施例の光学系を用いたEミラー用撮像装置により得られる撮像画像のシミュレーション結果を示している。各図において、上側が車体の後方、右側が車体の側面付近、右側下部が前輪付近、左側が車体の側方を示している。図14(b)には、撮像画像のうち後方の部分を拡大した画像も示している。
 図14(b)では、図14(a)に比べて、後方の自転車や後続車が拡大されて大きく撮像されている。このため、撮像画像から後方の詳細情報を得ることができ、Eミラーとしての視認性を向上させたり、自動認識における認識精度を高めたりすることができる。
 このようなEミラーを実現するためには、図12(b)および図13(a)に示すように撮像装置10を配置する。図13(a)は、車体700の移動方向(第1の方向)である前後方向(水平方向)のうち前方から見た車体700を示している。図13(a)の下方が前後方向に直交する鉛直方向(第2の方向)であり、左方向が前後方向と鉛直方向に直交する側方(第3の方向)である。
 撮像装置10は、車体700の側部(第3の方向を向いた部分)において、図13(a)に示すように車体側面710から側方(第3の方向)に距離Lだけ離れた位置に設置される。また、撮像装置10は、図12(b)に示すように、後方から斜め下側(路面側)、すなわち後側下方cに光軸AXが向くように設置される。さらに撮像装置10は、図13(a)に示すように車体700を前方から見たときに、鉛直方向(第2の方向)に対して角度θLをなす方向に光軸L1(AX)が向くように設置される。具体的には、以下の式(5)の条件を満足するように設置されることが好ましい。
 0°≦θL≦90°   (5)
 なお、0°より大きいθLは、光軸AXが鉛直方向に対して車体側面710から側方に離れる方向への傾き角度を示している。
 図16(a)は、θLが90°である場合の撮像画像のシミュレーション結果を示している。この場合、路面上の車線が撮像素子の撮像面の辺に沿って撮像されないため、運転者が直感的に視認しにくい撮像画像となるが、歪曲補正等の画像処理を行うことで視認しやすい画像を生成することができる。
 より好ましくは、式(5)の数値範囲を以下のようにするとよい。
 0°≦θL≦20°   (5a)
 図16(b)は、θLが0°である場合の撮像画像のシミュレーション結果を示している。この場合、車線が撮像面の辺に沿って撮像されて直線的に視認しやすい撮像画像が得られるため、歪曲補正等の画像処理を行う必要がない。このため、簡易な構成でリアルタイム性が高い撮像画像を提供できる高レスポンス撮像を行うことができる。またこの場合は、自車体の側面も撮像することができるため、自車体側面と障害物と間隔も認識し易い撮像画像を提供することができる。θLが0°より大きく20°以下である場合も、同様の撮像画像を得ることができる。
 さらに、光学系を、撮像素子に対して、図15(b)に示すように光軸AXが撮像面11aの中心(以下、センサ中心という)SAXに対して車体側面から離れる側へずれるように配置してもよい。これにより、図16(c)に示すように、より視認性が高い撮像画像を得ることが可能となる。
 図16(c)は、光軸AXをセンサ中心SAXに対して車体側面から離れる方向にずらした場合の撮像画像を示している。この撮像画像では、図16(b)に示した光軸AXとセンサ中心SAXとが一致している場合の撮像画像に比べて、自車体側面が映っている領域が必要最小限となっており、車体側方の広い範囲の物体が映っている。
 光軸AXのセンサ中心SAXからのずらし量(ずれ量)Laは、撮像面11aにおけるセンサ中心SAXから光軸AXに向かう方向に延びる辺の長さをLsとするとき、以下の式(6)の条件を満足することが好ましい。
 0.3Ls≦La≦0.5Ls    (6)
 また、図13(b)に示すように、水平方向へ移動する車体700を前方から見たときに、撮像装置10は、光学系の光軸L1が鉛直方向に平行となるように設置される。撮像装置10は、車体側面710から離して設置される。このとき、ずらし量Laは以下の式(7)の条件を満足することが好ましい。
 0.3Ls≦La+yα≦0.5Ls   (7)
 αは、図13(b)に示すように車体700を前方から見たときに、光学系の光軸L1(AX)と、該光学系のうち最も物体側の面と光軸L1が交わる点から車体側面710における鉛直方向での端点(前輪の接地点)とを結ぶ直線L2とがなす角度である。また、yαは、直線L2と撮像面との交点から光軸L1までの距離である。式(7)の条件を満足する範囲で撮像装置10を車体側面から任意の距離だけ離して設置しても、適切な撮像を行うことができる。
 図13(c)は、車体700に対する撮像装置10の設置角度を示している。車体700を側方から見たときに、鉛直方向に対する後方への撮像装置10(光学系の光軸L1)の傾き角度をθb、前方への傾き角度をθfとする。傾き角度θfは、撮像装置10の光学系における最も物体側の面と光軸L1との交点と画角の周辺領域(第2の画角)における車体700の前輪の移動方向での端点とを結ぶ直線と光軸L1とがなす角度である。このとき、以下の式(8)または(9)の条件を満足することが好ましい。
 0.7θmax≦θb<θmax     (8)
 0.7θmax≦θf<θmax     (9)
 後方と前側下方の被写体に対して式(8)または(9)を満足するには、光軸L1を水平方向から鉛直方向に傾けて後側下方または前側下方を向かせることになる。式(8)または(9)を満足するように撮像装置10の水平方向での設置角度(光軸の向き)を設定することで、互いに異なる方向である後方と前側下方の被写体を十分な解像度で、かつ撮像面における適切な領域にて撮像することができる。
 なお、移動体の注目対象は後方の被写体であることが多いため、光軸L1を後方に傾けること、すなわち式(8)を満足することが好ましい。なお、式(8)は下記の式(8a)に置き換えることが可能である。
 θmax<θf≦1.3θmax     (8a)
 図16(d)は、θb=0.95θmax(θf=1.05θmax)である場合の撮像画像のシミュレーション結果を示している。前輪付近が中心領域の下部に十分な解像度で映っており、主たる被写体である後続車が周辺領域により高い解像度で映っている。
 また、撮像素子の撮像面の周辺領域に関して、後方の被写体の撮像面上での像位置(像点)とセンサ中心SAXとの距離をLb、前側下方の被写体の撮像面上での像位置とセンサ中心SAXとの距離をLf、撮像面上にて上記2つの像位置が離れる方向に延びる辺の長さをLhとする。言い換えれば、車体700を側方から見たとき、画角の周辺領域(第2の画角)のうち車体700の前輪の移動方向での端点(前側端点)の像点とセンサ中心SAXとの距離をLf、センサ中心SAXから上記前側端点の像点へ向かう方向に延びる撮像面の辺の長さをLhとする。このとき、以下の式(10)および(11)のうち少なくとも一方を満足することが好ましい。
 0.35Lh≦Lb<0.5Lh     (10)
 0.35Lh≦Lf<0.5Lh     (11)
 式(10)、(11)は、図15(c)に示すように撮像面11aの最周辺領域R3を有効に使用するための条件を示している。これらの条件を満足しないと、高解像度の最周辺領域R3で撮像することができず、撮像画像から詳細な情報を得ることが困難になるため、好ましくない。言い換えれば、式(10)および(11)のうち少なくとも一方を満足することで、最周辺領域R3で高解像度撮像を行うことができる。そして、最周辺領域R3で得られた高解像度の部分画像を切り出して車体モニタ(表示手段)に出力して表示させることで、運転者は後方の詳細な情報を得ることができる。なお、移動体の注目対象は後方の被写体であることが多いため、式(10)を満足することが好ましい。また、式(11)は下記の式(11a)に置き換えることが可能である。
 0.5Lh<Lf≦0.65Lh     (11a)
 なお、以上説明した撮像システムは、例にすぎず、他の構成や配置を採用してもよい。例えば、Eミラーでは、車体側部に設置された撮像装置の光軸を、前後方向(移動方向)から、それに直交する鉛直方向に傾けることで後方や前側下方を撮像する。これに対して、撮像装置を車体前部や後部に設置して光軸を前後方向に直交する側方に傾けて、前方と側方や後方と側方を撮像するようにしてもよい。
 さらに、Eミラーと同様に構成された撮像システムを、飛行体や船舶等の自動車以外の移動体に設置してもよい。
 以下、実施例1~4の光学系について具体的に説明する。
 図1に示す実施例1の光学系は、先にも説明したように、物体側から像側に順に配置された、負の屈折力の第1レンズL1、負の屈折力の第2レンズL2、負の屈折力の第3レンズL3、正の屈折力の第4レンズL4、開口絞りST1、正の屈折力の第5レンズL5、正の屈折力の第6レンズL6、負の屈折力の第7レンズL7および正の屈折力の第8レンズL8により構成されている。
 表1に示した本実施例に対応する数値例1の(A)レンズ構成には、光学系の焦点距離f(mm)、開口比(Fナンバー)Fおよび最大半画角(°)を示している。riは物体側から数えたときのi番目の面の曲率半径(mm)、diはi番目と(i+1)番目の面間のレンズ厚または空気間隔(mm)、niは第i面と第(i+1)面間の光学材料のd線における屈折率である。νiは第i面と第(i+1)面間の光学材料のd線を基準としたアッベ数である。
 アッベ数νdは、フラウンホーファ線のd線(587.6nm)、F線(486.1nm)、C線(656.3nm)における屈折率をNd、NF、NCとするとき、νd=(Nd-1)/(NF-NC)で表される。
 STは開口絞りを示す。また、「*」はそれが付された面が非球面形状を有する面であることを意味する。非球面形状は、zを光軸方向での座標、yを光軸に直交する方向での座標、光の進行方向を正とし、riを近軸曲率半径、Kを円錐定数、A~Gを非球面係数とするとき、以下の式で表される。表1の(B)非球面係数には、円錐定数Kおよび非球面係数A~Gを示している。「E±-x」は×10-xを意味する。
 z(y)=(y/ri)/[1+{1-(1+K)(y/ri)}1/2]+Ay+By+Cy+Dy10+Ey12+Fy14+Gy16
 なお、数値例に関する説明は、後述する他の実施例に対応する数値例でも同じである。
 本実施例(数値例1)の光学系は、式(1)~(4)の条件を満足する。各条件の値を表5にまとめて示す。
 図2は、本実施例(数値例1)の光学系の撮像距離∞における縦収差(球面収差、非点収差および歪曲収差)を示している。球面収差図において、実線はd線(波長587.6nm)に対する球面収差を示している。非点収差図において、実線Sはサジタル像面を、破線Tはメリディオナル像面を示している。歪曲収差図において、実線はd線に対する歪曲収差を示している。これら収差図に関する説明は、後述する他の実施例の収差図についても同じである。
 また、前述したように、図9(a)は本実施例の光学系の射影特性を示し、図10(a)は本実施例の光学系のθ-解像度特性を示している。
 図3は、実施例2の光学系(撮像距離∞)の構成を示している。本実施例の光学系は、物体側から像側に順に配置された、負の屈折力の第1レンズL21、負の屈折力の第2レンズL22、負の屈折力の第3レンズL23、正の屈折力の第4レンズL24、開口絞りST2、正の屈折力の第5レンズL25、負の屈折力の第6レンズL26および正の屈折力の第7レンズL27により構成されている。図3において、P21はIRカットフィルタ等の平板であり、21は撮像素子である。
 表2に示した本実施例に対応する数値例2から分かるように、本実施例の光学系の最大半画角θmaxは60°と、実施例1の光学系の90°とは異なる。
 本実施例(数値例2)の光学系は、式(1)~(4)の条件を満足する。各条件の値を表5にまとめて示す。
 図4は、本実施例(数値例2)の光学系の撮像距離∞における縦収差を示している。また、図9(b)は本実施例の光学系の射影特性を示し、前述したように図10(b)は本実施例の光学系のθ-解像度特性を示している。
 図5は、実施例3の光学系(撮像距離∞)の構成を示している。本実施例の光学系は、物体側から像側に順に配置された、負の屈折力の第1レンズL31、負の屈折力の第2レンズL32、負の屈折力の第3レンズL33、負の屈折力の第4レンズL34、開口絞りST3、正の屈折力の第5レンズL35、正の屈折力の第6レンズL36、負の屈折力の第7レンズL37および正の屈折力の第8レンズL38により構成されている。図5において、P31、P32はIRカットフィルタ等の平板であり、31は撮像素子である。
 表3に示した本実施例に対応する数値例3から分かるように、本実施例の光学系は、最大半画角が90°と実施例1と同じであるが、実施例1に対して最大像高y(θmax)が1.79mmと、実施例1(3.64mm)と異なる。
 本実施例(数値例3)の光学系は、式(1)~(4)の条件を満足する。各条件の値を表5にまとめて示す。
 図6は、本実施例(数値例3)の光学系の撮像距離∞における縦収差を示している。また、図9(c)は本実施例の光学系の射影特性を示し、前述したように図10(c)は本実施例の光学系のθ-解像度特性を示している。
 図7は、実施例4の光学系(撮像距離∞)の構成を示している。本実施例の光学系は、物体側から像側に順に配置された、負の屈折力の第1レンズL41、負の屈折力の第2レンズL42、負の屈折力の第3レンズL43、負の屈折力の第4レンズL44、開口絞りST4、正の屈折力の第5レンズL45、正の屈折力の第6レンズL46、負の屈折力の第7レンズL47および正の屈折力の第8レンズL48により構成されている。図7において、P41はIRカットフィルタ等の平板であり、41は撮像素子である。
 表4に示した本実施例に対応する数値例4から分かるように、本実施例の光学系は、Fナンバーが1.80と実施例1(2.80)より明るく、式(1)の条件の値が0.92と実施例1(0.78)より大きい。
 本実施例(数値例4)の光学系は、式(1)~(4)の条件を満足する。各条件の値を表5にまとめて示す。
 図8は、本実施例(数値例4)の光学系の撮像距離∞における縦収差を示している。また、図9(c)は本実施例の光学系の射影特性を示し、前述したように図10(c)は本実施例の光学系のθ-解像度特性を示している。
 (表1)数値例1
(A)レンズ構成
    f(焦点距離)           1.42mm
    F(開口比)             2.80
    最大半画角             90.0°
 
        r1 =  17.48      d1 =  1.00     n1 = 1.868     ν1 = 41.7 
        r2 =   8.00      d2 =  3.43                          
*       r3 =  44.02      d3 =  1.00     n2 = 1.498     ν2 = 68.4 
*       r4 =   7.51      d4 =  2.75                            
        r5 =   7.23      d5 =  0.60     n3 = 1.767     ν3 = 49.8 
        r6 =   2.15      d6 =  2.06                          
*       r7 =  -9.32      d7 =  2.24     n4 = 1.851     ν4 = 40.1 
        r8 =  -4.60      d8 =  0.81                          
ST      r9 =    ∞       d9 =  0.82                            
       r10 = -16.21     d10 =  0.71     n5 = 1.742     ν5 = 25.7 
       r11 =  -4.05     d11 =  1.14                            
       r12 = 158.10     d12 =  1.44     n6 = 1.694     ν6 = 52.6 
       r13 =  -2.26     d13 =  0.24     n7 = 1.922     ν7 = 20.8 
       r14 =  13.82     d14 =  0.10                            
*      r15 =   7.74     d15 =  2.79     n8 = 1.583     ν8 = 59.4 
*      r16 =  -2.78     d16 =  2.10                            
       r17 =    ∞      d17 =  0.65     n9 = 1.516     ν9 = 64.1
 
 (B)非球面係数   
Figure JPOXMLDOC01-appb-I000001

 
 (表2)数値例2
(A)レンズ構成
    f(焦点距離)           1.30mm
    F(開口比)             2.80
    最大半画角              60.0°
 
*       r1 =  20.40      d1 =  1.50     n1 = 1.789     ν1 = 47.9 
*       r2 =   8.01      d2 =  2.18                            
        r3 =   8.94      d3 =  1.23     n2 = 1.770     ν2 = 48.9 
        r4 =   2.38      d4 =  2.14                          
*       r5 = -18.79      d5 =  2.35     n3 = 1.851     ν3 = 40.1 
*       r6 = -63.71      d6 =  0.38                        
        r7 =   5.12      d7 =  1.96     n4 = 1.611     ν4 = 34.6 
ST      r8 = -10.26      d8 =  1.40                            
        r9 =-154.62      d9 =  1.78     n5 = 1.666     ν5 = 54.0 
       r10 =  -2.35     d10 =  0.40     n6 = 1.895     ν6 = 21.3 
       r11 = -56.68     d11 =  0.10                          
*      r12 =   5.18     d12 =  4.54     n7 = 1.583     ν7 = 59.4 
*      r13 =  -1.79     d13 =  1.00                            
       r14 =   ∞       d14 =  0.65     n8 = 1.516     ν8 = 64.1 
       r15 =   ∞       d15 =  1.10                                        
 
 (B)非球面係数
Figure JPOXMLDOC01-appb-I000002

 
 (表3)数値例3
(A)レンズ構成
    f(焦点距離)           0.80mm
    F(開口比)             2.00
    最大半画角              90.0°
 
        r1 =  19.24      d1 =  1.20     n1 = 1.883     ν1 = 40.8 
        r2 =   9.00      d2 =  5.16                          
*       r3 =  45.70      d3 =  1.00     n2 = 1.883     ν2 = 40.8 
*       r4 =   7.03      d4 =  3.06                            
        r5 =  18.85      d5 =  0.50     n3 = 1.774     ν3 = 49.5 
        r6 =   2.86      d6 =  1.59                          
*       r7 =  -7.87      d7 =  0.48     n4 = 1.851     ν4 = 40.1 
*       r8 = 127.24      d8 =  2.12                        
ST      r9 =   ∞        d9 =  0.85                            
       r10 =  13.04     d10 =  0.66     n5 = 1.871     ν5 = 21.8 
       r11 =  -7.20     d11 =  2.67                            
       r12 =   7.65     d12 =  1.38     n6 = 1.698     ν6 = 52.4 
       r13 =  -2.40     d13 =  0.48     n7 = 1.922     ν7 = 20.8 
       r14 =   9.84     d14 =  0.10                            
*      r15 =   4.78     d15 =  1.86     n8 = 1.583     ν8 = 59.4 
*      r16 =  -2.92     d16 =  1.21                            
       r17 =   ∞       d17 =  0.95     n9 = 1.560     ν9 = 56.0 
       r18 =   ∞       d18 =  1.64                          
       r19 =   ∞       d19 =  0.30    n10 = 1.500    ν10 = 63.0 
       r20 =   ∞       d20 =  0.10                                 
 
 (B)非球面係数    
Figure JPOXMLDOC01-appb-I000003

 
 (表4)数値例4
(A)レンズ構成
    f(焦点距離)           1.68mm
    F(開口比)             1.80
    最大半画角              90.0°
 
*       r1 = 137.12      d1 =  1.00     n1 = 1.851     ν1 = 40.1 
        r2 =   8.22      d2 =  5.13                          
*       r3 =  14.98      d3 =  1.00     n2 = 1.583     ν2 = 59.4 
*       r4 =   5.10      d4 =  2.55                            
        r5 =   9.11      d5 =  0.80     n3 = 1.516     ν3 = 64.1 
        r6 =   3.97      d6 =  3.28                          
        r7 =  -3.56      d7 =  0.71     n4 = 1.516     ν4 = 64.1 
        r8 =  -4.02      d8 =  1.93                          
ST      r9 =    ∞       d9 =  0.10                            
       r10 =   9.23     d10 =  2.10     n5 = 1.673     ν5 = 32.1 
       r11 = -13.90     d11 =  3.04                          
       r12 =   8.45     d12 =  3.03     n6 = 1.703     ν6 = 52.4 
       r13 =  -4.26     d13 =  0.50     n7 = 1.923     ν7 = 20.9 
       r14 =   9.75     d14 =  0.20                            
*      r15 =   5.85     d15 =  3.79     n8 = 1.583     ν8 = 59.4 
*      r16 =  -5.37     d16 =  2.10                            
       r17 =    ∞      d17 =  0.65     n9 = 1.516     ν9 = 64.1 
       r18 =    ∞      d18 =  1.10                                   
 
 (B)非球面係数
Figure JPOXMLDOC01-appb-I000004
 (表5)条件式の値
Figure JPOXMLDOC01-appb-I000005
 図17は、上述したEミラー(撮像システム)としての車載システム(運転支援装置)600の構成を示している。ここで説明する車載システム600は、撮像装置10により取得された車両の後方、下方および前側下方の画像データに基づいて、車両の運転(操縦)を支援するためのシステムである。
 車載システム600は、撮像装置10と、車両情報取得装置20と、制御装置(制御部、ECU:エレクトロニックコントロールユニット)30と、警告装置(警告部)40とを有する。撮像装置10は、光学系および撮像素子を含む撮像部1と、画像処理部2と、視差算出部3と、距離取得部(取得部)4と、危険判定部5とを備えている。撮像部1は、車両の左右の側部にそれぞれ設けられている。画像処理部2、視差算出部3、距離取得部4および危険判定部5により処理部が構成される。
 図18のフローチャートは、車載システム600の動作例を示している。まず、ステップS1では、撮像部1が、車両の後方、下方および前側下方の障害物や歩行者等の対象物(被写体)を撮像して撮像画像(画像データ)を取得する。
 ステップS2では、車両情報取得装置20が、車両情報を取得する。車両情報は、車速、ヨーレート、舵角等を含む情報である。
 ステップS3では、画像処理部2が、撮像部1により取得された画像データに対して画像処理を行う。具体的には、画像データにおけるエッジの量や方向、濃度値などの特徴量を解析する画像特徴解析を行う。
 ステップS4では、視差算出部3が、撮像部1により取得された複数の画像データ間の視差(像ずれ)情報を算出する。視差情報の算出方法としては、SSDA法や面積相関法等の既知の方法を用いることができるため、ここでの説明は省略する。なお、ステップS2,S3,S4は、上記の順番に行われてもよいし、互いに並列して処理を行われてもよい。
 ステップS5では、距離取得部4が撮像部1により撮像した対象物との距離情報を取得(算出)する。距離情報は、視差算出部3により算出された視差情報と、撮像部1の内部パラメータおよび外部パラメータとに基づいて算出することができる。なお、ここでの距離情報とは、対象物との間隔、デフォーカス量、像ずれ量等の対象物との相対位置に関する情報であり、対象物までの距離を直接的に表すものでも距離を間接的に表すものでもよい。
 そして、ステップS6では、危険判定部5が、車両情報取得装置20により取得された車両情報や距離取得部4により算出された距離情報を用いて、対象物までの距離が予め設定された設定距離の範囲内に含まれるか否かの判定を行う。これにより、車両の後方における設定距離内に対象物が存在するか否かを判定し、車線変更時における斜め後方の車両との衝突、前輪の側溝への脱落や歩道への乗り上げ等の危険事象の可能性を判定することができる。危険判定部5は、設定距離内に対象物が存在して危険事象の可能性がある場合は「危険あり」と判定し(ステップS7)、設定距離内に対象物が存在しない場合は「危険なし」と判定する(ステップS8)。
 次に、危険判定部5は、「危険あり」と判定した場合、その判定結果を制御装置30や警告装置40に対して通知(送信)する。このとき、制御装置30は、危険判定部5での判定結果に基づいて車両を制御し(ステップS6)、警告装置40は、危険判定部5での判定結果に基づいて車両のユーザ(運転者、搭乗者)への警告を行う(ステップS7)。なお、判定結果の通知は、制御装置30と警告装置40の少なくとも一方に対して行えばよい。
 制御装置30は、「危険あり」の場合に、例えば、車線変更しないように又は側溝に脱落したり歩道に乗り上げたりしないようにハンドルを戻す、車輪に制動力を発生させる等の車両の制御を行う。警告装置40は、ユーザに対して、例えば警告音(警報)を発する、カーナビゲーションシステム等の画面に警告情報を表示する、シートベルトやステアリングに振動を与える等の警告を行う。
 なお、距離情報の算出方法には、様々な方法がある。例えば、撮像部1が有する撮像素子として、二次元アレイ状に配列された複数の画素部を有する瞳分割型の撮像素子を用いた場合について説明する。瞳分割型の撮像素子において、1つの画素部は、マイクロレンズと複数の光電変換部とから構成され、光学系の瞳における異なる領域を通過する一対の光束を受光し、対をなす画像データを各光電変換部から出力することができる。
 そして、対をなす画像データ間の相関演算によって各領域の像ずれ量が算出され、距離取得部4により像ずれ量の分布を表す像ずれマップデータが算出される。距離取得部4は、像ずれ量をさらにデフォーカス量に換算し、デフォーカス量の分布(撮像画像の2次元平面上の分布)を表すデフォーカスマップデータを生成してもよい。また、距離取得部4は、デフォーカス量から変換される対象物との間隔の距離マップデータを取得してもよい。
 なお、車載システム600は、衝突等の危険事象が実際に発生した場合に、その旨を車載システムの製造元(メーカー)や車両の販売元(ディーラー)等に通知するための通知装置(通知部)を備えていてもよい。例えば、通知装置としては、危険事象に関する情報を予め設定された外部の通知先に対して電子メール等によって送信するものを採用することができる。
 このように、通知装置によって危険事象の情報を自動通知する構成を採ることにより、危険事象が生じた後に点検や修理等の対応を速やかに行うことができる。なお、危険事象の情報の通知先は、保険会社、医療機関、警察等やユーザが設定した任意の通知先であってもよい。
 また、本実施例では、車載システム600を運転支援(衝突被害軽減)に適用したが、これに限らず、車載システム600をクルーズコントロール(全車速追従機能付を含む)や自動運転等に用いてもよい。また、車載システム600と同等の構成を有する撮像システムを、飛行体、船舶、さらには産業用ロボット等の移動体に搭載してもよい。
 さらに上述した実施例では、レンズ装置を測距装置としての撮像装置10に適用する場合について説明したが、測距装置以外の撮像装置(車載カメラ)に適用してもよい。例えば、車載カメラを車両の後部や側部などに配置し、取得された画像情報を車内の表示部(モニタ)に表示することで運転支援ができるようにしてもよい。この場合、視差算出部、距離取得部、衝突判定部などの測距に用いるものについては設けなくてもよい。
 また、上述した実施形態では、レンズ装置を車載システムにおける撮像部に適用する場合について説明したが、これに限られるものではない。例えば、レンズ装置をデジタルスチルカメラ、デジタルビデオカメラ、銀塩フィルム用カメラなどの撮像装置に適用してもよいし、望遠鏡等の光学機器やプロジェクタなどの投影装置に適用してもよい。
 以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。
 

Claims (28)

  1.  複数のレンズと、該複数のレンズのうちいずれか2つのレンズの間に配置された開口絞りとを有する光学系であって、
     半画角θと像高yとの関係を表す前記光学系の射影特性をy(θ)、前記光学系の最大半画角をθmax、前記光学系の焦点距離をfとするとき、
     0.20≦2ftan(θmax/2)/y(θmax)≦0.95
    なる条件を満足することを特徴とする光学系。
  2.  前記最大半画角の8割の半画角をθ80とするとき
     1.35≦{y(θmax)-y(θ80)}/(fθmax-fθ80)≦2.50
    なる条件を満足することを特徴とする請求項1に記載の光学系。
  3.  前記開口絞りよりも物体側に非球面を含む少なくとも2つのレンズを有し、前記絞りよりも像側に非球面を含む少なくとも1つのレンズを有することを特徴とする請求項1または2に記載の光学系。
  4.  前記非球面の少なくとも1つが、その径方向の複数の位置にて曲率の符号が反転する形状を有することを特徴とする請求項3に記載の光学系。
  5.  0.1≦fsinθmax/y(θmax)≦0.8
    なる条件を満足することを特徴とする請求項1から4のいずれか一項に記載の光学系。
  6.  θmax≧60°
    なる条件を満足することを特徴とする請求項1から5のいずれか一項に記載の光学系。
  7.  前記開口絞りよりも物体側に配置された3つの負レンズと、 最も像側に配置された正レンズとを有することを特徴とする請求項1から6のいずれか一項に記載の光学系。
  8.  物体側から像側に順に配置された、
     負の屈折力の第1レンズと、
     負の屈折力の第2レンズと、
     負の屈折力の第3レンズと、
     正または負の屈折力の第4レンズと、
     前記開口絞りと、
     正の屈折力の第5レンズと、
     負の屈折力の第6レンズと、
     正の屈折力の第7レンズと、
     正の屈折力の第8レンズからなることを特徴とする請求項7に記載の光学系。
  9.  物体側から像側に順に配置された、
     負の屈折力の第1レンズと、
     負の屈折力の第2レンズと、
     負の屈折力の第3レンズと、
     正の屈折力の第4レンズと、
     前記開口絞りと、
     正の屈折力の第5レンズと、
     負の屈折力の第6レンズと、
     正の屈折力の第7レンズからなることを特徴とする請求項7に記載の光学系。
  10.  請求項1から9のいずれか一項に記載の光学系と、
     該光学系を介して物体を撮像する撮像素子とを有することを特徴とする撮像装置。
  11.  移動体に設置される請求項10に記載の撮像装置を有する撮像システムであって、
     前記撮像素子の撮像面は、第1の画角に含まれる物体を撮像する第1の領域と、前記第1の画角よりも大きい第2の画角に含まれる物体を撮像する第2の領域とを含み、
     前記第2の領域における単位画角あたりの画素数が前記第1の領域における前記単位画角あたりの画素数よりも多く、
     前記移動体が水平方向へ移動するとき、前記撮像装置は前記光学系の光軸が水平方向に対して非平行となるように設置され、
     最大半画角をθmax、前記光学系の最大像高に対応する位置での歪曲量をdθmaxとするとき
     55°≦θmax
     20%<|dθmax|
    なる条件を満足することを特徴とする撮像システム。
  12.  前記移動体が水平方向へ移動するとき、前記撮像装置は、前記移動体の移動方向から見たときの前記光軸が鉛直方向に平行となるように設置されることを特徴とする請求項11に記載の撮像システム。
  13.  前記移動体が水平方向へ移動するとき、前記撮像装置は、前記移動体の移動方向から見たときの前記光軸が鉛直方向に対して前記移動体から離れる側へ傾くように設置されることを特徴とする請求項11または12に記載の撮像システム。
  14.  前記移動体が水平方向へ移動するとき、前記撮像装置は、前記光学系に対して鉛直方向における下側の物体を撮像するように設置されることを特徴とする請求項11から13のいずれか一項に記載の撮像システム。
  15.  前記第1の方向としての水平方向から見たときの前記光軸と前記第2の方向としての鉛直方向とのなす角度をθLとするとき、
     0°≦θL≦20°
    なる条件を満足することを特徴とする請求項11から14のいずれか一項に記載の撮像システム。
  16.  前記光学系は、前記光軸が前記撮像面の中心に対して前記第1および第2の方向に直交する第3の方向のうち前記移動体から離れる側にずれるように配置されていることを特徴とする請求項11から15のいずれか一項に記載の撮像システム。
  17.  前記光軸の前記撮像面の中心からのずれ量をLa、前記撮像面の中心から前記光軸へ向かう方向に延びる前記撮像面の辺の長さをLsとするとき、
     0.3Ls≦La≦0.5Ls
    なる条件を満足することを特徴とする請求項16に記載の撮像システム。
  18.  前記移動体が水平方向へ移動するとし、前記移動体の移動方向から見たとき、前記光学系における最も物体側の面と前記光軸との交点および前記移動体の鉛直方向における端点を結ぶ第1直線と前記光軸とがなす角度をα、前記第1直線と前記撮像面との交点から前記光軸までの距離をyα、前記光軸の前記撮像面の中心からのずれ量をLa、前記撮像面の中心から前記光軸へ向かう方向に延びる前記撮像面の辺の長さをLsとするとき、
    0.3Ls≦La+yα≦0.5Ls
    なる条件を満足することを特徴とする請求項16または17に記載の撮像システム。
  19.  前記移動体が水平方向へ移動するとし、前記移動体の移動方向および鉛直方向に直交する方向から見たとき、前記光学系における最も物体側の面と前記光軸との交点および前記第2の画角おける前記移動体の前輪の前記移動方向での端点を結ぶ直線と前記光軸とのなす角度をθf、最大半画角をθmaxとするとき、
    θmax<θf≦1.3θmax
    なる条件を満足することを特徴とする請求項11から18のいずれか一項に記載の撮像システム。
  20.  前記移動体が水平方向へ移動するとし、前記移動体の移動方向および鉛直方向に直交する第3の方向から見たとき、前記第2の画角における前記移動体の前輪の前記移動方向での端点の像点と前記撮像面の中心との距離をLf、前記撮像面の中心から前記像点へ向かう方向に延びる前記撮像面の辺の長さをLhとするとき、
    0.5Lh<Lf≦0.65Lh
    なる条件を満足することを特徴とする請求項11から19のいずれか一項に記載の撮像システム。
  21.  前記撮像素子からの出力を用いて生成された画像データを表示する表示手段を有することを特徴とする請求項1から20のいずれか一項に記載の撮像システム。
  22.  移動体に設置される請求項10に記載の撮像装置と、
     該撮像装置により取得された画像情報を処理する処理部を有することを特徴とする撮像システム。
  23.  前記撮像装置により取得された前記物体までの距離情報に基づいて危険事象の可能性を判定する判定部を有することを特徴とする請求項22に記載の撮像システム。
  24.  前記危険事象の可能性があると判定された場合に、前記移動体を制御する制御装置を有することを特徴とする請求項23に記載の撮像システム。
  25.  前記危険事象の可能性があると判定された場合に、前記移動体のユーザに対して警告を行う警告装置を備えることを特徴とする請求項23または24に記載の撮像システム。
  26.  前記危険事象の情報を外部に通知する通知装置を備えることを特徴と請求項23から25のいずれか一項に記載の撮像システム。
  27.  請求項10に記載の撮像装置が設けられていることを特徴とする移動体。
  28.  請求項11から26のいずれか一項に記載の撮像システムが設けられていることを特徴とする移動体。
PCT/JP2022/024914 2021-06-29 2022-06-22 光学系、撮像装置および撮像システム WO2023276824A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2023531866A JPWO2023276824A1 (ja) 2021-06-29 2022-06-22
GB2320076.9A GB2622735A (en) 2021-06-29 2022-06-22 Optical system, imaging device, and imaging system
CN202280045366.3A CN117561468A (zh) 2021-06-29 2022-06-22 光学系统、图像拾取装置和图像拾取系统
US18/525,928 US20240111134A1 (en) 2021-06-29 2023-12-01 Optical system, image pickup apparatus, and image pickup system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021108083 2021-06-29
JP2021-108083 2021-06-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/525,928 Continuation US20240111134A1 (en) 2021-06-29 2023-12-01 Optical system, image pickup apparatus, and image pickup system

Publications (1)

Publication Number Publication Date
WO2023276824A1 true WO2023276824A1 (ja) 2023-01-05

Family

ID=84691807

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/024914 WO2023276824A1 (ja) 2021-06-29 2022-06-22 光学系、撮像装置および撮像システム

Country Status (5)

Country Link
US (1) US20240111134A1 (ja)
JP (1) JPWO2023276824A1 (ja)
CN (1) CN117561468A (ja)
GB (1) GB2622735A (ja)
WO (1) WO2023276824A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116661110A (zh) * 2023-08-02 2023-08-29 江西欧菲光学有限公司 光学镜头、摄像模组及终端设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008035201A (ja) * 2006-07-28 2008-02-14 Hitachi Ltd カメラシステム
JP2009064373A (ja) * 2007-09-10 2009-03-26 Toyota Motor Corp モニタ画像シミュレーション装置、モニタ画像シミュレーション方法及びモニタ画像シミュレーションプログラム
JP2010039998A (ja) * 2008-08-08 2010-02-18 Toyota Motor Corp 車両用衝突危険度判定システム及び通信端末
JP2014063273A (ja) * 2012-09-20 2014-04-10 Denso Corp 画像処理装置及び車両制御システム
JP2014190812A (ja) * 2013-03-27 2014-10-06 Omron Automotive Electronics Co Ltd レーザレーダ装置
JP2015121591A (ja) * 2013-12-20 2015-07-02 株式会社富士通ゼネラル 車載カメラ
JP2017102353A (ja) * 2015-12-04 2017-06-08 キヤノン株式会社 広角レンズ及びそれを有する撮像装置
JP2018092041A (ja) * 2016-12-05 2018-06-14 日精テクノロジー株式会社 撮像光学系及びそれを有する撮像装置
WO2020122057A1 (ja) * 2018-12-10 2020-06-18 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法および画像処理システム
WO2020153317A1 (ja) * 2019-01-23 2020-07-30 ソニーセミコンダクタソリューションズ株式会社 車載カメラ

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008035201A (ja) * 2006-07-28 2008-02-14 Hitachi Ltd カメラシステム
JP2009064373A (ja) * 2007-09-10 2009-03-26 Toyota Motor Corp モニタ画像シミュレーション装置、モニタ画像シミュレーション方法及びモニタ画像シミュレーションプログラム
JP2010039998A (ja) * 2008-08-08 2010-02-18 Toyota Motor Corp 車両用衝突危険度判定システム及び通信端末
JP2014063273A (ja) * 2012-09-20 2014-04-10 Denso Corp 画像処理装置及び車両制御システム
JP2014190812A (ja) * 2013-03-27 2014-10-06 Omron Automotive Electronics Co Ltd レーザレーダ装置
JP2015121591A (ja) * 2013-12-20 2015-07-02 株式会社富士通ゼネラル 車載カメラ
JP2017102353A (ja) * 2015-12-04 2017-06-08 キヤノン株式会社 広角レンズ及びそれを有する撮像装置
JP2018092041A (ja) * 2016-12-05 2018-06-14 日精テクノロジー株式会社 撮像光学系及びそれを有する撮像装置
WO2020122057A1 (ja) * 2018-12-10 2020-06-18 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法および画像処理システム
WO2020153317A1 (ja) * 2019-01-23 2020-07-30 ソニーセミコンダクタソリューションズ株式会社 車載カメラ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116661110A (zh) * 2023-08-02 2023-08-29 江西欧菲光学有限公司 光学镜头、摄像模组及终端设备
CN116661110B (zh) * 2023-08-02 2023-11-07 江西欧菲光学有限公司 光学镜头、摄像模组及终端设备

Also Published As

Publication number Publication date
US20240111134A1 (en) 2024-04-04
CN117561468A (zh) 2024-02-13
JPWO2023276824A1 (ja) 2023-01-05
GB2622735A (en) 2024-03-27
GB202320076D0 (en) 2024-02-14

Similar Documents

Publication Publication Date Title
WO2017150486A1 (ja) 光学系、それを備える撮像装置及び投影装置
WO2023276819A1 (ja) 撮像システム
JP6519758B2 (ja) レンズ系
WO2017150493A1 (ja) 撮像装置及び投影装置
CN109307929B (zh) 带折射面和反射面的光学系统与图像拍摄装置和投影装置
JP2023016888A (ja) 光学系、撮像装置、車載システムおよび移動装置
US20240111134A1 (en) Optical system, image pickup apparatus, and image pickup system
US20220234504A1 (en) Optical system, image pickup apparatus, in-vehicle system, and moving apparatus
JP7249599B2 (ja) レンズ系、撮像装置及び撮像システム
JP2022114767A (ja) 光学系、撮像装置、車載システムおよび移動装置
JP7483451B2 (ja) 光学系および撮像装置
WO2017150492A1 (ja) 光学系、それを備える撮像装置及び投影装置
JP2021081663A (ja) 光学系及びそれを備える撮像装置
JP2018189747A (ja) 光学系、それを備える撮像装置及び投影装置
EP4246200A1 (en) Optical system including negative lens and positive lens, imaging apparatus including the same, in-vehicle system including the same, and moving apparatus including the same
US20230408796A1 (en) Optical system, image pickup apparatus, on-board system, and moving apparatus
US20230296881A1 (en) Optical system including cemented lenses, imaging apparatus including the same, and moving apparatus including the same
JP2022114765A (ja) 光学系、撮像装置、車載システムおよび移動装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22832972

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023531866

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280045366.3

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 202320076

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20220622