WO2007132717A1 - 撮像装置及び半導体回路素子 - Google Patents

撮像装置及び半導体回路素子 Download PDF

Info

Publication number
WO2007132717A1
WO2007132717A1 PCT/JP2007/059630 JP2007059630W WO2007132717A1 WO 2007132717 A1 WO2007132717 A1 WO 2007132717A1 JP 2007059630 W JP2007059630 W JP 2007059630W WO 2007132717 A1 WO2007132717 A1 WO 2007132717A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
transfer range
imaging signal
signal
operation mode
Prior art date
Application number
PCT/JP2007/059630
Other languages
English (en)
French (fr)
Inventor
Tomokuni Iijima
Katsumi Imada
Satoshi Tamaki
Original Assignee
Panasonic Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corporation filed Critical Panasonic Corporation
Priority to JP2008515502A priority Critical patent/JP4436427B2/ja
Priority to CN200780017796XA priority patent/CN101449574B/zh
Priority to US12/300,754 priority patent/US8107000B2/en
Publication of WO2007132717A1 publication Critical patent/WO2007132717A1/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/443Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading pixels from selected 2D regions of the array, e.g. for windowing or digital zooming
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2224/00Indexing scheme for arrangements for connecting or disconnecting semiconductor or solid-state bodies and methods related thereto as covered by H01L24/00
    • H01L2224/01Means for bonding being attached to, or being formed on, the surface to be connected, e.g. chip-to-package, die-attach, "first-level" interconnects; Manufacturing methods related thereto
    • H01L2224/42Wire connectors; Manufacturing methods related thereto
    • H01L2224/44Structure, shape, material or disposition of the wire connectors prior to the connecting process
    • H01L2224/45Structure, shape, material or disposition of the wire connectors prior to the connecting process of an individual wire connector
    • H01L2224/45001Core members of the connector
    • H01L2224/45099Material
    • H01L2224/451Material with a principal constituent of the material being a metal or a metalloid, e.g. boron (B), silicon (Si), germanium (Ge), arsenic (As), antimony (Sb), tellurium (Te) and polonium (Po), and alloys thereof
    • H01L2224/45138Material with a principal constituent of the material being a metal or a metalloid, e.g. boron (B), silicon (Si), germanium (Ge), arsenic (As), antimony (Sb), tellurium (Te) and polonium (Po), and alloys thereof the principal constituent melting at a temperature of greater than or equal to 950°C and less than 1550°C
    • H01L2224/45144Gold (Au) as principal constituent
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2224/00Indexing scheme for arrangements for connecting or disconnecting semiconductor or solid-state bodies and methods related thereto as covered by H01L24/00
    • H01L2224/01Means for bonding being attached to, or being formed on, the surface to be connected, e.g. chip-to-package, die-attach, "first-level" interconnects; Manufacturing methods related thereto
    • H01L2224/42Wire connectors; Manufacturing methods related thereto
    • H01L2224/47Structure, shape, material or disposition of the wire connectors after the connecting process
    • H01L2224/48Structure, shape, material or disposition of the wire connectors after the connecting process of an individual wire connector
    • H01L2224/4805Shape
    • H01L2224/4809Loop shape
    • H01L2224/48091Arched
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2924/00Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
    • H01L2924/15Details of package parts other than the semiconductor or other solid state devices to be connected
    • H01L2924/161Cap
    • H01L2924/1615Shape
    • H01L2924/16195Flat cap [not enclosing an internal cavity]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values

Definitions

  • the present invention relates to an imaging apparatus capable of measuring a distance and a semiconductor circuit element used in the imaging apparatus.
  • FIG. 53 is an exploded perspective view of the imaging apparatus of Patent Document 1.
  • the imaging device 901 includes a diaphragm member 902, an optical lens array 903, an optical filter 906, and an imaging unit 907.
  • a diaphragm member 902 having four openings 902-1, 902-2, 902-3, 902-4, and four lenses 903-1, 903-2, 903-3, 903 —
  • the optical lens array 903 having 4 forms four imaging optical systems, and the light beams that pass through each of the four pixel groups on the imaging unit 907 are 907-1, 907-2, 907— 3. Focus on 907-4.
  • An imaging unit 907 formed of a CCD sensor or the like is formed on a semiconductor substrate 910 together with a drive circuit 908 and a signal processing circuit 909.
  • the signal processing circuit 909 sequentially inputs pixel information of the image pickup unit 907 as a read pixel signal from the drive circuit 908, and each pixel group (907-1, 907-2, 907_3, 907- The parallax value in 4) is calculated, and the distance is calculated based on this parallax.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2003-143459
  • the signal processing circuit 909 includes four pixels 907-1, 907-2, 907-3, 907 on the imaging unit 907. — Read out all pixel information of 4 using the drive circuit 908 and calculate the parallax. Therefore, a transfer time is required for transferring all the pixel information from the image pickup unit 907 to the signal processing circuit 909, and there is a limit to speeding up by the transfer time. In other words, the interval of the parallax calculation could not be shorter than this transfer time.
  • the imaging time differs depending on the pixel groups 907-1, 907-2, 907-3, and 907-4.
  • the imaging signal used for the parallax calculation is different, so that the required parallax accuracy is reduced.
  • the present invention has been made in view of the above problems, and an object thereof is to provide an imaging device capable of high-speed and high-precision parallax calculation and a semiconductor circuit element used in the imaging device. That is, to provide an imaging device and a semiconductor circuit element that enable high-speed parallax calculation by shortening the transfer time of the imaging signal, and enable high-precision parallax calculation even when the subject operates fast. With the goal.
  • the imaging device of the present invention is provided with a plurality of lens units each including at least one lens, and the plurality of lens units in a one-to-one correspondence.
  • a plurality of imaging regions each having a light receiving surface substantially perpendicular to the optical axis direction of the corresponding lens unit; an imaging signal input unit that receives an input of an imaging signal generated by the imaging region; and
  • a transfer range determining unit that determines a transfer range of an imaging signal to be transferred to the imaging signal input unit, and an imaging signal corresponding to the transfer range determined by the transfer range determining unit is transferred to the imaging signal input unit
  • An imaging region driving unit that drives the imaging region; and a parallax calculation unit that calculates a difference based on an imaging signal transferred to the imaging signal input unit, wherein the transfer range determination unit includes the plurality of imaging regions No A first operation mode for determining an imaging signal generated in at least two imaging areas as the transfer range, and a second operation mode for determining an imaging signal different from the first operation mode as the
  • the transfer range determination unit includes a first operation mode in which an imaging signal generated in substantially the entire area of the imaging area is the transfer range, and the imaging It is configured to be switchable between the second operation mode in which the imaging signal generated in approximately half of the area is set as the transfer range.
  • the four imaging regions may be arranged in two rows and two columns, the substantially half region being a substantially half region in which the transfer order is early among the imaging regions. If so, the substantially half area may be the two imaging areas at diagonal positions.
  • the imaging region is divided into a plurality of fields in which interlaced scanning is performed, and the transfer range determination unit generates an imaging signal generated in substantially the entire region of the imaging region.
  • the transfer range determination unit generates an imaging signal generated in substantially the entire region of the imaging region. Is configured to be switchable between a first operation mode in which the transfer range is used and a second operation mode in which the image pickup signal for one field in the imaging region is used as the transfer range. ,.
  • the transfer range determination unit is configured to switch between the first operation mode and the second operation mode based on information on a subject. May be.
  • the transfer range determination unit determines that high speed is required for the parallax calculation
  • the first operation mode is changed to the second operation mode. It is configured to switch les.
  • the transfer range determination unit determines that high accuracy is required for calculation of parallax
  • the second operation mode is changed to the first operation mode. It is configured to switch les.
  • the transfer range determination unit may include a part of the plurality of imaging regions in any of the first operation mode and the second operation mode. An imaging signal generated in the imaging area may be determined as the transfer range.
  • the transfer range determination unit is generated in an imaging region for imaging a moving subject in at least one of the first operation mode and the second operation mode.
  • An imaging signal to be processed may be determined as the transfer range.
  • the transfer range determination unit may switch between the first operation mode and the second operation mode based on an operation speed of the subject. Consists of les, even les.
  • the transfer range determination unit is configured to an operation mode in which an imaging signal generated in many imaging regions is determined as the transfer range when the operation of the subject is fast.
  • the imaging signal generated in a small imaging area may be switched to the operation mode for determining the transfer range.
  • the transfer range determination unit may determine the number of pixels related to the imaging signal in the transfer range in at least one of the first operation mode and the second operation mode. May be configured to be substantially constant.
  • the imaging area is configured to capture an area including an area corresponding to a road surface
  • the transfer range determination unit includes the first operation mode and In at least one of the second operation modes, an imaging signal related to an area other than the area corresponding to the road surface may be configured as the transfer range.
  • the imaging area is configured to image an area including an area corresponding to a human face
  • the transfer range determination unit includes the first area.
  • an imaging signal related to an area corresponding to the human face may be configured as the transfer range.
  • At least two imaging regions of the plurality of imaging regions repeatedly transfer a part of the generated imaging signal to the imaging signal input unit alternately. Is configured to transfer all of the imaging signal to be generated to the imaging signal input unit.
  • the imaging apparatus may further include a distance calculation unit that calculates a distance to the subject based on the parallax obtained by the parallax calculation unit.
  • the semiconductor circuit element of the present invention is provided with a plurality of lens portions each including at least one lens and the plurality of lens portions in a one-to-one correspondence, and the corresponding lens
  • An imaging element driving unit that drives the imaging region so as to transfer a signal to the imaging signal input unit, and a parallax calculation unit that calculates parallax based on the imaging signal transferred to the imaging signal input unit
  • the transfer range determining unit includes a first operation mode for determining an image signal generated in at least two image pickup regions among the plurality of image pickup regions as the transfer range, and an image signal different
  • FIG. 1 is a cross-sectional view showing a configuration of an imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a plan view showing the configuration of the lens of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 3A is a plan view showing a configuration of a circuit unit of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 3B is a plan view showing the configuration of the image sensor of the imaging device according to Embodiment 1 of the present invention.
  • FIG. 4 is a characteristic diagram of the color filter of the camera module according to Embodiment 1 of the present invention.
  • FIG. 5 is a diagram for explaining the position of an object image at infinity in the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 6 is a diagram for explaining the position of an object image at a finite distance in the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 7 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 8 is a diagram for explaining a cut-out position of an image pickup signal of the image pickup apparatus according to Embodiment 1 of the present invention.
  • FIG. 9 is a timing chart showing transfer of an imaging signal of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 10A is a flowchart showing the operation of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 10B is a flowchart showing a modified example of the operation of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 11A is a flowchart showing the operation of the calculation unit of the imaging apparatus according to Embodiment 1 of the present invention.
  • 11B] is a flowchart showing a modification of the operation of the calculation unit of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 14 A diagram illustrating a division block and a calculation order of the first imaging signal in the parallax calculation using the first imaging signal and the second imaging signal of the imaging device according to Embodiment 1 of the present invention.
  • FIG. 17 is a diagram for explaining the calculation area of the parallax evaluation value in the parallax calculation when the first imaging signal and the second imaging signal are used in the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 18 is a diagram for explaining the relationship between the parallax and the parallax evaluation value in the parallax calculation when the first imaging signal and the second imaging signal of the imaging device according to the first embodiment of the invention are used.
  • FIG. 6 is a diagram for explaining a calculation area of reliability of a parallax evaluation value in a parallax calculation when the first imaging signal and the second imaging signal are used in the imaging apparatus according to the first embodiment.
  • FIG. 22 is a plan view showing the configuration of the circuit unit of the imaging apparatus according to the second embodiment of the present invention.
  • FIG. 23 is a characteristic diagram of the color filter of the camera module according to the second embodiment of the present invention. 24] A block diagram showing the configuration of the imaging apparatus according to Embodiment 2 of the present invention.
  • FIG. 31 A diagram illustrating a division block and a calculation order of the second imaging signal in the parallax calculation using the second imaging signal and the third imaging signal of the imaging device according to Embodiment 2 of the present invention.
  • FIG. 32 A description will be given of divided blocks and calculation order of the third imaging signal in the parallax calculation using the second imaging signal and the third imaging signal of the imaging device according to Embodiment 2 of the present invention.
  • FIG. 37 A diagram illustrating a calculation area of a parallax evaluation value in a parallax calculation when the first imaging signal and the fourth imaging signal of the imaging device according to Embodiment 2 of the present invention are used.
  • FIG. 38 is a diagram for explaining the calculation region of the reliability of the parallax evaluation value in the parallax calculation when the first imaging signal and the fourth imaging signal of the imaging device according to Embodiment 2 of the present invention are used.
  • FIG. 6 is a diagram for explaining a cut-out position of an imaging signal in a modification of the imaging device according to Embodiment 2 of the present invention.
  • FIG. 40 is a cross-sectional view showing a configuration of an imaging apparatus according to Embodiment 3 of the present invention.
  • FIG. 42 is a plan view showing the configuration of the circuit unit of the imaging apparatus according to Embodiment 3 of the present invention.
  • FIG. 43 is a block diagram showing the configuration of the imaging apparatus according to Embodiment 3 of the present invention.
  • 52 A diagram for explaining the transfer range of deformation of the imaging device according to Embodiment 3 of the present invention.
  • FIG. 53 is an exploded perspective view of the imaging device of Patent Document 1 of the prior art.
  • the transfer range determination unit appropriately changes the transfer range of the imaging signal.
  • an imaging signal generated in almost the entire imaging area is used as the transfer range
  • an imaging signal generated in an almost half area of the imaging area is used as the transfer range.
  • Switch when high speed is required, an imaging signal generated in an approximately half of the imaging area (an area with a fast transfer order) is set as the transfer range.
  • the transfer is limited to the imaging signal generated in the half area, so the time required for the transfer is halved compared to the case of the entire area. Therefore, it is possible to realize an imaging device that enables high-speed parallax calculation and distance calculation.
  • FIG. 1 is a cross-sectional view showing a configuration of an imaging apparatus according to Embodiment 1 of the present invention.
  • the imaging device 101 includes a lens module unit 110 and a circuit unit 120.
  • the lens module unit 110 includes a lens barrel 111, an upper cover glass 112, and a lens 113.
  • the circuit unit 120 includes a substrate 121, a package 122, an image sensor 123, a package cover glass 124, and a system LSI (hereinafter referred to as SLSI) 125 that is a semiconductor circuit element.
  • SLSI system LSI
  • the lens barrel 111 has a cylindrical shape, and its inner wall surface is black with a matte finish to prevent irregular reflection of light, and is formed by injection molding of a resin.
  • the upper cover glass 112 has a disc shape, is made of a transparent resin, and is fixed to the inner wall of the upper portion of the lens barrel 111 with an adhesive or the like.
  • the surface of the upper cover glass 112 is a protective film that prevents damage due to friction and the like, and reflection of incident light. An anti-reflection film is provided to prevent this.
  • FIG. 2 is a plan view showing the configuration of the lens of the imaging apparatus according to Embodiment 1 of the present invention.
  • the lens 113 has a substantially disc shape and is formed of glass or transparent resin.
  • the first lens portion 113a, the second lens portion 113b, the third lens portion 113c, and the fourth lens portion 113d are arranged in two rows 2. Arranged in a grid pattern in rows. As shown in FIG. 2, the X axis and the y axis are set along the arrangement direction of the first to fourth lens portions 113a to 113d.
  • the light incident on the subject side is emitted to the image sensor 123 side, and the image sensor 123 Four images are formed on the top.
  • the optical axis of the first lens portion 113a and the optical axis of the second lens portion 113b are separated by D in the horizontal direction (X-axis direction), and the vertical direction (y-axis direction) ) Matches.
  • the optical axis of the first lens portion 113a and the optical axis of the third lens portion 113c are aligned in the horizontal direction (x-axis direction), and the vertical direction (y-axis direction) is separated by D.
  • the optical axis of the third lens portion 113c and the optical axis of the fourth lens portion 113d are separated by D in the horizontal direction (X-axis direction) and coincide with each other in the vertical direction (y-axis direction).
  • the substrate 121 is formed of a resin substrate, and the lens barrel 111 is fixed to the upper surface with an adhesive or the like in contact with the bottom surface. In this way, the lens module unit 110 and the circuit unit 120 are fixed, and the imaging device 101 is configured.
  • the package 122 is made of a resin having a metal terminal.
  • the metal terminal portion is fixed to the upper surface of the plate 121 by soldering or the like.
  • the image sensor 123 is a progressive CCD sensor, and the light receiving surface of the image sensor 123 has a first lens unit 113a, a second lens unit 113b, a third lens unit 113c, and a fourth lens unit 113d. They are arranged so as to be substantially perpendicular to the optical axis.
  • Each terminal of the image sensor 123 is connected to a metal terminal at the bottom inside the package 122 by a wire bonding, and is electrically connected to the SLSI 125 via the substrate 121.
  • the light emitted from the first lens unit 113a, the second lens unit 113b, the third lens unit 113c, and the fourth lens unit 113d forms an image on the light receiving surface of the image sensor 123, and the light
  • the information is converted into electrical information by the photodiode, and the electrical information is transferred to the SLSI 125.
  • FIG. 3A is a plan view showing the configuration of the circuit unit of the imaging apparatus according to Embodiment 1 of the present invention.
  • the package cover glass 124 has a flat plate shape, is formed of a transparent resin, and is fixed to the upper surface of the package 122 by adhesion or the like.
  • a first color filter 124a, a second color filter 124b, a third color filter 124c, a fourth color filter 124d, and a light shielding portion 124e are arranged by vapor deposition or the like.
  • an antireflection film is disposed on the lower surface of the package cover glass 124 by vapor deposition or the like.
  • FIG. 3B is a plan view showing the configuration of the imaging element of the imaging apparatus according to Embodiment 1 of the present invention.
  • the image sensor 123 includes a first image area 123a, a second image area 123b, a third image area 123c, and a fourth image area 123d.
  • These first to fourth imaging regions 123a to 123d are arranged in two rows and two columns so that the respective light receiving surfaces are substantially perpendicular to the optical axes of the first to fourth lens portions 113a to 113d. It is arranged with.
  • An imaging signal is generated in each of these imaging regions 123a to 123d.
  • one imaging element has a plurality of imaging regions.
  • the imaging apparatus of the present invention is not limited to this, and the imaging device is not limited to this. You may make it have an imaging region. Therefore, for example, one image sensor may be one image area, and a plurality of such image sensors may be provided to have a plurality of image areas.
  • FIG. 4 is a characteristic diagram of the color filter of the camera module according to Embodiment 1 of the present invention. is there.
  • the first color filter 124a and the second color filter 124b are spectral transmission characteristics (transmission characteristics centered on the wavelength ⁇ 1 as shown by IR in FIG. 4).
  • l 870 nm
  • the object light incident from the upper part of the first lens unit 113a is emitted from the lower force of the first lens unit 113 3a, and mainly the near-infrared light is transmitted by the first color filter 124a.
  • the first imaging region 123a receives the near-infrared light component of the object light.
  • the object light incident from the upper part of the second lens unit 113b is emitted from the lower part of the second lens unit 113b, and the near-infrared light is mainly transmitted through the second color filter 224b.
  • the second imaging region 123b receives a near-infrared light component of the object light.
  • the object light incident from the upper part of the third lens part 113c is emitted from the lower part of the third lens part 113c, and mainly the green light is transmitted through the third color filter 224c, and the third light is transmitted through the third lens part 113c.
  • the third imaging region 123c receives the green light component of the object light.
  • the object light incident from the upper part of the fourth lens unit 113d is emitted from the lower part of the fourth lens unit 113d, and mainly the green light is transmitted through the fourth power color filter 224d.
  • the fourth imaging region 123d receives the green light component of the object light.
  • the SLSI 125 drives the image sensor 123 by the method described later, inputs electrical information from the image sensor 123, performs various calculations, communicates with the host CPU, and externally receives image information and distance information. Etc. are output.
  • the SLSI 125 is connected to a power source (eg, 3.3V) and a ground (eg, OV).
  • the imaging device according to Embodiment 1 of the present invention has four lens units (first lens unit 113a, second lens unit 113b, third lens unit 113c, and fourth lens unit 113d).
  • the relative positions of the four object images formed by the four lens units change according to the subject distance.
  • FIG. 5 is a diagram for explaining the position of the object image at infinity in the imaging apparatus according to Embodiment 1 of the present invention.
  • the lens portion 113 is Only the first lens portion 113a and the second lens portion 113b will be described.
  • the light L1 incident on the first lens unit 113a from the object 10 at infinity is parallel to the light L2 incident on the second lens unit 113b.
  • the distance between the first lens unit 113a and the second lens unit 113b is equal to the distance between the object image 11a and the object image Lib on the image sensor 123. That is, there is no parallax.
  • FIG. 6 is a diagram for explaining the position of an object image at a finite distance in the imaging apparatus according to Embodiment 1 of the present invention.
  • the light L1 incident on the first lens unit 113a from the object 12 having a finite distance and the light L2 incident on the second lens unit 113b are not parallel. Therefore, the distance between the object image 13a and the object image 13b on the image sensor 123 is longer than the distance between the first lens portion 113a and the second lens portion 113b. In other words, there is parallax.
  • the parallax value ⁇ is It is expressed as
  • the same relationship is established between the other lens portions.
  • the relative positions of the four object images formed by the four lens portions 113a, 113b, 113c, and 113d forces S change in accordance with the subject distance. For example, as the subject distance A decreases, the parallax value ⁇ increases.
  • FIG. 7 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 1 of the present invention.
  • the SLSI 125 includes a system control unit 131, an imaging element driving unit 132, an imaging signal input unit 133, a preprocessing unit 134, an input buffer 135, a calculation unit 136, an output buffer 137, and an input / output unit 138.
  • the input buffer 135 includes a first input buffer 135a, a second input buffer 135b, a third input buffer 135c, and a fourth input buffer 135d.
  • the calculation unit 136 includes a calculation buffer 141, a parallax calculation unit 142, a distance calculation unit 143, and a transfer range determination unit 144.
  • Performance The calculation buffer 141 includes a first calculation buffer 141a and a second calculation buffer 141b.
  • the output buffer 137 includes a first output buffer 137a and a second output buffer 137b.
  • the system control unit 131 includes a CPU (Central Processing Unit), a logic circuit, and the like, and controls the entire SLSI 125.
  • CPU Central Processing Unit
  • logic circuit and the like, and controls the entire SLSI 125.
  • the image sensor driving unit 132 includes a logic circuit and the like, generates a signal for driving the image sensor 123, and applies a voltage corresponding to the signal to the image sensor 123.
  • the imaging signal input unit 133 includes a CDS circuit (correlated double sampling circuit), AGC (automatic gain controller), ADC (analog digital converter). Are connected in series, the electric signal from the image sensor 123 is input, the fixed noise is removed by the CDS circuit, the gain is adjusted by the AGC, and the analog signal is converted to a digital value by the ADC. And
  • the transfer range determination unit 144 determines the transfer range flag FO by the method described later.
  • the image sensor driving unit 132 drives the image sensor 123 so as to transfer an image signal related to the transfer range determined by the transfer range determining unit 144 to the image signal input unit 133.
  • the imaging signal related to the specific transfer range is transferred from the imaging device 123 to the imaging signal input unit 133.
  • FIG. 8 is a diagram for explaining the image signal cut-out position of the image pickup apparatus according to Embodiment 1 of the present invention.
  • FIG. 9 is a timing chart showing transfer of the imaging signal of the imaging apparatus according to Embodiment 1 of the present invention.
  • Figure 9 (a) after a certain period from the rising edge of the vertical sync signal 21a, the charge is transferred from the photodiode of the CCD sensor to the vertical transfer CCD at the high level timing of the signal 23a, and the high level of the signal 24a. Then, electric charges are sequentially transferred through the vertical CCD and horizontal CCD, and are converted and input from the analog signal to the image signal of the digital signal in the image signal input unit 133.
  • the transfer range flag FO 2
  • the transfer range is an imaging signal generated in the half of the imaging region, the H0 pixel in the horizontal direction and the vertical direction as shown in FIG. 8 (b)
  • the part without the upper half hatch indicates the pixel to be transferred (area that is the transfer range), and the lower half hatch part indicates the pixel that is not transferred (area that is not the transfer range).
  • the preprocessing unit 134 includes a logic circuit and the like, cuts out an image from the imaging signal 10, performs intensity correction processing, and sequentially transfers the input buffer 135 to the input buffer 135.
  • the first imaging signal II, the second imaging signal 12, the third imaging signal 13, and the fourth imaging signal 14 are respectively the first lens unit 113a, the second lens unit 113b, and the third imaging signal. This is obtained by the subject image formed by the lens unit 113c and the fourth lens unit 114d. As shown in Fig.
  • the image signal 10 is extracted from the origin (x01, y01), HI pixels in the x direction, and VI pixels in the y direction, and corrected with the first intensity correction coefficient ksl. Is the first imaging signal II. Also, as shown in Fig. 8 (a) and Equation 3 below, the imaging signal 10 is cut out from the origin (x02, y02), only the HI pixel in the X direction, and the VI pixel in the y direction, and the second intensity correction coefficient ks2 The corrected signal is the second imaging signal 12. Also, as shown in Fig.
  • the imaging signal 10 is cut out from the origin (x03, y03), HI pixels in the x direction, and VI pixels in the y direction, and corrected with the third intensity correction coefficient ks3. This is the third image signal 13. Also, as shown in Fig. 8 (a) and Equation 5 below, the image signal 10 is cut out from the origin (x04, y04), only the HI pixel in the x direction, and the VI pixel in the y direction, and the fourth intensity correction coefficient ks4 The signal corrected in step 4 is the fourth imaged signal 14.
  • I2 (x, y) ks2 (x, y) * I0 (x + x02, y + y02)... Equation 3
  • I3 (x, y) ks3 (x, y) * I0 (x + x03, y + y03)... Equation 4
  • I4 (x, y) ks4 (x, y) * I0 (x + x04, y + y04)... Equation 5
  • First intensity correction factor ksl (x, y), second intensity correction factor ks2 (x, y), third intensity correction factor ks 3 (x, y), and fourth intensity correction factor ks4 (x , y) indicates the intensity correction coefficient at the coordinates (x, y) of the first imaging signal II, the second imaging signal 12, the third imaging signal 13, and the fourth imaging signal 14.
  • a specific chart is taken and determined at a location such as EEPROM and flash memory.
  • the intensity correction coefficient ks4 (x, y) may be obtained.
  • an approximate expression is formulated and only the coefficient is used.
  • coordinate conversion may be performed as appropriate.
  • the first input buffer 135a is composed of DRAM (Dynamic Random Access Memory) or the like, sequentially reads the first imaging signal II, and H1 * V1 pixel (H in the x direction) 1 pixel, VI pixel in the y direction) is saved.
  • the second input buffer 135b is composed of DRAM or the like, sequentially reads the second imaging signal 12, and stores data of H1 * V1 pixels (HI pixels in the X direction and VI pixels in the y direction).
  • the third input buffer 135c is composed of DRAM or the like, sequentially reads the third imaging signal 13, and stores data of H1 * V1 pixels (HI pixels in the X direction and VI pixels in the y direction).
  • the fourth input buffer 135d is composed of DRAM or the like, sequentially reads the fourth imaging signal 14, and stores data of H1 * V1 pixels (HI pixels in the X direction and VI pixels in the y direction).
  • the calculation unit 136 includes a first calculation buffer 141a and a second calculation buffer 141b configured by SRAM (Static Random Access Memory), and a parallax calculation unit configured by power such as a logic circuit and a CPU. 142, distance calculation unit 143 composed of logic circuit and CPU, And a transfer range determination unit 144 composed of a clock circuit and a CPU.
  • FO l
  • the calculation unit 136 reads the first image pickup signal II, the second image pickup signal 12, the third image pickup signal 13, and the fourth image pickup signal 14 in units of blocks, and outputs a first calculation buffer.
  • the parallax calculation unit 142 calculates the parallax based on the data of the first calculation buffer 141a and the second calculation buffer 141b, etc., and is obtained by the distance calculation unit 143. The distance is calculated based on the parallax and the obtained distance data is transferred to the output buffer 137.
  • the transfer range is an image pickup signal generated in an area that is half of the image pickup area. Therefore, only the first image pickup signal II and the second image pickup signal 12 are transferred. Therefore, the calculation unit 136 reads the first imaging signal II and the second imaging signal 12 in units of blocks, stores them in the first calculation buffer 141a and the second calculation buffer 141b, and the parallax calculation unit 142 The parallax is calculated based on the data of the first calculation buffer 141a and the second calculation buffer 141b, the distance is calculated based on the parallax obtained by the distance calculation unit 143, and the obtained distance data is output to the output buffer 137. Forward to.
  • the output buffer 137 is composed of DRAM or the like, stores the image data transferred from the input buffer 135 and the distance data transferred from the calculation unit 136, and sequentially transfers them to the input / output unit 138.
  • the input / output unit 138 communicates with an upper CPU (not shown), transmits image data to an external display device (not shown) such as an upper CPU, an external memory (not shown), and a liquid crystal display. Output distance data.
  • FIG. 10A is a flowchart showing an operation of the imaging apparatus according to Embodiment 1 of the present invention.
  • the imaging apparatus 101 is operated as shown in this flowchart by the system control unit 131 of the SLSI 125.
  • step S1010 the imaging apparatus 101 starts operation.
  • the host CPU (not shown) commands the imaging apparatus 101 to start the operation via the input / output unit 136
  • the imaging apparatus 101 starts the operation.
  • step S1020A is executed.
  • step S1020A transfer range initialization processing is performed.
  • step S1030 is executed.
  • step S1030 an imaging signal is input.
  • the image sensor driving unit 132 outputs a signal for electronic shutter and transfer to the image sensor 123 as needed.
  • the data are input and sequentially transferred to the preprocessing unit 134.
  • the preprocessing unit 134 cuts out an image from the imaging signal 10, performs intensity correction processing, and performs the first imaging signal II, the second imaging signal 12, the third imaging signal 13, and the fourth imaging signal 14
  • the first imaging signal II, the second imaging signal 12, the third imaging signal 13, and the fourth imaging signal 14 are sequentially input to the first input buffer 135a and the second input, respectively.
  • the data is transferred to the buffer 135b, the third input buffer 135c, and the fourth input buffer 135d.
  • the preprocessing unit 134 cuts out an image from the image signal 10, performs intensity correction processing, creates the first image signal II and the second image signal 12, and generates the first image signal II and the second image signal 12. Are sequentially transferred to the first input buffer 135a and the second input buffer 135b, respectively.
  • step S1040 is executed.
  • step S1040 the first imaging signal II stored in the first input buffer 135a is transferred to the first output buffer 137a, and the first output buffer 137a stores the image data. To do.
  • step S1100A is executed.
  • step S1100A distance data is created and sequentially transferred to the second output buffer 137b. Also, determine the transfer range and set the transfer range flag FO. Details of this operation will be described later. Next, step S1910 is executed.
  • step S1910 data is output to the outside.
  • the input / output unit 138 outputs the image data on the first output buffer 137a and the distance data on the second output buffer 137b to a host CPU (not shown) and an external display device (not shown).
  • implement S1920 To do.
  • step S1920 it is determined whether or not to end the operation.
  • the system control unit 131 communicates with a host CPU (not shown) via the input / output unit 136 and requests an instruction to end the operation. Then, if the host CPU commands the termination, the operation is terminated, and then step S1930 is executed. On the other hand, if the host CPU does not command termination, the operation is continued, and then step S1030 is executed. That is, as long as the upper CPU does not command termination, the execution of the loops of step S1030, step S1040, step S1100A, and step S1910 is continued.
  • step S1930 the operation ends.
  • FIG. 11A is a flowchart showing the operation of the computing unit of the imaging apparatus according to Embodiment 1 of the present invention.
  • the flowchart in FIG. 11A shows details of the operation of step S1100A.
  • step S1110 is executed.
  • step S1110 calculation operation is started.
  • step S1200 is executed.
  • step S1200 a parallax calculation is executed.
  • FIG. 12 is a flowchart showing the parallax calculation operation of the imaging apparatus according to Embodiment 1 of the present invention. The flowchart of FIG. 12 shows details of the operation of step S1200. In the calculation of step S1200, first, step S1210 is executed.
  • step S1210 the operation of parallax calculation is started.
  • step S1220 is executed.
  • step S1220 the process branches according to the transfer range flag F0.
  • the transfer range flag F0 1 ( ⁇ 31220)
  • the transfer range is an imaging signal generated in all areas of the imaging area, and then Step S1230a is executed.
  • the transfer range flag F0 2 (N in S1220)
  • the transfer range is an imaging signal generated in the half of the imaging region, and then Step 1230b is executed.
  • step S1230a a parallax calculation using the first imaging signal and the second imaging signal is executed.
  • FIG. 13 shows the first imaging signal of the imaging device according to Embodiment 1 of the present invention.
  • 10 is a flowchart showing an operation of parallax calculation using a second imaging signal.
  • step S1230a Yart details the operation of step S 1230a.
  • step S1310 is executed.
  • step S1310 the operation of the parallax calculation using the first imaging signal and the second imaging signal is started.
  • step S1320 is executed.
  • step S1320 the block index ib is set to 0 and initialization processing is performed.
  • step S 1330 is executed.
  • FIG. 14 is a diagram for explaining a division block and a calculation order of the first imaging signal in the parallax calculation using the first imaging signal and the second imaging signal of the imaging device according to Embodiment 1 of the present invention.
  • FIG. 15 is a diagram illustrating division blocks and calculation order of the second imaging signal in the parallax calculation using the first imaging signal and the second imaging signal of the imaging device according to Embodiment 1 of the present invention. It is a figure explaining.
  • the first imaging signal II is divided into rectangular blocks of HB pixels in the X direction and VB pixels in the y direction, and they are arranged shifted by HB pixels in the X direction and VB pixels in the y direction.
  • step S1320 the block indicated by the block index ib in FIGS. 14 and 15 ( The coordinates (block indicated by ibx, iby) are selected. Then perform step S 1340
  • step S1340 the imaging signal is transferred.
  • the first imaging signal II of the selected block is transferred to the first arithmetic buffer 141a.
  • the value at the coordinate (x, y) of the first calculation buffer 141a is Bcl (x, y).
  • the second imaging signal 12 of the selected block is transferred to the second calculation buffer 141b.
  • the value at the coordinates (x, y) of the second calculation buffer 141b is Bc2 (x, y).
  • the imaging signal II of 1024 pixels surrounded by the coordinates (0,0) and the coordinates (31, 31) is transferred to the first calculation buffer 141a.
  • the second calculation buffer 14 lb is surrounded by coordinates (0,0) and coordinates (31 + SB, 31) with a diagonal line on the upper right in FIG. 15 (1024 + 32 * SB ) Pixel image signal 12 is transferred.
  • the second calculation buffer 141b is surrounded by coordinates (32,0) and coordinates (63 + SB, 31) drawn with a diagonal line at the lower right in FIG. 15 (1024 + 32 * SB)
  • execute step S1350 executes
  • step S1350 a parallax calculation is executed.
  • the parallax evaluation value R (k) is calculated.
  • FIG. 16 is a diagram for explaining a calculation area of a parallax evaluation value in a parallax calculation when the first imaging signal and the second imaging signal are used in the imaging apparatus according to Embodiment 1 of the present invention.
  • the area stored in the data Bel is an area in the first calculation buffer 141a.
  • R (k)
  • This disparity evaluation value R (k) indicates how much correlation exists between the data Bel in the first calculation buffer 141a and the data Bc2 in the second calculation buffer 141b in a region separated by k in the x direction. The smaller the value, the greater the correlation.
  • the data Bel of the first calculation buffer 141a is the transfer of the first imaging signal II
  • the data Bc2 of the second calculation buffer 141b is the transfer of the second imaging signal 12. Therefore, the parallax evaluation value R4 (k) indicates how much the first imaging signal II and the corresponding second imaging signal 12 are correlated.
  • FIG. 17 illustrates the relationship between the parallax and the parallax evaluation value in the parallax calculation when the first imaging signal and the second imaging signal of the imaging device according to Embodiment 1 of the present invention are used. It is a figure.
  • the data Bel of the first calculation buffer 141a is most correlated with the data Bc2 of the second calculation buffer 141b that exists in the area moved by k in the X direction from the data Bel of the first calculation buffer 141a (the most similar). Show). Therefore, the parallax in the X direction between the data Bel of the first calculation buffer 141a and the data Bc2 of the second calculation buffer 141b is ⁇ .
  • this ⁇ is called a parallax value ⁇ in this block.
  • FIG. 18 is a diagram for explaining the calculation area of the reliability of the parallax evaluation value in the parallax calculation when the first imaging signal and the second imaging signal are used in the imaging apparatus according to Embodiment 1 of the present invention. is there.
  • the area where the data Bel is stored is an area in the first arithmetic buffer 141a.
  • the area where the data Bc2 is stored is the area in the second computation buffer 141b in which Bel is moved by ⁇ in the X direction.
  • the normalized correlation coefficient is defined as reliability E for the data Bcl (x, y) and Bc2 (x + A, y) in each area as shown in Equation 7 below.
  • E (l, 2) (ibx, iby) ⁇ [ ⁇ Bcl (x, y) -avg (Bcl (x, y)) ⁇
  • this reliability E is used in the parallax calculation using the first imaging signal and the second imaging signal.
  • step S 1360 is executed.
  • step S1360 1 is added to the block index ib.
  • step S1370 is executed.
  • step S1370 it is determined whether or not to end the parallax calculation using the first imaging signal and the second imaging signal.
  • step S 1330 is then executed to calculate the disparity of the next block.
  • the block index ib is greater than or equal to Nh * Nv, it is determined that the parallax of all the blocks has been calculated, and then Step S1380 is executed.
  • step S1380 the parallax calculation using the first imaging signal and the second imaging signal is terminated, and the process returns to the upper routine.
  • the parallax value (12) with a resolution of 32 32 pixels for the block of 32x32 pixels indicated by the block index ib ( ⁇ ) And its reliability 8 1,2) (x, iby) were obtained.
  • (1, 2) indicates that the first image signal and the second image signal are used, and (ibx, iby) is the coordinates shown at the bottom of each block in FIG. Yes (ib X changes to 0 force, up to Nh-1 and iby changes to Nv-1).
  • step S1240a in FIG. 12 is executed.
  • step S1240a a parallax calculation using the third imaging signal and the fourth imaging signal is executed.
  • This step is the same as the step S1230a in which the first imaging signal II is changed to the third imaging signal 13 and the second imaging signal 12 is changed to the fourth imaging signal 14. That is, the third imaging signal 13 is divided into blocks and stored in the first arithmetic buffer 141a.
  • the fourth imaging signal 14 is divided into blocks, transferred to the second arithmetic buffer 141b, the same operation as in step S1230a is performed, and the parallax value A (3,4) (ibx , Iby) and its reliability E (3,4) (ibx, ib y ).
  • step S 1250a is executed.
  • step S1250a parallax is selected. For each block, compare the confidence E (l, 2) (ibx, iby) and E (3,4) (ibx, iby) and the disparity that gives the maximum confidence in the block The parallax value is A (ibx, iby). The reliability at that time is assumed to be E (ibx, iby).
  • step S1260 is executed.
  • step S1230b a parallax calculation using the first imaging signal and the second imaging signal is executed. This step is the same as step S1230a, and a description thereof will be omitted. However, the required disparity and reliability are the disparity value A (ibx, iby) and reliability E (ibx, iby) for each block.
  • step S1260 is executed.
  • step S1260 the parallax calculation is terminated, and the process returns to the upper routine.
  • the disparity value A (ibx, iby) in each block was obtained.
  • (ibx, iby) is the coordinates shown in the lower part of each block in Fig. 14. ibx changes from 0 force to Nh-1 and iby changes to Nv-l.
  • step S1700 is executed.
  • step S1700 the distance calculation unit 143 performs distance calculation, and sequentially transfers the result as distance data to the second output buffer 137b.
  • step SI 800 is executed.
  • step S1800 transfer range determining section 144 determines the transfer range and sets the transfer range flag.
  • the transfer range flag FO l.
  • the transfer range flag F0 2.
  • step SI 900 is executed.
  • step S1900 the calculation operation is terminated, and the process returns to the upper routine.
  • step S 1910 is executed.
  • the imaging apparatus according to the present embodiment switching of the operation mode in which the transfer range is changed according to the reliability E is performed.
  • the reliability E is a value that can change according to the movement of the subject. Therefore, it can be said that the imaging apparatus according to the present embodiment changes the transfer range in accordance with information about the subject such as the motion of the subject. [0107]
  • the vertical direction of the image signal to be transferred is V0Z2 pixels, but there may be some changes.
  • the transfer range is changed by the reliability E (ibx, iby), but the present invention is not limited to this.
  • the gist of the present invention is to perform a parallax calculation and a distance calculation so that the relationship between speed and accuracy becomes appropriate by changing the transfer range.
  • the transfer range may be changed by an instruction from the host CPU.
  • the upper CPU may change the transfer range using image data.
  • the upper CPU may instruct the transfer range based on subject information designated by the user.
  • FIG. 10B is a flowchart showing a modified example of the operation of the imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 11B is a flowchart showing a modified example of the operation of the computing unit of the imaging apparatus according to Embodiment 1 of the present invention.
  • the flowchart of FIG. 11B shows the detailed processing flow of the arithmetic processing (S 1100B) in FIG. 10B.
  • the transfer range is determined in accordance with a predetermined standard relating to what kind of image the image pickup signal is. For example, the first operation mode and the second operation mode are alternately switched, or the first operation mode (or the second operation mode) occupies a predetermined ratio in all operations.
  • Switch modes [0112] The determination of the transfer range in the modification is executed in step S10 20B in the flowchart of FIG. 10B. Then, in the calculation process of step S1100B, as shown in FIG. 11B, the above-described start process (S1110), parallax calculation (S1200), distance calculation (S1700), and end process (S1900) are executed. In this modification, since the transfer range is determined in step S1020B, it is not necessary to perform the transfer range determination processing in step S1800 shown in FIG. 11A.
  • the user may be able to set the transfer range as appropriate. For this purpose, for example, when a user gives an instruction to set a transfer range (switching operation mode) via a switch that can be operated by the user, the host CPU that has received the instruction transfers it to the imaging device. It may be instructed to set the range (switch the operation mode).
  • the force of setting the size of the first arithmetic buffer to 32x32 pixels is not limited to this.
  • 4x4 pixels, 8x8 pixels, and 16x16 pixels may be used.
  • the first imaging signal II is transferred to the first output buffer 1 37a and output from the input / output unit 138.
  • the signal 12, the third imaging signal 13, or the fourth imaging signal 14) may be output. You can also output multiple image signals.
  • the image signal output from the input / output unit 138 may be changed depending on the condition of the image signal. For example, by comparing the respective imaging signals, the brightest imaging signal (determined by the largest average of the imaging signal size, etc.) or the most clear outline (the average or maximum of the differential values) It may be changed so that the output is determined based on the largest value.
  • FIG. 19 is a diagram for explaining a modified field image of the imaging apparatus according to Embodiment 1 of the present invention. For example, when an interlaced CCD with three fields is used, the entire image is arranged in order from the first field image, the second field image, and the third field image, as shown in FIG. 19 (a). It is done.
  • the imaging signal constituting the first field image is transferred, then the imaging signal constituting the second field image is transferred, and then the imaging signal constituting the third field image is transferred.
  • the entire image is reproduced by arranging them one by one in order.
  • the width of the entire image (frame image) is H0 and the height is V0 as shown in Fig. 19 (b)
  • the first field image as shown in Fig. 19 (c), (d), (e)
  • the width of the second field image and the third field image is H0, and the height is V0 / 3.
  • FIG. 20 is a timing chart showing transfer of an imaging signal as a modification of the imaging apparatus according to Embodiment 1 of the present invention.
  • the signal 20c is generated once per frame, and the vertical sync signal 21c is generated only once per field. In a three-field interlaced CCD, three vertical sync signals 21c are generated for each signal 20c.
  • the transfer range flag FO 2
  • the transfer range is an imaging signal generated in the half of the imaging area, so as shown in Fig. 8 (b), H0 pixels in the horizontal direction and vertical direction
  • a signal 20d that occurs only once per frame is generated, and a vertical synchronization signal 21d is generated only once per field.
  • three vertical sync signals 21d are generated for each signal 20d.
  • the charge remaining in the vertical CCD at the high level of the signal 22d is swept to the horizontal CCD, and from the photodiode of the CCD sensor to the vertical transfer CCD at the high level timing of the signal 23d.
  • the charge is transferred, and the charge is transferred through the sequential vertical CCD and horizontal CCD at the high level of the signal 24d, and is converted and input from the analog signal to the digital image pickup signal in the image pickup signal input unit 133.
  • the imaging signal of the first field is transferred (period indicated by 24dl), and then the imaging signal of the second field is transferred (period indicated by 24d2).
  • the time interval for transferring the image image is further reduced.
  • I0 H0_1, V0 / 2-3
  • the timing at which the signal 2 Od is generated is substantially the same as the timing at which the vertical synchronizing signal 21d is generated.
  • the charge remaining in the vertical CCD is swept to the horizontal CCD at the high level of the signal 22d, and transferred vertically from the photodiode of the CCD sensor at the high level of the signal 23d.
  • CCD The charge is transferred to the high-level signal 24d, and the charge is sequentially transferred through the vertical CCD and horizontal CCD.
  • the number of pixels in the vertical direction is reduced by transferring only the ⁇ field.
  • the number of pixels in the horizontal direction is not reduced.
  • the direction in which the parallax occurs is the horizontal direction, and the accuracy degradation of the parallax calculation is small. Therefore, when transferring only one field, it is possible to increase the speed while maintaining the accuracy of the sight calculation.
  • the transfer range flag FO 2 (second operation mode) and set the transfer range as an imaging signal generated in half of the imaging area. Transfer from the first frame to the third frame.
  • set the transfer range flag FO l (first operation mode) and set the transfer range as the imaging signal generated in the entire imaging area. Transfer up to. By operating in this way, high speed and high accuracy can be appropriately changed according to the situation.
  • the SLSI 125 determines whether or not high-speed and / or high-precision parallax calculation is required based on information about the subject. That is, for example, depending on the value of reliability E obtained as described above, SLSI 125 determines whether high speed and Z or high accuracy is necessary, and SLSI 125 determines the first power according to the determination result.
  • ⁇ Of the third operating mode choose one.
  • the situation can be dealt with more precisely by adding the case where only the first field is transferred as the imaging signal generated in the entire imaging area as the transfer range. Also, instead of the first field, the second field or the third field may be transferred.
  • the imaging apparatus is a color filter (first color filter 124a and second color filter 124b) that mainly transmits near-infrared light components, and mainly transmits green light components.
  • Color filters (the third color filter 124c and the fourth color filter 124d) are horizontally arranged, and the corresponding imaging components (the first imaging signal II and the second imaging signal 12, and The third imaging signal 13 and the fourth imaging signal 14) were compared, the parallax was calculated, and the distance was calculated based on this parallax.
  • the color filter that mainly transmits the near-infrared light component and the color filter that mainly transmits the green light component are arranged diagonally, respectively.
  • the imaging components corresponding to them are compared, the parallax is calculated, and the distance is calculated based on this parallax.
  • FIG. 21 is a cross-sectional view showing the configuration of the imaging apparatus according to Embodiment 2 of the present invention.
  • the imaging apparatus 201 includes a lens module unit 110 and a circuit unit 220.
  • the lens module unit 110 includes a lens barrel 111, an upper cover glass 112, and a lens 113.
  • the circuit unit 220 includes a substrate 121, a package 122, an image sensor 223, a package cover glass 224, and a system LSI (hereinafter referred to as SLSI) 225.
  • SLSI system LSI
  • the lens barrel 111, the upper cover glass 112, and the lens 113 are the same as those in the first embodiment, and a description thereof will be omitted.
  • the substrate 121 and the package 122 are the same as those in the first embodiment, and a description thereof will be omitted.
  • the image sensor 223 is a CMOS sensor that is a solid-state image sensor, and the light receiving surface of the image sensor 223 includes a first lens unit 113a, a second lens unit 113b, a third lens unit 113c, and a fourth lens unit.
  • the lens unit 113d is arranged so as to be substantially perpendicular to the optical axis.
  • Each terminal of the image sensor 223 is connected to a metal terminal at the bottom inside the package 122 by wire bonding, and is electrically connected to the SLSI 125 via the substrate 121.
  • the light emitted from the first lens unit 113a, the second lens unit 113b, the third lens unit 113c, and the fourth lens unit 113d forms an image on the light receiving surface of the image sensor 223, and the light.
  • This information is converted into electrical information by the photodiode, and the electrical information is transferred to the SLSI 125.
  • FIG. 22 is a plan view showing the configuration of the circuit unit of the imaging apparatus according to Embodiment 2 of the present invention.
  • the package cover glass 224 has a flat plate shape, is formed of a transparent resin, and is fixed to the upper surface of the package 122 by adhesion or the like.
  • a first color finerator 224a, a second color finerator 224b, a third color filter 2 24c, a fourth color filter 224d, and a light shielding part 224e are arranged by vapor deposition or the like.
  • an antireflection film is disposed on the lower surface of the package cover glass 224 by vapor deposition or the like.
  • the image sensor 223 includes a first image area 223a, a second image area 223b, a third image area 223c, and a fourth image area 223d. ing .
  • These first to fourth imaging regions 223a to 223d are arranged in two rows and two columns so that the respective light receiving surfaces are substantially perpendicular to the optical axes of the first to fourth lens portions 113a to 113d.
  • one image sensor becomes one image area, and a plurality of such image sensors may be provided to have a plurality of image areas.
  • FIG. 23 is a characteristic diagram of the color filter of the camera module according to Embodiment 2 of the present invention.
  • the second color finerator 224b and the third color filter 224c have spectral transmission characteristics (transmission characteristics centered on the wavelength ⁇ 1 as shown by IR in FIG. 23).
  • l 870 nm
  • the object light incident from the upper part of the first lens unit 113a is emitted from the lower force of the first lens unit 113 3a, and mainly the green light is transmitted through the first color filter 224a. Therefore, the first imaging region 223a receives the green light component of the object light.
  • the object light incident from the upper part of the second lens unit 113b is emitted from the lower part of the second lens unit 113b, and near-infrared light is mainly transmitted through the second color filter 224b.
  • the second imaging region 223b receives the near-infrared light component of the object light.
  • the object light incident from the upper part of the third lens unit 113c is emitted from the lower part of the third lens unit 113c, and mainly the near-infrared light is transmitted through the third color filter 224c.
  • the third imaging region 223c receives near-infrared light components of the object light in order to form an image on the light receiving portion of the imaging region 223c.
  • the object light incident from the upper part of the fourth lens unit 113d is emitted from the lower part of the fourth lens unit 113d, and mainly the green light is transmitted through the fourth color filter 224d.
  • the fourth imaging region 223d receives the green light component of the object light in order to form an image on the light receiving portion of 223d.
  • the SLSI 225 drives the image sensor 223 by the method described later, inputs electrical information from the image sensor 223, performs various calculations, communicates with the host CPU, and externally receives image information and distance information. Etc. are output.
  • the SLSI 225 is connected to a power source (eg, 3.3V) and a ground (eg, 0V).
  • FIG. 24 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 2 of the present invention.
  • the SLSI 225 includes a system control unit 231, an image sensor driving unit 232, an image signal input unit 233, a preprocessing unit 234, an input buffer 135, a calculation unit 236, an output buffer 137, and an input / output unit 138.
  • the image sensor driving unit 232 includes a first image sensor driving unit 232a and a second image sensor driving unit 23 2b.
  • the input buffer 135 includes a first input buffer 135a, a second input buffer 135b, a third input buffer 135c, and a fourth input buffer 135d.
  • the calculation unit 236 includes a calculation unit buffer 241, a parallax calculation unit 242, a distance calculation unit 143, and a transfer range determination unit 144.
  • the operation buffer 241 includes a first operation buffer 241a and a second operation buffer 241b.
  • the output buffer 137 includes a first output buffer 137a and a second output buffer 137b.
  • the system control unit 231 includes a CPU (Central Processing Unit), a logic circuit, and the like, and controls the entire SLSI 225.
  • the image sensor driving unit 232 is composed of a logic circuit or the like, generates a signal for driving the image sensor 223, and applies a voltage corresponding to the signal to the image sensor 223.
  • the image sensor driving unit 232 includes a first image sensor driving unit 232a and a second image sensor driving unit 232b.
  • the imaging signal input unit 233 is a CDS circuit (Correlated Double Sampling Circuit), AGC (Automatic Gain Controller), ADC (Analog Z Digital Converter: Analog Digital Converter) Are connected in series, the electrical signal from the image sensor 223 is input, the fixed noise is removed by the CDS circuit, the gain is adjusted by the AGC, and the analog signal is converted to a digital value by the ADC.
  • CDS circuit Correlated Double Sampling Circuit
  • AGC Automatic Gain Controller
  • ADC Analog Z Digital Converter: Analog Digital Converter
  • the transfer range determining unit 144 determines the transfer range flag FO by the method described later.
  • FIG. 25 is a diagram for explaining the cutout position of the image pickup signal of the image pickup apparatus according to Embodiment 2 of the present invention.
  • FIG. 26 is a timing chart showing transfer of an imaging signal of the imaging apparatus according to Embodiment 2 of the present invention.
  • the image signal is sequentially transferred at the high level of the signal 24f, and the image signal input unit 133 has an analog signal strength and a digital signal. Converted as input.
  • the first imaging signal II is 11 (0,0), II (1,0), 11 (2,0), ..., I1 (H1-1, V1-1) in the period indicated by 24fl
  • the second imaging signal 12 is 12 (0,0), 12 (1,0), 12 (2,0), ..., I2 (H1_1, V1-1 )
  • the third imaging signal 13 is 13 (0,0), 13 (1,0), 13 (2,0), 13 (Hl-1 , V1-1)
  • the fourth imaging signal I 4 is 14 (0,0), 14 (1,0), 14 (2,0), in the period indicated by 24f4, I4 (H1_1, VI-1) are input in this order, and transferred to the preprocessing unit 234.
  • the transfer range flag F 0 2
  • the transfer range is an image signal generated in the half of the imaging area, it corresponds to the second imaging signal 12 as shown in Fig. 25 (b).
  • the pixel is an HI pixel and the vertical pixel is a VI pixel area).
  • the imaging signal is sequentially transferred at the high level of the signal 24f, and the imaging signal input unit 133 captures the digital signal from the analog signal.
  • the second imaging signal 12 is 12 (0,0), 12 (1,0), 12 (2,0), ..., I2 (H1-1, V1-1)
  • the third imaging signal 13 is 13 (0,0), 13 (1,0), 13 (2,0), ..., I3 (H1_1, V1 -1) and are transferred to the preprocessing unit 234.
  • the preprocessing unit 234 includes a logic circuit and the like, performs intensity correction processing of the imaging signal, and sequentially transfers the input signal to the input buffer 135.
  • the first imaging signal II, the second imaging signal 12, the third imaging signal 13, and the fourth imaging signal are respectively the first lens unit 113a, the second lens unit 113b, and the third lens. This is obtained by the subject image formed by the unit 113c and the fourth lens unit 114d.
  • the first imaging signal II is corrected with the first intensity correction coefficient ksl as shown in the following formula 11, and the second imaging signal 12 is corrected with the second intensity correction coefficient ks2 as shown in the following formula 12.
  • the third imaging signal 13 is corrected with the third intensity correction coefficient ks3 as shown in the following expression 13
  • the fourth imaging signal 14 is corrected with the fourth intensity correction coefficient ks4 as shown in the following expression 14. to correct.
  • I2 (x, y) ks2 (x, y) * I2 (x, y)... Equation 12
  • I3 (x, y) ks3 (x, y) * I3 (x, y)... Equation 13
  • I4 (x, y) ks4 (x, y) * I4 (x, y)... Equation 14
  • the first intensity correction coefficient ksl (x, y ), the second intensity correction coefficient ks2 (x, y ), the third intensity correction coefficient ks3 (x, y ), and the fourth intensity correction coefficient ks4 ( x, y ) is the intensity correction coefficient at the coordinates (x, y) of the first imaging signal II, the second imaging signal 12, the third imaging signal 13, and the fourth imaging signal 14, respectively. It is determined by photographing a specific chart in the inspection process and stored in EEPROM or flash memory.
  • each pixel has only a representative point without having a coefficient for each pixel, and the first intensity correction coefficient ksl (x, y ) and the second intensity correction coefficient ks2 (x, y ) are obtained by linear interpolation using the representative point.
  • y ), the third intensity correction coefficient ks3 (x, y), and the fourth intensity correction coefficient ks 4 (x, y) may be obtained.
  • an approximate expression is formulated and only the coefficient is used.
  • coordinate conversion may be performed as appropriate.
  • the transfer range is an imaging signal generated in the half of the imaging area, so the second imaging signal 12 and the third imaging signal 13 are created and sequentially , And transfer to the input buffer 135.
  • the first input buffer 135a is composed of DRAM (Dynamic Random Access Memory), etc., and sequentially reads the first imaging signal II, and H1 * V1 pixel (H in the x direction) 1 pixel, VI pixel in the y direction) is saved.
  • the second input buffer 135b is composed of DRAM or the like, sequentially reads the second imaging signal 12, and stores data of H1 * V1 pixels (HI pixels in the X direction and VI pixels in the y direction).
  • the third input buffer 135c is composed of DRAM or the like, sequentially reads the third imaging signal 13, and stores data of H1 * V1 pixels (HI pixels in the X direction and VI pixels in the y direction).
  • the fourth input buffer 135d is also configured with DRAM and the like, sequentially reads the fourth imaging signal 14, and stores data of H1 * V1 pixels (HI pixels in the X direction and VI pixels in the y direction).
  • the calculation unit 236 includes a first calculation buffer 241a and a second calculation buffer 241b configured by SRAM power, a parallax calculation unit 242 including a logic circuit and a CPU, and a logic circuit and a CPU.
  • the distance calculation unit 143 is configured, and the transfer range determination unit 144 is configured from a logic circuit, a CPU, and the like.
  • the calculation unit 236 reads the first image pickup signal II, the second image pickup signal 12, the third image pickup signal 13, and the fourth image pickup signal 14 in units of blocks, the first calculation buffer 241a, and the second calculation signal. Save to buffer 241b.
  • the parallax calculation unit 242 calculates the parallax based on the data of the first calculation buffer 241a and the second calculation buffer 241b, etc., and calculates the distance based on the parallax calculated by the distance calculation unit 143. Transfer distance data to output buffer 137.
  • the output buffer 137 and the input / output unit 138 are the same as those in the first embodiment, and a description thereof will be omitted.
  • FIG. 27 is a flowchart showing the operation of the imaging apparatus according to Embodiment 2 of the present invention.
  • the imaging device 201 is operated by the system control unit 231 of the SLSI 225 as shown in this flowchart.
  • step S2010 the operation is started.
  • the host CPU (not shown) commands the imaging apparatus 201 to start an operation via the input / output unit 136
  • the imaging apparatus 201 starts the operation.
  • step S2020 is executed.
  • step S2020 transfer range initialization processing is performed.
  • step S2030 is executed.
  • step S2030 an imaging signal is input.
  • the image sensor driving unit 232 outputs a signal for performing transfer at any time.
  • the preprocessing unit 234 performs intensity correction processing, creates the first imaging signal II, the second imaging signal 12, the third imaging signal 13, and the fourth imaging signal 14, and generates the first imaging signal. II, 2nd imaging signal, 3rd imaging signal, and 4th imaging signal, respectively, first input buffer 135a, 2nd input buffer 135b, 3rd input buffer 1 35c , And the fourth input buffer 135d.
  • the data are input and sequentially transferred to the preprocessing unit 234.
  • the preprocessing unit 234 performs intensity correction processing, creates the second imaging signal 12 and the third imaging signal 13, and sequentially converts the second imaging signal 12 and the third imaging signal 13 respectively.
  • the data is transferred to the second input buffer 1 35b and the third input buffer 135c.
  • step S2040 the second imaging signal 12 stored in the second input buffer 135a is transferred to the first output buffer 137a, and the first output buffer 137a stores the image data. To do.
  • step S2100 is executed.
  • step S2100 distance data is created and sequentially transferred to the second output buffer 137b. Also, determine the transfer range and set the transfer range flag F ⁇ . Details of this operation will be described later. Next, step S2910 is executed.
  • step S2910 data is output to the outside.
  • the input / output unit 138 outputs the image data on the first output buffer 137a and the distance data on the second output buffer 137b to a host CPU (not shown) and an external display device (not shown).
  • S2920 is executed.
  • step S2920 it is determined whether or not to end the operation.
  • the system control unit 231 communicates with a host CPU (not shown) via the input / output unit 136 and requests an instruction to end the operation. Then, if the host CPU commands the end, the operation is terminated, and then step S2930 is executed. On the other hand, if the host CPU does not command termination, the operation is continued, and then step S2030 is executed. In other words, as long as the upper CPU does not command termination, the execution of the loop of step S2030, step S2040, step S2100, and step S29110 is continued.
  • step S2930 the operation ends.
  • FIG. 28 is a flowchart showing the operation of the computing unit of the imaging apparatus according to Embodiment 2 of the present invention.
  • the flowchart in FIG. 28 shows details of the operation in step S2100.
  • step S2110 is executed.
  • step S2110 the calculation operation is started.
  • step S2200 is executed.
  • step S2200 parallax calculation is executed.
  • FIG. 29 is a flowchart showing the parallax calculation operation of the imaging apparatus according to Embodiment 2 of the present invention. The flowchart in Fig. 29 shows details of the operation in step S2200. In the calculation of step S2200, first, step S2210 is executed.
  • step S2210 the operation of parallax calculation is started.
  • step S2220 is executed.
  • step S2220 the process branches according to the transfer range flag F0.
  • the transfer range flag F0 1 (Y in S2220)
  • the transfer range is an imaging signal generated in all areas of the imaging area, and then executes step S2230a.
  • step S2230a a parallax calculation using the second imaging signal and the third imaging signal is executed.
  • FIG. 30 is a flowchart showing an operation of parallax calculation using the second image pickup signal and the third image pickup signal of the image pickup apparatus according to Embodiment 2 of the present invention. The flowchart in FIG. 30 shows details of the operation in step S2230a. In the calculation of step S2230a, first, step S2310 is executed.
  • step S2310 the operation of the parallax calculation using the second imaging signal and the third imaging signal is started.
  • step S2320 is executed.
  • step S2320 the block index ib is initialized to zero.
  • step S2330 is executed.
  • FIG. 31 is a diagram for explaining a division block and a calculation order of the second imaging signal in the parallax calculation using the second imaging signal and the third imaging signal of the imaging device according to Embodiment 2 of the present invention.
  • FIG. 32 is a diagram illustrating a division block and a calculation order of the third imaging signal in the parallax calculation using the second imaging signal and the third imaging signal of the imaging device according to Embodiment 2 of the present invention. It is a figure explaining.
  • the second imaging signal 12 is a rectangular block of HB pixels in the X direction and VB pixels in the y direction.
  • the third imaging signal 13 is divided into blocks of (HB + SB) * (VB + SB) -SB * SB pixels as shown in FIG. 32 (b), with HB pixels in the X direction and y directions. Are shifted by VB pixels and have Nh blocks in the X direction and Nv blocks in the y direction. In addition, in FIG. 32, blocks that cannot be taken as shown in FIG.
  • step S 2330 the block indicated by the block index ib (the block indicated by coordinates (ibx, iby)) is selected in FIG. 31 and FIG. Next, step S2340 is executed.
  • step S2340 the imaging signal is transferred.
  • the second imaging signal 12 of the block selected in step S 2330 is transferred to the first calculation buffer 241 a.
  • Bc l (x, y) be the value at the coordinates (x, y) of the operation buffer.
  • the third imaging signal 13 of the selected block is further transferred to the second arithmetic buffer 241b.
  • Bc2 (x, y) be the value at the coordinate (x, y) of the operation buffer.
  • the imaging signal II of 1024 pixels surrounded by the coordinates (H 1 — 1, 0) and the coordinates (H l — 32, 31) is transferred to the first arithmetic buffer 241 a, and the second The computation buffer 241b of Fig. 32 is surrounded by coordinates (H l ⁇ 10, 0) and coordinates (H l ⁇ 32 ⁇ SB, 31 + SB) with a diagonal line on the upper right in FIG. + 2 * 32 * SB) Pixel image signal 13 is transferred.
  • the first calculation buffer 241a has an imaging signal II of 1024 pixels surrounded by coordinates (H l-33, 32) and coordinates (H l_64, 63). Transferred.
  • step S2350 is executed.
  • step S2350 a parallax calculation is executed.
  • the parallax evaluation value R (k) is calculated.
  • FIG. 33 is a diagram illustrating a calculation area of a parallax evaluation value in a parallax calculation when the second imaging signal and the third imaging signal of the imaging device according to Embodiment 2 of the present invention are used.
  • the area where the data Bel is stored is an area in the first computation buffer 241a.
  • the area where data Bc2 is stored is the second computation buffer 241b moved from the block indicated by Bel in Fig.
  • R (k)
  • This disparity evaluation value R (k) is the second computation buffer 241b in the region separated from the data Bel of the first computation buffer 241a by k in the negative direction in the x direction and by k in the positive direction in the y direction. This shows how much correlation there is with the data Bc2, and the smaller the value, the larger (similar) the correlation.
  • the data Bel of the first calculation buffer 241a is a transfer of the second imaging signal 12
  • the data Bc2 of the second calculation buffer 241b is a transfer of the third imaging signal 13. Therefore, the parallax evaluation value R (k) indicates how much the second imaging signal 12 and the corresponding third imaging signal 13 are correlated.
  • the data Bel in the first computation buffer 241a is the second data existing in the area where the data Bel in the first computation buffer 24 la has been moved by k in the negative direction in the X direction and by k in the positive direction in the y direction. This indicates that it is most correlated (similar to) data Bc2 in operation buffer 241b. Therefore, the data Bel of the first calculation buffer 241a and the second calculation buffer 24 It can be seen that the parallax between the lb data Bc2 is ⁇ . Here, this ⁇ is called the parallax value ⁇ in this block.
  • FIG. 34 is a diagram for explaining the calculation region of the reliability of the parallax evaluation in the parallax calculation when the second imaging signal and the third imaging signal of the imaging device according to Embodiment 2 of the present invention are used.
  • the area where the data Bel is stored is an area in the first calculation buffer 241a.
  • the area where the data Bc2 is stored is an area in the second calculation buffer 241b in which the data Bel is moved by ⁇ in the negative direction in the X direction and by ⁇ in the positive direction in the y direction.
  • the normalized correlation coefficient is set as reliability E for the data Bcl (x, y) and Bc2 (x-A, y + A) in each region as shown in Equation 16 below.
  • step S2360 is executed.
  • step S2360 1 is added to the block index ib.
  • step S2370 is executed.
  • step S2370 it is determined whether or not to end the parallax calculation using the second imaging signal and the third imaging signal.
  • step S2330 is executed to calculate the disparity of the next block.
  • step S2380 it is determined that the parallax has been calculated for all blocks, and then step S2380 is executed.
  • step S2380 the parallax calculation using the second imaging signal and the third imaging signal is terminated, and the process returns to the upper routine.
  • step S2240a a parallax calculation using the first imaging signal and the fourth imaging signal is executed.
  • FIG. 35 is a flowchart showing a parallax calculation operation using the first image pickup signal and the fourth image pickup signal of the image pickup apparatus according to Embodiment 2 of the present invention. The flowchart in FIG. 35 shows details of the operation in step S2240a. In the calculation of step S2240a, first, step S2410 is executed.
  • step S2410 an operation of parallax calculation using the first imaging signal and the fourth imaging signal is started.
  • step S2420 is executed.
  • step S2420 block index ib is initialized to zero.
  • step S2430 is executed.
  • step S2430 a block is selected.
  • the block division of the first image pickup signal is the same as the block division of the second image pickup signal in step S2330, and a description thereof will be omitted.
  • the block index ib is changed to be the same as in Fig. 36 described later.
  • FIG. 36 is a diagram for explaining a division block and a calculation order of the fourth imaging signal in the parallax calculation using the first imaging signal and the fourth imaging signal of the imaging device according to Embodiment 2 of the present invention. It is. Similar to the second imaging signal 12 in FIG. 31, the first imaging signal II is divided into rectangular blocks of HB pixels in the X direction and VB pixels in the y direction, and HB pixels in the X direction and y directions.
  • the fourth imaging signal 14 is divided into blocks of (HB + SB) * (VB + SB) -SB * SB pixels as shown in FIG. VB pixels shifted in direction, Nh blocks in X direction, Nv blocks in y direction .
  • blocks that cannot be removed as shown in FIG. 36 (b) for example, the upper right, lower right, and lower left blocks
  • step S2320 the block indicated by the block index ib (the block indicated by coordinates (ibx, iby)) is selected in FIG. Next, step S2440 is executed.
  • Step S2440 the imaging signal is transferred.
  • the first imaging signal II of the block selected in step S2430 is transferred to the first arithmetic buffer 241a.
  • Bcl (x, y) be the value at the coordinate (x, y) in the first buffer 241a.
  • the fourth imaging signal 14 of the selected block is transferred to the second arithmetic buffer 241b.
  • Bc2 (x, y) be the value at the coordinate (x, y) in the second computation buffer 241b.
  • the second calculation buffer 241b Shows the image signal of (1024 + 2 * 32 * SB) pixels surrounded by coordinates (0,0) and coordinates (31 + SB, 31 + SB) with the diagonal line drawn to the lower right in FIG. 14 is transferred.
  • the imaging signal II of 1024 pixels surrounded by the coordinates (32, 32) and the coordinates (63, 63) is transferred to the first calculation buffer 241a.
  • the second computation buffer 241b is surrounded by the coordinates (32, 32) and the coordinates (63 + SB, 63 + SB) drawn with a diagonal line to the lower right in FIG.
  • step S2450 a parallax calculation is executed. First, the parallax evaluation value R (k) is calculated.
  • FIG. 37 is a diagram for explaining the calculation area of the parallax evaluation value in the parallax calculation when the first imaging signal and the fourth imaging signal of the imaging device according to Embodiment 2 of the present invention are used.
  • the area in which the data Bel is stored is an area in the first computation buffer 241a.
  • the area in which data Bc2 is stored is the second computation buffer 241b moved from the block indicated by Bel in FIG. 37 by the shift amount k in the positive direction in the X direction and by the shift amount k in the positive direction in the y direction. It is the inside area.
  • the absolute value difference sum (SAD) shown in the following equation 17 is calculated to obtain the parallax evaluation value R (k).
  • R (k)
  • This disparity evaluation value R (k) is the second computation buffer 241b in the region separated from the data Bel of the first computation buffer 241a by k in the positive direction in the x direction and by k in the positive direction in the y direction. This shows how much correlation there is with the data Bc2, and the smaller the value, the larger (similar) the correlation.
  • the data Bel of the first calculation buffer 241a is a transfer of the first imaging signal II
  • data Bc2 of the second calculation buffer 241b is a transfer of the fourth imaging signal 14. Therefore, the parallax evaluation value R (k) indicates how much correlation exists between the first imaging signal II and the corresponding fourth imaging signal 14.
  • the data Bel in the first computation buffer 241a is the second data existing in a region where the data Bel in the first computation buffer 24 la has been moved by k in the positive direction in the X direction and k in the positive direction in the y direction. This indicates that it is most correlated (similar to) data Bc2 in operation buffer 241b. Therefore, it can be seen that the parallax between the data Bel of the first calculation buffer 241a and the data Bc2 of the second calculation buffer 24 lb is ⁇ . Here, this ⁇ is called the parallax value ⁇ in this block.
  • FIG. 38 is a diagram for explaining the calculation area of the reliability of the parallax evaluation value in the parallax calculation when the first imaging signal and the fourth imaging signal of the imaging device according to Embodiment 2 of the present invention are used.
  • the area where the data Bel is stored This is an area in the first arithmetic buffer 241a.
  • the area where the data Bc2 is stored is an area in the second calculation buffer 241b in which the data Bel is moved by ⁇ in the positive direction in the X direction and by ⁇ in the positive direction in the y direction.
  • the normalized correlation coefficient is set as the reliability E for the data Bcl (xy) and Bc2 (x + Ay + A) of each region as shown in the following equation 18.
  • E (l, 4) (ibx, iby) ⁇ [ ⁇ Bcl (x, y) -avg (Bcl (x, y)) ⁇
  • the reliability E of this parallax value ⁇ is defined as the first imaging signal and the fourth imaging signal.
  • the parallax value ⁇ ⁇ ⁇ ⁇ (1 4) ( ⁇ ,) and its reliability 8 (1 4) ( ⁇ ,) in the block of 32x32 pixels indicated by the coordinates Gbx iby) are stored.
  • (1, 4) indicates the parallax value using the first imaging signal and the fourth imaging signal, and the reliability.
  • (Ibx iby) indicates the block indicated by the block index 3 ⁇ 4, and is the coordinates indicated at the bottom of each block in FIG.
  • step S2460 is executed.
  • step S2460 1 is added to the block index ib.
  • step S2470 is executed.
  • step S2470 it is determined whether or not to end the parallax calculation using the first imaging signal and the fourth imaging signal.
  • step S2430 is executed to calculate the parallax of the next block.
  • step S2480 is executed.
  • step S2480 the parallax calculation using the first imaging signal and the fourth imaging signal is terminated, and the process returns to the upper routine.
  • the parallax value (14) with a resolution of 32 32 pixels for the block of 32x32 pixels indicated by the block index ib. (3 ⁇ 4) and its reliability 6 (14) (3 ⁇ 4 iby) were obtained.
  • (1 4) uses the first imaging signal and the fourth imaging signal.
  • (Ibx, iby) are the coordinates shown at the bottom of each block in FIG. 31 (ibx varies from 0 to Nh-1 and iby varies from Nv-1).
  • step S2250a in FIG. 29 is executed.
  • step S2250a parallax is selected. For each block, compare the confidence E (2,3) (ibx, iby) and E (l, 4) (ibx, iby) and the disparity that gives the maximum confidence in that block. The parallax value is A (ibx, iby). The reliability at that time is assumed to be E (ibx, iby).
  • step S2260 is executed.
  • step S2230b a parallax calculation using the second imaging signal and the third imaging signal is executed. This step is the same as step S2230a, and a description thereof will be omitted. However, the required disparity and reliability are the disparity value A (ibx, iby) and reliability E (ibx, iby) for each block.
  • step S2260 is executed.
  • step S2260 the parallax calculation is terminated, and the process returns to the upper routine.
  • the parallax value ⁇ (ibx, iby) in each block was obtained.
  • (ibx, iby) is the coordinates shown in the lower part of each block in Fig. 31.
  • ibx changes from 0 force to Nh-1 and iby changes to Nv-l.
  • step S2700 is executed.
  • step S2700 the distance calculation unit 143 performs distance calculation, and sequentially transfers the result to the second output buffer 137b as distance data.
  • the operation in step S2700 is the same as that in step S1700 in the first embodiment, and a description thereof will be omitted.
  • execute step S2800 execute step S2800.
  • step S2800 transfer range determining section 144 determines a transfer range and sets a transfer range flag.
  • the operation in step S2800 is the same as that in step S1800 in the first embodiment, and a description thereof will be omitted.
  • step S2900 is executed.
  • step S2900 the calculation operation is terminated, and the process returns to the upper routine.
  • step S2910 Execute step S2910.
  • the reliability E (ibx, iby) is based on the reliability E (ibx, iby) created from the imaging signal by the transfer range determining unit 144.
  • transfer range flag FO l (first operation mode)
  • transfer range flag FO 2 (second operation mode).
  • imaging signals corresponding to the diagonally arranged lens units (second lens unit 113b and third lens unit 113c, and first lens unit 113a and fourth lens unit 114d) (by subjecting the second imaging signal 12 and the third imaging signal 13, and the first imaging signal II and the fourth imaging signal) to a visual distance calculation, an object having a shape extending in the horizontal direction (for example, The parallax of the stop line in front of the vehicle can be detected accurately.
  • the magnitudes of the first imaging signal II, the second imaging signal 12, the third imaging signal 13, and the fourth imaging signal are respectively in the horizontal direction.
  • the HI pixel is a VI pixel in the vertical direction, and the parallax calculation is performed using all of this area, but some margin may be provided. That is, the imaging signal used for the parallax calculation may be smaller than the HI pixel in the horizontal direction and the VI pixel in the vertical direction.
  • the transfer range is changed by the reliability E (ibx, iby), but the present invention is not limited to this.
  • the gist of the present invention is to perform parallax calculation and distance calculation in which the relationship between speed and accuracy is optimal by changing the transfer range.
  • the transfer range may be changed by an instruction from the host CPU.
  • the upper CPU may change the transfer range using image data.
  • the upper CPU may instruct the transfer range based on subject information designated by the user.
  • the transfer range based on the imaging signal is determined. You can make it happen.
  • the force with which the size of the first calculation buffer is 32x32 pixels (32 pixels in the horizontal direction and 32 pixels in the vertical direction) is not limited to this.
  • 32x32 pixels 32 pixels in the horizontal direction and 32 pixels in the vertical direction
  • 4x4 pixels, 8x8 pixels, and 16x16 pixels may be used.
  • the present invention is not limited to obtaining the parallax of a block, and the parallax of a line segment that is an edge may be obtained.
  • the second imaging signal 12 is transferred to the first output buffer 1 37a and output from the input / output unit 138, but the other imaging signals (first imaging The signal II, the third imaging signal 13, or the fourth imaging signal 14) may be output.
  • a plurality of imaging signals may be output.
  • the image signal output from the input / output unit 138 may be changed depending on the condition of the image signal. For example, by comparing each image signal, the brightest image signal (determined by the largest average of the image signal size) or the most clear outline (average of differential values or maximum It may be changed so that the output is determined based on the largest value.
  • force SLSI225 is configured by a CMOS process with imaging element 223 and SL SI225 being CMOS sensors as additional IJ bodies, and imaging element 223 and SLSI225 are formed on the same semiconductor substrate. You may comprise above. As a result, the wiring on the substrate 121 can be omitted as compared with the case where it is configured separately, so that the cost can be reduced. In addition, noise resistance can be improved.
  • a region corresponding to the first imaging signal II (region indicated by II), a region corresponding to the second imaging signal 12 (region indicated by 12),
  • the center of the optical axis of the first lens portion 113a, the second lens portion 113, and the like due to manufacturing variations of the lens 113 and assembly accuracy of the lens module 110.
  • the optical axis center of b, the optical axis center of the third lens unit 113c, and the optical axis center of the fourth lens unit 113d correspond to the same pixel of the corresponding imaging signal, respectively.
  • a flash memory, EEPROM, or the like may be mounted in the SLSI 225 or on the substrate 121 to hold information and used as appropriate.
  • the imaging apparatus of the second embodiment has an arbitrary position (the origin is (x01, y01) in the imaging signal II as shown in FIG. 25) force any magnitude (in the imaging signal II as shown in FIG. 25).
  • Horizontal pixels are HI pixels
  • vertical pixels are VI pixels).
  • FIG. 39 is a diagram for explaining a cut-out position of an image pickup signal of a modification of the image pickup apparatus according to Embodiment 2 of the present invention.
  • the region corresponding to the first image sensor II is more negative in the vertical direction than the region corresponding to the second image sensor 12 (that is, the first image sensor II).
  • the area corresponding to the third image sensor 13 (in 13 (The region shown) is more negative in the vertical direction than the region corresponding to the fourth image sensor 14 (that is, the y coordinate y03 of the origin of the third image signal 13 and the fourth image signal 14).
  • the relationship between y03 and y04 is between y coordinate y04 of the origin of).
  • FO 2 (second operation mode)
  • the area indicated by the shaded area with the downward slope) and the area of the VI pixel with the H coordinate in the horizontal direction and the y-coordinate force Sy y03 to y03 + Vl_l in the horizontal direction (the area indicated by the shaded area with the upward right) Reading and preprocessing are performed as appropriate, and the second imaging signal 12 and the third imaging signal 13 are used.
  • the number of vertical readout pixels VI (the number of readout pixels in the vertical direction of the area indicated by the lower right diagonal line) and VI (Vertical direction of the area indicated by the lower right diagonal line)
  • the number of readout pixels is reduced by y02-y01 + y04-y03 pixels, and the time required for image transfer can be shortened accordingly.
  • the imaging signal used for the calculation of the sum of absolute values of errors is different, so that the required parallax accuracy is reduced.
  • the subject movement is fast by alternately reading out each row of the area indicated by the downward slanting area and the area occupied by the upward sloping line. Even in this case, since the imaging time of the imaging signal used for the calculation of the sum of error absolute values is substantially the same, the parallax calculation can be performed with high accuracy.
  • the imaging region related to the transfer range receives a part of the imaging signal to be generated. It is also possible to transfer all of the imaging signals to be generated to the imaging signal input unit 233 by repeating the transfer to the power unit 233 alternately.
  • the imaging apparatus according to Embodiment 1 and Embodiment 2 of the present invention transfers only one set of imaging signals without transferring two sets of imaging signals, for example, when high speed parallax calculation is required.
  • the time required for transfer is reduced, and parallax calculation and distance calculation are performed at high speed.
  • the imaging apparatus according to Embodiment 3 limits the range for parallax calculation of one set of imaging signals, and transfers only the limited part, thereby reducing the time required for transfer. Performs parallax calculation and distance calculation at high speed.
  • FIG. 40 is a cross-sectional view showing the configuration of the imaging apparatus according to Embodiment 3 of the present invention.
  • the imaging apparatus includes a lens module unit 310 and a circuit unit 320.
  • the lens module unit 310 includes a lens barrel 311, an upper cover glass 312, and a lens 313.
  • the circuit unit 320 includes a substrate 321, a package 322, an image sensor 323, a package cover glass 324, and a system LSI (hereinafter referred to as SLSI) 325.
  • the lens barrel 311 and the upper cover glass 312 are the same as the lens barrel 111 and the upper cover glass 312 of the first embodiment, respectively, and a description thereof is omitted.
  • FIG. 41 is a plan view showing the configuration of the lens of the imaging apparatus according to Embodiment 3 of the present invention.
  • the lens 313 has a substantially disk shape, is formed of glass or transparent resin, and the first lens portion 313a and the second lens portion 313b are disposed.
  • the X axis is set along the arrangement direction of the first lens unit 313a and the lens unit 313b
  • the y axis is set perpendicular to the X axis.
  • the first lens unit 313a and the second lens unit 313b the light incident from the subject side exits to the image sensor 323 side, and forms two images on the image sensor 323.
  • the optical axis of the first lens unit 313a and the optical axis of the second lens unit 313b are separated by D in the horizontal direction (X-axis direction), and in the vertical direction (y-axis direction). ) Matches.
  • the substrate 321 and the package 322 are the substrate 121 and the package 1 of the first embodiment. Each is the same as 22 and the description is omitted.
  • the image sensor 323 is a CMOS sensor, and is arranged such that the light receiving surface of the image sensor 323 is substantially perpendicular to the optical axes of the first lens unit 313a and the second lens unit 313b.
  • Each terminal of the imaging element 323 is connected to a metal terminal at the bottom inside the package 322 by a wire bonding by a gold wire 327, and is electrically connected to the SLSI 325 through the substrate 321.
  • the light emitted from the first lens unit 313a and the second lens unit 313b forms an image on the light receiving surface of the image sensor 323, and the light information is converted into electrical information by a photodiode. Is transferred to SLSI325.
  • FIG. 42 is a plan view showing the configuration of the circuit unit of the imaging apparatus according to Embodiment 3 of the present invention.
  • the package cover glass 324 has a flat plate shape, is formed of a transparent resin, and is fixed to the upper surface of the package 322 by adhesion or the like. Further, an antireflection film is disposed on the upper surface, lower surface, or both surfaces of the package cover glass 324 by vapor deposition or the like.
  • the SLSI 325 drives the image sensor 323, inputs electrical information from the image sensor 323, performs various calculations, communicates with the host CPU, and externally receives image information and distance information by the method described later. Etc. are output.
  • the SLSI 325 is connected to a power source (eg, 3.3V) and a ground (eg, 0V).
  • FIG. 43 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 3 of the present invention.
  • the SLSI 325 includes a system control unit 331, an imaging element driving unit 332, an imaging signal input unit 333, a preprocessing unit 334, an input buffer 335, a calculation unit 336, an output buffer 337, and an input / output unit 338.
  • the input buffer 335 includes a first input buffer 335a and a second input buffer 335b.
  • the calculation unit 336 includes a calculation unit buffer 341, a parallax calculation unit 342, a distance calculation unit 343, and a transfer range determination unit 344.
  • the operation buffer 341 includes a first operation buffer 341a and a second operation buffer 341b.
  • the output buffer 337 includes a first output buffer 337a and a second output buffer 337b.
  • the system control unit 331 includes a CPU (Central Processing Unit), a logic circuit, and the like, and controls the entire SLSI 325.
  • CPU Central Processing Unit
  • logic circuit and the like, and controls the entire SLSI 325.
  • the image sensor driving unit 332 includes a logic circuit and the like, and drives the image sensor 323. A signal is generated and a voltage corresponding to the signal is applied to the image sensor 323.
  • the imaging signal input unit 333 includes a CDS circuit (Correlated Double Sampling Circuit), AGC (Automatic Gain Controller), ADC (Analog Z Digital Converter: Analog Digital Converter) Are connected in series, and the electric signal from the image sensor 323 is input, the fixed noise is removed by the CDS circuit, the gain is adjusted by the AGC, and the analog signal is converted into a digital value by the ADC.
  • CDS circuit Correlated Double Sampling Circuit
  • AGC Automatic Gain Controller
  • ADC Analog Z Digital Converter: Analog Digital Converter
  • the preprocessing unit 334 includes a logic circuit and the like, performs intensity correction processing, and sequentially transfers the input buffer 335. In order to calibrate the deviation of the optical axis of the lens, coordinate conversion may be performed as appropriate.
  • the arithmetic unit 336 includes a first arithmetic buffer 341a and a second arithmetic buffer 341b configured by SRAM (Static Random Access Memory), and a parallax arithmetic unit configured by a logic circuit, a CPU, and the like. 342, a distance calculation unit 343 composed of a logic circuit and a CPU, and a transfer range determination unit 344 composed of a logic circuit and a CPU.
  • the calculation unit 336 reads the first imaging signal II and the second imaging signal 12 in units of blocks, stores them in the first calculation buffer 341a and the second calculation buffer 341b, respectively, and stores them in the parallax calculation unit 342.
  • the parallax is calculated based on the data of the first calculation buffer 341a and the second calculation buffer 341b, the distance is calculated based on the parallax obtained by the distance calculation unit 343, and the obtained distance data is output. Transfer to buffer 337.
  • the output buffer 337 is composed of DRAM or the like, stores the image data transferred from the input buffer 335 and the distance data transferred from the calculation unit 336, and sequentially transfers them to the input / output unit 338.
  • the input / output unit 338 communicates with the upper CPU (not shown), and transmits image data and images to an upper display, an external memory (not shown), and an external display device (not shown) such as a liquid crystal display. Output distance data.
  • FIG. 44 is a flowchart showing an operation of the imaging apparatus according to Embodiment 3 of the present invention.
  • the imaging apparatus 301 is operated by the system control unit 331 of the SLSI 325 according to this flowchart.
  • step S3010 the operation is started.
  • upper CPU (not shown), input By instructing the imaging apparatus 301 to start the operation via the output unit 336, the imaging apparatus 301 starts the operation.
  • step S3020 is executed.
  • step S3020 the transfer range is initialized.
  • an imaging signal generated in the entire area of the imaging area is set as the transfer range.
  • the transfer range flags FO (ibx, iby) for each block (ibx, iby) are all set to 1.
  • FIG. 45 is a diagram for explaining a cut-out position of the image pickup signal of the image pickup apparatus according to Embodiment 3 of the present invention.
  • the size of the imaging area of the imaging device 323 is H0 pixels in the horizontal direction and V0 pixels in the vertical direction.
  • the region where the subject image formed by the first lens unit 313a is captured is HI pixels in the horizontal direction with (x01, y01) as the origin, and VI pixels in the vertical direction.
  • the SLSI 325 is input to the SLSI 325 as the first imaging signal II.
  • the region where the subject image formed by the second lens unit 313b is captured is HI pixels in the horizontal direction with (x02, y02) as the origin, and in the vertical direction.
  • VI pixel which is input to the SLSI 325 as the second imaging signal.
  • the area corresponding to the first imaging signal I 1 and the area corresponding to the second imaging signal 12 are each divided into a number of block areas.
  • FIG. 46 is a diagram illustrating division blocks and calculation order of the first imaging signal in the parallax calculation using the first imaging signal and the second imaging signal of the imaging device according to Embodiment 3 of the present invention.
  • FIG. 47 is a diagram illustrating a transfer range flag
  • FIG. 47 is a diagram illustrating a second imaging signal in a parallax calculation using the first imaging signal and the second imaging signal of the imaging device according to Embodiment 3 of the present invention. It is a figure explaining the division
  • Figure 46 is a diagram illustrating division blocks and calculation order of the first imaging signal in the parallax calculation using the first imaging signal and the second imaging signal of the imaging device according to Embodiment 3 of the present invention.
  • the first imaging signal II is divided into rectangular blocks of HB pixels in the X direction and VB pixels in the y direction, arranged with a shift of HB pixels in the X direction and VB pixels in the y direction, and Nh in the X direction. , Nv blocks in the y direction. Therefore, each block has no overlap in both the X and y directions.
  • the second imaging signal 12 is divided into rectangular blocks of (HB + SB) pixels in the X direction and VB pixels in the y direction, and they are shifted by HB pixels in the X direction and VB pixels in the y direction. It has Nh blocks in the X direction and Nv blocks in the y direction. Therefore, it overlaps the adjacent block in the X direction.
  • the number described in the upper part of each block indicates the block index ib. 46 and 47
  • the coordinates (ibx, iby) described in the middle of each block indicate the ibxth block in each block force Sx direction and the ibyth block in the y direction.
  • ibx exists from 0 to Nh-1
  • iby exists from 0 force to Vh-1.
  • the transfer range flag FO (ibx, iby) l, it means the operation and the corresponding Transfers the image signal of the block and calculates the parallax.
  • the transfer range flag FO (ibx, iby) 0 it means stop, and the imaging signal of the corresponding block is not transferred and the paralla
  • step S3030 an imaging signal is input.
  • the image sensor driving unit 332 outputs a signal for electronic shutter and transfer as needed.
  • the preprocessing unit 334 performs intensity correction processing on the first imaging signal I 1 and the second imaging signal 12 and sequentially transfers them to the input buffer 335.
  • the first imaging signal II is sequentially transferred to the first input buffer 335a
  • the second imaging signal I2 is sequentially transferred to the second input buffer 335b.
  • the first image signal II and the second image signal 12 are obtained from subject images formed by the first lens unit 313a and the second lens unit 313b, respectively.
  • the first imaging signal I 1 is corrected with the first intensity correction coefficient ksl as shown in the following formula 19
  • the second imaging signal 12 is corrected with the second intensity correction coefficient ks2 as shown in the following formula 20. To do.
  • I2 (x, y) ks2 (x, y) * I2 (x, y)... Equation 20
  • first intensity correction coefficient ksl (x, y) and the second intensity correction coefficient ks2 (x, y) are the coordinates (x, x) of the first image signal II and the second image signal 12. Indicate the intensity correction factor in y) A specific chart is photographed and determined in the process, etc., and stored in EEPROM or flash memory. Note that each pixel has only a representative point without having a coefficient for each pixel, and the first intensity correction coefficient ksl (x, y ) and the second intensity correction coefficient ks2 (x, y ) are obtained by linear interpolation using the representative point. You can ask for y ).
  • step S3040 is executed.
  • step S3040 the first imaging signal II stored in the first input buffer 335a is transferred to the first output buffer 337a, and the first output buffer 337a stores the image data.
  • step S3100 is executed.
  • step S3100 distance data is created and sequentially transferred to the second output buffer 337b. Also, determine the transfer range and set the transfer range flag FO (ibx, iby). Details of this operation will be described later.
  • step S3910 is executed.
  • step S3910 data is output to the outside.
  • the input / output unit 338 outputs the image data on the first output buffer 337a and the distance data on the second output buffer 337b to a host CPU (not shown) and an external display device (not shown).
  • the transfer range flag FO (ibx, iby) may be output as appropriate.
  • S3920 is executed.
  • step S3920 it is determined whether or not to end the operation.
  • the system control unit 331 communicates with an upper CPU (not shown) via the input / output unit 336 and requests an instruction to end the operation. If the host CPU commands the end, the operation is terminated, and then step S3930 is executed. On the other hand, if the host CPU does not command termination, the operation is continued, and then step S3030 is executed. That is, as long as the upper CPU does not instruct the end, the execution of the loop of step S3030, step S3040, step S3100, and step S3390 is continued.
  • step S3930 the operation ends.
  • FIG. 48 is a flowchart showing the operation of the computing unit of the imaging apparatus according to Embodiment 3 of the present invention.
  • the flowchart in FIG. 48 shows details of the operation in step S3100.
  • step S3110 is executed.
  • step S3110 the calculation operation is started.
  • step S3200 is executed.
  • step S3200 parallax calculation is executed.
  • FIG. 49 is a flowchart showing the parallax calculation operation of the imaging apparatus according to Embodiment 3 of the present invention. The flowchart in Fig. 49 shows details of the operation in step S3200.
  • step S3200 a parallax calculation using the first imaging signal and the second imaging signal is performed.
  • step S3310 is executed.
  • step S3310 the operation of the parallax calculation is started.
  • step S3320 is executed.
  • step S3320 the block index ib is initialized to zero.
  • step S3330 is executed.
  • step S3330 select a block. 46 and 47, the block indicated by the block index ib (the block indicated by coordinates (ibx, iby)) is selected.
  • step S3335 is executed.
  • step S3335 it is determined whether the transfer range is reached, and the process branches.
  • the transfer range flag FO (ibx, iby) l (block of operation) is transferred to the block indicated by block index ib (the block indicated by coordinates (ibx, iby))
  • step S3340 Execute.
  • step S3360 is executed. .
  • step S3340 the imaging signal is transferred in step S3340, which will be described later, and the parallax calculation is performed in step S3350, which will be described later.
  • Run S3360 the imaging signal is not transferred and the parallax calculation is not performed.
  • step S3360 the imaging signal is transferred.
  • the operation in step S3340 is the same as that in step S1340 in the first embodiment, and a description thereof will be omitted.
  • step S3350 is executed.
  • step S3350 the parallax calculation is executed.
  • the operation in step S3350 is the same as that in step S1350 in the first embodiment, and a description thereof will be omitted.
  • the parallax indicated by A (l, 2) (ibx, iby) in the first embodiment is not indicated by the block index ib (coordinate (ibx, iby)).
  • step S3360 is executed.
  • step S3360 add 1 to the block index ib.
  • step S3370 is executed.
  • step S3370 it is determined whether to end the parallax calculation.
  • step S 3330 is then executed to calculate the disparity of the next block.
  • the block index ib is greater than or equal to Nh * Nv, it is determined that the parallax has been calculated for all blocks, and then Step S3380 is executed.
  • step S3380 the parallax calculation is terminated, and the process returns to the upper routine.
  • the parallax value A (ibx, iby) was determined with a resolution of 32x32 pixels for the block of 32x32 pixels indicated by the block index ib.
  • (ibx, iby) are the coordinates shown in the middle of each block in Fig. 46 (ibx varies from 0 to Nh-1 and iby varies from Nv-1).
  • step S3700 in FIG. 48 is executed.
  • step S3700 the distance calculation unit 343 performs distance calculation, and sequentially transfers the result to the second output buffer 337b as distance data.
  • the operation in step S3700 is the same as that in step S1700 in the first embodiment, and a description thereof will be omitted.
  • step S3800 is executed.
  • step S3800 the transfer range determining unit 344 determines the transfer range and sets the transfer range flag FO (ibx, iby) of each block (ibx, iby).
  • FIG. 50 is a diagram for explaining the transfer range of the imaging apparatus according to Embodiment 3 of the present invention.
  • a force indicating a small number of blocks is not limited to this figure.
  • FO (ibx, iby) l (operation block)
  • a known method can be used.
  • the imaging device of the present embodiment when it is arranged in front of a person, it has an egg-shaped edge (an edge corresponding to the outline of the face), and two black spots (two corresponding to the eyes) inside it. If an area in the image with a dot) is detected as a human face,
  • step S3900 the arithmetic operation ends, and the process returns to the upper routine.
  • step S3910 is executed.
  • the transfer range flag FO (ibx, iby) l of the block including the person's face is set, and the person's face Transfer image signals only for blocks that contain.
  • the subject to be watched is the face of a person, and face distance measurement is required.
  • the transfer amount is reduced as compared with the case of transferring all pixels, and an imaging device that enables high-speed parallax calculation and distance calculation is realized.
  • the number of blocks for transferring imaging signals can be reduced to 14 compared to 48 for all blocks.
  • an imaging signal generated in a part of the imaging region (an imaging signal related to a specific block in all blocks) is transferred. Is set to the range. Then, the transfer range is changed as appropriate. In other words, a plurality of operation modes are appropriately switched.
  • the force that sets all the image areas as the transfer range as an initial state may be the transfer area only in the image area near the center in advance. If the imaging device is installed at an appropriate position, the human face should be in the center of the image. Therefore, it is only necessary to transfer only near the center as the initial state and change the transfer range as appropriate. As a result, the transfer area can always be an imaging signal generated in a part of the imaging area, so that the transfer time can always be shortened and parallax calculation and distance calculation can be performed at high speed.
  • the force with which the size of the third arithmetic buffer is 32x32 pixels is not limited to this.
  • 4x4 pixels, 8x8 pixels, and 16x16 pixels may be used.
  • the present invention is not limited to obtaining the parallax of a block, and the parallax of a line segment that is an edge may be obtained.
  • the first imaging signal II is transferred to the first output buffer 337a, and the second imaging signal 12 output from the input / output unit 338 is output. Also good. A plurality of imaging signals may be output.
  • the force of transferring only the block including the face of the person may be further limited, for example, only the block including the eye of the face may be transferred.
  • FIG. 51 is a diagram for explaining a modified transfer range of the imaging apparatus according to Embodiment 3 of the present invention.
  • FO (ibx, iby) l of all blocks in step S3020.
  • FIG. 51 (a) imaging signals generated in all the imaging areas corresponding to the first lens unit 313a are transferred.
  • a method for detecting the area corresponding to the road surface a known method can be used. For example, the detection can be performed as follows.
  • the subject distance A1 is expressed by the following formula 21: .
  • is the angle between the optical axis of the lens and the road surface
  • Z is the height from the road surface where the imaging device is placed.
  • the transfer range flag FO (ibx, iby) l of the block including the subject that is not the road surface is set, and the road surface The image pickup signal of only the block including no subject is transferred.
  • the subject to be watched is, for example, a car, a person, and other structures other than the road surface, and distance measurement thereof is necessary.
  • an image pickup apparatus that realizes high-speed parallax calculation and distance calculation is realized by reducing the transfer amount as compared with the case of transferring all pixels. For example, in Fig. 51 (b), the number of blocks for transferring image signals can be reduced to 15 compared to 72 for all blocks.
  • FIG. 52 is a diagram for explaining a transfer range of deformation of the imaging apparatus according to Embodiment 3 of the present invention.
  • Fig. 52 (a) and Fig. 52 (b) are two consecutive frame images of a moving image.
  • Fig. 52 (a) the second force from the right, the human power located in the third block, in the next frame
  • the third force from the right, located in the fourth block as shown in Fig. 52 (b)
  • Fig. 52 (b) To do. In such a case, as shown in Fig.
  • the block to be transferred in the next frame is the same as the block where the person with motion is located (the third to fourth blocks from the right).
  • the movement continues and the person moves Block (5th block from the right). That is, the transfer range flag FO (ibx, iby) of the next frame in Fig. 52 (b) is set to the block where the person with motion is located (third block from the right, fourth block from the right) and the same motion.
  • the range flag FO (ibx, iby) 0 (block with diagonal hatching force S applied) (see Fig. 52 (c)).
  • the block having a large sum DtDiff (formula 22 below) of the absolute values of the differences between two consecutive frame images in the first imaging signal II may be a block including a moving subject.
  • Il (x, y) (t0) represents the first imaging signal II at time t0 and coordinates (x, y), and Il (x, y) (t0 + dt) represents time ljt0 + dt
  • the first imaging signal II at coordinates (x, y) is shown.
  • the subject to be watched is a moving subject, for example, a car, a person, an animal, etc. in front of the subject, and distance measurement thereof is necessary.
  • the transfer amount is reduced compared to the case of transferring all the pixels, and an imaging apparatus that enables high-speed parallax calculation and distance calculation is realized.
  • the number of blocks for transferring image signals can be reduced to 12 compared to 48 for all blocks.
  • the transfer range determination unit 344 determines the transfer range based on the speed of movement of the subject.
  • the speed of movement of the subject is detected by the transfer range determining unit 344 by comparing images between frames.
  • the number of pixels included in the transfer range that is, the number of blocks
  • the imaging device when the number of blocks included in the transfer range is set to 12, the imaging device operates so that the number of 12 is held in a plurality of frames. May be.
  • a transfer amount may increase when there are many fast-moving subjects in the entire region. Therefore, when many subjects with fast motion are included in the entire area, the number of pixels included in the transfer range is made constant and the number of pixels is held over a plurality of frames. For this purpose, for example, processing such as narrowing down the subject by setting a large threshold for determining whether or not the subject is moving fast is performed. Thereby, the number of pixels included in the transfer range is kept constant. Therefore, an increase in the transfer amount can be prevented, and an imaging device that enables high-speed parallax calculation and distance calculation can be realized.
  • the number of pixels included in the transfer range is maintained constant over a plurality of frames.
  • the transfer rate is not necessarily limited to the same number of pixels in the plurality of frames. The number may be increased or decreased accordingly.
  • the imaging devices of Embodiments 1 to 3 are configured such that the transfer range flag FO is set to SLSI125,
  • the SLSI function may be divided into multiple LSIs and mounted on the board.
  • the calculated parallax is used as it is, but it may be limited as appropriate. Depending on the lens characteristics, the image may be unclear when the subject distance A is smaller than a certain value. Therefore, if this value is determined as the minimum value of the subject distance A, the maximum value of parallax can be determined. Parallax greater than this value may be ignored as an error. In such a case, a value having the second smallest parallax evaluation value may be adopted as the parallax.
  • the larger parallax may be adopted.
  • the corresponding block edge includes the subject and the background, and the subject distance and the background distance are different, so two extreme values appear.
  • a larger parallax that greatly affects obstacle detection may be employed.
  • the first color filter 124a and the second color filter 124b mainly transmit infrared light
  • the third color filter 124c and the fourth color filter are used.
  • 124d mainly transmits green light.
  • the second color filter 224b and the third color filter 224c mainly transmit infrared light
  • the first color filter 224a and the fourth color filter 224d are used.
  • a specific color filter having one set may be arranged, and a filter having a bay arrangement may be arranged on the image sensor. The color filter characteristics of each set may be the same, and the F value and focal length may be different.
  • imaging signals generated in at least two imaging areas out of the four imaging areas are used as the transfer range.
  • those imaging areas can be arbitrary. Therefore, in the imaging apparatus according to the first embodiment, the entire force of the imaging area and the upper half area (area corresponding to the first lens unit 113a and the second lens unit 113b) are switched. The region and the lower half region (regions corresponding to the third lens unit 113c and the fourth lens unit 113d) may be switched. In addition, the upper half area (the first lens portion 113a and the second The region corresponding to the lens portion 113b) and the lower half region (region corresponding to the third lens portion 113c and the fourth lens portion 113d) may be switched.
  • the entire imaging region and the diagonally upper right region are switched.
  • the entire region and the diagonally lower right region corresponding to the first lens unit 113a and the fourth lens unit 113d
  • the diagonally upward right area area corresponding to the second lens part 113b and the third lens part 113c
  • the diagonally downward right side corresponding to the first lens part 113a and the fourth lens part 113d
  • the sum of absolute differences (SAD) as shown in Equation 6 is used as the parallax evaluation value R (k), but the present invention is not limited to this.
  • the sum of the square of the difference, the sum of the squares of the difference between the difference between the first imaging signal II and the average in the block from the second imaging signal I 2, the first The total of the squares of the difference between the difference between the averages in the block and the second imaging signal 12 and the average in the block from the second imaging signal or the first imaging signal II in the block The sum of the squares of the difference between the difference between the averages of the second and the second imaging signal 12 and the average within the block is the sum of the squares of the differences between the first imaging signal II and the average within the block.
  • the difference between the second imaging signal 12 and the average in the block divided by the square root of the sum of the squares of the sum of the squared values may be used as the parallax evaluation value R (k).
  • the force is not limited to the force obtained by dividing the block into a rectangular shape.
  • an edge may be detected and divided into non-rectangular blocks based on the edge.
  • the edge may be divided into a plurality of line segments without obtaining the parallax of the area for each block, and the parallax of this line segment may be obtained. Further, the parallax obtained in a certain block may be evaluated, and the blocks may be divided or combined.
  • the imaging device and the semiconductor circuit element according to the present invention are an imaging device and a semiconductor circuit element capable of high-speed parallax calculation, a mobile phone having a camera function, a digital still camera, an in-vehicle camera, a surveillance camera, Useful for 3D measuring instruments and stereoscopic image input cameras.

Abstract

 それぞれが少なくとも1枚のレンズを含む複数のレンズ部と、それらのレンズ部に一対一に対応して設けられ、対応するレンズ部の光軸方向に対して略垂直な受光面をそれぞれ有する複数の撮像領域と、それらの撮像領域により生成された撮像信号の入力を受ける撮像信号入力部133と、前記撮像領域から撮像信号入力部133へ転送される撮像信号の転送範囲を決定する転送範囲決定部144と、転送範囲決定部144により決定された転送範囲に応じた撮像信号を撮像信号入力部133へ転送するように前記撮像領域を駆動する撮像領域駆動部132と、撮像信号入力部133に転送された撮像信号に基づき視差を演算する視差演算部142とを備えており、転送範囲決定部144は、前記複数の撮像領域のうち少なくとも2つの撮像領域で生成される撮像信号を転送範囲と決定する第1の動作モードと、第1の動作モードとは異なる撮像信号を転送範囲と決定する第2の動作モードとを切り替える。

Description

明 細 書
撮像装置及び半導体回路素子
技術分野
[0001] 本発明は、距離計測可能な撮像装置及びその撮像装置に用いられる半導体回路 素子に関する。
背景技術
[0002] 従来の撮像装置として、特許文献 1の撮像装置がある。図 53は、特許文献 1の撮像 装置の分解斜視図である。撮像装置 901は、絞り部材 902と、光学レンズアレイ 903 と、光学フィルタ 906と、撮像ユニット 907とを備えている。この撮像装置 901におい て、 4つの開口部 902— 1、 902— 2、 902— 3、 902— 4を持つ絞り部材 902と、 4つ のレンズ 903— 1、 903— 2、 903— 3、 903— 4を持つ光学レンズアレイ 903とにより 、 4つの撮像光学系が構成されており、それぞれを通過した光線がそれぞれ撮像ュ ニッ卜 907上の 4つの画素群 907— 1、 907— 2、 907— 3、 907— 4に結像する。 CC Dセンサなどで形成された撮像ユニット 907は、駆動回路 908と信号処理回路 909と 共に半導体基板 910上に形成される。
[0003] 信号処理回路 909は、駆動回路から 908により撮像ユニット 907の画素情報を順次 読み出し画素信号として入力し、画素信号から各画素群(907— 1、 907— 2、 907 _ 3、 907— 4)における視差の値を演算し、この視差に基づき距離を演算する。 特許文献 1 :特開 2003— 143459号公報
発明の開示
発明が解決しょうとする課題
[0004] 前述のように、特許文献 1に記載された従来の撮像装置において、信号処理回路 9 09は、撮像ユニット 907上の 4つの画素分 907— 1、 907— 2、 907— 3、 907— 4の 全ての画素情報を駆動回路 908を用いて読み出し、視差を演算する。そのため、全 ての画素情報を撮像ユニット 907から信号処理回路 909へ転送する分だけ転送時 間が必要であり、その転送時間の分だけ高速化に限界があった。すなわち、視差演 算の間隔は、この転送時間より短くできなかった。 [0005] また、撮像ユニット 907として、ローリングシャツタ方式の CMOSセンサを利用した 場合、画素群 907— 1、 907— 2、 907— 3、 907— 4により撮像される時刻が異なる。 被写体の動作が速いとき、視差演算に利用する撮像信号が異なるため、求められる 視差の精度が低下する。
[0006] 本発明は、上記問題に鑑みなされたもので、高速で高精度な視差演算を可能とす る撮像装置及びその撮像装置に用いられる半導体回路素子を提供することを目的と する。すなわち、撮像信号の転送時間を短縮することにより、高速な視差演算を可能 とし、被写体の動作が速くても、高精度な視差演算を可能とする撮像装置及び半導 体回路素子を提供することを目的とする。
課題を解決するための手段
[0007] 上述した課題を解決するために、本発明の撮像装置は、それぞれが少なくとも 1枚 のレンズを含む複数のレンズ部と、前記複数のレンズ部に一対一に対応して設けら れ、対応する前記レンズ部の光軸方向に対して略垂直な受光面をそれぞれ有する 複数の撮像領域と、 前記撮像領域により生成された撮像信号の入力を受ける撮像 信号入力部と、前記撮像領域から前記撮像信号入力部へ転送される撮像信号の転 送範囲を決定する転送範囲決定部と、前記転送範囲決定部により決定された転送 範囲に応じた撮像信号を前記撮像信号入力部へ転送するように前記撮像領域を駆 動する撮像領域駆動部と、前記撮像信号入力部に転送された撮像信号に基づき視 差を演算する視差演算部とを備え、前記転送範囲決定部は、前記複数の撮像領域 のうち少なくとも 2つの撮像領域で生成される撮像信号を前記転送範囲と決定する第 1の動作モードと、第 1の動作モードとは異なる撮像信号を前記転送範囲と決定する 第 2の動作モードとを切替可能なように構成されてレ、る。
[0008] 常に撮像領域の全領域で生成される撮像信号を転送する場合、転送時間が長時 間となるため、高速な視差演算を行うことは困難である。そこで、上述したように、第 1 の動作モードと第 2の動作モードとを適宜切り替えることにより、転送が必要な範囲の みの撮像信号を転送すれば足りるようになるため、高速な視差演算が可能となる。
[0009] 前記発明に係る撮像装置において、前記転送範囲決定部が、前記撮像領域の略 全領域で生成される撮像信号を前記転送範囲とする第 1の動作モードと、前記撮像 領域の略半分の領域で生成される撮像信号を前記転送範囲とする第 2の動作モード とを切替可能なように構成されてレ、てもよレ、。
[0010] また、前記発明に係る撮像装置において、前記略半分の領域を、前記撮像領域の うち転送順の早い略半分の領域としてもよぐ 4つの撮像領域が 2行 2列で配設されて いる場合であれば、前記略半分の領域を、対角位置にある 2つの前記撮像領域とし てもよい。
[0011] また、前記発明に係る撮像装置において、前記撮像領域がインターレース走查さ れる複数のフィールドに分割され、前記転送範囲決定部が、前記撮像領域の略全領 域で生成される撮像信号を前記転送範囲とする第 1の動作モードと、前記撮像領域 の 1フィールド分の撮像信号を前記転送範囲とする第 2の動作モードとを切替可能な ように構成されてレ、てもよレ、。
[0012] また、前記発明に係る撮像装置において、前記転送範囲決定部が、被写体に関す る情報に基づいて、前記第 1の動作モードと前記第 2の動作モードとを切り替えるよう に構成されていてもよい。
[0013] また、前記発明に係る撮像装置において、前記転送範囲決定部が、視差の演算に 高速性が必要であると判断した場合に、前記第 1の動作モードから前記第 2の動作 モードへ切り替えるように構成されてレ、てもよレ、。
[0014] また、前記発明に係る撮像装置において、前記転送範囲決定部が、視差の演算に 高精度が必要であると判断した場合に、前記第 2の動作モードから前記第 1の動作 モードへ切り替えるように構成されてレ、てもよレ、。
[0015] また、前記発明に係る撮像装置において、前記転送範囲決定部が、前記第 1の動 作モード及び前記第 2の動作モードの何れにおいても、前記複数の撮像領域のうち の一部の撮像領域で生成される撮像信号を前記転送範囲と決定するように構成され ていてもよい。
[0016] また、前記発明に係る撮像装置において、前記転送範囲決定部が、前記第 1の動 作モード及び前記第 2の動作モードの少なくとも何れかにおいて、動作する被写体を 撮像する撮像領域で生成される撮像信号を前記転送範囲と決定するように構成され ていてもよい。 [0017] また、前記発明に係る撮像装置において、前記転送範囲決定部が、前記被写体の 動作の速さに基づいて、前記第 1の動作モードと前記第 2の動作モードとを切り替え るように構成されてレ、てもよレ、。
[0018] また、前記発明に係る撮像装置において、前記転送範囲決定部が、前記被写体の 動作が速い場合には多くの撮像領域で生成される撮像信号を前記転送範囲と決定 する動作モードに、前記被写体の動作が遅い場合には少ない撮像領域で生成され る撮像信号を前記転送範囲と決定する動作モードにそれぞれ切り替えるように構成 されていてもよい。
[0019] また、前記発明に係る撮像装置において、前記転送範囲決定部が、前記第 1の動 作モード及び前記第 2の動作モードの少なくとも何れかにおいて、前記転送範囲の 撮像信号に係る画素数を略一定とするように構成されていてもよい。
[0020] また、前記発明に係る撮像装置において、前記撮像領域が、路面に相当する領域 を含む領域を撮像するように構成されており、前記転送範囲決定部が、前記第 1の 動作モード及び前記第 2の動作モードの少なくとも何れかにおいて、前記路面に相 当する領域以外の領域に係る撮像信号を前記転送範囲とするように構成されていて あよい。
[0021] また、前記発明に係る撮像装置において、前記撮像領域が、人の顔に相当する領 域を含む領域を撮像するように構成されており、前記転送範囲決定部が、前記第 1 の動作モード及び前記第 2の動作モードの少なくとも何れかにおいて、前記人の顔 に相当する領域に係る撮像信号を前記転送範囲とするように構成されていてもよい。
[0022] また、前記発明に係る撮像装置において、前記複数の撮像領域のうちの少なくとも 2つの撮像領域は、生成する撮像信号の一部を前記撮像信号入力部へ交互に転送 することを繰り返すことによって、生成する撮像信号の全てを前記撮像信号入力部へ 転送するように構成されてレ、てもよレ、。
[0023] さらに、前記発明に係る撮像装置が、前記視差演算部によって得られた視差に基 づいて、被写体までの距離を演算する距離演算部を更に備えるようにしてもよい。
[0024] また、本発明の半導体回路素子は、それぞれが少なくとも 1枚のレンズを含む複数 のレンズ部と、前記複数のレンズ部に一対一に対応して設けられ、対応する前記レン ズ部の光軸方向に対して略垂直な受光面をそれぞれ有する複数の撮像領域とを有 する撮像装置に用いられる半導体回路素子であって、前記撮像領域により生成され た撮像信号の入力を受ける撮像信号入力部と、前記撮像領域から前記撮像信号入 力部へ転送される撮像信号の転送範囲を決定する転送範囲決定部と、前記転送範 囲決定部により決定された転送範囲に応じた撮像信号を前記撮像信号入力部へ転 送するように前記撮像領域を駆動する撮像素子駆動部と、前記撮像信号入力部に 転送された撮像信号に基づき視差を演算する視差演算部とを備え、前記転送範囲 決定部は、前記複数の撮像領域のうち少なくとも 2つの撮像領域で生成される撮像 信号を前記転送範囲と決定する第 1の動作モードと、第 1の動作モードとは異なる撮 像信号を前記転送範囲と決定する第 2の動作モードとを切替可能なように構成され ている。
図面の簡単な説明
[図 1]本発明の実施の形態 1に係る撮像装置の構成を示す断面図
[図 2]本発明の実施の形態 1に係る撮像装置のレンズの構成を示す平面図
[図 3A]本発明の実施の形態 1に係る撮像装置の回路部の構成を示す平面図
[図 3B]本発明の実施の形態 1に係る撮像装置の撮像素子の構成を示す平面図 [図 4]本発明の実施の形態 1に係るカメラモジュールのカラーフィルタの特性図
[図 5]本発明の実施の形態 1に係る撮像装置において、無限遠にある物体像の位置 を説明するための図
[図 6]本発明の実施の形態 1に係る撮像装置において、有限距離の位置にある物体 像の位置を説明するための図
[図 7]本発明の実施の形態 1に係る撮像装置の構成を示すブロック図
[図 8]本発明の実施の形態 1に係る撮像装置の撮像信号の切り出し位置を説明する ための図
[図 9]本発明の実施の形態 1に係る撮像装置の撮像信号の転送を示すタイミングチヤ ート
[図 10A]本発明の実施の形態 1に係る撮像装置の動作を示すフローチャート
[図 10B]本発明の実施の形態 1に係る撮像装置の動作の変形例を示すフローチヤ一 h
園 11A]本発明の実施の形態 1に係る撮像装置の演算部の動作を示すフローチヤ一 h
園 11B]本発明の実施の形態 1に係る撮像装置の演算部の動作の変形例を示すフロ
^ -"ί ""ヤ^ ト
園 12]本発明の実施の形態 1に係る撮像装置の視差演算の動作を示すフローチヤ ート
園 13]本発明の実施の形態 1に係る撮像装置の第 1の撮像信号と第 2の撮像信号と を利用した視差演算の動作を示すフローチャート
園 14]本発明の実施の形態 1に係る撮像装置の第 1の撮像信号と第 2の撮像信号と を利用した視差演算における第 1の撮像信号の分割ブロックと演算順番を説明する 図
園 15]本発明の実施の形態 1に係る撮像装置の第 1の撮像信号と第 2の撮像信号と を利用した視差演算における第 2の撮像信号の分割ブロックと演算順番を説明する 図
園 16]本発明の実施の形態 1に係る撮像装置において、第 1の撮像信号と第 2の撮 像信号を利用したときの視差演算における視差評価値の演算領域を説明する図 園 17]本発明の実施の形態 1に係る撮像装置の第 1の撮像信号と第 2の撮像信号を 利用したときの視差演算における視差と視差評価値との関係を説明する図 園 18]本発明の実施の形態 1に係る撮像装置において、第 1の撮像信号と第 2の撮 像信号を利用したときの視差演算における視差評価値の信頼度の演算領域を説明 する図
園 19]本発明の実施の形態 1に係る撮像装置の変形のフィールド画像を説明する図 園 20]本発明の実施の形態 1に係る撮像装置の変形の撮像信号の転送を示すタイミ ングチャート
園 21]本発明の実施の形態 2に係る撮像装置の構成を示す断面図
[図 22]本発明の実施の形態 2に係る撮像装置の回路部の構成を示す平面図 園 23]本発明の実施の形態 2に係るカメラモジュールのカラーフィルタの特性図 園 24]本発明の実施の形態 2に係る撮像装置の構成を示すブロック図
園 25]本発明の実施の形態 2に係る撮像装置の撮像信号の切り出し位置を説明する ための図
園 26]本発明の実施の形態 2に係る撮像装置の撮像信号の転送を示すタイミングチ ヤート
園 27]本発明の実施の形態 2に係る撮像装置の動作を示すフローチャート 園 28]本発明の実施の形態 2に係る撮像装置の演算部の動作を示すフローチャート 園 29]本発明の実施の形態 2に係る撮像装置の視差演算の動作を示すフローチヤ ート
園 30]本発明の実施の形態 2に係る撮像装置の第 2の撮像信号と第 3の撮像信号と を利用した視差演算の動作を示すフローチャート
園 31]本発明の実施の形態 2に係る撮像装置の第 2の撮像信号と第 3の撮像信号と を利用した視差演算における第 2の撮像信号の分割ブロックと演算順番を説明する 図
園 32]本発明の実施の形態 2に係る撮像装置の第 2の撮像信号と第 3の撮像信号と を利用した視差演算における第 3の撮像信号の分割ブロックと演算順番を説明する 図
園 33]本発明の実施の形態 2に係る撮像装置の第 2の撮像信号と第 3の撮像信号を 利用したときの視差演算における視差評価値の演算領域を説明する図
園 34]本発明の実施の形態 2に係る撮像装置の第 2の撮像信号と第 3の撮像信号を 利用したときの視差演算における視差評価値の信頼度の演算領域を説明する図 園 35]本発明の実施の形態 2に係る撮像装置の第 1の撮像信号と第 4の撮像信号と を利用した視差演算の動作を示すフローチャート
園 36]本発明の実施の形態 2に係る撮像装置の第 1の撮像信号と第 4の撮像信号と を利用した視差演算における第 4の撮像信号の分割ブロックと演算順番を説明する 図
園 37]本発明の実施の形態 2に係る撮像装置の第 1の撮像信号と第 4の撮像信号を 利用したときの視差演算における視差評価値の演算領域を説明する図 園 38]本発明の実施の形態 2に係る撮像装置の第 1の撮像信号と第 4の撮像信号を 利用したときの視差演算における視差評価値の信頼度の演算領域を説明する図 [図 39]本発明の実施の形態 2に係る撮像装置の変形の撮像信号の切り出し位置を 説明するための図
[図 40]本発明の実施の形態 3に係る撮像装置の構成を示す断面図
園 41]本発明の実施の形態 3に係る撮像装置のレンズの構成を示す平面図
[図 42]本発明の実施の形態 3に係る撮像装置の回路部の構成を示す平面図 園 43]本発明の実施の形態 3に係る撮像装置の構成を示すブロック図
園 44]本発明の実施の形態 3に係る撮像装置の動作を示すフローチャート 園 45]本発明の実施の形態 3に係る撮像装置の撮像信号の切り出し位置を説明する ための図
園 46]本発明の実施の形態 3に係る撮像装置の第 1の撮像信号と第 2の撮像信号と を利用した視差演算における第 1の撮像信号の分割ブロックと演算順番と転送範囲 フラッグとを説明する図
園 47]本発明の実施の形態 3に係る撮像装置の第 1の撮像信号と第 2の撮像信号と を利用した視差演算における第 2の撮像信号の分割ブロックと演算順番と転送範囲 フラッグとを説明する図
園 48]本発明の実施の形態 3に係る撮像装置の演算部の動作を示すフローチャート 園 49]本発明の実施の形態 3に係る撮像装置の視差演算の動作を示すフローチヤ ート
園 50]本発明の実施の形態 3に係る撮像装置の転送範囲を説明する図
園 51]本発明の実施の形態 3に係る撮像装置の変形の転送範囲を説明する図 園 52]本発明の実施の形態 3に係る撮像装置の変形の転送範囲を説明する図
[図 53]従来技術の特許文献 1の撮像装置の分解斜視図
符号の説明
101 , 201, 301 カメラモジユーノレ
110, 310 レンズモジュール
111 , 311 鏡筒 112, 312 上部カバーガラス
113, 313 レンズ
113a, 313a 第 1のレンズ部 113b, 313b 第 2のレンズ部 1 13c 第 3のレンズ部
113d 第 4のレンズ咅 B
120, 220, 320 回路部
121 , 321 基板
122, 322 パッケージ
123, 223, 323 撮像素子
124, 224 パッケージカバーガラス 124a, 224a 第 1のカラーフィノレタ 124b, 224b 第 2のカラーフィルタ 124c, 224c 第 3のカラーフィノレタ 24d, 224d 第 4のカラーフィルタ 24e, 224e 遮光部
25, 225, 325 SLSI
27, 327 金線
31 , 231, 331 システム制御部 32, 232, 332 撮像素子駆動部 32a 第 1の撮像素子駆動部 32b 第 2の撮像素子駆動部 33, 233, 333 撮像信号入力部 34, 234, 334 前処理部
35, 335 入力バッファ
35a, 335a 第 1の入力バッファ 35b, 335b 第 2の入力バッファ 35c 第 3の入力バッファ 135d 第 4の入力バッファ
136, 236, 336 画像処理部
137, 337 出力バッファ
137a, 337a 第 1の出カノ ッファ
137b, 337b 第 2の出力バッファ
138, 338 入出力部
141 , 241 , 341 演算ノ ッファ
141a, 241a, 341a 第 1の演算ノ ッファ
141b, 241b, 341b 第 2の演算バッファ
142, 242, 342 視差演算部
143, 343 距離演算部
144, 344 出力範囲決定部
発明を実施するための最良の形態
[0027] 以下、本発明の実施の形態に係る撮像装置について、図面を参照しながら説明す る。
[0028] (実施の形態 1)
本発明の実施の形態 1に係る撮像装置によれば、転送範囲決定部が、撮像信号の 転送範囲を適宜変更する。特に、撮像領域の略全領域で生成される撮像信号を転 送範囲とする場合と撮像領域の略半分の領域 (転送順の早い領域)で生成される撮 像信号を転送範囲とする場合とを切り替える。すなわち、高速性が要求されるような 場合では、撮像領域の略半分の領域 (転送順の早い領域)で生成される撮像信号を 転送範囲とする。このことにより、高速性が必要な場合は、転送を半分の領域で生成 される撮像信号に限定するため、全領域の場合と比較し、転送に要する時間が半減 される。したがって、高速な視差演算、距離演算を可能にする撮像装置を実現するこ とができる。
[0029] 以下、本発明の実施の形態 1に係る撮像装置について、図面を参照しながら説明 する。
[0030] 図 1は、本発明の実施の形態 1に係る撮像装置の構成を示す断面図である。図 1に 示すように、撮像装置 101は、レンズモジュール部 110、および回路部 120を有する
[0031] レンズモジュール部 110は、鏡筒 111、上部カバーガラス 112、およびレンズ 113を 有する。回路部 120は、基板 121、パッケージ 122、撮像素子 123、パッケージカバ 一ガラス 124、および半導体回路素子であるシステム LSI (以下、 SLSIと記す) 125 を有する。
[0032] 鏡筒 111は、円筒状であり、その内壁面は光の乱反射を防止するためにつやが消 された黒色であり、樹脂を射出成形し形成される。上部カバーガラス 112は、円盤状 であり、透明樹脂から形成され、鏡筒 111の上部の内壁に接着剤などにより固着され 、その表面は摩擦などによる損傷を防止する保護膜と、入射光の反射を防止する反 射防止膜とが設けられている。
[0033] 図 2は、本発明の実施の形態 1に係る撮像装置のレンズの構成を示す平面図であ る。レンズ 113は、略円盤状であり、ガラスや透明樹脂から形成され、第 1のレンズ部 113a,第 2のレンズ部 113b、第 3のレンズ部 113c、および第 4のレンズ部 113dが 2 行 2列で碁盤目状に配置される。第 1〜第 4のレンズ部 113a〜 113dの配置方向に 沿って、図 2に示すように X軸及び y軸を設定する。第 1のレンズ部 113a、第 2のレン ズ部 113b、第 3のレンズ部 113c、および第 4のレンズ部 113dにおいて、被写体側 力 入射した光は、撮像素子 123側へ射出され、撮像素子 123上に 4つの像が結像 される。なお、図 2に示すように、第 1のレンズ部 113aの光軸と第 2のレンズ部 113b の光軸は、水平方向(X軸方向)は Dだけ離れており、垂直方向(y軸方向)は一致す る。第 1のレンズ部 113aの光軸と第 3のレンズ部 113cの光軸は、水平方向(x軸方向 )は一致しており、垂直方向(y軸方向)は Dだけ離れている。第 3のレンズ部 113cの 光軸と第 4のレンズ部 113dの光軸は、水平方向(X軸方向)は Dだけ離れており、垂 直方向(y軸方向)は一致する。
[0034] 基板 121は、樹脂基板から構成され、上面に鏡筒 111がその底面を接して接着剤 などにより固着される。このようにして、レンズモジュール部 110と回路部 120とが固 定され、撮像装置 101を構成する。
[0035] パッケージ 122は、金属端子を有する樹脂からなり、鏡筒 111の内側において、基 板 121の上面にその金属端子部が半田づけ等されて固着される。
[0036] 撮像素子 123は、プログレッシブ CCDセンサであり、撮像素子 123の受光面が第 1 のレンズ部 113a、第 2のレンズ部 113b、第 3のレンズ部 113c、および第 4のレンズ 部 113dの光軸と略垂直になるようにして配置される。撮像素子 123の各端子は、パ ッケージ 122の内側の底部の金属端子にワイヤーボンディングにより金線 127で接 続され、基板 121を介して、 SLSI125と電気的に接続される。撮像素子 123の受光 面に、第 1のレンズ部 113a、第 2のレンズ部 113b、第 3のレンズ部 113c、および第 4 のレンズ部 113dから射出された光がそれぞれ結像し、その光の情報がフォトダイォ ードにより電気の情報へ変換され、その電気の情報が SLSI125に転送される。
[0037] 図 3Aは、本発明の実施の形態 1に係る撮像装置の回路部の構成を示す平面図で ある。パッケージカバーガラス 124は、平板状であり、透明樹脂により形成され、パッ ケージ 122の上面に接着などにより固着される。パッケージカバーガラス 124の上面 には、第 1のカラーフィルタ 124a、第 2のカラーフィルタ 124b、第 3のカラーフィルタ 1 24c、第 4のカラーフィルタ 124d、および遮光部 124eが蒸着などにより配置される。 また、パッケージカバーガラス 124の下面には、反射防止膜が蒸着などにより配置さ れる。
[0038] 図 3Bは、本発明の実施の形態 1に係る撮像装置の撮像素子の構成を示す平面図 である。図 3Bに示すように、撮像素子 123は、第 1の撮像領域 123a、第 2の撮像領 域 123b、第 3の撮像領域 123c、および第 4の撮像領域 123dで構成されている。こ れらの第 1〜第 4の撮像領域 123a〜123dは、それぞれの受光面が、第 1〜第 4のレ ンズ部 113a〜 113dの光軸と略垂直になるようにして 2行 2列で配置される。これらの 各撮像領域 123a〜: 123dにて撮像信号が生成される。
[0039] 上述したように、本実施の形態では、 1個の撮像素子が複数の撮像領域を有してい るが、本発明の撮像装置はこれに限定されるわけではなぐその他の態様で複数の 撮像領域を有するようにしてもよい。したがって、例えば 1個の撮像素子が 1個の撮像 領域となり、そのような撮像素子を複数設けることによって、複数の撮像領域を有する ような態様であってもよい。
[0040] 図 4は、本発明の実施の形態 1に係るカメラモジュールのカラーフィルタの特性図で ある。第 1のカラーフィルタ 124a、および第 2のカラーフィルタ 124bは、図 4の IRで示 した主に近赤外光を透過する分光透過特性 (波長 λ 1を中心とする透過特性。例え ば、 λ l = 870nm)を有し、第 3のカラーフィルタ 124c、および第 4のカラーフィルタ 1 24dは、図 4の Gで示した主に緑色光を透過する分光透過特性 (波長 λ 2を中心とす る透過特性。例えば、 2 = 500nm)を有する。
[0041] したがって、第 1のレンズ部 113aの上部から入射した物体光は、第 1のレンズ部 11 3aの下部力 射出され、第 1のカラーフィルタ 124aにより主に近赤外光が透過し、第 1の撮像領域 123aの受光部に結像するため、第 1の撮像領域 123aは物体光のうち 近赤外光成分を受光する。また、第 2のレンズ部 113bの上部から入射した物体光は 、第 2のレンズ部 113bの下部から射出され、第 2のカラーフィルタ 224b主に近赤外 光が透過し、第 2の撮像領域 123bの受光部に結像するため、第 2の撮像領域 123b は物体光のうち近赤外光成分を受光する。また、第 3のレンズ部 1 13cの上部から入 射した物体光は、第 3のレンズ部 113cの下部から射出され、第 3のカラーフィルタ 22 4cにより主に緑色光が透過し、第 3の撮像領域 123cの受光部に結像するため、第 3 の撮像領域 123cは物体光のうち緑色光成分を受光する。更に、第 4のレンズ部 113 dの上部から入射した物体光は、第 4のレンズ部 113dの下部から射出され、第 4の力 ラーフィルタ 224dにより主に緑色光が透過し、第 4の撮像領域 123dの受光部に結 像するため、第 4の撮像領域 123dは物体光のうち緑色光成分を受光する。
[0042] SLSI125は、後述の方法で、撮像素子 123を駆動し、撮像素子 123からの電気情 報を入力し、各種演算を行い、上位 CPUと通信を行い、外部に画像情報や距離情 報などを出力する。なお、 SLSI125は、電源(例えば 3· 3V)とグランド(例えば、 OV )に接続される。
[0043] 次に、被写体距離と視差との関係を説明する。本発明の実施の形態 1に係る撮像 装置は、 4つのレンズ部(第 1のレンズ部 113a、第 2のレンズ部 113b、第 3のレンズ部 113c,および第 4のレンズ部 113d)を有するため、 4つのレンズ部がそれぞれ形成 する 4つの物体像の相対的位置が、被写体距離に応じて変化する。
[0044] 図 5は、本発明の実施の形態 1に係る撮像装置において、無限遠にある物体像の 位置を説明するための図である。図 5においては、簡単のため、レンズ部 113におい て、第 1のレンズ部 113a、および第 2のレンズ部 113bのみを記す。無限遠の物体 10 からの光の第 1のレンズ部 113aへの入射光 L1と、第 2のレンズ部 113bへの入射光 L2とは平行である。このため、第 1のレンズ部 113aと第 2のレンズ部 113bとの距離と 、撮像素子 123上の物体像 11aと物体像 l ibとの距離は等しい。すなわち、視差は ない。
[0045] 図 6は、本発明の実施の形態 1に係る撮像装置において、有限距離の位置にある 物体像の位置を説明するための図である。図 6において、簡単のため、レンズ部 113 において、第 1のレンズ部 113a、および第 2のレンズ部 113bのみを記す。有限距離 の物体 12からの光の第 1のレンズ部 113aへの入射光 L1と第 2のレンズ部 113bへの 入射光 L2とは平行ではない。従って、第 1のレンズ部 113aと第 2のレンズ部 113bと の距離に比べて、撮像素子 123上の物体像 13aと物体像 13bとの距離は長い。すな わち、視差がある。
[0046] 物体像 12までの距離(被写体距離)を A、第 1のレンズ部 113aと第 2のレンズ部 11 3bとの距離を D、レンズ部 113a, 113bの焦点距離を fとすると、図 5の直角を挟む 2 辺の長さが A、 Dの直角三角形と、直角を挟む 2辺の長さが f、 Δの直角三角形とが 相似であることより、視差値 Δは、下記式 1のように表される。
[0047] ^ =ϊ'Ό A ■■■ 式 1
その他のレンズ部間についても同様の関係が成立する。このように、被写体距離に 応じて 4つのレンズ部 113a, 113b, 113c, 113d力 Sそれぞれ形成する 4つの物体像 の相対的位置が変化する。例えば、被写体距離 Aが小さくなると、視差値 Δが大きく なる。
[0048] 次に、本発明の実施の形態 1に係る撮像装置の動作を説明する。図 7は、本発明 の実施の形態 1に係る撮像装置の構成を示すブロック図である。 SLSI125は、シス テム制御部 131、撮像素子駆動部 132、撮像信号入力部 133、前処理部 134、入力 バッファ 135、演算部 136、出力バッファ 137、および入出力部 138を有する。入力 バッファ 135は、第 1の入力バッファ 135a、第 2の入力バッファ 135b、第 3の入カバ ッファ 135c、および第 4の入力バッファ 135dを有する。演算部 136は、演算バッファ 141、視差演算部 142、距離演算部 143、および転送範囲決定部 144を有する。演 算バッファ 141は、第 1の演算バッファ 141a、および第 2の演算バッファ 141bを有す る。出力バッファ 137は、第 1の出力バッファ 137a、および第 2の出力バッファ 137b を有する。
[0049] システム制御部 131は、 CPU (中央演算処理装置: Central Processing Unit)、 ロジック回路などから構成され、 SLSI125の全体を制御する。
[0050] 撮像素子駆動部 132は、ロジック回路などから構成され、撮像素子 123を駆動する 信号を発生し、この信号に応じた電圧を撮像素子 123に印加する。
[0051] 撮像信号入力部 133は、 CDS回路(相関二重サンプリング回路: Correlated Doubl e Sampling Circuit)、 AGC (自動利得制御器: Automatic Gain Controller)、 ADC ( アナログ Zディジタル変換器: Analog Digital Converter)が直列に接続されて構成さ れ、撮像素子 123からの電気信号が入力され、 CDS回路により固定ノイズを除去し、 AGCによりゲインを調整し、 ADCによりアナログ信号からディジタル値に変換し撮像 信号 10とする。
[0052] 転送範囲決定部 144は、後述の方法で、転送範囲フラッグ FOを決定する。転送範 囲フラッグ F〇 = l (第 1の動作モード)のとき、撮像領域の全領域で生成される撮像 信号が転送範囲となり、転送範囲フラッグ F〇 = 2 (第 2の動作モード)のとき、撮像領 域の半分の領域で生成される撮像信号が転送範囲となる。なお、転送範囲フラッグ は、 FO = lに初期化されている。
[0053] 上記の撮像素子駆動部 132は、転送範囲決定部 144にて決定された転送範囲に 係る撮像信号を撮像信号入力部 133に転送するように撮像素子 123を駆動する。こ れにより、撮像素子 123から撮像信号入力部 133へ特定の転送範囲に係る撮像信 号が転送されることになる。
[0054] 図 8は、本発明の実施の形態 1に係る撮像装置の撮像信号の切り出し位置を説明 するための図である。図 9は、本発明の実施の形態 1に係る撮像装置の撮像信号の 転送を示すタイミングチャートである。転送範囲フラッグ FO = lのとき、転送範囲が撮 像領域の全領域で生成される撮像信号であるため、図 8 (a)のように、水平方向に H 0画素、垂直方向に V0画素の撮像信号を転送する。すなわち、撮像信号入力部 13 3に入力される撮像信号 I0(x,y)は、 X方向に H0画素、 y方向に V0画素を持ち、 10(0,0) ((x,y)=(0,0))、 10(1,0)、 10(2,0)、 · · ·、 I0(H0-1,V0_1)の順に入力され、順次、前処理部 134に転送される。図 9 (a)のように、垂直同期信号 21aの立ち上がりエッジから一定 期間後に、信号 23aのハイレベルのタイミングで CCDセンサのフォトダイオードから 垂直転送 CCDへ電荷が転送され、信号 24aのハイレベルで、順次垂直 CCD、水平 CCD内を電荷が転送され、撮像信号入力部 133においてアナログ信号からディジタ ル信号の撮像信号として変換入力される。
[0055] 一方、転送範囲フラッグ FO = 2のとき、転送範囲が撮像領域の半分の領域で生成 される撮像信号であるため、図 8 (b)のように、水平方向に H0画素、垂直方向に V0 /2画素の撮像信号を転送する。すなわち、撮像信号入力部 133から入力される撮 像信号 I0(x,y)は、 X方向に H0画素、 y方向に V0/2画素を持ち、 10(0,0) ((x,y)=(0,0))、 I 0(1,0), 10(2,0)、 · · ·、 I0(H0-l,V0/2-l)の順に入力され、順次、前処理部 134に転送 される。図 8 (b)において、上半分のハッチがない部分は転送する画素(転送範囲で ある領域)を示し、下半分のハッチ部は転送しない画素(転送範囲でない領域)を示 す。図 9 (b)のように、垂直同期信号 21bの立ち上がりエッジから一定期間後に、信 号 22bのハイレベルで垂直 CCD内に残された電荷を水平 CCDに掃き出し、信号 23 bのハイレベルのタイミングで CCDセンサのフォトダイオードから垂直転送 CCDへ電 荷が転送され、信号 24bのハイレベルで、順次垂直 CCD、水平 CCD内を電荷が転 送され、撮像信号入力部 133においてアナログ信号からディジタル信号の撮像信号 として変換入力される。なお、 FO = 2の場合の転送範囲は、 FO = lの場合の転送範 囲の半分のうち最初に転送される方が設定される。
[0056] 転送範囲フラッグ F〇 = l (第 1の動作モード)のときの電荷の転送時間(信号 24aが ハイレベルを取る期間)と比較し、転送範囲フラッグ FO = 2 (第 2の動作モード)のとき の電荷の転送時間(信号 24bがハイレベルを取る期間)は略半分であるため、画像 1 枚を転送する時間間隔が短縮化される。なお、 FO = l (第 1の動作モード)のときの 電荷の掃き出しを行わず、 F〇 = 2 (第 2の動作モード)のときにのみ電荷の掃き出し を行うため、 FO = l (第 1の動作モード)では電荷の掃き出しの時間が不要であり、 F 0 = 1 (第 1の動作モード)での画像 1枚を転送する時間間隔の増大を防止する。また 、 F〇= 2 (第 2の動作モード)のときの電荷の掃き出しは、前回転送されなかった垂直 CCDのみ(すなわち、実施の形態 1では VO/2列)で十分であり、そのことにより、全 列の垂直 CCDの掃き出しを行うときと比較し、画像 1枚を転送する時間間隔の増大 を最小限に抑制することができる。
[0057] 前処理部 134は、ロジック回路などから構成され、撮像信号 10から画像を切り出し、 強度補正処理を行い、順次、入力バッファ 135に転送する。 F〇 = lのとき、転送範囲 が撮像領域の全領域で生成される撮像信号であるため、第 1の撮像信号 II、第 2の 撮像信号 12、第 3の撮像信号 13、および第 4の撮像信号 14を作成し、順次、入力バッ ファ 135に転送する。第 1の撮像信号 II、第 2の撮像信号 12、第 3の撮像信号 13、およ び第 4の撮像信号 14は、それぞれ第 1のレンズ部 113a、第 2のレンズ部 113b、第 3の レンズ部 113c、および第 4のレンズ部 114dによって結像された被写体像によって得 られたものである。図 8 (a)、および下記式 2のように、撮像信号 10を原点 (x01,y01)、 x 方向に HI画素、 y方向に VI画素だけ切り出し、第 1の強度補正係数 kslで補正したも のを第 1の撮像信号 IIとする。また、図 8 (a)、および下記式 3のように、撮像信号 10を 原点 (x02,y02)、 X方向に HI画素、 y方向に VI画素だけ切り出し、第 2の強度補正係 数 ks2で補正したものを第 2の撮像信号 12とする。また、図 8 (a)、および下記式 4のよ うに、撮像信号 10を原点 (x03,y03)、 x方向に HI画素、 y方向に VI画素だけ切り出し、 第 3の強度補正係数 ks3で補正したものを第 3の撮像信号 13とする。また、図 8 (a)、お よび下記式 5のように、撮像信号 10を原点 (x04,y04)、 x方向に HI画素、 y方向に VI画 素だけ切り出し、第 4の強度補正係数 ks4で補正したものを第 4の撮像信号 14とする。
[0058] Il(x,y) = ksl(x,y) * I0(x+x01,y+y01) … 式 2
I2(x,y) = ks2(x,y) * I0(x+x02,y+y02) … 式 3
I3(x,y) = ks3(x,y) * I0(x+x03,y+y03) … 式 4
I4(x,y) = ks4(x,y) * I0(x+x04,y+y04) … 式 5
第 1の強度補正係数 ksl(x,y)、第 2の強度補正係数 ks2(x,y)、第 3の強度補正係数 ks 3(x,y)、および第 4の強度補正係数 ks4(x,y)は、第 1の撮像信号 II、第 2の撮像信号 12 、第 3の撮像信号 13、および第 4の撮像信号 14の座標 (x,y)における強度補正係数を 示し、検查工程などにおいて特定チャートを撮影し決定され、 EEPROMやフラッシュ メモリに保存される。なお、各画素の係数を持たずに、代表点のみを持ち、その代表 点を用いて線形補間により第 1の強度補正係数 ksl(x,y)、第 2の強度補正係数 ks2(x, y)、第 3の強度補正係数 ks3(x,y)、および第 4の強度補正係数 ks4(x,y)を求めてもよい 。また、近似式を策定しその係数のみを持ち、各座標の第 1の強度補正係数 ksl(x,y) 、第 2の強度補正係数 ks2(x,y)、第 3の強度補正係数 ks3(x,y)、および第 4の強度補 正係数 ks4(x,y)を作成してもよレ、。また、レンズの光軸のずれなどを校正するために、 適宜、座標変換を行ってもよい。
[0059] 一方、 F〇 = 2のとき、転送範囲が撮像領域の半分の領域で生成される撮像信号で あるため、第 1の撮像信号 II、および第 2の撮像信号 12を作成し、順次、入力バッファ 135に転送する。 F〇 = lのとき(全領域を転送するとき)と比較し、第 3の撮像信号 13 、および第 4の撮像信号 14に関する処理が省略される。第 1の撮像信号 II、および第 2の撮像信号 12に関する処理は同様であるため、説明を省略する。
[0060] F〇 = lのとき、第 1の入力バッファ 135aは、 DRAM (Dynamic Random Access Me mory)などから構成され、第 1の撮像信号 IIを順次読み込み、 H1*V1画素 (x方向に H 1画素、 y方向に VI画素)のデータを保存する。第 2の入力バッファ 135bは、 DRAM などから構成され、第 2の撮像信号 12を順次読み込み、 H1*V1画素 (X方向に HI画素 、 y方向に VI画素)のデータを保存する。第 3の入力バッファ 135cは、 DRAMなどか ら構成され、第 3の撮像信号 13を順次読み込み、 H1*V1画素 (X方向に HI画素、 y方 向に VI画素)のデータを保存する。第 4の入力バッファ 135dは、 DRAMなどから構 成され、第 4の撮像信号 14を順次読み込み、 H1*V1画素 (X方向に HI画素、 y方向に VI画素)のデータを保存する。
[0061] 一方、 F〇 = 2のとき、第 1の撮像信号 II、および第 2の撮像信号 12を作成し、順次、 入力バッファ 135に入力する。 FO = lのとき(全領域を転送するとき)と比較し、第 3 の入力バッファ 135c、および第 4の入力バッファ 135dに関する処理が省略される。 第 1の入力バッファ 135a、および第 2の入力バッファ 135bに関する処理は同様であ るため、説明を省略する。
[0062] 演算部 136は、 SRAM(Static Random Access Memory)カゝら構成された第 1の演算 バッファ 141a、第 2の演算バッファ 141bと、ロジック回路や CPUなど力、ら構成された 視差演算部 142と、ロジック回路や CPUなどから構成された距離演算部 143と、ロジ ック回路や CPUから構成された転送範囲決定部 144と、から構成される。 FO = lのと き、演算部 136は、第 1の撮像信号 II、第 2の撮像信号 12、第 3の撮像信号 13、および 第 4の撮像信号 14をブロック単位で読み込み第 1の演算バッファ 141a、第 2の演算バ ッファ 141bに保存し、視差演算部 142において第 1の演算バッファ 141a、および第 2の演算バッファ 141bのデータなどに基づき視差を演算し、距離演算部 143におい て求められた視差に基づき距離を演算し、求められた距離データを出力バッファ 13 7に転送する。
[0063] 一方、 F〇 = 2のとき、転送範囲が撮像領域の半分の領域で生成される撮像信号で あり、したがって、第 1の撮像信号 II、および第 2の撮像信号 12のみが転送されている ため、演算部 136は、第 1の撮像信号 II、および第 2の撮像信号 12をブロック単位で 読み込み第 1の演算バッファ 141a、第 2の演算バッファ 141bに保存し、視差演算部 142において第 1の演算バッファ 141a、および第 2の演算バッファ 141bのデータな どに基づき視差を演算し、距離演算部 143において求められた視差に基づき距離を 演算し、求められた距離データを出力バッファ 137に転送する。
[0064] 出力バッファ 137は、 DRAMなどから構成され、入力バッファ 135から転送された 画像データと演算部 136から転送された距離データとを保存し、入出力部 138に順 次転送する。
[0065] 入出力部 138は、上位 CPU (図示せず)との通信や、上位 CPU、外部メモリ(図示 せず)、および液晶ディスプレイなどの外部表示装置(図示せず)へ画像データ、およ び距離データを出力する。
[0066] 図 10Aは、本発明の実施の形態 1に係る撮像装置の動作を示すフローチャートで ある。 SLSI125のシステム制御部 131により、撮像装置 101は、このフローチャート のとおりに動作される。
[0067] ステップ S1010において、撮像装置 101は動作を開始する。例えば、上位 CPU ( 図示せず)が、入出力部 136を介し、撮像装置 101に動作の開始を命令することによ り、撮像装置 101は、動作を開始する。次に、ステップ S1020Aを実行する。
[0068] ステップ S1020Aにおいて、転送範囲の初期化処理を行う。本実施の形態では、こ の初期化処理により、転送範囲フラッグ F〇 = l (第 1の動作モード)が設定される。次 に、ステップ S1030を実行する。
[0069] ステップ S1030において、撮像信号を入力する。システム制御部 131の命令により 、撮像素子駆動部 132が電子シャッターや転送を行うための信号を撮像素子 123に 対して随時出力する。その結果、転送範囲フラッグ FO = l (第 1の動作モード)のとき 、撮像信号入力部 133は、撮像信号 I0(x,y)を、 X方向に H0画素、 y方向に V0画素だ け、すなわち、 10(0,0) ((x,y)=(0,0))、 10(1,0)、 10(2,0)、 · · ·、 I0(H0-1,V0_1)の順に入力 し、順次、前処理部 134に転送する。前処理部 134は、撮像信号 10から画像を切り出 し、強度補正処理を行い、第 1の撮像信号 II、第 2の撮像信号 12、第 3の撮像信号 13 、および第 4の撮像信号 14を作成し、第 1の撮像信号 II、第 2の撮像信号 12、第 3の撮 像信号 13、および第 4の撮像信号 14を、それぞれ、順次、第 1の入力バッファ 135a、 第 2の入力バッファ 135b、第 3の入力バッファ 135c、および第 4の入力バッファ 135 dに転送する。
[0070] 一方、転送範囲フラッグ FO = 2 (第 2の動作モード)のとき、撮像信号入力部 133は 、撮像信号 I0(x,y)を、 X方向に H0画素、 y方向に V0/2画素だけ、すなわち、 10(0,0) ((x ,y)=(0,0))、 10(1,0)、 10(2,0)、 · · ·、 I0(H0-1,V0/2_1)の順に入力し、順次、前処理部 13 4に転送する。前処理部 134は、撮像信号 10から画像を切り出し、強度補正処理を行 レ、、第 1の撮像信号 II、および第 2の撮像信号 12を作成し、第 1の撮像信号 II、および 第 2の撮像信号を、それぞれ、順次、第 1の入力バッファ 135a、および第 2の入カバ ッファ 135bに転送する。次に、ステップ S1040を実行する。
[0071] ステップ S1040において、第 1の入力バッファ 135aに保存されている第 1の撮像信 号 IIを第 1の出力バッファ 137aに転送し、第 1の出力バッファ 137aは、画像データと して保存する。次に、ステップ S1100Aを実行する。
[0072] ステップ S1100Aにおいて、距離データを作成し、順次、第 2の出力バッファ 137b に転送する。また、転送範囲を決定し、転送範囲フラッグ FOを設定する。この動作の 詳細は後述する。次に、ステップ S1910を実行する。
[0073] ステップ S1910において、外部にデータを出力する。入出力部 138は、第 1の出力 バッファ 137a上の画像データ、および第 2の出力バッファ 137b上の距離データを、 上位 CPU (図示せず)や外部表示装置(図示せず)に出力する。次に、 S1920を実 行する。
[0074] ステップ S1920におレ、て、動作を終了するかどうかを判断する。例えば、システム 制御部 131は、入出力部 136を介し、上位 CPU (図示せず)と通信し、動作を終了す るかどうかの命令を要求する。そして、上位 CPUが終了を命令すれば動作を終了し 、次に、ステップ S1930を実行する。一方、上位 CPUが終了を命令しなければ動作 を継続し、次に、ステップ S1030を実行する。すなわち、上位 CPUが終了を命令し なレヽ限り、ステップ S1030、ステップ S1040、ステップ S1100A、およびステップ S19 10のループの実行を継続する。
[0075] ステップ S1930におレ、て、動作を終了する。
[0076] 次に、ステップ S1100Aにおける動作の詳細を説明する。図 11Aは、本発明の実 施の形態 1に係る撮像装置の演算部の動作を示すフローチャートである。図 11Aの フローチャートは、ステップ S1100Aの動作の詳細を示す。ステップ S1100Aの演算 では、まず、ステップ S 1110を実行する。
[0077] ステップ S1110において、演算の動作を開始する。次に、ステップ S1200を実行 する。
[0078] ステップ S1200において、視差演算を実行する。図 12は、本発明の実施の形態 1 に係る撮像装置の視差演算の動作を示すフローチャートである。図 12のフローチヤ ートは、ステップ S 1200の動作の詳細を示す。ステップ S 1200の演算では、まず、ス テツプ S 1210を実行する。
[0079] ステップ S1210において、視差演算の動作を開始する。次に、ステップ S1220を 実行する。
[0080] ステップ S1220において、転送範囲フラッグ F〇によって分岐する。転送範囲フラッ グ F〇= 1のとき(31220で¥)、転送範囲が撮像領域の全領域で生成される撮像信 号となり、次に、ステップ S 1230aを実行する。一方、転送範囲フラッグ F〇= 2のとき( S1220で N)、転送範囲が撮像領域の半分の領域で生成される撮像信号となり、次 に、ステップ 1230bを実行する。
[0081] ステップ S1230aにおいて、第 1の撮像信号と第 2の撮像信号とを利用した視差演 算を実行する。図 13は、本発明の実施の形態 1に係る撮像装置の第 1の撮像信号と 第 2の撮像信号とを利用した視差演算の動作を示すフローチャートである。図 13のフ ローチ
ヤートは、ステップ S 1230aの動作の詳細を示す。ステップ S 1230の演算では、まず 、ステップ S 1310を実行する。
[0082] ステップ S1310において、第 1の撮像信号と第 2の撮像信号とを利用した視差演算 の動作を開始する。次に、ステップ S 1320を実行する。
[0083] ステップ S1320において、ブロックインデックス ibに 0を設定して初期化処理を行う。
次に、ステップ S 1330を実行する。
[0084] ステップ S1330におレ、て、ブロックを選択する。図 14は、本発明の実施の形態 1に 係る撮像装置の第 1の撮像信号と第 2の撮像信号とを利用した視差演算における第 1の撮像信号の分割ブロックと演算順番を説明する図であり、図 15は、本発明の実 施の形態 1に係る撮像装置の第 1の撮像信号と第 2の撮像信号とを利用した視差演 算における第 2の撮像信号の分割ブロックと演算順番を説明する図である。図 14に おいて、第 1の撮像信号 IIは、 X方向に HB画素、 y方向に VB画素の長方形状のブ ロックに分割され、 X方向に HB画素、 y方向に VB画素ずれて配置され、 X方向に Nh 個、 y方向に Nv個のブロックを持つ。そのため、各ブロックは X方向、 y方向ともに重な る部分はなレ、。図 15において、第 2の撮像信号 12は、 X方向に(HB + SB)画素、 y方 向に VB画素の長方形状のブロックに分割され、 X方向に HB画素、 y方向に VB画素 ずれて配置され、 X方向に Nh個、 y方向に Nv個のブロックを持つ。そのため、 X方向 について、隣のブロックと重なる。一方、 y方向について、隣のブロックと重ならなレ、。 また、図 15において、右側のブロックにおいて X方向に(HB + SB)画素を取ることが できないブロックは、適宜 X方向の右端が削除される。なお、実施の形態 1では、以下 、 HB = 32、 VB = 32の ί列を示す。
[0085] 図 14、および図 15において、各ブロックの上段に記述された数字はブロックインデ ックス ibを示す。また、図 14、および図 15において、各ブロックの下段に記述された 座標(ibx、 iby)は、各ブロック力 Sx方向に ibx番目、 y方向に iby番目のブロックである ことを示す。ここで、 ibxは 0から Nh— 1まで、 ibyは 0力、ら Vh— 1まで存在する。ステツ プ S1320におレ、て、図 14、および図 15でブロックインデックス ibで示されるブロック( 座標(ibx、 iby)で示されるブロック)が選択される。次に、ステップ S 1340を実行する
[0086] ステップ S 1340において、撮像信号を転送する。ステップ S 1340において、選択さ れたブロックの第 1の撮像信号 IIを第 1の演算バッファ 141aに転送する。そして、第 1 の演算バッファ 141aの座標 (x,y)における値を Bcl(x,y)とする。ここで、 HB=32、 VB=3 2であるため、 x=0〜31、 y=0〜31である。ステップ S1340において、選択されたブロッ クの第 2の撮像信号 12を第 2の演算バッファ 141bに転送する。そして、第 2の演算バ ッファ 141bの座標 (x,y)における値を Bc2(x,y)とする。ここで、 HB=32、 VB=32であるた め、 x=0〜31+SB、 y=0〜31である。例えば、 ib = 0のとき、第 1の演算バッファ 141aに は、座標 (0,0)と座標 (31, 31)とで囲まれる 1024画素の撮像信号 IIが転送される。また、 第 2の演算バッファ 14 lbには、図 15において右斜上となる斜線が描かれた座標 (0,0 )と座標 (31+SB,31)とで囲まれる (1024+32*SB)画素の撮像信号 12が転送される。次に 、 ib = lのとき、第 1の演算バッファ 141aには、座標 (32,0)と座標 (63,31)とで囲まれる 1 024画素の撮像信号 IIが転送される。また、第 2の演算バッファ 141bには、図 15にお いて右斜下となる斜線が描かれた座標 (32,0)と座標 (63+SB, 31)とで囲まれる (1024+32 *SB)画素の撮像信号 12が必要だ力 S、ib = 0と重なる部分 (座標 (32,0)と座標 (31+SB,31 )で囲まれる 32*SB画素の領域)はすでに第 2の演算バッファ 141bに転送されている ため、新たに座標 (32+SB,0)と座標 (63+SB,31)とで囲まれる 1024画素のみを第 2の演 算バッファ 141bに転送する。これにより、転送時間の増大を防止できる。次に、ステ ップ S1350を実行する。
[0087] ステップ S1350において、視差演算を実行する。まず、視差評価値 R(k)を演算する 。ここで、 kは画像をどれだけずらすかを示すずらし量であり、 k=0、 1、 2、 · · ·、 SBのよ うに変化させる。図 16は、本発明の実施の形態 1に係る撮像装置において、第 1の撮 像信号と第 2の撮像信号を利用したときの視差演算における視差評価値の演算領域 を説明する図である。図 16において、データ Belで格納されている領域は、第 1の演 算バッファ 141a中の領域である。また、データ Bc2で示される領域は、図 16において Belで示されるブロックから X方向にずらし量 kだけ移動した第 2の演算バッファ 141b 中の領域である。そして、ずらし量 k=0から SBについて、下記式 6に示される絶対値差 分総和 (SAD : Sum of Absolute Differences)を演算し、視差評価値 R(k)とする。
[0088] R(k) = ∑∑ |Bcl(x,y)-Bc2(x+k,y)| … 式 6
この視差評価値 R(k)は、第 1の演算バッファ 141aのデータ Belと、 x方向に kだけ離れ た領域における第 2の演算バッファ 141bのデータ Bc2とがどれだけ相関があるかを示 し、値が小さいほど相関が大きいはく似ている)ことを示す。ここで、第 1の演算バッフ ァ 141aのデータ Belは、第 1の撮像信号 IIを転送したものであり、第 2の演算バッファ 141bのデータ Bc2は、第 2の撮像信号 12を転送したものであるため、視差評価値 R4( k)は、第 1の撮像信号 IIと対応する第 2の撮像信号 12とがどれだけ相関があるかを示 す。
[0089] 図 17は、本発明の実施の形態 1に係る撮像装置の第 1の撮像信号と第 2の撮像信 号を利用したときの視差演算における視差と視差評価値との関係を説明する図であ る。図 17のように、視差評価値 R(k)はずらし量 kの値によって変化し、ずらし量 k= Δ のとき極小値を持つ。第 1の演算バッファ 141aのデータ Belは、第 1の演算バッファ 1 41aのデータ Belを X方向に kだけ移動した領域に存在する第 2の演算バッファ 141b のデータ Bc2と最も相関がある (最も似ている)ことを示す。したがって、第 1の演算バ ッファ 141aのデータ Belと第 2の演算バッファ 141bのデータ Bc2との X方向の視差が Δであることが分力る。ここで、この Δをこのブロックでの視差値 Δと呼ぶ。
[0090] 次に、視差値 Δの信頼度を演算する。図 18は、本発明の実施の形態 1に係る撮像 装置において、第 1の撮像信号と第 2の撮像信号を利用したときの視差演算における 視差評価値の信頼度の演算領域を説明する図である。データ Belが格納されている 領域は、第 1の演算バッファ 141 a中の領域である。データ Bc2が格納されている領域 は、 Belを X方向に Δだけ移動した第 2の演算バッファ 141b中の領域である。そして、 下記式 7のように、それぞれの領域のデータ Bcl(x,y)、 Bc2(x+ A,y)について、正規化 相関係数を信頼度 Eとする。
[0091] E(l,2)(ibx,iby) = ∑∑ [{Bcl(x,y)-avg(Bcl(x,y))}
*{Bc2(x+ Δ ,y)-avg(Bc2(x+ Δ ,y))}]
/ ∑[{Bcl(x,y)-avg(Bcl(x,y))}
*{Bcl(x,y)-avg(Bcl(x,y))} / ∑∑ [{Bc2(x+ Δ ,y)-avg(Bc2(x+ Δ y))}
*{Bc2(x+ Δ ,y)-avg(Bc2(x+ Δ ,y))}] … 式 7
そして、この信頼度 Eを、第 1の撮像信号と第 2の撮像信号とを利用した視差演算に お
いて、座標( , )で示される32 32画素のブロックにぉける視差値 (1 2)(¾ ¾) の信頼度 E(l,2)(ibx,iby)として保存する。(1 2)は、第 1の撮像信号と第 2の撮像信号と を利用した視差値、および信頼度であることを示す。(ibx,iby)は、ブロックインデックス i bで示されるブロックを示し、図 14において各ブロックの下段に示される座標である。 次に、ステップ S 1360を実行する。
[0092] ステップ S1360におレヽて、ブロックインデックス ibに 1を加える。次に、ステップ S13 70を実行する。
[0093] ステップ S1370において、第 1の撮像信号と第 2の撮像信号とを利用した視差演算 を終了するかどうかを判断する。ブロックインデックス ibが Nh*Nv未満のとき、次のブ ロックの視差を演算するために、次に、ステップ S 1330を実行する。一方、ブロックィ ンデッタス ibが Nh*Nv以上のとき、全てのブロックの視差を演算したと判断し、次に 、ステップ S 1380を実行する。
[0094] ステップ S1380において、第 1の撮像信号と第 2の撮像信号とを利用した視差演算 を終了し、上位ルーチンへ戻る。このようにして、第 1の撮像信号と第 2の撮像信号と を利用した視差演算において、ブロックインデックス ibで示される 32x32画素のブロ ックについて、 32 32画素の分解能で視差値 (1 2)( ^)とその信頼度8 1,2)( x,iby)とが求められた。ここで、(1,2)は第 1の撮像信号と第 2の撮像信号とを利用して レ、ることを示し、(ibx,iby)は図 14において各ブロックの下段に示される座標である(ib Xは 0力、ら Nh— 1まで、 ibyは Nv— 1まで変化する)。次に、図 12のステップ S1240a を実行する。
[0095] ステップ S1240aにおいて、第 3の撮像信号と第 4の撮像信号とを利用した視差演 算を実行する。このステップは、ステップ S1230aにおいて、第 1の撮像信号 IIを第 3 の撮像信号 13に変更し、第 2の撮像信号 12を第 4の撮像信号 14に変更したものと同様 である。すなわち、第 3の撮像信号 13をブロックに分割し、第 1の演算バッファ 141aに 転送し、第 4の撮像信号 14をブロックに分割し、第 2の演算バッファ 141bに転送し、ス テツプ S1230aと同様の動作を行い、 32x32画素の分解能で視差値 A (3,4)(ibx,iby) とその信頼度 E(3,4)(ibx,iby)とを求める。ここで、(3,4)は第 3の撮像信号と第 4の撮像 信号とを利用していることを示し、(ibx,iby)は図 14の各ブロックの下段に示される座標 を示す(図 14のように、 ibxは 0力も Nh_ lまで、 ibyは 0力 Nv_ lまで変化する)。 次に、ステップ S 1250aを実行する。
[0096] ステップ S1250aにおいて、視差を選択する。それぞれのブロックに対し、信頼度 E( l,2)(ibx,iby)、および E(3,4)(ibx,iby)を比較し、最大の信頼度を与える視差をそのプロ ックでの視差値 A (ibx,iby)とする。また、そのときの信頼度を E(ibx,iby)とする。次に 、ステップ S 1260を実行する。
[0097] ステップ S1230bにおいて、第 1の撮像信号と第 2の撮像信号とを利用した視差演 算を実行する。このステップは、ステップ S1230aと同様であり、説明を省略する。た だし、求められる視差、および信頼度を、それぞれのブロックでの視差値 A (ibx,iby)、 および信頼度 E(ibx,iby)とする。次に、ステップ S 1260を実行する。
[0098] ステップ S1260におレ、て、視差演算を終了し、上位ルーチンへ戻る。このようにし て、各ブロックにおける視差値 A (ibx,iby)が求められた。ここで、(ibx,iby)は図 14の各 ブロックの下段に示される座標であり、 ibxは 0力ら Nh— 1まで、 ibyは Nv—lまで変 化する。転送範囲フラッグ FO = l (第 1の動作モード)のとき、第 1の撮像信号 IIと第 2の撮像信号 12とによる視差 (近赤外光による視差)の信頼度と第 3の撮像信号 13と 第 4の撮像信号 14とのよる視差 (緑色光による視差)の信頼度とを比較し、信頼度が 高い視差を採用した。一方、転送範囲フラッグ F〇 = 2 (第 2の動作モード)のとき、選 択は行わず、第 1の撮像信号 IIと第 2の撮像信号 12とによる視差 (近赤外光による視 差)を採用した。次に、ステップ S1700を実行する。
[0099] ステップ S1700において、距離演算部 143は、距離演算を行い、その結果を、順 次、第 2の出力バッファ 137bに、距離データとして転送する。式 1を距離 Aについて 解くと、下記式 8のように示される。したがって、視差値 A (ibx,iby)を持つブロックにお ける被写体の距離 A(ibx,iby)は、下記式 9のように演算される。そして、距離データ A(i bx,iby)を第 2出力バッファ 137bに転送する。 [0100] A = f-D/ A … 式 8
A(ibx,iby) = f-D/ A (ibx,iby) … 式 9
次に、ステップ SI 800を実行する。
[0101] ステップ S1800において、転送範囲決定部 144は、転送範囲を決定し、転送範囲 フラッグを設定する。下記式 10のように、各ブロック (ibx,iby)での信頼度 E(ibx,iby)の 最小値がある設定された値より小さいとき、転送範囲フラッグ FO = lとする。一方、各 ブロック (ibx,iby)での信頼度 E(ibx,iby)の最小値がある設定された値以上のとき、転送 範囲フラッグ F〇= 2とする。
[0102] FO=l (min(E(ibx,iby)) < E0のとき)
F〇=2 (min(E(ibx,iby))≥ E0のとき) … 式 10
次に、ステップ SI 900を実行する。
[0103] ステップ S1900において、演算動作を終了し、上位ルーチンへ戻る。次に、ステツ プ S 1910を実行する。
[0104] 本発明の撮像装置を以上のように構成し、動作させることにより、以下の効果を有 する。
[0105] 本発明の実施の形態 1に係る撮像装置によれば、転送範囲決定部 144が撮像信 号から作成される信頼度 E(ibx,iby)に基づき、信頼度 E(ibx,iby)が小さいとき、転送範 囲フラッグ F〇 = l (第 1の動作モード)とし、信頼度 E(ibx,iby)が大きいとき、転送範囲 フラッグ F〇= 2とする(転送範囲を半分の領域とする)。このことにより、信頼度 E(ibx,i by)が大きいとき、高速性を上げる余裕があると判断し、出力フラッグ F〇 = 2 (第 2の 動作モード)とすることにより、高速な視差演算、距離演算を可能とする撮像装置を実 現する。一方、信頼度 (ibx,iby)が小さいとき、精度がさらに必要であると判断し、出力 フラッグ F〇 = l (第 1の動作モード)とすることにより、高精度な視差演算、距離演算 を可能とする撮像装置を実現する。
[0106] このように、本実施の形態の撮像装置の場合、信頼度 Eに応じて転送範囲を変更 すべぐ動作モードの切替を行っている。ここで、信頼度 Eは、被写体の動き等に応じ て変化し得る値である。したがって、本実施の形態の撮像装置は、被写体の動き等 の被写体に関する情報に応じて転送範囲を変更してレ、るともいえる。 [0107] また、本発明の撮像装置において、 FO = 2 (第 1の動作モード)のとき、転送順の早 い略半分の領域とする。すなわち、図 9 (b) 24bのように、転送に要する時間を半分 にし、垂直 CCDに残った電荷は 22bの期間で水平 CCDに掃き出すことにより、転送 に要する時間を半減し、高速な視差演算、距離演算を可能にする撮像装置を実現 する。
[0108] なお、実施の形態 1の撮像装置において、 FO = l (第 1の動作モード)のとき、転送 する撮像信号の垂直方向を VO画素、 F〇 = 2 (第 2の動作モード)のとき、転送する撮 像信号の垂直方向を V0Z2画素としたが、若干の変更があってもよい。例えば、 FO = 2 (第 2の動作モード)の転送範囲の垂直方向を 0画素目力 yOl+Vl-1とすれば、 さらに転送時間を低減できる。また、レンズのばらつきが大きぐ各光軸のずれが大き い場合には、 FO = 2 (第 2の動作モード)の転送範囲の垂直方向を VO/2より大きく すれば、その分だけ原点の調整の余裕が大きくなる。
[0109] また、実施の形態 1の撮像装置において、信頼度 E(ibx,iby)により転送範囲を変更 したが、本発明はこれに限定されない。本発明の要諦は、転送範囲を変更することに より、速度と精度との関係が適当なものになるように、視差演算、距離演算をすること にある。なお、上位 CPUの命令により、転送範囲を変更してもよい。例えば、上位 CP Uが画像データを用いて、転送範囲を変更してもよい。あるいは、ユーザが指定する 被写体情報に基づいて、転送範囲を上位 CPUが命令してもよい。
[0110] 図 10Bは、本発明の実施の形態 1に係る撮像装置の動作の変形例を示すフローチ ヤートである。また、図 11Bは、本発明の実施の形態 1に係る撮像装置の演算部の動 作の変形例を示すフローチャートである。この図 11Bのフローチャートでは、図 10B における演算処理(S 1100B)の詳細な処理の流れが示されてレ、る。
[0111] この変形例では、被写体に関する情報に基づくことなぐ転送範囲が決定される。
すなわち、撮像信号がどのような画像に関する信号であるかに関係なぐ所定の基準 にしたがって、転送範囲が決定されることになる。例えば、第 1の動作モードと第 2の 動作モードとが交互に入れ替わったり、全動作中で第 1の動作モード(又は第 2の動 作モード)が占める割合が所定の割合になるように動作モードの切替を行ったりする [0112] 変形例における転送範囲の決定は、図 10Bのフローチャートにおけるステップ S10 20Bにて実行される。そして、ステップ S1100Bの演算処理においては、図 11Bに示 すように、上述した開始処理 (S1110)、視差演算(S1200)、距離演算(S1700)、 および終了処理(S1900)を実行する。この変形例では、ステップ S1020Bにおいて 転送範囲が決定されるため、図 11Aに示されているステップ S1800の転送範囲の決 定処理を行う必要はない。
[0113] なお、ユーザが転送範囲を適宜設定することができるようにしてもよい。そのために は、例えば、ユーザが操作可能なスィッチなどを介してユーザから転送範囲設定 (動 作モード切替)の指示が出された場合に、その指示を受けた上位 CPUが撮像装置 に対して転送範囲の設定 (動作モードの切替)を行うように命令する等すればよい。
[0114] また、実施の形態 1の撮像装置において、転送範囲フラッグの初期値を FO = l (第
1の動作モード)としたが、 FO = 2 (第 2の動作モード)としてもよレ、。
[0115] また、実施の形態 1の撮像装置において、第 1の演算バッファの大きさを 32x32画 素(水平方向に 32画素、および垂直方向に 32画素)とした力 これに限定されない。 例えば、 4x4画素、 8x8画素、 16x16画素でもよい。また、適宜大きさを変更してもよ レ、。また、複数の大きさのブロックの視差を求め、選択してもよレ、。さらに、矩形状のブ ロックではなぐエッジなどを抽出してブロック分割してもよい。また、ブロックの視差を 求めることに限定されず、エッジである線分の視差を求めてもよい。
[0116] また、実施の形態 1の撮像装置において、第 1の撮像信号 IIを第 1の出力バッファ 1 37aに転送し、入出力部 138から出力したが、他の撮像信号 (第 2の撮像信号 12、第 3の撮像信号 13、あるいは第 4の撮像信号 14)を出力してもよい。また、複数の撮像信 号を出力してもよレ、。さらに、撮像信号の条件により、入出力部 138から出力する撮 像信号を変更してもよい。例えば、それぞれの撮像信号を比較し、最も明るい撮像信 号 (撮像信号の大きさの平均が最も大きいなどにより判定されたもの)、あるいは最も 輪郭がはっきりしているもの(微分値の平均や最大値が最も大きいなどにより判定さ れたもの)などを出力するように変更してもよい。
[0117] また、実施の形態 1の撮像装置において、撮像素子として CCDセンサを用いた力 他の撮像素子(例えば、 CMOSセンサ)を用いてもよい。 [0118] また、実施の形態 1の撮像素子において、撮像素子 123としてプログレッシブ CCD のみならず、インターレース CCDを利用してもよレ、。図 19は、本発明の実施の形態 1 に係る撮像装置の変形のフィールド画像を説明する図である。例えば、 3つのフィー ルドを持つインターレース CCDを利用した場合、画像全体は、図 19 (a)に示すように 、第 1のフィールド画像と第 2のフィールド画像と第 3のフィールド画像とが順に配置さ れる。まず、第 1のフィールド画像を構成する撮像信号が転送され、次に第 2のフィー ルド画像を構成する撮像信号が転送され、次に第 3のフィールド画像を構成する撮 像信号が転送される。通常の白黒画像では、これらを 1ラインずつ順に配置すること により画像全体を再現する。図 19 (b)のように画像全体(フレーム画像)の幅が H0、 高さが V0であるとき、図 19 (c)、(d)、 (e)のように、第 1のフィールド画像、第 2のフィ 一ルド画像、および第 3のフィールド画像の幅はそれぞれ H0であり、高さは V0/3で ある。
[0119] 図 20は、本発明の実施の形態 1に係る撮像装置の変形の撮像信号の転送を示す タイミングチャートである。転送範囲フラッグ FO = lのとき、転送範囲が撮像領域の全 領域で生成される撮像信号であるため、図 8 (a)のように、水平方向に H0画素、垂直 方向に V0画素の撮像信号を転送する。すなわち、撮像信号入力部 133に入力され る撮像信号 I0(x,y)は、 X方向に H0画素、 y方向に V0画素を持ち、 10(0,0) ((x,y)=(0,0)) 、 10(1,0)、 10(2,0)、 · · ·、 I0(H0-1,V0-1)の順に入力され、順次、前処理部 134に転送 される。図 20 (a)のように、 1フレームに 1回だけ発生する信号 20cが発生し、 1フィー ルドに 1回だけ垂直同期信号 21cが発生する。 3フィールドのインターレース CCDで は、信号 20cの 1つあたり 3つの垂直同期信号 21cが発生する。垂直同期信号 21cの 立ち上がりエッジから一定期間後に、信号 23cのハイレベルのタイミングで CCDセン サのフォトダイオードから垂直転送 CCDへ電荷が転送され、信号 24aのハイレベル で、順次垂直 CCD、水平 CCD内を電荷が転送され、撮像信号入力部 133において アナログ信号からディジタル信号の撮像信号として変換入力される。なお、信号 20c 発生直後は第 1のフィールドの撮像信号が転送され (24clで示された期間)、次に、 第 2のフィールドの撮像信号が転送され (24c2で示された期間)、次に、第 3のフィー ノレドの撮像信号が転送される(24c3で示された期間)。 [0120] 一方、転送範囲フラッグ FO = 2のとき、転送範囲が撮像領域の半分の領域で生成 される撮像信号であるため、図 8 (b)のように、水平方向に H0画素、垂直方向に V0 /2画素の撮像信号を転送する。すなわち、撮像信号入力部 133に入力される撮像 信号 I0(x,y)は、 X方向に H0画素、 y方向に V0/2画素を持ち、 10(0,0) ((x,y)=(0,0))、 10( 1,0), 10(2,0)、 · · ·、 I0(H0_l,V0/2-l)の順に入力され、順次、前処理部 134に転送さ れる。図 20 (b)のように、 1フレームに 1回だけ発生する信号 20dが発生し、 1フィール ドに 1回だけ垂直同期信号 21dが発生する。 3フィールドのインターレース CCDでは 、信号 20dの 1つあたり 3つの垂直同期信号 21dが発生する。垂直同期信号 21dの 立ち上がりエッジから一定期間後に、信号 22dのハイレベルで垂直 CCD内に残され た電荷を水平 CCDに掃き出し、信号 23dのハイレベルのタイミングで CCDセンサの フォトダイオードから垂直転送 CCDへ電荷が転送され、信号 24dのハイレベルで、順 次垂直 CCD、水平 CCD内を電荷が転送され、撮像信号入力部 133においてアナ口 グ信号からディジタル信号の撮像信号として変換入力される。なお、信号 20d発生直 後は第 1のフィールドの撮像信号が転送され (24dlで示された期間)、次に、第 2のフ ィールドの撮像信号が転送され (24d2で示された期間)、次に、第 3のフィールドの撮 像信号が転送される(24d3で示された期間)。このため、転送範囲フラッグ FO = l (第 1の動作モード)のときの電荷の転送時間(信号 24aがハイレベルを取る期間)と比較 し、転送範囲フラッグ F〇= 2 (第 2の動作モード)のときの電荷の転送時間(信号 2ba 力 Sハイレベルを取る期間)は略半分であるため、画像 1枚を転送する時間間隔が短 縮される。
[0121] さらに、全てのフィールド画像を用いずに 1つのフィールド画像のみを使用すれば、 さらに画像 夂を転送する時間間隔が短縮される。転送範囲フラッグとして F〇= 3の 状態も設け、転送範囲フラッグ FO = 3のとき、転送範囲が半分の領域であり(転送領 域は図 8 (b) )、第 1のフィールドのみの画像を転送する。すなわち、撮像信号入力部 133から入力される撮像信号 I0(x,y)は、 X方向に H0画素、 y方向に V0/6画素を持ち、 10(0,0) ((x,y)=(0,0))、 10(1,0)、 10(2,0)、 · · ·、 10(0,3)、 10(1,3)、 10(2,3)、 · · ·、 I0(H0_1,V0 /2-3)の順に入力され、順次、前処理部 134に転送される。図 20 (c)のように、信号 2 Odが発生するタイミングと垂直同期信号 21dが発生するタイミングは略同一である。 垂直同期信号 21dの立ち上がりエッジから一定期間後に、信号 22dのハイレベルで 垂直 CCD内に残された電荷を水平 CCDに掃き出し、信号 23dのハイレベルのタイミ ングで CCDセンサのフォトダイオードから垂直転送 CCDへ電荷が転送され、信号 24 dのハイレベルで、順次垂直 CCD、水平 CCD内を電荷が転送され、撮像信号入力 部 133においてアナログ信号からディジタル信号の撮像信号として変換入力される。 なお、常に、第 1のフィールドの撮像信号のみが転送される(24elで示された期間)た め、転送範囲フラッグ F〇 = l (第 1の動作モード)のときの電荷の転送時間(信号 24a 力 Sハイレベルを取る期間)と比較し、転送範囲フラッグ F〇= 3 (転送範囲が半分の領 域で第 1のフィールド画像のみを転送する)のときの電荷の転送時間(信号 24aがハ ィレベルを取る期間)は略 1/6倍となり、画像 夂を転送する時間間隔が短縮される
[0122] ここで、 夂のフィールドのみを転送することにより、垂直方向の画素数は減少する 力 水平方向の画素数は減少しない。視差が発生する方向は水平方向であり、視差 演算の精度悪化は小さい。したがって、 1枚のフィールドのみを転送する場合は、視 差演算の精度を保持しつつ、高速化が可能である。
[0123] ここで、視差演算の高速性が必要な場合は転送範囲フラッグ F〇= 3 (第 3の動作モ ード)に設定して転送範囲を撮像領域の半分の領域で生成される撮像信号とし、常 に第 1のフィールドのみを転送する。また、高速性と高精度性とがある程度必要な場 合は転送範囲フラッグ FO = 2 (第 2の動作モード)に設定して転送範囲を撮像領域 の半分の領域で生成される撮像信号とし、第 1フレームから第 3フレームまでを転送 する。また、高精度性が必要な場合は転送範囲フラッグ FO = l (第 1の動作モード) に設定して転送範囲を撮像領域の全領域で生成される撮像信号とし、第 1フレーム 力 第 3フレームまでを転送する。このように動作することにより、状況に応じ高速性と 高精度性とを適宜変更できる。
[0124] なお、視差演算の高速性及び/または高精度性が必要か否かは、被写体に関す る情報に基づいて SLSI125が判断する。すなわち、例えば上述したようにして求め られた信頼度 Eの値に応じて、 SLSI125が高速性及び Zまたは高精度性が必要か 否力、を判断し、その判断結果にしたがって、 SLSI125が第 1〜第 3の動作モードの いずれかを選択する。
[0125] なお、転送範囲を撮像領域の全領域で生成される撮像信号として第 1のフィールド のみを転送する場合を付加することにより、さらに緻密に状況に対応できる。また、第 1のフィールドの代わりに、第 2のフィールド、あるいは第 3のフィールドを転送してもよ レ、。
[0126] (実施の形態 2)
本発明の実施の形態 1に係る撮像装置は、主に近赤外光成分を透過するカラーフ ィルタ(第 1のカラーフィルタ 124a、および第 2のカラーフィルタ 124b)、および主に 緑色光成分を透過するカラーフィルタ(第 3のカラーフィルタ 124c、および第 4のカラ 一フィルタ 124d)がそれぞれ水平に配置され、それらに対応する撮像成分同士(第 1 の撮像信号 IIと第 2の撮像信号 12、および第 3の撮像信号 13と第 4の撮像信号 14)を 比較し、視差を演算し、この視差に基づき距離を演算した。これに対し、本発明の実 施の形態 2に係る撮像装置は、主に近赤外光成分を透過するカラーフィルタ、および 主に緑色光成分を透過するカラーフィルタがそれぞれ対角に配置され、それらに対 応する撮像成分同士を比較し、視差を演算し、この視差に基づき距離を演算する。
[0127] 以下、本発明の実施の形態 2に係る撮像装置について、図面を参照しながら説明 する。
[0128] 図 21は、本発明の実施の形態 2に係る撮像装置の構成を示す断面図である。図 2 1において、撮像装置 201は、レンズモジュール部 110、および回路部 220を有する
[0129] レンズモジュール部 110は、鏡筒 111、上部カバーガラス 112、およびレンズ 113を 有する。回路部 220は、基板 121、パッケージ 122、撮像素子 223、パッケージカバ 一ガラス 224、およびシステム LSI (以下、 SLSIと記す) 225を有する。
[0130] 鏡筒 111、上部カバーガラス 112、およびレンズ 113は、実施の形態 1と同様で あり、説明を省略する。
[0131] 基板 121、およびパッケージ 122は、実施の形態 1と同様であり、説明を省略する。
[0132] 撮像素子 223は、固体撮像素子である CMOSセンサであり、撮像素子 223の受光 面が第 1のレンズ部 113a、第 2のレンズ部 113b、第 3のレンズ部 113c、および第 4 のレンズ部 113dの光軸と略垂直になるようにして配置される。撮像素子 223の各端 子は、パッケージ 122の内側の底部の金属端子にワイヤーボンディングにより金線 2 27で接続され、基板 121を介して、 SLSI125と電気的に接続される。撮像素子 223 の受光面に、第 1のレンズ部 113a、第 2のレンズ部 113b、第 3のレンズ部 113c、お よび第 4のレンズ部 113dから射出された光がそれぞれ結像し、その光の情報がフォ トダイオードにより電気の情報へ変換され、その電気の情報が SLSI125に転送され る。
[0133] 図 22は、本発明の実施の形態 2に係る撮像装置の回路部の構成を示す平面図で ある。パッケージカバーガラス 224は、平板状であり、透明樹脂により形成され、パッ ケージ 122の上面に接着などにより固着される。パッケージカバーガラス 224の上面 には、第 1のカラーフィノレタ 224a、第 2のカラーフィノレタ 224b、第 3のカラーフィルタ 2 24c,第 4のカラーフィルタ 224d、および遮光部 224eが蒸着などにより配置される。 また、パッケージカバーガラス 224の下面には、反射防止膜が蒸着などにより配置さ れる。
[0134] 撮像素子 223は、実施の形態 1の場合と同様に、第 1の撮像領域 223a、第 2の撮 像領域 223b、第 3の撮像領域 223c、および第 4の撮像領域 223dで構成されている 。これらの第 1〜第 4の撮像領域 223a〜223dは、それぞれの受光面が、第 1〜第 4 のレンズ部 113a〜 113dの光軸と略垂直になるようにして 2行 2列で配置される。な お、実施の形態 1の場合と同様に、 1個の撮像素子が 1個の撮像領域となり、そのよう な撮像素子を複数設けることによって、複数の撮像領域を有するようにしてもよい。
[0135] 図 23は、本発明の実施の形態 2に係るカメラモジュールのカラーフィルタの特性図 である。第 2のカラーフィノレタ 224b、および第 3のカラーフィルタ 224cは、図 23の IR で示した主に近赤外光を透過する分光透過特性 (波長 λ 1を中心とする透過特性。 例えば、 λ l = 870nm)を有し、第 1のカラーフィルタ 224a、および第 4のカラーフィ ノレタ 224dは、図 23の Gで示した主に緑色光を透過する分光透過特性(波長 λ 2を 中心とする透過特性。例えば、 2 = 500nm)を有する。
[0136] したがって、第 1のレンズ部 113aの上部から入射した物体光は、第 1のレンズ部 11 3aの下部力 射出され、第 1のカラーフィルタ 224aにより主に緑色光が透過し、第 1 の撮像領域 223aの受光部に結像するため、第 1の撮像領域 223aは物体光のうち緑 色光成分を受光する。また、第 2のレンズ部 113bの上部から入射した物体光は、第 2 のレンズ部 113bの下部から射出され、第 2のカラーフィルタ 224b主に近赤外光が透 過し、第 2の撮像領域 223bの受光部に結像するため、第 2の撮像領域 223bは物体 光のうち近赤外光成分を受光する。また、第 3のレンズ部 113cの上部から入射した 物体光は、第 3のレンズ部 113cの下部から射出され、第 3のカラーフィルタ 224cによ り主に近赤外光が透過し、第 3の撮像領域 223cの受光部に結像するため、第 3の撮 像領域 223cは物体光のうち近赤外光成分を受光する。更に、第 4のレンズ部 113d の上部から入射した物体光は、第 4のレンズ部 113dの下部から射出され、第 4のカラ 一フィルタ 224dにより主に緑色光が透過し、第 4の撮像領域 223dの受光部に結像 するため、第 4の撮像領域 223dは物体光のうち緑色光成分を受光する。
[0137] SLSI225は、後述の方法で、撮像素子 223を駆動し、撮像素子 223からの電気情 報を入力し、各種演算を行い、上位 CPUと通信を行い、外部に画像情報や距離情 報などを出力する。なお、 SLSI225は、電源(例えば 3· 3V)とグランド(例えば、 0V )に接続される。
[0138] 次に、本発明の実施の形態 2に係る撮像装置の動作を説明する。図 24は、本発明 の実施の形態 2に係る撮像装置の構成を示すブロック図である。 SLSI225は、シス テム制御部 231、撮像素子駆動部 232、撮像信号入力部 233、前処理部 234、入力 バッファ 135、演算部 236、出力バッファ 137、および入出力部 138を有する。撮像 素子駆動部 232は、第 1の撮像素子駆動部 232a、および第 2の撮像素子駆動部 23 2bを有する。入力バッファ 135は、第 1の入力バッファ 135a、第 2の入力バッファ 13 5b、第 3の入力バッファ 135c、および第 4の入力バッファ 135dを有する。演算部 23 6は、演算部バッファ 241、視差演算部 242、距離演算部 143、および転送範囲決定 部 144を有する。演算バッファ 241は、第 1の演算バッファ 241a、および第 2の演算 バッファ 241bを有する。出力バッファ 137は、第 1の出力バッファ 137a、および第 2 の出力バッファ 137bを有する。
[0139] システム制御部 231は、 CPU (中央演算処理装置: Central Processing Unit)、ロジ ック回路などから構成され、 SLSI225の全体を制御する。 [0140] 撮像素子駆動部 232は、ロジック回路などから構成され、撮像素子 223を駆動する 信号を発生し、この信号に応じた電圧を撮像素子 223に印加する。この撮像素子駆 動部 232は、第 1の撮像素子駆動部 232a、および第 2の撮像素子駆動部 232bから 構成され、後述の転送範囲フラッグ FO = l (第 1の動作モード)のとき、第 1の撮像素 子駆動部 232aが動作し、転送範囲フラッグ F〇= 2 (第 2の動作モード)のとき、第 2 の撮像素子駆動部 232bが動作する。このように、あらかじめ 2種類の回路 (撮像素子 駆動部)を用意することにより、転送範囲の変更(動作モードの切替)を容易にするこ とができる。
[0141] 撮像信号入力部 233は、 CDS回路(相関二重サンプリング回路: Correlated Doubl e Sampling Circuit)、 AGC (自動利得制御器: Automatic Gain Controller)、 ADC ( アナログ Zディジタル変換器: Analog Digital Converter)が直列に接続されて構成さ れ、撮像素子 223からの電気信号が入力され、 CDS回路により固定ノイズを除去し、 AGCによりゲインを調整し、 ADCによりアナログ信号からディジタル値に変換し、後 述のように、第 1の撮像信号 II、第 2の撮像信号 12、第 3の撮像信号 13、および第 4の 撮像信号 14とする。
[0142] 転送範囲決定部 144は、後述の方法で、転送範囲フラッグ FOを決定する。転送範 囲フラッグ F〇= 1のとき、転送範囲が撮像領域の全領域で生成される撮像信号であ ることを示し、転送範囲フラッグ F〇= 2のとき、転送範囲が撮像領域の半分の領域で 生成される撮像信号であることを示す。なお、転送範囲フラッグは、 FO = lに初期化 されている。
[0143] 図 25は、本発明の実施の形態 2に係る撮像装置の撮像信号の切り出し位置を説 明するための図である。図 26は、本発明の実施の形態 2に係る撮像装置の撮像信 号の転送を示すタイミングチャートである。転送範囲フラッグ F〇 = lのとき、転送範囲 が撮像領域の全領域で生成される撮像信号であるため、図 25 (a)のように、第 1の撮 像信号 IIに対応する領域 (原点が (x01,y01)で、水平画素が HI画素で、垂直画素が VI画素の領域)、第 2の撮像信号 12に対応する領域 (原点が (x02,y02)で、水平画素 が HI画素で、垂直画素力 SV1画素の領域)、第 3の撮像信号 13に対応する領域 (原 点が (x03,y03)で、水平画素が HI画素で、垂直画素が VI画素の領域)、および第 4 の撮像信号 14に対応する領域 (原点が (x04,y04)で、水平画素が HI画素で、垂直画 素が VI画素の領域)を転送する。図 26 (a)のように、垂直同期信号 21fの立ち上がり エッジから一定期間後に、信号 24fのハイレベルで、撮像信号が順次転送され、撮 像信号入力部 133においてアナログ信号力 ディジタル信号の撮像信号として変換 入力される。すなわち、 24flで示される期間において第 1の撮像信号 IIが 11(0,0)、 II (1,0), 11(2,0)、 · · ·、 I1(H1-1、 V1-1)の順に入力され、 24f2で示される期間において 第 2の撮像信号 12が 12(0,0)、 12(1,0)、 12(2,0)、 · · ·、 I2(H1_1、 V1-1)の順に入力され、 24f 3で示される期間において第 3の撮像信号 13が 13(0,0)、 13(1,0)、 13(2,0)、 · · ·、 13( Hl-1、 V1-1)の順に入力され、および 24f4で示される期間において第 4の撮像信号 I 4が 14(0,0)、 14(1,0)、 14(2,0)、 · · ·、 I4(H1_1、 VI- 1)の順に入力され、前処理部 234に 転送される。
[0144] 転送範囲フラッグ F〇= 2のとき、転送範囲が撮像領域の半分の領域で生成される 撮像信号であるため、図 25 (b)のように、第 2の撮像信号 12に対応する領域 (原点が (x02,y02)で、水平画素が HI画素で、垂直画素が VI画素の領域)、および第 3の撮 像信号 13に対応する領域 (原点が (x03,y03)で、水平画素が HI画素で、垂直画素が VI画素の領域)を転送する。図 26 (b)のように、垂直同期信号 21fの立ち上がりエツ ジから一定期間後に、信号 24fのハイレベルで、撮像信号が順次転送され、撮像信 号入力部 133においてアナログ信号からディジタル信号の撮像信号として変換入力 される。すなわち、 24g2で示される期間において第 2の撮像信号 12が 12(0,0)、 12(1,0) 、 12(2,0)、 · · ·、 I2(H1- 1、 V1-1)の順に入力され、および 24g3で示される期間におい て第 3の撮像信号 13が 13(0,0)、 13(1,0)、 13(2,0)、 · · ·、 I3(H1_1、 V1-1)の順に入力され 、前処理部 234に転送される。
[0145] 転送範囲フラッグ F〇 = l (第 1の動作モード)のときの電荷の転送時間(信号 24fが ハイレベルを取る期間)と比較し、転送範囲フラッグ FO = 2 (第 2の動作モード)のとき の電荷の転送時間(信号 24fがハイレベルを取る期間)は略半分であるため、画像 1 枚を転送する時間間隔が短縮される。
[0146] 前処理部 234は、ロジック回路などから構成され、撮像信号の強度補正処理を行い 、順次、入力バッファ 135に転送する。 [0147] F〇 = lのとき、転送範囲が撮像領域の全領域で生成される撮像信号であるため、 第 1の撮像信号 II、第 2の撮像信号 12、第 3の撮像信号 13、および第 4の撮像信号 14 の強度を補正し、順次、入力バッファ 135に転送する。第 1の撮像信号 II、第 2の撮 像信号 12、第 3の撮像信号 13、および第 4の撮像信号は、それぞれ第 1のレンズ部 11 3a、第 2のレンズ部 113b、第 3のレンズ部 113c、および第 4のレンズ部 114dによつ て結像された被写体像によって得られたものである。下記式 11のように、第 1の撮像 信号 IIを第 1の強度補正係数 kslで補正し、下記式 12のように、第 2の撮像信号 12を 第 2の強度補正係数 ks2で補正し、下記式 13のように、第 3の撮像信号 13を第 3の強 度補正係数 ks3で補正し、さらに、下記式 14のように、第 4の撮像信号 14を第 4の強度 補正係数 ks4で補正する。
[0148] Il(x,y) = ksl(x,y) * Il(x,y) … 式 11
I2(x,y) = ks2(x,y) * I2(x,y) … 式 12
I3(x,y) = ks3(x,y) * I3(x,y) … 式 13
I4(x,y) = ks4(x,y) * I4(x,y) … 式 14
なお、第 1の強度補正係数 ksl(x,y)、第 2の強度補正係数 ks2(x,y)、第 3の強度補正 係数 ks3(x,y)、および第 4の強度補正係数 ks4(x,y)のそれぞれは、第 1の撮像信号 II 、第 2の撮像信号 12、第 3の撮像信号 13、および第 4の撮像信号 14の座標 (x,y)におけ る強度補正係数を示し、検査工程などにおいて特定チャートを撮影して決定され、 E EPROMやフラッシュメモリに保存される。なお、各画素の係数を持たずに、代表点の みを持ち、その代表点を用いて線形補間により第 1の強度補正係数 ksl(x,y)、第 2の 強度補正係数 ks2(x,y)、第 3の強度補正係数 ks3(x,y)、および第 4の強度補正係数 ks 4(x,y)を求めてもよい。また、近似式を策定しその係数のみを持ち、各座標の第 1の 強度補正係数 ksl(x,y)、第 2の強度補正係数 ks2(x,y)、第 3の強度補正係数 ks3(X,y)、 および第 4の強度補正係数 ks4(x,y)を作成してもよレ、。また、レンズの光軸のずれなど を校正するために、適宜、座標変換を行ってもよい。
[0149] 一方、 F〇 = 2のとき、転送範囲が撮像領域の半分の領域で生成される撮像信号で あるため、第 2の撮像信号 12、および第 3の撮像信号 13を作成し、順次、入力バッファ 135に転送する。 F〇 = lのとき(第 1の動作モード)と比較し、第 1の撮像信号 12、お よび第 4の撮像信号 14に関する処理が省略される。第 2の撮像信号 12、および第 3の 撮像信号 13に関する処理は同様であるため、説明を省略する。
[0150] F〇 = lのとき、第 1の入力バッファ 135aは、 DRAM (Dynamic Random Access Me mory)などから構成され、第 1の撮像信号 IIを順次読み込み、 H1*V1画素 (x方向に H 1画素、 y方向に VI画素)のデータを保存する。第 2の入力バッファ 135bは、 DRAM などから構成され、第 2の撮像信号 12を順次読み込み、 H1*V1画素 (X方向に HI画素 、 y方向に VI画素)のデータを保存する。第 3の入力バッファ 135cは、 DRAMなどか ら構成され、第 3の撮像信号 13を順次読み込み、 H1*V1画素 (X方向に HI画素、 y方 向に VI画素)のデータを保存する。第 4の入力バッファ 135dは、 DRAMなど力も構 成され、第 4の撮像信号 14を順次読み込み、 H1*V1画素 (X方向に HI画素、 y方向に VI画素)のデータを保存する。
[0151] 一方、 F〇 = 2のとき、第 2の撮像信号 12、および第 3の撮像信号 13を作成し、順次、 入力バッファ 135に入力する。 FO = lのとき(全領域を転送するとき)と比較し、第 1 の入力バッファ 135a、および第 4の入力バッファ 135dに関する処理が省略される。 第 2の入力バッファ 135b、および第 3の入力バッファ 135cに関する処理は同様であ るため、説明を省略する。
[0152] 演算部 236は、 SRAM力ら構成された第 1の演算バッファ 241a、第 2の演算バッファ 241bと、ロジック回路や CPUなどから構成された視差演算部 242と、ロジック回路や CPUなどから構成された距離演算部 143と、ロジック回路や CPUなどから構成された 転送範囲決定部 144と、から構成される。演算部 236は、第 1の撮像信号 II、第 2の 撮像信号 12、第 3の撮像信号 13、および第 4の撮像信号 14をブロック単位で読み込み 、第 1の演算バッファ 241a、第 2の演算バッファ 241bに保存する。そして、視差演算 部 242において第 1の演算バッファ 241a、および第 2の演算バッファ 241bのデータ などに基づき視差を演算し、距離演算部 143において求められた視差に基づき距離 を演算し、求められた距離データを出力バッファ 137に転送する。
[0153] 出力バッファ 137、および入出力部 138は、実施の形態 1と同様であり、説明を省 略する。
[0154] 図 27は、本発明の実施の形態 2に係る撮像装置の動作を示すフローチャートであ る。 SLSI225のシステム制御部 231により、撮像装置 201は、このフローチャートのと おりに動作される。
[0155] ステップ S2010において、動作を開始する。例えば、上位 CPU (図示せず)が、入 出力部 136を介し、撮像装置 201に動作の開始を命令することにより、撮像装置 201 は、動作を開始する。次に、ステップ S2020を実行する。
[0156] ステップ S2020において、転送範囲の初期化処理を行う。本実施の形態では、こ の初期化処理により、転送範囲フラッグ F〇 = l (第 1の動作モード)が設定される。次 に、ステップ S2030を実行する。
[0157] ステップ S2030において、撮像信号を入力する。システム制御部 231の命令により 、撮像素子駆動部 232が転送を行うための信号を随時出力する。転送範囲フラッグ F〇 = l (第 1の動作モード)のとき、第 1の撮像信号駆動部 232aが動作する。この場 合、撮像信号入力部 233は、第 1の撮像信号 Il(x,y)を、 x方向に HI画素、 y方向に V 1画素だけ、すなわち、 11(0,0) ((x,y)=(0,0))、 11(1,0)、 11(2,0)、 · · ·、 I1(Hト 1,Vト 1)の 順に入力し、順次、前処理部 234に転送する。次に、第 2の撮像信号 I2(x,y)を、 x方 向に HI画素、 y方向に VI画素だけ、すなわち、 12(0,0) ((x,y)=(0,0))、 12(1,0)、 12(2,0)、 · · ·、 I2(H1-1,V1-1)の順に入力し、順次、前処理部 234に転送する。次に、第 3の撮 像信号 I3(x,y)を、 X方向に HI画素、 y方向に VI画素だけ、すなわち、 13(0,0) ((x,y)=(0, 0))、 13(1,0)、 13(2,0)、 · · ·、 I3(H1-1,V1-1)の順に入力し、順次、前処理部 234に転送 する。次に、第 4の撮像信号 I4(x,y)を、 X方向に HI画素、 y方向に VI画素だけ、すな わち、 14(0,0) ((x,y)=(0,0))、 14(1,0)、 14(2,0)、 · · ·、 I4(H1_1,V1_1)の順に入力し、順次 、前処理部 234に転送する。前処理部 234は、強度補正処理を行い、第 1の撮像信 号 II、第 2の撮像信号 12、第 3の撮像信号 13、および第 4の撮像信号 14を作成し、第 1 の撮像信号 II、第 2の撮像信号、第 3の撮像信号、および第 4の撮像信号を、それぞ れ、順次、第 1の入力バッファ 135a、第 2の入カノ ッファ 135b、第 3の入力バッファ 1 35c、および第 4の入力バッファ 135dに転送する。
[0158] 一方、転送範囲フラッグ FO = 2 (第 2の動作モード)のとき、第 2の撮像信号駆動部 232bが動作し、撮像信号入力部 233は、第 2の撮像信号 I2(x,y)を、 x方向に HI画素 、 y方向に VI画素だけ、すなわち、 I2(0,0) ((x,y)=(0,0))、 12(1,0)、 12(2,0)、 · · ·、 I2(H1- 1,V1-1)の順に入力し、順次、前処理部 234に転送し、第 3の撮像信号 I3(x,y)を、 x方 向に HI画素、 y方向に VI画素だけ、すなわち、 13(0,0) ((x,y)=(0,0))、 13(1,0)、 13(2,0)、 • · ·、 I3(H1-1,V1-1)の順に入力し、順次、前処理部 234に転送する。前処理部 234 は、強度補正処理を行い、第 2の撮像信号 12、および第 3の撮像信号 13を作成し、第 2の撮像信号 12、および第 3の撮像信号 13を、それぞれ、順次、第 2の入力バッファ 1 35b、および第 3の入力バッファ 135cに転送する。
[0159] ステップ S2040において、第 2の入力バッファ 135aに保存されている第 2の撮像信 号 12を第 1の出力バッファ 137aに転送し、第 1の出力バッファ 137aは、画像データと して保存する。次に、ステップ S2100を実行する。
[0160] ステップ S2100において、距離データを作成し、順次、第 2の出力バッファ 137bに 転送する。また、転送範囲を決定し、転送範囲フラッグ F〇を設定する。この動作の詳 細は後述する。次に、ステップ S2910を実行する。
[0161] ステップ S2910において、外部にデータを出力する。入出力部 138は、第 1の出力 バッファ 137a上の画像データ、および第 2の出力バッファ 137b上の距離データを、 上位 CPU (図示せず)や外部表示装置(図示せず)に出力する。次に、 S2920を実 行する。
[0162] ステップ S2920において、動作を終了するかどうかを判断する。例えば、システム 制御部 231は、入出力部 136を介し、上位 CPU (図示せず)と通信し、動作を終了す るかどうかの命令を要求する。そして、上位 CPUが終了を命令すれば動作を終了し 、次に、ステップ S2930を実行する。一方、上位 CPUが終了を命令しなければ動作 を継続し、次に、ステップ S2030を実行する。すなわち、上位 CPUが終了を命令し なレ、限り、ステップ S2030、ステップ S2040、ステップ S2100、およびステップ S291 0のループの実行を継続する。
[0163] ステップ S2930におレヽて、動作を終了する。
[0164] 次に、ステップ S2100における動作の詳細を説明する。図 28は、本発明の実施の 形態 2に係る撮像装置の演算部の動作を示すフローチャートである。図 28のフロー チャートは、ステップ S2100の動作の詳細を示す。ステップ S2100の演算では、まず 、ステップ S2110を実行する。 [0165] ステップ S2110において、演算の動作を開始する。次に、ステップ S2200を実行 する。
[0166] ステップ S2200において、視差演算を実行する。図 29は、本発明の実施の形態 2 に係る撮像装置の視差演算の動作を示すフローチャートである。図 29のフローチヤ ートは、ステップ S2200の動作の詳細を示す。ステップ S2200の演算では、まず、ス テツプ S2210を実行する。
[0167] ステップ S2210において、視差演算の動作を開始する。次に、ステップ S2220を 実行する。
[0168] ステップ S2220において、転送範囲フラッグ F〇によって分岐する。転送範囲フラッ グ F〇= 1のとき(S2220で Y)、転送範囲が撮像領域の全領域で生成される撮像信 号となり、次に、ステップ S2230aを実行する。一方、転送範囲フラッグ F〇= 2のとき( S2220で N)、転送範囲が撮像領域の半分の領域で生成される撮像信号となり、次 に、ステップ 2230bを実行する。
[0169] ステップ S2230aにおいて、第 2の撮像信号と第 3の撮像信号とを利用した視差演 算を実行する。図 30は、本発明の実施の形態 2に係る撮像装置の第 2の撮像信号と 第 3の撮像信号とを利用した視差演算の動作を示すフローチャートである。図 30のフ ローチャートは、ステップ S2230aの動作の詳細を示す。ステップ S2230aの演算で は、まず、ステップ S2310を実行する。
[0170] ステップ S2310において、第 2の撮像信号と第 3の撮像信号とを利用した視差演算 の動作を開始する。次に、ステップ S2320を実行する。
[0171] ステップ S2320におレヽて、ブロックインデックス ibに 0に初期化する。次に、ステップ S2330を実行する。
[0172] ステップ S2330において、ブロックを選択する。図 31は、本発明の実施の形態 2に 係る撮像装置の第 2の撮像信号と第 3の撮像信号とを利用した視差演算における第 2の撮像信号の分割ブロックと演算順番を説明する図であり、図 32は、本発明の実 施の形態 2に係る撮像装置の第 2の撮像信号と第 3の撮像信号とを利用した視差演 算における第 3の撮像信号の分割ブロックと演算順番を説明する図である。図 31に おいて、第 2の撮像信号 12は、 X方向に HB画素、 y方向に VB画素の長方形状のブ ロックに分割され、 x方向に HB画素、 y方向に VB画素ずれて配置され、 X方向に Nh 個、 y方向に Nv個のブロックを持つ。そのため、各ブロックは X方向、 y方向ともに重な る部分はなレ、。図 32において、第 3の撮像信号 13は、図 32 (b)のような (HB+SB)*(VB +SB)-SB*SB画素のブロックに分割され、 X方向に HB画素、 y方向に VB画素ずれて 配置され、 X方向に Nh個、 y方向に Nv個のブロックを持つ。また、図 32において、図 32 (b)のようなブロックを取ることができないブロック(例えば、左上や右下や左下の ブロック)は、適宜取れない部分が削除される(例えば、左上のブロックは HB * VBの 長方形状のブロックとなる)。なお、実施の形態 2では、以下、 HB = 32、 VB = 32の 例を示す。図 31、および図 32において、各ブロックの上段に記述された数字はブロ ックインデックス ibを示す。また、図 31、および図 32おいて、各ブロックの下段に記述 された座標(ibx、 iby)は、各ブロック力 Sx方向に ibx番目、 y方向に iby番目のブロック であることを示す。ここで、 ibxは 0から Nh— 1まで、 ibyは 0から Vh— 1まで存在する。 ステップ S 2330におレヽて、図 31、および図 32において、ブロックインデックス ibで示 されるブロック(座標 (ibx, iby)で示されるブロック)が選択される。次に、ステップ S 2 340を実行する。
ステップ S 2340において、撮像信号を転送する。ここでは、ステップ S 2330におレヽ て選択されたブロックの第 2の撮像信号 12を第 1の演算バッファ 241 aに転送する。演 算バッファの座標 (x,y)における値を Bc l (x,y)とする。ここで、 HB=32、 VB=32であるた め、 x=0〜31、 y=0〜31である。ステップ S 2340において、さらに、選択されたブロック の第 3の撮像信号 13を第 2の演算バッファ 241 bに転送する。演算バッファの座標 (x,y )における値を Bc2(x,y)とする。ここで、 HB=32、 VB=32であるため、 x=31_SB〜31、 y=0 〜31+SBである。例えば、 ib = ibtのとき、第 1の演算バッファ 241 aには、座標 (H 1_ 1,0 )と座標 (H l_32, 31)とで囲まれる 1024画素の撮像信号 I Iが転送され、第 2の演算バッ ファ 241bには、図 32において右斜上となる斜線が描かれた座標 (H l- 10,0)と座標 (H l-32-SB,31+SB)とで囲まれる (1024+2*32*SB)画素の撮像信号 13が転送される。次に 、 ib = ibt + lのとき、第 1の演算バッファ 241 aには、座標 (H l-33,32)と座標 (H l_64, 6 3)とで囲まれる 1024画素の撮像信号 I Iが転送される。また、第 2の演算バッファ 241b では、図 32において右斜上となる斜線が描かれた座標 (H l-33,32)と座標 (H 1-64-SB ,63+SB)とで囲まれる (1024+2*32*SB)画素の撮像信号 13が必要だ力 ib = ibtと重な る部分(座標 (Hl-33,32)と座標 (Hl-32-SB,31+SB)で囲まれる 2*32*SB画素の領域) はすでに第 2の演算バッファ 241bに転送されているため、新たに座標 (Hl-33-SB,31 +SB)と座標 (H1_64_SB,63+SB)とで囲まれる 2048画素のみを第 2の演算バッファ 241b に転送する。これにより、転送時間を低減できる。次に、ステップ S2350を実行する。
[0174] ステップ S2350において、視差演算を実行する。まず、視差評価値 R(k)を演算する 。ここで、 kは画像をどれだけずらすかを示すずらし量であり、 k=0、 1、 2、 · · ·、 SBのよ うに変化させる。図 33は、本発明の実施の形態 2に係る撮像装置の第 2の撮像信号 と第 3の撮像信号を利用したときの視差演算における視差評価値の演算領域を説明 する図である。図 33のように、データ Belが格納されている領域は、第 1の演算バッフ ァ 241a中の領域である。データ Bc2が格納されている領域は、図 33において Belで 示されるブロックから X方向に負の向きでずらし量 kだけ、 y方向に正の向きでずらし 量 kだけ移動した第 2の演算バッファ 241b中の領域である。そして、ずらし量 k=0から SBについて、下記式 15に示される絶対値差分総和 (SAD。 Sum of Absolute Differenc es)を演算し、視差評価値 R(k)とする。
[0175] R(k) =∑∑ |Bcl(x,y)-Bc2(x-k,y+k)| … 式 15
この視差評価値 R(k)は、第 1の演算バッファ 241aのデータ Belと、 x方向に負の向き で kだけ、 y方向に正の向きで kだけ離れた領域における第 2の演算バッファ 241bの データ Bc2とがどれだけ相関があるかを示し、値が小さいほど相関が大きい(よく似て いる)ことを示す。ここで、第 1の演算バッファ 241aのデータ Belは、第 2の撮像信号 12 を転送したものであり、第 2の演算バッファ 241bのデータ Bc2は、第 3の撮像信号 13を 転送したものであるため、視差評価値 R(k)は、第 2の撮像信号 12と対応する第 3の撮 像信号 13とがどれだけ相関があるかを示す。
[0176] 図 17のように、視差評価値 R(k)はずらし量 kの値によって変化し、ずらし量 k= Δの とき極小値を持つ。第 1の演算バッファ 241aのデータ Belは、第 1の演算バッファ 24 laのデータ Belを X方向に負の向きに kだけ、 y方向に正の向きに kだけ移動した領域 に存在する第 2の演算バッファ 241bのデータ Bc2と最も相関がある(最も似ている)こ とを示す。したがって、第 1の演算バッファ 241aのデータ Belと第 2の演算バッファ 24 lbのデータ Bc2との視差が Δであることが分かる。ここで、この Δをこのブロックでの 視差値 Δと呼ぶ。
[0177] 次に、視差値 Δの信頼度を演算する。図 34は、本発明の実施の形態 2に係る撮像 装置の第 2の撮像信号と第 3の撮像信号を利用したときの視差演算における視差評 価値の信頼度の演算領域を説明する図である。データ Belが格納されている領域は 、第 1の演算バッファ 241a中の領域である。データ Bc2が格納されている領域は、デ ータ Belを X方向に負の向きに Δだけ、 y方向に正の向きに Δだけ移動した第 2の演 算バッファ 241b中の領域である。そして、下記式 16のように、それぞれの領域のデ ータ Bcl(x,y)、 Bc2(x- A,y+ A )について、正規化相関係数を信頼度 Eとする。
[0178] E(2,3)(ibx,iby) =∑∑ [{Bcl(x,y)-avg(Bcl(x,y))}
*{Bc2(x- Δ ,y+ Δ )-avg(Bc2(x- Δ ,y+ Δ ))}]
/ ∑[{Bcl(x,y)-avg(Bcl(x,y))}
*{Bcl(x,y)-avg(Bcl(x,y))}
/ ∑∑ [{Bc2(x- Δ ,y+ Δ )— avg(Bc2(x— Δ,y+ Δ》}
*{Bc2(x- Δ ,y+ Δ )-avg(Bc2(x- Δ ,y+ Δ ))}] … 式 16 そして、この視差値 Δの信頼度 Eを、第 2の撮像信号と第 3の撮像信号とを利用した 視差演算において、座標 (ibx,iby)で示される 32x32画素のブロックにおける視差値 Δ (2,3)Gbx,iby)とその信頼度 E(2,3)Gbx,iby)として保存する。(2,3)は、第 2の撮像信号 と第 3の撮像信号とを利用した視差値、および信頼度であることを示す。(ibx,iby)は、 ブロックインデックス ¾で示されるブロックを示し、図 31において各ブロックの下段に 示される座標である。次に、ステップ S2360を実行する。
[0179] ステップ S2360におレヽて、ブロックインデックス ibに 1を加える。次に、ステップ S23 70を実行する。
[0180] ステップ S2370において、第 2の撮像信号と第 3の撮像信号とを利用した視差演算 を終了するかどうかを判断する。ブロックインデックス ibが Nh*Nv未満のとき、次のブロ ックの視差を演算するために、次に、ステップ S2330を実行する。一方、ブロックイン デッタス ibが Nh*Nv以上のとき、全てのブロックの視差を演算したと判断し、次に、ス テツプ S2380を実行する。 [0181] ステップ S2380において、第 2の撮像信号と第 3の撮像信号とを利用した視差演算 を終了し、上位ルーチンへ戻る。このようにして、第 2の撮像信号と第 3の撮像信号と を利用した視差演算において、ブロックインデックス ibで示される 32x32画素のブロ ックについて、 32 32画素の分解能で視差値 (2 3)(¾ )とその信頼度6(2 3)(¾ iby)とが求められた。ここで、(2 3)は第 2の撮像信号と第 3の撮像信号とを利用してい ることを示し、(ibx iby)は図 31において各ブロックの下段に示される座標である(ibx は 0力 Nh— 1まで、 ibyは Nv— 1まで変化する)。次に、図 29のステップ S2240aを 実行する。
[0182] ステップ S2240aにおいて、第 1の撮像信号と第 4の撮像信号とを利用した視差演 算を実行する。図 35は、本発明の実施の形態 2に係る撮像装置の第 1の撮像信号と 第 4の撮像信号とを利用した視差演算の動作を示すフローチャートである。図 35のフ ローチャートは、ステップ S2240aの動作の詳細を示す。ステップ S2240aの演算で は、まず、ステップ S2410を実行する。
[0183] ステップ S2410において、第 1の撮像信号と第 4の撮像信号とを利用した視差演算 の動作を開始する。次に、ステップ S2420を実行する。
[0184] ステップ S2420において、ブロックインデックス ibに 0に初期化する。次に、ステップ S2430を実行する。
[0185] ステップ S2430において、ブロックを選択する。第 1の撮像信号のブロック分割は、 ステップ S2330の第 2の撮像信号のブロック分割と同様であり、説明を省略する。た だし、ブロックインデックス ibは後述の図 36と同様となるように変更される。図 36は、本 発明の実施の形態 2に係る撮像装置の第 1の撮像信号と第 4の撮像信号とを利用し た視差演算における第 4の撮像信号の分割ブロックと演算順番を説明する図である。 図 31の第 2の撮像信号 12と同様に、第 1の撮像信号 IIは、 X方向に HB画素、 y方向 に VB画素の長方形状のブロックに分割され、 X方向に HB画素、 y方向に VB画素ず れて配置され、 X方向に Nh個、 y方向に Nv個のブロックを持つ。そのため、各ブロッ クは X方向、 y方向ともに重なる部分はなレ、。図 36おいて、第 4の撮像信号 14は、図 3 6 (b)のような (HB+SB)*(VB+SB)-SB*SB画素のブロックに分割され、 x方向に HB画素 y方向に VB画素ずれて配置され、 X方向に Nh個、 y方向に Nv個のブロックを持つ 。また、図 36において、図 36 (b)のようなブロックを取れないブロック(例えば、右上 や右下や左下のブロック)は、適宜取れない部分が削除される(例えば、右上のプロ ックは HB * VBの長方形状のブロックとなる)。なお、実施の形態 2では、以下、 HB = 32、 8 = 32の伊!1を示す。
[0186] 図 36において、各ブロックの上段に記述された数字はブロックインデックス ibを示 す。また、図 36おいて、各ブロックの下段に記述された座標(ibx、 iby)は、各ブロック 力 方向に ibx番目、 y方向に iby番目のブロックであることを示す。ここで、 ibxは 0力、 ら Nh— 1まで、 ibyは 0力、ら Vh— 1まで存在する。ステップ S2320におレ、て、図 36に おいて、ブロックインデックス ibで示されるブロック(座標(ibx、 iby)で示されるブロック )が選択される。次に、ステップ S2440を実行する。
[0187] ステップ S2440、撮像信号を転送する。ここでは、ステップ S2430において選択さ れたブロックの第 1の撮像信号 IIを第 1の演算バッファ 241aに転送する。第 1の演算 バッファ 241aの座標 (x,y)における値を Bcl(x,y)とする。ここで、 HB=32、 VB=32である ため、 x=0〜31、 y=0〜31である。ステップ S2430において、選択されたブロックの第 4 の撮像信号 14を第 2の演算バッファ 241bに転送する。第 2の演算バッファ 241bの座 標 (x,y)における値を Bc2(x,y)とする。ここで、 HB=32、 VB=32であるため、 x=0〜31+SB 、 y=0〜31+SBである。例えば、 ib=ibtのとき、第 1の演算バッファ 241aには、座標 (0, 0)と座標 (31, 31)とで囲まれる 1024画素の撮像信号 IIが転送され、第 2の演算バッファ 241bには、図 36において右斜下となる斜線が描かれた座標 (0,0)と座標 (31+SB, 31+ SB)とで囲まれる (1024+2*32*SB)画素の撮像信号 14が転送される。次に、 ib = ibt+ l のとき、第 1の演算バッファ 241aには、座標 (32,32)と座標 (63,63)とで囲まれる 1024画 素の撮像信号 IIが転送される。また、第 2の演算バッファ 241bでは、図 36において 右斜下となる斜線が描かれた座標 (32,32)と座標 (63+SB,63+SB)とで囲まれる (1024+2 *32*SB)画素の撮像信号 14が必要だ力 ib = ibtと重なる部分 (座標 (32,32)と座標 (31 +SB,31+SB)で囲まれる 2*32*SB画素の領域)はすでに第 2の演算バッファ 241bに転 送されているため、新たに座標 (32+SB,32+SB)と座標 (63+SB,63+SB)とで囲まれる 204 8画素のみを第 2の演算バッファ 241bに転送すればよレ、。次に、ステップ S2450を 実行する。 [0188] ステップ S2450において、視差演算を実行する。まず、視差評価値 R(k)を演算する 。ここで、 kは画像をどれだけずらすかを示すずらし量であり、 k=0、 1、 2、 · · ·、 SBのよ うに変化させる。図 37は、本発明の実施の形態 2に係る撮像装置の第 1の撮像信号 と第 4の撮像信号を利用したときの視差演算における視差評価値の演算領域を説明 する図である。図 37のように、データ Belが格納されている領域は、第 1の演算バッフ ァ 241a中の領域である。データ Bc2が格納されている領域は、図 37において Belで 示されるブロックから X方向に正の向きでずらし量 kだけ、 y方向に正の向きでずらし 量 kだけ移動した第 2の演算バッファ 241b中の領域である。そして、ずらし量 k=0から SBについて、下記式 17に示される絶対値差分総和 (SAD。 Sum of Absolute Diiferenc es)を演算し、視差評価値 R(k)とする。
[0189] R(k) =∑∑ |Bcl(x,y)-Bc2(x+k,y+k)| … 式 17
この視差評価値 R(k)は、第 1の演算バッファ 241aのデータ Belと、 x方向に正の向き で kだけ、 y方向に正の向きで kだけ離れた領域における第 2の演算バッファ 241bの データ Bc2とがどれだけ相関があるかを示し、値が小さいほど相関が大きい(よく似て いる)ことを示す。ここで、第 1の演算バッファ 241aのデータ Belは、第 1の撮像信号 II を転送したものであり、第 2の演算バッファ 241bのデータ Bc2は、第 4の撮像信号 14を 転送したものであるため、視差評価値 R(k)は、第 1の撮像信号 IIと対応する第 4の撮 像信号 14とがどれだけ相関があるかを示す。
[0190] 図 17のように、視差評価値 R(k)はずらし量 kの値によって変化し、ずらし量 k= Δの とき極小値を持つ。第 1の演算バッファ 241aのデータ Belは、第 1の演算バッファ 24 l aのデータ Belを X方向に正の向きに kだけ、 y方向に正の向きに kだけ移動した領域 に存在する第 2の演算バッファ 241bのデータ Bc2と最も相関がある(最も似ている)こ とを示す。したがって、第 1の演算バッファ 241aのデータ Belと第 2の演算バッファ 24 lbのデータ Bc2との視差が Δであることが分かる。ここで、この Δをこのブロックでの 視差値 Δと呼ぶ。
[0191] 次に、視差値 Δの信頼度を演算する。図 38は、本発明の実施の形態 2に係る撮像 装置の第 1の撮像信号と第 4の撮像信号を利用したときの視差演算における視差評 価値の信頼度の演算領域を説明する図である。データ Belが格納されている領域は 、第 1の演算バッファ 241a中の領域である。データ Bc2が格納されている領域は、デ ータ Belを X方向に正の向きに Δだけ、 y方向に正の向きに Δだけ移動した第 2の演 算バッファ 241b中の領域である。そして、下記式 18のように、それぞれの領域のデ ータ Bcl(x y)、 Bc2(x+ A y+ A )について、正規化相関係数を信頼度 Eとする。
[0192] E(l,4)(ibx,iby) =∑∑ [{Bcl(x,y)-avg(Bcl(x,y))}
*{Bc2(x+ Δ ,y+ Δ )-avg(Bc2(x+ Δ ,y+ Δ ))}]
/ ∑[{Bcl(x,y)-avg(Bcl(x,y))}
*{Bcl(x,y)-avg(Bcl(x,y))}
/ ∑∑ [{Bc2(x+ Δ ,y+ Δ )-avg(Bc2(x+ Δ ,y+ Δ ))}
*{Bc2(x+ Δ ,y+ Δ )-avg(Bc2(x+ Δ ,y+ Δ ))}] … 式 18 そして、この視差値 Δの信頼度 Eを、第 1の撮像信号と第 4の撮像信号とを利用した 視差演算において、座標 Gbx iby)で示される 32x32画素のブロックにおける視差値 厶(1 4)(^, )とその信頼度8(1 4)(^, )として保存する。(1,4)は、第 1の撮像信号 と第 4の撮像信号とを利用した視差値、および信頼度であることを示す。(ibx iby)は、 ブロックインデックス ¾で示されるブロックを示し、図 31において各ブロックの下段に 示される座標である。次に、ステップ S2460を実行する。
[0193] ステップ S2460において、ブロックインデックス ibに 1を加える。次に、ステップ S24 70を実行する。
[0194] ステップ S2470において、第 1の撮像信号と第 4の撮像信号とを利用した視差演算 を終了するかどうかを判断する。ブロックインデックス ibが Nh*Nv未満のとき、次のプロ ックの視差を演算するために、次に、ステップ S2430を実行する。一方、ブロックイン デッタス ibが Nh*Nv以上のとき、全てのブロックの視差を演算したと判断し、次に、ス テツプ S2480を実行する。
[0195] ステップ S2480において、第 1の撮像信号と第 4の撮像信号とを利用した視差演算 を終了し、上位ルーチンへ戻る。このようにして、第 1の撮像信号と第 4の撮像信号と を利用した視差演算において、ブロックインデックス ibで示される 32x32画素のブロ ックについて、 32 32画素の分解能で視差値 (1 4)(¾ )とその信頼度6(1 4)(¾ iby)とが求められた。ここで、(1 4)は第 1の撮像信号と第 4の撮像信号とを利用してい ることを示し、(ibx,iby)は図 31において各ブロックの下段に示される座標である(ibx は 0から Nh— 1まで、 ibyは Nv— 1まで変化する)。次に、図 29のステップ S2250aを 実行する。
[0196] ステップ S2250aにおレ、て、視差を選択する。それぞれのブロックに対し、信頼度 E( 2,3)(ibx,iby)、および E(l,4)(ibx,iby)を比較し、最大の信頼度を与える視差をそのプロ ックでの視差値 A (ibx,iby)とする。また、そのときの信頼度を E(ibx,iby)とする。次に、 ステップ S2260を実行する。
[0197] ステップ S2230bにおいて、第 2の撮像信号と第 3の撮像信号とを利用した視差演 算を実行する。このステップは、ステップ S2230aと同様であり、説明を省略する。た だし、求められる視差、および信頼度を、それぞれのブロックでの視差値 A (ibx,iby)、 および信頼度 E(ibx,iby)とする。次に、ステップ S2260を実行する。
[0198] ステップ S2260において、視差演算を終了し、上位ルーチンへ戻る。このようにし て、各ブロックにおける視差値 Δ (ibx, iby)が求められた。ここで、(ibx,iby)は図 31の各 ブロックの下段に示される座標であり、 ibxは 0力ら Nh— 1まで、 ibyは Nv—lまで変 化する。本実施の形態では、フラッグ F〇 = l (第 1の動作モード)のとき、第 2の撮像 信号 12と第 3の撮像信号 13とによる視差 (近赤外光による視差)の信頼度と第 1の撮 像信号 IIと第 4の撮像信号 14とのよる視差 (緑色光による視差)の信頼度とを比較し、 信頼度が高い視差を採用した。一方、転送範囲フラッグ FO = 2 (第 2の動作モード) のとき、信頼度による選択を行わず、第 2の撮像信号 12と第 3の撮像信号 13とによる 視差 (近赤外光による視差)を採用した。次に、ステップ S2700を実行する。
[0199] ステップ S2700において、距離演算部 143は、距離演算を行い、その結果を、順 次、第 2の出力バッファ 137bに、距離データとして転送する。このステップ S2700の 動作は、実施の形態 1のステップ S1700と同様であり、説明を省略する。次に、ステツ プ S2800を実行する。
[0200] ステップ S2800において、転送範囲決定部 144は、転送範囲を決定し、転送範囲 フラッグを設定する。このステップ S2800の動作は、実施の形態 1のステップ S1800 と同様であり、説明を省略する。次に、ステップ S2900を実行する。
[0201] ステップ S2900において、演算動作を終了し、上位ルーチンへ戻る。次に、ステツ プ S2910を実行する。
[0202] 本実施の形態の撮像装置を以上のように構成し、動作させることにより、実施の形 態 1と同様の効果を有する。すなわち、本発明の実施の形態 2に係る撮像装置によ れば、転送範囲決定部 144が撮像信号から作成される信頼度 E(ibx,iby)に基づき、 信頼度 E(ibx,iby)が小さいとき、転送範囲フラッグ FO = l (第 1の動作モード)とし、信 頼度 E(ibx,iby)が大きいとき、転送範囲フラッグ FO = 2 (第 2の動作モード)とする。こ のことにより、信頼度 E(ibx,iby)が大きいとき、高速性を上げる余裕があると判断し、出 カフラッグ F〇 = 2 (第 2の動作モード)とすることにより、高速な視差演算、距離演算 を可能とする撮像装置を実現する。一方、信頼度 (ibx,iby)が小さいとき、精度がさらに 必要であると判断し、出力フラッグ F〇 = l (第 1の動作モード)とすることにより、高精 度な視差演算、距離演算を可能とする。
[0203] また、対角に配置されたレンズ部(第 2のレンズ部 113bと第 3のレンズ部 113c、お よび第 1のレンズ部 113aと第 4のレンズ部 114d)に対応する撮像信号 (第 2の撮像 信号 12と第 3の撮像信号 13、および第 1の撮像信号 IIと第 4の撮像信号)を利用し視 差演算することにより、水平方向に伸びた形状を有する被写体 (例えば、車両前方の 停止線)の視差を精度よく検知できる。
[0204] なお、実施の形態 2の撮像装置において、第 1の撮像信号 II、第 2の撮像信号 12、 第 3の撮像信号 13、および第 4の撮像信号の大きさは、それぞれ水平方向に HI画 素、垂直方向に VI画素であり、この領域の全てを用いて視差演算を行ったが、ある 程度余裕を持たせてもよい。すなわち、視差演算に利用する撮像信号を、水平方向 に HI画素、垂直方向に VI画素よりも小さくしてもよい。
[0205] また、実施の形態 2の撮像装置において、信頼度 E(ibx,iby)により転送範囲を変更 したが、本発明はこれに限定されなレ、。本発明の要諦は、転送範囲を変更することに より、速度と精度との関係が最適な視差演算、距離演算をすることにある。なお、上位 CPUの命令により、転送範囲を変更してもよい。例えば、上位 CPUが画像データを 用いて、転送範囲を変更してもよい。あるいは、ユーザが指定する被写体情報に基 づいて、転送範囲を上位 CPUが命令してもよい。
[0206] なお、実施の形態 1の場合と同様に、撮像信号に基づくことなぐ転送範囲が決定 されるようにしてもよレヽ。
[0207] また、実施の形態 2の撮像装置において、転送範囲フラッグの初期値を FO = l (転 送範囲が全領域)としたが、 F〇 = 2 (転送範囲が半分の領域)としてもよレ、。
[0208] また、実施の形態 2の撮像装置において、第 1の演算バッファの大きさを 32x32画 素(水平方向に 32画素、および垂直方向に 32画素)とした力 これに限定されない。 例えば、 4x4画素、 8x8画素、 16x16画素でもよい。また、適宜大きさを変更してもよ レ、。また、複数の大きさのブロックの視差を求め、選択してもよレ、。さらに、矩形状のブ ロックではなぐエッジなどを抽出してブロック分割してもよレ、。また、ブロックの視差を 求めることに限定されず、エッジである線分の視差を求めてもよい。
[0209] また、実施の形態 2の撮像装置において、第 2の撮像信号 12を第 1の出力バッファ 1 37aに転送し、入出力部 138から出力したが、他の撮像信号 (第 1の撮像信号 II、第 3の撮像信号 13、あるいは第 4の撮像信号 14)を出力してもよい。また、複数の撮像信 号を出力してもよい。さらに、撮像信号の条件により、入出力部 138から出力する撮 像信号を変更してもよい。例えば、それぞれの撮像信号を比較し、最も明るい撮像信 号 (撮像信号の大きさの平均が最も大きいなどにより判定されたもの)、あるいは最も 輪郭がはっきりしているもの (微分値の平均や最大値が最も大きいなどにより判定さ れたもの)などを出力するように変更してもよい。
[0210] また、実施の形態 2の撮像装置において、 CMOSセンサである撮像素子 223と SL SI225とを另 IJ体とした力 SLSI225を CMOSプロセスにより構成し、撮像素子 223と SLSI225とを同一半導体基板上に構成してもよい。このことにより、別体で構成する ときと比較し、基板 121上の配線などを省略できるため、低コスト化を実現できる。ま た、耐ノイズ性を向上できる。
[0211] なお、図 25 (a)において、第 1の撮像信号 IIに対応する領域 (IIで示された領域) 、第 2の撮像信号 12に対応する領域 (12で示された領域)、第 3の撮像信号 13に対応 する領域 (13で示された領域)、および第 4の撮像信号 14に対応する領域 (14で示さ れた領域)は、それぞれ撮像素子の中心に対して対称に描画されているが、対称で なくてもょレ、ことは言うまでもなレ、。レンズ 113の製造ばらつきやレンズモジュール 11 0の組み立て精度などにより、第 1のレンズ部 113aの光軸中心、第 2のレンズ部 113 bの光軸中心、第 3のレンズ部 113cの光軸中心、および第 4のレンズ部 113dの光軸 中心がそれぞれ対応する撮像信号の同一の画素に対応するように、組み立て後の 調整などにより、撮像信号 IIの原点 (x01,y01)、撮像信号 12の原点 (x02,y02)、撮像信 号 13の原点 (x03,y03)、および撮像信号 14の原点 (x04,y04)を設定し、 SLSI225内や 基板 121上にフラッシュメモリや EEPROMなどを実装し情報を保持し、適宜使用すれ ばよい。
また、実施の形態 2の撮像装置は、任意の位置(図 25のように、撮像信号 IIでは、 原点が (x01,y01))力 任意の大きさ(図 25のように、撮像信号 IIでは、水平方向の画 素が HI画素、垂直方向の画素が VI画素)の撮像信号を得ている。ここで、垂直方 向にのみ任意の位置を指定できるものであれば、以下のような変形を行う。図 39は、 本発明の実施の形態 2に係る撮像装置の変形の撮像信号の切り出し位置を説明す るための図である。図 39は、第 1の撮像素子 IIに対応する領域 (IIで示された領域) は、第 2の撮像素子 12に対応する領域よりも、垂直方向で負の方向にあり(すなわち 、第 1の撮像信号 IIの原点の y座標 yOlと第 2の撮像信号 12の原点の y座標 y02との間 に、 yOlく y02の関係があり)、第 3の撮像素子 13に対応する領域 (13で示された領域) は、第 4の撮像素子 14に対応する領域よりも、垂直方向で負の方向にある(すなわち 、第 3の撮像信号 13の原点の y座標 y03と第 4の撮像信号 14の原点の y座標 y04との間 に、 y03く y04の関係がある)場合を示す。 FO = 1 (第 1の動作モード)のとき、図 39 (a) のように、水平方向に H0画素、垂直方向に y座標が y=y01〜y02+Vl_lの Vl+y02_y0 1画素の領域 (右下がりの斜線部で示された領域)、および水平方向に HO画素、垂 直方向に y座標が y=y03〜y04+Vl-lの Vl+y04_y03画素の領域(右上がりの斜線部 で示された領域)を読み出し、適宜前処理を行い、第 1の撮像信号 II、第 2の撮像信 号 12、第 3の撮像信号 13、および第 4の撮像信号 14に対応する領域を使用する。 FO = 2 (第 2の動作モード)のとき、図 39 (b)のように、水平方向に H0画素、垂直方向に y座標が y=y02〜y02+Vl-lの VI画素の領域(右下がりの斜線部で示された領域)、お よび水平方向に H0画素、垂直方向に y座標力 Sy=y03〜y03+Vl_lの VI画素の領域( 右上がりの斜線部で示された領域)を読み出し、適宜前処理を行い、第 2の撮像信号 12、および第 3の撮像信号 13を使用する。 [0213] 転送範囲フラッグ F〇 = l (第 1の動作モード)のときに要する垂直方向の読み出し 画素数 Vl+y02_y01 (上部の右下がりの斜線部で示された領域の垂直方向の読み出 し画素数)、および Vl+y04_y03 (下部の右上がりの斜線部で示された領域の垂直方 向の読み出し画素数)を、転送範囲フラッグ F〇= 2 (第 2の動作モード)のときに要す る垂直方向の読み出し画素数 VI (上部の右下がりの斜線部で示された領域の垂直 方向の読み出し画素数)、および VI (下部の右上がりの斜線部で示された領域の垂 直方向の読み出し画素数)まで低減し、すなわち、 y02-y01+y04-y03画素だけ低減し 、その分だけ画像の転送に要する時間を短縮できる。このことにより、信頼度 E(ibx,iby )が大きいとき、高速性を上げる余裕があると判断し、出力フラッグ FO = 2 (第 2の動 作モード)とすることにより、高速な視差演算、距離演算を可能とする撮像装置を実現 する。一方、信頼度 E(ibx,iby)が小さいとき、精度がさらに必要であると判断し、出カフ ラッグ F〇 = l (第 1の動作モード)とすることにより、高精度な視差演算、距離演算を 可能とする。
[0214] なお、例えば転送範囲フラッグ FO = 3 (第 3の動作モード)として、第 1の撮像信号 I 1と第 4の撮像信号 14とを利用した視差演算のみを行う場合を付加してもよい。この場 合、 F〇 = 3のとき、図 39 (c)のように、水平方向に H0画素、垂直方向に y座標が y=y 01〜y01+Vl-lの VI画素の領域(右下がりの斜線部で示された領域)、および水平方 向に H0画素、垂直方向に y座標力 Sy=y04〜y04+Vl_lの VI画素の領域(右上がりの 斜線部で示された領域)を読み出し、適宜前処理を行い、第 1の撮像信号 II、および 第 4の撮像信号 14を使用する。読み出し位置を変更しなければ、 FO = 2と FO = 3と に対応するためには、図 39 (a)のようにそれぞれの垂直方向の幅(2 XVI)以上を読 み出さなければならないが、 F〇 = 2と F〇 = 3との切り替えのように、動作モードによ つて、読み出しを開始する垂直方向の位置を適宜変更し、垂直方向の読み出し画素 は変更しない(2 XVIに保つ)ことにより、画素転送に要する時間の増大を防止する また、図 39において、右下がりの斜線部で示された領域と右上がりの斜線部で占 められた領域の各行を交互に読み出してもよレ、。例えば、図 39 (a)において、 y=y01 、 y03、 y01+l、 y03+l、 y01+2、 y03+l、 · · ·、 yOl+Vト 1、 y03+Vl_lの順に読み出しても よレ、。ローリングシャツタ形式の CMOSセンサを使用する場合、右下がりの斜線部で 示された領域を読み出した後、右上がりの斜線部で占められた領域を読み出すと、 第 2の撮像信号 12の撮像された時刻と第 3の撮像信号が撮像された時刻とが異なる 。そのため、被写体の動作が速いとき、誤差絶対値総和の演算に利用する撮像信号 が異なるため、求められる視差の精度が低下する。ローリングシャツタ形式の CMOS センサを使用する場合、右下がりの斜線部で示された領域と右上がりの斜線部で占 められた領域の各行を交互に読み出すことにより、被写体の動作が速いときであって も、誤差絶対値総和の演算に利用する撮像信号が撮像信号の撮像時間がほぼ一致 するため、高精度に視差演算できる。
[0216] また、ローリングシャツタ形式の CMOSセンサを使用する場合、それぞれの撮像領 域を 1画素ずづ順に読み出せば、さらに撮像時間の影響を低減し、高精度な視差演 算を実現する。すなわち、 FO = l (第 1の動作モード)のとき、(x02,y02)、(x03,y03)、 ( x01,y01)、(x04,y04)、(x02+l,y02)、(x03+l,y03)、(x01+l,y01)、(x04+l,y04)、 (x02+2,y0
2)、(x03+2,y03)、(x01+2,y01)、(x04+2,y04)、 · · ·、(x02+Hl- l,y02)、(x03+Hl- l,y03)、 (xOl+Hl— l,y01)、(x04+Hl— l,y04)、(x02,y02+l)、(x03,y03+l)、(x01,y01+l)、 (x04,y04 +1)、(x02+l,y02+l)、(x03+l,y03+l)、(x01+l,y01+l)、(x04+l,y04+l)、 · · ·、 (x02,y02+V 1-1)、(x03,y03+Vl- 1)、 (x01,y01+Vl- 1)、 (x04,y04+Vl- 1)、(x02+l,y02+Vl- 1)、 (x03+ I,y03+Vl- 1)、 (x01+l,y01+Vl- 1)、 (x04+l,y04+Vl- 1)、 · · ·、(x02+Hl_l,y02+Vl- 1)、 ( x03+Hl-l,y03+Vl_l)、(x01+Hl-l,y01+Vl_l)、(x04 + Hl-l,y04+Vl_l)の順に転送し てもよい。なお、上述のように視差演算時に対応する組の撮像信号 (第 2の撮像信号 12と第 3の撮像信号、および第 1の撮像信号 IIと第 4の撮像信号 14)を順に読み出す ことにより、さらに撮像時間のずれの影響を低減できる。一方、 F〇 = 2 (第 2の動作モ ード)のとき、(x02,y02)、(x03,y03)、(x02+l,y02)、(x03+l,y03)、(x02+2,y02)、 (x03+2,y
03)、 · · ·、(x02+Hl-l,y02)、(x03+Hl_l,y03)、(x02,y02+l)、(x03,y03+l)、 (x02+l,y02+ 1)、(x03+l,y03+l)、 · · ·、(x02,y02+Vl_l)、(x03,y03+Vl— 1)、 (x02+l,y02+Vl— 1)、 (x03 + I,y03+Vl_l)、 · · ·、 (x02+m- I,y02+Vl- 1)、 (x03+Hl- I,y03+Vl_l)の順に転送して あよい。
[0217] このように、転送範囲に係る撮像領域が、生成する撮像信号の一部を撮像信号入 力部 233へ交互に転送することを繰り返すことによって、生成する撮像信号の全てを 撮像信号入力部 233へ転送するようにしてもよい。
[0218] (実施の形態 3)
本発明の実施の形態 1および実施の形態 2に係る撮像装置は、例えば視差演算の 高速性が必要な場合に 2組の撮像信号を転送せず 1組の撮像信号のみを転送する ことにより、転送に要する時間を低減し、高速に視差演算、距離演算している。これに 対し、実施の形態 3に係る撮像装置は、 1組の撮像信号のうち、視差演算する範囲を 限定し、その限定された部分のみを転送することにより、転送に要する時間を低減し 、高速に視差演算、距離演算を行う。
[0219] 以下、本発明の実施の形態 3に係る撮像装置について、図面を参照しながら説明 する。
[0220] 図 40は、本発明の実施の形態 3に係る撮像装置の構成を示す断面図である。図 4 0において、撮像装置は、レンズモジュール部 310、および回路部 320を有する。
[0221] レンズモジュール部 310は、鏡筒 311、上部カバーガラス 312、およびレンズ 313を 有する。回路部 320は、基板 321、パッケージ 322、撮像素子 323、パッケージカバ 一ガラス 324、およびシステム LSI (以下、 SLSIと記す) 325を有する。
[0222] 鏡筒 311、および上部カバーガラス 312は、それぞれ実施の形態 1の鏡筒 111、お よび上部カバーガラス 312と同様であり、説明を省略する。
[0223] 図 41は、本発明の実施の形態 3に係る撮像装置のレンズの構成を示す平面図で ある。レンズ 313は、略円盤状であり、ガラスや透明樹脂から形成され、第 1のレンズ 部 313a、および第 2のレンズ部 313bが配置される。第 1のレンズ部 313a、およびレ ンズ部 313bの配置方向に沿って、図 41に示すように X軸を設定し、 X軸に垂直に y 軸を設定する。第 1のレンズ部 313a、および第 2のレンズ部 313bにおいて、被写体 側から入射した光は、撮像素子 323側へ射出し、撮像素子 323上に 2つの像を結像 する。なお、図 41のように、第 1のレンズ部 313aの光軸と第 2のレンズ部 313bの光 軸とは、水平方向(X軸方向)は Dだけ離れており、垂直方向(y軸方向)は一致してい る。
[0224] 基板 321、およびパッケージ 322は、実施の形態 1の基板 121、およびパッケージ 1 22とそれぞれ同様であり、説明を省略する。
[0225] 撮像素子 323は、 CMOSセンサであり、撮像素子 323の受光面が第 1のレンズ部 3 13a、および第 2のレンズ部 313bの光軸と略垂直になるようにして配置される。撮像 素子 323の各端子は、パッケージ 322の内側の底部の金属端子にワイヤーボンディ ングにより金線 327で接続され、基板 321を介して、 SLSI325と電気的に接続される 。撮像素子 323受光面に、第 1のレンズ部 313a、および第 2のレンズ部 313bから射 出された光がそれぞれ結像し、その光の情報がフォトダイオードにより電気の情報へ 変換され、その電気の情報が SLSI325に転送される。
[0226] 図 42は、本発明の実施の形態 3に係る撮像装置の回路部の構成を示す平面図で ある。パッケージカバーガラス 324は、平板状であり、透明樹脂により形成され、パッ ケージ 322の上面に接着などにより固着される。また、パッケージカバーガラス 324の 上面、下面、あるいは両面には、反射防止膜が蒸着などにより配置される。
[0227] SLSI325は、後述の方法で、撮像素子 323を駆動し、撮像素子 323からの電気情 報を入力し、各種演算を行い、上位 CPUと通信を行い、外部に画像情報や距離情 報などを出力する。なお、 SLSI325は、電源(例えば 3· 3V)とグランド(例えば、 0V )に接続される。
[0228] 次に、本発明の実施の形態 3に係る撮像装置の動作を説明する。図 43は、本発明 の実施の形態 3に係る撮像装置の構成を示すブロック図である。 SLSI325は、シス テム制御部 331、撮像素子駆動部 332、撮像信号入力部 333、前処理部 334、入力 バッファ 335、演算部 336、出力バッファ 337、および入出力部 338を有する。入力 バッファ 335は、第 1の入力バッファ 335a、および第 2の入力バッファ 335bを有する 。演算部 336は、演算部バッファ 341、視差演算部 342、距離演算部 343、および転 送範囲決定部 344を有する。演算バッファ 341は、第 1の演算バッファ 341a、および 第 2の演算バッファ 341bを有する。出力バッファ 337は、第 1の出力バッファ 337a、 および第 2の出力バッファ 337bを有する。
[0229] システム制御部 331は、 CPU (中央演算処理装置: Central Processing Unit)、ロジ ック回路などから構成され、 SLSI325の全体を制御する。
[0230] 撮像素子駆動部 332は、ロジック回路などから構成され、撮像素子 323を駆動する 信号を発生し、この信号に応じた電圧を撮像素子 323に印加する。
[0231] 撮像信号入力部 333は、 CDS回路(相関二重サンプリング回路: Correlated Doubl e Sampling Circuit)、 AGC (自動利得制御器: Automatic Gain Controller)、 ADC ( アナログ Zディジタル変換器: Analog Digital Converter)が直列に接続されて構成さ れ、撮像素子 323からの電気信号が入力され、 CDS回路により固定ノイズを除去し、 AGCによりゲインを調整し、 ADCによりアナログ信号からディジタル値に変換する。
[0232] 前処理部 334は、ロジック回路などから構成され、強度補正処理を行い、順次、入 力バッファ 335に転送する。なお、レンズの光軸のずれなどを校正するために、適宜 、座標変換を行ってもよい。
[0233] 演算部 336は、 SRAM(Static Random Access Memory)カゝら構成された第 1の演算 バッファ 341a、第 2の演算バッファ 341bと、ロジック回路や CPUなど力、ら構成された 視差演算部 342と、ロジック回路や CPUなどから構成された距離演算部 343と、ロジ ック回路や CPUから構成された転送範囲決定部 344と、から構成される。演算部 336 は、第 1の撮像信号 II、および第 2の撮像信号 12をブロック単位で読み込み、それぞ れ第 1の演算バッファ 341a、第 2の演算バッファ 341bに保存し、視差演算部 342に おいて第 1の演算バッファ 341a、および第 2の演算バッファ 341bのデータなどに基 づき視差を演算し、距離演算部 343において求められた視差に基づき距離を演算し 、求められた距離データを出力バッファ 337に転送する。
[0234] 出力バッファ 337は、 DRAMなどから構成され、入力バッファ 335から転送された 画像データと演算部 336から転送された距離データとを保存し、入出力部 338に順 次転送する。
[0235] 入出力部 338は、上位 CPU (図示せず)との通信や、上位 CPU、外部メモリ(図示 せず)、および液晶ディスプレイなどの外部表示装置(図示せず)へ画像データ、およ び距離データを出力する。
[0236] 図 44は、本発明の実施の形態 3に係る撮像装置の動作を示すフローチャートであ る。 SLSI325のシステム制御部 331により、撮像装置 301は、このフローチャートのと おりに動作される。
[0237] ステップ S3010において、動作を開始する。例えば、上位 CPU (図示せず) 、入 出力部 336を介し、撮像装置 301に動作の開始を命令することにより、撮像装置 301 は、動作を開始する。次に、ステップ S3020を実行する。
[0238] ステップ S3020において、転送範囲の初期化を行う。本実施の形態では、撮像領 域の全領域で生成される撮像信号を転送範囲に設定する。そして、各ブロック (ibx,ib y)の転送範囲フラッグ FO(ibx,iby)=を全て 1とする。
[0239] 図 45は、本発明の実施の形態 3に係る撮像装置の撮像信号の切り出し位置を説 明するための図である。撮像素子 323の撮像領域の大きさは水平方向に H0画素、 垂直方向に V0画素である。第 1のレンズ部 313aによって結像された被写体像を撮 像する領域は、図 45において IIで示されるように、(x01,y01)を原点とする水平方向 に HI画素、垂直方向に VI画素であり、第 1の撮像信号 IIとして SLSI325に入力さ れる。また、第 2のレンズ部 313bによって結像された被写体像を撮像する領域は、図 45において 12で示されるように、(x02,y02)を原点とする水平方向に HI画素、垂直方 向に VI画素であり、第 2の撮像信号として SLSI325に入力される。第 1の撮像信号 I 1に対応する領域、および第 2の撮像信号 12に対応する領域は、それぞれ多数のブ ロックの領域に分割されている。
[0240] 図 46は、本発明の実施の形態 3に係る撮像装置の第 1の撮像信号と第 2の撮像信 号とを利用した視差演算における第 1の撮像信号の分割ブロックと演算順番と転送 範囲フラッグとを説明する図であり、図 47は、本発明の実施の形態 3に係る撮像装置 の第 1の撮像信号と第 2の撮像信号とを利用した視差演算における第 2の撮像信号 の分割ブロックと演算順番と転送範囲フラッグとを説明する図である。図 46において
、第 1の撮像信号 IIは、 X方向に HB画素、 y方向に VB画素の長方形状のブロックに 分割され、 X方向に HB画素、 y方向に VB画素ずれて配置され、 X方向に Nh個、 y方 向に Nv個のブロックを持つ。そのため、各ブロックは X方向、 y方向ともに重なる部分 はない。図 47において、第 2の撮像信号 12は、 X方向に(HB + SB)画素、 y方向に V B画素の長方形状のブロックに分割され、 X方向に HB画素、 y方向に VB画素ずれて 配置され、 X方向に Nh個、 y方向に Nv個のブロックを持つ。そのため、 X方向につい て、隣のブロックと重なる。一方、 y方向について、隣のブロックと重ならなレ、。また、図 47において、右側のブロックにおいて X方向に(HB + SB)画素を取れないブロック は、適宜 x方向の右端が削除される。なお、実施の形態 3では、以下、 HB = 32、 VB = 32の例を示す。
[0241] 図 46、および図 47において、各ブロックの上段に記述された数字はブロックインデ ックス ibを示す。また、図 46、および図 47において、各ブロックの中段に記述された 座標(ibx、 iby)は、各ブロック力 Sx方向に ibx番目、 y方向に iby番目のブロックである ことを示す。ここで、 ibxは 0から Nh— 1まで、 ibyは 0力、ら Vh— 1まで存在する。また、 図 46、および図 47において、各ブロックの下段には転送範囲フラッグ FO(ibx,iby)が 示され、転送範囲フラッグ FO(ibx,iby)=lであれば動作を意味し、該当するブロックの 撮像信号を転送し視差演算する。一方、転送範囲フラッグ FO(ibx,iby)=0であれば停 止を意味し、該当するブロックの撮像信号を転送せず視差演算しない。
[0242] ステップ S3020におレ、て、各ブロック (ibx,iby)の転送範囲フラッグ FO(ibx,iby)=を全 て 1とし、転送範囲を撮像領域の全領域で生成される撮像信号として初期化する。次 に、ステップ S3030を実行する。
[0243] ステップ S3030において、撮像信号を入力する。システム制御部 331の命令により 、撮像素子駆動部 332が電子シャッターや転送を行うための信号を随時出力する。 転送範囲フラッグ FO(ibx,iby)=lのブロック(動作のブロック)の撮像領域の撮像信号 を順に入力し、順次、前処理部 334に転送する。前処理部 334は、第 1の撮像信号 I 1、および第 2の撮像信号 12の強度補正処理を行い、順次入力バッファ 335に転送す る。第 1の撮像信号 IIを、順次、第 1の入力バッファ 335aに転送し、第 2の撮像信号 I 2を、順次、第 2の入力バッファ 335bに転送する。第 1の撮像信号 II、および第 2の撮 像信号 12は、それぞれ第 1のレンズ部 313a、および第 2のレンズ部 313bによって結 像された被写体像によって得られたものである。下記式 19のように、第 1の撮像信号 I 1を第 1の強度補正係数 kslで補正し、および下記式 20のように、第 2の撮像信号 12を 第 2の強度補正係数 ks2で補正する。
[0244] Il(x,y) = ksl(x,y) * Il(x,y) … 式 19
I2(x,y) = ks2(x,y) * I2(x,y) … 式 20
なお、第 1の強度補正係数 ksl(x,y)、および第 2の強度補正係数 ks2(x,y)は、第 1の撮 像信号 II、および第 2の撮像信号 12の座標 (x,y)における強度補正係数を示し、検査 工程などにおいて特定チャートを撮影し決定され、 EEPROMやフラッシュメモリに保 存される。なお、各画素の係数を持たずに、代表点のみを持ち、その代表点を用い て線形補間により第 1の強度補正係数 ksl(x,y)、および第 2の強度補正係数 ks2(x,y) を求めてもよレ、。また、近似式を策定しその係数のみを持ち、各座標の第 1の強度補 正係数 ksl(x,y)、および第 2の強度補正係数 ks2(x,y)を作成してもよレ、。また、レンズ の光軸のずれなどを校正するために、適宜、座標変換を行ってもよい。次に、ステツ プ S3040を実行する。
[0245] ステップ S3040において、第 1の入力バッファ 335aに保存されている第 1の撮像信 号 IIを第 1の出力バッファ 337aに転送し、第 1の出力バッファ 337aは、画像データと して保存する。なお、転送範囲フラッグ FO(ibx,iby)=lのブロック(動作のブロック)おい て撮像信号 IIをそのまま転送し、転送範囲フラッグ FO(ibx,iby)=0のブロック (停止の ブロック)おいて転送すべき撮像信号 IIがないため該当する画像データを全て黒とす るなどの処理を行う。次に、ステップ S3100を実行する。
[0246] ステップ S3100において、距離データを作成し、順次、第 2の出力バッファ 337bに 転送する。また、転送範囲を決定し、転送範囲フラッグ FO(ibx,iby)を設定する。この 動作の詳細は後述する。次に、ステップ S3910を実行する。
[0247] ステップ S3910において、外部にデータを出力する。入出力部 338は、第 1の出力 バッファ 337a上の画像データ、および第 2の出力バッファ 337b上の距離データを、 上位 CPU (図示せず)や外部表示装置(図示せず)に出力する。なお、適宜転送範 囲フラッグ FO(ibx,iby)を出力してもよレ、。次に、 S3920を実行する。
[0248] ステップ S3920におレ、て、動作を終了するかどうかを判断する。例えば、システム 制御部 331は、入出力部 336を介し、上位 CPU (図示せず)と通信し、動作を終了す るかどうかの命令を要求する。そして、上位 CPUが終了を命令すれば動作を終了し 、次に、ステップ S3930を実行する。一方、上位 CPUが終了を命令しなければ動作 を継続し、次に、ステップ S3030を実行する。すなわち、上位 CPUが終了を命令し なレ、限り、ステップ S3030、ステップ S3040、ステップ S3100、およびステップ S391 0のループの実行を継続する。
[0249] ステップ S3930におレ、て、動作を終了する。 [0250] 次に、ステップ S3100における動作の詳細を説明する。図 48は、本発明の実施の 形態 3に係る撮像装置の演算部の動作を示すフローチャートである。図 48のフロー チャートは、ステップ S3100の動作の詳細を示す。ステップ S3100の演算では、まず 、ステップ S3110を実行する。
[0251] ステップ S3110において、演算の動作を開始する。次に、ステップ S3200を実行 する。
[0252] ステップ S3200において、視差演算を実行する。図 49は、本発明の実施の形態 3 に係る撮像装置の視差演算の動作を示すフローチャートである。図 49のフローチヤ ートは、ステップ S3200の動作の詳細を示す。ステップ S3200では、第 1の撮像信号 と第 2の撮像信号とを利用した視差演算を行う。ステップ S3200の演算では、まず、 ステップ S3310を実行する。
[0253] ステップ S3310において、視差演算の動作を開始する。次に、ステップ S3320を 実行する。
[0254] ステップ S3320におレヽて、ブロックインデックス ibに 0に初期化する。次に、ステップ S3330を実行する。
[0255] ステップ S3330におレ、て、ブロックを選択する。図 46、および図 47において、ブロ ックインデックス ibで示されるブロック (座標(ibx、 iby)で示されるブロック)が選択され る。次に、ステップ S3335を実行する。
[0256] ステップ S3335において、転送範囲であるかどうかを判断し、分岐する。ブロックィ ンデッタス ibで示されるブロック(座標(ibx, iby)で示されるブロック)におレ、て転送範 囲フラッグ FO(ibx,iby)=l (動作のブロック)のとき、次に、ステップ S3340を実行する。 一方、ブロックインデックス ibで示されるブロック(座標(ibx, iby)で示されるブロック) において転送範囲フラッグ FO(ibx,iby)=0 (停止のブロック)のとき、次に、ステップ S33 60を実行する。このように、転送範囲フラッグ FO(ibx,iby)=l (動作のブロック)のブロッ クにおいて、後述のステップ S3340において撮像信号を転送し、後述のステップ S3 350において視差演算を行い、後述のステップ S3360を実行する。一方、転送範囲 フラッグ FO(ibx,iby)=0 (停止のブロック)のブロックにおレ、て、撮像信号を転送と視差 演算とを行わず、後述のステップ S3360を実行する。 [0257] ステップ S3340において、撮像信号を転送する。このステップ S3340の動作は、実 施の形態 1のステップ S1340の動作と同様であり、説明を省略する。ただし、第 2の 撮像信号について、転送を省略できる部分は、ブロックの重なりがあり、かつそのプロ ックにおレ、て転送範囲フラッグ F〇(ibx,iby)=l (動作のブロック)であった部分(すなわ ち、転送された部分)のみである。次に、ステップ S3350を実行する。
[0258] ステップ S3350におレ、て、視差演算を実行する。このステップ S3350の動作は、実 施の形態 1のステップ S1350の動作と同様であり、説明を省略する。ただし、信頼度 の演算を行う必要はなぐ実施の形態 1で A (l,2)(ibx,iby)で示される視差を、ブロック インデックス ibで示されるブロック(座標 (ibx,iby)で示されるブロック)の視差値 Δ (ibx,i by)とする。次に、ステップ S3360を実行する。
[0259] ステップ S3360におレヽて、ブロックインデックス ibに 1を加える。次に、ステップ S33 70を実行する。
[0260] ステップ S3370において、視差演算を終了するかどうかを判断する。ブロックインデ ックス ibが Nh*Nv未満のとき、次のブロックの視差を演算するために、次に、ステップ S 3330を実行する。一方、ブロックインデックス ibが Nh*Nv以上のとき、全てのブロック の視差を演算したと判断し、次に、ステップ S3380を実行する。
[0261] ステップ S3380におレ、て、視差演算を終了し、上位ルーチンへ戻る。このようにし て、ブロックインデックス ibで示される 32x32画素のブロックについて、 32x32画素の 分解能で視差値 A (ibx,iby)が求められた。ここで、(ibx,iby)は図 46において各ブロッ クの中段に示される座標である(ibxは 0から Nh— 1まで、 ibyは Nv— 1まで変化する )。次に、図 48のステップ S3700を実行する。
[0262] ステップ S3700において、距離演算部 343は、距離演算を行い、その結果を、順 次、第 2の出力バッファ 337bに、距離データとして転送する。このステップ S3700の 動作は、実施の形態 1のステップ S1700の動作を同様であり、説明を省略する。ただ し、距離演算は、転送範囲フラッグ FO(ibx,iby)=l (動作のブロック)についてのみ行う 。なお、転送範囲フラッグ FO(ibx,iby)=0 (停止のブロック)に負数を代入すれば、上位 CPUに転送範囲フラッグ FO(ibx,iby)の情報転送をしなくても、上位 CPUは転送された 距離データ A(ibx,iby)のうち負数が代入されたブロックについては、視差演算、距離 演算がなされなかったブロックであると判断できるため、通信の負荷を低減できる。次 に、ステップ S3800を実行する。
[0263] ステップ S3800において、転送範囲決定部 344は、転送範囲を決定し、各ブロック (ibx,iby)の転送範囲フラッグ FO(ibx,iby)を設定する。図 50は、本発明の実施の形態 3 に係る撮像装置の転送範囲を説明する図である。なお、図 50において、簡単のため 、ブロック数が小さいものを示している力 ブロック数がこの図に限定されるものでは なレ、。転送範囲決定部 344は、第 1の撮像信号 II力 構成される画像の各ブロックの うち、人物の顔面を含むブロックを FO(ibx,iby)=l (動作のブロック)とし、人物の顔面を 含まないブロックを F〇(ibx,iby)=0 (停止のブロック)とする。図 50において、図 50 (a) の座標 (0,0)や座標 (1,0)で示されるブロックのような白抜きのブロックは転送範囲フラ ッグ FO(ibx,iby)=l (動作のブロック)を示し、例えば、図 50 (b) (c) (d)の座標 (0,0)や 座標 (1,0)で示されるブロックのような斜線ハッチが掛けられたブロックは転送範囲フラ ッグ FO(ibx,iby)=0 (停止のブロック)を示す。
[0264] 例えば、カメラモジュールである撮像装置 301が起動されて最初に撮像される撮像 信号 IIは、ステップ 3020において、全てのブロックの転送範囲フラッグ FO(ibx,iby)=l となるように初期化されるため、図 50 (a)のように、第 1のレンズ部 313aに対応する撮 像領域の全ての範囲が転送されている。転送範囲決定部 344は、人物の顔面の部 分を判断し、図 50 (b)のように、顔面を含むブロックは転送範囲フラッグ FO(ibx,iby)= 1 (白抜きのブロック)に保ち、顔面を含まないブロックは転送範囲フラッグ FO(ibx,iby) =0 (斜線ハッチが掛けられたブロック)となるように、図 50 (a)のような転送範囲ブラッ グ FO(ibx,iby)を変更する。
[0265] なお、人物の顔面を検知する方法としては公知のものを利用することができる。例 えば、人物の前面に本実施の形態の撮像装置を配置する場合では、卵型のエッジ( 顔面の輪郭に相当するエッジ)を有し、その内部に 2つの黒点(目に相当する 2つの 点)を有する画像内の領域を人物の顔面として検知すればょレ、。
[0266] また、図 50 (b)のような転送範囲フラッグ FO(ibx,iby)の分布を持つときに、人物の顔 面が移動すると、図 50 (c)のように顔面の一部が転送範囲 FO(ibx,iby)=0 (停止のブロ ック)に移動する。その場合、図 50 (b)では顔面が含まれたため F〇(ibx,iby)=l (白抜 きのブロック。動作のブロック)であった力 図 50 (c)では顔面が含まれなくなったブロ ックを、図 50 (d)の 3800Aのように、転送範囲フラッグ FO(ibx,iby)=0 (斜線ハッチが 掛けられたブロック)に変更する。さらに、図 50 (b)では顔面が含まれなかったため F O(ibx,iby)=0 (斜線ハッチが掛けられたブロック。停止のブロック)であったが、図 50 (c )では顔面が含まれるようになったブロックを、図 50 (d)の 3800Bのように、転送範囲 フラッグ FO(ibx,iby)= 1 (白抜きのブロック。動作のブロック)に変更する。次に、ステツ プ S3900を実行する。
[0267] ステップ S3900において、演算動作を終了し、上位ルーチンへ戻る。次に、ステツ プ S3910を実行する。
[0268] 本実施の形態の撮像装置を以上のように構成し、動作させることにより、以下の効 果を有する。
[0269] 転送範囲を常に撮像領域の全領域で生成される撮像信号とする場合、常に全ての 画素を転送する分だけ転送時間が必要であり、その転送時間の分だけ高速化に限 界があった。本発明の実施の形態 3に係る撮像装置によれば、図 50 (b) (d)のように 、人物の顔面を含むブロックの転送範囲フラッグ FO(ibx,iby)=lとし、人物の顔面を含 むブロックのみの撮像信号を転送する。車載用の乗員監視に利用した場合、注視す べき被写体は人物の顔であり、顔の距離測定が必要である。そこで、顔部分の領域 のみに転送を限定することにより、全画素を転送する場合と比較し転送量を低減し、 高速な視差演算、距離演算を可能にする撮像装置を実現する。例えば、図 50 (b) (d )では、全てのブロックが 48個に対し、撮像信号を転送するブロックを 14個に低減で きる。
[0270] なお、実施の形態 3の撮像装置においては、上述したように、撮像領域の一部の領 域で生成される撮像信号 (全ブロック中の特定のブロックに係る撮像信号)を転送範 囲に設定している。そして、その転送範囲は適宜変更されることになる。換言すると、 複数の動作モードが適宜切り替えられることになる。
[0271] また、実施の形態 3の撮像装置においては、初期状態として全ての画像領域を転 送範囲に設定している力 あらかじめ中心付近の画像領域のみを転送範囲としても よい。適切な位置に撮像装置を取り付ければ、人物の顔面は画像の中心にあること がほとんどであるため、初期状態として中心付近のみを転送し、適宜、転送範囲を変 更すればよい。このことにより、転送領域は常に撮像領域の一部の領域で生成される 撮像信号とすることができるため、常に転送時間を短縮でき、高速に視差演算、距離 演算できる。
[0272] また、実施の形態 3の撮像装置において、第 3の演算バッファの大きさを 32x32画 素(水平方向に 32画素、および垂直方向に 32画素)とした力 これに限定されない。 例えば、 4x4画素、 8x8画素、 16x16画素でもよい。また、適宜大きさを変更してもよ レ、。また、複数の大きさのブロックの視差を求め、選択してもよレ、。さらに、矩形状のブ ロックではなぐエッジなどを抽出してブロック分割してもよレ、。また、ブロックの視差を 求めることに限定されず、エッジである線分の視差を求めてもよい。
[0273] また、実施の形態 3の撮像装置において、第 1の撮像信号 IIを第 1の出力バッファ 3 37aに転送し、入出力部 338から出力した力 第 2の撮像信号 12を出力してもよい。 また、複数の撮像信号を出力してもよい。
[0274] また、実施の形態 3の撮像装置において、人物の顔面を含むブロックのみを転送し た力 さらに限定し、例えば顔面のうち目を含むブロックのみを転送する等してもよい
[0275] また、実施の形態 3の撮像装置において、人物の顔面を含むブロックのみを転送し たが、例えば撮像信号のうち路面に相当する領域以外の領域に係る撮像信号のみ を転送する等してもよい。図 51は、本発明の実施の形態 3に係る撮像装置の変形の 転送範囲を説明する図である。例えば、カメラモジュールである撮像装置 301が起動 され、ステップ S3020において全てのブロックの転送範囲フラッグ FO(ibx,iby)=lとな るように初期化されるため、初期に撮像される撮像信号 IIは、図 51 (a)のように、第 1 のレンズ部 313aに対応する撮像領域の全ての領域で生成される撮像信号が転送さ れる。転送範囲決定部 344は、路面ではない部分を判断し、図 51 (b)のように、路面 ではない被写体 (前方の自動車、人物、および自車)を含むブロックは転送範囲フラ ッグ FO(ibx,iby)=l (白抜きのブロック。動作のブロック)に保ち、路面であるブロックは 出力範囲フラッグ FO(ibx,iby)=0 (斜線ハッチが掛けられたブロック。停止のブロック) に変更する。 [0276] なお、路面に相当する領域を検知する方法としては公知のものを利用することがで きる。例えば、次のようにその検知を行うことができる。 自動車の前面に本発明の撮像 装置を配置し、レンズの光軸が路面と平行になるように調整し、前方の距離を測定す る場合、被写体距離 A1は、下記式 21のように示される。式 21において、 Θはレンズ の光軸と路面との角度、 Zは撮像装置が配置された路面からの高さを示す。そして、 各ブロックにおける視差値 Δ (ibx,iby)から演算された距離 A(ibx,iby)が式 21で演算さ れた距離 A1と略一致する場合、そのブロックに撮像された被写体は路面であると判 断する。
[0277] Al=Z/tan Θ … 式 21
転送範囲を常に撮像領域の全領域で生成される撮像信号とする場合、常に全ての 画素を転送する分だけ転送時間が必要であり、その転送時間の分だけ高速化に限 界があった。本発明の実施の形態 3に係る撮像装置の変形によれば、図 51 (b)のよ うに、路面ではない被写体を含むブロックの転送範囲フラッグ FO(ibx,iby)=lとし、路 面ではない被写体を含むブロックのみの撮像信号を転送する。このことにより、車載 用の前方監視に利用した場合、注視すべき被写体は路面以外の例えば、前方の車 、人物、およびその他の構造物であり、それらの距離測定が必要である。そこで、路 面以外の領域のみに転送を限定することにより、全画素を転送する場合と比較し転 送量を低減し、高速な視差演算、距離演算を可能にする撮像装置を実現する。例え ば、図 51 (b)では、全てのブロックが 72個に対し、撮像信号を転送するブロックを 15 個に低減できる。
[0278] また、実施の形態 3の撮像装置において、人物の顔面を含むブロックのみを転送し たが、撮像信号のうち動作がある被写体が含まれる領域のみを転送してもよい。図 5 2は、本発明の実施の形態 3に係る撮像装置の変形の転送範囲を説明する図である 。図 52 (a)および図 52 (b)は動画像の連続する 2つのフレーム画像である。図 52 (a) において、右から 2つ目力、ら 3つ目のブロックに位置する人物力 次のフレームでは 図 52 (b)のように右から 3つ目力、ら 4つ目のブロックに位置する。このような場合、図 5 2 (c)のように、次のフレームで転送すべきブロックとして、動きがある人物が位置する ブロック(右から 3つ目から 4つ目のブロック)と、同一の動きが継続し人物が移動する と推測されるブロック(右から 5つ目のブロック)とする。すなわち、図 52 (b)の次のフレ ームの転送範囲フラッグ FO(ibx,iby)を、動きがある人物が位置するブロック(右から 3 つ目力 4つ目のブロック)、および同一の動きが継続し人物が移動すると推測される ブロック(右から 5つ目のブロック)を転送範囲フラッグ FO(ibx,iby)=l (白抜きのブロック 。動作のブロック)とし、それ以外のブロックを転送範囲フラッグ FO(ibx,iby)=0 (斜線ハ ツチ力 S掛けられたブロック。停止のブロック)とする(図 52 (c)参照)。
[0279] ここで、第 1の撮像信号 IIにおける連続する 2つのフレーム画像の差分の絶対値の 総和 DtDiff (下記式 22)が大きいブロックを動作する被写体が含まれるブロックとすれ ばよい。
[0280] DtDiif =∑∑Il(x,y)(tO)-Il(x,y)(tO+dt) … 式 22
なお、 Il(x,y)(t0)は、時刻 t0、座標 (x,y)における第 1の撮像信号 IIを示し、 Il(x,y)(t0+d t)は、時亥 ljt0+dt、座標 (x,y)における第 1の撮像信号 IIを示す。
[0281] 転送範囲を常に撮像領域の全領域で生成される撮像信号とする場合、常に全ての 画素を転送する分だけ転送時間が必要であり、その転送時間の分だけ高速化に限 界があった。本発明の実施の形態 3に係る撮像装置の変形によれば、図 52 (c)のよ うに、動作する被写体(図 52では人物が示されている)を含むブロックの転送範囲フ ラッグ FO(ibx,iby)=lとする。車載用の前方監視に利用した場合、注視すべき被写体 は動作する被写体、例えば、前方の車、人物、動物などであり、それらの距離測定が 必要である。そこで、動作する被写体の領域のみに転送を限定することにより、全画 素を転送する場合と比較し転送量を低減し、高速な視差演算、距離演算を可能にす る撮像装置を実現する。例えば、図 52 (c)では、全てのブロックが 48個に対し、撮像 信号を転送するブロックを 12個に低減できる。
[0282] なお、被写体の動作の速さに基づき転送範囲を決定することが好ましい。被写体の 動作の速さに係らず転送範囲を常に被写体の像の周りの一定の領域とする場合、被 写体の動作が速くなると、被写体がこの領域に含まれず視差の精度が悪化する場合 がある。図 52 (c)のように、被写体の動作を予測し、次のフレームで動くであろうと予 測される領域も含め転送する。すなわち、被写体の動作の速さに基づいて転送範囲 決定部 344が転送範囲を決定する。このように、被写体の動作の速さに応じて転送 範囲の大きさが適切に決定されることにより、被写体が転送範囲に含まれるようになる ため、高精度な視差演算、距離演算を可能にする撮像装置を実現することができる。
[0283] ここで、被写体の動作の速さは、各フレーム間の画像を比較する等によって転送範 囲決定部 344により検出される。
[0284] なお、被写体の動作が速いときは転送範囲を大きくすることが好ましい。すなわち、 動作が速いときは、次のフレームで動くであろうと予測される範囲を大きくし、常に被 写体が転送領域に含まれるようにすることにより、高精度な視差演算、距離演算を可 能にする撮像装置を実現する。
[0285] また、転送範囲に含まれる画素数、すなわちブロック数を、複数のフレームにわたつ て略同一となるようにすることが好ましい。例えば、図 52 (c)に示すように、転送範囲 に含まれるブロックが 12個に設定された場合であれば、 12個という数が複数のフレ ームで保持されるように撮像装置が動作してもよい。
[0286] 被写体の動作の速さのみにより転送範囲を決定すると、動作が速い被写体が全領 域中に多く含まれる場合では、転送量が増大するという事態が生じ得る。そこで、動 作が速い被写体が全領域中に多く含まれる場合に、転送範囲に含まれる画素数を 一定とし、その画素数を複数のフレームにわたって保持するようにする。そのために、 例えば、被写体の動作が速いか否力を判定するための閾値を大きく設定して被写体 を絞り込む等の処理を行う。これにより、転送範囲に含まれる画素数が一定に保持さ れる。そのため、転送量の増大を防止することができ、高速な視差演算、距離演算を 可能にする撮像装置を実現することができる。
[0287] このように、複数のフレームにわたって転送範囲に含まれる画素数が一定に保たれ ることが好ましいが、必ずしも当該画素数が複数のフレームで同一でなくてもよぐ転 送速度等に応じてその数が多少増減しても構わない。
[0288] 以上、本発明のいくつかの実施形態を説明したが、これらはあくまでも例示であつ て、本発明の実施に際しては、以下のとおり、種々の変更が可能である。
[0289] 実施の形態 1から実施の形態 3の撮像装置は、転送範囲フラッグ FOを SLSI125、
225、および 325が決定した力 SLSI以外が決定してもよレ、。また、 SLSIの機能を 複数の LSIに分割し、基板上に実装してもよい。 [0290] また、実施の形態 1から実施の形態 3の撮像装置において、演算された視差をその まま利用したが、適宜リミットしてもよレ、。レンズ特性によっては被写体距離 Aがある値 よりも小さいとき、画像が不鮮明となることがある。そのため、この値を被写体距離 Aの 最小値と定めれば、視差の最大値を定められる。この値よりも大きい視差は、誤差で あるとして無視してもよい。また、このような場合、視差評価値が 2番目に小さい値を 視差として採用してもよい。また、視差評価値に目立つ極値が 2つあるときは、より大 きい方の視差を採用してもよい。このような場合、該当ブロッ外こは、被写体と背景が 含まれており、被写体距離と背景距離とが異なるため、極値が 2つ現れる。このうち障 害物検知に大きな影響を与える、より大きな視差を採用してもよい。
[0291] 第 1の実施の形態の撮像装置では、第 1のカラーフィルタ 124aと第 2のカラーフィ ルタ 124bとが主に赤外光を透過し、第 3のカラーフィルタ 124cと第 4のカラーフィノレ タ 124dとが主に緑色光を透過している。また、第 2の実施の形態の撮像装置では、 第 2のカラーフィルタ 224bと第 3のカラーフィルタ 224cとが主に赤外光を透過し、第 1のカラーフィルタ 224aと第 4のカラーフィルタ 224dとが主に緑色光を透過している 。し力 ながら、これは例示であって、本発明はこれに限定されなレ、。したがって、そ れぞれ異なる波長域を透過してもよい。例えば、赤色光、青色光、遠赤外光、近紫外 光などを透過してもよい。また、片側のカラーフィルタを省略してもよい。また、片方の 組がある特定のカラーフィルタが配置され、片方の組がべィャ配列のフィルタを撮像 素子上に配置してもよい。また、それぞれの組のカラーフィルタ特性は同一で、 F値 や焦点距離が異なっていてもよい。
[0292] 本発明の撮像装置の場合、視差演算を行う必要があるため、各動作モードにおい ては、 4つの撮像領域のうち少なくとも 2つの撮像領域で生成される撮像信号を転送 範囲としている。このように、少なくとも 2つの撮像領域で生成される撮像信号を転送 範囲とする必要はあるものの、それらの撮像領域は任意のものでよレ、。したがって、 実施の形態 1の撮像装置においては、撮像領域の全領域と上半分の領域 (第 1のレ ンズ部 113a、および第 2のレンズ部 113bに対応する領域)とを切り替えている力 全 領域と下半分の領域(第 3のレンズ部 113c、および第 4のレンズ部 113dに対応する 領域)とを切り替えてもよい。また、上半分の領域 (第 1のレンズ部 113a、および第 2 のレンズ部 113bに対応する領域)と下半分の領域(第 3のレンズ部 113c、および第 4のレンズ部 113dに対応する領域)とを切り替えてもよい。
[0293] また、実施の形態 2の撮像装置においては、撮像領域の全領域と対角右上がりの 領域(第 2のレンズ部 113b、および第 3のレンズ部 113cに対応する領域)とを切り替 えているが、全領域と対角右下がり(第 1のレンズ部 113a、および第 4のレンズ部 11 3dに対応する領域)とを切り替えてもよい。また、対角右上がりの領域 (第 2のレンズ 部 113b、および第 3のレンズ部 113cに対応する領域)と対角右下がり(第 1のレンズ 部 113a、および第 4のレンズ部 113dに対応する領域)とを切り替えてもよい。
[0294] また、実施の形態 1から実施の形態 3において、視差評価値 R(k)として式 6に示すよ うな差分絶対値総和(SAD)を用いたが、本発明はこれに限定されない。差分の二乗 値の総和、第 1の撮像信号 IIからブロック内の平均を差分したものと第 2の撮像信号 I 2からブロック内の平均を差分したものとの差分の二乗値の総和、第 1の撮像信号 II 力らブロック内の平均を差分したものと第 2の撮像信号 12からブロック内の平均を差分 したものとの差分の二乗値の総和、または、第 1の撮像信号 IIからブロック内の平均 を差分したものと第 2の撮像信号 12からブロック内の平均を差分したものとの差分の 二乗値の総和を第 1の撮像信号 IIからブロック内の平均を差分したものの二乗値の 総和の平方根で除し第 2の撮像信号 12からブロック内の平均を差分したものの二乗 値の総和の平方根で除したものなどを視差評価値 R(k)として利用してもよい。
[0295] なお、実施の形態 1から実施の形態 3において、ブロックを矩形状に分割した力 こ れに限定されない。例えば、エッジを検出し、エッジに基づき非矩形状のブロックに 分割してもよい。また、ブロック毎の領域の視差を求めずに、エッジを複数の線分に 分割し、この線分の視差を求めてもよレ、。また、あるブロックにおいて求められた視差 を評価し、ブロックを分割したり結合したりしてもよい。
[0296] 上記説明から、当業者にとっては、本発明の多くの改良や他の実施形態が明らか である。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行 する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を 逸脱することなぐその構造及び Z又は機能の詳細を実質的に変更できる。
産業上の利用可能性 本発明に係る撮像装置及び半導体回路素子は、高速な視差演算が可能な撮像装 置及び半導体回路素子であるため、カメラ機能を備えた携帯電話、デジタルスチル カメラ、車載用カメラ、監視用カメラ、三次元計測器、および立体画像入力カメラなど に有用である。

Claims

請求の範囲
[1] それぞれが少なくとも 1枚のレンズを含む複数のレンズ部と、
前記複数のレンズ部に一対一に対応して設けられ、対応する前記レンズ部の光軸 方向に対して略垂直な受光面をそれぞれ有する複数の撮像領域と、
前記撮像領域により生成された撮像信号の入力を受ける撮像信号入力部と、 前記撮像領域から前記撮像信号入力部へ転送される撮像信号の転送範囲を決定 する転送範囲決定部と、
前記転送範囲決定部により決定された転送範囲に応じた撮像信号を前記撮像信 号入力部へ転送するように前記撮像領域を駆動する撮像領域駆動部と、
前記撮像信号入力部に転送された撮像信号に基づき視差を演算する視差演算部 とを備え、
前記転送範囲決定部は、前記複数の撮像領域のうち少なくとも 2つの撮像領域で 生成される撮像信号を前記転送範囲と決定する第 1の動作モードと、第 1の動作モ 一ドとは異なる撮像信号を前記転送範囲と決定する第 2の動作モードとを切替可能 なように構成されている、撮像装置。
[2] 前記転送範囲決定部は、前記撮像領域の略全領域で生成される撮像信号を前記 転送範囲とする第 1の動作モードと、前記撮像領域の略半分の領域で生成される撮 像信号を前記転送範囲とする第 2の動作モードとを切替可能なように構成されている 、請求項 1に記載の撮像装置。
[3] 前記略半分の領域は、前記撮像領域のうち転送順の早い略半分の領域である、請 求項 2に記載の撮像装置。
[4] 4つの前記撮像領域が 2行 2列で配設されており、前記略半分の領域は、対角位置 にある 2つの前記撮像領域である、請求項 2に記載の撮像装置。
[5] 前記撮像領域はインターレース走査される複数のフィールドに分割され、
前記転送範囲決定部は、前記撮像領域の略全領域で生成される撮像信号を前記 転送範囲とする第 1の動作モードと、前記撮像領域の 1フィールド分の撮像信号を前 記転送範囲とする第 2の動作モードとを切替可能なように構成されている、請求項 1 に記載の撮像装置。
[6] 前記転送範囲決定部は、被写体に関する情報に基づいて、前記第 1の動作モード と前記第 2の動作モードとを切り替えるように構成されている、請求項 5に記載の撮像 装置。
[7] 前記転送範囲決定部は、視差の演算に高速性が必要であると判断した場合に、前 記第 1の動作モードから前記第 2の動作モードへ切り替えるように構成されている、請 求項 6に記載の撮像装置。
[8] 前記転送範囲決定部は、視差の演算に高精度が必要であると判断した場合に、前 記第 2の動作モードから前記第 1の動作モードへ切り替えるように構成されている、請 求項 6に記載の撮像装置。
[9] 前記転送範囲決定部は、前記第 1の動作モード及び前記第 2の動作モードの何れ においても、前記複数の撮像領域のうちの一部の撮像領域で生成される撮像信号を 前記転送範囲と決定するように構成されている、請求項 1に記載の撮像装置。
[10] 前記転送範囲決定部は、前記第 1の動作モード及び前記第 2の動作モードの少な くとも何れかにおいて、動作する被写体を撮像する撮像領域で生成される撮像信号 を前記転送範囲と決定するように構成されている、請求項 1に記載の撮像装置。
[11] 前記転送範囲決定部は、前記被写体の動作の速さに基づいて、前記第 1の動作モ ードと前記第 2の動作モードとを切り替えるように構成されている、請求項 10に記載 の撮像装置。
[12] 前記転送範囲決定部は、前記被写体の動作が速い場合には多くの撮像領域で生 成される撮像信号を前記転送範囲と決定する動作モードに、前記被写体の動作が 遅い場合には少ない撮像領域で生成される撮像信号を前記転送範囲と決定する動 作モードにそれぞれ切り替えるように構成されている、請求項 11に記載の撮像装置
[13] 前記転送範囲決定部は、前記第 1の動作モード及び前記第 2の動作モードの少な くとも何れかにおいて、前記転送範囲の撮像信号に係る画素数を略一定とするように 構成されている、請求項 10に記載の撮像装置。
[14] 前記撮像領域は、路面に相当する領域を含む領域を撮像するように構成されてお り、 前記転送範囲決定部は、前記第 1の動作モード及び前記第 2の動作モードの少な くとも何れかにおいて、前記路面に相当する領域以外の領域に係る撮像信号を前記 転送範囲とするように構成されている、請求項 9に記載の撮像装置。
[15] 前記撮像領域は、人の顔に相当する領域を含む領域を撮像するように構成されて おり、
前記転送範囲決定部は、前記第 1の動作モード及び前記第 2の動作モードの少な くとも何れかにおいて、前記人の顔に相当する領域に係る撮像信号を前記転送範囲 とするように構成されてレ、る、請求項 9に記載の撮像装置。
[16] 前記複数の撮像領域のうちの少なくとも 2つの撮像領域は、生成する撮像信号の 一部を前記撮像信号入力部へ交互に転送することを繰り返すことによって、生成する 撮像信号の全てを前記撮像信号入力部へ転送するように構成されている、請求項 1 に記載の撮像装置。
[17] 前記視差演算部によって得られた視差に基づいて、被写体までの距離を演算する 距離演算部を更に備える、請求項 1から請求項 16の何れかに記載の撮像装置。
[18] それぞれが少なくとも 1枚のレンズを含む複数のレンズ部と、前記複数のレンズ部に 一対一に対応して設けられ、対応する前記レンズ部の光軸方向に対して略垂直な受 光面をそれぞれ有する複数の撮像領域とを有する撮像装置に用いられる半導体回 路素子であって、
前記撮像領域により生成された撮像信号の入力を受ける撮像信号入力部と、 前記撮像領域から前記撮像信号入力部へ転送される撮像信号の転送範囲を決定 する転送範囲決定部と、
前記転送範囲決定部により決定された転送範囲に応じた撮像信号を前記撮像信 号入力部へ転送するように前記撮像領域を駆動する撮像素子駆動部と、
前記撮像信号入力部に転送された撮像信号に基づき視差を演算する視差演算部 とを備え、
前記転送範囲決定部は、前記複数の撮像領域のうち少なくとも 2つの撮像領域で 生成される撮像信号を前記転送範囲と決定する第 1の動作モードと、第 1の動作モ 一ドとは異なる撮像信号を前記転送範囲と決定する第 2の動作モードとを切替可能 なように構成されている、半導体回路素子。
PCT/JP2007/059630 2006-05-16 2007-05-10 撮像装置及び半導体回路素子 WO2007132717A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008515502A JP4436427B2 (ja) 2006-05-16 2007-05-10 撮像装置及び半導体回路素子
CN200780017796XA CN101449574B (zh) 2006-05-16 2007-05-10 摄像装置和半导体电路元件
US12/300,754 US8107000B2 (en) 2006-05-16 2007-05-10 Image pickup apparatus and semiconductor circuit element

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006136044 2006-05-16
JP2006-136044 2006-05-16

Publications (1)

Publication Number Publication Date
WO2007132717A1 true WO2007132717A1 (ja) 2007-11-22

Family

ID=38693812

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/059630 WO2007132717A1 (ja) 2006-05-16 2007-05-10 撮像装置及び半導体回路素子

Country Status (4)

Country Link
US (1) US8107000B2 (ja)
JP (3) JP4436427B2 (ja)
CN (1) CN101449574B (ja)
WO (1) WO2007132717A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10153314B2 (en) 2014-12-16 2018-12-11 Sony Corporation Semiconductor apparatus, solid-state image pickup device, image pickup apparatus, and electronic apparatus

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7782364B2 (en) * 2007-08-21 2010-08-24 Aptina Imaging Corporation Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
TWI404406B (zh) * 2009-12-15 2013-08-01 Lite On Technology Corp 影像擷取裝置
JP5387856B2 (ja) * 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
EP2624540B1 (en) * 2010-10-01 2016-11-09 FUJIFILM Corporation Imaging device
JP5451704B2 (ja) * 2010-12-22 2014-03-26 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム、および画像処理システム
JP6197291B2 (ja) * 2012-03-21 2017-09-20 株式会社リコー 複眼カメラ装置、及びそれを備えた車両
DE102013226196A1 (de) * 2013-12-17 2015-06-18 Volkswagen Aktiengesellschaft Optisches Sensorsystem
WO2015119007A1 (ja) * 2014-02-06 2015-08-13 コニカミノルタ株式会社 広角アレイ光学系
WO2015119006A1 (ja) * 2014-02-06 2015-08-13 コニカミノルタ株式会社 望遠アレイ光学系
US9876992B2 (en) 2014-04-30 2018-01-23 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus and distance measuring apparatus using the same

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141521A (ja) * 1997-05-20 1999-02-12 Matsushita Electric Ind Co Ltd 撮像装置および車間距離計測装置ならびに車間距離計測方法
JPH11258491A (ja) * 1998-03-10 1999-09-24 Canon Inc 焦点検出装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2000284170A (ja) * 1999-04-01 2000-10-13 Nikon Corp 測距装置
JP2001012927A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像入力装置及び撮像装置
JP2001221633A (ja) * 2000-02-09 2001-08-17 Olympus Optical Co Ltd 測距装置
JP2001249265A (ja) * 2000-03-02 2001-09-14 Olympus Optical Co Ltd 測距装置
JP2001305422A (ja) * 2000-04-26 2001-10-31 Olympus Optical Co Ltd 測距装置
JP2004191893A (ja) * 2002-12-13 2004-07-08 Canon Inc 撮像装置
JP2006039397A (ja) * 2004-07-29 2006-02-09 Kyocera Corp 光電変換装置、焦点検出装置、焦点検出方法、および撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4835615A (en) * 1986-01-21 1989-05-30 Minolta Camera Kabushiki Kaisha Image sensor with improved response characteristics
JP3230098B2 (ja) * 1992-01-27 2001-11-19 株式会社ニコン 焦点検出装置
US5530514A (en) * 1994-07-19 1996-06-25 Eastman Kodak Company Direct focus feedback autofocus system
JPH10170256A (ja) * 1996-12-12 1998-06-26 Minolta Co Ltd 測距モジュール及び測距モジュールを備えた機器
US6163022A (en) 1997-05-20 2000-12-19 Matsushita Electric Industrial Co., Ltd. Imaging apparatus, distance measurement apparatus and method for measuring distance
US7358999B2 (en) 1998-03-10 2008-04-15 Canon Kabushiki Kaisha Focus sensing apparatus, focus sensing method using phase-differential detection and computer-readable storage medium therefor
JP2002209226A (ja) * 2000-12-28 2002-07-26 Canon Inc 撮像装置
JP2003143459A (ja) 2001-11-02 2003-05-16 Canon Inc 複眼撮像系およびこれを備えた装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141521A (ja) * 1997-05-20 1999-02-12 Matsushita Electric Ind Co Ltd 撮像装置および車間距離計測装置ならびに車間距離計測方法
JPH11258491A (ja) * 1998-03-10 1999-09-24 Canon Inc 焦点検出装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2000284170A (ja) * 1999-04-01 2000-10-13 Nikon Corp 測距装置
JP2001012927A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像入力装置及び撮像装置
JP2001221633A (ja) * 2000-02-09 2001-08-17 Olympus Optical Co Ltd 測距装置
JP2001249265A (ja) * 2000-03-02 2001-09-14 Olympus Optical Co Ltd 測距装置
JP2001305422A (ja) * 2000-04-26 2001-10-31 Olympus Optical Co Ltd 測距装置
JP2004191893A (ja) * 2002-12-13 2004-07-08 Canon Inc 撮像装置
JP2006039397A (ja) * 2004-07-29 2006-02-09 Kyocera Corp 光電変換装置、焦点検出装置、焦点検出方法、および撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10153314B2 (en) 2014-12-16 2018-12-11 Sony Corporation Semiconductor apparatus, solid-state image pickup device, image pickup apparatus, and electronic apparatus

Also Published As

Publication number Publication date
US20090174804A1 (en) 2009-07-09
US8107000B2 (en) 2012-01-31
JP4441585B1 (ja) 2010-03-31
JP2009207158A (ja) 2009-09-10
CN101449574B (zh) 2012-01-25
JP4436427B2 (ja) 2010-03-24
JP2010114900A (ja) 2010-05-20
CN101449574A (zh) 2009-06-03
JPWO2007132717A1 (ja) 2009-09-24

Similar Documents

Publication Publication Date Title
WO2007132717A1 (ja) 撮像装置及び半導体回路素子
US11405576B2 (en) Image sensor and image-capturing device
JP7292269B2 (ja) 拡張ダイナミックレンジを有するデジタルピクセル
TWI663877B (zh) 固體攝像元件及其驅動方法、及電子機器
US11282882B2 (en) Focus detecting device and electronic device
US20180139382A1 (en) Array Camera Configurations Incorporating Constituent Array Cameras and Constituent Cameras
CN113412611A (zh) 具有多个光电二极管的像素传感器
US8063978B2 (en) Image pickup device, focus detection device, image pickup apparatus, method for manufacturing image pickup device, method for manufacturing focus detection device, and method for manufacturing image pickup apparatus
US8310590B2 (en) Image sensor and image-capturing device with image-capturing and focus detection pixels
US10419664B2 (en) Image sensors with phase detection pixels and a variable aperture
US20120019624A1 (en) Image sensor for generating stereoscopic images
TW202131671A (zh) 電子機器
JP2002196227A (ja) 測距センサ及び測距装置
US20230102607A1 (en) Electronic device
US20240163581A1 (en) Imaging element and imaging device
JP2022184811A (ja) イメージセンサ
JP2020074548A (ja) 撮像素子および撮像装置
JP2017188926A (ja) 撮像素子および撮像装置
JPH09200590A (ja) 撮像装置
JP2003060993A (ja) 撮像システム
JP2011193370A (ja) 撮像装置及び撮像方法
JP2015159432A (ja) 撮影装置および撮影方法
JP2535954C (ja)

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780017796.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07743065

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008515502

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12300754

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07743065

Country of ref document: EP

Kind code of ref document: A1