WO2006077777A1 - 撮像装置および撮像方法、並びに撮像装置の設計方法 - Google Patents

撮像装置および撮像方法、並びに撮像装置の設計方法 Download PDF

Info

Publication number
WO2006077777A1
WO2006077777A1 PCT/JP2006/300360 JP2006300360W WO2006077777A1 WO 2006077777 A1 WO2006077777 A1 WO 2006077777A1 JP 2006300360 W JP2006300360 W JP 2006300360W WO 2006077777 A1 WO2006077777 A1 WO 2006077777A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
image
correction information
imaging system
luminance
Prior art date
Application number
PCT/JP2006/300360
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Yasushi Tatehira
Tetsushi Kokubo
Kenji Tanaka
Hitoshi Mukai
Hirofumi Hibi
Kazumasa Tanaka
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to CN2006800053784A priority Critical patent/CN101124815B/zh
Priority to US11/814,151 priority patent/US8031232B2/en
Priority to EP06711645A priority patent/EP1841207B1/en
Publication of WO2006077777A1 publication Critical patent/WO2006077777A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors

Definitions

  • the present invention relates to an imaging device, an imaging method, and an imaging device design method, and in particular, is an imaging device configured by arranging a plurality of imaging elements, and has a high resolution and a high precision single focus.
  • the present invention relates to an imaging apparatus, an imaging method, and an imaging apparatus design method that can realize the imaging apparatus at low cost.
  • Patent Document 1 is a method of performing imaging by so-called pixel shifting using an opening of a CCD.
  • the method is extremely simple, in which light is distributed in four directions by a prism, and the CCD that receives the distributed light is shifted by half a pixel.
  • Non-Patent Document 1 is a method corresponding to the Megavision method sponsored by the Japan Association for Mechanical System Promotion, which divides the image into three parts with a prism and uses three HDs. This is a method of shooting video with a cam.
  • Patent Document 1 Japanese Patent Laid-Open No. 2001-45508
  • Non-Patent Document 1 “Explanation of Megavision sponsored by the Association for Promotion of Mechanical Systems” [0 nline], Foundation of the Machinery Industry Memorial Foundation website, [searched on January 17, 2005], Internet, URL: http://www.tepia.or.jp/14th/hds.html>
  • Patent Document 1 has the following first to fourth problems. Has a point.
  • the first problem is that when four CCDs are used, the effect of obtaining a high resolution can be achieved. However, even if the number of CCDs is increased to 16, 64, the CCD If the aperture ratio is exceeded, the resolution corresponding to that cannot be obtained, that is, the effect corresponding to it cannot be achieved.
  • the second problem is that the prism that is a component of the imaging device disclosed in Patent Document 1 is very expensive.
  • the third problem is that when four CCDs are used, only one prism needs to be used. However, when 16 CCDs are used, five prisms and 64 CCDs are used. In some cases, 21 prisms have to be used, that is, as the number of CCDs used increases, so many prisms are required.
  • the fourth problem is that the pixel density of an image to be captured cannot be partially changed.
  • the method shown in FIG. 1 has the third problem and the fourth problem as described above, and also has the following fifth problem. .
  • the fifth problem is that when four CCDs 1-1 to 1-4 are used, a prism 2 that is four times as large is required, but such a prism 2 is very expensive. It is a problem.
  • the sixth problem is that the brightness (ray) of light reaching the CCD is sufficient, but because the pixels are shifted in the time direction, it takes time to shoot and it is difficult to shoot movies. is there.
  • Non-Patent Document 1 has the second to fourth problems as described above, and further includes the following eighth problem and ninth problem. have.
  • the eighth problem is that it is difficult to increase the number of cameras (imaging devices) to be arranged depending on the size of the camera body.
  • the ninth problem is that the image is distorted at the border because there is no pruning part.
  • any of the conventional methods includes a plurality of image sensors.
  • the present invention has been made in view of such a situation, and is an imaging device configured by arranging a plurality of imaging elements, and has a high-resolution and high-definition single-focus imaging device. Can be realized at low cost.
  • the imaging device of the present invention is a focus-matching imaging device in which a plurality of imaging elements are arranged in an array, and includes a first imaging system that creates a focus-matching image, and a first imaging system.
  • Multiple second imaging systems that include an imaging surface that forms an image and an image sensor that captures the image that is obtained as a result of re-imaging a predetermined portion of the image formed on the imaging surface.
  • an optical system including a second imaging system group formed by arranging a plurality of second imaging systems in an array.
  • a field lens can be arranged on or near the imaging plane connecting the first imaging system and the second imaging system group.
  • a diffuser can be arranged on or near the imaging plane connecting the first imaging system and the second imaging system group.
  • Each of the plurality of second imaging systems constituting the second imaging system group includes a part of the first image captured by the imaging element included in the second imaging system and the other second connection.
  • a part of the second image picked up by the image sensor included in the image system is arranged so that it can be held as a blending area for connecting the first image and the second image. ! You can make me cry.
  • Each of the plurality of second imaging systems constituting the second imaging system group further re-images a predetermined part of the image formed on the imaging surface onto the image sensor.
  • the distance between the imaging surface and the lens is F
  • the width of the light beam corresponding to the blending area is ⁇
  • the mechanism includes a first actuator that drives each of a plurality of lenses independently of each other to vary the zoom, and a plurality of imaging devices to vary the arrangement position.
  • a second actuator that is driven independently of the others can be included.
  • the imaging device uses each of the one or more imaging elements included in each of one or more of the plurality of second imaging systems constituting the second imaging system group by using the mechanism.
  • it is necessary to provide a calculation unit that performs high-resolution shooting compared to other image sensors and performs calculations to determine the range of high-resolution shooting when shooting is performed. Is possible.
  • An interface unit that allows a user to perform an operation for designating a range of high-resolution imaging is further provided, and the calculation unit calculates a range of high-resolution imaging based on a user operation performed by the interface unit. Can be.
  • a phase correction information holding unit that holds phase correction information for correcting the phase of each image formed on each of the plurality of imaging elements can be further provided.
  • the image re-imaged on at least one of the plurality of image sensors is used to obtain phase correction information in advance and It is possible to further provide a phase correction information calculation unit for holding the complementary positive information in the phase correction information holding unit.
  • phase correction information holding unit the phase correction information held in the phase correction information holding unit. It is possible to further provide a phase correction unit that corrects the error by using it.
  • a brightness correction information holding unit that holds brightness correction information for correcting the brightness of the image formed on each of the plurality of image sensors can be further provided.
  • luminance correction information is obtained in advance, and the luminance A luminance correction information calculation unit for holding the correction information in the luminance correction information holding unit can be further provided.
  • the luminance of the video re-imaged on each of the plurality of image sensors is used as the luminance correction information held in the luminance correction information holding unit. It is possible to further provide a luminance correction unit that corrects the error by using it.
  • a first image forming system forms a focus-matched image on the imaging surface, and the images are formed on the imaging surface and arranged in a predetermined partial force array.
  • Each of the plurality of second imaging systems re-images on an image sensor included in the system, and each of the plurality of imaging elements images a re-image formed on itself.
  • a first imaging method of the present invention is an imaging method of an imaging apparatus including at least a first imaging system and a plurality of second imaging systems including an imaging element.
  • a focused image is formed on a predetermined imaging plane by the image system, and a predetermined part of the image formed on the imaging plane by each of the plurality of second imaging systems, It is characterized in that the image is re-imaged on the image sensor included in the image sensor, and each of the plurality of image sensors images an image re-imaged on itself.
  • the first imaging method of the present invention in the first imaging system, on a predetermined imaging surface, A focused image is formed, and in each of the plurality of second image forming systems, a predetermined part of the image formed on the image forming surface is re-imaged on the image pickup device that it includes.
  • Each of the plurality of image sensors picks up an image re-imaged on itself.
  • a design method for an imaging apparatus is a design method for an imaging apparatus including at least a first imaging system and a plurality of second imaging systems including an imaging element.
  • this imaging system a focused image is formed on a predetermined imaging plane, and each of the plurality of second imaging systems is used to generate a predetermined image out of the images formed on the imaging plane. A part of the image is re-imaged on an image sensor included in the image sensor.
  • the imaging device design method of the present invention in the first imaging system, a focused image is formed on a predetermined imaging surface, and in each of the plurality of second imaging systems, The imaging device is designed so that a predetermined part of the image formed on the imaging surface is re-imaged on the imaging element included in the imaging device.
  • the first imaging system that creates a focused image, the imaging plane of the first imaging system, and the image formed on itself are imaged.
  • a plurality of second imaging systems including an imaging device and a lens that re-images a predetermined part of the image formed on the imaging surface on the imaging device are arranged in an array.
  • An imaging method of an imaging apparatus including an optical system constituted by two imaging system groups, each including a plurality of second imaging systems constituting the second imaging system group A first image captured by an image sensor that is captured by the image sensor and a second image captured by an image sensor included in another second imaging system.
  • the distance between the image plane and the lens is set to F so that it can be held as a blending area to connect If the width of the light beam corresponding to the blending area is ⁇ and the distance between the image sensor and the adjacent image sensor is D, 2 XF Xtan ((i) / 2)> After being arranged so as to satisfy the expression represented by D, the imaging device is characterized in that the subject is imaged.
  • each of the plurality of second imaging systems constituting the second imaging system group is a first image captured by an imaging element included in them.
  • a blending region for joining the first image and the second image together with a part of the second image captured by an image sensor included in another second imaging system To hold as Respectively.
  • the distance force between the imaging surface and the lens is assumed to be, and the imaging surface force out of the emitted light, the width of the light beam corresponding to the rendering area is ⁇
  • each of the plurality of second imaging systems is arranged so as to satisfy the expression represented by 2 XF Xtan (/ 2)> D. Thereafter, the subject is imaged by the imaging device.
  • an imaging apparatus in which a plurality of imaging elements are arranged can be realized.
  • a high-resolution and high-definition single-focus imaging device can be realized at low cost.
  • FIG. 1 is a diagram for explaining a conventional optical system.
  • FIG. 2 is a diagram illustrating a configuration example of an imaging apparatus to which the present invention is applied.
  • FIG. 3 is a diagram for explaining an optical system conceived based on a conventional method.
  • FIG. 4 is a diagram showing a configuration example of a second optical system different from FIG. 2 in an imaging apparatus to which the present invention is applied.
  • FIG. 5 is a diagram for explaining an example of an arrangement position of the second optical system in FIG. 2.
  • FIG. 6 is a diagram illustrating an example of a state in which a part of a subject is photographed with high resolution.
  • FIG. 7 is a diagram for explaining an operation example of the second optical system group in FIG. 2 at the time of photographing in the example in FIG. 6.
  • FIG. 8 is a diagram showing an example of luminance correction information.
  • FIG. 9 is a flowchart illustrating an example of luminance correction coefficient calculation processing.
  • FIG. 10 is a flowchart illustrating an example of luminance correction processing.
  • FIG. 11 is a diagram for explaining an example of seven color patterns (R, G, B) and CODEs associated with them.
  • FIG. 12 is a diagram for explaining an example of a next difference code.
  • FIG. 13 is a diagram showing an example of a phase correction test pattern.
  • FIG. 14 is a flowchart illustrating an example of phase correction information calculation processing.
  • 15 is a diagram showing an example of a camera image captured by one CCD in FIG. 2 among test pattern images captured in the process of step S31 in FIG.
  • FIG. 16 is a flowchart for explaining an example of calculation processing of absolute coordinates of the camera angle of view in step S32 of FIG.
  • FIG. 17 is a flowchart illustrating an example of phase correction processing.
  • FIG. 18 is a diagram for explaining an outline of an example of a blending process that is a part of the process in step S 75 of FIG.
  • FIG. 19 is a flowchart illustrating an example of phase detection processing.
  • FIG. 20 is a block diagram illustrating another configuration example of the signal processing unit of the imaging apparatus in FIG. 2.
  • 31 imaging device 41 first imaging system, 42 second imaging system, 43 field lens,
  • the technique to which the present invention is applied mainly refers to the following first to third techniques.
  • the first method is a method of forming an image twice, in other words, a first imaging system (also referred to as a first optical system) and a second imaging system (also referred to as a second optical system).
  • This first technique enables photographing with a single focal point and holding a blending area (such as a blending area 103 in FIG. 6 described later) without physical interference between image sensors (for example, a CCD).
  • care must be taken in the arrangement of the image sensor in order to maintain the rendering area.
  • the second method refers to the number and position of the imaging elements of the second imaging system formed by the first method. This is a method of changing at least one of the position and zoom. This second technique makes it possible to shoot partially with high resolution. Furthermore, since prisms are not required as a component of the imaging device to which this second method (and the first method) is applied, the cost can be reduced even if the number of imaging elements (CCD, etc.) is increased. It becomes possible.
  • the third method is a method for realizing phase correction or detection processing, luminance correction or detection processing, and processing for automatically obtaining phase correction information or luminance correction information necessary for the processing.
  • the term “automatic” means that processing is executed at the discretion of the imaging device itself without intervention by the user who uses the imaging device (excluding the trigger signal input operation). For the various processes realized by the third method, refer to the flowcharts in Fig. 10 and later.
  • FIG. 2 shows the configuration of an embodiment of an imaging apparatus to which the present invention is applied.
  • the imaging device 31 includes a first imaging system (first optical system) 41, a second imaging system (second optical system) group 42, a field lens 43, a signal It is configured to include a processing unit 44 and a high-resolution imaging range specification interface 45! RU
  • the conventional optical device such as Patent Document 1 forms an image only once and divides the image with a prism.
  • the method of dividing the same light beam with a prism has been mainly applied.
  • the above-described various problems occur.
  • a technique for solving such a problem for example, the technique shown in FIG. 3, that is, a plurality of CCDs such as CCDs 83-1 to 83-3 are arranged in an array to form an image of the object 81.
  • a method is conceivable in which the image is formed on a plurality of CCDs arranged in an array via the lens 82.
  • the physical size of CCD83-1 to 83-3 etc. The CD frames interfere with each other, and a new problem arises that the part 84-1 and the part 84-2 between the CCDs cannot be captured.
  • Non-Patent Document 1 has the first imaging system and the second imaging system itself, but is divided into the second imaging system. Since it is divided by the prism, the boundary part cannot be photographed, and there is a problem that it has a large distortion.
  • the first imaging system is an optical system that has, for example, an objective lens 51 and determines optical characteristics related to the angle of view of the CCD, and the image of the object plane 32 is once in the field lens 43 or its vicinity. Make an image.
  • the field lens 43 is arranged at or near the focal length of the first imaging system.
  • the second imaging system group 42 is configured by collecting N second imaging systems (N is an integer value of 2 or more) having one zoom lens 61-K and one CCD 62-K. . K is an integer value from 1 to N. However, in the example of Fig. 2, the value of any one of 1 to 3 is k.
  • one zoom lens 61—K does not mean that the zoom lens 61—K is composed of only one lens.
  • the zoom lens 62—1 is composed of one or more lenses.
  • To 62—N is a force that exists in the second optical system group 42. When attention is paid to one second imaging system, the zoom lens 62-1 to 62— This means that one of N is provided.
  • a force using the field lens 43 may be used instead of a diff user (not shown).
  • the diffuser has a function to widen the width (beam angle) of the output light beam, and due to this function, it should be noted that the resolution of the image is lowered.
  • CCD62-K is adopted in the example of FIG.
  • the imaging device is not limited to the example shown in FIG.
  • the second optical system smaller than the field lens 43 is employed, but is not limited to the example of FIG. 2, and for example, as shown in FIG.
  • a second optical system larger than the field lens 43 can be adopted (arranged).
  • a large number of CCDs 62-K may be arranged as long as the size of the lens such as the zoom lens 61-K is within an allowable range. It is possible. Even if the lens becomes larger, the lens can be manufactured at a lower cost than when a large prism is covered, and accordingly, the entire optical system including the second optical system group 42 of the present embodiment is also included. It can be realized at low cost.
  • FIG. 5 is a diagram for explaining a method of arranging two CCDs 62-K and CCD62-K + 1 for holding a blending region.
  • the surface 91 near the right side of the field lens 43 is an imaging surface (imaging surface), and the region 92 is a blending region.
  • F is the distance between the imaging surface 91 and the zoom lens 61-K or 61-K + 1
  • D is the distance between the two CCD62-K and CCD62 K + 1
  • is The width (beam angle) of the light beam corresponding to the blending region 92 out of the light beams emitted from the imaging plane is shown.
  • the number N of CCDs 62-1 to 62-N can be easily increased, that is, in order to maintain the blending region.
  • the second optical system of the present embodiment includes a mechanism for shifting one CCD 62-K in at least one of a horizontal direction and a vertical direction (hereinafter referred to as a shift mechanism), a zoom Mechanism (hereinafter referred to as a zoom mechanism).
  • the shift mechanism of one CCD 62-K is driven independently of the others by a position control actuator 78 described later.
  • the zoom mechanism of one CCD62-K is driven by a zoom actuator 77 independently of the others.
  • the diagram on the left side of FIG. 6 shows a situation where the person 102 is photographed by uniform photographing.
  • Uniform shooting is based on the condition that CCDs 62-1 to 62-N are arranged in an array and spaced evenly by a distance D, and the zoom ratio of CCDs 62-1 to 62-N is uniform.
  • the figure on the right side of FIG. 6 shows that the face (round part) of the person 102 is photographed with high resolution, that is, when the object 32 in FIG. ) Only shows a high-resolution image.
  • one square indicates the angle of view 101 of the camera (CCD62-K). Therefore, a region 103 1S blending region in which the angle of view 101 of one CCD 62—K overlaps the angle of view 101 of one CCD 62—K + 1 adjacent thereto.
  • FIG. 7 is a diagram for explaining the operation of the second imaging system group 42 when the shooting of FIG. 6 is performed. That is, the diagram on the left side of FIG. 7 is a diagram for explaining the operation of the second imaging system group 42 when uniform imaging of the diagram on the left side of FIG. 6 is performed. On the other hand, the diagram on the right side of FIG. 7 shows the operation of the second imaging system group 42 when the image of the diagram on the right side of FIG. FIG.
  • FIG. 7 four second optical systems arranged in succession in the vertical direction, that is, a second optical system having a CCD 62-1 (hereinafter referred to as the first second optical system)
  • a second optical system having a CCD 62-2 (hereinafter referred to as a second second optical system)
  • a second optical system having a CCD 62-3 (hereinafter referred to as a third second optical system)
  • Only the fourth optical system having the CCD 62-4 hereinafter referred to as the fourth second optical system
  • the image 111 of the person 102 in FIG. 6 is formed at the same position of the field lens 43 in both figures.
  • the region 112 of the image 111 and the region 113 of the image 111 are each one of the blending regions.
  • the first second The optical system is zoomed in “WIDE (wide angle)” by its zoom mechanism, and by the shift mechanism, A shift shiftl to the opposite position is performed.
  • “WIDE” zoom is performed by the zoom mechanism
  • shift shift 2 is performed to the position in the lower direction in the figure by the shift mechanism.
  • the zoom mechanism is used to perform “TELE (telephoto)” zooming, and the shift mechanism performs shift shift 3 to the position in the lower direction in the figure.
  • “WIDE” zooming is performed by the zoom mechanism, and shift shift4 is performed to the position in the upper direction in the figure by the shift mechanism.
  • a high-resolution shooting range (hereinafter referred to as a high-resolution shooting range).
  • the method for selecting the high-resolution imaging range is not particularly limited, and for example, the following first selection method and second selection method can be employed.
  • the user designates a desired area in the image through the high-resolution imaging range designation interface 45 in Fig. 2, and the high-resolution imaging range calculation circuit 76 is designated. This is a technique for selecting an area as a high-resolution imaging range.
  • the high-resolution imaging range calculation circuit 76 calculates the frequency in the image, and focuses on the high-frequency area to select a high resolution (selects it as the high-resolution imaging range). It is a technique such as.
  • the first imaging system 41 (first optical system 41) and the second imaging system group 42 (second optical system group 42) of the imaging apparatus 31 in the example of FIG. 2 have been described above.
  • the optical system including the field lens 43 has been described.
  • the high-resolution imaging range specifying interface 45 is also an interface used in the first selection method described above.
  • the signal processing unit 44 is configured to include a memory 71-1 through a position control actuator 78.
  • Each of the memories 71-1 to 71-3 stores an image signal output from each of the CCDs 62-1 to 62-3. That is, in the example of FIG. 2, since only three CCDs 62-1 to 62-3 are shown, only three memories 71-1 to 71-3 are shown. Therefore, actually, N memories 71 1 to 71 N are provided for each of the N CCDs 62-1 to 62 -N.
  • the first imaging system 41 and the second imaging system group 42 in the imaging apparatus 31 in the example of FIG. 2 have different distortion parameters. Therefore, in order to correct these distortions, the imaging device 31 in the example of FIG. A positive information memory 75 is provided.
  • phase detection / correction circuit 72 to the luminance correction information memory 75 to easily correct these distortions
  • an example of an automatic phase and luminance correction method using a test pattern will be described below. Will be described.
  • a test pattern (test pattern will be described later) with some parameters is captured in advance, and an extraction method for automatically extracting phase correction information and luminance correction information, and phase correction information and Each of the correction methods for correcting the phase and luminance of the image of the subject in real time using the luminance correction information will be described.
  • the luminance correction information extraction method and the luminance correction method (use of luminance correction information) for the luminance detection / correction circuit 74 will be described.
  • the brightness detection / correction circuit 74 performs real-time mapping based on the brightness correction information stored in the brightness correction information memory 75, specifically, for example, the brightness correction information shown in FIG. Can do.
  • the brightness correction information needs to be generated (extracted) in advance and stored in the brightness correction information memory 75 in advance. Therefore, in the present embodiment, the brightness detection / correction circuit 74 extracts brightness correction information in advance and stores it in the brightness correction information memory 75 in advance.
  • a method for extracting luminance correction information in advance by such a luminance detection / correction circuit 74 that is, a method for extracting luminance correction information will be described.
  • the extraction method of luminance correction information is a method for realizing the following series of processes.
  • the luminance detection / correction circuit 74 first takes a white image of the wall and extracts the curved surface of the luminance value of the image as a correction parameter.
  • a white image (frame) of the entire wall has the same luminance value in any part of the image.
  • the image is affected by the field lens 43 in FIG.
  • the luminance value in the central part is the highest (brightest), and the luminance value tends to decrease (becomes darker) as it goes to the peripheral part. Therefore, the luminance distribution of the image can be expressed by a function of the curved surface S (x, y).
  • Equation (2) ! /, Bl to b6 indicate each parameter (coefficient)! /, X and y are the coordinates of the XY coordinate system (hereinafter referred to as “X” direction when the horizontal direction is the X direction and the Y direction is the Y direction on the plane where the CCDs 6-1 to 62 -N are arranged in an array.
  • XY coordinate system is appropriately referred to as an absolute coordinate system, and the coordinates are appropriately referred to as absolute coordinates).
  • the luminance detection / correction circuit 74 calculates luminance correction coefficients bl to b6 according to the flowchart of FIG. 9, for example. That is, FIG. 9 shows an example of processing for calculating the luminance correction coefficient executed by the luminance detection / correction circuit 74 (hereinafter referred to as luminance correction coefficient calculation processing).
  • step S1 the imaging device 31 including the luminance detection / correction circuit 74 captures a white wall image, that is, a white test pattern image. At that time, the position (u, v) and zoom ratio r of one predetermined CCD62-K are set appropriately.
  • step S2 the luminance detection / correction circuit 74 detects the position (u, v) and zoom ratio r of the CCD 62-K used in the imaging process of step S1, and the output image (wall) of the CCD 62-K.
  • the brightness correction coefficients (parameters) bl to b6 in Equation (2) are calculated by, for example, the least square method.
  • step S3 the luminance detection / correction circuit 74 stores the current position of the CCD 62-K (u, v) in the luminance correction information memory 75 using each coefficient (each parameter) bl to b6 as a coefficient group LUT. ) And zoom ratio r information.
  • FIG. 10 is a flowchart for explaining an example of processing corresponding to the luminance correction method (hereinafter referred to as luminance correction processing). Therefore, the brightness correction processing will be described below with reference to FIG.
  • step S11 the luminance detection / correction circuit 74 focuses on one predetermined CCD 62-K and calculates luminance correction coefficients bl to b6 (coefficient group LUT) close to the current position and the zoom ratio.
  • the brightness correction coefficients bl to b6 that are close to the current position and the zoom ratio are, for example, when the current position (u, v) of the CCD62-K is (0.5,1) and the zoom ratio is 1.05. Indicates the bl-to-b6 coefficients of the top line and the next line in the luminance correction information in FIG.
  • step S12 the luminance detection / correction circuit 74 proportionally calculates the curved surface S (x, y) of the position and zoom ratio from the luminance correction coefficients bl to b6 (coefficient group LUT) that are close to the position and zoom ratio. Calculate by calculation.
  • the luminance detection / correction circuit 74 linearly interpolates several sets of luminance correction coefficients bl to b6 whose position and zoom ratio are close, that is, several sets of coefficient groups LUT whose position and zoom ratio are close.
  • the virtual coefficients bl to b6 are obtained, and the brightness correction curved surface S (x, y) is obtained by substituting the virtual coefficients bl to b6 into the above-described equation (2).
  • step S13 the luminance detection / correction circuit 74 calculates the minimum value MIN ⁇ S (x, y) ⁇ of the virtual luminance correction curved surface S (x, y) obtained in the processing of step S12. .
  • step S14 the imaging device 31 including the luminance detection / correction circuit 74 captures an image of the subject. From this, each input luminance value (pixel value) IN (x, y) of each pixel constituting each frame, that is, each pixel constituting each output image of each CCD 62-1 to 6 2-N, is obtained. Input to the luminance detection / correction circuit 74, the process proceeds to step S15.
  • the input luminance value (pixel value) IN (x, y) of one pixel is referred to as input pixel IN (x, y). Accordingly, the luminance value (pixel value) of the pixel output from the luminance detection / correction circuit 74
  • output pixel OUT (x, y) is referred to as output pixel OUT (x, y).
  • a frame to be noted as a processing target that is, a frame photographed in the process of step S14 is referred to as a noticed frame.
  • step S15 the luminance detection / correction circuit 74 sets a predetermined one of the input pixels IN (x, y) constituting the target frame as the target input pixel IN (x, y). , Attention input pixel IN
  • the target output pixel OUT (x, y) is calculated according to (x, y). That is, the luminance detection / correction circuit 74 corrects the target input pixel IN (x, y) by calculating the right side of the following equation (3), and outputs the target output pixel OUT (x, y y) is determined.
  • step S16 the luminance detection / correction circuit 74 determines whether or not the processing has been completed for all the pixels constituting the frame of interest.
  • step S16 If it is determined in step S16 that the processing has not been completed for all the pixels constituting the frame of interest, the processing returns to step S15, and the subsequent processing is repeated.
  • the luminance detection / correction circuit 74 outputs as at least a part of the target frame force video signal having the output pixel OUT (x, y) force.
  • step S16 it is determined that the processing for all the pixels constituting the frame of interest has been completed, and the processing proceeds to step S17.
  • step S17 the luminance detection / correction circuit 74 determines whether or not the shooting of all frames has been completed (whether or not the user has instructed to end the shooting).
  • step S17 if it is determined that the shooting of all frames has not yet been completed (the user has not instructed to end the shooting), the process returns to step S14, and the subsequent processes are performed. Repeated. [0125] That is, the next frame shot in the processing of the next step S14 becomes the frame of interest, and the loop processing of steps S15 and S16 is repeatedly executed to form all frames constituting the frame of interest (next frame). An output pixel OUT (x, y) of the pixel is obtained. As a result, the target frame (next frame) having the power of each output pixel OUT (x, y) is output from the luminance detection / correction circuit 74 as at least a part of the video signal.
  • step S17 Thereafter, when it is determined in step S17 that the shooting of all frames has been completed (the user has commanded the end of shooting), the luminance correction process ends.
  • phase correction information extraction method and a phase correction method (use of phase correction information) for the phase detection / correction circuit 72 will be described.
  • the phase detection / correction circuit 72 can perform real-time mapping based on the complementary information stored in the phase correction information memory 73 at the time of shooting.
  • phase correction information needs to be generated (extracted) in advance and stored in the phase correction information memory 73 in advance. Therefore, in the present embodiment, the phase detection / correction circuit 72 can extract the phase correction information in advance and store it in the phase correction information memory 73 in advance.
  • a method of extracting phase correction information in advance by such a phase detection / correction circuit 72 that is, a method of extracting phase correction information will be described.
  • the phase correction information extraction method is a method for realizing the following series of processes.
  • the phase detection / correction circuit 72 first captures a certain test pattern, and then captures an image of one angle of view (taken by a predetermined one CCD 62-K). From the partial image), the absolute coordinates of the angle of view (CCD62-K) are extracted as correction parameters.
  • the test pattern is an image composed of a plurality of blocks, and each of the plurality of blocks is an image filled with a predetermined color independent of other adjacent blocks. In many cases, adjacent blocks are filled with different colors, but in some cases they are filled with the same color.
  • This test pattern has a predetermined angle of view (predetermined one CCD62-K) It is required to be a test pattern in which the coordinates and zoom ratio of the camera are arbitrarily divided.
  • the test pattern is that all the blocks do not fit within the angle of view of one camera (CCD62—K), so refer to the left, right, top, and bottom to see (see) the CCD62— It is desirable that the position of K is divided.
  • the purpose of the test pattern is to calculate the angle of view from the image of one field of view of the captured test pattern (the image of the portion captured by one predetermined CCD 62-K).
  • the absolute coordinates of (CCD62-K) are extracted as correction parameters. Therefore, this test pattern is required to be a test pattern in which the coordinates of the predetermined angle of view (predetermined one CCD 62-K) and the zoom rate are divided when taken.
  • the imaging device 31 or another device has a predetermined one block (hereinafter referred to as a target block) among the blocks constituting the test pattern.
  • a target block a predetermined one block (hereinafter referred to as a target block) among the blocks constituting the test pattern.
  • Each block is encoded according to a code method in which the absolute position of the target block is divided from the difference between the code V of the block V) and the code V of the upper and lower or left and right blocks.
  • a code method in which the absolute position of the target block is divided from the difference between the code V of the block V) and the code V of the upper and lower or left and right blocks.
  • a predetermined display device displays each block with a color associated with each code V of each block. By doing so, test patterns can be displayed (created).
  • each block constituting the test pattern seven (R, G, B) pattern colors as shown in FIG. 11 and “CODE” are described.
  • Each of the seven values (0 to 6) is associated in advance. That is, this “CODE” force is a value that can be the code V of each block.
  • the target block among the blocks constituting the test pattern has a code V of 0
  • the number of color patterns is not limited to the example of FIG. 11 which is 7 patterns in the example of FIG. 11, and may be any number of patterns. That is, for example, a plurality of pattern colors may be defined using RGB gradations. However, if RGB gradation is used, the above-mentioned luminance distortion If too many pattern colors are defined, if the test pattern is captured by the image capture device shown in Fig. 2, the color of the target block or adjacent blocks will be used in the test pattern after capture. The problem arises that it becomes impossible to distinguish between the two. Therefore, in order not to cause this problem, the number of color patterns is preferably about 8 patterns that can be formed only by the combination of the presence or absence (1 or 0) of RGB, that is, the example of FIG.
  • each block can be encoded by using an encoding method as shown in FIG. That is, FIG. 12 is a diagram for explaining an example of a code key method in which the absolute position of the target block is divided from the difference between the code V of the target block and the code V of the upper and lower or left and right blocks. is there.
  • the coordinate of the upper left corner of the test pattern is (0) on the XY plane where the right direction of the test pattern is the X direction and the lower direction is the Y direction. , 0), in the X direction, the length of one side in the horizontal direction of each block constituting the test pattern is 1, and in the Y direction, the length of each block constituting the test pattern is set to 1.
  • a ⁇ coordinate system hereinafter referred to as the test pattern coordinate system in which the length of one side in the vertical direction is 1 is defined.
  • (U, V) indicates the coordinates of the upper left corner of the U-th block from the left and the V-th block from the top among the blocks constituting the test pattern. It will be.
  • the coordinates of the upper left corner of the predetermined block are simply referred to as the coordinates of the predetermined block.
  • the value X indicates the X or ⁇ coordinate of the block of interest in this test pattern coordinate system.
  • the difference code Y1 indicates the value of the difference between the code V of the block of interest and a predetermined one code V of blocks adjacent to the upper, lower, left, and right sides. Also, when calculating the difference code Y1, the difference value became negative In this case, the value obtained by adding +7 to the negative value becomes the difference sign Y1, and in the left-right direction, the sign V force of the right block is also subtracted from the sign V of the left block. And In the vertical direction, the code V of the upper block is subtracted from the code V of the lower block.
  • the Y coordinate of the block of interest is 1.
  • the target block whose coordinates are (3, 1) is that the pair of the first difference code Y1 and the second difference code Y1 is a pair of 2 and 3, and the third difference code Y1 And the fourth difference code Y1 must be signed so that the set of 0 and 1 is a set.
  • the items of difference and sum are provided to generate the rule of FIG. 12 so that the two combinations of the difference code Y1 do not overlap (so that a plurality of combinations are not generated).
  • This is an item that is not involved in the actual encoding process or decoding process. That is, since the next difference code Y1 is determined based on the previously determined difference code Y1 (one difference code Y1 in FIG. 12), the difference and sum items are provided. is there. Specifically, in the difference item, a value that can be a difference (difference) between two difference codes Y1 is described.
  • the difference (difference) between the two differential codes Y1 takes a value in the range of 1 to 6.
  • the difference between the two difference codes Y 1 being 0 means that they are the same value, so 0 is naturally excluded.
  • the sum of the value of the sum just above and the value of the difference on the left side is described.
  • the first difference code Y1 (upper left in FIG. 12) is 0.
  • 0 is written in the left sum (first sum). Therefore, 1 which is the sum of the description value 0 of the first sum and the description value 1 of the left difference is the description value of the next (second) sum.
  • the description value 1 of this sum is determined as the value of the sign Y1 on the right side. That is, the value of the least significant digit when the description value of the sum is expressed in the 7-base system (for example, 0 when the description value of the sum is 7 and 2 when it is 9) This is the difference code Y1 on the right.
  • the value X eventually becomes as shown in FIG. Values ranging from 0 to 4 3 can be taken.
  • the value X from 0 to 43 can be signed by using the difference code Y1.
  • values from 0 to 43 can be taken together with the X and Y coordinates, that is, the size of 44 blocks in the vertical direction and 44 blocks in the horizontal direction ( In the following, this means that a test pattern with a size of 44 X 44 can be created.
  • the apparatus performs the encoding process according to the encoding method using the differential code Y1 shown in Fig. 12, whereby 44 X 44 test pattern image data, that is, 44 X Image data with the code V power of each of the 44 blocks can be created.
  • test pattern image data as shown in FIG. 13 is created. That is, FIG. 13 shows an example of test pattern image data.
  • FIG. 13 shows an example of test pattern image data.
  • a square represents a block.
  • the coordinate (U, V) in the test pattern coordinate system is described as uv above, and the code V is described below it.
  • the target block whose coordinates are (3, 1) is that the pair of the first difference code Y1 and the second difference code Y1 is a pair of 2 and 3, and the third difference code Y1 And the fourth difference code Y1 must be encoded so that the set of 0 and 1 must be a set of 0 and 1.
  • a code V 3 is obtained and it is awkward.
  • the apparatus assigns each of the blocks a pattern color associated with the symbol V.
  • 44 X 44 processes such as being filled This is repeated for each block, resulting in a 44 x 44 test pattern.
  • the term “filling” as used herein includes actually printing the corresponding pattern color on a paper medium or the like and displaying the corresponding pattern color on the display device.
  • the test pattern may be an image obtained as a result of printing on a paper medium or the like, or may be an image displayed on a display device.
  • the force encoding method that binarizes RGB into 01 binary values is not limited to the example described above.
  • by making ternarization or quaternary in the gradation direction it is possible to create a more detailed test pattern.
  • each block is encoded by the test pattern as described above, that is, the encoding method using the differential code Y1 in FIG. 12, and is associated with the code V obtained as a result.
  • Phase correction information is extracted (calculated) by the test pattern composed of each block force filled with the selected pattern color.
  • An example of processing hereinafter referred to as phase correction information calculation processing
  • phase correction information calculation processing corresponding to an extraction method for extracting (calculating) such phase correction information is shown as a flowchart in FIG. Therefore, the phase correction information calculation process will be described below with reference to the flowchart of FIG.
  • step S31 the imaging device 31 including the phase detection / correction circuit 72 of Fig. 2 captures a test pattern image.
  • the test pattern force corresponding to the image data of FIG. 13 described above is photographed in the process of step S31.
  • one CCD62-K is supposed to shoot an image that includes one whole block in the center of this test pattern and at least a part of the blocks adjacent to the top, bottom, left, and right.
  • the image data force shown in FIG. That is, FIG. 15 shows image data of a partial image taken by one CCD 62-K in the test pattern.
  • the CCD 62-K outputs image data that also has R, G, B brightness level (R, G, B) forces for each pixel.
  • step S32 the phase detection / correction circuit 72 determines the absolute coordinates (hereinafter referred to as the CCD62-K) of the CCD62-K from the image (hereinafter referred to as the camera image) captured by one CCD62-K in the test pattern. , Referred to as absolute coordinates of the camera angle of view).
  • the processing in step S32 is referred to as calculation processing of absolute coordinates of the camera angle of view.
  • step S32 A detailed example of the process of calculating the absolute coordinates of the camera angle of view in step S32 is shown as a flowchart in FIG. Therefore, with reference to the flowchart of FIG. 16, a detailed example of the calculation processing of the absolute coordinates of the camera angle of view will be described below.
  • step S51 the phase detection / correction circuit 72 acquires a camera image (image data).
  • the camera image (image data) of FIG. 15 is acquired.
  • the CCD62-K force outputs image data composed of R, G, B brightness levels (R, G, B) for each pixel. become . Therefore, the phase detection / correction circuit 72 executes processing for obtaining the code V of each block as shown in FIG. 15 from such image data with reference to the table of FIG. Specifically, for example, the phase detection / correction circuit 72 sequentially sets a predetermined one of the pixels constituting the camera image as a target pixel, and executes the following processing for the target pixel. That is, the phase detection / correction circuit 72 is represented by the luminance levels (R, G, B) of R, G, B for the pixel of interest among the seven pattern colors in the table of FIG.
  • the camera image (image data) shown in FIG. 15 that is, a camera image (image data) composed of each pixel having the symbol V as a pixel value is obtained.
  • step S52 the phase detection / correction circuit 72 uses, for example, the central block of the camera image as the target block, and obtains a difference value between the code V of the target block and the code V of the upper, lower, left, and right blocks, respectively. To do. That is, in the process of step S52, the first to fourth difference codes Y1 to Y1 described above are calculated.
  • the code V of the block next to it is set to 0
  • the code V of the lower adjacent block is set to 5
  • the difference between the code V of the lower adjacent block and the code V of the target block is calculated.
  • step S53 the phase detection / correction circuit 72, based on the difference value acquired in the process of step S52, in the test pattern coordinate system, each intersection of the block of interest and its adjacent blocks in the upper, lower, left, and right directions. Calculate the absolute mark.
  • (4,3) is calculated as the coordinates of the intersection P0, and based on the coordinates of the intersection P0, the coordinates of the intersection P1 are (4,4) and the coordinates of the force intersection P2 are (5, 4) Force (5, 3) is calculated as the coordinates of the intersection P3.
  • step S54 the phase detection / correction circuit 72 calculates the absolute coordinates of the camera angle of view based on the coordinates of the intersection of the block of interest in the test pattern coordinate system calculated in the process of step S53. .
  • the coordinates in the test pattern coordinate system for each of the intersection points P0, P1, P2, and P3 of the block of interest are calculated in step S53.
  • 72 converts, for example, those coordinates into absolute coordinates.
  • the phase detection / correction circuit 72 calculates the absolute coordinates of the points Q0, Q1, Q2, and Q3 based on the absolute coordinates of the intersection points P0, P1, P2, and P3 of the target block. Calculate as the absolute coordinates of the corners.
  • step S33 the phase detection / correction circuit 72 calculates distortion of the imaging target.
  • step S34 the information on the angle of view (the absolute coordinates of the camera angle of view obtained as a result of the processing in step S32) and the distortion information (step The calculation result of S33) is stored in the phase correction information memory 73 as phase correction information.
  • phase correction information calculation processing is executed for each of several patterns of position u, v, and zoom factor r, phase correction information for each pattern is obtained and stored in the phase correction information memory 73. It is done.
  • phase correction method use of phase correction information
  • FIG. 17 is a flowchart for explaining an example of processing corresponding to a phase correction method (hereinafter referred to as phase correction processing). Therefore, the phase correction process will be described below with reference to FIG.
  • step S71 the phase detection / correction circuit 72 performs each of the CCDs 62-1 to 62-N. Then, phase correction information (phase correction field angle information and distortion information) is read from the phase correction information memory 73.
  • step S72 the phase detection / correction circuit 72, for each of the CCDs 62-1 to 62-N, Calculate phase correction information (phase correction field angle information and distortion information) between the current position and zoom factor from phase correction information (phase correction field angle information and distortion information).
  • step S73 the phase detection / correction circuit 72 integrates the angle-of-view information and distortion information calculated in the processing of step S72, and obtains a rendering portion in absolute coordinates.
  • step S74 the imaging device 31 including the phase detection / correction circuit 72 captures an image of the subject. When the frame shot in the process of step S74 is set as the frame of interest, the process proceeds to step S75.
  • step S75 the phase detection / correction circuit 72 sets a predetermined one of the input pixels constituting the target frame as the target input pixel, and the phase of the target input pixel according to the angle of view. Correct and perform blending. An example of blending processing will be described later with reference to FIG.
  • step S76 the phase detection / correction circuit 72 determines whether or not the processing has been completed for all the pixels constituting the frame of interest.
  • step S76 If it is determined in step S76 that the processing for all the pixels constituting the frame of interest has not been finished yet, the processing returns to step S75, and the subsequent processing is repeated.
  • phase correction corresponding to the field angle distortion is performed on all the pixels constituting the frame of interest, and blending processing is performed.
  • the target frame subjected to the phase correction according to the view angle distortion and subjected to the blending process is provided to the luminance detection / correction circuit 74.
  • step S76 it is determined that the processing has been completed for all the pixels constituting the frame of interest, and the processing proceeds to step S77.
  • step S77 the phase detection / correction circuit 72 determines whether or not the shooting of all the frames has been completed (whether or not the user has instructed to end the shooting).
  • step S77 If it is determined in step S77 that shooting of all frames has not been completed yet (the user has not instructed shooting termination), the process returns to step S74, and the subsequent processing is performed. Repeated.
  • next frame shot in the process of the next step S74 becomes the frame of interest, and the loop process of steps S75 and S76 is repeatedly executed, so that all the pixels constituting the frame of interest (next frame) are processed.
  • the target frame (next frame) subjected to the phase correction according to the angle of view distortion and subjected to the blending process is provided to the luminance detection / correction circuit 74.
  • the phase correction processing is ended.
  • the phase detection / correction circuit 72 uses the angle of view information, distortion information, and other parameters stored in the phase correction information memory 75 to calculate the phase correction information. I do. Then, the phase detection / correction circuit 72 integrates the angle of view information and the distortion information obtained as a result of the phase correction information calculation process, calculates the pruning portion in the absolute coordinates, performs phase correction, and Apply a blending process.
  • an image 151 is an image taken by one CCD 62-K, and the black circle (for example, the face portion of the human 102 in FIG. 6 described above) included in the image 151 is described above. It is an image obtained as a result of the above-described partial high-resolution shooting, which is really what we want to see. That is, the image 151 is an image captured with the zoom set to “TELE”.
  • the image 152-2 is an image taken by the CCD62-K + 1 next to the CCD62-K (as viewed from the front of the digital camera 3), and the zoom is “WIDE”. It is the image imaged as.
  • step S73 in Fig. 17 it is already determined that the region 153-a and the region 153-b are the blending regions, and the phase correction for the image 151 and the image 152-1 (step It is assumed that part of the processing of S75 has already been performed.
  • the phase detection / correction circuit 72 applies to the image 152-1 (image data) so that the blending area 153—a and the blending area 153—b have the same resolution (same size). To enlarge. As a result, an image 152-2 (image data) force S as shown in FIG. 18 is obtained.
  • the enlargement processing method is not particularly limited. For example, when A is multiplied in the horizontal direction and B is multiplied in the vertical direction (A and B are each an independent positive value of 1 or more), a block consisting of AXB pixels is generated corresponding to the original pixel. Can be adopted. In this case, the method for determining the pixel value of each of the AXB pixels constituting the block is not particularly limited.
  • all the pixel values of each AXB pixel You may adopt a method that keeps the pixel value of the original one pixel, or the pixels of each AXB pixel based on the correlation with neighboring blocks (neighboring pixels of the original one pixel), etc. A method of individually determining each value may be adopted.
  • the phase detection / correction circuit 72 synthesizes the image 151 (image data) and the image 152-2 (image data) to generate a composite image 153.
  • the method of combining the blending part 153-a and the blending part 153-b is not particularly limited.
  • a predetermined calculation for example, averaging
  • the calculation results are determined as the pixel values of the corresponding pixels of the composite image.
  • the phase detection / correction circuit 72 may perform predetermined image processing on this edge portion.
  • This image processing is not particularly limited, and for example, a process of attenuating the luminance value (pixel value) near the edge portion can be employed.
  • the attenuation method is not particularly limited.
  • the attenuation may be linearly attenuated in the direction from the portion corresponding to the blending portion 153-a to the other portion, and the edge portion may be the vertex. Attenuate along the sine curve.
  • phase detection / correction circuit 72 that is, the processing of the digital camera 3 on the image capturing side. It is not limited to the example, and may be processing on the image reproduction side (display device, not shown).
  • Steps S91 to S93 in the phase detection process of Fig. 19 are basically the same as the steps S71 to S73 of Fig. 17. Therefore, the processing after step S94 will be described below.
  • step S94 the imaging device 31 including the phase detection / correction circuit 72 captures an image of the subject.
  • step S95 the phase detection / correction circuit 72 obtains the phase information calculated in the process of step S92, the blended portion obtained in the process of step S93, and the image data for each of the CCDs 62 1 to 62-N. Generates and outputs a video signal including the frame unit.
  • phase information, blending portion, and image data for each of the CCDs 62-1 to 62N for the frame of interest are combined into one, and the luminance detection / The correction circuit 74 is supplied.
  • the luminance detection / correction circuit 74 performs, for example, the processing from steps S11 to S13 in the luminance correction processing of FIG. 10 described above, and receives the attention supplied from the phase detection / correction circuit 72.
  • the minimum value MIN ⁇ S (x, y) ⁇ of the curved surface is added to the video signal and output to the outside. That is, in this case, the output signal of the signal processing unit 44 includes the phase information about the frame of interest, the blending portion, the image data for each of the CCDs 62-1 to 62-N, and the minimum value of the curved surface MIN ⁇ S (x, y) ⁇ Is a single video signal.
  • the playback-side apparatus that has acquired such a video signal performs processing corresponding to step S15 in Fig. 10 and step S75 in Fig. 17 to obtain image data corresponding to the frame of interest. It is possible to generate (construct) and display an image corresponding to the image data, that is, a frame of interest.
  • step S96 the phase detection / correction circuit 72 determines whether or not the power has been taken for all the frames (whether or not the power has been instructed to end the photographing by the user).
  • step S96 If it is determined in step S96 that the shooting of all frames has not been completed yet (the user has not instructed shooting termination), the process returns to step S94, and the subsequent processes are performed. Repeated.
  • next frame shot in the processing of the next step S94 is the frame of interest, and
  • the phase information for the eye frame (next frame), blending part, and image data for each of the CCDs 62-1 to 62-N are combined into one video signal for the frame of interest (next frame). This is supplied to the luminance detection / correction circuit 74 in FIG.
  • step S96 After that, when it is determined in step S96 that the shooting of all frames has been completed (the user has instructed to end the shooting), the phase detection process ends.
  • the imaging device 31 has at least the following first to thirteenth features.
  • the first feature is that the image pickup device 31 is a high-resolution and high-definition image pickup device that matches a focal point in which image pickup elements such as a CCD 62-K are arranged in an array. .
  • the second feature is that the imaging device 31 includes a first imaging system 41 that produces a focused image, an imaging plane of the first imaging system 41, and an imaging plane connected to the imaging plane.
  • This is an image pickup apparatus having an optical system including a second imaging system group 42 in which a plurality of image pickup elements for picking up an imaged image are arranged in an array.
  • the third feature is that the field lens 43 can be arranged on or near the imaging plane connecting the first imaging system 41 and the second imaging system group 42. It is.
  • the fourth feature is that a diffuser (not shown) is used in place of the field lens 43 on or near the imaging plane connecting the first imaging system 41 and the second imaging system group 42. It is a feature that can be arranged.
  • each of the plurality of second imaging systems constituting the second imaging system group 42 is a part of the first image captured by the CCD 62-K included therein. And a part of the second image captured by another CCD included in the other second imaging system is held as a blending area to connect the first image and the second image.
  • the feature is that they are arranged as possible.
  • the sixth feature is a feature that the optical system of the imaging device 31 is a feature that is produced as an effect of the first feature, and can be configured by only a lens (the prism may not be used). This The sixth feature makes it possible to realize an imaging device that can capture high-resolution and high-definition images at low cost even when the number of image sensors such as CCDs is increased.
  • the seventh feature is a feature of having a mechanism for individually changing the positions of the plurality of image pickup devices and the zoom in the second imaging system group 42. This seventh feature enables partially high-resolution shooting.
  • the eighth characteristic is that these mechanisms include a zoom actuator and a position control actuator.
  • the ninth feature is that the imaging device 31 further calculates a high-resolution imaging range, ie, a high-resolution imaging range calculation circuit, when partial high-resolution imaging is performed.
  • a high-resolution imaging range ie, a high-resolution imaging range calculation circuit
  • This is characterized by having a path 76 and an interface for the user to specify a high-resolution imaging range, that is, an arithmetic circuit 76 for the high-resolution imaging range.
  • the tenth feature is that the imaging device 31 is further used for the phase detection / correction circuit 72 that corrects the phase of the video image that has been mapped to a plurality of imaging elements such as the CCD 62-K, and the correction thereof. It has a phase correction information memory 73 that holds phase correction information.
  • the eleventh feature is that the extraction method described above is applied to the phase detection / correction circuit 72 as a method for obtaining (extracting) phase correction information.
  • FIG. It is a feature that phase correction information calculation processing can be executed.
  • the eleventh feature includes that the above test pattern can be used.
  • the twelfth feature is that the imaging device 31 is further used for correcting the luminance detection / correction circuit 74 that corrects the luminance of the video image that is imaged on a plurality of imaging elements such as a CCD 62-K, and the correction. It has a brightness correction information memory 75 that holds brightness correction information.
  • the thirteenth feature is that the above-described extraction method is applied to the luminance detection / correction circuit 72 as a method for obtaining (extracting) luminance correction information.
  • the feature is that brightness correction information calculation processing can be executed.
  • the feature that the test pattern described above can be used is also included in the thirteenth feature.
  • the imaging device 31 uses the first imaging system 41 and the second imaging system group 42 to provide a rendering region. It can be said that this is a high-resolution and high-definition single-focus imaging device.
  • This imaging device 31 is The image sensor can be arranged in a scalable manner, and high-resolution imaging can be performed partially.
  • the imaging device 31 can automatically perform phase correction and distortion correction such as luminance for each of the second imaging systems in the second imaging system group 42 that is the imaging system. it can.
  • the imaging device 31 can exhibit at least the following first to third effects.
  • the first effect is that a high-resolution and high-definition video that can be seamlessly connected while holding the rendering portion can be taken.
  • the second effect is that a large number of image sensors can be arranged at a low cost and that high-resolution imaging can be performed partially.
  • the third effect is that information on luminance correction and phase correction can be obtained automatically.
  • At least a part of the signal processing unit 44 of the imaging device 31 of FIG. 2 can be configured by a computer shown in FIG. 20, for example.
  • a CPU (Central Processing Unit) 201 performs various processes according to a program recorded in a ROM (Read Only Memory) 202 or a program loaded from a storage unit 208 to a RAM (Random Access Memory) 203. Execute the process.
  • the RAM 203 also appropriately stores data necessary for the CPU 201 to execute various processes.
  • CPU 201, ROM 202, and RAM 203 are connected to each other via bus 204.
  • An input / output interface 205 is also connected to the bus 204.
  • the input / output interface 205 includes an input unit 206 including a keyboard and a mouse, an output unit 207 including a display, a storage unit 208 including a hard disk, a modem, a terminal adapter, and the like.
  • a communication unit 209 is connected.
  • a communication unit 209 controls communication performed with other devices (not shown) via a network including the Internet.
  • a drive 210 is also connected to the input / output interface 205 as necessary, and a removable recording device such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the recording medium 211 is appropriately loaded, and the computer program read from the recording medium 211 is installed in the storage unit 208 as necessary.
  • the programs that make up the software execute various functions by installing a computer embedded in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.
  • the recording medium including such a program is distributed to provide a program to the user separately from the apparatus main body, and is a magnetic disk (floppy) on which the program is recorded.
  • Disk includes compact disk-read only memory (CD-ROM), DVD (digital versatile disk)), magneto-optical disk (including MD (minin disk)), or semiconductor memory It is composed of ROM202 that stores the program and hard disk that is provided in the storage unit 208, which is provided to the user in a state of being pre-installed in the main body of the device. Is done.
  • system represents the entire apparatus including a plurality of apparatuses and processing units.
  • the unit of various image processing described above is a frame in the above-described example, but may be a field. That is, if such an image unit such as a frame or a field is referred to as an access unit, the above-described image processing unit can be an access unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Lens Barrels (AREA)

Abstract

本発明は、複数の撮像素子を配置して、高解像度および高精細な単一焦点の撮像装置を低コストで実現できるようにする撮像装置および撮像方法、並びに撮像装置の設計方法に関する。撮像装置31は、CCD62-1乃至62-3等の複数の撮像素子をアレイ状に並べた焦点一致の撮像装置である。即ち、撮像装置31は、焦点一致の像を作る第1の結像系41、第1の結像系の結像面またはその近傍に配置されるフィールドレンズ43、および、自分自身に結像した映像を撮像する撮像素子CCD62-K(この例では、Kは1乃至3のうちの何れかの値)と、結像面に結像した映像のうちの所定の一部をCCD62-Kに再結像させるズームレンズ61-Kとを含む複数の第2の結像系がアレイ状に配置されて形成される第2の結像系群から構成される光学系を有する。本発明は、複数の撮像素子を有するデジタルスチルカメラやデジタルビデオカメラに適用可能である。  

Description

明 細 書
撮像装置および撮像方法、並びに撮像装置の設計方法
技術分野
[0001] 本発明は、撮像装置および撮像方法並びに撮像装置の設計方法に関し、特に、 複数の撮像素子が配置されて構成される撮像装置であって、高解像度および高精 細な単一焦点の撮像装置を低コストで実現できるようになった、撮像装置および撮像 方法並びに撮像装置の設計方法に関する。
背景技術
[0002] 近年、様々な高解像度画像の撮像手法が提案されて!、る。これらの撮像手法は、 C CD (Charge-Coupled Device)等の撮像素子そのものを高解像度にする手法と、複数 の撮像素子を用いて高解像度撮影を行う手法とに大別できる。
[0003] 従来、後者の手法、即ち、複数の撮像素子を用いて高解像度撮影を行う撮像手法 としては、例えば特許文献 1や非特許文献 1に開示された手法が知られて!/ヽる。
[0004] 特許文献 1に開示された手法は、 CCDの開口を利用していわゆる画素ずらしで撮 影を行う、といった手法である。即ち、その手法は至ってシンプルであり、プリズムで 光線を 4方向に分配し、その分配された光線を受光する CCDを半画素ずつずらすと いう手法である。
[0005] また、非特許文献 1に開示された手法は、財団法人機械システム振興協会の主催 するメガビジョンの方式に対応する手法であって、プリズムで画像を 3分割して、 3台の HDカムで映像を撮影する手法である。
特許文献 1:特開 2001-45508号公報
非特許文献 1 :「財団法人機械システム振興協会の主催するメガビジョンの説明」、 [0 nline],財団法人機械産業記念事業財団ホームページ、 [2005年 1月 17日検索]、ィ ンターネット,く URL: http://www.tepia.or.jp/14th/hds.html>
発明の開示
発明が解決しょうとする課題
[0006] しかしながら、特許文献 1に開示された手法は、次の第 1の問題点乃至第 4の問題 点を有している。
[0007] 第 1の問題点とは、 4枚の CCDを用いる際には高解像度を得るという効果を奏するこ とができるが、 16枚、 64枚と CCDを増やしていったとしても、 CCDの開口率を越えれ ば、それに見合った解像度が得られない、即ち、それに見合った効果を奏することが できない、という問題点である。
[0008] 第 2の問題点とは、特許文献 1に開示された撮像装置の構成要素であるプリズムは 非常に高価である、という問題点である。
[0009] 第 3の問題点とは、 4枚の CCDを採用するときには 1つのプリズムだけを採用すれば よいが、 16枚の CCDを採用するときには 5つのプリズムを、 64枚の CCDを採用するとき には 21のプリズムを、それぞれ採用しなければならない、即ち、 CCDの採用枚数を増 やす程非常に多くのプリズムが必要になる、という問題点である。
[0010] 第 4の問題点とは、撮像する画像の画素密度を部分的に変えることができない、と いう問題点である。
[0011] また、特許文献 1の手法を参照して、例えば図 1に示される手法、即ち、半画素でな く CCD1— 1乃至 1 4の撮像面のそのものをずらす手法も容易に思想できる。
[0012] し力しながら、この図 1に示される手法でも、上述した第 3の問題点と第 4の問題点と をそのまま有するとともに、さらに、次の第 5の問題点も有している。
[0013] 第 5の問題点とは、 4枚の CCD1— 1乃至 1—4を用いると 4倍の大きさのプリズム 2 が必要になるが、このようなプリズム 2は非常に高価である、という問題点である。
[0014] 以上の問題点をまとめると、特許文献 1に開示された手法、或いは、図 1に示される 手法のようなプリズムを用いる手法では、結局、 CCDの数を増やすと巨大で高精度な プリズムが多数必要になる。このため、巨大なプリズムを作成する工程は難しぐ単価 が非常に高くなりコストがはね上がる、という問題点が存在することになる。また、 CCD 面には同じ画角の光りが到達するので、 CCDの素子の密度を変更する以外では撮 像する画像の画素密度を部分的に変えることはできない、という問題点も存在するこ とになる。
[0015] そこで、(株) Hasselbladのデジタルバック 528Cや、(株)ニコンの電子顕微鏡デジタ ルカメラ DXM1200のように、プリズムの代わりに撮像素子の CCDを時間方向に半画 素シフトして撮影を行う手法も存在する。
[0016] し力しながら、この手法でも、上述した第 1の問題点と第 4の問題点とをそのまま有 するとともに、さらに、次の第 6の問題点も有している。
[0017] 第 6の問題点とは、 CCDに到達する光の明るさ(光線)は十分だが、時間方向に画 素をずらすので、撮像に時間が力かり動画撮像が難しい、という問題点である。
[0018] また、非特許文献 1に開示された手法は、上述した第 2の問題点乃至第 4の問題点 をそのまま有するとともに、さらに、次の第 8の問題点と第 9の問題点とを有している。
[0019] 第 8の問題点とは、カメラ本体の大きさにより、配置するカメラ (撮像素子)の数を増 やすことが難しい、という問題点である。
[0020] 第 9の問題点とは、プレンデイング (のりしろ)部分がな 、ために、境界で画像が歪み
、それを改善する他の手法が必要になる、という問題点である。
[0021] 以上の各種問題点をまとめると、従来の手法は何れも、複数の撮像素子を配置して
、高解像度および高精細な単一焦点の撮像装置を低コストで実現することは非常に 困難である、という問題点を有している。
[0022] 本発明は、このような状況に鑑みてなされたものであり、複数の撮像素子が配置さ れて構成される撮像装置であって、高解像度および高精細な単一焦点の撮像装置 を低コストで実現できるようにするものである。
課題を解決するための手段
[0023] 本発明の撮像装置は、複数の撮像素子をアレイ状に並べた焦点一致の撮像装置 であって、焦点一致の像を作る第 1の結像系と、第 1の結像系による映像を結像する 結像面と、結像面に結像した映像の所定の一部分が再結像された結果得られる映 像を撮像する撮像素子を 1つ含む第 2の結像系が複数存在し、複数の第 2の結像系 がアレイ状に配置されて形成される第 2の結像系群とから構成される光学系を備える ことを特徴とする。
[0024] 第 1の結像系と第 2の結像系群とを繋ぐ結像面またはその近傍に、フィールドレンズ が配置されて 、るようにすることができる。
[0025] 第 1の結像系と第 2の結像系群とを繋ぐ結像面またはその近傍に、ディフユーザー が配置されて 、るようにすることができる。 [0026] 第 2の結像系群を構成する複数の第 2の結像系のそれぞれは、それらに含まれる 撮像素子により撮像された第 1の画像の一部と、他の第 2の結像系に含まれる撮像 素子により撮像された第 2の画像の一部とを、第 1の画像と第 2の画像とを繋ぎあわせ るためのプレンデイング領域として保持できるように、それぞれ配置されて!ヽるように することができる。
[0027] 第 2の結像系群を構成する複数の前記第 2の結像系のそれぞれは、さらに、結像 面に結像した映像のうちの所定の一部を撮像素子に再結像させるレンズを含むよう に構成され、結像面とレンズとの間の距離が Fとされ、結像面から出射される光線のう ちの、プレンディング領域に対応する光線の幅が φとされ、撮像素子と、それに隣接 する撮像素子との間の距離が Dとされた場合、 2 X F Xtan ( <i) /2) > Dで表される 式を満たすように、それぞれ配置されて ヽるようにすることができる。
[0028] 第 2の結像系群を構成する複数の第 2の結像系のそれぞれについて他とは独立し て、撮像素子の位置と、レンズのズームのそれぞれとを個別に変化させる機構をさら に設けるようにすることができる。
[0029] その機構は、ズームを可変させるために複数のレンズのそれぞれを他とは独立して 駆動する第 1のァクチユエータと、配置位置を可変させるために複数の撮像装置のそ れぞれを他とは独立して駆動する第 2のァクチユエ一タとを含むようにすることができ る。
[0030] 撮像装置は、その機構を利用することで、第 2の結像系群を構成する複数の第 2の 結像系のうちの 1以上のそれぞれに含まれる 1以上の撮像素子のそれぞれに、他の 撮像素子と比較して高解像度な撮影を行わせ、その撮影が行われる場合に高解像 度の撮影の範囲を決定するための演算を行う演算部をさらに設けるようにすることが できる。
[0031] 高解像度の撮影の範囲を指定する操作をユーザが行うインタフェース部をさらに設 け、演算部は、インタフェース部によるユーザの操作内容に基づいて、高解像度の撮 影の範囲を演算するようにすることができる。
[0032] 複数の前記撮像素子のそれぞれに結像した映像の位相をそれぞれ補正するため の位相補正情報を保持する位相補正情報保持部をさらに設けるようにすることができ る。
[0033] 結像面に結像した所定のテストパターンの映像のうちの、複数の撮像素子のうちの 少なくとも 1つに再結像した映像を利用して、位相補正情報を予め求め、その位相補 正情報を位相補正情報保持部に保持させる位相補正情報演算部をさらに設けるよう にすることができる。
[0034] 結像面に結像した被写体の映像のうちの、複数の撮像素子のそれぞれに再結像し た映像のそれぞれの位相を、位相補正情報保持部に保持された位相補正情報を利 用して補正する位相補正部をさらに設けるようにすることができる。
[0035] 複数の撮像素子のそれぞれに結像した映像の輝度をそれぞれ補正するための輝 度補正情報を保持する輝度補正情報保持部をさらに設けるようにすることができる。
[0036] 結像面に結像した所定のテストパターンの映像のうちの、複数の撮像素子のうちの 少なくとも 1つに再結像した映像を利用して、輝度補正情報を予め求め、その輝度補 正情報を輝度補正情報保持部に保持させる輝度補正情報演算部をさらに設けるよう にすることができる。
[0037] 結像面に結像した被写体の映像のうちの、複数の撮像素子のそれぞれに再結像し た映像のそれぞれの輝度を、輝度補正情報保持部に保持された輝度補正情報を利 用して補正する輝度補正部をさらに設けるようにすることができる。
[0038] 本発明の撮像装置においては、第 1の結像系により焦点一致の像が結像面に作ら れ、その結像面に結像した映像の所定の一部力 アレイ状に配置されていいる複数 の第 2の結像系のそれぞれにより自身が含む撮像素子に再結像され、複数の撮像素 子のそれぞれにより自身に再結像された映像がそれぞれ撮像される。
[0039] 本発明の第 1の撮像方法は、第 1の結像系、および、撮像素子を含む複数の第 2の 結像系を少なくとも含む撮像装置の撮像方法であって、第 1の結像系により、所定の 結像面に、焦点一致の像を結像させ、複数の第 2の結像系のそれぞれにより、その 結像面に結像した映像のうちの所定の一部を、自身が含む前記撮像素子に再結像 させ、複数の撮像素子のそれぞれが、自身に再結像された映像を撮像することを特 徴とする。
[0040] 本発明の第 1の撮像方法においては、第 1の結像系において、所定の結像面に、 焦点一致の像を結像され、複数の第 2の結像系のそれぞれにおいて、その結像面に 結像した映像のうちの所定の一部を、自身が含む前記撮像素子に再結像され、複数 の撮像素子のそれぞれにより、自身に再結像された映像が撮像される。
[0041] また、本発明の撮像装置の設計方法は、第 1の結像系、および、撮像素子を含む 複数の第 2の結像系を少なくとも含む撮像装置の設計方法であって、第 1の結像系 により、所定の結像面に、焦点一致の像を結像させ、複数の第 2の結像系のそれぞ れにより、その結像面に結像した映像のうちの所定の一部を、自身が含む撮像素子 に再結像させることを特徴とする。
[0042] 本発明の撮像装置の設計方法においては、第 1の結像系において、所定の結像 面に、焦点一致の像を結像され、複数の第 2の結像系のそれぞれにおいて、その結 像面に結像した映像のうちの所定の一部を、自身が含む前記撮像素子に再結像さ れるように、撮像装置が設計される。
[0043] 本発明の第 2の撮像方法は、焦点一致の像を作る第 1の結像系、第 1の結像系の 結像面、および、自分自身に結像された映像を撮像する撮像素子と、結像面に結像 した映像のうちの所定の一部を撮像素子に再結像させるレンズとを含む複数の第 2 の結像系がアレイ状に配置されて形成される第 2の結像系群カゝら構成される光学系 を備える撮像装置の撮像方法であって、第 2の結像系群を構成する複数の第 2の結 像系のそれぞれが、それらに含まれる撮像素子により撮像された第 1の画像の一部と 、他の第 2の結像系に含まれる撮像素子により撮像された第 2の画像の一部とを、第 1の画像と第 2の画像とを繋ぎあわせるためのプレンデイング領域として保持するため に、結像面とレンズとの間の距離が Fとされ、結像面から出射される光線のうちの、ブ レンデイング領域に対応する光線の幅が φとされ、撮像素子と、それに隣接する撮像 素子との間の距離が Dとされた場合、 2 X F Xtan ( (i) /2) > Dで表される式を満た すように、それぞれ配置された後、撮像装置は、被写体を撮像することを特徴とする。
[0044] 本発明の第 2の撮像方法においては、第 2の結像系群を構成する複数の第 2の結 像系のそれぞれが、それらに含まれる撮像素子により撮像された第 1の画像の一部と 、他の第 2の結像系に含まれる撮像素子により撮像された第 2の画像の一部とを、第 1の画像と第 2の画像とを繋ぎあわせるためのプレンデイング領域として保持するよう に、それぞれ配置される。詳細には、結像面とレンズとの間の距離力^とされ、結像面 力 出射される光線のうちの、プレンデイング領域に対応する光線の幅が φとされ、 撮像素子と、それに隣接する撮像素子との間の距離が Dとされた場合、 2 X F Xtan ( /2) > Dで表される式を満たすように、複数の第 2の結像系のそれぞれが配置さ れる。その後、撮像装置により、被写体が撮像される。
発明の効果
[0045] 以上のごとぐ本発明によれば、複数の撮像素子を配置した撮像装置を実現できる 。特に、高解像度および高精細な単一焦点の撮像装置を低コストで実現できる。或 いは、解像度および高精細な単一焦点の撮像装置を低コストで実現するために必要 な撮像方法を提供できる。
図面の簡単な説明
[0046] [図 1]従来の光学系を説明する図である。
[図 2]本発明が適用される撮像装置の構成例を示す図である。
[図 3]従来の手法に基づいて思想された光学系を説明する図である。
[図 4]本発明が適用される撮像装置のうちの、図 2とは異なる第 2の光学系の構成例 を示す図である。
[図 5]図 2の第 2の光学系の配置位置の例を説明する図である。
[図 6]被写体の一部が高解像度に撮影される様子の例を示す図である。
[図 7]図 6の例の撮影時における図 2の第 2の光学系群の動作例を説明する図である
[図 8]輝度補正情報の例を示す図である。
[図 9]輝度補正係数計算処理の例を説明するフローチャートである。
[図 10]輝度補正処理の例を説明するフローチャートである。
[図 11](R, G, B)の 7つの色パターンと、それらに対応付けられた CODEの例を説明す る図である。
[図 12]—次差分符号の例を説明する図である。
[図 13]位相補正のテストパターンの例を示す図である。
[図 14]位相補正情報計算処理の例を説明するフローチャートである。 [図 15]図 14のステップ S31の処理で撮像されたテストパターンの画像うちの、図 2の 1 つの CCDにより撮像されたカメラ画像の例を示す図である。
[図 16]図 14のステップ S32のカメラ画角の絶対座標の計算処理の例を説明するフロ 一チャートである。
[図 17]位相補正処理の例を説明するフローチャートである。
[図 18]図 17のステップ S 75の一部の処理であるプレンディング処理の一例の概略を 説明する図である。
[図 19]位相検出処理の例を説明するフローチャートである。
[図 20]図 2の撮像装置の信号処理部の他の構成例を示すブロック図である。
符号の説明
[0047] 31 撮像装置, 41 第 1の結像系, 42 第 2の結像系, 43 フィールドレンズ,
44 信号処理部, 45 高解像度撮影の範囲指定用インタフェース, 51 対物レ ンズ, 61— 1乃至 61— 3 ズームレンズ, 62— 1乃至 62— 3 CCD, 71— 1乃至 71 - 3 メモリ, 72 位相補正回路, 73 位相補正情報メモリ, 74 輝度検出/ 補正回路, 75 輝度補正情報メモリ, 76 高解像度の範囲演算回路, 77 ズー ムァクチユエータ, 78 位置制御ァクチユエータ, 201 CPU, 202 ROM, 20 3 RAM, 208 記憶部, 211 リムーバブル記録媒体
発明を実施するための最良の形態
[0048] 次に、本発明が適用される手法について説明する。
[0049] 本発明が適用される手法とは、主に、次の第 1の手法乃至第 3の手法を言う。
[0050] 第 1の手法とは、 2回結像させる手法、換言すると、第 1の結像系(第 1の光学系とも 称する)と第 2の結像系(第 2の光学系とも称する)とを形成させる手法である。この第 1の手法により、単一焦点、かつ撮像素子 (例えば CCD等)間の物理的な干渉なくブ レンデイング領域 (後述する図 6のプレンデイング領域 103等)を保持した撮影が可能 になる。ただし、プレンデイング領域を保持するためには、撮像素子の配置に注意を 要する。
このことは、図 5を参照して後述する。
[0051] 第 2の手法とは、第 1の手法により形成される第 2の結像系の撮像素子の個数、位 置、およびズームのうちの少なくともひとつを変化させる、という手法である。この第 2 の手法により、部分的に高解像度の撮影が可能になる。さらに、この第 2の手法 (およ び第 1の手法)を適用した撮像装置の構成要素としてプリズムは不要になるので、撮 像素子 (CCD等)の数を増やしてもコストを抑えることが可能になる。
[0052] 第 3の手法とは、位相補正若しくは検出処理、輝度補正若しくは検出処理、並びに 、それらの処理に必要な位相補正情報若しくは輝度補正情報を自動で求める処理を 実現するための手法である。自動とは、撮像装置を使用するユーザ等の操作 (トリガ 信号の入力操作を除く)を介在することなく、撮像装置自身の判断で処理を実行する ことをいう。なお、第 3の手法により実現される各種処理については、図 10以降のフロ 一チャートを参照して参照する。
[0053] 第 1の手法乃至第 3の手法を適用した撮像系を、従来のプリズムを用いた単一結像 の撮像系で実現することは実質上不可能である。このため、本発明人は、第 1の手法 乃至第 3の手法を適用した撮像系を有する撮像装置を発明した。かかる撮像装置は 、例えば図 2に示されるように構成される。即ち、図 2は、本発明が適用される撮像装 置の一実施の形態の構成を示して 、る。
[0054] 図 2の例では、撮像装置 31は、第 1の結像系(第 1の光学系) 41、第 2の結像系(第 2の光学系)群 42、フィールドレンズ 43、信号処理部 44、および、高解像度撮像範 囲指定用インタフェース 45を含むように構成されて!、る。
[0055] はじめに、第 1の結像系 41、第 2の結像系群 42、および、フィールドレンズ 43から なる光学系につ 、て説明する。
[0056] 上述したように、特許文献 1等の従来の光学装置 (撮像装置)は、一回のみ結像を 行い、その像をプリズムで分割している。このように、従来、プリズムで同じ光線を分 割する手法が主に適用されていた。これにより、上述した各種問題点が生じてしまうこ とになる。
[0057] また、このような問題点を解消する手法として、例えば図 3に示される手法、即ち、 例えば CCD83— 1乃至 83— 3等複数の CCDをアレイ状に配置して、物体 81の像を レンズ 82を介してアレイ状に配置された複数の CCDに結像させる、といった手法が 考えられる。し力しながら、 CCD83— 1乃至 83— 3等の物理的大きさを考えると、各 C CDの枠同士が干渉して、画像が撮像できない CCD間の部分 84— 1や部分 84— 2が 生じる、という新たな問題点が発生してしまう。
[0058] さらにまた、非特許文献 1に開示された従来の光学系は、第 1の結像系と第 2の結 像系自体は存在するが、第 2の結像系に分割する際にプリズムで分割するため、境 界部分を撮影することができず、大きく歪みをもってしまう、という問題点も発生してし まつ。
[0059] そこで、本発明人は、これらの様々な問題点を併せて解消すベぐ図 2に示されるよ うな再結像 (2回結像)を用いた光学系、即ち、第 1の結像系 41と、第 2の結像系群 4 2とを有し、それらの間をフィールドレンズ 43で結ぶ構造の光学系を発明した。
[0060] 第 1の結像系は、例えば対物レンズ 51を有し、 CCDの画角等に関する光学特性を 決める光学系であって、フィールドレンズ 43またはその近傍に物体面 32の像を 1回 結像させる。換言すると、フィールドレンズ 43は、第 1の結像系の焦点距離またはそ の手前近傍に配置される。第 2の結像系群 42は、 1つのズームレンズ 61— Kと 1つの CCD62— Kとを有する第 2の結像系が N個(Nは、 2以上の整数値)集まって構成され る。なお、 kは、 1乃至 Nの整数値である。ただし、図 2の例では、 1乃至 3のうちの何れ 力の値が kになる。また、ここで言う 1つのズームレンズ 61— Kとは、ズームレンズ 61— Kが 1つのレンズだけで構成されることを意味するのではなぐ 1以上のレンズから構 成されるズームレンズ 62— 1乃至 62— Nが第 2の光学系群 42内に存在する力 1つ の第 2の結像系に着目した場合、 1つの第 2の結像系には、ズームレンズ 62— 1乃至 62— Nのうちの所定の 1つが設けられるという意味である。
[0061] このような第 2の結像系群 42においては、他とは干渉なしに CCD62— Kを配置する ことが可能になり、フィールドレンズ 43またはその近傍に結像された物体面 32の像を CCD62— Kの面に再結像させることが可能になる。
[0062] なお、図 2の例では、フィールドレンズ 43が採用されている力 その代わりに、図示 せぬディフユーザーを採用してもよい。ただし、ディフューザ一は、出力光線の幅 (ビ ーム角)を広げる機能を有しており、この機能のため、像の解像度が落ちることに注 意を要する。
[0063] また、第 2の光学系における撮像素子は、図 2の例では CCD62— Kが採用されてい るが、当然ながら図 2の例に限定されず、任意の撮像素子でよい。
[0064] さらにまた、図 2の例では、フィールドレンズ 43より小さい第 2の光学系が採用され ているが、図 2の例に限定されず、例えば、図 4に示されるように、 CCD62— K (図 4に は、 CCD62—1のみが図示されている)の位置を偏心させることで、フィールドレンズ 43より大きな第 2の光学系を採用(配置)することも可能である。
[0065] このような第 2の光学系群 42を採用することで、自由度の高い撮影を行うことが可 能になる。即ち、 CCD62—1乃至 62—Nの個数 Nの増加が容易になるので、自由度 の高い撮影を行うことが可能になる。また、 CCD62— Kを有する第 2の光学系の位置 とズームを、他の第 2の光学系とは独立して容易に可変できるので、例えば部分的な 高解像度撮影を行うことが容易にできるようになり、その結果、自由度の高い撮影を 行うことが可能になる。
[0066] 詳細には、上述したように、従来のプリズムで分割する手法では、 CCDの数を多くし ようとすると、プリズムの数が非常に多くなる、という問題が発生してしまう。具体的に は。 4分割のプリズムを採用する場合において、 4枚の CCDを採用するときには 1個の プリズムだけを採用すればよいが、 16枚の CCDを採用するときには 5個のプリズムを 採用する必要が生じ、さらに、 64枚の CCDを採用するときには 21個ものプリズムを採 用する必要が生じる、という問題が発生してしまう。また、上述した図 1に示される手法 で採用されて 、る CCD1— 1乃至 1 4等の配置を考えると、プリズム 2の結像面自体 も大きくなり、このようなプリズム 2を加工するのは難しく非常に高価になる、という問題 も発生してしまう。
[0067] これに対して、本実施の形態の第 2の光学系群 42では、ズームレンズ 61— K等の レンズの大きさが許す範囲内であれば、 CCD62— Kを多数配置することが可能であ る。たとえレンズが大きくなつたとしても、大きなプリズムをカ卩ェする場合と比較すると、 安価でレンズを製造できるので、それに伴い、本実施の形態の第 2の光学系群 42を 含む光学系全体も安価で実現できる。
[0068] また、 CCD62— Kを追加する場合にも、焦点距離が変わらないように追カ卩して並べ れば新規に光路設計が不要である。
[0069] ただし、プレンディング領域 (後述する図 6のプレンディング領域 103等)を保持する ためには、 2つの CCD62— Kと CCD62— K+1とを図 5に示されるように配置させる必 要がある。即ち、図 5は、ブレンディング領域を保持するための、 2つの CCD62— Kと CCD62— K+1の配置方法を説明する図である。
[0070] 図 5の例では、フィールドレンズ 43の右方近傍の面 91が撮像面(結像面)とされ、そ のうちの領域 92がブレンデイング領域とされている。また、 Fは、撮像面 91と、ズーム レンズ 61— Kまたは 61— K+1との間の距離とされ、 Dは、 2つの CCD62— Kと CCD62 K+1との間隔とされ、 φは、結像面から出射される光線のうちの、プレンディング領 域 92に対応する光線の幅 (ビーム角)を示している。
[0071] この場合、ブレンディング領域 92を保持するためには、図 5に示されるように、ブレ ンデイング領域 92に対応する光線力 2つの CCD62— Kと CCD62— K+1との何れに も入射される必要がある。これを満たすためには、次の式(1)のような条件が必要に なる。
[0072] 2 X F Xtan ( /2) > D · · · (1)
[0073] 換言すると、式(1)を満たす間隔 Dで、 2つの CCD62— Kと CCD62— K+1とを配置 することで、ブレンディング領域 92に対応する光線が、 2つの CCD62— Kと CCD62 — K+1との何れにも入射され、その結果、ブレンディング領域 92が保持されるのであ る。
[0074] 以上説明したように、第 2の光学系群 42を採用することで、 CCD62— 1乃至 62— N の個数 Nの増加が容易になるので、即ち、プレンディング領域を保持するために、上 述した式(1)を満たす間隔 Dで 2つの CCD62— Kと CCD62— K+1とを配置する t\、う 条件を満たせば、自由な配置が容易に可能になるので、その結果、自由度の高い撮 影を行うことも容易に可能になる。
[0075] また、本実施の形態の第 2の光学系は、 1つの CCD62— Kを水平方向と垂直方向 とのうちの少なくとも一方向にシフトする機構 (以下、シフト機構と称する)と、ズームの 機構 (以下、ズーム機構と称する)とを有している。 1つの CCD62— Kのシフト機構は 、後述する位置制御ァクチユエータ 78により他とは独立して駆動される。また、 1つの CCD62— Kのズーム機構は、ズームァクチユエータ 77により他とは独立して駆動され る。 [0076] これにより、 CCD62— 1乃至 62— Nの配置の密度とそれぞれの撮像範囲を容易に 変化させることができ、例えば図 6に示されるような人 102のうちの顔(図中黒い丸の 部分)のみを高解像度にするといつた、部分的な高解像度の撮影が可能になる。即 ち、図 6の左側の図は、均一撮影により、人 102が撮影される様子を示している。均 一撮影とは、 CCD62— 1乃至 62— Nがアレイ状に間隔 Dだけ離間して均等に配置さ れ、かつ、 CCD62— 1乃至 62— Nのズーム率が一律であるという条件のもとで行われ る撮影を言う。これに対して、図 6の右側の図は、人 102の顔 (丸い部分)が高解像度 に撮影される様子、即ち、図 2の物体 32が人 102である場合に物体 32の一部分 (顔 )のみが高解像度に撮影される様子を示している。なお、図 6の両図において、 1つ の四角は、カメラ(CCD62— K)の画角 101を示している。従って、 1つの CCD62— K の画角 101と、その隣の 1つの CCD62— K+ 1の画角 101とが重なり合った領域 103 1S ブレンディング領域となる。
[0077] また、図 7は、図 6の撮影が行なわれるときの、第 2の結像系群 42の動作を説明す る図である。即ち、図 7の左側の図は、図 6の左側の図の均一撮影が行なわれるとき の第 2の結像系群 42の動作を説明する図である。これに対して、図 7の右側の図は、 図 6の右側の図の撮影、即ち、人 102の顔の部分のみが高解像度に撮影されるとき の第 2の結像系群 42の動作を説明する図である。
[0078] 図 7の例では、垂直方向に連続して並ぶ 4つの第 2の光学系、即ち、 CCD62— 1を 有する第 2の光学系(以下、 1番目の第 2の光学系と称する)、 CCD62— 2を有する第 2の光学系(以下、 2番目の第 2の光学系と称する)、 CCD62— 3を有する第 2の光学 系(以下、 3番目の第 2の光学系と称する)、および、 CCD62— 4を有する第 4の光学 系(以下、 4番目の第 2の光学系と称する)のみが図示されている。また、図 7の例で は、両図ともに、図 6の人 102の像 111がフィールドレンズ 43の同一位置に結像され ている。さらにまた、像 111のうちの領域 112と、像 111のうちの領域 113とのそれぞ れカ ブレンディング領域の 1つとなる。
[0079] 図 7の両図を比較するに、図 6の右側の図の撮影が行なわれるとき、即ち、人 102 の顔の部分のみが高解像度に撮影されるとき、 1番目の第 2の光学系は、そのズーム 機構により「WIDE (広角)」のズームが行なわれ、そのシフト機構により、図中下側方 向の位置へのシフト shiftlが行なわれる。また、 2番目の第 2の光学系は、そのズーム 機構により「WIDE」のズームが行なわれ、そのシフト機構により、図中下側方向の位 置へのシフト shift2が行なわれる。 3番目の第 2の光学系は、そのズーム機構により「T ELE (望遠)」のズームが行なわれ、そのシフト機構により、図中下側方向の位置への シフト shift3が行なわれる。 4番目の第 2の光学系は、そのズーム機構により「WIDE」 のズームが行なわれ、そのシフト機構により、図中上側方向の位置へのシフト shift4 が行なわれる。
[0080] このように、本実施の形態にぉ 、ては、第 2の光学系群 42を構成する各第 2の光学 系 42のそれぞれについての、位置のシフト操作と、「WIDE」若しくは「TELE」のズー ムの操作とのみを行うことで、 CCD62— Kを有する第 2の光学系の位置とズームと他 とは独立して容易に可変させることができる。その結果、部分的に高解像度な撮影を 行うことが容易に可能になり、自由度の高い撮影を行うことが可能になる。
[0081] なお、部分的に高解像度な撮像が行われる場合、画角が一定であるとすると、上述 した図 7に示されるように、一部の第 2の光学系が「TELE」のズームになると、他の第 2の光学系が「WIDE」のズームになるので、ズームが「TELE」である第 2の光学系によ り撮影された部分は高解像度となる力 その周辺部分、即ち、ズームが「WIDE」であ る他の第 2の光学系により撮影された部分の周辺解像度が若干劣化する。
[0082] ただし、一般的に、ユーザ (撮影者)にとつては、撮影範囲(フィールドレンズ 43また はその近傍に結像される範囲)の全てが重要なわけではなぐそのうちの一部分が本 当に見たいところであることが多い。この場合、その本当に見たいところが高解像度 であれば足り、他は低解像度でも構わな!/、と要望するユーザが多!、。
[0083] この要望に応えるためには、撮影範囲の中から、ユーザが本当に見たいところ、即 ち、高解像度で撮影する範囲 (以下、高解像度撮像範囲と称する)を選択する必要 力 Sある。高解像度撮像範囲を選択する手法は、特に限定されず、例えば、次の第 1 の選択手法や第 2の選択手法を採用することが可能である。
[0084] 第 1の選択手法とは、ユーザが、図 2の高解像度撮像範囲指定用インタフェース 45 を通じて画像内の所望の領域を指定し、高解像度撮像範囲演算回路 76が、その指 定された領域を高解像度撮像範囲として選択する、 、つた手法である。 [0085] 第 2の選択手法とは、高解像度撮像範囲演算回路 76が、画像内の周波数を計算 して、周波数が高い領域を重点的に高解像度にする(高解像度撮像範囲として選択 する)、といった手法である。
[0086] なお、このようにして CCD62— 1乃至 CCD62— Nのうちの、 1以上の CCDにより撮 像された高解像度撮像範囲の画像と、他の CCDにより低解像度で撮影された範囲の 画像とを組み合わせて 1枚の画像 (フレーム)を構成する場合には、高解像度撮像範 囲にあわせて他の範囲の画像を拡大等して、高解像度撮像範囲の画像とその他の 範囲の画像とをプレンディング領域にて張り合わす処理が必要になる。このような処 理を、以下、ブレンディング処理と称する。ブレンディング処理の詳細については、図 18等を参照して後述する。
[0087] 以上、図 2の例の撮像装置 31のうちの、第 1の結像系 41 (第 1の光学系 41)、第 2 の結像系群 42 (第 2の光学系群 42)、およびフィールドレンズ 43からなる光学系につ いて説明した。また、その説明の中で、高解像度撮像範囲指定用インタフェース 45 につ 、ても、上述した第 1の選択手法で利用されるインタフェースであると説明した。
[0088] そこで、以下、図 2の例の撮像装置 31のうちの、残りの信号処理部 44について説 明する。
[0089] 図 2の例では、信号処理部 44は、メモリ 71— 1乃至位置制御ァクチユエータ 78を 含むように構成されている。
[0090] なお、高解像度撮像範囲演算回路 76乃至位置制御ァクチユエータ 78については 、上述したので、ここではその説明は省略する。
[0091] メモリ 71— 1乃至 71— 3のそれぞれは、 CCD62— 1乃至 62— 3のそれぞれから出 力された画像信号を記憶する。即ち、図 2の例では、 3つの CCD62— 1乃至 62— 3 のみが図示されているため、 3つのメモリ 71— 1乃至 71— 3のみが図示されている。 従って、実際には、 N個の CCD62— 1乃至 62— Nのそれぞに対して、 N個のメモリ 71 1乃至 71 Nのそれぞれが設けられる。
[0092] ところで、本実施の形態では、図 2の例の撮像装置 31における第 1の結像系 41と 第 2の結像系群 42との歪みのパラメータは違うとされている。そこで、これらの歪みを 補正するために、図 2の例の撮像装置 31には、位相検出/補正回路 72乃至輝度補 正情報メモリ 75が設けられている。
[0093] そこで、以下、位相検出/補正回路 72乃至輝度補正情報メモリ 75がこれらの歪み を簡単に補正するための手法の一例として、テストパターンを用いた位相と輝度の自 動補正手法の一例について説明する。即ち、いくつかのパラメータでテストパターン( テストパターンにつ 、ては後述する)を予め撮影し、位相補正情報や輝度補正情報 を自動抽出する抽出手法と、被写体の撮影時にそれらの位相補正情報や輝度補正 情報を利用して、リアルタイムに被写体の画像の位相や輝度の補正を行う補正手法 とのそれぞれにつ 、て説明する。
[0094] はじめに、輝度検出/補正回路 74についての輝度補正情報の抽出手法と、輝度の 補正手法 (輝度補正情報の使用法)とにつ!、て説明する。
[0095] 輝度検出/補正回路 74は、撮影時に、輝度補正情報メモリ 75に蓄えられた輝度補 正情報、具体的には例えば図 8に示される輝度補正情報に基づいて、リアルタイムで マッピングすることができる。
[0096] この場合、輝度補正情報が予め生成 (抽出)され、輝度補正情報メモリ 75に予め蓄 えられている必要がある。そこで、本実施の形態では、輝度検出/補正回路 74が、輝 度補正情報を予め抽出して、輝度補正情報メモリ 75に予め記憶するようにしている。 以下、このような輝度検出/補正回路 74により輝度補正情報が予め抽出される手法、 即ち、輝度補正情報の抽出手法について説明する。
[0097] 輝度補正情報の抽出手法とは、次のような一連の処理を実現するための手法であ る。
[0098] 即ち、輝度検出/補正回路 74は、まず、壁一面白色の映像を撮影して、その映像 の輝度値の曲面を補正パラメータとして抽出する。
[0099] 詳細には、壁一面白色の画像 (フレーム)は、その画像の何れの部分も輝度値が同 一となるところ、実際には、図 2のフィールドレンズ 43等の影響で、その画像のうちの 、中央部分の輝度値が最も高く(最も明るく)、周辺部分にいくに従って輝度値が低く なっていく(暗くなつていく)傾向にある。従って、その画像の輝度の分布は、曲面 S(x, y)の関数で表すことが可能である。この曲面 S(x,y)の一般式は、例えば次の式(2)に 示される通りになる。 [0100] S(x, y)=bl · (x - b2)"2 + b3 · (y — b4)"2 + b5 · x · y + b6
•••(2)
[0101] 式(2)にお!/、て、 bl乃至 b6は、各パラメータ (係数)を示して!/、る。 Xと yとは、 CCD6 2— 1乃至 62— Nがアレイ状に配置されている平面上において、水平方向を例えば X 方向として垂直方向を Y方向とした場合における XY座標系の座標(以下、このような X Y座標系を絶対座標系と適宜称し、その座標を絶対座標と適宜称する)を表している
[0102] 従って、 1つの CCD62— Kの位置力 絶対座標系では(u,v)と表されるとすると、こ の輝度補正の係数 bl乃至 b6は、 1つの CCD62— Kの位置(1つの第 2の光学系の位 置(u,v)およびズーム率 rによって一意に求まることになる。
[0103] そこで、輝度検出/補正回路 74は、例えば図 9のフローチャートに従って、輝度補 正の係数 bl乃至 b6を演算する。即ち、図 9は、輝度検出/補正回路 74が実行する輝 度補正の係数の演算の処理 (以下、輝度補正係数計算処理と称する)の一例を示し ている。
[0104] ステップ S1において、輝度検出/補正回路 74を含む撮像装置 31は、壁一面白色 の画像、即ち、一面白色のテストパターンの映像を撮影する。その際、所定の 1つの CCD62— Kの位置 (u,v)やズーム率 rは適当に設定される。
[0105] ステップ S2において、輝度検出/補正回路 74は、ステップ S1の撮影処理で利用さ れた CCD62— Kの位置(u,v)およびズーム率 r、並びに、 CCD62— Kの出力画像(壁 一面白色の画像のうちの一部分の領域画像)の輝度値を用いて、上述した式(2)の 輝度補正の各係数 (各パラメータ) bl乃至 b6を例えば最小自乗法で演算する。
[0106] そして、ステップ S3において、輝度検出/補正回路 74は、輝度補正情報メモリ 75に 、各係数(各パラメータ) bl乃至 b6を係数群 LUTとして、現在の CCD62— Kの位置( u,v)およびズーム率 rの情報とともに格納する。
[0107] これにより、輝度補正係数演算処理は終了し、その結果、位置 u,v,ズーム率 rに対 する曲率のデータが得られることになる。
[0108] 以上の輝度補正係数計算処理が、位置 u,v,ズーム率 rの幾つかのパターン毎に実 行されると、上述した図 8に示されるような輝度補正情報が得られ、輝度補正情報メモ リ 75に格納される。
[0109] 次に、輝度の補正手法 (輝度補正情報の使用法)について説明する。
[0110] 図 10は、輝度の補正手法に対応する処理 (以下、輝度補正処理と称する)の一例 を説明するフローチャートである。そこで、以下、図 10を参照して、輝度補正処理に ついて説明する。
[0111] ステップ S11において、輝度検出/補正回路 74は、所定の 1つの CCD62— Kに着 目し、現在の位置とズーム率が近い輝度補正の係数 bl乃至 b6 (係数群 LUT)を、輝 度補正情報メモリ 75から 1以上読み出す。現在の位置とズーム率が近い輝度補正の 係数 bl乃至 b6とは、例えば、 CCD62— Kの現在の位置 (u,v)が(0.5,1)とされ、ズーム 率が 1.05とされた場合には、図 8の輝度補正情報のうちの一番上の行や次の行の係 数 bl乃至 b6のことを指す。即ち、いまの場合、 CCD62— Kの位置 (u,v)が(0,0)とされ てズーム率が 1.1とされた場合に図 9の輝度補正係数計算処理により演算された係数 bl乃至 b6や、 CCD62— Kの位置 (u,v)が(1,2)とされてズーム率力 1.2とされた場合に 図 9の輝度補正係数計算処理により演算された係数 bl乃至 b6が、現在の位置とズ ーム率が近い輝度補正の係数 bl乃至 b6 (係数群 LUT)として、ステップ S11の処理 で輝度補正情報メモリ 75から読み出される。
[0112] ステップ S12において、輝度検出/補正回路 74は、位置とズーム率が近い輝度補 正の係数 bl乃至 b6 (係数群 LUT)から、位置とズーム率の曲面 S(x,y)を比例計算で 求める。
即ち、輝度検出/補正回路 74は、位置とズーム率が近い輝度補正の係数 bl乃至 b6 の幾つかの組、即ち、位置とズーム率が近い係数群 LUTの幾つかの組を線形補間 することで、仮想の係数 bl乃至 b6を求め、その仮想の係数 bl乃至 b6を上述した式( 2)に代入することで輝度補正曲面 S(x,y)を求める。
[0113] そして、ステップ S13において、輝度検出/補正回路 74は、ステップ S12の処理で 求めた仮想の輝度補正曲面 S(x,y)の最小値 MIN{S(x,y)}を計算する。
[0114] ステップ S14において、輝度検出/補正回路 74を含む撮像装置 31は、被写体の映 像を撮影する。これ〖こより、 1フレームを構成する各画素、即ち、各 CCD62- 1乃至 6 2— Nの各出力画像を構成する各画素のそれぞれの入力輝度値 (画素値) IN(x,y)が 輝度検出/補正回路 74に入力され、処理はステップ S 15に進む。
[0115] なお、以下、 1つの画素の入力輝度値 (画素値) IN(x,y)を、入力画素 IN(x,y)と称す る。これに伴い、輝度検出/補正回路 74から出力されるその画素の輝度値 (画素値)
OUT(x,y)を、出力画素 OUT(x,y)と称する。
[0116] また、以下、処理の対象として注目すべきフレーム、即ち、ここではステップ S 14の 処理で撮影されたフレームを、注目フレームと称する。
[0117] ステップ S15において、輝度検出/補正回路 74は、注目フレームを構成する各入 力画素 IN(x,y)のうちの所定の 1つを注目入力画素 IN(x,y)に設定し、注目入力画素 IN
(x,y)に応じて、注目出力画素 OUT(x,y)の計算を行う。即ち、輝度検出/補正回路 74 は、次の式(3)の右辺を演算することで、注目入力画素 IN(x,y)を補正し、その補正結 果である注目出力画素 OUT(x,y)を求める。
[0118] OUT(x,y) = IN(x, y) · MINS(x, y)/S(x, y)…(3)
[0119] ステップ S16において、輝度検出/補正回路 74は、注目フレームを構成する全画 素についての処理を終了した力否かを判定する。
[0120] ステップ S16において、注目フレームを構成する全画素についての処理がまだ終 了されていないと判定されると、処理はステップ S 15に戻され、それ以降の処理が繰 り返される。
[0121] 即ち、ステップ S15と S16とのループ処理が繰り返し実行されることで、注目フレー ムを構成する全画素の出力画素 OUT(x,y)が求められる。その結果、これらの各出力 画素 OUT(x,y)力もなる注目フレーム力 映像信号のうちの少なくとも一部として、輝 度検出/補正回路 74から出力されることになる。
[0122] そして、ステップ S16において、注目フレームを構成する全画素についての処理が 終了したと判定されて、処理はステップ S 17に進む。
[0123] ステップ S17において、輝度検出/補正回路 74は、全フレームの撮影が終了したか 否か (ユーザ力もの撮影終了の指示がなされた力否か)を判定する。
[0124] ステップ S17において、全フレームの撮影がまだ終了していない(ユーザからの撮 影終了の指示がなされていない)と判定されると、処理はステップ S14に戻され、それ 以降の処理が繰り返される。 [0125] 即ち、次のステップ S 14の処理で撮影された次のフレームが注目フレームとなり、ス テツプ S15と S16とのループ処理が繰り返し実行されて、注目フレーム(次のフレーム )を構成する全画素の出力画素 OUT(x,y)が求められる。その結果、これらの各出力 画素 OUT(x,y)力 なる注目フレーム(次のフレーム)が、映像信号のうちの少なくとも 一部として、輝度検出/補正回路 74から出力されることになる。
[0126] その後、ステップ S17において、全フレームの撮影が終了した (ユーザ力もの撮影 終了の指示がなされた)と判定されると、輝度補正処理は終了となる。
[0127] 以上、輝度検出/補正回路 74についての輝度補正情報の抽出手法と、輝度の補 正手法 (その使用法)とについて説明した。
[0128] 次に、位相検出/補正回路 72についての位相補正情報の抽出手法と、位相の補 正手法 (位相補正情報の使用法)とにつ!、て説明する。
[0129] 位相検出/補正回路 72は、撮影時に、位相補正情報メモリ 73に蓄えられた位相補 正情報に基づ 、て、リアルタイムでマッピングすることができる。
[0130] この場合、位相補正情報が予め生成 (抽出)され、位相補正情報メモリ 73に予め蓄 えられている必要がある。そこで、本実施の形態では、位相検出/補正回路 72が、位 相補正情報を予め抽出して、位相補正情報メモリ 73に予め記憶することができる。以 下、このような位相検出/補正回路 72により位相補正情報が予め抽出される手法、即 ち、位相補正情報の抽出手法について説明する。
[0131] 位相補正情報の抽出手法とは、次のような一連の処理を実現するための手法であ る。
[0132] 即ち、位相検出/補正回路 72は、まず、とあるテストパターンを撮影して、その撮影 後の画像のうちの 1つの画角の画像 (所定の 1つの CCD62— Kにより撮影された部分 の画像)から、その画角(CCD62— K)の絶対座標を補正パラメータとして抽出する。 テストパターンとは、例えば、複数のブロックからなる画像であって、複数のブロックの それぞれが、隣接する他のブロックとは独立した所定の一色で塗りつぶされた画像の ことを言う。なお、多くの場合、隣接するブロックはそれぞれ異なる色で塗りつぶされ ているが、場合によっては、同一色で塗りつぶされていることもある。
[0133] このテストパターンは、撮影されたときに、所定の画角(所定の 1つの CCD62— K) の座標とズーム率とがー意に分力るテストパターンであることが要求される。そして、 テストパターンは、 1つのカメラ (CCD62— K)の画角の中に全ブロックが収まらな!/、の で、左右や上下を参照する(見る)ことで、そのブロックを撮影した CCD62— Kの位置 が分力ることが望ましい。
[0134] そこで、以下、図 11乃至図 13を参照して、このようなテストパターン (画像データ)を 生成する手法の一例について説明する。
[0135] テストパターンの目的は、上述したように、撮像されたそのテストパターンのうちの 1 つの画角の画像 (所定の 1つの CCD62— Kにより撮影された部分の画像)から、その 画角(CCD62— K)の絶対座標を補正パラメータとして抽出することである。従って、 このテストパターンは、撮影されたときに、所定の画角(所定の 1つの CCD62— K)の 座標とズーム率とがー意に分力るテストパターンであることが要求される。
[0136] そこで、本実施の形態では、撮像装置 31または他の装置 (以下、単に装置と称す る)は、テストパターンを構成する各ブロックのうちの所定の 1つのブロック(以下、注 目ブロックと称する)の符号 Vと、その上下もしくは左右のブロックの符号 Vとの差分か ら、注目ブロックの絶対位置が分力るような符号ィ匕方式に従って、各ブロックを符号 化する。なお、この符号ィ匕方式の具体例については、図 12を参照して後述する。
[0137] この場合、 1つの符号 Vと 1つの色とを予め対応付けておけば、例えば、所定の表示 装置が、各ブロックの符号 Vのそれぞれに対応付けられた色で、各ブロックを表示す ることで、テストパターンを表示する(作成する)ことができる。
[0138] 具体的には例えば、テストパターンを構成する各ブロックに表示され得る色として、 図 11に示されるような 7つの(R,G,B)のパターン色と、「CODE」に記述された 7つの 値(0乃至 6)のそれぞれを予め対応付けておく。即ち、この「CODE」力 各ブロックの 符号 Vとなり得る値である。例えば、テストパターンを構成する各ブロックのうちの注目 ブロックが符号 Vが 0である場合には、その注目ブロックは、(R,G,B) =(0,0,1)のパター ン色、即ち、青で表示されることになる。
[0139] なお、色のパターン数は、図 11の例では 7パターンとされている力 図 11の例に限 定されず、任意のパターン数でよい。即ち、例えば、 RGBの階調を用いて、さらに複 数のパターン色を定義してもよい。ただし、 RGBの階調を用いると上述した輝度の歪 みに起因する誤差が大きくなるので、あまりに複数のパターン色を定義すると、テスト ノ ターンが図 2の撮像装置により撮像された場合、撮像後のテストパターンにおいて は、注目ブロックや隣接するブロックの色の判別ができなくなってしまうという問題点 が発生してしまう。そこで、この問題点を発生させないために、色のパターン数は、 RG Bのそれぞれの有無(1 or 0)の組み合わせだけで出来る 8パターン程度、即ち、図 1 1の例程度が好適である。ただし、図 11の例では、(R,G,B)=(0,0,0)のパターン色、即 ち、黒は除外され、その結果、 7パターンとされている。(R,G,B)=(0,0,0)のときには、そ れは画角外を示すのか、或いは (0,0,0)を示すのかが装置側で判断できないからであ る。
[0140] このように、図 11に示される 7パターン色が使用されるとき、即ち、符号 Vとして 0乃 至 6の 7値のうちの何れかの値のみが使用されるとき、装置は、例えば図 12に示され るような符号化方式を利用することで、各ブロックを符号ィ匕することができる。即ち、図 12は、注目ブロックの符号 Vと、その上下もしくは左右のブロックの符号 Vとの差分か ら、注目ブロックの絶対位置が分力るような符号ィ匕方式の一例を説明する図である。
[0141] 図 12の前提事項として、テストパターンの上下左右方向うちの右方向が X方向とさ れ下方向が Y方向とされた XY平面上において、そのテストパターンの左上端の座標 が(0,0)とされ、 X方向においては、そのテストパターンを構成する各ブロックの左右 方向の 1辺の長さが 1とされ、かつ、 Y方向においては、そのテストパターンを構成す る各ブロックの上下方向の 1辺の長さが 1とされる χγ座標系(以下、テストパターン座 標系と称する)が定義されているとする。この場合、このテストパターン座標系におい て、(U,V)は、そのテストパターンを構成する各ブロックのうちの、左から U番目であつ て上から V番目のブロックの左上端の座標を示すことになる。なお、以下、テストパタ ーン座標系において、所定のブロックの左上端の座標を、単に、所定のブロックの座 標と称する。
[0142] この前提事項のもとに考えると、図 12において、値 Xは、このテストパターン座標系 における注目ブロックの X座標または Υ座標を示している。また、差分符号 Y1は、注目 ブロックの符号 Vと、その上下左右に隣接するブロックのうちの所定の 1つの符号 Vと の差分の値を示している。また、差分符号 Y1の算出の際、差分の値が負値となった 場合、その負値に対して +7が加算された値が、差分符号 Y1となり、また、左右方向に お!、ては、右側のブロックの符号 V力も左側のブロックの符号 Vが減算されるとする。 また、上下方向においては、下側のブロックの符号 Vから上側のブロックの符号 Vが 減算されるとする。
[0143] 即ち、例えば、注目ブロックの座標が(3,1)である場合、注目ブロックの X座標は 3と なる。従って、図 12において、値 X=3の項目に着目すると、その右方の差分符号 Y1 は 3であり、その上方の差分符号 Y1は 2であることがわかる。このことは、注目ブロック の符号 Vとその左隣のブロックの符号 Vとの第 1の差分 (第 1の差分符号 Y1)と、その 右隣のブロックの符号 Vと注目ブロックの符号 Vとの第 2の差分 (第 2の差分符号 Y1)と の組が、 2と 3の組であることを表している。換言すると、 X座標が 3である注目ブロック は、第 1の差分符号 Y1と第 2の差分符号 Y1との組が 2と 3の組となるように符号ィ匕され なければならな!/、、 t\、うルールが図 12に規定されて!、る。
[0144] 同様に、注目ブロックの座標が(3,1)である場合、注目ブロックの Y座標は 1となる。
従って、図 12において、値 X=lの項目に着目すると、その下方の差分符号 Y1は 1で あり、その上方の差分符号 Y1は 0であることがわかる。このことは、注目ブロックの符 号 Vとその上隣のブロックの符号 Vとの第 3の差分 (第 3の差分符号 Y1)と、その下隣 のブロックの符号 Vと注目ブロックの符号 Vとの第 4の差分 (第 4の差分符号 Y1)との組 力 0と 1の組であることを表している。換言すると、 Y座標が 1である注目ブロックは、 第 3の差分符号 Y1と第 4の差分符号 Y1との組が 0と 1の組となるように符号ィ匕されなけ ればならな 、、 t\、うルールが図 12に規定されて!、る。
[0145] 即ち、座標が (3,1)である注目ブロックは、第 1の差分符号 Y1と第 2の差分符号 Y1と の組が 2と 3の組となり、かつ、第 3の差分符号 Y1と第 4の差分符号 Y1との組が 0と 1の 組となるように符号ィ匕されなければならな 、、 t 、うルールが図 12に規定されて 、る。
[0146] 図 12において、差分と和との項目は、差分符号 Y1の 2つの組み合わせが重複しな いように (複数生成されな 、ように)、図 12の規則を生成するために設けられた項目 であって、実際の符号ィ匕または復号の処理の際には関与しない項目である。即ち、 1 つ前に決定された差分符合 Y1 (図 12中 1つ上の差分符号 Y1)に基づいて次の差分 符号 Y1を決定するために、差分と和との項目が設けられているのである。 [0147] 具体的には、差分の項目には、 2つの差分符号 Y1同士の差 (差分)となり得る値が 記述されている。即ち、いまの場合、符号 Vが 0乃至 6の範囲の値を取るので、 2つの 差分符号 Y1同士の差 (差分)は、 1乃至 6の範囲の値を取る。なお、 2つの差分符号 Y 1の差分が 0とは両者が同一の値であることを意味するので、 0は当然ながら除外され る。また、 2つの差分符号 Y1の 1乃至 6のうちの所定の 1値について、 2つの差分符号 Y1の組は 7通り存在する。そこで、図 12の差分の項目には、上から順に、 7つの「1」 が記述され、次に 7つの「2」が記述され、その後、同様に「3」乃至「6」のそれぞれが 7 つずつ記述されて 、るのである。
[0148] 和の項目には、ひとつ上の和の値と、その左方の差分の値との和が記述される。具 体的には例えば、最初(図 12中左上)の差分符号 Y1は 0とされている。この場合、そ の左方の和(最初の和)には 0が記述される。従って、その最初の和の記述値 0と、そ の左方の差分の記述値 1との和である 1が、次の(2番目の)和の記述値となる。この 和の記述値 1が、その右方の符号 Y1の値として決定されることになる。即ち、和の記 述値を 7進法で表現した場合の最下位の桁の値 (例えば、和の記述値が 7の場合に は 0であり、 9の場合には 2である)力 その右方の差分符号 Y1となるのである。
[0149] このような差分符号 Y1の決定規則、即ち、差分と和の項目を使って差分符号 Y1を 決定するという上述した規則に従うと、結局、値 Xは、図 12に示されるように、 0乃至 4 3までの範囲の値を取ることができる。このことは、この差分符号 Y1を使用することで、 0乃至 43までの値 Xを符号ィ匕することができることを意味している。換言すると、テスト パターン座標系においては、 X座標と Y座標とともに、 0乃至 43までの値を取ることが できる、即ち、上下方向に 44ブロック分、かつ、左右方向に 44ブロック分の大きさ(以 下、このような大きさを 44 X 44と記述する)のテストパターンを作成することができるこ とを意味している。
[0150] そこで、装置は、この図 12に示される差分符号 Y1を用いた符号ィ匕方式に従った符 号化処理を行うことで、 44 X 44のテストパターンの画像データ、即ち、 44 X 44個の各 ブロックの符号 V力もなる画像データを作成することができる。
[0151] 具体的には例えば、図 13に示されるようなテストパターンの画像データが作成され る。即ち、図 13は、テストパターンの画像データの一例を示している。図 13において 、 1つの四角は 1つのブロックを表している。 1つのブロック内には、その上方に、テス トパターン座標系における座標(U, V)が u-vとして記述され、その下方に、その符号 Vが記述されている。
[0152] 例えば、座標が(3,1)である(図中 3-1と記述されて 、る)ブロックが注目ブロックとさ れた場合、この符号 Vは 3であることがわかる。即ち、その左隣の(図中 2-1と記述され て!、る)ブロックの符号 Vは 1とされて!/、ることから、注目ブロックの符号 Vとその左隣の ブロックの符号 Vとの差分、即ち、第 1の差分符号 Y1は、 2 ( = 3-1)であることがわかる 。また、その右隣の(図中 4-1と記述されている)ブロックの符号 Vは 6とされていること から、その右隣のブロックの符号 Vと注目ブロックの符号 Vとの差分、即ち、第 2の差 分符号 Y1は、 3 (=6-3)であることがわかる。同様に、その上隣の(図中 3-0と記述され て!、る)ブロックの符号 Vは 3とされて!/、ることから、注目ブロックの符号 Vとその上隣の ブロックの符号 Vとの差分、即ち、第 3の差分符号 Y1は、 0 (=3-3)であることがわかる。 また、下隣の(図中 3-2と記述されて 、る)ブロックの符号 Vは 4とされて 、ることから、 その下隣のブロックの符号 Vと注目ブロックの符号 Vとの差分、即ち、第 4の差分符号 Y1は、 1 (=4-3)であることがわかる。このように、座標が(3,1)である注目ブロックは、 第 1の差分符号 Y1と第 2の差分符号 Y1との組が 2と 3の組となり、かつ、第 3の差分符 号 Y1と第 4の差分符号 Y1との組が 0と 1の組となるように符号ィ匕されなければならない 、という図 12のルール (符号ィ匕方式)に従って符号化され、その結果、符合 Vとして 3 が得られて 、ることがわ力る。
[0153] なお、座標が (3,3)のブロックが注目ブロックとされた場合、その右隣の(図中 4-3と記 述されて!/ヽる)ブロックの符号 Vと注目ブロックの符号 Vとの差分自体は、 -4 (=2-6)と いった負値になる。このように、差分が負値となった場合には、上述したように、 +7が 加算された値、即ち、 3(=- 4+7)が第 2の差分符号 Y1となる。
[0154] そして、装置は、各ブロックのそれぞれを、その符合 Vに対応付けられたパターン色
(図 11参照)で塗りつぶすことで、テストパターンを作成する。具体的には例えば、図 13の例では、座標 (0,0)のブロックは、符合 V=0に対応付けられた (R,G,B)=(0,0,1)のパ ターン色、即ち、青で塗りつぶされ、座標 (2,0)のブロックは、符合 V=lに対応付けられ た (R,G,B)=(0,1,0)のパターン色、即ち、緑で塗りつぶされ、といった処理が 44 X 44個 のブロック毎に繰り返し実行され、その結果、 44 X 44のテストパターンが作成されるの である。
なお、ここで言う塗りつぶすとは、実際に、対応するパターン色を紙媒体等に印刷す ることも含むし、対応するパターン色を表示装置に表示させることも含む。即ち、テス トパターンは、紙媒体等に印刷された結果得られる画像であってもよいし、表示装置 に表示された画像であってもよ 、。
[0155] なお、上述した例では、 RGBを 01の 2値に 2値化している力 符号化の方式は上 述した例に限定されない。例えば、階調方向に 3値化や 4値ィ匕することで、さらに細 カ^、テストパターンを作ることもできる。
[0156] 本実施の形態では、以上説明したようなテストパターン、即ち、図 12の差分符号 Y1 を利用する符号化方式により各ブロックが符号化され、その結果得られる符合 Vに対 応付けられたパターン色で塗りつぶされた各ブロック力 構成されるテストパターンに より位相補正情報が抽出 (計算)される。このような位相補正情報が抽出 (計算)され る抽出手法に対応する処理 (以下、位相補正情報計算処理と称する)の例が図 14の フローチャートとして示されている。そこで、以下、図 14のフローチャートを参照して、 位相補正情報計算処理につ!、て説明する。
[0157] ステップ S31において、図 2の位相検出/補正回路 72を含む撮像装置 31は、テスト パターンの映像を撮影する。
[0158] なお、以下、上述した図 13の画像データに対応するテストパターン力 ステップ S3 1の処理で撮影されたとする。その際、 1つの CCD62-Kは、このテストパターンのうち の、中央に 1つのブロック全体を含み、かつ、その上下左右に隣接するブロックの少 なくとも一部を含むような画像を撮影するとする。具体的には例えば、図 15に示され る画像データ力 CCD62— K〖こより撮影されたとする。即ち、図 15は、テストパターン のうちの、 1つの CCD62— Kにより撮影された部分画像の画像データを示している。 なお、実際には、 CCD62— Kからは、各画素それぞれについての R,G,Bそれぞれの 輝度レベル (R,G,B)力もなる画像データが出力されることになる。ただし、図面では力 ラーによる図示ができないので、図 15においては、対応する符合 V (図 11参照)が各 ブロックのそれぞれに付されて 、る。 [0159] ステップ S32において、位相検出/補正回路 72は、テストパターンのうちの、 1つの CCD62— Kにより撮影された画像 (以下、カメラ画像と称する)から、その CCD62-K の絶対座標(以下、カメラ画角の絶対座標と称する)を計算する。以下、このようなス テツプ S32の処理を、カメラ画角の絶対座標の計算処理と称する。
[0160] このような、ステップ S32のカメラ画角の絶対座標の計算処理の詳細例が図 16のフ ローチャートとして示されている。そこで、以下、図 16のフローチャートを参照して、力 メラ画角の絶対座標の計算処理の詳細例について説明する。
[0161] ステップ S51において、位相検出/補正回路 72は、カメラ画像 (画像データ)を取得 する。ここでは、上述したように、図 15のカメラ画像 (画像データ)が取得されることに なる。
[0162] ただし、実際には、上述したように、 CCD62— K力 は、各画素それぞれについて の R,G,Bそれぞれの輝度レベル(R,G,B)からなる画像データが出力されることになる 。そこで、位相検出/補正回路 72は、このような画像データから、図 11の表を参照し て、図 15に示されるような各ブロックの符号 Vを求める処理を実行する。具体的には 例えば、位相検出/補正回路 72は、カメラ画像を構成する各画素のうちの所定の 1つ を注目画素として順次設定していき、注目画素について次のような処理を実行する。 即ち、位相検出/補正回路 72は、図 11の表の 7パターン色のうちの、注目画素につ V、ての R,G,Bそれぞれの輝度レベル(R,G,B)で表される色に最も近い 1つを、注目画 素の色であるとみなし、その注目画素の色に対応する [CODE]を符号 Vとして決定す る。このような画素毎の処理の結果として、図 15に示されるカメラ画像 (画像データ)、 即ち、符号 Vを画素値とする各画素からなるカメラ画像 (画像データ)が得られる。
[0163] ステップ S52において、位相検出/補正回路 72は、例えばカメラ画像の中心ブロッ クを注目ブロックとして、その注目ブロックの符号 Vと、上下左右それぞれのブロックの 符号 Vとの差分値をそれぞれ取得する。即ち、ステップ S52の処理で、上述した第 1 の差分符号 Y1乃至第 4の差分符号 Y1が演算される。
[0164] 具体的には例えば、いまの場合、ステップ S51の処理で図 15のカメラ画像が取得 されているので、注目ブロックの符号 Vは 2とされている。従って、その左隣のブロック の符号 Vは 6とされて!/、ることから、注目ブロックの符号 Vとその左隣のブロックの符号 Vとの差分、即ち、第 1の差分符号 Ylとして 3(=2-6+7)が演算される。また、その右隣 のブロックの符号 Vは 6とされて!/、ることから、その右隣のブロックの符号 Vと注目ブロ ックの符号 Vとの差分、即ち、第 2の差分符号 Y1として、 4 (=6-2)が演算される。同様 に、その上隣のブロックの符号 Vは 0とされていることから、注目ブロックの符号 Vとそ の上隣のブロックの符号 Vとの差分、即ち、第 3の差分符号 Y1として、 2 (=2-0)が演算 される。また、下隣のブロックの符号 Vは 5とされていることから、その下隣のブロックの 符号 Vと注目ブロックの符号 Vとの差分、即ち、第 4の差分符号 Y1として、 3 (=5-2)が 演算される。
[0165] ステップ S53において、位相検出/補正回路 72は、ステップ S52の処理で取得され た差分値に基づいて、テストパターン座標系における、注目ブロックとその上下左右 に隣接するブロックとのそれぞれの交点の絶標を計算する。
[0166] いまの場合、ステップ S52の処理で、第 1の差分符号 Y1として 3が取得され、かつ、 第 2の差分符号 Y1として 4が取得されている。従って、上述した図 12の規則によると、 第 1の差分符号 Y1と第 2の差分符号 Y1との組が 3と 4との組である場合には、その値 X 、即ち、中心ブロックの X座標は 4となる。同様に、ステップ S53の処理で、第 3の差分 符号 Y1として 2が取得され、かつ、第 4の差分符号 Y1として 3が取得されている。従つ て、図 12の規則によると、第 1の差分符号 Y1と第 2の差分符号 Y1との組が 2と 3との組 である場合には、その値 X、即ち、中心ブロックの Y座標は 3となる。即ち、注目ブロッ クの座標は (4,3)になる。注目ブロックの座標とは、上述したように、注目ブロックの左 上端の座標であり、図 15の例では交点 P0の座標である。
[0167] このようにして、交点 P0の座標として (4,3)が計算され、その交点 P0の座標に基づい て、交点 P1の座標として (4,4)力 交点 P2の座標として (5,4)力 交点 P3の座標として (5, 3)が、それぞれ計算される。
[0168] ステップ S54において、位相検出/補正回路 72は、ステップ S53の処理で演算され たテストパターン座標系における注目ブロックの交点の座標等に基づ 、て、カメラ画 角の絶対座標を計算する。
[0169] いまの場合、ステップ S53の処理で、注目ブロックの交点 P0,P1,P2,P3のそれぞれ の、テストパターン座標系における座標が計算されているので、位相検出/補正回路 72は、例えば、それらの座標を、絶対座標にそれぞれ変換する。そして、位相検出/ 補正回路 72は、注目ブロックの交点 P0,P1,P2,P3のそれぞれの絶対座標に基づいて 、点 Q0,点 Q1,点 Q2,点 Q3のそれぞれの絶対座標を、カメラ画角の絶対座標として 計算する。
[0170] これにより、図 16のカメラ画角の絶対座標の計算処理は終了し、処理は図 14のス テツプ S33に進む。
[0171] ステップ S33において、位相検出/補正回路 72は、撮影対象の歪みの計算を行う。
[0172] そして、ステップ S34において、 CCD62— Kの位置 u,v,ズーム率 rに対する画角の 情報 (ステップ S32の処理の結果得られたカメラ画角の絶対座標等)や歪みの情報( ステップ S33の計算結果等)を位相補正情報として、位相補正情報メモリ 73に保存 する。
[0173] これにより、位相補正情報計算処理は終了となる。
[0174] 以上の位相補正情報計算処理が、位置 u,v,ズーム率 rの幾つかのパターン毎に実 行されると、パターン毎の位相補正情報が得られ、位相補正情報メモリ 73に格納さ れる。
[0175] 次に、位相の補正手法 (位相補正情報の使用法)について説明する。
[0176] 図 17は、位相の補正手法に対応する処理 (以下、位相補正処理と称する)の一例 を説明するフローチャートである。そこで、以下、図 17を参照して、位相補正処理に ついて説明する。
[0177] ステップ S71において、位相検出/補正回路 72は、 CCD62— 1乃至 62— Nのそれ ぞれにつ 、て、
Figure imgf000031_0001
、位相補正情報 (位相補正の画角の情 報と歪みの情報)を、位相補正情報メモリ 73から読み出す。
[0178] ステップ S72において、位相検出/補正回路 72は、 CCD62— 1乃至 62— Nのそれ ぞれにつ 、て、
Figure imgf000031_0002
、位相補正情報 (位相補正の画角の情 報と歪みの情報)から、現在の位置とズーム率との位相補正情報 (位相補正の画角 の情報と歪みの情報)を計算する
[0179] ステップ S73において、位相検出/補正回路 72は、ステップ S72の処理で計算され た画角情報と歪み情報とを統合して、絶対座標中のプレンデイング部分を求める。 [0180] ステップ S74において、位相検出/補正回路 72を含む撮像装置 31は、被写体の映 像を撮影する。ステップ S74の処理で撮影されたフレームが注目フレームに設定され ると、処理はステップ S75に進む。
[0181] ステップ S75において、位相検出/補正回路 72は、注目フレームを構成する各入 力画素のうちの所定の 1つを注目入力画素に設定し、注目入力画素について、画角 に応じて位相補正を行い、ブレンディング処理を施す。ブレンディング処理の一例に ついては、図 18を参照して後述する。
[0182] ステップ S76において、位相検出/補正回路 72は、注目フレームを構成する全画 素についての処理を終了した力否かを判定する。
[0183] ステップ S76において、注目フレームを構成する全画素についての処理がまだ終 了されていないと判定されると、処理はステップ S75に戻され、それ以降の処理が繰 り返される。
[0184] 即ち、ステップ S75と S76とのループ処理が繰り返し実行されることで、注目フレー ムを構成する全画素について、画角歪みに応じた位相補正が行われ、ブレンディン グ処理が施される。その結果、画角歪みに応じた位相補正が行われ、プレンディング 処理が施された注目フレームが、輝度検出/補正回路 74に提供される。
[0185] そして、ステップ S76において、注目フレームを構成する全画素についての処理が 終了されと判定されて、処理はステップ S 77に進む。
[0186] ステップ S77において、位相検出/補正回路 72は、全フレームの撮影が終了したか 否か (ユーザ力もの撮影終了の指示がなされた力否か)を判定する。
[0187] ステップ S77において、全フレームの撮影がまだ終了していない(ユーザからの撮 影終了の指示がなされていない)と判定されると、処理はステップ S74に戻され、それ 以降の処理が繰り返される。
[0188] 即ち、次のステップ S74の処理で撮影された次のフレームが注目フレームとなり、ス テツプ S75と S76とのループ処理が繰り返し実行されて、注目フレーム(次のフレーム )を構成する全画素について、画角歪みに応じた位相補正が行われ、プレンディング 処理が施される。その結果、画角歪みに応じた位相補正が行われ、プレンディング処 理が施された注目フレーム (次のフレーム)が、輝度検出/補正回路 74に提供される [0189] その後、ステップ S77において、全フレームの撮影が終了した (ユーザ力もの撮影 終了の指示がなされた)と判定されると、位相補正処理は終了となる。
[0190] 以上説明したように、位相検出/補正回路 72は、位相補正情報メモリ 75に保存して ある画角の情報、歪みの情報、および、その他パラメータを用いて、位相補正情報計 算処理を行う。そして、位相検出/補正回路 72は、その位相補正情報計算処理の結 果得られる画角情報と歪み情報とを統合して、絶対座標中のプレンデイング部分を 計算し、位相補正を行い、また、プレンディング処理を施す。
[0191] ここで、ステップ S75の処理で実行されるブレンデイング処理の一例の概略につい て、図 18を参照して説明する。
[0192] 図 18において、画像 151は、 1つの CCD62-Kにより撮影された画像であって、そ の画像 151に含まれる黒丸 (例えば上述した図 6の人間 102の顔の部分)が上述した 本当に見たいところであるとして、上述した部分的に高解像度な撮影が行われた結 果得られる画像である。即ち、画像 151は、ズームが「TELE」として撮像された画像 である。
[0193] これに対して、画像 152— 2は、 CCD62-Kの右隣(デジタルカメラ 3の正面から見て )の CCD62- K+1により撮影された画像であって、ズームが「WIDE」として撮像された 画像である。
[0194] また、図 17のステップ S73の処理で、領域 153— aと領域 153— bとがプレンディン グ領域であることが既に求められており、画像 151と画像 152— 1に対する位相補正 (ステップ S75の処理の一部)は既になされているとする。
[0195] この場合、位相検出/補正回路 72は、プレンディング領域 153— aとプレンディング 領域 153— bとが同一解像度(同一サイズ)となるように、画像 152— 1 (画像データ) に対して拡大処理を施す。これにより、図 18に示されるような画像 152— 2 (画像デー タ)力 S得られることになる。拡大処理の手法については、特に限定されない。例えば、 左右方向に A倍して上下方向に B倍する場合 (A, Bはそれぞれ独立した 1以上の正 数値)、元の 1つの画素に対応させて、 A X B個の画素からなるブロックを生成する手 法を採用することができる。この場合、そのブロックを構成する A X B個の各画素の画 素値の決定手法も特に限定されない。例えば、 A X B個の各画素の画素値の全てを 元の 1つの画素の画素値のままとする手法を採用してもよいし、近隣のブロック(元の 1つの画素の近隣の画素)との相関等に基づいて、 A X B個の各画素の画素値のそ れぞれを個別に決定する手法を採用してもよい。
[0196] 次に、位相検出/補正回路 72は、は画像 151 (画像データ)と画像 152— 2 (画像デ ータ)とを合成することで、合成画像 153を生成する。
[0197] なお、ブレンディング部分 153— aとブレンデイング部分 153— bとの合成手法は特 に限定されない。例えば、単に、プレンディング部分 153— aを構成する各画素の画 素値をそのまま、合成画像の対応する各画素の画素値として採用する手法を採用す ることもできる。また、プレンデイング部分 153— aを構成する各画素の画素値と、ブレ ンデイング部分 153— bを構成する各画素の画素値とを利用して、所定の演算(例え ば、平均を取る等)を行い、それらの演算結果を、合成画像の対応する各画素の画 素値のそれぞれとして決定する手法を採用することもできる。
[0198] さらに、これらの何れの手法を採用した場合にも、合成画像 153において、プレン デイング部分 153— aに対応する部分と、それ以外の部分との境目(エッジ部分)は 不自然な画像 (人間の目にとつて違和感のある画像)となってしまうことが多 、。そこ で、位相検出/補正回路 72は、このエッジ部分に対して、所定の画像処理を施しても よい。この画像処理も特に限定されず、例えば、このエッジ部分近辺の輝度値 (画素 値)を減衰させる処理を採用することができる。この場合、その減衰の方法も特に限 定されず、例えば、プレンディング部分 153— aに対応する部分からそれ以外の部分 に向かう方向に、リニアに減衰させてもよいし、エッジ部分を頂点とするサインカーブ に沿うように減衰させてもょ 、。
[0199] ところで、このようなブレンディング処理は、上述した図 17の例では、位相検出/補 正回路 72の処理、即ち、画像の撮影側であるデジタルカメラ 3の処理とされた力 上 述した例に限定されず、画像の再生側(図示せぬ表示装置等)の処理とされてもよい
[0200] プレンディング処理が再生側(図示せぬ表示装置等)により実行される場合、位相 検出/補正回路 72は、図 17の位相補正処理の代わりに、図 19に示されるような位相 検出処理を実行してもよい。 [0201] 図 19の位相検出処理のうちのステップ S91乃至 S93までの処理は、図 17のステツ プ S71乃至 S73までの処理と基本的に同様である。そこで、以下、ステップ S94以降 の処理について説明する。
[0202] ステップ S94において、位相検出/補正回路 72を含む撮像装置 31は、被写体の映 像を撮影する。
[0203] ステップ S95において、位相検出/補正回路 72は、ステップ S92の処理で計算され た位相情報、ステップ S93の処理で求められたブレンディング部分、および、 CCD62 1乃至 62— N毎の画像データを含む映像信号をフレーム単位で生成して、出力す る。
[0204] 即ち、注目フレームについての位相情報、ブレンディング部分、および、 CCD62— 1乃至 62 N毎の画像データが 1つにまとめられて、注目フレームについての映像信 号として、図 2の輝度検出/補正回路 74に供給されることになる。
[0205] この場合、輝度検出/補正回路 74は、例えば、上述した図 10の輝度補正処理のう ちのステップ S11乃至 S13までの処理を実行し、位相検出/補正回路 72から供給さ れた注目フレームにつ 、ての映像信号に対して、曲面の最小値 MIN{S(x,y)}を付カロし て、外部に出力する。即ち、この場合、信号処理部 44の出力信号は、注目フレーム についての位相情報、ブレンディング部分、 CCD62— 1乃至 62— N毎の画像データ 、および、曲面の最小値 MIN{S(x,y)}が 1つにまとめられた映像信号となる。
[0206] このような映像信号を取得した再生側の装置は、図 10のステップ S 15と図 17のステ ップ S75とに相当する処理を実行することで、注目フレームに対応する画像データを 生成 (構築)し、その画像データに対応する画像、即ち、注目フレームを表示すること が可能になる。
[0207] 次に、ステップ S96において、位相検出/補正回路 72は、全フレームの撮影が終了 した力否か (ユーザからの撮影終了の指示がなされた力否か)を判定する。
[0208] ステップ S96において、全フレームの撮影がまだ終了していない(ユーザからの撮 影終了の指示がなされていない)と判定されると、処理はステップ S94に戻され、それ 以降の処理が繰り返される。
[0209] 即ち、次のステップ S94の処理で撮影された次のフレームが注目フレームとなり、注 目フレーム(次のフレーム)についての位相情報、ブレンディング部分、および、 CCD 62— 1乃至 62— N毎の画像データが 1つにまとめられて、注目フレーム(次のフレー ム)についての映像信号として、図 2の輝度検出/補正回路 74に供給されることにな る。
される
[0210] その後、ステップ S96において、全フレームの撮影が終了した(ユーザからの撮影 終了の指示がなされた)と判定されると、位相検出処理は終了となる。
[0211] 以上、図 2の例の撮像装置 31について説明した。
[0212] 以上の内容をまとめると、撮像装置 31は、少なくとも次の第 1の特徴乃至第 13の特 徴を有することになる。
[0213] 第 1の特徴とは、撮像装置 31は、 CCD62— K等の撮像素子をアレイ状に並べた焦 点一致の高解像度及び高精細画像撮像装置である、と!ヽぅ特徴である。
[0214] 第 2の特徴とは、撮像装置 31は、焦点一致の像を作る第 1の結像系 41と、その第 1 の結像系 41の結像面と、その結像面に結像した映像を撮像する複数の撮像素子が アレイ状に配置された第 2の結像系群 42とからなる光学系を有する撮像装置である という特徴である。
[0215] 第 3の特徴とは、第 1の結像系 41と第 2の結像系群 42とを繋ぐ結像面またはその近 傍に、フィールドレンズ 43を配置することができる、という特徴である。
[0216] 第 4の特徴とは、第 1の結像系 41と第 2の結像系群 42とを繋ぐ結像面またはその近 傍に、フィールドレンズ 43の代わりに、図示せぬディフューザ一等を配置することが できる、という特徴である。
[0217] 第 5の特徴とは、第 2の結像系群 42を構成する複数の第 2の結像系のそれぞれは 、それに含まれる CCD62— Kにより撮像された第 1の画像の一部と、他の第 2の結像 系に含まれる他の CCDにより撮像された第 2の画像の一部とを、第 1の画像と第 2の 画像とを繋ぎあわせるためのプレンデイング領域として保持できるように、それぞれ配 置されている、という特徴である。
[0218] 第 6の特徴とは、撮像装置 31の光学系は、第 1の特徴の効果として生じる特徴であ つて、レンズのみで構成できる(プリズムを用いないでよい)、という特徴である。この 第 6の特徴により、 CCD等の撮像素子の数を増やしても、高解像度及び高精細な画 像を撮像できる撮像装置を、安価で実現可能になる。
[0219] 第 7の特徴とは、第 2の結像系群 42における複数の撮像素子の位置とズームとの それぞれとを個別に変化させる機構を有している、という特徴である。この第 7の特徴 により、部分的に高解像度な撮影が可能になる。
[0220] 第 8の特徴とは、これらの機構には、ズームァクチユエータと位置制御ァクチユエ一 タとが含まれている、という特徴である。
[0221] 第 9の特徴とは、撮像装置 31は、さらに、部分的に高解像度な撮影が行われる際 に、その高解像度の撮影の範囲を演算する回路、即ち、高解像度撮像範囲演算回 路 76や、ユーザが高解像度の撮影の範囲を指定するインタフェース、即ち、高解像 撮像の範囲の演算回路 76を有している、という特徴である。
[0222] 第 10の特徴とは、撮像装置 31は、さらに、 CCD62-K等の複数の撮像素子に結 像した映像の位相を補正する位相検出/補正回路 72と、その補正に利用される位相 補正情報を保持する位相補正情報メモリ 73とを有して 、る、 、う特徴である。
[0223] 第 11の特徴とは、位相検出/補正回路 72には、位相補正情報を求める (抽出する) ための手法として、上述した抽出手法が適用されており、その結果、例えば図 11の 位相補正情報計算処理が実行できる、という特徴である。また、その際、上述したテ ストパターンが利用できるという、という特徴も第 11の特徴に含まれる。
[0224] 第 12の特徴とは、撮像装置 31は、さらに、 CCD62-K等の複数の撮像素子に結 像した映像の輝度を補正する輝度検出/補正回路 74と、その補正に利用される輝度 補正情報を保持する輝度補正情報メモリ 75とを有して 、る、 、う特徴である。
[0225] 第 13の特徴とは、輝度検出/補正回路 72には、輝度補正情報を求める (抽出する) ための手法として、上述した抽出手法が適用されており、その結果、例えば図 9の輝 度補正情報計算処理が実行できる、という特徴である。また、その際、上述したテスト パターンが利用できるという、という特徴も第 13の特徴に含まれる。
[0226] 以上の第 1の特徴乃至第 13の特徴をまとめると、撮像装置 31とは、第 1の結像系 4 1と第 2の結像系群 42とを用いることで、プレンデイング領域をもつことが可能となった 高解像度及び高精細の単一焦点撮像装置であるといえる。この撮像装置 31は、安 価に撮像素子をスケーラブルに配置でき、且つ部分的に高解像度の撮影が可能に なる。また、この撮像装置 31は、撮像系位である第 2の結像系群 42の各第 2の結像 系のそれぞれについて、位相補正や輝度などの歪み補正もそれぞれ個別に自動で 行うことができる。
[0227] 換言すると、撮像装置 31は、次の第 1の効果乃至第 3の効果を少なくとも奏すること が可能になる。第 1の効果とは、プレンデイング部分を保持してシームレスに繋ぐこと ができる高解像度且つ高精細な映像を撮影できる、という効果である。第 2の効果と は、低コストで撮像素子を大量に配置でき、かつ部分的に高解像度な撮影ができる、 という効果である。第 3の効果とは、自動で輝度補正と位相補正の情報を求めること ができる、という効果である。
[0228] ところで、上述した一連の処理は、ハードウェアにより実行させることもできる力 ソ フトウエアにより実行させることができる。
[0229] この場合、図 2の撮像装置 31の信号処理部 44のうちの少なくとも一部は、例えば、 図 20に示されるコンピュータで構成することができる。
[0230] 図 20において、 CPU (Central Processing Unit) 201は、 ROM (Read Only Memory) 202に記録されているプログラム、または記憶部 208から RAM (Random Access Mem ory) 203にロードされたプログラムに従って各種の処理を実行する。 RAM203にはま た、 CPU201が各種の処理を実行する上において必要なデータなども適宜記憶され る。
[0231] CPU201, ROM202,および RAM203は、バス 204を介して相互に接続されている 。このバス 204にはまた、入出力インタフェース 205も接続されている。
[0232] 入出力インタフェース 205には、キーボード、マウスなどよりなる入力部 206、デイス プレイなどよりなる出力部 207、ハードディスクなどより構成される記憶部 208、および 、モデム、ターミナルアダプタなどより構成される通信部 209が接続されている。通信 部 209は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行 う通信を制御する。
[0233] 入出力インタフェース 205にはまた、必要に応じてドライブ 210が接続され、磁気デ イスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブル記 録媒体 211が適宜装着され、それら力 読み出されたコンピュータプログラムが、必 要に応じて記憶部 208にインストールされる。
[0234] 一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成する プログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種の プログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎 用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
[0235] このようなプログラムを含む記録媒体は、図 20に示されるように、装置本体とは別に 、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁 気ディスク(フロッピディスクを含む)、光ディスク(CD- ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD (Min卜 Disk)を 含む)、もしくは半導体メモリなどよりなるリムーバブル記録媒体 (パッケージメディア) 211により構成されるだけでなぐ装置本体に予め組み込まれた状態でユーザに提 供される、プログラムが記録されている ROM202や、記憶部 208に含まれるハードデ イスクなどで構成される。
[0236] なお、本明細書にぉ 、て、記録媒体に記録されるプログラムを記述するステップは 、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理 されなくとも、並列的あるいは個別に実行される処理をも含むものである。
[0237] また、本明細書において、システムとは、複数の装置や処理部により構成される装 置全体を表すものである。
[0238] さらにまた、上述した各種画像処理の単位は、上述した例ではフレームとされたが、 フィールドとしてもよい。即ち、このようなフレームやフィールドといった画像の単位を、 アクセスユニットと称すると、上述した画像処理の単位は、アクセスユニットとすること ができる。

Claims

請求の範囲
[1] 複数の撮像素子をアレイ状に並べた焦点一致の撮像装置であって、
焦点一致の像を作る第 1の結像系と、
前記第 1の結像系による映像を結像する結像面と、
前記結像面に結像した映像の所定の一部分が再結像された結果得られる映像を 撮像する前記撮像素子を 1つ含む第 2の結像系が複数存在し、複数の前記第 2の結 像系がアレイ状に配置されて形成される第 2の結像系群と
から構成される光学系を
備えることを特徴とする撮像装置。
[2] 前記第 1の結像系と前記第 2の結像系群とを繋ぐ前記結像面またはその近傍に、フ ィールドレンズが配置されて 、る
ことを特徴とする請求項 1に記載の撮像装置。
[3] 前記第 1の結像系と前記第 2の結像系群とを繋ぐ前記結像面またはその近傍に、 ディフューザ一が配置されて!、る
ことを特徴とする請求項 1に記載の撮像装置。
[4] 前記第 2の結像系群を構成する複数の前記第 2の結像系のそれぞれは、それらに 含まれる前記撮像素子により撮像された第 1の画像の一部と、他の第 2の結像系に 含まれる前記撮像素子により撮像された第 2の画像の一部とを、前記第 1の画像と前 記第 2の画像とを繋ぎあわせるためのプレンデイング領域として保持できるように、そ れぞれ配置されている
ことを特徴とする請求項 1に記載の撮像装置。
[5] 前記第 2の結像系群を構成する複数の前記第 2の結像系のそれぞれは、
さらに、前記結像面に結像した映像のうちの所定の一部を前記撮像素子に再結 像させるレンズを含むように構成され、
前記結像面と前記レンズとの間の距離が Fとされ、前記結像面から出射される光 線のうちの、前記プレンデイング領域に対応する光線の幅が φとされ、前記撮像素子 と、それに隣接する前記撮像素子との間の距離が Dとされた場合、
2 X F Xtan ( /2) > D で表される式を満たすように、それぞれ配置されて ヽる
ことを特徴とする請求項 4に記載の撮像装置。
[6] 前記第 2の結像系群を構成する複数の前記第 2の結像系のそれぞれについて他と は独立して、前記撮像素子の位置と、前記レンズのズームのそれぞれとを個別に変 化させる機構を
さらに備えることを特徴とする請求項 5に記載の撮像装置。
[7] 前記機構は、ズームを可変させるために複数の前記レンズのそれぞれを他とは独 立して駆動する第 1のァクチユエータと、配置位置を可変させるために複数の前記撮 像装置のそれぞれを他とは独立して駆動する第 2のァクチユエ一タとを含む
ことを特徴とする請求項 6に記載の撮像装置。
[8] 前記撮像装置は、
前記機構を利用することで、前記第 2の結像系群を構成する複数の前記第 2の結 像系のうちの 1以上のそれぞれに含まれる 1以上の前記撮像素子のそれぞれに、他 の撮像素子と比較して高解像度な撮影を行わせ、
その撮影が行われる場合に高解像度の撮影の範囲を決定するための演算を行う 演算部
をさらに備えることを特徴とする請求項 6に記載の撮像装置。
[9] 前記高解像度の撮影の範囲を指定する操作をユーザが行うインタフェース部をさら に備え、
前記演算部は、前記インタフェース部による前記ユーザの操作内容に基づいて、 前記高解像度の撮影の範囲を演算する
ことを特徴とする請求項 8に記載の撮像装置。
[10] 複数の前記撮像素子のそれぞれに結像した映像の位相をそれぞれ補正するため の位相補正情報を保持する位相補正情報保持部
をさらに備えることを特徴とする請求項 1に記載の撮像装置。
[11] 前記結像面に結像した所定のテストパターンの映像のうちの、複数の前記撮像素 子のうちの少なくとも 1つに再結像した映像を利用して、前記位相補正情報を予め求 め、その位相補正情報を前記位相補正情報保持部に保持させる位相補正情報演算 部をさらに備える
ことを特徴とする請求項 10に記載の撮像装置。
[12] 前記結像面に結像した被写体の映像のうちの、複数の前記撮像素子のそれぞれ に再結像した映像のそれぞれの位相を、前記位相補正情報保持部に保持された前 記位相補正情報を利用して補正する位相補正部をさらに備える
ことを特徴とする請求項 10に記載の撮像装置。
[13] 複数の前記撮像素子のそれぞれに結像した映像の輝度をそれぞれ補正するため の輝度補正情報を保持する輝度補正情報保持部
をさらに備えることを特徴とする請求項 1に記載の撮像装置。
[14] 前記結像面に結像した所定のテストパターンの映像のうちの、複数の前記撮像素 子のうちの少なくとも 1つに再結像した映像を利用して、前記輝度補正情報を予め求 め、その輝度補正情報を前記輝度補正情報保持部に保持させる輝度補正情報演算 部をさらに備える
ことを特徴とする請求項 13に記載の撮像装置。
[15] 前記結像面に結像した被写体の映像のうちの、複数の前記撮像素子のそれぞれ に再結像した映像のそれぞれの輝度を、前記輝度補正情報保持部に保持された前 記輝度補正情報を利用して補正する輝度補正部をさらに備える
ことを特徴とする請求項 13に記載の撮像装置。
[16] 第 1の結像系、および、撮像素子を含む複数の第 2の結像系を少なくとも含む撮像 装置の撮像方法であって、
前記第 1の結像系により、所定の結像面に、焦点一致の像を結像させ、 複数の前記第 2の結像系のそれぞれにより、その結像面に結像した映像のうちの所 定の一部を、自身が含む前記撮像素子に再結像させ、
複数の前記撮像素子のそれぞれが、自身に再結像された映像を撮像する ことを特徴とする撮像方法。
[17] 第 1の結像系、および、撮像素子を含む複数の第 2の結像系を少なくとも含む撮像 装置の設計方法であって、
前記第 1の結像系により、所定の結像面に、焦点一致の像を結像させ、 複数の前記第 2の結像系のそれぞれにより、その結像面に結像した映像のうちの所 定の一部を、自身が含む前記撮像素子に再結像させる
ことを特徴とする撮像装置の設計方法。
焦点一致の像を作る第 1の結像系、前記第 1の結像系の結像面、および、自分自 身に結像した映像を撮像する撮像素子と、前記結像面に結像した映像のうちの所定 の一部を前記撮像素子に再結像させるレンズとを含む複数の第 2の結像系がアレイ 状に配置されて形成される第 2の結像系群から構成される光学系を備える撮像装置 の撮像方法であって、
前記第 2の結像系群を構成する複数の前記第 2の結像系のそれぞれが、
それらに含まれる前記撮像素子により撮像された第 1の画像の一部と、他の第 2 の結像系に含まれる前記撮像素子により撮像された第 2の画像の一部とを、前記第 1 の画像と前記第 2の画像とを繋ぎあわせるためのプレンデイング領域として保持する ために、
前記結像面と前記レンズとの間の距離が Fとされ、前記結像面から出射される光 線のうちの、前記プレンデイング領域に対応する光線の幅が φとされ、前記撮像素子 と、それに隣接する前記撮像素子との間の距離が Dとされた場合、 2 X F Xtan ( /2) > Dで表される式を満たすように、
それぞれ配置された後、
前記撮像装置は、被写体を撮像する
ことを特徴とする撮像方法。
PCT/JP2006/300360 2005-01-18 2006-01-13 撮像装置および撮像方法、並びに撮像装置の設計方法 WO2006077777A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2006800053784A CN101124815B (zh) 2005-01-18 2006-01-13 图像拾取设备、图像捕获方法和设计图像拾取设备的方法
US11/814,151 US8031232B2 (en) 2005-01-18 2006-01-13 Image pickup apparatus including a first image formation system and a second image formation system, method for capturing image, and method for designing image pickup apparatus
EP06711645A EP1841207B1 (en) 2005-01-18 2006-01-13 Imaging device, imaging method, and imaging device design method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005010769 2005-01-18
JP2005-010769 2005-01-18
JP2005-063675 2005-03-08
JP2005063675A JP4023494B2 (ja) 2005-01-18 2005-03-08 撮像装置および撮像方法、並びに撮像装置の設計方法

Publications (1)

Publication Number Publication Date
WO2006077777A1 true WO2006077777A1 (ja) 2006-07-27

Family

ID=36692167

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/300360 WO2006077777A1 (ja) 2005-01-18 2006-01-13 撮像装置および撮像方法、並びに撮像装置の設計方法

Country Status (6)

Country Link
US (1) US8031232B2 (ja)
EP (1) EP1841207B1 (ja)
JP (1) JP4023494B2 (ja)
KR (1) KR20070104557A (ja)
CN (1) CN101124815B (ja)
WO (1) WO2006077777A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8059162B2 (en) * 2006-11-15 2011-11-15 Sony Corporation Imaging apparatus and method, and method for designing imaging apparatus

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7443590B2 (en) 2005-12-02 2008-10-28 Sony Corporation Imaging apparatus and method, and method for designing imaging apparatus
JP4752733B2 (ja) * 2005-12-02 2011-08-17 ソニー株式会社 撮像装置および撮像方法、並びに撮像装置の設計方法
JP5751986B2 (ja) * 2010-12-08 2015-07-22 キヤノン株式会社 画像生成装置
JP2013029806A (ja) 2011-06-22 2013-02-07 Canon Inc 撮像装置
KR101871034B1 (ko) * 2013-02-13 2018-07-19 유니버시타트 데스 사를란데스 플렌옵틱 이미징 장치
CN103209284B (zh) * 2013-02-26 2015-03-25 中国科学院自动化研究所 一种文档扫描图像的亮度补偿方法
US20150124094A1 (en) * 2013-11-05 2015-05-07 Delphi Technologies, Inc. Multiple imager vehicle optical sensor system
US20160107576A1 (en) * 2013-11-05 2016-04-21 Delphi Technologies, Inc. Multiple imager vehicle optical sensor system
JP6584237B2 (ja) * 2015-09-01 2019-10-02 キヤノン株式会社 制御装置、制御方法、およびプログラム
CN105472214B (zh) * 2015-11-24 2019-01-29 长春乙天科技有限公司 采用面阵图像传感器拼接成像的成像系统及成像方法
EP3185179A1 (en) * 2015-12-22 2017-06-28 Delphi Technologies, Inc. Multiple imager vehicle optical sensor system
CN105744235A (zh) * 2016-04-08 2016-07-06 盐城师范学院 滩涂弧边招潮蟹行为研究观察仪
US10488371B1 (en) 2018-05-04 2019-11-26 United Technologies Corporation Nondestructive inspection using thermoacoustic imagery and method therefor
US11079285B2 (en) 2018-05-04 2021-08-03 Raytheon Technologies Corporation Automated analysis of thermally-sensitive coating and method therefor
US10473593B1 (en) 2018-05-04 2019-11-12 United Technologies Corporation System and method for damage detection by cast shadows
US10914191B2 (en) 2018-05-04 2021-02-09 Raytheon Technologies Corporation System and method for in situ airfoil inspection
US10958843B2 (en) * 2018-05-04 2021-03-23 Raytheon Technologies Corporation Multi-camera system for simultaneous registration and zoomed imagery
US11268881B2 (en) 2018-05-04 2022-03-08 Raytheon Technologies Corporation System and method for fan blade rotor disk and gear inspection
US10943320B2 (en) 2018-05-04 2021-03-09 Raytheon Technologies Corporation System and method for robotic inspection
US10928362B2 (en) 2018-05-04 2021-02-23 Raytheon Technologies Corporation Nondestructive inspection using dual pulse-echo ultrasonics and method therefor
US10902664B2 (en) 2018-05-04 2021-01-26 Raytheon Technologies Corporation System and method for detecting damage using two-dimensional imagery and three-dimensional model
US10685433B2 (en) 2018-05-04 2020-06-16 Raytheon Technologies Corporation Nondestructive coating imperfection detection system and method therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184105A (ja) * 1993-12-22 1995-07-21 Canon Inc 撮像装置
JPH07222045A (ja) * 1994-01-31 1995-08-18 Canon Inc 撮像装置
JP2001223931A (ja) * 2000-02-10 2001-08-17 Olympus Optical Co Ltd 撮像装置及び画像システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5672575A (en) * 1979-11-19 1981-06-16 Toshiba Corp Picture input unit
US4323925A (en) * 1980-07-07 1982-04-06 Avco Everett Research Laboratory, Inc. Method and apparatus for arraying image sensor modules
AU554186B2 (en) * 1981-10-26 1986-08-14 Sony Corporation Apparatus for detecting distance to an object
US4890314A (en) * 1988-08-26 1989-12-26 Bell Communications Research, Inc. Teleconference facility with high resolution video display
US5151790A (en) * 1990-07-23 1992-09-29 Fuji Photo Film Co., Ltd. Image pickup device for stabilizing optical aberrations
US6205259B1 (en) 1992-04-09 2001-03-20 Olympus Optical Co., Ltd. Image processing apparatus
US5757423A (en) * 1993-10-22 1998-05-26 Canon Kabushiki Kaisha Image taking apparatus
JPH08172635A (ja) * 1994-12-16 1996-07-02 Minolta Co Ltd 撮像装置
JP2001045508A (ja) 1999-07-29 2001-02-16 Ikegami Tsushinki Co Ltd 固体撮像装置
US7440637B2 (en) * 2000-07-21 2008-10-21 The Trustees Of Columbia University In The City Of New York Method and apparatus for image mosaicing
US6909554B2 (en) * 2000-12-27 2005-06-21 Finisar Corporation Wafer integration of micro-optics
EP3388784B1 (en) 2001-05-04 2019-07-17 Vexcel Imaging GmbH Method and large format camera for acquiring a large format image of a large area object
JP3788394B2 (ja) * 2002-06-13 2006-06-21 ソニー株式会社 撮像装置および撮像方法、並びに表示装置および表示方法
US7259784B2 (en) * 2002-06-21 2007-08-21 Microsoft Corporation System and method for camera color calibration and image stitching
US7701489B1 (en) * 2003-05-27 2010-04-20 Apple Inc. Method and apparatus for color correction
US7236304B2 (en) * 2003-11-04 2007-06-26 Matsushita Electric Industrial Co., Ltd. Imaging Device
US7453510B2 (en) * 2003-12-11 2008-11-18 Nokia Corporation Imaging device
JP2005252625A (ja) * 2004-03-03 2005-09-15 Canon Inc 撮像装置および画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184105A (ja) * 1993-12-22 1995-07-21 Canon Inc 撮像装置
JPH07222045A (ja) * 1994-01-31 1995-08-18 Canon Inc 撮像装置
JP2001223931A (ja) * 2000-02-10 2001-08-17 Olympus Optical Co Ltd 撮像装置及び画像システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1841207A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8059162B2 (en) * 2006-11-15 2011-11-15 Sony Corporation Imaging apparatus and method, and method for designing imaging apparatus

Also Published As

Publication number Publication date
EP1841207A4 (en) 2011-05-11
CN101124815A (zh) 2008-02-13
EP1841207A1 (en) 2007-10-03
JP2006229908A (ja) 2006-08-31
KR20070104557A (ko) 2007-10-26
US8031232B2 (en) 2011-10-04
US20090128643A1 (en) 2009-05-21
JP4023494B2 (ja) 2007-12-19
CN101124815B (zh) 2010-06-16
EP1841207B1 (en) 2012-04-18

Similar Documents

Publication Publication Date Title
JP4023494B2 (ja) 撮像装置および撮像方法、並びに撮像装置の設計方法
TWI554103B (zh) 影像擷取裝置及其數位變焦方法
JP4524717B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
KR100968378B1 (ko) 파노라마 이미지를 생성하는 장치, 방법 및 그 방법을 실행하는 프로그램이 기록된 기록 매체
KR101711036B1 (ko) 핸드헬드 기기 상에서 입체적인 (3디) 파노라마 생성
KR101265358B1 (ko) 컬러 디지털 이미지를 사용하여 선명도 변경과 같은 액션을제어하는 방법
JP4322921B2 (ja) カメラモジュールおよびそれを備えた電子機器
KR101417169B1 (ko) 초점 조력 시스템 및 방법
JP6906947B2 (ja) 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム
JP2010011223A (ja) 信号処理装置、信号処理方法、プログラム及び記録媒体
JP2010009417A (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
KR20110078175A (ko) 영상 데이터 생성 방법 및 장치
JP3907008B2 (ja) 写真のための被写界の深度を増大するための方法及び手段
JP4649171B2 (ja) 倍率色収差補正装置、倍率色収差補正方法及び倍率色収差補正プログラム
CN111866523B (zh) 全景视频合成方法、装置、电子设备和计算机存储介质
JP2015088833A (ja) 画像処理装置、撮像装置及び画像処理方法
JP2007067847A (ja) 画像処理方法及び装置、デジタルカメラ装置、並びに画像処理プログラムを記録した記録媒体
JP4333785B2 (ja) 撮像装置
JP6838918B2 (ja) 画像データ処理装置及び方法
JP5906139B2 (ja) 補正装置、そのプログラム及び立体撮像システム
JP2009047734A (ja) 撮像装置及び画像処理プログラム
JP4731529B2 (ja) 撮像装置
JP7458769B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP6961423B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、プログラムおよび記録媒体
JP2011082726A (ja) 画像再生装置及び撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006711645

Country of ref document: EP

Ref document number: 1020077016432

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 200680005378.4

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2006711645

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11814151

Country of ref document: US