WO2005017829A1 - 画像改質処理方法およびその装置 - Google Patents

画像改質処理方法およびその装置 Download PDF

Info

Publication number
WO2005017829A1
WO2005017829A1 PCT/JP2004/002646 JP2004002646W WO2005017829A1 WO 2005017829 A1 WO2005017829 A1 WO 2005017829A1 JP 2004002646 W JP2004002646 W JP 2004002646W WO 2005017829 A1 WO2005017829 A1 WO 2005017829A1
Authority
WO
WIPO (PCT)
Prior art keywords
matrix
image
value
lens
convolution
Prior art date
Application number
PCT/JP2004/002646
Other languages
English (en)
French (fr)
Inventor
Tsutomu Fujita
Katsuhiko Mishima
Jun Sugano
Masatomo Kanegae
Kyotake Uchiumi
Original Assignee
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University filed Critical Waseda University
Publication of WO2005017829A1 publication Critical patent/WO2005017829A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation

Definitions

  • the present invention relates to an image modification processing method and an apparatus for modifying an out-of-focus image formed by a lens into an in-focus image, a program, and a data recording medium
  • a focused image formed by one lens part forming a bifocal lens and an out-of-focus image formed by the other lens part are written.
  • It can be used for image modification processing for obtaining an in-focus image from the overlapped image, or image modification processing for removing defocus of a single focus lens.
  • a bifocal lens having two lens portions having different focal lengths has been used as a bifocal contact lens.
  • a human wears a contact lens constituted by such a bifocal lens, a human can obtain an in-focus image and an out-of-focus image (a so-called out-of-focus image) formed by the two lens units. It is considered that the user unconsciously selects and sees only the focused image.
  • a normal distance from the lower limit of the focal depth (for example, 0.3 m) to infinity can be obtained.
  • Object for example, a person or landscape
  • a nearby object for example, a two-dimensional par code, iris, or text
  • Etc. a shorter distance
  • an information terminal device equipped with a bifocal lens See Japanese Unexamined Patent Application Publication No. 2002-123825 (steps [0007], [0008], [0027], [0042], FIG. 3, summary)).
  • an optical shutter such as a liquid crystal shutter can be switched between the long focus lens and the short focus lens by providing it between the bifocal lens and the image sensor.
  • a high-contrast image can be obtained, but when such switching of the lens units is not performed, an in-focus image formed by the two lens units is obtained.
  • the image becomes unclear because the image and the image that is out of focus overlap.
  • a human wears a bifocal contact lens using a bifocal lens as described above, the human unconsciously selects an in-focus image and an out-of-focus image. It is considered that only the matching image is viewed, but such processing similar to the image selection processing in the human brain is performed on a portable information terminal device such as a normal mobile phone or a portable information terminal. If it can be executed in a short time by a central processing unit (CPU) having the performance equivalent to that of a mounted device, it is convenient because the usability and performance of the information terminal device can be improved, and it can be realized at low cost.
  • CPU central processing unit
  • a bifocal lens is provided in a portable information terminal device such as a mobile phone or a personal digital assistant
  • imaging is generally performed with a bifocal lens.
  • a camera having a bifocal lens is connected to a personal computer, or when a bifocal lens is used as a surveillance camera, the image quality is advantageously improved.
  • the inventor of the present application has been able to improve the quality of an image captured by a bifocal lens in a short time, and without using a focusing mechanism, a normal subject at a standard distance and a There has already been proposed an image modification processing device capable of obtaining a clear image for any close subject at a short distance. Request 2003—31734).
  • An object of the present invention is to provide an image modification processing method and apparatus, which can perform image modification processing in consideration of the fact that the shape of blur differs for each pixel, and can further enhance the image modification effect. And a data recording medium. Disclosure of the invention
  • the present invention relates to an image modification processing method for modifying an out-of-focus image formed by a lens into an in-focus image, wherein the size of the image sensor is M pixels XN pixels, and the light emitted from the subject is A matrix of M rows and N columns indicating brightness is denoted by A, and a matrix of M rows and N columns indicating output signals of an image obtained by capturing an image of a subject with a lens is denoted by Z, and one point (m , N), the convolution operation is performed when the subject coordinate system and the image coordinate system are set such that the imaging position of the light emitted from the image coordinate system becomes one point (m, n) in the image coordinate system.
  • the reproducing operation means when captured by the lens, the reproducing operation means, convolution matrix storage means with each element Q m stored, n (x, y) at least matrix of some of the values and the image of the output signal of the Calculate the value of each element A (m, n) of the matrix A of the subject using the value of each element Z (m + x, n + y) of Z based on the following equation (A-2) It is characterized by the following.
  • a (m, n) ⁇ x ⁇ y Q m , n (x, y) Z (m + x, n + y)
  • the “lens” may be a bifocal lens or a single focal lens.
  • imaging device specifically, for example, a complementary metal-oxide semiconductor (CMOS) or a charge coupled device (CCD) should be searched. Can be.
  • CMOS complementary metal-oxide semiconductor
  • CCD charge coupled device
  • the value of power may be determined according to the value of W m , n (0,0).
  • the value of power must be a value other than 2. More specifically, when the value of W m, n (0,0) is near 0.5, the value of power is 1 or more and less than 2 ′, and more preferably 1.
  • the value of W m , n (0, 0) is not near 0.5, it is set to 1 or more and 2 or less. The same applies to the following inventions.
  • each coordinate (m, n) means that the convolution operation matrix Q m , n stored in the convolution operation matrix storage means is convolution matrix Q m, good even n, is a convolution matrix Q m, good spirit even n only for some of the coordinates (m, n).
  • the convolution operation matrix Q m , n for the coordinates (m, n) is stored in the convolution operation matrix storage means.
  • Q m convolution operation matrix
  • ⁇ ( ⁇ , y) the sum of the stored values
  • the reproduction operation means when the object is imaged by the lens, the reproduction operation means outputs the respective elements Q of the convolution operation matrix Q m and n stored in the convolution operation matrix storage means. m , ⁇ ( ⁇ , y) and the value of each element Z (m + x, n + y) of the matrix Z of the output signal of the image obtained by imaging. Then, the value of each element A (m, n) of the matrix A of the subject is calculated based on the above equation (A-2).
  • the arithmetic processing performed by the playback operation means said formula (A_ l) stored in advance calculated by convolution matrix storage means based on the convolution matrix Q m, each element of the n Q m> n (x, y ), So that each element of the matrix A of the subject can be calculated with a very small amount of computation compared to the case of performing the arithmetic processing using the large inverse transformation matrix Tg- 1 of MX N rows and MX N columns. It is possible to calculate the value of A (m, n).
  • the number of elements of the matrix A of the subject is MX N
  • the number of elements of the matrix Z of the output signal of the image is MX N. Therefore, assuming that the light emitted from each coordinate corresponding to each element of the matrix A of the subject affects the pixel corresponding to each element of the matrix Z of the output signal of the image, this correspondence (subject of the subject)
  • T g of MX N rows and MX N columns the transformation matrix T g of MX N rows and MX N columns.
  • the present invention since the amount of calculation in the arithmetic processing by the reproduction arithmetic means is very small, the performance condition required for the CPU is relaxed. Therefore, for example, it is possible to execute the processing in a short time even with the capacity of the CPU mounted on a portable information terminal device such as a portable telephone and a portable information terminal. Therefore, if the present invention is applied to a portable information terminal device, a portable information terminal device having an image modifying function can be realized, and usability and performance of the information terminal device can be improved.
  • the convolution operation matrix storage means stores the convolution operation matrix Q m , n for each coordinate (m, n), it is necessary to consider that the shape of the blur differs for each pixel by the reproduction operation means. This makes it possible to perform the modified image modification process. For this reason, the image reforming effect can be further enhanced as compared with the case where the image reforming process is performed assuming that the blur of the same shape occurs in all the pixels, and the above-mentioned object is achieved. You.
  • convolution for each coordinate (m, n) Convolution for coordinates arranged in a straight line extending in one direction from the optical axis position in the convolution operation matrix Q m , n
  • the operation matrix Q m , n is selected as a sampling matrix, and only the values of each element Q m , n (x, y) of the sampling matrix Q m , n are stored in the convolution matrix storage means.
  • each element Q m, n (x, y ) of n is the convolution matrix rotation calculating means, by using the axial symmetry of the lens, the sampling matrix Q m, of n each element Q m, n (x, y ) it is desirable to calculate by rotating the arrangement of values of about the optical axis position.
  • the sampling matrix Q m If only the convolution operation matrix Q m , n is calculated by rotating the sampling matrix Q m , n , the amount of data stored in the convolution operation matrix storage means is reduced. It becomes possible.
  • sampling matrix operation matrix storage means convolution as described above Q m, is stored only in n, other convolution matrix Q m> For n sampling matrix Q
  • the values of the elements Q m , ⁇ ( ⁇ , y) of the convolution operation matrix Q m , n for the other coordinates are calculated by the convolution operation matrix rotation calculation means.
  • the “predetermined position of the first sub-region” and the “predetermined position of the second sub-region” are respectively defined from the viewpoint that the values of the elements Q m , n (x, y) to be obtained are close to the exact values. It is preferable to set the center position of the first section area and the center position of the second section area. However, the present invention is not limited to this. For example, corners and sides of the first section area and the second section area May be used.
  • the second partitioned area overlapping the predetermined position of the first partitioned area or the first partitioned area overlapping the predetermined position of the second partitioned area is obtained, and a convolution operation matrix Q m other than the sampling matrices Q m and n is obtained.
  • n the value of each element Q m , n (x, y) is calculated and determined, and the value of each second divided area is determined based on the area ratio of each second divided area overlapping the first divided area.
  • the lens is a bifocal lens
  • the matrix Z is a pin formed by one of the lens portions constituting the bifocal lens.
  • This is a matrix that indicates the output signal of an image in which the focused image and the out-of-focus image formed by the other lens unit overlap, and the point 'spread.function matrix w m> n is mainly Even if the value of w m , n (0,0) is determined by the action of one lens part, the value of W m , n (-X, -y) is determined mainly by the action of the other lens part Good.
  • a “bifocal lens” is an image of a normal subject (for example, a person or landscape) at a standard distance (a distance from the lower limit of the focal depth (for example, 0.3 m) to infinity).
  • a long focal length lens with a long focal length, and a close-up subject for example, a two-dimensional barcode—iris or text
  • a short focal length lens unit having a short focal length is an imaging lens integrally formed on the same surface.
  • the long focal length lens unit and the short focal length lens unit may be separately formed by separate members and then integrally formed. Alternatively, the long focal length lens unit and the short focal length lens unit may be processed using one member. May be formed.
  • the same surface is a surface orthogonal to the optical axis of the imaging lens.
  • the “one lens unit” is a lens unit that forms an in-focus image, and corresponds to a long focal length lens unit when capturing a normal subject at a standard distance.
  • the short focal length lens unit corresponds.
  • the “other lens unit” is a lens unit that forms an out-of-focus image, and corresponds to a short focus lens unit when capturing a normal subject at a standard distance.
  • the long focal length lens unit corresponds.
  • the front shape (shape viewed from the direction along the optical axis of the lens) of the long focal length lens portion forming the “bifocal lens” is circular, elliptical, or polygonal.
  • the front shape of the lens is annular, and the short focal length lens part is disposed outside the long focal length lens part and concentric with the long focal length lens part (located in a state where the optical axes of the lens parts coincide with each other).
  • Simplification of structure, simplification of manufacturing, quality Concentric structure with a long-focal-length lens part with a circular front shape and a short-focal-length lens part with an annular frontal shape, which is desirable from the viewpoint of easy acquisition of high-resolution images and improvement of decoding accuracy.
  • the arrangement of the long focal length lens unit and the short focal length lens unit may be reversed (therefore, the front shape is reversed), and the short focal length lens unit may be arranged inside and the long focal length lens unit may be arranged outside. .
  • an image in which a focus is formed by one of the lens portions constituting the bifocal lens and a focus image formed by the other lens portion are formed.
  • An image modification process that seeks an in-focus image from an overlapped image with a blurred image can be realized in a short time, and a normal subject at a standard distance without using a focusing mechanism Also, it is possible to obtain a clear image even with respect to the positional deviation of a close subject located at a shorter distance than this.
  • the following image modification processing apparatus of the present invention can be exemplified.
  • the present invention is an image modification processing apparatus for modifying an out-of-focus image formed by a lens into an in-focus image, wherein the size of an image sensor is M pixels XN pixels, and a subject emits light.
  • a matrix of M rows and N columns indicating the brightness of light is A
  • a matrix of M rows and N columns indicating an output signal of an image obtained by capturing an image of a subject with a lens is Z
  • one point (m , N) when the object coordinate system and the image coordinate system are set such that the image forming position of light emitted from the image coordinate system is one point (m, n) in the image coordinate system
  • a convolution operation matrix storage means for storing values of a matrix portion including at least non-zero elements among values of each element Q m , n (x, y)
  • a (m, n) ⁇ x ⁇ y Q mn (x, y) Z (m + x, n + y)
  • the image modification processing apparatus of the present invention described above is used.
  • the functions and effects obtained by the processing method can be obtained as they are, thereby achieving the above object.
  • the convolution operation matrix storage means stores coordinates of the convolution operation matrix Q min for each coordinate (m, n) which are arranged on a straight line extending in one direction from the optical axis position.
  • convolution matrix Q m, n is selected in the sampling matrix Q m as the sampling matrix, each element of the n Q m, ⁇ ( ⁇ , y) only the value of is stored, for other coordinate convolution matrix Q m, each element Q m of n, n (x, y) the value of, by using the axial symmetry of the lens, the sampling matrix Q m, each element Q m of n, n (x, y) values It is desirable to provide a configuration including convolution operation matrix rotation calculation means for calculating the arrangement by rotating the arrangement about the optical axis position.
  • the convolution operation matrix rotation calculation means may include a value of each element Q m , n (x, y) of the sampling matrix Q m , n . when rotating the arrangement, calculated subject to convolution matrix Qm, n elements Qm, ⁇ ( ⁇ , y) after rotation to overlap at a predetermined position of the first divided area corresponding to the sampling matrix Q m, of n Finds the second section area corresponding to the element Q m , n (x, y), and convolves the value of the element Q m , n (x, y) corresponding to the found second section area with the convolution to be calculated.
  • operation matrix Q m, n elements Q m of, n (x, y) force is employed as the value of, or obtains a first divided region of a predetermined position of the second divided areas overlap, the first divided region obtained as the value of the corresponding element Q m, n (x, y ) on, corresponding to the second divided areas are overlapped position in the first compartment area
  • That element Q ra, n (x, y ) desirably it is configured to adopt the value of.
  • the lens is a bifocal lens
  • the matrix Z is an image in which a focus is formed by one lens unit forming the bifocal lens
  • This is a matrix indicating the output signal of an image in which the defocused image formed by the lens unit is superimposed.
  • the point spread function matrix w m , n is W m mainly due to the action of one lens unit. , n (0, 0) It is also possible to adopt a configuration in which the value of W m> n (—X, 1 y) is determined mainly by the action of the other lens unit.
  • the present invention is a program for causing a computer to function as an image modification processing device that modifies a blurred image formed by a lens into a focused image
  • the program comprising: Is defined as M pixels XN pixels, the matrix of M rows and N columns indicating the brightness of the light emitted from the subject is defined as A, and the matrix of M rows and N columns indicating the output signal of the image obtained by imaging the subject with the lens is Z, the object coordinate system and the image coordinate system were set such that the image formation position of light emitted from one point (m, n) in the object coordinate system was one point (m, n) in the image coordinate system.
  • the (2M-1) row for the coordinate (m, n) for performing the convolution operation calculated based on the following equation (C-11) (2N-1) row convolution matrix Q m, each element of the n Q m, n (x, y) of the value of at least
  • a convolution calculation matrix storage means for storing the values of the matrix portion containing the zero element, the elements stored in the operation matrix storage means convolution Q m, n ( ⁇ , y ) at least part of the values and the image of the Calculate the value of each element A (m, n) of the matrix A of the subject using the value of each element Z (m + x, n + y) of the matrix Z of the output signal based on the following equation (C-2)
  • a computer for functioning as an image modification processing device characterized by comprising a reproduction operation means.
  • a (m, n) ⁇ x ⁇ y Q mn (x, y) Z (m + x, n + y)
  • the above program or a part of it may be, for example, a magneto-optical disk (M—), a read-only memory (CD-ROM) using a compact disk (CD), a CD recordable (CD-R), a CD rewritable ( CD-RW), read-only memory (DVD—R M) using digital versatile disk (DVD), random access memory using DVD (DVD-RAM), flexible disk (FD), magnetic Recorded on storage media such as tape, hard disk, read-only memory (ROM), electrically erasable and rewritable read-only memory (EE PROM), flash memory, random access memory (RAM), etc. for storage and distribution For example, local 'area network (LAN), metropolitan' area 'network (MAN), wide area.
  • LAN local 'area network
  • MAN metropolitan' area 'network
  • wide area wide area.
  • Network the Internet, intranets, extranets, and other wired networks, or wireless communication networks, and transmission media such as combinations thereof. It is also possible to carry on a carrier wave. Further, the above program may be a part of another program, or may be recorded on a recording medium together with a separate program.
  • the present invention provides a computer-readable recording medium for recording data used in an image modification process for modifying a blurred image formed by a lens into a focused image.
  • It is a data recording medium that can be captured, the size of the image sensor is M pixels XN pixels, the matrix of M rows and N columns indicating the brightness of the light emitted by the subject is A, and the subject is imaged by a lens Let the matrix of M rows and N columns indicating the output signals of the obtained image be Z, and the image formation position of light emitted from one point (m, n) in the object coordinate system is one point (m, n) in the image coordinate system.
  • the matrix used to calculate the matrix A from the matrix Z is expressed by the following equation (D-1) for all or a part of each coordinate (m, n). ),
  • the data recording medium of the present invention includes, for example, a read-only memory (CD-ROM) using a magneto-optical disk (MM) and a compact disk (CD). ), CD recordable (CD-R), CD re-writer (CD-RW), digital versatile disc (DVD) -based read-only memory (DVD-ROM), DVD-based random 'access' memory ( DVD—RAM), flexible disk (FD), magnetic tape, hard disk, read only memory (ROM), electrically erasable and rewritable read only memory (EE PROM), flash memory, random access memory (RAM ), Or a combination thereof.
  • the image processing is performed by the reproduction operation means using the convolution operation matrix Q m , n stored in the convolution operation matrix storage means, MX N rows and MX N columns
  • the value of each element A (m, n) of the matrix A of the subject can be calculated with a very small amount of calculation as compared with the case where the arithmetic processing is performed using the huge inverse transformation matrix Tg 1 of convolution.
  • the convolution operation matrix Q m , ⁇ for each coordinate (m, n) is stored in the matrix storage means, the image processing is performed by the reproduction operation means in consideration of the fact that the shape of blur differs for each pixel. In this case, the effect of improving the image quality can be further enhanced as compared with the case where the image reforming process is performed assuming that the blurring of the same shape occurs in all the pixels.
  • FIG. 1 is an overall configuration diagram of an imaging system including an image modification processing device according to an embodiment of the present invention.
  • FIG. 2 is a detailed configuration diagram of a bifocal lens that forms an image to be processed by the image modification processing device of the embodiment.
  • FIG. 3 is an explanatory diagram of a relationship between a subject and an image obtained by imaging the subject with a bifocal lens.
  • FIG. 4 is an explanatory diagram of a conversion relationship between the subject matrix A and the image matrix Z.
  • Figure 5 is, PSF matrix W m, each element W m of n, n (x, y) in the illustration of distribution of is there.
  • FIG. 6 is a diagram showing an example of the distribution state of each element Q m , n (x, y) of the convolution operation matrix Q m , n .
  • FIG. 7 is an explanatory diagram of the distribution state of each element W m , n (x, y) of the PSF matrix W ra , n for each coordinate (m, n).
  • FIG. 8 is an explanatory view of the distribution of each coordinate (m, n) convolution matrix Q m for each element of the n Q m> n (x, y).
  • Fig. 9 shows the convolution matrix Q m , n of each element Q m , ⁇ ( ⁇ , y) rotated by 45 degrees for each coordinate lined up on the horizontal line shown in Fig. 6. It is an illustration of arrangement.
  • FIG. 10 is an enlarged view of an area corresponding to nine pixels surrounded by a thick frame in the arrangement of FIG.
  • Fig. 11 shows the result of finding the second partitioned area overlapping the center position of each first partitioned area in Fig. 10 and calculating and determining the value of each first partitioned area based on the obtained value of the second partitioned area.
  • the first FIG. 2 is an explanatory view of the rotation information of the convolution matrix Q m, n.
  • FIG. 13 is a diagram showing a comparison result of the blur shapes (distribution of PSF matrices W m and n indicating the spread of light from a single bright spot) of the bifocal lens and the single focus lens.
  • FIG. 1 shows the entire configuration of an imaging system 10 including an image modification processing device 30 according to an embodiment of the present invention.
  • FIG. 2 shows a detailed configuration of a bifocal lens 21 that forms an image to be processed by the image modification processing device 30.
  • the imaging system 10 is, for example, an imaging system provided in a portable information terminal device such as a mobile phone or a portable information terminal, or a personal computer and a personal computer. And an imaging system configured by a camera connected to the camera.
  • an imaging system 10 includes an imaging mechanism 20 for imaging a subject, an image modification processing device 30 for improving the quality of an image captured by the imaging mechanism 20, Display means 40 for displaying an image whose quality has been improved by the processing device 30.
  • the imaging mechanism 20 includes a bifocal lens 21 for capturing an image of a subject, and an imaging device 24 for capturing an image formed by the bifocal lens 21.
  • the bifocal lens 21 is composed of, for example, a long focal lens part 22 made of glass and a short focal lens part 23 made of glass, for example.
  • the focus lens portions 23 are arranged on the same surface and integrated.
  • the long focus lens portion 22 has, for example, a circular front shape and is disposed at the center.
  • the short focus lens portion 23 has, for example, an annular (doughnut) front shape, and has a long focus lens. It is arranged outside the part 22 so as to be in contact with the outer edge of the long focus lens part 22.
  • the long focal length lens unit 22 and the short focal length lens unit 23 are integrated such that their optical axes are aligned, that is, concentrically, so that the bifocal lens 21 is It is a concentric bifocal lens.
  • the surface on which these lens units 22 and 23 are arranged is orthogonal to the optical axis of the bifocal lens 21.
  • the long focal length lens unit 22 has a focal depth lower limit (for example, 0 It has a long focal length suitable for imaging normal subjects (for example, people and landscapes) at a standard distance from .3 m) to infinity.
  • the short focus lens unit 23 is a lens having a short focal length suitable for imaging a close subject (for example, a two-dimensional bar code, an iris, a character, or the like) arranged at a shorter distance than a normal subject. Department. Note that the arrangement of the long focal length lens unit and the short focal length lens unit may be reversed, and the long focal length lens unit may be disposed outside and the short focal length lens unit may be disposed inside.
  • CMO S Comple mentary metal-oxide semiconductor
  • CCD charge coupled device
  • the image modification processing device 30 includes an output signal storage unit 31, a convolution operation matrix storage unit 32 for standard image reproduction, a convolution operation matrix storage unit 33 for close-up image reproduction, and rotation information storage. Means 34, convolution operation matrix rotation calculation means 35, reproduction operation means 36, and switching operation means 37.
  • the output signal storage means 31 is for extracting and storing the output signal of the image sensor 24.
  • the convolution operation matrix storage means 32 for reproduction of the standard image is used when the normal object (for example, a person or a landscape) at a standard distance is imaged by the bifocal lens 21.
  • the in-focus image is formed by the inner long-focal length lens unit 22 and the out-of-focus image is formed by the outer annular short-focus lens unit 23, a playback operation to obtain an in-focus image It stores the convolution operation matrix Q m , n (see Fig. 6) used in the processing.
  • the convolution operation matrix storage means 33 for reproducing a close-up image is used for capturing a close subject (for example, a two-dimensional bar code, an iris, a character, or the like) arranged at a shorter distance than a normal subject.
  • a close subject for example, a two-dimensional bar code, an iris, a character, or the like
  • an in-focus image is formed.
  • the shape of the blurred portion in the point 'spread' function matrix W m , n does not have a ring shape as shown in FIG.
  • convolution matrix Q m , n for each coordinate lined up on a line 60 in FIG. 8 described later is stored.
  • the distribution of the convolution operation matrix Q m , n stored as the sampling matrix is vertically symmetric, so that a further half (for example, the upper half) of the matrix portion H including the non-zero elements described above.
  • This rotation information is prepared for the convolution operation matrix Q m , n to be obtained (all of the convolution operation matrices Q m , J except for the sampling matrix (however, considering the axial symmetry, all the coordinates are 14).
  • the angle 0 is defined as the coordinates (m, n) of the convolution matrix Q m , n to be obtained with respect to a straight line (line 60 in FIG. 8 described later) on which the coordinates (m, n) of the sampling matrix Q m , n are arranged. This is the angle formed by the straight line connecting the center coordinates (M / 2, N / 2).
  • the convolution operation matrix rotation calculating means 35 includes a value of each element Q m , n (x, y) of the convolution operation matrix Q m , n as a sampling matrix stored in the convolution operation matrix storage means 32, 33, and rotation information. using the stored rotation information in the storage unit 34, in which operation matrix Q m convolution other than sampling matrix, each element Q m> n (x, y ) of the n processing for calculating determining the value of performing .
  • Reproducing operation means 36 is for performing arithmetic processing for reproducing the object, convolution matrix storage means 32, 33 to the convolution computation matrix Q m as stored sampling matrix, each element of the n Q m, n ( ⁇ , y) (each value of the matrix portion H), or each element Q m , n of the convolution operation matrix Q m , n other than the sampling matrix calculated and determined by the convolution operation matrix rotation calculation means 35 x, y) and the value of each element Z (m, n) of the matrix Z indicating the output signal of the image stored in the output signal storage means 31, based on the following equation (19): The processing for calculating the value of each element A (m, n) of the matrix A of the subject is performed.
  • the convolution operation matrix Q m , n The elements other than the matrix part (the matrix part H in FIG. 4) of the elements Q m , n (x ′ y) that include nonzero elements, that is, the convolution operation
  • the parts that are not stored in the matrix storage means 32 and 33 are zero elements, and are not calculated.
  • the switching operation means 37 is an arithmetic processing performed by the convolution operation matrix rotation calculation means 35 and the reproduction operation means 36, and uses the data of either of the convolution operation matrix storage means 32 and 33, that is, captures an ordinary subject or a close subject. This is an operation for switching and selecting whether or not to perform, for example, a push button type, a todal type, a slide type switch, and the like.
  • the information storage means 34 includes, for example, a hard disk, ROM, EE PROM, flash memory, RAM, MO, CD-ROM, CD-R, CD-RW, DV D-ROM, DVD-RAM, FD, magnetic tape Alternatively, a combination of these can be used.
  • the convolution operation matrix rotation calculation means 35 and the reproduction operation means 36 are provided with various information terminal devices constituting the imaging system 10 (for example, a portable information terminal device such as a mobile phone or a portable information terminal, or a personal computer connected to a camera).
  • various information terminal devices constituting the imaging system 10
  • a portable information terminal device such as a mobile phone or a portable information terminal, or a personal computer connected to a camera.
  • CPU central processing unit
  • the display means 40 for example, a liquid crystal display, a CRT display, a projector and a screen, or a combination thereof can be adopted.
  • FIG. 3 is an explanatory diagram of a relationship between a subject and an image obtained by imaging the subject with the bifocal lens 21. Since the image formed by the lens is generally an inverted image, in FIG. 3, the positions of the object and the image correspond to each other by reversing the direction of the coordinate axes of the object and the image. Have the same coordinates.
  • Fig. 3 is an explanatory diagram of a relationship between a subject and an image obtained by imaging the subject with the bifocal lens 21. Since the image formed by the lens is generally an inverted image, in FIG. 3, the positions of the object and the image correspond to each other by reversing the direction of the coordinate axes of the object and the image. Have the same coordinates.
  • Fig. 3 is an explanatory diagram of a relationship between a subject and an image obtained by imaging the subject with the bifocal lens 21. Since the image formed by the lens is generally an inverted image, in FIG. 3, the positions of the object and the image correspond to each other by
  • the object coordinate system composed of the s-axis (vertical axis) and the t-axis (horizontal axis) (s, t), and an image coordinate system (h, k) composed of an h-axis (vertical axis) and a k-axis (horizontal axis) are set.
  • the number of pixels in the vertical direction of the image sensor 24 is M, and the number of pixels in the horizontal direction is N.
  • each point (s, t) (part of the coordinates (s, t) in the subject coordinate system) of the subject has a brightness of A (s, t)
  • the total light emitted from the subject is , S-row, t-stem IJ (s and t are natural numbers, l ⁇ s ⁇ M, 1 ⁇ t ⁇ N) with MX (M-by-N) matrix A with elements of A (s, t) values Can be expressed (see Fig. 4). This is called a subject matrix A.
  • the object The whole image obtained by imaging with the bifocal lens 21 has h rows and k columns (h and k are natural numbers, 1 ⁇ h ⁇ M, 1 ⁇ k ⁇ N) and the elements of the value of Z (h, k) It can be represented by a matrix X of M XN (M rows and N columns) (see Fig. 4). This is called an image matrix Z.
  • the coordinates (m, n) are Take the X-axis (vertical axis) and the y-axis (horizontal axis) parallel to the h-axis (vertical axis) and k-axis (horizontal axis), respectively, and define the coordinate system composed of these X-axis and y-axis.
  • This coordinate system (X, y) if a single bright spot (coordinate (m, n)) on the subject moves, the corresponding coordinate (m, n) on the image sensor 24 also moves.
  • the relative coordinate system is set for (m, n).
  • one point ( m , n ) of the subject (PSF: Point Spread Function) in which the light emitted from the light source spreads on the image sensor 24 by the action of the bifocal lens 21, has a value of W m , n (x, y) as an element. It can be represented by a matrix of 2N-1) columns Wm , n (see Fig. 4). This is called the point-split function (PSF) matrix for the coordinates (m, n).
  • W m , n (x, y) are all x, y (X and y are integers, and (1 ⁇ M) ⁇ x ⁇ (M- 1), (1 -N) ⁇ y ⁇ ( N-1)) is the total amount of light emitted from one point (m, n) of the object.
  • Each element W m , n (x, y ) Is normalized.
  • the PSF matrix W m , n is a (2M-1) row (2N-1) matrix, that is, a matrix having approximately four times as many elements as the subject matrix A and the image matrix Z,
  • the light emitted from one point at the end of (for example, a point at coordinates (1, 1)) on the image sensor 24 is centered on the corresponding point (1, 1) at the corresponding end.
  • This is to show the state that the entire area including the one point (M, N) on the opposite end in the angular direction is expanded.
  • the blurred portion does not spread widely from one end in the diagonal direction on the image sensor 24 to the other end. As shown in FIG.
  • FIG. 4 is an explanatory diagram of a conversion relationship between the subject matrix A and the image matrix Z.
  • the operation for obtaining the image matrix Z from the subject matrix A is not a simple matrix operation but a convolution operation using the PSF matrix W m , n expressed by the following equation (1).
  • Z (m, n) is the value of the output signal of the pixel located at the point (m, n) on the image sensor 24, and this point (m, n) has the corresponding point on the subject.
  • the distance corresponding to the X pixel in the S direction and the y in the t direction Focused blurred light from points (m + x, n + y) separated by a distance corresponding to the pixels also collects.
  • the value of Z (m, n) is the output signal W m , n (0, 0) * A (A) of the light of brightness A (m, n) emitted from one point (m, n) on the subject. m, n), as well as the output signal W m + due to the light of brightness A (m + x, n + y) emitted from the surrounding points (m + x, n + y).
  • the lower right side of the above equation (1) means that.
  • the arithmetic processing using a large inverse transformation matrix T g- 1 of MX N rows and MX N columns requires a large amount of calculation, so that, for example, it is installed in a portable information terminal device such as a normal mobile phone or a portable information terminal. It is not practical with a central processing unit (CPU) that has the same level of performance as it is difficult to process in a short time.
  • CPU central processing unit
  • the normal image V In GA Video Graphics array
  • M 640 pixels
  • N 480 pixels
  • the number of pixels MXN is about 300,000
  • the huge inverse transformation matrix T g — 1 is the number of pixels in both the number of rows and the number of columns
  • the convolution operation matrix Q m , n for deriving the object matrix A from the image matrix Z must be obtained. I do.
  • a (m, n) Q m , n (0, 0) * Z (m, n)
  • the above equation (9) is an equation for performing a convolution operation corresponding to the above equation (1), and Q ra , n (, y) in the above equation (9) and the above equation (1) W m + X , n + y (one x, -y). Therefore, the matrices Q m , n are convolutional operation matrices corresponding to the PSF matrix W mn , Reproducing operation for obtaining a can be carried out using the convolution matrix Q m, n.
  • the following approximation can be performed.
  • the above equation (4) is a modified version of the above equation (1) for obtaining the value of the output signal Z (m, n) of the pixel located at the point (m, n) on the image sensor 24.
  • a (m, n) Q m , n (0, 0) * Z (m, n)
  • the matrix Q m , n in the above equation (1.7) is a convolution operation matrix corresponding to the PSF matrix W m , n in the above equation (1). Operation can be carried out using the convolution matrix Q m, n.
  • a (m, n) ⁇ x ⁇ y ⁇ Q m , n (x, y) * Z (m + x, n + y) ⁇
  • the value of power may be determined according to the value of W m , n (0, 0).
  • the value of power when the value of W m , n (0, 0) is near 0.5 (including 0.5; the same applies hereinafter), the value of power must be a value other than 2. is there. More specifically, when the value of W m , n (0, 0) is near 0.5, the value of power is set to 1 or more and less than 2, and more preferably 1. On the other hand, when the value of W ra , n (0, 0) is not near 0.5, it is set to 1 or more and 2 or less.
  • FIG. 5 shows an example of the distribution state of each element W m , n (x, y) of the PSF matrix W m , n .
  • the center W m , n (0, 0) is a normal subject at a standard distance
  • An in-focus image is formed by the light exiting from one point (m, n) and passing through the inner long focal length lens portion 22 constituting the bifocal lens 21.
  • an annular (substantially annular or approximately elliptical annular) out-of-focus image is formed by light passing through the outer annular short focal length lens part 23. Have been.
  • the blank section is the zero element.
  • the value of W ra , n (0, 0) at the center is c
  • the value of c is the inner long focal length lens part 2 2 with respect to the entire area of the bifocal lens 21. Is the value of the area ratio of.
  • the division of light may not be proportional to the area, so if the division ratio of the amount of light does not match the area ratio of the lens, the value of c above will be 2
  • each element adjacent to the center W m , n (0,0) (for example, W m , n ( 1,0 ) or W ra> n (0 , 1), etc.) are zero, but in practice, the image formed by the inner long-focal-length lens unit 22 is not completely in-focus, and is slightly blurred.
  • the shape of the blur is a substantially solid circle or a substantially solid ellipse. Therefore, the value of c is W m , n (0, 0) (See the blurred portion 80 in FIG. 13 described later).
  • the values of the respective elements of the annular blur portion are indicated by el to el 9, which show the outline of the blur shape.
  • the width of the ring is not more than one or two rows or one or two columns, but more rows or columns.
  • the PSF matrix W m , n at the center position of the image sensor 24 center coordinates in the image coordinate system (h, k)
  • Zero elements are arranged in an annular shape with a width of 7 rows or 7 columns, for example, 8 rows outside
  • non-zero elements are arranged in an annular shape with a width of eight columns. Therefore, in this case, the matrix part E (see Fig.
  • the ratio of the inner diameter to the outer diameter of the ring at the blurred portion of W m , n (x, y) is determined by the outer diameter of the outer short focal length lens portion 23 constituting the bifocal lens 21 and the outer radius. Equal to the ratio to the diameter.
  • the size, width, and shape of the ring at the blurred portion of W m , n (x, y) differ depending on the coordinates (m, n) (see Fig. 7).
  • the value of c is, for example, 0.8
  • the value of el to e19 is, for example, 0.0013.
  • the Figure 6 are operation matrix Q m convolution is defined by equation (18) described above, each element Q m of n, n (x, y) an example of the distribution of indicated.
  • the distribution of each element Q m , n (x, y) of the convolution operation matrix Q m , n is also the distribution of each element W m , n (x, y) of the PSF matrix W m , n (see Fig. 5).
  • there is a non-zero element in the center Q m , n (0, 0) and the non-zero elements around it are arranged in a ring (substantially annular or nearly elliptical annular).
  • the blank part is the zero element.
  • each element Q ra , n (x, y) of the convolution operation matrix Q m , n in FIG. 6 is represented by the respective element W m , n (x, y) of the PSF matrix W m , n in FIG. ), X and y are inverted to 1 x and 1 y. It is the inverse of the definition given by equation (18) above.
  • FIG. 7 shows that each element W ff n of the PSF matrix W m , n for each coordinate (m, n) x, y) is shown.
  • the shape of the blur is annular.
  • the shape of the blur becomes a substantially elliptical ring, and the farther away from the center of the image coordinate system (h, k), the overall blurred portion becomes. The size and the width of the ring increase.
  • the bifocal lens 21 has axial symmetry, the axial symmetry is maintained for the distribution (shape of the blur) of the PSF matrix W m , n for each coordinate (m, n). . Therefore, considering each straight line extending radially from the center position of the image sensor 24 (the center coordinates (M / 2, N / 2) of the image coordinate system (h, k)), if any of the straight lines is viewed in the radial direction, In the same manner, the distribution (shape of the blur) changes outward from the center, and the distribution (shape of the blur) of the PSF matrix W m , n is determined by the distance from the center position of the image sensor 24, and The distributions of both PSF matrices W m , n are symmetric with respect to the radiation line.
  • the distributions (shape of the blur) of the PSF matrices W ra , n for the coordinates having the same distance from the center position of the image sensor 24 are all the same, and are simply rotated.
  • image coordinate system (h, k) each coordinates (m, n) arranged on the line 50 in the PSF matrix W m for each element W m of n, n (x, y) the arrangement of the image coordinates By rotating about the center coordinate (M / 2, N / 2) of the system (h, k), each coordinate on the other lines 51, 52, 53, 54 in the image coordinate system (h, k)
  • the arrangement of each element W m , n (x, y) of the PSF matrix W m , n for (m, n) can be calculated.
  • Fig. 8 shows each element Q m , n of the convolution operation matrix Q m , n for each coordinate (m, n).
  • the distribution of (x, y) is shown. Since the distribution of the convolution operation matrix Q m , n is also defined by the above equation (18), the axis symmetry is maintained similarly to the distribution of the PSF matrix W m , n . Therefore, the distribution of the convolution matrix ⁇ 3 sigma distances for the same coordinates of the center coordinates (M / 2, N / 2 ) are all the same, and the simply rotating It is just a relationship.
  • convolution matrix Q m for each coordinate (m, n) arranged on the line 60 shown by a chain line in FIG. 8 the elements Q m of n, ⁇ ( ⁇ , y) the arrangement of the central
  • the convolution for each coordinate (m, n) on the other lines 61, 62, 63, 64 indicated by the dotted lines in FIG. operation matrix Q m, each element of the n Q m can be calculated arrangement of n (x, y).
  • the individual distribution of the convolution matrix Q m , n for each coordinate (m, n) in FIG. 8 is different from the distribution of the PSF matrix W m , n for the same coordinate in FIG.
  • the inversion of y is the same as the relationship between Figs. 5 and 6 described above.
  • the convolution operation matrix storage means 32, 33 it is necessary to store the convolution operation matrices Q m , n for all coordinates (m, n) (1 ⁇ m ⁇ M, 1 ⁇ n ⁇ N) in the convolution operation matrix storage means 32, 33. without the center coordinates (M / 2, n / 2 ) one convolution matrix Q m of coordinates aligned on a straight line, the n is to store the sampling matrix of each straight line extending radially from the other coordinates For the convolution operation matrix Q m , n for, the sampling matrix may be rotated.
  • the diagonal line 61-64 force has the coordinates farthest from the center coordinates (M / 2, N / 2), that is, convolution for each coordinate on the diagonal line 61-64 operation matrix Q m, if sampled n, all coordinates (m, n) (1 ⁇ m ⁇ M 1 ⁇ n ⁇ N) convolution matrix Q m for, since it is possible to represent the n,.
  • horizontal When storing the convolution operation matrices Q m , n for each coordinate lined up on the line 60 in the direction, as shown in FIG. 8, the same length as the diagonal lines 61 to 64 (maximum angle of view) Line 60 so that the length corresponds to half of the value). Sampling is extended for the purpose.
  • the convolution operation matrix Q m stored in the convolution operation matrix storage means 32, 33 as a sampling matrix. Is preferably calculated based on the PSF matrices W m , n obtained by experiments, but the inner and outer diameters of each lens part 22, 23 constituting the bifocal lens 21, the focal length of each lens part 22, 23, and It may be calculated based on the PSF matrix W m , n obtained by calculation using the distance between the bifocal lens 21 and the image sensor 24 and the like.
  • the convolution operation matrix Q m , n for all coordinates (m, n) (1 ⁇ m ⁇ M, 1 ⁇ n ⁇ N) is stored in the convolution operation matrix storage unit. It may be stored in 32, 33.
  • FIG. 9 shows the elements Q m , n (x, y) of the convolution matrix Q m , n for each coordinate lined up on the horizontal line 60 (see FIG. 8) shown in FIG. Is shown rotated by 45 degrees as an example.
  • FIG. 10 shows a state in which the area 70 for nine pixels surrounded by a thick frame in the arrangement of FIG. 9 is enlarged.
  • operation matrix Q m convolution becomes a calculation target, n elements Q m of (matrix other than sampling matrix), n (x, y) in the horizontal and vertical dotted area ( Figure 9, corresponding to the called the Subdivision bounded region) of the first divided area, the sampling matrix after rotation Q m> n elements Q m of, n (x, partitioned by oblique solid line in region ( Figure 9 corresponding to y) Area) is referred to as a second section area and will be described.
  • the values of f 15 to f 19 are the values of the elements Q m , n (x, y) corresponding to the respective second divided areas in which these values are described.
  • the values of the elements Q m , n (x, y) corresponding to the central first section area (hatched area) of the nine first section areas included in the area 70 in FIG. First, in order to calculate accurately, all the second divided areas overlapping with the hatched first divided area are grasped. In the case of FIG. 10, four second section areas corresponding to four elements having the values of fl6, f17, f18, and f19 overlap.
  • the area of the overlap between the hatched first partitioned area and the f16 second partitioned area is defined as H1, and similarly, the hatched first partitioned area and f17, f18, Assuming that the area of the overlapping part of the f1 9 with the second section area is ⁇ ; 2, a3 and h4, respectively, the elements Q m , ⁇ ( ⁇ , y) corresponding to the hatched first section area The value is calculated from the weighted average based on the area ratio according to the following equation (20).
  • each element Q m , n (x, y) of the sampling matrix Q m , n is adopted as it is.
  • the central position 71 of the hatched first partitioned area overlaps the fl 6 second partitioned area, so the element corresponding to the hatched first partitioned area
  • Fig. 11 shows that the other eight first section areas included in the area 70 in Fig. 10 also have the second section overlapping the central position. seeking regions, respectively, each element Q m, n (x, y ) values computed determined result is shown.
  • the first sub-area at the upper right and the lower left is a zero element at the second sub-area overlapping the central position of these areas. Therefore, the values of the elements Q m , n (x, y) corresponding to the upper right and lower left first division areas are set to zero.
  • the weighted average based on the area ratio according to the above equation (20) may be calculated.
  • sampling matrix by convolution matrix rotation calculating means 35 Q m, being calculated by rotating the n is the sampling matrix convolution matrix storage means 32, 33 Q m, of the n Since only about half of the values (upper half in the case of the distribution in Fig. 6) are stored, taking into account the symmetry of the matrix part H (see Fig. 4) including non-zero elements. Then, it is only the value of the matrix part H including non-zero elements in the convolution operation matrix Q m , n to be calculated.
  • the convolution operation matrix rotation calculation means 35 rotates the sampling matrices Q m , n to generate convolution operation matrices Q m , other than the sampling matrices.
  • the rotation information is stored in advance for each convolution operation matrix Q m , n to be calculated. It is stored in the means 34.
  • FIG. 12 is an explanatory diagram of rotation information of the convolution operation matrix Q m , n .
  • the coordinates (m, n) and the center coordinate (MX 2) of the convolution operation matrix Q m , n to be calculated are used as rotation information. , N / 2)], and the angle ⁇ between the line connecting the coordinates (m, n) of the convolution matrix Q m> n and the center coordinates (M / 2, N / 2) to the line 60 is ⁇ I just need.
  • the distance r when the distance r is stored, if a fraction is found, it is stored as an integer by rounding off. Distance r is stored to determine which sampling matrix on line 60 is to be rotated. It should be noted that the fractions are stored as they are, and when performing the arithmetic processing by the convolution operation matrix rotation calculating means 35, it is converted to an integer by rounding or the like, and it is determined which sampling matrix is to be rotated. Is also good. Further, since it is only necessary to be able to determine which sampling matrix is to be rotated, identification information such as a number for specifying the sampling matrix may be stored instead of the distance r.
  • the convolution operation for all the coordinates on the line 60 is performed.
  • the matrix Q ra , n be the sampling matrix Te convolution matrix storage means 32, 33 is not necessary to store the, for each coordinate ranges each convolution matrix Q m, the distribution of n is substantially the same, one of the convolution matrix Q of them Only m> n may be stored. That is, the convolution matrix Q m , for the specific coordinates determined at intervals on the line 60. You may memorize only.
  • the distance stored in the rotation information storage means .34 may be determined as follows. That is, irrespective of whether or not a fraction is obtained in the process of calculating the distance r by the aforementioned equation (21), instead of storing the distance r calculated by the equation (21) as it is, each sampling matrix Q m , n From among a plurality of specific distances corresponding to the distance, the one having the closest distance r calculated by the equation (21) is selected, and the selected specific distance is stored in the rotation information storage means 34.
  • the object coordinate system (s, t) and the image coordinate system (h, k) have positive coordinate values corresponding to the row numbers and column numbers of the object matrix A and the image matrix Z.
  • the coordinates (m, n) indicating one point in the object coordinate system (s, t) and image coordinate system (h, k) are l ⁇ m ⁇ M, 1 ⁇ n It was supposed to move in the range ⁇ N. Therefore, the coordinates of the subject and the central position of the image sensor 24 have been described as (M / 2, N / 2).
  • the object coordinate system (s, t) and the image coordinate system ( h, k) are set so that each coordinate value has a positive or negative value.
  • the coordinates of the center position of the subject or the imaging element 24 are (0, 0)
  • the coordinates (m, n ) May move within the range of 1 M / 2 ⁇ m ⁇ M / 2, and 1 N / 2 n ⁇ N. Therefore, the setting of each coordinate system in the claims of the present application is also a setting for convenience of explanation, and the present invention is not limited to the setting of the expression form described in the claims. Any setting can be used as long as a similar process can be performed.
  • the quality of the image obtained by imaging the subject using the bifocal lens 21 is improved by the image modification processing device 30 as described below.
  • each element W m , n of the PSF matrix W m , n for each coordinate (m, n) on the line 50 (see FIG. 7)
  • the value of (x, y) for each element Q ⁇ , ⁇ ( ⁇ , y) of the convolution matrix Q m , n for each coordinate (m, n) on line 60 (see Fig. 8)
  • the value is calculated in advance and stored as a sampling matrix in the convolution operation matrix storage means 32, 33 of the image modification processing device 30. Note that only the values of the matrix portion H (see Fig. 4) containing non-zero elements need be stored, and the distribution on line 60 is vertically symmetrical as shown in Fig. 6, so the upper half Only each value is required.
  • the rotation information (distance r and angle 0) of the convolution operation matrix Q m , n other than the sampling matrix is calculated in advance by Expressions (21) and (22), and the rotation information storage unit of the image modification processing device 30 is calculated. Store it in 34.
  • the imaging mechanism 20 After performing a switching selection operation of the switching operation means 37, the imaging mechanism 20 images the subject. At this time, the light emitted from the subject passes through the respective lens units 22 and 23 of the bifocal lens 21 and reaches the image sensor 24. Then, an output signal of the image pickup device 24 receiving the light from the subject is extracted, taken into the image modification processing device 30, and stored in the output signal storage means 31.
  • the convolution operation matrix rotation calculating means 35 calculates the value of each element Q m , n (x, y) of the sampling matrix Q m , n stored in one of the convolution operation matrix storage means 32,33 (the In the vertically symmetric distribution as shown in Fig. 6, each value of the upper half of the portion corresponding to the matrix portion H including the non-zero elements shown in Fig. 4) and the rotation information stored in the rotation information storage means 34 And the value of each element Q m , n ( ⁇ , y) of the convolution operation matrix Q m , n other than the sampling matrix is calculated.
  • the subject to be imaged is displayed on the screen of the display means 40. Further, if necessary, the subject may be printed by an output means such as a printer (not shown).
  • the image modification processing device 30 includes the reproduction operation means 36, when the subject is imaged by the bifocal lens 21, the convolution operation matrix Q stored in the convolution operation matrix storage means 32, 33 At least some of the elements Q m , n (x, y) of m> n , and each element Z (m + x, n) of the image matrix Z indicating the output signal of the captured image + y), the value of each element A (m, n) of the subject matrix A can be calculated based on Eq. (19).
  • the arithmetic processing performed by the playback operation means 36 the formula is pre-calculated based on (1 9) convolution matrix storage means 32, 33 to the convolution stored operation matrix Q m, each element of the n Q m, n (x, y) so carried out using a value of, compared to the case of performing arithmetic processing using the giant inverse transformation matrix T 1 of the MXN rows MX N columns as shown in equation (3), the non The value of each element A (m, n) of the subject matrix A can be calculated with a small amount of calculation at all times.
  • the performance requirements of the CPU are relaxed, and the reproduction of the subject can be performed in a short time even with the capability of the CPU mounted on a portable information terminal device such as a mobile phone or a portable information terminal. It can be performed by processing. For this reason, if the image reforming processor 30 is installed in a portable information terminal device, a portable information terminal device having an image modifying function can be realized, and the usability and performance of the information terminal device can be improved. It can be done.
  • the computing means 36 can perform image modification processing in consideration of the fact that the shape of the blur differs for each pixel. For this reason, the image modification effect can be further enhanced as compared with the case where the image modification processing is performed assuming that the blur of the same shape occurs in all the pixels.
  • the image modification processing device 30 includes the rotation information storage means 34 and the convolution operation matrix rotation calculation means 35, the optical axis position (using the axial symmetry of the bifocal lens 21) is used.
  • Each coordinate (m, n) on the line 60 (see FIG. 8) stored in the convolution operation matrix storage means 32, 33 around the subject and the center position of the image sensor 24) as a sampling matrix convolution matrix Q m for, by rotating the n, convolution matrix Q m in the other coordinate, Ru can be calculated n. Therefore, the amount of data stored in the convolution operation matrix storage means 32, 33 can be reduced.
  • the convolution operation matrix rotation calculating means 35 obtains a second section area overlapping a predetermined position (the center position in the present embodiment) of the first section area, and calculates the second section area. Since the value of each element Q mn (, y) of the convolution operation matrix Q m , n other than the sampling matrix is calculated and determined based on the value of the area, the expression (2 0 ) By a weighted average calculated by element Q m corresponding to the first divided region based on the area ratio, compared with the case of strictly calculate the value of n (x, y), it is possible to simplify the process contents, Processing time can be reduced.
  • the image modification processing device 30 is provided with the switching operation means 37, the data of the convolution operation matrix storage means 32, 33 is switched and selected according to the distance of the subject to be imaged. Can be performed. Therefore, regardless of whether the subject is a normal subject at a standard distance or a close subject at a shorter distance, the focus formed by one of the lens units constituting the bifocal lens 21 It is possible to realize an image modification process for obtaining an in-focus image from a superimposed image of an in-focus image and an out-of-focus image formed by the other lens unit in a short time. As a result, clear images can be obtained for both normal subjects and close subjects.
  • the convolution operation matrix rotation calculating means 35 converts the second partitioned area overlapping the predetermined position (the center position in the present embodiment) of the first partitioned area.
  • the calculated, determined elements Q m where the value of the second divided area corresponding to the first divided area, n (x, y) which had been configured to calculate determine the value of, operation matrix rotation calculating the convolution of the present invention means, as the value of the predetermined position of the second divided area (e.g., center position) determined the first divided areas overlap, the elements corresponding to the first divided region obtained Q m, n (x, y),
  • a configuration may be adopted in which the value of the second partitioned area where the predetermined position overlaps the first partitioned area is used.
  • the first divisional area where the center position of the second divisional area of f16 overlaps is the first divisional area at the center of the hatched area.
  • the present invention is applied to the bifocal lens 21.
  • the invention may be applied to a single focus lens.
  • the first 3 FIG bifocal lens 2 1 Oyo Pi comparison results of single focus lens 9 0 blur shape (PSF matrix W m indicating the spread of light from a single bright spot, n distribution) is shown ing.
  • the distribution of the PSF matrices W m and n when a normal object at a standard distance is imaged by the bifocal lens 21 is such that the long focal lens part 22 is an ideal lens.
  • Wm , n (0, 0) at which an in-focus image is formed by the long focal length lens unit 22 and W m , n ( (0, 0) a slightly blurred portion 80 of a substantially solid circular shape or a substantially solid elliptical shape, and a ring shape (substantially annular or substantially elliptical) formed by the short focus lens portion 23 (Circular) blurred portion 8 1.
  • the distribution of the PSF matrices W m , n when a close-up subject located closer than the standard distance is imaged by the bifocal lens 21 is such that the short-focal length lens part 23 is an ideal lens.
  • W ra n ( (0, 0)
  • An oval-shaped blur portion 83 is provided.
  • the distribution of the PSF matrices W m , n when a normal object at a standard distance or a close object at a shorter distance is imaged by the single focus lens 90 is such that the single focus lens 90 is ideal.
  • W m , n (0, 0) is the center
  • W m , n (0, 0) is provided with a slightly blurred portion 91 having a substantially solid circular shape or a substantially solid elliptical shape formed around n (0, 0).
  • the formation of the blurred portion 91 by the single focus lens 90 is performed by forming the blurred portion 80 by the long focal length lens portion 22 when an ordinary subject is imaged by the bifocal lens 21, and forming the blurred portion 90 by the near focus subject.
  • focus The same meaning in principle as the formation of the blurred portion 82 by the short focus lens portion 23 when the image is taken by the lens 21! /, With.
  • the PSF matrix W m , n (x, y) for defining the convolution operation matrix Q m , ⁇ ( ⁇ , y) used in the reproduction operation processing of the object by the reproduction operation means 36 is as follows. Can be determined. First, when a normal subject is imaged by the bifocal lens 21, the blurred portion 80 may be treated in the same way as the blurred portion 81, or the values of the respective elements of the blurred portion 80 may be summed up to W The value of ra , n (0, 0) may be replaced, and the value of each element of the blurred portion 80 except W m , n (0, 0) may be set to zero.
  • the distribution is similar to that in the case where an image in which W m , n (0,0) is perfectly focused is formed by the ideal long focal length lens unit 22.
  • the blurred portion 82 may be treated in the same way as the blurred portion 83, or the value of each element of the blurred portion 82 (actually, The output signal value of the image of the blurred portion 83 by the focus lens unit 22 overlaps, but since the value of this value is small, it is assumed that only the output signal ⁇ t of the image of the blurred portion 82 by the short focus lens unit 23 is output.
  • the image modification processing method and apparatus, program, Data recording media are, for example, remote controllers for operating home appliances such as personal digital assistants (PDAs), mobile phones (including PHS: personal handy phone system), and television / video.
  • PDAs personal digital assistants
  • the present invention can be applied to information terminal devices having an image input function using a bifocal lens or a single focal lens, such as a camera device, a personal computer with a power camera, and a surveillance camera device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Input (AREA)

Abstract

ぼけの形状が各画素で異なることを考慮した画像改質処理を行うことができ、画像改質効果をより一層高めることができる画像改質処理方法およびその装置、プログラム、並びにデータ記録媒体である。各座標(m,n)についての畳み込み演算行列Qm,nの各要素Qm,n(x,y)のうち少なくとも非零要素を含む行列部分の値を畳み込み演算行列記憶手段(32),(33)に記憶しておき、二焦点レンズ(21)で被写体を撮像した際に、再生演算手段(36)により、画像素子(24)の出力信号Z(m+x,n+y)の値と、畳み込み演算行列記憶手段(32),(33)に記憶したQm,n(x,y)とを用いて畳み込み演算処理を行うことにより被写体行列Aの各要素A(m,n)の値を算出し、ピントの合った画像を求めるようにした。

Description

画像改質処理方法およびその装置 技術分野
本発明は、 レンズにより形成されたピントのぼけた画像をピントの合った画像 に改質する画像改質処理方法およびその装置、 プログラム、 並びにデータ記録媒 明
体に係り、 例えば、 二焦点レンズを構成する一方のレンズ部により形成されるピ ントの合った画像と、 他方のレンズ部により形成されるピントのぼけた画像とが 書
重なった画像から、 ピントの合った画像を求める画像改質処理、 あるいは単焦点 レンズのピントのぼけを取り除く画像改質処理などに利用できる。
背景技術
従来より、 焦点距離の異なる二つのレンズ部を有する二焦点レンズが遠近両用 コンタクトレンズとして使用されている。 このような二焦点レンズにより構成さ れるコンタクトレンズを人間が装着した場合には、 二つの各レンズ部により形成 されるピントの合った画像とピントの合わない画像 (いわゆるピンぼけ画像) と を人間が無意識のうちに選択し、 ピントの合った画像のみを見るようにしている と考えられる。
ところで、 このような二焦点レンズを、 例えば携帯電話機や携帯情報端末等の 情報端末装置に設ければ、 焦点深度下限 (例えば、 0 . 3 m) から無限遠までの 標準的な距離にある通常の被写体 (例えば、 人物や風景等) を、 長い焦点距離を 有する長焦点レンズ部により撮像し、 一方、 それよりも近い距離に配置された近 接被写体 (例えば、 2次元パーコードや虹彩や文字等) を、 短い焦点距離を有す る短焦点レンズ部により撮像することにより、 それぞれ高い解像度の画像を得る ことができる。 そして、 このよ!)な二焦点レンズを備えた情報端末装置は、 本願 の発明者により、 既に開発されている (特開 2002— 123825号公報 (段 落 [0007] 、 [0008] 、 [0027] 、 [0042] 、 図 3、 要約) 参 照) 。
し力 し、 二焦点レンズを備えた情報端末装置では、 例えば液晶シャツタ等の光 学シャツタをニ焦点レンズと撮像素子との間に設けることにより長焦点レンズ部 と短焦点レンズ部とを切替可能な構成とした場合等には、 コントラストの髙い画 像を得ることができるものの、 そのようなレンズ部の切替を行わない場合には、 二つの各レンズ部により形成されるピントの合った画像とピントの合わない画像 とが重なってしまうため、 画像が不鮮明になるという問題がある。
この際、 前述したように二焦点レンズを使用した遠近両用コンタク トレンズを 人間が装着した場合には、 ピントの合った画像とピントの合わない画像とを人間 が無意識のうちに選択し、 ピントの合った画像のみを見るようにしていると考え られるが、 このような人間の脳内における画像の選択処理と類似の処理を、 通常 の携帯電話機や携帯情報端末等の携帯型の情報端末装置に搭載されている程度の 性能を有する中央演算処理装置 (CPU) により短時間で実行できれば、 情報端 末装置の使い勝手や性能の向上を図ることができ、 しかも低コストで実現できる ので便利である。
また、 このような処理を行うことができれば、 携帯電話機や携帯情報端末等の 携帯型の情報端末装置に二焦点レンズを設けた場合に限らず、 広く一般的に二焦 点レンズによる撮像を行う場合、 例えば、 パーソナル ' コンピュータに二焦点レ ンズを有するカメラを接続した場合や、 監視カメラとして二焦点レンズを用いる 場合等においても、 画像の質の改善が図られるため好都合である。
そこで、 本願の発明者により、 二焦点レンズで撮像された画像の質を短時間の 処理で改善することができ、 ピント合わせ機構を用いることなく、 標準的な距離 にある通常の被写体およびこれよりも近距離にある近接被写体のいずれもについ ても鮮明な画像を得ることができる画像改質処理装置が既に提案されている (特 願 2 0 0 3— 3 1 7 3 4号参照) 。
ところで、 前述した特願 2 0 0 3 - 3 1 7 3 4号で提案されている画像改質処 理装置では、 全ての画素で同じ形状のぼけが発生すると仮定し、 画像改質処理を 行っている。 すなわち、 被写体の任意の 1点から出た光が二焦点レンズの作用に より撮像素子上で拡がる状態 (ぼけの形状) は、 被写体の別の 1点から出た光が 二焦点レンズの作用により撮像素子上で拡がる状態 (ぼけの形状) と同じである と仮定している。
し力 し、 実際の二焦点レンズによる撮像では、 全ての画素で完全に同じ形状の ぼけとなることはない。 従って、 より画像改質効果を高めるためには、 各画素で 異なる形状のぼけが発生することを考慮した処理を行う必要がある。
また、 二焦点レンズによる撮像を行う場合のみならず、 単焦点レンズによる撮 像を行う場合であっても、 全ての画素について完全にピントが合うことはなく、 ピンぼけを生じる画素があり、 しかも各画素でのぼけの形状は、 異なっているの が通常である。 従って、 このような単焦点レンズによるピントのぼけを取り除く ことができれば便利である。
本発明の目的は、 ぼけの形状が各画素で異なることを考慮した画像改質処理を 行うことができ、 画像改質効果をより一層高めることができる画像改質処理方法 およびその装置、 プログラム、 並びにデータ記録媒体を提供するところにある。 発明の開示
本発明は、 レンズにより形成されたピントのぼけた画像をピントの合った画像 に改質する画像改質処理方法であって、 撮像素子の大きさを M画素 X N画素とし 、 被写体の発する光の明るさを示す M行 N列の行列を Aとし、 被写体をレンズに より撮像して得られた画像の出力信号を示す M行 N列の行列を Zとし、 被写体座 標系の 1点 (m, n ) から出た光の結像位置が画像座標系の 1点 (m, n ) とな るように被写体座標系およぴ画像座標系を設定したとき、 畳み込み演算処理を行 うための座標 (m, n) についての (2M—1) 行 (2N—1) 列の畳み込み演 算行列 Qm, nの各要素 Qra, n (x, y) の値のうち少なくとも非零要素を含む行 列部分の値を、 各座標 (m, n) の全部または一部について、 下式 (A—1) に 基づき予め算出して畳み込み演算行列記憶手段に記憶しておき、 被写体をレンズ により撮像した際に、 再生演算手段により、 畳み込み演算行列記憶手段に記憶さ れた各要素 Qm, n (x, y) のうちの少なくとも一部の値と画像の出力信号の行 列 Zの各要素 Z (m+x, n + y) の値とを用いて下式 (A— 2) に基づき被写 体の行列 Aの各要素 A (m, n) の値を算出することを特徴とするものである。
Qm, n ( , y) = 1 /Wm> n (0, 0)
(x = 0, y = 0の場合)
= _Wm, n (- X , 一 y) /Wm, n (0, 0) power
(x = 0, y = 0以外の場合)
(A— 1)
A (m, n) =∑xyQm, n (x, y) Z (m+x, n + y)
(A- 2) ここで、 xおよび yは整数で、 (1— M) ≤x≤ (M- 1) 、 (1 -N) ≤y ≤ (N- 1) であり、 mおよび nは自然数で、 l≤m≤M、 l≤n≤Nであり、 Wm, n (x, y) は、 (2M— 1) 行 (2N— 1) 列の行列 Wm, nの各要素の値 であり、 この行列 Wm, nは、 被写体の 1点 (m, n) から出た光がレンズの作用 により撮像素子上で拡がる状態を示すボイント 'スプレッド ' ファンクション行 列であり、 Wm, n (0, 0) は、 拡がりの中心部分に位置する画素の出力信号の 値であり、 Wm, n (— x, -y) は、 周囲のぼけ部分に位置する画素の出力信号 の値であり、 p owe rは、 Wm, n (0, 0) のべき乗数となる実数で、 l≤p owe r≤ 2であり、 ∑xは、 x= ( 1— M) 〜 (M— 1 ) の和であり、 ∑yは 、 y= ( 1 -N) 〜 (N— 1) の和である。
また、 「レンズ」 は、 二焦点レンズでもよく、 単焦点レンズでもよい。 さらに、 「撮像素子」 としては、 具体的には、 例えば、 相補性金属酸化膜半導 体 (CMOS : Complementary Metal-oxide Semiconductor) や電荷結合素子 ( CCD: Charge Coupled Device) 等を探用することができる。
そして、 p owe rの値は、 Wm, n (0, 0) の値に応じて決定すればよい。 この際、 Wm, n (0, 0) の値が、 0. 5近傍 (0. 5を含む。 以下、 同様) の ときには、 p owe rの値を 2以外の値とする必要がある。 より具体的には、 W m, n (0, 0) の値が、 0. 5近傍のときには、 p owe rの値を 1以上 2未満 ' とし、 より好ましくは 1とする。 一方、 Wm, n (0, 0) の値が、 0. 5近傍以 外のときには、 1以上 2以下とする。 以下の発明においても、 同様である。
また、 「各座標 (m, n) の全部または一部について」 とは、 畳み込み演算行 列記憶手段に記憶させておく畳み込み演算行列 Qm, nは、 全ての座標 (m, n) についての畳み込み演算行列 Qm, nでもよく、 一部の座標 (m, n) についての 畳み込み演算行列 Qm, nのみでもよい趣旨である。 但し、 一部の座標 (m, n) についての畳み込み演算行列 Qm, nのみを記憶させる場合は、 その記憶させる一 部の座標 (m, n) についての畳み込み演算行列 Qm, nに基づき、 計算により全 ての座標 (m, n) についての畳み込み演算行列 Qm, nを求めることができるこ とが前提となる。
さらに、 「 (2M— 1) 行 (2N— 1) 列の畳み込み演算行列 Qm, nの各要素
Qm, n (χ, y) の値のうち少なくとも非零要素を含む行列部分の値」 とは、 座 標 (m, n) についての畳み込み演算行列 Qm, nを畳み込み演算行列記憶手段に 記憶させる際には、 (2M—1) X (2N- 1) 個の全ての要素の値を記憶させ ておく必要はなく、 非零要素を含む行列部分の値を記憶させておけばよい趣旨で ある。 なお、 前述した如く、 式 (A— 2) において、 ∑xは、 x= ( 1 -M) 〜 (M— 1) の和であり、 ∑yは、 y= ( 1 -N) 〜 (N— 1) の和であると説明 されているが、 これは、 畳み込み演算行列記憶手段に (2M— 1) 行 (2N— 1 ) 列の畳み込み演算行列 Qm,。の各要素 Qm, η (χ, y) の値を全て記憶させた 場合の処理を意味し、 一部分の値 (非零要素を含む行列部分の値) のみを記憶さ せた場合には、 その記憶させた分についての和とすればよい。 以下の発明におい ても同様である。
このような本発明の画像改質処理方法においては、 被写体をレンズにより撮像 した際に、 再生演算手段により、 畳み込み演算行列記憶手段に記憶された畳み込 み演算行列 Qm, nの各要素 Qm, η (χ, y) のうちの少なくとも一部の値と、 撮 像して得られた画像の出力信号の行列 Zの各要素 Z (m+x, n + y) の値とを 用い、 前記式 (A— 2) に基づき被写体の行列 Aの各要素 A (m, n) の値を算 出する。
この際、 再生演算手段による演算処理は、 前記式 (A_ l) に基づき予め算出 されて畳み込み演算行列記憶手段に記憶された畳み込み演算行列 Qm, nの各要素 Qm> n (x, y) の値を用いて行われるので、 MX N行 MX N列の巨大逆変換行 列 Tg— 1を用いて演算処理を行う場合に比べ、 非常に少ない計算量で、 被写体の 行列 Aの各要素 A (m, n) の値を算出することが可能となる。
つまり、 被写体の行列 Aの要素数は、 MX N個であり、 画像の出力信号の行列 Zの要素数も、 MX N個である。 従って、 被写体の行列 Aの各要素に対応する各 座標から出た光が、 画像の出力信号の行列 Zの各要素に対応する画素に影響を与 えるものと考えると、 この対応関係 (被写体の行列 Aの各要素の値から画像の出 力信号の行列 Zの各要素の値を導く関係) は、 MX N行 MX N列の巨大変換行列 Tgを用いて示すことができるので、 この MX N行 MX N列の巨大変換行列 Tg の逆行列 Tg1を求めることができれば、 この巨大逆変換行列丁 1を用いて、 逆に、 画像の出力信号の行列 Zの各要素の値から被写体の行列 Aの各要素の値を 導くことができる。 し力 し、 MXN行 MXN列の巨大逆変換行列 Tg1を用いた 演算処理は、 計算量が多いので、 例えば、 通常の携帯電話機や携帯情報端末等の 携帯型の情報端末装置に搭載されている程度の性能を有する中央演算処理装置 ( CPU) では、 短時間での処理が困難であるため、 現実的ではない。 これに対し、 本発明では、 再生演算手段による演算処理は、 計算量が非常に少 ないので、 C P Uに要求される性能の条件が緩和される。 従って、 例えば携帯電 話機や携帯情報端末等の携帯型の情報端末装置に搭載されている程度の C P Uの 能力でも短時間の処理で実行することが可能である。 このため、 携帯型の情報端 末装置に本発明を適用すれば、 画像改質機能を備えた携帯型の情報端末装置を実 現でき、 情報端末装置の使い勝手や性能の向上を図ることができるようになる。 また、 畳み込み演算行列記憶手段には、 各座標 (m, n ) についての畳み込み 演算行列 Qm, nが記憶されているので、 再生演算手段により、 ぼけの形状が各画 素で異なることを考慮した画像改質処理を行うことが可能となる。 このため、 全 ての画素で同じ形状のぼけが発生すると仮定した画像改質処理を行う場合に比べ 、 画像改質効果をより一層高めることができるようになり、 これらにより前記目 的が達成される。
また、 前述した画像改質処理方法において、 各座標 (m, n ) についての畳み. 込み演算行列 Qm, nのうち、 光軸位置から一方向に延びる直線上に並ぶ座標につ いての畳み込み演算行列 Qm, nをサンプリング行列として選択し、 畳み込み演算 行列記憶手段には、 サンプリング行列 Qm, nの各要素 Qm, n ( x, y ) の値のみ を記憶させておき、 その他の座標についての畳み込み演算行列 Qm, nの各要素 Q m, n ( x, y ) の値は、 畳み込み演算行列回転算出手段により、 レンズの軸対称 を利用して、 サンプリング行列 Qm, nの各要素 Qm, n ( x , y ) の値の配置を光 軸位置を中心として回転させることにより算出することが望ましい。
このように畳み込み演算行列記憶手段にサンプリング行列 Qm,。のみを記憶さ せ、 その他の畳み込み演算行列 Qm, nについてはサンプリング行列 Qm, nを回転 させて算出するようにした場合には、 畳み込み演算行列記憶手段に記憶させるデ 一タ量を減らすことが可能となる。
さらに、 上記のように畳み込み演算行列記憶手段にサンプリング行列 Qm, nの みを記憶させ、 その他の畳み込み演算行列 Qm> nについてはサンプリング行列 Q m, nを回転させて算出するようにした場合において、 畳み込み演算行列回転算出 手段によりその他の座標についての畳み込み演算行列 Qm, nの各要素 Qm, η (χ , y) の値を算出する際には、 サンプリング行列 Qm, nの各要素 Qm, n (x, y ) の値の配置を回転させたときに、 算出対象となる畳み込み演算行列 Qm, nの要 素 Qm, n (χ, y) に対応する第一区画領域の所定位置に重なる回転後のサンプ リング行列 Qm, nの要素 Qm, η (χ, y) に対応する第二区画領域を求め、 求め た第二区画領域に対応する要素 Qm, n (x, y) の値を、 算出対象となる畳み込 み演算行列 Qm, nの要素 Qm, η (χ, y) の値として採用する力 \ または、 第二 区画領域の所定位置が重なっている第一区画領域を求め、 求めた第一区画領域に 対応する要素 Qm, n (x, y) の値として、 この第一区画領域に所定位置が重な つている第二区画領域に対応する要素 Qm, n (x, y) の値を採用することが望 ましい。
ここで、 「第一区画領域の所定位置」 および 「第二区画領域の所定位置」 は、 求める各要素 Qm, n (x, y) の値を厳密値に近づけるという観点から、 それぞ れ第一区画領域の中央位置および第二区画領域の中央位置とすることが好ましい 、 これに限定されるものではなく、 例えば、 第一区画領域おょぴ第二区画領域 の角部や辺部等であつてもよい。
このように第一区画領域の所定位置に重なる第二区画領域、 または第二区画領 域の所定位置が重なっている第一区画領域を求め、 サンプリング行列 Qm, n以外 の畳み込み演算行列 Qm, nの各要素 Qm, n (x, y) の値を算出決定するように した場合には、 第一区画領域に重なる各第二区画領域の面積割合に基づき各第二 区画領域に対応する各要素 Qm, n (x, y) の値を加重平均することにより第一 区画領域に対応する要素 Qm, n (x, y) の値を厳密に算出する場合 (第 1 0図 参照) に比べ、 処理内容が簡単になり、 処理時間の短縮が図られる。
そして、 以上に述べた画像改質処理方法において、 レンズは、 二焦点レンズで あり、 行列 Zは、 二焦点レンズを構成する一方のレンズ部により形成されるピン トの合った画像と、 他方のレンズ部により形成されるピントのぼけた画像とが重 なった画像の出力信号を示す行列であり、 ポイント 'スプレッド .ファンクショ ン行列 wm> nは、 主として一方のレンズ部の作用により wm, n ( 0 , 0 ) の値が 定まり、 主として他方のレンズ部の作用により Wm, n ( - X , - y ) の値が定ま るようにしてもよい。
ここで、 「二焦点レンズ」 とは、 標準的な距離 (焦点深度下限 (例えば、 0 . 3 m) から無限遠までの距離) にある通常の被写体 (例えば、 人物や風景等) を 撮像するための長レ、焦点距離を有する長焦点レンズ部と、 標準的な距離にある被 写体よりも近距離にある近接被写体 (例えば、 2次元バーコ一ドゃ虹彩や文字等 ) を撮像するための短い焦点距離を有する短焦点レンズ部とが、 同一の面に一体 化されて形成された撮像レンズである。 なお、 長焦点レンズ部と短焦点レンズ部 とを別部材により別々に形成してから一体ィ匕してもよく、 あるいは、 一つの部材 を用いて長焦点レンズ部および短焦点レンズ部を加工して形成してもよい。 また 、 同一の面は、 撮像レンズの光軸に直交する面であることが最も好ましい。 また、 「一方のレンズ部」 とは、 ピントの合った画像を形成するレンズ部であ り、 標準的な距離にある通常の被写体を撮像する際には、 長焦点レンズ部が該当 し、 通常の被写体よりも近距離にある近接被写体を撮像する際には、 短焦点レン ズ部が該当する。 これに対し、 「他方のレンズ部」 とは、 ピントのぼけた画像を 形成するレンズ部であり、 標準的な距離にある通常の被写体を撮像する際には、 短焦点レンズ部が該当し、 通常の被写体よりも近距離にある近接被写体を撮像す る際には、 長焦点レンズ部が該当する。
さらに、 「二焦点レンズ」 を構成する長焦点レンズ部の正面形状 (レンズの光 軸に沿う方向から見た形状) は、 円形、 楕円形、 または多角形のいずれかであり 、 短焦点レンズ部の正面形状は、 環状であり、 短焦点レンズ部は、 長焦点レンズ 部の外側に配置され、 かつ、 長焦点レンズ部と同心に配置 (各レンズ部の光軸同 士が一致する状態で配置) されていることが、 構造の簡易化、 製造の容易化、 質 の高い画像の取得の容易化、 解読精度の向上等の観点から望ましく、 特に、 長焦 点レンズ部の正面形状を円形とし、 短焦点レンズ部の正面形状を円環状とした同 心円型構造とすると、 極めて好ましい結果が得られる。 なお、 長焦点レンズ部と 短焦点レンズ部との配置関係を逆にし (従って、 正面形状を逆にし) 、 短焦点レ ンズ部を内側に長焦点レンズ部を外側に配置するようにしてもよい。
そして、 「主として一方のレンズ部の作用により Wm> n ( 0, 0 ) の値が定ま り、 主として他方のレンズ部の作用により Wm, n ( - X , - y ) の値が定まる」 という意味は、 ピントの合った画像を形成する一方のレンズ部の作用により、 多 少のぼけが形成され、 それが Wm, n ( - X , - y ) の値に影響することがあり、 また、 ピントのぼけた画像を形成する他方のレンズ部の正面形状 (要するに、 ぼ けの形状) 次第では、 他方のレンズ部の作用によるピントのぼけが Wm, n ( 0, 0 ) の値に影響することがあることを意味する。
このように本発明を二焦点レンズに適用した場合には、 二焦点レンズを構成す る一方のレンズ部により形成されるピントの合つた画像と、 他方のレンズ部によ り形成されるピントのぼけた画像とが重なった画像から、 ピントの合った画像を 求める画像改質処理を、 短時間の処理で実現可能となり、 ピント合わせ機構を用 いることなく、 標準的な距離にある通常の被写体およびこれよりも近距離にある 近接被写体のレヽずれもについても鮮明な画像を得ることができるようになる。 また、 以上に述べた本発明の画像改質処理方法を実現する画像改質処理装置と して、 以下のような本発明の画像改質処理装置を挙げることができる。
すなわち、 本発明は、 レンズにより形成されたピントのぼけた画像をピントの 合った画像に改質する画像改質処理装置であって、 撮像素子の大きさを M画素 X N画素とし、 被写体の発する光の明るさを示す M行 N列の行列を Aとし、 被写体 をレンズにより撮像して得られた画像の出力信号を示す M行 N列の行列を Zとし 、 被写体座標系の 1点 (m, n ) から出た光の結像位置が画像座標系の 1点 (m , n ) となるように被写体座標系および画像座標系を設定したとき、 各座標 (m , n) の全部または一部について、 下式 (B— 1) に基づき算出された畳み込み 演算処理を行うための座標 (m, n) についての (2M_1) 行 (2N—1) 列 の畳み込み演算行列 Qm, nの各要素 Qm, n (x, y) の値のうち少なくとも非零 要素を含む行列部分の値を記憶する畳み込み演算行列記憶手段と、 この畳み込み 演算行列記憶手段に記憶された各要素 Qm, n (x, y) のうちの少なくとも一部 の値と画像の出力信号の行列 Zの各要素 Z (m+x, n + y) の値とを用いて下 式 (B_2) に基づき被写体の行列 Aの各要素 A (m, n) の値を算出する再生 演算手段とを備えたことを特徴とするものである。
Qm, n (χ, y) = 1 /Wm, n (0, 0)
(x = 0, y = 0の場合)
= -Wm> n (— x, -y) ZWm, n (0, 0) er
(x = 0, y = 0以外の場合)
(B-l)
A (m, n) =∑ xy Qm n (x, y ) Z (m+x, n + y)
(B- 2) ここで、 xおよび yは整数で、 (1_M) ≤x≤ (M- 1) 、 (1 -N) ≤y ≤ (N- 1) であり、 mおよび nは自然数で、 l≤m≤M、 l≤n≤Nであり、 Wm, n (x, y) は、 (2M—1) 行 (2N— 1) 列の行列 Wm, nの各要素の値 であり、 この行列 Wm, nは、 被写体の 1点 (m, n) から出た光がレンズの作用 により撮像素子上で拡がる状態を示すボイント 'スプレッド ' ファンクション行 列であり、 Wm, n (0, 0) は、 拡がりの中心部分に位置する画素の出力信号の 値であり、 Wm, n (― x, 一 y) は、 周囲のぼけ部分に位置する画素の出力信号 の値であり、 p owe rは、 Wra, n (0, 0) のべき乗数となる実数で、 l≤p owe r≤ 2であり、 ∑xは、 = ( 1一 M) 〜 (M— 1 ) の和であり、 ∑yは 、 y= (1—N) 〜 (N— 1) の和である。
このような本発明の画像改質処理装置においては、 前述した本発明の画像改質 処理方法で得られる作用 ·効果がそのまま得られ、 これにより前記目的が達成さ れる。
また、 前述した画像改質処理装置において、 畳み込み演算行列記憶手段には、 各座標 (m, n) についての畳み込み演算行列 Qmi nのうち光軸位置から一方向 に延びる直線上に並ぶ座標についての畳み込み演算行列 Qm, nがサンプリング行 列として選択されてこのサンプリング行列 Qm, nの各要素 Qm, η (χ, y) の値 のみが記憶され、 その他の座標についての畳み込み演算行列 Qm, nの各要素 Qm, n (x, y) の値を、 レンズの軸対称を利用して、 サンプリング行列 Qm, nの各 要素 Qm, n (x, y) の値の配置を光軸位置を中心として回転させることにより 算出する畳み込み演算行列回転算出手段を備えた構成とすることが望ましい。 さらに、 上記のように畳み込み演算行列回転算出手段を備えた構成とする場合 において、 畳み込み演算行列回転算出手段は、 サンプリング行列 Qm, nの各要素 Qm, n (x, y) の値の配置を回転させたときに、 算出対象となる畳み込み演算 行列 Qm, nの要素 Qm, η (χ, y ) に対応する第一区画領域の所定位置に重なる 回転後のサンプリング行列 Qm, nの要素 Qm, n (x, y) に対応する第二区画領 域を求め、 求めた第二区画領域に対応する要素 Qm, n (x, y) の値を、 算出対 象となる畳み込み演算行列 Qm, nの要素 Qm, n (x, y) の値として採用する力 、 または、 第二区画領域の所定位置が重なっている第一区画領域を求め、 求めた 第一区画領域に対応する要素 Qm, n (x, y) の値として、 この第一区画領域に 所定位置が重なっている第二区画領域に対応する要素 Qra, n (x, y) の値を採 用する構成とされていることが望ましい。
そして、 以上に述べた画像改質処理装置において、 レンズは、 二焦点レンズで あり、 行列 Zは、 二焦点レンズを構成する一方のレンズ部により形成されるピン トの合つた画像と、 他方のレンズ部により形成されるピントのぼけた画像とが重 なつた画像の出力信号を示す行列であり、 ポイント ·スプレッド · ファンクショ ン行列 wm, nは、 主として一方のレンズ部の作用により Wm, n (0, 0) の値が 定まり、 主として他方のレンズ部の作用により Wm> n (— X, 一 y) の値が定ま る構成としてもよい。
また、 本発明は、 レンズにより形成されたピントのぼけた画像をピントの合つ た画像に改質する画像改質処理装置として、 コンピュータを機能させるためのプ ログラムであって、 撮像素子の大きさを M画素 XN画素とし、 被写体の発する光 の明るさを示す M行 N列の行列を Aとし、 被写体をレンズにより撮像して得られ た画像の出力信号を示す M行 N列の行列を Zとし、 被写体座標系の 1点 (m, n ) から出た光の結像位置が画像座標系の 1点 (m, n) となるように被写体座標 系おょぴ画像座標系を設定したとき、 各座標 (m, n) の全部または一部につい て、 下式 (C一 1) に基づき算出された畳み込み演算処理を行うための座標 (m , n) についての (2M— 1) 行 (2N— 1) 列の畳み込み演算行列 Qm, nの各 要素 Qm, n (x, y) の値のうち少なくとも非零要素を含む行列部分の値を記憶 する畳み込み 算行列記憶手段と、 この畳み込み演算行列記憶手段に記憶された 各要素 Qm, n (χ, y) のうちの少なくとも一部の値と画像の出力信号の行列 Z の各要素 Z (m+x, n + y) の値とを用いて下式 (C— 2) に基づき被写体の 行列 Aの各要素 A (m, n) の値を算出する再生演算手段とを備えたことを特徴 とする画像改質処理装置として、 コンピュータを機能させるためのものである。
Qra, n (x, y) = 1 /Wm, n (0, 0)
(x = 0, y = 0の場合)
=一 Wm, n (— x, 一 y) /Wm, n (0, 0) power
(x = 0, y = 0以外の場合)
(C一 1)
A (m, n ) =∑ xy Qm n (x , y ) Z (m+ x , n + y)
(C-2) ここで、 xおよび yは整数で、 (l—M) ≤x≤ (M— 1 ) 、 (l—N) ≤y ≤ (N- 1) であり、 mおよび nは自然数で、 l≤m≤M、 l≤n≤Nであり、 Wm, n (x, y) は、 (2M— 1) 行 (2N—1) 列の行列 Wm, nの各要素の値 であり、 この行列 Wm, nは、 被写体の 1点 (m, n) から出た光がレンズの作用 により撮像素子上で拡がる状態を示すポイント 'スプレッ ド · ファンクション行 列であり、 Wm, n (0, 0) は、 拡がりの中心部分に位置する画素の出力信号の 値であり、 Wm, n (― x, 一 y) は、 周囲のぼけ部分に位置する画素の出力信号 の値であり、 p owe rは、 Wm, n (0, 0) のべき乗数となる実数で、 l ^p owe r≤ 2であり、 ∑xは、 x= ( 1 _M) 〜 (M_ 1 ) の和であり、 ∑yは 、 y = (1 -N) 〜 (N— 1) の和である。
なお、 上記のプログラムまたはその一部は、 例えば、 光磁気ディスク (M〇) 、 コンパクトディスク (CD) を利用した読出し専用メモリ (CD— ROM) 、 CDレコーダブル (CD— R) 、 CDリライタブル (CD-RW) 、 デジタル · バーサタイル.ディスク (DVD) を利用した読出し専用メモリ (DVD— R〇 M) 、 DVDを利用したランダム ·アクセス ' メモリ (DVD-RAM) 、 フレ キシブルディスク (FD) 、 磁気テープ、 ハードディスク、 読出し専用メモリ ( ROM) 、 電気的消去および書換可能な読出し専用メモリ (EE PROM) 、 フ ラッシュ ' メモリ、 ランダム ·アクセス · メモリ (RAM) 等の記録媒体に記録 して保存や流通等させることが可能であるとともに、 例えば、 ローカル 'エリア •ネットワーク (LAN) 、 メ トロポリタン 'エリア 'ネットワーク (MAN) 、 ワイド .エリア .ネットワーク (WAN) 、 ィンターネット、 イントラネット 、 ェクストラネット等の有線ネットワーク、 あるいは無線通信ネットワーク、 さ らにはこれらの組合せ等の伝送媒体を用レ、て伝送することが可能であり、 また、 搬送波に載せて搬送することも可能である。 さらに、 上記のプログラムは、 他の プロダラムの一部分であってもよく、 あるいは別個のプログラムと共に記録媒体 に記録されていてもよい。
さらに、 本発明は、 レンズにより形成されたピントのぼけた画像をピントの合 つた画像に改質する画像改質処理で使用されるデータを記録したコンピュータ読 取り可能なデータ記録媒体であって、 撮像素子の大きさを M画素 XN画素とし、 被写体の発する光の明るさを示す M行 N列の行列を Aとし、 被写体をレンズによ り撮像して得られた画像の出力信号を示す M行 N列の行列を Zとし、 被写体座標 系の 1点 (m, n) から出た光の結像位置が画像座標系の 1点 (m, n) となる ように被写体座標系および画像座標系を設定したとき、 行列 Zから行列 Aを算出 するために用いる行列として、 各座標 (m, n) の全部または一部について、 下 式 (D— 1) に基づき算出された畳み込み演算処理を行うための座標 (m, n) についての (2M— 1) 行 (2N— 1) 列の畳み込み演算行列 Qm, nの各要素 Q m, n (x, y) の値のうち少なくとも非零要素を含む行列部分の値を記録したも のである。
Qm, n (x, y) =1/Wm, n (0, 0)
(x = 0, y = 0の場合)
= -Wm, n (_x, -y) /Wm, n (0, 0) power
(x = 0, y = 0以外の場合)
(D- 1) ここで、 xおよび yは整数で、 (1 _M) ≤x≤ (M— 1) 、 (1 -N) ≤y ≤ (N- 1) であり、 mおよび nは自然数で、 l≤m≤M、 l≤n≤Nであり、 Wm> n (x, y) は、 (2M— 1) 行 (2N—1) 列の行列 Wm, nの各要素の値 であり、 この行列 Wm> nは、 被写体の 1点 (m, n) から出た光がレンズの作用 により撮像素子上で拡がる状態を示すボイント 'スプレッド ' ファンクション行 列であり、 Wm, n (0, 0) は、 拡がりの中心部分に位置する画素の出力信号の 値であり、 Wm, n (— x, -y) は、 周囲のぼけ部分に位置する画素の出力信号 の値であり、 p o w e rは、 Wm, n (0, 0) のべき乗数となる実数で、 l≤p owe r≤2でめる。
なお、 上記の本発明のデータ記録媒体としては、 例えば、 光磁気ディスク (M 〇) 、 コンパクトディスク (CD) を利用した読出し専用メモリ (CD— ROM ) 、 CDレコーダブル (CD— R) 、 CDリライタプル (CD— RW) 、 デジタ ル.バーサタイル.ディスク (DVD) を利用した読出し専用メモリ (DVD— ROM) 、 DVDを利用したランダム 'アクセス 'メモリ (DVD— RAM) 、 フレキシブルディスク (FD) 、 磁気テープ、 ハードディスク、 読出し専用メモ リ (ROM) 、 電気的消去および書換可能な読出し専用メモリ (EE PROM) 、 フラッシュ ·メモリ、 ランダム ·アクセス 'メモリ (RAM) 、 あるいはこれ らの組合せ等を採用することができる。
以上に述べたように本発明によれば、 再生演算手段により、 畳み込み演算行列 記憶手段に記憶された畳み込み演算行列 Qm, nを用いて画像改質処理を行うので 、 MX N行 MX N列の巨大逆変換行列 Tg 1を用いて演算処理を行う場合に比べ 、 非常に少ない計算量で、 被写体の行列 Aの各要素 A (m, n) の値を算出する ことができるうえ、 畳み込み演算行列記憶手段には各座標 (m, n) についての 畳み込み演算行列 Qm,„が記憶されているので、 再生演算手段により、 ぼけの形 状が各画素で異なることを考慮した画像改質処理を行うことができ、 全ての画素 で同じ形状のぼけが発生すると仮定した画像改質処理を行う場合に比べ、 画像改 質効果をより一層高めることができるという効果がある。 図面の簡単な説明
第 1図は、 本発明の一実施形態の画像改質処理装置を含む撮像システムの全体 構成図である。
第 2図は、 前記実施形態の画像改質処理装置による処理対象となる画像を形成 する二焦点レンズの詳細構成図である。
第 3図は、 被写体とこの被写体を二焦点レンズにより撮像して得られる画像と の関係の説明図である。
第 4図は、 被写体行列 Aと画像行列 Zとの変換関係の説明図である。
第 5図は、 PSF行列 Wm, nの各要素 Wm, n (x, y) の分布状況の例示図で ある。
第 6図は、 畳み込み演算行列 Qm, nの各要素 Qm, n ( x , y ) の分布状況の例 示図である。
第 7図は、 各座標 (m, n ) についての P S F行列 Wra, nの各要素 Wm, n ( x , y ) の分布状況の説明図である。
第 8図は、 各座標 (m, n ) についての畳み込み演算行列 Qm, nの各要素 Qm> n ( x , y ) の分布状況の説明図である。
第 9図は、 第 6図に示した水平方向のライン上に並ぶ各座標についての畳み込 み演算行列 Qm, nの各要素 Qm, η ( χ , y ) を 4 5度回転させた配置の例示図で ある。
第 1 0図は、 第 9図の配置のうち太枠で囲った 9つの画素分の領域の拡大図で ある。
第 1 1図は、 第 1 0図の各第一区画領域の中央位置に重なる第二区画領域を求 め、 求めた第二区画領域の値により各第一区画領域の値を算出決定した結果を示 す図である。
第 1 2図は、 畳み込み演算行列 Qm, nの回転情報の説明図である。
第 1 3図は、 二焦点レンズおよび単焦点レンズのぼけの形状 (単一輝点からの 光の拡がりを示す P S F行列 Wm, nの分布) の比較結果を示す図である。 発明を実施するための最良の形態
本発明をより詳細に説述するために、 添付の図面に従ってこれを説明する。 第 1図には、 本発明の一実施形態の画像改質処理装置 3 0を含む撮像システム 1 0の全体構成が示されている。 また、 第 2図には、 画像改質処理装置 3 0によ る処理対象となる画像を形成する二焦点レンズ 2 1の詳細構成が示されている。 撮像システム 1 0は、 例えば、 携帯電話機や携帯情報端末等の携帯型の情報端末 装置に設けられた撮像システム、 あるいはパーソナル' コンピュータおよびそれ に接続されたカメラにより構成される撮像システム等である。
第 1図において、 撮像システム 1 0は、 被写体を撮像する撮像機構 2 0と、 こ の撮像機構 2 0により撮像された画像の質を改善する画像改質処理装置 3 0と、 この画像改質処理装置 3 0により質の改善を行った画像を表示する表示手段 4 0 とを備えている。
撮像機構 2 0は、 被写体を撮像する二焦点レンズ 2 1と、 この二焦点レンズ 2 1により形成された画像を取り込む撮像素子 2 4とを含んで構成されている。 第 2図において、 二焦点レンズ 2 1は、 例えばガラス製の長焦点レンズ部 2 2 と、 例えばガラス製の短焦点レンズ部 2 3とにより構成され、 これらの長焦点レ ンズ部 2 2および短焦点レンズ部 2 3は、 同一の面に配置されて一体化されてい る。 長焦点レンズ部 2 2は、 例えば円形の正面形状を有し、 中心に配置され、 一 方、 短焦点レンズ部 2 3は、 例えば円環状 (ドーナツ型) の正面形状を有し、 長 焦点レンズ部 2 2の外側に長焦点レンズ部 2 2の外縁部に接する状態で配置され ている。 そして、 これらの長焦点レンズ部 2 2およぴ短焦点レンズ部 2 3は、 両 者の光軸が一致するように、 すなわち同心に配置されて一体化され、 これにより 二焦点レンズ 2 1は、 同心円型の二焦点レンズとなっている。 また、 これらの各 レンズ部 2 2 , 2 3が配置された面は、 二焦点レンズ 2 1の光軸に直交している ここで、 長焦点レンズ部 2 2は、 焦点深度下限 (例えば、 0 . 3 m) から無限 遠までの標準的な距離にある通常の被写体 (例えば、 人物や風景等) を撮像する のに適した長い焦点距離を有するレンズ部である。 一方、 短焦点レンズ部 2 3は 、 通常の被写体よりも近い距離に配置された近接被写体 (例えば、 2次元バーコ 一ドゃ虹彩や文字等) を撮像するのに適した短い焦点距離を有するレンズ部であ る。 なお、 長焦点レンズ部と短焦点レンズ部との配置関係を逆にし、 長焦点レン ズ部を外側に、 短焦点レンズ部を内側に配置してもよい。
撮像素子 2 4としては、 例えば、 相補性金属酸化膜半導体 (CMO S : Comple mentary Metal-oxide Semiconductor) や電荷結合素子 ( C C D : Charge Couple d Device) 等を採用することができる。 撮像素子 2 4の大きさは、 縦方向 M画素 横方向 N画素であるものとする。
画像改質処理装置 3 0は、 出力信号記憶手段 3 1と、 標準画像再生用の畳み込 み演算行列記憶手段 3 2と、 接写画像再生用の畳み込み演算行列記憶手段 3 3と 、 回転情報記憶手段 3 4と、 畳み込み演算行列回転算出手段 3 5と、 再生演算手 段 3 6と、 切替操作手段 3 7とを備えている。
出力信号記憶手段 3 1は、 撮像素子 2 4の出力信号を引き出して記憶するもの である。
標準画像再生用の畳み込み演算行列記憶手段 3 2は、 標準的な距離にある通常 の被写体 (例えば、 人物や風景等) を二焦点レンズ 2 1により撮像する場合、 従 つて、 本実施形態では、 内側の長焦点レンズ部 2 2によりピントの合つた画像が 形成され、 外側の環状の短焦点レンズ部 2 3によりピントのぼけた画像が形成さ れる場合に、 ピントの合った画像を求める再生演算処理に用いられる畳み込み演 算行列 Qm, n (第 6図参照) を記憶するものである。
接写画像再生用の畳み込み演算行列記憶手段 3 3は、 通常の被写体よりも近い 距離に配置された近接被写体 (例えば、 2次元バーコ一ドゃ虹彩や文字等) を撮 像する場合、 従って、 本実施形態では、 外側の環状の短焦点レンズ部 2 3により ピントの合つた画像が形成され、 内側の長焦点レンズ部 2 2によりピントのぼけ た画像が形成される場合に、 ピントの合った画像を求める再生演算処理に用いら れる畳み込み演算行列 Q m, nを記憶するものである。 なお、 この場合のポイント 'スプレッ ド ' ファンクション行列 Wm, nにおけるぼけ部分の形状は、 後述する 第 5図のようなリング状とはならず、 略中実円形状または略中実楕円形状 (内部 が非零要素で埋まった状態) となるので (後述する第 1 3図のぼけ部分 8 3参照 ) 、 畳み込み演算行列 Q m, nについても、 ぼけ部分に対応する部分の形状は、 後 述する第 6図のようなリング状とはならず、 略中実円形状または略中実楕円形状 (内部が非零要素で埋まった状態) となる。
そして、 標準画像再生用および接写画像再生用の畳み込み演算行列記憶手段 3 2 , 3 3は、 後述する式 (1 8 ) に基づき予め算出された各座標 (m, n ) につ いての畳み込み演算行列 Qm, n (第 4図参照) の各要素 Qm, n ( x , y ) の値の うちの少なくとも一部を、 X, yの並ぴ順に従って表の如く整列させて記憶する ものである。 少なくとも一部であるから、 全部を記憶しておいてもよいが、 計算 容量およびメモリ容量を小さくするため、 非零要素を含む行列部分 (第 4図の行 列部分 H) のみを記憶しておくことが好ましい。 従って、 ここでは、 非零要素を 含む行列部分 Hのみを記憶するものとして説明を行う。
また、 標準画像再生用および接写画像再生用の畳み込み演算行列記憶手段 3 2 , 3 3は、 各座標 (m, n ) の全部についての畳み込み演算行列 Qm, n (つまり 、 M X N個の Qm, n) を記憶するのではなく、 二焦点レンズ 2 1の軸対称性を考 慮し、 一部の座標 (一直線上に並ぶ座標) についての畳み込み演算行列 Qm, nの みをサンプリング行列として記憶する。 本実施形態では、 一例として、 後述する 第 8図のライン 6 0上に並ぶ各座標についての畳み込み演算行列 Qm, nのみを記 憶するものとする。 従って、 本実施形態では、 サンプリング行列として記憶する 畳み込み演算行列 Qm, nの分布が上下対称になるので、 上記の非零要素を含む行 列部分 Hのうち、 更に半分 (例えば、 上側半分) のみを記憶する。
回転情報記憶手段 3 4は、 畳み込み演算行列記憶手段 3 2, 3 3に記憶された サンプリング行列としての畳み込み演算行列 Qm, nの各要素 Qm, n ( χ, y ) の 値の配置を回転させてサンプリング行列以外の畳み込み演算行列 Qm, nの各要素 Qm, n ( x , y ) の値を算出決定するときに用いる回転情報を記憶するものであ る。 この回転情報は、 求める畳み込み演算行列 Qm, n (サンプリング行列以外の 畳み込み演算行列 Qm, J の全て (但し、 軸対称性を考慮すると、 全座標の 1 4でよレ、。 ) について用意され、 求める畳み込み演算行列 Qm, nの座標 (m, n ) についての中心座標 (M/ 2 , N/ 2 ) からの距離 rおよび角度 0により構成 される (第 12図参照) 。 角度 0とは、 サンプリング行列 Qm, nの座標 (m, n ) が並ぶ直線 (後述する第 8図のライン 60) に対し、 求める畳み込み演算行列 Qm, nの座標 (m, n) と中心座標 (M/2, N/2) とを結ぶ直線がなす角度 である。
畳み込み演算行列回転算出手段 35は、 畳み込み演算行列記憶手段 32, 33 に記憶されたサンプリング行列としての畳み込み演算行列 Qm, nの各要素 Qm, n (x, y) の値と、 回転情報記憶手段 34に記憶された回転情報とを用いて、 サ ンプリング行列以外の畳み込み演算行列 Qm, nの各要素 Qm> n (x, y) の値を 算出決定する処理を行うものである。
再生演算手段 36は、 被写体を再生する演算処理を行うものであり、 畳み込み 演算行列記憶手段 32, 33に記憶されたサンプリング行列としての畳み込み演 算行列 Qm, nの各要素 Qm, n (χ, y) の値 (行列部分 Hの各値) 、 または畳み 込み演算行列回転算出手段 35により算出決定されたサンプリング行列以外の畳 み込み演算行列 Qm, nの各要素 Qm, n (x, y) の値と、 出力信号記憶手段 31 に記憶された画像の出力信号を示す行列 Zの各要素 Z (m, n) の値とを用い、 後述する式 (1 9) に基づき、 被写体の行列 Aの各要素 A (m, n) の値を算出 する処理を行うものである。 なお、 畳み込み演算行列 Qm, nの各要素 Qm, n (x ' y) のうちの非零要素を含む行列部分 (第 4図の行列部分 H) 以外の部分、 す なわち、 畳み込み演算行列記憶手段 32 , 33に記憶されない部分については、 零要素であるので、 計算は行われない。
切替操作手段 37は、 畳み込み演算行列回転算出手段 35および再生演算手段 36による演算処理で、 畳み込み演算行列記憶手段 32, 33のいずれのデータ を用いる力、 すなわち通常の被写体か近接被写体のいずれを撮像するのかを切替 選択するための操作を行うものであり、 例えば押ボタン式、 トダル式、 スライド 式のスィツチ等である。
出力信号記憶手段 31、 畳み込み演算行列記憶手段 32, 33、 および回転情 報記憶手段 34としては、 例えば、 ハードディスク、 ROM、 EE PROM, フ ラッシュ · メモリ、 RAM、 MO、 CD-ROM, CD— R、 CD— RW、 DV D— ROM、 DVD-RAM, FD、 磁気テープ、 あるいはこれらの組合せ等を 揉用することができる。
畳み込み演算行列回転算出手段 35および再生演算手段 36は、 撮像システム 10を構成する各種の情報端末装置 (例えば、 携帯電話機や携帯情報端末等の携 帯型の情報端末装置、 あるいはカメラを接続したパーソナル ·コンピュータ、 監 視力メラ装置等) の内部に設けられた中央演算処理装置 (CPU) 、 およびこの CPUの動作手順を規定する一つまたは複数のプログラムにより実現される。 表示手段 40としては、 例えば、 液晶ディスプレイ、 CRTディスプレイ、 プ ロジェクタおよびスクリーン、 あるいはこれらの組合せ等を採用することができ る。
以下には、 畳み込み演算行列記憶手段 32 , 33に記憶される畳み込み演算行 列 Qra, nの各要素 Qm, η (χ, y) の算出方法およびその根拠、 並びに再生演算 手段 36により行われる演算処理の根拠を説明する。
前提条件として、 ここでは、 標準的な距離にある通常の被写体 (例えば、 人物 や風景等) を二焦点レンズ 21により撮像する場合、 従って、 内側の長焦点レン ズ部 22によりピントの合つた画像が形成され、 外側の環状の短焦点レンズ部 2 3によりピントのぼけた画像が形成される場合の説明を行うものとする。 但し、 本発明の適用は、 このような場合に限定されるものではない。
先ず、 被写体と画像に関する基本的な事項について説明を行う。 第 3図は、 被 写体と、 この被写体を二焦点レンズ 21により撮像して得られる画像との関係の 説明図である。 なお、 レンズによって形成される像は、 一般には倒立像であるた め、 第 3図では、 物体と像とで座標軸の向きを逆にとることにより、 互いに対応 する物体の位置と像の位置とが同じ座標になるようにしている。 ここでは、 第 3 図に示すように、 s軸 (縦軸) と t軸 (横軸) とにより構成される被写体座標系 ( s , t) 、 および h軸 (縦軸) と k軸 (横軸) とにより構成される画像座標系 (h, k) を設定するものとする。
また、 撮像素子 24の縦方向の画素数を Mとし、 横方向の画素数を Nとする。 このとき、 被写体の各点 (s , t) (被写体座標系における座標 (s , t) の部 分) がそれぞれ A (s, t) の明るさを持つとすると、 被写体の発する光の全体 は、 s行 t歹 IJ (sおよび tは自然数、 l≤ s ^M、 1≤ t≤N) に A (s, t) の値の要素を持つ MX N (M行 N列) の行列 Aで表現できる (第 4図参照) 。 こ れを被写体行列 Aと呼ぶものとする。
一方、 撮像素子 24上の各点 (h, k) (画像座標系における座標 (h, k) に位置する画素) の出力信号の大きさがそれぞれ Z (h, k) であるとすると、 被写体を二焦点レンズ 21により撮像して得られる画像全体は、 h行 k列 (hお よび kは自然数、 1≤h≤M, 1≤k≤N) に Z (h, k) の値の要素を持つ M XN (M行 N列) の行列 Zで表現できる (第 4図参照) 。 これを画像行列 Zと呼 ぶものとする。
<単一輝点の像による二焦点レンズ 21の特性の表現 >
第 3図に示すように、 1点 (座標 (m, n) ) のみに輝点のある被写体を二焦 点レンズ 21で撮像すると、 撮像素子 24上には、 座標 (m, n) を拡がりの中 心として、 内側の長焦点レンズ部 22により形成されるピントの合った像と、 外 側の環状の短焦点レンズ部 23により形成される環状のボケ画像とが重なった像 が形成される。 ここで、 mおよび nは自然数で、 l≤m≤M、 1≤n≤N, 但し 、 Mおよび Nは撮像素子 24の縦横の画素数である。 また、 被写体上の座標 (m , n) とは、 撮像素子 24上の座標 (m, n) に投影される被写体上の対応する 点を意味する。 つまり、 被写体座標系 (s, t) における 1点 (m, n) 力 ら出 た光は、 画像座標系 (h, k) における同じ数値で示される点 (m, n) に結像 するようになつている。
ここで、 画像座標系において、 第 3図に示すように、 座標 (m, n) を中心と して h軸 (縦軸) および k軸 (横軸) にそれぞれ平行な X軸 (縦軸) および y軸 (横軸) をとり、 これらの X軸と y軸とにより構成される座標系を設定する。 こ の座標系 (X, y) は、 被写体上の単一輝点 (座標 (m, n) ) が動けば、 これ に対応する撮像素子 24上の座標 (m, n) も動くので、 各座標 (m, n) につ いてそれぞれ設定される相対座標系である。
そして、 相対座標系 (X , y) における各点 (X , y) に位置する画素の出力 信号の大きさを Wm, n (x, y) とすると、 被写体の 1点 (m, n) から出た光 が二焦点レンズ 21の作用により撮像素子 24上で拡がる状態 (P S F : Point Spread Function) は、 Wm, n (x, y) の値を要素に持つ (2M— 1) 行 (2 N- 1) 列の行列 Wm, nで表現できる (第 4図参照) 。 これを座標 (m, n) に ついてのポイント ·スプレツド ·ファンクション (PSF) 行列と呼ぶものとす る。
なお、 Wm, n (x, y) の値を全ての x, y ( Xおよび yは整数で、 ( 1—M ) ≤x≤ (M- 1) 、 (1 -N) ≤y≤ (N- 1) ) について合計した値は、 被 写体の 1点 (m, n) から出た光の総量であり、 この合計値が 1になるように各 要素 Wm, n (x, y) の値を正規化しておく。
また、 P S F行列 Wm, nを (2M- 1 ) 行 (2N— 1) 列の行列、 つまり被写 体行列 Aや画像行列 Zの略 4倍の要素数を持つ行列としているのは、 被写体の端 部の 1点 (例えば、 座標 (1, 1) の点とする。 ) から出た光が、 撮像素子 24 上において、 対応する端部の 1点 (1, 1) を中心として、 対角方向の反対側の 端部の 1点 (M, N) まで含めて全体的に拡がる状態を示すためである。 但し、 実際には、 ぼけの部分が撮像素子 24上における対角方向の一方の端部から他方 の端部まで広範に拡がることはなく、 第 4図に示すように、 (2M— 1) 行 (2 N— 1) 列の P S F行列 Wra, nの各要素 Wm, n (x, y) のうち、 非零要素を含 む部分は、 Wm, n (0, 0) を含む一部の行列部分 Eのみである。
<被写体行列 Aから画像行列 Zを導くための畳み込み演算 > 第 4図は、 被写体行列 Aと画像行列 Zとの変換関係の説明図である。 一般に、 被写体行列 Aから画像行列 Zを求める演算は、 単純な行列演算ではなく、 次の式 ( 1 ) で示される PSF行列 Wm, nを用いた畳み込み演算となる。
Z m, n
=∑xy {Wm+X, n + y (— x, 一 y) *A (m+x, n + y) }
=Wm, n (0, 0) *A (m, n)
+∑x, y {Wm+X, n + y (- X , 一 y) *A (m+x, n + y) }
(1) ここで、 ∑xは、 x= (1 -M) 〜 (M— l) の和であり、 ∑yは、 y= (1 -N) 〜 (N— 1) の和である。 また、 ∑χ, yは、 (x, y) = (0, 0) の点 を除く全ての x, yについての和である。 伹し、 ∑xおよび∑y並びに∑x, yは、 P S F行列 Wm+X, n + y (― x, -y) のうちの非零要素を含む行列部分 E (第 4図参照) のみの和を考えればよい。 なお、 上記式 (1) では、 光量の単位およ ぴ画像の出力信号の単位を適当にとることにより、 光量と画像の出力信号との変 換係数を 1としている。
また、 上記式 (1) の下側右辺は、 上側右辺を、 (X , y) = (0, 0) の点 と、 それ以外の点とに分けたものである。
ところで、 Z (m, n) は、 撮像素子 24上の点 (m, n) に位置する画素の 出力信号の値であるが、 この点 (m, n) には、 被写体上の対応する点 (m, n ) からのピントの合った光だけではなく、 その点の周辺、 すなわち、 被写体座標 系 ( s , t ) で考えたとき、 S方向について Xピクセルに対応する距離、 t方向 について yピクセルに対応する距離だけ離れた点 (m+x, n + y) からのピン トのぼけた光も集まる。 従って、 Z (m, n) の値は、 被写体上の 1点 (m, n ) から出た明るさ A (m, n) の光による出力信号 Wm, n (0, 0) *A (m, n) の値のみならず、 この値に、 その周辺の点 (m+x, n + y) から出た明る さ A (m+x, n + y) の光による出力信号 Wm+X, n + y (― x, -y) *A ( m+x, n + y) の値を加えた値となる。 そして、 上記式 (1) の下側右辺は、 そのことを意味している。
従って、 上記式 (1) とは逆に、 画像行列 Zから被写体行列 Aを導くためには 、 上記式 ( 1 ) における P S F行列 Wm, nに相当するような畳み込み演算処理を 行うための畳み込み演算行列 Qm, nを求めることができればよい。 し力 し、 この ような畳み込み演算行列 Qm, nは、 逆行列を求める場合のように簡単に P S F行 列 Wm, nから求めることはできない。
<被写体行列 Aと画像行列 Zとの変換を行うための巨大行列の検討〉 一方、 被写体行列 Aの要素数は、 MX N個であり、 画像行列 Zの要素数も、 M XN個である。 従って、 M行 N列の被写体行列 Aの各要素を縦一列に並べて MX N個の要素数の巨大べクトル (縦べクトル) Agとし、 M行 N列の画像行列 Zの 各要素を縦一列に並べて MX N個の要素数の巨大ベクトル (縦ベクトル) Zgと すれば、 これらの巨大ベクトル Agから Z gへの変換関係は、 MXN行 MXN列 の巨大変換行列 Tgを用いて、 次の式 (2) のように表わすことができる。
Zg = TgAg (2) 従って、 上記式 (2) における巨大変換行列 Tgの逆行列 Tg1を求めること ができれば、 巨大ベクトル Zgから Agへの変換関係は、 巨大逆変換行列 Tg1を 用いて、 次の式 (3) のように表わすことができる。
Ag = Tg Zg しノ このため、 巨大逆変換行列 Tg— 1を予め求めておき、 被写体の撮像時に、 上記 式 (3) の演算を行えば、 巨大ベクトル Agの各要素の値、 すなわち被写体行列 Aの各要素の値を求めることができ、 被写体を再現することができる。
しかし、 MX N行 MX N列の巨大逆変換行列 Tg1を用いた演算処理は、 計算 量が多いので、 例えば、 通常の携帯電話機や携帯情報端末等の携帯型の情報端末 装置に搭載されている程度の性能を有する中央演算処理装置 (CPU) では、 短 時間での処理が困難であるため、 現実的ではない。 例えば、 通常の画像である V GA (Video Graphics array) では、 M= 640画素、 N=480画素として、 画素数 M X Nは、 約 30万個であるため、 巨大逆変換行列 T g1は、 行数および 列数とも画素数の約 30万個となり、 その大きさ (要素数) は、 画素数の 2乗で (MXN) 2= 900億個となる。
そこで、 以下では、 上記式 (3) による演算に比べ、 少ない計算量で被写体を 再生できるようにするため、 画像行列 Zから被写体行列 Aを導くための畳み込み 演算行列 Qm, nを求めることにする。
く画像行列 Zから被写体行列 Aを導くための畳み込み演算 >
先ず、 前述した式 (1) の下側右辺の第 2項を左辺に移項した後、 左辺と右辺 を入れ替えると、 次の式 (4) のようになる。
W¾ n (0, 0) *A (m, n)
=Z (m, n) —∑x, y {Wm+X_ n+y (— x, -y) *A (m+x, n+y) }
(4) 上記式 (4) の簡易な近似方法として、 次のような近似を行うことができる。 すなわち、 第 1ステップでは、 被写体と、 撮像された画像が大きく変わらないと 仮定し、 A (m+x, n + y) を Z (m+ x, n + y) で近似する。 この結果、 上記式 (4) は、 次の式 (5) のようになる。
n (0, 0) *A (m, n)
=Z (m, n) 一∑x, y {Wm+X> n+y (— x, -y) *Z (m+x, n + y) }
(5) 続いて、 第 2ステップでは、 各点でのボケの状態は、 近所の点どうしでは似て いると仮定し、 Wm+X, n + y (- X , -y) =Wm, n (- X , — y) と考える。 こ の結果、 上記式 (5) は、 次の式 (6) のようになる。
Wm> n (0, 0) * A (m, n)
二 Z (m, n) —∑x, y {Wm, n (一 x, _y) *Z (m+x, n + y) }
(6) 従って、 上記式 (6) の左辺および右辺を Wm, n (0, 0) で除すると、 次の 式 (7) のようになる。
A (m, n)
=Z (m, n) /Wm n (0, 0)
一∑x, y {Wm n (— x, -y) *Z (m+x, n + y) } W¾ n (0, 0)
(7) ここで、 次の式 (8) で示すように Qm, n (x, y) を定義し、 上記式 (7) における Wm, n (x, y) を Qm, n (x, y) を用いて镡きかえると、 次の式 ( 9) のようになる。 但し、 次の式 (8) において、 Wm, n (0, 0) のべき乗数 は、 p owe r = lとする。
Qm, n (x, y) = 1 /Wm, n (0, 0)
(x = 0, y = 0の場合)
= -Wm, n (- X, -y) /Wm, n (0, 0) porer
(x = 0, y = 0以外の場合)
(8)
A (m, n) =Qm, n (0, 0) * Z (m, n)
+∑x, y {Qm, n (x, y) * Z (m+x, n + y) } =∑xy {Qm, n (x, y) * Z (m+x, n + y) }
(9) ここで、 ∑xは、 x= ( 1 -M) 〜 (M— 1) の和であり、 ∑yは、 y = (1 — N) 〜 (N_ l) の和である。 また、 ∑x, yは、 (x, y) = (0, 0) の点 を除く全ての x, yについての和である。
そして、 上記式 (9) は、 前述した式 (1) に対応する畳み込み演算を行う式 となっており、 上記式 (9) における Qra, n ( , y) 、 前述した式 (1) に おける Wm+X, n + y (一 x, -y) に対応している。 従って、 行列 Qm, nは、 P S F行列 Wm nに対応する畳み込み演算行列であり、 画像行列 Zから被写体行列 A を求める再生演算は、 この畳み込み演算行列 Qm, nを用いて行うことができる。 次に、 前述した式 (4) の、 より高度な近似方法として、 次のような近似を行 うことができる。 すなわち、 前述した式 (4) は、 撮像素子 24上の点 (m, n ) に位置する画素の出力信号 Z (m, n) の値を求めるための前述した式 (1) を変形した式であるが、 同様にして、 撮像素子 24上で h方向に x、 k方向に y だけ離れた点 (m+x, n + y) に位置する画素の出力信号 Z (m+x, n + y ) の値を求めるための式を変形した式を考える。
前述した式 (4) において、 mを (m+x) に、 nを (n + y) に置き換える とともに、 新しい被写体の点 (m+x, n + y ) から出た光によるボケを表現す るための座標系として相対座標系 (u, v) を設定し、 Xを uに、 yを Vに置き 換えると、 次の式 (1 0) のようになる。
Wm+X, n+y (0, 0) *A (m+x, n + y)
=Z (m+x, n + y) ·
一∑u, v {Wm+X+U, n+y+v (— u, — v) *A (m+x + u, n + y + v) }
(1 0) ここで、 uおよび vは、 整数で、 u= ( 1 -M) 〜 (M— 1) 、 v = (1 -N ) 〜 (N_ l ) であり、 ∑u, vは、 (u, v) = (0, 0) の点を除く全ての u , νについての和である。
上記式 (1 0) の左辺および右辺を Wm+X, n + y (0, 0) で除した後、 前述 した式 (4) における A (m+x, n + y) に代入すると、 次の式 (1 1) のよ うになる。
W¾ n (0, 0) *A (m, n)
=Z (m, n)
-∑x, y {Wm+X, n+y (—x, -y)
*Z (m+x, n + y) /Wm+X, n+y (0, 0) }
+ x, y∑u, v [Wm+X, n+y (-X, -Υ) * {Wm+X+U> n+y+v (-U, —V) *A (m+x+u, n+y + v) } Wm n+y (0, 0) ]
(1 1) そして、 上記式 (1 1) の左辺および右辺を wm, n (0, 0) で除すると、 次 の式 (1 2) のようになる。
A (m, n)
=Z (m, n) n (0, 0)
-∑x, y {Wm+X) n+y (-X, -y)
*Z (m+x, n + y) Wm+Xi n+y (0, 0) } Wm n (0, 0)
+∑x, y∑u, v W^x, n+y (-X, — y) * {Wm+X+U, n+y+v (-u, -v)
*A (m+x+u, n + y + v) } m+X, n+y (0, 0) ] m n (0, 0)
(1 2) 上記式 (1 2) を近似する。 第 1ステップでは、 右辺第 3項に、 Wm+X, n + y (—x, - y ) と Wm+X + U> n + y + v (—u, 一v) との積があるので、 この右辺 第 3項を無視すると、 次の式'(1 3) のようになる。
A (m, n)
=Z (m, n) / m n (0, 0)
-∑x, y {Wm+X, n+y (-X, -y)
*Z (m+x, n + y) m+X, n+y (0, 0) } /W^ n (0, 0)
(1 3) 続いて、 第 2ステップでは、 各点でのボケの状態は、 近所の点どうしでは似て いると仮定し、 Wm+X, n + y (- X , - y ) を Wm, n (- X , - y) で近似する。 この結果、 上記式 (1 3) は、 次の式 (14) のようになる。
A (m, n)
=Z (m, n) /Wm n (0, 0)
—∑x, y {W n (—X, - y)
*Z (m+x, n + y) Wm. , n+y (0, 0) } Wm n (0, 0) (14) さらに、 第 3ステップでは、 Wm+X, n + y (0, 0) も Wm, n (0, 0) で近似 する。 この結果、 上記式 (14) は、 次の式 (1 5) のようになる。
A (m, n)
=Z (m, n) /Wm n (0, 0)
一∑x, y {Wtn n (-X, -y) *Z (m+x, n + y) } /W¾ n (0, 0) 2
(1 5) ここで、 次の式 (16) で示すように Qm, n (x, y) を定義し、 上記式 (1 5) における Wm, n (x, y) を Qm, n (x, y) を用いて置きかえると、 次の 式 (1 7) のようになる。 但し、 次の式 (1 6) において、 Wm, n (0, 0) の べき乗数は、 p owe r = 2とする。
Qm, n (Χ , Υ) = 1 /Wm, n (0, 0)
(x = 0, y = 0の場合)
= ~Wm> n (一 x, -y) /Wm, n (0, 0)
(x = 0, y = 0以外の場合)
(1 6)
A (m, n) =Qm, n (0, 0) *Z (m, n)
+∑x, y {Qm, n (x, y) *Z (m+x, n + y) } =∑xy {Qm, n (x, y) *Z (m+x, n + y) }
(1 7) ここで、 ∑xは、 x= ( 1 -M) 〜 (M— 1) の和であり、 ∑yは、 y = (1 一 N) 〜 (N— 1) の和である。 また、 ∑x, yは、 (X, y) = (0, 0) の点 を除く全ての X, yについての和である。
そして、 上記式 (17) は、 前述した式 (9) と同じ式である。 従って、 上記 式 (1· 7) における行列 Qm, nは、 前述した式 (1) における PSF行列 Wm, n に対応する畳み込み演算行列であり、 画像行列 Zから被写体行列 Aを求める再生 演算は、 この畳み込み演算行列 Qm, nを用いて行うことができる。
以上より、 前述した式 (8) および式 (16) を考慮し、 次の式 (18) のよ うに畳み込み演算行列 Qm, nを定義すれば、 次の式 (1 9) に基づき行列 Qm, n を用いて畳み込み演算を行うことにより、 被写体を再生することができる。
Qm, n ( , y) - 1 /Wm> n (0, 0)
(x = 0, y = 0の場合)
= -Wm> n (- X, -y) ZWm, n (0, 0) POTer
(x二 0, y = 0以外の場合)
(18) A (m, n) =∑xy {Qm, n (x, y) * Z (m+x, n + y) }
(1 9) ここで、 xおよび yは整数で、 (1_M) ≤ x≤ (M- 1) 、 (1 -N) ≤y ≤ (N- 1) であり、 mおよび nは自然数で、 l≤m≤M、 l≤n≤Nであり、 Wm, n (x, y) は、 (2M— 1) 行 (2N— 1) 列の P S F行列 Wmnの各要 素の値であり、 p o we rは、 Wm, n (0, 0) のべき乗数となる実数で、 1≤ p owe r≤ 2であり、 ∑xは、 = ( 1 _M) 〜 (M— 1 ) の和であり、 ∑y は、 y= ( 1 -N) 〜 (N— 1) の和である。
また、 p owe rの値は、 Wm, n (0, 0) の値に応じて決定すればよい。 こ の際、 Wm, n (0, 0) の値が、 0· 5近傍 (0. 5を含む。 以下、 同様) のと きには、 p o w e rの値を 2以外の値とする必要がある。 より具体的には、 Wm , n (0, 0) の値が、 0. 5近傍のときには、 p o w e rの値を 1以上 2未満 とし、 より好ましくは 1とする。 一方、 Wra, n (0, 0) の値が、 0. 5近傍以 外のときには、 1以上 2以下とする。
<P S F行列 Wm, nの各要素 Wm, n (x, y) の分布 >
第 5図には、 P S F行列 Wm, nの各要素 Wm, n (x, y) の分布状況の一例が 示されている。 中心の Wm, n (0, 0) には、 標準的な距離にある通常の被写体 の 1点 (m, n ) から出て二焦点レンズ 2 1を構成する内側の長焦点レンズ部 2 2を通った光により、 ピントの合った画像が形成されている。 Wm, n ( 0, 0 ) の周囲.には、 外側の環状の短焦点レンズ部 2 3を通った光により、 環状 (略円環 状または略楕円環状) のピントのぼけた画像が形成されている。 なお、 空欄にな つている部分は、 零要素である。
第 5図では、 中心の Wra, n ( 0 , 0 ) の値は、 cとなっているが、 この cの値 は、 二焦点レンズ 2 1の全体面積に対する内側の長焦点レンズ部 2 2の面積の比 の値である。 但し、 厳密には、 光の分割が面積に比例しない場合もあるので、 光 の量の分割比がレンズの面積比と一致しない場合には、 上記の cの値は、 内側の 長焦点レンズ部 2 2を通過して実際にセンサ (撮像素子 2 4 ) に到達する光の量 またはセンサの信号量と、 二焦点レンズ 2 1の全体 (内側の長焦点レンズ部 2 2 および外側の短焦点レンズ部 2 3を合わせた全体) を通過して実際にセンサに到 達する光の量またはセンサの信号量との比の値と考えることができる。 なお、 第 5図では、 説明の簡易化のため、 中心の Wm, n ( 0 , 0 ) に隣接する各要素 (例 えば、 Wm, n ( 1, 0 ) や Wra> n ( 0, 1 ) 等) の値は、 ゼロとなっているが、 実際には、 内側の長焦点レンズ部 2 2により形成される画像も、 完全にピントの 合った画像とはならず、 多少のぼけが生じるのが通常であるため (ぼけの形状は 、 略中実円形形状または略中実楕円形状となる。 ) 、 cの値は、 Wm, n ( 0, 0 ) を中心として周囲の幾つかの要素に分散される (後述する第 1 3図のぼけ部分 8 0参照) 。
また、 第 5図では、 環状のぼけ部分の各要素の値が、 e l〜e l 9により示さ れているが、 これは、 ぼけの形状の概略を示すものであり、 実際には、 ぼけ部分 のリングの幅は、 1〜 2行または 1〜 2列分ではなく、 より多くの行数または列 数分の幅である。 例えば、 撮像素子 2 4の中央位置 (画像座標系 (h, k ) の中 心座標) についての P S F行列 Wm, nの場合には、 Wm, n ( 0, 0 ) の周囲に例 えば 7行または 7列分の幅で零要素が円環状に配置され、 その外側に例えば 8行 または 8列分の幅で非零要素が円環状に配置される等である。 従って、 この場合 には、 Wm, n (x, y) のうち非零要素を含む行列部分 E (第 4図参照) は、 例 えば、 31画素 X 31画素分に収まる程度の大きさ等である。 そして、 この場合 には、 Wm, n (x, y) のぼけ部分のリングの内径と外径との比は、 二焦点レン ズ 21を構成する外側の短焦点レンズ部 23の内径と外径との比に等しい。 なお 、 Wm, n (x, y) のぼけ部分のリングの大きさ、 幅、 形状は、 各座標 (m, n ) によって異なる (第 7図参照) 。
さらに、 外側の短焦点レンズ部 23により形成されるボケは広範囲に拡がるの で、 P S F行列 Wm, nにおいて、 環状のぼけ部分の各要素の値 (第 5図では、 e l〜e 1 9の値) は、 中央のピントの合った部分の値 (第 5図では、 Wm, n (0 , 0) =cの値) に比べ、 十分小さい値となる。 具体的には、 cの値は、 例えば 0. 8等であり、 e l〜e 1 9の値は、 例えば 0. 001 3等である。 但し、 こ れらの数値に限定されるものではない。
<畳み込み演算行列 Qm, nの各要素 Qm, n ( , y) の分布 >
第 6図には、 前述した式 (18) で定義される畳み込み演算行列 Qm, nの各要 素 Qm, n (x, y) の分布状況の一例が示されている。 畳み込み演算行列 Qm, n の各要素 Qm, n (x, y) の分布も、 P S F行列 Wm, nの各要素 Wm, n (x, y ) の分布 (第 5図参照) に対応し、 中心の Qm, n (0, 0) に非零要素があり、 その周囲に非零要素が環状'(略円環状または略楕円環状) に配置される分布とな つている。 なお、 空欄になっている部分は、 零要素である。
但し、 第 6図の畳み込み演算行列 Qm, nの各要素 Qra, n (x, y) の分布は、 第 5図の P S F行列 Wm, nの各要素 Wm, n (x, y) の分布に対し、 x, yが反 転して、 一x, 一 yとなっている。 前述した式 (18) による定義に従って反転 したものである。
く各座標 (m, n) についての P S F行列 Wm, nどうしの関係〉
第 7図には、 各座標 (m, n) についての P S F行列 Wm, nの各要素 Wff n ( x, y) の分布状況が示されている。 撮像素子 24の中央位置 (画像座標系 (h , k) の中心座標 (MZ2, N/2) ) についての P S F行列 Wff nの場合には 、 ぼけの形状は、 円環状である。 一方、 画像座標系 (h, k) の中心以外の座標 では、 ぼけの形状は、 略楕円環状になり、 画像座標系 (h, k) の中心から外側 に離れるにつれ、 ぼけ部分の全体的な大きさやリングの幅が大きくなる。
また、 二焦点レンズ 21は、 軸対称性を有しているので、 各座標 (m, n) に ついての P S F行列 Wm, nの分布 (ぼけの形状) についても軸対称性が保持され る。 従って、 撮像素子 24の中央位置 (画像座標系 (h, k) の中心座標 (M/ 2, N/2) ) から放射状に延びる各直線を考えると、 いずれの直線上でも放射 方向について見れば、 中心から外側に向って同じように分布 (ぼけの形状) が変 ィ匕し、 撮像素子 24の中央位置からの距離で P S F行列 Wm, nの分布 (ぼけの形 状) が定まり、 かつ、 いずれの P S F行列 Wm, nの分布も放射直線に対して対称 である。 つまり、 撮像素子 24の中央位置からの距離が同じ座標についての P S F行列 Wra, nの分布 (ぼけの形状) は、 全て同じとなり、 単に回転しているだけ の関係となる。 例えば、 画像座標系 (h, k) におけるライン 50上に並ぶ各座 標 (m, n) についての P S F行列 Wm, nの各要素 Wm, n (x, y) の配置を、 画像座標系 (h, k) の中心座標 (M/2, N/2) を中心として回転させれば 、 画像座標系 (h, k) における他のライン 51, 52, 53, 54上に並ぶ各 座標 (m, n) についての P S F行列 Wm, nの各要素 Wm, n (x, y) の配置を 算出することができる。
<各座標 (m, n) についての畳み込み演算行列 Qm> nどうしの関係〉 第 8図には、 各座標 (m, n) についての畳み込み演算行列 Qm, nの各要素 Q m, n (x, y) の分布状況が示されている。 畳み込み演算行列 Qm, nの分布も、 前述した式 (1 8) で定義されることから、 P S F行列 Wm, nの分布と同様に、 軸対称性が保持される。 従って、 中心座標 (M/2, N/2) からの距離が同じ 座標についての畳み込み演算行列 <3σ の分布は、 全て同じとなり、 単に回転し ているだけの関係となる。 例えば、 第 8図中の一点鎖線で示されるライン 60上 に並ぶ各座標 (m, n) についての畳み込み演算行列 Qm, nの各要素 Qm, η (χ , y) の配置を、 中心座標 (M/2, N/2) を中心として回転させれば、 第 8 図中の点線で示される他のライン 61, 62, 63, 64上に並ぶ各座標 (m, n) についての畳み込み演算行列 Qm, nの各要素 Qm, n (x, y) の配置を算出 することができる。 なお、 第 8図の各座標 (m, n) についての畳み込み演算行 列 Qm, nの個々の分布が、 第 7図の同じ座標についての P S F行列 Wm, nの分布 に対し、 X, yについて反転しているのは、 前述した第 5図と第 6図との関係と 同 める。
このため、 畳み込み演算行列記憶手段 32, 33には、 全ての座標 (m, n) (1≤m≤M, 1≤n≤N) についての畳み込み演算行列 Qm, nを記憶させる必 要はなく、 中心座標 (M/2, N/2) から放射状に延びる各直線のうちの一つ の直線上に並ぶ座標についての畳み込み演算行列 Qm, nをサンプリング行列とし て記憶させ、 その他の座標についての畳み込み演算行列 Qm, nは、 サンプリング 行列を回転させればよい。 本実施形態では、 記憶させる個々の Qm, n (x, y) の配置 (ぼけの形状) 自体の上下の対称性を確保するため、 第 8図中の一点鎖線 で示される水平方向のライン 60上に並ぶ各座標についての畳み込み演算行列 Q m> n (前述した第 6図に示すような上下対称の分布となる畳み込み演算行列 Qm, J を記憶させるものとする。
但し、 対角方向のライン 6 1〜64力 最も中心座標 (M/2, N/2) から 離れた座標を有するので、 つまり対角方向のライン 6 1〜64上の各座標につい ての畳み込み演算行列 Qm, nをサンプリングすれば、 全ての座標 (m, n) (1 ≤m≤M 1≤n≤N) についての畳み込み演算行列 Qm, nを代表させることが できるので、.水平方向のライン 60上に並ぶ各座標についての畳み込み演算行列 Qm, nを記憶させる際には、 第 8図に示す如く、 対角方向のライン 6 1〜64と 同じ長さ (画角の最大値の半分に対応する長さ) になるように、 ライン 60を仮 想的に延長してサンプリングする。
また、 サンプリング行列として畳み込み演算行列記憶手段 32, 33に記憶さ せる畳み込み演算行列 Qm,。は、 実験により求めた P S F行列 Wm, nに基づき算 出することが好ましいが、 二焦点レンズ 21を構成する各レンズ部 22, 23の 内外径、 各レンズ部 22, 23の焦点距離、 および二焦点レンズ 21と撮像素子 24との間の距離等を用いて計算により求めた P S F行列 Wm, nに基づき算出し てもよい。
このように水平方向のライン 60上に並ぶ各座標 (m, n) についての畳み込 み演算行列 Qm, nのみを記憶させるようにすれば、 記憶する情報量を減少させる ことができる。 例えば、 VGA (Video Graphics array) の場合には、 M= 64 0画素、 N=480画素として、 MXN= 307, 200箇所のデータ (約 30 万の全座標のそれぞれについての Qm, n (x, y) の分布) を記憶するのではな く、 対角方向の半分の長さ (画角の最大値の半分に対応する長さ) 分だけを記憶 するものとすれば、 (M2 + N2) 1/2Z2 = 400箇所のデータを記憶すれば済 むので、 記憶する情報量を約 770分の 1にすることができる。 さらに、 第 6図 に示す如く、 水平方向のライン 60上に並ぶ各座標についての畳み込み演算行列
Qm, nの Qm, η (χ, y) の個々の分布は、 いずれもライン 60に対して上下対 称なので、 上側半分 (または下側半分) のみを記憶すればよい。 このため、 記憶 する情報量は、 更に半分になり、 約 1 540分の 1にすることができる。 また、 このように第 6図の分布の上側半分 (下側半分でも同じことである。 ) を記憶す る際には、 第 4図に示した非零要素を含む行列部分 Hに相当する部分のみを記憶 すればよいのは、 前述した通りである。
なお、 メモリ容量に余裕がある場合等には、 全ての座標 (m, n) (1≤m≤ M、 1≤n≤N) についての畳み込み演算行列 Qm, nを畳み込み演算行列記憶手 段 32, 33に記憶させてもよい。
<畳み込み演算行列 Qm, nの回転 > 第 9図には、 第 6図に示した水平方向のライン 6 0 (第 8図参照) 上に並ぶ各 座標についての畳み込み演算行列 Qm, nの各要素 Qm, n (x, y) を、 一例とし て 45度回転させた配置が示されている。 第 1 0図には、 第 9図の配置のうち、 太枠で囲った 9つの画素分の領域 70を拡大した状態が示されている。 本願明細 書では、 算出対象となる畳み込み演算行列 Qm, n (サンプリング行列以外の行列 ) の要素 Qm, n (x, y) に対応する領域 (第 9図の水平 ·鉛直方向の点線で区 画された領域) を第一区画領域と呼び、 回転後のサンプリング行列 Qm> nの要素 Qm, n (x, y) に対応する領域 (第 9図の斜め方向の実線で区画された領域) を第二区画領域と呼ぴ、 説明を行うものとする。
第 1 0図において、 f 1 5〜 f 1 9の値は、 これらの値が記載されている各第 二区画領域に対応する要素 Qm, n (x, y) の値である。 第 1 0図の領域 70に 含まれる 9つの第一区画領域のうちの中央の第一区画領域 (ハッチングされた領 域) に対応する要素 Qm, n (x, y) の値は、 次のように算出することができる 先ず、 正確に算出するには、 ハッチングされた第一区画領域に重なる全ての第 二区画領域を把握する。 第 1 0図の場合には、 f l 6, f 1 7, f 1 8, f 1 9 の各値を有する 4つの要素に対応する 4つの第二区画領域が重なっている。 ここ で、 ハッチングされた第一区画領域と f 1 6の第二区画領域との重なり部分の面 積をひ 1とし、 同様に、 ハッチングされた第一区画領域と f 1 7, f 1 8, f 1 9の第二区画領域との重なり部分の面積を、 それぞれ ο; 2, a 3, ひ 4とすると 、 ハッチングされた第一区画領域に対応する要素 Qm, η (χ, y) の値は、 次の 式 (20) により、 面積割合に基づく加重平均により算出される。
Qm n (X, y) = {f l 6Xal + f l 7Xa2+f l 8Xa3
+ f 19Xa4} / (α1 + α2 + α3 + α4) · . · (20) し力 し、 上記式 (20) による面積割合に基づく加重平均の算出を行うと、 計 算量が多くなる。 そこで、 ハッチングされた第一区画領域の所定位置 (本実施形 態では、 一例として中央位置 71とする。 ) に重なる第二区画領域を求め、 求め た第二区画領域に対応する要素 Qm, n (x, y) の値を、 算出対象となる畳み込 み演算行列 Qm, nの要素 Qm, n (x, y) の値として採用する。 つまり、 サンプ リング行列 Qm, nの各要素 Qm, n (x, y) の値を、 そのまま採用する。 第 10 図の場合には、 ハッチングされた第一区画領域の中央位置 71には、 f l 6の第 二区画領域が重なっているので、 ハッチングされた第一区画領域に対応する要素
Qm, n (x, y) の値は、 f 16とする。
第 1 1図には、 ハッチングされた第一区画領域の場合と同様にして、 第 10図 の領域 70に含まれる他の 8つの第一区画領域についても、 それらの中央位置に 重なる第二区画領域をそれぞれ求め、 各要素 Qm, n (x, y) の値を算出決定し た結果が示されている。 第 1 1図において、 領域 70に含まれる 9つの第一区画 領域のうち、 右上および左下の第一区画領域については、 これらの領域の中央位 置に重なる第二区画領域が零要素となっているので、 右上および左下の第一区画 領域に対応する要素 Qm, n (x, y) の値は、 ゼロとする。
なお、 例えば、 高性能の CPUを用いる場合や、 処理速度に制約が無い場合等 には、 前述した式 (20) による面積割合に基づく加重平均の算出を行ってもよ い。
そして、 以上のようにして、 畳み込み演算行列回転算出手段 35によりサンプ リング行列 Qm, nを回転させて算出されるのは、 畳み込み演算行列記憶手段 32 , 33にサンプリング行列 Qm, nのうち非零要素を含む行列部分 H (第 4図参照 ) の対称性を考慮した略半分 (第 6図の分布の場合には、 上側半分) の値のみが 記憶されていることから、 これに対応し、 算出対象となる畳み込み演算行列 Qm , nのうち非零要素を含む行列部分 Hの値のみである。
また、 畳み込み演算行列回転算出手段 35によりサンプリング行列 Qm, nを回 転させてサンプリング行列以外の畳み込み演算行列 Qm,。を算出する際には、 算 出対象となる各畳み込み演算行列 Qm, nについて、 予め回転情報を回転情報記憶 手段 34に記憶させておく。
第 12図は、 畳み込み演算行列 Qm, nの回転情報の説明図である。 第 12図に 示すように、 畳み込み演算行列 Qm, nを算出する際には、 回転情報として、 算出 対象となる畳み込み演算行列 Qm, nの座標 (m, n) と中心座標 (MX 2, N/ 2) との距離]:、 および畳み込み演算行列 Qm> nの座標 (m, n) と中心座標 ( M/2, N/2) とを結ぶ線がライン 60となす角度 Θがあればよい。
r = { (m-M/2) 2+ (n-N/2) 2} 1/2 (21)
0 = a r c t a n { (m-M/2) / (n-N/2) ·} (22) 算出対象となる各畳み込み演算行列 Qm, nについての回転情報は、 上記式 (2 1) およぴ式 (22) により算出される距離 rおよび角度 Θである。 そして、 回 転情報記憶手段 34には、 これらの距離 rおよび角度 0を、 算出対象となる各畳 み込み演算行列 Qm, nについて記憶させておけばよいが、 二焦点レンズ 21が軸 対称性を有することから、 各畳み込み演算行列 Qm, nの分布についても軸対称性 が保持されるので、 実際には、 4象限のうちの 1象限のみの各座標について記憶 させておけばよい。 従って、 記憶させる情報量は、 4分の 1となる。
また、 距離 rを記憶する際に、 端数が出た場合には、 四捨五入等により整数化 して記憶しておく。 距離 rは、 ライン 60上のいずれのサンプリング行列を回転 させるかを決めるために記憶するものである。 なお、 端数があるままの状態で記 憶しておき、 畳み込み演算行列回転算出手段 35による演算処理を行う際に、 四 捨五入等により整数化し、 いずれのサンプリング行列を回転させるかを決めても よい。 また、 いずれのサンプリング行列を回転させるかを決めることができれば よいので、 距離 rではなく、 サンプリング行列を特定するための番号等の識別情 報を記憶しておいてもよい。
さらに、 上記のようにサンプリング行列を特定するための番号等の識別情報 ( 距離 r以外の識別情報) を回転情報記憶手段 34に記憶させる場合には、 ライン 60上の全ての座標についての畳み込み演算行列 Qra, nをサンプリング行列とし て畳み込み演算行列記憶手段 32, 33に記憶して く必要はなく、 各畳み込み 演算行列 Qm, nの分布が略同じになる範囲の各座標については、 それらのうちの 一つの畳み込み演算行列 Qm> nのみを記憶させてもよい。 つまり、 ライン 60上 において間隔を置いて定められた特定座標についての畳み込み演算行列 Qm,。の みを記憶してもよい。
そして、 上記の場合と同様に、 ライン 60上において間隔を置いて定められた 特定座標についての畳み込み演算行列 Qm, nのみを、 サンプリング行列として畳 み込み演算行列記憶手段 32, 33に記憶させる場合には、 回転情報記憶手段.3 4に記憶させる距離を、 次のように決めてもよい。 すなわち、 前述した式 (21 ) による距離 rの算出処理で端数が出たか否かにかかわらず、 式 (21) により 算出された距離 rをそのまま記憶するのではなく、 各サンプリング行列 Qm, nに 対応する複数の特定距離の中から、 式 (21) により算出された距離 rが最も近 いものを選択し、 その選択された特定距離を、 回転情報記憶手段 34に記憶させ るようにしてもよい。 例えば、 特定距離 3, 6, 9, 12, …の複数のサンプリ ング行列 Qm, nが用意されているものとすると、 式 (21) により算出された距 離 r力 6. 5や 7の場合には、 6が近いので特定距離 6を記憶し、 8や 8. 5 の場合には、 9が近いので特定距離 9を記憶する。 なお、 式 (21) により算出 された距離 r力 特定距離のいずれかと丁度同じになった場合には、 その特定距 離を記憶する。
なお、 以上の説明では、 被写体座標系 (s, t) および画像座標系 (h, k) は、 被写体行列 Aおよび画像行列 Zの行番号や列番号に対応させて各座標値が正 の値のみをとるように設定され、 これらの被写体座標系 (s, t) および画像座 標系 (h, k) における 1点を示す座標 (m, n) は、 l ^m≤M、 1≤n≤N の範囲で動くものとされていた。 従って、 被写体や撮像素子 24の中央位置の座 標は (M/2, N/2) として説明されていた。 し力 し、 回転計算の簡易化や対 称位置の把握容易性等の観点から、 被写体座標系 (s, t) および画像座標系 ( h, k) を、 各座標値が正負の値をとるように設定し、 例えば、 被写体や撮像素 子 24の中央位置の座標が (0, 0) になるようにして、 座標 (m, n) が一 M /2≤m≤M/2, 一 N/2 n≤Nノ 2の範囲で動くようにしてもよい。 従つ て、 本願の請求項における各座標系の設定も、 説明のための便宜上の設定であり 、 本発明は、 請求項に記載された表現形式の設定に限定されるものではなく、 実 質的に同様な処理を行うことができる設定であればよい。
このような本実施形態においては、 以下のようにして画像改質処理装置 30に より、 二焦点レンズ 21を用いて被写体を撮像して得られた画像の質の改善が図 られる。
先ず、 被写体の撮像を行う前に、 式 (18) に基づき、 ライン 50 (第 7図参 照) 上の各座標 (m, n) についての P S F行列 Wm, nの各要素 Wm, n (x, y ) の値を用い、 ライン 60 (第 8図参照) 上の各座標 (m, n) についての畳み 込み演算行列 Qm, nの各要素 Q, η (χ, y) の値を予め算出し、 サンプリング 行列として画像改質処理装置 30の畳み込み演算行列記憶手段 32, 33に記憶 しておく。 なお、 記憶するのは、 非零要素を含む行列部分 H (第 4図参照) の各 値のみでよく、 しかもライン 60上では第 6図に示すように上下対称の分布なの で、 上側半分の各値のみでよい。
また、 式 (21) および式 (22) により、 サンプリング行列以外の畳み込み 演算行列 Qm, nの回転情報 (距離 rおよび角度 0) を予め算出し、 画像改質処理 装置 30の回転情報記憶手段 34に記憶させておく。
次に、 通常の被写体または近接被写体のいずれを撮像するのかを判断し、 切替 操作手段 37の切替選択操作を行つた後、 撮像機構 20により被写体を撮像する 。 この際、 被写体から発せられた光は、 二焦点レンズ 21の各レンズ部 22, 2 3を通過して撮像素子 24に至る。 そして、 被写体からの光を受けた撮像素子 2 4の出力信号を引き出して画像改質処理装置 30に取り込み、 出力信号記憶手段 31に記憶する。 続いて、 畳み込み演算行列回転算出手段 35により、 畳み込み演算行列記憶手 段 32, 33のいずれかに記憶されたサンプリング行列 Qm, nの各要素 Qm, n ( x, y) の値 (第 6図のような上下対称な分布のうち、 第 4図に示した非零要素 を含む行列部分 Hに相当する部分の上側半分の各値) と、 回転情報記憶手段 34 に記憶された回転情報とを用い、 サンプリング行列以外の畳み込み演算行列 Qm , nの各要素 Qm, n (χ, y) の値を算出する。
さらに、 再生演算手段 36により、 畳み込み演算行列記憶手段 32, 33のい ずれかに記憶された各要素 Qm, n (x, y) の値おょぴ畳み込み演算行列回転算 出手段 35により算出された各要素 Qm, n (x, y) の値 (第 4図の行列部分 H の各値) と、 出力信号記憶手段 31に記憶された画像の出力信号を示す画像行列 Zの各要素 Z (m+x, n + y) の値とを用い、 式 (1 9) に基づき被写体行列 Aの各要素 A (m, n) の値を算出する。
その後、 求めた被写体行列 Aの各要素 A (m, n) の値を用い、 撮像対象とな つた被写体を表示手段 40の画面上に表示する。 また、 必要に応じ、 図示されな いプリンタ一等の出力手段により、 被写体の印刷を行ってもよい。
このような本実施形態によれば、 次のような効果がある。 すなわち、 画像改質 処理装置 30は、 再生演算手段 36を備えているので、 被写体を二焦点レンズ 2 1により撮像した際に、 畳み込み演算行列記憶手段 32, 33に記憶された畳み 込み演算行列 Qm> nの各要素 Qm, n (x, y) のうちの少なくとも一部の値と、 撮像して得られた画像の出力信号を示す画像行列 Zの各要素 Z (m+x, n + y ) の値とを用い、 式 (19) に基づき被写体行列 Aの各要素 A (m, n) の値を 算出することができる。
この際、 再生演算手段 36による演算処理は、 式 (1 9) に基づき予め算出さ れて畳み込み演算行列記憶手段 32, 33に記憶された畳み込み演算行列 Qm, n の各要素 Qm, n (x, y) の値を用いて行われるので、 式 (3) に示すような M X N行 MX N列の巨大逆変換行列 T 1を用いて演算処理を行う場合に比べ、 非 常に少ない計算量で、 被写体行列 Aの各要素 A (m, n ) の値を算出することが できる。
従って、 C P Uに要求される性能の条件が緩和されるので、 例えば携帯電話機 や携帯情報端末等の携帯型の情報端末装置に搭載されている程度の C P Uの能力 でも、 被写体の再生を短時間の処理で実行することができる。 このため、 携帯型 の情報端末装置に画像改質処理装置 3 0を搭載すれば、 画像改質機能を備えた携 帯型の情報端末装置を実現でき、 情報端末装置の使い勝手や性能の向上を図るこ とができる。
また、 畳み込み演算行列記憶手段 3 2, 3 3には、 ライン 6 0 (第 8図参照) 上の各座標 (m, n ) についての畳み込み演算行列 Qm, nが記憶されているので 、 再生演算手段 3 6により、 ぼけの形状が各画素で異なることを考慮した画像改 質処理を行うことができる。 このため、 全ての画素で同じ形状のぼけが発生する と仮定した画像改質処理を行う場合に比べ、 画像改質効果をより一層高めること ができる。
さらに、 画像改質処理装置 3 0は、 回転情報記憶手段 3 4およぴ畳み込み演算 行列回転算出手段 3 5を備えているので、 二焦点レンズ 2 1の軸対称を利用し、 光軸位置 (被写体や撮像素子 2 4の中央位置) を中心として、 サンプリング行列 として畳み込み演算行列記憶手段 3 2, 3 3に記憶されたライン 6 0 (第 8図参 照) 上の各座標 (m, n ) についての畳み込み演算行列 Qm, nを回転させること により、 その他の座標についての畳み込み演算行列 Qm, nを算出することができ る。 このため、 畳み込み演算行列記憶手段 3 2, 3 3に記憶させるデータ量を減 らすことができる。
そして、 畳み込み演算行列回転算出手段 3 5は、 第 1 0図に示すように、 第一 区画領域の所定位置 (本実施形態では、 中央位置) に重なる第二区画領域を求め 、 その第二区画領域の値によりサンプリング行列以外の畳み込み演算行列 Qm, n の各要素 Qm n ( , y ) の値を算出決定する構成とされているので、 式 (2 0 ) により面積割合に基づく加重平均を算出して第一区画領域に対応する要素 Qm , n ( x , y ) の値を厳密に算出する場合に比べ、 処理内容を簡単にすることが でき、 処理時間の短縮を図ることができる。
また、 画像改質処理装置 3 0は、 切替操作手段 3 7を備えているので、 撮像す る被写体の距離に応じ、 畳み込み演算行列記憶手段 3 2, 3 3のデータを切替選 択して被写体の再生演算を行うことができる。 このため、 被写体が標準的な距離 にある通常の被写体およびこれよりも近距離にある近接被写体のいずれの場合で あっても、 二焦点レンズ 2 1を構成する一方のレンズ部により形成されるピント の合った画像と、 他方のレンズ部により形成されるピントのぼけた画像とが重な つた画像から、 ピントの合った画像を求める画像改質処理を、 短時間の処理で実 現することができ、 通常の被写体おょぴ近接被写体のいずれについても鮮明な画 像を得ることができる。
なお、 本発明は前記実施形態に限定されるものではなく、 本発明の目的を達成 できる範囲内での変形等は本発明に含まれるものである。
すなわち、 前記実施形態では、 畳み込み演算行列回転算出手段 3 5は、 第 1 0 図に示すように、 第一区画領域の所定位置 (本実施形態では、 中央位置) に重な る第二区画領域を求め、 求めた第二区画領域の値により第一区画領域に対応する 要素 Qm, n ( x, y ) の値を算出決定する構成とされていたが、 本発明における 畳み込み演算行列回転算出手段は、 第二区画領域の所定位置 (例えば、 中央位置 ) が重なっている第一区画領域を求め、 求めた第一区画領域に対応する要素 Qm , n ( x , y ) の値として、 この第一区画領域に所定位置が重なっている第二区 画領域の値を採用する構成としてもよい。 例えば、 第 1 0図の場合には、 f 1 6 の第二区画領域の中央位置が重なつている第一区画領域は、 ハッチングきれた中 央の第一区画領域であるから、 この中央の第一区画領域の値として、 f l 6を採 用する。
また、 前記実施形態では、 二焦点レンズ 2 1に本発明が適用されていたが、 本 発明は、 単焦点レンズに適用してもよい。 第 1 3図には、 二焦点レンズ 2 1およ ぴ単焦点レンズ 9 0のぼけの形状 (単一輝点からの光の拡がりを示す P S F行列 Wm, nの分布) の比較結果が示されている。
第 1 3図において、 標準的な距離にある通常 被写体を二焦点レンズ 2 1によ り撮像した場合の P S F行列 Wm, nの分布は、 長焦点レンズ部 2 2を理想的なレ ンズであると考えたときにこの長焦点レンズ部 2 2によりピントの合った画像が 形成される Wm, n ( 0, 0 ) を中心とし、 実際の長焦点レンズ部 2 2により Wm, n ( 0 , 0 ) の周囲に形成される略中実円形状または略中実楕円形状の若干のぼ け部分 8 0と、 短焦点レンズ部 2 3により形成されるリング状 (略円環状または 略楕円環状) のぼけ部分 8 1とを備えている。
また、 標準的な距離よりも近い距離にある近接被写体を二焦点レンズ 2 1によ り撮像した場合の P S F行列 Wm, nの分布は、 短焦点レンズ部 2 3を理想的なレ ンズであると考えたときにこの短焦点レンズ部 2 3によりピントの合つた画像が 形成される Wmn ( 0, 0 ) を中心とし、 実際の短焦点レンズ部 2 3により Wra> n ( 0, 0 ) の周囲に形成される略中実円形状または略中実楕円形状の若干のぼ け部分 8 2と、 長焦点レンズ部 2 2により形成される略中実円形状または略中実 楕円形状のぼけ部分 8 3とを備えている。 これらのぼけ部分 8 2, 8 3は、 重な つている。
さらに、 標準的な距離にある通常の被写体またはこれよりも近い距離にある近 接被写体を単焦点レンズ 9 0により撮像した場合の P S F行列 Wm, nの分布は、 単焦点レンズ 9 0を理想的なレンズであると考えたときにこの単焦点レンズ 9 0 によりピントの合った画像が形成される Wm, n ( 0, 0 ) を中心とし、 実際の単 焦点レンズ 9 0により Wm, n ( 0 , 0 ) の周囲に形成される略中実円形状または 略中実楕円形状の若干のぼけ部分 9 1を備えている。 単焦点レンズ 9 0によるぼ け部分 9 1の形成は、 通常の被写体を二焦点レンズ 2 1により撮像した場合にお ける長焦点レンズ部 2 2によるぼけ部分 8 0の形成、 および近接被写体を二焦点 レンズ 21により撮像した場合における短焦点レンズ部 23によるぼけ部分 82 の形成と原理的には同様の意味合!/、を持つものである。
本発明では、 再生演算手段 36による被写体の再生演算処理で用いる畳み込み 演算行列 Qm, η (χ, y) を定義するための PS F行列 Wm, n (x, y) を、 次 のように定めることができる。 先ず、 通常の被写体を二焦点レンズ 21により撮 像した場合には、 ぼけ部分 80については、 ぼけ部分 81と同等に取り扱っても よく、 あるいは、 ぼけ部分 80の各要素の値を合計して Wra, n (0, 0) の値を 置き換え、 かつ、 Wm, n (0, 0) を除くぼけ部分 80の各要素の値をゼロにし てもよい。 後者の場合は、 理想的な長焦点レンズ部 22により Wm, n (0, 0) に完全にピントが合つた画像が形成された場合と同様な分布にするものである。 次に、 近接被写体を二焦点レンズ 21により撮像した場合には、 ぼけ部分 82 については、 ぼけ部分 83と同等に取り扱ってもよく、 あるいは、 ぼけ部分 82 の各要素の値 (実際には、 長焦点レンズ部 22によるぼけ部分 83の画像の出力 信号値が重なっているが、 この値の大きさは小さいので、 短焦点レンズ部 23に よるぼけ部分 82の画像の出力信号^ tのみであると考えてよい。 ) を合計して W m, n (0, 0) の値を置き換え、 かつ、 Wm, n (0, 0) を除くぼけ部分 82の 各要素の値をゼ口にしてもよい。 後者の場合は、 理想的な短焦点レンズ部 23に より Wm, n (0, 0) に完全にピントが合った画像が形成された場合と同様な分 布にするものである。
さらに、 通常の被写体または近接被写体を単焦点レンズ 90により撮像した場 合には、 ぼけ部分 91の各要素の値を合計して Wm, n (0, 0) の値を置き換え ると、 ぼけの部分が無くなってしまい、 意味を成さないので、 この方法は採用せ ず、 Wm n (0, 0) の値はそのままの値とする。 産業上の利用可能性
以上のように、 本努明の画像改質処理方法およびその装置、 プログラム、 並び にデータ記録媒体は、 例えば、 携帯情報端末 (PDA: Personal Digital Assis tants) 、 携帯電話機 (PHS : Personal Handy phone System を含む。 ) 、 テ レビジョンゃビデオ等の家電機器の操作用のリモート · コント口ール装置、 力メ ラ付パ ソナル . コンピュータ、 および監視カメラ装置等の二焦点レンズや単焦 点レンズによる画像入力機能を持つ情報端末装置などに適用することができる。

Claims

請 求 の 範 囲
1. レンズにより形成されたピントのぼけた画像をピントの合った画像に改質す る画像改質処理方法であって、
撮像素子の大きさを M画素 XN画素とし、 被写体の発する光の明るさを示す M 行 N列の行列を Aとし、 前記被写体を前記レンズにより撮像して得られた画像の 出力信号を示す M行 N列の行列を Zとし、 被写体座標系の 1点 (m, n) から出 た光の結像位置が画像座標系の 1点 (m, n) となるように前記被写体座標系お よび前記画像座標系を設定したとき、
畳み込み演算処理を行うための座標 (m, n) についての (2M—1) 行 (2 N- 1) 列の畳み込み演算行列 Qm, nの各要素 Qm> n (x, y) の値のうち少な くとも非零要素を含む行列部分の値を、 各座標 (m n) の全部または一部につ いて、 下式 (A— 1) に基づき予め算出して畳み込み演算行列記憶手段に記憶し ておき、
前記被写体を前記レンズにより撮像した際に、 再生演算手段により、 前記畳み 込み演算行列記憶手段に記憶された各要素 Qm, (χ, y) のうちの少なくとも 一部の値と前記画像の出力信号の行列 Zの各要素 Z (m+x, n + y) の値とを 用いて下式 (A— 2) に基づき前記被写体の行列 Aの各要素 A (m n) の値を 算出することを特徴とする画像改質処理方法。
Qm, n (x, y) = 1 ZWm, n (0, 0)
(x = 0, y = 0の場合)
= -Wm, n (- X , -y) ZWm> n (0 0) P
(x = 0, y = 0以外の場合)
(A— 1) A (m, n) =∑xyQm, n (x, y) Z (m+x, n + y)
(A- 2) ここで、
xおよび yは整数で、 (l—M) ≤x≤ (M— 1) 、 (1 -Ν) ≤γ≤ (Ν— 1) であり、
mおよび ηは自然数で、 l≤m≤M、 l≤n≤Nであり、
Wmi n (x, y) は、 (2M— 1) 行 (2N— 1) 列の行列 Wm, nの各要素の 値であり、 この行列 Wm, nは、 前記被写体の 1点 (m, n ) カゝら出た光が前記レ ンズの作用により前記撮像素子上で拡がる状態を示すボイント ·スプレツド ·フ アンクシヨン行列であり、 Wm, n (0, 0) は、 拡がりの中心部分に位置する画 素の出力信号の値であり、 Wm, n (- X , -y) は、 周囲のぼけ部分に位置する 画素の出力信号の値であり、
p o w e rは、 Wm, n (0, 0) のべき乗数となる実数で、 l≤p owe r 2であり、
xは、 x= (l—M) 〜 (M— 1) の和であり、 ∑yは、 y = ( 1 -N) 〜 (N— 1) の和である。
2. 各座標 (m, n) についての畳み込み演算行列 Qm, nのうち、 光軸位置から 一方向に延びる直線上に並ぶ座標についての畳み込み演算行列 Q m, nをサンプリ ング行列として選択し、
前記畳み込み演算行列記憶手段には、 前記サンプリング行列 Qm> nの各要素 Q m, n ( , y) の値のみを記憶させておき、
その他の座標についての畳み込み演算行列 Qm, nの各要素 Qm, n (x, y) の 値は、 畳み込み演算行列回転算出手段により、 前記レンズの軸対称を利用して、 前記サンプリング行列 Qm, nの各要素 Qm, n (x, y) の値の配置を前記光軸位 置を中心として回転させることにより算出する
ことを特徴とする請求の範囲第 1項記載の画像改質処理方法。
3. 前記畳み込み演算行列回転算出手段により前記その他の座標についての畳み 込み演算行列 Qm, nの各要素 Qm, n (χ, y) の値を算出する際には、
前記サンプリング行列 Qm, nの各要素 Qm, n ( , y) の値の配置を回転させ たときに、
算出対象となる畳み込み演算行列 Qm, nの要素 Qm, n (x, y) に対応する第 一区画領域の所定位置に重なる回転後の前記サンプリング行列 Qm, nの要素 Qm, n (x, y) に対応する第二区画領域を求め、 求めた第二区画領域に対応する要 素 Qm, n (x, y) の値を、 算出対象となる畳み込み演算行列 Qm, nの要素 Qm, n (x, y) の値として採用する力 \
または、 前記第二区画領域の所定位置が重なっている前記第一区画領域を求め 、 求めた前記第一区画領域に対応する要素 Qm, n (x, y) の値として、 この第 一区画領域に前記所定位置が重なっている前記第二区画領域に対応する要素 Qm , n (x, y) の値を採用する
ことを特徴とする請求の範囲第 2項記載の画像改質処理方法。
4. 前記レンズは、 二焦点レンズであり、
前記行列 Zは、 前記二焦点レンズを構成する一方のレンズ部により形成される ピントの合つた画像と、 他方のレンズ部により形成されるピントのぼけた画像と が重なった画像の出力信号を示す行列であり、
前記ポィント · スプレツ ド · ファンクション行列 Wm, nは、 主として前記一方 のレンズ部の作用により Wm, n (0, 0) の値が定まり、 主として前記他方のレ ンズ部の作用により Wm, n (-X, -y) の値が定まる
ことを特徴とする請求の範囲第 1項〜第 3項のいずれかに記載の画像改質処理 方法。
5. レンズにより形成されたピントのぼけた画像をピントの合つた画像に改質す る画像改質処理装置であって、
撮像素子の大きさを M画素 XN画素とし、 被写体の発する光の明るさを示す M 行 N列の行列を Aとし、 前記被写体を前記レンズにより撮像して得られた画像の 出力信号を示す M行 N列の行列を Zとし、 被写体座標系の 1点 (m, n) から出 た光の結像位置が画像座標系の 1点 (m, n) となるように前記被写体座標系お よび前記画像座標系を設定したとき、
各座標 (m, n) の全部または一部について、 下式 (B— 1) に基づき算出さ れた畳み込み演算処理を行うための座標 (m, n) についての (2M—1) 行 ( 2N- 1) 列の畳み込み演算行列 Qm, nの各要素 Qm, n (x, y) の値のうち少 なくとも非零要素を含む行列部分の値を記憶する畳み込み演算行列記憶手段と、 この畳み込み演算行列記憶手段に記憶された各要素 Qm, n (x, y) のうちの 少なくとも一部の値と前記画像の出力信号の行列 Zの各要素 Z (m+x, n + y ) の値とを用いて下式 (B-2) に基づき前記被写体の行列 Aの各要素 A (m, n) の値を算出する再生演算手段と
を備えたことを特徴とする画像改質処理装置。
Qm, n ( , y) = 1 /Wm> n (0, 0)
(x = 0, y = 0の場合)
= -Wm, n (- X, 一 y) ZWm, n (0, 0) power
(x = 0, y = 0以外の場合)
(B- 1)
A (m, n) =∑xyQm, n (x, y) Z (m+x, n + y)
(B-2) ここで、
xおよび yは整数で、 (l—M) ≤x≤ (M- 1) 、 (1 -N) ≤y≤ (N— 1) であり、
mおよび nは自然数で、 l≤m≤M、 l ^n^Nであり、 Wm> n (x, y) は、 (2M— 1) 行 (2N— 1) 列の行列 Wm, nの各要素の 値であり、 この行列 Wm, nは、 前記被写体の 1点 (m, n) から出た光が前記レ ンズの作用により前記撮像素子上で拡がる状態を示すポイント .スプレッド .フ アンクシヨン行列であり、 Wm> n (0, 0) は、 拡がりの中心部分に位置する画 素の出力信号の値であり、 Wm, n (- X , 一 y) は、 周囲のぼけ部分に位置する 画素の出力信号の値であり、
p o w e rは、 Wm, n (0, 0) のべき乗数となる実数で、 l≤p owe r≤ 2であり、
xは、 x= ( 1 -M) 〜 (M— 1) の和であり、 ∑yは、 y = ( 1 -N) 〜 (N- 1) の和である。
6. 前記畳み込み演算行列記憶手段には、 各座標 (m, n) についての畳み込み 演算行列 Qm> nのうち光軸位置から一方向に延びる直線上に並ぶ座標についての 畳み込み演算行列 Qm, nがサンプリング行列として選択されてこのサンプリング 行列 Qra, nの各要素 Qm, n ( , y) の値のみが記憶され、
その他の座標についての畳み込み演算行列 Qm, nの各要素 Qm, n (x, y) の 値を、 前記レンズの軸対称を利用して、 前記サンプリング行列 Qra, nの各要素 Q m, n (x, y) の値の配置を前記光軸位置を中心として回転させることにより算 出する畳み込み演算行列回転算出手段を備えた
ことを特徴とする請求の範囲第 5項記載の画像改質処理装置。
7. 前記畳み込み演算行列回転算出手段は、
前記サンプリング行列 Qm, nの各要素 Qm, n (x, y) の値の配置を回転させ たときに、
算出対象となる畳み込み演算行列 Qm, nの要素 Qm, n (x, y) に対応する第 一区画領域の所定位置に重なる回転後の前記サンプリング行列 Qm, nの要素 Qm, n (x, y) に対応する第二区画領域を求め、 求めた第二区画領域に対応する要 素 Qm, η (χ, y) の値を、 算出対象となる畳み込み演算行列 Qm, nの要素 Qm, n (x, y) の値として採用する力、
または、 前記第二区画領域の所定位置が重なっている前記第一区画領域を求め 、 求めた前記第一区画領域に対応する要素 Qm, n (x, y) の値として、 この第 一区画領域に前記所定位置が重なっている前記第二区画領域に対応する要素 Qm , n (x, y) の値を採用する構成とされている
ことを特徴とする請求の範囲第 6項記載の画像改質処理装置。
8. 前記レンズは、 二焦点レンズであり、
前記行列 Zは、 前記二焦点レンズを構成する一方のレンズ部により形成される ピントの合った画像と、 他方のレンズ部により形成されるピントのぼけた画像と が重なった画像の出力信号を示す行列であり、
前記ポィント ·スプレツド · ファンクション行列 wm, nは、 主として前記一方 のレンズ部の作用により Wm, n (0, 0) の値が定まり、 主として前記他方のレ ンズ部の作用により Wm, n (-X, -y) の値が定まる
ことを特徴とする請求の範囲第 5項〜第 7項のいずれかに記載の画像改質処理 装置。
9. レンズにより形成されたピントのぼけた画像をピントの合った画像に改質す る画像改質処理装置として、 コンピュータを機能させるためのプログラムであつ て、
撮像素子の大きさを M画素 XN画素とし、 被写体の発する光の明るさを示す M 行 N列の行列を Aとし、 前記被写体を前記レンズにより撮像して得られた画像の 出力信号を示す M行 N列の行列を Zとし、 被写体座標系の 1点 (m, n) から出 た光の結像位置が画像座標系の 1点 (m, n) となるように前記被写体座標系お よび前記画像座標系を設定したとき、
各座標 (m, n) の全部または一部について、 下式 (C— 1) に基づき算出さ れた畳み込み演算処理を行うための座標 (m, n) についての (2M—1) 行 ( 2N— 1) 列の畳み込み演算行列 Qm> nの各要素 Qm, n (x, y) の値のうち少 なくとも非零要素を含む行列部分の値を記憶する畳み込み演算行列記憶手段と、 この畳み込み演算行列記憶手段に記憶された各要素 Qm, n (x, y) のうちの 少なくとも一部の値と前記画像の出力信号の行列 Zの各要素 Z (m+x, n + y ) の値とを用いて下式 (C_2) に基づき前記被写体の行列 Aの各要素 A (m, n) の値を算出する再生演算手段と
を備えたことを特徴とする画像改質処理装置として、 コンピュータを機能させ るためのプログラム。
Qm, n (x, y) = 1 /Wm, n (0, 0)
(x = 0, y = 0の場合)
= -Wm, n (一 x, -y) /Wm, n (0, 0) POTer
(x = 0, y = 0以外の場合)
• · (c-i)
A (m, n ) =∑ xy Qm> n ( , y ) Z (m+ x , n + y)
(C-2) ここで、
xおよび yは整数で、 (l—M) ≤ x≤ (M- 1) 、 (1— N) ≤y≤ (N— 1) であり、
mおよび nは自然数で、 l≤m≤M、 l≤n≤Nであり、
Wm, n (x, y) は、 (2M— 1) 行 (2N— 1) 列の行列 Wm, nの各要素の 値であり、 この行列 Wm, nは、 前記被写体の 1点 (m, n) から出た光が前記レ ンズの作用により前記撮像素子上で拡がる状態を示すボイント ·スプレツド ·フ アンクシヨン行列であり、 Wra, n (0, 0) は、 拡がりの中心部分に位置する画 素の出力信号の値であり、 Wm, n (— x -y) は、 周囲のぼけ部分に位置する 画素の出力信号の値であり、
p ο w e rは、 Wm, n (0 0) のべき乗数となる実数で、 l≤p owe r≤ 2であり、
∑ ¾ x= ( 1 -M) (M— 1) の和であり、 ∑yは、 y= ( 1 -N) (N- 1) の和である。
1 0. レンズにより形成されたピントのぼけた画像をピントの合った画像に改質 する画像改質処理で使用されるデータを記録したコンピュータ読取り可能なデー タ記録媒体であって、
撮像素子の大きさを M画素 XN画素とし、 被写体の発する光の明るさを示す M 行 N列の行列を Aとし、 前記被写体を前記レンズにより撮像して得られた画像の 出力信号を示す M行 N列の行列を Zとし、 被写体座標系の 1点 (m, n) から出 た光の結像位置が画像座標系の 1点 (m, n) となるように前記被写体座標系お よび前記画像座標系を設定したとき、
行列 Zから行列 Aを算出するために用いる行列として、 各座標 (m n) の全 部または一部について、 下式 (D— 1) に基づき算出された畳み込み演算処理を 行うための座標 (m n) についての (2M—1) 行 (2N—1) 列の畳み込み 演算行列 Qm, nの各要素 Qm, η (χ, y) の値のうち少なくとも非零要素を含む 行列部分の値を記録したコンピュータ読取り可能なデータ記録媒体。
Qm, n ( , y) = 1 /Wm, n (0 0)
(x = 0, y = 0の場合)
= -Wm, n (- X , 一 y) ZWm, n (0, 0)
(x = 0, y = 0以外の場合)
(D— 1) ここで、 xおよび yは整数で、 (1— M) ≤x≤ (M- 1) 、 (1— N) ≤y≤ (N— 1) であり、
mおよび nは自然数で、 l≤m≤M、 l≤n≤Nであり、
Wm, n (x, y) は、 (2M— 1) 行 (2N— 1) 列の行列 Wm, nの各要素の 値であり、 この行列 Wm> nは、 前記被写体の 1点 (m, n) から出た光が前記レ ンズの作用により前記撮像素子上で拡がる状態を示すポイント 'スプレッ ド 'フ アンクシヨン行列であり、 Wm> n (0, 0) は、 拡がりの中心部分に位置する画 素の出力信号の値であり、 Wm, n (— x, -y) は、 周囲のぼけ部分に位置する 画素の出力信号の値であり、
p o w e rは、 Wm, n (0, 0) のべき乗数となる実数で、 I p owe r 2である。
PCT/JP2004/002646 2003-08-19 2004-03-03 画像改質処理方法およびその装置 WO2005017829A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003295558A JP3855079B2 (ja) 2003-08-19 2003-08-19 画像改質処理方法およびその装置、プログラム、並びにデータ記録媒体
JP2003-295558 2003-08-19

Publications (1)

Publication Number Publication Date
WO2005017829A1 true WO2005017829A1 (ja) 2005-02-24

Family

ID=34191110

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/002646 WO2005017829A1 (ja) 2003-08-19 2004-03-03 画像改質処理方法およびその装置

Country Status (2)

Country Link
JP (1) JP3855079B2 (ja)
WO (1) WO2005017829A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014183625A1 (zh) * 2013-05-13 2014-11-20 Duan Ran 一种由计算机执行的图像处理方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006137355A1 (ja) * 2005-06-20 2006-12-28 Riverbell Co., Ltd. 多焦点レンズおよび撮像システム
JP5761988B2 (ja) 2010-12-20 2015-08-12 キヤノン株式会社 画像処理装置、画像処理方法
JP5414752B2 (ja) 2011-08-08 2014-02-12 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、および、画像処理プログラム
JP5264968B2 (ja) 2011-08-08 2013-08-14 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置、および、画像処理プログラム
JP6071860B2 (ja) * 2013-12-09 2017-02-01 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
JP5611439B2 (ja) * 2013-11-13 2014-10-22 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、および、画像処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62127976A (ja) * 1985-11-29 1987-06-10 Kyocera Corp 画像記録処理装置
JPH03181281A (ja) * 1989-12-08 1991-08-07 Kyocera Corp 画像処理方法
JPH0414960A (ja) * 1990-05-09 1992-01-20 Fujitsu Ltd カラー読取装置
JP2003309723A (ja) * 2002-02-12 2003-10-31 Ribaaberu:Kk 画像改質処理方法およびその装置、プログラム、並びにデータ記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62127976A (ja) * 1985-11-29 1987-06-10 Kyocera Corp 画像記録処理装置
JPH03181281A (ja) * 1989-12-08 1991-08-07 Kyocera Corp 画像処理方法
JPH0414960A (ja) * 1990-05-09 1992-01-20 Fujitsu Ltd カラー読取装置
JP2003309723A (ja) * 2002-02-12 2003-10-31 Ribaaberu:Kk 画像改質処理方法およびその装置、プログラム、並びにデータ記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014183625A1 (zh) * 2013-05-13 2014-11-20 Duan Ran 一种由计算机执行的图像处理方法

Also Published As

Publication number Publication date
JP3855079B2 (ja) 2006-12-06
JP2005063323A (ja) 2005-03-10

Similar Documents

Publication Publication Date Title
JP4418029B2 (ja) 画像処理装置及びカメラシステム
KR100967826B1 (ko) 화상처리장치 및 방법, 프로그램 및 프로그램 기록매체,및 데이터구조 및 데이터 기록매체
US9628696B2 (en) Image processing apparatus, image processing method, image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
JP2006139246A (ja) 多焦点レンズおよび撮像システム
JP6027560B2 (ja) 自動追尾撮像装置
US6865028B2 (en) Method for capturing a panoramic image by means of an image sensor rectangular in shape
CN105659287B (zh) 图像处理装置、图像处理方法和成像系统
Birklbauer et al. Panorama light‐field imaging
JP4981124B2 (ja) 改良型プレノプティック・カメラ
JP5159986B2 (ja) 撮像装置および撮像方法
US8749694B2 (en) Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US9894252B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and storage medium for reducing noise of an image obtained by combining parallax images
WO2006137355A1 (ja) 多焦点レンズおよび撮像システム
US20120229691A1 (en) Image pickup apparatus having lens array and image pickup optical system
CN102377945A (zh) 摄像装置
US20150178923A1 (en) Light-field aberration correction
CN104427225B (zh) 摄像设备和摄像设备的控制方法
JP2008516299A (ja) 撮像装置及び画像改質処理方法
US9535193B2 (en) Image processing apparatus, image processing method, and storage medium
JP2004336106A (ja) 画像処理装置、画像処理方法ならびに撮像装置
WO2005017829A1 (ja) 画像改質処理方法およびその装置
KR20180054622A (ko) 광학 취득 시스템을 교정하기 위한 장치 및 방법
JP4369867B2 (ja) センサの回転により画像の解像度を高めるシステム
CN109716350B (zh) 光学采集装置和电子设备
CN110166676B (zh) 一种成像设备、成像控制方法、电子装置和介质

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase