WO2005018236A1 - カメラ、画像処理装置、画像データ処理方法、及びプログラム - Google Patents

カメラ、画像処理装置、画像データ処理方法、及びプログラム Download PDF

Info

Publication number
WO2005018236A1
WO2005018236A1 PCT/JP2004/011943 JP2004011943W WO2005018236A1 WO 2005018236 A1 WO2005018236 A1 WO 2005018236A1 JP 2004011943 W JP2004011943 W JP 2004011943W WO 2005018236 A1 WO2005018236 A1 WO 2005018236A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light
elements
objective lens
receiving surface
Prior art date
Application number
PCT/JP2004/011943
Other languages
English (en)
French (fr)
Inventor
Masao Yamamoto
Original Assignee
Scalar Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Scalar Corporation filed Critical Scalar Corporation
Priority to EP04771904A priority Critical patent/EP1662803A4/en
Priority to US10/567,847 priority patent/US7493039B2/en
Priority to JP2005513216A priority patent/JPWO2005018236A1/ja
Publication of WO2005018236A1 publication Critical patent/WO2005018236A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Definitions

  • the present invention relates to a technique which can be applied to, for example, a force lens provided with an imaging means utilizing a CCD (charge coupled device) or other photoelectric effect, particularly a force lens suitable for high-magnification imaging such as a microscope.
  • CCD charge coupled device
  • Optical microscopes have the advantage that moving objects, such as living cells and tissues, can be imaged as real-time moving images.
  • optical microscopes have a shallow depth of focus. Therefore, in an optical microscope, an object to be observed, such as a tissue, needs to be cut into a very thin section prior to imaging, which is troublesome before use. Even with such a trouble, it is not possible to image a thick object in the end, and it is difficult to obtain three-dimensional information.
  • Electron microscopes have the advantage of very high resolution.
  • Laser microscopes have the advantage of being able to image thick objects with a large depth of focus. .
  • the present invention is a camera that has solved the above problems of each camera, that is, it is possible to capture a moving image of an imaging target with a moving image, and to capture a thick object by having a deep depth of focus. It is an object of the present invention to provide a camera that can perform imaging of living cell 'tissue, tissue in water, and the like. Disclosure of the invention
  • the inventor of the present application first proposes the following camera.
  • a camera performs imaging using an objective lens to which image light is guided and image light guided through the objective lens, and generates a predetermined signal in response to light of different wavelengths.
  • An imaging means having a light receiving surface in which a large number of types of elements are arranged in large numbers, respectively, and a camera having
  • the objective lens of the camera has the same wavelength as one of the different wavelengths from each of a plurality of imaging target surfaces having different depths from the light receiving surface, and the wavelengths are mutually different. Different image light is formed on the light receiving surface by using chromatic aberration.
  • This camera has the following advantages.
  • this camera adopts an imaging principle that is close to that of an optical microscope when it comes to the three types of microscopes described above. Therefore, unlike an electron microscope, it is possible to observe living cell tissues and tissues in water, and unlike a laser microscope, it is possible to capture moving images with moving images.
  • the camera also includes a plurality of types of element forces S that generate a predetermined signal in response to light of different wavelengths.
  • Image light of different wavelengths is imaged from each of the virtual imaging target surfaces having different depths, and each type of element is caused to perform imaging of the imaging target surfaces having different depths.
  • this camera achieves a deep depth of focus by using chromatic aberrations that would otherwise be unusual.
  • the force lens according to the present invention whose focal depth is increased by such a configuration is similar to an optical microscope, but can realize a deep focal depth unlike a conventional optical microscope. Yes, and it is therefore possible to image thick objects.
  • this camera can capture moving images, but it can also be applied to still images. That is, this camera can capture one or both of a moving image and a still image.
  • the camera according to the present invention can be as follows, provided with an image processing means.
  • the camera performs imaging with an objective lens to which image light is guided and image light guided through the objective lens, and generates a predetermined signal in response to light of different wavelengths.
  • An imaging unit having a light receiving surface in which a plurality of types of elements are arranged in large numbers, and image data for displaying an image captured by the imaging unit on a predetermined display based on the received signal.
  • a camera provided with an image processing means for outputting this to the outside.
  • the objective lens of the camera has the same wavelength as one of the different wavelengths from each of a plurality of imaging target surfaces having different depths from the light receiving surface, and the wavelengths are mutually different. Different image light is formed on the light receiving surface by using chromatic aberration.
  • the image processing means of the camera can, for example, generate, based on the signals generated by the plurality of types of elements, a plurality of images of the same type generated by the elements as many as the number of the types of the elements. It is configured to generate such image data.
  • this camera is provided with the image processing means for generating the image data as described above, as long as the camera is connected to a predetermined display, the display is based on the one generated by the same type of element. This is convenient because a plurality of images can be displayed as many as the number of element types.
  • This camera may or may not be connected to a given display when in use.
  • the image processing means may output the generated image data directly to a predetermined display, or may output the image data once to a predetermined recording medium inside or outside the camera and record it on it. It may be. In the latter case, the image processing is performed based on the image data recorded on the recording medium. The same image as when directly output from the processing means can be displayed on a predetermined display.
  • the image processing unit generates image data for displaying an image captured by the imaging unit on a predetermined display based on the signal received from the imaging unit, and outputs the image data to the outside. And if it generates, on the basis of the signal, image data capable of generating a plurality of images of the same type as the elements by the same number as the types of the elements, The exact configuration is unquestioned.
  • the image finally displayed on the display based on the image data generated by the image processing means may be a plurality of images each of which is a separate image, or a combination of the plurality of images. It may be one image obtained.
  • the image processing means in the former case is configured to generate the image data as an image that can be displayed on a predetermined display as the separate images of the plurality of images generated by the same type of the elements. Can be configured. According to this, the images of the imaging objects having different depths can be individually displayed on the display.
  • the image processing means is configured to generate the image data such that all of the plurality of images generated by the same type of the elements can be simultaneously displayed on a predetermined display.
  • the image data may be generated as one of the plurality of images generated by the same type of the element that can be selectively displayed on a predetermined display. It may be. In this case, those who see the image will generate a three-dimensional image in their head.
  • the image processing means in the latter case is, for example, an image processing unit that generates an image based on the plurality of images generated by the same type of the element based on the plurality of images and displays the image on a predetermined display. It is configured to generate data overnight.
  • the image displayed on the predetermined display represents the three-dimensional thickness.
  • the camera of the present invention may be as follows.
  • the camera has an objective lens through which the image light is guided, and an objective lens passing through the objective lens.
  • Imaging means for performing imaging with the guided image light comprising: a light receiving surface in which a plurality of types of elements each of which generates a predetermined signal in response to light of a different wavelength are arranged.
  • An image processing unit that generates image data for displaying an image captured by the imaging unit on a predetermined display based on the signal, and outputs the image data to an external device. I do.
  • the objective lens of the camera is one for which imaging is scheduled, and has one of the different wavelengths from each of a plurality of imaging target surfaces having different depths from the objective lens. Image light beams having different wavelengths are formed on the light receiving surface using chromatic aberration.
  • the image processing means of the camera generates the image composed of only the same hue or the image composed of only the achromatic color on a predetermined display, and generates the plurality of types of elements. It is configured to generate the image data based on the signal.
  • the image displayed on the predetermined display is a thing expressing three-dimensional thickness.
  • the present inventor also proposes the following image processing device.
  • This image processing apparatus performs imaging with an objective lens to which image light is guided and image light guided through the objective lens, and generates a predetermined signal in response to light of different wavelengths
  • An imaging unit having a light receiving surface in which a plurality of types of elements are arranged in large numbers, and an output unit for outputting the received signal to the outside, wherein the objective lens has a depth from the light receiving surface. From each of the plurality of imaging target surfaces having different wavelengths, image light whose wavelength is the same as one of the different wavelengths and whose wavelengths are different from each other is imaged on the light receiving surface using chromatic aberration. It is used in combination with a camera that is designed to cause the And it is configured to perform control for displaying an image based on the signal received from the output means of the camera on a predetermined display.
  • the image processing device includes: a unit that receives the signal; and, based on the received signal, a plurality of images generated by the same type of the elements by the same number as the types of the elements.
  • This image processing device has the same function as the above-mentioned image processing means that may be provided in the camera of the present invention, and corresponds to a device independent of the camera.
  • the image processing apparatus may receive the image data generated by the camera directly from the camera or via a predetermined recording medium.
  • the processing means in the image processing apparatus is configured to generate the image data as an image that can be displayed on the display as a separate image, the plurality of images generated by the same type of the elements. May be.
  • the processing means is configured to generate the image data such that all of the plurality of images generated by the same type of elements can be simultaneously displayed on the display.
  • it may be configured such that any one of the plurality of images generated by the same type of the element can be selectively displayed on the display.
  • the processing means in the image processing apparatus may further include: an image generated on the basis of the plurality of images generated by the same type of the element, the image being displayed on a predetermined display. It may be configured to generate data.
  • the processing means generates, for example, an image consisting of only colors of the same hue, or an image consisting of only achromatic colors on the display, and the plurality of types of elements generate the image. It is configured to generate the image data based on the signal.
  • the processing means may be configured to be able to display, on the display, an image generated by superimposing the plurality of images generated by the same type of elements.
  • the processing unit may be configured to display on the display an image that can be generated by superimposing the plurality of images generated by the same type of the elements after the plurality of images are monochrome.
  • the operation and effect of the image processing apparatus as described above can also be obtained by executing the following method on a predetermined computer.
  • the method includes, for example, an objective lens through which image light is guided, and an objective lens passing through the objective lens.
  • Imaging means for performing imaging with the guided image light, and having a light receiving surface on which a plurality of types of elements each of which generates a predetermined signal in response to light of a different wavelength are provided;
  • Output means for outputting the signal to the outside, wherein the objective lens has a wavelength of the different wavelength from each of a plurality of imaging target surfaces having different depths from the light receiving surface.
  • a camera configured to form image light having the same wavelength as each other and having different wavelengths on the light receiving surface by using chromatic aberration, and a predetermined display.
  • the image processing apparatus is configured to perform control for displaying an image based on the signal received from the output means, and is executed by an image processing apparatus having a computer. It is.
  • the computer receives the signal, and, based on the received signal, can display a plurality of images generated by the same type of the elements on the display as many as the types of the elements.
  • a method for processing image data comprising: generating such image data; and outputting the generated image data to the display.
  • This program for example, performs imaging using an objective lens to which image light is guided and image light guided through the objective lens, and generates a predetermined signal in response to light of a different wavelength. And an output unit for outputting the received signal to the outside.
  • the objective lens has a depth from the light receiving surface. Image light having the same wavelength as one of the different wavelengths and different wavelengths from each other is applied to the light receiving surface using chromatic aberration from each of the plurality of imaging target surfaces having different lengths. It is used in combination with a camera that forms an image, and performs control for displaying an image based on the signal received from the output unit on a predetermined display.
  • the configuration Pugh evening image processing apparatus comprising a computer, a computer-readable program for executing the following processing.
  • the process executed by the computer according to the program includes, for example, a process of receiving the signal, a plurality of images generated by the same type of the elements based on the received signal, the number of which is equal to the number of the types of the elements.
  • the plurality of imaging target surfaces may have substantially the same distance from an adjacent imaging target surface. If the imaging target surface is in this way, a plurality of images obtained by a plurality of types of elements will be images having substantially equal distances and different depths. It becomes easy to grasp the thickness.
  • the plurality of imaging target surfaces have a distance from an adjacent imaging target surface that is equal to or less than the depth of focus of the objective lens.
  • the plurality of types of devices are three types of devices, one that responds to light of red wavelength, one that responds to light of green wavelength, and one that responds to light of blue wavelength.
  • the elephant surface is such that light of a red wavelength, light of a green wavelength therefrom, and light of a blue wavelength therefrom each form an image on the light receiving surface via the objective lens.
  • imaging target surfaces This can be realized, for example, by using general CCD.
  • FIG. 1 is a side view including a partial perspective view of a camera according to a first embodiment of the present invention.
  • FIG. 2 is an enlarged cross-sectional view of an object to be imaged by the camera shown in FIG.
  • FIG. 3 is a diagram showing the movement of light having a red wavelength in the camera shown in FIG.
  • FIG. 4 is a diagram showing the movement of light having a green wavelength in the camera shown in FIG.
  • FIG. 5 is a diagram showing the movement of light of a blue wavelength in the camera shown in FIG.
  • FIG. 6 is a diagram showing the movement of light captured by the camera shown in FIG.
  • FIG. 7A is a diagram showing an example of an imaging target imaged by the camera shown in FIG.
  • FIG. 7B is a diagram showing an example of an image captured by the camera shown in FIG.
  • FIG. 8 is a diagram showing an example of an image captured by the camera shown in FIG.
  • FIG. 9 is a diagram showing an image processing device used in combination with the camera according to the second embodiment.
  • FIG. 10 is a diagram showing a hardware configuration in the image processing apparatus shown in FIG.
  • FIG. 11 is a block diagram showing functional blocks generated inside the image processing apparatus shown in FIG.
  • FIG. 12 is a flowchart showing a flow of processing executed by the image processing apparatus shown in FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • the camera 100 according to this embodiment is configured as shown in a side view (including a partial perspective view) of FIG.
  • the camera 100 in this embodiment includes a gantry 110, a support 120, and a camera body 130.
  • the gantry 110 is for mounting the imaging target S at a predetermined position.
  • the gantry 110 has a certain weight so that the entire camera 100 can be stabilized, and is configured so that the camera 100 can perform stable imaging.
  • the support 120 is provided vertically from the upper surface of the gantry 110.
  • the column 120 supports the camera body 130 with a variable distance from the top surface of the gantry 110.
  • the support 120 is made of, for example, metal, and in this embodiment, is a rod-shaped body having a rectangular cross section.
  • the camera body 130 includes a case 131, and is configured by attaching various components inside and outside thereof.
  • the case 13 1 is formed in a substantially rectangular parallelepiped shape, and holes corresponding to the cross-sectional shape of the column 120 are formed in upper and lower surfaces thereof.
  • the camera body 1 3 0 is the case 1 3 1
  • the column 120 is supported by the column 120 with the column 120 penetrating through the hole provided in the column.
  • the camera body 130 can be moved along the length direction of the column 120, and can be positioned at an appropriate position.
  • a knob 1332 is provided on the side surface of the case 131, and by rotating this knob in an appropriate direction, the camera body 130 can be moved up and down.
  • a mechanism for moving the camera body 130 up and down and fixing it a mechanism used in a similar part of a general microscope can be applied, but the specific configuration is not limited.
  • an objective lens 13 3 Inside the case 13 1, an objective lens 13 3, an image sensor 13 4, a half mirror 13 5, a light source 13 6, and a circuit board 13 7 are housed.
  • the objective lens 133 guides the image light from the object S to be imaged.
  • the objective lens 133 can be configured by a combination of a plurality of lenses.
  • the objective lens 133 is constituted by one lens.
  • the imaging element 134 corresponds to the imaging means of the present invention, and performs imaging with the image light guided through the objective lens 133.
  • the image sensor 134 in this embodiment is constituted by CCD, and has a light receiving surface 134A for performing imaging.
  • a large number of a plurality of types of elements each of which generates a predetermined signal in response to light of a different wavelength are arranged on the light receiving surface 134A.
  • the plurality of types of devices in the image sensor 13 4 in this embodiment are not limited to these, but are not limited to devices that respond to light of red wavelength, devices that respond to light of green wavelength, and devices that respond to light of green wavelength. There are three types of devices that respond to light.
  • the objective lens 133 described above is configured to form image light from each of a plurality of imaging target surfaces having different depths from the light receiving surface 134 A on the light receiving surface 133 A.
  • the image light from each of the plurality of imaging target surfaces includes light of various wavelengths, but different wavelengths that are imaged by each of the plurality of types of elements arranged on the light receiving surface 134A. Only the image light having the same wavelength as one of them and having different wavelengths from each other is selectively formed on the light receiving surface 134A. This selective imaging is performed using the chromatic aberration of the objective lens 133, which will be described later. explain in detail.
  • the light source 136 emits illuminating light necessary for imaging with the image sensor 136.
  • the light source 1336 in this embodiment emits light including, but not limited to, light of a red wavelength, light of a green wavelength, and light of a blue wavelength.
  • the light source 136 in this embodiment is constituted by, for example, a small incandescent lamp.
  • the half mirror 135 is also used to transmit the illumination light from the light source 133 to the imaging target S via the same optical path as the image light guided from the imaging target S to the imaging element 134. It is. In other words, the illumination light emitted from the light source 1336 is reflected by the half mirror 135 and irradiated onto the imaging target S.
  • the half mirror 135 is inclined by 45 ° with respect to an optical path through which image light passes from the imaging target S to a light receiving surface 134A described later.
  • the image light from the imaging target S passes through the half mirror 135, reaches the objective lens 133, and is then guided to the imaging element 134.
  • the circuit board 1337 is generated based on a signal generated by each element when the imaging element 1334 captures the guided image light and performs imaging, and is provided on a predetermined display.
  • the control is performed to output image data capable of displaying an image to the outside.
  • the circuit board 135 is connected to the imaging element 134 and has an output terminal 135A for outputting image data.
  • the output terminal 1337A is connected to an external device by a wire through a predetermined cable or wirelessly by infrared communication or the like. Examples of the external device include a monitor M, a drive D that stores image data on a predetermined recording medium R, and the like.
  • the image data transmitted via the output terminal 1337A is displayed on a predetermined monitor M which has received the image data as described later. The same applies to the case where image data is sent to the monitor M via the recording medium R.
  • the circuit board 1337 in this embodiment is designed to perform desired processing on a signal received from the imaging element 134, although not limited thereto.
  • an image based on the processed image data is displayed on the monitor M that has received the image data via the output terminal 1337A.
  • the above processing performed by the camera 100 of this embodiment is not necessarily required, but includes a plurality of types.
  • a desired type of processing can be selected by operating the operation knob 1 38 provided on the upper surface of the case 13 1.
  • the circuit board 13 7 is not shown because it is general, but it must have at least a CPU (Central Processing Unit), ROM (Read Only Memory)> RAM (Random Access Memory), and an interface. These are connected to each other by a bus (not shown).
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • CPU is a central processing unit that controls the camera as a whole.
  • ROM stores a program necessary for performing the above-described control.
  • the CPU executes processing based on this program.
  • RAM provides a work area for executing programs.
  • the interface is connected to the output terminal 13 7 A and the operation knob 13 8, and conveys information generated by operating the operation knob 13 8 to the CPU, and the image data processed by the CPU. —Send evening to output terminal 13 7 A.
  • the imaging target S is placed at a predetermined position on the gantry 110.
  • operate knob 1 3 2 to adjust the camera body 1 3
  • the illumination light emitted from the light source 1336 is reflected by the half mirror 135 to irradiate the imaging target S.
  • This illumination light is reflected by the half mirror 135 and travels to the imaging target S.
  • the illumination light is reflected by the imaging target S and becomes image light.
  • the image light reflected by the imaging target S passes through the half mirror 135, the objective lens 133, and the light receiving surface 13 of the image sensor 13
  • the imaging object S is imaged by the imaging element 134.
  • the arrow on the optical path indicated by the dotted line in FIG. 1 indicates the traveling direction of the illumination light or the image light passing through the optical path.
  • FIG. 2 is an enlarged cross-sectional view showing a state where the imaging target S is cut along a plane parallel to the optical axis K.
  • XR, XG, and XB are the imaging target surfaces.
  • Each of the imaging target surfaces XR, XG, and XB has a different depth from the light receiving surface 134A.
  • each of the imaging target surfaces XR, XG, and XB maintains a relationship such that distances between adjacent imaging target surfaces are equal to each other. That is, in this embodiment, the distance between the imaging target surface XR and the imaging target surface XG is equal to the distance between the imaging target surface XG and the imaging target surface XB.
  • the distances between the imaging target surfaces XR, XG, and XB in this embodiment are set to be smaller than the focal depth of the objective lens 133 between adjacent imaging target surfaces.
  • the wavelength of the light reflected and imaged from each imaging target surface XR, XG, and XB depends on the wavelength of the light included in the illumination light, and originally includes light of various wavelengths. For the sake of simplicity, only the three types of light, red light LR, green light LG, and blue light LB, will be described. In this explanation, Figs. 3 to 6 are used. In each drawing of Fig. 3 to Fig. 6, the light of red wavelength is represented by LR, the light of green wavelength is represented by LG, the light of blue wavelength is represented by LB, the objective lens is represented by 133, and the half mirror 135 is not shown. I do.
  • Light of various wavelengths is reflected from the imaging target surface XR. As described above, light of three wavelengths, light LR of red wavelength, light LG of green wavelength, and light LB of blue wavelength, as described above. I will explain only about.
  • the light LR of the red wavelength reflected from the imaging target surface XR forms an image on the light receiving surface 134A of the imaging element 134.
  • light LG of green wavelength and light LB of blue wavelength form an image in front of the light receiving surface 134A. This is due to the chromatic aberration of the objective lens 133. Therefore, of the light reflected from the imaging target surface XR, the light focused on the light receiving surface 134A is only the light LR of the red wavelength.
  • the light LR of the red wavelength reflected from the imaging target surface XG forms an image beyond the light receiving surface 134A of the imaging element 134.
  • the light of the green wavelength LG forms an image on the light receiving surface 134A.
  • Light LB of blue wavelength forms an image in front of the light receiving surface 134A. This is also due to the chromatic aberration of the objective lens 133.
  • the light focused on the light receiving surface 134A is only the light LG having the green wavelength.
  • the light LR of the red wavelength and the light LG of the green wavelength reflected from the imaging surface XB form an image beyond the light receiving surface 134A of the imaging element 134.
  • the light LB having the blue wavelength forms an image on the light receiving surface 134A. This is also due to the chromatic aberration of the objective lens 133. Therefore, of the light reflected from the imaging target surface XB, the light that forms an image on the light receiving surface 134A is only the light LB having the blue wavelength.
  • the light receiving surface 134A of the image sensor 134 has a red wavelength light LR reflected from the imaging target surface XR and a green wavelength light reflected from the imaging target surface XG. Only the light LG of light and the light LB of blue wavelength reflected from the imaging target surface XB form an image.
  • the light receiving surface 134A of the image sensor 134 in this embodiment has an element that responds to light of red wavelength, an element that responds to light of green wavelength, and a light that responds to light of blue wavelength. There are three types of elements.
  • the element that responds to the light of the red wavelength emits the light LR of the red wavelength reflected from the imaging target surface XR into the green wavelength.
  • the element that responds to the light of the wavelength is the light LG of the green wavelength reflected from the imaging target surface XG, and the element that responds to the light of the blue wavelength is the light LB of the blue wavelength reflected from the imaging target surface XB.
  • the image sensor 134 is an element that responds to light of red wavelength, the surface XR to be imaged, an element that responds to light of green wavelength, the surface XG to be imaged, and that responds to light of blue wavelength.
  • the element XB captures an image of the imaging target surface XB.
  • An image signal of an image captured by the image sensor 13 is sent to the circuit board 13.
  • the circuit board 137 generates, based on the image signal, image data that can generate the same number of images generated by the same type of element as the number of element types. That is, in this embodiment, the image of the imaging target surface XR by the light of the red wavelength captured by the element that responds to the light of the red wavelength and the image of the green wavelength captured by the element that responds to the light of the green wavelength
  • Image data that allows the monitor M to display three types of images: an image of the imaging target surface XG by light and an image of the imaging target surface XB by blue light captured by the element that responds to blue wavelength light. Is generated by the circuit board 1 37.
  • This image data is sent from the circuit board 137 to the output terminal 137A.
  • the image data sent to the output terminal 13 A is sent to the external device connected to the output terminal 13 A.
  • This image data may be subjected to predetermined processing on the circuit board 1337 depending on the selection of the observer.
  • FIG. 7A is a diagram illustrating a relationship between the imaging target S and the imaging target surfaces XR, XG, and XB. The image was taken in the direction of the arrow in FIG. 7A.
  • the image displayed on the monitor M is as shown in FIG. 7B.
  • the one denoted by the symbol R is an image of the imaging target surface XR by the light of the red wavelength captured by the element that responds to the light of the red wavelength.
  • the image with the symbol G is the image of the imaging target surface XG by the light of the green wavelength captured by the element that responds to the light of the green wavelength
  • the image with the symbol B is the blue image. It is an image of the imaging target surface XB by light of a blue wavelength captured by an element that responds to light of a wavelength.
  • the displayed image is simultaneously displayed on the monitor M.
  • any one of the selected images is selected.
  • the observer can combine the above three images in the head and draw the original shape of the imaging target S in the head.
  • the observer can select an image to be displayed on the monitor M, the observer can select such an image to view an image of a desired imaging target surface XR, XG, or XB. Can be.
  • Images marked with R, images marked with G, and images marked with B should be displayed in red, green, and blue, respectively. Easy to display. However, all images marked with an R symbol, images marked with a G symbol, and images marked with a B symbol are displayed in the same hue or displayed in achromatic color It can be done. In these cases, such image data is generated by the circuit board 1337. Such a color selection may be made possible by the operation of the operation knob 1 38.
  • the image shown in FIG. 8 is obtained by combining the three images shown by R, G, and B in FIG. 7B and combining them.
  • R in FIG. 8 is the image of the imaging target S included in the image labeled with the symbol R in FIG. 7B
  • G in FIG. 8 is included in the image labeled with the symbol G in FIG. 7B
  • 8B is an image of the imaging target S included in the image denoted by B in FIG. 7B.
  • the synthesizing is executed as a simple superposition.
  • the image with the symbol R, the image with the symbol G, and the image with the symbol B should be displayed in red, green, and blue, respectively. All of these are the same hue colors It may be displayed with or may be displayed in achromatic color. That way, the image will be easier for the user to see. In these cases, such image data is generated by the circuit board 137. Such a color selection may be made possible by the operation of the operation dial 13.
  • the camera according to the second embodiment has basically the same configuration as the camera 100 according to the first embodiment shown in FIG.
  • the camera according to the second embodiment includes a gantry 110, a support 120, and a camera body 130, similarly to the camera 100 according to the first embodiment.
  • the configuration of the pedestal 110 and the support 120 included in the camera according to the second embodiment is the same as the configuration of the pedestal 110 and the support 120 provided in the camera 100 according to the first embodiment.
  • the configuration of the camera main body 130 included in the camera according to the second embodiment basically matches the configuration of the camera main body 130 included in the camera 100 according to the first embodiment.
  • the camera body 130 according to the second embodiment includes a case 131 similar to the camera body 130 according to the first embodiment.
  • the case 13 1 is provided with a knob 13 2, an objective lens 13 3, an image sensor 13 4, a half mirror 13 5, a light source 13 6, and a circuit board 13 7. This is the same as the camera 100 in the first embodiment.
  • the camera according to the second embodiment is different from the camera 100 according to the first embodiment in a circuit board 137 thereof.
  • the circuit board 1337 in the second embodiment includes an image data generated based on a signal generated by an element included in the imaging element 134 when the imaging element 134 performs imaging. It only has the function of outputting evening from the output terminal 13 A to the outside.
  • the image data output to the outside in the second embodiment is different from the image data output through the circuit board 1337 in the first embodiment, and may or may not be capable of displaying an image on a predetermined display. Good.
  • the circuit board 135 of the camera according to the second embodiment is not designed to process the image signal as described above.
  • the camera in the second embodiment is used in combination with an image processing device 200 as shown in FIG.
  • This image processing apparatus 200 is connected to a camera by wire or wirelessly. It has a function of performing predetermined image processing on an image signal received from the camera.
  • the image processing device 200 can be configured using a computer. In this embodiment, the image processing apparatus 200 is configured using a general-purpose home computer.
  • the image processing device 200 includes a CPU (Central Processing Unit) 211, a ROM (Read Only Memory) 212, a RAM (Random Access Memory) 213, and an interface 214.
  • the ROM 212, the RAM 213, and the interface 214 are connected to the CPU 211 via a bus.
  • the CPU 211 executes a predetermined process by executing a predetermined program.
  • the ROM 212 records a program for operating the CPU 211, for example, a program for executing a process of displaying an image on the monitor M described later.
  • the RAM 213 provides a work area for the CPU 211 to perform processing.
  • the interface 214 functions as a connection circuit for input and output of the CPU 211.
  • the monitor M and the output terminal 137 A of the camera are connected to the CPU 211 via the interface 214.
  • the image signal from the camera is input to the CPU 211 via the interface 214, and the image data generated by the CPU 211 is output to the monitor M via the interface 214.
  • the image processing apparatus 200 of this embodiment includes an input device 200N including a keypad, a mouse, and the like. An input from the input device 200N is also transmitted to the CPU 211 via the interface 214.
  • the image processing device 200 includes a drive D. Then, the recording medium RP is inserted into the drive D, and the program according to the present invention recorded on the recording medium RP can be read.
  • the computer has the functions required for the image processing device 200 of the present invention by installing the above-described program according to the present invention.
  • the above-described program does not necessarily need to be installed in the computer via the recording medium RP, and may be installed in the computer through a process of distribution via a network.
  • This program can be used alone by a computer and the image processing apparatus 200 of the present invention. It may be one that can perform the same function as above, and must be installed in the computer in advance!
  • the function as the image processing device 200 of the present invention may be achieved by cooperation with a running OS (Operating System) or other programs.
  • FIG. 11 shows such functional blocks.
  • An input / output unit 231 and a control unit 232 are generated inside the image processing apparatus 200.
  • the input / output unit 231 receives information input from the input device 200N, image data input from the recording medium RP, or an image signal input from the camera, and receives data from the control unit 232. It has a function to output the image data to the recording medium RP and monitor M.
  • the control unit 232 controls the entire image processing apparatus 200.
  • the control section 232 includes a main control section 232a and an image processing section 232b.
  • the main control section 232 a controls the image processing section 232 b and the input / output section 231.
  • the image processing unit 232b performs image processing on an image signal input from the camera via the input / output unit 231. Such processing is performed in accordance with an instruction from the input device 20 ON received via the input / output unit 23 1.
  • the object S to be imaged is placed at a predetermined position on the gantry 110, and then the knob 1332 is operated to move the camera body 130 in FIG. Move the camera up and down, and fix the camera body 130 at an appropriate position where the object to be imaged S is in focus.
  • Illumination light emitted from the light source 1336 is reflected by the half mirror 135, irradiated to the imaging target S, and reflected by the imaging target S.
  • This light passes through the half mirror 135 and the objective lens 133 to form an image on the light receiving surface 134A of the image sensor 134.
  • the imaging object S is imaged by the imaging element 134.
  • the element that responds to the light of the red wavelength emits the red wavelength reflected from the imaging surface XR.
  • the element that responds to the light LR of the green wavelength is reflected from the surface XG to be imaged, and the element that responds to the light of the blue wavelength LG reflected from the surface XG is reflected from the surface XB to be imaged.
  • Each of the blue light LBs that have been captured is imaged.
  • this image signal captured by the image sensor 13 4 is supplied to the image processing device 200 via the output terminal 13 A under the control of the circuit board 13 7. (S301).
  • This image signal is sent to the control unit 232 via the input / output unit 231.
  • the image processing unit 232b Upon receiving the image signal, the image processing unit 232b performs predetermined image processing under the control performed by the main control unit 232a according to the input content from the input device 200N, and The image data generated based on the signal is generated (S302).
  • the main controller 2 32 a sends this image data to the input / output unit 2 31.
  • the input / output unit 231 outputs this image data to the drive 0 monitor M in response to an instruction issued by the main control unit 232 a according to the input content from the input device 200 ON ( S 3 0 3
  • the image based on the image data is displayed on the monitor M.
  • the image data is output to the drive D, the image data is recorded on the recording medium RP inserted therein.
  • This image data is read out by the drive D and sent to the monitor M via the input / output unit 231 to send the image data to the monitor M from the output terminal 1337A to the monitor M.
  • the same image as when directly output can be displayed.
  • the images that can be displayed on the monitor M using the camera of the second embodiment are various, as are the images that can be displayed using the camera 100 of the first embodiment.
  • the image processing section 232b can generate image data for displaying such a wide variety of images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Microscoopes, Condenser (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

 動きのある撮像対象物を動画で撮像することが可能であり、深い焦点深度を持つことで厚みのある物の撮像を行え、且つ生細胞・組織、水中の組織などの撮像を行えるカメラを提供する。 カメラには、撮像素子134と、撮像素子134と撮像対象物との間に位置する対物レンズ133がある。撮像素子134の受光面134Aには、赤の波長、緑の波長、青の波長にそれぞれ反応する素子がある。このカメラでは、対物レンズ133の色収差により、赤の波長の光に反応する素子が、撮像対象面XRからの赤の波長の光LRを、緑の波長の光に反応する素子が、撮像対象面XGからの緑の波長の光LGを、青の波長の光に反応する素子が、撮像対象面XBからの青の波長の光LBを、それぞれ撮像する。それぞれの素子が撮像した画像は、個別に画像化され、モニタに表示される。

Description

明 細 書 カメラ、 画像処理装置、 画像データ処理方法、 及びプログラム 技術分野
本発明は'、 例えば C C D (charge coupled device) その他の光電効果を利用の 撮像手段を備えた力メラ、 特には顕微鏡のような高倍率の撮像に適した力メラに 適用可能な技術に関する。 ' 発明の背景
高倍率のカメラには、 様々なタイプのものがある。 顕微鏡を例にとれば、 大ま かに言って、 3つのタイプがある。 光学顕微鏡、 電子顕微鏡、 及びレーザ顕微鏡 である。
光学顕微鏡は、 動きのある物、 例えば、 生細胞 ·組織などをリアルタイムの動 画として撮像できるという利点がある。
しかしながら、 光学顕微鏡は、 焦点深度が浅い。 それ故、 光学顕微鏡では、 観 察対象となる物、 例えば組織を、 撮像に先立って非常に薄い切片にする必要があ り、 使用に先立っての手間が大きい。 また、 このような手間をかけたとしても、 厚みのある物の撮像を行うことは結局できず、 立体としての情報を得るのが難し い。
電子顕微鏡は、 非常に分解能が高いという利点を有している。
しかしながら、 電子顕微鏡は、 生細胞'組織、 水中の組織などを観察できない という制約があり、 その応用可能範囲が狭い。
レーザ顕微鏡は、 焦点深度が深く、 厚みのある物の撮像を行うことができると いう利点がある。 .
しかしながら、 レーザ顕微鏡では、 撮像の対象となる物のレーザによる走査が 必要であるため、 動きのあるものを動画で撮像することができない。
つまり、 これら光学顕微鏡、 電子顕微鏡、 及びレーザ顕微鏡には一長一短があ り、 用途に応じた使い分けが必要になっている。 本発明は、 このような各カメラの持つ不具合を解消したカメラ、 即ち、 動きの ある撮像対象物を動画で撮像することが可能であり、 深い焦点深度を持つことで 厚みのある物の撮像を行え、 且つ生細胞'組織、 水中の組織などの撮像を行える ようなカメラを提供することをその課題とする。 発明の開示
本願発明者は、 以下の発明を提案する。
本願発明者は、 まず、 以下のカメラを提案する。
本発明のカメラは、 像光が導かれる対物レンズと、 該対物レンズを通過して導 かれた像光による撮像を行うものであり、 異なる波長の光に反応して所定の信号 を生成する複数種類の素子がそれぞれ多数配列された受光面を備えている撮像手 段と、 を備えているカメラをその基本とする。
そして、 このカメラの対物レンズは、 前記受光面からの深さを異にする複数の 撮像対象面のそれぞれから、 その波長が前記異なる波長のうちの一つと同じであ り、 且つ互いにその波長が異なる像光を、 色収差を利用して前記受光面に結像さ せるようなものとされている。
このカメラは、 以下のような利点を持つ。
まず、 このカメラは、 上述した 3つのタイプの顕微鏡で言えば、 光学顕微鏡に 近い撮像原理を採用している。 したがって、 電子顕微鏡とは異なり、 生細胞'組 織、 水中の組織などの観察が可能であり、 レーザ顕微鏡とは異なり、 動きのある ものの動画での撮像を行える。
このカメラは、 また、 異なる波長の光に反応して所定の信号を生成する複数種 類の素子力 Sそれぞれ多数配列された受光面を備えている撮像手段中の上記複数種 類の素子に、 深さの異なる仮想的な撮像対象面のそれぞれから、 異なる波長の像 光を撮像させ、 それぞれの種類の素子に異なる深さの撮像対象面の撮像を行わせ るようになっている。 つまり、 このカメラは、 通常であればなくそうとされる色 収差を逆に利用することで、 深い焦点深度を実現しているのである。 このような 構成により焦点深度が大きくされた本発明の力メラは、 光学顕微鏡に近いもので ありながらも、 従来の光学顕微鏡とは異なり、 深い焦点深度を実現できるもので あり、 それゆえ厚みのある物の撮像が可能なものとなる。
尚、 このカメラは、 動画の撮像を行えるのがその利点の一つではあるが、 静止 画の撮像にも応用することができる。 つまり、 このカメラは、 動画、 静止画の一 方、 或いは双方を撮像するものとすることができる。
本発明のカメラは、 画像処理手段を備えた以下のようなものとすることができ る。
この場合のカメラは、 像光が導かれる対物レンズと、 該対物レンズを通過して 導かれた像光による撮像を行うものであり、 異なる波長の光に反応して所定の信 号を生成する複数種類の素子をそれぞれ多数配列させた受光面を備えている撮像 手段と、 受け付けた前記信号に基づいて、 所定のディスプレイに前記撮像手段で 撮像された画像を表示するための画像データを生成して、 これを外部へ出力する 画像処理手段と、 を備えているカメラをその基本とする。
そして、 このカメラの対物レンズは、 前記受光面からの深さを異にする複数の 撮像対象面のそれぞれから、 その波長が前記異なる波長のうちの一つと同じであ り、 且つ互いにその波長が異なる像光を、 色収差を利用して前記受光面に結像さ せるようなものとされている。
このカメラの画像処理手段は、 例えば、 前記複数種類の素子が生成した前記信 号に基づいて、 同一種類の前記素子により生成されたものによる複数の画像を前 記素子の種類と同数だけ生成できるような画像データを生成するように構成され る。
このカメラは、 上述したとおりの画像データを生成する画像処理手段を備えて いるので、 このカメラと所定のディスプレイを接続しさえすれば、 そのディスプ レイに、 同一種類の素子により生成されたものによる複数の画像を素子の種類と 同数だけ表示することが可能になるので便利である。
このカメラは、 使用時に、 所定のディスプレイに接続されるようになっていて も良いし、 そうでなくても良い。 上記画像処理手段は、 生成した上記画像データ を、 直接的に所定のディスプレイに出力するようになっていても、 或いは、 この カメラの内外にある所定の記録媒体に一旦出力し、 それに記録するようになって いても良い。 後者の場合、 記録媒体に記録された画像デ一夕に基づいて、 画像処 理手段から直接出力された場合と同様の画像が、 所定のディスプレイに表示でき る。
上述したとおり、 画像処理手段は、 撮像手段から受け付けた前記信号に基づい て、 所定のディスプレイに前記撮像手段で撮像された画像を表示するための画像 データを生成して、 これを外部へ出力するものであり、また前記信号に基づいて、 同一種類の前記素子により生成されたものによる複数の画像を前記素子の種類と 同数だけ生成できるような画像データを生成するものであれば、 その具体的な構 成は不問である。
画像処理手段が生成した画像データに基づいて最終的にディスプレイに表示さ れる画像は、 上記複数の画像がそれぞれ別個のものとされた複数の画像でも良い し、 上記複数の画像を合成するなどして得られた一の画像でも良い。
前者の場合における画像処理手段は、 同一種類の前記素子により生成されたも のによる前記複数の画像を、 別個の画像として、 所定のディスプレイに表示でき るようなものとして前記画像データを生成するように構成することができる。 こ れによれば、 深さの異なる撮像対象物の画像を、 ディスプレイに個別的に表示で きるようになる。 この場合の画像処理手段は、 同一種類の前記素子により生成さ れたものによる前記複数の画像のすべてを、 所定のディスプレイに同時に表示で きるようなものとして前記画像データを生成するように構成されていてもよいし、 同一種類の前記素子により生成されたものによる前記複数の画像のいずれかを、 所定のディスプレイに択一的に表示できるようなものとして前記画像データを生 成するように構成されていてもよい。 この場合、 その画像を見た者は、 頭の中で 3次元のィメージを生成することになる。
後者の場合における画像処理手段は、 例えば、 同一種類の前記素子により生成 されたものによる前記複数の画像に基づいて生成された一の画像を、 所定のディ スプレイに表示できるようなものとして前記画像デ一夕を生成するように構成さ れる。 この場合、 所定のディスプレイに表示される画像は、 3次元的な厚みを表 現した物となる。
本発明のカメラは、 以下のようなものにすることもできる。
この場合のカメラは、 像光が導かれる対物レンズと、 該対物レンズを通過して 導かれた像光による撮像を行うものであり、 異なる波長の光に反応して所定の信 号を生成する複数種類の素子をそれぞれ多数配列させた受光面を備えている撮像 手段と、 受け付けた前記信号に基づいて、 所定のディスプレイに前記撮像手段で 撮像された画像を表示するための画像データを生成して、 これを外部へ出力する 画像処理手段と、 を備えているカメラをその基本とする。
このカメラの対物レンズは、 撮像が予定されたものであり、 前記対物レンズか ら異なる深さとされた複数の撮像対象面のそれぞれから、 前記異なる波長のうち の一つの波長を持つものであり、 互いに異なる波長を持つ像光を、 色収差を利用 して前記受光面に結像させるようにされている。
このカメラの画像処理手段は、 同一色相の色のみからなる画像を、 或いは、 無 彩色の色のみからなる画像を、 所定のディスプレイに表示できるようなものとし て、 前記複数種類の素子が生成した前記信号に基づいて、 前記画像データを生成 するように構成されている。 この場合、所定のディスプレイに表示される画像は、 3次元的な厚みを表現した物となる。
本願発明者は、 また、 以下の画像処理装置を提案する。
この画像処理装置は、 像光が導かれる対物レンズと、 該対物レンズを通過して 導かれた像光による撮像を行うものであり、 異なる波長の光に反応して所定の信 号を生成する複数種類の素子がそれぞれ多数配列された受光面を備えている撮像 手段と、 受け付けた前記信号を外部へ出力する出力手段と、 を備えており、 前記 対物レンズが、 前記受光面からの深さを異にする複数の撮像対象面のそれぞれか ら、 その波長が前記異なる波長のうちの一つと同じであり、 且つ互いにその波長 が異なる像光を、 色収差を利用して前記受光面に結像させるようなものとされて なるカメラ、 と組み合わせて用いられるものである。 そして、 所定のディスプレ ィに、 上記カメラの出力手段から受け付けた前記信号に基づく画像を表示するた めの制御を行うように構成されている。
この画像処理装置は、 具体的には、 前記信号を受け付ける手段と、 受け付けた 前記信号に基づいて、 同一種類の前記素子により生成されたものによる複数の画 像を前記素子の種類と同数だけ前記ディスプレイに表示できるような画像データ を生成する処理手段と、 生成された前記画像データを前記ディスプレイに出力す る手段と、 を備えて構成されている。
この画像処理装置は、 本件発明におけるカメラが備えることのある上記画像処 理手段と同等の機能を有するものであり、 これを、 カメラから独立させたものに 相当する。
尚、 この画像処理装置は、 カメラが生成した上記画像データを、 カメラから直 接受け入れても、 所定の記録媒体を介して受け付けるようになつていても良い。 この画像処理装置における処理手段は、 同一種類の前記素子により生成された ものによる前記複数の画像を、 別個の画像として、 前記ディスプレイに表示でき るようなものとして前記画像データを生成するようにされていてもよい。 この場 合の処理手段は、 同一種類の前記素子により生成されたものによる前記複数の画 像のすべてを、 前記ディスプレイに同時に表示できるようなものとして前記画像 データを生成するように構成されていてもよいし、 同一種類の前記素子により生 成されたものによる前記複数の画像のいずれかを、 前記ディスプレイに、 択一的 に表示できるように構成されていてもよい。
この画像処理装置における処理手段は、 また、 同一種類の前記素子により生成 されたものによる前記複数の画像に基づいて生成された一の画像を、 所定のディ スプレイに表示できるようなものとして前記画像データを生成するように構成さ れていてもよい。 この場合の処理手段は、 例えば、 同一色相の色のみからなる画 像を、 或いは、 無彩色の色のみからなる画像を、 前記ディスプレイに表示できる ようなものとして、 前記複数種類の素子が生成した前記信号に基づいて、 前記画 像データを生成するように構成されている。
前記処理手段は、 同一種類の前記素子により生成されたものによる前記複数の 画像を重ねて生成される画像を、 前記ディスプレイに表示できるように構成され ていてもよい。 また、 前記処理手段は、 同一種類の前記素子により生成された前 記複数の画像をモノクロにしてから、 重ね合わせることによって生成できる画像 を、 前記ディスプレイに表示できるように構成されていてもよい。
上述の如き画像処理装置の奏する作用効果は、 以下の如き方法を、 所定のコン ピュー夕に実行させることによつても得ることができる。
その方法は、 例えば、 像光が導かれる対物レンズと、 該対物レンズを通過して 導かれた像光による撮像を行うものであり、 異なる波長の光に反応して所定の信 号を生成する複数種類の素子がそれぞれ多数配列された受光面を備えている撮像 手段と、 受け付けた前記信号を外部へ出力する出力手段と、 を備えており、 前記 対物レンズは、 前記受光面からの深さを異にする複数の撮像対象面のそれぞれか ら、 その波長が前記異なる波長のうちの一つと同じであり、 且つ互いにその波長 が異なる像光を、 色収差を利用して前記受光面に結像させるようなものとされて なるカメラ、 と組み合わせて用いられるものであり、 所定のディスプレイに、 前 記出力手段から受け付けた前記信号に基づく画像を表示するための制御を行うよ うに構成されており、 且つコンピュータを有してなる画像処理装置にて実行され る方法である。
この方法は、 前記コンピュータが、 前記信号を受け付ける過程、 受け付けた前 記信号に基づいて、 同一種類の前記素子により生成されたものによる複数の画像 を前記素子の種類と同数だけ前記ディスプレイに表示できるような画像デー夕を 生成する過程、 生成された前記画像データを前記ディスプレイに出力する過程、 を含んでいる、 画像データ処理方法である。
上述の如き画像処理装置の奏する作用効果は、 以下の如きプログラムを用いる ことによつても得ることができる。
このプログラムは、 例えば、 像光が導かれる対物レンズと、 該対物レンズを通 過して導かれた像光による撮像を行うものであり、 異なる波長の光に反応して所 定の信号を生成する複数種類の素子がそれぞれ多数配列された受光面を備えてい る撮像手段と、受け付けた前記信号を外部へ出力する出力手段と、を備えており、 前記対物レンズは、 前記受光面からの深さを異にする複数の撮像対象面のそれぞ れから、 その波長が前記異なる波長のうちの一つと同じであり、 且つ互いにその 波長が異なる像光を、 色収差を利用して前記受光面に結像させるようなものとさ れてなるカメラ、と組み合わせて用いられるものであり、所定のディスプレイに、 前記出力手段から受け付けた前記信号に基づく画像を表示するための制御を行う ように構成されており、 且つコンピュータを有してなる画像処理装置の前記コン ピュー夕に、 以下の処理を実行させるためのコンピュータ読取り可能なプログラ ムである。 このプログラムによりコンピュータが実行する処理は、 例えば、 前記信号を受 け付ける処理、 受け付けた前記信号に基づいて、 同一種類の前記素子により生成 されたものによる複数の画像を前記素子の種類と同数だけ前記ディスプレイに表 示できるような画像データを生成する処理、 生成された前記画像データを前記デ イスプレイに出力する処理、 を少なくとも含む。
本発明における前記複数の撮像対象面は、 隣接する撮像対象面との距離が略同 一となつていてもよい。 撮像対象面がこのようになっていれば、 複数種類の素子 によって得られる複数の画像は、 略等距離で深さが異なる画像となるため、 最終 的な画像を見た者が撮像対象物の厚みを把握しやすくなる。
本発明における前記複数の撮像対象面は、 隣接する撮像対象面との距離が、 前 記対物レンズの焦点深度以下とされてなる。 これにより、 複数種類の素子によつ て得られる複数種類の画像はすべて、 ピントの合った画像となる。
複数種類の素子は、 赤の波長の光に反応する素子と、 緑の波長の光に反応する 素子と、 青の波長の光に反応する素子の 3種類の素子であり、 前記複数の撮像対 象面は、 そこからの赤の波長の光、 そこからの緑の波長の光、 そこからの青の波 長の光がそれぞれ、 前記対物レンズを経て前記受光面に結像するような、 3種類 の撮像対象面とされてなる。 これは、 例えば、 一般的な C C Dを用いることによ り実現可能である。 図面の簡単な説明
図 1は、本発明の第 1実施形態によるカメラの一部透視図を含む側面図である。 図 2は、 図 1で示したカメラで撮像する撮像対象物を拡大して示した断面図で ある。
図 3は、 図 1で示したカメラにおける赤色の波長の光の動きを示す図である。 図 4は、 図 1で示したカメラにおける緑色の波長の光の動きを示す図である。 図 5は、 図 1で示したカメラにおける青色の波長の光の動きを示す図である。 図 6は、 図 1で示したカメラで撮像される光の動きを示す図である。
図 7 Aは、図 1で示したカメラで撮像された撮像対象物の一例を示す図である。 図 7 Bは、 図 1で示したカメラで撮像された画像の一例を示す図である。 図 8は、 図 1で示したカメラで撮像された画像の一例を示す図である。
図 9は、 第 2実施形態によるカメラと組み合わせて用いられる画像処理装置を 示す図である。
図 1 0は、 図 9で示した画像処理装置内のハードウェア構成を示す図である。 図 1 1は、 図 9で示した画像処理装置の内部に生成される機能ブロックを示す ブロック図である。
図 1 2は、 図 9で示した画像処理装置で実行される処理の流れを示す流れ図で ある。 発明を実施するための最良の形態
以下、 図面に基づいて、 本発明の好ましい第 1ないし第 2実施形態につき説明 を行う。 尚、 各実施形態の説明で共通する部分には共通する符号を用いることと し、 重複する説明は省略することとする。
<第 1実施形態》
この実施形態によるカメラ 1 0 0は、 図 1の側面図 (一部透視図を含む) に示 した如く構成されている。
この実施形態におけるカメラ 1 0 0は、 架台 1 1 0、 支柱 1 2 0、 及びカメラ 本体 1 3 0を含んで構成されている。
架台 1 1 0は、 その所定位置に撮像対象物 Sを載置するものである。 架台 1 1 0は、 ある程度の重量を持たせることで、 カメラ 1 0 0全体を安定させられるよ うになつており、 カメラ 1 0 0で安定した撮像を行えるように構成されている。 支柱 1 2 0は、 架台 1 1 0の上面から鉛直方向に設けられている。 支柱 1 2 0 は、 カメラ本体 1 3 0を架台 1 1 0上面からの距離を可変として支持するもので ある。 支柱 1 2 0は、 例えば、 金属製であり、 この実施形態では、 断面矩形の棒 状体とされている。
カメラ本体 1 3 0は、 ケース 1 3 1を備えており、 その内外に種々の部品を取 付けて構成されている。
ケース 1 3 1は、 略直方体形状に構成されており、 その上下面に支柱 1 2 0の 断面形状に対応させた孔が穿設されている。 カメラ本体 1 3 0は、 ケ一ス 1 3 1 に設けられたこの孔に、 支柱 1 2 0を貫通させた状態で、 支柱 1 2 0に支持され ている。
カメラ本体 1 3 0は、 支柱 1 2 0の長さ方向に沿って移動できるようになって おり、適宜な位置で位置決めできるようになつている。ケース 1 3 1の側面には、 摘み 1 3 2が設けられており、 これを適宜な方向に回転させることにより、 カメ ラ本体 1 3 0の上下動が行えるようになつている。 尚、 カメラ本体 1 3 0の上下 動、 固定のための機構は、 一般的な顕微鏡の同様の部分に用いられている機構を 応用できるが、 その具体的な構成は問わない。
ケース 1 3 1の内部には、 対物レンズ 1 3 3、 撮像素子 1 3 4、 ハーフミラ一 1 3 5、 光源 1 3 6、 回路基板 1 3 7が収納されている。
対物レンズ 1 3 3は、 撮像対象物 Sからの像光が導かれるものである。 対物レ ンズ 1 3 3は、 複数のレンズの組み合わせにより構成することができる。 本実施 形態のカメラ 1 0 0では、 1つのレンズにより対物レンズ 1 3 3を構成すること としている。
撮像素子 1 3 4は、 本願発明における撮像手段に相当するものであり、 対物レ ンズ 1 3 3を通過して導かれた像光による撮像を行うものである。 この実施形態 における撮像素子 1 3 4は、 C C Dにより構成されており、 撮像を行う受光面 1 3 4 Aを備えている。 この受光面 1 3 4 Aには、 異なる波長の光に反応して所定 の信号を生成する複数種類の素子がそれぞれ多数配列されている。 この実施形態 における撮像素子 1 3 4における複数種類の素子は、 これには限られないが、 赤 の波長の光に反応する素子と、 緑の波長の光に反応する素子と、 青の波長の光に 反応する素子の 3種類とされている。
上述した対物レンズ 1 3 3は、 受光面 1 3 4 Aからの深さを異にする複数の撮 像対象面のそれぞれからの像光を受光面 1 3 4 Aに結像させるようになつている。 ここで、 複数の撮像対象面のそれぞれからの像光は、 様々な波長の光を含んでい るが、 受光面 1 3 4 Aに配された複数種類の素子のそれぞれが撮像する異なる波 長のうちの一つとその波長が同じであり、 且つ互いにその波長が異なる像光のみ が、選択的に受光面 1 3 4 Aに結像されるようになっている。 この選択的結像は、 対物レンズ 1 3 3の色収差を利用して行われるのであるが、 これについては後で 詳しく説明する。
光源 1 3 6は、 撮像素子 1 3 4で撮像を行うに当たって必要な照明光を発する ものである。 この実施形態における光源 1 3 6は、 これには限られないが、 赤の 波長の光、 緑の波長の光、 青の波長の光を少なくとも含む光を発するものとなつ ている。 この実施形態における光源 1 3 6は、 例えば、 小型の白熱灯により構成 されている。
ハーフミラー 1 3 5は、 光源 1 3 6からの照明光を、 撮像対象物 Sから撮像素 子 1 3 4へ導かれる像光の光路と同一の光路を経て撮像対象物 Sへ送るためのも のである。 つまり、 光源 1 3 6から出た照明光は、 ハーフミラ一 1 3 5で反射し て撮像対象物 Sへ照射されるようになっている。 なお、 ハーフミラ一 1 3 5は、 撮像対象物 Sから後述する受光面 1 3 4 Aに向かう像光が通る光路に対して 4 5 ° 傾いている。
尚、 撮像対象物 Sからの像光は、 ハーフミラ一 1 3 5を透過して対物レンズ 1 3 3へ至り、 次いで撮像素子 1 3 4へ導かれるようになつている。
回路基板 1 3 7は、 撮像素子 1 3 4が、 導かれた像光を捉えて撮像を行うこと によって、 各素子によって生成された信号に基づいて生成されるものであり、 所 定のディスプレイに画像を表示させることのできる画像データを外部へ出力する ための制御を行うものである。 これを可能とするために、 回路基板 1 3 7は、 撮 像素子 1 3 4と接続されているとともに、 画像データ出力用の出力端子 1 3 7 A を備えている。 出力端子 1 3 7 Aは、 所定のケーブルを介しての有線で、 或いは 赤外線通信などによる無線で、 外部機器に接続される。 外部機器としては、 例え ば、 モニタ M、 所定の記録媒体 Rに画像データの保存を行うドライブ Dなどがあ る。 出力端子 1 3 7 Aを介して送られた画像データは、 それを受け取った所定の モニタ Mに、 後述するような画像を表示させる。 それは、 記録媒体 Rを介して、 画像データがモニタ Mに送られた場合も同様である。
この実施形態における回路基板 1 3 7は、 また、 これには限られないが、 撮像 素子 1 3 4から受け付けた信号に対して所望の加工を行うことができるようなも のとされている。 この場合には、 出力端子 1 3 7 Aを経て画像データを受け付け たモニタ Mには、 加工後の画像データに基づく画像が表示される。 この実施形態のカメラ 1 0 0で行われる上記加工は、 必ずしもそうする必要は ないが、 複数種類とされている。 このカメラ 1 0 0は、 ケース 1 3 1の上面に備 えた操作摘み 1 3 8の操作を行うことにより、 所望の加工の種類を選択できるよ うになつている。
回路基板 1 3 7は、 一般的なので図示を省略するが、 C P U ( Central Process ing Uni t) , R OM (Read Only Memory) > RAM (Random Access Memory; , インタフェイスを少なくとも備えたものとすることができる。 これらは、 図示せ ぬバスにより、 互いに接続されている。
C P Uは中央処理装置であり、 このカメラの統括的な制御を行うものである。 R OMは、 上述の制御を行うに必要なプログラムを記録している。 C P Uは、 こ のプログラムに基づいた処理の実行を行うようになっている。 RAMは、 プログ ラムを実行するための作業領域を提供するものである。 インタフェイスは、 出力 端子 1 3 7 A、 及び操作摘み 1 3 8と接続され、 操作摘み 1 3 8が操作されたこ とにより生成された情報を C P Uに伝え、 また、 C P Uにより処理された画像デ —夕を出力端子 1 3 7 Aへと送る。
C P Uが、 上述のプログラムを実行することにより、 上述した画像データの加 ェゃ、 画像データの外部出力についての制御などが実行されることになる。
このカメラ 1 0 0の使用方法を以下、 説明する。
このカメラ 1 0 0で撮像を行うに当たっては、 まず、 撮像対象物 Sを架台 1 1 0上の所定の位置に載置する。 次いで、 摘み 1 3 2を操作して、 カメラ本体 1 3
0を図 1の上下方向に移動させ、 撮像対象物 Sにピントが合う適切な位置でカメ ラ本体 1 3 0を固定する。
このとき、光源 1 3 6から出た照明光はハーフミラ一 1 3 5により反射されて、 撮像対象物 Sへ照射されている。
この照明光は、 ハーフミラ一 1 3 5で反射され、 撮像対象物 Sに向かう。 照明 光は、 撮像対象物 Sで反射され像光となる。 撮像対象物 Sで反射された像光は、 ハーフミラ一1 3 5、 対物レンズ 1 3 3を通過して撮像素子 1 3 4の受光面 1 3
4 Aに結像する。 これにより、 撮像素子 1 3 4による撮像対象物 Sの撮像が行わ れる。 なお、 図 1の点線で示された光路上に付した矢印は、 その光路を通る照明光な いし像光の進行方向を示している。
このカメラ 100で行われる撮像の仕組みを、 図 2〜図 6を用いて詳述する。 図 2は、 撮像対象物 Sを光軸 Kに平行な面に沿って切断したところを示す拡大 切断図である。
図中 XR、 XG、 XBで示したのが撮像対象面である。 各撮像対象面 XR、 X G、 XBは、 受光面 134 Aからの深さを異にする。 この実施形態では、 また、 各撮像対象面 XR、 XG、 XBは、 隣り合う撮像対象面との間の距離が、 互いに 等しくなるような関係を保っている。 つまり、 この実施形態では、 撮像対象面 X Rと撮像対象面 XGとの間の距離は、 撮像対象面 XGと撮像対象面 XBとの間の 距離に等しくなるようになつている。 また、 この実施形態における撮像対象面 X R、 XG、 XBは、 隣接する撮像対象面との間の距離が、 対物レンズ 133の焦 点深度以下とされている。
各撮像対象面 XR、 XG、 XBからの光がどのように振舞うかについて説明す る。 各撮像対象面 XR、 XG、 XBから反射して撮像される光の波長は、 照明光 に含まれる光の波長次第であり、 本来であれば様々な波長の光が含まれるのであ るが、 ここでは説明の簡単のため、 赤の波長の光 LR、 緑の波長の光 LG、 青の 波長の光 L Bの 3種類の光の振る舞いのみの説明を行うこととする。 この説明に は、 図 3〜図 6を用いる。 図 3〜図 6の各図面では、 赤の波長の光を LR、 緑の 波長の光を LG、 青の波長の光を LBで表わし、 対物レンズを 133で表わし、 ハーフミラ一 135の図示を省略する。
まず、 撮像対象面 XRから反射する光の振る舞いを、 図 3を用いて説明する。 撮像対象面 XRからは、 様々な波長の光が反射するが、 上述したように、 赤の 波長の光 LR、 緑の波長の光 LG、 及び青の波長の光 LBの 3種類の波長の光に ついてのみ説明を行う。
撮像対象面 XRから反射した赤の波長の光 LRは、 撮像素子 134の受光面 1 34 Aに結像する。 他方、 緑の波長の光 LG、 及び青の波長の光 LBは、 受光面 134 Aの手前で結像する。 これは、 対物レンズ 133の色収差によるものであ る。 したがって、 撮像対象面 XRから反射した光のうち、 受光面 134Aに結像す る光は、 赤の波長の光 LRのみとなる。
次に、 撮像対象面 XGから反射する光の振る舞いを、 図 4を用いて説明する。 撮像対象面 XGから反射した赤の波長の光 LRは、 撮像素子 134の受光面 1 34Aを超えて結像する。 緑の波長の光 LGは、 受光面 134Aに結像する。 ま た、 青の波長の光 LBは、 受光面 134 Aの手前で結像する。 これも対物レンズ 133の色収差によるものである。
したがって、 撮像対象面 XGから反射した光のうち、 受光面 134 Aに結像す る光は、 緑の波長の光 LGのみとなる。
次に、 撮像対象面 XBから反射する光の振る舞いを、 図 5を用いて説明する。 撮像対象面 XBから反射した赤の波長の光 LR、 及び緑の波長の光 LGは、 撮 像素子 134の受光面 134 Aを超えて結像する。 また、 青の波長の光 LBは、 受光面 134 Aに結像する。これも対物レンズ 133の色収差によるものである。 したがって、 撮像対象面 XBから反射した光のうち、 受光面 134Aに結像す る光は、 青の波長の光 LBのみとなる。
その結果、 撮像素子 134の受光面 134 Aには、 図 6に示したように、 撮像 対象面 XRから反射してきた赤の波長の光 LRと、 撮像対象面 XGから反射して きた緑の波長の光 L Gと、 撮像対象面 XBから反射してきた青の波長の光 L Bの みが結像することとなる。
上述したように、この実施形態における撮像素子 134の受光面 134 Aには、 赤の波長の光に反応する素子と、 緑の波長の光に反応する素子と、 青の波長の光 に反応する素子の 3種類の素子がある。
したがって、上述の如き撮像対象物 Sからの光を撮像素子 134で撮像すると、 赤の波長の光に反応する素子は、 撮像対象面 XRから反射してきた赤の波長の光 LRを、 緑の波長の光に反応する素子は、 撮像対象面 XGから反射してきた緑の 波長の光 LGを、 青の波長の光に反応する素子は、 撮像対象面 XBから反射して きた青の波長の光 LBを、 それぞれ撮像することになる。
つまり、撮像素子 134は、赤の波長の光に反応する素子で撮像対象面 XRを、 緑の波長の光に反応する素子で撮像対象面 XGを、 そして青の波長の光に反応す る素子で、 撮像対象面 XBをそれぞれ撮像することになる。
撮像素子 1 3 4で撮像された画像についての画像信号は、 回路基板 1 3 7へと 送られる。 回路基板 1 3 7は、 その画像信号に基づいて、 同一種類の素子により 生成された画像を、 素子の種類と同数だけ生成できるような画像データを生成す る。 つまり、 この実施形態では、 赤の波長の光に反応する素子が撮像した赤の波 長の光による撮像対象面 XRの画像と、 緑の波長の光に反応する素子が撮像した 緑の波長の光による撮像対象面 X Gの画像と、 青の波長の光に反応する素子が撮 像した青の波長の光による撮像対象面 X Bの画像という 3種類の画像をモニタ M に表示できるような画像データを回路基板 1 3 7が生成することになる。
この画像データは、 回路基板 1 3 7から出力端子 1 3 7 Aへ送られる。 出力端 子 1 3 7 Aへ送られた画像デ一夕は、 出力端子 1 3 7 Aへ接続された外部機器へ と送られる。 この画像データは、 観察者の選択に応じて、 回路基板 1 3 7にて所 定の加工をされる場合がある。
例えば、 モニタ Mが接続されているのであれば、 この画像データに基づく画像 が、 モニタ Mに表示されることになる。
また、 ドライブ Dが接続されているのであれば、 それに嵌挿された記録媒体 R に画像データが記録されることになる。 この画像データは、 何らかの手段をもち いて、 記録媒体 Rから読み出し、 所定のモニタに送ることで、 出力端子 1 3 7 A からそのモニタに画像データを直接出力した場合と同様の画像を表示させる。 モニタ Mに表示される画像の一例を、 図 7 A、 図 7 Bを用いて説明する。 図 7 Aは、 撮像対象物 Sと、 撮像対象面 X R、 X G、 X Bの関係を示す図である。 撮 像は、 図 7 A中の矢印の向きで行ったものとする。
この場合、 モニタ Mに表示される画像は、 図 7 Bに示したようなものとなる。 図 7 B中の Rの符号が付されたものは、 赤の波長の光に反応する素子が撮像した 赤の波長の光による撮像対象面 X Rの画像である。 Gの符号が付されたものは、 緑の波長の光に反応する素子が撮像した緑の波長の光による撮像対象面 X Gの画 像であり、 Bの符号が付されたものは、 青の波長の光に反応する素子が撮像した 青の波長の光による撮像対象面 X Bの画像である。
尚、 上述の Rの符号が付された画像、 Gの符号が付された画像、 Bの符号が付 された画像は、 この実施形態では、 同時にモニタ Mに表示されるようになってい るが、 例えばカメラ本体 1 3 0に設けられた操作摘み 1 3 8の操作により、 この 中のいずれかを選択してモニタ Mに表示できるようにすることもできるし、 その 中の 2つをモニタ Mに表示できるようにすることもできる。この実施形態の場合、 観察者は、 上述の 3つの画像を頭の中で組み合わせて、 元の撮像対象物 Sの形状 を頭の中に描くことができる。 また、 観察者は、 モニタ Mに表示する画像を選択 できるようになつている場合には、 そのような選択を行うことにより、 所望の撮 像対象面 X R、 X G、 X Bについての画像を見ることができる。
また、 Rの符号が付された画像、 Gの符号が付された画像、 Bの符号が付され た画像は、 そもそも、 赤色、 緑色、 青色でそれぞれ表示されるべきものであり、 そのように表示するのが簡単である。 しかしながら、 Rの符号が付された画像、 Gの符号が付された画像、 Bの符号が付された画像のすべてが、 同一色相の色で 表示されるようになっていたり、 無彩色で表示されるようになっていたりしても かまわない。 これらの場合には、 そのような画像データを回路基板 1 3 7が生成 することになる。 このような色味の選択をも、 操作摘み 1 3 8の操作によりでき るようにしてもよい。
モニタ Mに表示される画像の他の例を、 図 8を用いて説明する。
図 8に示された画像は、 図 7 Bの R、 G、 Bで示した 3つの画像を合成して一 まとめにしたものである。 図 8中 Rは、 図 7 Bの Rの符号が付された画像に含ま れていた撮像対象物 Sの像、 図 8中 Gは、 図 7 Bの Gの符号が付された画像に含 まれていた撮像対象物 Sの像、 図 8中 Bは、 図 7 Bの Bの符号が付された画像に 含まれていた撮像対象物 Sの像、 である。 尚、 この合成は、 この実施形態では、 単なる重ね合わせとして実行している。
図 8に示したような画像を見た観察者は、 これらを頭の中で組み合わせるとい う作業を行わなくとも、 図 7 Aに示された撮像対象物 Sを直感的に理解できるこ とになる。
この場合でも、 Rの符号が付された画像、 Gの符号が付された画像、 Bの符号 が付された画像は、 そもそも、 赤色、 緑色、 青色でそれぞれ表示されるべきもの であり、 そのように表示するのが簡単であるが、 これらのすべてが同一色相の色 で表示されるようになっていたり、 無彩色で表示されるようになっていたりして もよい。 そうした方が、 画像は使用者にとって見易くなる。 これらの場合には、 そのような画像データを回路基板 1 3 7が生成することになる。 このような色の 選択を、 操作摘み 1 3 8の操作によりできるようにしてもよい。
《第 2実施形態》
第 2実施形態によるカメラは、 基本的には、 図 1に示した第 1実施形態による カメラ 1 0 0と同様に構成されている。
第 2実施形態によるカメラは、 第 1実施形態によるカメラ 1 0 0と同様に架台 1 1 0、 支柱 1 2 0、 及びカメラ本体 1 3 0を含んで構成されている。
第 2実施形態によるカメラが備える架台 1 1 0、 支柱 1 2 0の構成は、 第 1実 施形態によるカメラ 1 0 0が備える架台 1 1 0、支柱 1 2 0の構成と同一である。 また、 第 2実施形態によるカメラが備えるカメラ本体 1 3 0の構成は、 第 1実施 形態によるカメラ 1 0 0が備えるカメラ本体 1 3 0の構成と、基本的に一致する。 第 2実施形態におけるカメラ本体 1 3 0は、 第 1実施形態におけるカメラ本体 1 3 0と同様のケース 1 3 1を備えている。 ケース 1 3 1には、 摘み 1 3 2、 対 物レンズ 1 3 3、 撮像素子 1 3 4、 ハーフミラー 1 3 5、 光源 1 3 6、 回路基板 1 3 7が設けられており、これも第 1実施形態におけるカメラ 1 0 0と共通する。 第 2実施形態におけるカメラが、 第 1実施形態におけるカメラ 1 0 0と異なる のは、 その回路基板 1 3 7である。 第 2実施形態における回路基板 1 3 7は、 撮 像素子 1 3 4が撮像を行うことによって、 当該撮像素子 1 3 4が備える素子によ つて生成された信号に基づいて生成された画像デ一夕を、 出力端子 1 3 7 Aから 外部へ出力する機能を有しているだけである。 第 2実施形態において外部へ出力 される画像データは、 第 1実施形態における回路基板 1 3 7を通して出力される 画像データとは異なり、 所定のディスプレイに画像を表示させることのできるも のでなくてもよい。 また、 第 2実施形態によるカメラの回路基板 1 3 7は、 上述 したような画像信号の加工を行えるようになっていない。
第 2実施形態におけるカメラは、 図 9に示した如き画像処理装置 2 0 0と組み 合わせて用いられる。
この画像処理装置 2 0 0は、 カメラと、 有線、 又は無線で接続されており、 力 メラから受付けた画像信号に対して所定の画像処理を行う機能を有している。 画像処理装置 200は、 コンピュータを用いて構成することができる。 この実 施形態では、 汎用の家庭用コンピュータを用いて画像処理装置 200を構成する こととしている。
画像処理装置 200は、 図 10に示したように、 CPU (Central Processing Unit) 211、 ROM (Read Only Memory) 212、 RAM (Random Access Memory) 213及びインタフェイス 214が含まれている。 そして ROM21 2、 RAM 213及びインタフェイス 214は、 バスを介して CPU 211と接 続されている。
CPU211は、 所定のプログラムを実行することで、 所定の処理を実行する ものである。 ROM 212は、 CPU 211を動作させるためのプログラム、 例 えば、 後述するモニタ Mに画像を表示させる処理を実行するためのプログラムを 記録している。 RAM213は、 CPU211が処理を行うためのワーク領域を 提供する。 また、 インタフェイス 214は、 CPU211の入出力用の接続回路 として機能する。 上記モニタ Mや、 カメラの出力端子 137 Aは、 インタフェイ ス 214を介して CPU211と接続されている。 カメラからの画像信号は、 ィ ンタフェイス 214を介して CPU 211に入力され、 CPU 211が生成した 画像データは、 インタフェイス 214を介してモニタ Mに出力されるようになつ ている。 この実施形態の画像処理装置 200は、 キ一ポ一ド、 マウス等で構成さ れる入力装置 200Nを備えているが、 ここからの入力も、 このインタフェイス 214を介して CPU 211へ伝えられる。
画像処理装置 200は、 ドライブ Dを備えている。 そしてそのドライブ Dに、 記録媒体 R Pを挿入し、 その記録媒体 R Pに記録されている本発明によるプログ ラムを読み込ませることができるようになつている。 コンピュータは、 本発明に よる上述のプログラムをインストールすることで、 本発明の画像処理装置 200 に求められる各機能を有するものとなる。 伹し、 上述のプログラムは、 記録媒体 RPを介してコンピュータにインストールされる必要は必ずしもなく、 ネットヮ ークを介しての配信の過程を経て、 コンピュータにインストールされても良い。 このプログラムは、 それ単体でコンピュータに本発明の画像処理装置 200と しての機能を奏させることができるようなものでもよく、 コンピュータに予めィ ンス! ^一ルされている O S (Operat ing Sys tem) や、 その他のプログラムとの協 働により、 本発明の画像処理装置 2 0 0としての機能を奏させるようなものとな つていても良い。
上述のプログラムを実行することにより、 画像処理装置 2 0 0内部には、 以下 の機能プロックが形成される。
かかる機能ブロックを図示したのが図 1 1である。
画像処理装置 2 0 0の内部には、 出入力部 2 3 1と、 制御部 2 3 2が生成され る。
出入力部 2 3 1は、 入力装置 2 0 0 Nから入力された情報、 記録媒体 R Pから 入力された画像データ、 或いはカメラから入力された画像信号を受付け、 また、 制御部 2 3 2から受付けた画像データの記録媒体 R P、 モニタ Mへの出力を行う 機能を有している。
制御部 2 3 2は、 画像処理装置 2 0 0全体の制御を行う。 制御部 2 3 2は、 主 制御部 2 3 2 aと、 画像処理部 2 3 2 bとを備えている。
主制御部 2 3 2 aは、 画像処理部 2 3 2 bの制御と、 出入力部 2 3 1の制御を 行うものである。
画像処理部 2 3 2 bは、 カメラから、 出入力部 2 3 1を介して入力された画像 信号に対して画像処理を行うものである。 かかる加工は、 出入力部 2 3 1を介し て受付けた入力装置 2 0 O Nからの指示にしたがって行われる。
第 2実施形態によるカメラの使用方法を以下、 説明する。
このカメラで撮像を行うに当たっては、 まず、 撮像対象物 Sを架台 1 1 0上の 所定の位置に載置し、 次いで、 摘み 1 3 2を操作して、 カメラ本体 1 3 0を図 1 の上下方向に移動させ、 撮像対象物 Sにピントが合う適切な位置でカメラ本体 1 3 0を固定する。
光源 1 3 6から出た照明光はハーフミラー 1 3 5により反射されて、 撮像対象 物 Sへ照射され、 撮像対象物 Sで反射される。 この光は、 ハーフミラー 1 3 5、 対物レンズ 1 3 3を通過して撮像素子 1 3 4の受光面 1 3 4 Aに結像する。 これ により、 撮像素子 1 3 4による撮像対象物 Sの撮像が行われる。 撮像素子 1 3 4の受光面 1 3 4 Aでは、 第 1実施形態によるカメラの場合と同 様に、 赤の波長の光に反応する素子が、 撮像対象面 X Rから反射してきた赤の波 長の光 L Rを、 緑の波長の光に反応する素子が、 撮像対象面 X Gから反射してき た緑の波長の光 L Gを、 青の波長の光に反応する素子が、 撮像対象面 X Bから反 射してきた青の波長の光 L Bを、 それぞれ撮像する。
図 1 2に示したように、 撮像素子 1 3 4で撮像されたこの画像信号は、 回路基 板 1 3 7の制御の下、 出力端子 1 3 7 Aを介して、 画像処理装置 2 0 0へと送ら れる (S 3 0 1 )。
この画像信号は、 出入力部 2 3 1を介して、 制御部 2 3 2に送られる。 画像信 号を受付けた画像処理部 2 3 2 bは、 入力装置 2 0 0 Nからの入力内容に応じて 主制御部 2 3 2 aが行う制御の下、 所定の画像処理を行い、 上記画像信号に基い て生成した画像データを生成する (S 3 0 2 )。
次に、 主制御部 2 3 2 aは、 この画像データを出入力部 2 3 1へ送る。 出入力 部 2 3 1は、 この画像データを、 入力装置 2 0 O Nからの入力内容に応じて主制 御部 2 3 2 aが行う指示に応じて、 ドライブ 0カ モニタ Mへと出力する (S 3 0 3
画像デー夕がモニタ Mに出力されたのであれば、 この画像デ一夕に基づく画像 が、 モニタ Mに表示されることになる。
画像データがドライブ Dに出力されたのであれば、 それに嵌挿された記録媒体 R Pに画像デ一夕が記録されることになる。 この画像データは、 ドライブ Dで読 み出され、 出入力部 2 3 1を介して、 モニタ Mへ送られることで、 このモニタ M に、 出力端子 1 3 7 Aからそのモニタ Mに画像データを直接出力した場合と同様 の画像を表示させることができる。 記録媒体 R Pからこのデータを、 何らかの手 段を用いて読み出すことにより、 他のモニタに、 これと同様の画像を表示させる ことも可能である。
第 2実施形態のカメラを用いてモニタ Mに表示することのできる画像は、 第 1 実施形態のカメラ 1 0 0を用いて表示することのできる画像と同様に、 多岐に渡 る。 画像処理部 2 3 2 bは、 この多岐に渡る画像を表示するための画像データを 生成できるようにされている。

Claims

請 求 の 範 囲
1 . 像光が導かれる対物レンズと、 該対物レンズを通過して導かれた像光によ る撮像を行うものであり、 異なる波長の光に反応して所定の信号を生成する複数 種類の素子がそれぞれ多数配列された受光面を備えている撮像手段と、 を備えて いるカメラであって、
前記対物レンズは、 前記受光面からの深さを異にする複数の撮像対象面のそれ ぞれから、 その波長が前記異なる波長のうちの一つと同じであり、 且つ互いにそ の波長が異なる像光を、 色収差を利用して前記受光面に結像させるようなものと されてなる、
カメラ。
2 . 像光が導かれる対物レンズと、 該対物レンズを通過して導かれた像光によ る撮像を行うものであり、 異なる波長の光に反応して所定の信号を生成する複数 種類の素子をそれぞれ多数配列させた受光面を備えている撮像手段と、 受け付け た前記信号に基づいて、 所定のディスプレイに前記撮像手段で撮像された画像を 表示するための画像データを生成して、 これを外部へ出力する画像処理手段と、 を備えているカメラであって、
前記対物レンズは、 前記受光面からの深さを異にする複数の撮像対象面のそれ ぞれから、 その波長が前記異なる波長のうちの一つと同じであり、 且つ互いにそ の波長が異なる像光を、 色収差を利用して前記受光面に結像させるようなものと されてなり、
且つ、 前記画像処理手段は、 前記複数種類の素子が生成した前記信号に基づい て、 同一種類の前記素子により生成された複数の画像を、 前記素子の種類と同数 だけ生成できるような画像デ一夕を生成するようにされてなる、
カメラ。
3 . 前記画像処理手段は、 同一種類の前記素子により生成されたものによる前 記複数の画像を、 別個の画像として、 所定のディスプレイに表示できるようなも のとして前記画像デ一夕を生成するようにされてなる、
請求の範囲第 2項記載の力メラ。
4. 前記画像処理手段は、 同一種類の前記素子により生成されたものによる前 記複数の画像のすべてを、 所定のディスプレイに同時に表示できるようなものと して前記画像データを生成するようにされてなる、
請求の範囲第 3項記載の力メラ。
5 . 前記画像処理手段は、 同一種類の前記素子により生成されたものによる前 記複数の画像のいずれかを、 所定のディスプレイに択一的に表示できるようなも のとして前記画像データを生成するようにされてなる、
請求の範囲第 2項記載の力メラ。
6 . 前記画像処理手段は、 同一種類の前記素子により生成されたものによる前 記複数の画像に基づいて生成された一の画像を、 所定のディスプレイに表示でき るようなものとして前記画像データを生成するようにされてなる、
請求の範囲第 2項記載の力メラ。
7 . 像光が導かれる対物レンズと、 該対物レンズを通過して導かれた像光によ る撮像を行うものであり、 異なる波長の光に反応して所定の信号を生成する複数 種類の素子をそれぞれ多数配列させた受光面を備えている撮像手段と、 受け付け た前記信号に基づいて、 所定のディスプレイに前記撮像手段で撮像された画像を 表示するための画像デ一夕を生成して、 これを外部へ出力する画像処理手段と、 を備えているカメラであって、
前記対物レンズは、 前記受光面からの深さを異にする複数の撮像対象面のそれ ぞれから、 その波長が前記異なる波長のうちの一つと同じであり、 且つ互いにそ の波長が異なる像光を、 色収差を利用して前記受光面に結像させるようなものと されてなり、
且つ、 前記画像処理手段は、 同一色相の色のみからなる画像を、 所定のデイス プレイに表示できるようなものとして、 前記複数種類の素子が生成した前記信号 に基づいて、 前記画像データを生成するように構成されている、
カメラ。
8 . 像光が導かれる対物レンズと、 該対物レンズを通過して導かれた像光によ る撮像を行うものであり、 異なる波長の光に反応して所定の信号を生成する複数 種類の素子をそれぞれ多数配列させた受光面を備えている撮像手段と、 受け付け た前記信号に基づいて、 所定のディスプレイに前記撮像手段で撮像された画像を 表示するための画像デ一夕を生成して、 これを外部へ出力する画像処理手段と、 を備えているカメラであって、
前記対物レンズは、 前記受光面からの深さを異にする複数の撮像対象面のそれ ぞれから、 その波長が前記異なる波長のうちの一つと同じであり、 且つ互いにそ の波長が異なる像光を、 色収差を利用して前記受光面に結像させるようなものと されてなり、
且つ、 前記画像処理手段は、 無彩色の色のみからなる画像を、 所定のディスプ レイに表示できるようなものとして、 前記複数種類の素子が生成した前記信号に 基づいて、 前記画像データを生成するように構成されている、
カメラ。
9 . 前記複数の撮像対象面は、 隣接する撮像対象面との距離が略同一とされて なる、
請求の範囲第 1項、 第 2項、 第 7項又は第 8項記載のカメラ。
1 0 . 前記複数の撮像対象面は、 隣接する撮像対象面との距離が、 前記対物レ ンズの焦点深度以下とされてなる、
請求の範囲第 1項、 第 2項、 第 7項又は第 8項記載のカメラ。
1 1 . 前記複数種類の素子は、 赤の波長の光に反応する素子と、 緑の波長の光 に反応する素子と、 青の波長の光に反応する素子の 3種類の素子であり、 前記複 数の撮像対象面は、 そこからの赤の波長の光、 そこからの緑の波長の光、 そこか らの青の波長の光がそれぞれ、 前記対物レンズを経て前記受光面に結像するよう な、 3種類の撮像対象面とされてなる、
請求の範囲第 1項、 第 2項、 第 7項又は第 8項記載のカメラ。
1 2 . 像光が導かれる対物レンズと、 該対物レンズを通過して導かれた像光に よる撮像を行うものであり、 異なる波長の光に反応して所定の信号を生成する複 数種類の素子がそれぞれ多数配列された受光面を備えている撮像手段と、 受け付 けた前記信号を外部へ出力する出力手段と、 を備えており、 前記対物レンズが、 前記受光面からの深さを異にする複数の撮像対象面のそれぞれから、 その波長が 前記異なる波長のうちの一つと同じであり、且つ互いにその波長が異なる像光を、 色収差を利用して前記受光面に結像させるようなものとされてなるカメラ、 と組み合わせて用いられるものであり、 所定のディスプレイに、 前記出力手段 力、ら受け付けた前記信号に基づく画像を表示するための制御を行うように構成さ れている画像処理装置であって、
前記信号を受け付ける手段と、 受け付けた前記信号に基づいて、 同一種類の前 記素子により生成されたものによる複数の画像を前記素子の種類と同数だけ前記 ディスプレイに表示できるような画像データを生成する処理手段と、 生成された 前記画像デ一タを前記ディスプレイに出力する手段と、を備えて構成されている、
1 3 . 前記処理手段は、 同一種類の前記素子により生成されたものによる前記 複数の画像を、 別個の画像として、 前記ディスプレイに表示できるようなものと して前記画像デー夕を生成するようにされてなる、
請求の範囲第 1 2項記載の画像処理装置。
1 4. 前記処理手段は、 同一種類の前記素子により生成されたものによる前記 複数の画像のすべてを、 前記ディスプレイに、 同時に表示できるように構成され ている、
請求の範囲第 1 2項記載の画像処理装置。
1 5 . 前記処理手段は、 同一種類の前記素子により生成されたものによる前記 複数の画像のいずれかを、 前記ディスプレイに、 択一的に表示できるように構成 されている、
請求の範囲第 1 2項記載の画像処理装置。
1 6 . 前記処理手段は、 同一種類の前記素子により生成されたものによる前記 複数の画像を重ねて生成される画像を、 前記ディスプレイに表示できるように構 成されている、
請求の範囲第 1 2項記載の画像処理装置。
1 7 . 前記処理手段は、 同一種類の前記素子により生成された前記複数の画像 をモノクロにしてから、 重ね合わせることによって生成できる画像を、 前記ディ スプレイに表示できるように構成されている、
請求の範囲第 1 2項記載の画像処理装置。
1 8 . 前記処理手段は、 同一色相の色のみからなる画像を、 前記ディスプレイ に表示できるようなものとして、 前記複数種類の素子が生成した前記信号に基づ いて、 前記画像データを生成するように構成されている、
請求の範囲第 1 2項記載の画像処理装置。
1 9 . 前記処理手段は、 無彩色の色のみからなる画像を、 前記ディスプレイに 表示できるようなものとして、 前記複数種類の素子が生成した前記信号に基づい て、 前記画像データを生成するように構成されている、
請求の範囲第 1 2項記載の画像処理装置。
2 0 . 像光が導かれる対物レンズと、 該対物レンズを通過して導かれた像光に よる撮像を行うものであり、 異なる波長の光に反応して所定の信号を生成する複 数種類の素子がそれぞれ多数配列された受光面を備えている撮像手段と、 受け付 けた前記信号を外部へ出力する出力手段と、 を備えており、 前記対物レンズは、 前記受光面からの深さを異にする複数の撮像対象面のそれぞれから、 その波長が 前記異なる波長のうちの一つと同じであり、且つ互いにその波長が異なる像光を、 色収差を利用して前記受光面に結像させるようなものとされてなるカメラ、 と組み合わせて用いられるものであり、 所定のディスプレイに、 前記出力手段 から受け付けた前記信号に基づく画像を表示するための制御を行うように構成さ れており、 且つコンピュータを有してなる画像処理装置にて実行される方法であ つて、
前記コンピュータが、
前記信号を受け付ける過程、
受け付けた前記信号に基づいて、 同一種類の前記素子により生成されたものに よる複数の画像を前記素子の種類と同数だけ前記ディスプレイに表示できるよう な画像データを生成する過程、
生成された前記画像データを前記ディスプレイに出力する過程、
を含んでいる、 画像データ処理方法。
2 1 . 像光が導かれる対物レンズと、 該対物レンズを通過して導かれた像光に よる撮像を行うものであり、 異なる波長の光に反応して所定の信号を生成する複 数種類の素子がそれぞれ多数配列された受光面を備えている撮像手段と、 受け付 けた前記信号を外部へ出力する出力手段と、 を備えており、 前記対物レンズは、 前記受光面からの深さを異にする複数の撮像対象面のそれぞれから、 その波長が 前記異なる波長のうちの一つと同じであり、且つ互いにその波長が異なる像光を、 色収差を利用して前記受光面に結像させるようなものとされてなるカメラ、 と組み合わせて用いられるものであり、 所定のディスプレイに、 前記出力手段 から受け付けた前記信号に基づく画像を表示するための制御を行うように構成さ れており、 且つコンピュータを有してなる画像処理装置の前記コンピュータに、 前記信号を受け付ける処理、
受け付けた前記信号に基づいて、 同一種類の前記素子により生成されたものに よる複数の画像を前記素子の種類と同数だけ前記ディスプレイに表示できるよう な画像データを生成する処理、
生成された前記画像データを前記ディスプレイに出力する処理、
を少なくとも実行させるための、 コンピュータ読取り可能なプログラム。
2 2 . 異なる波長の光に反応して所定の信号を生成する複数種類の素子がそれ ぞれ多数配列された受光面を備えている撮像手段、 を備えているカメラと組み合 わせて用いるものであり、 それを通過して導かれた像光が前記撮像手段で撮像さ れるように配される対物レンズであって、
前記受光面からの深さを異にする複数の撮像対象面のそれぞれから、 その波長 が前記異なる波長のうちの一つと同じであり、 且つ互いにその波長が異なる像光 を、 色収差を利用して前記受光面に結像させるようなものとされてなる、 対物レンズ。
PCT/JP2004/011943 2003-08-13 2004-08-13 カメラ、画像処理装置、画像データ処理方法、及びプログラム WO2005018236A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP04771904A EP1662803A4 (en) 2003-08-13 2004-08-13 SHOOTING APPARATUS, IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
US10/567,847 US7493039B2 (en) 2003-08-13 2004-08-13 Camera, method, and program for enhanced imaging using chromatic aberration
JP2005513216A JPWO2005018236A1 (ja) 2003-08-13 2004-08-13 カメラ、画像処理装置、画像データ処理方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-293258 2003-08-13
JP2003293258 2003-08-13

Publications (1)

Publication Number Publication Date
WO2005018236A1 true WO2005018236A1 (ja) 2005-02-24

Family

ID=34190991

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/011943 WO2005018236A1 (ja) 2003-08-13 2004-08-13 カメラ、画像処理装置、画像データ処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US7493039B2 (ja)
EP (1) EP1662803A4 (ja)
JP (1) JPWO2005018236A1 (ja)
WO (1) WO2005018236A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010119022A (ja) * 2008-11-14 2010-05-27 Toshiba Corp 固体撮像装置
KR20110027408A (ko) * 2009-09-10 2011-03-16 삼성전자주식회사 색수차를 보정하는 방법 및 장치
WO2019116802A1 (ja) * 2017-12-15 2019-06-20 株式会社堀場製作所 粒子分析装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2463480A (en) * 2008-09-12 2010-03-17 Sharp Kk Camera Having Large Depth of Field
WO2010044870A1 (en) * 2008-10-14 2010-04-22 The Burnham Institute For Medical Research Automated scanning cytometry using chromatic aberration for multiplanar image acquisition
FR2950444B1 (fr) * 2009-09-23 2012-03-23 Sabban Youssef Cohen Procede de mise au point automatique d'un systeme optique sans deplacement d'aucun sous ensemble optomecanique et appareil de vision le mettant en oeuvre
ES2364916B1 (es) * 2010-03-05 2012-09-04 Consejo Superior De Investigaciones Científicas (Csic) Instrumento para la realizacion de imagenes de campo ancho a distintas profundidades de un especimen
WO2012095322A1 (en) 2011-01-14 2012-07-19 Sony Corporation Imaging system using a lens unit with longitudinal chromatic aberrations and method of operating
JP6173156B2 (ja) * 2013-10-02 2017-08-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0832978A (ja) * 1994-07-15 1996-02-02 Nikon Corp 面順次カラーカメラ
JP2003018609A (ja) * 2001-06-29 2003-01-17 Nikon Corp 画像入力装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9813855D0 (en) * 1998-06-27 1998-08-26 Univ Derby Image recording apparatus
US6917421B1 (en) * 2001-10-12 2005-07-12 Kla-Tencor Technologies Corp. Systems and methods for multi-dimensional inspection and/or metrology of a specimen
DE10156506C1 (de) * 2001-11-16 2003-05-22 Leica Microsystems Verfahren zur Erzeugung eines mehrfarbigen Bildes und Mikroskop

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0832978A (ja) * 1994-07-15 1996-02-02 Nikon Corp 面順次カラーカメラ
JP2003018609A (ja) * 2001-06-29 2003-01-17 Nikon Corp 画像入力装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HANS J. TIZIANI; MICHAEL WEGNER; DANIELA STEUDLE, OPT. ENG, vol. 39, no. 1, January 2000 (2000-01-01), pages 37 - 39
SARA C. TUCKER; W. THOMAS CATHEY; EDWARD R. DOWSKI, JR., OPTICS EXPRESS, vol. 4, no. 11, 24 May 1999 (1999-05-24), pages 467
See also references of EP1662803A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010119022A (ja) * 2008-11-14 2010-05-27 Toshiba Corp 固体撮像装置
US8462237B2 (en) 2008-11-14 2013-06-11 Kabushiki Kaisha Toshiba Solid-state image pickup device which senses and processes light into primary color bands and an all wavelength band
KR20110027408A (ko) * 2009-09-10 2011-03-16 삼성전자주식회사 색수차를 보정하는 방법 및 장치
KR101653270B1 (ko) * 2009-09-10 2016-09-01 삼성전자주식회사 색수차를 보정하는 방법 및 장치
WO2019116802A1 (ja) * 2017-12-15 2019-06-20 株式会社堀場製作所 粒子分析装置
JPWO2019116802A1 (ja) * 2017-12-15 2020-12-24 株式会社堀場製作所 粒子分析装置

Also Published As

Publication number Publication date
JPWO2005018236A1 (ja) 2006-10-12
EP1662803A4 (en) 2006-11-15
EP1662803A1 (en) 2006-05-31
US20060257141A1 (en) 2006-11-16
US7493039B2 (en) 2009-02-17

Similar Documents

Publication Publication Date Title
JP5325522B2 (ja) 複合型観察装置
JP2008295084A (ja) 顕微鏡用電子カメラ
JP2000517434A (ja) コンパクトなビデオ顕微鏡
US20100121143A1 (en) Endoscope apparatus and scanning endoscope processor
JP2002148526A (ja) 顕微鏡装置
US8390682B2 (en) Microscope system and its control method
CN110945399B (zh) 信号处理设备、成像设备、信号处理方法和存储器
WO2005018236A1 (ja) カメラ、画像処理装置、画像データ処理方法、及びプログラム
JP2022027501A (ja) 撮像装置、位相差オートフォーカスの実行方法、内視鏡システム、およびプログラム
JP2006023476A (ja) 共焦点走査型顕微鏡
JPH10339845A (ja) モニタ観察型顕微鏡
US20190281233A1 (en) Image processing device, setting method, and program
JP2007140183A (ja) 共焦点走査型顕微鏡装置
JP4576112B2 (ja) 共焦点レーザ顕微鏡
JP4620995B2 (ja) フォーカスユニット及び該フォーカスユニットを備えた眼科撮影装置
JP5019279B2 (ja) 共焦点顕微鏡及び合焦カラー画像の生成方法
JP3191932B2 (ja) 計測用内視鏡装置
JP4197898B2 (ja) 顕微鏡、三次元画像生成方法、三次元画像を生成する制御をコンピュータに行わせるプログラム、及びそのプログラムを記録した記録媒体
JP2003287687A (ja) 三次元透過型顕微鏡システムおよび画像表示方法
CN109937567B (zh) 图像处理装置和方法以及非暂态计算机可读介质
JP2006067171A (ja) カラー撮像装置
WO2018088238A1 (ja) 画像処理装置および制御方法、並びにプログラム
JP4914567B2 (ja) 走査型共焦点顕微鏡
US20230351548A1 (en) Method for creating a picture recording
US20240053594A1 (en) Method and Device for Microscopy

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005513216

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2006257141

Country of ref document: US

Ref document number: 10567847

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2004771904

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004771904

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10567847

Country of ref document: US