WO2012073414A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2012073414A1
WO2012073414A1 PCT/JP2011/005293 JP2011005293W WO2012073414A1 WO 2012073414 A1 WO2012073414 A1 WO 2012073414A1 JP 2011005293 W JP2011005293 W JP 2011005293W WO 2012073414 A1 WO2012073414 A1 WO 2012073414A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
luminance
unit
subject
polarization
Prior art date
Application number
PCT/JP2011/005293
Other languages
English (en)
French (fr)
Inventor
克洋 金森
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012534172A priority Critical patent/JP5238098B2/ja
Priority to CN201180037504.5A priority patent/CN103037751B/zh
Publication of WO2012073414A1 publication Critical patent/WO2012073414A1/ja
Priority to US13/571,686 priority patent/US8648907B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation

Definitions

  • the present invention relates to an image processing apparatus capable of obtaining surface unevenness information exceeding information obtained from a two-dimensional luminance image acquired by an image sensor.
  • Endoscope takes images by illuminating the wall surface of a living organ organ covered with mucous membrane.
  • the angle between the optical axis of illumination and the optical axis of imaging is set to approximately 0 ° so that no shadow is generated on the subject.
  • a conventional technique has been proposed in which surface irregularities are identified from the gray level information of an image by devising image processing using an existing endoscope imaging system with color luminance.
  • a polarization endoscope using polarization illumination and polarization imaging has also been proposed.
  • Patent Document 1 The former technique is disclosed in Patent Document 1, for example.
  • This technique compares the signal level value of a specific pixel of a captured color image with the average signal level value of the surrounding 8 pixel pixels.
  • the signal level value of the specific pixel is low, it is determined that the corresponding portion of the subject is concave (depressed) from the periphery.
  • a blue component is emphasized by reducing the signal level value of a red pixel signal and a green pixel signal.
  • the color image reproduced on the monitor device exhibits a color contrast similar to that of a blue dye solution distribution performed by a doctor in a normal endoscopic examination, and the unevenness of the organ surface becomes clear.
  • a polarized light irradiation unit that irradiates an object with light of a specific polarization component, a light of the specific polarization component in the return light from the object, and a polarization component different from the specific polarization component in the return light
  • An endoscope includes a polarization mosaic type light receiving unit that receives light and performs polarization imaging, and generates a shape change image indicating a shape change of the surface of the object.
  • the polarization characteristic calculation unit can calculate the polarization direction and generate a two-dimensional distribution of surface tilt information.
  • Patent Document 4 Patent Document 5, and Non-Patent Document 1 disclose devices capable of rotating the plane of polarization.
  • the conventional technology using polarized light can irradiate an object with circularly polarized light and calculate the surface inclination based on the orientation of elliptically polarized light with respect to the return light from the object.
  • the conventional technology provides a two-dimensional display of recessed areas such as “pseudo pigment distribution” as a display technique for clarifying recessed areas (grooves).
  • recessed areas such as “pseudo pigment distribution”
  • grooves recessed areas
  • the present invention solves the above problems, and an object of the present invention is to provide a small and realizable image processing apparatus capable of reproducing not only luminance but also fine irregularities on the surface of a subject with high reality.
  • the subject is irradiated with the polarization illumination unit that sequentially irradiates the subject with three or more types of linearly polarized light having different polarization plane angles, and each of the three or more types of linearly polarized light.
  • an imaging unit that sequentially images the subject and an image processing unit are provided.
  • the image processing unit processes the luminance of the image captured by the imaging unit to calculate a reflected polarization state on the surface of the subject, and performs twice in the concave region based on the output of the variable luminance processing unit.
  • a reflection determination unit that discriminates between the multiple reflection area that is reflected and becomes return light, and a one-time reflection area that is reflected once on the subject surface and becomes return light, and is reflected twice on the concave area of the subject surface
  • a mirror image search unit for determining a pair of multiple reflection regions to be returned light.
  • the image processing unit generates an image indicating the concave region on the subject surface based on the pair of the multiple reflection regions.
  • the image processing unit generates a groove segment from each pair of the multiple reflection regions, connects the groove segment to estimate the position of the concave region, and the concave region A cross-sectional shape modeling unit for determining a cross-sectional shape.
  • the image processing unit includes a normal reproduction unit that generates a normal image by integrating the surface normal in the multiple reflection region and the surface normal in the one-time reflection region.
  • a light source direction setting unit that sets a light source position
  • a light source variation image generation unit that generates a light source variation image when the light source position is virtually moved, and the light source variation image and the luminance image are superimposed.
  • an image display unit for combining and displaying.
  • the light source fluctuation image generation unit generates a luminance image of the subject using the normal image and a physical reflection model.
  • the polarized illumination unit and the imaging unit are attached to an endoscope.
  • the polarized illumination unit irradiates non-polarized light with linearly polarized light whose polarization plane is sequentially changed into three or more types by transmitting the polarization plane conversion element.
  • the polarized illumination unit includes a light guide that guides non-polarized light to the polarization plane conversion element.
  • the imaging unit includes a monochrome imaging device or a color imaging device.
  • three or more types of linearly polarized light having different angles of polarization planes are sequentially averaged over a plurality of luminance images acquired by the imaging unit while irradiating the subject.
  • a luminance addition average unit that generates an average luminance image corresponding to the image of
  • variable luminance processing unit obtains a relationship between an angle of the polarization plane and a luminance value of each pixel based on a pixel signal output from the imaging unit, and the luminance value is maximum for each pixel.
  • an image display unit that superimposes and displays either the luminance maximum angle image or the luminance modulation degree image and the luminance image is displayed.
  • the reflection determination unit is set in advance in a pseudo color image in which the luminance maximum angle is a hue angle and the luminance modulation degree is saturation based on the luminance maximum angle image and the luminance modulation degree image.
  • a pixel having a luminance modulation degree equal to or greater than the value is extracted as a pixel constituting the multiple reflection region.
  • the concave region connecting portion estimates an azimuth angle of the surface normal of the concave region.
  • the cross-sectional shape modeling unit models the cross-sectional shape of the concave region with a specific function, and utilizes the property that the azimuth angle of the surface normal in the multiple reflection region is approximately 45 degrees. Then, the Zenith angle of the surface normal at an arbitrary position in the concave region is estimated.
  • the polarization illumination unit irradiates the subject with light transmitted through a polarization plane conversion element whose polarization plane sequentially changes into three or more types via a relay lens optical system.
  • the polarization illumination unit has an optical system in which a plurality of concentric ring illuminations or surface illumination light sources are combined with a polarization plane conversion element.
  • the polarized illumination unit has an optical system in which a surface illumination light source having an illumination system optical axis directed inward from the optical axis of the imaging system and a polarization plane conversion element are combined.
  • the polarization illumination unit has an optical system that combines a non-polarization broadband beam splitter, a surface illumination light source, and a polarization plane conversion element.
  • the subject is irradiated with a polarization illumination step of sequentially irradiating the subject with three or more types of linearly polarized light having different polarization plane angles, and each of the three or more types of linearly polarized light.
  • the image processing method includes an imaging process for imaging the subject and an image processing process.
  • the image processing step includes a variable luminance processing step that calculates the reflected polarization state on the surface of the subject by processing the luminance of the image captured in the imaging step, and twice in the concave region based on the result of the variable luminance processing step.
  • a reflection determination step for discriminating between the multiple reflection region that is reflected and becomes return light, and a one-time reflection region that is reflected once on the subject surface and becomes return light, and is reflected twice on the concave region of the subject surface A mirror image searching step of determining a pair of multiple reflection regions to be returned light, and a step of generating an image showing the concave region of the subject surface based on the pair of multiple reflection regions.
  • a polarization illumination unit that sequentially irradiates a subject with three or more types of linearly polarized light with different angles of polarization planes, and the subject is irradiated with each of the three or more types of linearly polarized light.
  • An imaging unit that images the subject, an image processing unit, and a display unit that displays an image based on the output of the image processing unit.
  • the image processing unit generates a pseudo color image based on an output of the variable luminance processing unit that processes the luminance of the image captured by the imaging unit and calculates a reflected polarization state on the surface of the subject.
  • a pseudo color image conversion unit A pseudo color image conversion unit.
  • the variable luminance processing unit obtains a relationship between an angle of the polarization plane and a luminance value of each pixel based on a pixel signal output from the imaging unit, and the polarization plane that maximizes the luminance value for each pixel And a luminance modulation degree image defined by a ratio between an amplitude of a variation of the luminance value accompanying a change of the polarization plane and a luminance average value for each pixel.
  • the color image conversion unit generates a pseudo color image with the luminance maximum angle as a hue angle and the luminance modulation degree as a saturation based on the luminance maximum angle image and the luminance modulation degree image, and the pseudo color image and the luminance The image is synthesized and displayed on the display unit.
  • the subject when the subject is irradiated with the polarization illumination unit that sequentially irradiates the subject with three or more types of linearly polarized light having different polarization plane angles, and each of the three or more types of linearly polarized light. Since it has an imaging unit that sequentially images the subject, it is possible to acquire information on the reflected polarization state according to the uneven shape of the surface simultaneously with the color image without the need to newly develop a special polarization imaging device. it can. Thus, in the present invention, information on surface irregularities is obtained from the reflected polarization state. Since a normal color image sensor can be used as it is, it is not necessary to use an expensive polarization image sensor, and information for visually recognizing surface irregularities can be acquired.
  • the figure which shows the basic composition of the image processing apparatus by this invention The perspective view which shows typically the polarization direction of three types of linearly polarized light from which the angle of a polarization plane differs
  • Diagram showing the operation of the polarization plane control element Definition of polarization plane angle (A) And (b) is a figure which shows the example of photosensitive cell arrangement
  • (A) and (b) are diagrams in which incident light is incident on the subject surface from directly above and is reflected once.
  • Graph showing the Fresnel reflectivity of P wave and S wave energy when the horizontal axis is the angle of incidence (A) And (b) is a graph which shows the luminance fluctuation for every pixel by the polarization plane rotation of polarized illumination. (A) And (b) is explanatory drawing of the brightness
  • A The shape of the simplest groove (groove) and (b) a view showing the state of reflection of incident light (A) Groove (groove) shape which has a bottom face and a slope, and (b) The figure which shows the mode of reflection of incident light (A) A shape in which ridges (convex parts) are dense and (b) a view showing a state of reflection of incident light (A) Hole (concave) shape and (b) A diagram showing how incident light is reflected 1 is a block diagram showing a configuration of an image processor according to Embodiment 1 of the present invention.
  • Diagram of cosine function fitting from polarized luminance samples corresponding to four types of polarized illumination Flow chart explaining the processing of the reflection judgment unit once or twice
  • photography scene The figure which shows typically separated 1 time reflection area
  • the figure explaining the process of a mirror image search part The figure explaining the process of a mirror image search part Flowchart explaining processing of mirror image search unit Diagram showing data in one reflection area The figure explaining the detail of search of a to-be-searched area
  • the figure which shows the luminance image of the real subject A diagram in which the maximum brightness angle image YPH and the brightness modulation image YD are made into one pseudo color image.
  • the figure which shows the micro reflective area judged to be twice reflected by quantization processing The figure which shows the result of having extracted the groove segment by the process of the mirror image search part Diagram explaining the cause of multiple mirror image pairs (cross-sectional view) Diagram explaining the cause of multiple mirror image pairs (reflective area diagram)
  • region connection part The figure which shows the setting process result of the groove segment in a recessed area
  • region connection part The figure which shows the chemical result of thinning in a concave area expansion part
  • the figure which shows the processing result of the normal line determination in a concave area expansion part The figure which shows the processing result of concave area connection in the case of a hole (setting of a groove segment)
  • the example of the image processing apparatus includes a polarization illumination unit 120, an imaging unit 140, a variable luminance processing unit 1302, a reflection determination unit 1305, and a mirror image search unit 1306. .
  • the variable brightness processing unit 1302, the reflection determination unit 1305, and the mirror image search unit 1306 are included in the image processing unit 150.
  • the polarization illumination unit 120 sequentially irradiates the subject 100 with three or more types of linearly polarized light having different angles of polarization planes.
  • a plurality of concave regions are observed on the surface of the organ 100 of the subject 100, for example.
  • the linearly polarized light is reflected by the concave area 100 a existing on the surface of the subject 100 and an area other than the concave area 100 a and enters the imaging unit 140.
  • the imaging unit 140 sequentially images the subject 100 when the subject 100 is irradiated with each of three or more types of linearly polarized light.
  • FIG. 1B is a perspective view schematically showing the polarization directions of three types of linearly polarized light having different polarization plane angles.
  • the three polarization states 10, 12, and 14 shown in the figure each have polarization planes with different angles.
  • a bidirectional arrow is described inside a circle schematically showing the polarization states 10, 12, and 14 in FIG. 1B. This arrow indicates the vibration direction of the electric field vector that defines the polarization plane of linearly polarized light.
  • FIG. 1B shows the XYZ coordinates of the right hand system.
  • the X axis and the Y axis are set in the image plane acquired by the imaging unit 140, and the negative direction of the Z axis is set in the line-of-sight (optical axis) direction.
  • the plane of polarization of linearly polarized light is a plane including the optical axis that is parallel to the oscillating electric field vector.
  • the vibration direction of the electric field vector of linearly polarized light is parallel to the XY plane.
  • the angle ( ⁇ I) of the polarization plane is defined by the angle formed by the polarization direction (vibration direction of the electric field vector) with respect to the positive direction of the X axis. This angle ⁇ I will be described in more detail later with reference to FIG.
  • the polarization illumination unit 120 sequentially irradiates the subject 100 with three or more types of linearly polarized light having different polarization plane angles, and the imaging unit 140 irradiates the subject 100 with each of the three or more types of linearly polarized light. In this case, the subject 100 is sequentially imaged.
  • variable luminance processing unit 1302 obtains the relationship between the angle of the polarization plane and the luminance value of each pixel based on the pixel signal output from the imaging unit 140, and obtains the “maximum luminance angle image” and the “luminance modulation degree image”. Generate.
  • the “maximum luminance angle image” is an image defined by the angle of the polarization plane that maximizes the luminance value for each pixel constituting the image obtained by imaging.
  • luminance value of the pixel P (x, y) specified by a certain coordinate (x, y) is maximized when the subject 100 is irradiated with linearly polarized light having a polarization plane of 45 °
  • a value of 45 ° which is the maximum luminance angle is set for the pixel P (x, y).
  • luminance maximum angle image is configured by setting such a value of the maximum luminance angle in each pixel.
  • the “brightness modulation degree image” is an image defined by the ratio between the amplitude of the fluctuation of the luminance value accompanying the change of the polarization plane and the average luminance value for each pixel.
  • luminance modulation degree image is configured by setting such a luminance modulation degree value in each pixel.
  • image in this specification means not only a luminance image that is directly recognized by human vision, but also a wide array of numerical values given to each of a plurality of pixels.
  • image when one “luminance maximum angle image” is displayed, the image can be displayed with brightness according to the value of the luminance maximum angle set for each pixel of the “luminance maximum angle image”.
  • the “luminance maximum angle image” expressed in this way includes a light and dark pattern that can be recognized by human vision, but this is different from a normal luminance image showing the luminance of the subject.
  • images the data itself indicating various “images” may be referred to as “images”.
  • the reflection determination unit 1305 shown in FIG. 1A reflects the multiple reflection region that is reflected twice in the concave region and becomes return light, and the reflected light that is reflected once on the subject surface and returned light. And a one-time reflection area.
  • the concave region multiple reflection (typically twice reflection) occurs, and thus the multiple reflection region forms a pair showing a similar polarization reflection state.
  • a typical example of such a multiple reflection region may be a groove having a V-shaped cross section.
  • a groove having the simplest structure is a groove that linearly extends in one direction as shown in FIG.
  • the concave region having the multiple reflection region only needs to have a surface whose cross section is inclined or curved in a generally V shape or U shape, and may have other forms.
  • Such a pair of multiple reflection regions exhibiting the same polarization reflection state are continuous on the surface of the subject to form a wider concave region.
  • a concave region including a pair of multiple reflection regions may be referred to as a “groove”.
  • the “groove” in the present specification is not limited to the groove-like concave region extending in one direction on the surface of the subject.
  • the “groove” in the present specification may be a concave region having a shape that cannot be strictly called a groove (for example, a shape as shown in FIGS. 11 and 12).
  • the mirror image search unit 1306 determines a pair of multiple reflection areas that are returned light by reflection twice in the concave area of the subject surface. This pair determination method will be described in detail later.
  • the image processing unit 150 generates an image indicating a concave area on the surface of the subject based on the pair of multiple reflection areas.
  • FIG. 1C is a diagram schematically illustrating the overall configuration of the image processing apparatus according to the first embodiment of the present invention.
  • the image processing apparatus includes an endoscope 101 and a control device 102.
  • the endoscope 101 includes a distal end portion 113 having an image sensor 110, a light guide 105, and an insertion portion 103 having a video signal line 111.
  • the insertion portion 103 of the endoscope 101 has a structure that is long to the left and right and can be bent flexibly as shown.
  • the light guide 105 can transmit light even in a bent state.
  • the control device 102 includes a light source 104 and an image processor 108.
  • White non-polarized light emitted from the light source 104 is guided to the polarization plane control element 106 of the tip 113 via the light guide 105 and becomes linearly polarized light 121 irradiated to the subject.
  • the polarization plane control element 106 is composed of, for example, a polarizing plate and a liquid crystal element, and can convert non-polarized light into linearly polarized light with an arbitrary polarization plane by voltage.
  • the polarization plane control element 106 is a device that can rotate the polarization plane using liquid crystal. Examples of the configuration have already been disclosed in Patent Document 4, Patent Document 5, Non-Patent Document 1, and the like.
  • the polarization plane control element 106 can be configured by a voltage application type liquid crystal device that combines, for example, a ferroelectric liquid crystal, a polarizing film, a quarter wavelength plate, and the like. Then, this polarized illumination is applied to the subject through the illumination lens 107.
  • the synchronization device 112 sends an instruction signal for rotating the polarization plane to the polarization plane control element 106, rotates the polarization plane of the illumination, and sends a shooting start signal to the imaging element 110 to acquire an image.
  • the above processing is performed a plurality of times. carry out.
  • the image sensor 110 may be a monochrome image sensor or a single plate color image sensor having a color mosaic.
  • the imaged video signal reaches the image processor 108 via the video signal line 111.
  • the light source 104, the light guide 105, the polarization plane control element 106, and the illumination lens 107 implement the polarization illumination unit 120 of FIG. 1A.
  • the imaging unit 140 of FIG. 1A is realized by the photographing lens 109 and the imaging element 110.
  • the variable luminance processing unit 1302, the reflection determination unit 1305, and the mirror image search unit 1306 in FIG. 1A are realized by the image processor 108.
  • the first image is captured when the polarization plane is 0 ° state 203
  • the second image is captured when the polarization plane is 45 ° state 204
  • the third image is captured when the polarization plane is 90 ° state 205.
  • the time required for the rotation of the polarization plane ranges from about 20 (ms) to about 40 to 100 ( ⁇ sec) high-speed type. If high-speed liquid crystal is used and the sensitivity of the image sensor is increased to such an extent that imaging can be performed in this time, even if shooting is performed with polarization rotation in four directions, sufficient performance is provided for shooting moving images. It is possible.
  • the image processing is performed for at least four frames of image capturing units. However, the processing time can be kept within one frame time by using pipeline processing.
  • the optical axis of the illumination lens 107 and the optical axis of the photographing lens 109 are substantially equal. This is because shadows are not generated as much as possible on the subject during observation with the endoscope.
  • an unpolarized average luminance image can be generated by adding separate polarized images from the first image to the fourth image.
  • FIG. 3 is a diagram showing the definition of the angle ⁇ I of the polarization plane in the polarized illumination.
  • the XY coordinate system is set toward the subject.
  • the angle ⁇ I of the polarization plane is defined as shown in FIG. 3 with the X-axis direction being 0 °.
  • the angle ⁇ I is preserved in the reflection, the angle of the polarization plane of the reflected light and the angle of the polarization plane of the incident light are the same.
  • the angle ⁇ I of the polarization plane is increased or decreased, the same polarization state is repeated with a period of 180 °. That is, the function having the polarization plane angle ⁇ I as a variable is a periodic function having a period of 180 °.
  • the angle ⁇ I of the polarization plane in the polarized illumination may be referred to as “incident polarization plane angle”.
  • FIGS. 4A and 4B are diagrams each illustrating an example of the configuration of the imaging surface of the imaging device 110.
  • FIG. 4A a plurality of photosensitive cells (photodiodes) are regularly arranged in rows and columns (XY direction) on the imaging surface.
  • a color mosaic filter that transmits light of three types of RGB wavelengths is installed as shown in FIG.
  • Each photosensitive cell generates an electrical signal according to the amount of incident light by photoelectric conversion.
  • a general single-plate color image sensor can be used for this portion.
  • a conventional luminance image can be used as the image sensor 110.
  • FIG. 5 shows a state in which polarized light having an incident angle close to zero is incident on the surface 801 and direct reflection is observed with a camera.
  • the polarization planes of incident polarized light are different by 90 °.
  • the luminance as energy does not change only by changing the traveling direction of the light. This is due to the following reason.
  • FIG. 6 is a graph showing the dependence of the specular reflectance on the incident angle according to Fresnel theory.
  • the horizontal axis represents the incident angle
  • the vertical axis represents the Fresnel reflectance.
  • An incident angle in the vicinity of 0 ° to 15 ° that can be regarded as normal incidence corresponds to the range 601.
  • the reflectance of the P wave and the S wave are substantially the same. Therefore, when the polarized light is incident on the surface almost perpendicularly, it is reflected with the same behavior because there is no distinction between the P wave and the S wave with respect to the surface.
  • FIG. 7 shows the variation of the luminance Y at a specific pixel of the luminance image obtained when the angle ⁇ I of the polarization plane of the polarized illumination with respect to the uneven surface is 0 °, 45 °, 90 °, 135 °. ing.
  • the luminance Y periodically varies with respect to the angle ⁇ I of the polarization plane of each polarized illumination. The reason for this will be described in detail below.
  • FIG. 8 shows a state in which a groove 801 is formed on an uneven surface and two reflections are generated on the inclined surface. This multiple reflection is considered to always occur on the surface of an object with many surface irregularities, and the nature of the first and second reflections is important. Depending on the geometrical arrangement, the reflection may occur three times at almost the same position as the two reflections. However, since the frequency of occurrence is very low, only the two reflections will be focused on thereafter.
  • the polarized illumination polarized perpendicular to the groove main axis direction 802 is a P wave.
  • the S wave Compared with the P-wave reflectivity, it becomes extremely weak.
  • the P wave becomes weaker while passing through the reflection once and twice.
  • the S-polarized light shown in FIG. 8B does not weaken so much even after two reflections.
  • the reflected light becomes extremely weak in terms of energy, and the luminance decreases.
  • the incident polarization plane that becomes the S wave the reflected light is not so attenuated in energy and has high brightness.
  • ⁇ Two reflections in the groove can be detected as a polarization phenomenon, and this can be observed as a luminance fluctuation using polarization rotation illumination.
  • the groove model as described above was somewhat artificial. Unevenness on the organs and mucosal surfaces of living bodies has various shapes. 9 to 12 are models of such actual unevenness.
  • FIG. 9 shows the simplest groove. This is formed of only two kinds of inclined surfaces 901, and light incident from substantially right above is reflected twice (902) on the inclined surfaces and becomes return light. In this modeling, there is only a double reflection phenomenon in the groove. Therefore, in a situation where the resolution is low to some extent, the groove center is often the darkest, and the unevenness can be detected even by using conventional image processing with luminance.
  • FIG. 10 shows a case where the groove has a bottom surface 1001, which is a shape seen in a shallow wide depression.
  • the light incident from directly above is reflected twice (1002) on the inclined surface 1004 to become return light, and is reflected once (1103) on the bottom surface.
  • the center of the groove becomes brightest and the concave portion becomes darker than the surroundings, and it becomes difficult to determine the unevenness by image processing using luminance.
  • FIG. 11 shows a shape of a region where convex shapes 1105 on the flat portion are dense, and is a shape seen when a raised tumor or the like is generated.
  • the convex portion is modeled as a hemisphere for simplicity, the gap portion 1101 of the convex portion 1105 can be regarded as a concave portion, and light incident from almost right above is adjacent to the surface as shown in FIG. And reflected twice (1102) to return light.
  • the light is reflected once to form a very high luminance region, but there is also a region 1104 where the reflected light is generated once at the bottom of the concave portion of the gap.
  • This region 1104 is often very bright. Therefore, when observed with luminance, the concave portion becomes brighter than the surroundings, and it becomes difficult to accurately detect the concave region as shown in FIG.
  • FIG. 12 shows a shape in which a hole-like concave portion 1204 exists alone on the flat portion.
  • the recess 1204 is modeled as a hemispherical hole. Also in this case, since there are a pair of facing slopes, the light incident from substantially right above is reflected twice (1201) and becomes return light. However, since the incident light is reflected (1202) once on the bottom surface, the center 1203 of the recess 1204 is in the brightest state when observed with luminance. As a result, since the concave 1204 becomes darker than the surroundings, it becomes difficult to accurately detect the concave region as shown in FIG.
  • the surface unevenness information is correctly obtained by separating the single reflection and the double reflection phenomenon from the information using rotationally polarized illumination. Can be detected.
  • FIG. 13 is a block diagram showing a configuration of the image processor 108.
  • the image processing executed in this embodiment uses the principle of detecting irregularities from information obtained by irradiating polarized illumination with a rotating polarization plane and observing luminance fluctuations.
  • the polarization plane angle ⁇ I of illumination is changed to 0 °, 45 °, 90 °, and 135 °, four luminance image groups 1301 captured respectively are input to the image processor 108.
  • the fluctuation luminance processing unit 1302 optimally fits this to the cosine function.
  • the luminance variation is expressed as follows, where the angle of the polarization plane of illumination is ⁇ I.
  • FIG. 14 shows the cosine function of the luminance fluctuation, and represents the amplitude AI, phase ⁇ o, and average value Y ⁇ I_ave .
  • the four sample points are drawn so as to be placed on the cosine function for the sake of simplicity.
  • a method for estimating the above value by fitting a cosine function from four equally spaced angle samples is as follows. First, the luminance Y ⁇ I_ave of the original image under non-polarized illumination is obtained by the following equation. This approximately reproduces a luminance image under non-polarized illumination, and this image can be used as a normal observation image of an endoscope.
  • the variable luminance processing unit 1302 performs optimal fitting using the least square error from the sampled luminance to the cosine function. Here, it is carried out from samples in four directions of 0 °, 45 °, 90 °, and 135 °. Since the cosine function is determined by three types of information of amplitude, phase, and average value, in order to determine these, any number of samples may be used as long as it is three or more samples. However, in the case of a 45 ° sample, there is a property that the optimum fitting can be simplified.
  • phase ⁇ o of the cosine function that minimizes this square error can be obtained from the following equation.
  • the angle taking the minimum value and the angle taking the maximum value can be calculated as follows by performing the case difference from the magnitude relationship between a and c.
  • ⁇ 0max The value of ⁇ 0max that takes this maximum value may be used as the luminance maximum angle image YPH as it is.
  • the maximum value and the minimum value of the amplitude is as follows.
  • the luminance modulation degree image YD is obtained by the following Expression 12.
  • the maximum luminance angle image YPH and the luminance modulation degree image YD are obtained. These pieces of information are sent to the reflection determination unit 1305 as shown in FIG.
  • the two types of images, the maximum luminance angle image YPH and the luminance modulation degree image YD, are often expressed together as a pseudo color image. In that case, the luminance maximum angle image YPH represents the hue angle of the color, and the luminance modulation degree image YD represents the color saturation.
  • the image group 1301 photographed under different polarized illuminations is added and averaged by the luminance addition averaging unit 1310 and becomes equivalent to an image photographed under non-polarized illumination.
  • the reflection determination unit 1305 uses the maximum luminance angle image YPH, the luminance modulation degree image YD, and the luminance image Y to distinguish and determine the reflection generated on the subject surface as a single reflection and a double reflection.
  • FIG. 15 is a flowchart for explaining the processing of the reflection determination unit 1305.
  • step S1501 the luminance modulation degree image YD and the luminance image Y are input.
  • step S1502 the value of each pixel of the luminance modulation image YD (modulation) determines whether a predetermined threshold level TH _ YD above.
  • it can be separated only reflective region in which a predetermined threshold level TH _ YD more degree of intensity modulation is present as a pixel region of the two reflective regions REF2.
  • the region composed of such a pixel is determined as the single reflection region REF1.
  • the once-reflection area REF1 and the twice-reflection area REF2 constitute a “specular reflection area”.
  • the double reflection area REF2 may include an area where two or more reflections occur, and may be referred to as a “multiple reflection area”.
  • the once-reflection area REF1 and the twice-reflection area REF2 are separated on the image.
  • a region that is neither the one-time reflection region REF1 nor the two-time reflection region REF2 is distinguished from the “specular reflection region”.
  • FIG. 16A schematically shows a result of processing of the reflection determination unit 1305 for a scene (FIG. 11) in which a protruding tumor or the like is generated on a flat part.
  • the single reflection area is described as a hatched circular area.
  • the one-time reflection region is a high-intensity region existing near the top of the raised portion and the bottom surface of the recess.
  • each pair of the twice-reflecting regions 1601, 1602, 1603 is located on the slope of the concave portion where the raised portions contact each other.
  • FIGS. 17A and 17B are diagrams that schematically represent the processing results. A state in which the minute reflection regions 171, 172, 173, 174, and 175 having various shapes separated and extracted have the luminance maximum angle H as an attribute is shown.
  • the maximum luminance angle H is an angle with a cycle of 180 degrees. Regions having the same maximum luminance angle H are represented by pattern textures in FIGS. 17A and 17B. It is assumed that the areas 171 and 172 shown in FIG. 17A have an attribute corresponding to the angle H1, and the areas 173, 174 and 175 shown in FIG. 17B have an attribute corresponding to the angle H2. In other words, the maximum luminance angle H of the areas 171 and 172 is H1, and the maximum luminance angle H of the areas 173, 174 and 175 is H2.
  • a concave portion is determined by finding a region that becomes a mirror image pair such as the two-time reflection region 1601, 1602, or 1603 in FIG. 16C.
  • the shape as the binary image is not reliable and is not very useful.
  • the angle H1 that the twice-reflection area has is a big clue. This is because the angle H1 indicates the groove main axis angle, and the paired regions always exist in the direction perpendicular to the groove main axis.
  • the search may be performed only on a straight line orthogonal to the groove main axis.
  • a straight line orthogonal to the groove main axis is referred to as a search line 176.
  • the search line 176 for the region 171 in FIG. 17A passes through the center of gravity 178 of the region 171 and is orthogonal to the angle H1.
  • the mirror image corresponding to the region 173 passes through the center of gravity of the region 173 and is located on a straight line (search line 177) orthogonal to the angle H2. Therefore, the mirror image corresponding to the region 173 may be searched only on the search line 177.
  • a region 175 having an angle value equal to the angle value H2 is located in the vicinity of the region 173, but this region 175 is not on the search line 177. That is, the region 173 and the region 175 do not constitute a pair of two-time reflection regions. According to the method of searching on the search line, the region 175 is not mistaken for being a region that forms a pair with the region 173.
  • FIG. 18A is a flowchart illustrating an example of processing of the mirror image search unit 1306.
  • a twice-reflection area image is input.
  • This is data including a binary image showing a pair of twice-reflection areas as exemplified in FIG. 16C, a luminance maximum angle image YPH, and a luminance modulation degree image YD. Specific examples of data will be described later (FIG. 18B).
  • the value of the maximum luminance angle in each pixel of the maximum luminance angle image YPH is referred to as a YPH value
  • the degree of modulation in each pixel of the luminance modulation degree image YD is referred to as a YD value.
  • step 1802 the fine dispersed fine regions on the image generated for the binarization processing described in (Equation 13) in the reflection determination unit 1305 are removed as noise. This can be done by using normal binary image contraction / expansion processing.
  • step 1803 the binary image is labeled, and an average value of the number of pixels, barycentric coordinates, YD value, and YPH value is calculated for each region.
  • pseudo color values R, G, B expressed by using the YD value as the color saturation and the YPH value as the hue of the color are used.
  • FIG. 18B shows an example of pseudo color values (R, G, B) in one reflection region.
  • This area is an area consisting of 11 pixels existing on the X-axis coordinates 275-278 and the Y-axis coordinates 183-186 on the image.
  • step S1804 of FIG. 18A the search area number nr is set to 1 as an initial setting.
  • step S1805 a search line is calculated for the search area. This search line defines a search range used when searching for a mirror image as described above.
  • step S1806 the search area number nr1 is set to 1, and the search is actually performed in step S1807.
  • FIG. 19 is a diagram for explaining the details of the search for the search target region.
  • a region serving as a reference for searching for the other region constituting the pair of two-time reflection regions is set as a search region 191, and the groove main axis direction is set to a direction represented by an arrow 192.
  • the search area 191 and a similar color area are determined using Expression 15 for determining whether or not the principal axis angle between the search area 191 and the search target area is similar, and the search line 193 is determined at the same time.
  • the search line equation is expressed as follows using the center-of-gravity coordinates of the current search region and the principal axis angle ⁇ of the twice-reflection groove.
  • the condition of the vertical distance D between the search area (number nr1) and the search line with respect to the search line of the search area (number nr) is as follows.
  • the search line distance Len is calculated as follows.
  • step S1809 it is determined whether or not the search of all search areas for the search area nr is completed. If the search is not completed, the next search area nr1 is set (S1808).
  • step S1810 the search line distances Len are sorted to select two from the short distances. This becomes a mirror image pair, but there cannot be a mirror image pair that is too far away. So until the second from a short distance in step S1811 is smaller than the maximum distance LEN _ TH, it is recognized as a pair of mirror image.
  • a perpendicular bisector corresponding to the groove is generated from the obtained mirror image pair region.
  • This line segment is referred to as a groove segment, and the length can be expressed as GRVLEN as follows.
  • step S1812 If it is confirmed in step S1812 that all areas nr have been searched, the process ends. If not completed, the process proceeds to the next search area (step S1813).
  • 20A to 20D are diagrams showing experimental images in which groove segments are extracted from an actual subject.
  • FIG. 20A is a luminance image generated from four images obtained by photographing a subject with rotationally polarized illumination.
  • a fish egg that is assumed to have a shape similar to the unevenness of the organ surface and reflection characteristics, specifically, an assembly of “Sujiko” is used.
  • On the surface a large number of images of a single reflection of ring illumination, which is illumination, and a ring-shaped image due to the translucent characteristics are observed, which becomes a serious noise in luminance image processing.
  • the processing can be normally performed with almost no problem.
  • FIG. 20B is a diagram illustrating a result of performing the processing of the variable luminance processing unit 1302, and one pseudo color image is shown by combining the luminance maximum angle image YPH and the luminance modulation degree image YD.
  • FIG. 20C is a diagram illustrating a result of the reflection determination unit, and illustrates a result of separation / extraction of a minute reflection region determined to be reflected twice by the quantization process. These minute regions correspond to the respective regions in FIGS. 16C, 17A, and 17B.
  • FIG. 20D is a diagram illustrating a result of performing the process of the mirror image search unit 1306, and a groove segment is extracted in the vicinity of each contour line of a fish egg.
  • a portion from which a plurality of parallel lines 2001 are extracted corresponds to a portion where a plurality of mirror image area pairs are found.
  • FIG. 21A and FIG. 21B are diagrams for explaining the cause of occurrence of the plurality of mirror image pairs.
  • FIG. 21A is a cross-sectional view of the unevenness on the surface of the subject, and since the slope has a curve having inflection points, one reflection at points (A) and (D), (B) and (C) ) Another double reflection occurs at the point. Therefore, as shown in FIG. 21B, four twice-reflection areas are observed on the same search line, and as a result, three groove segments are extracted. In this case, it may be determined by a separate algorithm that the original groove center is the midpoint between (B) and (C).
  • the concave area connecting unit 1307 generates a single concave area by connecting the estimated groove segments, and determines the azimuth angle of the normal line.
  • FIG. 22 is a flowchart showing the processing flow of the recessed area connecting portion 1307.
  • step S221 shown in FIG. 22 all the groove segments S in the image, which have been segmented by the mirror image search unit 1306, are targeted.
  • step S222 an expansion process of binary image processing is executed depending on the direction of each groove segment S.
  • the direction of this expansion process is determined depending on the direction of the individual groove segments, and expands almost evenly with respect to the main axis of the groove segment and its vertical direction, and the groove slope area is reproduced using the groove segment as the bottom of the groove. To do.
  • step S223 the parts close to the expansion area are connected to each other by image processing, and a discrete groove segment depending on the minute reflection area is set as a large continuous connection groove area.
  • step S224 a thin line corresponding to the bottom of the continuous connection groove area is determined by thinning the connection groove area by binary image processing.
  • step S225 a vector perpendicular to the thin line and directed in the direction of the fine line is set, and this is estimated as the azimuth (azimuth) angle of the normal vector of the groove.
  • step S226 the Zenith angle of the groove is estimated by fitting the cross-sectional shape in the connection groove region with an existing function form such as a quadratic function. At this time, the reflection intensity of the minute reflection region becomes a constraint condition. As can be seen from FIG. 10, FIG. 11, FIG. 12, and the like, the slant angle that generates strong double reflection in each cross section is utilized in the vicinity of about 45 degrees with respect to the normal. These processes are performed to estimate the connection groove region, and the surface normal vector at that location, that is, the azimuth angle and the zenith angle are estimated. The above processing will be described with reference to an actual example.
  • FIG. 23A to FIG. 23D are diagrams showing examples of a curved groove, and this groove may be considered as a groove present around a raised convex region.
  • FIG. 23A shows the micro-reflecting areas 151 and 152 and the set groove segment 179.
  • FIG. 23B shows the result of the expansion process of the groove segment 179.
  • FIG. 23C shows a state in which thinning processing is performed by connecting to another groove segment. At this stage, the connection groove region is curved centering on the lower left of the image, and the bottom surface position that is the valley is indicated by a thin line.
  • FIG. 23D shows a result of estimating the normal azimuth angle with respect to the obtained groove.
  • FIG. 24A to FIG. 24D are diagrams showing examples of depressions (holes) in a flat plane. Since the shape of the hole is considered to be that the groove is point-symmetric, there are theoretically innumerable mirror image pairs of two reflections.
  • the minute reflection region 2000 and the minute reflection region 2001 form a mirror image pair, and the groove segment 2004 is estimated. Further, the minute reflection region 2002 and the minute reflection region 2003 form a mirror image pair, and the groove segment 2005 is estimated.
  • FIG. 24B shows the result of expanding the groove segment. It can be seen that the expansion region forms one cross-shaped closed region. If thinning is performed from here, one point on the bottom surface is estimated.
  • FIG. 24C a hole which is a concave region obtained from the groove segment and one point on the bottom surface of the hole are illustrated.
  • FIG. 24D shows the result of estimating the azimuth angle of the normal to the obtained hole region.
  • the cross-sectional shape modeling unit 1308 receives the result of estimating the azimuth angle by the above processing, estimates the Zenith angle in the recessed area, and determines two angles representing the normal line. When the Azimuth (azimuth) angle and Zenith (zenith) angle of the concave region are determined, a normal image of the concave region is generated.
  • FIG. 25 is a diagram illustrating the azimuth angle and the zenith angle.
  • the normal vector is a three-dimensional vector, but its length is normalized to 1, so the degree of freedom is 2, and when expressed as an angle, the azimuth angle ⁇ in the screen and the zenith angle ⁇ with respect to the line of sight Express.
  • an XY axis is set in the image, and the negative direction of the Z axis is the line-of-sight (optical axis) direction.
  • the relationship with the three normal components (Nx, Ny, Nz) is as shown in the figure. That is, if the azimuth angle ⁇ and the zenith angle ⁇ are obtained from the polarization information, the surface normal at that point is as follows.
  • FIG. 26 shows a processing flow of the cross-sectional shape modeling unit 1308.
  • step S2601 the Zenith angle is estimated in a state where the Azimuth angle is already estimated.
  • the groove section may be fitted with a specific function, but here a normal distribution function is used.
  • FIG. 27 shows a plan view and a cross section of the estimated groove as viewed from directly above the subject.
  • the cross-sectional shape is expressed by a normal distribution function using a parameter ⁇ .
  • the normal distribution function is selected as an approximation of the various cross-sectional shapes in FIGS. 10 to 12 because it is expressed with only one parameter ⁇ and is simple, and is similar to the shapes of various grooves common to living bodies. is doing.
  • the cross-sectional shape of the groove is expressed by a normal distribution function, and at the same time, the Zeinth angle is determined according to the deviation value W from the center line 2702 of the groove bottom surface. Note that the value of the normal distribution function asymptotically shifts to the flat portion as the distance from the groove center increases. Therefore, this model is suitable as a model of a recess in a mucosal surface such as the stomach.
  • the zenith angle ⁇ at a point x away from the groove center line is As required. Needless to say, a cross-sectional shape model other than the normal distribution function may be used.
  • step S2602 a normal vector (Nx, Ny, Nz) of the subject surface in the camera coordinate system is obtained from the obtained azimuth angle ⁇ and zenith angle ⁇ using (Expression 21), and this is obtained as a two-dimensional normal image.
  • the above processing is the normal estimation processing in the concave region where the reflection occurs twice on the surface of the subject. Next, the processing of the region where the reflection occurs once will be described.
  • the high brightness area processing unit 1312 determines the normal line in the portion extracted as the area REF1 having very bright brightness on the surface of the subject in FIG.
  • FIG. 28 is a diagram showing the principle of determining the normal line.
  • the surface normal line N1 in the REF1 region is equal to the viewpoint vector V and the light source vector L because of the property that the incident angle and the reflection angle are equal in the specular reflection in the single reflection. It can be calculated as a minute vector.
  • the surface normal in the REF2 (double reflection) region and the REF1 (single reflection) region can be determined.
  • these normals are only required locally. Therefore, a global normal over the entire surface of the subject is determined.
  • the normal reproduction unit 1313 obtains a normal to the normal undetermined region using the normal continuity assumption from the relationship between the theoretical surface reflection model and the observed luminance of a single image, and Determine the normal. In this region, almost no reflection occurs twice, so it can be considered that the luminance is determined by a single reflection from the direction of illumination, normal line, and line of sight, and SFS (Shape From Shading), which has been often used conventionally.
  • SFS Shape From Shading
  • the surface normal (Nx, Ny, Nz), which is a vector in the three-dimensional space, is useful for expressing the outer edge line constraint of the subject via the (p, q) gradient space (f, g ) Express in space.
  • (Formula 26) and (Formula 27) may be used.
  • FIG. 29A schematically shows how the normal line of the convex portion of the surface is gradually formed by this iterative method.
  • the initial surface is flat as 2901, but when the iterative method is applied, convex regions are gradually formed as 2902 and 2903.
  • the normal line group in the groove region and the normal line in the REF1 region can be used as constraint conditions.
  • the normal image N can be generated by the above processing.
  • FIG. 29B is a diagram schematically representing a normal image. Each pixel of the luminance image is accompanied by surface normal vector data at that location. The following description relates to a portion for combining and displaying the image generated in this way.
  • the normal image N is sent to the light source fluctuation image generation unit 117.
  • the light source fluctuation image generation unit 117 generates a luminance image using a physical reflection model formula by giving a camera viewpoint direction and an illumination light source direction to the obtained normal line image.
  • the Cook-Trans model is used as a model formula that well expresses the specular reflection of the subject. According to this, the luminance Is is expressed by the following equation.
  • ⁇ in the above equation is an angle formed by the bisected vector H and the normal line N
  • ⁇ r is an angle formed by the line-of-sight vector and the normal line N. It is.
  • the Fresnel coefficient F and the geometric damping factor G are expressed by the following equations.
  • the light source direction setting unit 114 is a man-machine interface for setting the light source vector, and is freely set by a doctor who is an observing user in endoscopic diagnosis or the like.
  • This setting is a virtual setting that illuminates the illumination light source from a location other than the actual endoscope light source, for example, the left side, right side, upper side, and lower side. it can.
  • FIG. 31 schematically shows an image in which such a light source is changed. Since this image is based on the estimated normal image, the illumination can be changed freely on the computer, and the illumination position, which is one of the disadvantages of the endoscope, cannot be changed. The problem of being difficult can be solved.
  • the image expressed by the Cook transformer model is a specular reflection image of only the glossy part.
  • the specular reflection image is a monochrome image because of only a white light source, and this alone lacks reality. Therefore, the image composition unit 115 composites and displays the luminance image Y.
  • FIG. 32A is a diagram for explaining this composition processing.
  • the luminance image Y and the light source fluctuation image SY are sent to the image composition unit 115, and first, the diffuse reflection image DY is separated by the image component separation unit 3202. This is performed by subtracting from the luminance image Y a light source fluctuation image SY that is a specular reflection image in which the light source is set to the same state as when photographing. The color components and the like remain in the diffuse reflection image DY. Next, a light source fluctuation image SY when the light source is changed to an arbitrary position is generated, weighted by the weighting coefficient setting unit 3204, and added and synthesized by the adding unit 3203. The composite image is sent to the display unit.
  • FIG. 32B is an example of a display image realized by the above synthesis process.
  • the light source 3206 is an arbitrary parallel light source set virtually.
  • the subject image changes as shown in images 3208A to 3208D.
  • the unevenness can be visually perceived in that the specular reflection portion 3207 and the shadow portion 3209 that are reflected once move with a change in the position of the light source.
  • the doctor can see an image in which the unevenness is emphasized in a realistic manner, and can obtain information useful for diagnosis.
  • FIG. 33A is a diagram showing another form of the synthesis process.
  • the maximum luminance angle image YPH which is information before processing to that extent
  • the pseudo color image generated from the luminance modulation degree image YD are synthesized.
  • the pseudo color conversion unit 3301 converts the pseudo maximum color image C into the pseudo color image C.
  • a well-known HSV-RGB conversion or the like can be used.
  • this image is weighted by the weighting unit 3303 and sent to the adding unit 3304 together with the luminance image weighted by the weighting unit 3302 to be added and synthesized.
  • the hue indicates the azimuth angle of the surface groove.
  • FIG. 33B is an example of a display image realized by the above synthesis process.
  • the pseudo color image is synthesized here, the luminance maximum angle YPH image and the luminance modulation degree YD image can be synthesized as a monochrome image.
  • this apparatus does not employ a configuration for observing separate information by switching the illumination light to be observed, and therefore all processes can be executed in parallel. . That is, while observing the luminance image Y, which is a color image essential for normal endoscopy, simultaneously displays a composite image with the light source variation image SY or a composite image with the pseudo color image C on the display unit 116 at a time. There is a feature that it is possible to do. Of course, the doctor who scans the endoscope can switch the display as appropriate.
  • the normal is determined assuming that the REF1 (single reflection) region having very bright luminance on the surface of the subject shown in FIG. 16 is a convex region (see FIG. 28).
  • the REF1 (single reflection) region may be a concave region.
  • the apparatus of this modification includes an unevenness determination unit that determines whether the REF1 (single reflection) region is a concave region or a convex region.
  • the surface of the subject is an aggregate of spherical regions.
  • FIG. 34 is a diagram showing the configuration of this modification.
  • the apparatus of this modification includes an unevenness determination unit 1314.
  • the apparatus of this modification includes an unevenness determination unit 1314.
  • the REF1 area detected by the high luminance area processing unit 1312 is a convex area
  • processing by the normal reproduction unit 1313 is executed. If it is determined that the REF1 region is a concave region, this region is excluded from the REF1 region and the subsequent processing is performed.
  • FIG. 35A shows a case where the REF1 region is a convex region.
  • the REF1 region 1324 exists in the spherical region 1320, and three REF2 regions 1321, 1322, and 1323 exist around it.
  • V be a two-dimensional position vector starting from the REF1 area 1324 and ending at each of the REF2 areas 1321, 1322, and 1323.
  • a vector expressing the axis of the groove in each of the REF2 regions 1321, 1322, and 1323 is T.
  • This vector T may be a groove segment found as a result of mirror image search, or may be obtained as a groove main axis without mirror image search.
  • the direction of the vector T is fixed, but the direction is indefinite.
  • the reason why the absolute value of the outer product of the vector V and the vector T is used is that the direction of the vector T is not considered.
  • E indicates an average value in a plurality of twice-reflective areas
  • Thresh indicates a predetermined constant threshold value. The value of “Thresh” may be set to a different value depending on the type of subject, but may be determined by experiment or calculation.
  • the unevenness determination unit 1314 determines that the REF1 region 1324 is a convex region.
  • FIG. 35B shows a case where the REF1 region is a concave region.
  • the REF1 region 1325 exists in the center of the region surrounded by the plurality of REF2 regions 1326, 1327, and 1328.
  • the vector T and the vector V are almost parallel. . Therefore, when the REF1 region 1324 is a concave region, the following Expression 36 is established.
  • the unevenness determination unit 1314 can identify whether the one-time reflection region is a concave region or a convex region based on the magnitude of the absolute value of the outer product of the vector T and the vector V.
  • the image processing apparatus is a so-called flexible mirror type in which the imaging element is located at the tip.
  • the endoscope in the present invention is not limited to the flexible endoscope type, and may be a rigid endoscope type.
  • FIG. 36 is a block diagram illustrating a configuration example of the endoscope 101 according to the present embodiment.
  • the configuration other than the endoscope 101 is the same as the configuration of the image processing apparatus shown in FIG. 1C, the description of these configurations will not be repeated here.
  • the endoscope 101 included in the image processing apparatus of the present embodiment includes an imaging relay lens optical system 3401 and an illumination relay lens optical system 3302.
  • the imaging relay lens optical system 3401 guides the image of the subject obtained from the photographing lens 109 to the imaging element 110 located at the root of the endoscope, and has a general configuration in a rigid endoscope.
  • a polarization plane control element 106 is installed immediately before the light source 104. The non-polarized light emitted from the light source 104 is converted into rotating linearly polarized light, and this linearly polarized light is irradiated from the illumination lens 107 while maintaining the polarization state while passing through the illumination relay lens optical system 3302.
  • the polarization plane control element 106 it is not necessary to install the polarization plane control element 106 in FIG. 1C at the distal end portion of the endoscope, and the diameter of the distal end portion can be reduced.
  • the polarization plane control element 106 instead of the polarization plane control element 106, it is possible to use a mechanism for rotating a polarizer having a plurality of different transmission polarization planes.
  • the polarization state needs to be maintained in the middle, but in the imaging relay lens optical system 3401, the luminance itself may be maintained. This facilitates adjustment of the imaging relay lens optical system 3401.
  • the illumination relay lens optical system 3302 can be substituted by a light guide using a polarization maintaining fiber that maintains the polarization state.
  • the luminance image is picked up using the rotationally polarized illumination, and the processing performed by the image processor is the same as in the first embodiment.
  • FIGS. A front view of the tip portion 113 is shown on the left side of these drawings, and a cross-sectional view of the tip portion 113 is shown on the right side.
  • FIG. 37 shows a configuration example provided with a tip portion close to the configuration of the tip portion in the first embodiment.
  • the polarization plane control element 106 is mounted outside the illumination lens 107.
  • FIG. 38 shows a configuration example having a ring illumination unit 306 at the tip.
  • the light emitted from the ring illumination unit 306 is converted through the doughnut-shaped polarization plane control element 106 having a hole in the center.
  • the ring illumination unit 306 can be configured by arranging a plurality of end faces of individual optical fibers branched from the light guide 105 on the circumference.
  • FIG. 39 shows a configuration example having a wide ring illumination portion 307 having a wide configuration at the tip.
  • the ring illumination unit 307 has a plurality of LED chips arranged in a wide ring-shaped band region, and ring-shaped surface light emission is obtained as a whole.
  • the plane of polarization is controlled.
  • FIG. 40 shows a configuration example in which the center of the tip is recessed so that the optical axis of illumination is inclined with respect to the optical axis of imaging.
  • a photographing lens 109 is located in the recessed central portion, and a plurality of LED light sources 308 are arranged around it.
  • FIG. 41 shows a configuration example using coaxial epi-illumination in which the optical axis of illumination and the optical axis of imaging can be made the same.
  • Non-polarized light emitted from the circular surface-emitting LED illumination light source 309 passes through the circular polarization plane control element 106 and then enters the broadband non-polarization BS (beam splitter) at an angle of 45 degrees.
  • the broadband non-polarized BS transmits half of the incident polarized light in the visible light range and reflects half of the incident polarized light, but has the property of maintaining the polarization at that time. For this reason, the linearly polarized light is irradiated to the subject as it is. Similarly, half of the return light is transmitted and enters the photographing lens 109.
  • the light absorbing plate 310 it is desirable to install the light absorbing plate 310 in order to minimize reflection of a part of the light emitted from the light source after passing through the broadband non-polarized BS.
  • a plate-type broadband non-polarized BS is used here, a cube-type one may be used. In that case, since the reflection of the light source becomes stronger, a countermeasure is required.
  • an LED light source that emits linearly polarized light may be used, and its polarization plane may be rotated by a polarization plane control element.
  • all of the above embodiments are configured with a combination of rotationally polarized illumination and a luminance imaging device.
  • the imaging element 110 is replaced with a polarization imaging element instead of the need for the polarization plane control element 106 of FIG. 1C.
  • the polarization imaging element an element capable of imaging polarization in a certain wavelength band simultaneously with visible color luminance can be used.
  • the processing unit receives one polarized captured image instead of the luminance image group 1301 shown in FIG. 13 and performs processing.
  • Each maximum luminance image YPH and luminance modulation degree image YD in FIG. 13 may be replaced with a polarization main axis angle (phase) image and a polarization degree image, respectively.
  • the present invention provides medical endoscopes, dermatology, dentistry, ophthalmology, surgery and other medical use cameras, industrial endoscopes, fingerprint imaging devices, surface inspection devices, etc. It can be widely applied to the image processing field that is required.
  • DESCRIPTION OF SYMBOLS 100 Subject 100a Concave area

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Input (AREA)

Abstract

 本発明の画像処理装置は、偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体に照射する偏光照明部120と、3種類以上の直線偏光の各々によって被写体が照射されているときに、順次、被写体を撮像する撮像部140と、画像処理部150とを備えている。画像処理部150は、撮像部で撮影した画像の輝度を処理して被写体表面における反射偏光状態を算出する変動輝度処理部1302と、変動輝度処理部1302の出力に基づいて凹領域で2回反射して戻り光となる多重反射領域と、被写体表面で1回反射して戻り光となる1回反射領域とを判別する反射判定部1305と、被写体表面の凹領域で2回反射によって戻り光となる多重反射領域の対を決定する鏡像探索部1306とを有する。画像処理部150は、多重反射領域の対に基づいて前記被写体表面の前記凹領域を示す画像を生成する。

Description

画像処理装置
 本発明は、撮像素子によって取得される2次元輝度画像から得られる情報を超えた表面凹凸情報を得ることができる画像処理装置に関する。
 内視鏡は、粘膜で覆われた、生体の臓器器官の壁表面に対して照明を照射して撮像する。このような内視鏡の分野では、表面の色の変化と同時に、表面の微細な凹凸のテクスチャを確認する必要がある。しかし内視鏡では、被写体上に影の発生がなくなるように照明の光軸と撮像の光軸とのなす角はほぼ0°としているため、表面の微細な凹凸構造を陰影でとらえることが難しい。この課題に対して既存のカラー輝度による内視鏡撮像系のまま画像処理の工夫で、画像の濃淡情報から表面凹凸を識別しようとする従来技術が提案されている。また、偏光照明と偏光撮像とを用いた偏光内視鏡も提案されている。
 前者の技術は、例えば特許文献1に開示されている。この技術は、撮影された、カラー画像の特定画素の信号レベル値とその周囲8 画素の平均信号レベル値とを比較する。そして、特定画素の信号レベル値が低い場合は、被写体の対応部位は周囲から凹(窪んでいる)と判断する。そして、周囲から窪んでると判断された領域では、赤色画素信号および緑色画素信号の信号レベル値を低減することにより青色成分を強調する。これにより、モニタ装置に再現されるカラー画像は、あたかも通常の内視鏡検査で医師により実施される青色系色素溶液撒布に類似した色コントラストを呈し、臓器表面の凹凸が明瞭になる。
 後者の技術は、特許文献2、および特許文献3がある。ここでは、特定の偏光成分の光を物体に照射する偏光照射部と、前記物体からの戻り光における、前記特定の偏光成分の光、および前記戻り光における前記特定の偏光成分と異なる偏光成分の光とを受光し、偏光撮像する偏光モザイク型の受光部とを備え、前記物体の表面の形状変化を示す形状変化画像を生成する内視鏡が開示されている。特に観察者が粘膜の表面凹凸を視認しやすくするため、偏光特性算出部が偏光方位を算出し表面の傾斜情報の2次元分布を生成できる、としている。
 特許文献4、特許文献5および非特許文献1は、偏光面を回転させることが可能なデバイスを開示している。
特許3869698号公報 特開2009-246770号公報 特開2010-104424号公報 特開平11-313242号公報 US2009/0079982 A1 特許第4235252号
Nicolas Lefaudeux, et.al :"Compact and robust linear Stokes polarization camera"  ,Proc. SPIE, Vol. 6972, 69720B, Polarization: Measurement, Analysis, and Remote Sensing VIII(2008) 池内克史:「反射率地図に基づき、二次元濃淡画像より三次元形状を再構成する2手法」、電子情報通信学会誌'82/7,Vol.J65-D No.7,PP842-849
 従来技術では、表面の凹部(溝)の明瞭化のため、通常の輝度画像処理において「凹部は隣接画素より暗い」という特徴を使っていることが多い。しかし、実際には、それが成り立たない形状の凹部も多い。本発明者の経験では、たとえば平坦な底面を有する凹部や、隣接する傾斜面で相互に光を反射しあうような形状を有する凹部においては、底部や斜面を形成する画素が、周囲の画素よりむしろ明るく反射する事実が判明している。このような形状の凹部では、従来の輝度画像処理は有効ではなく、判定誤りが多発してしまう。
 また偏光を使う従来技術は、円偏光成分の光を物体に照射し、物体からの戻り光に関する楕円偏光の方位に基づいて表面の傾きを算出できる。しかしながら、上記生体で見られるような定型のない一般的凹部においてその表面法線を求めることは困難であった。
 一方、推定された凹凸情報の表示について、従来技術は凹部(溝)の明瞭化を実施する表示技術として「擬似色素撒布処理」など凹部領域の2次元表示をしているが、これは表面凹凸の実感(リアリティ)が感じられないという課題があった。
 本発明は、上記の課題を解決するものであり、その目的は、輝度のみならず被写体表面の微細凹凸をリアリティ高く再現できる小型で実現可能な画像処理装置を提供することにある。
 本発明の画像処理装置は、偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体に照射する偏光照明部と、前記3種類以上の直線偏光の各々によって前記被写体が照射されているときに、順次、前記被写体を撮像する撮像部と、画像処理部とを備える。前記画像処理部は、前記撮像部で撮影した画像の輝度を処理して被写体表面における反射偏光状態を算出する変動輝度処理部と、前記変動輝度処理部の出力に基づいて前記凹領域で2回反射して戻り光となる前記多重反射領域と、前記被写体表面で1回反射して戻り光となる1回反射領域とを判別する反射判定部と、前記被写体表面の凹領域で2回反射によって戻り光となる多重反射領域の対を決定する鏡像探索部とを有する。前記画像処理部は、前記多重反射領域の対に基づいて前記被写体表面の前記凹領域を示す画像を生成する。
 ある実施形態において、前記画像処理部は、前記多重反射領域の各対からグルーブセグメントを生成し、前記グルーブセグメントを接続して前記凹領域の位置を推定する凹領域接続部と、前記凹領域の断面形状を決定する断面形状モデル化部とを有する。
 ある実施形態において、前記画像処理部は、前記多重反射領域における表面法線と前記1回反射領域における表面法線とを統合して法線画像を生成する法線再現部を備える。
 ある実施形態において、光源位置を設定する光源方向設定部と、前記光源位置を仮想的に動かしたときの光源変動画像を生成する光源変動画像生成部と、前記光源変動画像と輝度画像とを重ねあわせ合成して表示する画像表示部とを有する。
 ある実施形態において、前記光源変動画像生成部は、前記法線画像および物理反射モデルを用いて前記被写体の輝度画像を生成する。
 ある実施形態において、前記偏光照明部および前記撮像部は、内視鏡に取り付けられている。
 ある実施形態において、前記偏光照明部は、非偏光の光を、偏光面変換素子を透過させることによって偏光面が3種類以上に順次変化する直線偏光を照射する。
 ある実施形態において、前記偏光照明部は、非偏光の光を前記偏光面変換素子に導くライトガイドを有している。
 ある実施形態において、前記撮像部はモノクロ撮像素子またはカラー撮像素子を有している。
 ある実施形態において、偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体に照射しながら前記撮像部によって取得された複数の輝度画像の加算平均を行うことにより、非偏光照明下での画像に相当する平均輝度画像を生成する輝度加算平均部を有する。
 ある実施形態において、前記変動輝度処理部は、前記撮像部から出力される画素信号に基づいて、前記偏光面の角度と各画素の輝度値との関係を求め、各画素について前記輝度値が最大となる前記偏光面の角度によって定義される輝度最大角画像、および各画素について前記偏光面の変化にともなう前記輝度値の変動の振幅と輝度平均値との比率によって定義される輝度変調度画像を生成する。
 ある実施形態において、前記輝度最大角画像、前記輝度変調度画像のいずれかと、輝度画像とを重ねあわせ合成して表示する画像表示部を有する。
 ある実施形態において、前記反射判定部は、前記輝度最大角画像および前記輝度変調度画像に基づき、前記輝度最大角を色相角、前記輝度変調度を彩度とする擬似カラー画像において、あらかじめ設定された値以上の輝度変調度を持つ画素を、前記多重反射領域を構成する画素として抽出する。
 ある実施形態において、前記凹領域接続部は、前記凹領域の表面法線のAzimuth(方位)角を推定する。
 ある実施形態において、前記断面形状モデル化部は、前記凹領域の断面形状を特定の関数にてモデル化し、前記多重反射領域における表面法線のAzimuth角が概略45度になる性質を利用して、前記凹領域における任意の位置における表面法線のZenith(天頂)角を推定する。
 ある実施形態において、前記偏光照明部は、偏光面が3種類以上に順次変化する偏光面変換素子を透過させた光を、リレーレンズ光学系を経由して前記被写体に照射する。
 ある実施形態において、前記偏光照明部は、同心円状態の複数のリング照明または面照明光源を偏光面変換素子と組み合わせた光学系を有する。
 ある実施形態において、前記偏光照明部は、撮像系の光軸よりも内側向きの照明系光軸を有する面照明光源と偏光面変換素子とを組み合わせた光学系を有する。
 ある実施形態において、前記偏光照明部は、無偏光広帯域ビームスプリッタと面照明光源と偏光面変換素子とを組み合わせた光学系を有する。
 本発明の画像処理方法は、偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体に照射する偏光照明工程と、前記3種類以上の直線偏光の各々によって前記被写体が照射されているときに、順次、前記被写体を撮像する撮像工程と、画像処理工程とを含む画像処理方法である。前記画像処理工程は、前記撮像工程で撮影した画像の輝度を処理して被写体表面における反射偏光状態を算出する変動輝度処理工程と、前記変動輝度処理工程の結果に基づいて前記凹領域で2回反射して戻り光となる前記多重反射領域と、前記被写体表面で1回反射して戻り光となる1回反射領域とを判別する反射判定工程と、前記被写体表面の凹領域で2回反射によって戻り光となる多重反射領域の対を決定する鏡像探索工程と、前記多重反射領域の対に基づいて前記被写体表面の前記凹領域を示す画像を生成する工程とを含む。
 本発明の内視鏡装置は、偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体に照射する偏光照明部と、前記3種類以上の直線偏光の各々によって前記被写体が照射されているときに、順次、前記被写体を撮像する撮像部と、画像処理部と、画像処理部の出力に基づいて画像を表示する表示部とを備える。前記画像処理部は、前記撮像部で撮影した画像の輝度を処理して被写体表面における反射偏光状態を算出する変動輝度処理部と、前記変動輝度処理部の出力に基づいて疑似カラー画像を生成する疑似カラー画像変換部と、を備える。前記変動輝度処理部は、前記撮像部から出力される画素信号に基づいて、前記偏光面の角度と各画素の輝度値との関係を求め、各画素について前記輝度値が最大となる前記偏光面の角度によって定義される輝度最大角画像、および各画素について前記偏光面の変化にともなう前記輝度値の変動の振幅と輝度平均値との比率によって定義される輝度変調度画像を生成し、前記疑似カラー画像変換部は、前記輝度最大角画像および前記輝度変調度画像に基づき、前記輝度最大角を色相角、前記輝度変調度を彩度とする擬似カラー画像を生成し、前記擬似カラー画像と輝度画像とを合成して前記表示部に表示させる。
 本発明の画像処理装置では、偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体に照射する偏光照明部と、3種類以上の直線偏光の各々によって被写体が照射されているときに、順次、被写体を撮像する撮像部とを備えているため、特別な偏光撮像素子を新たに開発する必要なしにカラー画像と同時に表面の凹凸形状に応じた反射偏光状態に関する情報を取得することができる。こうして、本発明では、反射偏光状態から表面凹凸の情報を得る。通常のカラー撮像素子をそのまま利用することができるので、高コストの偏光撮像素子を使う必要もなく、表面凹凸を視認するための情報を取得することができる。
本発明による画像処理装置の基本構成を示す図 偏光面の角度が異なる3種類の直線偏光の偏光方向を模式的に示す斜視図 本発明の実施形態1に関する画像処理装置の構成を示す図 偏光面制御素子の動作を示す図 偏光面角度の定義図 (a)および(b)は、本発明の実施形態1に関する撮像素子における光感知セル配置例を示す図 (a)および(b)は、入射光が被写体表面に対して直上から入射して1回反射をする図 横軸を入射角とした際のP波とS波のエネルギーのフレネル反射率を示すグラフ (a)および(b)は、偏光照明の偏光面回転による画素ごとの輝度変動を示すグラフ (a)および(b)は2回反射による偏光反射光の輝度変動の説明図 (a)最も単純なグルーブ(溝)の形状と(b)入射光の反射の様子を示す図 (a)底面と斜面とを有するグルーブ(溝)形状と(b)入射光の反射の様子を示す図 (a)隆起(凸部)が密集している形状と(b)入射光の反射の様子を示す図 (a)穴(凹部)形状と(b)入射光の反射の様子を示す図 本発明の実施形態1に関する画像処理プロセッサの構成を示すブロック図 4種類の偏光照明に対応する偏光輝度サンプルから余弦関数フィッティングをする図 1回・2回反射判定部の処理を説明するフロ-チャート 撮影シーンとしての図11の形状を示す図 分離された1回反射領域REF1を模式的に示す図 分離された2回反射領域REF2を模式的に示す図 鏡像探索部の処理を説明する図 鏡像探索部の処理を説明する図 鏡像探索部の処理を説明するフローチャート 1つの反射領域におけるデータを示す図 被探索領域の探索の詳細を説明する図 実被写体の輝度画像を示す図 輝度最大角画像YPHと輝度変調度画像YDを1つの擬似カラー画像にした図 量子化処理にて2回反射と判定された微小反射領域を示す図 鏡像探索部の処理でグルーブセグメントが抽出された結果を示す図 複数の鏡像対の発生原因を説明する図(断面図) 複数の鏡像対の発生原因を説明する図(反射領域の図) 凹領域接続部の処理を説明するフローチャート 凹領域接続部におけるグルーブセグメントの設定処理結果を示す図 凹領域接続部におけるグルーブセグメントの膨張処理結果を示す図 凹領域拡張部における細線化の化理結果を示す図 凹領域拡張部における法線決定の処理結果を示す図 穴の場合における凹領域接続の処理結果を示す図(グルーブセグメントの設定) 穴の場合における凹領域接続の処理結果を示す図(グルーブセグメントの膨張) 穴の場合における凹領域接続の処理結果を示す図(細線化) 穴の場合における凹領域接続の処理結果を示す図(法線推定) カメラ座標系における法線ベクトルのAzimuth(方位)角、Zenith(天頂)角を説明する図 法線推定部の処理を説明するフローチャート 推定されたグルーブの平面図と断面図 1回反射領域における法線推定の原理図 繰り返し法によって推定された表面法線と被写体断面図 推定された法線画像を模式的に表現した図 表面法線と光源、視点の幾何学的関係 光源変動画像の例を示す図 輝度画像と光源変動画像との合成部の構成例を示す図 輝度画像と光源変動画像との合成を示す図 輝度画像と擬似カラー画像の合成部の構成例を示す図 輝度画像と擬似カラー画像の合成を示す図 本発明の実施形態1の変形例に関する画像処理プロセッサの構成を示すブロック図 REF1領域が凸領域である場合を示す図 REF1領域が凹領域である場合を示す図 本発明の第2の実施形態を示す図 本発明の第1、2の実施形態の変形例を示す図 本発明の第1、2の実施形態の変形例を示す図 本発明の第1、2の実施形態の変形例を示す図 本発明の第1、2の実施形態の変形例を示す図 本発明の第1、2の実施形態の変形例を示す図
 本発明による画像処理装置の例は、図1Aに示すように、偏光照明部120と、撮像部140と、変動輝度処理部1302と、反射判定部1305と、鏡像探索部1306とを備えている。変動輝度処理部1302、反射判定部1305、および鏡像探索部1306は、画像処理部150に含まれている。
 偏光照明部120は、偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体100に照射する。本発明が撮像の対象とする被写体100の表面には、複数の凹領域100aが存在する。被写体100が例えば生体の臓器表面には、複数の凹領域が観察される。直線偏光は、被写体100の表面に存在する凹領域100aと、凹領域100a以外の領域とによって反射され、撮像部140に入射する。撮像部140は、3種類以上の直線偏光の各々によって被写体100が照射されているときに、順次、被写体100を撮像する。
 図1Bは、偏光面の角度が異なる3種類の直線偏光の偏光方向を模式的に示す斜視図である。図示されている3つの偏光状態10、12、14は、それぞれ、角度の異なる偏光面を有している。図1Bの各偏光状態10、12、14を模式的に示すサークルの内部には、双方向の矢印が記載されている。この矢印は、直線偏光の偏光面を規定する電場ベクトルの振動方向を示している。
 図1Bには、右手系のXYZ座標を示している。本明細書では、撮像部140によって取得される画像面内にX軸およびY軸を設定し、Z軸の負の向きを視線(光軸)方向に設定する。直線偏光の偏光面は、振動する電場ベクトルに平行な、光軸を含む平面である。上記の座標系を採用する場合、直線偏光の電場ベクトルの振動方向はXY平面に平行である。このため、偏光面の角度(ΨI)は、X軸の正方向に対して偏光方向(電場ベクトルの振動方向)が形成する角度によって規定される。この角度ΨIについては、後に図3を参照して、より詳しく説明する。
 本発明では、偏光照明部120から、偏光面の角度が異なる3種類以上の直線偏光が、順次、被写体100に照射され、撮像部140が、3種類以上の直線偏光の各々によって被写体100が照射されているときに、順次、被写体100を撮像する。
 再び図1Aを参照する。変動輝度処理部1302は、撮像部140から出力される画素信号に基づいて、偏光面の角度と各画素の輝度値との関係を求め、「輝度最大角画像」および「輝度変調度画像」を生成する。本明細書において、「輝度最大角画像」とは、撮像によって得られた画像を構成する各画素について、輝度値が最大となる偏光面の角度によって定義される画像である。例えば、ある座標(x、y)によって特定される画素P(x、y)の輝度値が、角度45°の偏光面を有する直線偏光によって被写体100が照射されたときに最大になる場合、その画素P(x、y)に対して、輝度最大角である45°の値が設定される。1つの「輝度最大角画像」は、このような輝度最大角の値を各画素に設定することによって構成される。一方、「輝度変調度画像」とは、各画素について偏光面の変化にともなう輝度値の変動の振幅と輝度平均値との比率によって定義される画像である。ある画素P(x、y)における輝度変調度が0.3であるならば、この画素P(x、y)に対して0.3の値が設定される。1つの「輝度変調度画像」は、このような輝度変調度の値を各画素に設定することによって構成される。
 このように、本明細書における「画像」とは、人間の視覚によって直接的に認識される輝度画像を意味するだけではなく、複数の画素の各々に与えられた数値の配列を広く含むものとする。例えば1つの「輝度最大角画像」を表示する場合、「輝度最大角画像」の各画素に設定されている輝度最大角の値に応じた明度で画像を表示することができる。このようにして表現された「輝度最大角画像」は、人間の視覚によって認識できる明暗のパターンを含んでいるが、これは、被写体の輝度を示す通常の輝度画像とは異なるものである。また、本明細書では、簡単のため、各種の「画像」を示すデータそのものを「画像」と称する場合がある。
 図1Aに示される反射判定部1305は、変動輝度処理部1302の出力に基づいて、凹領域で2回反射して戻り光となる多重反射領域と、被写体表面で1回反射して戻り光となる1回反射領域とを判別する。後述するように、被写体表面の凹領域と、凹領域以外の領域との間には、偏光反射状態に差異があるため、これらの領域を判別することができる。凹領域では、多重反射(典型的には2回反射)が生じるため、多重反射領域は、同様の偏光反射状態を示す対(ペア)を構成する。このような多重反射領域の典型的な一例は、断面がV字状のグルーブ(溝)であり得る。このようなグルーブの最も簡単な構造を有する例は、後述の図9に示すように、一方向に直線的に延びるグルーブである。しかし、多重反射領域を有する凹領域は、断面が概略的にV字状またはU字状に傾斜・湾曲する表面を有していればよく、他の形態を有し得る。後に説明するように、図10から図12に例示されるような形態でも、その断面には概略的にV字状またはU字状に傾斜または湾曲する面が存在する。したがって、そのような面では多重反射が生じ、同様の偏光反射状態を示す領域の対が観察され得る。
 このような、同様の偏光反射状態を示す多重反射領域の対は、被写体の表面において連なり、より広い凹領域を形成している。この凹領域の典型例は、グルーブであるため、本明細書では、多重反射領域の対を含む凹領域を「グルーブ」と称する場合がある。しかし、本明細書における「グルーブ」は、被写体の表面において一方向に延長した溝状の凹領域に限定されない。本明細書における「グルーブ」は、厳密にはグルーブとは言えない形状(例えば、図11や図12に示されるような形状)を有する凹領域であり得る。
 鏡像探索部1306は、被写体表面の凹領域で2回反射によって戻り光となる多重反射領域の対を決定する。この対の決定方法については、後に詳しく説明する。画像処理部150は、多重反射領域の対に基づいて被写体表面の凹領域を示す画像を生成する。
 図1Cは、本発明の実施形態1における画像処理装置の全体構成を模式的に示す図である。
 本画像処理装置は、内視鏡101と制御装置102とを備える。内視鏡101は、撮像素子110を有する先端部113、ライトガイド105と映像信号線111を有する挿入部103とを有している。内視鏡101の挿入部103は、図示されているように左右に長く、フレキシブルに曲がり得る構造を有している。ライトガイド105は曲がった状態でも光を伝達することができる。
 制御装置102は、光源104と画像プロセッサ108とを備える。光源104から発した白色非偏光の光は、ライトガイド105を経由して先端部113の偏光面制御素子106に導かれ、被写体に照射される直線偏光の光121となる。偏光面制御素子106は、たとえば偏光板と液晶素子から構成されており、電圧により非偏光を任意の偏光面の直線偏光へと変換できる。
 偏光面制御素子106は、液晶を用いた偏光面を回転させることが可能なデバイスである。その構成例は、特許文献4、特許文献5ならびに非特許文献1等に既に開示されている。偏光面制御素子106は、例えば強誘電性液晶と、偏光フィルムと、1/4波長板などを組み合わせた電圧印加型液晶デバイスで構成され得る。そしてこの偏光照明は、照明レンズ107を通って被写体に照射される。
 同期装置112は、偏光面制御素子106に偏光面回転の指示信号を送り、照明の偏光面を回転させるとともに、撮像素子110に撮影開始信号を送って映像を取得し、以上の処理を複数回実施する。
 被写体からの戻り光122は、撮影レンズ109を通って撮像素子110上に結像する。撮像素子110は、モノクロ撮像素子、あるいはカラーモザイクを有する単板カラー撮像素子であってよい。撮像された映像信号は、映像信号線111を経由して画像プロセッサ108に到達する。
 本実施形態では、光源104、ライトガイド105、偏光面制御素子106、および照明レンズ107によって図1Aの偏光照明部120が実現されている。また、撮影レンズ109および撮像素子110によって図1Aの撮像部140が実現されている。図1Aの変動輝度処理部1302、反射判定部1305、および鏡像探索部1306は、画像プロセッサ108によって実現されている。
 次に、図2を参照して、偏光面制御素子106の動作を説明する。
 偏光面が0°状態203で第1の画像を撮像し、偏光面が45°状態204で第2の画像を撮像し、偏光面が90°状態205で第3の画像を撮像し、偏光面が135°状態206で第4の画像を撮像する。各偏光面が45°ずつずれている必要はなく、180°を3以上の整数で除算した角度ずれていればかまわない。撮像素子が高感度である場合、あるいは照明の照度が高い場合には露光時間が短縮できるので、回転角をより細かく設定できる。
 偏光面の回転に要する時間は、上記文献によれば、動作速度は20(ms)程度から40~100(μsec)程度の高速型まで存在する。高速型の液晶を用いてかつこの時間での撮像が可能な程度まで撮像素子の感度を上げれば4方向の偏光回転を実施して撮影しても、動画映像の撮影に十分な性能を持たせることが可能である。また画像処理は最低4フレームの画像撮像単位について実施されるが、処理をパイプライン処理にすることで実際かかる処理時間を1フレーム時間内に収めることが可能である。
 図1Cから明らかなように、照明レンズ107の光軸と撮影レンズ109の光軸は略等しい。これは内視鏡での観察時に被写体上になるべく影を発生させないためである。
 なお、内視鏡の通常の使い方では、非偏光を被写体に照射したい場合が多い。本発明では、例えば上記第1の画像から第4の画像までの別々の偏光画像を加算することによって非偏光の平均輝度画像を生成することができる。本発明者らの実験によると、偏光面の角度ΨIが等間隔の複数の偏光を被写体に照射したときの戻り光の画像を加算すると、偏光の効果が打ち消されるため、結果的に非偏光照明を用いたのと同様の効果が得られることが判明している。
 図3は、偏光照明における偏光面の角度ΨIの定義を示す図である。前述したように、被写体に向かってX-Y座標系を設定している。偏光面の角度ΨIは、X軸の方向を0°として図3に示すように定義するものとする。角度ΨIが反射において保存される場合には、反射光の偏光面の角度と入射光の偏光面の角度は同一となる。偏光面の角度ΨIを増加または減少させていくと、180°の周期で同一の偏光状態が繰り返される。すなわち、偏光面の角度ΨIを変数とする関数は、180°の周期を有する周期関数である。なお、本明細書において、偏光照明における偏光面の角度ΨIを、「入射偏光面角度」と称する場合がある。
 図4(a)および(b)は、それぞれ、撮像素子110の撮像面の構成例を示す図である。図4(a)に示すように撮像面には、複数の光感知セル(フォトダイオード)が行および列状(X-Y方向)に規則的に配列されている。カラー撮像の場合には、図4(b)に示すようRGB3種の波長の光を透過するカラーモザイクフィルタが設置される。個々の光感知セルは、光電変換により、入射した光の量に応じて電気信号を生成する。この部分は一般的な単板カラー撮像素子を用いることができる。このように撮像素子110としては、従来の輝度画像用のものを利用できる。本実施形態では、照明光を直線偏光として、その偏光面を回転させながら撮像することによって被写体の表面情報を取得することが可能になる。このため、特許文献2および特許文献3に開示されているような偏光撮像をするための偏光モザイク形の受光素子などを使うと、偏光画像上にモアレなどのアーティファクトが発生することがよくあるが、本実施形態によれば、このような画質劣化要因がなくなる利点がある。
 次に、偏光照明の偏光面を回転した時の輝度の変動の性質について説明する。
 図5は、表面801に対して入射角がゼロに近い偏光が入射して直接反射をカメラで観測する様子を示している。図5(a)、(b)は、入射する偏光の偏光面が90°異なっている。しかし、反射光の直線偏光は、光の進行方向が変わるだけでエネルギーである輝度は変動することはない。これは以下の理由による。
 図6は、フレネル理論による鏡面反射率の入射角依存性を示すグラフである。横軸が入射角、縦軸がフレネル反射率を示す。屈折率はn=1.8を想定した。垂直入射とみなせる0°~15°付近の入射角度は、範囲601に相当する。グラフから読み取れるように、この入射角範囲601では、P波もS波も反射率がほぼ同一である。したがって、偏光がほぼ垂直に表面に入射した場合には、表面に対するP波とS波という偏光の区別が無くなって同じ挙動で反射する。すなわち戻り光の偏光状態は入射光と同じになる。従って偏光面変化により戻り光の輝度が変動することは無い。なお、この事実は、屈折率n=1.4~2.0の自然物体において、広く成立する。
 以上のように、滑らかな表面に対して入射角度がほぼゼロで偏光が入射し、それが1回反射して観測される場合、偏光照明の偏光面を角度ΨIだけ回転させても反射光のエネルギーが変わらないため、観測される輝度Yは不変となる。
 図7は、凹凸のある表面に対して偏光照明の偏光面の角度ΨIが0°、45°、90°、135°のときに得られる、輝度画像の特定の画素における輝度Yの変動を示している。このように凹凸表面では、輝度Yは各偏光照明の偏光面の角度ΨIに対して周期的に変動を示す。以下、この理由を詳述する。
 図8は、凹凸のある表面でグルーブ801が形成され、その斜面で2回の反射が発生している様子を示す。この多重反射は、表面の凹凸が多い被写体表面で常に発生していると考えられ、1回目と2回目の反射の性質が重要となる。幾何学的な配置によっては、極めてまれに2回反射とほぼ同じ位置に3回反射が発生することもあるが、その発生頻度はきわめて低いため、以降は2回反射のみに注目する。
 一般に反射の性質を鏡面反射と拡散反射に分離した場合、
1)1回目:拡散反射 2回目: 鏡面反射
2)1回目:拡散反射 2回目: 拡散反射
3)1回目:鏡面反射 2回目: 拡散反射
4)1回目:鏡面反射 2回目: 鏡面反射
の4通りの現象が想定できる。
 しかし実験によると、被写体表面が滑らかな場合、4)の1回目も2回目も鏡面反射という現象を主要な現象として考えればよいことが判明している。
 図8(a)に示すように、グルーブの主軸方向802に対して垂直に偏光した偏光照明はP波である。再び図6を参照すると、被写体グルーブの傾斜角が45°程度と仮定して、そこに真上から照明が入射すると602のフレネル反射率のグラフから読み取れるとおり、この入射角範囲では、S波にくらべてP波の反射率が極めて弱くなる。さらにP波は1回および2回反射を経由する間にさらに弱くなる。一方、図8(b)に示すS偏光は、2回の反射を経てもそれほど弱まらない。その結果、グルーブに対してP波となる入射偏光面においては、反射光はエネルギー的にも極めて弱くなり、輝度が低下する。一方、S波となる入射偏光面においては、反射光はそれほどエネルギーが減衰せず輝度も高い。
 以上のように表面グルーブを仮定すれば、実験にて得られた、入射光の偏光面の回転による反射光の輝度変化が説明できる。
 グルーブにおける2回反射を偏光現象として検出し、これを、偏光回転照明を使って輝度変動として観測できる。しかし、上記のようなグルーブモデルはやや人工的な溝であった。生体の臓器、粘膜表面における凹凸はさまざまな形状を呈する。図9から図12は、このような現実の凹凸をモデル化したものである。
 図9は最も単純なグルーブ(溝)を示している。これは2種の斜面901のみから形成され略直上から入射した光は、斜面で2回反射(902)して戻り光となる。このモデル化では、グルーブにおいて2回反射現象のみが存在する。そこで、ある程度解像度が低い状況では、グルーブ中心は最も暗くなることが多く、従来の輝度による画像処理を用いても凹凸が検出可能である。
 しかし以下の形状では1回反射と2回反射が混在し、輝度による凹凸検出は困難になる。
 図10はグルーブが底面1001を有する場合であり、浅く広い陥没部などで見られる形状である。この場合、直上から入射した光は、斜面1004で2回反射(1002)して戻り光となるだけでなく、底面にて1回反射(1103)する。このため輝度で観測すると、グルーブの中心が最も明るくなり、凹部が周囲より暗くなるという常識に反する状態になり、輝度を用いた画像処理では凹凸判定は困難になる。
 図11は平坦部上の凸形状1105が密集している領域の形状であり、隆起状の腫瘍などが発生している場合に見られる形状である。凸部は簡単のため半球状にモデル化してあるが、凸部1105の間隙部1101は、凹部と見なすことができ、略直上から入射した光は図11(b)に示すように隣接する表面で2回反射(1102)して戻り光になる。
 隆起した部分では光が1回反射して非常に高い輝度領域となるが、間隙の凹部の底部にも、1回反射光が生じる領域1104が存在する。この領域1104は、しばしば非常に高輝度になる。したがって、輝度で観測すると凹部が周囲より明るくなるという状態になり、輝度による凹凸判定によっては図11に示すような凹領域を正確に検出することは困難になる。
 図12は、平坦部上に穴状の凹部1204が単独で存在する形状を示している。凹部1204は半球状の穴としてモデル化している。この場合も、対面する斜面の対が存在するため略直上から入射した光は2回反射(1201)して戻り光となる。しかし、入射光は底面にて1回反射(1202)するため、輝度で観測すると、凹部1204の中心1203が最も明るい状態となる。その結果、凹部1204が周囲より暗くなるという常識に反する状態になるため、輝度による凹凸判定によっては図12に示すような凹領域を正確に検出することは困難になる。
 輝度による画像処理では凹凸情報を得ることが困難な多様な形状に対して、本実施形態では、回転偏光照明を用いた情報から1回反射と2回反射現象を切りわけて表面凹凸情報を正しく検出することができる。
 図13は、画像処理プロセッサ108の構成を示すブロック図である。本実施形態で実行する画像処理は、偏光面が回転する偏光照明を照射して輝度変動を観測した情報から凹凸を検出する原理を用いている。照明の偏光面角度ΨIを0°、45°、90°、135°と変えた場合にそれぞれ撮像された4枚の輝度画像群1301が画像処理プロセッサ108に入力される。
 偏光照明を回転した場合の輝度変動は周期180°の余弦関数になることが判明しているので、変動輝度処理部1302は、これを余弦関数に最適フィッティングする。輝度変動は照明の偏光面の角度をΨIとして以下のように表現される。
Figure JPOXMLDOC01-appb-M000001
 図14は、この輝度変動の余弦関数を示したもので上記の振幅AI、位相Ψo、平均値YΨI_aveを表している。4個のサンプル点は、簡単のため、この余弦関数上にちょうど載るように描かれている。4つの等間隔の角度サンプルから余弦関数をフィッティングして上記の値を推定する手法は、以下のとおりである。まず非偏光照明下での原画像の輝度YΨI_aveを以下の式で求める。これは近似的に非偏光照明下での輝度画像を再現しており、この画像は内視鏡の通常観察画像として利用することができる。
Figure JPOXMLDOC01-appb-M000002
 変動輝度処理部1302では、サンプルされた輝度から余弦関数への最小2乗誤差を用いた最適フィッティングを行う。ここでは、0°、45°、90°、135°という4方向のサンプルから実施する。余弦関数は振幅、位相、平均値の3種の情報で決定されるため、これらを決定するためには3点のサンプル以上であれば実際には何点でもかまわない。しかし45°サンプルの場合には最適フィッティングが簡単になる性質がある。
 まず偏光角度が0°、45°(=π/4)、90°(=π/2)、135°(=3π/4)における輝度I0、I1、I2、I3の2乗誤差Eを以下のように定義する。
Figure JPOXMLDOC01-appb-M000003
 この2乗誤差を最小化する余弦関数の位相Ψoは、以下の式から求められる。
Figure JPOXMLDOC01-appb-M000004
 この式から、解は、次の式で与えられる。
Figure JPOXMLDOC01-appb-M000005
                        

Figure JPOXMLDOC01-appb-M000006
 逆三角関数などの数学関数では一般に以下のような制限が課されている。
Figure JPOXMLDOC01-appb-M000007
 この角度範囲を考慮すると、aとcの大小関係からの場合わけを行うことによって、最小値をとる角度と最大値をとる角度は以下のように計算できる。
Figure JPOXMLDOC01-appb-M000008
 この最大値をとるΨ0maxの値を、そのまま、輝度最大角画像YPHとすればよい。
Figure JPOXMLDOC01-appb-M000009
 次に、振幅の最大値と最小値を求める。まず、振幅AIを求めるため、以下の式を用いて2乗誤差の最小化を行う。
Figure JPOXMLDOC01-appb-M000010
 振幅AIを用いて、振幅の最大値と最小値は以下のようになる。
Figure JPOXMLDOC01-appb-M000011
 (式11)の振幅最大値Ymaxと最小値Yminを用いると、輝度変調度画像YDは、以下の式12によって求められる。
Figure JPOXMLDOC01-appb-M000012
 なお、余弦関数への一般の最適フィッティングは3点以上のサンプルにおいて可能であり、その方法は例えば特許文献6に記載されている。
 以上の処理によって輝度最大角画像YPHと輝度変調度画像YDが得られる。これらの情報は、図13に示されるように、反射判定部1305に送られる。輝度最大角画像YPHと輝度変調度画像YDの2種類の画像は、擬似カラー画像として1つにまとめて表現することが多い。その場合、色の色相角を表現するのが輝度最大角画像YPHであり、色の彩度を表現するのが輝度変調度画像YDである。
 また、図13に示されるように、異なる偏光照明下で撮影された画像群1301は、輝度加算平均部1310において加算平均され、非偏光照明下で撮影された画像と等価になる。これが通常のカラー画像として機能する輝度画像Yとなる。
 反射判定部1305は、輝度最大角画像YPH、輝度変調度画像YD、および、輝度画像Yを用いて、被写体表面で発生した反射を1回反射と2回反射に識別判定する。
 図15は、反射判定部1305の処理を説明するフローチャートである。
 ステップS1501では、輝度変調度画像YDと輝度画像Yとを入力する。ステップS1502では、輝度変調度画像YDの各画素における値(変調度)が、所定の閾値レベルTH_YD以上か否かを判定する。ステップS1504では、式13に示すように(i)変調度が所定の閾値レベルTH_YD以上の画素からなる画像領域(REF2=YES)を、2回反射領域と判定する。一方、(ii)変調度が所定の閾値レベルTH_YDより小さい画素からなる画像領域(REF2=No)を2回反射なしと判定する。こうして、所定の閾値レベルTH_YD以上の輝度変調度が存在する反射領域のみを2回反射領域REF2の画素領域として分離できる。
Figure JPOXMLDOC01-appb-M000013
 ステップS1503では、ステップS1502においてREF2=No(2回反射なし)と判定された領域の輝度値Yが、所定の閾値TH_Yよりも大きいかどうかを判定する。画素の輝度値Yが所定の閾値TH_Y以上の場合(式14 REF1=YES)、ステップ1505では、そのような画素からなる領域を1回反射領域REF1と判定する。1回反射領域REF1および2回反射領域REF2は、「鏡面反射領域」を構成する。なお、2回反射領域REF2は、2回以上の反射が生じる領域を含み得るため、「多重反射領域」と呼んでもよい。そして、画素の輝度値Yが所定の閾値TH_Yよりも小さい(式14 REF1=No)場合、そのような画素からなる領域は、鏡面反射領域ではないとする。
Figure JPOXMLDOC01-appb-M000014
 以上の処理によって1回反射領域REF1と2回反射領域REF2が画像上で分離される。また、1回反射領域REF1および2回反射領域REF2のいずれでもない領域が、「鏡面反射領域」から区別される。
 図16Aは、平坦部上に隆起状の腫瘍などが発生しているシーン(図11)について、反射判定部1305の処理を行った結果を模式的に示している。図16Bでは、1回反射領域がハッチングされた円形領域として記載されている。1回反射領域は、隆起部の頂上付近と凹部の底面に存在する高輝度領域である。図16Cに示すように、2回反射領域1601、1602、1603の各対は、隆起部どうしが接する凹部の斜面に位置している。
 図17A,Bは、この処理結果をさらに模式的に表現する図面である。分離抽出された各種の形状を有する微小反射領域171,172、173,174、175が、属性として輝度最大角Hを有する様子を示す。
 輝度最大角Hは180度周期の角度である。輝度最大角Hの等しい領域が図17A、Bでは、パターンテクスチャにて表現されている。図17Aに示される領域171、172は、角度H1に相当する属性を有し、図17Bに示される領域173、174、175は、角度H2に相当する属性を有しているとする。言い換えると、領域171、172の輝度最大角HはH1、領域173、174、175輝度最大角HはH2であるとする。
 以下に示す鏡像探索では、まず、図16Cの2回反射領域1601、1602、あるいは1603のような鏡像対となる領域を見つけて凹部を判定する。図17Aの領域171と領域172という対を見つける場合、その2値画像としての形状は信頼性が低く、あまり有用でない。しかしながら2回反射領域が有する角度H1は大きな手がかりとなる。なぜなら、角度H1はグルーブ主軸角度を示しているため、対となる領域は必ずグルーブ主軸と直交する方向に存在するからである。探索は、このグルーブ主軸と直交する直線上のみで行えばよい。このグルーブ主軸と直交する直線を探索線176と称するものとする。例えば、図17Aの領域171に対する探索線176は、領域171の重心178を通り、角度H1に直交する線である。図17Bの例において、領域173に対応する鏡像は、領域173の重心を通り、角度H2に直交する直線(探索線177)上に位置する。したがって、領域173に対応する鏡像は、探索線177上のみを探索すればよい。図17Bの例では、角度値H2に等しい角度値を有する領域175が領域173の近傍に位置しているが、この領域175は探索線177上にはない。すなわち、領域173と領域175とは、2回反射領域の対を構成していない。探索線上を探索する方法によれば、領域175を、領域173と対を構成する領域であると間違えることはなくなる。
 次に、図18Aを参照しながら、鏡像探索部1306の処理を説明する。図18Aは、鏡像探索部1306の処理の一例を示すフローチャートである。
 ステップS1801において、2回反射領域画像を入力する。これは、図16Cに例示されるような2回反射領域の対を示す2値画像と、輝度最大角画像YPHと、輝度変調度画像YDとを含むデータである。具体的なデータの例は後述する(図18B)。以下、輝度最大角画像YPHの各画素における輝度最大角の値をYPH値と称し、輝度変調度画像YDの各画素における変調度をYD値と称する。
 ステップ1802では、反射判定部1305における(式13)で説明した2値化処理のために発生した画像上の細かい分散した微小領域をノイズとして除去する。これは通常の2値画像の収縮・膨張処理を使えばよい。
 ステップ1803では、2値画像をラベリングして、領域ごとに画素数、重心座標、YD値,YPH値の平均値を計算する。ここで、YD値とYPH値の平均計算には、YD値を色の彩度、YPH値を色の色相とすることによって表現される擬似カラー値(R,G,B)を用いる。
 図18Bは、1つの反射領域における擬似カラー値(R,G,B)の例を示している。この領域は、画像上のX軸座標275-278とY軸座標183-186に存在する11画素よりなる領域である。各画素はYD,YPH値を擬似カラー値にて保持しており、これはRED、GREEN、BLUEの各プレーンの同じ座標の画素位置に8ビット値が格納されることで実現されている。たとえば、この領域を構成する(X,Y)=(278,184)の画素には(RED,GREE,BLUE)=(255,231,227)が格納されている。上記ステップ1803の計算において、重心位置と擬似カラー値の平均値を計算すると、この領域の重心座標は(GCX,GCY)=(276.5、184.6)、平均色は(RED_AVE,GREE_AVE,BLUE_AVE)=(255,228.09,223.45)となる。ここからグルーブ主軸角度Hは、よく知られたRGB_HSV変換などを用いることにより、H=0.0245、すなわち約8.82°を得る。この角度は、360度周期であるが、グルーブ主軸角度φは180度周期であるため、Hの1/2の値をグルーブ主軸角度φとすればよい。したがって、図18Bの例におけるグルーブ主軸角度φは約4.41°となる。この状態で、領域番号nrとして領域がラベリングされた2値画像が得られており、各領域の属性、統計量が確定する。
 次に実際の探索プロセスを説明する。
 図18AのステップS1804では、初期設定として、探索領域番号nrを1にセットする。ステップS1805では、探索領域に対して探索線を計算する。この探索線とは前述の説明どおり鏡像を探索するとき使う探索範囲を規定するものである。ステップS1806では被探索領域番号nr1を1にセットし、ステップS1807で実際に探索を行う。
 上記擬似カラー値の意味で「類似色」でかつ探索線との距離Dが小さい領域のみを鏡像候補Mrrcandとして、探索線上距離Lenをストアするという方法で行う。
 図19は、この被探索領域の探索の詳細を説明する図である。
 これから2回反射領域の対を構成する他方の領域の探索をする基準となる領域を探索領域191と設定し、グルーブ主軸方向は矢印192で表現される方向とする。まず探索領域191と被探索領域どうしでの主軸角度が類似しているかどうかを判定する式15を用いて、探索領域191と類似色の領域とが判定され、同時に探索線193が確定される。
Figure JPOXMLDOC01-appb-M000015
 探索線の方程式は現在の探索領域の重心座標と2回反射グルーブの主軸角度φを用いて以下のようにあらわされる。
Figure JPOXMLDOC01-appb-M000016
 よって探索領域(番号nr)の探索線に対して被探索領域(番号nr1)と探索線との垂直距離Dの条件は以下のようになる。
Figure JPOXMLDOC01-appb-M000017
 (式15)と(式17)の条件を両方満たした場合には、探索線上距離Lenを以下のように計算する。
Figure JPOXMLDOC01-appb-M000018
 ステップS1809で探索領域nrに対する全ての被探索領域の探索が終了したか否かを判定し、未終了であれば、次の被探索領域nr1をセットする(S1808)。
 ステップS1810では、探索線上距離Lenをソートして短距離から2個を選択する。これが鏡像対になるが、あまりに距離の遠い鏡像対はありえない。そこでステップS1811にて短距離から2番目までが最大距離LEN_THより小さければ、鏡像の対と認定する。
Figure JPOXMLDOC01-appb-M000019

 求めた鏡像対の領域からグルーブに相当する垂直2等分線を生成する。この線分をグルーブセグメントと称し、長さをGRVLENとして以下のように表現できる。
Figure JPOXMLDOC01-appb-M000020
 ステップS1812にて全ての領域nrが探索されたことが確認されたら処理が終了し、未終了の場合には次の探索領域に進む(ステップS1813)。
 以上の処理が終了すれば、反射領域の群にその鏡像対を結びつけ、その中間位置に存在すると想定される、グルーブの局所的な細分化された候補であるグルーブセグメントを設定することができる。
 図20Aから図20Dは、実被写体においてグルーブセグメントを抽出した実験画像を示す図である。
 図20Aは、被写体を回転偏光照明にて撮影した画像4枚から生成された輝度画像である。臓器表面の凹凸類似の形状と反射特性を有すると想定される魚卵、具体的には「すじこ」の集合体を用いている。表面には照明であるリング照明の1回反射の像および半透明の特性によるリング状の像が多数観察され、これは輝度画像処理においては重大なノイズになる。しかしながら本発明の偏光処理においては、処理結果の図20Bから図20Dのとおり、ほとんど問題にならず正常に処理が可能である。
 図20Bは、変動輝度処理部1302の処理を実施した結果を示す図であり、輝度最大角画像YPHと輝度変調度画像YDとをまとめて1つの擬似カラー画像が示されている。
 図20Cは、反射判定部の結果を示す図であり、量子化処理にて2回反射と判定された微小反射領域が分離・抽出された結果を示す。これらの微小領域が図16C、図17A、17Bの各領域に相当する。
 図20Dは、鏡像探索部1306の処理を実施した結果を示す図であり、魚卵の1個1個の輪郭線付近にグルーブセグメントが抽出されている。複数の平行線2001が抽出される部分は複数の鏡像領域対が発見された部分に相当する。
 図21Aと図21Bは、この複数の鏡像対の発生原因を説明する図である。図21Aは被写体表面の凹凸の断面図であり、斜面が変曲点を有するカーブを描いているため、(A)点と(D)点で1つの2回反射、(B)点と(C)点で別の2回反射が発生している。そのために図21Bのように4個の2回反射領域が同一探索線上に観測され結果的に3本のグルーブセグメントが抽出される。この場合、別途のアルゴリズムによって本来のグルーブ中心が(B)と(C)の中点であることを判定してもよい。
 凹領域接続部1307は、推定されたグルーブセグメントどうしを接続することにより、1まとまりの凹領域を生成し法線のAzimuth(方位)角を確定する。
 次に、図22を参照しながら、凹領域接続部1307の処理を説明する。図22は、凹領域接続部1307の処理の流れを示すフローチャートである。
 図22に示すステップS221では、鏡像探索部1306でグルーブセグメント化した、画像内の全てのグルーブセグメントSを対象にする。ステップS222では、各グルーブセグメントSの有する方向に依存して2値画像処理の膨張処理を実行する。この膨張処理の方向は、個々のグルーブセグメントの方向に依存して決定され、グルーブセグメントの主軸とその垂直方向に対してほぼ均等に膨張させ、グルーブセグメントをグルーブの底としてグルーブの斜面領域を再生する。
 ステップS223では上記の膨張領域の近いものどうしを画像処理によって相互に接続し、微小反射領域に依存して離散的だったグルーブセグメントを大きな連続した接続グルーブ領域とする。ステップS224では、接続グルーブ領域を2値画像処理で細線化することにより、連続した接続グルーブ領域の底に対応する細線を確定する。ステップS225では、この細線の垂線でかつ細線に向かう向きのベクトルを設定し、これをグルーブの法線ベクトルのAzimuth(方位)角として推定する。
 ステップS226では、接続グルーブ領域内における断面形状を2次関数などの既存の関数形にてフィッティングをすることにより、グルーブのZenith(天頂)角を推定する。この際に微小反射領域の反射強度が拘束条件となる。これは、図10、図11、図12などからわかるように、各断面において強い2回反射を発生する斜面角度は垂線に対して約45度近傍であることを利用する。これらの処理を実施して接続グルーブ領域を推定し、その場所における表面法線ベクトル、すなわちAzimuth(方位)角とZenith(天頂)角とを推定する。以上の処理を実例に即して説明する。
 図23Aから図23Dは、湾曲したグルーブの例を示す図であり、このグルーブは、隆起した凸領域の周囲に存在するグルーブと考えてよい。図23Aは、微小反射領域151,152と設定されたグルーブセグメント179を示す。図23Bはグルーブセグメント179の膨張処理の結果を示す。図23Cは、他のグルーブセグメントと接続し、細線化処理が実施された様子を示す。この段階で接続グルーブ領域は画像の左下を中心に湾曲し、その谷である底面位置が細線で示されている。図23Dは、得られたグルーブに対して法線の方位角が推定された結果を示している。
 図24Aから図24Dは、平坦な面内にある窪み(穴)の例を示す図である。穴の形状は、グルーブが点対称になったものと考えられるため2回反射の鏡像対が理論的には無数に存在する。図24Aは、微小反射領域2000と微小反射領域2001とが鏡像対をなし、グルーブセグメント2004が推定される。また、微小反射領域2002と微小反射領域2003とが鏡像対をなし、グルーブセグメント2005が推定されている。図24Bは、グルーブセグメントを膨張処理させた結果を示している。その膨張領域が1つの十文字状の閉領域をなすことがわかる。ここから細線化を実施すると底面の1点が推定される。図24Cでは、グルーブセグメントから求められた凹領域である穴と、その穴の底面における1点が図示されている。図24Dは、得られた穴の領域に対して法線の方位角が推定された結果を示している。
 断面形状モデル化部1308は、以上の処理によりAzimuth(方位)角が推定された結果を受けて、凹領域においてZenith(天頂)角を推定し、法線を表現する2つの角度を確定する。凹領域のAzimuth(方位)角およびZenith(天頂)角が決まると、凹領域の法線画像を生成する。
 図25は、方位角と天頂角につき説明する図である。法線ベクトルは3次元ベクトルであるが長さが1に正規化されているため自由度は2であり、角度で表現する場合には、画面内の方位角Ψと視線に対する天頂角θにて表現する。通常の右手系では、画像内にX-Y軸を設定し、Z軸の負の向きが視線(光軸)方向となる。法線の3成分(Nx,Ny,Nz)との関係は図に示すとおりである。すなわち偏光情報により方位角Ψと天頂角θとが求められたならその点での表面法線は以下のようになる。
Figure JPOXMLDOC01-appb-M000021
 図26は断面形状モデル化部1308の処理の流れを示す。ステップS2601では、すでにAzimuth(方位)角が推定された状態にて、Zenith(天頂)角を推定する。
 グルーブ断面は特定の関数形でフィッティングしてかまわないが、ここでは正規分布関数を用いる。
 図27は推定されたグルーブを被写体直上からみた平面図と断面を示す。簡単のためにグルーブはX=0でY軸方向に延びているとする。ここで断面形状をσというパラメータを用いた正規分布関数で表現するものとする。正規分布関数は、パラメータがσ1個だけで表現され簡単であること、生体で一般的な各種のグルーブの形状に類似していることから図10から図12の各種断面形状を近似するものとして選定している。
Figure JPOXMLDOC01-appb-M000022
 ここで、断面形状の勾配を計算すると、これは法線の天頂角θを用いて以下のように表現できる。
Figure JPOXMLDOC01-appb-M000023
 そこで最適フィッティングすべき微小反射領域2701の位置をx軸上でWとし、そこでのθを最も反射強度が強くなるθ=45度と仮定すると、
Figure JPOXMLDOC01-appb-M000024
を得るのでここからパラメータσが求められる。以上のようにグルーブの断面形状が正規分布関数で表現され、同時にグルーブ底面の中心線2702からのずれ値Wに従ってZeinth(天頂)角が決定する。なお、正規分布関数の値はグルーブ中心から離れるに従い漸近的に平坦部に移行する。したがって、このモデルは、胃などの粘膜表面における凹部のモデルとしては適している。
 一旦この関数形が決定されれば、グルーブ中心線から距離xの点における天頂角θは、
Figure JPOXMLDOC01-appb-M000025

として求められる。なお、正規分布関数以外の断面形状モデルを用いてもよいことはいうまでもない。
 ステップS2602では、求めた方位角Ψと天頂角θから(式21)を用いてカメラ座標系における被写体表面の法線ベクトル(Nx,Ny,Nz)を求め、これを2次元的な法線画像とする。
 いままでの説明からわかるように本発明では、偏光情報を使ってはいるが、Azimuth角、Zenith角のいずれについても不定性(Ambigugity)が発生しない。これは通常の偏光画像処理とは大きく異なる利点であり、もともと凹部のみをモデル化して推定するという立場で考案されているためである。
 以上の処理は被写体表面で2回反射を起こす凹領域における法線の推定処理であったが、次に1回反射を起こす領域の処理を説明する。
 高輝度領域処理部1312は、図16において被写体表面で非常に明るい輝度を有する領域REF1として抽出された部分での法線を確定する。
 図28は、法線確定の原理を示す図であり、1回反射における鏡面反射で入射角と反射角が等しい性質からREF1領域における表面法線N1は視点ベクトルVと光源ベクトルLとの2等分ベクトルとして計算できる。
 以上の処理においてREF2(2回反射)領域とREF1(1回反射)領域における表面法線が確定できる。しかしこれらの法線は局所的にしか求められていない。そこで被写体表面全域にわたる大域的な法線を決定する。
 法線再現部1313は、理論的な表面反射モデルと観測された単一画像の輝度との関係から法線の連続性仮定を用いて法線未決定領域に対して法線を求めて、大域的な法線を決定する。この領域では2回反射はほとんど発生していないため、照明と法線と視線の方向から1回の反射にて輝度が決定されると考えてよく、従来からよく使われているSFS(ShapeFromShading)における陰影からの形状復元(非特許文献2)の手法を使うことができる。
 この手法ではまず3次元空間内のベクトルである表面法線(Nx,Ny,Nz)を(p、q)勾配空間を経由して被写体の外縁線拘束を表現するのに便利な(f、g)空間で表現しておく。この返還式には(式26)、(式27)を使えばよい。
Figure JPOXMLDOC01-appb-M000026


Figure JPOXMLDOC01-appb-M000027
 次に実際にある画素位置(x、y)にて観測された輝度E(x,y)から法線(f、g)を推定するために(式28)の関係を仮定する。このため法線と観測輝度との理論的関係R(f,g)が必要になる。これは、実験的に求めることも可能であるが、光源位置を既知として被写体の反射特性を近似する種々の物理反射モデルの式から得ることができる。たとえば鏡面反射モデルとして後述するクック=トランスモデルを使うことができる。
Figure JPOXMLDOC01-appb-M000028
 次に、被写体表面が滑らかであるという設定から以下の法線連続性の式を仮定する。
Figure JPOXMLDOC01-appb-M000029
 そこで、(式28)と(式29)を両立させるため以下の積分を最小化する。
Figure JPOXMLDOC01-appb-M000030
 この最小化問題は以下のオイラー方程式を解くことに帰着し離散的に繰り返し法を用いて解くことができる。
Figure JPOXMLDOC01-appb-M000031
 最後に求められた(f、g)空間から(p,q)空間を経由して法線ベクトルを逆変換して求める。
 図29Aは、この繰り返し法によって次第に表面の凸部分の法線が形作られていく様子を模式的に示す。初期の表面は2901のように平坦であるが、繰り返し法を適用すると、2902、2903のように次第に凸領域が形成されている。なお、グルーブ領域における法線群、REF1領域における法線は拘束条件として用いることができる。以上の処理によって法線画像Nが生成できる。
 図29Bは法線画像を模式的に表現した図である。輝度画像の各画素にその場所における表面法線ベクトルのデータが付随している。以下の説明は、このようにして生成された画像を合成表示する部分に関する。
 まず図1Cに示すとおり、法線画像Nは光源変動画像生成部117に送られる。光源変動画像生成部117では、求められた法線画像に対して、カメラ視点方向と照明光源方向を与えることによって物理反射モデル式を用いて輝度画像を生成する。ここでは被写体の鏡面反射をよく表現するモデル式としてクック=トランスモデルを使用する。それによると輝度Isは以下の式で表される。
Figure JPOXMLDOC01-appb-M000032
 図30はクック=トランスモデルを用いる場合のベクトルと角度の関係を示す図であり、表面法線Nと、光源ベクトルLと視点ベクトルVが描かれている。光源ベクトルLと視点ベクトルVの2等分ベクトルHを用いると、上式におけるαは、2等分ベクトルHと法線Nとのなす角度であり、θrは視線ベクトルと法線Nのなす角度である。フレネル係数Fおよび幾何減衰率Gは以下の式で表現される。
Figure JPOXMLDOC01-appb-M000033

Figure JPOXMLDOC01-appb-M000034
 また係数Kは入射照度に関係する係数である。このクック=トランスモデルを使えば、表面法線画像から輝度画像を生成することができるが、そのためには屈折率nのほかに、視線ベクトルV、光源ベクトルLなどの幾何学的な設定を与える必要がある。
 光源方向設定部114は、この光源ベクトルを設定するためのマンマシン・インタフェースであって、内視鏡診断などにおいては観察するユーザである医師が自由に設定する。この設定は照明光源を実際の内視鏡の光源以外の場所、たとえば向かって左側、右側、上側、下側から照射するような仮想的な設定であり、対象の表面凹凸をリアリティ豊かに画像化できる。
 図31は、このような光源変動された画像を模式的に示す。この画像は推定された法線画像に基づいているために照明変更がコンピュータ上で自在に替えることができ、内視鏡の欠点の1つである照明位置の変更ができないため表面凹凸の観察が困難である、という課題を解決することができる。
 実際にはクックトランスモデルで表現される画像は光沢部のみの鏡面反射画像である。たとえば、カラー画像の場合には、鏡面反射画像は白色光源のみによるためモノクロ画像となってしまい、これだけではリアリティに欠ける。そこで画像合成部115において、輝度画像Yと合成表示する。
 図32Aは、この合成処理を説明する図である。
 輝度画像Yと光源変動画像SYは、画像合成部115に送られ、まず画像成分分離部3202にて拡散反射画像DYが分離される。これは、輝度画像Yから、光源を撮影時と同じ状態に設定した鏡面反射画像である光源変動画像SYを減算することによって実施される。前記のカラー成分などは、この拡散反射画像DYに残存する。次に光源を任意の位置に変化させた場合の光源変動画像SYを生成し、これに重み係数設定部3204にて重み付けして加算部3203で加算合成する。合成画像は表示部へ送られる。
 図32Bは、以上の合成処理にて実現される表示画像の例である。光源3206は仮想的に設定される任意の平行光源である。これを図32Bの(A)から(D)のように方向を自在に設定すると、被写体画像が画像3208Aから3208Dのように変化する。特に1回反射の鏡面反射部3207とシャドウ部3209が光源の位置変化と共に移動する点で視覚的に凹凸を感知させることができる。医師は通常の輝度画像に加えて凹凸をリアリティ豊かに強調した画像を見ることができ診断に有効な情報を得ることができる。
 図33Aは合成処理の別の形態を示す図である。この場合には法線画像Nから生成される輝度画像ではなく、そこまで加工する以前の情報である輝度最大角画像YPH、および輝度変調度画像YDから生成される擬似カラー画像を合成している。輝度最大角画像YPHと輝度変調度画像YDは画像合成部115に入力されると、まず擬似カラー変換部3301によって擬似カラー画像Cに変換される。この変換には、よく知られたHSV-RGB変換などを利用できる。
 次に、この画像は重み付け部3303にて重み付けされて、同じく重み付け部3302にて重み付けされた輝度画像と共に加算部3304に送られて加算合成される。この場合に擬似カラー表示は、その色相が表面のグルーブのAzimuth(方位)角を示している。
 図33Bは、以上の合成処理にて実現される表示画像の例である。たとえば、各擬似カラー表示3305,3306、3307は、それぞれAzimuth角=45°、90°、135°の方向にグルーブがあることを示す。これによって医師は表面の溝の状態や、どこが穴になっているのかなどを知ることができる。図31の場合と比較するとやや直感的ではないが、画像処理を行う前の情報を直視できる利点がある。なお、ここでは擬似カラー画像を合成したが、輝度最大角YPH画像、および輝度変調度YD画像をモノクロ画像として合成することも可能である。
 なお、図1Cで示す画像処理装置の構成からわかるように、本装置では、観察する照明光を切り替えて別個の情報を観察する構成を採用していないため、処理は全て並列で実行可能である。すなわち通常の内視鏡検査に必須のカラー画像である輝度画像Yを観察しながら、同時に光源変動画像SYとの合成画像、あるいは擬似カラー画像Cとの合成画像などを表示部116に一度に表示することが可能であるという特徴がある。もちろん内視鏡を走査する医師が適宜切りかえて表示することも可能である。
 (第1の実施形態の変形例)
 図34、図35A、図35Bを参照しながら、第1の実施形態の変形例を説明する。
 第1の実施形態では、図16に示す被写体表面で非常に明るい輝度を有するREF1(1回反射)領域を凸領域とであると仮定し、法線確定を行っていた(図28参照)。しかし、図11および図12を参照しながら説明したように、REF1(1回反射)領域は凹領域である可能性もある。
 この変形例の装置では、REF1(1回反射)領域が凹領域および凸領域のいずれであるかを判定する凹凸判定部を備えている。以下、被写体の表面が球状領域の集合体であると仮定する。
 図34を参照する。図34は、本変形例の構成を示す図である。本変形例の構成と図13の構成と間の第1の相違点は、本変形例の装置が凹凸判定部1314を備えていることにある。この例では、高輝度領域処理部1312で検出されたREF1領域が凸領域であると判定されたとき、法線再現部1313による処理を実行する。なお、REF1領域が凹領域であると判定された場合は、この領域をREF1領域から除外して、その後の処理を行う。
 図35Aは、REF1領域が凸領域である場合を示している。図35Aに示される例では、球状領域1320にREF1領域1324が存在し、その周囲に3箇所のREF2領域1321、1322、1323が存在している。REF1領域1324を始点とし、REF2領域1321、1322、1323の各々を終点とする2次元的な位置ベクトルをVとする。REF2領域1321、1322、1323の各々におけるグルーブの軸を表現するベクトルをTとする。このベクトルTは、鏡像探索をした結果見出されたグルーブセグメントであってもよいし、鏡像探索なしに単にグルーブ主軸として得られるものであってもよい。このベクトルTの方向は確定するが、向きは不定である。
 図35Aに示されるように、ベクトルTはREF1領域1324の周囲を回転するように取り囲んでいるため、ベクトルTとベクトルVとは、ほぼ直交している。2つのベクトルの間の角度が直角に近いほど、外積はゼロから離れる。したがって、図35Aに示す場合、ベクトルTとベクトルVについて、以下の式が成立する。
Figure JPOXMLDOC01-appb-M000035
 ここで、ベクトルVとベクトルTの外積の絶対値を用いている理由は、ベクトルTの向きを考慮していないからである。「E」は複数の2回反射領域での平均値を示し、「Thresh」は、予め設定された一定のしきい値を示す。「Thresh」の大きさは、被写体の種類に応じて異なる値が設定され得るが、実験または計算によって決定されていてもよい。
 この変形例では、式34が成立するとき、凹凸判定部1314はREF1領域1324を凸領域と判定する。
 図35Bは、REF1領域が凹領域である場合を示している。この場合も、複数のREF2領域1326、1327、1328に囲まれた領域の中央にREF1領域1325が存在する。しかし、REF1領域1325を始点としてREF2領域を終点とする位置ベクトルTと、REF2領域1326、1327、1328の各々のグルーブ主軸ベクトルVとを作成すると、ベクトルTとベクトルVとは、ほとんど平行になる。このため、REF1領域1324を凹領域であるとき、以下の式36が成立する。
Figure JPOXMLDOC01-appb-M000036
 このように、凹凸判定部1314は、ベクトルTとベクトルVとの外積の絶対値の大きさに基づいて、1回反射領域が凹領域か凸領域であるかを識別することができる。
 (第2の実施形態)
 第1の実施形態の画像処理装置は、撮像素子が先端部に位置するいわゆる軟性鏡タイプである。本発明における内視鏡は、軟性鏡タイプに限定されず、硬性鏡タイプであってもよい。
 以下、図36を参照しながら、本発明による画像処理装置の第2の実施形態(硬性鏡タイプ)を説明する。図36は、本実施形態における内視鏡101の構成例を示すブロック図である。本実施形態において、内視鏡101以外の構成は、図1Cに示す画像処理装置の構成と同様であるため、それらの構成の説明はここでは繰り返さない。
 本実施形態の画像処理装置が備える内視鏡101は、撮像用リレーレンズ光学系3401および照明用リレーレンズ光学系3302を備えている。撮像用リレーレンズ光学系3401は、撮影レンズ109から得られた被写体の像を内視鏡の根元に位置する撮像素子110にまで導くものであり、硬性内視鏡では一般的な構成である。本実施形態では、光源104の直前に偏光面制御素子106が設置されている。光源104から出た非偏光光が回転直線偏光に変換され、この直線偏光が照明用リレーレンズ光学系3302を通過する間、偏光状態を維持されて照明レンズ107から照射される。本実施形態によれば、内視鏡先端部に図1Cの偏光面制御素子106を設置する必要がなくなり、先端部の口径を小さくすることができる。また、偏光面を回転させる手段として、上述した偏光面制御素子106よりも大きな構成を採用することも可能になる。例えば、偏光面制御素子106の代わりに、異なる透過偏光面を複数有する偏光子を回転させる機構を利用することも可能になる。
 照明用リレーレンズ光学系3302では、途中で偏光状態が維持される必要があるが、撮像用リレーレンズ光学系3401においては輝度自身が維持されればよい。このため、撮像用リレーレンズ光学系3401の調整が楽になる。照明用リレーレンズ光学系3302は、偏光状態を維持する偏波面保存ファイバーを用いたライトガイドによって代用され得る。
 本実施形態でも、回転偏光照明を用いて輝度画像を撮像し、画像処理プロセッサが行う処理については第1の実施形態と同じである。
 (第1および第2の実施形態の変形例)
 第1の実施形態、第2の実施形態に共通して先端部の偏光回転照明部の構成には種々の変形例が考えられる。被写体の凹凸にて鏡面反射を多く発生させるためには、なるべく均一で広い面積の照明を用いることが望ましい。しかし、内視鏡であることから、先端部口径はなるべく小さく、構造が簡単であることが望ましい。
 図37から図41を参照しながら、偏光照明部120の先端部における多様な構成例を説明する。これらの図面の左側には先端部113の正面図が示され、右側には先端部113の断面図が示されている。
 図37は、第1の実施形態における先端部の構成に近い先端部を備える構成例を示している。この例では、照明レンズ107の外側に偏光面制御素子106が装着されている。
 図38は、先端部にリング照明部306を有する構成例を示している。リング照明部306から出射した光を、中央に孔があいたドーナツ形状の偏光面制御素子106に通して変換する。このリング照明部306は、ライトガイド105から分岐した個々の光ファイバーの複数の端面を円周上に並べることにより構成され得る。
 図39は、先端部に幅の広い構成幅広のリング照明部307を有する構成例を示している。このリング照明部307は、幅の広いリング状帯領域内に配置された複数のLEDチップを有しており、全体としてリング状の面発光が得られる。リング照明部307から出た光は、中央に孔があいたドーナツ形状の偏光面制御素子106を通過するとき、その偏光面が制御される。
 図40は、撮像の光軸に対して照明の光軸を傾斜させるように先端部の中央が凹んだ構成例を示している。凹んだ中央部には撮影レンズ109が位置し、その周りに複数のLED光源308が配列されている。これによって、被写体部位の周囲を大きな光源にて囲む効果が現れるため、鏡面反射が多く発生するようになる。
 図41は、照明の光軸と撮影の光軸を同一にできる同軸落射照明を用いた構成例を示している。円形の面発光型のLED照明光源309から出た非偏光は、円形の偏光面制御素子106を透過した後に広帯域無偏光BS(ビームスプリッタ)に45度の角度で入射する。広帯域無偏光BSは、可視光の範囲で入射した偏光の1/2を透過し、1/2を反射するが、その際に偏光を維持する特性を有する。このため、直線偏光はそのまま被写体に照射される。また戻り光も同様に1/2が透過されて撮影レンズ109に入射する。この構成では、光源から出た光の一部が広帯域無偏光BSを透過した後、装置内部で反射することを最小にするため光吸収板310を設置するのが望ましい。ここではプレート形の広帯域無偏光BSを用いているが、キューブ型のものを用いてもよい。その場合には光源の反射はさらに強くなるため対策が必要になる。
 なお、直線偏光を発するLED光源を使用し、その偏光面を偏光面制御素子によって回転させるようにしてもよい。
 なお、上記の実施形態の全ては、回転偏光照明と輝度撮像素子の組み合わせで構成されているが、被写体が鏡面反射物体であれば、これを非偏光照明と偏光撮像素子の組み合わせに置き換えることも可能である。この場合、図1Cの偏光面制御素子106が不要となる代わりに撮像素子110が偏光撮像素子に置き換わる。偏光撮像素子としては可視カラー輝度と同時にある波長帯にて偏光撮像が可能な素子を用いることができる。この場合における処理部は、図13に示す輝度画像群1301の代わりに1枚の偏光撮像画像を受け取り、処理を行う。図13における輝度最大各画像YPH、および輝度変調度画像YDは、それぞれ、偏光主軸角(位相)画像と偏光度画像に置き換えればよい。
 本発明は、医療用内視鏡、皮膚科、歯科、眼科、外科などのメディカル用途のカメラ、工業用内視鏡、指紋撮像装置、表面検査装置など被写体の表面凹凸の観察、検査、認識を必要とする画像処理分野に広く適用可能である。
100  被写体
100a 被写体の凹領域
101  内視鏡
102  制御装置
103  挿入部
104  光源
105  ライトガイド
106  偏光面制御素子
107  照明レンズ
108  画像プロセッサ
109  撮影レンズ
110  撮像素子
111  映像信号線
112  同期装置
113  先端部
114  光源方向設定部
115  画像合成部
116  表示部
117  光源変動画像生成部
120  偏光照明部
140  撮像部
150  画像処理部
1302 変動輝度処理部
1305 反射判定部
1306 鏡像探索部

Claims (21)

  1.  偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体に照射する偏光照明部と、
     前記3種類以上の直線偏光の各々によって前記被写体が照射されているときに、順次、前記被写体を撮像する撮像部と、
     画像処理部と、
    を備え、
     前記画像処理部は、
     前記撮像部で撮影した画像の輝度を処理して被写体表面における反射偏光状態を算出する変動輝度処理部と、
     前記変動輝度処理部の出力に基づいて前記凹領域で2回反射して戻り光となる前記多重反射領域と、前記被写体表面で1回反射して戻り光となる1回反射領域とを判別する反射判定部と、
     前記被写体表面の凹領域で2回反射によって戻り光となる多重反射領域の対を決定する鏡像探索部とを有し、
     前記画像処理部は、前記多重反射領域の対に基づいて前記被写体表面の前記凹領域を示す画像を生成する、画像処理装置。
  2.  前記画像処理部は、
     前記多重反射領域の各対からグルーブセグメントを生成し、前記グルーブセグメントを接続して前記凹領域の位置を推定する凹領域接続部と、
     前記凹領域の断面形状を決定する断面形状モデル化部と、
    を有する請求項1に記載の画像処理装置。
  3.  前記画像処理部は、前記多重反射領域における表面法線と前記1回反射領域における表面法線とを統合して法線画像を生成する法線再現部を備える請求項2に記載の画像処理装置。
  4.  光源位置を設定する光源方向設定部と、
     前記光源位置を仮想的に動かしたときの光源変動画像を生成する光源変動画像生成部と、
     前記光源変動画像と輝度画像とを重ねあわせ合成して表示する画像表示部と
    を有する請求項3に記載の画像処理装置。
  5.  前記光源変動画像生成部は、前記法線画像および物理反射モデルを用いて前記被写体の輝度画像を生成する請求項4に記載の画像処理装置。
  6.  前記偏光照明部および前記撮像部は、内視鏡に取り付けられている請求項1から5のいずれかの画像処理装置。
  7.  前記偏光照明部は、非偏光の光を、偏光面変換素子を透過させることによって偏光面が3種類以上に順次変化する直線偏光を照射する請求項1に記載の画像処理装置。
  8.  前記偏光照明部は、非偏光の光を前記偏光面変換素子に導くライトガイドを有している請求項1に記載の画像処理装置。
  9.  前記撮像部はモノクロ撮像素子またはカラー撮像素子を有している請求項1に記載の画像処理装置。
  10.  偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体に照射しながら前記撮像部によって取得された複数の輝度画像の加算平均を行うことにより、非偏光照明下での画像に相当する平均輝度画像を生成する輝度加算平均部を有する、請求項1に記載の画像処理装置。
  11.  前記変動輝度処理部は、前記撮像部から出力される画素信号に基づいて、前記偏光面の角度と各画素の輝度値との関係を求め、各画素について前記輝度値が最大となる前記偏光面の角度によって定義される輝度最大角画像、および各画素について前記偏光面の変化にともなう前記輝度値の変動の振幅と輝度平均値との比率によって定義される輝度変調度画像を生成する、請求項1から10のいずれかに記載の画像処理装置。
  12.  前記輝度最大角画像、前記輝度変調度画像のいずれかと、輝度画像とを重ねあわせ合成して表示する画像表示部を有する請求項11に記載の画像処理装置。
  13.  前記反射判定部は、前記輝度最大角画像および前記輝度変調度画像に基づき、
     前記輝度最大角を色相角、前記輝度変調度を彩度とする擬似カラー画像において、あらかじめ設定された値以上の輝度変調度を持つ画素を、前記多重反射領域を構成する画素として抽出する請求項11に記載の画像処理装置。
  14.  前記凹領域接続部は、前記凹領域の表面法線のAzimuth(方位)角を推定する請求項2に記載の画像処理装置。
  15.  前記断面形状モデル化部は、前記凹領域の断面形状を特定の関数にてモデル化し、
     前記多重反射領域における表面法線のAzimuth角が概略45度になる性質を利用して、前記凹領域における任意の位置における表面法線のZenith(天頂)角を推定する請求項2に記載の画像処理装置。
  16.  前記偏光照明部は、偏光面が3種類以上に順次変化する偏光面変換素子を透過させた光を、リレーレンズ光学系を経由して前記被写体に照射する請求項1に記載の画像処理装置。
  17.  前記偏光照明部は、同心円状態の複数のリング照明または面照明光源を偏光面変換素子と組み合わせた光学系を有する請求項1に記載の画像処理装置。
  18.  前記偏光照明部は、撮像系の光軸よりも内側向きの照明系光軸を有する面照明光源と偏光面変換素子とを組み合わせた光学系を有する請求項1に記載の画像処理装置。
  19.  前記偏光照明部は、無偏光広帯域ビームスプリッタと面照明光源と偏光面変換素子とを組み合わせた光学系を有する請求項1に記載の画像処理装置。
  20.  偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体に照射する偏光照明工程と、
     前記3種類以上の直線偏光の各々によって前記被写体が照射されているときに、順次、前記被写体を撮像する撮像工程と、
     画像処理工程と、
    を含む画像処理方法であって、
     前記画像処理工程は、
     前記撮像工程で撮影した画像の輝度を処理して被写体表面における反射偏光状態を算出する変動輝度処理工程と、
     前記変動輝度処理工程の結果に基づいて前記凹領域で2回反射して戻り光となる前記多重反射領域と、前記被写体表面で1回反射して戻り光となる1回反射領域とを判別する反射判定工程と、
     前記被写体表面の凹領域で2回反射によって戻り光となる多重反射領域の対を決定する鏡像探索工程と、
     前記多重反射領域の対に基づいて前記被写体表面の前記凹領域を示す画像を生成する工程と
    を含む、画像処理方法。
  21.  偏光面の角度が異なる3種類以上の直線偏光を、順次、被写体に照射する偏光照明部と、
     前記3種類以上の直線偏光の各々によって前記被写体が照射されているときに、順次、前記被写体を撮像する撮像部と、
     画像処理部と、
     画像処理部の出力に基づいて画像を表示する表示部と、
    を備え、
     前記画像処理部は、
     前記撮像部で撮影した画像の輝度を処理して被写体表面における反射偏光状態を算出する変動輝度処理部と、
     前記変動輝度処理部の出力に基づいて疑似カラー画像を生成する疑似カラー画像変換部と、
    を備え、
     前記変動輝度処理部は、前記撮像部から出力される画素信号に基づいて、前記偏光面の角度と各画素の輝度値との関係を求め、各画素について前記輝度値が最大となる前記偏光面の角度によって定義される輝度最大角画像、および各画素について前記偏光面の変化にともなう前記輝度値の変動の振幅と輝度平均値との比率によって定義される輝度変調度画像を生成し、
     前記疑似カラー画像変換部は、前記輝度最大角画像および前記輝度変調度画像に基づき、前記輝度最大角を色相角、前記輝度変調度を彩度とする擬似カラー画像を生成し、前記擬似カラー画像と輝度画像とを合成して前記表示部に表示させる、内視鏡装置。
PCT/JP2011/005293 2010-11-30 2011-09-20 画像処理装置 WO2012073414A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012534172A JP5238098B2 (ja) 2010-11-30 2011-09-20 画像処理装置および画像処理装置の作動方法
CN201180037504.5A CN103037751B (zh) 2010-11-30 2011-09-20 图像处理装置
US13/571,686 US8648907B2 (en) 2010-11-30 2012-08-10 Image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010267436 2010-11-30
JP2010-267436 2010-11-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/571,686 Continuation US8648907B2 (en) 2010-11-30 2012-08-10 Image processing apparatus

Publications (1)

Publication Number Publication Date
WO2012073414A1 true WO2012073414A1 (ja) 2012-06-07

Family

ID=46171392

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/005293 WO2012073414A1 (ja) 2010-11-30 2011-09-20 画像処理装置

Country Status (4)

Country Link
US (1) US8648907B2 (ja)
JP (1) JP5238098B2 (ja)
CN (1) CN103037751B (ja)
WO (1) WO2012073414A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014108193A (ja) * 2012-11-30 2014-06-12 Panasonic Corp 画像処理装置および内視鏡
WO2014125529A1 (ja) * 2013-02-15 2014-08-21 パナソニック株式会社 画像処理装置および内視鏡
JP2018084572A (ja) * 2016-11-15 2018-05-31 パナソニックIpマネジメント株式会社 画像形成装置
JP2020512089A (ja) * 2017-03-24 2020-04-23 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 奥行き知覚を高める仮想陰影

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9536345B2 (en) * 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
JP6107537B2 (ja) * 2013-08-27 2017-04-05 ソニー株式会社 撮像システムおよびその画像処理方法、画像処理装置およびその画像処理方法、並びに、プログラム
EP2865988B1 (de) * 2013-10-22 2018-09-19 Baumer Electric Ag Lichtschnittsensor
US9664507B2 (en) 2014-09-17 2017-05-30 Canon Kabushiki Kaisha Depth value measurement using illumination by pixels
WO2016175084A1 (ja) 2015-04-30 2016-11-03 富士フイルム株式会社 画像処理装置、方法及びプログラム
JP6679289B2 (ja) * 2015-11-30 2020-04-15 キヤノン株式会社 処理装置、処理システム、撮像装置、処理方法、処理プログラムおよび記録媒体
US9958259B2 (en) 2016-01-12 2018-05-01 Canon Kabushiki Kaisha Depth value measurement
JP6735474B2 (ja) * 2016-02-29 2020-08-05 パナソニックIpマネジメント株式会社 撮像装置
CN110741632B (zh) * 2017-06-13 2021-08-03 索尼公司 拍摄装置、拍摄元件以及图像处理方法
JP2019086310A (ja) * 2017-11-02 2019-06-06 株式会社日立製作所 距離画像カメラ、距離画像カメラシステム、及びそれらの制御方法
EP3530179A1 (en) * 2018-02-27 2019-08-28 Koninklijke Philips N.V. Obtaining images for use in determining one or more properties of skin of a subject
WO2019215821A1 (ja) 2018-05-08 2019-11-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および被写体情報取得方法
WO2019215820A1 (ja) * 2018-05-08 2019-11-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および被写体情報取得方法
CN110600109B (zh) * 2019-09-10 2023-12-26 安徽中科微因健康科技有限公司 一种彩色图像融合的诊断监控综合医疗系统及其融合方法
JP7272927B2 (ja) * 2019-10-15 2023-05-12 日立Astemo株式会社 車載カメラシステム、車両、及び偏光素子

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10104524A (ja) * 1996-08-08 1998-04-24 Nikon Corp 微分干渉顕微鏡
JPH10122829A (ja) * 1996-10-25 1998-05-15 Matsushita Electric Ind Co Ltd 半田フィレットの外観検査装置
JP2010082271A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 凹凸検出装置、プログラム、及び方法
JP2010104424A (ja) * 2008-10-28 2010-05-13 Fujifilm Corp 撮像システムおよび撮像方法
JP4762369B2 (ja) * 2009-12-08 2011-08-31 パナソニック株式会社 画像処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11313242A (ja) 1998-04-28 1999-11-09 Nippon Hoso Kyokai <Nhk> 撮像用光学機器および撮像装置
JP3869698B2 (ja) 2001-10-23 2007-01-17 ペンタックス株式会社 電子内視鏡装置
CN101194202B (zh) * 2005-05-10 2011-08-17 莱弗技术有限公司 电光滤波器
WO2008102294A2 (en) * 2007-02-20 2008-08-28 Koninklijke Philips Electronics N.V. An optical device for assessing optical depth in a sample
CN100455253C (zh) * 2007-03-29 2009-01-28 浙江大学 用于在体光学活检的谱域oct内窥成像系统
JP4235252B2 (ja) 2007-05-31 2009-03-11 パナソニック株式会社 画像処理装置
US8004675B2 (en) 2007-09-20 2011-08-23 Boss Nova Technologies, LLC Method and system for stokes polarization imaging
JP4940440B2 (ja) 2008-03-31 2012-05-30 富士フイルム株式会社 撮像装置、撮像方法、およびプログラム
CN101449963B (zh) * 2008-12-29 2011-12-28 浙江大学 激光共聚焦显微内窥镜

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10104524A (ja) * 1996-08-08 1998-04-24 Nikon Corp 微分干渉顕微鏡
JPH10122829A (ja) * 1996-10-25 1998-05-15 Matsushita Electric Ind Co Ltd 半田フィレットの外観検査装置
JP2010082271A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 凹凸検出装置、プログラム、及び方法
JP2010104424A (ja) * 2008-10-28 2010-05-13 Fujifilm Corp 撮像システムおよび撮像方法
JP4762369B2 (ja) * 2009-12-08 2011-08-31 パナソニック株式会社 画像処理装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014108193A (ja) * 2012-11-30 2014-06-12 Panasonic Corp 画像処理装置および内視鏡
WO2014125529A1 (ja) * 2013-02-15 2014-08-21 パナソニック株式会社 画像処理装置および内視鏡
JP5799264B2 (ja) * 2013-02-15 2015-10-21 パナソニックIpマネジメント株式会社 画像処理装置および内視鏡
US9808147B2 (en) 2013-02-15 2017-11-07 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and endoscope
JP2018084572A (ja) * 2016-11-15 2018-05-31 パナソニックIpマネジメント株式会社 画像形成装置
JP2020512089A (ja) * 2017-03-24 2020-04-23 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 奥行き知覚を高める仮想陰影

Also Published As

Publication number Publication date
JP5238098B2 (ja) 2013-07-17
US20120307028A1 (en) 2012-12-06
JPWO2012073414A1 (ja) 2014-05-19
US8648907B2 (en) 2014-02-11
CN103037751A (zh) 2013-04-10
CN103037751B (zh) 2015-06-10

Similar Documents

Publication Publication Date Title
JP5238098B2 (ja) 画像処理装置および画像処理装置の作動方法
JP4971531B2 (ja) 画像処理装置
JP4762369B2 (ja) 画像処理装置
JP4469021B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、画像合成方法、および画像合成装置
JP5450826B2 (ja) 画像処理装置
US8184194B2 (en) Image processing apparatus, image division program and image synthesising method
US9392231B2 (en) Imaging device and endoscope for detecting and displaying the shape of the micro-geometric texture of a transparent structure
US7274470B2 (en) Optical 3D digitizer with enlarged no-ambiguity zone
JP4235252B2 (ja) 画像処理装置
KR102048793B1 (ko) 표면 컬러를 이용한 표면 토포그래피 간섭측정계
JP6084995B2 (ja) 画像処理装置
US20150085079A1 (en) Dynamic range of color camera images superimposed on scanned three-dimensional gray-scale images
JP5799264B2 (ja) 画像処理装置および内視鏡
US20120099172A1 (en) Microscope system
JP2012143363A (ja) 画像処理装置
JPH1069543A (ja) 被写体の曲面再構成方法及び被写体の曲面再構成装置
WO2015048053A1 (en) Improved dynamic range of color camera images superimposed on scanned three dimensional gray scale images
JP2009236696A (ja) 被写体の3次元画像計測方法、計測システム、並びに計測プログラム
JP5503573B2 (ja) 撮像装置および画像処理情報生成プログラム
Clancy et al. An endoscopic structured lighting probe using spectral encoding
JPS63246716A (ja) 内視鏡画像取込み方法および内視鏡装置
KR101469615B1 (ko) 무작위검색 알고리즘을 이용한 비전시스템의 컬러 조명 제어방법
Lapray et al. Performance comparison of division of time and division of focal plan polarimeters
CA2475391C (en) Optical 3d digitizer with enlarged non-ambiguity zone
JP2004325397A (ja) 測距装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180037504.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11844953

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012534172

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11844953

Country of ref document: EP

Kind code of ref document: A1