WO2021152724A1 - 配光検査装置、配光検査方法、内視鏡システム、及び記憶媒体 - Google Patents

配光検査装置、配光検査方法、内視鏡システム、及び記憶媒体 Download PDF

Info

Publication number
WO2021152724A1
WO2021152724A1 PCT/JP2020/003182 JP2020003182W WO2021152724A1 WO 2021152724 A1 WO2021152724 A1 WO 2021152724A1 JP 2020003182 W JP2020003182 W JP 2020003182W WO 2021152724 A1 WO2021152724 A1 WO 2021152724A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
inspection
image
incident
information
Prior art date
Application number
PCT/JP2020/003182
Other languages
English (en)
French (fr)
Inventor
亀江宏幸
佐々木靖夫
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN202080094418.7A priority Critical patent/CN115087387A/zh
Priority to PCT/JP2020/003182 priority patent/WO2021152724A1/ja
Publication of WO2021152724A1 publication Critical patent/WO2021152724A1/ja
Priority to US17/875,575 priority patent/US20220361731A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor

Definitions

  • the present invention relates to a light distribution inspection device, a light distribution inspection method, an endoscope system, and a storage medium.
  • Patent Document 1 discloses an endoscope system.
  • the endoscopic system includes a scope and an illumination light supply device.
  • the scope includes an imaging unit, a light guide, and an illumination light emitting unit.
  • the illumination light supply device includes a light source unit and a light amount distribution changing device.
  • the light amount distribution changing device transmits the illumination light emitted from the light source unit to the light guide.
  • the illumination light emitted from the light source unit is changed by the light amount distribution changing device so that the illumination light emitted from the illumination light emission unit has a desired light amount distribution.
  • NS By this change, the light amount distribution of the illumination light in the illumination light irradiation area where the illumination light is irradiated is changed.
  • the above endoscopic system does not consider light distribution. Therefore, it is difficult to perform lighting in which the light distribution is adjusted according to the subject.
  • the present invention has been made in view of such a problem, and is a light distribution inspection device and a light distribution inspection method capable of accurately and easily inspecting the amount of light emitted from a light guide member and the light distribution.
  • the purpose is to provide.
  • Another object of the present invention is to provide an endoscopic system capable of performing illumination in which the light distribution is adjusted according to the subject.
  • Another object of the present invention is to provide a storage medium that stores a program that can accurately and easily inspect the amount of light emitted from the light guide member and the distribution of light.
  • the light distribution inspection apparatus may be used.
  • An information acquisition unit that acquires characteristics in association with each incident position information of the inspection light, It is characterized by including a light distribution information calculation unit that calculates light distribution information of the lighting device based on each incident position information and each light amount distribution characteristic.
  • Inspection light is generated from illumination light having a luminous flux diameter including the incident surface of the light guide unit.
  • the inspection light is incident light incident on the light guide unit, and is An image based on the inspection light is generated in association with the incident position information regarding the incident position of the inspection light.
  • the light distribution information is characterized in that it is information regarding the light distribution characteristics of the inspection light emitted from the light guide unit.
  • a light source device including a light source and a lighting control unit that controls the light emitted from the light source.
  • a light guide member that can be connected to a light source device and has a light guide unit, an image pickup unit that acquires an image, a memory that stores light distribution information of illumination light generated based on emitted light, and a light guide unit. It is provided with an endoscope including, and a plurality of emission units, which are optically connected to the light source and emit a plurality of illumination lights based on the emitted light.
  • the illumination control unit is characterized in that it controls the light distribution of the illumination light emitted from at least one of the plurality of emission units by controlling the emission light based on the light distribution information acquired from the memory. ..
  • the storage medium is Inspection light is generated from illumination light having a luminous flux diameter including the incident surface of the light guide unit.
  • the inspection light is incident light incident on the light guide unit, and is An image based on the inspection light is generated in association with the incident position information regarding the incident position of the inspection light.
  • the light distribution information is characterized in that it stores a program that is information on the light distribution characteristics of the inspection light emitted from the light guide unit.
  • the present invention it is possible to provide a light distribution inspection device and a light distribution inspection method capable of accurately and easily inspecting the amount of light emitted from the light guide member and the light distribution.
  • an endoscope system capable of performing illumination in which the light distribution is adjusted according to the subject.
  • the present invention it is possible to provide a storage medium that stores a program that can accurately and easily inspect the amount of light emitted from the light guide member and the distribution of light.
  • the light distribution inspection device of the present embodiment is emitted from each of a plurality of emission portions of the lighting device optically connected to the light guide portion based on a plurality of inspection lights incident on the light guide portion of the lighting device.
  • An information acquisition unit that acquires each light amount distribution characteristic of a plurality of emitted lights in association with each incident position information of the inspection light, and an arrangement of the lighting device based on each incident position information and each light amount distribution characteristic. It is characterized by including a light distribution information calculation unit for calculating light information.
  • FIG. 1 is a schematic view of a light distribution inspection device.
  • FIG. 1A is a perspective view of the device.
  • FIG. 1B is a top view.
  • the light distribution inspection device 1 includes an information acquisition unit 4 and a light distribution information calculation unit 5.
  • a lighting device 2 is mounted on the light distribution inspection device 1 for inspection.
  • the lighting device 2 has a light guide member 6.
  • the light guide member 6 is drawn separately from the lighting device 2.
  • the holding member 3 has a first member 3a and a second member 3b.
  • the light guide member 6 is sandwiched between the first member 3a and the second member 3b.
  • the light guide member 6 is held by the holding member 3.
  • the light guide member 6 has a light guide portion.
  • the lighting device 2 has a light guide unit.
  • the light guide member 6 has an exit portion.
  • the lighting device 2 has an exit portion. The exit portion is optically connected to the light guide portion.
  • inspection light is used.
  • the inspection light is incident light incident on the light guide unit.
  • the incident position of the inspection light with respect to the incident surface changes with the passage of time. Therefore, a plurality of inspection lights are incident on the light guide unit.
  • the incident position information is acquired for each of the plurality of inspection lights.
  • the inspection light incident from the incident surface of the light guide unit is emitted from the injection surface of the light guide unit. Since there are a plurality of inspection lights, a plurality of emitted lights are emitted from the emission surface of the light guide unit. Since the emission surface is located at the emission portion of the lighting device 2, a plurality of emission lights are emitted from the emission portion of the lighting device 2. Therefore, the light quantity distribution characteristic is acquired for each of the plurality of emitted lights.
  • the information acquisition unit 4 acquires each light amount distribution characteristic in association with each incident position information.
  • the light amount distribution characteristic is acquired based on the emitted light emitted from the emitting portion of the lighting device 2.
  • the emitted light is generated from the inspection light incident on the light guide portion of the lighting device 2. Therefore, the light amount distribution characteristic is acquired based on the inspection light incident on the light guide unit.
  • the light distribution information calculation unit 5 calculates the light distribution information of the lighting device 2. The calculation of the light distribution information is performed based on each incident position information and each light amount distribution characteristic.
  • the number of emitting parts is one.
  • the light guide member 6 may have a plurality of emission portions. In this case, a plurality of emitted lights are emitted from each of the plurality of emitted units of the lighting device 2.
  • the light distribution inspection device 1 preferably includes a unit U2 and a unit U3. However, either unit U2 or unit U3 may be provided.
  • the unit U1, the unit U2, the unit U3, and the unit U4 will be described later.
  • the inspection light is a part of the illumination light
  • the irradiation area is the area where the inspection light is irradiated
  • the irradiation area is narrower than the incident surface of the light guide portion.
  • the incident position information includes information regarding the position of the irradiation region, and it is preferable to acquire the light amount distribution characteristic and calculate the light distribution information while changing the position of the irradiation region. Further, it is preferable that the position of the irradiation region is changed by the digital mirror device.
  • FIG. 2 is a diagram showing a light distribution inspection device.
  • FIG. 3 is a diagram showing a state of illumination light.
  • FIG. 3A is a diagram showing illumination light incident on the light guide member.
  • FIG. 3B is a diagram showing an end surface of the light guide member.
  • the light distribution inspection device 10 includes an information acquisition unit 40 and a light distribution information calculation unit 50.
  • a lighting device 20 is placed on the light distribution inspection device 10 for inspection.
  • the lighting device 20 includes a light source 21, a lens 22, and a light guide member 60.
  • the light guide member 60 is drawn separately from the lighting device 20.
  • the light guide member 60 is held by the holding member 30.
  • FIG. 2 is a schematic diagram. Therefore, the image sensor 42 and the lens 43 are in close proximity to each other. In an actual device, the distance between the image sensor 42 and the lens 43 is appropriately set so that the optical image can be imaged by the image sensor 42.
  • the lighting device 20 has a light source 21 and a lens 22.
  • a laser or an LED can be used.
  • a plurality of lenses may be used instead of the lens 22.
  • the light distribution inspection device 10 has a digital mirror device 70 (hereinafter referred to as “DMD70”).
  • DMD70 corresponds to the unit U1.
  • the light distribution inspection device 10 includes an image pickup element 41, an image pickup element 42, a lens 43, and an image generation unit 44.
  • the image sensor 41 corresponds to the unit U2.
  • the image sensor 42 and the lens 43 correspond to the unit U3.
  • the image generation unit 44 corresponds to the unit U4.
  • the image sensor 41 and the image sensor 42 output a signal used for image generation to the image generation unit 44.
  • the image generation unit 44 is separated from the information acquisition unit 40.
  • the image generation unit 44 may be built in the information acquisition unit 40.
  • only the image sensor 41 may be arranged, or only the image sensor 42 and the lens 43 may be arranged.
  • the light guide member 60 has a light guide portion.
  • the lighting device 20 has a light guide unit.
  • the light guide member 60 has an exit portion.
  • the lighting device 20 has an exit portion. The exit portion is optically connected to the light guide portion.
  • the light emitted from the light source 21 is emitted from the lens 22 as illumination light.
  • the magnitude of the luminous flux of the illumination light emitted from the lens 22 is the same as the size of the incident surface of the light guide unit or larger than the size of the incident surface of the light guide unit.
  • Inspection light is used in the light distribution inspection device 10.
  • the inspection light is incident light incident on the light guide unit.
  • the inspection light is a part of the illumination light.
  • the magnitude of the luminous flux of the inspection light is smaller than the magnitude of the incident surface of the light guide portion.
  • the irradiation area is an area where the inspection light is irradiated.
  • the irradiation area is narrower than the incident surface of the light guide.
  • the incident position of the inspection light with respect to the incident surface changes with the passage of time. Therefore, a plurality of inspection lights are incident on the light guide unit.
  • the incident position information is acquired for each of the plurality of inspection lights.
  • the inspection light incident from the incident surface of the light guide unit is emitted from the injection surface of the light guide unit. Since there are a plurality of inspection lights, a plurality of emitted lights are emitted from the emission surface of the light guide unit. Since the emission surface is located at the emission portion of the lighting device 20, a plurality of emission lights are emitted from the emission portion of the lighting device 20. Therefore, the light quantity distribution characteristic is acquired for each of the plurality of emitted lights.
  • the information information acquisition unit 40 acquires each light amount distribution characteristic in association with each incident position information.
  • the light amount distribution characteristic is acquired based on the emitted light emitted from the emitting portion of the lighting device 20.
  • the emitted light is generated from the inspection light incident on the light guide portion of the lighting device 20. Therefore, the light amount distribution characteristic is acquired based on the inspection light incident on the light guide unit.
  • the light distribution information calculation unit 50 calculates the light distribution information of the lighting device 20. The calculation of the light distribution information is performed based on each incident position information and each light amount distribution characteristic.
  • the number of emitting parts is one.
  • the light guide member 60 may have a plurality of emission portions. In this case, a plurality of emitted lights are emitted from each of the plurality of emitted portions of the lighting device 20.
  • the endoscope can be an inspection target.
  • the endoscope has an image sensor and an objective lens. Therefore, when inspecting an endoscope, the image sensor 42 and the lens 43 are not used.
  • illumination light L ILL illumination light
  • the light guide member 60 has a light guide portion 61 and a sheath 62.
  • the light guide unit 61 has an incident surface 63.
  • the light guide member 60 is held by the holding member 30.
  • the light guide unit 61 has a plurality of light guide elements 64.
  • the plurality of light guide elements 64 are arranged in a grid pattern.
  • the arrangement of the light guide elements may be hexagonal close-packed or random.
  • the light guide element 64 for example, an optical fiber can be used.
  • the light guide unit 61 functions as a fiber bundle.
  • the DMD 70 is not arranged in order to compare the size of the illumination light L ILL with the size of the incident surface 63.
  • the illumination light L ILL has a luminous flux diameter including the incident surface 63 of the light guide unit 61. Therefore, if it is left as it is, all the illumination light L ILL is incident on the incident surface 63.
  • FIG. 4 is a diagram showing a digital mirror device.
  • FIG. 4A is a diagram showing a mirror surface.
  • FIG. 4B is a diagram showing a first state.
  • FIG. 4C is a diagram showing a second state.
  • the DMD 70 has a mirror array surface 71.
  • the mirror elements 72 are arranged in a grid pattern.
  • the mirror element 72 has a mirror 73, a hinge 74, an electrode 75, and an electrode 76.
  • the hinge 74 supports the mirror 73 so as to be tiltable.
  • the electrodes 75 and 76 are provided at positions facing the mirror 73.
  • a voltage is applied to the electrode 75 so as to generate an attractive force between the electrode 75 and the mirror 73.
  • the hinge 74 is deformed by the generated attractive force, and the mirror 73 is tilted. As a result, the end of the mirror 73 comes into contact with the electrode 75.
  • the second state a voltage is applied to the electrode 76 so as to generate an attractive force between the electrode 76 and the mirror 73.
  • the hinge 74 is deformed by the generated attractive force, and the mirror 73 is tilted.
  • the deformation direction of the hinge 74 and the inclination direction of the mirror 73 are opposite to those in the first state. Therefore, the end of the mirror 73 comes into contact with the electrode 76.
  • each mirror element 72 is controlled to be in either the first state or the second state.
  • FIG. 5 is a diagram showing how the illumination light is reflected.
  • FIG. 5A is a diagram showing illumination light in the first state.
  • FIG. 5B is a diagram showing illumination light in the second state.
  • the light incident on the incident surface 63 can be selected from the illumination light L ILL. ..
  • FIG. 6 is a diagram showing a digital mirror device and an inspection light.
  • FIG. 6A is a diagram showing a mirror array surface.
  • FIG. 6B is a diagram showing how the illumination light is reflected by the digital mirror device.
  • FIG. 6C is a diagram showing an end surface of the light guide member.
  • the mirror array surface is divided into a first reflection region R 1st and a second reflection region R 2nd.
  • first reflection region R 1st each mirror element 72 is in the first state.
  • second reflection region R 2nd each mirror element 72 is in the second state state. Therefore, the traveling direction of the light reflected in the first reflection region R 1st and the traveling direction of the light reflected in the second reflection region R 2nd are different.
  • the light reflected in the first reflection region R 1st (hereinafter referred to as “inspection light L MEA ”) reaches the incident surface 63. Therefore, the inspection light L MEA is incident on the light guide unit 61.
  • the light reflected in the second reflection region R 2nd (hereinafter referred to as “non-inspection light L NOM ”) does not reach the incident surface 63. Therefore, the non-inspection light L NOM does not enter the light guide unit 61.
  • the inspection light L MEA irradiates the irradiation region R MEA .
  • the irradiation region R MEA is an region on the incident surface 63 where the inspection light L MEA is irradiated.
  • the illumination light L ILL has a luminous flux diameter including the incident surface 63.
  • the inspection light L MEA is a part of the illumination light L ILL. Therefore, the irradiation region R MEA is narrower than the incident surface 63.
  • the irradiation region R MEA includes a plurality of light guide elements. Therefore, the inspection light L MEA is incident on the plurality of light guide elements.
  • a plurality of light guide elements correspond to the plurality of mirror elements. However, a plurality of light guide elements may correspond to one mirror element.
  • An LCD may be used instead of the DMD70.
  • the liquid crystal may be arranged between the lens 22 and the incident surface 63.
  • the liquid crystal has a plurality of pixels, and light transmission and shading can be selected for each pixel. Therefore, similarly to the DMD 70, the illumination light L ILL can be divided into the inspection light L MEA and the non-test light L NOM.
  • the position of the inspection light L MEA on the incident surface 63 changes. Therefore, the position of the irradiation region can be changed by changing the pixel that transmits light.
  • an opening member having a transparent region and an opaque region may be used.
  • the illumination light L ILL the opening member is irradiated, the illumination light L ILL is divided into a light passing through the transparent region, and the light is shielded by the opaque regions. Therefore, the illumination light L ILL can be divided into the inspection light L MEA and the non-test light L NOM.
  • the opening member when the opening member is mechanically moved, the position of the transparent region on the incident surface 63 changes.
  • the position of the inspection light L MEA changes. Therefore, the position of the irradiation region can be changed by moving the opening member.
  • FIG. 7 is a diagram showing inspection light emitted from the light guide member.
  • the inspection light L MEA incident on the light guide member 60 is emitted from the light guide member 60.
  • a lens 80 is arranged on the injection surface 65 side of the light guide member 60.
  • the inspection light L MEA is converted into divergent light by the lens 80.
  • the inspection light L MEA is emitted from the lens 80.
  • the light guide member that can be inspected is not limited to the light guide member 60.
  • a light guide member having one end face on the incident side and two or more end faces on the injection side can be inspected.
  • FIG. 8 is a diagram showing another light guide member.
  • FIG. 8A is a diagram showing the arrangement of another light guide member.
  • FIG. 8B is a diagram showing a holding member.
  • the light guide member 90 includes a light guide member 91, a light guide member 92, and a light guide member 93.
  • the light guide member 90 In the light guide member 90, one light guide member is divided into two light guide members in the middle. Therefore, the light guide member 90 has one end face on the incident side and two end faces on the emission side.
  • the light guide member 90 is held by the holding member 100.
  • the holding member 100 includes a first member 100a and a second member 100b.
  • the light guide member 92 and the light guide member 93 are sandwiched between the first member 100a and the second member 100b.
  • the light guide member 90 is held by the holding member 100.
  • FIG. 9 is a diagram showing the inspection light emitted from the light guide member.
  • FIG. 9A is a diagram showing inspection light emitted from one of the light guide members.
  • FIG. 9B is a diagram showing inspection light emitted from the other light guide member.
  • the light guide member 90 has a light guide portion 94 and a sheath 95.
  • the light guide unit 94 has an incident surface 96.
  • the light guide member 92 has an injection surface 97.
  • the light guide member 93 has an injection surface 98.
  • the inspection light L MEA is applied to the irradiation area R'MEA .
  • the irradiation area R'MEA is an area on the incident surface 96 where the inspection light L MEA is irradiated.
  • the illumination light L ILL has a luminous flux diameter including the incident surface 96.
  • the inspection light L MEA is a part of the illumination light L ILL. Therefore, the irradiation region R'MEA is narrower than the incident surface 96. DMD70 By using, it is possible to change the position of the irradiation region R 'MEA.
  • the inspection light L MEA is emitted from the light guide member 92 or is emitted from the light guide member 93. In some cases, the inspection light L MEA is emitted from both the light guide member 92 and the light guide member 93.
  • the inspection light L MEA incident on the incident surface 96 is emitted from the light guide member 92.
  • a lens 80 is arranged on the injection surface 97 side of the light guide member 92.
  • the inspection light L MEA emitted from the light guide member 92 is converted into divergent light by the lens 80.
  • the inspection light L MEA1 is emitted from the lens 80.
  • the inspection light L MEA incident on the incident surface 96 is emitted from the light guide member 93.
  • a lens 80 is arranged on the injection surface 98 side of the light guide member 93.
  • the inspection light L MEA emitted from the light guide member 93 is converted into divergent light by the lens 80.
  • the inspection light L MEA2 is emitted from the lens 80.
  • the light amount distribution characteristic is acquired based on the inspection light L MEA. At this time, the light amount distribution characteristic is acquired in association with the incident position information of the inspection light L MEA.
  • the irradiation region R MEA is an region on the incident surface 63 where the inspection light L MEA is irradiated.
  • the position of the irradiation region R MEA represents the incident position of the inspection light L MEA on the incident surface 63.
  • the irradiation region R'MEA is a region on the incident surface 96 where the inspection light L MEA is irradiated.
  • the position of the irradiation region R'MEA represents the incident position of the inspection light L MEA on the incident surface 96.
  • the information regarding the position of the irradiation region R MEA and the information regarding the position of the irradiation region R'MEA can be used as the incident position information of the inspection light L MEA.
  • the irradiation region R MEA is a region to which the inspection light L MEA is irradiated. Since the inspection light L MEA is reflected by the first reflective region R 1st, the position of the first reflective region R 1st, can be used instead of the position of the irradiation region R MEA. Therefore, the information regarding the position of the first reflection region R 1st can be used as the incident position information of the inspection light L MEA.
  • the first reflection region R 1st represents a region in which the mirror element is in the first state. Since each mirror element is arranged in a grid pattern, the position of each mirror element can be specified. By identifying the mirror element included in the first reflective region R 1st, the position of the specific mirror elements can be used instead of the position of the first reflective region R 1st. Therefore, as the incident position information, the information regarding the position of the mirror element can be used as the incident position information of the inspection light L MEA.
  • the light amount distribution characteristics and the light distribution information are calculated for the entire incident surface 63.
  • the irradiation region R MEA is narrower than the incident surface 63. Therefore, the calculation of the light amount distribution characteristic and the light distribution information is performed while changing the position of the irradiation region R MEA.
  • the light amount distribution characteristics and the light distribution information are calculated for the entire incident surface 96.
  • the irradiation region R'MEA is narrower than the incident surface 96. Therefore, the calculation of the light amount distribution characteristic and the light distribution information is performed while changing the position of the irradiation region R'MEA.
  • the inspection light L MEA is emitted from the lens 80.
  • the inspection light L MEA1 and the inspection light L MEA2 are emitted from the lens 80. These inspection lights can be imaged using the first method or the second method.
  • the light distribution inspection device of the present embodiment preferably has an image pickup device that outputs a signal used for generating an image, and the image pickup device faces the holding member.
  • FIG. 10 is a diagram showing imaging by the first method. The same configuration as in FIG. 2 is assigned the same number, and the description thereof will be omitted.
  • FIG. 10 is a schematic view.
  • the image sensor 41 is used in the first method.
  • the image sensor 42 and the lens 43 are not used.
  • the image sensor 41 faces the holding member 30.
  • the holding member 30 can hold the light guide member 60 or the light guide member 90.
  • the light guide member 60 is held by the holding member 30.
  • the inspection light L MEA emitted from the light guide member 60 passes through the lens 80 and directly enters the image sensor 41.
  • the light guide member 90 when the light guide member 90 is held by the holding member 30, the light guide member 92 emits the inspection light L MEA1 and the light guide member 93 emits the inspection light L MEA2.
  • the inspection light L MEA2 and the inspection light L MEA1 pass through the lens 80 and directly enter the image sensor 41.
  • the image sensor 41 outputs a signal used for image generation. An image is generated from the output signal.
  • Image generation is performed by the image generation unit.
  • an image generation unit is built in the information acquisition unit 40. Therefore, the image sensor 41 outputs a signal used for generating an image to the information acquisition unit 40.
  • the image sensor 41 When the image generation unit is separated from the information acquisition unit 40, the image sensor 41 outputs a signal used for image generation to the image generation unit. The image generation unit outputs the generated image to the information acquisition unit 40.
  • the information acquisition unit 40 acquires the light amount distribution characteristic, and the light distribution information calculation unit 50 calculates the light distribution information.
  • the light distribution information calculated by the inspection of the light guide member 60 is used for imaging with an endoscope (hereinafter referred to as "endoscope A") on which the light guide member 60 is mounted.
  • endoscope A an endoscope
  • the objective lens A mounted on the endoscope A is used. Therefore, in the inspection of the light guide member 60, it is necessary to calculate the light distribution information on the premise that the objective lens A is used.
  • the light distribution information calculated by the inspection of the light guide member 90 is used for imaging with an endoscope (hereinafter referred to as "endoscope B") on which the light guide member 90 is mounted.
  • endoscope B an endoscope
  • the objective lens B mounted on the endoscope B is used. Therefore, in the inspection of the light guide member 90, it is necessary to calculate the light distribution information on the premise that the objective lens B is used.
  • the light distribution information is calculated by imaging the inspection light with an image sensor.
  • the inspection light is directly incident on the image sensor. That is, in the first method, the light distribution information is calculated without using a lens.
  • the light distribution information is calculated in consideration of imaging with an endoscope equipped with a light guide member. Specifically, the position of the image sensor and the size of the image pickup surface are determined based on the field of view of the objective lens used together with the light guide member.
  • FIG. 11 is a diagram showing a field of view, an illumination area, and an imaging area of the objective lens.
  • FIG. 11A is a diagram showing a case where there is only one inspection light.
  • FIG. 11B is a diagram showing a case where there are two inspection lights.
  • the light guide member 60 can be used for an endoscope.
  • the endoscope has a fiber bundle, an illumination lens, and an objective lens.
  • the light guide portion 61 of the light guide member 60 corresponds to a fiber bundle.
  • the lens 80 corresponds to an illumination lens.
  • the illumination area 111 represents the illumination area of the illumination light L ILL.
  • the inspection area 112 represents an area of the inspection light L MEA.
  • the image pickup area 113 represents the image pickup area of the image pickup device 41.
  • the fiber bundle specifications, lighting lens specifications, and objective lens specifications differ for each product.
  • the illumination lens of the endoscope A is used for the lens 80.
  • the image sensor used for the endoscope A can be used for the image sensor 41. Further, the DMD used for the endoscope A can be used for the DMD 70.
  • the observation range is determined by the field of view of the objective lens. If the field of view of the objective lens is not filled with the illumination light, it is not possible to observe within the observation range. Further, if the field of view of the objective lens is not included in the imaging region, it is not possible to observe within the observation range.
  • the objective lens A is not used. Therefore, the field of view 110 (hereinafter referred to as "field of view 110") of the objective lens A is obtained based on the specifications of the objective lens A. Then, the image sensor 41 is positioned so that the field of view 110 is included in the image pickup region 113. Further, the size of the imaging region 113 is determined in consideration of the field of view 110.
  • the illumination area 111 is formed by the lens 80.
  • the illumination lens of the endoscope A is used as the lens 80.
  • the illumination lens of endoscope A is designed to fill the field of view 110. Therefore, at the position of the image sensor 41, as shown in FIG. 11A, the illumination region 111 includes the field of view 110.
  • the image sensor 41 outputs a signal used for generating an image to the information acquisition unit 40.
  • the information acquisition unit 40 has an image generation unit.
  • the image generation unit generates an image based on the inspection light L MEA (hereinafter, referred to as "image IM MEA ").
  • image IM MEA is generated based on the signal output from the image sensor 41.
  • the inspection light L MEA is a part of the illumination light L ILL. Therefore, the inspection area 112 is narrower than the field of view 110. Therefore, as it is, the light distribution information cannot be calculated at all the positions in the field of view 110.
  • the light quantity distribution characteristics are acquired while changing the position of the inspection area 112.
  • the light distribution information can be calculated at all the positions in the field of view 110.
  • the position of the inspection area 112 can be changed by moving the irradiation area.
  • the light guide member 90 can also be used for an endoscope.
  • the light guide member 90 two inspection lights are emitted from the light guide member 92 and the light guide member 93.
  • the light guide member 90 can be used for an endoscope.
  • the endoscope has a fiber bundle, an illumination lens, and an objective lens.
  • the light guide portion 94 of the light guide member 90 corresponds to a fiber bundle.
  • the lens 80 corresponds to an illumination lens.
  • the illumination region 121 represents the illumination light L ILL 1 .
  • the illumination area 122 represents the illumination area of the illumination light L ILL 2 .
  • the inspection area 123 represents an area of the inspection light L MEA1.
  • the inspection area 124 represents an area of the inspection light L MEA2.
  • the specifications of the fiber bundle, the specifications of the illumination lens, and the specifications of the objective lens are different for each product in the endoscope.
  • the illumination lens of the endoscope B is used for the lens 80.
  • the image sensor used for the endoscope B can be used for the image sensor 41. Further, the DMD used for the endoscope B can be used for the DMD 70.
  • the objective lens B is not used. Therefore, the field of view 120 (hereinafter referred to as "field of view 120") of the objective lens B is obtained based on the specifications of the objective lens B. Then, the image sensor 41 is positioned so that the field of view 120 is included in the image pickup region 113. Further, the size of the imaging region 113 is determined in consideration of the field of view 120.
  • the illumination area 121 and the illumination area 122 are formed by the lens 80.
  • the illumination lens of the endoscope B is used as the lens 80.
  • the illumination lens of endoscope B is designed to fill the field of view 120. Therefore, at the position of the image sensor 41, as shown in FIG. 11B, the illumination region 121 and the illumination region 122 include the field of view 120.
  • the image sensor 41 outputs a signal used for generating an image to the information acquisition unit 40.
  • the information acquisition unit 40 has an image generation unit.
  • the image generation unit generates an image IM MEA .
  • the image IM MEA includes an image based on the inspection light L MEA1 (hereinafter referred to as “image IM MEA1 ”) and an image based on the inspection light L MEA2 (hereinafter referred to as “image IM MEA2 ”).
  • Product formation and image IM MEA 2 of the image IM MEA 1 is performed based on a signal output from the image sensor 41.
  • Both the inspection light L MEA1 and the inspection light L MEA2 are a part of the illumination light L ILL. Therefore, both the inspection area 123 and the inspection area 124 are narrower than the field of view 120. Therefore, as it is, the light distribution information cannot be calculated at all the positions in the field of view 120.
  • the information acquisition unit 40 acquires the light amount distribution characteristic while changing the position of the inspection area 123 and the position of the inspection area 124.
  • the light distribution information can be calculated at all the positions in the field of view 120.
  • the position of the inspection area 123 and the position of the inspection area 124 can be changed by moving the irradiation area.
  • the field of view 110 is located inside the imaging region 113.
  • the field of view 110 may be inscribed in the imaging region 113.
  • the field of view 110 may be circumscribed in the imaging region 113. The same applies to the field of view 120.
  • the imaging region is set to include the field of view of the objective lens. Therefore, the inspection can be performed with the image sensor fixed. However, an image sensor having an imaging region narrower than the field of view may be used.
  • a lens may be arranged between the lens 80 and the image sensor. In this way, the inspection light emitted from the lens 80 can be focused. As a result, even if an image sensor having an image pickup region narrower than the field of view is used, the inspection can be performed with the image sensor fixed.
  • FIG. 12 is a diagram showing the movement of the image sensor.
  • FIG. 12A is a diagram showing the first movement.
  • FIG. 12B is a diagram showing the second movement.
  • FIG. 12 (c) is a diagram showing the third movement.
  • the image sensor 131 In the first movement, as shown in FIG. 12A, the image sensor 131 is moved within the field of view 130.
  • the moving direction of the image sensor 131 is a direction orthogonal to the optical axis 132, as shown by an arrow.
  • the image sensor 131 is moved in the direction orthogonal to the optical axis 132 and is moved along the optical axis. In the second movement, the direction of the normal of the surface of the image sensor 131 is not changed.
  • the image sensor 131 is moved in the direction orthogonal to the optical axis 132 and is moved along the optical axis. In the third movement, the direction of the normal of the surface of the image sensor 131 is changed.
  • the light receiving surface of the image sensor 131 has a size sufficient to receive the inspection light emitted from the lens 80. Therefore, the inspection light emitted from the lens 80 can be received regardless of the position of the image sensor 131.
  • the inner wall of the intestine is observed.
  • the distance from the objective lens to the inner wall differs between the center of the field of view and the periphery of the field of view.
  • the distance to the objective lens is shorter than that in the center of the field of view.
  • the reach of the illumination light is also short around the field of view and long at the center of the field of view.
  • the inspection can be performed in consideration of the difference in distance. Therefore, the inspection can be performed with high accuracy.
  • the light distribution inspection device of the present embodiment has an image pickup device that outputs a signal used to generate an image, and each of the images is an image obtained by capturing the inspection light reflected by the reflector, and one of the reflectors. It is preferable that the holding member and the image sensor are arranged on the side of the image sensor.
  • FIG. 13 is a diagram showing imaging by the second method. The same configuration as in FIG. 2 is assigned the same number, and the description thereof will be omitted.
  • FIG. 13 is a schematic view.
  • the image sensor 42 and the lens 43 are used.
  • the image sensor 41 is not used.
  • the reflector 140 is used. Specific examples of the reflector 140 will be described later.
  • the image sensor 42 and the lens 43 are close to each other. In an actual device, the distance between the image sensor 42 and the lens 43 is appropriately set so that the optical image can be imaged by the image sensor 42. ing.
  • the reflector 140 is arranged at a position facing the holding member 30 with the lens 80 interposed therebetween.
  • the inspection light L MEA emitted from the lens 80 is the reflector 140. Therefore, the holding member 30 and the image pickup element 42 are arranged on one side of the reflector 140.
  • the holding member 30 can hold the light guide member 60 or the light guide member 90. ..
  • the light guide member 60 is held by the holding member 30.
  • the inspection light L MEA emitted from the light guide member 60 is incident on the lens 80.
  • the inspection light L MEA emitted from the lens 80 is reflected by the reflector 140.
  • a part of the reflected inspection light L MEA passes through the lens 43 and enters the image sensor 42.
  • the light guide member 90 when the light guide member 90 is held by the holding member 30, the light guide member 92 emits the inspection light L MEA1 and the light guide member 93 emits the inspection light L MEA2.
  • the inspection light L MEA2 and the inspection light L MEA1 are incident on the lens 80.
  • the inspection light L MEA1 and the inspection light L MEA2 emitted from the lens 80 are reflected by the reflector 140.
  • a part of the reflected inspection light L MEA1 and a part of the reflected inspection light L MEA2 pass through the lens 43 and enter the image sensor 42.
  • the image sensor 42 outputs a signal used to generate an image. An image is generated from the output signal.
  • Image generation is performed by the image generation unit.
  • an image generation unit is built in the information acquisition unit 40. Therefore, the image sensor 42 outputs a signal used for image generation to the information acquisition unit 40.
  • the image sensor 42 When the image generation unit is separated from the information acquisition unit 40, the image sensor 42 outputs a signal used for image generation to the image generation unit. The image generated by the image generation unit is output to the information acquisition unit 40.
  • the information acquisition unit 40 acquires the light amount distribution characteristic, and the light distribution information calculation unit 50 calculates the light distribution information.
  • the light distribution information calculated by the inspection of the light guide member 60 is used for imaging with the endoscope A. Therefore, in the inspection of the light guide member 60, it is necessary to calculate the light distribution information on the premise that the objective lens A is used.
  • the light distribution information calculated by the inspection of the light guide member 90 is used for imaging with the endoscope B. Therefore, in the inspection of the light guide member 90, it is necessary to calculate the light distribution information on the premise that the objective lens B is used.
  • the light distribution information is calculated by capturing the inspection light with an image sensor. However, the inspection light is incident on the image sensor via the reflector and the lens. That is, in the second method, the light distribution information is calculated using the lens.
  • the light distribution information is calculated in consideration of imaging with an endoscope equipped with a light guide member. Specifically, the position of the image sensor 42, the size of the image pickup surface, the position of the lens 43, the position of the reflector 140, and the size of the reflector 140 are determined so that the same observation range as that of the endoscope can be imaged. NS.
  • the light guide member 60 In the light guide member 60, one inspection light is emitted from the light guide member 60.
  • the light guide member 60 is mounted on the endoscope A.
  • An objective lens A is mounted on the endoscope A. Therefore, it is preferable to use the objective lens A or a lens having the same field of view as the objective lens A as the lens 43.
  • the position of the image sensor 42, the size of the image pickup surface, the position of the lens 43, the position of the reflector 140, and the size of the reflector 140 are determined so that the same observation range as that of the endoscope A can be imaged.
  • the image sensor 42 outputs a signal used for generating an image to the information acquisition unit 40.
  • the information acquisition unit 40 has an image generation unit.
  • the image generation unit generates an image IM MEA .
  • the image IM MEA is generated based on the signal output from the image sensor 42.
  • the inspection light L MEA is a part of the illumination light L ILL. Therefore, the inspection area is narrower than the field of view. Therefore, as it is, the light distribution information cannot be calculated at all the positions in the field of view.
  • the information acquisition unit 40 acquires the light intensity distribution characteristics while changing the position of the inspection area.
  • the light distribution information can be calculated at all the positions in the field of view.
  • the position of the inspection area can be changed by moving the irradiation area.
  • the light guide member 90 When there are two inspection lights, two inspection lights are emitted from the light guide member 90.
  • the light guide member 90 is mounted on the endoscope B.
  • An objective lens B is mounted on the endoscope B. Therefore, it is preferable to use the objective lens B or a lens having the same field of view as the objective lens B for the lens 43.
  • the position of the image sensor 42, the size of the image pickup surface, the position of the lens 43, the position of the reflector 140, and the size of the reflector 140 are determined so that the same observation range as that of the endoscope B can be imaged.
  • the image sensor 42 outputs a signal used for image generation to the information acquisition unit 40. An image is generated. Then, the information acquisition unit 40 acquires the light amount distribution characteristic, and the light distribution information calculation unit 50 calculates the light distribution information.
  • the image sensor 42 outputs a signal used for generating an image to the information acquisition unit 40.
  • the information acquisition unit 40 has an image generation unit.
  • the image generation unit generates the image IM MEA1 and the image IM MEA2 .
  • Product formation and image IM MEA 2 of the image IM MEA 1 is performed based on a signal output from the imaging device 42.
  • Both the inspection light L MEA1 and the inspection light L MEA2 are a part of the illumination light L ILL. Therefore, both of the two inspection areas are narrower than the field of view. Therefore, as it is, the light distribution information cannot be calculated at all the positions in the field of view.
  • the information acquisition unit 40 acquires the light amount distribution characteristics while changing the positions of the two inspection areas.
  • the light distribution information can be calculated at all the positions in the field of view.
  • the positions of the two inspection areas can be changed by moving the irradiation area.
  • the inspection light emitted from the lens 80 is incident on the image sensor.
  • the inspection light is photoelectrically converted by the image sensor.
  • a signal corresponding to the light amount distribution characteristic of the inspection light is output from the image sensor.
  • the signal output from the image sensor is input to the image generation unit.
  • image generation an image based on the inspection light is generated based on the input signal.
  • the image IM MEA , the image IM MEA1 , and the image IM MEA2 are images based on the inspection light (hereinafter, referred to as “image IM”).
  • the light amount distribution characteristic is acquired in association with the incident position information.
  • An image IM is used to acquire the light amount distribution characteristics.
  • the image IM and the incident position information are associated.
  • the image IM is an image based on the inspection light.
  • the position of the inspection light is represented by the position of the irradiation region, the position of the first reflection region, or the position of the mirror element. Therefore, the positions of the image IMs are also represented by these positions.
  • the image IM and the incident position information can be associated with each other.
  • the light amount distribution characteristic of the inspection light is imaged.
  • the light amount distribution characteristics can be obtained from the image IM. Therefore, the light amount distribution characteristic can be acquired in association with the incident position information.
  • the light amount distribution characteristics can be obtained from the image IM. Therefore, the light amount distribution characteristic can be acquired in association with the incident position information.
  • the inspection light L MEA is the light reflected in the first reflection region R 1st of the DMD 70.
  • the position of the inspection light L MEA on the emission surface of the light guide member 60 also changes. Therefore, the image IM MEA generated by the image generation unit also changes. In this way, the position of the first reflection region R 1st and the image IM MEA are related.
  • the DMD 70 is connected to the information acquisition unit 40.
  • the position of the first reflection region R 1st is input to the information acquisition unit 40 as incident position information.
  • the information acquisition unit 40 has an image IM MEA . Therefore, the information acquisition unit 40 associates the image IM MEA with the incident position information.
  • the light amount distribution characteristic of the inspection light L MEA is imaged.
  • the light amount distribution characteristics can be obtained from the image IM MEA. Therefore, the light amount distribution characteristic can be acquired in association with the incident position information.
  • the light amount distribution characteristic is input to the light distribution information calculation unit 50 together with the incident position information.
  • the light amount distribution characteristic includes the light distribution characteristic of the inspection light L MEA emitted from the light guide unit 61. Therefore, the information calculation unit 50 can calculate the light distribution characteristic based on the incident position information and the light amount distribution characteristic.
  • the inspection light L MEA reflected in the first reflection region R 1st of the DMD 70 has been described above.
  • the inspection light L MEA to be incident on the incident surface 63 is selected from the illumination light L ILL by setting a part of the mirror elements 72 in the first state and the remaining mirror elements 72 in the second state. can do.
  • FIG. 14 is a diagram showing the light selected by the digital mirror device.
  • FIG. 14A is a diagram showing light in the first selected state.
  • FIG. 14B is a diagram showing light in the second selected state.
  • FIG. 14 (c) is a diagram showing light in the third selected state.
  • the mirror element group RL In the first selection state, the mirror element group RL is in the first state, and the remaining mirror element group is in the second state.
  • the mirror element group RL is located at one end of the mirror array surface. Therefore, as shown in FIG. 14A, the inspection light L MEA is emitted from one end of the injection surface 65.
  • the mirror element group RC In the second selection state, the mirror element group RC is in the first state, and the remaining mirror element group is in the second state.
  • the mirror element group RC is located in the center of the mirror array surface. Therefore, as shown in FIG. 14B, the inspection light L MEA is emitted from the center of the injection surface 65.
  • the mirror element group RR In the third selection state, the mirror element group RR is in the first state, and the remaining mirror element group is in the second state.
  • the mirror element group RR is located at the other end of the mirror array surface. Therefore, as shown in FIG. 14 (c), the inspection light L MEA is emitted from the other end of the injection surface 65.
  • the position of the inspection light L MEA incident on the incident surface 63 can be changed.
  • the position of the inspection light L MEA incident on the incident surface 63 is changed, it is possible to change the position of the inspection light L MEA to be emitted from the exit face 65.
  • the control of the DMD 70 is performed by the information acquisition unit 40. Further, the information acquisition unit 40 can associate the image IM MEA with the incident position information. Therefore, it is possible to associate the image with the incident position information and calculate the light distribution information while changing the position of the irradiation region.
  • the inspection light L MEA is repeatedly applied to the incident surface 63 while changing the position of the irradiation region with respect to the incident surface 63. Irradiation of the inspection light L MEA is carried out until the inspection light L MEA is irradiated onto the entire incident surface 63.
  • the light guide member 60 and the light guide member 90 can be used for the fiber bundle of the endoscope. Therefore, in the light distribution inspection device of the present embodiment, the inspection can be performed using an endoscope.
  • the mirror elements In the inspection, it is preferable to put the mirror elements in the first state one by one. However, a plurality of mirror elements may be put into the first state at the same time. For example, the mirror elements may be placed in the first state one row at a time. By doing so, the inspection can be performed efficiently.
  • FIG. 15 is a diagram showing a light distribution inspection device. The same configuration as in FIG. 2 is given the same number, and Etsumei is omitted.
  • the light distribution inspection device 150 includes a lighting device 20, a holding member 160, an information acquisition unit 40, and a light distribution information calculation unit 50.
  • the object to be inspected is the endoscope 170.
  • the endoscope 170 has an insertion unit 171, an operation unit 172, a cable 173, and a connection unit 174.
  • the insertion portion 171 has a tip portion 171a.
  • a fiber bundle, an illumination lens, an objective lens, and an image pickup device are arranged at the tip portion 171a.
  • FIG. 16 is a diagram showing a tip portion of an endoscope.
  • FIG. 16A is a diagram showing a first example of the tip portion.
  • FIG. 16B is a diagram showing a second example of the tip portion.
  • the tip 180 of the first example includes a fiber bundle 181, an illumination lens 182, an objective lens 183, and an image sensor 184.
  • the first tip 180 has one ejection surface. Therefore, the tip 180 of the first example is irradiated with the inspection light from one direction.
  • the tip 190 of the second example includes a fiber bundle 191 and a fiber bundle 192, an illumination lens 193, an illumination lens 194, an objective lens 195, and an image sensor 196.
  • the tip 190 of the second example has two ejection surfaces. Therefore, the tip 190 of the second example is irradiated with the inspection light from two directions.
  • the signal lines of the fiber bundle and the image sensor extend from the tip portion 171a to the connection portion 174.
  • the incident surface of the fiber bundle is located on the connecting surface 174a of the connecting portion 174.
  • the signal line of the image sensor is connected to the information acquisition unit 40 via a connector (not shown).
  • the holding member 160 has a holding member 161 and a holding member 162.
  • the insertion portion 171 is held by the holding member 161.
  • the connecting portion 174 is held by the holding member 162.
  • Fiber bundles are arranged inside the insertion portion 171 and inside the connection portion 174. Therefore, the fiber bundle is held by the holding member 161 and the holding member 162.
  • the image sensor and the fiber bundle are located on one side. Therefore, the reflector 140 is used in the inspection. As described above, in the light distribution inspection device 150, the inspection is performed by using the second method. The reflector will be described.
  • the reflector has a region where the inspection light can be imaged by the image sensor.
  • the inspection light emitted from the light guide member is reflected by the reflector after being incident on the reflector. Since the reflector has a region where the inspection light can be imaged by the image pickup element, the inspection light emitted from the light guide member is reflected toward the image pickup element. Therefore, the inspection can be performed based on the inspection light emitted from the light guide member.
  • Whether or not the inspection light reflected by the reflector is imaged by the image sensor is determined by either the incident position, the reflection angle, or both.
  • any of the following (A1), (A2), and (A3) occurs.
  • (A1) The entire luminous flux of the inspection light is imaged by the image sensor.
  • (A2) A part of the luminous flux of the inspection light is imaged by the image sensor.
  • (A3) Not all the luminous flux of the inspection light is imaged by the image sensor.
  • the reflector has a recess, the inner surface of the recess has a reflection region formed by a plurality of reflection surfaces, and the reflection region has a width that allows inspection light emitted from a light guide member to be incident. Is preferable.
  • FIG. 17 is a diagram showing a reflector of the first example.
  • FIG. 17A is a side view.
  • FIG. 17B is a top view.
  • the reflector 200 has a recess 201.
  • the inner surface of the recess 201 has a reflection region 202.
  • the reflection region 202 is formed by a plurality of reflection surfaces.
  • the reflection region 202 is formed by a reflection surface 203, a reflection surface 204, a reflection surface 205, a reflection surface 206, and a reflection surface 207.
  • the recess 201 faces the holding member when the reflector 200 is used.
  • a light guide member is held in the holding member.
  • the inspection light emitted from the light guide member irradiates the reflection region 202.
  • the reflection region 202 has a size that allows the inspection light emitted from the light guide member to be incident.
  • each of the plurality of reflecting surfaces is a flat surface.
  • the reflecting surface 203, the reflecting surface 204, the reflecting surface 205, the reflecting surface 206, and the reflecting surface 207 are flat surfaces.
  • the reflector 200 can be easily and with high accuracy. Therefore, the inspection can be performed with high accuracy.
  • the direction of the normal of the reflecting surface is different for each of the plurality of reflecting surfaces.
  • the direction of the normal of the reflecting surface 203 is parallel to the central axis AXc of the reflector 200.
  • the reflecting surface 204, the reflecting surface 205, the reflecting surface 206, and the reflecting surface 207 are inclined with respect to the reflecting surface 203.
  • the angle of inclination with respect to the reflecting surface 203 is 45 °.
  • the inclination angle is not limited to 45 °.
  • the reflective surface 204 faces the reflective surface 205. Therefore, the direction of the normal of the reflecting surface 204 is different from the direction of the normal of the reflecting surface 205.
  • the reflective surface 206 faces the reflective surface 207. Therefore, the direction of the normal of the reflecting surface 206 is different from the direction of the normal of the reflecting surface 207.
  • the line connecting the center of the reflecting surface 204 and the center of the reflecting surface 205 is orthogonal to the line connecting the center of the reflecting surface 206 and the center of the reflecting surface 207. Therefore, the directions of the normals of the reflecting surface 204, the reflecting surface 205, the reflecting surface 206, and the reflecting surface 207 are different.
  • each of the plurality of reflecting surfaces is a flat surface, and the normal of the reflecting surface is inclined at each of the plurality of reflecting surfaces.
  • the normal of the reflection surface 204, the normal of the reflection surface 205, the normal of the reflection surface 206, and the normal of the reflection surface 207 are inclined with respect to the central axis AXc.
  • the normal of the reflection surface 203 is parallel to the central axis AXc. Therefore, on the reflective surface 203, the distance from the holding member to the reflective surface does not change at each point on the reflective surface.
  • the normal of the reflective surface 204 is tilted with respect to the central axis AXc. Therefore, on the reflective surface 204, the distance from the holding member to the reflective surface changes at each point on the reflective surface.
  • the distance from the holding member to the reflection surface changes at each point on the reflection surface.
  • the inner wall of the intestine is observed.
  • the distance from the objective lens to the inner wall differs between the center of the field of view and the periphery of the field of view. Around the field of view, the distance is shorter than the center of the field of view.
  • the reach of the illumination light is also short around the field of view and far from the center of the field of view.
  • the reflector 200 can be inspected in consideration of the difference in distance. Therefore, the inspection can be performed with high accuracy.
  • FIG. 18 is a diagram showing an image of the reflector and the inspection light of the first example.
  • FIG. 18A is a diagram showing the inspection light L MEA1.
  • FIG. 18B is a diagram showing the image IM ALL1.
  • FIG. 18C is a diagram showing the inspection light L MEA2.
  • FIG. 18D is a diagram showing the image IM ALL 2.
  • the inspection light L MEA1 will be described. As shown in FIG. 18A, the recess 201 faces the holding member 30. The light guide member 92 and the light guide member 93 are held by the holding member 30. The inspection light L MEA1 emitted from the light guide member 92 irradiates the reflection region 202.
  • the inspection light L MEA1 is emitted from the center of the light guide member 92.
  • the inspection light L MEA1 emitted from the light guide member 92 is reflected in the reflection region 202.
  • the reflection region 202 has a size capable of reflecting the illumination light L ILL. Therefore, even if the inspection light L MEA 1 is emitted from the periphery of the light guide member 92, the inspection light L MEA 1 is irradiated by the reflection region 202.
  • the inspection light L MEA1 reflected by the reflection region 202 passes through the lens 44 and is incident on the image sensor 43.
  • the reflection region 202 is located in the field of view of the lens 44.
  • the reflection region 202 has five reflection surfaces. Therefore, the whole image IM ALL1 includes five regions as shown in FIG. 18 (b).
  • Region 203' is a region corresponding to the reflecting surface 203.
  • the region 204' is a region corresponding to the reflecting surface 204.
  • the region 205 is a region corresponding to the reflecting surface 205.
  • Region 206' a region corresponding to the reflecting surface 206.
  • the region 207' is a region corresponding to the reflecting surface 207.
  • Image 203 I1 is an image of the inspection light L MEA1 reflected by the reflecting surface 203.
  • Image 204 I1 is an image of the inspection light L MEA1 reflected by the reflecting surface 204.
  • Image 205 I1 is an image of the inspection light L MEA1 reflected by the reflecting surface 205.
  • Image 206 I1 is an image of the inspection light L MEA1 reflected by the reflecting surface 206.
  • Image 207 I1 is an image of the inspection light L MEA1 reflected by the reflecting surface 207.
  • the image IM ALL1 is formed by the image 203 I1 , the image 204 I1 , the image 205 I1 , the image 206 I1 , and the image 207 I1.
  • the shape and light amount distribution characteristics of the inspection light L MEA1 are imaged.
  • the shape and the light amount distribution characteristic are determined by the shape and the light amount distribution characteristic of the inspection light L MEA1 incident on the image sensor 43.
  • the image 203 I1 is larger than the image 204 I1. This means that the inspection light L MEA1 reflected by the reflecting surface 203 is larger than the inspection light L MEA1 reflected by the reflecting surface 204.
  • the inspection light L MEA2 will be described.
  • the inspection light L MEA2 is emitted from the center of the light guide member 93.
  • the inspection light L MEA2 emitted from the light guide member 93 is reflected in the reflection region 202.
  • the reflection region 202 has a size capable of reflecting the illumination light L ILL. Therefore, even if the inspection light L MEA 2 is emitted from the periphery of the light guide member 93, the inspection light L MEA 2 is illuminated by the reflection region 202.
  • the inspection light L MEA2 reflected by the reflection region 202 passes through the lens 44 and is incident on the image sensor 43.
  • the reflection region 202 is located in the field of view of the lens 44.
  • the reflective region 202 has five reflective surfaces. Therefore, the whole image IM ALL2 includes five regions as shown in FIG. 18 (d).
  • the image IM ALL2 is formed by the image 203 I2 , the image 204 I2 , the image 205 I2 , the image 206 I2 , and the image 207 I2.
  • the image IM ALL1 is shown by a dashed line for reference.
  • Position inspection light L MEA 2 is emitted is different from the position where the inspection light L MEA 1 is emitted. Therefore, even in the inspection light reflected on the same reflective surface, the position of the image of the inspection light L MEA 2 is different from the position of the image of the inspection light L MEA 1.
  • the size of the image of the inspection light L MEA 2 differs from the size of the image of the inspection light L MEA 1.
  • the inspection light L MEA 1 is irradiated to the reflecting surface, there is a case where the inspection light L MEA 1 which is reflected by the reflecting surface is not incident all the imaging device 43. In this case, the region corresponding to the reflecting surface does not include the image of the inspection light L MEA1.
  • the inspection light L MEA 2 is irradiated to the reflecting surface, there is a case where the inspection light L MEA 2 that is reflected by the reflecting surface is not incident all the imaging device 43. In this case, the region corresponding to the reflecting surface does not include the image of the inspection light L MEA2.
  • the five regions are divided into an region including an image of the inspection light and an region not including the image of the inspection light.
  • the reflector preferably has protrusions that project toward the center of the recess.
  • FIG. 19 is a diagram showing a reflector of the second example.
  • the reflector 210 has a reflecting portion 210'and a cylindrical portion 210'.
  • the reflecting portion 210'and the cylindrical portion 210' are integrated.
  • the reflective portion 210'and the cylindrical portion 210' may be separate bodies.
  • a concave portion 211 is formed by the reflection portion 210'and the cylindrical portion 210'.
  • the reflection region 212 is formed in the reflection portion 210'.
  • the cylindrical portion 210' has a protrusion 213.
  • the protrusion 213 is formed on the inner peripheral surface of the cylindrical portion 210 ”. The protrusion 213 projects toward the central axis AXc of the reflector 210.
  • the central axis AXc is located at the center of the recess 211. Therefore, the protrusion 213 protrudes toward the center of the recess 211.
  • an endoscope can be used in the inspection of the light distribution inspection device.
  • inspection light is emitted from the tip portion 214.
  • the outer surface of the tip portion 214 is a cylindrical surface.
  • the inner peripheral surface of the cylindrical portion 210 is a cylindrical surface.
  • the outer diameter of the cylindrical surface is substantially the same as the outer diameter of the tip portion 214. Therefore, by inserting the tip portion 214 into the cylindrical portion 210", the tip end The reflector 210 is attached to the portion 214.
  • the cylindrical portion 210 has a protrusion 213. Therefore, when the tip portion 214 and the protrusion 213 come into contact with each other, the reflector 210 can be positioned with respect to the tip portion 214.
  • the reflector has a connecting portion and the holding member is connected to the reflector via the connecting portion.
  • FIG. 20 is a diagram showing a reflector of the third example.
  • the reflector 220 has a reflector 220'and a cylindrical portion 220'.
  • the reflector 220' and the cylindrical portion 220' are integrated.
  • the reflective portion 220'and the cylindrical portion 220' may be separate bodies.
  • a recess 221 is formed by the reflecting portion 220'and the cylindrical portion 220'.
  • a reflecting region 222 is formed in the reflecting portion 220'.
  • the cylindrical portion 220' has a connecting portion 223.
  • the connecting portion 223 is formed on the outer peripheral surface of the cylindrical portion 220 ”.
  • the holding member 224 is connected to the reflector 220 via the connecting portion 223.
  • the holding member 224 also has a connecting portion.
  • the reflector 220 and the holding member 224 can be connected, for example, by screws.
  • the holding member 224 can hold the tip portion 225 of the endoscope.
  • an endoscope can be used in the inspection of the light distribution inspection device.
  • inspection light is emitted from the tip portion 225.
  • the outer surface of the tip portion 225 is a cylindrical surface.
  • the inner peripheral surface of the holding member 224 is a cylindrical surface.
  • the outer diameter of the cylindrical surface is substantially the same as the outer diameter of the tip portion 225. Therefore, by inserting the tip portion 225 into the holding member 224, the tip portion 225 is attached to the holding member 224.
  • the holding member 224 is connected to the reflector 220 via the connecting portion 223. Therefore, the reflector 220 is attached to the tip portion 225. Therefore, the reflector 220 can be positioned with respect to the tip portion 225.
  • the distance between the reflecting region 222 and the holding member 224 can be adjusted by rotating the holding member 224.
  • the reflector 220 can be easily positioned with respect to the tip portion 225.
  • the outer diameter of the tip varies depending on the specifications of the endoscope.
  • the reflector of the second example the reflector must be prepared according to the outer diameter of the tip portion.
  • a holding member may be prepared according to the outer diameter of the tip portion. Therefore, the same reflector can be used even when the outer diameters of the tip portions are different.
  • the reflector is preferably a single reflective surface.
  • the position, size, and shape of the reflective surface should be set so that the illumination area and the imaging area include the field of view. By doing so, the inspection can be performed with high accuracy even though the structure of the reflector is simple.
  • the reflector preferably has a mechanism for changing the direction of the normal of the reflecting surface.
  • FIG. 21 is a diagram showing a reflector of the fourth example.
  • FIG. 21A is a diagram showing a case where the inspection object is a light guide member.
  • FIG. 21B is a diagram showing a case where the inspection object is an endoscope.
  • the reflector 230 has a first rotation mechanism 231 and a second rotation mechanism 232.
  • a reflector 233 is held in the first rotation mechanism 231.
  • the reflector 233 has a reflective surface.
  • the reflector 233 moves around the rotation axis AXr.
  • the first rotation mechanism 231 is held in the second rotation mechanism 232.
  • the first rotation mechanism 231 moves around the central axis AXc. As a result, the direction of the normal of the reflecting surface can be changed.
  • the reflector 230 is inspected using a light guide member.
  • the reflector 233 faces the holding member 30.
  • the light guide member 92 and the light guide member 93 are held by the holding member 30.
  • the inspection light emitted from the light guide member 92 and the inspection light emitted from the light guide member 93 are applied to the reflector 233.
  • the inspection light reflected by the reflecting surface passes through the lens 44 and enters the image sensor 43.
  • a signal corresponding to the light amount distribution characteristic of the inspection light is output from the image sensor 43.
  • An image of the inspection light can be acquired based on the output signal.
  • the light guide members there is a light guide member with a narrow light distribution.
  • a light guide member having a narrow light distribution if the direction of the normal of the reflecting surface is limited, sufficient inspection cannot be performed.
  • the first rotation mechanism 231 and the second rotation mechanism 232 can continuously change the direction of the normal line of the reflection surface. Therefore, even a light guide member having a narrow light distribution can be sufficiently inspected.
  • the reflector 230 can also be used for inspecting a light guide member having a wide light distribution. By using the reflector 230, the types of light guide members to be inspected can be increased.
  • the reflector 230' has a first rotation mechanism 231 and a second rotation mechanism 232.
  • a reflector 233 is held in the first rotation mechanism 231.
  • the reflector 230' is inspected using an endoscope.
  • a protrusion 234 is formed on the reflector 230'.
  • the reflector 230' can be positioned with respect to the tip 235 by the contact between the tip 235 and the protrusion 234.
  • endoscopes there are endoscopes with a narrow light distribution.
  • An endoscope with a narrow illumination distribution cannot perform a sufficient inspection if the direction of the normal of the reflecting surface is limited.
  • the direction of the normal of the reflecting surface can be continuously changed by the first rotating mechanism 231 and the second rotating mechanism 232. Therefore, even an endoscope having a narrow illumination distribution can perform a sufficient inspection.
  • the reflector 230' can also be used for endoscopic examinations with a wide light distribution. By using the reflector 230', the types of endoscopes to be inspected can be increased.
  • the reflector 230 and the reflector 230' are inspected while changing the direction of the normal of the reflecting surface.
  • a driving force supply source (not shown) is prepared for driving the first rotation mechanism 231 and the second rotation mechanism 232. If the inspection is to be performed automatically, a drive timing communication cable is prepared.
  • Reflector of the 5th example It has a first reflector and a second reflector, the first reflector has a first reflector, the second reflector has a second reflector, and a first reflector. It is preferable that the reflecting surface and the second reflecting surface have a region in which the inspection light can be imaged by the image pickup element, and the direction of the normal line of the second reflecting surface is different from the direction of the normal line of the first reflecting surface.
  • FIG. 22 is a diagram showing a reflector of the fifth example.
  • FIG. 22A is a diagram showing a first reflector.
  • FIG. 22B is a diagram showing an image obtained by the first reflector.
  • FIG. 22 (c) is a diagram showing a second reflector.
  • FIG. 22D is a diagram showing an image obtained by the second reflector.
  • the first reflector 240 has a first reflecting surface 241.
  • the first reflecting surface 241 has a region in which the inspection light can be imaged by the image pickup device 43.
  • the normal of the first reflecting surface 241 is parallel to the central axis AXc.
  • the direction of the normal of the first reflecting surface 241 is the same as the direction of the normal of the reflecting surface 203 shown in FIG. 17 (b). Therefore, as shown in FIG. 22 (b), the image obtained by the first reflector 241 is similar to the image in the region 203'shown in FIGS. 18 (b) and 18 (d).
  • the second reflector 242 has a second reflecting surface 243.
  • the second reflecting surface 243 has a region where the inspection light can be imaged by the image pickup device 43.
  • the normal of the second reflecting surface 243 is inclined with respect to the central axis AXc. Therefore, the direction of the normal of the second reflecting surface 243 is different from the direction of the normal of the first reflecting surface 241.
  • the inclination angle of the second reflecting surface 243 with respect to the central axis AXc is 45 °.
  • the inclination angle is not limited to 45 °.
  • the direction of the normal of the second reflecting surface 243 is the same as the direction of the normal of the reflecting surface 205 shown in FIG. 17 (b). Therefore, as shown in FIG. 22 (d), the image obtained by the second reflector 242 is an image similar to the image in the region 205'shown in FIGS. 18 (b) and 18 (d).
  • the direction of the normal of the second reflecting surface 243 can be changed to the direction of the normal of the reflecting surface 206. Alternatively, it can be the same as the direction of the normal of the reflecting surface 207.
  • the second reflecting body 242 is set to 180 ° around the central axis AXc from the state shown in FIG. 22 (b). Just rotate it.
  • the direction of the normal of the second reflecting surface 243 can be continuously changed.
  • the generation of images based on inspection light has been explained above.
  • the image based on the inspection light is used for calculating the light distribution information.
  • the analysis is performed using the calculated light distribution information. The analysis of the light distribution information will be described.
  • the light distribution information calculation unit analyzes the light distribution information and calculates the light amount and the light distribution distribution.
  • the image generation unit generates an image based on the inspection light.
  • the image is saved in the information acquisition unit.
  • the light distribution information calculation unit calculates the light distribution information using an image based on the inspection light.
  • the image based on the inspection light is formed by a plurality of pixels. By analyzing a plurality of pixels, the amount of light and the distribution of light can be calculated.
  • the light distribution can be represented by the principal axis and the aspect ratio.
  • Table 1 shows an example of the analysis results. This is an analysis result when the light guide member 90 shown in FIG. 9A and the reflector 200 shown in FIG. 17B are used.
  • the azimuth is the direction of the normal of the reflecting surface, and the inclination angle is the angle between the central axis AXc and the normal.
  • the first injection surface is the injection surface 97, and the second injection surface is the injection surface 98.
  • the numerical values in Table 1 represent the amount of light.
  • the total represents the total amount of light.
  • the total value is 14, so the total amount of light is 14. Further, the amount of light on the reflecting surface 203 is the maximum. Assuming that the direction of the normal of the surface where the amount of light is maximum is the main axis, the main axis on the first injection surface is 0 °.
  • the direction connecting the reflecting surface 204 and the reflecting surface 206 is the X direction
  • the direction connecting the reflecting surface 205 and the reflecting surface 207 is the Y direction.
  • the total value of the amount of light in the X direction is 5, and the total value of the amount of light in the Y direction is 4. Therefore, it can be said that there is a slight bias in the X direction in the distribution of the amount of light.
  • the total value is 50, so the total amount of light is 50. Further, since the amount of light on the reflection surface 203 is the maximum, the main axis on the second emission surface is 0 °.
  • the total amount of light in the X direction is 15, and the total amount of light in the Y direction is 20. Therefore, it can be said that there is a slight bias in the Y direction in the distribution of the amount of light.
  • the numerical value on each reflective surface is the result of summing the numerical values of the pixels in the image based on the inspection light, the light amount distribution characteristic obtained based on each numerical value is accompanied by inaccuracy. Therefore, it is preferable to estimate the light amount distribution characteristic from the numerical value of each pixel.
  • the aspect ratios in the X and Y directions are 3: 1 on the first reflecting surface and 1: 1 on the second reflecting surface.
  • the amount of light can be calculated using any of the following (B1), (B2), (B3), and (B4).
  • (B1) Sum the numerical values of each pixel.
  • (B2) Maximum value.
  • (B3) Multiple numbers from the maximum value.
  • (B4) A plurality of numerical values are averaged in descending order from the maximum value.
  • the inspection light is applied to the irradiation area while changing the irradiation position. Therefore, the position of the image based on the inspection light changes each time the image is generated. In the calculation of the amount of light and the distribution of light, the position of the image based on the inspection light in the entire image affects the accuracy of the calculation result.
  • Positioning of the reflector with respect to the light guide member is performed almost accurately.
  • the position of the image based on the inspection light in the whole image is approximately the same as the expected position. Therefore, even if the position of the image based on the inspection light changes, the association between the image based on the inspection light and the incident position information can be easily performed.
  • Positioning of the reflector with respect to the tip of the endoscope is performed almost accurately. However, depending on the type of endoscope, the positioning of the reflector with respect to the tip of the endoscope may be slightly inaccurate. In this case, the pixels corresponding to the image based on the inspection light may be defined in the area, and the maximum value or the like in the area may be acquired.
  • the numerical value of the pixel in the image based on the inspection light may be a value with low reliability.
  • the numerical value is fed back to the lighting device side to adjust the brightness of the illumination light.
  • an image based on the inspection light is generated, and the numerical value of the pixel is acquired again.
  • the acquired numerical value is divided by a value corresponding to the amount of light from the light source to calculate the converted value. It is advisable to calculate the amount of light and the distribution of light using the converted value.
  • the light distribution inspection method of the present embodiment generates inspection light from illumination light having a light beam diameter including an incident surface of the light guide portion, and the inspection light is incident light incident on the light guide portion, and is used as inspection light.
  • the based image is generated in association with the incident position information regarding the incident position of the inspection light, the light distribution information is calculated based on the image based on the inspection light and the incident position information, and the light distribution information is emitted from the light guide unit. It is characterized in that it is information on the light distribution characteristics of the inspected light.
  • FIG. 23 is a flowchart of the first light distribution inspection method.
  • the first light distribution inspection method includes step S10, step S20, step S30, step S40, step S50, step S60, and step S70.
  • step S10 illumination light is generated.
  • the illumination light L ILL has a luminous flux diameter including the incident surface 63 of the light guide unit 61.
  • step S20 the number of inspections Nm is set.
  • the light distribution test while changing the irradiation position of the inspection light L MEA, repeated, the inspection light L MEA is irradiated to the incident surface 63. Irradiation of the inspection light L MEA is carried out until the inspection light L MEA is irradiated onto the entire incident surface 63.
  • the number of inspections Nm is the number of irradiations of the inspection light L MEA.
  • the number of inspections Nm can be set based on, for example, a value obtained by dividing the area of the incident surface 63 by the area of the region irradiated with the inspection light L MEA.
  • step S30 1 is set for the value of the variable n.
  • step S40 an image based on the inspection light is generated in association with the incident position information.
  • an image based on the inspection light can be generated.
  • the irradiation position of the inspection light L MEA is changed with respect to the incident surface 63. Each time the irradiation position is changed, an image based on the inspection light is generated.
  • the irradiation position can be specified.
  • the irradiation position represents the incident position of the inspection light L MEA. If the information regarding the incident position of the inspection light L MEA is used as the incident position information, an image based on the inspection light can be generated in association with the incident position information.
  • step S50 the light distribution information is calculated based on the image and the incident position information.
  • the light distribution information is information regarding the light distribution characteristics of the inspection light emitted from the light guide unit.
  • the light amount distribution characteristic of the inspection light L MEA is imaged.
  • the light amount distribution characteristic includes the light distribution characteristic of the inspection light L MEA emitted from the light guide unit 61. Therefore, information on the light distribution characteristics can be calculated from the image based on the inspection light.
  • the image is associated with the incident position information. Therefore, the light distribution information can be calculated based on the image and the incident position information.
  • the light amount distribution characteristic of the inspection light is imaged.
  • the light intensity distribution characteristics can be obtained from the image. Therefore, the light amount distribution characteristic can be acquired in association with the incident position information.
  • step S60 it is determined whether or not the value of the variable n matches the number of inspections Nm.
  • step S70 is executed. If the determination result is YES, the process ends.
  • step S70 1 is added to the value of the variable n.
  • the value of the variable n does not match the number of inspections Nm.
  • the discrepancy between the value of the variable n and the number of inspections Nm means that the inspection light L MEA is not applied to the entire incident surface 63.
  • step S70 When step S70 is completed, the process returns to step S40. In step S70, the value of the variable n is incremented by one. Therefore, steps S40 and S50 are executed for the positions of different irradiation regions.
  • Steps S40 and S50 are repeated until the inspection light L MEA is applied to the entire incident surface 63.
  • n Nm
  • the light distribution information is calculated while changing the irradiation position of the inspection light L MEA.
  • the light distribution information is information regarding the light distribution characteristics of the inspection light emitted from the light guide unit.
  • the inspection light is a part of the illumination light
  • the irradiation area is the area where the inspection light is irradiated
  • the irradiation area is narrower than the incident surface
  • the incident position information is It is preferable to include information on the position of the irradiation region, generate an image, associate the image with the incident position information, and calculate the light distribution information while changing the position of the irradiation region.
  • the illumination light generated in step S10 is used as the inspection light.
  • the inspection light is a part of the illumination light.
  • the irradiation area is an area where the inspection light is irradiated.
  • the inspection light L MEA is irradiated to the incident surface 63. Therefore, as shown in FIG. 14, the inspection light L MEA irradiates a region narrower than the incident surface 63. Since the irradiation area is the area where the inspection light L MEA is irradiated, the irradiation area is narrower than the incident surface.
  • the incident position information is information regarding the incident position of the inspection light L MEA .
  • the position of the irradiation region represents the incident position of the inspection light L MEA. Therefore, the incident position information includes information regarding the position of the irradiation region.
  • the image based on the inspection light is generated, the image based on the inspection light is associated with the incident position information, and the light distribution information is calculated while changing the position of the irradiation area. ..
  • the light distribution information can be analyzed, the amount of light and the distribution of light can be calculated, and the incident position of the inspection light, the amount of light, and the distribution of light can be used for association. preferable.
  • FIG. 24 is a flowchart of the second light distribution inspection method. The same steps as the second light distribution inspection method are assigned the same numbers, and the description thereof will be omitted.
  • the second light distribution inspection method includes the steps of the first light distribution inspection method, and also includes steps S80, step S90, step S100, step S110, step S120, and step S130.
  • step S80 the number of inspections Nm is set.
  • the first light distribution inspection method a plurality of images based on the inspection light are generated. Processing is performed on each of the second light distribution inspection method and the image based on the inspection light.
  • the number of images based on the generated inspection light is the same as the number of inspections. Therefore, the number of inspections Nm can be used to set the number of processes.
  • step S90 1 is set for the value of the variable n.
  • step S100 the light distribution information is analyzed.
  • step S40 an image based on the inspection light is generated.
  • step S50 the light distribution information is calculated using the image based on the inspection light.
  • the image based on the inspection light is formed by a plurality of pixels. By analyzing a plurality of pixels, the amount of light and the distribution of light can be calculated.
  • step S110 the association is performed.
  • the incident position of the inspection light, the amount of light, and the light distribution are used.
  • the position of the irradiation region represents the incident position of the inspection light. Therefore, in the association, the position of the irradiation region, the amount of light, and the light distribution may be used.
  • an image based on the inspection light is generated.
  • a method of generating an image based on the inspection light will be described.
  • each of the images based on the inspection light is a part of an image obtained by imaging a reflector having a plurality of reflecting surfaces, and the image obtained by imaging the reflector is formed in a plurality of regions. It is preferable that each of the plurality of regions is a region corresponding to each of the plurality of reflecting surfaces.
  • Reflectors are used in images based on inspection light.
  • the reflector for example, the reflector 200 shown in FIG. 17B can be used.
  • the reflector 200 has a plurality of reflecting surfaces. By imaging the reflector 200, an entire image of the reflector 200 is acquired.
  • the whole image IM ALL1 and the whole image IM ALL2 include an image based on the inspection light.
  • the image based on the inspection light is a part of the image obtained by capturing the reflector.
  • the whole image IM ALL1 and the whole image IM ALL2 are formed by a plurality of regions.
  • Each of the plurality of regions is a region corresponding to each of the plurality of reflecting surfaces.
  • the amount of light is calculated.
  • the amount of light will be described.
  • step S100 the amount of light is calculated as information regarding the light amount distribution characteristic of the inspection light.
  • the amount of light can be calculated using any one of (B1), (B2), (B3), and (B4).
  • the light distribution information is calculated by the light distribution inspection device of the present embodiment and the light distribution inspection method of the present embodiment.
  • This light distribution information can be calculated using an endoscopic system. An endoscope system capable of calculating light distribution information will be described.
  • the endoscope system of the present embodiment includes a light source device including a light source, an illumination control unit that controls light emitted from the light source, a light guide member that can be connected to the light source device and has a light guide unit, and a light guide member.
  • An imaging unit that acquires an image, a memory that stores light distribution information of illumination light generated based on the emitted light, and a light guide unit that are optically connected to provide a plurality of illumination lights based on the emitted light.
  • the illumination control unit includes at least one of the plurality of emission units by controlling the emission light based on the light distribution information acquired from the memory. It is characterized by controlling the light distribution of the illumination light emitted from one side.
  • the light guide portion has an incident surface and an ejection surface.
  • the light guide portion has one incident surface and two ejection surfaces will be described. Of the two injection surfaces, one is the first injection surface and the other is the second injection surface.
  • the light guide portion has one injection surface, it may be considered that only one of the first injection surface and the second injection surface is used.
  • FIG. 25 is a diagram showing an endoscope system of the first example.
  • the endoscope system 300 includes a light source device 310 and an endoscope 320.
  • the light source device 310 includes a light source 311 and a lighting control unit 312.
  • the illumination control unit 312 controls the light emitted from the light source 311.
  • the light source device 310 may have a light-shielding plate 313.
  • the endoscope 320 includes a light guide member 340, an image pickup unit 350 for acquiring an image, a memory 330, a first emission unit 343, and a second emission unit 344.
  • the light guide member 340 can be connected to the light source device 310 and has a light guide unit 341.
  • the light guide unit 341 has an incident surface 342.
  • the memory 330 stores the light distribution information of the illumination light generated based on the emitted light.
  • the first emitting unit 343 and the second emitting unit 344 are, for example, lenses for lighting.
  • the first emitting unit 343 and the second emitting unit 344 are optically connected to the light guide unit 341.
  • a plurality of illumination lights are emitted from each of the first emitting unit 343 and the second emitting unit 344 based on the emitted light.
  • the lighting control unit 312 controls the emitted light based on the light distribution information acquired from the memory 330. By this control, the light distribution of the illumination light emitted from at least one of the plurality of emitting units is controlled.
  • At least one of the light distribution of the illumination light emitted from the first emission unit 343 and the light distribution of the illumination light emitted from the second emission unit 344 is controlled.
  • the endoscope system 300 can include a control device 360.
  • the control device 360 includes, for example, an image processing device 370.
  • the light source device 310 and the endoscope 320 are separate bodies.
  • the endoscope system 300 can be regarded as an endoscope system having a non-wireless endoscope and a light source device.
  • the light source device 310 and the endoscope 320 are connected via an adapter. Further, the imaging unit 350 and the control device 360 are connected by a signal line.
  • FIG. 26 is a diagram showing an endoscopic system of the second example.
  • the endoscope system 400 includes a light source device 410 and an endoscope 420.
  • the light source device 410 includes a light source 411 and a lighting control unit 412.
  • the illumination control unit 412 controls the light emitted from the light source 411.
  • the light source device 410 may include a light-shielding plate 413 and a communication unit 480.
  • the endoscope 420 includes a light guide member 440, an image pickup unit 450 for acquiring an image, a memory 430, a first emission unit 443, and a second emission unit 444.
  • the light guide member 440 can be connected to the light source device 410 and has a light guide unit 441.
  • the light guide unit 441 has an incident surface 342.
  • the memory 430 stores the light distribution information of the illumination light generated based on the emitted light.
  • the first emitting unit 443 and the second emitting unit 444 are, for example, lenses for lighting.
  • the first emission unit 443 and the second emission unit 444 are optically connected to the light guide unit 441.
  • a plurality of illumination lights are emitted from each of the first emission unit 443 and the second emission unit 444 based on the emission light.
  • the lighting control unit 412 controls the emitted light based on the light distribution information acquired from the memory 430. By this control, the light distribution of the illumination light emitted from at least one of the plurality of emitting units is controlled.
  • At least one of the light distribution of the illumination light emitted from the first emission unit 443 and the light distribution of the illumination light emitted from the second emission unit 444 is controlled.
  • the endoscope system 400 can include a control device 460.
  • the control device 460 includes, for example, an image processing device 470.
  • the light source device 410 and the insertion portion 420 are integrated.
  • the endoscope system 400 can be regarded as a wireless endoscope.
  • the light source device 410 and the endoscope 420 are directly connected. Further, the output signal of the imaging unit 450 is wirelessly transmitted from the communication unit 480 to the control device 460.
  • the endoscope system of the present embodiment has another memory in which the correspondence information is stored, and in the correspondence information, the light distribution information and the light distribution control method are associated with each other, and the light distribution information and the correspondence information are linked. Based on this, it is preferable that the lighting control unit is controlled.
  • the endoscope system 300 includes a memory 331.
  • Correspondence information is stored in the memory 331.
  • the light distribution information and the light distribution control method are associated with each other.
  • the light distribution information is calculated based on the image based on the inspection light L MEA and the incident position information. Since the incident position information is information about the incident position of the inspection light, the light distribution information is linked to the incident position of the inspection light.
  • a digital mirror device can be used for the lighting control unit 312.
  • each mirror element is controlled to be in either a first state or a second state.
  • the light distribution in the first state and the light distribution in the second state are different.
  • the light distribution control method can be determined by the digital mirror device.
  • the position of the mirror element is linked to the incident position of the inspection light. Therefore, by using the digital mirror device, it is possible to connect the light distribution control method and the incident position of the inspection light.
  • the light distribution information is linked to the incident position of the inspection light. Therefore, it is possible to associate the light distribution information with the light distribution control method by using the incident position of the inspection light.
  • the light source device 310 and the endoscope 320 are connected via an adapter.
  • the light distribution information stored in the memory 330 is read out by the light source device 310.
  • the lighting control unit 312 is controlled using the read light distribution information and the corresponding information stored in the memory 331.
  • the illumination light is emitted from the light source device, the inspection light is a part of the illumination light, the irradiation area is the area where the inspection light is irradiated, and the irradiation area is. Narrower than the incident surface, the incident position information includes information on the position of the irradiation area, and while changing the position of the irradiation area, the image is generated, the image is associated with the incident position information, and the light distribution information is calculated. Is preferable.
  • the inspection light will be described using the endoscope system 300.
  • the illumination light L ILL is generated.
  • the generated illumination light L ILL is emitted from the light source device 310.
  • a part of the illumination light L ILL is applied to the incident surface 342 as the inspection light L MEA.
  • the illumination light L ILL has a luminous flux diameter including the incident surface 342. At the time of light distribution inspection, the illumination light L ILL is divided into light toward the incident surface 342 and light toward the light shielding plate 313 by the illumination control unit 312.
  • the light directed to the incident surface 342 is used as the inspection light L MEA. Since the inspection light L MEA is a part of the illumination light L ILL , the inspection light L MEA irradiates a region narrower than the incident surface 342.
  • the inspection light L MEA 1 from the first exit surface 343 is injected, the inspection light L MEA 2 from the second exit surface 344 is emitted.
  • the inspection light L MEA1 and the inspection light L MEA2 can be incident on the imaging unit 350 by using, for example, the reflector 200 shown in FIG. 17 (a). As a result, a first image and a second image are generated.
  • the first image is an image based on the inspection light L MEA1 emitted from the first ejection surface 343.
  • the second image is an image based on the inspection light L MEA2 emitted from the second injection surface 344.
  • the position of the region irradiated with the inspection light L MEA is acquired as incident position information.
  • the first image is generated in association with the incident position information.
  • the second image is generated in association with the incident position information.
  • the first light distribution information is calculated based on the first image and the incident position information.
  • the second light distribution information is calculated based on the second image and the incident position information.
  • the first light distribution information is information regarding the light distribution characteristics of the inspection light L MEA1 emitted from the first emission surface 343.
  • the second light distribution information is information regarding the light distribution characteristics of the inspection light L MEA2 emitted from the second emission surface 344.
  • the inspection light L MEA is repeatedly applied to the incident surface 342 while changing the position of the irradiation region with respect to the incident surface 342. Irradiation of the inspection light L MEA is carried out until the inspection light L MEA is irradiated onto the entire incident surface 342.
  • the first light distribution information is calculated, and the second light distribution information is calculated.
  • the first light distribution information and the second light distribution information are stored in the memory 330.
  • the memory 331 is arranged in the light source device 310. However, the memory 331 may be arranged in the control device 360.
  • the illumination control unit is a digital mirror device, and it is preferable to analyze the light distribution information and calculate the light amount and the light distribution.
  • Digital micromirrors can be used for the lighting control unit 312 and the lighting control unit 412.
  • the illumination light L ILL can be efficiently and easily divided into light toward the incident surface 342 and light toward the light shielding plate 313.
  • the endoscope system 300 can repeatedly irradiate the incident surface 342 with the inspection light L MEA while changing the position of the irradiation region with respect to the incident surface 342. The same applies to the endoscope system 400.
  • the first light distribution information is calculated using the first image.
  • the first image is formed by a plurality of pixels. By analyzing a plurality of pixels, the first light amount and the first light distribution can be calculated.
  • the second light distribution information is calculated using the second image.
  • the second image is formed by a plurality of pixels. By analyzing a plurality of pixels, the second light amount and the second light distribution can be calculated.
  • the method of converting the position of the inspection light at each point on the image of the subject to the position on the image of the subject will be described.
  • the subject is an object to be imaged by the imaging unit.
  • the endoscope system of the present embodiment has an image processing circuit, and in the image processing circuit, the position of each point in the image is set to the position on the image of the subject based on the image of the subject acquired by the imaging unit. It is preferable to be converted.
  • FIG. 27 is a diagram showing an imaging state and an image.
  • FIG. 27A is a diagram showing an image of a subject.
  • FIG. 27B is a diagram showing an image of the subject.
  • FIG. 27 (c) is a diagram showing an imaging of the reflector.
  • FIG. 27 (d) is a diagram showing an image of the reflector.
  • the subject 500 can be imaged by the endoscope system 510.
  • an image 520 of the subject 500 is acquired by imaging.
  • region 501 the distance from the endoscope system 510 to the subject 500 is short. In this case, region 501 is very brightly illuminated. Therefore, in the image 520, the image 521 corresponding to the region 501 becomes a pure white image.
  • the distance from the endoscope system 510 to the subject 500 is long.
  • the area 502 is illuminated very darkly. Therefore, in the image 520, the image 522 corresponding to the region 502 becomes a black image.
  • the amount of illumination light applied to the region 501 may be reduced.
  • the entire image 620 shown in FIG. 27 (d) is acquired.
  • the whole image 620 is an image of the reflection region 610 and includes an image based on the inspection light.
  • Both the image 520 and the whole image 620 are acquired using the endoscope system 510. Therefore, by superimposing the image 520 and the whole image 620, it can be seen that the region 501 is located in the region 621.
  • Region 621 includes a first image 621 I1 and a second image 621 I2 .
  • the first image 621 I1 and the second image 621 I2 are generated from the same inspection light.
  • the position of the region where the inspection light is irradiated on the incident surface of the light guide member is included in the incident position information. Therefore, based on the incident position information, the area at that position is prevented from being irradiated with the illumination light. As a result, the amount of illumination light emitted to the region 501 can be reduced.
  • the shape of the recess and the depth of the recess are different between the subject 500 and the reflector 600. Further, the distance from the endoscope system 510 to the subject 500 and the distance from the endoscope system 510 to the reflector 600 are different. Therefore, even if the illumination light is not emitted to the position based on the incident position information, it cannot be said that the amount of the illumination light emitted to the region 501 can be reduced.
  • the endoscope system 510 includes an image processing device 511. Based on the image 520, the image processing apparatus 511 obtains the corresponding points in the image 520 for each point in the first image 621 I1 and each point in the second image 621 I2. That is, the position of each point in the first image 621 I1 and the position of each point in the second image 621 I2 are converted into the positions in the image 520.
  • a plurality of first images and second images have been acquired. Therefore, the first image and the second image located in the region 501 can be specified.
  • the corresponding point in the image 520 may be obtained. That is, the position of each point in the entire image 620 may be converted to the position in the image 520. By doing so, it is possible to know where the region 501 is located in the entire image 620.
  • the position of the region corresponding to the region 501 is known from the entire image 620
  • the position of the region to be irradiated with the inspection light on the incident surface of the light guide member can be known from the incident position information of the image of the inspection light at that position. Therefore, the amount of illumination light emitted to the region 501 can be reduced by preventing the region at that position from being irradiated with the illumination light.
  • the light guide member 90 is used as the light guide member.
  • the light guide member 60 can be used as the light guide member.
  • the number of images based on the inspection light is one. It may be considered that only the first image is used or only the second image is used in the endoscope system 510.
  • the endoscope system of the present embodiment has an image processing circuit, and in the image processing circuit, the position of each point in the image is set based on the subject distance pattern created in advance or the current subject distance pattern. It is preferable that the current subject distance pattern is acquired by analyzing the images of a plurality of subjects that are converted into positions on the image and acquired by the imaging unit.
  • the subject or object is imaged by the imaging unit.
  • the imaging unit By imaging, an image of a subject or an image of an object can be obtained.
  • the image can be used for observation.
  • the subject to be observed differs depending on the type of endoscope. However, with the same type of endoscope, the shape of the subject is almost the same. Therefore, it is possible to set a subject distance pattern created in advance and perform position conversion.
  • the subject distance pattern created in advance is a virtual subject. Based on the image obtained from the virtual subject, the position of each point in the first image and the position of each point in the second image can be converted into positions in the image obtained from the virtual subject.
  • a dome-shaped object can be used as the subject distance pattern created in advance.
  • the distance from the center of the dome to the endoscope system may be 50 mm, and the distance from the periphery of the dome to the endoscope system may be 20 mm.
  • the position can be converted based on the distance information. Therefore, the position can be converted accurately.
  • the current subject distance pattern is a virtual subject. Based on the image obtained from the virtual subject, the position of each point in the first image and the position of each point in the second image can be converted into positions in the image obtained from the virtual subject.
  • the endoscope system can be used as an endoscope.
  • the tip of the insertion portion is moved with respect to the subject.
  • the sensing device By arranging the sensing device at the tip, information on the movement of the tip can be obtained.
  • the current subject distance pattern can be set based on the information from the sensing device.
  • a ranging device may be placed at the tip of the insertion portion. By using a distance measuring device, the distance to the subject can be actually measured.
  • the distance to the observation device is measured. Therefore, the position can be converted based on the distance information. Therefore, the position can be converted more accurately.
  • the tip of the insertion part is moved with respect to the subject. Since the image is taken while the tip is moved, it is possible to acquire images of a plurality of subjects.
  • the current subject distance pattern can be set by analyzing the change in the acquired image of the subject.
  • the position conversion has been explained above.
  • the brightness of the illumination light in the correction target area can be adjusted based on the converted position information.
  • the correction target area is an area in which the brightness of the illumination light needs to be adjusted. The adjustment of the brightness of the illumination light will be described.
  • a correction target area is extracted from the image of the subject acquired by the imaging unit, and inspection light is irradiated so that the brightness of the image in the correction target area becomes a predetermined brightness. It is preferable to determine the region to be used.
  • the position of each point in the first image and the position of each point in the second image are converted into positions on the image of the subject.
  • the position of the first image and the position of the second image can be specified on the image of the subject.
  • the first image and the second image are generated from the same inspection light. Therefore, from the incident position information of the specified first image, the position of the region where the inspection light is irradiated on the incident surface of the light guide member can be known. By preventing the illumination light from irradiating the region at that position, the amount of illumination light emitted to the correction target region of the subject can be adjusted.
  • the target value V (x, y) of the brightness of the correction target area is determined.
  • the target value V (x, y) is set so that the brightness of the correction target area is appropriate for the brightness of the entire image of the subject.
  • the extracted first image and the second image located in the correction target area are the images after the position conversion is performed.
  • the light intensity U p1 (m, n) is calculated in the first image before the position conversion is performed , and the light intensity U p2 (m, n) is calculated in the second image.
  • the light quantity U p1 (m, n) is converted into the light quantity U p1 (x, y)
  • the light quantity U p2 (m, n) is converted into the light quantity U p2 (x, y). ..
  • the first image and the second image are selected so that the sum of the light amount U p1 (x, y) and the light amount U p2 (x, y) matches the target value V (x, y) as much as possible.
  • the brightness of the image in the correction target area can be set to a predetermined brightness.
  • the brightness of the correction target area becomes appropriate with respect to the brightness of the entire image of the subject.
  • the number of the first image and the number of the second images to be selected may be plural.
  • Incident position information is associated with the selected first image. Based on the incident position information, the position of the region on the incident surface of the light guide member to which the inspection light is irradiated is specified. Prevents the specified area from being illuminated with illumination light. As a result, the brightness of the correction target area can be adjusted appropriately.
  • a region is determined from a plurality of comparison images and an image of a subject acquired by the imaging unit, and the plurality of comparison images are acquired in advance by changing the position of the region. It is preferably an image.
  • the inspection light By changing the position of the area irradiated with the inspection light, it is possible to acquire the first image and the second image of various patterns.
  • the amount of light and the distribution of light are calculated from each of the first image and the second image. From the amount of light and the distribution of light, it is possible to know the area where bright illumination is performed in each pattern.
  • the first image and the second image can be acquired in advance.
  • the first image and the second image acquired in advance can be used as a comparison image.
  • Incident position information is associated with the selected first image. Based on the incident position information, the position of the region on the incident surface of the light guide member to which the inspection light is irradiated is specified. Prevents the specified area from being illuminated with illumination light. As a result, the brightness of the correction target area can be adjusted appropriately.
  • the correction target area is divided into a plurality of correction areas, and the area is determined so that the predetermined brightness in the correction area becomes the average brightness of the correction area. Is preferable.
  • the amount of calculation is large in the adjustment using the light amount U p1 (x, y), the light amount U p2 (x, y), and the target value V (x, y). Therefore, the target value V'(x, y) is set.
  • the target value V'(x, y) is an average brightness calculated using the pixels included in the correction region.
  • the number of correction areas is less than the number of pixels included in the correction target area. Therefore, the amount of calculation can be reduced.
  • the amount of light is also set to the amount of light Up1 '(x, y) and the amount of light Up2 '(x, y) according to the correction region.
  • the amount of light U p1 '(x, y) and the amount of light U p2 '(x, y) are also average amounts of light calculated using a plurality of pixels.
  • a correction target area is extracted from the image of the subject acquired by the imaging unit, and the correction target area is a region consisting of a pixel having a maximum value and a region consisting of a pixel having a minimum value. It is preferable to determine the region so that the brightness of the image in the correction target region is a predetermined brightness without including.
  • Overexposure occurs in the area consisting of pixels with the maximum value.
  • Blackout occurs in the region consisting of pixels with the minimum value. The area that does not include these areas is defined as the area to be corrected.
  • the area is determined so that the value of the image included in the correction target area becomes small.
  • the region is determined so that the value of the image included in the correction target region becomes large.
  • the area consisting of the pixels having the maximum value and the area consisting of the pixels having the minimum value may be set as the correction target area.
  • Brightness conversion at the boundary between the good area to be corrected and the non-correction target area may be corrected by image processing so as not to cause a sense of discomfort. By doing so, the visual stress of the user is improved.
  • q p may be calculated so that ⁇ V (x, y) ⁇ (Up (x, y) ⁇ q p ) 2 is minimized.
  • the nonlinear least squares method the Gauss-Newton method, or the Levenberg-Marquardt method can be used.
  • the plurality of emitting portions include a first emitting portion and a second emitting portion, and the first emitting portion and the second emitting portion are used for normal observation.
  • the first illumination light obtained from the memory is irradiated with the first illumination light of the above, and the second illumination light used for special light observation or a predetermined treatment is emitted from the first emission portion and the second emission portion. It is preferable that the light distribution of the first illumination light is controlled based on the light distribution information regarding the illumination.
  • FIG. 28 is a diagram showing an endoscopic system of the third example.
  • the endoscope system 700 includes a light source device 710 and an endoscope 720.
  • the light source device 710 includes a first light source 711, a second light source 712, a dichroic mirror 713, and a lighting control unit 714.
  • the endoscope 720 has a light guide member 740, a first wavelength conversion unit 750, and a second wavelength conversion unit 760.
  • the first wavelength conversion unit 750 is the first emission unit
  • the second wavelength conversion unit 760 is the second emission unit.
  • the endoscope 720 has an imaging unit and a memory like the endoscope 320 shown in FIG. 25. However, in FIG. 28, the imaging unit and the memory are not shown.
  • the light guide member 740 has a light guide unit 741. On the incident end face side, the light guide portion 741 has an incident surface 742. On the injection end face side, the light guide member 740 is divided into a light guide member 743 and a light guide member 744.
  • the light guide member 743 and the light guide member 744 each have a light guide portion.
  • the light guide portion of the light guide member 743 and the light guide portion of the light guide member 744 have an injection surface.
  • the first wavelength conversion unit 750 is arranged on the injection surface side of the light guide member 743.
  • a second wavelength conversion unit 760 is arranged on the light guide member 744 emission surface side.
  • the first wavelength conversion unit 750 includes a first holding member 751, a first reflection member 752, and a first wavelength conversion member 753. Further, the second wavelength conversion unit 760 has a second holding member 761, a second reflection member 762, and a second wavelength conversion member 763.
  • the first light source 711 and the second light source 712 are lasers.
  • laser light is used as the illumination light.
  • the wavelength of the laser beam L ILL 1 is 460 nm. Therefore, the laser light L ILL1 is blue light.
  • the wavelength of the laser beam L ILL 2 is 415 nm. Therefore, the laser light L ILL2 is purple-blue light.
  • Laser light L ILL 1 is emitted from the first light source 711.
  • the laser beam L ILL1 is incident on the dichroic mirror 713.
  • the dichroic mirror 713 has an optical property of transmitting blue light. Therefore, the laser beam L ILL1 passes through the dichroic mirror 713.
  • the laser beam L ILL1 is incident on the illumination control unit 714.
  • a digital mirror device is used in the lighting control unit 714. Therefore, the laser beam L ILL1 is reflected by the digital mirror device and is incident on the light guide unit 741.
  • the laser light L ILL1 incident on the light guide unit 741 is emitted from the light guide member 743 and the light guide member 744.
  • the laser beam L ILL1 emitted from the light guide member 743 is incident on the first wavelength conversion member 753.
  • the laser beam L ILL1 emitted from the light guide member 744 is incident on the second wavelength conversion member 763.
  • Laser light L ILL 2 is emitted from the second light source 712.
  • the laser beam L ILL2 is incident on the dichroic mirror 713.
  • the dichroic mirror 713 has an optical property of reflecting purple-blue light. Therefore, the laser beam L ILL2 is reflected by the dichroic mirror 713.
  • the laser beam L ILL2 is incident on the illumination control unit 714.
  • a digital mirror device is used in the lighting control unit 714. Therefore, the laser beam L ILL2 is reflected by the digital mirror device and is incident on the light guide unit 741.
  • the laser light L ILL2 incident on the light guide unit 741 is emitted from the light guide member 743 and the light guide member 744.
  • the laser beam L ILL2 emitted from the light guide member 743 is incident on the first wavelength conversion member 753.
  • the laser beam L ILL2 emitted from the light guide member 744 is incident on the second wavelength conversion member 763.
  • a YAG: Ce phosphor can be used for the first wavelength conversion member 753 and the second wavelength conversion member 763.
  • YAG: The Ce phosphor is a Ce-activated YAG phosphor. Ce stands for cerium and YAG stands for yttrium, aluminum and garnet.
  • the excitation light Ce is used as the excitation light in the YAG: Ce phosphor. Further, the fluorescent Ce is defined as the fluorescence in the YAG: Ce phosphor.
  • the first light source 711 is turned on and the second light source 712 is turned off will be described.
  • the laser light L ILL 1 is emitted from the first light source 711. Since the laser light L ILL2 is not emitted from the second light source 712, only the laser light L ILL1 is incident on the first wavelength conversion member 753 and the second wavelength conversion member 763.
  • the wavelength of the laser beam L ILL 1 is 460 nm.
  • the wavelength of 460 nm is included in the wavelength range of the excitation light Ce. Therefore, the laser light L ILL1 acts as the excitation light Ce.
  • the laser light L ILL1 and the fluorescent Ce are emitted as the first illumination light from the first wavelength conversion member 753 and the second wavelength conversion member 763.
  • the laser light L ILL 1 is blue light. Fluorescent Ce is yellow light. Therefore, white light is emitted from the first wavelength conversion member 753 and the second wavelength conversion member 763. As a result, observation with white light can be performed.
  • the wavelength of the laser beam L ILL 2 is 415 nm.
  • the wavelength of 415 nm is not included in the wavelength range of the excitation light Ce. Therefore, the laser light L ILL2 does not act as the excitation light Ce. Therefore, only the laser light L ILL 2 is emitted from the first wavelength conversion member 753 and the second wavelength conversion member 763 as the second illumination light.
  • the laser light L ILL 2 is a bluish-purple light. Therefore, bluish-purple light is emitted from the first wavelength conversion member 753 and the second wavelength conversion member 763. As a result, for example, special light observation with narrow band light can be performed.
  • a phosphor containing a YAG: Ce phosphor and an SrAlO: Eu phosphor can be used for the first wavelength conversion member 753 and the second wavelength conversion member 763.
  • the SrAlO: Eu phosphor is an Eu-activated SrAl 2 O 4 phosphor.
  • Eu stands for Europium and SrAl 2 O 4 stands for Strontium aluminate.
  • the excitation light Eu is used as the excitation light in the SrAlO: Eu phosphor. Further, the fluorescence Eu is defined as the fluorescence in the SrAlO: Eu phosphor.
  • the excitation light Eu When the excitation light Eu is incident on the SrAlO: Eu phosphor, some of the excitation light Eu passes through the SrAlO: Eu phosphor, and the remaining excitation light Eu is absorbed by the SrAlO: Eu phosphor.
  • the absorbed excitation light Eu emits fluorescent Eu from the SrAlO: Eu phosphor.
  • the excitation light Eu and the fluorescent Eu are emitted from the SrAlO: Eu phosphor.
  • the wavelength of the laser beam L ILL 1 is 460 nm.
  • the wavelength of 460 nm is included in the wavelength range of the excitation light Ce. Therefore, the laser light L ILL1 acts as the excitation light Ce.
  • the wavelength of 460 nm is not included in the wavelength range of the excitation light Eu. Therefore, the laser light L ILL1 does not act as the excitation light Eu.
  • the laser light L ILL1 and the fluorescent Ce are emitted as the first illumination light from the first wavelength conversion member 753 and the second wavelength conversion member 763.
  • the laser light L ILL 1 is blue light. Fluorescent Ce is yellow light. Therefore, white light is emitted from the first wavelength conversion member 753 and the second wavelength conversion member 763. As a result, observation with white light can be performed.
  • the wavelength of the laser beam L ILL 2 is 415 nm.
  • the wavelength of 415 nm is included in the wavelength range of the excitation light Eu. Therefore, the laser light L ILL2 acts as the excitation light Eu.
  • the wavelength of 415 nm is not included in the wavelength range of the excitation light Ce. Therefore, the laser light L ILL2 does not act as the excitation light Ce.
  • the laser light L ILL2 and the fluorescent Eu are emitted as the second illumination light from the first wavelength conversion member 753 and the second wavelength conversion member 763.
  • the laser light L ILL 2 is a bluish-purple light.
  • Fluorescent Eu is green light. Therefore, blue-purple light and green light are emitted from the first wavelength conversion member 753 and the second wavelength conversion member 763.
  • the bluish-purple light and the green light almost match the absorption wavelength of hemoglobin. Therefore, the blood vessels can be observed with good contrast.
  • the light distribution of the first illumination light is controlled based on the light distribution information of the first illumination light acquired from the memory.
  • the first illumination light is white light. Therefore, in the observation with white light, the brightness of the illumination light can be adjusted appropriately.
  • FIG. 29 is a diagram showing an endoscope system of the fourth example.
  • the same configurations as those in FIG. 28 are given the same numbers, and the description thereof will be omitted.
  • the endoscope system 800 includes a light source device 810 and an endoscope 820.
  • the light source device 810 includes a first light source 711, a second light source 712, a dichroic mirror 713, a lighting control unit 714, a third light source 811, and a dichroic mirror 812.
  • the endoscope 820 has a light guide member 840, a third wavelength conversion unit 850, and a second wavelength conversion unit 760.
  • the third wavelength conversion unit 850 is a first emission unit
  • the second wavelength conversion unit 760 is a second emission unit.
  • the endoscope 820 has an imaging unit and a memory like the endoscope 320 shown in FIG. 25. However, in FIG. 29, the imaging unit and the memory are not shown.
  • the light guide member 840 has a light guide unit 841. On the incident end face side, the light guide portion 841 has an incident surface 842. On the injection end face side, the light guide member 840 is divided into a light guide member 843 and a light guide member 844.
  • the light guide member 843 and the light guide member 844 each have a light guide portion.
  • the light guide portion of the light guide member 843 and the light guide portion of the light guide member 844 have an injection surface.
  • a third wavelength conversion unit 850 is arranged on the injection surface side of the light guide member 843.
  • the second wavelength conversion unit 760 is arranged on the emission surface side of the light guide member 844.
  • the third wavelength conversion unit 850 has a third holding member 851, a third reflection member 852, and a third wavelength conversion member 853. Further, the second wavelength conversion unit 760 has a second holding member 761, a second reflection member 762, and a second wavelength conversion member 763.
  • the third light source 811 is a YAG laser.
  • the wavelength of the laser beam L ILL 3 is 1064 nm.
  • Laser light L ILL3 is not used for lighting.
  • Laser light L ILL 3 is emitted from the third light source 811.
  • the laser beam L ILL3 is incident on the dichroic mirror 812.
  • the dichroic mirror 812 has an optical property of reflecting infrared light. Therefore, the laser beam L ILL3 is reflected by the dichroic mirror 812.
  • the dichroic mirror 812 has an optical property of transmitting light having a wavelength shorter than that of infrared light. Therefore, the laser light L ILL1 and the laser light L ILL2 pass through the dichroic mirror 812.
  • the laser beam L ILL3 is incident on the illumination control unit 714.
  • a digital mirror device is used in the lighting control unit 714. Therefore, the laser beam L ILL3 is reflected by the digital mirror device and is incident on the light guide unit 841.
  • the incident range of the laser beam L ILL 3 on the incident surface 842 can be freely set by controlling the digital mirror device. Therefore, the laser beam L ILL 3 can be emitted only from the light guide member 843.
  • a YAG: Ce phosphor can be used for the third wavelength conversion member 853.
  • the first light source 711 is turned on and the second light source 712 and the third light source 811 are turned off will be described.
  • the laser beam L ILL1 is incident on the third wavelength conversion member 853 and the second wavelength conversion member 763.
  • a YAG: Ce phosphor is used for the third wavelength conversion member 853 and the second wavelength conversion member 763. Therefore, the laser light L ILL1 and the fluorescent Ce are emitted as the first illumination light from the third wavelength conversion member 853 and the second wavelength conversion member 763. As a result, observation with white light can be performed.
  • the third light source 811 is turned on and the first light source 711 and the second light source 712 are turned off will be described.
  • the laser beam L ILL 3 is incident on the third wavelength conversion member 853 and the second wavelength conversion member 763.
  • the wavelength of the laser beam L ILL 3 is 1064 nm.
  • the wavelength of 1064 nm is not included in the wavelength range of the excitation light Ce. Therefore, the laser light L ILL3 does not act as the excitation light Ce. Therefore, only the laser light L ILL 3 is emitted as the second illumination light from the third wavelength conversion member 853 and the second wavelength conversion member 763.
  • the laser light L ILL3 is a laser light emitted from a YAG laser.
  • the laser light emitted from the YAG laser is used for treatments such as cauterization, coagulation, and transpiration of the subject (hereinafter, referred to as "predetermined treatments"). Therefore, the laser beam L ILL 3 can be used for a predetermined treatment.
  • a high-energy laser beam L ILL3 In order to perform a predetermined treatment, a high-energy laser beam L ILL3 must be applied to the place to be treated.
  • the laser beam L ILL3 is emitted from the third wavelength conversion member 853. At this time, if the laser beam L ILL 3 is largely diffused by the third wavelength conversion member 853, high energy cannot be secured.
  • the third wavelength conversion member 853 has fluorescent particles and diffuse particles.
  • the second wavelength conversion member 763 also has fluorescent particles and diffuse particles.
  • at least one of the density of the fluorescent particles and the density of the diffused particles is different between the third wavelength conversion member 853 and the second wavelength conversion member 763. Therefore, the degree of light diffusion differs between the third wavelength conversion member 853 and the second wavelength conversion member 763.
  • the degree of light diffusion in the third wavelength conversion member 853 is considerably smaller than the degree of light diffusion in the second wavelength conversion member 76. Therefore, the laser light L ILL3 emitted from the third wavelength conversion member 853 is not so diffused even if it passes through the third wavelength conversion member 853. As a result, a predetermined treatment can be performed using the laser beam L ILL3.
  • the laser beam L ILL 3 is incident on the entire surface of the digital mirror device.
  • the laser beam L ILL 3 may be incident on a limited range.
  • the limited range is a range in which the laser beam L ILL 3 can be emitted only from the light guide member 843.
  • the light distribution of the first illumination light is controlled based on the first illumination light distribution information acquired from the memory.
  • the first illumination light is white light. Therefore, for example, in normal observation with white light, the brightness of the illumination light can be adjusted appropriately.
  • FIG. 30 is a diagram showing a reflector of the sixth example.
  • FIG. 30A is a diagram showing a first type reflector.
  • FIG. 30B is a diagram showing a second type reflector.
  • the subject is irradiated with illumination light from multiple directions.
  • the position of the center of the illumination light differs depending on the distance to the subject. Therefore, for example, when the illumination light is irradiated from two directions, the distance between the center of the illumination light of one and the center of the illumination light of the other varies depending on the distance to the subject.
  • the image is acquired when the subject is illuminated with illumination light from multiple directions. Therefore, even in an image, the distance between the center of one illumination light and the center of the other illumination light differs depending on the distance to the subject. Further, in the image, the size of the subject also differs depending on the distance to the subject.
  • the light amount distribution characteristic of the illumination light on the subject changes in both the illumination light of one and the illumination light of the other.
  • Changes in light distribution characteristics also occur in images. Therefore, in order to perform lighting in which the light distribution is adjusted according to the subject, it is preferable to acquire the light distribution information according to the distance to the subject.
  • Light distribution information according to the distance to the subject can be acquired by using, for example, the reflector 900 and the reflector 910.
  • the reflector 900 has a reflecting surface 901 as shown in FIG. 30 (a).
  • the reflector 900 has an inclined surface around the reflecting surface 901.
  • the angle of the inclined surface is 45 degrees with respect to the normal of the reflecting surface 901.
  • a reflection region is formed by the reflection surface 901 and the inclined surface.
  • the distance ⁇ 1 is the distance from the tip of the endoscope to the reflecting surface 901.
  • the reflector 910 has a reflecting surface 911 as shown in FIG. 30 (b).
  • the reflector 910 has an inclined surface around the reflecting surface 911.
  • the angle of the inclined surface is 45 degrees with respect to the normal of the reflecting surface 911.
  • a reflection region is formed by a reflection surface 911 and an inclined surface.
  • the distance ⁇ 2 is the distance from the tip of the endoscope to the reflecting surface 911.
  • the angle of the inclined surface of the reflector 900 and the angle of the inclined surface of the reflector 910 are the same. However, the angle of the inclined surface of the reflector 900 and the angle of the inclined surface of the reflector 910 may be different.
  • Distance ⁇ 2 is longer than distance ⁇ 1.
  • the distance ⁇ 2 and the distance ⁇ 1 can be regarded as the distance from the tip of the endoscope to the subject. Therefore, by using the reflector 900 and the reflector 910, it is possible to acquire the light distribution information according to the distance to the subject.
  • the light distribution information acquired by using the reflector 900 and the light distribution information acquired by using the reflector 910 are stored in the memory. As a result, the emitted light can be controlled based on the light distribution information acquired from the memory.
  • the endoscope system of the present embodiment further includes a distance measuring unit that detects the distance to the subject, and the lighting control unit uses the light distribution information corresponding to the detected distance to the subject among the light distribution information. Therefore, it is preferable to change the light distribution of the illumination light according to the distance to the subject.
  • the endoscope system In order to acquire the light distribution information from the memory, the information on the distance to the subject is required. Therefore, the endoscope system has a distance measuring unit that detects the distance to the subject.
  • the distance to the subject can be detected from the relationship between the amount of illumination light and the brightness of the image.
  • the distance to the subject is different for each of the plurality of light distribution information. If the distance to the subject can be detected, the light distribution information corresponding to the distance to the subject can be obtained from the memory. As a result, the lighting control unit can change the light distribution of the illumination light according to the distance to the subject by using the light distribution information corresponding to the detected distance to the subject among the light distribution information.
  • the storage medium of the present embodiment generates inspection light from illumination light having a light beam diameter including an incident surface of the light guide portion, and the inspection light is incident light incident on the light guide portion and is an image based on the inspection light. Is generated in association with the incident position information regarding the incident position of the inspection light, the light distribution information is calculated based on the image based on the inspection light and the incident position information, and the light distribution information is emitted from the light guide unit. It is characterized in that it stores a program that is information on the light distribution characteristics of the inspection light.
  • the above-mentioned reflector can be used as a jig for light distribution inspection.
  • a lighting unit having a light source, a lighting control unit, and An insertion unit having a light guide member having a light guide unit, an imaging unit for acquiring an image, and an insertion unit. Equipped with a memory that stores light distribution information
  • the light guide portion has at least an incident surface, a first injection surface, and a second emission surface.
  • Inspection light is generated from illumination light having a luminous flux diameter including the incident surface of the light guide unit.
  • the inspection light is incident light incident on the light guide unit, and is A first image based on the inspection light emitted from the first ejection surface is generated in association with the incident position information regarding the incident position of the inspection light.
  • a second image based on the inspection light emitted from the second ejection surface is generated in association with the incident position information regarding the incident position of the inspection light.
  • the first light distribution information is calculated based on the first image and the incident position information.
  • the second light distribution information is calculated based on the second image and the incident position information.
  • Illumination light is emitted from the lighting unit
  • the inspection light is a part of the illumination light and is applied to a region narrower than the incident surface.
  • the incident position information includes information about the position of the region. While changing the position of the region, the generation of the first image, the generation of the second image, the association between the first image and the incident position information, the association between the second image and the incident position information, the first light distribution
  • An endoscope system characterized by calculating information and calculating a second light distribution information.
  • the present invention is suitable for a light distribution inspection device and a light distribution inspection method that can accurately and easily inspect the amount and distribution of light emitted from a light guide member.
  • the present invention is suitable for an endoscopic system capable of performing illumination in which the light distribution is adjusted according to the subject.
  • the present invention is suitable for a storage medium that stores a program that can accurately and easily inspect the amount of light emitted from the light guide member and the distribution of light.
  • Light distribution inspection device 2 Lighting device 3 Holding member 3a 1st member 3b 2nd member 4 Information acquisition unit 5
  • Light distribution information calculation unit 6 Light guide member 10, 10'Light distribution inspection device 20 Lighting device 21 Light source 22 Lens 30 Holding Member 40 Information acquisition unit 41, 42 Imaging element 43 Lens 44 Image generation unit 50
  • Light distribution information calculation unit 60 Light guide member 61
  • Light guide unit 62 Sheath 63 Incident surface 64
  • Light guide element 65 Ejection surface
  • Digital mirror device 71
  • Mirror array surface 72
  • Mirror element 73 Mirror 73
  • Electrode 80 Lens 90, 91, 92, 93 Light guide member 94

Abstract

導光部材から射出される光の光量と配光分布を、正確、且つ容易に検査できる配光検査装置を提供する。 配光検査装置は、照明装置の導光部に各々入射する複数の検査光に基づいて、導光部と光学的に接続された照明装置の複数の出射部の各々から出射される複数の出射光の各々の光量分布特性を、検査光の各々の入射位置情報と関連付けて取得する情報取得部と、各々の入射位置情報と各々の光量分布特性に基づいて、照明装置の配光情報を算出する配光情報算出部と、を備える。

Description

配光検査装置、配光検査方法、内視鏡システム、及び記憶媒体
 本発明は、配光検査装置、配光検査方法、内視鏡システム、及び記憶媒体に関する。
 特許文献1には、内視鏡システムが開示されている。内視鏡システムは、スコープと、照明光供給装置と、を有する。スコープは、撮像ユニットと、ライトガイドと、照明光射出ユニットと、を有する。照明光供給装置は、光源ユニットと、光量分布変更デバイスと、を有する。
 光量分布変更デバイスは、光源ユニットから射出された照明光を、ライトガイドに伝送する。光源ユニットから射出された照明光は、光量分布変更デバイスによって、照明光射出ユニットから射出される照明光の光量分布が所望の光量分布となるように、光源ユニットから射出された照明光が変更される。この変更によって、照明光が照射される照明光照射エリア内の照明光の光量分布が変更される。
国際公開第2018/235166号
 上記の内視鏡システムでは、配光は考慮されていない。そのため、被写体に応じて配光が調整された照明を行うことが難しい。
 本発明は、このような課題に鑑みてなされたものであって、導光部材から射出される光の光量と配光分布を、正確、且つ容易に検査できる配光検査装置と配光検査方法を提供することを目的とする。
 また、本発明は、被写体に応じて配光が調整された照明を行うことができる内視鏡システムを提供することを目的とする。
 また、本発明は、導光部材から射出される光の光量と配光分布を、正確、且つ容易に検査できるプログラムを記憶している記憶媒体を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明の少なくとも幾つかの実施形態に係る配光検査装置は、
 照明装置の導光部に各々入射する複数の検査光に基づいて、導光部と光学的に接続された照明装置の複数の出射部の各々から出射される複数の出射光の各々の光量分布特性を、検査光の各々の入射位置情報と関連付けて取得する情報取得部と、
 各々の入射位置情報と各々の光量分布特性に基づいて、照明装置の配光情報を算出する配光情報算出部と、を備えることを特徴とする。
 本発明の少なくとも幾つかの実施形態に係る配光検査方法は、
 導光部の入射面を含む光束径を有する照明光から検査光を生成し、
 検査光は、導光部に入射される入射光であり、
 検査光に基づく画像を、検査光の入射位置に関する入射位置情報と関連付けて生成し、
 検査光に基づく画像と、入射位置情報に基づいて、配光情報を算出し、
 配光情報は、導光部から射出された検査光の配光特性に関する情報であることを特徴とする。
 本発明の少なくとも幾つかの実施形態に係る内視鏡システムは、
 光源と、光源からの出射光を制御する照明制御部と、を含む光源装置と、
 光源装置と接続可能であり、導光部を有する導光部材と、画像を取得する撮像部と、出射光に基づいて生成される照明光の配光情報が記憶されたメモリと、導光部と光学的に接続され、出射光に基づいて複数の照明光を各々出射する複数の出射部と、を含む内視鏡と、を備え、
 照明制御部は、メモリから取得した配光情報に基づいて、出射光を制御することによって、複数の出射部の少なくともいずれか一方から照射される照明光の配光を制御することを特徴とする。
 本発明の少なくとも幾つかの実施形態に係る記憶媒体は、
 導光部の入射面を含む光束径を有する照明光から検査光を生成し、
 検査光は、導光部に入射される入射光であり、
 検査光に基づく画像を、検査光の入射位置に関する入射位置情報と関連付けて生成し、
 検査光に基づく画像と、入射位置情報に基づいて、配光情報を算出し、
 配光情報は、導光部から射出された検査光の配光特性に関する情報であるプログラムを記憶していることを特徴とする。
 本発明によれば、導光部材から射出される光の光量と配光分布を、正確、且つ容易に検査できる配光検査装置と配光検査方法を提供することができる。
 本発明によれば、被写体に応じて配光が調整された照明を行うことができる内視鏡システムを提供することができる。
 本発明によれば、導光部材から射出される光の光量と配光分布を、正確、且つ容易に検査できるプログラムを記憶している記憶媒体を提供することができる。
配光検査装置の概略図である。 配光検査装置を示す図である。 照明光の様子を示す図である。 デジタルミラーデバイスを示す図である。 照明光が反射される様子を示す図である。 デジタルミラーデバイスと検査光を示す図である。 導光部材から射出される検査光を示す図である。 別の導光部材を示す図である。 導光部材から射出される検査光を示す図である。 第1の方法による撮像を示す図である。 対物レンズの視野、照明領域、及び撮像領域を示す図である。 撮像素子の移動を示す図である。 第2の方法による撮像を示す図である。 デジタルミラーデバイスで選択された光を示す図である。 配光検査装置を示す図である。 内視鏡の先端部を示す図である。 第1例の反射体を示す図である。 第1例の反射体と検査光の画像を示す図である。 第2例の反射体を示す図である。 第3例の反射体を示す図である。 第4例の反射体を示す図である。 第5例の反射体を示す図である。 第1の配光検査方法のフローチャートである。 第2の配光検査方法のフローチャートである。 第1例の内視鏡システムを示す図である。 第2例の内視鏡システムを示す図である。 撮像状態と画像を示す図である。 第3例の内視鏡システムを示す図である。 第4例の内視鏡システムを示す図である。 第6例の反射体を示す図である。
 実施例の説明に先立ち、本発明のある態様にかかる実施形態の作用効果を説明する。なお、本実施形態の作用効果を具体的に説明するに際しては、具体的な例を示して説明することになる。しかし、後述する実施例の場合と同様に、それらの例示される態様はあくまでも本発明に含まれる態様のうちの一部に過ぎず、その態様には数多くのバリエーションが存在する。したがって、本発明は例示される態様に限定されるものではない。
 本実施形態の配光検査装置は、照明装置の導光部に各々入射する複数の検査光に基づいて、導光部と光学的に接続された照明装置の複数の出射部の各々から出射される複数の出射光の各々の光量分布特性を、検査光の各々の入射位置情報と関連付けて取得する情報取得部と、各々の入射位置情報と各々の光量分布特性に基づいて、照明装置の配光情報を算出する配光情報算出部と、を備えることを特徴とする。
 図1は、配光検査装置の概略図である。図1(a)は、装置の斜視図である。図1(b)は、上面図である。
 配光検査装置1は情報取得部4と、配光情報算出部5と、を備える。
 配光検査装置1には、検査のために、照明装置2が載置される。照明装置2は、導光部材6を有する。説明の容易のために、図1では、導光部材6は照明装置2から分離して描かれている。
 保持部材3は、第1部材3aと、第2部材3bと、を有する。導光部材6は、第1部材3aと第2部材3bとで挟まれている。保持部材3によって、導光部材6が保持される。
 導光部材6は、導光部を有する。導光部材6が照明装置2に内蔵されている場合、照明装置2は、導光部を有する。導光部材6は、出射部を有する。導光部材6が照明装置2に内蔵されている場合、照明装置2は出射部を有する。出射部は、導光部と光学的に接続されている。
 配光検査装置1では、検査光が用いられる。検査光は、導光部に入射される入射光である。
 検査では、入射面に対する検査光の入射位置が、時間の経過とともに変化する。そのため、複数の検査光が導光部に入射する。入射位置情報は、複数の検査光の各々について取得される。
 導光部の入射面から入射した検査光は、導光部の射出面から射出される。検査光は複数なので、導光部の射出面から複数の出射光が射出される。射出面は、照明装置2の出射部に位置しているので、照明装置2の出射部から、複数の出射光が射出される。よって、光量分布特性は、複数の出射光の各々について取得される。
 その結果、複数の入射位置情報と複数の光量分布特性が取得される。情報取得部4は、各々の光量分布特性を、各々の入射位置情報と関連付けて取得する。
 光量分布特性は、照明装置2の出射部から射出される出射光に基づいて取得される。出射光は、照明装置2の導光部に入射する検査光から生じる。よって、光量分布特性は、導光部に入射する検査光に基づいて取得される。
 配光情報算出部5は、照明装置2の配光情報を算出する。配光情報の算出は、各々の入射位置情報と各々の光量分布特性に基づいて行われる。
 導光部材6では、出射部の数は1つである。導光部材6は、複数の出射部を有していても良い。この場合、照明装置2の複数の出射部の各々から、複数の出射光が射出される。
 配光検査装置1は、ユニットU2とユニットU3を備えていることが好ましい。しかしながら、ユニットU2とユニットU3については、どちらか一方を備えていれば良い。ユニットU1、ユニットU2、ユニットU3、及びユニットU4については、後述する。
 本実施形態の配光検査装置では、検査光は、照明光の一部であり、照射領域は、検査光が照射される領域であり、照射領域は、導光部の入射面よりも狭く、入射位置情報は、照射領域の位置に関する情報を含み、照射領域の位置を変えながら、光量分布特性の取得と、配光情報の算出を行うことが好ましい。また、照射領域の位置の変更は、デジタルミラーデバイスで行われることが好ましい。
 図2は、配光検査装置を示す図である。図3は、照明光の様子を示す図である。図3(a)は、導光部材に入射する照明光を示す図である。図3(b)は、導光部材の端面を示す図である。
 配光検査装置10は、情報取得部40と、配光情報算出部50と、を備える。
 配光検査装置10には、検査のために、照明装置20が載置される。照明装置20は、光源21と、レンズ22と、導光部材60と、を有する。説明の容易のために、図2では、導光部材60は照明装置20から分離して描かれている。導光部材60は、保持部材30で保持されている。
 図2は、概略図である。そのため、撮像素子42とレンズ43とが近接している。実際の装置では、光学像を撮像素子42で撮像できるように、撮像素子42とレンズ43の間隔は適切に設定されている。
 照明装置20は、光源21と、レンズ22と、を有する。光源21としては、レーザー、又は、LEDを用いることができる。レンズ22の代わりに、複数のレンズを用いても良い。
 配光検査装置10は、デジタルミラーデバイス70(以下、「DMD70」という)と、を有する。DMD70は、ユニットU1に対応する。
 また、配光検査装置10は、撮像素子41と、撮像素子42と、レンズ43と、画像生成部44と、を有する。撮像素子41は、ユニットU2に対応する。撮像素子42とレンズ43は、ユニットU3に対応する。画像生成部44は、ユニットU4に対応する。
 撮像素子41と撮像素子42は、画像の生成に用いられる信号を、画像生成部44に出力する。図2では、画像生成部44は、情報取得部40と分離されている。しかしながら、画像生成部44は情報取得部40に内蔵されていても良い。
 撮像素子41、撮像素子42、及びレンズ43については、撮像素子41だけが配置されるか、又は、撮像素子42とレンズ43だけが配置されても良い。
 導光部材60は、導光部を有する。導光部材60が照明装置20に内蔵されている場合、照明装置20は導光部を有する。導光部材60は、出射部を有する。導光部材60が照明装置20に内蔵されている場合、照明装置20は出射部を有する。出射部は、導光部と光学的に接続されている。
 光源21から射出された光は、レンズ22から照明光として射出される。レンズ22から射出された照明光の光束の大きさは、導光部の入射面の大きさと同じか、又は、導光部の入射面の大きさよりも大きい。
 配光検査装置10では、検査光が用いられる。検査光は、導光部に入射される入射光である。検査光は、照明光の一部である。検査光の光束の大きさは、導光部の入射面の大きさよりも小さい。照射領域は、検査光が照射される領域である。照射領域は、導光部の入射面よりも狭い。
 検査では、入射面に対する検査光の入射位置が、時間の経過とともに変化する。そのため、複数の検査光が導光部に入射する。入射位置情報は、複数の検査光の各々について取得される。
 導光部の入射面から入射した検査光は、導光部の射出面から射出される。検査光は複数なので、導光部の射出面から複数の出射光が射出される。射出面は、照明装置20の出射部に位置しているので、照明装置20の出射部から、複数の出射光が射出される。よって、光量分布特性は、複数の出射光の各々について取得される。
 その結果、複数の入射位置情報と複数の光量分布特性が取得される。情情報取得部40は、各々の光量分布特性を、各々の入射位置情報と関連付けて取得する。
 光量分布特性は、照明装置20の出射部から射出される出射光に基づいて取得される。出射光は、照明装置20の導光部に入射する検査光から生じる。よって、光量分布特性は、導光部に入射する検査光に基づいて取得される。
 配光情報算出部50は、照明装置20の配光情報を算出する。配光情報の算出は、各々の入射位置情報と各々の光量分布特性に基づいて行われる。
 導光部材60では、出射部の数は1つである。導光部材60は、複数の出射部を有していても良い。この場合、照明装置20の複数の出射部の各々から、複数の出射光が射出される。
 後述のように、配光検査装置10では、内視鏡を検査対象物にすることができる。内視鏡は、撮像素子と対物レンズを有する。よって、内視鏡を検査する場合、撮像素子42とレンズ43は用いられない。
 (配光検査装置における検査)
 配光検査装置10における検査について説明する。図3(a)に示すように、光源21が点光源の場合、光源21から射出された光は、レンズ22に平行光に変換される。照明装置20から射出された光(以下、「照明光LILL」という)は、導光部材60に入射する。
 導光部材60は、導光部61と、シース62と、を有する。導光部61は、入射面63を有する。導光部材60は、保持部材30で保持されている。
 図3(b)に示すように、導光部61は、複数の導光素子64を有する。複数の導光素子64は格子状に配置されている。導光素子の配列は、六方最密充填、又はランダムであっても良い。
 導光素子64には、例えば、光ファイバーを用いることができる。この場合、導光部61は、ファイバーバンドルとして機能する。
 図3(a)では、照明光LILLの大きさと入射面63の大きさを比較するために、DMD70は配置されていない。図3(a)に示すように、照明光LILLは、導光部61の入射面63を含む光束径を有する。よって、そのままであれば、照明光LILLは、全て入射面63に入射する。
 図4は、デジタルミラーデバイスを示す図である。図4(a)は、ミラー面を示す図である。図4(b)は、第1状態を示す図である。図4(c)は、第2状態を示す図である。
 図4(a)に示すように、DMD70は、ミラーアレイ面71を有する。ミラーアレイ面71では、ミラー素子72が格子状に配置されている。
 図4(b)と図4(c)に示すように、ミラー素子72は、ミラー73と、ヒンジ74と、電極75と、電極76と、を有する。ヒンジ74は、ミラー73を傾斜可能に支持している。電極75と電極76は、ミラー73と対向する位置に設けられている。
 第1状態では、電極75とミラー73の間に引力が発生するような電圧が、電極75に印加される。この場合、図4(b)に示すように、発生した引力によりヒンジ74が変形して、ミラー73は傾斜する。その結果、ミラー73の端が電極75に接する。
 第2状態では、電極76とミラー73の間に引力が発生するような電圧が、電極76に印加される。この場合、図4(c)に示すように、発生した引力によりヒンジ74が変形して、ミラー73は傾斜する。第2状態では、ヒンジ74の変形方向とミラー73の傾斜方向は、第1状態と逆である。そのため、ミラー73の端が電極76に接する。
 第1状態では、ミラー73は概ね+10°傾く。第2状態では、ミラー73は概ね-10°傾く。DMD70では、各々のミラー素子72は、第1状態と第2状態のどちらか一方となるように制御される。
 図5は、照明光が反射される様子を示す図である。図5(a)は、第1状態における照明光を示す図である。図5(b)は、第2状態における照明光を示す図である。
 全てのミラー素子72を第1状態にすると、図5(a)に示すように、照明光LILLを、全て入射面63に入射させることができる。一方、全てのミラー素子72を第2状態にすると、図5(b)に示すように、照明光LILLを、全て入射面63に入射させないようにすることができる。
 よって、一部のミラー素子72を第1状態にして、残りのミラー素子72を第2状態にすることで、入射面63に入射させる光を、照明光LILLの中から選択することができる。
 図6は、デジタルミラーデバイスと検査光を示す図である。図6(a)は、ミラーアレイ面を示す図である。図6(b)は、デジタルミラーデバイスで照明光が反射される様子を示す図である。図6(c)は、導光部材の端面を示す図である。
 図6(a)に示すように、DMD70では、ミラーアレイ面は、第1反射領域R1stと第2反射領域R2ndとに分かれている。第1反射領域R1stでは、各ミラー素子72は第1状態になっている。第2反射領域R2ndでは、各ミラー素子72は第2状態状になっている。そのため、第1反射領域R1stで反射された光の進行方向と第2反射領域R2ndで反射された光の進行方向は、異なる。
 図6(b)に示すように、第1反射領域R1stで反射された光(以下、「検査光LMEA」という)は、入射面63に到達する。よって、検査光LMEAは導光部61に入射する。一方、第2反射領域R2ndで反射された光(以下、「非検査光LNOM」という)は、入射面63に到達しない。よって、非検査光LNOMは導光部61に入射しない。
 図6(b)と図6(c)に示すように、検査光LMEAは、照射領域RMEAに照射される。照射領域RMEAは、入射面63において検査光LMEAが照射される領域である。上述のように、照明光LILLは、入射面63を含む光束径を有する。検査光LMEAは、照明光LILLの一部である。よって、照射領域RMEAは、入射面63よりも狭い。DMD70を用いることで、照射領域RMEAの位置を変えることができる。
 照射領域RMEAには、複数の導光素子が含まれている。よって、検査光LMEAは、複数の導光素子に入射する。配光検査装置10では、複数のミラー素子に、複数の導光素子が対応している。ただし、1つのミラー素子に、複数の導光素子が対応するようにしても良い。
 DMD70の代わりに、LCDを使用しても良い。例えば、図3(a)に示す配置において、レンズ22から入射面63までの間に液晶を配置すれば良い。
 液晶は、複数の画素を有し、画素ごとに、光の透過と遮光を選択することができる。よって、DMD70と同様に、照明光LILLを、検査光LMEAと非検査光LNOMとに分けることができる。
 光を透過させる画素を変えると、入射面63における検査光LMEAの位置が変化する。よって、光を透過させる画素を変えることで、照射領域の位置を変えることができる。
 DMD70の代わりに、透明領域と不透明領域を有する開口部材を用いても良い。開口部材に照明光LILLが照射されると、照明光LILLは、透明領域を通過する光と、不透明領域で遮光される光とに分かれる。よって、照明光LILLを、検査光LMEAと非検査光LNOMとに分けることができる。
 また、開口部材を機械的に移動させると、入射面63における透明領域の位置が変化する。透明領域の位置が変化すると、検査光LMEAの位置が変化する。よって、開口部材を移動させることで、照射領域の位置を変えることができる。
 図7は、導光部材から射出される検査光を示す図である。導光部材60に入射した検査光LMEAは、導光部材60から射出する。導光部材60の射出面65側には、レンズ80が配置されている。検査光LMEAはレンズ80によって発散光に変換される。レンズ80から、検査光LMEAが射出される。
 検査が可能な導光部材は、導光部材60に限られない。例えば、入射側の端面の数が1つで、射出側の端面の数が2以上の導光部材も検査することができる。
 図8は、別の導光部材を示す図である。図8(a)は、別の導光部材の配置を示す図である。図8(b)は、保持部材を示す図である。
 図8(a)に示すように、導光部材90は、導光部材91と、導光部材92と、導光部材93と、を有する。導光部材90では、1つの導光部材が、途中で2つの導光部材に分かれている。そのため、導光部材90は、入射側に1つの端面を有し、射出側に2つの端面を有する。
 導光部材90は、保持部材100で保持されている。図8(b)に示すように、保持部材100は、第1部材100aと、第2部材100bと、を有する。導光部材92と導光部材93は、第1部材100aと第2部材100bとで挟まれている。保持部材100によって、導光部材90が保持される。
 図9は、導光部材から射出される検査光を示す図である。図9(a)は、一方の導光部材から射出される検査光を示す図である。図9(b)は、他方の導光部材から射出される検査光を示す図である。
 導光部材90は、導光部94と、シース95と、を有する。導光部94は、入射面96を有する。導光部材92は、射出面97を有する。導光部材93は、射出面98を有する。
 検査光LMEAは、照射領域R’MEAに照射される。照射領域R’MEAは、入射面96において検査光LMEAが照射される領域である。照明光LILLは、入射面96を含む光束径を有する。検査光LMEAは、照明光LILLの一部である。よって、照射領域R’MEAは、入射面96よりも狭い。DMD70を用いることで、照射領域R’MEAの位置を変えることができる。
 照射領域R’MEAの位置に応じて、検査光LMEAは導光部材92から射出するか、又は導光部材93から射出する。場合によっては、検査光LMEAは、導光部材92と導光部材93の両方から射出する。
 図9(a)に示すように、照射領域R’MEAの位置が導光部材92側の場合、入射面96に入射した検査光LMEAは導光部材92から射出される。導光部材92の射出面97側には、レンズ80が配置されている。導光部材92から射出された検査光LMEAは、レンズ80によって発散光に変換される。レンズ80から、検査光LMEA1が射出される。
 図9(b)に示すように、照射領域R’MEAの位置が導光部材93側の場合、入射面96に入射した検査光LMEAは導光部材93から射出される。導光部材93の射出面98側には、レンズ80が配置されている。導光部材93から射出された検査光LMEAは、レンズ80によって発散光に変換される。レンズ80から、検査光LMEA2が射出される。
 導光部材60の検査と導光部材90の検査では、検査光LMEAに基づいて、光量分布特性が取得される。このとき、光量分布特性は、検査光LMEAの入射位置情報と関連付けて取得される。
 照射領域RMEAは、入射面63において検査光LMEAが照射される領域である。照射領域RMEAの位置は、入射面63における検査光LMEAの入射位置を表している。また、照射領域R’MEAは、入射面96において検査光LMEAが照射される領域である。照射領域R’MEAの位置は、入射面96における検査光LMEAの入射位置を表している。
 よって、照射領域RMEAの位置に関する情報と照射領域R’MEAの位置に関する情報を、検査光LMEAの入射位置情報として用いることができる。
 図6(C)に示すように、照射領域RMEAは、検査光LMEAが照射される領域である。検査光LMEAは第1反射領域R1stで反射されているので、第1反射領域R1stの位置を、照射領域RMEAの位置の代わりに用いることができる。よって、第1反射領域R1stの位置に関する情報を、検査光LMEAの入射位置情報として用いることができる。
 第1反射領域R1stは、ミラー素子が第1状態になっている領域を表している。各ミラー素子は格子状に配置されているので、各ミラー素子の位置は特定することができる。第1反射領域R1stに含まれるミラー素子を特定することで、特定したミラー素子の位置を、第1反射領域R1stの位置の代わりに用いることできる。よって、入射位置情報として、ミラー素子の位置に関する情報を、検査光LMEAの入射位置情報として用いることができる。
 導光部材60の検査では、光量分布特性と配光情報の算出は、入射面63の全体について行われることが好ましい。上述のように、照射領域RMEAは、入射面63よりも狭い。よって、光量分布特性と配光情報の算出は、照射領域RMEAの位置を変えながら行われる。
 導光部材90の検査では、光量分布特性と配光情報の算出は、入射面96の全体について行われることが好ましい。上述のように、照射領域R’MEAは、入射面96よりも狭い。よって、光量分布特性と配光情報の算出は、照射領域R’MEAの位置を変えながら行われる。
 導光部材60を用いた検査では、レンズ80から検査光LMEAが射出される。導光部材90を用いた検査では、レンズ80から検査光LMEA1と検査光LMEA2が射出される。これらの検査光は、第1の方法、又は第2の方法を用いて撮像することができる。
 (第1の方法による撮像)
 本実施形態の配光検査装置は、画像の生成に用いられる信号を出力する撮像素子を有し、撮像素子は、保持部材と対向していることが好ましい。
 図10は、第1の方法による撮像を示す図である。図2と同じ構成については同じ番号を付し、説明は省略する。図10は概略図である。
 図10に示すように、第1の方法では、撮像素子41が用いられる。撮像素子42とレンズ43は用いられない。
 配光検査装置10’では、撮像素子41は、保持部材30と対向している。保持部材30は、導光部材60、又は導光部材90を保持することができる。
 図10では、導光部材60が、保持部材30に保持されている。導光部材60から射出された検査光LMEAはレンズ80を通過して、直接、撮像素子41に入射する。
 図示は省略するが、導光部材90が、保持部材30に保持されている場合、導光部材92から検査光LMEA1が射出され、導光部材93から検査光LMEA2が射出される。検査光LMEA2と検査光LMEA1はレンズ80を通過して、直接、撮像素子41に入射する。
 撮像素子41から、画像の生成に用いられる信号を出力される。出力された信号から、画像が生成される。
 画像の生成は、画像生成部で行われる。配光検査装置10’では、情報取得部40に、画像生成部が内蔵されている。よって、撮像素子41は、画像の生成に用いられる信号を情報取得部40に出力する。
 画像生成部が情報取得部40と分離されている場合、撮像素子41は、画像の生成に用いられる信号を画像生成部に出力する。画像生成部は、生成した画像を情報取得部40に出力する。
 情報取得部40で、光量分布特性の取得が行われ、配光情報算出部50で、配光情報の算出が行われる。
 導光部材60の検査で算出された配光情報は、導光部材60が搭載される内視鏡(以下、「内視鏡A」という)での撮像に利用される。内視鏡Aでの撮像では、内視鏡Aに搭載されている対物レンズAが用いられる。よって、導光部材60の検査では、配光情報の算出は、対物レンズAが使用されることを前提として行う必要がある。
 導光部材90の検査で算出された配光情報は、導光部材90が搭載される内視鏡(以下、「内視鏡B」という)での撮像に利用される。内視鏡Bでの撮像では、内視鏡Bに搭載されている対物レンズBが用いられる。よって、導光部材90の検査では、配光情報の算出は、対物レンズBが使用されることを前提として行う必要がある。
 第1の方法では、検査光を撮像素子で撮像することで、配光情報を算出している。ただし、検査光を、直接、撮像素子に入射させている。すなわち、第1の方法では、レンズを使用せずに配光情報が算出される。
 そのため、第1の方法では、導光部材が搭載される内視鏡での撮像を考慮して、配光情報を算出する。具体的には、導光部材と共に用いられる対物レンズの視野に基づいて、撮像素子の位置と撮像面の大きさが決定される。
 図11は、対物レンズの視野、照明領域、及び撮像領域を示す図である。図11(a)は、検査光が1つの場合を示す図である。図11(b)は、検査光が2つの場合を示す図である。
 (検査光が1つの場合)
 導光部材60では、導光部材60から1つの検査光が射出される。導光部材60は、内視鏡に用いることができる。内視鏡は、ファイバーバンドルと、照明レンズと、対物レンズと、を有する。導光部材60の導光部61は、ファイバーバンドルに対応する。また、レンズ80は照明レンズに対応する。
 図11(a)において、照明領域111は、照明光LILLの照明領域を表している。検査領域112は、検査光LMEAの領域を表している。撮像領域113は、撮像素子41の撮像領域を表している
 内視鏡では、製品ごとに、ファイバーバンドルの仕様、照明レンズの仕様、及び対物レンズの仕様が異なる。導光部材60の検査では、内視鏡Aの照明レンズが、レンズ80に用いられる。
 必要に応じて、内視鏡Aに使用される撮像素子を、撮像素子41に用いることができる。また、内視鏡Aに使用されるDMDを、DMD70に用いることができる。
 内視鏡では、観察範囲は、対物レンズの視野で決まる。対物レンズの視野が照明光で満たされていないと、観察範囲内を観察することができない。また、対物レンズの視野が撮像領域に含まれていないと、観察範囲内を観察することができない。
 第1の方法では、対物レンズAは用いられない。そこで、対物レンズAの仕様に基づいて、対物レンズAの視野110(以下、「視野110」という)を求める。そして、視野110が撮像領域113に含まれるように、撮像素子41が位置決めされる。また、視野110を考慮して、撮像領域113の大きさが決定される。
 照明領域111は、レンズ80で形成される。レンズ80には、内視鏡Aの照明レンズが用いられている。内視鏡Aの照明レンズは、視野110を満たすように設計されている。よって、撮像素子41の位置では、図11(a)に示すように、照明領域111は、視野110を含んでいる。
 撮像素子41は、画像の生成に用いられる信号を、情報取得部40に出力する。情報取得部40は、画像生成部を有する。画像生成部で、検査光LMEAに基づく画像(以下、「画像IMMEA」という)が生成される。画像IMMEAの生成は、撮像素子41から出力された信号に基づいて行われる。
 検査光LMEAは、照明光LILLの一部である。そのため、検査領域112は、視野110よりも狭い。よって、このままでは、視野110内の全ての位置において、配光情報を算出することはできない。
 そこで、検査領域112の位置を変えながら、光量分布特性の取得を行う。その結果、視野110内の全ての位置において、配光情報を算出することができる。検査領域112の位置は、照射領域を移動させることで変えることができる。
 (検査光が2つの場合)
 導光部材90も、内視鏡に用いることができる。導光部材90では、導光部材92と導光部材93から2つの検査光が射出される。導光部材90は、内視鏡に用いることができる。内視鏡は、ファイバーバンドルと、照明レンズと、対物レンズと、を有する。導光部材90の導光部94は、ファイバーバンドルに対応する。また、レンズ80は照明レンズに対応する。
 図11(b)において、照明領域121は、照明光LILL1を表している。照明領域122は、照明光LILL2の照明領域を表している。検査領域123は、検査光LMEA1の領域を表している。検査領域124は検査光LMEA2の領域を表している。
 上述のように、内視鏡では、製品ごとに、ファイバーバンドルの仕様、照明レンズの仕様、及び対物レンズの仕様が異なる。導光部材90の検査では、内視鏡Bの照明レンズが、レンズ80に用いられる。
 必要に応じて、内視鏡Bに使用される撮像素子を、撮像素子41に用いることができる。また、内視鏡Bに使用されるDMDを、DMD70に用いることができる。
 第1の方法では、対物レンズBは用いられない。そこで、対物レンズBの仕様に基づいて、対物レンズBの視野120(以下、「視野120」という)を求める。そして、視野120が撮像領域113に含まれるように、撮像素子41が位置決めされる。また、視野120を考慮して、撮像領域113の大きさが決定される。
 照明領域121と照明領域122は、レンズ80で形成される。レンズ80には、内視鏡Bの照明レンズが用いられている。内視鏡Bの照明レンズは、視野120を満たすように設計されている。よって、撮像素子41の位置では、図11(b)に示すように、照明領域121と照明領域122は、視野120を含んでいる。
 撮像素子41は、画像の生成に用いられる信号を、情報取得部40に出力する。情報取得部40は、画像生成部を有する。画像生成部で、画像IMMEAが生成される。画像IMMEAには、検査光LMEA1に基づく画像(以下、「画像IMMEA1」という)と、検査光LMEA2に基づく画像(以下、「画像IMMEA2」という)が含まれる。画像IMMEA1の生成と画像IMMEA2の生成は、撮像素子41から出力された信号に基づいて行われる。
 検査光LMEA1と検査光LMEA2は、共に、照明光LILLの一部である。そのため、検査領域123と検査領域124は、共に、視野120よりも狭い。よって、このままでは、視野120内の全ての位置において、配光情報を算出することはできない。
 そこで、検査領域123の位置と検査領域124の位置を変えながら、光量分布特性の取得を情報取得部40で行う。その結果、視野120内の全ての位置において、配光情報を算出することができる。検査領域123の位置と検査領域124の位置は、照射領域を移動させることで変えることができる。
 図11(a)では、視野110は撮像領域113の内側に位置している。しかしながら、視野110は、撮像領域113に内接していても良い。又は、視野110は、撮像領域113に外接していても良い。視野120についても、同様である。
 上述の検査では、撮像領域は対物レンズの視野を含むように設定されている。よって、撮像素子は固定したままで検査を行うことができる。しかしながら、視野よりも狭い撮像領域を持つ撮像素子を用いても良い。
 視野よりも狭い撮像領域を持つ撮像素子を用いる場合、レンズ80と撮像素子との間に、レンズを配置すれば良い。このようにすると、レンズ80から射出された検査光を、集光することができる。その結果、視野よりも狭い撮像領域を持つ撮像素子を用いても、撮像素子は固定したままで検査を行うことができる。
 検査では、撮像素子を移動させても良い。図12は、撮像素子の移動を示す図である。図12(a)は、第1の移動を示す図である。図12(b)は、第2の移動を示す図である。図12(c)は、第3の移動を示す図である。
 第1の移動では、図12(a)に示すように、視野130内で、撮像素子131を移動させる。撮像素子131の移動方向は、矢印で示すように、光軸132と直交する方向である。
 第2の移動では、図12(b)に示すように、撮像素子131を光軸132と直交する方向に移動させると共に、光軸に沿って移動させる。第2の移動では、撮像素子131の面の法線の向きは変化させない。
 第3の移動では、図12(c)に示すように、撮像素子131を光軸132と直交する方向に移動させると共に、光軸に沿って移動させる。第3の移動では、撮像素子131の面の法線の向きを変化させる。
 撮像素子131の受光面は、レンズ80から射出された検査光を受光できるだけの広さを有している。よって、撮像素子131の位置にかかわらず、レンズ80から射出された検査光を受光できる。
 内視鏡では、例えば、腸の内壁の観察が行われる。この場合、対物レンズから内壁までの距離は、視野の中心と視野の周辺とで異なる。視野の周辺では、視野の中心に比べて対物レンズまでの距離が短い。照明光の届く距離も、視野の周辺では短く、視野の中心では長くなる。
 第2の移動方法と第3の移動方法では、距離の違いを考慮して検査を行うことができる。よって、高い精度で検査が行える。
 (第2の方法による撮像)
 本実施形態の配光検査装置は、画像の生成に用いられる信号を出力する撮像素子を有し、画像の各々は、反射体で反射された検査光を撮像した画像であり、反射体の一方の側に、保持部材と撮像素子が配置されていることが好ましい。
 図13は、第2の方法による撮像を示す図である。図2と同じ構成については同じ番号を付し、説明は省略する。図13は概略図である。
 図13に示すように、第2の方法では、撮像素子42とレンズ43が用いられる。撮像素子41は用いられない。また、反射体140が用いられる。反射体140の具体例については、後述する。
 配光検査装置10”では、撮像素子42とレンズ43が近接している。実際の装置では、光学像を撮像素子42で撮像できるように、撮像素子42とレンズ43の間隔は適切に設定されている。
 配光検査装置10”では、レンズ80を挟んで、保持部材30と対向する位置に、反射体140が配置されている。この場合、レンズ80から射出された検査光LMEAは、反射体140で反射される。よって、反射体140の一方の側に、保持部材30と撮像素子42が配置されている。保持部材30は、導光部材60、又は導光部材90を保持することができる。
 図13では、導光部材60が、保持部材30に保持されている。導光部材60から射出された検査光LMEAは、レンズ80に入射する。レンズ80から射出された検査光LMEAは、反射体140で反射される。反射された検査光LMEAのうちの一部の光は、レンズ43を通過して、撮像素子42に入射する。
 図示は省略するが、導光部材90が、保持部材30に保持されている場合、導光部材92から検査光LMEA1が射出され、導光部材93から検査光LMEA2が射出される。検査光LMEA2と検査光LMEA1は、レンズ80に入射する。レンズ80から射出された検査光LMEA1と検査光LMEA2は、反射体140で反射される。反射された検査光LMEA1のうちの一部の光と反射された検査光LMEA2のうちの一部の光は、レンズ43を通過して、撮像素子42に入射する。
 撮像素子42から、画像の生成に用いられる信号が出力される。出力された信号から、画像が生成される。
 画像の生成は、画像生成部で行われる。配光検査装置10”では、情報取得部40に、画像生成部が内蔵されている。よって、撮像素子42は、画像の生成に用いられる信号を情報取得部40に出力する。
 画像生成部が情報取得部40と分離されている場合、撮像素子42は、画像の生成に用いられる信号を画像生成部に出力する。画像生成部で生成された画像は、情報取得部40に出力される。
 情報取得部40で、光量分布特性の取得が行われ、配光情報算出部50で、配光情報の算出が行われる。
 導光部材60の検査で算出された配光情報は、内視鏡Aでの撮像に利用される。よって、導光部材60の検査では、配光情報の算出は、対物レンズAが使用されることを前提として行う必要がある。
 導光部材90の検査で算出された配光情報は、内視鏡Bでの撮像に利用される。よって、導光部材90の検査では、配光情報の算出は、対物レンズBが使用されることを前提として行う必要がある。
 第2の方法では、検査光を撮像素子で撮像することで、配光情報を算出している。ただし、検査光を、反射体とレンズを介して、撮像素子に入射させている。すなわち、第2の方法では、レンズを使用して配光情報が算出される。
 第2の方法でも、導光部材が搭載される内視鏡での撮像を考慮して、配光情報を算出する。具体的は、内視鏡と同じ観察範囲を撮像できるように、撮像素子42の位置、撮像面の大きさ、レンズ43の位置、反射体140の位置、及び反射体140の大きさが決定される。
 (検査光が1つの場合)
 導光部材60では、導光部材60から1つの検査光が射出される。導光部材60は、内視鏡Aに搭載される。内視鏡Aには、対物レンズAが搭載されている。よって、レンズ43には、対物レンズAを用いるか、又は対物レンズAと同じ視野を持つレンズを用いると良い。
 内視鏡Aと同じ観察範囲を撮像できるように、撮像素子42の位置、撮像面の大きさ、レンズ43の位置、反射体140の位置、及び反射体140の大きさが決定される。
 撮像素子42は、画像の生成に用いられる信号を、情報取得部40に出力する。情報取得部40は、画像生成部を有する。画像生成部で、画像IMMEAが生成される。画像IMMEAの生成は、撮像素子42から出力された信号に基づいて行われる。
 検査光LMEAは、照明光LILLの一部である。そのため、検査領域は、視野よりも狭い。よって、このままでは、視野内の全ての位置において、配光情報を算出することはできない。
 そこで、検査領域の位置を変えながら、光量分布特性の取得を情報取得部40で行う。その結果、視野内の全ての位置において、配光情報を算出することができる。検査領域の位置は、照射領域を移動させることで変えることができる。
 (検査光が2つの場合)
 導光部材90では、導光部材90から2つの検査光が射出される。導光部材90は、内視鏡Bに搭載される。内視鏡Bには、対物レンズBが搭載されている。よって、レンズ43には、対物レンズBを用いるか、又は対物レンズBと同じ視野を持つレンズを用いると良い。
 内視鏡Bと同じ観察範囲を撮像できるように、撮像素子42の位置、撮像面の大きさ、レンズ43の位置、反射体140の位置、及び反射体140の大きさが決定される。
 撮像素子42は、画像の生成に用いられる信号を、情報取得部40に出力する。画像が生成される。そして、情報取得部40で、光量分布特性の取得が行われ、配光情報算出部50で、配光情報の算出が行われる。
 撮像素子42は、画像の生成に用いられる信号を、情報取得部40に出力する。情報取得部40は、画像生成部を有する。画像生成部で、画像IMMEA1と画像IMMEA2が生成される。画像IMMEA1の生成と画像IMMEA2の生成は、撮像素子42から出力された信号に基づいて行われる。
 検査光LMEA1と検査光LMEA2は、共に、照明光LILLの一部である。そのため、2つの検査領域は、共に、視野よりも狭い。よって、このままでは、視野内の全ての位置において、配光情報を算出することはできない。
 そこで、2つの検査領域の位置を変えながら、光量分布特性の取得を情報取得部40で行う。その結果、視野内の全ての位置において、配光情報を算出することができる。2つの検査領域の位置は、照射領域を移動させることで変えることができる。
 以上のように、第1の方法と第2の方法のどちらにおいても、レンズ80から射出された検査光は、撮像素子に入射する。検査光は、撮像素子で光電変換される。撮像素子から、検査光の光量分布特性に対応した信号が出力される。
 撮像素子から出力された信号は、画像生成部に入力される。画像生成では、入力された信号に基づいて、検査光に基づく画像が生成される。画像IMMEA、画像IMMEA1、画像IMMEA2は、検査光に基づく画像(以下、「画像IM」という)である。
 情報取得部40では、光量分布特性が、入射位置情報と関連付けて取得される。光量分布特性の取得では、画像IMが用いられる。
 画像IMと入射位置情報の関連付けが行われる。画像IMは、検査光に基づく画像である。検査光の位置は、照射領域の位置、第1反射領域の位置、又はミラー素子の位置で表される。よって、画像IMの位置も、これらの位置で表される。画像IMと入射位置情報の関連付けを行うことができる。
 また、画像IMでは、検査光の光量分布特性が画像化されている。画像IMから、光量分布特性を取得することができる。よって、入射位置情報と関連付けて、光量分布特性を取得することができる。
 画像IMから、光量分布特性を取得することができる。よって、入射位置情報と関連付けて、光量分布特性を取得することができる。
 図6(b)に示すように、検査光LMEAは、DMD70の第1反射領域R1stで反射された光である。第1反射領域R1stの位置が変化すると、導光部材60の射出面における検査光LMEAの位置も変化する。よって、画像生成部で生成される画像IMMEAも変化する。このように、第1反射領域R1stの位置と画像IMMEAは関連する。
 DMD70は、情報取得部40と接続されている。第1反射領域R1stの位置は、入射位置情報として、情報取得部40に入力される。情報取得部40は、画像IMMEAを有する。よって、情報取得部40では、画像IMMEAと入射位置情報の関連付けが行われる。
 画像IMMEAでは、検査光LMEAの光量分布特性が画像化されている。画像IMMEAから、光量分布特性を取得することができる。よって、入射位置情報と関連付けて、光量分布特性を取得することができる。
 光量分布特性は、入射位置情報と共に配光情報算出部50に入力される。光量分布特性には、導光部61から射出された検査光LMEAの配光特性が含まれている。よって、情報算出部50では、入射位置情報と光量分布特性に基づいて、配光特性を算出することができる。
 以上、DMD70の第1反射領域R1stで反射された検査光LMEAについて説明した。DMD70では、一部のミラー素子72を第1状態にして、残りのミラー素子72を第2状態にすることで、入射面63に入射させる検査光LMEAを、照明光LILLの中から選択することができる。
 図14は、デジタルミラーデバイスで選択された光を示す図である。図14(a)は、第1の選択状態における光を示す図である。図14(b)は、第2の選択状態における光を示す図である。図14(c)は、第3の選択状態における光を示す図である。
 第1の選択状態では、ミラー素子群RLは第1状態、残りのミラー素子群は第2状態になっている。ミラー素子群RLは、ミラーアレイ面の一方の端に位置している。よって、図14(a)に示すように、射出面65の一方の端から検査光LMEAが射出される。
 第2の選択状態では、ミラー素子群RCは第1状態、残りのミラー素子群は第2状態になっている。ミラー素子群RCは、ミラーアレイ面の中央に位置している。よって、図14(b)に示すように、射出面65の中央から検査光LMEAが射出される。
 第3の選択状態では、ミラー素子群RRは第1状態、残りのミラー素子群は第2状態になっている。ミラー素子群RRは、ミラーアレイ面の他方の端に位置している。よって、図14(c)に示すように、射出面65の他方の端から検査光LMEAが射出される。
 このように、DMD70を用いることで、入射面63に入射する検査光LMEAの位置を変えることができる。入射面63に入射する検査光LMEAの位置が変わると、射出面65から射出される検査光LMEAの位置を変えることができる。
 DMD70の制御は、情報取得部40で行われる。さらに、情報取得部40では、画像IMMEAと入射位置情報との関連付けを行うことができる。よって、照射領域の位置を変えながら、画像と入射位置情報の関連付け、及び配光情報の算出を行うことができる。
 検査では、入射面63に対する照射領域の位置を変えながら、繰り返し、検査光LMEAが入射面63に照射される。検査光LMEAの照射は、検査光LMEAが入射面63の全体に照射されるまで行われる。
 上述のように、導光部材60と導光部材90は、内視鏡のファイバーバンドルに用いることができる。よって、本実施形態の配光検査装置では、内視鏡を用いて検査を行うことができる。
 検査では、ミラー素子を、1つ1つ第1状態にすることが好ましい。ただし、複数のミラー素子を、同時に第1状態にしても良い。例えば、ミラー素子を、1列ずつ第1状態にしても良い。このようにすることで、効率よく検査を行うことができる。
 図15は、配光検査装置を示す図である。図2と同じ構成については同じ番号を付し、悦明は省略する。
 配光検査装置150は、照明装置20と、保持部材160と、情報取得部40と、配光情報算出部50と、を備える。検査対象物は内視鏡170である。
 内視鏡170は、挿入部171と、操作部172と、ケーブル173と、接続部174とを有する。挿入部171は、先端部171aを有する。先端部171aには、ファイバーバンドル、照明レンズ、対物レンズ、及び撮像素子が配置されている。
 ファイバーバンドルの数と対物レンズの数は、内視鏡の使用目的に応じて異なる。図16は、内視鏡の先端部を示す図である。図16(a)は、先端部の第1例を示す図である。図16(b)は、先端部の第2例を示す図である。
 第1例の先端部180は、図16(a)に示すように、ファイバーバンドル181と、照明レンズ182と、対物レンズ183と、撮像素子184と、を有する。第1の先端部180は、1つの射出面を有する。よって、第1例の先端部180では、1つの方向から検査光が照射される。
 第2例の先端部190は、図16(b)に示すように、ファイバーバンドル191と、ファイバーバンドル192と、照明レンズ193と、照明レンズ194と、対物レンズ195と、撮像素子196と、を有する。第2例の先端部190は、2つの射出面を有する。よって、第2例の先端部190では、2つの方向から検査光が照射される。
 図15に戻って説明する。ファイバーバンドルと撮像素子の信号線は、先端部171aから接続部174まで伸びている。接続部174の接続面174aには、ファイバーバンドルの入射面が位置している。撮像素子の信号線は、コネクタ(不図示)を介して、情報取得部40に接続されている。
 保持部材160は、保持部材161と、保持部材162と、を有する。挿入部171は、保持部材161で保持されている。接続部174は、保持部材162で保持されている。挿入部171の内部と接続部174内部には、ファイバーバンドルが配置されている。よって、ファイバーバンドルは、保持部材161と保持部材162とで保持されている。
 内視鏡170では、一方の側に、撮像素子とファイバーバンドルが位置している。よって、検査では、反射体140が用いられる。このように、配光検査装置150では、第2の方法を用いて検査が行われる。反射体について説明する。
 反射体は、検査光を撮像素子で撮像できる領域を有していることが好ましい。
 第2の方法では、導光部材から射出された検査光は、反射体に入射した後、反射体で反射される。検査光を撮像素子で撮像できる領域を反射体が有することで、導光部材から射出された検査光は、撮像素子に向けて反射される。よって、導光部材から射出された検査光に基づいて、検査を行うことができる。
 反射体で反射された検査光が撮像素子で撮像されるか否かは、入射位置と反射角度のどちらか一方、又は、その両方で決まる。
 反射体で反射された検査光の撮像では、以下の(A1)、(A2)、(A3)のいずれかが生じる。
(A1)検査光の光束全てが、撮像素子で撮像される。
(A2)検査光の光束の一部が、撮像素子で撮像される。
(A3)検査光の光束全てが、撮像素子で撮像されない。
 (第1例の反射体)
 反射体は、凹部を有し、凹部の内面は、複数の反射面で形成された反射領域を有し、反射領域は、導光部材から出射される検査光が入射可能な広さを有することが好ましい。
 図17は、第1例の反射体を示す図である。図17(a)は、側面図である。図17(b)は、上面図である。
 図17(a)に示すように、反射体200は、凹部201を有する。凹部201の内面は、反射領域202を有する。反射領域202は、複数の反射面で形成されている。図17(b)に示すように、反射領域202は、反射面203、反射面204、反射面205、反射面206、及び反射面207で形成されている。
 図示は省略するが、反射体200の使用時、凹部201は保持部材と対向する。保持部材には、導光部材が保持されている。導光部材から射出された検査光は、反射領域202に照射される。反射領域202は、導光部材から出射される検査光が入射可能な広さを有する。
 複数の反射面の各々は、平面であることが好ましい。
 反射体200では、反射面203、反射面204、反射面205、反射面206、及び反射面207は、平面である。反射領域202を複数の平面で形成することで、反射体200を容易に、且つ高い精度で作成することができる。よって、高い精度で検査を行うことができる。
 複数の反射面の各々で、反射面の法線の向きが異なることが好ましい。
 反射体200では、反射面203の法線の向きは、反射体200の中心軸AXcと平行である。反射面204、反射面205、反射面206、及び反射面207は、反射面203に対して傾いている。反射面203に対する傾斜角は、45°である。但し、傾斜角は45°に限られない。
 反射面204は、反射面205と対向している。よって、反射面204の法線の向きは、反射面205の法線の向きと異なる。反射面206は、反射面207と対向している。よって、反射面206の法線の向きは、反射面207の法線の向きと異なる。
 反射面204の中心と反射面205の中心を結ぶ線は、反射面206の中心と反射面207の中心を結ぶ線と直交している。よって、反射面204、反射面205、反射面206、及び反射面207では、各々の法線の向きが異なる。
 複数の反射面の各々は、平面であり、複数の反射面の各々で、反射面の法線が傾いていることが好ましい。
 反射面204の法線、反射面205の法線、反射面206の法線、及び反射面207の法線は、中心軸AXcに対して傾いている。
 反射面203の法線は、中心軸AXcと平行である。そのため、反射面203では、保持部材から反射面までの距離は、反射面上の各点で変わらない。反射面204の法線は、中心軸AXcに対して傾いている。そのため、反射面204では、保持部材から反射面までの距離は、反射面上の各点で変わる。
 反射面205の法線、反射面206の法線、及び反射面207でも、保持部材から反射面までの距離は、反射面上の各点で変わる。
 上述のように、内視鏡では、例えば、腸の内壁の観察が行われる。この場合、対物レンズから内壁までの距離は、視野の中心と視野の周辺とで異なる。視野の周辺では、視野の中心に比べて距離が短い。照明光の届く距離も、視野の周辺では短く、視野の中心では遠くなる。
 反射体200では、距離の違いを考慮して検査を行うことができる。よって、高い精度で検査が行える。
 図18は、第1例の反射体と検査光の画像を示す図である。図18(a)は、検査光LMEA1を示す図である。図18(b)は、画像IMALL1を示す図である。図18(c)は、検査光LMEA2を示す図である。図18(d)は、画像IMALL2を示す図である。
 検査光LMEA1について説明する。図18(a)に示すように、凹部201は、保持部材30と対向している。保持部材30には、導光部材92と、導光部材93と、が保持されている。導光部材92から射出された検査光LMEA1は、反射領域202に照射される。
 図18(a)では、検査光LMEA1は、導光部材92の中央から射出されている。導光部材92から射出された検査光LMEA1は、反射領域202で反射される。反射領域202は、照明光LILLを反射できる広さを有する。よって、検査光LMEA1が導光部材92の周辺から射出されている場合でも、検査光LMEA1は反射領域202で照射される。
 反射領域202で反射された検査光LMEA1はレンズ44を通過して、撮像素子43に入射する。レンズ44の視野には、反射領域202が位置している。反射領域202は、5つの反射面を有する。よって、全体画像IMALL1には、図18(b)に示すように、5つの領域が含まれている。
 領域203’は、反射面203に対応する領域である。領域204’は、反射面204に対応する領域である。領域205は、反射面205に対応する領域である。領域206’、反射面206に対応する領域である。領域207’は、反射面207に対応する領域である。
 5つの反射面に検査光LMEA1が照射され、且つ、各反射面で反射された検査光LMEA1が撮像素子43に入射する場合、5つの領域の各々には、検査光LMEA1の画像が含まれる。
 画像203I1は、反射面203で反射された検査光LMEA1の画像である。画像204I1は、反射面204で反射された検査光LMEA1の画像である。画像205I1は、反射面205で反射された検査光LMEA1の画像である。画像206I1は、反射面206で反射された検査光LMEA1の画像である。画像207I1は、反射面207で反射された検査光LMEA1の画像である。
 図18(b)では、画像203I1、画像204I1、画像205I1、画像206I1、及び画像207I1で、画像IMALL1が形成されている。
 各画像では、検査光LMEA1の形状と光量分布特性が画像化されている。形状と光量分布特性は、撮像素子43に入射する検査光LMEA1の形状と光量分布特性で決まる。
 図18(b)に示す画像IMALL1では、画像203I1の方が、画像204I1よりも大きい。これは、反射面203で反射された検査光LMEA1の方が、反射面204で反射された検査光LMEA1のよりも大きいことを表している。
 検査光LMEA2について説明する。図18(c)では、検査光LMEA2は、導光部材93の中央から射出されている。導光部材93から射出された検査光LMEA2は、反射領域202で反射される。反射領域202は、照明光LILLを反射できる広さを有する。よって、検査光LMEA2が導光部材93の周辺から射出されている場合でも、検査光LMEA2は反射領域202で照射される。
 反射領域202で反射された検査光LMEA2はレンズ44を通過して、撮像素子43に入射する。レンズ44の視野には、反射領域202が位置している。上述のように、反射領域202は、5つの反射面を有する。よって、全体画像IMALL2には、図18(d)に示すように、5つの領域が含まれている。
 図18(d)では、画像203I2、画像204I2、画像205I2、画像206I2、及び画像207I2で、画像IMALL2が形成されている。
 図18(d)では、参考のために、画像IMALL1が破線で示されている。検査光LMEA2が射出される位置は、検査光LMEA1が射出される位置と異なる。そのため、同じ反射面で反射された検査光であっても、検査光LMEA2の画像の位置は、検査光LMEA1の画像の位置と異なる。場合によっては、検査光LMEA2の画像の大きさも、検査光LMEA1の画像の大きさと異なる。
 反射面に検査光LMEA1が照射されていても、その反射面で反射された検査光LMEA1が全て撮像素子43に入射しない場合がある。この場合、その反射面に対応する領域には、検査光LMEA1の画像は含まれない。
 また、反射面に検査光LMEA2が照射されていても、その反射面で反射された検査光LMEA2が全て撮像素子43に入射しない場合がある。この場合、その反射面に対応する領域には検査光LMEA2の画像は含まれない。
 そのため、場合によっては、5つの領域は、検査光の画像が含まれる領域と、検査光の画像が含まれない領域と、に分かれる。
 (第2例の反射体)
 反射体は、突起を有し、突起は、凹部の中心に向かって突出していることが好ましい。
 図19は、第2例の反射体を示す図である。反射体210は、反射部210’と、円筒部210”と、を有する。反射体210では、反射部210’と円筒部210”は一体である。ただし、反射部210’と円筒部210”は、別体であっても良い。
 反射部210’と円筒部210”で、凹部211が形成されている。反射部210’には、反射領域212が形成されている。円筒部210”は、突起213を有する。突起213は、円筒部210”の内周面に形成されている。突起213は、反射体210の中心軸AXcに向かって突出している。
 中心軸AXcは、凹部211の中心に位置している。よって、突起213は、凹部211の中心に向かって突出している。
 上述のように、配光検査装置の検査では、内視鏡を用いることができる。内視鏡では、先端部214から検査光が射出される。先端部214の外面は円筒面である。
 円筒部210”の内周面は円筒面である。円筒面の外径は、先端部214の外径と略同一である。よって、先端部214を円筒部210”に挿入することで、先端部214に反射体210が装着される。
 円筒部210”は、突起213を有している。よって、先端部214と突起213が接触することで、反射体210を先端部214に対して位置決めすることができる。
 (第3例の反射体)
 反射体は、接続部を有し、接続部を介して、保持部材が反射体に接続されることが好ましい。
 図20は、第3例の反射体を示す図である。反射体220は、反射部220’と、円筒部220”と、を有する。反射体220では、反射部220’と円筒部220”は一体である。ただし、反射部220’と円筒部220”は、別体であっても良い。
 反射部220’と円筒部220”で、凹部221が形成されている。反射部220’には、反射領域222が形成されている。円筒部220”は、接続部223を有する。接続部223は、円筒部220”の外周面に形成されている。
 反射体220には、接続部223を介して、保持部材224が接続される。保持部材224も接続部を有する。反射体220と保持部材224は、例えば、ねじによって接続することができる。保持部材224では、内視鏡の先端部225を保持することができる。
 上述のように、配光検査装置の検査では、内視鏡を用いることができる。内視鏡では、先端部225から検査光が射出される。先端部225の外面は円筒面である。
 保持部材224の内周面は円筒面である。円筒面の外径は、先端部225の外径と略同一である。よって、先端部225を保持部材224に挿入することで、保持部材224に先端部225が装着される。
 保持部材224は、接続部223を介して、反射体220と接続されている。よって、先端部225に反射体220が装着される。よって、反射体220を先端部225に対して位置決めすることができる。
 反射体220と保持部材224がねじで接続されている場合、保持部材224を回転させることで、反射領域222と保持部材224との間隔を調整することができる。先端部225に対する反射体220の位置決めを、容易に行うことができる。
 先端部の外径は、内視鏡の仕様に応じて異なる。第2例の反射体では、先端部の外径に応じて、反射体を用意しなくてはならない。第3例の反射体では、先端部の外径に応じて、保持部材を用意すれば良い。そのため、先端部の外径が異なる場合であっても、同一の反射体を用いることができる。
 反射体は、1枚の反射面であることが好ましい。
 1枚の反射面を用いる場合、反射面の位置、大きさ、及び形状は、照明領域と撮像領域が視野を含むように設定されると良い。このようにすることで、反射体の構造が簡素であるにもかかわらず、高い精度で検査が行える。
 (第4例の反射体)
 反射体は、反射面の法線の向きを変える機構を有することが好ましい。
 図21は、第4例の反射体を示す図である。図21(a)は、検査対象物が導光部材の場合を示す図である。図21(b)は、検査対象物が内視鏡の場合を示す図である。
 図21(a)に示すように、反射体230は、第1回転機構231と、第2回転機構232とを有する。第1回転機構231には、反射板233が保持されている。反射板233は、反射面を有する。
 矢印R1で示すように、反射板233は、回転軸AXrの周りに移動する。第2回転機構232には、第1回転機構231が保持されている。矢印R2で示すように、第1回転機構231は、中心軸AXcの周りに移動する。その結果、反射面の法線の向きを変えることができる。
 反射体230では、導光部材を用いて検査が行われる。反射板233は、保持部材30と対向する。保持部材30には、導光部材92と、導光部材93と、が保持されている。導光部材92から射出された検査光と導光部材93から射出された検査光は、反射板233に照射される。
 反射面で反射された検査光はレンズ44を通過して、撮像素子43に入射する。撮像素子43から、検査光の光量分布特性に対応した信号が出力される。出力された信号に基づいて、検査光の画像を取得することができる。
 導光部材のなかには、照明の配光が狭い導光部材がある。照明の配光が狭い導光部材では、反射面の法線の向きが限られていると、十分な検査を行うことができない。反射体230であれば、第1回転機構231と第2回転機構232とで、反射面の法線の向きを連続的に変化させることができる。よって、照明の配光が狭い導光部材であっても、十分な検査を行うことができる。
 反射体230は、照明の配光が広い導光部材の検査にも用いることができる。反射体230を用いることで、検査の対象となる導光部材の種類を増やすことができる。
 図21(b)に示すように、反射体230’は、第1回転機構231と、第2回転機構232とを有する。第1回転機構231には、反射板233が保持されている。
 反射体230’では、内視鏡を用いて検査が行われる。反射体230’では、突起234が形成されている。先端部235と突起234が接触することで、反射体230’を先端部235に対して位置決めすることができる。
 内視鏡のなかには、照明の配光が狭い内視鏡がある。照明の配光が狭い内視鏡では、反射面の法線の向きが限られていると、十分な検査を行うことができない。反射体230’であれば、第1回転機構231と第2回転機構232とで、反射面の法線の向きを連続的に変化させることができる。よって、照明の配光が狭い内視鏡であっても、十分な検査を行うことができる。
 反射体230’は、照明の配光が広い内視鏡の検査にも用いることができる。反射体230’を用いることで、検査の対象となる内視鏡の種類を増やすことができる。
 反射体230と反射体230’では、反射面の法線の向きを変えながら検査が行われる。第1回転機構231と第2回転機構232を駆動するために、不図示の駆動力供給源が用意されている。また、検査を自動的に行う場合は、駆動タイミング通信ケーブルが用意される。
 (第5例の反射体)
 第1の反射体と、第2の反射体と、を有し、第1の反射体は、第1反射面を有し、第2の反射体は、第2反射面を有し、第1反射面と第2反射面は、検査光を撮像素子で撮像できる領域を有し、第2反射面の法線の向きは、第1反射面の法線の向きと異なることが好ましい。
 図22は、第5例の反射体を示す図である。図22(a)は、第1反射体を示す図である。図22(b)は、第1反射体で得られる画像を示す図である。図22(c)は、第2反射体を示す図である。図22(d)は、第2反射体で得られる画像を示す図である。
 図22(a)に示すように、第1反射体240は、第1反射面241を有する。第1反射面241は、検査光を撮像素子43で撮像できる領域を有する。第1反射面241の法線は、中心軸AXcと平行である。
 第1反射面241の法線の向きは、図17(b)に示す反射面203の法線の向きと同じである。よって、図22(b)に示すように、第1反射体241で得られる画像は、図18(b)と図18(d)に示す領域203’における画像と同様の画像になる。
 図22(c)に示すように、第2反射体242は、第2反射面243を有する。第2反射面243は、検査光を撮像素子43で撮像できる領域を有する。第2反射面243の法線は、中心軸AXcに対して傾いている。よって、第2反射面243の法線の向きは、第1反射面241の法線の向きと異なる。
 第2反射体242では、中心軸AXcに対する第2反射面243の傾斜角は、45°である。但し、傾斜角は45°に限られない。
 第2反射面243の法線の向きは、図17(b)に示す反射面205の法線の向きと同じである。よって、図22(d)に示すように、第2反射体242で得られる画像は、図18(b)と図18(d)に示す領域205’における画像と同様の画像になる。
 図22(b)に示す状態から、第2反射体242を中心軸AXcの周りに90°回転させることで、第2反射面243の法線の向きを、反射面206の法線の向き、又は、反射面207の法線の向きと同じにすることができる。
 第2反射面243の法線の向きを反射面204の法線の向きと同じにするには、図22(b)に示す状態から、第2反射体242を中心軸AXcの周りに180°回転させれば良い。
 第2反射体242を中心軸AXcの周りに回転させることで、第2反射面243の法線の向きを連続的に変化させることができる。
 以上、検査光に基づく画像の生成について説明した。検査光に基づく画像は、配光情報の算出に用いられる。算出された配光情報を用いて、解析が行われる。配光情報の解析について説明する。
 (配光情報の解析)
 本実施形態の配光検査装置では、配光情報算出部は、配光情報を解析して、光量と、配光分布と、を算出することが好ましい。
 画像生成部では、検査光に基づく画像が生成される。画像は、情報取得部に保存される。配光情報算出部では、検査光に基づく画像を用いて配光情報が算出される。検査光に基づく画像は、複数の画素で形成されている。複数の画素を解析することで、光量と配光分布を算出することができる。配光分布は、主軸とアスペクト比で表すことができる。
 解析結果の例を表1に示す。図9(a)に示す導光部材90と、図17(b)に示す反射体200が用いられの場合の解析結果である。
 方位角は反射面の法線の向き、傾き角は、中心軸AXcと法線とのなす角度である。第1射出面は射出面97、第2射出面は射出面98である。表1における数値は、光量を表している。合計は、総光量を表している。
Figure JPOXMLDOC01-appb-T000001
 第1射出面では、合計の値は14なので、総光量は14である。また、反射面203における光量が最大である。光量が最大となる面の法線の向きを主軸とすると、第1射出面における主軸は0°である。
 また、反射面204と反射面206を結ぶ方向をX方向、反射面205と反射面207を結ぶ方向をY方向とする。この場合、X方向における光量の合計値は5で、Y方向における光量の合計値は4である。よって、光量の分布では、X方向に若干の偏りがあるといえる。
 第2射出面では、合計値は50なので、総光量は50である。また、反射面203における光量が最大なので、第2射出面における主軸は0°である。
 また、X方向における光量の合計は15で、Y方向における光量の合計は20である。よって、光量の分布では、Y向に若干の偏りがあるといえる。
 各反射面における数値は、検査光に基づく画像における画素の数値を合計した結果である場合、各数値に基づいて求めた光量分布特性は不正確さを伴う。よって、各画素の数値から光量分布特性を推定することが好ましい。
 各画素の数値から光量分布特性を推定すると、X方向とY方向におけるアスペクト比は、第1反射面ではアスペクト比が3:1で、第2反射面ではアスペクト比が1:1である。
 光量は、以下の(B1)、(B2)、(B3)、(B4)のいずれかを用いて算出ことができる。
(B1)各画素の数値を合計する。
(B2)最大値。
(B3)最大値ら複数番目の数値。
(B4)最大値から降順に複数の数値を平均化する。
 検査では、照射位置を変えながら、検査光は照射領域に照射される。よって、検査光に基づく画像の位置は、画像が生成されるたびに変化する。光量と配光分布の算出では、全体画像における検査光に基づく画像の位置が、算出結果の正確さに影響する。
 導光部材に対する反射体の位置決めは、ほぼ正確に行われる。この場合、全体画像における検査光に基づく画像の位置は、予想された位置とおおよそ一致している。よって、検査光に基づく画像の位置が変化しても、検査光に基づく画像と入射位置情報との関連付は容易に行うことができる。
 内視鏡の先端部に対する反射体の位置決めは、ほぼ正確に行われる。しかしながら、内視鏡の種類によっては、内視鏡の先端部に対する反射体の位置決めが、やや不正確になる場合がある。この場合は、検査光に基づく画像に該当する画素を領域で規定しておき、その中での最大値等を取得しても良い。
 また、検査光に基づく画像における画素の数値が、信頼性の低い値になる場合がある。この場合、その数値を照明装置側にフィードバックして、照明光の明るさを調整する。次に、調整した後の照明光を用いて、検査光に基づく画像を生成し、画素の数値を改めて取得する。そして、取得した数値を光源光量に相当する値で除算して換算値を算出する。換算値を用いて、光量と配光分布を算出すると良い。
 次に、配光検査方法について説明する。
 (第1の配光検査方法)
 本実施形態の配光検査方法は、導光部の入射面を含む光束径を有する照明光から検査光を生成し、検査光は、導光部に入射される入射光であり、検査光に基づく画像を、検査光の入射位置に関する入射位置情報と関連付けて生成し、検査光に基づく画像と、入射位置情報に基づいて、配光情報を算出し、配光情報は、導光部から射出された検査光の配光特性に関する情報であることを特徴とする。
 図23は、第1の配光検査方法のフローチャートである。第1の配光検査方法は、ステップS10と、ステップS20と、ステップS30と、ステップS40と、ステップS50と、ステップS60と、ステップS70と、を有する。
 ステップS10では、照明光を生成する。
 配光検査では、検査光が用いられる。検査光を用いるために、照明光が生成される。図3に示すように、照明光LILLは、導光部61の入射面63を含む光束径を有する。
 ステップS20では、検査回数Nmを設定する。
 配光検査では、検査光LMEAの照射位置を変えながら、繰り返し、検査光LMEAが入射面63に照射される。検査光LMEAの照射は、検査光LMEAが入射面63の全体に照射されるまで行われる。
 検査回数Nmは、検査光LMEAの照射の照射回数である。検査回数Nmは、例えば、入射面63の面積を、検査光LMEAが照射される領域の面積で除算した時の値に基づいて設定することができる。
 ステップS30では、変数nの値に1を設定する。
 ステップS40では、検査光に基づく画像を、入射位置情報と関連付けて生成する。
 例えば、検査光を撮像素子で撮像することで、検査光に基づく画像を生成することができる。配光検査では、入射面63に対して、検査光LMEAの照射位置を変えている。照射位置を変えるたびに、検査光に基づく画像を生成される。
 照射位置は、特定することができる。照射位置は、検査光LMEAの入射位置を表している。検査光LMEAの入射位置に関する情報を入射位置情報とすると、検査光に基づく画像を、入射位置情報と関連付けて生成することができる。
 ステップS50では、画像及び入射位置情報に基づいて、配光情報を算出する。
 配光情報は、導光部から射出された検査光の配光特性に関する情報である。検査光に基づく画像では、検査光LMEAの光量分布特性が画像化されている。光量分布特性には、導光部61から射出された検査光LMEAの配光特性が含まれている。よって、検査光に基づく画像から、配光特性に関する情報を算出することができる。
 また、画像は入射位置情報と関連付けられている。よって、画像及び入射位置情報に基づいて、配光情報を算出することができる。
 上述のように、画像では、検査光の光量分布特性が画像化されている。画像から、光量分布特性を取得することができる。よって、入射位置情報と関連付けて、光量分布特性を取得することができる。
 ステップS60では、変数nの値が検査回数Nmと一致したか否かを判断する。
 判断結果がNOの場合は、ステップS70が実行される。判断結果がYESの場合は、処理が終了する。
 (判断結果がNOの場合:n≠Nm)
 ステップS70で、変数nの値に1を加算する。判断結果がNOの場合は、変数nの値が検査回数Nmと一致していない。変数nの値と検査回数Nmとの不一致は、検査光LMEAが入射面63の全体に照射されていないことを意味する。
 ステップS70が終わると、ステップS40に戻る。ステップS70で、変数nの値が1つ増えている。そのため、別の照射領域の位置ついて、ステップS40とステップS50が実行される。
 ステップS40とステップS50は、検査光LMEAが入射面63の全体に照射されるまで、繰り返し行われる。
 (判断結果がYESの場合:n=Nm)
 判断結果がYESの場合は、変数nの値が検査回数Nmと一致している。変数nの値と検査回数Nmとの一致は、検査光LMEAが入射面63の全体に照射されていることを意味する。
 このようにして、第1の配光検査方法では、検査光LMEAの照射位置を変えながら、配光情報の算出が行われる。配光情報は、導光部から射出された検査光の配光特性に関する情報である。
 第1の配光検査方法では、検査光は、照明光の一部であり、照射領域は、検査光が照射される領域であり、照射領域は、入射面よりも狭く、入射位置情報は、照射領域の位置に関する情報を含み、照射領域の位置を変えながら、画像の生成、画像と入射位置情報との関連付け、及び配光情報の算出を行うことが好ましい。
 ステップS10で生成された照明光は、検査光に用いられる。検査光は照明光の一部である。また、照射領域は、検査光が照射される領域である。
 上述のように、配光検査では、検査光LMEAの照射位置を変えながら、繰り返し、検査光LMEAが入射面63に照射される。よって、図14に示すように、検査光LMEAは、入射面63よりも狭い領域に照射される。照射領域は検査光LMEAが照射される領域なので、照射領域は入射面よりも狭い。
 入射位置情報は、検査光LMEAの入射位置に関する情報である。照射領域の位置は、検査光LMEAの入射位置を表している。よって、入射位置情報は、照射領域の位置に関する情報を含んでいる。
 ステップS40とステップS50が繰り返し行われることで、照射領域の位置を変えながら、検査光に基づく画像の生成、検査光に基づく画像と入射位置情報との関連付け、及び配光情報の算出が行われる。
 (第2の配光検査方法)
 本実施形態の配光検査方法は、配光情報を解析して、光量と、配光分布と、を算出し、検査光の入射位置、光量、及び配光分布を用いて関連付けを行うことが好ましい。
 図24は、第2の配光検査方法のフローチャートである。第2の配光検査方法と同じステップについては同じ番号を付し、説明は省略する。
 第2の配光検査方法は、第1の配光検査方法のステップを備えると共に、ステップS80と、ステップS90と、ステップS100と、ステップS110と、ステップS120と、ステップS130と、を有する。
 ステップS80では、検査回数Nmを設定する。
 第1の配光検査方法では、検査光に基づく画像が複数生成されている。第2の配光検査方法、検査光に基づく画像の各々に対して処理を行う。生成された検査光に基づく画像の数は、検査回数と同じである。よって、処理回数の設定に、検査回数Nmを用いることができる。
 ステップS90では、変数nの値に1を設定する。
 ステップS100では、配光情報を解析する。
 ステップS40では、検査光に基づく画像が生成される。ステップS50では、検査光に基づく画像を用いて配光情報が算出される。検査光に基づく画像は、複数の画素で形成されている。複数の画素を解析することで、光量と配光分布を算出することができる。
 ステップS110では、関連付けを行う。
 関連付けでは、検査光の入射位置、光量、及び配光分布が用いられる。照射領域の位置は、検査光の入射位置を表している。よって、関連付けでは、照射領域の位置、光量、及び配光分布を用いても良い。
 第1の配光検査方法と第2の配光検査方法では、検査光に基づく画像が生成される。検査光に基づく画像の生成方法について説明する。
 (検査光に基づく画像の生成方法)
 本実施形態の配光検査方法では、検査光に基づく画像の各々は、複数の反射面を有する反射体を撮像した画像の一部であり、反射体を撮像した画像は、複数の領域で形成され、複数の領域の各々は、複数の反射面の各々に対応する領域であることが好ましい。
 検査光に基づく画像では、反射体が用いられる。反射体には、例えば、図17(b)に示す反射体200を用いることができる。反射体200は、複数の反射面を有する。反射体200を撮像することで、反射体の200の全体画像が取得される。
 図18(b)と図18(d)に示すように、全体画像IMALL1と全体画像IMALL2には、検査光に基づく画像が含まれている。このように、検査光に基づく画像は、反射体を撮像した画像の一部である。
 また、全体画像IMALL1と全体画像IMALL2は、複数の領域で形成されている。複数の領域の各々は、複数の反射面の各々に対応する領域である。
 第2の配光検査方法では、光量が算出される。光量について説明する。
 (光量の方法)
 本実施形態の配光検査方法は、光量を、以下の(a)、(b)、(c)、(d)のいずれかを用いてを算出することが好ましい。
(a)各画素の数値を合計する。
(b)最大値。
(c)最大値ら複数番目の数値。
(d)最大値から降順に複数の数値を平均化する。
 ステップS100では、検査光の光量分布特性に関する情報として、光量が算出される。光量は、上述のように、(B1)、(B2)、(B3)、(B4)のいずれかを用いて算出ことができる。
 本実施形態の配光検査装置と本実施形態の配光検査方法では、配光情報が算出される。この配光情報は、内視鏡システムを用いて算出することができる。配光情報を算出できる内視鏡システムについて説明する。
 本実施形態の内視鏡システムは、光源と、光源からの出射光を制御する照明制御部と、を含む光源装置と、光源装置と接続可能であり、導光部を有する導光部材と、画像を取得する撮像部と、出射光に基づいて生成される照明光の配光情報が記憶されたメモリと、導光部と光学的に接続され、出射光に基づいて複数の照明光を各々出射する複数の出射部と、を含む内視鏡と、を備え、照明制御部は、メモリから取得した配光情報に基づいて、出射光を制御することによって、複数の出射部の少なくともいずれか一方から照射される照明光の配光を制御することを特徴とする。
 導光部は、入射面と、射出面と、を有する。以下、導光部が1つの入射面と2つの射出面を有する場合について、説明する。2つの射出面のうち、一方を第1射出面、他方を第2射出面とする。
 導光部が1つの射出面を有する場合については、第1射出面と第2射出面のどちらか一方のみが用いられていると見なせば良い。
 (第1例の内視鏡システム)
 図25は、第1例の内視鏡システムを示す図である。内視鏡システム300は、光源装置310と、内視鏡320と、を備える。
 光源装置310は、光源311と、照明制御部312と、を有する。照明制御部312は、光源311からの出射光を制御する。光源装置310は、遮光板313を有していても良い。
 内視鏡320は、導光部材340と、画像を取得する撮像部350と、メモリ330と、第1の出射部343と、第2の出射部344と、を有する。
 導光部材340は、光源装置310と接続可能であり、導光部341を有する。導光部341は、入射面342を有する。
 メモリ330には、出射光に基づいて生成される照明光の配光情報が記憶されている。
 第1の出射部343と第2の出射部344は、例えば、照明用のレンズである。第1の出射部343と第2の出射部344は、導光部341と光学的に接続されている。第1の出射部343と第2の出射部344の各々から、出射光に基づいて複数の照明光が射出される。
 照明制御部312では、メモリ330から取得した配光情報に基づいて、出射光が制御される。この制御によって、複数の出射部の少なくともいずれか一方から照射される照明光の配光が制御される。
 内視鏡システム300では、第1の出射部343から照射される照明光の配光と第2の出射部344から照射される照明光の配光の、少なくとも一方が制御される。
 内視鏡システム300は、制御装置360を備えることができる。制御装置360は、例えば、画像処理装置370を有する。
 内視鏡システム300では、光源装置310と内視鏡320は別体である。この場合、内視鏡システム300は、非ワイヤレス式の内視鏡と、光源装置と、を有する内視鏡システムと見なすことができる。
 内視鏡システム300では、光源装置310と内視鏡320が、アダプタを介して接続されている。また、撮像部350と制御装置360が、信号線で接続されている。
 (第2例の内視鏡システム)
 図26は、第2例の内視鏡システムを示す図である。内視鏡システム400は、光源装置410と、内視鏡420と、を備える。
 光源装置410は、光源411と、照明制御部412と、を有する。照明制御部412は、光源411からの出射光を制御する。光源装置410は、遮光板413と、通信ユニット480と、を有していても良い。
 内視鏡420は、導光部材440と、画像を取得する撮像部450と、メモリ430と、第1の出射部443と、第2の出射部444と、を有する。
 導光部材440は、光源装置410と接続可能であり、導光部441を有する。導光部441は、入射面342を有する。
 メモリ430には、出射光に基づいて生成される照明光の配光情報が記憶されている。
 第1の出射部443と第2の出射部444は、例えば、照明用のレンズである。第1の出射部443と第2の出射部444は、導光部441と光学的に接続されている。第1の出射部443と第2の出射部444の各々から、出射光に基づいて複数の照明光が射出される。
 照明制御部412では、メモリ430から取得した配光情報に基づいて、出射光が制御される。この制御によって、複数の出射部の少なくともいずれか一方から照射される照明光の配光が制御される。
 内視鏡システム400では、第1の出射部443から照射される照明光の配光と第2の出射部444から照射される照明光の配光の、少なくとも一方が制御される。
 内視鏡システム400は、制御装置460を備えることができる。制御装置460は、例えば、画像処理装置470を有する。
 内視鏡システム400では、光源装置410と挿入部420は一体である。この場合、内視鏡システム400は、ワイヤレス式内視鏡と見なすことができる。
 内視鏡システム400では、光源装置410と内視鏡420が、直接、接続されている。また、撮像部450の出力信号は、通信ユニット480から無線で制御装460に送信される。
 本実施形態の内視鏡システムでは、対応情報が記憶された別のメモリを有し、対応情報では、配光情報と配光制御の仕方が対応付けられており、配光情報と対応情報に基づいて、照明制御部が制御されることが好ましい。
 図25に示すように、内視鏡システム300は、メモリ331を備える。メモリ331には、対応情報が記憶されている。対応情報では、配光情報と配光制御の仕方が対応付けられている。
 配光情報は、検査光LMEAに基づく画像と、入射位置情報に基づいて算出される。入射位置情報は、検査光の入射位置に関する情報なので、配光情報は、検査光の入射位置と結びついている。
 後述のように、照明制御部312には、デジタルミラーデバイスを用いることができる。デジタルミラーデバイスでは、各々のミラー素子は、第1状態と第2状態のどちらか一方となるように制御される。第1状態での配光と、第2状態での配光は異なる。
 第1状態での配光と第2状態での配光は異なるので、配光制御の仕方をデジタルミラーデバイスで決めることができる。
 デジタルミラーデバイスでは、ミラー素子の位置が、検査光の入射位置と結びついている。よって、デジタルミラーデバイスを用いることで、配光制御の仕方と検査光の入射位置とを結びつけることができる。
 上述のように、配光情報は、検査光の入射位置と結びついている。よって、検査光の入射位置を用いて、配光情報と配光制御の仕方を対応付けることができる。
 内視鏡システム300では、光源装置310と内視鏡320が、アダプタを介して接続されている。光源装置310と内視鏡320が接続されると、メモリ330に記憶された配光情報が、光源装置310で読みだされる。読みだされた配光情報と、メモリ331に記憶されている対応情報を用いて、照明制御部312が制御される。
 本実施形態の内視鏡システムでは、光源装置から、照明光が射出され、検査光は、照明光の一部であり、照射領域は、検査光が照射される領域であり、照射領域は、入射面よりも狭く、入射位置情報は、照射領域の位置に関する情報を含み、照射領域の位置を変えながら、画像の生成、画像と入射位置情報との関連付け、及び配光情報の算出を行うことが好ましい。
 検査光について、内視鏡システム300を用いて説明する。光源装置310では、照明光LILLが生成される。生成された照明光LILLは、光源装置310から射出される。照明光LILLの一部は、検査光LMEAとして入射面342に照射される。
 照明光LILLは、入射面342を含む光束径を有する。配光検査時、照明光LILLは、照明制御部312によって、入射面342に向かう光と、遮光板313に向かう光に分けられる。
 入射面342に向かう光は、検査光LMEAとして用いられる。検査光LMEAは、照明光LILLの一部であるので、検査光LMEAは、入射面342よりも狭い領域に照射される。
 検査光LMEAを入射面342に照射することで、第1の射出面343から検査光LMEA1が射出され、第2の射出面344から検査光LMEA2が射出される。
 検査光LMEA1と検査光LMEA2は、例えば、図17(a)に示す反射体200を用いることで、撮像部350に入射させることができる。その結果、第1の画像と第2の画像が生成される。
 第1の画像は、第1の射出面343から射出された検査光LMEA1に基づく画像である。第2の画像は、第2の射出面344から射出された検査光LMEA2に基づく画像である
 検査光LMEAが照射される領域の位置が、入射位置情報として取得される。第1の画像は、入射位置情報と関連付けて生成される。また、第2の画像は、入射位置情報と関連付けて生成される。
 第1の画像と入射位置情報に基づいて、第1の配光情報が算出される。第2の画像と入射位置情報に基づいて、第2の配光情報が算出される。
 第1の配光情報は、第1の射出面343から射出された検査光LMEA1の配光特性に関する情報である。第2の配光情報は、第2の射出面344から射出された検査光LMEA2の配光特性に関する情報である。
 検査では、入射面342に対する照射領域の位置を変えながら、繰り返し、検査光LMEAが入射面342に照射される。検査光LMEAの照射は、検査光LMEAが入射面342の全体に照射されるまで行われる。
 領域の位置を変えながら、第1の画像の生成、第2の画像の生成、第1の画像と第1の入射位置情報との関連付け、第2の画像と第2の入射位置情報との関連付け、第1の配光情報の算出、及び第2の配光情報の算出を行う。第1の配光情報と第2の配光情報は、メモリ330に記憶される。
 図25では、メモリ331は、光源装置310に配置されている。しかしながら、メモリ331は、制御装置360に配置されていても良い。
 本実施形態の内視鏡システムでは、照明制御部は、デジタルミラーデバイスであり、配光情報を解析して、光量と、配光分布と、を算出することが好ましい。
 照明制御部312と照明制御部412に、デジタルマイクロミラーを用いることができる。照明制御部312にデジタルマイクロミラーを用いることで、照明光LILLを、効率良く、容易に、入射面342に向かう光と、遮光板313に向かう光とに分けることができる。
 その結果、内視鏡システム300では、入射面342に対する照射領域の位置を変えながら、繰り返し、検査光LMEAを入射面342に照射することができる。内視鏡システム400についても、同様である。
 第1の配光情報は、第1の画像を用いて算出される。第1の画像は、複数の画素で形成されている。複数の画素を解析することで、第1の光量と第1の配光分布を算出することができる。
 第2の配光情報は、第2の画像を用いて算出される。第2の画像は、複数の画素で形成されている。複数の画素を解析することで、第2の光量と第2の配光分布を算出することができる。
 検査光の画像の各点における位置を、被写体の画像上の位置に変換する方法について説明する。被写体は、撮像部で撮像する物体である。
 (第1の変換方法)
 本実施形態の内視鏡システムは、画像処理回路を有し、画像処理回路では、撮像部で取得された被写体の画像に基づいて、画像における各点の位置が、被写体の画像上の位置に変換されることが好ましい。
 図27は、撮像状態と画像を示す図である。図27(a)は、被写体の撮像を示す図である。図27(b)は、被写体の画像を示す図である。図27(c)は、反射体の撮像を示す図である。図27(d)は、反射体の画像を示す図である。
 図27(a)に示すように、被写体500を内視鏡システム510で撮像することができる。図27(b)に示すように、撮像によって、被写体500の画像520が取得される。
 領域501では、内視鏡システム510から被写体500までの距離が短い。この場合、領域501は、非常に明るく照明される。そのため、画像520では、領域501に対応する画像521は、真っ白な画像になる。
 領域502では、内視鏡システム510から被写体500までの距離長い。この場合、領域502は、非常に暗く照明される。そのため、画像520では、領域502に対応する画像522は、真っ黒な画像になる。
 画像521のコントラストを適切にするためには、領域501に照射される照明光の光量を少なくすれば良い。
 図27(c)に示すように、反射体600を内視鏡システム510で撮像すると、図27(d)に示す全体画像620が取得される。全体画像620には、反射領域610の画像であって、検査光に基づく画像が含まれている。
 画像520と全体画像620は、共に内視鏡システム510を用いて取得されている。よって、画像520と全体画像620を重ね合わせることで、領域501が領域621に位置していることが分かる。
 領域621には、第1の画像621I1と第2の画像621I2が含まれている。第1の画像621I1と第2の画像621I2は、同じ検査光から生成されている。
 導光部材の入射面における検査光が照射される領域の位置は、入射位置情報に含まれている。そこで、入射位置情報に基づいて、その位置の領域に、照明光が照射されないようにする。これにより、領域501に照射される照明光の光量を少なくできる。
 しかしながら、被写体500と反射体600とでは、凹部の形状と、凹部の深さが異なる。また、内視鏡システム510から被写体500までの距離と、内視鏡システム510から反射体600までの距離と、が異なる。よって、入射位置情報に基づいて、その位置に照明光が照射されないようにしても、領域501に照射される照明光の光量を少なくできるとはいえない。
 内視鏡システム510は,画像処理装置511を備えている。画像処理装置511では、画像520に基づいて、第1の画像621I1における各点と第2の画像621I2における各点について、画像520における対応する点を求める。すなわち、第1の画像621I1における各点の位置と第2の画像621I2における各点の位置を、画像520における位置に変換する。
 このようにすることで、第1の画像621I1と第2の画像621I2が、画像520でどこに位置しているかが分かる。逆に、画像520が、第1の画像621I1と第2の画像621I2でどこに位置しているかが分かる。
 第1の画像と第2画像は、複数取得されている。よって、領域501に位置する第1の画像と第2画像を特定することができる。
 全体画像620における各点について、画像520における対応する点を求めても良い。すなわち、全体画像620における各点の位置を、画像520における位置に変換しても良い。このようにすることで、領域501が、全体画像620でどこに位置しているかが分かる。
 領域501に対応する領域の位置が全体画像620で分かると、その位置における検査光の画像の入射位置情報から、導光部材の入射面における検査光が照射される領域の位置が分かる。よって、その位置の領域に照明光が照射されないようにすることで、領域501に照射される照明光の光量を少なくすることができる。
 内視鏡システム510では、導光部材として、導光部材90が用いられている。しかしながら、導光部材として、導光部材60を用いることができる。この場合、検査光に基づく画像の数は1つである。これは、内視鏡システム510において、第1の画像だけが用いられるか、又は、第2の画像だけが用いられるものとみなせば良い。
 (第2の変換方法)
 本実施形態の内視鏡システムは、像処理回路を有し、画像処理回路では、予め作成された被写体距離パターン、又は現状の被写体距離パターンに基づいて、画像における各点の位置が、物体の画像上の位置に変換され、撮像部で取得した複数の被写体の画像を解析することで、現状の被写体距離パターンが取得されることが好ましい。
 内視鏡システムでは、撮像部で、被写体、又は物体が撮像される。撮像によって、被写体の画像、又は物体の画像が得られる。画像は、観察に用いることができる。
 観察する被写体は、内視鏡の種類に応じて異なる。ただし、同じ種類の内視鏡では、被写体の形状は、ほぼ同じである。よって、予め作成された被写体距離パターンを設定して、位置の変換を行うことができる。
 予め作成された被写体距離パターンは、仮想被写体である。仮想被写体から得た画像に基づいて、第1の画像における各点の位置と第2の画像における各点の位置を、仮想被写体から得た画像おける位置に変換することができる。
 予め作成された被写体距離パターンは、ドーム状の物体を用いることができる。ドーム状の物体では、例えば、ドームの中心から内視鏡システムまでの距離を50mmとし、ドームの周辺から内視鏡システムまでの距離を20mmとすれば良い。
 予め作成された被写体距離パターンでは、観察装置までの距離は実測されていないが、観察装置までの距離が分かっている。そのため、距離情報に基づいて、位置の変換を行うことができる。そのため、正確に位置の変換を行うことができる。
 現状の被写体距離パターンは、仮想被写体である。仮想被写体から得た画像に基づいて、第1の画像における各点の位置と第2の画像における各点の位置を、仮想被写体から得た画像おける位置に変換することができる。
 内視鏡システムは、内視鏡として使用することができる。内視鏡による被写体の撮像では、挿入部の先端部を被写体に対して動かす。先端部にセンシングデバイスを配置することで、先端部の動きに関する情報が得られる。現状の被写体距離パターンは、センシングデバイスからの情報に基づいて設定することができる。
 また、挿入部の先端部に、測距デバイスを配置しても良い。測距デバイスを用いることで、被写体までの距離を実測することができる。
 現状の被写体距離パターンでは、観察装置までの距離が測定されている。そのため、距離情報に基づいて、位置の変換を行うことができる。そのため、より正確に位置の変換を行うことができる。
 内視鏡による被写体の撮像では、挿入部の先端部を被写体に対して動かす。先端部を動かしている間も撮像は行われるため、複数の被写体の画像を取得することができる。取得した被写体の画像の変化を解析することで、現状の被写体距離パターンを設定することができる。
 以上、位置の変換について説明した。位置の変換が行われると、変換された位置の情報に基づいて、補正対象領域の照明光の明るさを調整することができる。補正対象領域は、照明光の明るさの調整が必要な領域である。照明光の明るさの調整について説明する。
 (照明光の明るさの調整1)
 本実施形態の内視鏡システムでは、撮像部で取得された被写体の画像から、補正対象領域を抽出し、補正対象領域の画像の明るさが所定の明るさとなるように、検査光が照射される領域を決定することが好ましい。
 上述のように、第1の画像における各点の位置と第2の画像における各点の位置は、被写体の画像上の位置に変換される。その結果、被写体の画像上において、第1の画像の位置と第2の画像の位置を特定することができる。
 第1の画像と第2の画像は、同じ検査光から生成されている。よって、特定した第1の画像の入射位置情報から、導光部材の入射面における検査光が照射される領域の位置が分かる。その位置の領域に照明光が照射されないようにすることで、被写体における補正対象領域に照射される照明光の光量を調整することができる。
 被写体の画像において、補正対象領域を抽出する。補正対象領域の明るさの目標値V(x,y)を決定する。目標値V(x,y)は、被写体の画像全体の明るさに対して補正対象領域の明るさが適正となるように設定する。
 補正対象領域に位置する第1の画像と第2の画像を抽出する。抽出された第1の画像と第2の画像は、位置の変換が行われた後の画像である。
 位置の変換が行われる前の第1の画像では光量Up1(m,n)が算出され、第2の画像では光量Up2(m,n)が算出されている。位置の変換を行うことで、光量Up1(m,n)は光量Up1(x,y)に変換され、光量Up2(m,n)は光量Up2(x,y)に変換される。
 光量Up1(x,y)と光量Up2(x,y)の合計が、目標値V(x,y)となるべく一致するように、第1の画像と第2の画像を選定する。このようにすることで、補正対象領域の画像の明るさを、所定の明るさにすることができる。所定の明るさはでは、被写体の画像全体の明るさに対して補正対象領域の明るさが適正となる。選定する第1の画像の数と第2の画像の数は複数であっても良い。
 選定された第1の画像には、入射位置情報が関連付けられている。入射位置情報に基から、導光部材の入射面における検査光が照射される領域の位置が特定される。特定した領域に照明光が照射されないようにする。これにより、補正対象領域の明るさを適正にすることができる。
 (照明光の明るさの調整2)
 本実施形態の内視鏡システムでは、複数の比較用画像と撮像部で取得された被写体の画像から、領域が決定され、複数の比較用画像は、領域の位置を変えて、予め取得された画像であることが好ましい。
 検査光が照射される領域の位置を変えると、様々なパターンの第1の画像と第2の画像を取得することができる。第1の画像と第2の画像の各々から、光量と配光分布が算出される。光量と配光分布から、各パターンにおいて、明るい照明が行われる領域が分かる。
 第1の画像と第2の画像は、予め取得することができる。予め取得した第1の画像と第2の画像は、比較用画像として用いることができる。
 撮像部で取得された被写体の画像に、補正対象領域が存在する場合、撮像部で取得された被写体の画像と比較用画像から、補正対象領域で明るい照明が行われる第1の画像と第2の画像を選定することができる。
 選定された第1の画像には、入射位置情報が関連付けられている。入射位置情報に基から、導光部材の入射面における検査光が照射される領域の位置が特定される。特定した領域に照明光が照射されないようにする。これにより、補正対象領域の明るさを適正にすることができる。
 このようにすると、リアルタイムの計算はほとんど不要のため、処理時間が短くすることができる。
 (照明光の明るさの調整3)
 本実施形態の内視鏡システムでは、補正対象領域を複数の補正領域に分割し、補正領域における所定の明るさが、補正領域の平均的な明るさにとなるように、領域を決定することが好ましい。
 光量Up1(x,y)、光量Up2(x,y)、及び目標値V(x,y)を用いた調整では、計算量が多い。そこで、目標値V’(x,y)を設定する。目標値V’(x,y)は、補正領域に含まれる画素を用いて算出した平均的な明るさである。
 補正領域の数は、補正対象領域に含まれる画素数より少ない。よって、計算量を少なくすることができる。
 光量についても、補正領域に対応させて、光量Up1’(x,y)、光量Up2’(x,y)とする。光量Up1’(x,y)と光量Up2’(x,y)も、複数の画素を用いて算出した平均的な光量である。
 このようにすることで、画像処理装置における計算の負荷を軽減させることができる。その結果、処理回路の低コスト化と、処理の迅速化を実現することができる。
 (照明光の明るさの調整4)
 本実施形態の内視鏡システムでは、撮像部で取得された被写体の画像から補正対象領域を抽出し、補正対象領域は、最大値を有する画素からなる領域と、最小値を持つ画素からなる領域と、を含まず、補正対象領域の画像の明るさが所定の明るさとなるように、領域を決定することが好ましい。
 最大値を有する画素からなる領域では、白飛びが発生している。最小値を持つ画素からなる領域では、黒つぶれが生じている。これらの領域を含まない領域を補正対象領域とする。
 撮像部で取得された被写体の画像が、補正対象領域と、最大値を有する画素からなる領域と、を有する場合、補正対象領域に含まれる画像の値が小さくなるように、領域を決定する。撮像部で取得された被写体の画像が、補正対象領域と、最小値を有する画素からなる領域と、を有する場合、補正対象領域に含まれる画像の値が大きくなるように、領域を決定する。
 このようにすることで、特に明るさ補正が必要な部分のみ補正することができるため、シンプルなプロセスで配光制御できる。その結果、短い時間で、安価で、迅速に処理を行うことができる。
 最大値を有する画素からなる領域と、最小値を持つ画素からなる領域を、補正対象領域にしても良い。
 補正対象良領域と非補正対象領域の境界での明るさの変換違和感が生じないよう、境界付近の明るさの補正を画像処理で行っても良い。このようにすることで、使用者の視覚的ストレスが改善される。
 また、{V(x,y)-Σ(Up(x,y)×qp)2が最小となるようqpを算出しても良い。算出では、非線形最小二乗法、Gauss-Newton法、又はLevenberg-Marquardt法を用いることができる。
 以上、1つの光源を用いた場合について説明した。しかしながら、複数の光源を用いても良い。複数の光源を有する内視鏡システムについて説明する。
 本実施形態の内視鏡システムでは、複数の出射部は、第1の出射部と、第2の出射部と、を有し、第1の出射部と第2の出射部から、通常観察用の第1の照明光が照射され、第1の出射部と第2の出射部から、特殊光観察用又は所定の処置に用いられる第2の照明光が照射され、メモリから取得した第1の照明に関する配光情報に基づいて、第1の照明光の配光が制御されることが好ましい。
 (第3例の内視鏡システム)
 図28は、第3例の内視鏡システムを示す図である。内視鏡システム700は、光源装置710と、内視鏡720と、を備える。
 光源装置710は、第1光源711と、第2光源712と、ダイクロイックミラー713と、照明制御部714と、を有する。
 内視鏡720は、導光部材740と、第1波長変換ユニット750と、第2波長変換ユニット760と、を有する。第1波長変換ユニット750は第1の出射部、第2波長変換ユニット760は第2の出射部である。
 内視鏡720は、図25に示す内視鏡320と同様に、撮像部とメモリを有する。ただし、図28では、撮像部とメモリは図示されていない。
 導光部材740は、導光部741を有する。入射端面側では、導光部741は、入射面742を有する。射出端面側では、導光部材740は、導光部材743と導光部材744に分かれている。
 導光部材743と導光部材744は、各々、導光部を有する。導光部材743の導光部と導光部材744の導光部は、射出面を有する。
 導光部材743の射出面側に、第1波長変換ユニット750が配置されている。導光部材744射出面側に、第2波長変換ユニット760が配置されている。
 第1波長変換ユニット750は、第1保持部材751と、第1反射部材752と、第1波長変換部材753と、を有する。また、第2波長変換ユニット760は、第2保持部材761と、第2反射部材762と、第2波長変換部材763と、を有する。
 第1光源711と第2光源712は、レーザーである。内視鏡システム700では、照明光にレーザー光が用いられている。
 第1光源711では、レーザー光LILL1の波長は460nmである。よって、レーザー光LILL1は、青色の光である。第2光源712では、レーザー光LILL2の波長は415nmである。よって、レーザー光LILL2は、紫青色の光である。
 第1光源711から、レーザー光LILL1が射出される。レーザー光LILL1は、ダイクロイックミラー713に入射する。ダイクロイックミラー713は、青色の光を透過する光学特性を有する。よって、レーザー光LILL1は、ダイクロイックミラー713を透過する。
 レーザー光LILL1は、照明制御部714に入射する。照明制御部714には、デジタルミラーデバイスが用いられている。よって、レーザー光LILL1は、デジタルミラーデバイスで反射され、導光部741に入射する。
 導光部741に入射したレーザー光LILL1は、導光部材743と導光部材744から射出する。導光部材743から射出されたレーザー光LILL1は、第1波長変換部材753に入射する。導光部材744から射出されたレーザー光LILL1は、第2波長変換部材763に入射する。
 第2光源712から、レーザー光LILL2が射出される。レーザー光LILL2は、ダイクロイックミラー713に入射する。ダイクロイックミラー713は、紫青色の光を反射する光学特性を有する。よって、レーザー光LILL2は、ダイクロイックミラー713で反射される。
 レーザー光LILL2は、照明制御部714に入射する。照明制御部714には、デジタルミラーデバイスが用いられている。よって、レーザー光LILL2は、デジタルミラーデバイスで反射され、導光部741に入射する。
 導光部741に入射したレーザー光LILL2は、導光部材743と導光部材744から射出する。導光部材743から射出されたレーザー光LILL2は、第1波長変換部材753に入射する。導光部材744から射出されたレーザー光LILL2は、第2波長変換部材763に入射する。
 第1波長変換部材753と第2波長変換部材763に、YAG:Ce蛍光体を用いることができる。YAG:Ce蛍光体は、Ce賦活のYAGの蛍光体である。Ceはセリウムを表し、YAGは、イットリウム、アルミニウム、ガーネットを表している。
 励起光Ceを、YAG:Ce蛍光体における励起光とする。また、蛍光Ceを、YAG:Ce蛍光体における蛍光とする。
 YAG:Ce蛍光体に励起光Ceを入射させると、一部の励起光CeはYAG:Ce蛍光体を透過し、残りの励起光CeはYAG:Ce蛍光体で吸収される。吸収された励起光Ceによって、YAG:Ce蛍光体から蛍光Ceが放出される。その結果、YAG:Ce蛍光体から、励起光Ceと蛍光Ceが射出される。
 (白色光による観察:通常観察)
 第1光源711を点灯し、第2光源712を消灯した場合について説明する。第1光源711を点灯すると、第1光源711から、レーザー光LILL1が射出される。第2光源712からレーザー光LILL2は射出されないので、第1波長変換部材753と第2波長変換部材763には、レーザー光LILL1だけが入射する。
 上述のように、レーザー光LILL1の波長は460nmである。460nmの波長は、励起光Ceの波長域に含まれている。そのため、レーザー光LILL1は、励起光Ceとして作用する。その結果、第1波長変換部材753と第2波長変換部材763から、第1の照明光として、レーザー光LILL1と蛍光Ceが射出される。
 レーザー光LILL1は青色の光である。蛍光Ceは黄色の光である。よって、第1波長変換部材753と第2波長変換部材763から白色光が射出される。その結果、白色光による観察を行うことができる。
 (狭帯域光による観察:特殊光観察)
 第1光源711を消灯し、第2光源712を点灯した場合について説明する。第2光源712を点灯すると、第2光源712から、レーザー光LILL2が射出される。第1光源711からレーザー光LILL1は射出されないので、第1波長変換部材753と第2波長変換部材763にレーザー光LILL2だけが入射する。
 上述のように、レーザー光LILL2の波長は415nmである。415nmの波長は、励起光Ceの波長域には含まれていない。そのため、レーザー光LILL2は、励起光Ceとして作用しない。よって、第1波長変換部材753と第2波長変換部材763から、第2の照明光として、レーザー光LILL2だけが射出される。
 レーザー光LILL2は青紫色の光である。よって、第1波長変換部材753と第2波長変換部材763から青紫色の光が射出される。その結果、例えば、狭帯域光による特殊光観察を行うことができる。
 第1波長変換部材753と第2波長変換部材763に、YAG:Ce蛍光体とSrAlO:Eu蛍光体を含む蛍光体を用いることができる。SrAlO:Eu蛍光体は、Eu賦活のSrAl24の蛍光体である。Euはユーロピウムを表し、SrAl24は、アルミン酸ストロンチウムを表している。
 励起光Euを、SrAlO:Eu蛍光体における励起光とする。また、蛍光Euを、SrAlO:Eu蛍光体における蛍光とする。
 SrAlO:Eu蛍光体に励起光Euを入射させると、一部の励起光EuはSrAlO:Eu蛍光体を透過し、残りの励起光EuはSrAlO:Eu蛍光体で吸収される。吸収された励起光Euによって、SrAlO:Eu蛍光体から蛍光Euが放出される。その結果、SrAlO:Eu蛍光体から、励起光Euと蛍光Euが射出される。
 第1光源711を点灯し、第2光源712を消灯した場合、第1波長変換部材753と第2波長変換部材763にレーザー光LILL1だけが入射する。
 上述のように、レーザー光LILL1の波長は460nmである。そして、460nmの波長は、励起光Ceの波長域に含まれている。そのため、レーザー光LILL1は、励起光Ceとして作用する。これに対して、460nmの波長は、励起光Euの波長域に含まれていない。そのため、レーザー光LILL1は、励起光Euとして作用しない。その結果、第1波長変換部材753と第2波長変換部材763から、第1の照明光として、レーザー光LILL1と蛍光Ceが射出される。
 レーザー光LILL1は青色の光である。蛍光Ceは黄色の光である。よって、第1波長変換部材753と第2波長変換部材763から白色光が射出される。その結果、白色光による観察を行うことができる。
 第2光源712を点灯し、第1光源711を消灯した場合、第1波長変換部材753と第2波長変換部材763にレーザー光LILL2だけが入射する。
 上述のように、レーザー光LILL2の波長は415nmである。そして、415nmの波長は、励起光Euの波長域に含まれている。そのため、レーザー光LILL2は、励起光Euとして作用する。これに対して、415nmの波長は、励起光Ceの波長域に含まれていない。そのため、レーザー光LILL2は、励起光Ceとして作用しない。その結果、第1波長変換部材753と第2波長変換部材763から、第2の照明光として、レーザー光LILL2と蛍光Euが射出される。
 レーザー光LILL2は青紫色の光である。蛍光Euは緑色の光である。よって、第1波長変換部材753と第2波長変換部材763から青紫色の光と緑色の光が射出される。青紫色の光と緑色の光は、ヘモグロビンの吸収波長とほぼ一致している。そのため、血管をコントラスト良く観察することができる。
 内視鏡システム700では、メモリから取得した第1の照明光の配光情報に基づいて、第1の照明光の配光が制御される。上述のように、第1の照明光は、白色光である。よって、白色光による観察において、照明光の明るさを適正にすることができる。
 (第4例の内視鏡システム)
 図29は、第4例の内視鏡システムを示す図である。図28と同じ構成については同じ番号を付し、説明は省略する。
 内視鏡システム800は、光源装置810と、内視鏡820と、を備える。
 光源装置810は、第1光源711と、第2光源712と、ダイクロイックミラー713と、照明制御部714と、第3光源811と、ダイクロイックミラー812と、を有する。
 内視鏡820は、導光部材840と、第3波長変換ユニット850と、第2波長変換ユニット760と、を有する。第3波長変換ユニット850は第1の出射部、第2波長変換ユニット760は第2の出射部である。
 内視鏡820は、図25に示す内視鏡320と同様に、撮像部とメモリを有する。ただし、図29では、撮像部とメモリは図示されていない。
 導光部材840は、導光部841を有する。入射端面側では、導光部841は、入射面842を有する。射出端面側では、導光部材840は、導光部材843と導光部材844に分かれている。
 導光部材843と導光部材844は、各々、導光部を有する。導光部材843の導光部と導光部材844の導光部は、射出面を有する。
 導光部材843の射出面側に、第3波長変換ユニット850が配置されている。導光部材844射出面側に、第2波長変換ユニット760が配置されている。
 第3波長変換ユニット850は、第3保持部材851と、第3反射部材852と、第3波長変換部材853と、を有する。また、第2波長変換ユニット760は、第2保持部材761と、第2反射部材762と、第2波長変換部材763と、を有する。
 第3光源811は、YAGレーザーである。第1光源811では、レーザー光LILL3の波長は1064nmである。レーザー光LILL3は、照明には用いられない。
 第3光源811から、レーザー光LILL3が射出される。レーザー光LILL3は、ダイクロイックミラー812に入射する。ダイクロイックミラー812は、赤外光を反射する光学特性を有する。よって、レーザー光LILL3は、ダイクロイックミラー812で反射される。
 ダイクロイックミラー812は、赤外光の波長よりも短い波長の光を透過する光学特性を有する。よってレーザー光LILL1とレーザー光LILL2は、ダイクロイックミラー812を透過する。
 レーザー光LILL3は、照明制御部714に入射する。照明制御部714には、デジタルミラーデバイスが用いられている。よって、レーザー光LILL3は、デジタルミラーデバイスで反射され、導光部841に入射する。
 入射面842におけるレーザー光LILL3の入射範囲は、デジタルミラーデバイスを制御することで自由に設定できる。よって、導光部材843だけからレーザー光LILL3を射出させることができる。
 導光部材843から射出されたレーザー光LILL3は、第3波長変換部材853に入射する。第3波長変換部材853に、YAG:Ce蛍光体を用いることができる。
 第1光源711を点灯し、第2光源712と第3光源811を消灯した場合について説明する。第1光源711を点灯すると、第3波長変換部材853と第2波長変換部材763にレーザー光LILL1が入射する。
 第3波長変換部材853と第2波長変換部材763には、YAG:Ce蛍光体が用いられている。そのため、第3波長変換部材853と第2波長変換部材763から、第1の照明光として、レーザー光LILL1と蛍光Ceが射出される。その結果、白色光による観察を行うことができる。
 第3光源811を点灯し、第1光源711と第2光源712を消灯した場合について説明する。第3光源811を点灯すると、第3波長変換部材853と第2波長変換部材763にレーザー光LILL3が入射する。
 上述のように、レーザー光LILL3の波長は1064nmである。1064nmの波長は、励起光Ceの波長域には含まれていない。そのため、レーザー光LILL3は、励起光Ceとして作用しない。よって、第3波長変換部材853と第2波長変換部材763から、第2の照明光として、レーザー光LILL3だけが射出される。
 レーザー光LILL3は、YAGレーザーから射出されたレーザー光である。YAGレーザーから射出されたレーザー光は、被写体の焼灼、凝固、蒸散等の処置(以下、「所定の処置」という)に用いられる。よって、レーザー光LILL3を、所定の処置に用いることができる。
 所定の処置を行うためには、高エネルギーのレーザー光LILL3を、処置を行う場所に照射しなくてはならない。レーザー光LILL3は、第3波長変換部材853から射出される。このとき、レーザー光LILL3が第3波長変換部材853で大きく拡散されると、高いエネルギーを確保することができない。
 第3波長変換部材853は、蛍光粒子と拡散粒子を有する。第2波長変換部材763も、蛍光粒子と拡散粒子を有する。内視鏡システム800では、蛍光粒子の密度と拡散粒子の密度の少なくとも一方が、第3波長変換部材853と第2波長変換部材763とで異なる。そのため、光の拡散度合いが、第3波長変換部材853と第2波長変換部材763とで異なる。
 具体的には、第3波長変換部材853における光の拡散度合いは、第2波長変換部材76における光の拡散度合いよりもかなり小さい。そのため、第3波長変換部材853から射出されるレーザー光LILL3は、第3波長変換部材853を透過しても、あまり拡散されない。その結果、レーザー光LILL3を用いて、所定の処置を行うことができる。
 内視鏡システム800では、デジタルミラーデバイスの全面に、レーザー光LILL3を入射させている。しかしながら、限られた範囲に、レーザー光LILL3を入射させても良い。限られた範囲は、導光部材843だけからレーザー光LILL3を射出させることができる範囲である。
 内視鏡システム800では、メモリから取得した第1の照明光配光情報に基づいて、第1の照明光の配光が制御される。上述のように、第1の照明光は、白色光である。よって、例えば、白色光による通常観察において、照明光の明るさを適正にすることができる。
 (第6例の反射体)
 図30は、第6例の反射体を示す図である。図30(a)は、第1タイプの反射体を示す図である。図30(b)は、第2タイプの反射体を示す図である。
 配光検査装置と内視鏡システムでは、被写体に複数方向から照明光が照射される。照明光の中心の位置は、被写体までの距離に応じて異なる。そのため、例えば、2つの方向から照明光が照射されている場合、一方の照明光の中心と他方の照明光の中心との間隔は、被写体までの距離に応じて異なる。
 画像は、被写体に複数方向から照明光が照射された状態で取得される。よって、画像においても、一方の照明光の中心と他方の照明光の中心との間隔は、被写体までの距離に応じて異なる。また、画像では、被写体のサイズも、被写体までの距離に応じて異なる。
 被写体までの距離が変化すると、被写体上における照明光の光量分布特性が、一方の照明光と他方の照明光の両方で変化する。また、被写体のサイズが変化した場合も、同様である。光量分布特性の変化は、画像にも生じる。よって、被写体に応じて配光が調整された照明を行うためには、被写体までの距離に応じて、配光情報を取得しておくことが好ましい。
 被写体までの距離に応じた配光情報は、例えば、反射体900と反射体910を用いることで取得することができる。
 反射体900は、図30(a)に示すように、反射面901を有する。反射体900は、反射面901の周りに傾斜面を有する。傾斜面の角度は、反射面901の法線に対して45度である。反射体900では、反射面901と傾斜面とで、反射領域が形成されている。距離Δ1は、内視鏡先端部から反射面901までの距離である。
 反射体910は、図30(b)に示すように、反射面911を有する。反射体910は、反射面911の周りに傾斜面を有する。傾斜面の角度は、反射面911の法線に対して45度である。反射体910は、反射面911と傾斜面とで、反射領域が形成されている。距離Δ2は、内視鏡先端部から反射面911までの距離である。
 反射体900における傾斜面の角度と、反射体910における傾斜面の角度は、同じである。ただし、反射体900における傾斜面の角度と、反射体910における傾斜面の角度は、異なっていても良い。
 距離Δ2は、距離Δ1よりも長い。距離Δ2と距離Δ1は、内視鏡先端部から被写体までの距離と見なすことができる。よって、反射体900と反射体910を用いることで、被写体までの距離に応じた配光情報を取得することができる。
 反射体900を用いて取得した配光情報と、反射体910を用いて取得した配光情報は、メモリに保存される。その結果、メモリから取得した配光情報に基づいて、出射光を制御することができる。
 本実施形態の内視鏡システムは、被写体までの距離を検出する距離計測部を更に備え、照明制御部は、配光情報のうち、検出された被写体までの距離に対応した配光情報を用いて、被写体までの距離に応じて照明光の配光を変更することが好ましい。
 メモリから配光情報を取得するためには、被写体までの距離の情報が必要である。そのため、内視鏡システムは、被写体までの距離を検出する距離計測部を有する。
 例えば、照明光量が大きくても、画像における被写体の明るさが暗い場合は、被写体までの距離が長い。よって、照明光量と画像の明るさの関係から、被写体までの距離を検出すことができる。
 メモリには、複数の配光情報が保存されている。複数の配光情報の各々で、被写体までの距離が異なる。被写体までの距離を検出できると、メモリから、被写体までの距離に対応した配光情報が得られる。その結果、照明制御部で、配光情報のうち、検出された被写体までの距離に対応した配光情報を用いて、被写体までの距離に応じて照明光の配光を変更することができる。
 本実施形態の記憶媒体は、導光部の入射面を含む光束径を有する照明光から検査光を生成し、検査光は、導光部に入射される入射光であり、検査光に基づく画像を、検査光の入射位置に関する入射位置情報と関連付けて生成し、検査光に基づく画像と、入射位置情報に基づいて、配光情報を算出し、配光情報は、導光部から射出された検査光の配光特性に関する情報であるプログラムを記憶していることを特徴とする。
 上述の反射体は配光検査用の治具として用いることができる。
 本実施形態には、以下の実施形態が含まれる。
 光源と、照明制御部と、を有する照明部と、
 導光部を有する導光部材と、画像を取得する撮像部と、を有する挿入部と、
 配光情報が記憶されたメモリと、を備え、
 導光部は、入射面と、第1の射出面と、第2の射出面と、を少なくとも有し、
 導光部の入射面を含む光束径を有する照明光から検査光を生成し、
 検査光は、導光部に入射される入射光であり、
 第1の射出面から射出された検査光に基づく第1の画像を、検査光の入射位置に関する入射位置情報と関連付けて生成し、
 第2の射出面から射出された検査光に基づく第2の画像を、検査光の入射位置に関する入射位置情報と関連付けて生成し、
 第1の画像と、入射位置情報に基づいて、第1の配光情報を算出し、
 第2の画像と、入射位置情報に基づいて、第2の配光情報を算出し、
 第1の配光情報と第2の配光情報は、導光部から射出された検査光の配光特性に関する情報であることを特徴とする内視鏡システム。
 照明部から、照明光が射出され、
 検査光は、照明光の一部であって、入射面よりも狭い領域に照射され、
 入射位置情報は、領域の位置に関する情報を含み、
 領域の位置を変えながら、第1の画像の生成、第2の画像の生成、第1の画像と入射位置情報との関連付け、第2の画像と入射位置情報との関連付け、第1の配光情報の算出、及び第2の配光情報の算出を行うことを特徴とする内視鏡システム。
 本発明は、導光部材から射出される光の光量と配光分布を、正確、且つ容易に検査できる配光検査装置と配光検査方法に適している。
 本発明は、被写体に応じて配光が調整された照明を行うことができる内視鏡システムに適している。
 本発明は、導光部材から射出される光の光量と配光分布を、正確、且つ容易に検査できるプログラムを記憶している記憶媒体に適している。
 1 配光検査装置
 2 照明装置
 3 保持部材
 3a 第1部材
 3b 第2部材
 4 情報取得部
 5 配光情報算出部
 6 導光部材
 10、10’ 配光検査装置
 20 照明装置
 21 光源
 22 レンズ
 30 保持部材
 40 情報取得部
 41、42 撮像素子
 43 レンズ
 44 画像生成部
 50 配光情報算出部
 60 導光部材
 61 導光部
 62 シース
 63 入射面
 64 導光素子
 65 射出面
 70 デジタルミラーデバイス
 71 ミラーアレイ面
 72 ミラー素子
 73 ミラー
 74 ヒンジ
 75、76 電極
 80 レンズ
 90、91、92、93 導光部材
 94 導光部
 95 シース
 96 入射面
 97、98 射出面
 100 保持部材
 100a 第1部材
 100b 第2部材
 110、120 対物レンズの視野
 111、121、122 照明領域
 112、123、124 検査領域
 113 撮像領域
 130 視野
 131 撮像素子
 132 光軸
 140 反射体
 RL、RC、RR ミラー素子群
 150 配光検査装置
 160、161、162 保持部材
 170 内視鏡
 171 挿入部
 171a、180、190 先端部
 172 操作部
 173 ケーブル
 174 接続部
 174a 接続面
 181、191、192 ファイバーバンドル
 182、193、194 照明レンズ
 183、195 対物レンズ
 184、196 撮像素子
 200、210、220、230、230’ 反射体
 201、211、221 凹部
 202、212,222 反射領域
 203、204、205、206、207 反射面
 203’、204’、205’、206’、207’ 領域
 203I1、204I1、205I1、206I1、207I1 画像
 203I2、204I2、205I2、206I2、207I2 画像
 210’、220’ 反射部
 210”、220” 円筒部
 213、234 突起
 214、225、235 先端部
 223 接続部
 224 保持部材
 231 第1回転機構
 232 第2回転機構
 233 反射板
 240 第1反射体
 241 第1反射面
 242 第2反射体
 243 第2反射面
 300、400 内視鏡システム
 310,410 光源装置
 311、411 光源
 312、412 照明制御部
 313、413 遮光板
 320、420 内視鏡
 330、331、430 メモリ
 340、440 導光部材
 341、441 導光部
 342、442 入射面
 343、443 第1の出射部
 344、444 第2の出射部
 350、450 撮像部
 360、460 制御装置
 370、470 画像処理装置
 480 通信ユニット
 500 被写体
 501、502 領域
 510 内視鏡システム
 511 画像処理装置
 520、521、522 画像
 600 反射体
 610 反射領域
 620 全体画像
 621 領域
 621I1 第1の画像
 621I2 第2の画像
 700、800 内視鏡システム
 710、810 光源装置
 711 第1光源
 712 第2光源
 713 ダイクロイックミラー
 714 照明制御部
 720、820 内視鏡
 740、743、744、840、843、844 導光部材、
 741、841 導光部
 742、842 入射面
 750 第1波長変換ユニット
 751 第1保持部材
 752 第1反射部材
 753 第1波長変換部材
 760 第2波長変換ユニット、
 761 第2保持部材
 762 第2反射部材
 763 第2波長変換部材
 811 第3光源
 812 ダイクロイックミラー
 850 第3波長変換ユニット、
 851 第3保持部材
 852 第3反射部材
 853 第3波長変換部材
 900、910 反射体
 901、911 反射面
 U1、U2、U3、U4 ユニット
 LILL 照明光
 LILL1、LILL2 レーザー光(照明光)
 LILL3 レーザー光
 R1st、R2nd 領域
 LMEA、LMEA1、LMEA2 検査光
 LNOM 非検査光
 RMEA、R’MEA 照射領域
 AXc 中心軸
 IMALL1、IMALL2 全体画像
 AXr 回転軸

Claims (22)

  1.  照明装置の導光部に各々入射する複数の検査光に基づいて、前記導光部と光学的に接続された前記照明装置の複数の出射部の各々から出射される複数の出射光の各々の光量分布特性を、前記検査光の各々の入射位置情報と関連付けて取得する情報取得部と、
     前記各々の入射位置情報と前記各々の光量分布特性に基づいて、前記照明装置の配光情報を算出する配光情報算出部と、
    を備えることを特徴とする配光検査装置。
  2.  前記検査光は、照明光の一部であり、
     照射領域は、前記検査光が照射される領域であり、
     前記照射領域は、前記導光部の入射面よりも狭く、
     前記入射位置情報は、前記照射領域の位置に関する情報を含み、
     前記照射領域の位置を変えながら、前記光量分布特性の取得と、前記配光情報の算出を行うことを特徴すると請求項1に記載の配光検査装置。
  3.  画像の生成に用いられる信号を出力する撮像素子を有し、
     前記撮像素子は、保持部材と対向していることを特徴とする請求項1に記載の配光検査装置。
  4.  画像の生成に用いられる信号を出力する撮像素子を有し、
     前記画像の各々は、反射体で反射された前記検査光を撮像した画像であり、
     前記反射体の一方の側に、保持部材と前記撮像素子が配置されていることを特徴とする請求項1に記載の配光検査装置。
  5.  前記反射体は、凹部を有し、
     前記凹部の内面は、複数の反射面で形成された反射領域を有し、
     前記反射領域は、前記導光部材から出射される検査光が入射可能な広さを有することを特徴とする請求項4に記載の配光検査装置。
  6.  前記複数の反射面の各々は、平面であり、
     前記複数の反射面の各々で、前記反射面の法線が傾いていることを特徴とする請求項5に記載の配光検査装置。
  7.  配光情報算出部は、前記配光情報を解析して、光量と、配光分布と、を算出することを特徴とする請求項1に記載の配光検査装置。
  8.  導光部の入射面を含む光束径を有する照明光から検査光を生成し、
     前記検査光は、前記導光部に入射される入射光であり、
     前記検査光に基づく画像を、前記検査光の入射位置に関する入射位置情報と関連付けて生成し、
     前記検査光に基づく画像と、前記入射位置情報に基づいて、配光情報を算出し、
     前記配光情報は、前記導光部から射出された前記検査光の配光特性に関する情報であることを特徴とする配光検査方法。
  9.  前記検査光は、前記照明光の一部であり、
     照射領域は、前記検査光が照射される領域であり、
     前記照射領域は、前記入射面よりも狭く、
     前記入射位置情報は、前記照射領域の位置に関する情報を含み、
     前記照射領域の位置を変えながら、前記画像の生成、前記画像と前記入射位置情報との関連付け、及び前記配光情報の算出を行うことを特徴すると請求項8に記載の配光検査方法。
  10.  前記配光情報を解析して、光量と、配光分布と、を算出し、
     前記検査光の入射位置、前記光量、及び前記配光分布を用いて関連付けを行うことを特徴とする請求項8に記載の配光検査方法。
  11.  前記検査光に基づく画像の各々は、複数の反射面を有する反射体を撮像した画像の一部であり、
     前記反射体を撮像した画像は、複数の領域で形成され、
     前記複数の領域の各々は、前記複数の反射面の各々に対応する領域であることを特徴とする請求項8に記載の配光検査方法。
  12.  前記光量を、以下の(a)、(b)、(c)、(d)のいずれかを用いてを算出することを特徴とする請求項10に記載の配光検査方法。
    (a)各画素の数値を合計する。
    (b)最大値。
    (c)最大値ら複数番目の数値。
    (d)最大値から降順に複数の数値を平均化する。
  13.  光源と、前記光源からの出射光を制御する照明制御部と、を含む光源装置と、
     前記光源装置と接続可能であり、導光部を有する導光部材と、画像を取得する撮像部と、前記出射光に基づいて生成される照明光の配光情報が記憶されたメモリと、前記導光部と光学的に接続され、前記出射光に基づいて複数の照明光を各々出射する複数の出射部と、を含む内視鏡と、を備え、
     前記照明制御部は、前記メモリから取得した前記配光情報に基づいて、前記出射光を制御することによって、前記複数の出射部の少なくともいずれか一方から照射される照明光の配光を制御することを特徴とする内視鏡システム。
  14.  対応情報が記憶された別のメモリを有し、
     前記対応情報では、前記配光情報と配光制御の仕方が対応付けられており、
     前記配光情報と前記対応情報に基づいて、前記照明制御部が制御されることを特徴とする請求項13に記載の内視鏡システム。
  15.  前記光源装置から、前記照明光が射出され、
     前記検査光は、前記照明光の一部であり、
     照射領域は、前記検査光が照射される領域であり、
     前記照射領域は、前記入射面よりも狭く、
     前記入射位置情報は、前記照射領域の位置に関する情報を含み、
     前記照射領域の位置を変えながら、前記画像の生成、前記画像と前記入射位置情報との関連付け、及び前記配光情報の算出を行うことを特徴とする請求項13に記載の内視鏡システム。
  16.  前記照明制御部は、デジタルミラーデバイスであり、
     前記配光情報を解析して、光量と、配光分布と、を算出することを特徴とする請求項13に記載の内視鏡システム。
  17.  画像処理回路を有し、
     前記画像処理回路では、前記撮像部で取得された被写体の画像に基づいて、前記画像における各点の位置が、前記被写体の画像上の位置に変換されることを特徴とする請求項13に記載の内視鏡システム。
  18.  画像処理回路を有し、
     前記画像処理回路では、予め作成された被写体距離パターン、又は現状の被写体距離パターンに基づいて、前記画像における各点の位置が、物体の画像上の位置に変換され、
     前記撮像部で取得した複数の被写体の画像を解析することで、前記現状の被写体距離パターンが取得されることを特徴とする請求項13に記載の内視鏡システム。
  19.  前記撮像部で取得された被写体の画像から、補正対象領域を抽出し、
     補正対象領域の画像の明るさが所定の明るさとなるように、前記検査光が照射される領域を決定することを特徴とする13に記載の内視鏡システム。
  20.  前記複数の出射部は、第1の出射部と、第2の出射部と、を有し、
     前記第1の出射部と前記第2の出射部から、通常観察用の第1の照明光が照射され、
     前記第1の出射部と前記第2の出射部から、特殊光観察用又は所定の処置に用いられる第2の照明光が照射され、
     前記メモリから取得した前記第1の照明光に関する配光情報に基づいて、前記第1の照明光の配光が制御されることを特徴とする13に記載の内視鏡システム。
  21.  被写体までの距離を検出する距離計測部を更に備え、
     前記照明制御部は、前記配光情報のうち、検出された前記被写体までの距離に対応した配光情報を用いて、前記被写体までの距離に応じて前記照明光の配光を変更することを特徴とする13に記載の内視鏡システム。
  22.  導光部の入射面を含む光束径を有する照明光から検査光を生成し、
     前記検査光は、前記導光部に入射される入射光であり、
     前記検査光に基づく画像を、前記検査光の入射位置に関する入射位置情報と関連付けて生成し、
     前記検査光に基づく画像と、前記入射位置情報に基づいて、配光情報を算出し、
     前記配光情報は、前記導光部から射出された前記検査光の配光特性に関する情報であるプログラムを記憶していることを特徴とする記憶媒体。
PCT/JP2020/003182 2020-01-29 2020-01-29 配光検査装置、配光検査方法、内視鏡システム、及び記憶媒体 WO2021152724A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080094418.7A CN115087387A (zh) 2020-01-29 2020-01-29 配光检查装置、配光检查方法、内窥镜系统以及存储介质
PCT/JP2020/003182 WO2021152724A1 (ja) 2020-01-29 2020-01-29 配光検査装置、配光検査方法、内視鏡システム、及び記憶媒体
US17/875,575 US20220361731A1 (en) 2020-01-29 2022-07-28 Light distribution inspection device, light distribution inspection method, endoscope system, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/003182 WO2021152724A1 (ja) 2020-01-29 2020-01-29 配光検査装置、配光検査方法、内視鏡システム、及び記憶媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/875,575 Continuation US20220361731A1 (en) 2020-01-29 2022-07-28 Light distribution inspection device, light distribution inspection method, endoscope system, and storage medium

Publications (1)

Publication Number Publication Date
WO2021152724A1 true WO2021152724A1 (ja) 2021-08-05

Family

ID=77078054

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/003182 WO2021152724A1 (ja) 2020-01-29 2020-01-29 配光検査装置、配光検査方法、内視鏡システム、及び記憶媒体

Country Status (3)

Country Link
US (1) US20220361731A1 (ja)
CN (1) CN115087387A (ja)
WO (1) WO2021152724A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001235686A (ja) * 2000-02-22 2001-08-31 Olympus Optical Co Ltd 内視鏡装置
JP2006223591A (ja) * 2005-02-17 2006-08-31 Olympus Corp 内視鏡用カラーバランス調整具

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001235686A (ja) * 2000-02-22 2001-08-31 Olympus Optical Co Ltd 内視鏡装置
JP2006223591A (ja) * 2005-02-17 2006-08-31 Olympus Corp 内視鏡用カラーバランス調整具

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KAZUTAMI MISAKI, HIDEYO KUNIEDA, YOSHITOMO MAEDA, YOSHITO HABA, KEI ITOH, HIDEYUKI MORI, RYO IIZUKA, AKIHARU ITOH, HIROHIKO INOUE,: "Ground-based X-ray calibration of the telescopes onboard Astro-E2 satellite", PROCEEDINGS OF SPIE, vol. 5168, January 2004 (2004-01-01), pages 294 - 305, XP009530227, ISSN: 0277-786X, ISBN: 978-1-5106-4548-6, DOI: 10.1117/12.505773 *

Also Published As

Publication number Publication date
CN115087387A (zh) 2022-09-20
US20220361731A1 (en) 2022-11-17

Similar Documents

Publication Publication Date Title
US7474399B2 (en) Dual illumination system for an imaging apparatus and method
KR100411631B1 (ko) 형광 내시경 장치 및 그 장치를 이용한 진단부위 조상 방법
US8842173B2 (en) Biological image acquisition device
JP4521587B2 (ja) 照明の均一度を向上させた光学診断装置
EP0335192A2 (en) Combined gloss and color measuring instrument
US7474398B2 (en) Illumination system for an imaging apparatus with low profile output device
US6907138B1 (en) Method and device for analyzing surface structure
JP5436757B2 (ja) 蛍光観察装置
US20070091425A1 (en) Microscope examination apparatus and microscope examination method
EP2284519A1 (en) Biological imaging device
AU753282B2 (en) Apparatus for measuring characteristics of optical angle
JP2004528943A (ja) 後面投影視野テスタ
US5953112A (en) Method and apparatus for evaluating the performance characteristics of endoscopes
WO2021152724A1 (ja) 配光検査装置、配光検査方法、内視鏡システム、及び記憶媒体
US8110804B2 (en) Through substrate optical imaging device and method
US20110013008A1 (en) Device for acquiring image of living body
US20090066960A1 (en) Luminescence Imagining Installation and Method
EP2021774B1 (en) A system comprising a dual illumination system and an imaging apparatus and method using said system
JP5255763B2 (ja) 光学検査方法および装置
KR100389967B1 (ko) 자동화 결함 검사 장치
JPH1183465A (ja) 表面検査方法及び装置
KR102429455B1 (ko) 다방향 광 조사 구조를 갖는 안면 피부 진단 장치
US20220248938A1 (en) Optical system and imaging method
JPH09276224A (ja) 眼科装置
JPH10179558A (ja) 光透過映像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20916899

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20916899

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP