WO2016167051A1 - 光学観察装置及びその制御方法 - Google Patents

光学観察装置及びその制御方法 Download PDF

Info

Publication number
WO2016167051A1
WO2016167051A1 PCT/JP2016/057218 JP2016057218W WO2016167051A1 WO 2016167051 A1 WO2016167051 A1 WO 2016167051A1 JP 2016057218 W JP2016057218 W JP 2016057218W WO 2016167051 A1 WO2016167051 A1 WO 2016167051A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
optical
polarizing element
linearly polarized
polarization direction
Prior art date
Application number
PCT/JP2016/057218
Other languages
English (en)
French (fr)
Inventor
智行 河合
山本 力
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201680021404.6A priority Critical patent/CN107533219A/zh
Priority to JP2017512230A priority patent/JP6262918B2/ja
Publication of WO2016167051A1 publication Critical patent/WO2016167051A1/ja
Priority to US15/783,359 priority patent/US20180045869A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/02Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices involving prisms or mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/16Housings; Caps; Mountings; Supports, e.g. with counterweight
    • G02B23/18Housings; Caps; Mountings; Supports, e.g. with counterweight for binocular arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/286Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising for controlling or changing the state of polarisation, e.g. transforming one polarisation state into another
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/283Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising used for beam splitting or combining
    • G02B27/285Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising used for beam splitting or combining comprising arrays of elements, e.g. microprisms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/288Filters employing polarising elements, e.g. Lyot or Solc filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths

Definitions

  • the present invention relates to an optical observation apparatus including a polarizing element and a control method thereof.
  • an optical observation device such as binoculars to observe a scene including the water surface and window glass
  • the reflected light from the water surface and window glass is strong, making it difficult to see the original observation target. Therefore, an optical observation device such as binoculars in which a polarizing element is incorporated in an optical system in order to cut unnecessary light such as reflected light is known (see Patent Document 1).
  • This polarizing element guides an observation image from which unnecessary light is cut to an eyepiece by transmitting only a linearly polarized light component in a direction along the polarization axis from the optical image.
  • the orientation of the optimum polarizing element for cutting unnecessary light differs. Therefore, in order to obtain a good observation image, the polarizing element is rotated to improve the visibility of the observation image most. It is necessary to point in the optimum direction.
  • the binoculars described in Patent Document 1 have a half mirror and a sensor unit in order to automatically set the orientation of the polarizing element in the optimum direction. The half mirror guides the linearly polarized light component transmitted through the polarizing element to the eyepiece unit and the sensor unit.
  • an optimum direction is detected based on an imaging signal obtained by the sensor unit while rotating the polarization element, and the angle of the polarization element is set in the detected optimum direction. Thereby, the direction of the polarizing element is automatically set to the optimum direction.
  • the binoculars described in Patent Document 1 have a configuration in which light transmitted through the polarizing element is branched by a half mirror and guided to the eyepiece and the sensor, so that the user observes the observation image from the eyepiece. Even in such a situation, since the polarizing element is rotated for detection of the optimum direction, there is a problem that the brightness of the observation image changes with the rotation of the polarizing element.
  • An object of the present invention is to provide an optical observation apparatus and a control method therefor that can set a polarizing element at an optimum angle without changing the brightness of an observation image.
  • An optical observation apparatus includes an objective lens, an observation unit, a first polarization element, a first rotation drive unit, a linearly polarized light component extraction unit, an image sensor, a polarization direction detection unit, and a rotation control unit. .
  • the objective lens receives light from the observation target.
  • incident light incident on the objective lens is guided through the first optical path.
  • the first polarizing element is a polarizing element that transmits a specific linearly polarized light component, and is rotatably disposed on a plane orthogonal to the optical axis of the first optical path.
  • the first rotation driving unit rotationally drives the first polarizing element.
  • the linearly polarized light component extraction unit is disposed in the second optical path that is the same as the first optical path or has a larger angle of view than the first optical path, and extracts linearly polarized light components for a plurality of polarization directions from the incident light.
  • the imaging device individually captures each linearly polarized component extracted by the linearly polarized component extraction unit and outputs an imaging signal.
  • the polarization direction detection unit detects the optimum polarization direction based on the image to be observed based on the imaging signal.
  • the rotation control unit controls the first rotation driving unit to set the first polarizing element at an angle at which the linearly polarized light component in the optimum polarization direction is transmitted.
  • the polarization direction detection unit detects the polarization direction in which the luminance of the image to be observed is the lowest.
  • the linearly polarized light component extracting unit is a polarizing element that transmits a specific linearly polarized light component, and rotationally drives the second polarizing element disposed on a plane orthogonal to the optical axis of the second optical path, and the second polarizing element.
  • the angle range is preferably 180 °.
  • the linear polarization component extraction unit is a third polarization element having a plurality of divided polarization regions and fixedly arranged in the second optical path, and the polarization directions of the linear polarization components transmitted by each polarization region are different from each other, It is preferable to extract linearly polarized light components simultaneously for a plurality of polarization directions.
  • the third polarizing element is preferably provided on the imaging surface of the imaging element.
  • the image sensor is a color sensor having pixels of a plurality of colors, and at least one pixel of each color is preferably arranged for one polarization region.
  • a dimming device that has a plurality of segments with variable light transmittance and controls the light transmittance of each segment based on a light control device arranged in the first optical path and an imaging signal in which the optimum polarization direction is detected And an element control unit.
  • an eyepiece lens is provided in the first optical path between the first polarizing element and the observation unit, and the light control element is disposed between the eyepiece lens and the observation unit.
  • a half mirror is disposed in the first optical path, and the second optical path is branched from the first optical path by the half mirror.
  • a rotation stop operation unit that allows the user to stop the rotation of the first polarizing element that is rotated during the execution of the calibration operation for calibrating the set position of the first polarizing element by the rotation control unit;
  • the first polarizing element stopped by driving the rotation driving unit to rotate the first polarizing element to rotate the first polarizing element and to operate the rotation stop operating unit at the position where the light quantity of the optical image to be observed guided to the observing unit is most reduced.
  • the image displayed on the display unit is preferably guided to the observation unit via the first optical path.
  • a calibration operation start operation unit for starting the calibration operation is provided, and the calibration control unit can rotate the first polarizing element until the calibration operation start operation unit is operated and the rotation stop operation unit is operated. preferable.
  • An optical observation apparatus control method includes an objective lens that receives light from an observation target, an observation unit that guides incident light that enters the objective lens through a first optical path, and a specific linearly polarized light component.
  • a polarizing element which is the same as the first optical path, a first polarizing element that is rotatably arranged on a plane orthogonal to the optical axis of the first optical path, a first rotation driving unit that rotationally drives the first polarizing element, and Or a linearly polarized light component extracting unit that is arranged in a second optical path having a larger angle of view than the first optical path and extracts linearly polarized light components from a plurality of polarization directions from incident light, and each straight line extracted by the linearly polarized light component extracting unit
  • an optical observation apparatus comprising: an imaging element that individually images polarization components and outputs an imaging signal; and a polarization direction detection unit that detects an optimal polarization direction based on an image to be observed based on the
  • an optimum polarization direction is detected based on an imaging signal obtained by individually imaging a plurality of linear polarization components extracted by the linear polarization component extraction unit arranged in the second optical path, and the first optical path is detected. Since the first polarizing element arranged at the angle is set to an angle at which the linearly polarized light component in the optimal polarization direction is transmitted, an optical observation device that can set the polarizing element to the optimal angle without changing the brightness of the observation image, and The control method can be provided.
  • a binocular 10 includes a first optical system 10R, a second optical system 10L, and an imaging optical system 10I.
  • the first optical system 10R erects the optical image of the observation target incident along the optical axis AR and guides it to the first eyepiece unit ER where the right eye of the observer is eyepiece.
  • the second optical system 10L erects the optical image of the observation target incident along the optical axis AL from the observation target and guides it to the second eyepiece EL where the left eye of the observer is in contact.
  • the first eyepiece part ER and the second eyepiece part EL correspond to “observation part” in the claims.
  • the imaging optical system 10I guides the optical image of the observation target incident along the optical axis AI to the imaging element 28 (see FIG. 2) provided inside the binoculars 10.
  • the optical axis AR, the optical axis AL, and the optical axis AI are parallel.
  • the optical axis AR and the optical axis AL correspond to the “first optical path” in the claims.
  • the optical axis AI corresponds to the “second optical path” in the claims.
  • the binoculars 10 are provided with an operation unit 11.
  • the operation unit 11 includes a mode switching button 11a and a zoom operation unit 11b.
  • the mode switching button 11a is operated when switching the observation mode.
  • the observation mode includes a fixed mode and an automatic mode. In the fixed mode, the polarization axis of the first polarizing element 16 (see FIG. 2) described later is fixed in a fixed direction. In the automatic mode, the polarization axis of the first polarizing element 16 is automatically controlled so as to always face the optimum polarization direction.
  • the zoom operation unit 11b is operated when changing the zoom magnification.
  • the first optical system 10 ⁇ / b> R includes an objective lens 12, an erecting prism 14, a first polarizing element 16, and an eyepiece lens 18.
  • the objective lens 12, the erecting prism 14, the first polarizing element 16, and the eyepiece lens 18 are arranged in this order from the observation target side.
  • the light enters the objective lens 12 from the observation target.
  • the objective lens 12 is composed of a plurality of optical lenses.
  • the objective lens 12 can focus (focus) the optical image by moving all or part of the plurality of optical lenses by a mechanism (not shown).
  • the erecting prism 14 is a Schmidt-Pechan prism and erects the optical image of the observation target incident from the objective lens 12 and emits it.
  • the erecting prism 14 includes an auxiliary prism 14A and a roof prism 14B.
  • An optical image from the objective lens 12 enters the auxiliary prism 14A.
  • the optical image is incident on the roof prism 14B from the auxiliary prism 14A.
  • the roof prism 14B emits an upright optical image.
  • the first polarizing element 16 is a polarizing filter that transmits a linearly polarized light component in a direction along the polarization axis r1 (see FIG. 3) from the optical image.
  • the linearly polarized light component transmitted through the first polarizing element 16 enters the eyepiece lens 18.
  • the first polarizing element 16 of the first optical system 10R is disposed so that the polarization axis r1 is orthogonal to the optical axis AR and is rotatable about the optical axis AR as a rotation axis.
  • the first polarizing element 16 of the second optical system 10L is disposed so that the polarization axis r1 is orthogonal to the optical axis AL, and the optical axis AL is a rotation axis.
  • the first polarizing element 16 is rotationally driven by the first rotational driving unit 20.
  • the first rotation driving unit 20 recognizes an angle ⁇ formed by the polarization axis r1 of the first polarizing element 16 and the reference direction r0.
  • the first rotation driving unit 20 changes the angle ⁇ by rotating the first polarizing element 16.
  • the reference direction r0 is a direction perpendicular to a plane including the optical axis AR and the optical axis AL.
  • the first rotation driving unit 20 rotates the first polarizing element 16 of the second optical system 10L together with the first polarizing element 16 of the first optical system 10R.
  • the first rotation drive unit 20 is controlled by the rotation control unit 32.
  • the eyepiece 18 is disposed on the first optical path. Incident light that has passed through the objective lens 12, the erecting prism 14, and the first polarizing element 16 is guided to the eyepiece 18.
  • the eyepiece 18 is composed of a plurality of optical lenses including a zoom lens 18a.
  • the angle of view of the first optical path can be changed by moving the zoom lens 18a based on the operation of the zoom operation unit 11b. By operating the zoom operation unit 11b, the angle of view decreases as the zoom magnification increases.
  • the second optical system 10L includes an objective lens 12, an erecting prism 14, a first polarizing element 16, and an eyepiece lens 18.
  • the objective lens 12, the erecting prism 14, the first polarizing element 16, and the eyepiece lens 18 are arranged in this order from the observation target side.
  • a polarization control unit 22 is provided inside the binoculars 10.
  • the polarization control unit 22 is disposed on the optical axis AI of the imaging optical system 10I.
  • the polarization control unit 22 operates when the mode switching button 11a is operated and the observation mode is set to the automatic mode.
  • the polarization control unit 22 includes an objective lens 24, a linearly polarized light component extraction unit 26, an image sensor 28, a polarization direction detection unit 30, and a rotation control unit 32. Light enters the objective lens 24 from the observation target. As with the objective lens 12, the objective lens 24 can focus an optical image.
  • the angle of view of the imaging optical system 10I matches the angle of view when the zoom magnification is the smallest in the first optical system 10R and the second optical system 10L. That is, when the zoom magnification is the smallest, the observation range observed by the first eyepiece unit ER and the second eyepiece unit EL matches the image pickup range by the image sensor 28.
  • the linearly polarized light component extracting unit 26 receives incident light from the objective lens 24, and extracts linearly polarized light components for a plurality of polarization directions from the incident light.
  • the linearly polarized light component extracting unit 26 includes a second polarizing element 34 and a second rotation driving unit 36.
  • the second polarizing element 34 is a polarizing filter that transmits a linearly polarized light component in a direction along the polarization axis r2 (see FIG. 4) from the optical image.
  • the light transmitted through the second polarizing element 34 enters the image sensor 28.
  • the second polarizing element 34 is disposed so that the polarization axis r2 is orthogonal to the optical axis AI and is rotatable about the optical axis AI as a rotation axis.
  • the second polarizing element 34 is rotationally driven by the second rotational driving unit 36.
  • the second rotation driving unit 36 recognizes an angle ⁇ formed by the polarization axis r2 of the second polarizing element 34 and the reference direction r0.
  • the second rotation driving unit 36 changes the angle ⁇ by rotating the second polarizing element 34.
  • the second rotation drive unit 36 is controlled by the polarization direction detection unit 30.
  • the second rotation drive unit 36 corresponds to a “second drive unit” in the claims.
  • the imaging device 28 individually captures each linearly polarized component extracted by the linearly polarized light component extraction unit 26 and outputs an imaging signal.
  • a CMOS (Complementary Metal Oxide Semiconductor) type image sensor or a CCD (Charge Coupled Device) type image sensor is used as the imaging device 28.
  • a monochrome image sensor having no color filter is used as the image sensor 28.
  • the polarization direction detector 30 causes the imaging device 28 to perform imaging while changing the angle ⁇ of the second polarizing element 34, acquires a plurality of imaging signals, and obtains the luminance of the observation image from each imaging signal, thereby observing The optimum polarization direction which is the optimum polarization direction is detected.
  • the polarization direction detection unit 30 specifies the polarization direction in which the luminance of the observation image is the lowest as the optimum polarization direction.
  • the polarization direction detection unit 30 controls the second rotation driving unit 36 and the image sensor 28 to change the angle ⁇ of the second polarization element 34 and the image sensor as shown in FIG.
  • the image pickup device 28 is caused to perform an image pickup operation every time the angle ⁇ is changed by a predetermined angle.
  • the polarization direction detector 30 detects the polarization direction (optimum polarization direction) at which the brightness of the observation image is the lowest, the change amount of the angle ⁇ that is changed between imaging timings is preferably as small as possible. In the form, it is 30 °.
  • the polarization direction detecting unit 30 stops the second polarizing element 34 for a predetermined time each time the second rotation driving unit 36 changes the angle ⁇ of the second polarizing element 34 by 30 °, and the imaging element 28 is stopped during this stop. The imaging operation is performed.
  • the polarization direction detection unit 30 detects the optimum polarization direction based on a plurality of imaging signals obtained by the second polarizing element 34 within an angle range of 180 °.
  • the change amount of the angle ⁇ changed between the respective imaging timings is set to 30 °, so that the optimum polarization direction is detected based on the imaging signals (signal groups) for 6 frames obtained by the six imaging timings. .
  • the polarization direction detector 30 first detects the optimum polarization direction based on the signal group G1 for six frames at the imaging timings t1 to t6.
  • the polarization direction detection unit 30 detects the optimum polarization direction based on the signal group G2 for 6 frames at the imaging timings t2 to t7. Thereafter, each time a new imaging signal is obtained, similarly, based on a signal group for 6 frames constituted by the imaging signal for the new one frame and the imaging signals for the previous 5 frames.
  • the optimal polarization direction is detected. In this way, by configuring the signal group and detecting the optimum polarization direction, the detection frequency of the optimum polarization direction increases.
  • the polarization direction detection unit 30 when obtaining the luminance of the observation image from each imaging signal, obtains the luminance based on the pixel signal in the region corresponding to the angle of view of the first optical path from the imaging signal. Specifically, since the angle of view of the first optical path changes according to the zoom magnification by the operation of the zoom operation unit 11b, the polarization direction detection unit 30 receives a signal related to the zoom magnification from the zoom operation unit 11b, As shown in FIG. 6, a detection area 39 corresponding to the angle of view of the first optical path is set in the imaging range 38 by the imaging device 28 according to the zoom magnification. The polarization direction detection unit 30 calculates the luminance by obtaining an average value of the pixel signals in the detection region 39.
  • Polarization direction detecting section 30 obtains the luminance for each imaging signal in the signal group, the angle theta P of the second polarizing element 34 by the imaging signal intensity is minimum is obtained, the optimum polarization direction.
  • the angle ⁇ P obtained as the optimum polarization direction is 180 ° or more
  • a value obtained by subtracting 180 ° from the angle ⁇ P is set as the optimum polarization direction. This is because the linearly polarized light components obtained when the directions of the polarization axes r2 of the second polarizing elements 34 are different by 180 ° are the same.
  • the rotation control unit 32 controls the first rotation driving unit 20 to rotate the first polarizing element 16 to an angle at which the linearly polarized light component in the optimum polarization direction detected by the polarization direction detecting unit 30 is transmitted. Specifically, the rotation control unit 32, the angle ⁇ of the first polarizing element 16, rotates the first polarizing element 16 so that Motoma' angle theta P as the optimal polarization direction. As described above, when the angle ⁇ P is 180 ° or more, the value obtained by subtracting 180 ° from the angle ⁇ P is set as the optimum polarization direction. Therefore, the angle ⁇ of the first polarizing element 16 is 0 ° ⁇ ⁇ It is changed within the range of ⁇ 180 °.
  • the binoculars 10 operate the polarization control unit 22 when the mode switching button 11a is operated and the automatic mode is started (YES in step S11).
  • the polarization direction detection unit 30 acquires an imaging signal by the imaging element 28 while changing the angle ⁇ of the second polarizing element 34 by 30 degrees (step S12) (step S13).
  • Polarization direction detection section 30 calculates the brightness based on the imaging signals acquired, the angle theta P luminance is minimized is detected as the optimum polarization direction (step S14). Specifically, each time the angle ⁇ is changed and a new imaging signal is obtained, the polarization direction detection unit 30 uses the new imaging signal for one frame and the imaging signals for five previous frames. The optimum polarization direction is detected based on the configured signal group for 6 frames.
  • the rotation control unit 32 controls the first rotation driving unit 20 to rotate the first polarizing element 16 to an angle at which the detected linearly polarized light component in the optimum polarization direction is transmitted (step S15). Steps S12 to S15 are repeated while the observation mode is set to the automatic mode (NO in step S16). When the mode switching button 11a is operated again, the automatic mode ends (YES in step S16).
  • the optimum polarization direction is sequentially detected while rotating the second polarization element 34, and the first polarization element 16 is set to the optimum polarization direction every time the optimum polarization direction is detected.
  • One polarizing element 16 can always be maintained in the optimum polarization direction. Therefore, the brightness of the observation image does not change with the detection of the optimum polarization direction as in the conventional case.
  • the user can observe an observation image in which unnecessary light such as reflected light is cut when observing a scene including a water surface or a window glass.
  • This automatic mode is suitable for a scene where the observation target changes and a large fluctuation occurs in unnecessary light such as reflected light.
  • the rotation control unit 32 controls the first rotation driving unit 20 to set the angle ⁇ of the first polarizing element 16 to 0 °.
  • the polarization control unit 22 since the polarization control unit 22 does not operate, power saving can be achieved.
  • This fixed mode is suitable for scenes in which there is little change in the observation target and no significant fluctuations in unnecessary light such as reflected light occur.
  • the optimum polarization direction is detected based on the luminance of the imaging signal.
  • the optimum polarization direction may be detected based on the frequency distribution of the pixel values of the imaging signal.
  • FIG. 8 shows a frequency distribution of pixel values based on an imaging signal obtained by imaging an observation target. Pixel values for generating this frequency distribution are acquired from the detection area 39 described above.
  • the brightness of unnecessary light such as reflected light tends to be high, so the angle ⁇ of the second polarizing element 34 is not the optimum polarization direction, and unnecessary light is not sufficiently cut off.
  • the frequency in a region (high luminance region) with a large pixel value increases. Therefore, by obtaining the angle theta P of the cumulative frequency in the high luminance region is minimized, it is possible to detect the optimal polarization direction.
  • the threshold value TH is set, and the cumulative frequency equal to or greater than the threshold value TH is obtained from the imaging signal obtained each time the angle ⁇ of the second polarizing element 34 is changed, and the angle ⁇ P at which this cumulative frequency is minimized is obtained.
  • This direction is determined as the optimum polarization direction. In this optimum polarization direction, all unnecessary light such as reflected light is substantially cut by the second polarizing element 34, and as shown in FIG. 8B, the cumulative frequency equal to or greater than the threshold value TH is substantially zero.
  • the optimum polarization direction can be detected based on the cumulative frequency equal to or higher than the threshold value TH.
  • the threshold value TH may be changed as appropriate.
  • the rotation of the second polarizing element 34 is stopped every time the angle ⁇ of the second polarizing element 34 is changed by a predetermined angle, and the image sensor 28 performs imaging during the stop.
  • the imaging element 28 may be caused to take an image at a timing at which the angle ⁇ takes a predetermined angle while the second polarizing element 34 is rotated at a constant speed.
  • a plurality of linearly polarized light components are sequentially extracted from the optical image by rotating the second polarizing element 34.
  • a plurality of linearly polarized light components are simultaneously extracted.
  • the third polarization element 42 is replaced with the objective lens 24 in place of the second polarization element 34 and the second rotation driving unit 36 of the polarization control unit 22. It is fixedly arranged between the image sensor 28.
  • the third polarizing element 42 corresponds to a “linearly polarized light component extracting unit” in the claims.
  • the third polarizing element 42 has first to sixth polarizing regions A1 to A6 having different directions of the polarization axes.
  • the first to sixth polarizing regions A1 to A6 are repeatedly arranged in a pattern in the vertical and horizontal directions.
  • the angles of the polarization axes of the first to sixth polarization regions A1 to A6 with respect to the reference direction r0 are 0 °, 30 °, 60 °, 90 °, 120 °, and 150 ° in this order.
  • the linear polarization components in the same six directions as in the first embodiment are simultaneously extracted. Since the first to sixth polarizing areas A1 to A6 are repeatedly arranged in the vertical and horizontal directions, even if the size of the detection area 39 changes due to the change of the angle of view accompanying the zoom operation, Includes at least one set of first to sixth polarizing regions A1 to A6.
  • the brightness of each linearly polarized light component is obtained based on the pixel value of the detection area 39, and the optimum polarization direction that minimizes this brightness is detected.
  • Other configurations of the second embodiment are the same as those of the first embodiment.
  • the detection time of the optimum polarization direction is shortened compared to the case where the linearly polarized light components are sequentially extracted as in the first embodiment.
  • the third polarizing element 42 may be directly formed on the imaging surface of the imaging element 28 by a semiconductor manufacturing process or the like. Also in the second embodiment, it is possible to detect the optimum polarization direction based on the frequency distribution of the pixel values of the imaging signal.
  • the third embodiment makes it possible to record an image obtained by the image sensor 28 and to guide the image to the first eyepiece ER and the second eyepiece EL.
  • the binoculars 50 according to the third embodiment include a shooting button 52, a memory 54, a display unit 56, and a half mirror 58 in addition to the configuration of the binoculars 10 according to the first embodiment.
  • a monochrome image sensor is used as the image sensor 28.
  • a color image sensor having a plurality of color pixels for displaying a color image on the display unit 56. is used.
  • each pixel of the image sensor 28 is provided with one of a B (blue) filter, a G (green) filter, and an R (red) filter.
  • the color arrangement of the color filters is a Bayer arrangement.
  • the B pixel provided with the B filter outputs a B imaging signal.
  • the G pixel provided with the G filter outputs a G imaging signal.
  • the R pixel provided with the R filter outputs an R imaging signal.
  • the polarization direction detection unit 30 generates a luminance signal by performing Y / C conversion on the BGR image signal output from the image sensor 28.
  • the polarization direction detection unit 30 detects the optimum polarization direction based on the luminance of the observation image obtained from the luminance signal.
  • the shooting button 52 is operated when shooting a still image to be observed.
  • the operation of the shooting button 52 is effective in the automatic mode.
  • an image based on an imaging signal whose optimum polarization direction is detected by the polarization direction detection unit 30 when the photographing button 52 is operated is stored as an optimum image.
  • the display unit 56 displays the optimum image.
  • the half mirror 58 is disposed on the optical axis AR between the eyepiece 18 and the first eyepiece ER in the first optical system 10R, and the eyepiece 18 and the second eyepiece in the second optical system 10L. It is arranged on the optical axis AL between the part EL.
  • the image displayed on the display unit 56 is guided to the first eyepiece unit ER and the second eyepiece unit EL via the half mirror 58.
  • the image displayed on the display unit 56 is superimposed on the optical image.
  • the third embodiment when still image shooting is performed, an optimum still image in which unnecessary light such as reflected light is cut is automatically acquired. Moreover, this optimal still image can be confirmed through the first eyepiece ER and the second eyepiece EL.
  • a plurality of linearly polarized light components are simultaneously extracted from the optical image by using the third polarizing element 42 instead of the second polarizing element 34. Can do.
  • each of the B pixel, the G pixel, and the R pixel has the first to sixth polarization regions. At least one or more must be arranged for each of A1 to A6.
  • a BGR primary color sensor is used as the image sensor 28, but a complementary color sensor may be used instead.
  • the image displayed on the display unit 56 is superimposed on the optical image.
  • the display unit 56 is provided with a shutter mechanism in the first optical system 10R and the second optical system 10L. While the image is being displayed, the first optical system 10R and the second optical system 10L are shielded from light, and only the display image of the display unit 56 is guided to the first eyepiece ER and the second eyepiece EL. It may be configured. Further, the half mirror 58 may be provided on any one of the optical axes without being provided on both the optical axes AR and AL.
  • the display image of the display unit 56 is configured to be guided to the first eyepiece unit ER and the second eyepiece unit EL.
  • the display image of the display unit 56 may be directly displayed to the user without being guided to the first eyepiece unit ER and the second eyepiece unit EL.
  • the display unit 56 in this case corresponds to the “observation unit” in the claims.
  • the first embodiment when observing a scene including a water surface, a window glass, and the like, unnecessary light such as reflected light is cut by the first polarizing element 16 to enhance the visibility of the observed image.
  • the observation scene includes not only unnecessary light such as reflected light but also direct light from a high-luminance object such as the sun, and such light is sufficiently cut by the first polarizing element 16. First, the visibility of the observed image is reduced.
  • a dimmer 62 and a dimmer control unit 64 are provided in addition to the configuration of the binoculars 10 of the first embodiment.
  • the light control element 62 has a plurality of segments S whose light transmittance is variable.
  • the light control element 62 is disposed between the eyepiece 18 of the first optical system 10R and the first eyepiece ER, and between the eyepiece 18 of the second optical system 10L and the second eyepiece EL. ing.
  • the light control element 62 includes, for example, a polymer network type liquid crystal (PNLC) filter.
  • PNLC polymer network type liquid crystal
  • the segments S of the light control elements 62 are arranged in a two-dimensional matrix.
  • the light control element 62 adjusts (light control) the light quantity of the optical image from the eyepiece 18 for each segment S.
  • the light control element control unit 64 individually controls the light transmittance of each segment S of the light control element 62 based on the imaging signal whose optimum polarization direction has been detected by the polarization direction detection unit 30.
  • the dimming element control unit 64 grasps the correspondence between the pixels of the image sensor 28 and the segment S.
  • the light control element control unit 64 acquires an image pickup signal whose optimum polarization direction has been detected by the polarization direction detection unit 30 from the image pickup element 28.
  • the dimming element control unit 64 obtains the luminance of the pixel corresponding to the segment S of the dimming element 62 based on the acquired imaging signal.
  • the dimming element control unit 64 obtains the luminance for each segment S by obtaining the average value of the luminance for the pixels corresponding to the segment S.
  • the dimming element control unit 64 identifies a segment S that includes a high luminance region whose luminance is equal to or higher than a specific threshold among the segments S.
  • the dimming element control unit 64 reduces the amount of light transmitted through the segment S by reducing the light transmittance of the identified segment S.
  • the light control element 62 is disposed between the eyepiece 18 and the first eyepiece ER and between the eyepiece 18 and the second eyepiece EL. It only needs to be arranged on the optical axis AR and the optical axis AL, and the arrangement position is not particularly limited. However, it is preferable that the light control element 62 is disposed at a position close to the first eyepiece part ER and the second eyepiece part EL.
  • the second optical path for capturing an optical image in the polarization control unit 22 is provided independently of the first optical paths of the first optical system 10R and the second optical system 10L. May be branched by an optical member to form the second optical path.
  • an optical member 72 is provided between the objective lens 12 and the erecting prism 14 of the first optical system 10R. Is provided to branch the optical axis AI from the optical axis AR.
  • the optical member 72 is, for example, a transparent plate and reflects part of the incident light from the objective lens 12 using Fresnel reflection and guides it to the polarization control unit 22 and transmits other light. To the erecting prism 14.
  • the objective lens 12 is shared by the first optical system 10R and the imaging optical system 10I. For this reason, the angle of view of the first optical path and the angle of view of the second optical path are always the same. Therefore, in the present embodiment, unlike the first embodiment, it is not necessary to change the detection area 39 for detecting the luminance in accordance with the angle of view of the first optical path, and imaging is always performed regardless of the zoom magnification.
  • the luminance may be calculated using all the signals in the range 38.
  • the optical member 72 may be arranged so that the incident angle of the light propagating in the first optical path (optical axis AR) to the optical member 72 becomes the Brewster angle.
  • the light reflected by the optical member 72 and guided to the second optical path (optical axis AI) is substantially the S-polarized component. Since this S-polarized component is a main component contained in the unnecessary light, the change in luminance accompanying the rotation of the second polarizing element 34 is clarified, and the detection accuracy of the optimum polarization direction is improved.
  • the third polarizing element 42 can be used instead of the second polarizing element 34.
  • the optical member 72 may be another optical member such as a half mirror.
  • a half mirror 74 is provided on the non-total reflection surface of the erecting prism 14, and a part of the optical image is emitted from the erecting prism 14, thereby controlling the polarization.
  • a second optical path (optical axis AI) for taking an optical image into the unit 22 may be formed. This further saves space.
  • the angle ⁇ of the first polarizing element 16 is set based on the optimum polarization direction (angle ⁇ P ) detected by the polarization direction detection unit 30.
  • the binoculars 80 of the sixth embodiment can execute a calibration operation for calibrating the set position of the first polarizing element 16 by the rotation control unit 32.
  • the binoculars 80 of the sixth embodiment includes a calibration operation start operation unit 82, a rotation stop operation unit 84, and a calibration control unit 86 in addition to the configuration of the binoculars 10 of the first embodiment.
  • the calibration operation start operation unit 82 is operated when starting the calibration operation.
  • the rotation stop operation unit 84 is operated when the user stops the rotation of the first polarizing element 16 that is rotated during the execution of the calibration operation.
  • the calibration control unit 86 rotates the first polarizing element 16 by driving the first rotation driving unit 20 when the calibration operation start operation unit 82 is operated.
  • the brightness of the observation image periodically changes as the first polarizing element 16 rotates.
  • the user operates the rotation stop operation unit 84 at the timing when the brightness becomes the smallest.
  • the calibration control unit 86 stops the rotation of the first polarizing element 16 and detects the rotation stop position of the stopped first polarizing element 16.
  • the rotation stop operation unit 84 specifies the angle ⁇ of the first polarizing element 16 based on the detected rotation stop position.
  • the calibration control unit 86 compares the identified angle ⁇ with the angle ⁇ P corresponding to the optimum polarization direction detected by the polarization direction detection unit 30, and obtains an angle difference. And the calibration control part 86 controls the rotation control part 32, and calibrates the setting position of the 1st polarizing element 16 based on the optimal polarization direction based on the calculated
  • the setting position of the first polarizing element 16 is calibrated based on the rotation stop position of the first polarizing element 16 stopped at the timing when the brightness of the observation image becomes the smallest.
  • the set position of the first polarizing element 16 may be calibrated based on the rotation stop position of the first polarizing element 16 stopped at the timing at which the brightness of the observation image is maximized.
  • the calibration control unit 86 stops the rotation of the first polarizing element 16 stopped at the timing when the brightness of the observation image becomes the smallest and the first polarization stopped at the timing when the brightness of the observation image becomes the highest.
  • the set position of the first polarizing element 16 may be calibrated based on both the rotation stop position of the element 16.
  • the rotation stop operation unit 84 is operated based on the observation image observed through the first eyepiece ER and the second eyepiece EL.
  • the display of the third embodiment The rotation stop operation unit 84 may be operated while observing the image displayed on the unit 56.
  • an optical image is prevented from being guided to the second optical system 10L by a shutter mechanism or the like, and an image from the display unit 56 is guided to the second eyepiece EL.
  • an optical image is guided to the first eyepiece unit ER, and an image (optimum image) generated based on the imaging signal whose optimum polarization direction is detected is guided to the second eyepiece unit EL. Accordingly, the user can operate the rotation stop operation unit 84 while observing the optimum image with the left eye and observing the actual optical image with the right eye.
  • the present invention has been described by taking binoculars as an example, but the present invention can also be applied to other optical observation devices such as monoculars and telescopes.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Telescopes (AREA)
  • Studio Devices (AREA)
  • Polarising Elements (AREA)

Abstract

観察像の明るさを変化させることなく、偏光素子を最適角度に設定可能とする光学観察装置及びその制御方法を提供する。 双眼鏡(10)は、第1偏光素子(16)、第1回転駆動部(20)、直線偏光成分抽出部(26)、撮像素子(28)、偏光方向検出部(30)、及び回転制御部(32)を備える。第1偏光素子(16)は、特定の直線偏光成分を透過させる。第1偏光素子(16)は、第1光路の光軸に直交する面上に回転自在に配置され、第1回転駆動部(20)によって回転駆動される。直線偏光成分抽出部(26)は、第1光路と平行であり、且つ独立した第2光路に配置され、入射光から複数の偏光方向について直線偏光成分をそれぞれ抽出する。偏光方向検出部(30)は、撮像信号に基づき最適偏光方向を検出する。回転制御部(32)は、第1回転駆動部(20)を制御して、最適偏光方向の直線偏光成分を透過させる角度に第1偏光素子(16)を設定する。

Description

光学観察装置及びその制御方法
 本発明は、偏光素子を備える光学観察装置及びその制御方法に関するものである。
 双眼鏡等の光学観察装置で、水面や窓ガラス等を含むシーンを観察する際には、水面や窓ガラス等からの反射光が強く、本来の観察対象が視認しづらい状況がある。そこで、反射光等の不要光をカットするために、偏光素子を光学系に組み込んだ双眼鏡等の光学観察装置が知られている(特許文献1参照)。この偏光素子は、光学像から、偏光軸に沿った方向の直線偏光成分のみを透過させることにより、不要光がカットされた観察像を接眼部に導く。
 しかし、観察対象によっては、不要光をカットするための最適な偏光素子の向きが異なるため、良好な観察像を得るためには、偏光素子を回転させて、観察像の視認性が最も向上する最適方向に向ける必要がある。特許文献1に記載の双眼鏡は、偏光素子の向きを最適方向に自動的に設定するために、ハーフミラー及びセンサ部を有している。ハーフミラーは、偏光素子を透過した直線偏光成分を、接眼部とセンサ部とに導く。
 特許文献1に記載の双眼鏡では、偏光素子を回転させながら、センサ部で得られる撮像信号に基づいて最適方向を検出し、検出した最適方向に偏光素子の角度を設定している。これにより、偏光素子の向きが最適方向に自動的に設定される。
特開2010-2574号公報
 しかしながら、特許文献1に記載の双眼鏡は、偏光素子を透過した光がハーフミラーにより分岐されて接眼部とセンサ部とに導かれる構成であるため、ユーザーが接眼部から観察像を観察している状況においても、最適方向の検出のために偏光素子が回転されるので、偏光素子の回転に伴って観察像の明るさが変化するという問題がある。
 本発明は、観察像の明るさを変化させることなく、偏光素子を最適角度に設定可能とする光学観察装置及びその制御方法を提供することを目的とする。
 本発明の光学観察装置は、対物レンズと、観察部と、第1偏光素子と、第1回転駆動部と、直線偏光成分抽出部と、撮像素子と、偏光方向検出部と、回転制御部と、を備える。対物レンズは、観察対象から光が入射する。観察部は、対物レンズに入射した入射光が第1光路を介して導かれる。第1偏光素子は、特定の直線偏光成分を透過させる偏光素子であって、第1光路の光軸に直交する面上に回転自在に配置される。第1回転駆動部は、第1偏光素子を回転駆動する。直線偏光成分抽出部は、第1光路と同一、又は第1光路より画角の大きい第2光路に配置され、入射光から複数の偏光方向について直線偏光成分をそれぞれ抽出する。撮像素子は、直線偏光成分抽出部により抽出された各直線偏光成分を、それぞれ個別に撮像して撮像信号を出力する。偏光方向検出部は、撮像信号に基づき、観察対象の画像をもとに最適偏光方向を検出する。回転制御部は、第1回転駆動部を制御して、最適偏光方向の直線偏光成分を透過させる角度に第1偏光素子を設定する。
 偏光方向検出部は、観察対象の画像の輝度が最も低下する偏光方向を検出することが好ましい。
 直線偏光成分抽出部は、特定の直線偏光成分を透過させる偏光素子であって、第2光路の光軸に直交する面上に配置された第2偏光素子と、第2偏光素子を回転駆動する第2回転駆動部と、を備え、第2偏光素子が回転される一定の角度範囲内で撮像素子に複数回の撮像動作を行わせることにより、複数の偏光方向について直線偏光成分をそれぞれ順次に抽出することが好ましい。
 角度範囲は、180°であることが好ましい。
 直線偏光成分抽出部は、分割された複数の偏光領域を有し、第2光路に固定配置された第3偏光素子であって、各偏光領域が透過させる直線偏光成分の偏光方向はそれぞれ異なり、複数の偏光方向について直線偏光成分を同時に抽出することが好ましい。
 第3偏光素子は、撮像素子の撮像面上に設けられていることが好ましい。
 撮像素子は、複数色の画素を有するカラーセンサであり、各色の画素が、1つの偏光領域に対して少なくとも1つ以上配置されていることが好ましい。
 光透過率が可変である複数のセグメントを有し、第1光路に配置された調光素子と、最適偏光方向が検出された撮像信号に基づいて、各セグメントの光透過率を制御する調光素子制御部と、を備えることが好ましい。
 第1偏光素子と観察部との間の第1光路に接眼レンズを備え、調光素子は、接眼レンズと観察部との間に配置されていることが好ましい。
 第1光路にハーフミラーが配置され、第2光路は、ハーフミラーにより第1光路から分岐されることが好ましい。
 回転制御部による第1偏光素子の設定位置を校正するための校正動作の実行中に回転される第1偏光素子の回転を、ユーザーが停止させることを可能とする回転停止操作部と、第1回転駆動部を駆動して第1偏光素子を回転させ、観察部に導かれる観察対象の光学像の光量が最も低下する位置で回転停止操作部が操作されることにより停止された第1偏光素子の回転停止位置と、偏光方向検出部により検出された最適偏光方向との差異に基づき、設定位置を校正する校正制御部と、を備えることが好ましい。
 最適偏光方向が検出された撮像信号に基づく画像を表示する表示部を備えることが好ましい。
 表示部に表示された画像は、第1光路を介して観察部に導かれることが好ましい。
 校正動作を開始させるための校正動作開始操作部を備え、校正制御部は、校正動作開始操作部が操作され、回転停止操作部が操作されるまでの間、第1偏光素子を回転させることが好ましい。
 本発明の光学観察装置の制御方法は、観察対象から光が入射する対物レンズと、対物レンズに入射した入射光が第1光路を介して導かれる観察部と、特定の直線偏光成分を透過させる偏光素子であって、第1光路の光軸に直交する面上に回転自在に配置された第1偏光素子と、第1偏光素子を回転駆動する第1回転駆動部と、第1光路と同一、又は第1光路より画角の大きい第2光路に配置され、入射光から複数の偏光方向について直線偏光成分をそれぞれ抽出する直線偏光成分抽出部と、直線偏光成分抽出部により抽出された各直線偏光成分を、それぞれ個別に撮像して撮像信号を出力する撮像素子と、撮像信号に基づき、観察対象の画像をもとに最適偏光方向を検出する偏光方向検出部と、を備える光学観察装置において、第1回転駆動部を制御して、最適偏光方向の直線偏光成分を透過させる角度に第1偏光素子を設定する。
 本発明によれば、第2光路に配置された直線偏光成分抽出部で抽出された複数の直線偏光成分を個別に撮像して得た撮像信号に基づいて最適偏光方向を検出し、第1光路に配置された第1偏光素子を最適偏光方向の直線偏光成分を透過させる角度に設定するので、観察像の明るさを変化させることなく、偏光素子を最適角度に設定可能とする光学観察装置及びその制御方法を提供することができる。
双眼鏡の外観斜視図である。 双眼鏡の構成を示すブロック図である。 第1偏光素子の回転制御について説明する図である。 第2偏光素子の回転制御について説明する図である。 第2偏光素子の回転角度と撮像タイミングとの関係を説明する図である。 輝度の検出領域について説明する図である。 自動モードの動作を説明するフローチャートである。 画素値の度数分布に基づいた最適偏光方向の検出を説明する図である。 第2実施形態の偏光制御ユニットを示すブロック図である。 第3偏光素子を示す図である。 第3実施形態の双眼鏡の構成を示すブロック図である。 カラーフィルタを示す図である。 第1~第6偏光領域とカラーフィルタとの関係を示す図である。 第4実施形態の双眼鏡の構成を示すブロック図である。 調光素子のセグメントを示す図である。 第5実施形態の双眼鏡の構成を示すブロック図である。 正立プリズムを用いて第2光路を分岐させる構成を示す図である。 第6実施形態の双眼鏡の構成を示すブロック図である。
 [第1実施形態]
 図1において、双眼鏡10は、第1光学系10Rと、第2光学系10Lと、撮像光学系10Iとを備える。第1光学系10Rは、光軸ARに沿って入射する観察対象の光学像を正立させて、観察者の右目が接眼する第1接眼部ERに導く。第2光学系10Lは、観察対象から光軸ALに沿って入射する観察対象の光学像を正立させて、観察者の左目が接眼する第2接眼部ELに導く。第1接眼部ER及び第2接眼部ELは、請求の範囲の「観察部」に対応する。
 撮像光学系10Iは、光軸AIに沿って入射する観察対象の光学像を、双眼鏡10の内部に設けられた撮像素子28(図2参照)に導く。光軸AR、光軸AL、及び光軸AIは、平行である。光軸AR及び光軸ALは、請求の範囲の「第1光路」に対応する。光軸AIは、請求の範囲の「第2光路」に対応する。
 双眼鏡10には、操作部11が設けられている。操作部11は、モード切替ボタン11aと、ズーム操作部11bとを有する。モード切替ボタン11aは、観察モードを切り替える際に操作される。観察モードには、固定モードと、自動モードとがある。固定モードでは、後述する第1偏光素子16(図2参照)の偏光軸が一定方向に固定される。自動モードでは、第1偏光素子16の偏光軸が常に最適偏光方向に向くように自動的に制御される。ズーム操作部11bは、ズーム倍率を変更させる際に操作される。
 図2において、第1光学系10Rは、対物レンズ12と、正立プリズム14と、第1偏光素子16と、接眼レンズ18とを備えている。第1光学系10Rの光軸AR上には、対物レンズ12、正立プリズム14、第1偏光素子16、及び接眼レンズ18が、観察対象側からこの順に配置されている。
 対物レンズ12には、観察対象から光が入射する。対物レンズ12は、複数枚の光学レンズから構成されている。対物レンズ12は、図示しない機構により、複数枚の光学レンズの全体または一部を移動させることにより、光学像の合焦(ピント合わせ)が可能となっている。
 正立プリズム14は、シュミット・ペシャン型のプリズムであり、対物レンズ12から入射した観察対象の光学像を正立させて射出する。正立プリズム14は、補助プリズム14Aと、ダハプリズム14Bとで構成されている。補助プリズム14Aには、対物レンズ12から光学像が入射する。ダハプリズム14Bには、補助プリズム14Aから光学像が入射する。ダハプリズム14Bは、正立した光学像を射出する。
 第1偏光素子16は、光学像から、偏光軸r1(図3参照)に沿った方向の直線偏光成分を透過させる偏光フィルタである。第1偏光素子16を透過した直線偏光成分は、接眼レンズ18に入射する。
 第1光学系10Rの第1偏光素子16は、偏光軸r1が光軸ARに直交し、かつ光軸ARを回転軸として回転自在に配置されている。また、第2光学系10Lの第1偏光素子16は、偏光軸r1が光軸ALに直交し、かつ光軸ALを回転軸として回転自在に配置されている。第1偏光素子16は、第1回転駆動部20によって回転駆動される。
 図3に示すように、第1回転駆動部20は、第1偏光素子16の偏光軸r1が基準方向r0とのなす角度αを認識している。第1回転駆動部20は、第1偏光素子16を回転させることにより角度αを変更する。基準方向r0は、光軸ARと光軸ALとを含む平面に対して垂直な方向である。
 第1回転駆動部20は、第1光学系10Rの第1偏光素子16とともに、第2光学系10Lの第1偏光素子16を回転させる。第1回転駆動部20は、回転制御部32によって制御される。
 接眼レンズ18は、第1光路上に配置されている。接眼レンズ18には、対物レンズ12、正立プリズム14、及び第1偏光素子16を経た入射光が導かれる。接眼レンズ18は、ズームレンズ18aを含む複数枚の光学レンズから構成されている。ズーム操作部11bの操作に基づき、ズームレンズ18aを移動させることにより、第1光路の画角の変更が可能となっている。ズーム操作部11bの操作により、ズーム倍率が大きくなるほど画角が小さくなる。
 第2光学系10Lは、第1光学系10Rと同様に、対物レンズ12と、正立プリズム14と、第1偏光素子16と、接眼レンズ18とを備えている。第2光学系10Lの光軸AL上には、対物レンズ12、正立プリズム14、第1偏光素子16、及び接眼レンズ18が、観察対象側からこの順に配置されている。
 また、双眼鏡10の内部には、偏光制御ユニット22が設けられている。偏光制御ユニット22は、撮像光学系10Iの光軸AIに配置されている。偏光制御ユニット22は、モード切替ボタン11aが操作されて、観察モードが自動モードに設定された場合に動作する。
 偏光制御ユニット22は、対物レンズ24と、直線偏光成分抽出部26と、撮像素子28と、偏光方向検出部30と、回転制御部32とを備えている。対物レンズ24には、観察対象から光が入射する。対物レンズ24は、対物レンズ12と同様に、光学像の合焦が可能となっている。
 撮像光学系10Iの画角は、第1光学系10R及び第2光学系10Lにおいてズーム倍率が最も小さい場合の画角と一致している。すなわち、ズーム倍率が最も小さい場合に、第1接眼部ER及び第2接眼部ELにより観察される観察範囲と、撮像素子28による撮像範囲とが一致する。
 直線偏光成分抽出部26は、対物レンズ24から入射光が入射し、その入射光から複数の偏光方向について直線偏光成分をそれぞれ抽出する。直線偏光成分抽出部26は、第2偏光素子34と、第2回転駆動部36とにより構成されている。
 第2偏光素子34は、光学像から、偏光軸r2(図4参照)に沿った方向の直線偏光成分を透過させる偏光フィルタである。第2偏光素子34を透過した光は、撮像素子28に入射する。
 第2偏光素子34は、偏光軸r2が光軸AIに直交し、かつ光軸AIを回転軸として回転自在に配置されている。第2偏光素子34は、第2回転駆動部36によって回転駆動される。
 図4に示すように、第2回転駆動部36は、第2偏光素子34の偏光軸r2が基準方向r0とのなす角度θを認識している。第2回転駆動部36は、第2偏光素子34を回転させることにより角度θを変更する。第2回転駆動部36は、偏光方向検出部30によって制御される。第2回転駆動部36は、請求の範囲の「第2駆動部」に対応する。
 撮像素子28は、直線偏光成分抽出部26により抽出された各直線偏光成分を、それぞれ個別に撮像して撮像信号を出力する。撮像素子28としては、例えばCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサやCCD(Charge Coupled Device)型イメージセンサが用いられる。なお、本実施形態では、撮像素子28として、カラーフィルタを有しないモノクロのイメージセンサを用いる。
 偏光方向検出部30は、第2偏光素子34の角度θを変えながら、撮像素子28に撮像を行わせ、複数の撮像信号を取得し、各撮像信号から観察像の輝度を求めることにより、観察に最適な偏光方向である最適偏光方向を検出する。本実施形態では、偏光方向検出部30は、観察像の輝度が最も低下する偏光方向を最適偏光方向として特定する。
 具体的には、偏光方向検出部30は、第2回転駆動部36と撮像素子28とを制御して、図5に示すように、第2偏光素子34の角度θの変更タイミングと、撮像素子28による撮像タイミングtとを同期させ、角度θが所定の角度だけ変更されるたびに撮像素子28に撮像動作を行わせる。
 偏光方向検出部30は、観察像の輝度が最も低下する偏光方向(最適偏光方向)を検出するので、撮像タイミング間で変更する角度θの変更量は、可能な限り小さいほど好ましいが、本実施形態では、30°としている。なお、偏光方向検出部30は、第2回転駆動部36により第2偏光素子34の角度θを30°変更させるたびに、第2偏光素子34を所定時間停止させ、この停止中に撮像素子28に撮像動作を行わせている。
 また、最適偏光方向を検出するためには、第2偏光素子34が360°の角度範囲で得られる複数の撮像信号に基づいて最適偏光方向を検出する必要はなく、第2偏光素子34が180°の角度範囲で得られる複数の撮像信号に基づいて最適偏光方向を検出すれば十分である。これは、第2偏光素子34の偏光軸r2の方向が180°異なる場合に得られる直線偏光成分が、互いに同一であるためである。
 このため、偏光方向検出部30は、第2偏光素子34が180°の角度範囲内で得られる複数の撮像信号に基づいて最適偏光方向を検出する。本実施形態では、各撮像タイミング間で変更する角度θの変更量を30°としているので、6つの撮像タイミングにより得られる6フレーム分の撮像信号(信号群)に基づいて最適偏光方向を検出する。
 具体的には、偏光方向検出部30は、まず、撮像タイミングt1~t6の6フレーム分の信号群G1に基づいて最適偏光方向を検出する。そして、撮像タイミングt7に撮像信号が得られると、偏光方向検出部30は、撮像タイミングt2~t7の6フレーム分の信号群G2に基づいて最適偏光方向を検出する。この後、同様に、新たな撮像信号が得られるたびに、この新たな1フレーム分の撮像信号と、これ以前の5フレーム分の撮像信号とにより構成される6フレーム分の信号群に基づいて最適偏光方向を検出する。このように、信号群を構成して最適偏光方向を検出することにより、最適偏光方向の検出頻度が増加する。
 また、偏光方向検出部30は、各撮像信号から観察像の輝度を求める際には、撮像信号から第1光路の画角に対応する領域内の画素信号に基づいて輝度を求める。具体的には、第1光路の画角は、ズーム操作部11bの操作によるズーム倍率に応じて変化するので、偏光方向検出部30は、ズーム操作部11bからズーム倍率に係る信号を受信し、図6に示すように、撮像素子28による撮像範囲38内に、第1光路の画角に対応する検出領域39をズーム倍率に応じて設定する。偏光方向検出部30は、検出領域39内の画素信号の平均値を求めることにより輝度を算出する。
 偏光方向検出部30は、信号群内の各撮像信号について輝度を求め、輝度が最小となる撮像信号が得られた第2偏光素子34の角度θを、最適偏光方向とする。なお、最適偏光方向として求まった角度θが180°以上である場合には、この角度θから180°減算した値を最適偏光方向とする。これは、第2偏光素子34の偏光軸r2の方向が180°異なる場合に得られる直線偏光成分が、互いに同一であるためである。
 回転制御部32は、第1回転駆動部20を制御して、偏光方向検出部30で検出された最適偏光方向の直線偏光成分を透過させる角度に第1偏光素子16を回転させる。具体的には、回転制御部32は、第1偏光素子16の角度αが、最適偏光方向として求まった角度θとなるように第1偏光素子16を回転させる。上記のように、角度θが180°以上である場合には、この角度θから180°減算した値を最適偏光方向とするので、第1偏光素子16の角度αは、0°≦α<180°の範囲内で変更される。
 以上のように構成された双眼鏡10の作用を図7に示すフローチャートを用いて説明する。双眼鏡10は、モード切替ボタン11aが操作され、自動モードが開始された場合(ステップS11でYES)には、偏光制御ユニット22を動作させる。
 偏光方向検出部30は、第2偏光素子34の角度θを30°ずつ変更させながら(ステップS12)、撮像素子28により撮像信号を取得する(ステップS13)。偏光方向検出部30は、取得した各撮像信号に基づいて輝度を算出し、輝度が最も小さくなる角度θを、最適偏光方向として検出する(ステップS14)。具体的には、偏光方向検出部30は、角度θが変更されて新たな撮像信号が得られるたびに、この新たな1フレーム分の撮像信号と、これ以前の5フレーム分の撮像信号とにより構成される6フレーム分の信号群に基づいて最適偏光方向を検出する。
 回転制御部32は、第1回転駆動部20を制御して、検出された最適偏光方向の直線偏光成分を透過させる角度に第1偏光素子16を回転させる(ステップS15)。ステップS12~ステップS15は、観察モードが自動モードに設定されている間(ステップS16でNO)は、繰り返し行われる。モード切替ボタン11aが再び操作されると、自動モードが終了する(ステップS16でYES)。
 このように、自動モードでは、第2偏光素子34を回転させながら最適偏光方向を逐次に検出し、最適偏光方向が検出されるたびに第1偏光素子16を最適偏光方向に設定するので、第1偏光素子16を常に最適偏光方向に維持することができる。このため、従来のように、最適偏光方向の検出にともなって、観察像の明るさが変化することはない。ユーザーは、水面や窓ガラス等を含むシーンを観察する際に、反射光等の不要光がカットされた観察像を観察することができる。この自動モードは、観察対象が変化し、反射光等の不要光に大きな変動が生じるシーンで好適である。
 また、固定モードでは、回転制御部32は、第1回転駆動部20を制御して、第1偏光素子16の角度αを0°に設定する。この固定モードでは、偏光制御ユニット22は動作しないため、省電力化が図られる。この固定モードは、観察対象の変化が少なく、反射光等の不要光に大きな変動が生じないシーンで好適である。
 なお、上記実施形態では、撮像信号の輝度に基づいて最適偏光方向を検出しているが、撮像信号の画素値の度数分布に基づいて最適偏光方向を検出しても良い。図8は、観察対象を撮像して得られた撮像信号に基づく画素値の度数分布を示している。この度数分布を生成するための画素値は、前述の検出領域39内から取得される。
 水面や窓ガラス等を含むシーンでは、反射光等の不要光の輝度が大きい傾向にあるため、第2偏光素子34の角度θが最適偏光方向でなく、不要光が十分にカットされていない状況では、度数分布は、図8(A)に示すように、画素値が大きい領域(高輝度領域)での度数が多くなる。このため、高輝度領域における累積度数が最小となる角度θを求めることにより、最適偏光方向を検出することができる。
 具体的には、閾値THを設定し、第2偏光素子34の角度θを変更するたびに得られる撮像信号から、閾値TH以上の累積度数を求め、この累積度数が最小となる角度θを求め、この方向を最適偏光方向とする。この最適偏光方向では、反射光等の不要光の全てが第2偏光素子34によりほぼカットされるので、図8(B)に示すように、閾値TH以上の累積度数がほぼゼロとなる。
 このように、閾値TH以上の累積度数に基づいて最適偏光方向を検出することができる。閾値THは、適宜変更して良い。
 なお、上記実施形態では、第2偏光素子34の角度θが所定の角度だけ変更されるたびに第2偏光素子34の回転を停止させ、この停止中に撮像素子28に撮像を行わせているが、第2偏光素子34を一定の速度で回転させたまま、角度θが所定の角度を取るタイミングで撮像素子28に撮像を行わせても良い。
 [第2実施形態]
 第1実施形態では、第2偏光素子34を回転させることにより、光学像から複数の直線偏光成分を順次に抽出しているが、第2実施形態では、複数の直線偏光成分を同時に抽出する。
 図9に示すように、第2実施形態の偏光制御ユニット40は、偏光制御ユニット22の第2偏光素子34及び第2回転駆動部36に代えて、第3偏光素子42が、対物レンズ24と撮像素子28との間に固定配置されている。第3偏光素子42は、請求の範囲の「直線偏光成分抽出部」に対応する。
 図10に示すように、第3偏光素子42は、偏光軸の方向が異なる第1~第6偏光領域A1~A6を有する。第1~第6偏光領域A1~A6は、縦横方向に繰り返しパターン配列されている。基準方向r0に対する第1~第6偏光領域A1~A6の偏光軸の角度は、順に、0°,30°,60°,90°,120°,150°となっている。
 したがって、光学像を第1~第6偏光領域A1~A6に入射させることにより、第1実施形態と同様の6方向の直線偏光成分が同時に抽出される。なお、第1~第6偏光領域A1~A6は、縦横方向に繰り返しパターン配列されているので、ズーム操作に伴う画角の変更により検出領域39の大きさが変化したとしても、検出領域39内には少なくとも1組の第1~第6偏光領域A1~A6が含まれている。
 第2実施形態では、検出領域39の画素値に基づいて、各直線偏光成分の輝度を求め、この輝度が最小となる最適偏光方向を検出する。第2実施形態のその他の構成は、第1実施形態と同様である。
 第2実施形態では、複数の偏光方向について直線偏光成分を同時に抽出するので、第1実施形態のように直線偏光成分を順次に抽出する場合と比較して、最適偏光方向の検出時間が短縮される。また、第2実施形態では、第1実施形態のように第2偏光素子34を回転させるための第2回転駆動部36を設ける必要が無いので、省スペース化及び省電力化が図られる。
 なお、第3偏光素子42を、撮像素子28の撮像面上に、半導体製造プロセス等によって直接形成しても良い。また、第2実施形態においても、撮像信号の画素値の度数分布に基づいて最適偏光方向を検出することが可能である。
 [第3実施形態]
 第3実施形態は、撮像素子28により得られる画像の記録と、この画像を第1接眼部ER及び第2接眼部ELに導くことを可能とする。第3実施形態の双眼鏡50は、図11に示すように、第1実施形態の双眼鏡10の構成に加えて、撮影ボタン52と、メモリ54と、表示部56と、ハーフミラー58とを有する。
 また、第1実施形態では、撮像素子28としてモノクロのイメージセンサを用いているが、第3実施形態では、カラー画像を表示部56に表示させるために、複数色の画素を有するカラーのイメージセンサを用いる。
 図12に示すように、撮像素子28の各画素には、B(青色)フィルタ、G(緑色)フィルタ、R(赤色)フィルタのいずれかが設けられている。本実施形態では、カラーフィルタの色配列は、ベイヤー配列としている。Bフィルタが設けられたB画素は、B撮像信号を出力する。Gフィルタが設けられたG画素は、G撮像信号を出力する。Rフィルタが設けられたR画素は、R撮像信号を出力する。
 本実施形態では、偏光方向検出部30は、撮像素子28から出力されるBGRの撮像信号をY/C変換することによって輝度信号を生成する。偏光方向検出部30は、輝度信号から求まる観察像の輝度に基づき、最適偏光方向を検出する。
 撮影ボタン52は、観察対象の静止画撮影を行う際に操作される。この撮影ボタン52の操作は、自動モード時に有効となる。メモリ54には、撮影ボタン52が操作された際に、偏光方向検出部30により最適偏光方向が検出された撮像信号に基づく画像が、最適画像として記憶される。また、表示部56は、最適画像を表示する。
 ハーフミラー58は、第1光学系10Rでは、接眼レンズ18と第1接眼部ERとの間の光軸ARに配置されており、第2光学系10Lでは、接眼レンズ18と第2接眼部ELとの間の光軸ALに配置されている。表示部56に表示された画像は、ハーフミラー58を介して、第1接眼部ER及び第2接眼部ELに導かれる。表示部56に表示された画像は、光学像に重畳される。
 このように、第3実施形態では、静止画撮影を行った場合に、反射光等の不要光がカットされた最適な静止画が自動的に取得される。また、この最適な静止画を、第1接眼部ER及び第2接眼部ELを介して確認することができる。
 なお、上記第3実施形態においても、第2実施形態と同様に、第2偏光素子34に代えて、第3偏光素子42を用いることによって、光学像から複数の直線偏光成分を同時に抽出することができる。この場合、図13に示すように、第1~第6偏光領域A1~A6の各々から輝度信号を生成するために、B画素、G画素、R画素のそれぞれが、第1~第6偏光領域A1~A6の各々に対して、少なくとも1以上配置される必要がある。
 また、第3実施形態では、撮像素子28としてBGRの原色型カラーセンサを用いているが、これに代えて、補色型カラーセンサを用いても良い。
 また、第3実施形態では、表示部56に表示された画像を、光学像に重畳させる構成としているが、第1光学系10R及び第2光学系10Lにシャッタ機構を設けることにより、表示部56に画像が表示されている間は、第1光学系10R及び第2光学系10Lを遮光して、表示部56の表示画像のみを第1接眼部ER及び第2接眼部ELに導くよう構成しても良い。また、ハーフミラー58を、光軸ARと光軸ALとの両光軸に設けずに、いずれか一方の光軸に設けても良い。
 また、第3実施形態では、表示部56の表示画像を第1接眼部ER及び第2接眼部ELに導くよう構成しているが、表示部56を双眼鏡50の筐体(図示せず)に設け、表示部56の表示画像を第1接眼部ER及び第2接眼部ELに導かずに、直接ユーザーに対して表示させても良い。この場合の表示部56は、請求の範囲の「観察部」に対応する。
 [第4実施形態]
 第1実施形態では、水面や窓ガラス等を含むシーンを観察する際に、反射光等の不要光を第1偏光素子16でカットすることにより観察像の視認性を高めている。しかし、観察するシーン中には、反射光等の不要光だけでなく、太陽等の高輝度被写体からの直接光等も含まれ、このような光は、第1偏光素子16で十分にカットされず、観察像の視認性を低下させる。
 このため、第4実施形態の双眼鏡60では、図14に示すように、第1実施形態の双眼鏡10の構成に加えて、調光素子62と、調光素子制御部64とが設けられている。
 図15に示すように、調光素子62は、光透過率が可変である複数のセグメントSを有する。調光素子62は、第1光学系10Rの接眼レンズ18と第1接眼部ERとの間と、第2光学系10Lの接眼レンズ18と第2接眼部ELとの間とに配置されている。
 調光素子62は、例えば、ポリマーネットワーク型液晶(PNLC:Polymer Network Liquid Crystal)フィルタにより構成されている。調光素子62のセグメントSは、2次元マトリクス状に配列されている。調光素子62は、接眼レンズ18からの光学像の光量をセグメントS毎に調整(調光)する。
 調光素子制御部64は、偏光方向検出部30により最適偏光方向が検出された撮像信号に基づいて、調光素子62の各セグメントSの光透過率を個別に制御する。調光素子制御部64は、撮像素子28の画素とセグメントSとの対応関係を把握している。
 調光素子制御部64は、偏光方向検出部30により最適偏光方向が検出された撮像信号を撮像素子28から取得する。調光素子制御部64は、取得した撮像信号に基づき、調光素子62のセグメントSに対応する画素の輝度を求める。調光素子制御部64は、セグメントSに対応する画素について輝度の平均値を求めることによって、セグメントS毎の輝度を求める。調光素子制御部64は、各セグメントSのうち、輝度が特定の閾値以上の高輝度領域が含まれているセグメントSを特定する。調光素子制御部64は、特定したセグメントSの光透過率を低下させることにより、このセグメントSを透過する光の光量を減光させる。
 このように、本実施形態では、太陽等の高輝度被写体に対応するセグメントSの光透過率を低下させるので、観察像の視認性がより向上する。
 なお、調光素子62を、接眼レンズ18と第1接眼部ERとの間と、接眼レンズ18と第2接眼部ELとの間とに配置しているが、調光素子62は、光軸AR及び光軸AL上に配置されていれば良く、配置する位置は特に限定されない。ただし、調光素子62は、第1接眼部ER及び第2接眼部ELに近い位置に配置されることが好ましい。
 [第5実施形態]
 第1実施形態では、偏光制御ユニット22に光学像を取り込むための第2光路を、第1光学系10R及び第2光学系10Lの第1光路とは独立して設けているが、第1光路を光学部材により分岐させることにより第2光路を形成しても良い。
 第5実施形態の双眼鏡70では、図16に示すように、第1実施形態の双眼鏡10の構成に加えて、第1光学系10Rの対物レンズ12と正立プリズム14との間に光学部材72を設けることにより、光軸AIを、光軸ARから分岐させる。
 光学部材72は、例えば、透明板であり、フレネル反射を利用して、対物レンズ12からの入射光のうち、一部の光を反射させて偏光制御ユニット22に導くとともに、その他の光を透過させて正立プリズム14に導く。
 本実施形態では、光学部材72により光軸AIが光軸ARから分岐されるので、第1光学系10Rと撮像光学系10Iとで対物レンズ12が共用される。このため、第1光路の画角と第2光路の画角とが常に同一である。このため、本実施形態では、第1実施形態のように、輝度を検出するための検出領域39を、第1光路の画角に合わせて変更する必要はなく、ズーム倍率に関係なく、常に撮像範囲38内の全ての信号を用いて輝度を算出すれば良い。
 また、第1光路(光軸AR)を伝搬する光の光学部材72への入射角がブリュースター角となるように、光学部材72を配置しても良い。この場合には、光学部材72により反射され、第2光路(光軸AI)に導かれる光が、ほぼS偏光成分となる。このS偏光成分は、上記不要光に含まれる主成分であるので、第2偏光素子34の回転に伴う輝度の変化が明瞭化し、最適偏光方向の検出精度が向上する。
 なお、本実施形態においても、第2偏光素子34に代えて、第3偏光素子42を用いることが可能であることは言うまでもない。また、光学部材72は、ハーフミラー等のその他の光学部材であってもよい。
 また、光学部材72に代えて、図17に示すように、正立プリズム14の非全反射面にハーフミラー74を設け、光学像の一部を正立プリズム14から射出させることによって、偏光制御ユニット22に光学像を取り込むための第2光路(光軸AI)を形成しても良い。これにより、さらに省スペース化が図られる。
 [第6実施形態]
 上記実施形態では、偏光方向検出部30により検出された最適偏光方向(角度θ)に基づいて第1偏光素子16の角度αを設定している。しかし、双眼鏡10の使用状況によっては、最適偏光方向と、この最適偏光方向に基づいて実際に設定される第1偏光素子16の設定位置とにズレが生じる可能性がある。そこで、第6実施形態の双眼鏡80は、回転制御部32による第1偏光素子16の設定位置を校正するための校正動作を実行可能とする。
 図18において、第6実施形態の双眼鏡80は、第1実施形態の双眼鏡10の構成に加えて、校正動作開始操作部82と、回転停止操作部84と、校正制御部86とを有する。
 校正動作開始操作部82は、校正動作を開始させる際に操作される。回転停止操作部84は、校正動作の実行中に回転される第1偏光素子16の回転を、ユーザーが停止させる際に操作される。
 校正制御部86は、校正動作開始操作部82が操作された場合に、第1回転駆動部20を駆動させることによって第1偏光素子16を回転させる。第1偏光素子16が回転されると、第1偏光素子16の回転に伴って観察像の明るさが周期的に変化する。明るさが最も小さくなるタイミングで、ユーザーに回転停止操作部84を操作させる。
 校正制御部86は、回転停止操作部84が操作された場合、第1偏光素子16の回転を停止させるとともに、停止された第1偏光素子16の回転停止位置を検知する。回転停止操作部84は、検知した回転停止位置に基づき、第1偏光素子16の角度αを特定する。
 校正制御部86は、特定した角度αと、偏光方向検出部30により検出された最適偏光方向に対応する角度θとを比較し、角度差を求める。そして、校正制御部86は、回転制御部32を制御して、求めた角度差に基づき、最適偏光方向に基づく第1偏光素子16の設定位置を校正する。
 なお、上記第6実施形態では、観察像の明るさが最も小さくなるタイミングで停止された第1偏光素子16の回転停止位置に基づいて、第1偏光素子16の設定位置を校正しているが、観察像の明るさが最も大きくなるタイミングで停止された第1偏光素子16の回転停止位置に基づいて、第1偏光素子16の設定位置を校正しても良い。
 また、校正制御部86は、観察像の明るさが最も小さくなるタイミングで停止された第1偏光素子16の回転停止位置と、観察像の明るさが最も大きくなるタイミングで停止された第1偏光素子16の回転停止位置との両方に基づいて第1偏光素子16の設定位置を校正しても良い。
 また、第6実施形態では、第1接眼部ER及び第2接眼部ELを介して観察される観察像に基づいて回転停止操作部84の操作が行われるが、第3実施形態の表示部56に表示される画像を観察しながら回転停止操作部84が操作されるようにしても良い。この場合、例えば、シャッタ機構等により第2光学系10Lに光学像が導かれることを防止するとともに、表示部56からの画像が第2接眼部ELに導かれる構成とする。このため、第1接眼部ERには光学像が導かれ、第2接眼部ELには最適偏光方向が検出された撮像信号に基づいて生成された画像(最適画像)が導かれる。これにより、ユーザーは、左目で最適画像を観察し、右目で実際の光学像を観察しながら、回転停止操作部84の操作を行うことができる。
 上記各実施形態では、双眼鏡を例として本発明を説明しているが、本発明は、単眼鏡や望遠鏡等、他の光学観察装置にも適用可能である。
 10,50,60,70,80 双眼鏡
 10R 第1光学系
 10L 第2光学系
 10I 撮像光学系
 11 操作部
 11a モード切替ボタン
 11b ズーム操作部
 12 対物レンズ
 14 正立プリズム
 14A 補助プリズム
 14B ダハプリズム
 16 第1偏光素子
 18 接眼レンズ
 18a ズームレンズ
 20 第1回転駆動部
 22,40 偏光制御ユニット
 24 対物レンズ
 26 直線偏光成分抽出部
 28 撮像素子
 30 偏光方向検出部
 32 回転制御部
 34 第2偏光素子
 36 第2回転駆動部
 38 撮像範囲
 39 検出領域
 42 第3偏光素子
 52 撮影ボタン
 54 メモリ
 56 表示部
 58,74 ハーフミラー
 62 調光素子
 64 調光素子制御部
 72 光学部材
 82 校正動作開始操作部
 84 回転停止操作部
 86 校正制御部
 AR 光軸
 AL 光軸
 AI 光軸
 ER 第1接眼部
 EL 第2接眼部
 r1 偏光軸
 r2 偏光軸

Claims (15)

  1.  観察対象から光が入射する対物レンズと、
     前記対物レンズに入射した入射光が第1光路を介して導かれる観察部と、
     特定の直線偏光成分を透過させる偏光素子であって、前記第1光路の光軸に直交する面上に回転自在に配置された第1偏光素子と、
     前記第1偏光素子を回転駆動する第1回転駆動部と、
     前記第1光路と同一、又は前記第1光路より画角の大きい第2光路に配置され、前記入射光から複数の偏光方向について直線偏光成分をそれぞれ抽出する直線偏光成分抽出部と、
     前記直線偏光成分抽出部により抽出された前記各直線偏光成分を、それぞれ個別に撮像して撮像信号を出力する撮像素子と、
     前記撮像信号に基づき、前記観察対象の画像をもとに最適偏光方向を検出する偏光方向検出部と、
     前記第1回転駆動部を制御して、前記最適偏光方向の直線偏光成分を透過させる角度に前記第1偏光素子を設定する回転制御部と、
     を備える光学観察装置。
  2.  前記偏光方向検出部は、前記観察対象の画像の輝度が最も低下する偏光方向を検出する請求項1に記載の光学観察装置。
  3.  前記直線偏光成分抽出部は、
     前記特定の直線偏光成分を透過させる偏光素子であって、前記第2光路の光軸に直交する面上に配置された第2偏光素子と、
     前記第2偏光素子を回転駆動する第2回転駆動部と、を備え、
     前記第2偏光素子が回転される一定の角度範囲内で前記撮像素子に複数回の撮像動作を行わせることにより、前記複数の偏光方向について直線偏光成分をそれぞれ順次に抽出する請求項1または2に記載の光学観察装置。
  4.  前記角度範囲は、180°である請求項3に記載の光学観察装置。
  5.  前記直線偏光成分抽出部は、分割された複数の偏光領域を有し、前記第2光路に固定配置された第3偏光素子であって、前記各偏光領域が透過させる直線偏光成分の偏光方向はそれぞれ異なり、前記複数の偏光方向について直線偏光成分を同時に抽出する請求項1または2に記載の光学観察装置。
  6.  前記第3偏光素子は、前記撮像素子の撮像面上に設けられている請求項5に記載の光学観察装置。
  7.  前記撮像素子は、複数色の画素を有するカラーセンサであり、各色の画素が、1つの前記偏光領域に対して少なくとも1つ以上配置されている請求項6に記載の光学観察装置。
  8.  光透過率が可変である複数のセグメントを有し、前記第1光路に配置された調光素子と、
     前記最適偏光方向が検出された前記撮像信号に基づいて、前記各セグメントの光透過率を制御する調光素子制御部と、
     を備える請求項1または2に記載の光学観察装置。
  9.  前記第1偏光素子と前記観察部との間の前記第1光路に接眼レンズを備え、
     前記調光素子は、前記接眼レンズと前記観察部との間に配置されている請求項8に記載の光学観察装置。
  10.  前記第1光路にハーフミラーが配置され、
     前記第2光路は、前記ハーフミラーにより前記第1光路から分岐される請求項1から9のいずれか1項に記載の光学観察装置。
  11.  前記回転制御部による前記第1偏光素子の設定位置を校正するための校正動作の実行中に回転される前記第1偏光素子の回転を、ユーザーが停止させることを可能とする回転停止操作部と、
     前記第1回転駆動部を駆動して前記第1偏光素子を回転させ、前記観察部に導かれる前記観察対象の光学像の光量が最も低下する位置で前記回転停止操作部が操作されることにより停止された前記第1偏光素子の回転停止位置と、前記偏光方向検出部により検出された前記最適偏光方向との差異に基づき、前記設定位置を校正する校正制御部と、
     を備える請求項1から10のいずれか1項に記載の光学観察装置。
  12.  前記最適偏光方向が検出された前記撮像信号に基づく画像を表示する表示部を備える請求項11に記載の光学観察装置。
  13.  前記表示部に表示された前記画像は、前記第1光路を介して前記観察部に導かれる請求項12に記載の光学観察装置。
  14.  前記校正動作を開始させるための校正動作開始操作部を備え、
     前記校正制御部は、前記校正動作開始操作部が操作され、前記回転停止操作部が操作されるまでの間、前記第1偏光素子を回転させる請求項11から13のいずれか1項に記載の光学観察装置。
  15.  観察対象から光が入射する対物レンズと、
     前記対物レンズに入射した入射光が第1光路を介して導かれる観察部と、
     特定の直線偏光成分を透過させる偏光素子であって、前記第1光路の光軸に直交する面上に回転自在に配置された第1偏光素子と、
     前記第1偏光素子を回転駆動する第1回転駆動部と、
     前記第1光路と同一、又は前記第1光路より画角の大きい第2光路に配置され、前記入射光から複数の偏光方向について直線偏光成分をそれぞれ抽出する直線偏光成分抽出部と、
     前記直線偏光成分抽出部により抽出された前記各直線偏光成分を、それぞれ個別に撮像して撮像信号を出力する撮像素子と、
     前記撮像信号に基づき、前記観察対象の画像をもとに最適偏光方向を検出する偏光方向検出部と、
     を備える光学観察装置において、
     前記第1回転駆動部を制御して、前記最適偏光方向の直線偏光成分を透過させる角度に前記第1偏光素子を設定する光学観察装置の制御方法。
PCT/JP2016/057218 2015-04-15 2016-03-08 光学観察装置及びその制御方法 WO2016167051A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680021404.6A CN107533219A (zh) 2015-04-15 2016-03-08 光学观察装置及其控制方法
JP2017512230A JP6262918B2 (ja) 2015-04-15 2016-03-08 光学観察装置及びその制御方法
US15/783,359 US20180045869A1 (en) 2015-04-15 2017-10-13 Optical observation device and method of controlling optical observation device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-083157 2015-04-15
JP2015083157 2015-04-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/783,359 Continuation US20180045869A1 (en) 2015-04-15 2017-10-13 Optical observation device and method of controlling optical observation device

Publications (1)

Publication Number Publication Date
WO2016167051A1 true WO2016167051A1 (ja) 2016-10-20

Family

ID=57126036

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/057218 WO2016167051A1 (ja) 2015-04-15 2016-03-08 光学観察装置及びその制御方法

Country Status (4)

Country Link
US (1) US20180045869A1 (ja)
JP (1) JP6262918B2 (ja)
CN (1) CN107533219A (ja)
WO (1) WO2016167051A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019036498A1 (en) * 2017-08-14 2019-02-21 Vista Outdoor Operations Llc PRISM ASSEMBLIES AND OPTICAL DEVICES INCORPORATING PRISM ASSEMBLIES

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111198449B (zh) * 2020-03-13 2021-04-13 联想(北京)有限公司 电子设备及其控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08313817A (ja) * 1995-05-17 1996-11-29 Minolta Co Ltd 双眼鏡
JP2001188293A (ja) * 1999-12-28 2001-07-10 Canon Inc 偏光除去装置およびこれを用いた撮影システム
JP2001264848A (ja) * 2000-03-22 2001-09-26 Fuji Photo Optical Co Ltd 撮影補助装置
JP2010002574A (ja) * 2008-06-19 2010-01-07 Nikon Corp 双眼鏡

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3107093B2 (ja) * 1990-11-28 2000-11-06 株式会社島津製作所 展望用ディスプレイ装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08313817A (ja) * 1995-05-17 1996-11-29 Minolta Co Ltd 双眼鏡
JP2001188293A (ja) * 1999-12-28 2001-07-10 Canon Inc 偏光除去装置およびこれを用いた撮影システム
JP2001264848A (ja) * 2000-03-22 2001-09-26 Fuji Photo Optical Co Ltd 撮影補助装置
JP2010002574A (ja) * 2008-06-19 2010-01-07 Nikon Corp 双眼鏡

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019036498A1 (en) * 2017-08-14 2019-02-21 Vista Outdoor Operations Llc PRISM ASSEMBLIES AND OPTICAL DEVICES INCORPORATING PRISM ASSEMBLIES

Also Published As

Publication number Publication date
US20180045869A1 (en) 2018-02-15
JP6262918B2 (ja) 2018-01-17
CN107533219A (zh) 2018-01-02
JPWO2016167051A1 (ja) 2018-01-11

Similar Documents

Publication Publication Date Title
US9030543B2 (en) Endoscope system
US11240444B2 (en) Display panel, display device and image acquiring method thereof
JP4857962B2 (ja) 撮像装置
US20120019736A1 (en) Imaging device
US10893181B2 (en) System and apparatus for color imaging device
JP7156352B2 (ja) 撮像装置、撮像方法、及びプログラム
JP2012015863A (ja) 撮像装置
JP2006208714A (ja) 撮像装置
US20080055535A1 (en) Transparent display
JP6262918B2 (ja) 光学観察装置及びその制御方法
WO2015029388A2 (en) Optical low pass filter, image pickup device, and image pickup apparatus
US20090091640A1 (en) Digital camera with special effect viewfinder, image displaying method on the viewfinder, and photographing method with the digital camera
US20100003025A1 (en) Imaging apparatus
US8169529B2 (en) Apparatus and methods for performing light metering in an imaging apparatus
JP2001189880A (ja) デジタルカメラ
JP2000105348A (ja) 画像観察装置
KR100927765B1 (ko) 조광 장치 및 촬상 장치
US8830582B2 (en) Viewing glasses and image beam adjustment method thereof
JP2001242370A (ja) レンズ装置
JP2006319695A (ja) 監視カメラおよび監視装置
JP2014042126A (ja) 撮影装置及び撮影装置の自動連続撮影方法
JP2014048492A (ja) 撮像装置
US20240015377A1 (en) Imaging control device, imaging apparatus, imaging control method, and program
JP2003270520A (ja) ピント状態検出装置
JP4518104B2 (ja) カメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16779843

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2017512230

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16779843

Country of ref document: EP

Kind code of ref document: A1