CN112970242B - 摄像装置、内窥镜装置及摄像装置的工作方法 - Google Patents
摄像装置、内窥镜装置及摄像装置的工作方法 Download PDFInfo
- Publication number
- CN112970242B CN112970242B CN201880099119.5A CN201880099119A CN112970242B CN 112970242 B CN112970242 B CN 112970242B CN 201880099119 A CN201880099119 A CN 201880099119A CN 112970242 B CN112970242 B CN 112970242B
- Authority
- CN
- China
- Prior art keywords
- image
- subject
- control
- image pickup
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0075—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2407—Optical details
- G02B23/2423—Optical details of the distal end
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/1006—Beam splitting or combining systems for splitting or combining different wavelengths
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/1066—Beam splitting or combining systems for enhancing image performance, like resolution, pixel numbers, dual magnifications or dynamic range, by tiling, slicing or overlapping fields of view
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/676—Bracketing for image capture at varying focusing conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2407—Optical details
- G02B23/2461—Illumination
- G02B23/2469—Illumination using optical fibres
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Astronomy & Astrophysics (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Computing Systems (AREA)
- Endoscopes (AREA)
- Automatic Focus Adjustment (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Cameras In General (AREA)
- Focusing (AREA)
- Optical Elements Other Than Lenses (AREA)
Abstract
摄像装置(10)包括:包含对焦透镜(111)的物镜光学系统(110);将被摄体像分割成合焦物体位置不同的2个光路的光路分割部(121);通过分别拍摄分割后的2个光路的被摄体像而取得第1图像及第2图像的摄像元件(122);通过在第1图像与第2图像之间的对应的规定区域选择对比度相对高的图像而生成1个合成图像的图像合成部(330);以及AF控制部(360)。AF控制部(360)基于在图像合成部(330)中进行合成处理前的第1图像及第2图像中的至少一方来进行AF控制。
Description
技术领域
本发明涉及摄像装置、内窥镜装置及摄像装置的工作方法等。
背景技术
在内窥镜系统中,为了不妨碍用户进行的诊断和处置,要求尽可能宽的景深。但是近年来,随着在内窥镜系统中也使用高像素的摄像元件,景深变窄。因此,在专利文献1中提出了一种内窥镜系统:同时拍摄焦点位置不同的2张图像并将它们合成,由此生成景深被扩大的合成图像。以下,将扩大景深的方法表述为EDOF(Extended Depth Of Field:扩展景深)技术。
现有技术文献
专利文献
专利文献1:国际公开第2014/002740号
发明内容
发明要解决的问题
专利文献1的内窥镜系统还具备焦点切换机构,构成为在扩大了景深的状态下能够进行接近观察和远方观察。如果进行满足接近观察时的合成景深与远方观察时的合成景深重叠这样的条件的设计,则不会产生图像模糊的范围,能够观察内窥镜观察所需的全部距离范围。
在通过使摄像元件进一步高像素化而使景深更窄的情况下,无法使接近观察时的合成景深与远方观察时的合成景深重叠,仅通过切换2个焦点进行观察时,会产生图像模糊的范围。
与此相对,考虑通过进行使焦点自动对准于关注被摄体的AF(Auto Focus:自动对焦)控制而不产生图像的模糊。但是,迄今为止,尚未提出同时拍摄合焦状态不同的2张图像并使用它们生成合成图像的摄像装置中的最佳的AF控制方法。
根据本发明的若干方案,可提供在景深扩大后的合成图像中进行能够实现最佳的景深范围的AF控制的摄像装置、内窥镜装置及摄像装置的工作方法等。
用于解决问题的手段
本发明的一方案涉及一种摄像装置,包括:物镜光学系统,其包含调整合焦物体位置的对焦透镜,并取得被摄体像;光路分割部,其将所述被摄体像分割成所述合焦物体位置不同的2个光路;摄像元件,其通过分别拍摄分割后的所述2个光路的所述被摄体像,取得第1图像及第2图像;图像合成部,其进行合成处理,在该合成处理中,通过在所述第1图像与所述第2图像之间的对应的规定区域选择对比度相对高的图像而生成1个合成图像;以及AF控制部,其进行使所述对焦透镜向判定为焦点对准于关注被摄体的位置移动的AF控制,其中,AF表示自动对焦,所述AF控制部基于在所述图像合成部中进行所述合成处理前的所述第1图像及所述第2图像中的至少一方,进行所述AF控制。
此外,本发明的另一方案涉及一种内窥镜装置,包括:物镜光学系统,其包含调整合焦物体位置的对焦透镜,并取得被摄体像;光路分割部,其将所述被摄体像分割成所述合焦物体位置不同的2个光路;摄像元件,其通过分别拍摄分割后的所述2个光路的所述被摄体像,取得第1图像及第2图像;图像合成部,其进行合成处理,在该合成处理中,通过在所述第1图像与所述第2图像之间的对应的规定区域选择对比度相对高的图像而生成1个合成图像;以及AF控制部,其进行使所述对焦透镜向判定为焦点对准于关注被摄体的位置移动的AF控制,其中,AF表示自动对焦,所述AF控制部基于在所述图像合成部中进行所述合成处理前的所述第1图像及所述第2图像中的至少一方,进行所述AF控制。
此外,本发明的又一方案涉及一种摄像装置的工作方法,该摄像装置包括:物镜光学系统,其包含调整合焦物体位置的对焦透镜,并取得被摄体像;光路分割部,其将所述被摄体像分割成所述合焦物体位置不同的2个光路;以及摄像元件,其通过分别拍摄分割后的所述2个光路的所述被摄体像,取得第1图像及第2图像,所述摄像装置的工作方法进行合成处理和AF控制,AF表示自动对焦,在该合成处理中,通过在所述第1图像与所述第2图像之间的对应的规定区域选择对比度相对高的图像而生成1个合成图像,在该AF控制中,基于进行所述合成处理前的所述第1图像及所述第2图像中的至少一方,使所述对焦透镜向判定为焦点对准于关注被摄体的位置移动。
附图说明
图1是摄像装置的结构例。
图2是对被摄体像的成像位置与景深范围的关系进行说明的图。
图3是内窥镜装置的结构例。
图4是摄像部的结构例。
图5是摄像元件的有效像素区域的说明图。
图6是摄像部的另一结构例。
图7是AF控制部的结构例。
图8是对AF控制进行说明的流程图。
图9是对AF控制模式的切换处理进行说明的流程图。
图10是对AF控制模式的切换处理进行说明的另一流程图。
图11是AF控制部的另一结构例。
图12(A)~图12(C)是对被摄体形状与期望的合成景深范围的关系进行说明的图。
具体实施方式
以下,对本实施方式进行说明。另外,以下说明的本实施方式并非不合理地限定权利要求书所记载的本发明的内容。此外,本实施方式所说明的全部结构不一定是本发明的必须构成要件。
1.概要
在专利文献1等中公开了一种内窥镜系统:同时拍摄合焦物体位置不同的2张图像并将它们合成,由此生成景深被扩大的合成图像。这里,合焦物体位置表示由透镜系统、像面、物体构成的系统处于合焦状态的情况下的物体的位置。例如,在将像面作为摄像元件的面的情况下,合焦物体位置表示在使用该摄像元件拍摄经由上述透镜系统的被摄体像的情况下,在摄像图像中理想地对准了焦点的被摄体的位置。更具体而言,由摄像元件拍摄的图像成为合焦于如下被摄体的图像,该被摄体位于包含合焦物体位置的景深的范围内。合焦物体位置是对准了焦点的物体的位置,因此,也可以说是焦点位置。
另外,以下将成像位置用于说明。成像位置表示给定的被摄体的被摄体像所成像的位置。存在于合焦物体位置的被摄体的成像位置在摄像元件面上。此外,通过被摄体的位置离开合焦物体位置,被摄体的成像位置也离开摄像元件面。在被摄体的位置脱离景深的情况下,该被摄体被模糊地拍摄。被摄体的成像位置是成为该被摄体的点扩散函数(PSF:Point Spread Function)的峰值的位置。
在专利文献1等的现有方法中,设想根据基于EDOF技术的深度扩大及远点观察与近点观察的切换能够合焦于所希望的范围的被摄体的情况。但是,在由于摄像元件的高像素化使景深变窄的情况下,可能产生仅通过远点观察与近点观察的简单切换无法合焦的范围。因此,存在针对组合EDOF技术与AF控制的要求。但是,这里设想的光学系统能够同时拍摄合焦物体位置不同的多个图像,因此,不是单纯地应用以往的AF控制,而是需要执行更加适当的AF控制。以下,首先在针对用于AF控制的图像进行了研究之后,根据实现适当的景深范围这样的第1观点和实现高速的AF控制这样的第2观点来说明本实施方式的方法。
本实施方式的摄像装置通过同时拍摄合焦物体位置不同的2张图像并将它们合成来生成合成图像。即,摄像装置能够取得反映出给定的1个定时的被摄体的状态的多个图像。由于AF控制结果根据用于AF控制的图像而不同,因此,在实现适当的AF控制时,作为处理对象的图像的选择是重要的。
这里,合成图像成为合焦物体位置不同的2个图像的信息根据图像上的位置复杂地混合的状态。根据这样的合成图像来计算用于实现适当的AF控制的对焦透镜的移动方向和移动量是极其困难的。具体而言,适当的AF控制是使关注被摄体的成像位置向作为目标的成像位置移动的控制。
如图1所示,本实施方式的摄像装置10包含物镜光学系统110、光路分割部121、摄像元件122、图像合成部330以及AF控制部360。物镜光学系统110包含对合焦物体位置进行调整的对焦透镜111,取得被摄体像。光路分割部121将该被摄体像分割为合焦物体位置不同的2个光路。之后使用图4~图6详细叙述光路分割部121。摄像元件122通过分别拍摄分割后的2个光路的被摄体像来取得第1图像及第2图像。以下,将拍摄光路相对短的被摄体像而得到的、合焦物体位置距物镜光学系统110相对远的图像表述为FAR图像。FAR图像也可以说是远点图像。另外,将拍摄光路相对长的被摄体像而得到的、合焦物体位置距物镜光学系统110相对近的图像表述为NEAR图像。NEAR图像也可以说是近点图像。另外,这里的光路表示考虑了光所通过的物体的折射率等的光学距离。第1图像是指FAR图像和NEAR图像中的任意一方的图像,第2图像是指另一方的图像。如之后使用图4~图6叙述的那样,摄像元件122可以为1个元件,也可以包含多个元件。
图像合成部330进行通过在第1图像及第2图像之间的对应的规定区域选择对比度相对高的图像而生成1个合成图像的合成处理。AF控制部360进行使对焦透镜111向判定为焦点对准于关注被摄体的位置移动的控制。这里,焦点对准表示关注被摄体位于景深的范围内。
而且,AF控制部360基于进行图像合成部330中的合成处理之前的第1图像及第2图像中的至少一方而进行AF控制。第1图像的合焦物体位置与该第1图像上的位置无关,是固定的。同样,第2图像的合焦物体位置与该第2图像上的位置无关,是固定的。根据本实施方式的方法,在根据同时拍摄的多个图像而生成合成图像的情况下,能够使用适当的图像来进行AF控制。另外,第1图像及第2图像是合成处理前的图像即可,也可以是实施了合成处理以外的图像处理的图像。例如如之后使用图3叙述的那样,AF控制部360也可以使用由预处理部320进行了预处理后的图像来进行AF控制。或者,AF控制部360也可以使用进行预处理前的图像来进行AF控制。
接下来,根据第1观点来说明本实施方式的方法。在以往的AF控制中,进行使对焦透镜111向判定为关注被摄体的被摄体像在摄像元件上成像的透镜位置移动的控制。但是,在同时拍摄合焦物体位置不同的2个图像并使用它们生成合成图像的摄像装置10中,有时不期望进行使成像位置成为摄像元件上的控制。
图2是对给定的被摄体的成像位置与合成图像的景深的关系进行说明的图。另外,在图2中图示出物镜光学系统110中的对焦透镜111。光路分割部121将被摄体像的光路分割为物镜光学系统110至摄像元件122的光路长度相对短的光路与物镜光学系统110至摄像元件122的光路长度相对长的光路这2个光路。图2是在1个光轴AX上表现出2个光路的图,光路分割部121的光路分割与设置光轴AX上的位置不同的2个摄像元件122是同义的。2个摄像元件122例如是图2所示的摄像元件F和摄像元件N。
摄像元件F是光路长度相对短的光路的被摄体像所成像的摄像元件,拍摄合焦物体位置远离给定的基准位置的FAR图像。摄像元件N是光路长度相对长的光路的被摄体像所成像的摄像元件,拍摄合焦物体位置接近基准位置的NEAR图像。这里的基准位置是指物镜光学系统110中的成为基准的位置。基准位置例如可以是物镜光学系统110中的最接近被摄体的固定透镜的位置,也可以是插入部100的前端位置,还可以是其他位置。另外,如之后使用图3叙述的那样,2个摄像元件F、摄像元件N也可以由1片摄像元件122实现。
图2的OB表示被摄体,其中的OB1表示关注被摄体。关注被摄体表示被摄体中的被判断为用户关注的被摄体。在摄像装置10为内窥镜装置12的情况下,关注被摄体例如是病变。但是,关注被摄体是用户希望重点观察的被摄体即可,不限于病变。例如,根据观察的目的,气泡或残渣等也可以成为关注被摄体。关注被摄体可以由用户指定,也可以通过公知的病变检测方法等自动地设定。
在进行内窥镜视检查时,用户不只是观察作为关注被摄体的病变,也观察其周围的构造,在此基础上判断病变的种类、恶性度、病变的扩展程度等。此外,在病变以外的关注被摄体中观察关注被摄体的周边区域也是重要的。例如,期望图2的OB2和OB3在合成景深的范围内。此外,不期望在插入部100与被摄体OB的位置关系发生了变化的情况下OB2和OB3立即脱离合成景深。
与现有方法同样地,考虑使关注被摄体的被摄体像在摄像元件上成像的情况。在使关注被摄体OB1的被摄体像在摄像元件F上成像的情况下,关注被摄体OB1的PSF是A1,合成图像的景深成为B1所示的范围。合成图像的景深即B1成为将对应于摄像元件F的景深(B11)与对应于摄像元件N的景深(B12)合成后的范围。另外,为了方便说明,在图2中设B11的宽度与B12的宽度相同,但通常,越靠远点侧,景深的宽度越宽。在景深范围成为B1所示的范围的情况下,合成图像成为如下的平衡差的图像:焦点在宽范围内对准于从关注被摄体接近物镜光学系统110的方向上的被摄体,并且焦点在相对窄的范围内对准于从关注被摄体远离物镜光学系统110的方向上的被摄体。即,将A1所示的摄像元件F上作为成像位置的状态有时不适于包含至关注被摄体的周边被摄体在内的观察。
另外,在使关注被摄体的被摄体像在摄像元件N上成像的情况下,关注被摄体的PSF是A2,合成图像的景深成为B21与B22的合成,即B2所示的范围。在景深范围成为B2所示的范围的情况下,合成图像成为如下的平衡差的图像:焦点仅在窄范围内对准于从关注被摄体接近物镜光学系统的方向上的被摄体,焦点在相对宽的范围内对准于从关注被摄体远离物镜光学系统的方向上的被摄体。
在本实施方式中,合成图像期望成为焦点平衡良好地对准于从关注被摄体接近物镜光学系统110的方向上的被摄体和从关注被摄体远离物镜光学系统110的方向上的被摄体双方的图像。因此,AF控制部360进行使对焦透镜111向如下位置移动的控制,该位置为,判定为关注被摄体的被摄体像在对应于取得第1图像的摄像元件122的第1位置与对应于取得第2图像的摄像元件122的第2位置之间的位置成像的位置。
这里,对应于摄像元件122的位置是指基于光路分割部121的光学作用而决定的位置,与在摄像装置10中配置摄像元件122的物理位置不同。例如,第1位置是基于由光路分割部121分割的2个光路中的相对短的光路长度而决定的位置。第2位置是基于由光路分割部121分割的2个光路中的相对长的光路长度而决定的位置。换言之,第1位置是在第1图像中实现了焦点理想地对准于给定的被摄体的状态时的该被摄体的像的成像位置。同样,第2位置是在第2图像中实现了焦点理想地对准于给定的被摄体的状态时的该被摄体的像的成像位置。根据图2的例子,第1位置对应于P1,第2位置对应于P2。但是,也可以将与较长的光路长度对应的位置设为第1位置,将与较短的光路长度对应的位置设为第2位置。
本实施方式的AF控制部360例如使对焦透镜111向关注被摄体的PSF成为A3的位置移动。即,AF控制部360进行使对焦透镜111向关注被摄体的被摄体像的成像位置成为P1与P2之间的P3的透镜位置移动的控制。在该情况下,合成图像的景深成为B31与B32的合成即B3所示的范围。通过进行使关注被摄体的被摄体像成像于摄像元件F与摄像元件N的中间位置的AF控制,能够取得焦点平衡良好地对准于从关注被摄体接近物镜光学系统110的方向上的被摄体和从关注被摄体远离物镜光学系统110的方向上的被摄体双方的合成图像。
此外,在图2中示出了从垂直方向观察作为平面构造的关注被摄体OB1的例子。但是,也考虑倾斜地观察关注被摄体OB1的情况和关注被摄体本身是凹凸等具有进深的被摄体的情况。在该情况下,合成景深范围的平衡依旧是重要的,因此,期望将与关注被摄体的给定的部分对应的成像位置设为第1位置与第2位置之间的位置。
另外,在图2中示出了使被摄体像成像于距离与摄像元件F和摄像元件N相等的位置即中央位置的情况。但是,实际上,景深的宽度根据合焦物体位置非线性地变化。具体而言,合焦物体位置越远离物镜光学系统110,景深的宽度越宽。因此,使被摄体像成像于摄像元件F与摄像元件N的中央位置的状态不一定成为最为平衡地对准了焦点的状态。因此,被摄体像的成像位置也可以调整为摄像元件F与摄像元件N之间的任意的位置。另外,也可以构成为根据用户的喜好,例如能够从外部I/F部200等调整最终的成像位置。
接着,根据第2观点来说明本实施方式的方法。以往,广为人知有搜索根据摄像图像而计算的AF评价值的峰值的AF控制。例如在使用对比度AF的情况下,AF评价值是指对比度值。在搜索峰值的处理中,例如进行如下处理:拍摄合焦物体位置不同的多个图像,对根据各个图像而计算的AF评价值进行比较,由此判别合焦方向。合焦方向表示判断为关注被摄体的合焦程度提高的对焦透镜111的移动方向。在现有方法中,为了拍摄合焦物体位置不同的多个图像,需要一边使对焦透镜或摄像元件的位置变化,一边在不同的多个定时进行摄像。
与此相对,在本实施方式的方法中,AF控制部360通过按照给定的AF控制模式进行动作,从而进行使对焦透镜111向判定为焦点对准于关注被摄体的位置移动的控制。而且,AF控制部360包含第1AF控制模式作为AF控制模式,在该第1AF控制模式中,使用根据第1图像而计算的第1AF评价值和根据第2图像而计算的第2AF评价值进行AF控制。具体而言,AF控制部360能够通过使用了FAR图像的AF评价值和NERA图像的AF评价值双方的AF控制模式进行动作,其中,该FAR图像是在给定的定时由摄像元件F拍摄到的图像,该NERA图像是在相同的定时由摄像元件N拍摄到的图像。
根据本实施方式的方法,能够基于给定的1个定时中的摄像结果,进行多个AF评价值的取得及比较。因此,与现有方法相比,能够在较少的短时间内判别合焦方向,能够实现AF控制的高速化。
另外,在现有方法中,根据AF评价值是否到达峰值来判定是否合焦于关注被摄体。由于根据AF评价值的绝对值无法判定该值是否为峰值,因此,需要与周边的AF评价值进行比较。与此相对,在本实施方式中,能够基于2个AF评价值的关系来判定是否完成了合焦。即,不仅是合焦方向的判别,合焦完成的判定也能够实现高速化。
2.系统结构
以下,说明本实施方式的摄像装置10为内窥镜装置12的情况,但摄像装置10不限于内窥镜装置12。摄像装置10只要是通过拍摄合焦物体位置不同的多个图像而生成合成图像并且执行AF控制的装置即可。例如,摄像装置10也可以是显微镜。
图3是内窥镜装置12的详细结构例。内窥镜装置12包含插入部100、外部I/F部200、系统控制装置300、显示部400以及光源装置500。
插入部100是向体内插入的部分。插入部100包含物镜光学系统110、摄像部120、致动器130、照明透镜140、光导150、AF开始/结束按钮160。
光导150将来自光源520的照明光引导至插入部100的前端。照明透镜140向被摄体照射由光导150引导的照明光。物镜光学系统110使从被摄体反射的反射光作为被摄体像进行成像。物镜光学系统110包含对焦透镜111,能够根据对焦透镜111的位置而改变合焦物体位置。致动器130基于来自AF控制部360的指示,对对焦透镜111进行驱动。
摄像部120包含光路分割部121及摄像元件122,同时取得合焦物体位置不同的第1图像和第2图像。另外,摄像部120依次取得第1图像与第2图像的组。摄像元件122可以是单色传感器,也可以是具备彩色滤色器的元件。彩色滤色器可以是广为人知的拜耳滤色器,也可以是补色滤色器,还可以是其他的滤色器。补色滤色器是包含青色、品红及黄色的各颜色滤色器的滤色器。
图4是示出摄像部120的结构例的图。摄像部120设置于物镜光学系统110的插入部100后端部侧,包含将被摄体像分割为合焦物体位置不同的2个光学像的偏振分束器123、以及通过拍摄2个光学像而取得2个图像的摄像元件122。即,在图4所示的摄像部120中,光路分割部121是指偏振分束器123。
如图4所示,偏振分束器123具备第1棱镜123a、第2棱镜123b、反射镜123c及λ/4板123d。第1棱镜123a及第2棱镜123b均具有相对于光轴为45度的斜度的分束面,在第1棱镜123a的分束面上设置有偏振分离膜123e。而且,第1棱镜123a及第2棱镜123b使彼此的分束面隔着偏振分离膜123e抵接而构成偏振分束器123。此外,反射镜123c设置于第1棱镜123a的端面附近,在反射镜123c与第1棱镜123a之间设置有λ/4板123d。在第2棱镜123b的端面安装有摄像元件122。
来自物镜光学系统110的被摄体像在第1棱镜123a中通过设置于其分束面的偏振分离膜123e而分离成P成分与S成分,分离成反射光侧的光学像与透射光侧的光学像这2个光学像。P成分是指透射光,S成分是指反射光。
S成分的光学像在偏振分离膜123e中被反射到摄像元件122的对面侧而通过A光路,透射λ/4板123d之后,通过反射镜123c向摄像元件122侧折回。折回后的光学像再次透射λ/4板123d,由此偏振方向旋转90°,透射偏振分离膜123e之后在摄像元件122上成像。
P成分的光学像在透射偏振分离膜123e之后通过B光路,被朝向摄像元件122垂直折回的设置在第2棱镜123b的分束面的相反侧的反射镜面反射,并在摄像元件122上成像。此时,通过在A光路与B光路之间例如产生几十μm左右的规定的光路差,使焦点不同的2个光学像在摄像元件122的受光面上成像。
如图5所示,摄像元件122在整个像素区域中设置有2个受光区域122a、122b。受光区域也可以说是有效像素区域。为了拍摄2个光学像,将受光区域122a、122b配置在与这些光学像的成像面分别一致的位置。而且,在摄像元件122中,受光区域122a的合焦物体位置相对于受光区域122b的合焦物体位置向近点侧相对偏移。由此,使合焦物体位置不同的2个光学像在摄像元件122的受光面上成像。
在图4及图5的例子中,摄像元件122中的受光区域122a对应于拍摄NEAR图像的摄像元件N。此外,摄像元件122中的受光区域122b对应于拍摄FAR图像的摄像元件F。即,在图4及图5的例子中,摄像元件N和摄像元件F由1片元件实现。
图6是示出摄像部120的另一结构例的图。如图6所示,摄像部120包含棱镜124和2个摄像元件122。具体而言,2个摄像元件122是指摄像元件122c和摄像元件122d。在图6所示的摄像部120中,光路分割部121是指棱镜124。
该棱镜124例如是通过使直角三角形的棱镜元件124a、124b的两个斜面抵接而形成的。在棱镜元件124a的端面附近,在与该端面对置的位置安装有一方的摄像元件122c。此外,在棱镜元件124b的端面附近,在与该端面对置的位置安装有另一方的摄像元件122d。另外,摄像元件122c和摄像元件122d优选使用特性一致的元件。
棱镜124通过将经由物镜光学系统110入射的光例如分离成等量的反射光和透射光,从而分离成透射光侧的光学像与反射光侧的光学像这2个光学像。摄像元件122c对透射光侧的光学像进行光电转换,摄像元件122d对反射光侧的光学像进行光电转换。
在本实施方式中,摄像元件122c、122d的合焦物体位置不同。例如,相对于棱镜124中的到达摄像元件122c的透射光侧的光路长度(光程长度)dc,反射光侧的光路长度dd较短(小)。而且,摄像元件122c的合焦物体位置相对于摄像元件122d的合焦物体位置向近点侧相对地偏移。另外,也可以通过使棱镜元件124a和124b中的两者的折射率不同,来改变到达摄像元件122c、122d的光路长度。在图6的例子中,摄像元件122c对应于拍摄NEAR图像的摄像元件N,摄像元件122d对应于拍摄FAR图像的摄像元件F。即,在图6的例子中,摄像元件N和摄像元件F由2片元件实现。
如图4~图6所示,能够对摄像部120的具体结构实施各种变形。此外,摄像部120只要能够通过分别拍摄合焦物体位置不同的2个光路的被摄体像而取得第1图像及第2图像即可,不限于使用图4~图6例示的结构。
AF开始/结束按钮160是用于供用户操作AF的开始/结束的操作接口。
外部I/F部200是用于从用户向内窥镜装置12进行输入的接口。外部I/F部200例如包含AF控制模式的设定按钮、AF区域的设定按钮、图像处理参数的调整按钮等。
系统控制装置300进行图像处理和系统整体的控制。系统控制装置300包含A/D转换部310、预处理部320、图像合成部330、后处理部340、系统控制部350、AF控制部360、光量决定部370。
本实施方式的系统控制装置300(处理部、处理电路)由下述的硬件构成。硬件能够包含对数字信号进行处理的电路及对模拟信号进行处理的电路中的至少一方。例如,硬件能够由安装于电路基板的1个或多个电路装置或者1个或多个电路元件构成。1个或多个电路装置例如是IC等。1个或多个电路元件例如是电阻、电容等。
另外,作为系统控制装置300的处理电路也可以由下述的处理器实现。本实施方式的摄像装置10包含存储信息的存储器、以及基于存储于存储器的信息进行动作的处理器。信息例如是程序和各种数据等。处理器包含硬件。处理器能够使用CPU(CentralProcessing Unit:中央处理单元)、GPU(Graphics Processing Unit:图形处理单元)、DSP(Digital Signal Processor:数字信号处理器)等各种处理器。存储器可以是SRAM(StaticRandom Access Memory:静态随机存取存储器)、DRAM(Dynamic Random Access Memory:动态随机存取存储器)等半导体存储器,也可以是寄存器,也可以是硬盘装置(HDD:Hard DiskDrive:硬盘驱动器)等磁存储装置,还可以是光盘装置等光学式存储装置。例如,存储器存储计算机可读取的命令,通过处理器执行该命令,作为处理而实现摄像装置10的各部的功能。具体而言,摄像装置10的各部是指系统控制装置300的各部,包含A/D转换部310、预处理部320、图像合成部330、后处理部340、系统控制部350、AF控制部360、光量决定部370。这里的命令可以是构成程序的命令集的命令,也可以是对处理器的硬件电路指示动作的命令。
此外,本实施方式的系统控制装置300的各部也可以作为在处理器上进行动作的程序的模块来实现。例如,图像合成部330作为图像合成模块来实现,AF控制部360作为AF控制模块来实现。
此外,实现本实施方式的系统控制装置300的各部所进行的处理的程序例如能够存储在计算机可读取的介质即信息存储装置中。信息存储装置例如能够由光盘、存储卡、HDD或者半导体存储器等实现。半导体存储器例如是ROM。系统控制装置300基于存储于信息存储装置的程序进行本实施方式的各种处理。即,信息存储装置存储用于使计算机作为系统控制装置300的各部发挥功能的程序。计算机是具备输入装置、处理部、存储部、输出部的装置。程序是用于使计算机执行系统控制装置300的各部的处理的程序。具体而言,本实施方式的程序是用于使计算机执行之后使用图8~图10叙述的各步骤的程序。
A/D转换部310将从摄像部120依次输出的模拟信号转换成数字的图像并向预处理部320依次输出。预处理部320对从A/D转换部310依次输出的FAR图像及NEAR图像进行各种校正处理后向图像合成部330、AF控制部360依次输出。在将被摄体像分离成2个之后使它们分别成像于摄像元件的情况下,有时产生以下的几何差异。在摄像元件122的摄像面上分别成像的2个被摄体像相对地产生倍率偏差、位置偏差、旋转方向的偏差。另外,在使用2个摄像元件122c、122d作为摄像元件122的情况下,有时由于各元件的灵敏度差异等而产生明亮度的偏差。当这些偏差量变大时,合成图像成为双重图像,或者产生不自然的明亮度不均等。因此,在本实施方式中,在预处理部320中对上述的几何差异、明亮度差异进行校正。
图像合成部330通过将从预处理部320依次输出的校正后的2个图像合成而生成1个合成图像,并向后处理部340依次输出。具体而言,图像合成部330通过在由预处理部320校正后的2个图像间的对应的规定区域中选择对比度相对高的图像的处理而生成合成图像。即,图像合成部330对2个图像中的在空间上相同的像素区域各自的对比度进行比较,选择对比度相对高的一方的像素区域,由此,生成由2个图像合成的1个合成图像。另外,图像合成部330在2个图像的相同的像素区域中的对比度差较小或者大致相同的情况下,也可以通过对该像素区域进行规定的加权之后进行相加的处理,来生成合成图像。
后处理部340对从图像合成部330依次输出的合成图像依次进行白平衡处理、去马赛克处理、降噪处、颜色转换处理、灰度转换处理、轮廓强调处理等各种图像处理,并向光量决定部370、显示部400依次输出。
系统控制部350与摄像部120、AF开始/结束按钮160、外部I/F部200、AF控制部360相互连接,对各部进行控制。具体而言,系统控制部350进行各种控制信号的输入输出。AF控制部360使用从预处理部320依次输出的校正后的2个图像中的至少一方来进行AF控制。之后详述AF控制。光量决定部370根据从后处理部340依次输出的图像来决定光源的目标光量,并向光源控制部510依次输出。
显示部400依次显示从后处理部340输出的图像。即,显示部400显示将进行了深度扩大的图像作为帧图像的动态图像。显示部400例如是液晶显示器、EL(Electro-Luminescence:电发光)显示器等。
光源装置500包含光源控制部510、光源520。光源控制部510按照从光量决定部370依次输出的光源的目标光量,对光源520的光量进行控制。光源520发出照明光。光源520可以是氙气光源,也可以是LED,还可以是激光光源。另外,光源520也可以是其他光源,发光方式不受限定。
3.AF控制的详细情况
接着对本实施方式的AF控制的具体例进行说明。首先,说明使用FAR图像和NEAR图像双方的第1AF控制模式以及使用FAR图像和NEAR图像中的任意一方的第2AF控制模式。之后,说明第1AF控制模式和第2AF控制模式的切换处理、以及AF控制的变形例。另外,以下说明中的对比度值是AF评价值的一例,能够置换为其他的AF评价值。
3.1第1AF控制模式
在被摄体像成像于摄像元件F与摄像元件N的中央位置的情况下,FAR图像与NEAR图像的对比度值几乎同等。因此,为了使被摄体像成像于摄像元件F与摄像元件N的中央位置,AF控制部360只要一边监视FAR图像与NEAR图像的对比度值一边调整对焦透镜位置即可。在将摄像元件F与摄像元件N的中央位置以外作为目标位置的情况下,也预先根据已知的PSF的形状和事先的实验等将被摄体像的成像位置和FAR图像与NEAR图像的对比度值的关系对应起来,一边监视FAR图像与NEAR图像的对比度值的关系一边调整对焦透镜111的位置即可。
使用图7及图8,详细说明使用FAR图像的对比度值和NEAR图像的对比度值双方的第1AF控制模式。
图7是示出AF控制部360的结构的图。AF控制部360包含AF区域设定部361、AF评价值计算部362、方向判别部363、合焦判定部364、透镜驱动量决定部365、目标成像位置设定部366、模式切换控制部367、对焦透镜驱动部368。
AF区域设定部361针对FAR图像及NEAR图像设定作为AF评价值的计算对象的AF区域。AF评价值计算部362基于AF区域的像素值,计算AF评价值。方向判别部363判别对焦透镜111的驱动方向。合焦判定部364判定合焦动作是否完成。透镜驱动量决定部365决定对焦透镜111的驱动量。对焦透镜驱动部368基于决定出的驱动方向及驱动量来控制致动器130,由此对对焦透镜111进行驱动。目标成像位置设定部366设定目标成像位置。目标成像位置是指成为关注被摄体的成像位置的目标的位置。合焦判定部364的判定是被摄体像的成像位置是否到达目标成像位置的判定。模式切换控制部367进行AF控制模式的切换。另外,这里,针对AF控制模式是第1AF控制模式的例子进行说明,之后使用图9及图10详述模式切换。
图8是对AF控制进行说明的流程图。当开始AF控制时,首先开始合焦动作。在合焦动作中,首先,AF区域设定部361针对从预处理部320依次输出的FAR图像及NEAR图像,分别在相同的位置设定AF区域(S101)。例如,AF区域设定部361基于用户从外部I/F部200设定的AF区域的位置、尺寸等信息来设定AF区域。或者AF区域设定部361也可以使用现有的病变检测功能等来检测病变,将包含检测到的病变的区域自动地设定为AF区域。AF区域是指拍摄到关注被摄体的区域。
AF评价值计算部362根据从预处理部320依次输出的FAR图像及NEAR图像,计算分别对应的2个AF评价值(S102)。AF评价值是指根据针对AF区域内的被摄体的合焦程度而变大的值。AF评价值计算部362例如对AF区域内的各像素应用带通滤波器,通过累积其输出值来计算AF评价值。此外,AF评价值的计算不限于使用带通滤波器,能够广泛应用公知的方法。以下,将基于FAR图像的AF区域计算出的AF评价值表述为AF评价值F,将基于NEAR图像的AF区域计算出的AF评价值表述为AF评价值N。
目标成像位置设定部366设定表示目标成像位置的目标成像位置信息(S103)。目标成像位置信息是表示AF评价值F与AF评价值N的关系的值。AF评价值F与AF评价值N的关系例如是指比率信息,但也可以是差分信息等表示其他关系的信息。这里的比率信息、差分信息不限于单纯的比率、差分,能够扩展为基于比率或差分的各种信息。例如在将目标成像位置设为摄像元件F与摄像元件N的中央位置、且将AF评价值F与AF评价值N的比率信息设定为目标成像位置信息的情况下,目标成像位置信息成为1。目标成像位置信息可以是任意的固定值,也可以由用户根据喜好从外部I/F部200进行调整。
方向判别部363基于AF评价值F、AF评价值N及目标成像位置信息,判别合焦方向(S104)。合焦方向是指用于使关注被摄体的成像位置接近目标成像位置的、对焦透镜111的驱动方向。例如在目标成像位置信息为1的情况下,方向判别部363对AF评价值F与AF评价值N的值进行比较,基于哪个值较小的判定来判别合焦方向。例如如果AF评价值F>AF评价值N,则成像位置接近摄像元件N这样的对焦透镜111的驱动方向成为合焦方向。广义上,方向判别部363例如计算表示当前的成像位置的值(成像位置信息),将成像位置信息接近目标成像位置信息的对焦透镜111的驱动方向作为合焦方向。成像位置信息是与目标成像位置信息同样的信息。例如在目标成像位置信息是AF评价值F与AF评价值N的比率信息的情况下,成像位置信息是当前的AF评价值F与AF评价值N的比率信息。
合焦判定部364基于目标成像位置信息及成像位置信息,判定合焦动作是否完成(S105)。例如合焦判定部364在判定为目标成像位置信息与成像位置信息的差分为规定的阈值以下的情况下,判定为合焦完成。或者合焦判定部364也可以在判定为目标成像位置信息和成像位置信息的比率与1的差分为规定的阈值以下的情况下,判定为合焦完成。
透镜驱动量决定部365决定对焦透镜111的驱动量,对焦透镜驱动部368基于方向判别结果和驱动量来驱动对焦透镜111(S106)。对焦透镜111的驱动量可以是规定的值,也可以基于目标成像位置信息与成像位置信息的差分来决定。具体而言,在目标成像位置信息与成像位置信息的差分为规定的阈值以上的情况下,透镜驱动量决定部365为了使目标成像位置与当前的成像位置大幅分离而将驱动量设定得较大,在目标成像位置信息与成像位置信息的差分为阈值以下的情况下,为了使目标成像位置与当前的成像位置处于接近的位置而将驱动量设定得较小。此外,透镜驱动量决定部365也可以基于目标成像位置信息与成像位置信息的比率来决定驱动量。另外,在S105中判定为合焦动作完成的情况下,将驱动量设定为0。通过进行这样的控制,能够根据合焦状态来设定适当的透镜驱动量,实现高速的AF控制。
在S105中判定为合焦完成的情况下(S107的判定结果为“是”),AF控制部360在结束合焦动作之后移至待机动作。在合焦未完成的情况下(S107的判定结果为“否”),AF控制部360按照每一帧再次执行从S101起的控制。
当开始待机动作时,AF控制部360检测场景变化(S201)。例如AF控制部360根据从预处理部320依次输出的2个图像或者任意一方的图像,计算AF评价值、图像的亮度信息、颜色信息等经时的变化程度。AF控制部360在该经时的变化程度为规定以上的情况下,判定为检测到场景变化。此外,AF控制部360也可以使用图像的运动信息、未图示的加速度传感器、距离感器等,计算插入部100的移动程度、作为被摄体的生物体的变形程度,由此检测场景变化。
在检测到场景变化的情况下(S202的判定结果为“是”),AF控制部360在结束待机动作之后,移至合焦动作。在未检测到场景变化的情况下(S202的判定结果为“否”),按照每一帧再次执行从S201起的控制。
如以上说明的那样,本实施方式的AF控制部360进行使对焦透镜111向如下位置移动的控制,该位置为,判定为根据第1图像计算的第1AF评价值与根据第2图像计算的第2AF评价值成为给定的关系的位置。第1AF评价值和第2AF评价值中的一方对应于AF评价值N,另一方对应于AF评价值F。这样,基于2个AF评价值的关系,能够在景深扩大后的合成图像中实现最佳的景深范围。更具体而言,能够实现关注被摄体的像在对应于摄像元件N及摄像元件F中的一方的第1位置与对应于另一方的第2位置之间成像的状态。
具体而言,如图7所示,AF控制部360还包含进行合焦方向的判别的方向判别部363。而且,方向判别部363在第1AF控制模式中基于第1AF评价值与第2AF评价值的关系进行合焦方向的判别。通过进行这样的控制,在相当于1帧的时间内能够进行方向判别,与使用已知的颤动(Wobbling)等的方向判别相比,能够实现高速的AF控制。
此外,AF控制部360还包含决定对焦透镜111的驱动量的透镜驱动量决定部365。而且,透镜驱动量决定部365在第1AF控制模式中,基于第1AF评价值与第2AF评价值的关系来决定驱动量。这样,能够考虑当前的成像位置与目标成像位置的关系,灵活地决定驱动量。
此外,AF控制部360还包含判定合焦动作是否完成的合焦判定部364。而且,合焦判定部364在第1AF控制模式中基于第1AF评价值与第2AF评价值的关系来判定合焦动作是否完成。在以往的对比度AF等中,需要搜索AF评价值的峰值,例如将检测到规定次数的合焦方向的切换等用作合焦判定的条件。与此相对,根据本实施方式的方法,能够在较少的帧的时间内、狭义上相当于1帧的时间内进行合焦判定,能够实现高速的AF控制。
另外,AF控制部360也可以进行使对焦透镜111向如下位置移动的控制,该位置为,判定为关注被摄体的被摄体像在对应于摄像元件F的第1位置与对应于摄像元件N的第2位置的中央位置成像的位置。例如AF控制部360使对焦透镜111向关注被摄体的PSF成为图2的A3的透镜位置移动。中央位置表示距第1位置的距离与距第2位置的距离大致相等的位置。这样,如图2的B3所示,合成景深将关注被摄体的位置作为基准,在远点侧具有B31的宽度,在近点侧具有B32的宽度,能够实现取得平衡的设定。在使用中央位置的情况下,2个AF评价值的关系是比率成为1或差分成为0的关系、或者与此类似的关系。
但是,所期望的合成景深的范围也根据关注被摄体的种类、观察状况、用户的喜好等发生变化。因此,目标成像位置也可以是成为第1位置与第2位置之间的其他位置。换言之,AF控制部360也可以进行使对焦透镜111向如下位置移动的控制,该位置为,判定为关注被摄体的被摄体像在对应于取得第1图像的摄像元件的第1位置、对应于取得第2图像的摄像元件的第2位置、以及第1位置与第2位置之间的位置中的任意一个位置成像的位置。即,不妨碍关注被摄体的被摄体像成为对应于摄像元件F的位置和对应于摄像元件N的位置中的任意一个位置。这样,能够灵活地设定目标成像位置。例如如之后使用图12(B)及图12(C)叙述的那样,在被摄体形状满足给定的条件的情况下,目标成像位置设定部366设定使摄像元件上的位置成为目标成像位置的目标成像位置信息。
3.2第2AF控制模式
由于摄像元件F与摄像元件N之间的距离是设计值,因此是已知的。此外,由于对焦透镜111的移动量与成像位置的移动量的关系也是设计值,因此是已知的。因此,AF控制部360基于以下的控制,能够在景深扩大后的合成图像中实现最佳的景深范围。首先,AF控制部360使用已知的AF方法,使被摄体像在摄像元件F及摄像元件N中的任意一方成像。已知的AF方法能够应用对比度AF、相位差AF等各种方法。之后,AF控制部360进行使对焦透镜111向判定为被摄体像在摄像元件F与摄像元件N的中间的任意位置成像的位置移动的控制。
即,AF控制部360包含第2AF控制模式作为AF控制模式,在该第2AF控制模式中,使用第1AF评价值和第2AF评价值中的任意一方进行AF控制。通过使用第2AF控制模式,在同时拍摄合焦物体位置不同的2张图像的摄像装置10中,能够在应用与以往相同的AF控制方法的同时,适当地设定合成图像的景深范围。
第2AF控制模式中的处理与图8相同。但是,目标成像位置设定部366在S103中将调整后的对焦透镜111的位置设定为目标成像位置。例如,目标成像位置设定部366在合焦于摄像元件F和摄像元件N中的任意一方之后,设定对对焦透镜111的位置进行调整时的对焦透镜111的调整量。调整量是指驱动方向及驱动量。
S104及S105中的处理与公知的AF控制相同。例如AF评价值计算部362基于在不同的2个定时取得的2张FAR图像来计算2个AF评价值F。方向判别部363基于2个AF评价值F的比较处理,判别用于使关注被摄体的成像位置成为摄像元件F上的合焦方向(S104)。此外,合焦判定部364在判定为检测到AF评价值F的峰值的情况下,判定为合焦完成(S105)。例如,合焦判定部364在检测到规定次数的合焦方向的切换的情况下,判定为合焦完成。以上示出了使用FAR图像使被摄体像在摄像元件F上成像的例子,但AF控制部360也可以使用NEAR图像使被摄体像在摄像元件N上成像。
在S105中未判定为合焦完成的情况下,透镜驱动量决定部365设定用于使成像位置向摄像元件N和摄像元件F中的任意一方的位置移动的驱动量。这里的驱动量可以是固定值,也可以基于2个AF评价值F(或者2个AF评价值N)的关系动态地变更值。此外,在S105中判定为合焦完成的情况下,透镜驱动量决定部365设定用于使成像位置从摄像元件N和摄像元件F中的任意一方的位置向目标成像位置移动的驱动量。此时的驱动量是由目标成像位置设定部366设定的驱动量(调整量)。对焦透镜驱动部368按照所设定的驱动量对对焦透镜111进行驱动(S106)。
如以上那样,AF控制部360在第2AF控制模式中,进行了使对焦透镜向判定为关注被摄体的被摄体像在与取得第1图像的摄像元件对应的第1位置成像的位置移动的控制之后,进行使对焦透镜111向如下位置移动的控制,该位置为,判定为使被摄体像所成像的位置在朝向与取得第2图像的摄像元件对应的第2位置的方向上移动规定量的位置。具体而言,AF控制部360在第2AF控制模式中,在将对焦透镜111控制到使关注被摄体的被摄体像在与取得FAR图像的摄像元件F对应的位置(图2的例子中为P1)成像的透镜位置之后,将对焦透镜111控制到使被摄体像所成像的位置在朝向与取得NEAR图像的摄像元件N对应的位置(P2)的方向上移动规定量的透镜位置。或者,AF控制部360在第2AF控制模式中,在将对焦透镜111控制到使关注被摄体的被摄体像在与取得NEAR图像的摄像元件N对应的位置(P2)成像的透镜位置之后,将对焦透镜111控制到使被摄体像所成像的位置在朝向与取得FAR图像的摄像元件F对应的位置(P1)的方向上移动规定量的透镜位置。通过这样的控制,能够在应用与以往同样的AF控制方法的同时,适当地设定合成图像的景深范围。
3.3AF控制模式的切换处理
此外,以上分别说明了第1AF控制模式中的处理、第2AF控制模式中的处理,但AF控制模式不限于固定为任意一方的模式。
AF控制部360也可以进行第1AF控制模式与第2AF控制模式的切换控制。如图7所示,AF控制部360还包含模式切换控制部367。而且,模式切换控制部367根据被摄体的特征、光学系统的成像状态,切换使用AF评价值F及AF评价值N双方进行AF控制的第1AF控制模式与使用任意一方进行AF控制的第2AF控制模式手段。
在该情况下,也可以如之后使用图9叙述的那样切换与S103至S106对应的全部的步骤,还可以如使用图10叙述的那样切换一部分步骤。通过根据被摄体的特征、光学系统的成像状态来选择最佳的AF控制模式,能够实现高速且高精度的AF控制。
例如在被摄体是对比度非常低的被摄体的情况下,与光学系统的成像状态无关,AF评价值F与AF评价值N之差非常小,因此,在第1AF控制模式中,可能无法高精度地进行AF控制。在这样的情况下,例如首先判定是否为低对比度被摄体,在判定为低对比度被摄体的情况下,模式切换控制部367切换为第2AF控制模式。例如模式切换控制部367在AF评价值F与AF评价值N双方为阈值以下的情况下判定为低对比度被摄体即可。此外,模式切换控制部367也可以加入根据AF评价值F与AF评价值N的关系而决定的条件来判定低对比度被摄体。例如模式切换控制部367也可以在AF评价值F与AF评价值N的差分为阈值以下的情况下、或者在AF评价值F与AF评价值N的比率接近1的情况下,判定为低对比度被摄体。
图9是说明基于是否为低对比度被摄体的判定来进行切换控制的情况下的合焦动作的流程图。图9的S101及S102与图8相同。接着,AF控制部360判定关注被摄体是否为低对比度被摄体(S200)。在判定为不是低对比度被摄体的情况下(S200的判定结果为“否”),AF控制部360使用第1AF控制模式进行AF控制。即,目标成像位置设定部366使用AF评价值F与AF评价值N的关系来设定目标成像位置(S1031)。方向判别部363基于AF评价值F与AF评价值N的关系来判定合焦方向(S1041),合焦判定部364基于AF评价值F与AF评价值N的关系来判定合焦是否完成(S1051)。透镜驱动量决定部365基于方向判别及合焦判定的结果来决定对焦透镜111的驱动量,对焦透镜驱动部368按照该驱动量对对焦透镜111进行驱动(S1061)。
另一方面,在判定为是低对比度被摄体的情况下(S200的判定结果为“是”),AF控制部360使用第2AF控制模式进行AF控制。即,目标成像位置设定部366设定使被摄体像在摄像元件F或摄像元件N中的任意一方成像后的对焦透镜111的调整量(S1032)。方向判别部363使用已知的对比度AF中的方向判别方法来判别合焦方向(S1042),合焦判定部364使用已知的对比度AF中的合焦判定方法来判定合焦是否完成(S1052)。透镜驱动量决定部365决定对焦透镜的驱动量,对焦透镜驱动部368基于方向判别结果和驱动量,对对焦透镜111进行驱动(S1062)。此外,在第2AF控制模式中,在S1052中判定为合焦完成的情况下,无论方向判别结果如何,都基于在S1032中设定的对焦透镜的调整量对对焦透镜111进行驱动。
通过进行图9所示的AF控制,针对低对比度被摄体也能够实现高精度的AF控制。
此外,在光学系统为大模糊的情况下,当通过使用颤动驱动等的第2AF控制模式进行动作时,可能无法高精度地进行方向判别。这里,大模糊表示在摄像图像中向被摄体的合焦程度显著低的状态。在这样的情况下,模式切换控制部367首先判定是否为大模糊状态,在判定为大模糊状态的情况下,进行切换为第1AF控制模式的控制。例如模式切换控制部367在AF评价值F与AF评价值N双方为阈值以下、且AF评价值F与AF评价值N的差分为阈值以上的情况下,判定为大模糊状态。或者模式切换控制部367在AF评价值F与AF评价值N的比率较大的情况下,判定为大模糊状态。
图10是说明基于是否为大模糊状态的判定来进行切换控制的情况下的合焦动作的流程图。图10的S101及S102与图8相同。接着,AF控制部360判定是否为大模糊状态(S210)。在判定为是大模糊状态的情况下(S210的判定结果为“是”),AF控制部360使用第1AF控制模式进行AF控制。在判定为不是大模糊状态的情况下(S210的判定结果为“否”),AF控制部360使用第2AF控制模式进行AF控制。
另外,AF控制部360在第1AF控制模式中不进行相当于图9的S1051的合焦判定。这是因为,通过接近合焦状态而消除大模糊状态,因此,在第1AF控制模式中进行合焦判定的优点小。其他步骤中的控制与目前为止的说明的控制相同。通过进行这样的AF控制,执行在光学系统为大模糊的情况下能够进行高速的方向判别的第1AF控制模式下的AF控制,之后,执行当接近合焦状态时能够进行高精度的合焦的第2AF控制模式下的AF控制。由此,能够实现高速且高精度的AF控制。
如以上那样,AF控制部360进行如下的低对比度被摄体判定处理:基于第1AF评价值及第2AF评价值,判定关注被摄体是否为对比度比给定的基准低的低对比度被摄体。而且,AF控制部360基于低对比度被摄体判定处理,进行第1AF控制模式与第2AF控制模式的切换控制。或者,AF控制部360进行基于第1AF评价值及第2AF评价值来判定针对关注被摄体的合焦程度是否为比给定的基准低的大模糊状态的大模糊判定处理,基于大模糊判定处理,进行第1AF控制模式与第2AF控制模式的切换控制。另外,判定为低对比度的基准及判定为大模糊状态的基准可以为给定的固定值,也可以动态地变更。
这样,能够根据关注被摄体的特性或拍摄的状况,选择适当的AF控制模式。此时,通过使用第1AF评价值和第2AF评价值双方,与进行颤动控制等的现有方法相比,能够高速地执行用于进行切换控制的判定。但是,也不妨碍在低对比度被摄体判定处理或大模糊判定处理中使用第1AF评价值和第2AF评价值中的一方的变形实施。另外,这里示出了在第1AF控制模式和第2AF控制模式的切换中使用是否为低对比度被摄体或者是否为大模糊状态的判定的例子,但切换判定不限于此,也可以为其他判定。
3.4AF控制的变形例
另外,第1AF控制模式中的AF控制不限于反复进行方向判别及合焦判定的上述的方法。例如AF控制部360在第1AF控制模式中,进行使对焦透镜111向对应于第1AF评价值的峰值的对焦透镜111的位置与对应于第2AF评价值的峰值的对焦透镜111的位置之间的位置移动的控制。另外,AF评价值的峰值是指AF评价值的最大值。
具体而言,AF控制部360首先一边在给定的范围内驱动对焦透镜111(扫描)一边取得FAR图像及NEAR图像。基于在各对焦透镜位置拍摄到的FAR图像和NEAR图像来计算对比度值,由此,求出对焦透镜位置与FAR图像的对比度值的关系、及对焦透镜位置与NEAR图像的对比度值的关系。AF控制部360检测各个对比度值成为峰值的对焦透镜位置。之后,AF控制部360将对焦透镜位置调整到针对2个峰值的对焦透镜位置之间的任意位置。
FAR图像的对比度值成为峰值的对焦透镜位置是指关注被摄体在摄像元件F上成像的对焦透镜位置。NEAR图像的对比度值成为峰值的对焦透镜位置是指关注被摄体在摄像元件N上成像的对焦透镜位置。这样,通过在给定的范围内扫描对焦透镜111的方法,能够将关注被摄体的成像位置设定到第1位置与第2位置之间的位置。因此,能够在景深扩大后的合成图像中实现最佳的景深范围。
此外,AF控制部360也可以在第2AF控制模式中基于通过扫描驱动进行的峰值检测来进行AF控制。
3.5被摄体形状的估计
图11是作为本实施方式的摄像装置10的一例的内窥镜装置12的另一结构例。内窥镜装置12还包含估计关注被摄体及其周围的形状的被摄体形状估计部600。另外,内窥镜装置12包含目标成像位置设定部366,目标成像位置设定部366基于在被摄体形状估计部600中估计出的被摄体形状,设定目标成像位置。然后,AF控制部360进行使对焦透镜111向判定为关注被摄体的被摄体像成像于在目标成像位置设定部366中设定的目标成像位置的位置移动的控制。通过进行这样的控制,能够根据被摄体的形状,取得在最佳的范围内对准了焦点的合成图像。
图12(A)~图12(C)是例示被摄体形状与期望的景深范围的关系的图。在使用图2等说明的例子中,如图12(A)所示,设想了在从关注被摄体接近物镜光学系统的方向与从关注被摄体远离物镜光学系统的方向双方存在被摄体的情况。在该情况下,为了平衡地取得对准了焦点的合成图像,在摄像元件F与摄像元件N之间的位置设定了目标成像位置。
但是,在实际的内窥镜检查中,也产生仅在从关注被摄体远离物镜光学系统110的方向上存在被摄体这样的场景。作为这样的场景,例如如图12(B)所示,考虑从接近正面的方向观察息肉状的病变的情况。在被摄体形状估计部600中估计为被摄体是这样的形状的情况下,目标成像位置设定部366在与对应于摄像元件N的位置更近的位置设定目标成像位置。更具体而言,目标成像位置设定部366设定摄像元件N成为目标成像位置的目标成像位置信息。由此,能够确定在息肉状的被摄体的宽范围内对准了焦点的合成图像。
此外,在内窥镜检查中,也产生仅在从关注被摄体接近物镜光学系统110的方向上存在被摄体这样的场景。作为这样的场景,例如如图12(C)所示,考虑从接近正面的方向观察凹陷状的病变的情况。在被摄体形状估计部600中估计为被摄体是这样的形状的情况下,目标成像位置设定部366在与对应于摄像元件F的位置更近的位置设定目标成像位置。更具体而言,目标成像位置设定部366设定摄像元件F成为目标成像的目标成像位置信息。由此,能够取得在凹陷状的被摄体的宽范围内对准了焦点的合成图像。
此外,目标成像位置设定部366在摄像元件F与摄像元件N之间的位置设定目标成像位置信息的情况下,也可以基于在被摄体形状估计部600中估计出的被摄体形状,适当地设定目标成像位置信息。
被摄体形状估计部600例如根据从预处理部320输出的图像,通过利用亮度分布、颜色分布等信息来估计被摄体形状。此外,被摄体形状估计部600也可以使用SfM(Structure From Motion:运动中恢复结构)、DfD(Depth from Defocus:离焦深度测量)等已知的形状估计技术,来估计被摄体形状。此外,内窥镜装置12还可以具备例如使用了双眼的立体摄影装置、基于光场的摄影装置、基于图案投影、ToF(Time of Flight:飞行时间)的测距装置等未图示的已知的能够进行距离计测或形状计测的装置,被摄体形状估计部600基于它们的输出来估计被摄体形状。如以上那样,被摄体形状估计部600中的处理及用于实现该处理的结构能够进行各种变形实施。
此外。本实施方式的方法能够应用于包含物镜光学系统110、光路分割部121及摄像元件122的摄像装置10的工作方法。摄像装置的工作方法进行合成处理和AF控制,在该合成处理中,在第1图像及第2图像之间的对应的规定区域选择对比度相对高的图像,由此合成1个合成图像,在该AF控制中,基于进行合成处理前的第1图像及第2图像中的至少一方,使对焦透镜111向判定为焦点对准于关注被摄体的位置移动。此外,摄像装置10的工作方法进行上述合成处理和如下的AF控制,在该AF控制中,按照包含第1AF控制模式的给定的AF控制模式进行动作,由此,使对焦透镜111向判定为焦点对准于关注被摄体的位置移动。
以上,对应用了本发明的实施方式及其变形例进行了说明,但本发明不直接限于各实施方式及其变形例,在实施阶段,能够在不脱离发明的主旨的范围内通过改变结构要素而使其变得具体。此外,通过适当组合上述各实施方式和变形例所公开的多个结构要素,能够形成各种发明。例如,也可以从各实施方式和变形例中记载的全部结构要素中删除若干结构要素。此外,也可以适当组合在不同的实施方式和变形例中说明的结构要素。这样,在不脱离发明的主旨的范围内能够进行各种变形和应用。此外,在说明书或附图中,至少一次与更广义或同义的不同用语一起记载的用语在说明书或附图的任何部位都能够置换为该不同的用语。
标号说明
10…摄像装置,12…内窥镜装置,100…插入部,110…物镜光学系统,111…对焦透镜,120…摄像部,121…光路分割部,122…摄像元件,122a、122b…受光区域,122c,122d…摄像元件,123…偏振分束器,123a、123b…棱镜,123c…反射镜,123d…λ/4板,123e…偏振分离膜,124…棱镜,124a、124b…棱镜元件,130…致动器,140…照明透镜,150…光导,160…AF开始/结束按钮,200…外部I/F部,300…系统控制装置,310…A/D转换部,320…预处理部,330…图像合成部,340…后处理部,350…系统控制部,360…AF控制部,361…AF区域设定部,362…AF评价值计算部,363…方向判别部,364…合焦判定部,365…透镜驱动量决定部,366…目标成像位置设定部,367…模式切换控制部,368…对焦透镜驱动部,370…光量决定部,400…显示部,500…光源装置,510…光源控制部,520…光源,600…被摄体形状估计部,AX…光轴,OB…被摄体,OB1…关注被摄体,OB2、OB3…周边被摄体。
Claims (8)
1.一种摄像装置,其特征在于,
所述摄像装置包括:
物镜光学系统,其包含调整合焦物体位置的对焦透镜,并取得被摄体像;
光路分割部,其将所述被摄体像分割成所述合焦物体位置不同的2个光路;
摄像元件,其通过分别拍摄分割后的所述2个光路的所述被摄体像,取得第1图像及第2图像;
图像合成部,其进行合成处理,在该合成处理中,通过在所述第1图像与所述第2图像之间的对应的规定区域选择对比度相对高的图像而生成1个合成图像;以及
AF控制部,其进行使所述对焦透镜向判定为焦点对准于关注被摄体的位置移动的AF控制,其中,AF表示自动对焦,
所述AF控制部基于在所述图像合成部中进行所述合成处理前的所述第1图像及所述第2图像,进行使所述对焦透镜向判定为所述关注被摄体的所述被摄体像在第1位置与第2位置之间的位置成像的位置移动的控制,其中,该第1位置对应于取得所述第1图像的所述摄像元件,该第2位置对应于取得所述第2图像的所述摄像元件。
2.根据权利要求1所述的摄像装置,其特征在于,
所述摄像装置还包括:
被摄体形状估计部,其估计所述关注被摄体的形状及所述关注被摄体的周围的被摄体的形状;以及
目标成像位置设定部,其基于在所述被摄体形状估计部中估计出的被摄体形状来设定目标成像位置,
所述AF控制部进行使所述对焦透镜向如下位置移动的控制,该位置是判定为所述关注被摄体的所述被摄体像在所述目标成像位置设定部中设定的所述目标成像位置成像的位置。
3.根据权利要求1所述的摄像装置,其特征在于,
所述AF控制部进行使所述对焦透镜向如下位置移动的控制,该位置是判定为所述关注被摄体的所述被摄体像在所述第1位置与所述第2位置的中央位置成像的位置。
4.根据权利要求1所述的摄像装置,其特征在于,
所述AF控制部在进行了使所述对焦透镜向判定为所述关注被摄体的所述被摄体像在所述第1位置成像的位置移动的控制之后,进行使所述对焦透镜向判定为使所述被摄体像成像的位置在朝向所述第2位置的方向上移动规定量的位置移动的控制。
5.根据权利要求1所述的摄像装置,其特征在于,
所述AF控制部进行使所述对焦透镜向判定为第1AF评价值与第2AF评价值成为给定的关系的位置移动的控制,其中,该第1AF评价值是根据所述第1图像而计算的,该第2AF评价值是根据所述第2图像而计算的。
6.根据权利要求1所述的摄像装置,其特征在于,
所述AF控制部进行使所述对焦透镜向对应于第1AF评价值的峰值的所述对焦透镜的位置与对应于第2AF评价值的峰值的所述对焦透镜的位置之间的位置移动的控制,其中,该第1AF评价值是根据所述第1图像而计算的,该第2AF评价值是根据所述第2图像而计算的。
7.一种内窥镜装置,其特征在于,
所述内窥镜装置包括:
物镜光学系统,其包含调整合焦物体位置的对焦透镜,并取得被摄体像;
光路分割部,其将所述被摄体像分割成所述合焦物体位置不同的2个光路;
摄像元件,其通过分别拍摄分割后的所述2个光路的所述被摄体像,取得第1图像及第2图像;
图像合成部,其进行合成处理,在该合成处理中,通过在所述第1图像与所述第2图像之间的对应的规定区域选择对比度相对高的图像而生成1个合成图像;以及
AF控制部,其进行使所述对焦透镜向判定为焦点对准于关注被摄体的位置移动的AF控制,其中,AF表示自动对焦,
所述AF控制部基于在所述图像合成部中进行所述合成处理前的所述第1图像及所述第2图像,进行使所述对焦透镜向判定为关注被摄体的所述被摄体像在第1位置与第2位置之间的位置成像的位置移动的控制,其中,该第1位置对应于取得所述第1图像的所述摄像元件,该第2位置对应于取得所述第2图像的所述摄像元件。
8.一种摄像装置的工作方法,该摄像装置包括:
物镜光学系统,其包含调整合焦物体位置的对焦透镜,并取得被摄体像;
光路分割部,其将所述被摄体像分割成所述合焦物体位置不同的2个光路;以及
摄像元件,其通过分别拍摄分割后的所述2个光路的所述被摄体像,取得第1图像及第2图像,
其特征在于,
在摄像装置的工作方法中进行合成处理和AF控制,AF表示自动对焦,
在该合成处理中,通过在所述第1图像与所述第2图像之间的对应的规定区域选择对比度相对高的图像而生成1个合成图像,
在该AF控制中,基于进行所述合成处理前的所述第1图像及所述第2图像,使所述对焦透镜向判定为关注被摄体的所述被摄体像在第1位置与第2位置之间的位置成像的位置移动,其中,该第1位置对应于取得所述第1图像的所述摄像元件,该第2位置对应于取得所述第2图像的所述摄像元件。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/041223 WO2020095365A1 (ja) | 2018-11-06 | 2018-11-06 | 撮像装置、内視鏡装置及び撮像装置の作動方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112970242A CN112970242A (zh) | 2021-06-15 |
CN112970242B true CN112970242B (zh) | 2022-10-25 |
Family
ID=70611843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880099119.5A Active CN112970242B (zh) | 2018-11-06 | 2018-11-06 | 摄像装置、内窥镜装置及摄像装置的工作方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210239963A1 (zh) |
JP (1) | JP7065202B2 (zh) |
CN (1) | CN112970242B (zh) |
WO (1) | WO2020095365A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022209218A1 (zh) * | 2021-03-31 | 2022-10-06 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105555180A (zh) * | 2013-09-24 | 2016-05-04 | 奥林巴斯株式会社 | 内窥镜装置和内窥镜装置的控制方法 |
CN107005647A (zh) * | 2014-12-02 | 2017-08-01 | 奥林巴斯株式会社 | 对焦控制装置、内窥镜装置以及对焦控制装置的控制方法 |
CN107430258A (zh) * | 2015-03-17 | 2017-12-01 | 奥林巴斯株式会社 | 对焦控制装置、摄像装置、内窥镜系统、对焦控制装置的控制方法 |
WO2018186123A1 (ja) * | 2017-04-03 | 2018-10-11 | オリンパス株式会社 | 内視鏡システム及び内視鏡システムの調整方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3975395B2 (ja) * | 2002-02-26 | 2007-09-12 | フジノン株式会社 | カメラシステム |
JP5576739B2 (ja) | 2010-08-04 | 2014-08-20 | オリンパス株式会社 | 画像処理装置、画像処理方法、撮像装置及びプログラム |
JP6137847B2 (ja) * | 2013-01-28 | 2017-05-31 | オリンパス株式会社 | 撮像装置及び撮像装置の制御方法 |
JP2017118212A (ja) * | 2015-12-22 | 2017-06-29 | キヤノン株式会社 | 撮像装置 |
-
2018
- 2018-11-06 CN CN201880099119.5A patent/CN112970242B/zh active Active
- 2018-11-06 WO PCT/JP2018/041223 patent/WO2020095365A1/ja active Application Filing
- 2018-11-06 JP JP2020556388A patent/JP7065202B2/ja active Active
-
2021
- 2021-04-22 US US17/237,481 patent/US20210239963A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105555180A (zh) * | 2013-09-24 | 2016-05-04 | 奥林巴斯株式会社 | 内窥镜装置和内窥镜装置的控制方法 |
CN107005647A (zh) * | 2014-12-02 | 2017-08-01 | 奥林巴斯株式会社 | 对焦控制装置、内窥镜装置以及对焦控制装置的控制方法 |
CN107430258A (zh) * | 2015-03-17 | 2017-12-01 | 奥林巴斯株式会社 | 对焦控制装置、摄像装置、内窥镜系统、对焦控制装置的控制方法 |
WO2018186123A1 (ja) * | 2017-04-03 | 2018-10-11 | オリンパス株式会社 | 内視鏡システム及び内視鏡システムの調整方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210239963A1 (en) | 2021-08-05 |
WO2020095365A1 (ja) | 2020-05-14 |
CN112970242A (zh) | 2021-06-15 |
JPWO2020095365A1 (ja) | 2021-11-11 |
JP7065202B2 (ja) | 2022-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7065203B2 (ja) | 撮像装置、内視鏡装置及び撮像装置の作動方法 | |
JP4794963B2 (ja) | 撮像装置および撮像プログラム | |
JP5247044B2 (ja) | 撮像装置 | |
JP5856733B2 (ja) | 撮像装置 | |
CN108462830B (zh) | 摄像装置及摄像装置的控制方法 | |
JP6800797B2 (ja) | 撮像装置、画像処理装置、撮像装置の制御方法およびプログラム | |
JP4641494B2 (ja) | 光学機器 | |
JP5341286B1 (ja) | 深度拡大装置 | |
JP2007199633A (ja) | 合焦検出装置 | |
JP2012124555A (ja) | 撮像装置 | |
JP2017037103A (ja) | 撮像装置 | |
JP5197285B2 (ja) | オートフォーカス機能付撮像装置、撮像方法、プログラムおよび集積回路 | |
CN112970242B (zh) | 摄像装置、内窥镜装置及摄像装置的工作方法 | |
EP1571477A2 (en) | Focus detecting system | |
CN111868474A (zh) | 测距摄像机 | |
US10348980B2 (en) | Imaging device | |
JP2013076823A (ja) | 画像処理装置、内視鏡システム、画像処理方法及びプログラム | |
WO2013061939A1 (ja) | 内視鏡装置及びフォーカス制御方法 | |
WO2017072860A1 (ja) | 撮像装置、内視鏡装置及び撮像装置の作動方法 | |
JP5792401B2 (ja) | オートフォーカス装置 | |
JP5025302B2 (ja) | 撮像装置 | |
JP6639208B2 (ja) | 撮像装置及びその制御方法 | |
JP6900228B2 (ja) | 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム | |
JP2010224165A (ja) | 撮像装置 | |
JP2023019114A (ja) | 撮像装置及び撮像装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |