CN104459974B - 信息处理装置、信息处理方法、程序和影像测量装置 - Google Patents
信息处理装置、信息处理方法、程序和影像测量装置 Download PDFInfo
- Publication number
- CN104459974B CN104459974B CN201410460668.4A CN201410460668A CN104459974B CN 104459974 B CN104459974 B CN 104459974B CN 201410460668 A CN201410460668 A CN 201410460668A CN 104459974 B CN104459974 B CN 104459974B
- Authority
- CN
- China
- Prior art keywords
- focal position
- region
- image
- object images
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/24—Base structure
- G02B21/241—Devices for focusing
- G02B21/244—Devices for focusing using image analysis techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
- G02B21/365—Control or image processing arrangements for digital or video microscopes
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
Abstract
提供信息处理装置、信息处理方法、程序和影像测量装置。该方法包括:获取多个对象图像,所述多个对象图像在预定范围内移动焦点位置时通过图像拾取设备拍摄,所述图像拾取设备能够拍摄在所述预定范围内的任意焦点位置处的对象的图像;基于关于手动拍摄对象图像组的衬度信息片段来计算在所述预定范围内的第一合焦位置,所述手动拍摄对象图像组包括在所述预定范围内手动移动焦点位置时拍摄的多个对象图像;以及,基于关于自动拍摄对象图像组的衬度信息片段来计算在搜索范围内的第二合焦位置,所述自动拍摄对象图像组包括在搜索范围内自动移动焦点位置时拍摄的多个对象图像,所述搜索范围参考计算出的第一合焦位置来确定。
Description
相关申请交叉引用
本申请要求于2013年9月12日提交的日本优先权专利申请JP2013-217442的权益,通过引用将该申请的全部内容并入本文。
技术领域
本公开例如涉及在拍摄对象的图像用于测量、观察等时使用的信息处理装置、信息处理方法、程序和影像(vision)测量装置。
背景技术
已知计算机处理作为用于观察、测量等的物体的拍摄图像的图像的系统。这样的系统用于例如使用通过显微镜获取的放大图像的检查、CNC(计算机数字控制,ComputerNumerical Control)测量等。
日本专利申请公开第H10-48506号公开了一种显微镜图像拾取(image-pickup)系统。生物学显微镜等获取被测对象的放大图像。显微镜图像拾取系统拍摄被测对象的放大图像的画面。根据该系统,直观地实施聚焦,并且直观地确定相机视图。之后,实施二级自动聚焦。二级自动聚焦包括粗略聚焦操作和精确聚焦操作。首先,在粗略聚焦操作中,粗略地扫描宽的扫描范围,并且粗略地检测聚焦点。接下来,在精确聚焦操作中,扫描包括粗略聚焦点的窄的扫描范围,并且精确地检测聚焦点。如果实施二级自动聚焦操作,则能够减小自动聚焦操作的时间(日本专利申请公开第H10-48506号,段落[0001]、[0018]、[0043]等)。
发明内容
如日本专利申请公开第H10-48506号的图6所示,根据该文献的技术,如果在粗略聚焦的第一操作宽度W1中不存在衬度峰值P1,则进一步地扫描具有该第一操作宽度W1的另一范围。换言之,第一扫描是无用的。将花更长的时间实施由该无用扫描引起的自动聚焦。期望提供一种例如能够以更高的速率计算合焦(in-focus)位置来避免出现这样的情形的技术。
鉴于上述环境,期望提供一种能够高速率地计算合焦位置的信息处理装置、信息处理方法、程序和影像测量装置。
根据本公开的实施例,信息处理装置包括获取单元、第一计算器以及第二计算器。
所述获取单元被配置为获取多个对象图像,所述多个对象图像在预定范围内移动焦点位置时通过图像拾取设备拍摄,所述图像拾取设备能够拍摄在所述预定范围内的任意焦点位置处的对象的图像。
所述第一计算器能够基于关于手动拍摄对象图像组的衬度信息片段来计算在所述预定范围内的第一合焦位置,所述手动拍摄对象图像组包括在所述预定范围内手动移动焦点位置时拍摄的多个对象图像。
所述第二计算器能够基于关于自动拍摄对象图像组的衬度信息片段来计算在搜索范围内的第二合焦位置,所述自动拍摄对象图像组包括在搜索范围内自动移动焦点位置时拍摄的多个对象图像,所述搜索范围参考计算出的第一合焦位置来确定。
根据该信息处理装置,在手动移动焦点位置时获取手动拍摄对象图像组。基于关于所述手动拍摄对象图像组的衬度信息片段来计算第一合焦位置。另外,基于自动拍摄对象图像组来计算第二合焦位置。所述自动拍摄对象图像组在参考所述第一合焦位置确定的搜索范围内自动移动焦点位置时获取。因此,能够充分地避免在自动移动焦点位置的扫描中出现无用扫描。能够高速率地计算合焦位置。
该信息处理还可以包括驱动器。
所述驱动器能够在所述预定范围内移动焦点位置。
在该情况下,所述驱动器可以被配置为以第一速率将焦点位置移动至所述搜索范围的端点之一,并且以低于所述第一速率的第二速率在所述搜索范围内移动焦点位置。
如上所述,焦点位置高速率地移动至所述搜索范围的端点。以低速率在所述搜索范围内自动地实施扫描。因此,能够高速率地计算合焦位置。
该信息处理装置还可以包括操作输入单元。
用户将指令输入到所述操作输入单元中。
在该情况下,所述第一计算器可以被配置为响应于用户手动地移动焦点位置的操作,计算所述第一合焦位置。所述第二计算器可以被配置为响应于用户在所述操作输入单元中输入的自动聚焦指令,计算所述第二合焦位置。
如上所述,可以在计算第一合焦位置并且确定搜索范围之后输入自动聚焦指令。因此,能够充分地减少实施自动聚焦的时间。
该信息处理装置还可以包括确定单元。
所述确定单元被配置为如果在计算所述第一合焦位置之后经过预定时间段并且在所述预定时间段内未输入自动聚焦指令,则确定所述第一合焦位置是无效的。
例如,可以在计算第一合焦位置之后替换对象、改变图像拾取条件等。在该情况下,参考所述第一合焦位置的自动聚焦可能是无用的。根据本公开,在经过预定时间段后,第一合焦位置是无效的。因此,能够避免这种无用自动聚焦出现。
所述第一计算器可以被配置为基于关于所述手动拍摄对象图像组的衬度信息片段来计算在所述预定范围内的衬度峰值,并且计算所述第一合焦位置,所述第一合焦位置是对应于所述峰值的焦点位置。所述确定单元还可以被配置为以预定比率削弱所述衬度峰值,并且设置所述预定时间段,所述预定时间段是直至削弱后的峰值降至预定阈值以下为止的时间段。
如上所述,可以以预定比率削弱峰值,从而确定第一合焦位置的有效性。因此,基于上述的基于峰值的预定时间段来确定第一合焦位置的有效性。
所述第一计算器还可以被配置为基于关于所述手动拍摄对象图像组的衬度信息片段来计算函数,并且计算所述衬度峰值,其中,所述函数示出所述预定范围内的焦点位置与所述衬度信息之间的关系,所述衬度峰值是所述函数的峰值。
例如,可以实施模型函数似合来计算上述函数。所述函数的峰值可以被计算为衬度峰值。
该信息处理装置还可以包含存储器。
所述存储器被配置为存储计算用图,所述计算用图包括多个划分区域。
在该情况下,所述第一计算器可以被配置为基于关于多个划分区域的衬度信息片段来计算划分区域合焦位置,并且基于关于所述划分区域合焦位置的信息片段来计算所述第一合焦位置,其中,所述划分区域合焦位置是所述多个划分区域的第一合焦位置,而所述多个划分区域通过划分对应于所述计算用图的多个区域的所述对像图像来获取。
该信息处理装置使用包括多个划分区域的计算用图。多个划分区域通过划分所述对象图像来获取。所述多个划分区域对应于计算用图的多个区域。另外,基于关于划分区域的衬度信息片段来计算划分区域合焦位置。所述划分区域合焦位置是划分区域的第一合焦位置。所述第一计算器基于划分区域合焦位置信息片段来计算整个对象的第一合焦位置。如上所述,为所述多个划分区域计算划分区域合焦位置。因此,能够高度准确度地计算所述第一合焦位置。
所述第一计算器可以被配置为针对计算对象区域,基于关于所述划分区域合焦位置的信息片段计算第一合焦位置,所述计算对象区域是所述多个划分区域的一些划分区域,所述一些划分区域与所述对象图像中的参考区域重叠,所述参考区域是计算所述第一合焦位置的参考。
如上所述,可以设置与所述参考区域重叠的计算对象区域。可以基于关于所述计算对象区域的划分区域合焦位置信息片段来计算所述第一合焦位置。因此,能够高度准确度地计算所述第一合焦位置。
所述第一计算器可以被配置为基于与所述参考区域重叠的区域的大小以及关于所述计算对象区域的衬度信息片段来对所述计算对象区域加权,并且计算所述第一合焦位置。
因此,能够高度准确度地计算所述第一合焦位置。
该信息处理装置还可以包括驱动器。
所述驱动器能够在所述预定范围内移动焦点位置。
在该情况下,所述驱动器可以被配置为以第一速率将焦点位置移动至所述搜索范围的端点之一,并且以低于所述第一速率的第二速率在所述搜索范围内移动焦点位置。
所述图像拾取设备能够拍摄在与安放对象的安放表面平行的2D(二维)平面上的任意图像拾取位置处的对象的图像。在该情况下,所述驱动器能够在所述2D平面上移动所述图像拾取位置。另外,计算用图可以具有比所述对象图像的图像拾取区域更大的区域,所述计算用图包含所述图像拾取区域,所述计算用图在移动所述图像拾取位置时移动。
根据该信息处理装置,能够在必要时在与安放对象的安放表面平行的2D平面上移动图像拾取位置的同时拍摄图像。所述计算用图包含对象图像的图像拾取区域。所述计算用图在移动所述图像拾取位置时移动。因此,即使所述图像拾取位置被移动,也能够高速率地在新位置处计算合焦位置。
所述存储器可以被配置为针对所述计算用图的区域,存储关于对象图像的划分区域的衬度信息片段以及划分区域合焦位置信息片段,所述对象图像的划分区域对应于所述计算用图的区域。在该情况下,所述第一计算器可以被配置为,如果图像拾取位置被移动,则参考关于所述计算用图的区域的衬度信息片段以及划分区域合焦位置信息片段,并且计算移动后的对象图像的划分区域的划分区域合焦位置,其中,在移动图像拾取位置之前存储所述衬度信息片段以及所述划分区域合焦位置信息片段。
例如,在移动图像拾取位置时拍摄图像的图像。在该情况下,对每个拍摄图像,存储关于划分区域的衬度信息片段以及划分区域合焦位置信息片段。在该情况下,一些移动后的划分区域可以在仍要移动的计算用图的设置范围中。在该情况下,可以在移动图像拾取位置之前存储关于对应于那些划分区域的计算用图的区域的衬度信息片段以及划分区域合焦位置信息片段。在该情况下,可以使用图像拾取位置之前存储的信息。因此,能够在短时间内计算移动后的划分区域合焦位置。
所述获取单元可以被配置为获取多个对象图像,所述多个对象图像通过拍摄所述对象的图像来获取,所述对象的图像通过包括物镜(objective lens)的光学系统形成。在该情况下,所述存储器可以被配置为针对所述光学系统的物镜存储计算用图,所述计算用图用于计算所述第一合焦位置。
因此,即使互换了物镜等,也能够计算第一合焦位置。
根据本公开的实施例,提供了一种由计算机执行的信息处理方法。
获取多个对象图像,所述多个对象图像在预定范围内移动焦点位置时通过图像拾取设备拍摄,所述图像拾取设备能够拍摄在所述预定范围内的任意焦点位置处的对象的图像。
基于关于手动拍摄对象图像组的衬度信息片段来计算在所述预定范围内的第一合焦位置,所述手动拍摄对象图像组包括在所述预定范围内手动移动焦点位置时拍摄的多个对象图像。
基于关于自动拍摄对象图像组的衬度信息片段来计算在搜索范围内的第二合焦位置,所述自动拍摄对象图像组包括在搜索范围内自动移动焦点位置时拍摄的多个对象图像,所述搜索范围参考计算出的第一合焦位置来确定。
根据本公开的实施例,提供了一种程序,该程序使计算机执行以下步骤:
获取多个对象图像,所述多个对象图像在预定范围内移动焦点位置时通过图像拾取设备拍摄,所述图像拾取设备能够拍摄在所述预定范围内的任意焦点位置处的对象的图像;
基于关于手动拍摄对象图像组的衬度信息片段来计算在所述预定范围内的第一合焦位置,所述手动拍摄对象图像组包括在所述预定范围内手动移动焦点位置时拍摄的多个对象图像;以及
基于关于自动拍摄对象图像组的衬度信息片段来计算在搜索范围内的第二合焦位置,所述自动拍摄对象图像组包括在搜索范围内自动移动焦点位置时拍摄的多个对象图像,所述搜索范围参考计算出的第一合焦位置来确定。
根据本公开的实施例,提供了一种影像测量装置,该装置包括:图像拾取单元、上述获取单元、上述第一计算器以及上述第二计算器。
所述图像拾取单元能够拍摄在预定范围内的任意焦点位置处的对象的图像。
根据本公开的实施例,提供了一种信息处理装置,该装置包括获取单元、存储器、设置单元以及计算器。
所述获取单元被配置为获取多个对象图像,所述多个对象图像在预定范围内移动焦点位置时通过图像拾取设备拍摄,所述图像拾取设备能够拍摄在所述预定范围内的任意焦点位置处的对象的图像。
所述存储器被配置为存储计算用图,所述计算用图包括多个划分区域。
所述设置单元被配置为对所述多个对象图像中的每一个设置多个划分区域,所述多个划分区域通过划分所述对象图像来获取,所述多个划分区域对应于计算用图的多个区域。
所述计算器被配置为针对所述划分区域基于关于所述多个划分区域的衬度信息片段来计算划分区域合焦位置,并且基于关于所述划分区域合焦位置的信息片段计算所述预定范围内的对象图像的合焦位置,其中,所述多个划分区域针对每个对象图像来设置,所述划分区域合焦位置在所述预定范围内。
根据该信息处理装置,使用计算用图。所述计算用图是多个划分区域。设置多个划分区域,所述多个划分区域通过划分所述对象图像来获取,所述多个划分区域对应于计算用图的多个区域。另外,对所述划分区域,基于关于所述多个划分区域的衬度信息片段来计算划分区域合焦位置,所述划分区域合焦位置在所述预定范围内。所述第一计算器基于关于所述划分区域合焦位置的信息片段来计算所述预定范围内的对象图像的合焦位置。如上所述,对多个划分区域计算划分区域合焦位置。因此,能够高度准确地计算合焦位置。
如上所述,根据本公开,能够高速率地计算合焦位置。
附图说明
图1是示意性地示出根据本公开的实施例的影像测量装置的配置示例的示图;
图2是示意性地示出图1的主PC的配置示例的框图;
图3是例示手动调整搜索范围的位置的方式的示图;
图4是例示设置第一合焦位置以及预测性搜索范围的方式的示图;
图5是例示该实施例的AF操作的示图;
图6是例示当在预测性搜索范围中不存在焦点位置时的操作的示图;
图7是例示当在预测性搜索范围中不存在焦点位置时的操作的示图;
图8是例示确定第一合焦位置的有效性的方法的示例的示图;
图9A和9B是示意性地例示基于关于手动拍摄对象图像组的衬度信息片段来计算第一合焦位置的方式的照片和图;
图10A和10B是示意性地例示基于关于手动拍摄对象图像组的衬度信息片段来计算第一合焦位置的方式的照片和图;
图11是例示设置多个划分区域的方式的示图;
图12是例示划分区域信息的示图;
图13是示出更新划分区域信息的方式的示例的流程图;
图14是例示移动衬度图的方式的示图;
图15是例示移动衬度图的方式的示图;
图16是例示移动衬度图的方式的示图;
图17是例示基于划分区域信息来计算第一合焦位置的示例的示图;
图18是例示比较示例的AF的示图;
图19是例示比较示例的AF的示图;
图20A、20B和20C是示出当实施该实施例的AF时的处理时间的示例的曲线图;
图21A、21B和21C是示出当实施该实施例的AF时的处理时间的示例的曲线图;
图22A、22B和22C是示出当实施该实施例的AF时的处理时间的示例的曲线图;
图23A、23B和23C是示出当实施该实施例的AF时的处理时间的示例的曲线图;并且
图24A、24B、24C和24D是示出比较示例的AF的处理时间的曲线图。
具体实施方式
以下,将参考附图说明本公开的实施例。
[影像测量装置的配置]
图1是示意性地示出根据本公开的实施例的影像测量装置的配置示例的示图。影像测量装置300包括无接触型影像测量系统100和PC(个人计算机)200。PC 200驱动并控制影像测量系统100,并且必要时处理数据。PC 200用作该实施例的信息处理装置。注意,除了PC之外的任何计算机都可以被用作该实施例的信息处理装置。
影像测量系统100包括底座(mount)111、平台(stage)112以及图像拾取单元114。底座111是用于移动样本的部件。平台112安放在底座111上。图像拾取单元114布置在平台112的上方。
底座111包括基座(base)115。基座115包括主表面116。主表面116在第一方向(X轴方向)上具有短边,在第二方向(Y轴方向)上具有长边。第一方向与第二方向正交。两个支柱(column)113a和113b分别布置在基座115的两个长边上。两个支柱113a和113b(在Z轴的方向上)向上延伸。在两个支柱113a和113b之间布置导杆(guide)113c。导杆113c在X轴方向上延伸。
平台112包括安放表面(mount surface)117。材料3(亦即,检测对象)安放在安放表面117上。安放表面117安放在底座111的主表面116上,使得安放表面117可以平行于水平方向。底座111包括在主表面116上的Y轴驱动器机构(未示出)。该Y轴驱动器机构在Y轴方向上移动平台112。PC200控制该Y轴驱动器机构。因此,平台112在Y轴方向上移动。该Y轴驱动器机构的配置不限定,并且可以根据需要来设计。
图像拾取单元114安放在布置在两个支柱113a和113b之间的导杆113c上。导杆113c包括X轴驱动器机构(未示出)。PC 200控制该X轴驱动器机构。因此,图像拾取单元114在X轴方向上移动。该X轴驱动器机构的配置不限定,并且可以根据需要来设计。
相机118安放在图像拾取单元114上,使得相机118可以面向平台112。相机118用作图像拾取设备(图像拾取单元)。相机118例如包括CMOS(互补金属氧化物半导体,Complementary Metal Oxide Semiconductor)或者CCD(电荷耦合器件,Charge CoupledDevices)传感器等。可以使用别外的相机。
相机118能够拍摄对象(亦即,材料3)的图像。相机118能够在Z轴方向(焦轴方向)上移动,亦即,在光轴方向上移动。相机118能够拍摄在预定范围内的任意焦点位置处的对象(亦即,材料3)的图像。图像拾取单元114包括Z轴驱动器机构(未示出)。该Z轴驱动器机构在Z轴方向上相机118。PC 200控制该Z轴驱动器机构。因此,相机118在Z轴方向上移动。因此,相机118的焦点位置移动。
用户可以操作鼠标等,从而相机118在Z轴方向上移动,并且焦点移动。替代地,例如,相机118可以自动地在Z轴方向上移动,并且焦点位置移动。替代地,例如,相机118可以自动地在Z轴方向上移动,并且焦点位置可以响应于自动聚焦(以下称为AF)指令等而自动地移动。用户可以输入操作,从而使焦点位置移动(亦即,手动地移动焦点位置)。PC 200可以响应于AF指令等来控制并移动焦点位置(亦即,自动地移动焦点位置)。
这类影像测量系统100不受限制。可以使用任何装置,只要该装置例如测量和观察作为材料3的拍摄图像的对象图像并且能够手动地以及自动地移动焦点位置即可。例如,影像测量系统100可以是诸如CNC影像测量系统或者CNC 3D(三维)测量系统、硬度测试机之类的图像探测器。另外,本公开可应用于数字显微镜。数字显微镜的数字相机拍摄通过光学显微镜获取的放大图像的图像。在该情况下,包括物镜的成像光学系统产生对象的放大图像。图像拾取设备(图像拾取单元)包括成像光学系统。典型地,物镜在Z轴方向上移动,从而移动焦点位置。
在图1的示例中,在X轴方向上驱动图像拾取单元114,并且在Y轴方向上驱动平台112。因此,能够在相对于平台112的安放表面117的XY平面方向上移动相机118的图像拾取位置。换言之,影像测量系统100的相机118能够拍摄在平行于安放有材料3的安放表面117的2D平面上的任意图像拾取位置处的材料3的图像。注意,图像拾取位置是由相机118拍摄其图像的区域(图像拾取区域)的位置。相机118拍摄图像拾取区域中的区域的图像(对象图像)。
相机118可以具有在XY平面方向上移动图像拾取位置的任何配置。例如,能够在X轴方向以及Y轴方向上同时驱动平台112。另外,能够在X轴方向以及Y轴方向上同时驱动图像拾取单元114。替代地,能够在XY平面方向上驱动平台112,能够在XY平面方向上驱动图像拾取单元114,并且可以任意地控制平台112与图像拾取单元114之间的相对位置关系。
PC 200包括主PC 221、键盘222、操纵杆箱(以下称为J/S)223、鼠标224、显示器225以及打印机226。键盘222、J/S 223以及鼠标224用作操作输入单元,用户用其输入指令。显示器225用作显示单元。例如,显示器225是液晶、EL(电致发光,Electro-Luminescence)或者CRT(阴极射线管,Cathode Ray Tube)显示设备等。打印机226例如能够打印出测量结果等。
图2是示意性地示出主PC 221的配置示例的框图。主PC 221包括CPU(中央处理器,Central Processing Unit)235、ROM(只读存储器,Read Only Member)236、RAM(随机存取存储器,Random Access Memory)237、图像存储器238以及显示控制器239。另外,主PC 221包括各种I/F(接口)241至245。影像测量系统100、键盘222、HDD(硬盘驱动,Hard DiskDrive)240等连接到I/F 241至245中的每一个上。
相机118拍摄材料3的对象图像。相机118经由I/F 241将关于对象图像的信息传送/输入给/到图像存储器238中。图像存储器238将关于对象图像的信息存储为多值图像。例如,经由USB缆线以及USB端口传送图像信息。USB缆线是通用数字串行通信线。
在某些情况下,基于CAD(计算机辅助设计,Computer Aided Design)数据执行离线教导。在该情况下,CAD系统(未示出)产生材料3的CAD数据。该CAD数据经由I/F 242输入到CPU 235中。例如,CPU 235将输入到CPU 235中的CAD数据展开为如位图这样的图像信息。然后,图像存储器238存储图像信息。显示控制器239将存储在图像存储器238中的图像信息显示在显示器225上。
键盘222、J/S 223以及鼠标224输入代码信息、位置信息等。代码信息、位置信息等经由I/F 244输入到CPU 235中。ROM 236存储宏程序。RAM 237存储经由I/F 245从HDD 240获取的各种程序。CPU 235基于宏程序和各种程序执行测量、显示测量结果等。各种程序还包括用于执行本公开的信息处理方法的程序。
CPU 235能够基于测量处理经由I/F 243驱动并控制影像测量系统100。例如,用户操作J/S 223或者鼠标224来输入信息。基于输入信息来控制影像测量系统100的X轴驱动器机构以及Y轴驱动器机构。因此,平台112和图像拾取单元114在X轴方向上和Y轴方向上相对地移动。
在平台112和图像拾取单元114移动并稳定之后,手动地或者自动地控制Z轴驱动器机构。因此,相机118在Z轴方向上移动。然后,在合焦的焦点位置处确定焦点位置。拍摄合焦的材料3的图像。然后,在显示器225上显示新图像拾取区域中的材料3的对象图像。稍后将详细说明如何计算该焦点位置。
注意,HDD 240是被配置为存储各种程序、数据等的存储介质。RAM 237存储各种程序,并且向CPU 235供给用于各种类型的处理的工作区域。在该实施例中,HDD 240、ROM236、RAM 237等用作存储器。注意,可以经由诸如因特网这样的网络将程序安装在PC 200中。
另外,PC 200能够发送例如指定相机118的帧速率的信号、指定发光设备(未示出)的发光强度的信号等。发光设备用光照射材料3。相机118以由PC 200指定的帧速率拍摄材料3的图像。如上所述,经由USB缆线等将关于拍摄图像的图像信息批量传送给PC 200。在该情况下,影像测量系统100的位置控制器(未示出)等向PC 200发送关于相机118的位置信息。注意,各种照明器中的任何一种都可以用作发光设备。例如,可以使用PWM(脉冲宽度调制,Pulse Width Modulation)控制的LED(发光二极管,Light Emitting Diode)等。
在该实施例中,相机118的位置移动以移动焦点位置。然而,移动焦点位置的方式不限于此。例如,可以调整包括镜头等的相机118的光学系统来移动焦点位置。如果将数字显微镜用作影像测量系统100,则可以调整光学显微镜的光学系统(例如,可以移动物镜)来移动焦点位置。换言之,移动对象图像的焦点位置的方法不受限制,而且其配置不受限制。
如图2示意性地示出的那样,在该实施例中,CPU 235基于预定程序操作,并且实现获取单元250、第一计算器251、第二计算器252、驱动器253以及确定单元254。那些框执行关于该实施例的下面的信息处理方法。换言之,存储在HDD 240等之中的软件和PC 200的硬件资源协作并实现PC 200的信息处理。注意,可以使用专用硬件来实施诸如获取单元250等每个框。
[影像测量装置的操作]
将说明该实施例的影像测量装置300的操作(焦点位置的计算)。图3至图8是例示相机118在Z轴方向上的移动以及基于该移动的焦点位置的计算的示图。在下面的说明中,相机118在Z轴方向上的移动对应于焦点位置的移动。另外,相机118的可移动范围对应于焦点位置的可移动范围。
如图3所示,相机118能够在可移动范围120(亦即,预定范围)内移动。另外,参考相机118的位置121来设置搜索范围122。在AF期间,相机118针对焦点位置搜索搜索范围122。换言之,如果用户输入AF指令,则相机118在搜索范围122内自动地移动以搜索焦点位置。
在该实施例中,所设置的搜索范围122具有在向上的方向上离开相机118的位置121的预定距离,和在向下的方向上离开相机118的位置121的预定距离。换言之,设置具有长度±L mm的搜索范围122,其中正(+)方向是沿着Z轴向上的方向。可以基于焦点深度等任意地设置搜索范围122的距离(L mm的长度)。相机118在Z轴方向上移动,并且因此搜索范围122被移动。
用户手动地(通过操作鼠标等)移动相机118的位置121,使得搜索范围122可以包括焦点位置。换言之,用户将相机118手动地移动至AF起始位置。用户通过显示器确认通过相机118拍摄的对象图像,并且同时向焦点位置移动相机118。
例如如图3所示,焦点位置Z_focus处在Z轴方向上的预定位置。然后,用户从在焦点位置Z_focus上面的位置A开始向下移动相机118。用户将相机118从位置A移动至在焦点位置Z_focus下面的位置B。然后,用户再次向上从位置B开始向焦点位置Z_focus移动。然后,用户将相机118移动至在焦点位置Z_focus上面的位置C处。通过这种方式,手动地将相机118的位置121设置在AF起始位置(位置C)处。
在该实施例中,当正在手动地调整相机118的位置121时,相机118在可移动范围120内移动相机118的位置121的同时拍摄多个对象图像260。获取单元250获取多个对象图像260。所述多个对象图像260对应于“在预定范围内手动移动焦点位置时拍摄的多个对象图像”。
手动拍摄图像组265包括在手动地调整相机118的位置121时拍摄的多个对象图像260。在图3以及图4的示例中,所述手动拍摄对象图像组265包括对象图像260,亦即,图像0至图像5。
在该实施例中,对手动拍摄对象图像组265实施预测性AF。在预测性AF中,第一计算器251基于关于手动拍摄对象图像组265的衬度信息片段来计算在可移动范围120中的第一合焦位置125(焦点锁定)。
在该实施例中,每当图像拾取单元114输入对象图像260时,就实施连续的预测性AF,并且搜索第一合焦位置125。具体地,在图4的示例中,当输入在位置A处拍摄的对象图像260(图像0)时,开始预测性AF。然后,当输入在焦点位置Z_focus下面的位置B处拍摄的对象图像260(图像5)时,计算第一合焦位置125。基于衬度峰值等计算第一合焦位置125(稍后说明)。
注意,可以对在相机118从位置B移动至位置C时拍摄的对象图像260连续地实施预测性AF。例如,当输入在焦点位置Z_focus下面以及上面的拍摄对象图像260(图像5至图像3)时,可以再次计算第一合焦位置125。如上所述,每当输入对象图像260时,就可以实施连续的预测性AF。替代地,可以例如在计算出第一合焦位置时结束预测性。如果实施连续的预测性AF,则能够高度准确地计算第一合焦位置。同时,如果预测性AF在进行中结束,则可以减小计算量以及处理时间。
当获取手动拍摄对象图像组265以实施预测性AF时,计算图像260的衬度值。衬度值是基于关于每个图像260的衬度信息计算出的估计衬度值。基于对象图像260的像素的亮度值计算衬度值。计算衬度值的方法不受限制。例如,可以基于邻近像素的亮度值的差值的总和来计算衬度值。替代地,可以基于亮度值的绝对值的总和,基于对象图像260的频率成分,等等,来计算衬度值。替代地,可以基于任何方法来计算衬度值。注意,不必使用关于所有像素的亮度值的所有信息片段。替代地,可以使用某些数据段。
基于计算出的衬度值来计算第一合焦位置125。在该实施例中,基于衬度值计算可移动范围120中的衬度峰值。然后,将对应于衬度峰值的相机118的位置(焦点位置)计算为第一合焦位置。将第一合焦位置125视为近似焦点位置Z_focus。
例如,使用具有最高衬度值的对象图像260的衬度值作为衬度峰值。换言之,将最高衬度值计算为计算出的对象图像260的衬度值中的衬度峰值。在该情况下,将在相机118拍摄具有最高衬度值的对象图像260时的相机118的位置121计算为第一合焦位置125。在计算第一合焦位置125时,可以确定在拍摄具有最高衬度值的对象图像260之前或者之后是否拍摄了具有更低的衬度值的对象图像260。可以只有当在拍摄具有最高衬度值的对象图像260之前或者之后拍摄了具有更低的衬度值的对象图像260时,才计算第一合焦位置。
在图4的示例中,当获取了对象图像260(图像0至图像5)时,将对象图像260(图像4)的衬度值计算为衬度峰值。然后,将在相机118拍摄对象图像260(图像4)时的相机118的位置121计算为第一合焦位置125。注意,当在相机118从位置B移动至位置C的同时再次计算第一合焦位置125时,还可以执行类似的过程。
替代地,可以实施模型函数拟合来计算衬度峰值。基于模型函数拟合,计算示出可移动范围120内的焦点位置与衬度值之间的关系的函数。然后,可以将函数的峰值计算为衬度峰值。例如,可以将使用最小方差方法的高斯函数拟合等作为模型函数拟合。替代地,可以使用另外的函数拟合。
如果计算出第一合焦位置125,则参考计算出的第一合焦位置125来设置预测性搜索范围127。所设置的预测性搜索范围127在向上以及向下的方向上具有离开第一合焦位置125(亦即,中心)的预定距离。换言之,设置具有长度±N mm的预测性搜索范围127,其中,正(+)方向是沿着Z轴向上的方向。
可以基于焦点深度等任意地设置预测性搜索范围127的距离(N mm的长度)。例如,如果光学系统具有较小的焦点深度,则焦点位置Z_focus靠近第一合焦位置125。因此,在该情况下,设置较小的预测性搜索范围127。例如,如果光学系统具有更大的焦点深度,则焦点位置Z_focus在相对更大的范围内。因此,设置更大的预测性搜索范围127。
如上所述,在该实施例中,在用户手动地调整焦点位置时实施预测性AF。然后,设置第一合焦位置125以及预测性搜索范围127。用户结束调整焦点位置,并且相机118的位置121移动至AF起始位置。然后,用户输入AF指令。替代地,可以一直监视对象图像260的衬度值,并且在输入AF指令时可以设置第一合焦位置125以及预测性搜索范围127。
如图5所示,如果输入AF指令,则驱动器253以第一速率Vmax1(亦即,高速率)将相机118的位置121移动至预测性搜索范围127的起始位置128。预测性搜索范围127的起始位置128是预测性搜索范围127的端点之一。典型地,将更接近于在输入AF指令时的相机118的位置121的端点设置为预测性搜索范围127的起始位置128。
然后,驱动器253以低于第一速率的第二速率V1在预测性搜索范围127内移动相机118的位置121。如果以第二速率V1(亦即,更低的速率)实施搜索,则能够高度准确地计算焦点位置Z_focus。注意,可以基于焦点深度等任意地设置第一速率Vmax1和第二速率V1。
为了搜索预测性搜索范围127,相机118在参考第一合焦位置125设置的预测性搜索范围127内自动地移动相机118的位置121的同时拍摄多个对象图像270。获取单元250得到多个对象图像270。多个对象图像270对应于“在搜索范围内自动移动焦点位置时拍摄的多个对象图像,所述搜索范围参考计算出的第一合焦位置来确定”。
自动拍摄对象图像组275包括在实施AF时拍摄的多个对象图像270。在图5的示例中,自动拍摄对象图像组275包括对象图像270(图像2至图像6)。注意,可以使用对象图像270(图像0和图像1)计算焦点位置Z_focus。
第二计算器252基于关于自动拍摄对象图像组275的衬度信息片段计算在预测性搜索范围127中的第二合焦位置130。换言之,基于关于自动拍摄对象图像组275的衬度信息片段计算衬度峰值。然后,将对应于衬度峰值的相机118的位置121计算为第二合焦位置。将第二合焦位置130计算为焦点位置Z_focus。
不限制计算衬度值的方法以及计算峰值的方法。可以任意地使用上述方法等。典型地,实施模型函数拟合来计算第二合焦位置130,并且使用该函数的峰值。当然,可以将在相机118拍摄具有最高衬度值的对象图像270时的相机118的位置121计算为第二合焦位置130。
在图5的示例中,当拍摄对象图像270(图像6)时计算衬度峰值。然后,当拍摄对象图像270(图6)时停止相机118的移动。注意,可在计算出峰值时停止相机118的移动。因此,能够减少处理时间。例如,当计算出衬度值时停止相机118的移动,其中衬度值的数量足以计算模型函数的参数。
如上所述,根据该实施例的PC 200,相机118在用户手动地移动相机118的位置(焦点位置)的同时拍摄手动拍摄对象图像组265。基于关于手动拍摄对象图像组265的衬度信息片段计算第一合焦位置125。参考第一合焦位置125设置预测性搜索范围127。相机118在相机118的位置121自动地移动的同时拍摄自动拍摄对象图像组275。然后,基于自动拍摄对象图像组275计算第二合焦位置130。因此,能够充分地避免在相机118的位置自动地移动(扫描)时出现无用扫描。能够高速率地计算焦点位置Z_focus。
另外,在计算出第一合焦位置125并且设置了预测性搜索范围127之后输入AF指令。因此,能够充分地减小AF的时间。
另外,在AF中,相机118以更高的速率移动至预测性搜索范围127的起始位置128。以更低的速率自动地扫描预测性搜索范围127。因此,能够高速率地或者高度准确地计算焦点位置Z_focus。另外,计算预测性搜索位置127的起始位置128。因此,确定响应于来自用户的指令的相机118在AF中首先移动的方向。因此,能够充分地避免相机118首先在不存在焦点位置Z_focus的方向上移动。因此,还能够高速率地计算焦点位置。
注意,参考第一合焦位置125的预测性搜索范围127可以不是在中心处包括第一合焦位置125的具有预定长度的范围。替代地,可以将预测性搜索范围127的起始位置128与相对侧的搜索范围122的端点(图5的示例中的最下端131)之间的范围设置为预测性搜索范围127。
具体地,首先,设置具有预定长度的范围(对应于该实施例的预测性搜索范围127),其中该范围的中心是第一合焦位置125。将端点之一设置为预测性搜索范围127的起始位置128。然后,将起始位置128与相对侧的搜索范围122的端点之间的范围设置为预测性搜索范围。因此,能够搜索更宽的范围,并且高度准确地计算焦点位置Z_focus。同样在该情况下,确定相机118首先移动的方向。因此,能够高速率地计算焦点位置Z_focus。另外,多数情况下,在相机118到达相对侧的搜索区域122的端点之前,在第一合焦位置125的附近计算焦点位置Z_focus。
参考图6和图7,将说明在预测性搜索范围127内未检测到焦点位置Z_focus的情况。例如,在设置预测性搜索范围127之后并且在输入AF指令之前材料3被替换或者转移。替代地,改变图像拾取条件(例如,改变发光强度)。在该情况下,改变焦点位置Z_focus。因此,焦点位置Z_focus不存在于在改变图像拾取条件之前设置的预测性搜索范围127中。
如图6所示,如果输入AF指令,则相机118以第一速率Vmax1移动至预测性搜索范围127的起始位置128(拍摄对象图像270(图像0和图像1))。然后,相机118以第二速率V1在预测性搜索范围127内移动(拍摄对象图像270(图像2至图像6))。在预测性搜索范围127中不存在焦点位置Z_focus。因此,不计算衬度峰值。例如,如果任意地设置用于计算衬度值的阈值并且如果不计算大于该阈值的衬度值,则不计算峰值。
因为在预测性搜索范围127中不计算峰值,所以以第二速率V1搜索预测性搜索范围127直至到达最下端131为止。在图6的示例中,在预测性搜索范围127中不存在焦点位置Z_focus。因此,相机118移动至最下端131,然后停止。注意,相机118可以在预测性搜索范围127的最下端停止。然而,如果相机118继续移动至搜索范围122的最下端131,则能够高效地计算焦点位置Z_focus。
如图7所示,如果搜索不成功,则相机118以第一速率Vmax1移动,并且到达预测性搜索范围127的起始位置128。然后,相机118以第二速率V1从起始位置128移动至搜索范围122的最上端132。相机118在此时拍摄对象图像271(图像12至图像24)。基于关于对象图像271(图像12至图像24)的衬度信息片段计算衬度峰值。
在图7的示例中,当拍摄对象图像271(图像24)时,计算衬度峰值。然后,计算焦点位置Z_focus。在相机118到达搜索范围122的最上端132之前中断相机118的移动,从而减小处理时间。即使如上所述地在预测性搜索范围127内的搜索不成功,也能够成功地实施AF。注意,相信用户极少在其手动地调整相机118的位置121之后替换材料并且输入AF指令。因此,上述情况是非常少见的。
在该实施例中,确定单元254确定第一合焦位置125的有效性,使得可以成功地搜索到预测性搜索范围127。例如,如果在计算第一合焦位置125之后,在预定期间内未输入AF指令,则确定该第一合焦位置125是无效的。如上所述,在多数情况下,因为在计算第一合焦位置之后替换材料3等,所以焦点位置Z_focus改变。相信如果未替换材料3,则用户会在其手动地调整相机118的位置121之后不久就输入AF指令。考虑到这一点,如果在计算第一合焦位置125之后经过预定时间段,则确定材料3可能被替换等。在该情况下,确定第一合焦位置125是无效的。因此,能够避免出现无用搜索。注意,可以根据需要设置预定时间段。
如图8所示,可以基于衬度峰值133设置预定时间段。具体地,以预定比率削弱衬度峰值133。削弱后的峰值133降到预定阈值(亦即,锁定阈值134)以下。此时,确定第一合焦位置125是无效的。衬度峰值133可以是拟合函数的峰值或者是最大的衬度值。
换言之,在图8的示例中,将直至峰值133降到锁定阈值134以下为止的时间段设置为预定时间段。可以根据需要来设置预定比率和锁定阈值134。例如,预定比率可以是帧速率等。另外,锁定阈值134可以参考峰值133来确定。例如,锁定阈值134可以是峰值133的一半,等等。
可以使用以预定比率削弱的峰值133作为示出第一合焦位置125的可靠性的参数。例如,基于大于锁定阈值134的峰值133来确定第一合焦位置125的可靠性。然后,可以基于第一合焦位置125的可靠性来实施任何处理。例如,主PC 221可以将可靠性信息通知给用户。显示器225可以显示需要对AF的执行进行确认的GUI(图形用户界面,Graphical UserInterface),等等。
如果第一合焦位置125是无效的,则再次手动地调整相机118的位置121。此时,在相机118经过焦点位置Z_focus时,再次设置第一合焦位置125以及预测性搜索范围127。
基于关于手动拍摄对象图像组265的衬度信息片段来计算第一合焦位置125。接下来,将详细地说明计算第一合焦位置125的方式的示例。图9和图10是示意性地例示计算第一合焦位置125的示例的画面和图。
如图9A的照片以及图9B的图所示,在该实施例中,划分对象图像260,并且设置多个划分区域280。基于关于多个划分区域280的衬度信息片段来计算划分区域合焦位置等。划分区域合焦位置是每个划分区域280的第一合焦位置。然后,在存储器中存储关于每个划分区域280的信息。关于每个划分区域280的信息包括划分区域合焦位置等。根据需要,对每个划分区域280存储的信息(以下称为划分区域信息)用于计算整个对象图像260的第一合焦位置125。
例如,在图9的示例中,在示出每个划分区域280的单元格281中显示划分区域信息。单元格281示出下面的信息片段。
Y:在相机处于当前Z位置(焦点位置)处时划分区域280的亮度(划分区域280的所有像素的亮度的平均值。例如,通过256色调/8比特来表示)。
C:在相机处于当前Z位置(焦点位置)处时划分区域280的衬度值。
Cp:到目前为止的划分区域280的最大衬度值。
Zp:在相机拍摄包括具有最大衬度值Cp的划分区域280的图像时的相机的Z位置(焦点位置)。使用下文的公式中的值Zc。
W:基于与图10的参考区域282重叠的区域的大小确定的加权系数(稍后说明)。
例如,将那些信息片段存储为划分区域信息。替代地,可以将其他信息片段存储为划分区域信息(参见图12)。
在图9中,在区域283上不显示示出划分区域280的单元格281。不能对区域283计算上述的划分区域信息。例如,区域283具有低于预定阈值(例如,图8的锁定阈值)的衬度值。替代地,例如,相机118尚未经过Zp,并且尚未确认Cp等,从而不能对区域283计算划分区域信息。关于不带阴影的图9B的划分区域280a,在图9A中显示红色单元格。计算每个划分区域280a的划分区域合焦位置,并且将上述的Zp确认为划分区域合焦位置。
关于图9B的带右斜向上阴影的(diagonally-right-up-hatched)区域280b,在图9A中显示黄色单元格。确定每个划分区域280b的划分区域合焦位置不高于当前Z位置。换言之,确定每个划分区域280b的划分区域合焦位置不高于Zp,但是可以低于Zp。换言之,尚未确定每个划分区域280b的划分区域合焦位置。
关于图9B的带左斜向上阴影的(diagonally-left-up-hatched)区域280c,在图9A中显示蓝色单元格。确定每个划分区域280c的划分区域合焦位置不低于当前Z位置。换言之,确定每个划分区域280c的划分区域合焦位置不低于Zp,但是可以高于Zp。换言之,尚未确定每个划分区域280c的划分区域合焦位置。
确定每个红色单元格(划分区域280a)的划分区域合焦位置。使用关于红色单元格(划分区域280a)的信息来计算整个对象图像260的第一合焦位置125。注意,所述色彩不限于上述色彩。
如图10所示,为了计算整个对象图像260的第一合焦位置125,在对象图像260中设置参考区域282。参考参考区域282来计算第一合焦位置125。典型地,所设置的参考区域282处于对象图像260的中心,并且具有预定大小。参考区域282的位置不限于中心。替代地,所设置的参考区域282可以在相机视图中的任意位置处,并且参考区域282可以具有任意大小。将与参考区域282重叠的划分区域280设置为计算对象区域284。基于关于计算对象区域284的划分区域信息片段(其中每个都包括关于划分区域合焦位置的信息)来计算整个对象图像260。
此时,基于与参考区域282重叠的区域的大小以及最大衬度值Cp(亦即,关于计算对象区域284的衬度信息片段)对计算对象区域284加权。因此,能够高度准确地计算第一合焦位置125。如果参考区域282包含整个单元,亦即,计算对象区域284,则该单元格的加权系数W为1.0。如果参考区域282包含单元格的一部分,则该单元格的W是0.0与1.0之间的值。如果单元格位于参考区域282之外,则该单元格的W为0.0。该单元格是除了计算对象区域284之外的划分区域280。可以显示W以便调试对加权系数的误算。
在图9和图10中,划分区域280和划分区域信息片段是用于内部处理的信息。换言之,实际上,在显示设备上不显示示出划分区域280的单元格以及划分区域信息片段。用户确认在显示设备上显示的未示出单元格和划分区域信息的图像。当然,可以在用户操作影像测量装置300时将那些信息片段显示在显示设备上。然而,典型地,那些信息片段用于调试。
在用户手动地移动相机118的位置121时更新关于每个划分区域280的划分区域信息。然后,在输入AF指令之前预设第一合焦位置125和预测性搜索范围127。替代地,在用户手动地移动相机118的位置121时更新关于每个划分区域280的划分区域信息。然后,可以在输入AF指令之后基于划分区域信息设置第一合焦位置125和预测性搜索范围127。无论是哪种情况,当开始AF时设置相机移动方向,并且都能够高速地计算焦点位置Z_focus。
图11是例示设置多个划分区域280的方式的示图。如图11所示,在存储器中存储机器坐标系统和衬度图坐标系统。机器坐标系统示出平台112的位置以及图像拾取单元114的位置。基于机器坐标系统来计算图像拾取位置285的坐标。在包括图像拾取位置285的可移动范围的范围内设置机器坐标系统。以毫米表示机器坐标系统的坐标。
机器坐标系统的原点、X轴和Y轴与衬度图坐标系统的原点、X轴和Y轴相同。如图11所示,将机器坐标系统的范围286划分为网格。从而获取多个区域287。将衬度图坐标系统设置为示出每个区域287的位置坐标的坐标系统。
参考衬度图坐标系统来设置衬度图288。在该实施例中,所设置的衬度图288的区域大于图像拾取区域(相机视图)289的区域。衬度图288包含图像拾取区域289。在该实施例中,衬度图288用作计算用图(map-for-calculation)。
通过划分对象图像260(图像拾取区域289中的图像)来设置划分区域280,使得划分区域280可以对应于衬度图288的多个区域290。在图11中,多个划分区域280带有阴影(划分区域的数量小于图9等的划分区域的数量)。因此,基于每个划分区域280的近似大小来确定衬度图288的多个区域290中的每一个的大小(亦即,衬度图坐标系统的多个区域287中的每一个的大小)。例如,每个划分区域280的大小是n×n(像素)。在该情况下,基于该大小(n×n像素)来设置衬度图坐标系统以及衬度图288。
在该实施例中,已知拍摄对象图像260的像素大小。因此,能够基于该像素大小来计算(校准)以毫米计的每个划分区域280的边的长度。基于计算出的以毫米计的长度来以毫米设置衬度图坐标系统。在该实施例中,对象图像260的大小是2048×1538(像素)。划分区域280(亦即,单元格281)的大小是128×128(像素)。将对象图像260和划分区域280映射到以毫米计的机器坐标系统上。
不限制大于图像拾取区域289的衬度图288的大小。在该实施例中,按照相同的比率在8个方向上放大包括多个划分区域280(图11中的7×5单元格)的图像拾取区域289,从而设置包括21×15单元格的衬度图288。替代地,可以根据需要设置不同的衬度图。
如上所述,参考存储在存储器中的衬度图288来设置多个划分区域280。例如,每当向PC 200传送对象图像260时,就更新上述的关于多个划分区域280中的每一个的划分区域信息。例如,每当相机在XYZ轴方向上移动时,就更新划分区域信息。
图12是例示划分区域信息的示图。在该实施例中,存储下面的划分区域信息片段。
Cp:最大衬度值。
Zp:最大衬度的Z位置。
Cu:到目前为止用户手动地移动相机的范围的最上端的衬度值。
Zu:到目前为止用户手动地移动相机的范围的最上端的Z位置。
Cl:到目前为止用户手动地移动相机的范围的最下端的衬度值。
Zl:到目前为止用户手动地移动相机的范围的最下端的Z位置。
Cc:当前图像的衬度值(对应于上文中的衬度值C)。
Zc:当前图像的Z位置。
Bc:当前图像的亮度(对应于上文中的亮度Y)。
Cb:先前图像的衬度值。
Zb:先前图像的Z位置。
Bb:先前图像的亮度。
W:加权系数。
注意,基于下面的插值计算来计算当前图像的Z位置Zc,其中,Zco是传送当前图像时的Z位置,Zpo是传送先前图像时的Z位置,tdelay是图像帧的传送延迟时间,并且tframe(=1/帧速率)是图像传送间隔。注意,用于计算Zc的公式不限于下面的插值计算。另外,可以使用某些图像数据片段来计算衬度等。
Zc=Zco-(Zco-Zpo)×tdelay/tframe
图13是更新划分区域信息的方式的示例的流程图。首先,初始化衬度图288(步骤101)。主PC 221等待要传送的下一个图像(步骤102)。基于机器坐标系统获取图像拾取位置285的XYZ坐标(步骤103)。例如,读取线性标度中的坐标值。
确定图像拾取位置是否不能沿着X轴或Y轴移动。换言之,确定是否不能改变图像拾取位置的X坐标值和Y坐标值(步骤104)。如果X坐标值和Y坐标值改变(步骤104的“否”),则对象图像260是流动图像。无法计算准确的衬度值。因此,跳过该过程,并且流程返回步骤102。
如果图像拾取位置285不能在X轴和Y轴上移动(步骤104的“是”),则基于关于在XY平面上的相机的位置的信息以及关于像素大小的信息来设置图像的衬度图(步骤105)。计算相机视图289中的划分区域280的衬度值(步骤105)。
如下更新关于每个单元格的划分区域信息(步骤107)。
如果Cc>Cp,Cp=Cc并且Zp=Zc,则更新最大衬度值。
如果Zc>Zu,Cu=Cc并且Zu=Zc,则更新最上端的衬度值。
如果Zc>Zl,Cl=Cc并且Zl=Zc,则更新最下端的衬度值。
在确定Cp、Zp、Cu、Zu、Cl以及Zl之后,计算划分区域合焦位置,亦即,每个划分区域280的第一合焦位置。
此时,可以如下确定划分区域合焦位置。
如果Zp低于当前位置Zc,并且Cl小于Cp,则确定焦点位置在Zp附近,并且将Zp计算为划分区域合焦位置(显示红色单元格)。
如果Zp高于当前位置Zc,并且Cu小于Cp,则确定焦点位置在Zp附近,并且将Zp计算为划分区域合焦位置(显示红色单元格)。
如果Cu等于Cp,并且Cu大于Cl,则确定焦点位置高于Zu,并且尚未确定划分区域合焦位置(显示蓝色单元格)。
如果Cl等于Cp,并且Cl大于Cu,则确定焦点位置低于Zl,并且尚未确定划分区域合焦位置(显示黄色单元格)。
再次参考流程图,在步骤108中,计算Bc与Bb之间的差值,亦即,邻近图像的亮度差值。如果Bc与Bb之间的差值大于预定阈值,则重置(初始化)关于对应单元格的信息(步骤109)。即,如果(单元格中的)图像的亮度明显改变,则确定出现巨大变化(例如,材料3被替换等)。然后,确定未使用先前的衬度信息,并且重置该衬度信息。如果确定了划分合焦位置,则取消锁定。
如果Bc与Bb之间的差值等于或者小于预定阈值,则随着时间的过去按照减少率降低每个单元格的Cp和Zp(步骤110)。这根据图8的处理。如果步骤110的处理结束,则流程返回步骤102。换言之,从程序的开始到程序的结束持续循环处理。
接下来,参考图14至图16,将说明关于图像拾取位置285的移动的处理。例如,当用户手动地调整相机118的位置121时,用户在XY平面方向上将材料移动至屏幕的中心,或者用户输入操作以调整相机118的高度。例如,在调整相机118的位置121时,或者在如上所述那样地搜索目标时,在XY平面方向上移动图像拾取位置285。
例如,如图14所示,在安放表面上二维地移动图11的图像拾取位置285。然后,根据图像拾取位置285的移动基于关于图像拾取位置285的坐标信息并且基于关于像素大小的信息的移动(参见图14的箭头A和B)来移动衬度图288的设置位置。
图15是示出移动了图像拾取位置285的状态的示图。在图15中,对每个深灰色的移动后的划分区域280更新划分区域信息。仍要移动的划分区域280'包括浅灰色区域280'a以及阴影区域280'b。仍要移动的划分区域280'在图像拾取区域289的外部。因此,不更新关于每个仍要移动的划分区域280'的划分区域信息。
移动后的衬度图288包括在仍要移动的划分区域280'的外部的浅灰色区域280'a。浅灰色区域280'a在图像拾取区域289的外部并且在移动后的衬度图288中。这样的区域280'a被称为存储区域291。对每个存储区域291,存储在设置每个划分区域280时更新的划分区域信息。同时,阴影区域280'b在移动后的衬度图的外部。因此,删除关于过去更新的每个阴影区域280'b的划分区域信息。
如图16所示那样地移动图15的图像拾取位置285。对每个深灰色划分区域280的每个单元格281更新划分区域信息。另外,移动后的衬度图288包括在仍要移动的划分区域280'的单元格281的外部的存储区域291中。存储关于每个存储区域291的划分区域信息。当更新关于每个划分区域280的划分区域信息时,根据需要参考在移动划分区域280之前存储的关于每个存储区域291的划分区域信息。
换言之,在图16中,参考并更新过去存储的关于在部分292中的划分区域280以及在部分293中的划分区域280的划分区域信息片段。部分292中的划分区域280与如图15所示那样在移动划分区域280时设置的存储区域291重叠。部分293中的划分区域280与如图16所示那样在移动划分区域280时设置的存储区域291重叠。因此,可以减少计算时间段和计算量。注意,已删除了关于图15的每个阴影区域280'b的划分区域信息,并且将不再恢复。
如上所述,在该实施例中,设置大于图像拾取区域289的衬度图288。在移动图像拾取位置285时移动衬度图288的设置位置。因此,即使移动图像拾取位置285,也能够高速率地在新位置处计算图像拾取位置285的焦点位置Z_focus。换言之,无论图像拾取位置285在可移动范围内的何处,都能够高速率地计算焦点位置Z_focus。
另外,对所设置的衬度图288的每个区域290(单元格)存储关于对象图像260的每个划分区域280的划分区域信息。每个划分区域280对应于每个区域290。划分区域信息包括衬度信息以及划分区域合焦位置信息。然后,如果移动图像拾取位置285,则参考在移动图像拾取位置285之前存储的衬度图288中的每个区域290的划分区域信息。更新关于每个移动后的划分区域280的划分区域信息。因此,能够在短时间内计算每个移动后的划分区域280的划分区域合焦位置。
图17是例示基于划分区域信息来计算第一合焦位置125的示例的示图。如图17所示,在对象图像260的中心处设置参考区域282。然后,设置计算对象区域284。计算对象区域284与参考区域282重叠。基于下面的公式通过使用关于每个计算对象区域284的划分区域信息来计算Cp和Zp,其中,Cp是整个对象图像260的最大衬度值(衬度峰值),并且Zp是对应于Cp的第一合焦位置。
Cp=Σ(Cpi,j×Si,j)/ΣSi,j
Zp=Σ(Zpi,j×Cpi,j×Si,j)/Σ(Cpi,j×Si,j)
其中,Cpi,j是每个计算对象区域284的最大衬度值,
Zpi,j是每个计算对象区域284的最大衬度的Z值,并且
Si,j是与计算对象区域284重叠的参考区域282的一部分中的区域的大小。
由此,基于与计算对象区域284重叠的参考区域282的一部分中的区域的大小,并且基于最大衬度值Cp,亦即,关于计算对象区域284的衬度信息,来对计算对象区域284加权。因此,能够高度准确地计算第一合焦位置。注意,可以基于与上述公式类似的公开来计算整个对象图像260的Cu、Cl、Zu和Zl,并且可以确定第一合焦位置125(参考上文步骤107)。
注意,如果包括物镜的成像光学系统形成材料的图像,并且拍摄该图像,则诸如旋转器(revolver)这样的可互换机构可以互换成像光学系统的物镜,或者用户可以替换物镜。例如,用具有预定放大率的物镜互换或者替换物镜(以下,合称为“互换物镜”)。因此,用户可以以预定放大率来观察对象。
例如,如果物镜是可以相互交换的,则可以对在成像光学系统中使用的物镜存储衬度图。每个衬度图用于计算第一合焦位置。例如,如果三个物镜是可以相互交换的,则分别存储对应于这三个物镜的三个衬度图。对每个划分区域在存储器中存储衬度图和划分区域信息。关于要使用的每个物镜参考衬度图设置划分区域信息。注意,可互换的物镜的数量以及对应于可互换的物镜地存储的衬度图的数量不受限制。
如果物镜是可互换的,则根据需要读取对应于物镜的衬度图和划分区域信息,并且计算第一合焦位置。例如,如果用户操作具有第一物镜的影像测量装置300,则程序读取对应于第一物镜的第一衬度图,并且每当输入对象图像时就更新划分区域信息。之后,用户用第二物镜互换第一物镜,并且操作影像测量装置300。在该情况下,程序读取对应于第二物镜的第二衬度图,并且更新参考该第二衬度图计算出的划分区域信息。之后,如果用户用第一物镜互换第二物镜,并且操作影像测量装置300,则再次读取第一衬度图。另外,每当输入对象图像时就参考先前更新的第一衬度图来再次更新划分区域。
如上所述,对每个物镜存储衬度图。如果互换物镜,则读取对应的衬度图。因此,即使互换物镜,也能够在互换物镜后立即实施预测性AF。
另外,例如,可以将变焦镜头用作物镜,并且可以控制变焦镜头的变焦位置,从而以多个级别改变放大率。在该情况下,例如,可以对要改变的每个放大率存储衬度图,其中每个衬度图用于计算第一合焦位置。如果例如通过控制变焦位置,放大率是在三个级别中可互换的,则分别存储对应于这三个级别的放大率的三个衬度图。当用户操作影像测量装置300时,根据需要读取对应于物镜的放大率的衬度图和划分区域信息,并且计算第一合焦位置。因此,即使互换了放大率,也能够在互换了放大率之后立即实施预测性AF。
此处,比较该实施例的AF与比较示例的AF。根据比较示例的AF,在手动调整之后输入AF指令。在输入AF指令时确定一个相机移动方向。例如,相机在向上的方向上在搜索范围内移动,并且搜索衬度峰。当然,可以将在搜索范围内的向下的方向设置为第一相机移动方向。
如果在相机在第一方向上移动时找到了衬度峰,则结束搜索,并且将相机移动至对应于该衬度峰的焦点位置。如果没有找到衬度峰,则相机移动至该搜索范围的最上端。此时,如果衬度值降到预定阈值以下,则确定衬度峰不在搜索范围的最上端的上方,并且停止在向上方向上的搜索。
在停止搜索之后,在向下的方向上搜索衬度峰。如果找到衬度峰,则相机移动至焦点位置。如果没有找到衬度峰,则确定焦点位置不在该搜索范围内。换言之,AF是不成功的。
图18和图19是例示比较示例的AF的示图。如图18所示,焦点位置Z_focus处在搜索范围922的下部分。另外,响应于AF指令,搜索以低速率在向上的方向上从搜索范围922的中心O处开始。在该情况下,如图18所示,即使相机到达搜索范围922的最上端932处,也检测不到衬度峰。
然后,如图19所示,相机918以高速率Vmax2从搜索范围922的最上端932处返回至中心O处。然后,以速率V2开始向搜索范围922的最下端931的搜索。在该搜索期间获取对象图像970(图像22)时最终检测到衬度峰。然后,相机918移动至焦点位置Z_focus。
换言之,根据过去的AF,如图18所示,第一搜索是无用的,并且将花费长时间来计算焦点位置Z_focus。换言之,花费长时间用于AF。例如,光学系统具有小焦点深度,并且搜索范围很大以增加手动调整的用户友好性。在这种情况或者其他情况下,可能出现图18和图19的无用搜索。如果焦点位置Z_focus处在与第一移动方向相对的末端附近,则扫描距离再次约为搜索范围922长度的一半。
图20至图23是每一个都示出在实施该实施例的AF时的处理时间的示例的曲线图。图20A、21A、22A以及23A中的每个曲线图示出时间与相机的Z位置之间的关系。图20B、20C、21B、21C、22B、22C、23B以及23C的每个曲线图示出相机的Z位置与衬度值(衬度值是相对值)之间的关系。注意,每个曲线图如下。
“第一搜索”是第一搜索的整个可移动范围。换言之,“第一搜索”是直至计算出第二合焦位置为止的整个可移动位置。具体地,“第一搜索”包括从AF起始位置至预测性搜索范围的起始位置的移动,以及在该预测性范围内从预测性搜索范围的起始位置开始的移动。将参考图20至图23进行说明,其中,通过标号(字母)D至I来标记相机的Z位置。“第一搜索”是从位置D开始到位置E为止的搜索(在图23B中,经由位置E')。
“第一拟合范围”是通过最小方差方法拟合每个对象图像的衬度值以获取衬度曲线(拟合曲线)的模型公式的参数的范围。例如,使用大于预定阈值的衬度值。在图20至图23中,“第一似合范围”在位置F与位置E之间。注意,位置F近似地与预测性搜索范围的起始位置相同。然而,位置F不必与预测性搜索范围的起始位置相同。
“第二搜索”是第二搜索的整个可移动范围。例如,在第一搜索中计算出第二合焦位置。另外,在计算出的第二合焦位置的附近的范围内实施第二搜索。因此,能够高度准确地计算焦点位置。例如,只实施一次高速率模式搜索用于观察。实施两次高度准确度模式搜索用于测量。在该方式中,根据AF模式,根据需要来选择搜索的数量。在图22和图23中,“第二搜索”的范围是从位置G到位置H。
“第二拟合范围”是在第二搜索中实施通过最小方差方法进行拟合的范围。在图22和图23中,“第二拟合范围”是从位置I到位置H。“前往目标”是移动相机到焦点位置的过程。注意,在每个曲线图中,焦点位置是Z=0mm。
图20是在AF开始于高于焦点位置处的情况下的示图。响应于AF指令,AF在高于焦点位置的位置处(Z=约+1.8mm)开始。如图20A和20B所示,相机以高速率移动至预测性搜索范围的起始位置。以低速率在该预测性搜索范围内实施搜索。如图20C所示,计算衬度曲线400。基于衬度曲线400将第二合焦位置计算为焦点位置。
图21是在AF开始于低于焦点位置处的情况下的示图。响应于AF指令,AF在低于焦点位置的位置处(Z=约-1.8mm)开始。如图21A和21B所示,相机以高速率移动至预测性搜索范围的起始位置。以低速率在该预测性搜索范围内实施搜索。如图21C所示,计算衬度曲线400。基于衬度曲线400将第二合焦位置计算为焦点位置。
如图20A和图21A的曲线图所示,在这两种情况下都能够在短时间内(约1.1秒)将相机移动至焦点位置。
图22和图23的每一个都是在实施第二搜索的情况下的示图。在图22中,AF开始于高于焦点位置处。第一搜索在高于焦点位置处(Z=约+1.8mm)开始,并且计算第二合焦位置。将第二合焦位置处理为临时焦点位置,亦即,第二搜索的参考。
如图22C所示,实施从位置G到位置H的第二搜索,亦即,“第二搜索”。然后,例如,在位置I与位置H之间的“第二拟合范围”内使用大于预定阈值的衬度值,从而计算衬度曲线450。基于衬度曲线450计算焦点位置。注意,拟合范围越大,AF的准确度越高。然而,因为需要获取更大量的数据,所以将花费更长的时间来实施AF。因此,可以根据需要来设置拟合范围的长度。
在图23中,AF在焦点位置的下方开始。第一搜索在低于焦点位置的位置处(Z=约-1.8mm)开始,并且计算第二合焦位置。将第二合焦位置处理为临时焦点位置,亦即,第二搜索的参考。
注意,在图23的示例中,向下实施搜索以计算第二合焦位置。换言之,将预测性搜索范围的最上端设置为预测性搜索范围的起始位置。当AF开始时,相机高速率地从位置(Z=约-1.8mm)处移动至预测性搜索范围的最上端。另外,向下搜索预测性搜索范围,并且计算第二合焦位置。如图23B所示,相机首先从位置D移动到位置E'。然后从位置E'(亦即,位置F)到位置E实施搜索。
如上所述,设置一个搜索方向。因此,能够高度准确地计算第二合焦位置。可以在类似于用于图20和图21的观察的高速率模式搜索的两个方向上实施搜索。在该情况下,准确度将稍微降低。然而,因为相机不会在相反方向上移动,所以将更快地实施AF。因此,可以确定是选择一个搜索方向还是选择两个搜索方向。
如图23C所示,实施从位置G到位置H的第二搜索,亦即“第二搜索”。然后,例如,在位置I与位置H之间的“第二拟合范围”内使用大于预定阈值的衬度值,从而计算衬度曲线450。基于衬度曲线450来计算焦点位置。
在图22A的示例中,能够在短时间(亦即,约1.6秒)内将相机移动至焦点位置。另外,在图23A的示例中,能够在短时间(亦即,约1.9秒)内将相机移动至焦点位置。根据本技术的AF,即使如上所述那样地实施第二搜索,也能够少于2秒地将相机移动至焦点位置。当然,可以根据各种条件改变处理时间。
图24是示出比较示例的AF的处理时间的曲线图。图24A是在AF开始于位置(Z=约+1.8mm)处并且实施一次搜索的情况下的示图。图24A的示例对应于图18和图19的AF操作。换言之,实施从位置J到搜索范围的最上端(亦即,位置K)的搜索。在该范围内检测不到衬度峰,相机以高速率返回到位置J。然后,实施向位置L的搜索,并且计算焦点位置。如图24A所示,直至相机移动至焦点位置为止,花费约2.3秒。在图20中示出的该实施例的AF比图24A的AF快约1.2秒。实施图20中示出的实施例的AF比图24A的AF快约2.1倍。
图24B是在AF开始于位置(Z=约-1.8mm)处并且实施一次搜索的情况下的示图。以低速率从起始位置(亦即,位置J)开始实施搜索。因此,直接AF结束为止,花费约1.4秒。图21示出的该实施例的AF比图24B的AF快约0.3秒。实施图21中示出的实施例的AF比图24B的AF快约1.3倍。即使如上所述那样地在第一搜索方向上存在焦点位置,也能够以比比较示例的AF更高速率地计算焦点位置。
图24C示出在AF开始于位置(Z=约+1.8mm)并且实施两次搜索的情况下的示图。直至AF结束为止,花费约3.4秒。图22中示出的该实施例的AF比图24C的AF快约1.8秒。换言之,实施在图22中示出的实施例的AF比图24C的AF快2.1倍。注意,在图24C的示例中,相机不以高速率移动。假设例如如图24A所示,相机以高速率从位置K移动到位置J。在该情况下,如果使用本技术,则能够充分地降低处理时间。
图24D示出在AF开始于位置(Z=约-1.8mm)并且实施两次搜索的情况下的示图。注意,与图23A类似地,设置向下的第一搜索方向。直至AF结束为止,花费约2.2秒。图23中示出的该实施例的AF比图24D的AF快约0.3秒。换言之,实施在图23中示出的实施例的AF比图24D的AF快1.2倍。
例如,使用数字显微镜作为影像测量系统。因为光学显微镜的物镜的焦点深度小,所以只要焦点在衬度峰(焦点位置)之外少许即可减少衬度。放大率越高,则衬度的减少率越大。在这种具有小焦点深度的光学系统中,需要降低搜索速率。同时,需要增大搜索范围以提高AF的用户友好度。如果搜索速率越低并且如果搜索范围越大,则花费越长的时间来实施AF。
根据该实施例的影像测量装置,作为关于AF的准备,程序在用户调整相机的Z位置时,例如在相机经过焦点位置时,粗略地预测焦点位置。换言之,在AF处理之前监视每个图像的衬度。因此,预先获取第一合焦位置作为粗略焦点位置。在实施AF时,相机以高速率移动至所预测的第一合焦位置的附近。之后,以低速率高度准确地搜索第二合焦位置。因此,能够以高速率高度准确地实施AF。
另外,程序保持包含划分为网格的相机视图的衬度图。即使未实施AF,该程序也持续搜索网格中具有最大衬度的Z位置。已知关于XYZ轴标度的位置信息以及对象图像的像素大小。如果平台和图像拾取单元移动,则组合地移动程序的衬度图。基于关于XYZ轴标度的位置信息创建包含相机视图外部的区域的衬度图。因此,能够以高速率高度准确地在任意位置处实施AF。换言之,能够以高速率高度准确地在视图中的任意位置处实施AF。极大地增加了用户友好度。另外,获得高度的准确度,增加了用户友好度,并且同时减少了处理时间。
另外,本公开仅通过软件算法实现。不需要准备专用硬件。因此,能够在不增加成本的情况下增加性能。因此,可以在不增加成本的情况下高速率地实现与过去同样高的AF准确度。
另外,根据本公开,可以获得以下效果。注意,可以不同时获得所有的以下效果,而是可以根据条件等获得以下效果中的某些。
-能够聚焦在期望的位置处,并且可以实现无压力的观察和测量。
-能够通过使用XYZ轴线性标度以更高的速率高度准确地实施3D测量。
-能够在宽的焦点搜索范围内的任何位置处以高速率实施AF。
-能够进一步增加光学显微镜的聚焦的用户友好度。
-如果物镜的放大率更大(焦点深度更小),则可以增加聚焦的用户友好度。
-可以通过只包括具有电子平台和相机的显微镜光学系统的低成本系统配置实现本公开。
-不需要为高速率AF准备昂贵的备件。
-能够只通过更新软件在先前装配的系统中实现高速率AF。
<其他实施例>
本技术不限于上述实施例。可以实现其他各种实施例。
例如,可以改变图11的衬度图288的大小。具体地,可以将图像拾取位置285的整个可移动范围(亦即,整个衬度图坐标系统)设置为衬度图288。在该情况下,即使移动了图像拾取位置285,也不需要移动衬度图288。同时,在上述实施例中,衬度图288是坐标系统的一部分。在该情况下,例如,能够减少施加到PC 200的存储器的负载。
注意,可以将能够通过使用本公开的衬度图来实施AF的信息处理装置用作根据本公开的该实施例的信息处理装置,而与本公开的实施预测性AF无关。例如,在这样的信息处理装置中,CPU根据预定程序操作,并且实现获取单元、存储器、设置单元以及计算器。
在Z轴方向(焦轴方向)上在可移动范围内移动焦点位置的同时拍摄多个对象图像。获取单元获取多个对象图像。在存储器中存储并使用衬度图(亦即,计算用图)。设置单元设置通过划分每个对象图像获取的多个划分区域。计算器计算划分区域合焦位置,亦即,每个划分区域的合焦位置。计算器基于划分区域合焦位置信息来计算可移动范围内的每个对象图像的合焦位置(焦点位置)。
例如,在每个比较示例的AF中,可以使用衬度图。在该情况下,实施该比较示例的AF的信息处理装置在根据本公开的该实施例的信息处理装置的范畴内。如果使用衬度图进行AF处理,则能够以高速率高度准确地计算焦点位置。
可以组合上述实施例的至少两个特性。
Claims (14)
1.一种信息处理装置,包含:
获取单元,被配置为获取多个对象图像,所述多个对象图像在预定范围内移动焦点位置时通过图像拾取设备拍摄,所述图像拾取设备能够拍摄在所述预定范围内的任意焦点位置处的对象的图像,能够拍摄在与安放对象的安放表面平行的2D即二维平面上的任意图像拾取位置处的对象的图像;
第一计算器,能够基于关于手动拍摄对象图像组的衬度信息片段来计算在所述预定范围内的第一合焦位置,所述手动拍摄对象图像组包括在所述预定范围内手动移动焦点位置时拍摄的多个对象图像;
第二计算器,能够基于关于自动拍摄对象图像组的衬度信息片段来计算在搜索范围内的第二合焦位置,所述自动拍摄对象图像组包括在搜索范围内自动移动焦点位置时拍摄的多个对象图像,所述搜索范围参考计算出的第一合焦位置来确定;
存储器,被配置为存储计算用图,所述计算用图包括多个划分区域;以及
驱动器,被配置为能够在所述2D平面上移动所述图像拾取位置,
其中,所述第一计算器被配置为基于关于多个划分区域的衬度信息片段来计算划分区域合焦位置,所述划分区域合焦位置是所述多个划分区域的第一合焦位置,所述多个划分区域通过划分对应于所述计算用图的多个区域的所述对象图像来获取,并且基于关于所述划分区域合焦位置的信息片段来计算所述第一合焦位置,
其中,所述计算用图具有比所述对象图像的图像拾取区域更大的区域,所述计算用图包含所述图像拾取区域,所述计算用图在移动所述图像拾取位置时移动。
2.根据权利要求1所述的信息处理装置,其中
所述驱动器能够在所述预定范围内移动所述焦点位置,其中
所述驱动器被配置为
以第一速率将焦点位置移动至所述搜索范围的端点之一,并且
以低于所述第一速率的第二速率在所述搜索范围内移动焦点位置。
3.根据权利要求1或者2所述的信息处理装置,还包含:
操作输入单元,用户用其输入指令,其中,
所述第一计算器被配置为响应于用户手动地移动焦点位置的操作,计算所述第一合焦位置,并且
所述第二计算器被配置为响应于用户在所述操作输入单元中输入的自动聚焦指令,计算所述第二合焦位置。
4.根据权利要求3所述的信息处理装置,还包含:
确定单元,被配置为如果在计算所述第一合焦位置之后经过预定时间段并且在所述预定时间段内未输入自动聚焦指令,则确定所述第一合焦位置是无效的。
5.根据权利要求4所述的信息处理装置,其中,
所述第一计算器被配置为基于关于所述手动拍摄对象图像组的衬度信息片段来计算在所述预定范围内的衬度峰值,并且
计算所述第一合焦位置,所述第一合焦位置是对应于所述峰值的焦点位置;并且
所述确定单元被配置为
以预定比率削弱所述衬度峰值,并且
设置所述预定时间段,所述预定时间段是直至削弱后的峰值降至预定阈值以下为止的时间段。
6.根据权利要求5所述的信息处理装置,其中,
所述第一计算器被配置为
基于关于所述手动拍摄对象图像组的衬度信息片段来计算函数,所述函数示出所述预定范围内的焦点位置与所述衬度信息之间的关系,并且
计算所述衬度峰值,所述衬度峰值是所述函数的峰值。
7.根据权利要求1至6中的任一项所述的信息处理装置,其中,
所述第一计算器被配置为针对计算对象区域,基于关于所述划分区域合焦位置的信息片段计算第一合焦位置,所述计算对象区域是所述多个划分区域的一些划分区域,所述一些划分区域与所述对象图像中的参考区域重叠,所述参考区域是计算所述第一合焦位置的参考。
8.根据权利要求7所述的信息处理装置,其中,
所述第一计算器被配置为
基于与所述参考区域重叠的区域的大小以及关于所述计算对象区域的衬度信息片段来对所述计算对象区域加权,并且
计算所述第一合焦位置。
9.根据权利要求1所述的信息处理装置,其中,
所述存储器被配置为针对所述计算用图的区域,存储关于对象图像的划分区域的衬度信息片段以及划分区域合焦位置信息片段,所述对象图像的划分区域对应于所述计算用图的区域,
所述第一计算器被配置为,如果图像拾取位置被移动,则
参考关于所述计算用图的区域的衬度信息片段以及划分区域合焦位置信息片段,其中,在移动图像拾取位置之前存储所述衬度信息片段以及所述划分区域合焦位置信息片段,并且
计算移动后的对象图像的划分区域的划分区域合焦位置。
10.根据权利要求1所述的信息处理装置,其中,
所述获取单元被配置为获取多个对象图像,所述多个对象图像通过拍摄所述对象的图像来获取,所述对象的图像通过包括物镜的光学系统形成,并且
所述存储器被配置为针对所述光学系统的物镜存储计算用图,所述计算用图用于计算所述第一合焦位置。
11.一种由计算机执行的信息处理方法,包含:
获取多个对象图像的步骤,所述多个对象图像在预定范围内移动焦点位置时通过图像拾取设备拍摄,所述图像拾取设备能够拍摄在所述预定范围内的任意焦点位置处的对象的图像,能够拍摄在与安放对象的安放表面平行的2D即二维平面上的任意图像拾取位置处的对象的图像;
基于关于手动拍摄对象图像组的衬度信息片段来计算在所述预定范围内的第一合焦位置的步骤,所述手动拍摄对象图像组包括在所述预定范围内手动移动焦点位置时拍摄的多个对象图像;
基于关于自动拍摄对象图像组的衬度信息片段来计算在搜索范围内的第二合焦位置的步骤,所述自动拍摄对象图像组包括在搜索范围内自动移动焦点位置时拍摄的多个对象图像,所述搜索范围参考计算出的第一合焦位置来确定;以及
将包括多个划分区域的计算用图配置为具有比所述对象图像的图像拾取区域更大的区域,所述计算用图包含所述图像拾取区域,所述计算用图在移动所述图像拾取位置时移动,其中,在计算所述第一合焦位置的步骤中,基于关于多个划分区域的衬度信息片段来计算划分区域合焦位置,所述划分区域合焦位置是所述多个划分区域的第一合焦位置,所述多个划分区域通过划分对应于所述计算用图的多个区域的所述对象图像来获取,并且基于关于所述划分区域合焦位置的信息片段来计算所述第一合焦位置。
12.一种程序,该程序由计算机执行,具有以下步骤:
获取多个对象图像,所述多个对象图像在预定范围内移动焦点位置时通过图像拾取设备拍摄,所述图像拾取设备能够拍摄在所述预定范围内的任意焦点位置处的对象的图像,能够拍摄在与安放对象的安放表面平行的2D即二维平面上的任意图像拾取位置处的对象的图像;
基于关于手动拍摄对象图像组的衬度信息片段来计算在所述预定范围内的第一合焦位置,所述手动拍摄对象图像组包括在所述预定范围内手动移动焦点位置时拍摄的多个对象图像;
基于关于自动拍摄对象图像组的衬度信息片段来计算在搜索范围内的第二合焦位置,所述自动拍摄对象图像组包括在搜索范围内自动移动焦点位置时拍摄的多个对象图像,所述搜索范围参考计算出的第一合焦位置来确定;以及
将包括多个划分区域的计算用图配置为具有比所述对象图像的图像拾取区域更大的区域,所述计算用图包含所述图像拾取区域,所述计算用图在移动所述图像拾取位置时移动,
其中,在计算所述第一合焦位置的步骤中,基于关于多个划分区域的衬度信息片段来计算划分区域合焦位置,所述划分区域合焦位置是所述多个划分区域的第一合焦位置,所述多个划分区域通过划分对应于所述计算用图的多个区域的所述对象图像来获取,并且基于关于所述划分区域合焦位置的信息片段来计算所述第一合焦位置。
13.一种影像测量装置,包含:
图像拾取单元,能够拍摄在预定范围内的任意焦点位置处的对象的图像,能够拍摄在与安放对象的安放表面平行的2D即二维平面上的任意图像拾取位置处的对象的图像;
获取单元,被配置为获取多个对象图像,所述多个对象图像在预定范围内移动焦点位置时通过图像拾取设备拍摄;
第一计算器,能够基于关于手动拍摄对象图像组的衬度信息片段来计算在所述预定范围内的第一合焦位置,所述手动拍摄对象图像组包括在所述预定范围内手动移动焦点位置时拍摄的多个对象图像;
第二计算器,能够基于关于自动拍摄对象图像组的衬度信息片段来计算在搜索范围内的第二合焦位置,所述自动拍摄对象图像组包括在搜索范围内自动移动焦点位置时拍摄的多个对象图像,所述搜索范围参考计算出的第一合焦位置来确定;
存储器,被配置为存储计算用图,所述计算用图被划分为多个划分区域;以及
驱动器,被配置为能够在所述2D平面上移动所述图像拾取位置,
其中,所述第一计算器被配置为基于关于多个划分区域的衬度信息片段来计算划分区域合焦位置,所述划分区域合焦位置是所述多个划分区域的第一合焦位置,所述多个划分区域通过划分对应于所述计算用图的多个区域的所述对象图像来获取,并且基于关于所述划分区域合焦位置的信息片段来计算所述第一合焦位置,并且
其中,所述计算用图具有比所述对象图像的图像拾取区域更大的区域,所述计算用图包含所述图像拾取区域,所述计算用图在移动所述图像拾取位置时移动。
14.一种信息处理装置,包含:
获取单元,被配置为获取多个对象图像,所述多个对象图像在预定范围内移动焦点位置时通过图像拾取设备拍摄,所述图像拾取设备能够拍摄在所述预定范围内的任意焦点位置处的对象的图像,能够拍摄在与安放对象的安放表面平行的2D即二维平面上的任意图像拾取位置处的对象的图像;
存储器,被配置为存储计算用图,所述计算用图包括多个划分区域;
设置单元,被配置为对所述多个对象图像中的每一个设置多个划分区域,所述多个划分区域通过划分所述对象图像来获取,所述多个划分区域对应于计算用图的多个区域;
计算器,被配置为
基于关于所述多个划分区域的衬度信息片段来计算划分区域合焦位置,所述多个划分区域针对每个对象图像来设置,所述划分区域合焦位置在所述预定范围内,并且
基于关于所述划分区域合焦位置的信息片段计算所述预定范围内的对象图像的合焦位置;以及
驱动器,被配置为能够在所述2D平面上移动所述图像拾取位置,
其中,所述计算用图具有比所述对象图像的图像拾取区域更大的区域,所述计算用图包含所述图像拾取区域,所述计算用图在移动所述图像拾取位置时移动。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013189354A JP6274794B2 (ja) | 2013-09-12 | 2013-09-12 | 情報処理装置、情報処理方法、プログラム、及び画像測定装置 |
JP2013-189354 | 2013-09-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104459974A CN104459974A (zh) | 2015-03-25 |
CN104459974B true CN104459974B (zh) | 2018-09-25 |
Family
ID=52478783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410460668.4A Active CN104459974B (zh) | 2013-09-12 | 2014-09-11 | 信息处理装置、信息处理方法、程序和影像测量装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9420160B2 (zh) |
JP (1) | JP6274794B2 (zh) |
CN (1) | CN104459974B (zh) |
DE (1) | DE102014218054A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104702849B (zh) * | 2014-01-10 | 2018-03-30 | 杭州海康威视数字技术股份有限公司 | 一种红外摄像机及其红外灯亮度调整方法 |
JP6758287B2 (ja) | 2015-05-18 | 2020-09-23 | ソニー株式会社 | 制御装置及び医療用撮像システム |
JP2017116297A (ja) | 2015-12-21 | 2017-06-29 | 株式会社ミツトヨ | 画像測定方法及び画像測定機 |
JP6677706B2 (ja) * | 2017-12-27 | 2020-04-08 | ファナック株式会社 | リンク情報生成装置、リンク情報生成方法及びリンク情報生成プログラム |
JP7112863B2 (ja) * | 2018-03-22 | 2022-08-04 | 株式会社ミツトヨ | 情報処理装置、情報処理方法、プログラム、及び画像測定装置 |
US11762184B2 (en) * | 2018-07-09 | 2023-09-19 | The Regents Of The University Of Michigan | Microscope surveillance system |
CN110673325A (zh) * | 2019-09-25 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 显微镜系统、智能医疗设备、自动对焦方法和存储介质 |
CN112640425A (zh) * | 2020-04-14 | 2021-04-09 | 深圳市大疆创新科技有限公司 | 对焦控制方法、装置、设备、可移动平台和存储介质 |
US11714273B1 (en) * | 2022-06-23 | 2023-08-01 | Araceli Biosciences Inc. | System and method for microscope high-speed auto-focusing including an imaged subject based on a corrected contrast distribution |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002277725A (ja) * | 2001-03-14 | 2002-09-25 | Ricoh Co Ltd | 合焦制御方法及び撮像装置 |
JP2004361484A (ja) * | 2003-06-02 | 2004-12-24 | Nikon Corp | オートフォーカスカメラ |
JP2010078940A (ja) * | 2008-09-26 | 2010-04-08 | Olympus Corp | 顕微鏡システム、顕微鏡システムにおけるフォーカスドリフトの補正方法及びプログラム。 |
JP2013029656A (ja) * | 2011-07-28 | 2013-02-07 | Sanyo Electric Co Ltd | 撮像装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2708904B2 (ja) * | 1989-08-08 | 1998-02-04 | 三洋電機株式会社 | オートフォーカスカメラ |
JPH07244244A (ja) * | 1994-03-04 | 1995-09-19 | Olympus Optical Co Ltd | 顕微鏡写真撮影装置 |
JP3412713B2 (ja) * | 1994-07-21 | 2003-06-03 | 富士写真光機株式会社 | ピント調整方法 |
JPH1048506A (ja) | 1996-08-02 | 1998-02-20 | Sankyo Seiki Mfg Co Ltd | オートフォーカス装置 |
JPH11103408A (ja) * | 1997-09-26 | 1999-04-13 | Fuji Photo Optical Co Ltd | カメラのレンズ駆動装置 |
JP2000163576A (ja) * | 1998-11-25 | 2000-06-16 | Hitachi Ltd | 画像検索方法及びその実施装置並びにその処理プログラムを記録した媒体 |
JP2004077530A (ja) * | 2002-08-09 | 2004-03-11 | Canon Inc | 焦点調節方法および装置 |
JP2005269604A (ja) * | 2004-02-20 | 2005-09-29 | Fuji Photo Film Co Ltd | 撮像装置、撮像方法、及び撮像プログラム |
JP2007155921A (ja) * | 2005-12-01 | 2007-06-21 | Pentax Corp | 焦点調節装置 |
JP5380784B2 (ja) * | 2007-04-12 | 2014-01-08 | ソニー株式会社 | オートフォーカス装置、撮像装置及びオートフォーカス方法 |
US8111938B2 (en) * | 2008-12-23 | 2012-02-07 | Mitutoyo Corporation | System and method for fast approximate focus |
JP2011169993A (ja) * | 2010-02-16 | 2011-09-01 | Sharp Corp | 撮像装置、コンティニュアスafの探索方法、制御プログラム、記憶媒体および電子情報機器 |
US20130027538A1 (en) * | 2011-07-29 | 2013-01-31 | Mitutoyo Corporation | Multi-region focus navigation interface |
JP2013142769A (ja) * | 2012-01-11 | 2013-07-22 | Olympus Corp | 顕微鏡システム、オートフォーカスプログラムおよびオートフォーカス方法 |
JP2013217442A (ja) | 2012-04-09 | 2013-10-24 | Jtekt Corp | スラストころ軸受装置 |
-
2013
- 2013-09-12 JP JP2013189354A patent/JP6274794B2/ja active Active
-
2014
- 2014-09-10 DE DE102014218054.6A patent/DE102014218054A1/de active Granted
- 2014-09-10 US US14/482,405 patent/US9420160B2/en active Active
- 2014-09-11 CN CN201410460668.4A patent/CN104459974B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002277725A (ja) * | 2001-03-14 | 2002-09-25 | Ricoh Co Ltd | 合焦制御方法及び撮像装置 |
JP2004361484A (ja) * | 2003-06-02 | 2004-12-24 | Nikon Corp | オートフォーカスカメラ |
JP2010078940A (ja) * | 2008-09-26 | 2010-04-08 | Olympus Corp | 顕微鏡システム、顕微鏡システムにおけるフォーカスドリフトの補正方法及びプログラム。 |
JP2013029656A (ja) * | 2011-07-28 | 2013-02-07 | Sanyo Electric Co Ltd | 撮像装置 |
Also Published As
Publication number | Publication date |
---|---|
US9420160B2 (en) | 2016-08-16 |
JP2015055770A (ja) | 2015-03-23 |
US20150070566A1 (en) | 2015-03-12 |
CN104459974A (zh) | 2015-03-25 |
DE102014218054A1 (de) | 2015-03-12 |
JP6274794B2 (ja) | 2018-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104459974B (zh) | 信息处理装置、信息处理方法、程序和影像测量装置 | |
US7715020B2 (en) | Three-dimensional shape measuring system | |
CN110300255B (zh) | 信息处理装置、信息处理方法、程序和视觉测量装置 | |
EP2228769B1 (en) | Segmentation of a depth maps of printed circuit boards | |
CN109085113B (zh) | 一种用于宫颈脱落细胞检测装置的自动对焦方法和装置 | |
CN101095340A (zh) | 用于图像捕获设备的焦距检测 | |
EP3035104B1 (en) | Microscope system and setting value calculation method | |
JP2008298685A (ja) | 計測装置及びプログラム | |
JP6061619B2 (ja) | 顕微鏡システム | |
JP2016024052A (ja) | 3次元計測システム、3次元計測方法及びプログラム | |
JP2013068617A (ja) | マシンビジョン検査システムおよびその位置測定結果の決定方法 | |
CN109272575B (zh) | 一种提高数字切片扫描仪建模速度的方法 | |
CN106060376A (zh) | 显示控制设备、显示控制方法和摄像设备 | |
JP2019066451A (ja) | 画像計測装置、画像計測方法、撮像装置、プログラム | |
KR101677822B1 (ko) | 주사형 전자 현미경의 화상 처리 장치 및 주사 방법 | |
CN106154688A (zh) | 一种自动对焦的方法及装置 | |
KR20060123708A (ko) | 오토 포커스 제어 방법, 오토 포커스 제어 장치 및 화상처리 장치 | |
CN112461853B (zh) | 自动对焦方法及系统 | |
US10429632B2 (en) | Microscopy system, microscopy method, and computer-readable recording medium | |
JP6534455B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
RU2703106C1 (ru) | Способ выбора комплектации и режимов сканирования адаптируемого многофункционального сканирующего микроскопа | |
JP6312410B2 (ja) | アライメント装置、顕微鏡システム、アライメント方法、及びアライメントプログラム | |
JP2016114796A (ja) | 顕微鏡システム、関数算出方法、及び、プログラム | |
JP2016114797A (ja) | 顕微鏡システム、及び、z位置と補正装置の設定値との関係算出方法 | |
JP2015210396A (ja) | アライメント装置、顕微鏡システム、アライメント方法、及びアライメントプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |