JP2019074665A - Magnifying observation device - Google Patents

Magnifying observation device Download PDF

Info

Publication number
JP2019074665A
JP2019074665A JP2017201339A JP2017201339A JP2019074665A JP 2019074665 A JP2019074665 A JP 2019074665A JP 2017201339 A JP2017201339 A JP 2017201339A JP 2017201339 A JP2017201339 A JP 2017201339A JP 2019074665 A JP2019074665 A JP 2019074665A
Authority
JP
Japan
Prior art keywords
dimensional shape
observation
shape data
image
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017201339A
Other languages
Japanese (ja)
Other versions
JP7002178B2 (en
Inventor
純平 山下
Junpei Yamashita
純平 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2017201339A priority Critical patent/JP7002178B2/en
Publication of JP2019074665A publication Critical patent/JP2019074665A/en
Application granted granted Critical
Publication of JP7002178B2 publication Critical patent/JP7002178B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a magnifying observation device capable of providing highly reliable three-dimensional data when enabling observation of a target object by means of a plurality of measurement methods that are based on different principles.SOLUTION: A magnifying observation device of the present invention has a non-confocal observation optical system and a confocal observation optical system, and is configured to compute a first reliability indicator representing reliability of a focus search result associated with the non-confocal observation optical system and a second reliability indicator representing reliability of a focus search result associated with the confocal observation optical system.SELECTED DRAWING: Figure 25

Description

本発明は、観察対象物を拡大して観察可能にする拡大観察装置に関する。   BACKGROUND OF THE INVENTION Field of the Invention The present invention relates to a magnifying observation apparatus that magnifies an observation object and enables observation.

従来より、拡大観察装置として、レーザー共焦点の原理を使用した共焦点顕微鏡や、いわゆるフォーカス合成の原理を使用した三次元測定装置等が知られている。共焦点顕微鏡は、例えば特許文献1、2等に開示されているように、対物レンズの他に、点光源を構成するレーザー出力部と、共焦点観察光学系と、受光素子を備えている。共焦点観察光学系は、受光素子と観察面との間において観察面と共役になる位置にピンホールが配置されており、観察面にピントが合った時(合焦時)には、観察面からの反射光がピンホールを抜けて受光素子に入り、観察面にピントが合っていない時(非合焦時)には観察面からの反射光がピンホールの周辺部に遮られてほとんど受光素子には入らなくなるように構成されている。この共焦点観察光学系では、対物レンズと観察面との相対距離を変化させると、観察面での合焦の程度に応じて受光素子で検出される光量が大きく変化することになり、受光素子による受光光量が最大になる位置が観察面のある点の高さであると判定することができる。また、レーザー出力部から出力されるレーザー光をX方向及びY方向に走査することで観察面の所定範囲の高さ情報を得ることができる。   Conventionally, as a magnifying observation apparatus, a confocal microscope using the principle of laser confocal, a three-dimensional measurement apparatus using the principle of so-called focus synthesis, and the like are known. For example, as disclosed in Patent Documents 1 and 2 and the like, a confocal microscope includes a laser output unit that constitutes a point light source, a confocal observation optical system, and a light receiving element, in addition to an objective lens. In the confocal observation optical system, a pinhole is disposed at a position which is conjugate to the observation surface between the light receiving element and the observation surface, and when the observation surface is in focus (at the time of focusing), the observation surface Light from the lens passes through the pinhole and enters the light receiving element, and when the observation surface is not in focus (when out of focus), the reflected light from the observation surface is blocked by the periphery of the pinhole and received almost It is configured not to enter the element. In this confocal observation optical system, when the relative distance between the objective lens and the observation surface is changed, the amount of light detected by the light reception element changes largely according to the degree of focusing on the observation surface. It can be determined that the position at which the amount of light received by the lens is maximum is the height of a point on the observation surface. Further, by scanning the laser light output from the laser output unit in the X direction and the Y direction, it is possible to obtain height information of a predetermined range of the observation surface.

一方、フォーカス合成の原理を使用した三次元測定装置としては、例えば特許文献3、4等に開示されているように、対物レンズと観察面との相対距離を変化させながら観察面を撮像素子で撮像していき、観察面の各点において最もピントが合っている画像が撮像された相対距離を各点の高さとすることができるように構成された装置がある。   On the other hand, as a three-dimensional measurement apparatus using the principle of focus synthesis, as disclosed in, for example, Patent Documents 3 and 4, the observation surface is an image sensor while changing the relative distance between the objective lens and the observation surface. There is an apparatus configured to be capable of taking the relative distance at which an image in focus is captured at each point on the observation surface as the height of each point.

特開平11−14907号公報Japanese Patent Application Laid-Open No. 11-14907 特開2001−82935号公報Unexamined-Japanese-Patent No. 2001-82935 特開平9−97332号公報JP-A-9-97332 特開2000−162504号公報Unexamined-Japanese-Patent No. 2000-162504

ところで、特許文献1、2に開示されている共焦点顕微鏡では、高さ方向に高精度な測定が可能なため、微細形状を有する観察対象物の高精度測定が必要な場合に適している。しかしながら、共焦点顕微鏡には原理的な弱点があり、それは、対物レンズを通して観察面に光を照射しているため、対物レンズのNA(開口数)によって測定できる傾斜の角度が制限されることである。すなわち、対物レンズと観察面とが正対しているときには、対物レンズを通して観察面に照射された光が反射して対物レンズに戻ってくるが、対物レンズの光軸に対して観察面が傾いていると、観察面から反射した光が対物レンズの外に向けて照射されることになり、対物レンズに戻ってこなくなる。この現象は対物レンズのNAが小さくなるほど顕著に発生する。一般に、高倍率の対物レンズはNAが大きく、低倍率の対物レンズはNAが小さくなるので、高倍率側では測定可能な傾斜角度が大きく、測定できない観察対象物は少ないが、低倍率側においては傾斜部のデータが欠損したり、激しくノイズ(偽形状)が出るなど、高精度な測定が困難になる。   By the way, the confocal microscopes disclosed in Patent Documents 1 and 2 are capable of highly accurate measurement in the height direction, and thus are suitable when high-accuracy measurement of an observation object having a minute shape is required. However, confocal microscopes have fundamental weaknesses, because the observation surface is illuminated with light through the objective lens, which limits the angle of tilt that can be measured by the numerical aperture (NA) of the objective lens. is there. That is, when the objective lens and the observation surface are correctly opposed, the light irradiated to the observation surface through the objective lens is reflected and returns to the objective lens, but the observation surface is inclined with respect to the optical axis of the objective lens In this case, light reflected from the observation surface is irradiated to the outside of the objective lens, and does not return to the objective lens. This phenomenon is more pronounced as the NA of the objective lens decreases. Generally, a high magnification objective lens has a large NA, and a low magnification objective lens has a small NA. Therefore, the tilt angle that can be measured is large on the high magnification side, and there are few observation objects that can not be measured. High-accuracy measurement becomes difficult due to lack of data at the slope and severe noise (false shape).

一方、特許文献3、4に開示されているフォーカス合成の原理を使用した三次元測定装置では、対物レンズの外側からリング照明等を利用して観察面を照明できるので、上述した対物レンズのNAによって決まる測定限界よりも急な傾斜面であっても測定が可能になる。   On the other hand, in the three-dimensional measurement apparatus using the principle of focus combination disclosed in Patent Documents 3 and 4, the observation surface can be illuminated from the outside of the objective lens using ring illumination or the like, so the NA of the objective lens described above Even if the slope is steeper than the measurement limit determined by.

ところが、フォーカス合成の原理を使用した場合、ピントが合った位置をその点の高さとみなすので、ピントが合っているがどうか分からない透明体や鏡面の観察対象物の測定が難しい。ただし、このような観察対象物は、共焦点顕微鏡が得意とする観察対象物であることから、レーザー共焦点の原理による測定手法とフォーカス合成の原理による測定手法とを兼ね備えた装置とすることで、測定可能な観察対象物を増やすことができ、汎用性を大きく高めることができる。   However, in the case of using the principle of focus composition, it is difficult to measure the observation object of the transparent body or the mirror surface which is in focus but can not be understood because it is regarded as the height of the point. However, since such an observation object is an observation object that a confocal microscope is good at, it is an apparatus combining the measurement method by the principle of laser confocal and the measurement method by the principle of focus synthesis. The number of measurable observation objects can be increased, and the versatility can be greatly enhanced.

上述したように、レーザー共焦点の原理による測定手法とフォーカス合成の原理による測定手法とを兼ね備えた装置にすることの利点はあるが、使用者から見ると、レーザー共焦点の原理による測定手法の測定精度と、フォーカス合成の原理による測定手法の測定精度との差が分かり難いことがあり、信頼度がより高い測定手法を選択したいときにどちらを選択するべきか判別できないことが考えられる。   As described above, although there is an advantage to the device combining the measurement method according to the principle of laser confocal and the measurement method according to the principle of focus synthesis, from the viewpoint of the user, the measurement method according to the principle of laser confocal is The difference between the measurement accuracy and the measurement accuracy of the measurement method based on the principle of focus combination may be difficult to understand, and it may be impossible to determine which one to select when a measurement method with higher reliability is desired.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、原理が異なる複数種の測定手法によって観察対象物を観察可能にする場合に、信頼性の高い三次元測定データが得られるようにすることにある。   The present invention has been made in view of these points, and the object of the present invention is to provide highly reliable three-dimensional measurement data when making it possible to observe an observation object by a plurality of types of measurement methods having different principles. In order to be able to obtain

前記目的を達成するために、第1の発明は、観察対象物を拡大して観察可能にする拡大観察装置において、観察対象物を載置するための載置台と、観察対象物に向けて光を照射する観察用照明と、対物レンズを有する非共焦点観察光学系と、前記対物レンズを有する共焦点観察光学系と、前記対物レンズと前記載置台との相対距離を変更自在な垂直移動機構と、高さ情報を検知する高さ情報検知手段と、観察対象物の画像を取得するために、前記非共焦点観察光学系を介して観察対象物を撮像する第1受光素子と、前記共焦点観察光学系を介して観察対象物を測定するための第2受光素子と、前記垂直移動機構による前記相対距離に対応して前記高さ情報検知手段により検知した高さ情報と前記第1受光素子により取得した画像とに基づいてフォーカス探索をする第1フォーカス探索手段と、前記垂直移動機構による前記相対距離に対応して前記高さ情報検知手段により検知した高さ情報と前記第2受光素子により取得した信号とに基づいてフォーカス探索をする第2フォーカス探索手段と、前記第1フォーカス探索手段により探索されたフォーカス位置に基づいて、観察対象物の三次元形状を示す第1三次元形状データを取得する第1三次元形状測定手段と、前記第2フォーカス探索手段により探索されたフォーカス位置に基づいて、観察対象物の三次元形状を示す第2三次元形状データを取得する第2三次元形状測定手段と、前記第1フォーカス探索手段によるフォーカス探索結果の信頼性を示す第1信頼性指標、及び、前記第2フォーカス探索手段によるフォーカス探索結果の信頼性を示す第2信頼性指標のうちの少なくとも一方を算出する制御部と、を備えていることを特徴とする。   In order to achieve the above object, according to a first aspect of the present invention, in a magnifying observation apparatus that magnifies and enables observation of an observation object, a mounting table for mounting the observation object and light directed to the observation object Illumination for observation, non-confocal observation optical system having an objective lens, confocal observation optical system having the objective lens, and a vertical movement mechanism capable of changing the relative distance between the objective lens and the mounting table , Height information detection means for detecting height information, a first light receiving element for imaging an observation object via the non-confocal observation optical system to obtain an image of the observation object, and A second light receiving element for measuring an object to be observed via a focusing observation optical system, height information detected by the height information detecting means in correspondence with the relative distance by the vertical movement mechanism, and the first light reception Based on the image acquired by the element A focus search is performed based on first focus search means for performing a search, height information detected by the height information detection means corresponding to the relative distance by the vertical movement mechanism, and a signal acquired by the second light receiving element. First three-dimensional shape measurement for acquiring first three-dimensional shape data indicating the three-dimensional shape of the observation object based on the second focus search means for searching and the focus position searched by the first focus search means Means, and second three-dimensional shape measurement means for acquiring second three-dimensional shape data indicating the three-dimensional shape of the observation object based on the focus position searched by the second focus search means; and the first focus A first reliability index indicating the reliability of the focus search result by the search means, and the focus search result by the second focus search means Characterized in that it comprises a control unit for calculating at least one of the second reliability indicator of the reliability.

この構成によれば、第1受光素子により非共焦点観察光学系を介して観察対象物を撮像し、この第1受光素子により取得した画像に基づいて第1フォーカス探索手段がフォーカス探索を行うと、高さ情報が高さ情報検知手段により検知されてフォーカス位置を取得できる。第1三次元形状測定手段は、第1フォーカス探索手段により探索されたフォーカス位置に基づいて観察対象物の三次元形状を測定することができるので、フォーカス合成の原理を使用した測定手法を実現できる。   According to this configuration, when the first light receiving element captures an image of the observation target through the non-confocal observation optical system, and the first focus searching unit performs the focus search based on the image acquired by the first light receiving element. The height information is detected by the height information detection means, and the focus position can be acquired. Since the first three-dimensional shape measuring means can measure the three-dimensional shape of the observation object based on the focus position searched by the first focus searching means, a measuring method using the principle of focus composition can be realized .

また、第2受光素子により共焦点観察光学系を介して観察対象物を測定し、この第2受光素子により取得した信号に基づいて第2フォーカス探索手段がフォーカス探索を行うと、高さ情報が高さ情報検知手段により検知されてフォーカス位置を取得できる。第2三次元形状測定手段は、第2フォーカス探索手段により探索されたフォーカス位置に基づいて観察対象物の三次元形状を測定することができるので、共焦点の原理を使用した測定手法を実現できる。   Also, when the second light receiving element measures the observation object through the confocal observation optical system, and the second focus searching means performs the focus search based on the signal acquired by the second light receiving element, the height information The focus position can be acquired by being detected by the height information detection means. The second three-dimensional shape measurement means can measure the three-dimensional shape of the observation object based on the focus position searched by the second focus search means, so that a measurement method using the principle of confocal can be realized .

そして、前記第1フォーカス探索手段によるフォーカス探索結果の信頼性を示す第1信頼性指標、及び、前記第2フォーカス探索手段によるフォーカス探索結果の信頼性を示す第2信頼性指標のうちの少なくとも一方が算出されるので、信頼性の高い三次元測定データを選択することが可能になる。   Then, at least one of a first reliability index indicating the reliability of the focus search result by the first focus searching means, and a second reliability index indicating the reliability of the focus search result by the second focus searching means Because it is calculated, it becomes possible to select reliable three-dimensional measurement data.

第2の発明は、前記制御部は、前記第1信頼性指標及び前記第2信頼性指標の算出結果に基づいて、前記第1三次元形状データと前記第2三次元形状データとの置換の要否を判断する置換判断手段を備えていることを特徴とする。   In a second invention, the control unit is configured to replace the first three-dimensional shape data with the second three-dimensional shape data based on the calculation result of the first reliability index and the second reliability index. It is characterized in that it comprises substitution determining means for determining necessity.

この構成によれば、第1三次元形状データと第2三次元形状データとのうち、信頼性の高いデータを利用し、信頼性の低いデータを利用しないようにすることができる。よって、信頼性の高い三次元形状データを得ることができる。   According to this configuration, it is possible to use highly reliable data among the first three-dimensional shape data and the second three-dimensional shape data, and not to use low-reliable data. Therefore, highly reliable three-dimensional shape data can be obtained.

第3の発明は、前記制御部は、前記第1三次元形状測定手段が前記第1三次元形状データを取得し、かつ前記第2三次元形状測定手段が前記第2三次元形状データを取得したとき、各データに基づいて、前記第1及び第2信頼性指標の双方を算出し、前記制御部は、前記第1信頼性指標が前記第2信頼性指標以上の場合には、前記第1三次元形状データを選択して使用する一方、前記第1信頼性指標が前記第2信頼性指標未満の場合には、前記第2三次元形状データを選択して使用することを特徴とする。   In a third invention, the control unit is configured such that the first three-dimensional shape measurement unit acquires the first three-dimensional shape data, and the second three-dimensional shape measurement unit acquires the second three-dimensional shape data. When the first reliability index is equal to or more than the second reliability index, the control unit calculates both the first and second reliability indices based on the respective data. (1) While selecting and using three-dimensional shape data, when the first reliability index is less than the second reliability index, it is characterized by selecting and using the second three-dimensional shape data .

この構成によれば、第1三次元形状データと第2三次元形状データとが取得された後、制御部は、第1信頼性指標と第2信頼性指標とを比較する。このとき、仮に、第1信頼性指標の方が第2信頼性指標よりも大きい場合には、第1三次元形状データの方が信頼性に優れるものと判断し、第1三次元形状データを用いた処理を実行する。これにより、信頼性に優れた観察を実現することができる。   According to this configuration, after the first three-dimensional shape data and the second three-dimensional shape data are acquired, the control unit compares the first reliability indicator with the second reliability indicator. At this time, if the first reliability index is larger than the second reliability index, it is determined that the first three-dimensional shape data is more reliable, and the first three-dimensional shape data is Execute the processing used. Thereby, observation with excellent reliability can be realized.

第4の発明は、前記制御部は、前記第1三次元形状測定手段が前記第1三次元形状データを取得したとき、該第1三次元形状データに基づいて前記第1信頼性指標を算出し、前記制御部は、前記第1信頼性指標が所定の第1しきい値以上の場合には、前記第1三次元形状データを使用する一方、前記第1信頼性指標が前記第1しきい値未満の場合には、前記第2三次元形状測定手段を介して前記第2三次元形状データを取得するとともに、前記第1三次元形状データを前記第2三次元形状データによって置換して使用することを特徴とする。   In a fourth invention, when the first three-dimensional shape measurement means acquires the first three-dimensional shape data, the control unit calculates the first reliability index based on the first three-dimensional shape data. And the control unit uses the first three-dimensional shape data when the first reliability index is equal to or greater than a predetermined first threshold value, while the first reliability index indicates the first reliability index. In the case of less than the threshold value, the second three-dimensional shape data is acquired through the second three-dimensional shape measuring means, and the first three-dimensional shape data is replaced by the second three-dimensional shape data. It is characterized by using.

一般的に、フォーカス合成の原理を使用した測定は、共焦点の原理を使用した測定よりも速度に優れる。前記の構成によると、フォーカス合成の原理を使用した測定によって第1三次元形状データを取得した後に置換の要否を判断し、置換するべきと判断されたときには、共焦点の原理を使用した測定を行って置換を実行する。このように、フォーカス合成の原理を使用した測定を優先して行うことで、観察に要する時間を短縮することができる。   In general, measurements using the focus synthesis principle are faster than measurements using the confocal principle. According to the above configuration, if it is determined that the first three-dimensional shape data should be obtained after measurement by using the principle of focus combination and it is determined that replacement should be performed, measurement using the principle of confocal is determined. To perform the replacement. As described above, by preferentially performing the measurement using the principle of focus synthesis, the time required for observation can be shortened.

第5の発明は、前記制御部は、前記第2探索手段が前記第2三次元形状データを取得したとき、該第2三次元形状データに基づいて前記第2信頼性指標を算出し、前記制御部は、前記第2信頼性指標が所定の第2しきい値以上の場合には、前記第2三次元形状データを使用する一方、前記第2信頼性指標が前記第2しきい値未満の場合には、前記第1三次元形状測定手段を介して前記第1三次元形状データを取得するとともに、前記第2三次元形状データを前記第1三次元形状データによって置換して使用することを特徴とする。   In a fifth invention, when the second search means acquires the second three-dimensional shape data, the control unit calculates the second reliability indicator based on the second three-dimensional shape data, and The control unit uses the second three-dimensional shape data when the second reliability index is equal to or greater than a predetermined second threshold, and the second reliability index is less than the second threshold. In this case, the first three-dimensional shape data is acquired through the first three-dimensional shape measuring means, and the second three-dimensional shape data is used by replacing it with the first three-dimensional shape data. It is characterized by

一般的に、共焦点の原理を使用した測定は、フォーカス合成の原理を使用した測定よりも精度に優れる。前記の構成によると、共焦点の原理を使用した測定によって第2三次元形状データを取得した後に置換の要否を判断し、置換するべきと判断されたときには、フォーカス合成の原理を使用した測定を行って置換を実行する。このように、共焦点の原理を使用した測定を優先して行うことで、精度に優れた観察を実現することができる。   In general, measurements using the confocal principle are more accurate than measurements using the focus combining principle. According to the above-described configuration, when it is determined that replacement is necessary after obtaining the second three-dimensional shape data by measurement using the principle of confocal, when it is determined that replacement is to be performed, measurement using the principle of focus combining To perform the replacement. As described above, by giving priority to measurement using the confocal principle, observation with high accuracy can be realized.

第6の発明は、使用者に対して情報を表示する表示部と、前記使用者による操作入力を受け付ける操作部と、を備え、前記制御部は、前記第1三次元形状データと前記第2三次元形状データとの間で置換を行うべきと判断したときには、前記表示部を介して前記使用者へ通知を行うとともに、前記操作部に対してなされた操作入力に基づき、前記第1三次元形状データと前記第2三次元形状データとの間で置換を実行することを特徴とする。   A sixth invention comprises a display unit for displaying information to a user, and an operation unit for receiving an operation input by the user, the control unit comprising the first three-dimensional shape data and the second When it is determined that the replacement with the three-dimensional shape data is to be performed, the first three-dimensional data is notified based on the operation input made to the operation unit while notifying the user via the display unit. A substitution is performed between shape data and the second three-dimensional shape data.

この構成によれば、使用者の意思を反映させることができるから、拡大観察装置の利便性を向上させることができる。   According to this configuration, since the user's intention can be reflected, the convenience of the magnifying observation apparatus can be improved.

第7の発明は、前記制御部は、画素毎に前記第1及び第2信頼性指標のうちの少なくとも一方を算出するとともに、前記置換判断手段を介して画素毎に置換の要否を判断することを特徴とする。   In a seventh aspect, the control unit calculates at least one of the first and second reliability indicators for each pixel, and determines whether or not replacement is necessary for each pixel via the replacement determination means. It is characterized by

第8の発明は、前記制御部は、各画素のコントラスト値に基づいて、前記第1信頼性指標を算出することを特徴とする。   An eighth invention is characterized in that the control unit calculates the first reliability index based on the contrast value of each pixel.

第9の発明は、前記制御部は、各画素の画素値に基づいて、前記第2信頼性指標を算出することを特徴とする。   A ninth invention is characterized in that the control unit calculates the second reliability index based on the pixel value of each pixel.

第10の発明は、前記第1三次元形状データ及び前記第2三次元形状データは、高さ情報を含むことを特徴とする。   A tenth invention is characterized in that the first three-dimensional shape data and the second three-dimensional shape data include height information.

第11の発明は、前記第1三次元形状データは、色情報を含むことを特徴とする。   An eleventh invention is characterized in that the first three-dimensional shape data includes color information.

本発明によれば、原理が異なる複数種の測定手法によって観察対象物を観察可能にする場合に、信頼性の高い三次元測定データを選択することが可能になる。   According to the present invention, it is possible to select highly reliable three-dimensional measurement data in the case where the observation object can be observed by a plurality of types of measurement methods having different principles.

本発明の実施形態に係る拡大観察装置のシステム構成を示す模式図である。It is a schematic diagram which shows the system configuration | structure of the expansion observation apparatus which concerns on embodiment of this invention. 観察ユニットの斜視図である。It is a perspective view of an observation unit. 観察ユニットの光学系及び照明系を示す模式図である。It is a schematic diagram which shows the optical system and illumination system of an observation unit. 拡大観察装置のブロック図である。It is a block diagram of a magnifying observation apparatus. 複数の対物レンズが取り付けられた状態の電動レボルバの側面図である。It is a side view of the electric revolver in the state where a plurality of objective lenses were attached. 制御部のブロック図である。It is a block diagram of a control part. 1つの画素において観察対象物のZ方向の位置と受光強度との関係を示す図である。It is a figure which shows the relationship of the position of Z direction of an observation target object, and light reception intensity | strength in one pixel. 測定時の手順を示すフローチャートである。It is a flowchart which shows the procedure at the time of measurement. 起動直後に表示部に表示されるユーザーインターフェースを示す図である。It is a figure which shows the user interface displayed on a display part immediately after starting. 共焦点観察光学系を介して光電子倍増管で取得されたライブ画像を表示させるユーザーインターフェースを示す図である。FIG. 5 is a view showing a user interface for displaying a live image acquired by a photomultiplier via a confocal observation optical system. 照明選択時に表示されるユーザーインターフェースを示す図である。It is a figure which shows the user interface displayed at the time of lighting selection. 同軸落射照明のみで撮像したライブ画像を表示したユーザーインターフェースを示す図である。It is a figure which shows the user interface which displayed the live image imaged only by coaxial epi-illumination. リング照明のみで撮像したライブ画像を表示したユーザーインターフェースを示す図である。It is a figure which shows the user interface which displayed the live image imaged only by ring illumination. 同軸落射照明及びリング照明で撮像したライブ画像を表示したユーザーインターフェースを示す図である。It is a figure which shows the user interface which displayed the live image imaged with coaxial epi-illumination illumination and ring illumination. 照明光量調整時に表示されるユーザーインターフェースを示す図である。It is a figure which shows the user interface displayed at the time of illumination light quantity adjustment. 対物レンズの変更によって観察光学系の倍率が高倍率化された場合を示す図である。It is a figure which shows the case where magnification of observation optical system is increased by change of an objective lens. ナビゲーション画像を表示したユーザーインターフェースを示す図である。It is a figure which shows the user interface which displayed the navigation image. ナビゲーション画像に領域追加した場合を示す図17相当図である。It is the FIG. 17 equivalent view which shows the case where area | region is added to a navigation image. ナビゲーション画像に領域追加する場合のメニューを表示させた図17相当図である。It is the FIG. 17 equivalent view which displayed the menu in the case of adding an area | region to a navigation image. 基本測定領域を表示したユーザーインターフェースを示す図である。It is a figure which shows the user interface which displayed the basic measurement area | region. 分割表示したユーザーインターフェースを示す図である。It is a figure which shows the user interface which carried out the division display. フォーカス合成モードによる測定結果を表示したユーザーインターフェースを示す図である。It is a figure which shows the user interface which displayed the measurement result by focus synthetic | combination mode. レーザー共焦点モードによる測定結果を表示したユーザーインターフェースを示す図である。It is a figure which shows the user interface which displayed the measurement result by laser confocal mode. プロファイル測定領域を表示したユーザーインターフェースを示す図である。It is a figure which shows the user interface which displayed the profile measurement area | region. 使用者に確認を求めずにフォーカス合成モードとレーザー共焦点モードで測定する場合の手順を示したフローチャートである。It is the flowchart which showed the procedure in the case of measuring in focus synthetic | combination mode and laser confocal mode, without asking a user confirmation. 測定結果の信頼度によってフォーカス合成モードとレーザー共焦点モードで測定する場合の手順を示したフローチャートである。It is the flowchart which showed the procedure in the case of measuring in focus synthetic | combination mode and laser confocal mode by the reliability of a measurement result. フォーカス合成モードとレーザー共焦点モードで測定するか否かを使用者の判断にゆだねる場合の手順を示したフローチャートである。It is the flowchart which showed the procedure in the case of leaving it to a user's judgment whether it measures by a focus synthetic | combination mode and a laser confocal mode.

以下、本発明の実施形態を図面に基づいて詳細に説明する。尚、以下の好ましい実施形態の説明は、本発明の技術思想を具体化するための例示に過ぎず、本発明、その適用物或いはその用途を制限することを意図するものではない。   Hereinafter, embodiments of the present invention will be described in detail based on the drawings. The following description of the preferred embodiments is merely an example for embodying the technical concept of the present invention, and is not intended to limit the present invention, its applications, or its applications.

(拡大観察装置1の全体構成)
図1は、本発明の実施形態に係る拡大観察装置1のシステム構成を示す模式図である。この拡大観察装置1は、観察対象物SPを拡大して観察可能にするための装置であり、例えば単に顕微鏡と呼ぶことや、デジタルマイクロスコープ、走査顕微鏡等と呼ぶことができる。また、後述するように、観察対象物SPの三次元形状を取得できることから三次元形状測定機と呼ぶこともできる。
(Overall configuration of the magnifying observation apparatus 1)
FIG. 1 is a schematic view showing a system configuration of a magnifying observation apparatus 1 according to an embodiment of the present invention. The magnifying observation apparatus 1 is an apparatus for magnifying the observation object SP so as to be observable, and can be called, for example, a microscope, a digital microscope, a scanning microscope, or the like. Further, as will be described later, the three-dimensional shape of the observation object SP can be acquired, and hence it can be called a three-dimensional shape measuring machine.

拡大観察装置1は、観察ユニット2と外部ユニット3とで構成することができるが、外部ユニット3を観察ユニット2に組み込んで一体化することもできる。観察ユニット2と外部ユニット3とで拡大観察装置1を構成する場合には、外部ユニット3に、観察ユニット2に電力を供給する電力供給装置3aを設けることができる。観察ユニット2と外部ユニット3とは、配線2aによって接続されている。   Although the magnifying observation apparatus 1 can be configured by the observation unit 2 and the external unit 3, the external unit 3 can be integrated into the observation unit 2. When the magnifying observation device 1 is configured by the observation unit 2 and the external unit 3, the external unit 3 can be provided with the power supply device 3 a that supplies power to the observation unit 2. The observation unit 2 and the external unit 3 are connected by a wire 2a.

また、拡大観察装置1には、操作用端末4を接続することができる。外部ユニット3に内蔵されている通信部3b(図4に示す)によって操作用端末4の接続が可能になる。操作用端末4は、表示部5、キーボード6、マウス7及び記憶装置8を備えている。操作用端末4は、観察ユニット2や外部ユニット3に組み込んで一体化して拡大観察装置1の構成部材とすることができ、この場合は「操作用端末」ではなく、コントロールユニット等と呼ぶことができるが、この実施形態では、観察ユニット2及び外部ユニット3とは別体としている。   In addition, the operation terminal 4 can be connected to the magnifying observation device 1. The communication unit 3 b (shown in FIG. 4) incorporated in the external unit 3 enables connection of the operation terminal 4. The operation terminal 4 includes a display unit 5, a keyboard 6, a mouse 7 and a storage device 8. The operation terminal 4 can be integrated into the observation unit 2 or the external unit 3 and integrated to form a component of the magnifying observation apparatus 1. In this case, the operation terminal 4 may be called a control unit or the like instead of the operation terminal. Although it is possible, in this embodiment, the observation unit 2 and the external unit 3 are separated.

表示部5、キーボード6、マウス7及び記憶装置8についても、それぞれ観察ユニット2や外部ユニット3に組み込んで一体化して拡大観察装置1の構成部材とすることができる。つまり、操作用端末4、表示部5、キーボード6、マウス7及び記憶装置8も拡大観察装置1の一部とすることができ、例えば、表示部5付きの拡大観察装置1、キーボード6及びマウス7(操作部)付きの拡大観察装置1とすることもできる。   The display unit 5, the keyboard 6, the mouse 7 and the storage device 8 can also be incorporated into the observation unit 2 and the external unit 3 respectively and integrated to form a component of the magnifying observation apparatus 1. That is, the operation terminal 4, the display unit 5, the keyboard 6, the mouse 7 and the storage device 8 can also be part of the magnifying observation apparatus 1, for example, the magnifying observation apparatus 1 with the display unit 5, the keyboard 6 and the mouse It can also be set as the magnifying observation apparatus 1 with 7 (operation part).

キーボード6及びマウス7は、従来から周知のコンピュータ操作用の機器であり、操作用端末4を操作するための操作部である。これらが使用者による操作入力を受け付けることによって、拡大観察装置1を操作することができる。キーボード6及びマウス7の操作により、各種情報の入力や選択操作、画像の選択操作、領域指定、位置指定等を行うことができる。キーボード6及びマウス7は、操作部としての一例であり、キーボード6及びマウス7の代わり、またはキーボード6及びマウス7に加えて、たとえば、各種ポインティングデバイス、音声入力機器、タッチ操作パネル等のコンピュータ操作用の機器を使用することもできる。   The keyboard 6 and the mouse 7 are conventionally known devices for computer operation, and are operation units for operating the operation terminal 4. When these receive the operation input by a user, the magnifying observation apparatus 1 can be operated. By the operation of the keyboard 6 and the mouse 7, it is possible to perform input and selection operation of various information, selection operation of an image, area designation, position designation and the like. The keyboard 6 and the mouse 7 are an example as an operation unit, and in place of the keyboard 6 and the mouse 7 or in addition to the keyboard 6 and the mouse 7, for example, computer operations such as various pointing devices, voice input devices, touch operation panels Equipment can also be used.

表示部5は、例えば、液晶表示パネルや有機ELパネル等のようなカラー表示可能な表示デバイスで構成されており、使用者に対して情報を表示するようになっている。表示部5に操作部としてのタッチ操作パネルを組み込むようにしてもよい。   The display unit 5 is configured of, for example, a display device capable of color display such as a liquid crystal display panel or an organic EL panel, and is configured to display information to a user. A touch operation panel as an operation unit may be incorporated in the display unit 5.

また、後述する各部材、手段、素子、ユニット等は、観察ユニット2、外部ユニット3、操作用端末4のいずれに設けられていてもよい。   Moreover, each member, a means, an element, a unit etc. which are mentioned later may be provided in any of the observation unit 2, the external unit 3, and the terminal 4 for operation.

拡大観察装置1には、上述した機器や装置以外にも、操作や制御を行うための装置、プリンタ、その他の各種処理を行うためのコンピュータ、記憶装置、周辺機器等を接続することもできる。この場合の接続は、例えば、IEEE1394、RS−232xやRS−422、USB等のシリアル接続、パラレル接続、あるいは10BASE−T、100BASE−TX、1000BASE−T等のネットワークを介して電気的、あるいは磁気的、光学的に接続する方法等を挙げることができる。また、有線接続以外にも、IEEE802.x等の無線LANやBluetooth(登録商標)等の電波、赤外線、光通信等を利用した無線接続等でもよい。さらにデータの交換や各種設定の保存等を行うための記憶装置に用いる記憶媒体としては、例えば、各種メモリカードや磁気ディスク、光磁気ディスク、半導体メモリ、ハードディスク等を利用することができる。尚、拡大観察装置1は、観察ユニット2及び外部ユニット3と、それら以外の上記各種ユニットや装置、機器を組み合わせて全体を拡大観察システム、デジタルマイクロスコープシステム等ということもできる。   In addition to the devices and devices described above, the magnifying observation device 1 can also be connected with devices for performing operations and controls, printers, computers for performing various other processes, storage devices, peripheral devices, and the like. The connection in this case is, for example, serial connection such as IEEE1394, RS-232x or RS-422, USB, etc., parallel connection, or electrical or magnetic via a network such as 10BASE-T, 100BASE-TX, 1000BASE-T, etc. And optical connection methods can be mentioned. In addition to wired connection, IEEE 802. A wireless LAN such as x, a radio wave such as Bluetooth (registered trademark), an infrared ray, a wireless connection using optical communication, or the like may be used. Furthermore, as a storage medium used for a storage device for exchanging data and storing various settings, for example, various memory cards, magnetic disks, magneto-optical disks, semiconductor memories, hard disks and the like can be used. The magnifying observation apparatus 1 can also be referred to as a magnifying observation system, a digital microscope system, etc. by combining the observation unit 2 and the external unit 3 with the above-mentioned various units, devices, and devices.

(観察ユニット2の全体構成)
観察ユニット2の外観形状は図2等に示すようになっており、作業台等に載置されるベース20と、ベース20の奥側部分から上側へ向かって延びる支持部21と、支持部21の上部に設けられたヘッド部22とで構成されている。尚、観察ユニット2の手間側とは、作業者(観察者)が観察ユニット2に対して通常の操作姿勢で向かい合ったときに作業者に近くなる側であり、観察ユニット2の奥側とは、作業者が観察ユニット2に対して通常の操作姿勢で向かい合ったときに作業者から遠くなる側である。これは説明の便宜を図るために定義するだけであり、実際の使用状態を限定するものではない。
(Overall configuration of observation unit 2)
The external shape of the observation unit 2 is as shown in FIG. 2 and the like, and a base 20 placed on a workbench or the like, a support 21 extending upward from the back side of the base 20, and a support 21 And a head portion 22 provided at the top of the head. Incidentally, the labor side of the observation unit 2 is the side closer to the worker when the operator (observer) faces the observation unit 2 in the normal operation posture, and the back side of the observation unit 2 When the worker faces the observation unit 2 in the normal operation posture, the worker is far from the worker. This is only defined for the convenience of description, and does not limit the actual use state.

観察ユニット2は、観察対象物SPを載置するための水平な電動載置台23と、図3等に示す観察対象物SPに向けて光を照射する観察用照明としての同軸落射照明24及びリング照明25と、点光源としてのレーザー出力部26と、観察光学系としての非共焦点観察光学系30及び共焦点観察光学系40と、撮像素子(第1受光素子)50と、光電子倍増管(第2受光素子)51とを備えている。観察光学系は、テレセントリック光学系である。   The observation unit 2 includes a horizontal motorized mounting table 23 for mounting the observation object SP, and coaxial epi-illumination light 24 and a ring as observation illumination for irradiating light toward the observation object SP shown in FIG. The illumination 25, the laser output unit 26 as a point light source, the non-confocal observation optical system 30 and the confocal observation optical system 40 as an observation optical system, the imaging device (first light receiving element) 50, the photomultiplier tube And the second light receiving element 51). The observation optical system is a telecentric optical system.

電動載置台23は、図1や図2に示す昇降ダイヤル23aの回転操作によって上下方向に移動させることができるようになっている。観察対象物SPの厚みや高さに応じて使用者が昇降ダイヤル23aを回転操作するのは、他の光学顕微鏡と同様である。   The motorized mounting table 23 can be moved in the vertical direction by the rotation operation of the lift dial 23a shown in FIG. 1 and FIG. The user rotates the elevation dial 23a in accordance with the thickness and height of the observation object SP, as in the other optical microscopes.

(非共焦点観察光学系30の構成)
非共焦点観察光学系30は、従来から光学顕微鏡に使用されている光学系の基本構造と同様に構成することができ、同軸落射照明24及びリング照明25を観察用の光源としており、観察対象物SPから反射した光を撮像素子50によって受光するように構成されている。具体的には、非共焦点観察光学系30は、観察対象物SP側から撮像素子50側に向かって順に配置された対物レンズ27、電動レボルバ(電動の変倍機構)28、第1ハーフミラー31及び第2ハーフミラー32を少なくとも備えている。第1ハーフミラー31は無偏光ハーフミラーとすることができる。第1ハーフミラー31及び第2ハーフミラー32は、対物レンズ27の観察光路上に配置されており、観察対象物SPが照明されていると、観察対象物SPで反射された光L1が、対物レンズ27、第1ハーフミラー31及び第2ハーフミラー32を通って撮像素子50で受光される。
(Configuration of non-confocal observation optical system 30)
The non-confocal observation optical system 30 can be configured similarly to the basic structure of an optical system conventionally used in an optical microscope, and uses the coaxial epi-illumination 24 and the ring illumination 25 as light sources for observation The light reflected from the object SP is configured to be received by the imaging device 50. Specifically, the non-confocal observation optical system 30 includes an objective lens 27 disposed in order from the observation object SP side to the imaging device 50 side, an electric revolver (electric power variation mechanism) 28, and a first half mirror 31 and at least a second half mirror 32. The first half mirror 31 can be a non-polarization half mirror. The first half mirror 31 and the second half mirror 32 are disposed on the observation light path of the objective lens 27. When the observation object SP is illuminated, the light L1 reflected by the observation object SP is an objective light. The light is received by the imaging device 50 through the lens 27, the first half mirror 31 and the second half mirror 32.

撮像素子50は、観察対象物SPの画像を取得するために、非共焦点観察光学系30を介して観察対象物SPを撮像する。具体的には、撮像素子50は、非共焦点観察光学系30を通して得られた光の強度を電気信号に変換するCCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)等の撮像素子からなるイメージセンサを使用することができるが、これらに限られるものではない。撮像素子50は、色情報も取得することができるセンサである。また、撮像素子50の露光時間は任意に調整可能となっている。   The imaging element 50 images the observation target SP via the non-confocal observation optical system 30 in order to acquire an image of the observation target SP. Specifically, the imaging device 50 may use an imaging device such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) that converts the intensity of light obtained through the non-confocal observation optical system 30 into an electrical signal. Image sensors can be used, but are not limited thereto. The imaging device 50 is a sensor that can also acquire color information. Further, the exposure time of the imaging device 50 can be arbitrarily adjusted.

(同軸落射照明24の構成)
同軸落射照明24は、対物レンズ27を介して観察対象物SPを照明するための光源となる照明ユニットであり、対物レンズ27の光軸上に照明光路が位置するように観察対象物SPの観察面を照明する。同軸落射照明24は、例えばLED等の発光体24aを有するとともに、その発光体24aの光が入射するコレクタ24b、リレーレンズ24c、ミラー24d及びレンズ24eを有している。発光体24aの光は、コレクタ24b及びリレーレンズ24cを通った後、ミラー24dによって方向変換されてからレンズ24eに入射する。レンズ24eから出射した光は、第1ハーフミラー31によって観察対象物SP方向へ変換されてから対物レンズ27の観察光軸上に照射され、対物レンズ27を通って観察対象物SPを照明する。同軸落射照明24は、後述する照明制御部72cによってON/OFF及びON時の光量が制御される。
(Configuration of coaxial epi-illumination 24)
The coaxial epi-illumination 24 is an illumination unit serving as a light source for illuminating the observation object SP via the objective lens 27. The coaxial epi-illumination 24 observes the observation object SP such that the illumination light path is positioned on the optical axis of the objective lens 27. Illuminate the surface. The coaxial epi-illumination light 24 has a light emitter 24a such as an LED, and also has a collector 24b on which the light of the light emitter 24a is incident, a relay lens 24c, a mirror 24d and a lens 24e. The light of the light emitter 24a passes through the collector 24b and the relay lens 24c, is redirected by the mirror 24d, and then enters the lens 24e. The light emitted from the lens 24 e is converted in the direction of the observation object SP by the first half mirror 31 and then irradiated on the observation light axis of the objective lens 27, and illuminates the observation object SP through the objective lens 27. The coaxial epi-illumination light 24 is controlled by the illumination control unit 72 c described later to control the amount of light when turned on / off and when it is turned on.

同軸落射照明24は、鏡面もしくは鏡面に近い観察面を観察するのに適しており、観察面の反射率の違いをコントラスト高く観察することができるという利点がある。   The coaxial epi-illumination 24 is suitable for observing a mirror surface or a viewing surface close to the mirror surface, and has an advantage that the difference in reflectance of the viewing surface can be observed with high contrast.

(リング照明25の構成)
リング照明25は、図3に模式的に示しているように、対物レンズ27の周囲を囲むように配置された非同軸落射照明であり、対物レンズ27の光軸の周囲から観察対象物SPを照明する。図5に示すように、電動レボルバ28には、対物レンズ27を取り付けるための複数の取付孔28aが回転中心線周りに間隔をあけて形成されており、各取付孔28aに倍率の異なる対物レンズ27A、27Bが取り付けられている。対物レンズ27Aは、リング照明25を有さないレンズであり、対物レンズ27Bは、リング照明25を有するレンズである。
(Configuration of ring light 25)
The ring illumination 25 is a non-coaxial epi-illumination disposed so as to surround the objective lens 27 as schematically shown in FIG. Light up. As shown in FIG. 5, in the motorized revolver 28, a plurality of mounting holes 28a for mounting the objective lens 27 are formed at intervals around the rotation center line, and objective lenses having different magnifications in each mounting hole 28a are formed. 27A, 27B are attached. The objective lens 27A is a lens without the ring illumination 25, and the objective lens 27B is a lens with the ring illumination 25.

リング照明25は、複数のLED等の光源(図示せず)を収容したリング形状のケース25aと、ケース25aの下部に設けられた光透過部材25bとを有している。ケース25aは、対物レンズ27Bが有するレンズの周囲を囲むように形成されており、内部に収容されている複数の光源は、対物レンズ27Bが有するレンズの周囲を囲むように配置されている。光源から出射された光は、光透過部材25bによって集光されて電動載置台23に載置されている観察対象物SPに向けて照射される。電動レボルバ28の回動位置が、対物レンズ27Aを現在の観察用対物レンズとして選択する位置にある場合には、リング照明25は機能しないが、対物レンズ27Bを現在の観察用対物レンズとして選択する位置である場合には、リング照明25を機能させることができる。リング照明25は、後述する照明制御部72cによってON/OFF及びON時の光量が制御される。   The ring illumination 25 has a ring-shaped case 25a accommodating light sources (not shown) such as a plurality of LEDs, and a light transmitting member 25b provided at the lower part of the case 25a. The case 25a is formed so as to surround the periphery of the lens of the objective lens 27B, and the plurality of light sources accommodated inside are disposed so as to surround the periphery of the lens of the objective lens 27B. The light emitted from the light source is condensed by the light transmitting member 25 b and directed toward the observation object SP mounted on the motorized mounting table 23. When the rotational position of the electric revolver 28 is at the position where the objective lens 27A is selected as the present observation objective lens, the ring illumination 25 does not function, but the objective lens 27B is selected as the present observation objective lens If so, the ring light 25 can be functional. The light quantity at the time of ON / OFF and the ON time of the ring illumination 25 is controlled by the illumination control unit 72c described later.

また、リング照明25以外にも、対物レンズ27の周囲から観察対象物SPの観察面を照明する側射照明や、対物レンズ27の光軸の周囲から観察対象物SPの観察面を照明する暗視野照明を使用することもできる。これら照明は従来から顕微鏡に使用されている照明であることから詳細な説明は省略する。   In addition to the ring illumination 25, side illumination for illuminating the observation surface of the observation object SP from the periphery of the objective lens 27, and dark for illuminating the observation surface of the observation object SP from the periphery of the optical axis of the objective lens 27. Field illumination can also be used. Since these illuminations are illuminations conventionally used for a microscope, detailed explanation is omitted.

リング照明25、側射照明及び暗視野照明の場合、紙などの拡散体や凹凸の大きい観察面を観察するのに適しており、対物レンズ27の周囲又は光軸の周囲から光を照射するため、同軸落射照明24では光が返って来ないような傾斜面も明るく照らすことができるという利点がある。また、暗視野対物レンズを使用することもできる。   In the case of ring illumination 25, side illumination and dark field illumination, it is suitable for observing diffusers such as paper or observation surfaces with large irregularities, and to illuminate light from around the objective lens 27 or around the optical axis. The coaxial epi-illumination 24 has the advantage of being able to brightly illuminate an inclined surface which does not return light. Dark field objectives can also be used.

フォーカス合成の原理では、観察対象物SPの観察面にピントが合っているか否かをその点の高さの判定手段として用いているため、同軸落射照明24よりもリング照明25(側射照明及び暗視野照明)が適している場合がある。   In the principle of focus composition, whether or not the observation surface of the observation object SP is in focus is used as a determination means of the height of the point, so the ring illumination 25 (side illumination and Darkfield illumination may be suitable.

(共焦点観察光学系40の構成)
図3に示す共焦点観察光学系40は、従来から共焦点顕微鏡に使用されている光学系の基本構造と同様に構成することができ、レーザー出力部26を光源としており、観察対象物SPで反射した光を光電子倍増管51で受光するように構成されている。光電子倍増管51は、共焦点観察光学系40を介して観察対象物SPを測定するための部品である。
(Configuration of Confocal Observation Optical System 40)
The confocal observation optical system 40 shown in FIG. 3 can be configured in the same manner as the basic structure of an optical system conventionally used in a confocal microscope, and uses the laser output unit 26 as a light source. The photomultiplier tube 51 receives the reflected light. The photomultiplier tube 51 is a component for measuring the observation object SP via the confocal observation optical system 40.

共焦点観察光学系40は、上記非共焦点観察光学系30の対物レンズ27と電動レボルバ28とを有しており、従って、対物レンズ27と電動レボルバ28は、共焦点観察光学系40及び非共焦点観察光学系30で共通化されている。   The confocal observation optical system 40 includes the objective lens 27 and the motorized revolver 28 of the non-confocal observation optical system 30. Therefore, the objective lens 27 and the motorized revolver 28 include the confocal observation optical system 40 and the non-confocal observation optical system 40. The confocal observation optical system 30 is commonly used.

さらに、共焦点観察光学系40は、ダイクロイックプリズム41と、第1レンズ42と、XYスキャナ部43と、1/4波長板44と、偏光ビームスプリッタ45と、ピンホールレンズ46と、ピンホール板47と、減光フィルタ(NDフィルタ)48とを少なくとも備えている。ダイクロイックプリズム41は、特定の波長の光を反射し、その他の波長の光を通すように構成された従来から周知の部材であり、対物レンズ27の観察光軸上に配置されている。この実施形態ではダイクロイックプリズム41はレーザー出力部26から出射された光を反射するように構成されている。   Furthermore, the confocal observation optical system 40 includes a dichroic prism 41, a first lens 42, an XY scanner unit 43, a quarter wavelength plate 44, a polarization beam splitter 45, a pinhole lens 46, and a pinhole plate. 47 and at least a neutral density filter (ND filter) 48. The dichroic prism 41 is a conventionally known member configured to reflect light of a specific wavelength and transmit light of other wavelengths, and is disposed on the observation light axis of the objective lens 27. In this embodiment, the dichroic prism 41 is configured to reflect the light emitted from the laser output unit 26.

ダイクロイックプリズム41の反射光軸上には、第1レンズ42が配置されている。XYスキャナ部43は、第1レンズ42と波長板44との間に配置されている。また、光電子倍増管51と偏光ビームスプリッタ45との間に、ピンホールレンズ46、ピンホール板47及び減光フィルタ48が配置されている。レーザー出力部26は、偏光ビームスプリッタ45に向けて光を出射するように配置されている。減光フィルタ48は、光電子倍増管51に入射するレーザー光L2を減衰させるために用いられる。そのため、光電子倍増管51に入射するレーザー光L2が十分に弱い場合には減光フィルタ48が設けられなくてもよい。減光フィルタ48は、制御ユニット60によって制御されるようになっており、減光率の変更が可能である。   A first lens 42 is disposed on the reflected light axis of the dichroic prism 41. The XY scanner unit 43 is disposed between the first lens 42 and the wave plate 44. Further, a pinhole lens 46, a pinhole plate 47, and a neutral density filter 48 are disposed between the photomultiplier tube 51 and the polarization beam splitter 45. The laser output unit 26 is disposed to emit light toward the polarization beam splitter 45. The neutral density filter 48 is used to attenuate the laser light L2 incident on the photomultiplier tube 51. Therefore, when the laser beam L2 incident on the photomultiplier tube 51 is sufficiently weak, the light reduction filter 48 may not be provided. The light reduction filter 48 is controlled by the control unit 60, and can change the light reduction rate.

XYスキャナ部43は、ガルバノミラー43aと、レゾナント43bとを有している。ガルバノミラー43a及びレゾナント43bは従来から光を走査する場合に用いられるものであることから詳細な説明は省略する。レーザー出力部26から出射された光は、偏光ビームスプリッタ45及び波長板44を通ってXYスキャナ部43に入射する。XYスキャナ部43に入射した光は、ガルバノミラー43a及びレゾナント43bの動作によって観察対象物SPの観察面上を二次元的(X方向及びY方向)に走査される。X方向は、観察ユニット2の左右方向とし、また、Y方向は、観察ユニット2の奥行き方向とすることができるが、これに限られるものではなく、X方向及びY方向は任意に設定することができる。   The XY scanner unit 43 has a galvano mirror 43a and a resonator 43b. The galvano mirror 43a and the resonator 43b are conventionally used when scanning light, so detailed description will be omitted. The light emitted from the laser output unit 26 passes through the polarization beam splitter 45 and the wave plate 44 and enters the XY scanner unit 43. The light incident on the XY scanner unit 43 is two-dimensionally scanned (X direction and Y direction) on the observation surface of the observation object SP by the operation of the galvano mirror 43 a and the resonance 43 b. The X direction can be the left and right direction of the observation unit 2, and the Y direction can be the depth direction of the observation unit 2. However, the X direction and the Y direction may be arbitrarily set. Can.

XYスキャナ部43は、観察対象物SPの観察面上に光を二次元的に走査させることができるように構成されたユニットであればよく、上述した構造に限られるものではない。例えば、2つのガルバノミラーを組み合わせたガルバノスキャナ方式や、ガラスからなる音響光学媒体に圧電素子を接着し、この圧電素子に電気信号を入力して超音波を発生させて音響光学媒体中を通るレーザー光を回折させて光を偏向させる光音響素子方式(レゾナント方式)や、一列ないし多数列のピンホールを螺旋状に持つ円盤を回転させてピンホールを通過した光が観察対象物SPの観察面上を走査するように構成されたニポウディスク方式等であってもよい。   The XY scanner unit 43 may be a unit configured to scan light two-dimensionally on the observation surface of the observation object SP, and is not limited to the above-described structure. For example, a galvano scanner system in which two galvano mirrors are combined, a piezoelectric element is adhered to an acoustooptic medium made of glass, an electrical signal is input to this piezoelectric element to generate an ultrasonic wave, and a laser passes through the acoustooptic medium A photoacoustic element system (resonant system) that diffracts light and deflects the light, or a disk that has one or many rows of pinholes in a spiral and rotates the light to pass through the pinhole is the observation surface of the observation object SP It may be a Nipou disc system or the like configured to scan the upper side.

また、観察対象物SPで反射されたレーザー光L2は、対物レンズ27、第1ハーフミラー31を通った後、第2ハーフミラー32で反射されて第1レンズ42、XYスキャナ部43、波長板44を通って偏光ビームスプリッタ45により反射されてピンホールレンズ46に向かう。ピンホールレンズ46に入射したレーザー光L2はピンホールレンズ46によって集光されてからピンホール板47に形成されたピンホールの方向に向かって進み、ピンホールを通過したレーザー光L2が減光フィルタ48を通って光電子倍増管51に入射する。尚、光電子倍増管51の代わりに、上記のような撮像素子を使用することもできるし、フォトダイオード及び増幅器からなる受光素子を使用することもできる。また、光電子倍増管51の露光時間は任意に調整可能になっている。   The laser beam L2 reflected by the observation object SP passes through the objective lens 27 and the first half mirror 31 and is then reflected by the second half mirror 32 to be reflected by the first lens 42, the XY scanner unit 43, and the wavelength plate The light beam is reflected by the polarization beam splitter 45 through the light 44 toward the pinhole lens 46. The laser beam L2 incident on the pinhole lens 46 is condensed by the pinhole lens 46 and travels in the direction of the pinhole formed in the pinhole plate 47, and the laser beam L2 passing through the pinhole is a light reduction filter The light beam passes through 48 and enters the photomultiplier tube 51. Instead of the photomultiplier tube 51, the above-described imaging device can be used, or a light receiving device composed of a photodiode and an amplifier can be used. Also, the exposure time of the photomultiplier tube 51 can be arbitrarily adjusted.

共焦点観察光学系40では、光電子倍増管51の前において、観察対象物SPの観察面と共役になる位置にピンホールを配置しており、そのピンホールは極めて微小である。従って、レーザー出力部26から出射されたレーザー光L2が観察対象物SPの観察面で焦点を結ぶと、その観察面からの反射光は、ピンホールレンズ46を通ってからピンホール板47に形成されたピンホールで集光し、これにより、光電子倍増管51で受光する光量が著しく大きくなるので、光強度値(輝度値)が大きくなる。一方、レーザー光L2が観察対象物SPの観察面で焦点を結んでいないと、その観察面からの反射光は、ピンホール板47によって遮光されてピンホールを殆ど通過しないので、光電子倍増管51で受光する光量が著しく小さくなり、輝度値が小さくなる。   In the confocal observation optical system 40, a pinhole is disposed in front of the photomultiplier tube 51 at a position conjugate with the observation surface of the observation object SP, and the pinhole is extremely small. Therefore, when the laser light L2 emitted from the laser output unit 26 is focused on the observation surface of the observation object SP, the reflected light from the observation surface is formed on the pinhole plate 47 after passing through the pinhole lens 46. The light is collected by the pinholes, and the amount of light received by the photomultiplier tube 51 becomes significantly large, and the light intensity value (luminance value) becomes large. On the other hand, if the laser light L2 does not focus on the observation surface of the observation object SP, the reflected light from the observation surface is blocked by the pinhole plate 47 and hardly passes through the pinhole. The amount of light received by the light source is significantly reduced and the luminance value is reduced.

従って、XYスキャナ部43によるレーザー光L2の二次元的な走査領域(撮像領域、測定領域)のうち、観察対象物SPの観察面で焦点が合った部分については明るく、一方、それ以外の高さの部分については暗くなる。共焦点観察光学系40では、点光源を用いた光学系であることから分解能に優れた輝度情報を取得することができる。   Therefore, in the two-dimensional scanning region (imaging region, measurement region) of the laser beam L2 by the XY scanner unit 43, the portion in focus on the observation surface of the observation object SP is bright, while the other high It becomes dark about the part of The confocal observation optical system 40 can acquire luminance information excellent in resolution because it is an optical system using a point light source.

(レーザー出力部26の構成)
レーザー出力部26は、対物レンズ27を介して観察対象物SPを照明するためのレーザー光を生成して射出する機器であり、共焦点観察光学系40用の光源となるものである。レーザー出力部26は、例えばHe−Neガスレーザや半導体レーザ等を使用することができる。また、レーザー出力部26の代わりに、点光源を生成することができる各種光源を利用することができ、例えば高輝度ランプとスリットの組み合わせ等であってもよい。
(Configuration of laser output unit 26)
The laser output unit 26 is a device that generates and emits a laser beam for illuminating the observation object SP via the objective lens 27, and serves as a light source for the confocal observation optical system 40. The laser output unit 26 can use, for example, a He-Ne gas laser or a semiconductor laser. Further, instead of the laser output unit 26, various light sources capable of generating a point light source can be used, and for example, a combination of a high brightness lamp and a slit may be used.

(Z軸移動機構の構成)
観察ユニット2は、対物レンズ27と電動載置台23との相対距離を変更自在なZ軸駆動部(垂直移動機構)52(図1及び図3に模式的に示す)と、高さ情報を検知する高さ情報検知部(高さ情報検知手段)53(図4に示す)とを備えている。Z軸駆動部52は、例えばステッピングモータと、ステッピングモータの出力軸の回転を上下方向の直線運動に変換する運動変換機構とを備えており、ヘッド部22に設けられている。Z軸駆動部52のステッピングモータを回転させることにより、電動レボルバ28が上下方向に移動し、これにより、対物レンズ27と電動載置台23との相対距離を変更することができる。対物レンズ27と電動載置台23との相対距離の変更ピッチを最小で1nm程度に設定することができる精度をZ軸駆動部52が有している。
(Configuration of Z-axis moving mechanism)
The observation unit 2 detects height information and a Z-axis drive unit (vertical movement mechanism) 52 (shown schematically in FIGS. 1 and 3) capable of changing the relative distance between the objective lens 27 and the motorized mounting table 23. And a height information detection unit (height information detection means) 53 (shown in FIG. 4). The Z-axis drive unit 52 includes, for example, a stepping motor and a motion conversion mechanism that converts rotation of an output shaft of the stepping motor into linear motion in the vertical direction, and is provided to the head unit 22. By rotating the stepping motor of the Z-axis drive unit 52, the electric revolver 28 moves in the vertical direction, whereby the relative distance between the objective lens 27 and the electric mounting table 23 can be changed. The Z-axis drive unit 52 has such an accuracy that the change pitch of the relative distance between the objective lens 27 and the motorized mounting table 23 can be set to about 1 nm at the minimum.

高さ情報検知部53は、対物レンズ27と電動載置台23との相対距離を検知することができるリニアスケール(リニアエンコーダ)等で構成されている。高さ情報検知部53は、対物レンズ27と電動載置台23との相対距離の変化が1nmであっても検知できるように構成されている。この実施形態では、電動載置台23がZ軸方向に移動可能となっているとともに、対物レンズ27もZ軸方向に移動可能となっている。そして、フォーカス探索時には、電動載置台23を固定した状態で対物レンズ27をZ軸方向に駆動するので、結果的に、対物レンズ27と電動載置台23との相対距離が変化することになる。そのときの対物レンズ27のZ軸方向の位置をリニアスケールで検出することにより、高さ情報を検知することができる。尚、対物レンズ27がZ軸方向に動かないように固定しておき、フォーカス探索時には、電動載置台23をZ軸方向に駆動するようにしてもよい。この場合、電動載置台23のZ軸方向の位置をリニアスケールで検出することにより、高さ情報を検知することができる。つまり、フォーカス探索時に電動載置台23及び対物レンズ27のいずれをZ軸方向に駆動しても高さ情報検知部53によって高さ情報を検知することができる。   The height information detection unit 53 is configured of a linear scale (linear encoder) or the like that can detect the relative distance between the objective lens 27 and the motorized mounting table 23. The height information detection unit 53 is configured to be able to detect even if the change in relative distance between the objective lens 27 and the motorized mounting table 23 is 1 nm. In this embodiment, the motorized mounting table 23 is movable in the Z-axis direction, and the objective lens 27 is also movable in the Z-axis direction. Then, at the time of focus search, the objective lens 27 is driven in the Z-axis direction with the motorized mounting table 23 fixed, so that the relative distance between the objective lens 27 and the motorized mounting table 23 changes. The height information can be detected by detecting the position of the objective lens 27 in the Z-axis direction at that time using a linear scale. The objective lens 27 may be fixed so as not to move in the Z-axis direction, and the motorized mounting table 23 may be driven in the Z-axis direction during focus search. In this case, height information can be detected by detecting the position of the motorized mounting table 23 in the Z-axis direction with a linear scale. That is, height information can be detected by the height information detection unit 53 even if either the motorized mounting table 23 or the objective lens 27 is driven in the Z-axis direction at the time of focus search.

観察光学系は観察対象物SPにピントを合わせるオートフォーカス機構を備えている。オートフォーカス機構は、Z軸駆動部52によって構成することができる。すなわち、Z軸駆動部52により、対物レンズ27と、電動載置台23に載置されている観察対象物SPとの相対距離を変化させることができるので、周知のコントラストAF等と同様なアルゴリズムを利用して観察対象物SPにピントが合うまでZ軸駆動部52によって対物レンズ27を上下方向に移動させることで、オートフォーカス機構を実現できる。   The observation optical system is provided with an autofocus mechanism for focusing on the observation object SP. The autofocusing mechanism can be configured by the Z-axis drive unit 52. That is, since the relative distance between the objective lens 27 and the observation object SP mounted on the motorized mounting table 23 can be changed by the Z-axis drive unit 52, an algorithm similar to the known contrast AF etc. is used. The automatic focusing mechanism can be realized by moving the objective lens 27 in the vertical direction by the Z-axis drive unit 52 until the object to be observed SP is focused.

(ステージ駆動部54の構成)
ステージ駆動部54は、電動載置台23を水平方向(X方向及びY方向)に移動させるための装置である。すなわち、電動載置台23は、図1に示す載置台支持部材23Aとは別体とされており、載置台支持部材23Aに対して水平方向に移動可能に支持されている。電動載置台23は例えばリニアモータ等のアクチュエータを備えており、このアクチュエータにより、載置台支持部材23A内の所定範囲内で電動載置台23をX方向及びY方向に移動させることができる。
(Configuration of stage drive unit 54)
The stage drive unit 54 is a device for moving the motorized mounting table 23 in the horizontal direction (X direction and Y direction). That is, the motorized mounting table 23 is separated from the mounting table support member 23A shown in FIG. 1, and is supported movably in the horizontal direction with respect to the mounting table support member 23A. The motorized mounting table 23 includes, for example, an actuator such as a linear motor, and the actuator can move the motorized mounting table 23 in the X direction and the Y direction within a predetermined range in the mounting table support member 23A.

(制御ユニット60の構成)
観察ユニット2は制御ユニット60を有している。制御ユニット60は、外部ユニット3に設けられていてもよいし、操作用端末4に設けられていてもよい。制御ユニット60は、拡大観察装置1の各部を制御するとともに各種演算及び処理等を行うためのユニットであり、CPUやMPU、システムLSI、DSPや専用ハードウェア等で構成することができる。制御ユニット60は、後述するように様々な機能を搭載しているが、これらは論理回路によって実現されていてもよいし、ソフトウェアを実行することによって実現されていてもよい。以下、制御ユニット60について詳細に説明する。
(Configuration of control unit 60)
The observation unit 2 has a control unit 60. The control unit 60 may be provided in the external unit 3 or may be provided in the operation terminal 4. The control unit 60 is a unit for controlling each part of the magnifying observation apparatus 1 and performing various calculations and processes, and can be configured by a CPU, an MPU, a system LSI, a DSP, a dedicated hardware, or the like. The control unit 60 incorporates various functions as described later, but these may be realized by a logic circuit or may be realized by executing software. The control unit 60 will be described in detail below.

制御ユニット60には、レーザー出力部26、同軸落射照明24、リング照明25、電動レボルバ28、XYスキャナ部43、減光フィルタ48、撮像素子50、光電子倍増管51、Z軸駆動部52、高さ情報検知部53及びステージ駆動部54が接続されている。制御ユニット60により、レーザー出力部26、同軸落射照明24、リング照明25、電動レボルバ28、XYスキャナ部43、減光フィルタ48、撮像素子50、光電子倍増管51、Z軸駆動部52及びステージ駆動部54が制御され、また、撮像素子50、光電子倍増管51及び高さ情報検知部53の出力信号は制御ユニット60に入力される。   The control unit 60 includes a laser output unit 26, coaxial incident illumination 24, ring illumination 25, electric revolver 28, XY scanner unit 43, attenuation filter 48, image sensor 50, photomultiplier tube 51, Z-axis drive unit 52, high The height information detection unit 53 and the stage drive unit 54 are connected. By the control unit 60, the laser output unit 26, coaxial incident illumination 24, ring illumination 25, electric revolver 28, XY scanner unit 43, attenuation filter 48, image sensor 50, photomultiplier tube 51, Z axis drive unit 52, and stage drive The unit 54 is controlled, and the output signals of the imaging device 50, the photomultiplier tube 51, and the height information detection unit 53 are input to the control unit 60.

(電動レボルバ制御部61の構成)
制御ユニット60は、観察光学系の倍率を変更するために電動レボルバ28を制御する電動レボルバ制御部(変倍機構制御部)61を有している。電動レボルバ制御部61は、電動レボルバ28を回転させることによって所望の対物レンズ27を非共焦点観察光学系30及び共焦点観察光学系40の対物レンズ27とする。予め電動レボルバ28に取り付けられている複数の対物レンズ27の中から、使用者がスイッチ、キーボード6、マウス7等の操作によって所望の対物レンズ27を選択すると、選択された対物レンズ27が非共焦点観察光学系30及び共焦点観察光学系40の対物レンズ27となるように、電動レボルバ制御部61が電動レボルバ28を回転させた後、停止させる。
(Configuration of electric revolver control unit 61)
The control unit 60 has an electric revolver control unit (magnifying mechanism control unit) 61 that controls the electric revolver 28 in order to change the magnification of the observation optical system. The electric revolver control unit 61 rotates the electric revolver 28 to make the desired objective lens 27 the objective lens 27 of the non-confocal observation optical system 30 and the confocal observation optical system 40. When the user selects a desired objective lens 27 from the plurality of objective lenses 27 previously attached to the motorized revolver 28 by operating the switch, the keyboard 6, the mouse 7, etc., the selected objective lens 27 is not The electric revolver control unit 61 rotates the electric revolver 28 so as to be the objective lens 27 of the focus observation optical system 30 and the confocal observation optical system 40, and then stops the electric revolver 28.

図5に示すように、電動レボルバ28には倍率の異なる対物レンズ27A、27Bが取り付けられており、電動レボルバ28のどの取付孔28aにどの対物レンズ27A、27Bが取り付けられているかは、制御ユニット60が有する記憶部73に記憶されている。したがって、電動レボルバ制御部61は、記憶部73に記憶されている情報と、使用者による選択情報とに基づいて、上述したように電動レボルバ28を制御することができる。電動レボルバ28のどの取付孔28aにどの対物レンズ27A、27Bが取り付けられているかについては、使用者が操作用端末4から入力してもよいし、対物レンズ27を電動レボルバ28のセンサによって自動認識させるようにしてもよい。   As shown in FIG. 5, the objective lenses 27A and 27B having different magnifications are attached to the motorized revolver 28, and which objective lens 27A and 27B is attached to which attachment hole 28a of the motorized revolver 28 is a control unit. 60 is stored in the storage unit 73. Therefore, the electric revolver control unit 61 can control the electric revolver 28 as described above based on the information stored in the storage unit 73 and the selection information by the user. The user may input which objective lens 27A, 27B is attached to which attachment hole 28a of the electric revolver 28 from the operation terminal 4, or the objective lens 27 is automatically recognized by the sensor of the electric revolver 28. You may make it

電動レボルバ28を制御することで、非共焦点観察光学系30及び共焦点観察光学系40の倍率を変更することができる。電動レボルバ28に加えて、または電動レボルバ28に代えて、電動ズームレンズからなる対物レンズ(図示せず)を設けてもよい。電動ズームレンズは電動の変倍機構であり、電動ズームレンズを作動させることにより、非共焦点観察光学系30及び共焦点観察光学系40の倍率を変更することができる。この場合、電動ズームレンズを制御する部分が、変倍機構制御部となる。使用者による選択情報に基づいて変倍機構制御部が電動ズームレンズを制御することで、所望の倍率とすることができる。   By controlling the motorized revolver 28, the magnifications of the non-confocal observation optical system 30 and the confocal observation optical system 40 can be changed. In addition to the electric revolver 28 or in place of the electric revolver 28, an objective lens (not shown) made of an electric zoom lens may be provided. The motorized zoom lens is a motorized zooming mechanism, and the magnification of the non-confocal observation optical system 30 and the confocal observation optical system 40 can be changed by operating the motorized zoom lens. In this case, the part that controls the electric zoom lens is the zooming mechanism control unit. The magnification change mechanism control unit controls the electric zoom lens based on the information selected by the user, whereby a desired magnification can be obtained.

電動レボルバ28は、表示部5に表示されるユーザーインターフェースを介して操作することもできるし、観察ユニット2に設けられたスイッチ等で操作することもできる。電動レボルバ28にすることで使用者が手でレボルバを回す必要が無くなるので、レボルバを回す際に観察対象物SP上にゴミ等が落ちることがなくなる。   The electric revolver 28 can be operated through a user interface displayed on the display unit 5 or can be operated with a switch or the like provided in the observation unit 2. By using the electric revolver 28, there is no need for the user to turn the revolver by hand, so that dust etc. will not fall on the observation object SP when turning the revolver.

(載置台制御部62の構成)
図4に示すように、制御ユニット60は、電動載置台23の水平位置を変更する載置台制御部62を有している。載置台制御部62は、ステージ駆動部54を制御することで電動載置台23の水平位置を変更することができる。電動載置台23の水平位置は、例えば電動載置台23の中心部のX座標及びY座標で指定することができる。載置台制御部62が電動載置台23の水平位置を変更する場合は、例えば、後述するナビゲーション画像を新規で取得する場合、ナビゲーション画像を取得し直す場合、ナビゲーション画像を追加取得する場合等があるが、これらの場合に限らず、使用者が観察範囲や位置を指定した場合にも、指定された範囲を観察することができるように、電動載置台23の水平位置を載置台制御部62が変更する。
(Configuration of loading table control unit 62)
As shown in FIG. 4, the control unit 60 has a mounting table control unit 62 that changes the horizontal position of the motorized mounting table 23. The mounting table control unit 62 can change the horizontal position of the motorized mounting table 23 by controlling the stage driving unit 54. The horizontal position of the motorized mounting table 23 can be designated by, for example, the X coordinate and the Y coordinate of the central portion of the motorized mounting table 23. When the mounting table control unit 62 changes the horizontal position of the motorized mounting table 23, for example, when acquiring a navigation image newly described later, acquiring a navigation image again, acquiring a navigation image additionally, etc. may be performed. However, not only in these cases, the mounting table control unit 62 can control the horizontal position of the motorized mounting table 23 so that the designated range can be observed even when the user specifies the observation range or position. change.

(フォーカス探索手段の構成)
制御ユニット60は、Z軸駆動部52による前記相対距離に対応して高さ情報検知部53が検知した高さ情報と前記撮像素子50により取得した画像に基づいてフォーカス探索をする第1フォーカス探索手段63と、Z軸駆動部52による前記相対距離に対応して高さ情報検知部53が検知した高さ情報と前記光電子倍増管51により取得した信号に基づいてフォーカス探索をする第2フォーカス探索手段64とを備えている。ここで、前記相対距離とは、高さ情報検知部53が検知した高さ情報に基づいて得られた距離である。この相対距離は、対物レンズ27の先端面と、電動載置台23の上面との距離とすることができるが、これに限られるものでなく、対物レンズ27の所定部位と、電動載置台23の所定部位との上下方向の離間距離とすることができる。
(Configuration of focus search means)
The control unit 60 performs a first focus search based on the height information detected by the height information detection unit 53 corresponding to the relative distance by the Z-axis drive unit 52 and the image acquired by the imaging device 50. Means 63, a second focus search for performing a focus search based on the height information detected by the height information detection unit 53 corresponding to the relative distance by the Z-axis drive unit 52 and the signal acquired by the photomultiplier tube 51 And means 64. Here, the relative distance is a distance obtained based on the height information detected by the height information detection unit 53. The relative distance may be the distance between the tip end surface of the objective lens 27 and the upper surface of the motorized mounting table 23, but the present invention is not limited thereto. It can be set as the vertical distance from the predetermined part.

第1フォーカス探索手段63は、同軸落射照明24及びリング照明25の少なくとも一方により観察対象物SPを照明し、撮像素子50により取得した画像に基づいてフォーカス探索を実行する。具体的には、Z軸駆動部52を制御して対物レンズ27と電動載置台23との相対距離を変化させながら、撮像素子50により取得した画像に基づいて観察対象物SPにピントを合わせる。ピントが合った時に高さ情報検知部53が検知した高さ情報に基づいて得られた相対距離を記憶部73に記憶しておく。これが第1フォーカス探索手段63で取得されたフォーカス位置(合焦位置)となる。   The first focus searching means 63 illuminates the observation object SP with at least one of the coaxial epi-illumination 24 and the ring illumination 25, and executes the focus search based on the image acquired by the imaging device 50. Specifically, the Z-axis drive unit 52 is controlled to change the relative distance between the objective lens 27 and the motorized mounting table 23, and the observation target SP is focused based on the image acquired by the imaging device 50. The relative distance obtained based on the height information detected by the height information detection unit 53 when the subject is in focus is stored in the storage unit 73. This is the focus position (in-focus position) acquired by the first focus search means 63.

第2フォーカス探索手段64は、レーザー出力部26により観察対象物SPを照明し、光電子倍増管51により取得した信号に基づいてフォーカス探索を実行する。具体的には、Z軸駆動部52を制御して対物レンズ27と電動載置台23との相対距離を変化させながら、光電子倍増管51により取得した信号に基づいて観察対象物SPにピントを合わせる。このとき、上述したように、光電子倍増管51での受光光量が最も大きくなった時が、観察対象物SPにピントが合っていると判定することができる。この判定手順の詳細については後述する。ピントが合った時に高さ情報検知部53が検知した高さ情報に基づいて得られた相対距離を記憶部73に記憶しておく。これが第2フォーカス探索手段64で取得されたフォーカス位置(合焦位置)となる。   The second focus searching means 64 illuminates the observation object SP by the laser output unit 26, and executes the focus search based on the signal acquired by the photomultiplier tube 51. Specifically, the Z-axis drive unit 52 is controlled to change the relative distance between the objective lens 27 and the motorized mounting table 23, while focusing on the observation object SP based on the signal acquired by the photomultiplier tube 51. . At this time, as described above, when the amount of light received by the photomultiplier tube 51 is maximized, it can be determined that the observation object SP is in focus. Details of this determination procedure will be described later. The relative distance obtained based on the height information detected by the height information detection unit 53 when the subject is in focus is stored in the storage unit 73. This is the focus position (in-focus position) acquired by the second focus search means 64.

(三次元形状測定手段の構成)
制御ユニット60は、第1フォーカス探索手段63により探索されたフォーカス位置に基づいて観察対象物SPの三次元形状を測定する第1三次元形状測定手段65と、第2フォーカス探索手段64により探索されたフォーカス位置に基づいて観察対象物SPの三次元形状を測定する第2三次元形状測定手段66とを備えている。観察対象物SPの三次元形状は、観察対象物SPの表面形状、テクスチャと呼ぶこともできる。
(Configuration of three-dimensional shape measuring means)
The control unit 60 is searched by the first three-dimensional shape measuring means 65 for measuring the three-dimensional shape of the observation object SP based on the focus position searched by the first focus searching means 63, and by the second focus searching means 64. And a second three-dimensional shape measurement means 66 for measuring the three-dimensional shape of the observation object SP based on the focus position. The three-dimensional shape of the observation object SP can also be called the surface shape or texture of the observation object SP.

第1三次元形状測定手段65は、フォーカス合成の原理を使用して観察対象物SPの観察面の三次元形状を把握できる画像を取得する。第1三次元形状測定手段65で取得する画像は深度合成画像と呼ぶこともできる。深度合成画像は、観察対象物SPの測定対象部分の高低差が対物レンズ27の被写界深度を超える場合、高さ方向を異ならせて別々に撮像素子50で撮像した画像の中から、ピントが合った部分(画素)だけを抜き出して合成した画像である。深度合成画像を生成するためには深度合成処理を行えばよく、この深度合成処理は、Z軸駆動部52によって対物レンズ27をZ軸方向(高さ方向)に移動させながら、複数の静止画像を撮像素子50で撮像して、ピントが合っている領域を合成することで、画面全域にピントが合っている画像を合成する処理である。この場合は、Z軸方向の範囲や、Z軸方向の位置を変更する変更ピッチ等によって数十から数百の静止画像を使用する。   The first three-dimensional shape measuring means 65 acquires an image capable of grasping the three-dimensional shape of the observation surface of the observation object SP using the principle of focus combination. The image acquired by the first three-dimensional shape measurement means 65 can also be referred to as a depth composite image. When the height difference of the measurement target portion of the observation object SP exceeds the depth of field of the objective lens 27, the depth-synthesized image is focused out of the images separately captured by the imaging device 50 with different height directions. It is the image which extracted and synthesize | combined only the part (pixel) which matched. In order to generate a depth synthesized image, depth synthesis processing may be performed. In this depth synthesis processing, a plurality of still images are moved while the objective lens 27 is moved in the Z axis direction (height direction) by the Z axis drive unit 52 The image pickup device 50 picks up an image of the image by the image pickup element 50, and synthesizes an in-focus area to synthesize an image in focus on the entire screen. In this case, several tens to several hundreds of still images are used depending on the range in the Z axis direction, the change pitch for changing the position in the Z axis direction, and the like.

撮像素子50では色情報を取得できるので、第1三次元形状測定手段65は、観察対象物SPを示すカラー画像(第1三次元形状データ)を取得できる。   Since color information can be acquired by the imaging device 50, the first three-dimensional shape measuring means 65 can acquire a color image (first three-dimensional shape data) indicating the observation object SP.

第2三次元形状測定手段66は、レーザー共焦点の原理を使用して観察対象物SPの観察面の三次元形状を把握できる画像(第2三次元形状データ)を取得する。第2三次元形状測定手段66は、次のようにして共焦点画像データを生成する。共焦点画像データは、観察対象物SP上の単位領域ごとに行われる。単位領域は、対物レンズ27の倍率により定まる。   The second three-dimensional shape measurement means 66 acquires an image (second three-dimensional shape data) which can grasp the three-dimensional shape of the observation surface of the observation object SP using the principle of laser confocal. The second three-dimensional shape measuring means 66 generates confocal image data as follows. The confocal image data is performed for each unit region on the observation object SP. The unit area is determined by the magnification of the objective lens 27.

まず、観察対象物SPのZ方向の位置が一定の状態で、XYスキャナ部43により単位領域内のY方向の端部でレーザー光L2がX方向に走査される。X方向の走査が終了すると、レーザー光L2がXYスキャナ部43によりY方向に一定の間隔だけ移動する。この状態でレーザー光L2がX方向に走査される。単位領域でのレーザー光L2のX方向の走査及びY方向の移動が繰り返されることにより、単位領域のX方向及びY方向の走査が終了する。次に、Z軸駆動部52によって対物レンズ27をZ軸方向に移動させる。これにより、対物レンズ27のZ方向の位置が前回とは異なる状態になり、この状態で、単位領域のX方向及びY方向の走査が行われる。その後、対物レンズ27のZ方向の位置を後述する所定の変更ピッチで移動させて、単位領域のX方向及びY方向の走査が行われる。これが繰り返される。   First, in a state where the position of the observation object SP in the Z direction is constant, the laser beam L2 is scanned in the X direction at the end in the Y direction by the XY scanner unit 43. When scanning in the X direction is completed, the laser beam L2 is moved by the XY scanner unit 43 in the Y direction by a constant interval. In this state, the laser beam L2 is scanned in the X direction. The scanning in the X direction and the Y direction of the unit area is completed by repeating the scanning in the X direction and the movement in the Y direction of the laser beam L2 in the unit area. Next, the objective lens 27 is moved in the Z-axis direction by the Z-axis drive unit 52. As a result, the position of the objective lens 27 in the Z direction is different from the previous one, and in this state, scanning of the unit region in the X and Y directions is performed. Thereafter, the position of the objective lens 27 in the Z direction is moved at a predetermined change pitch described later, and scanning of the unit area in the X direction and Y direction is performed. This is repeated.

共焦点画像データのX方向の画素数はXYスキャナ部43によるレーザー光L2のX方向の走査速度とサンプリング周期とによって定まる。1回のX方向の走査(1本の走査線)におけるサンプリング数がX方向の画素数となる。また、Y方向の画素数は、X方向の走査の終了ごとのXYスキャナ部43によるレーザー光L2のY方向の変移量により定まる。Y方向における走査線の数がY方向の画素数となる。   The number of pixels in the X direction of the confocal image data is determined by the scanning speed in the X direction of the laser beam L2 by the XY scanner unit 43 and the sampling period. The number of samplings in one X-direction scan (one scan line) is the number of pixels in the X-direction. Further, the number of pixels in the Y direction is determined by the displacement amount of the laser light L2 in the Y direction by the XY scanner unit 43 every time scanning in the X direction is completed. The number of scanning lines in the Y direction is the number of pixels in the Y direction.

単位領域のX方向及びY方向の走査が終了すると、載置台制御部62がステージ駆動部54を制御して電動載置台23をX方向またはY方向に移動させ、別の単位領域において同様にX方向及びY方向の走査を行う。これを繰り返して複数の単位領域についてX方向及びY方向の走査を行う。得られた各単位領域の共焦点画像データを連結して1つの共焦点画像データにすることができる。   When scanning of the unit area in the X direction and Y direction is completed, the mounting table control unit 62 controls the stage driving unit 54 to move the motorized mounting table 23 in the X direction or Y direction, and similarly X in another unit area. Scan in the direction and Y direction. This is repeated to perform scanning in the X direction and Y direction for a plurality of unit areas. The obtained confocal image data of each unit area can be connected to one confocal image data.

図7は、1つの画素において観察対象物SPのZ方向の位置と光電子倍増管51の受光強度(受光光量)との関係を示す図である。上述したように、共焦点観察光学系40では、観察対象物SPの観察面が対物レンズ27の焦点位置にあるときに、観察対象物SPの観察面で反射されたレーザー光L2がピンホール板47に形成されたピンホールで集光される。これにより、観察対象物SPの観察面で反射されたレーザー光L2の大部分がピンホール板47に形成されたピンホールを通過して光電子倍増管51に入射するので、光電子倍増管51の受光強度が最大になる。よって、光電子倍増管51から出力される受光信号の電圧値が最大になる。   FIG. 7 is a view showing the relationship between the position of the observation object SP in the Z direction and the light reception intensity (light reception amount) of the photomultiplier tube 51 in one pixel. As described above, in the confocal observation optical system 40, when the observation surface of the observation object SP is at the focal position of the objective lens 27, the laser light L2 reflected by the observation surface of the observation object SP is a pinhole plate The light is collected at a pinhole 47 formed. Thereby, most of the laser beam L2 reflected by the observation surface of the observation object SP passes through the pinhole formed in the pinhole plate 47 and enters the photomultiplier tube 51, so that the light reception of the photomultiplier tube 51 is performed. Strength is maximized. Therefore, the voltage value of the light reception signal output from the photomultiplier tube 51 is maximized.

一方、観察対象物SPの観察面が対物レンズ27の焦点位置から外れた位置にあるときには、観察対象物SPの観察面で反射されたレーザー光L2がピンホール板47に形成されたピンホールの前または後で集光されるので、光電子倍増管51から出力される受光信号の電圧値が大幅に低くなる。   On the other hand, when the observation surface of the observation object SP is at a position deviated from the focal position of the objective lens 27, the laser beam L2 reflected by the observation surface of the observation object SP is formed in the pinhole plate 47. Since the light is collected before or after, the voltage value of the light reception signal output from the photomultiplier tube 51 becomes much lower.

このように、観察対象物SPの観察面が対物レンズ27の焦点位置にある状態で光電子倍増管51の受光強度分布に急峻なピークが現れる。各単位領域の共焦点画像データから画素ごとにZ方向における受光強度分布を得ることができる。これにより、画素ごとに受光強度分布のピーク位置(Z座標)とピーク受光強度とを得ることができる。   As described above, a sharp peak appears in the light reception intensity distribution of the photomultiplier tube 51 in a state where the observation surface of the observation object SP is at the focal position of the objective lens 27. A light reception intensity distribution in the Z direction can be obtained for each pixel from confocal image data of each unit area. Thereby, the peak position (Z coordinate) of the light reception intensity distribution and the peak light reception intensity can be obtained for each pixel.

各画素についてZ方向におけるピーク位置を示すデータを高さ画像データ(三次元形状データ)と呼ぶことができる。この高さ画像データに基づいて表示される画像を高さ画像と呼ぶことができる。高さ画像は、観察対象物SPの観察面の三次元形状を把握できる画像である。   Data indicating the peak position in the Z direction for each pixel can be referred to as height image data (three-dimensional shape data). An image displayed based on the height image data can be called a height image. The height image is an image capable of grasping the three-dimensional shape of the observation surface of the observation object SP.

つまり、レーザー共焦点の原理では、例えばピンホール等の選択的遮光手段により、合焦時に光電子倍増管51による受光量が最も多くなり、合焦状態から離れるにつれ、光電子倍増管51による受光量が急峻に減少することを利用し、画素毎に上記相対距離を変化させた時の光電子倍増管51による受光量のピーク位置を合焦位置であると判断する。   That is, according to the principle of laser confocal, the amount of light received by the photomultiplier tube 51 is maximized at the time of focusing by selective light blocking means such as a pinhole, and the amount of light received by the photoelectron multiplier tube 51 is Using the sharp decrease, it is determined that the peak position of the amount of light received by the photomultiplier tube 51 when the relative distance is changed for each pixel is the in-focus position.

一方、フォーカス合成の原理では、撮像素子50により取得した画像から、コントラスト、高空間周波成分等に基づいて画素毎に焦点の合っている度合いを示すフォーカス値を算出し、画素毎に上記相対距離を変化させた時のフォーカス値のピーク位置を合焦位置であると判断する。   On the other hand, according to the principle of focus composition, a focus value indicating the degree of focusing for each pixel is calculated from the image acquired by the imaging device 50 based on the contrast, high spatial frequency components, etc. It is determined that the peak position of the focus value when changing.

ここで、焦点が合っていないというのは、隣接画素間の輝度差がなくなること(輝度比が1に近づくこと)であり、逆に、焦点が合っているというのは、隣接画素間の輝度差(輝度比)が、焦点が合っていないときに比べ大きい状態である。   Here, "not in focus" means that the difference in luminance between adjacent pixels disappears (the luminance ratio approaches 1), and conversely, in focus means that the luminance between adjacent pixels is not The difference (brightness ratio) is larger than when the focus is not in focus.

すなわち、フォーカス合成の原理とレーザー共焦点の原理とでは、合焦判定の方法が違うだけであり、「観察面の各点において最もピントが合っている画像が撮像された相対距離を各点の高さとする高さ画像(三次元形状画像)」を得ることや、「観察面の各点において最もピントが合っている画像を合成して、各点でピントの合った深度合成画像」を得ることについては変わりない。   That is, the principle of focus composition and the principle of laser confocal only differ in the method of focus determination, and the relative distance at which the image in focus at each point on the observation plane was taken is To obtain a height image (three-dimensional shape image) to be taken as height, or to “combine an image that is most in focus at each point on the observation surface, and obtain a depth composite image that is in focus at each point” It does not change about the thing.

(測定手順)
図8は、拡大観察装置1を用いて観察対象物SPの測定や観察を行う手順を示すフローチャートである。拡大観察装置1を起動した後、ステップSA1では観察対象物SPを電動載置台23に載置する。その後、ステップSA2では観察対象物SPの測定箇所(観察箇所)を探す。ステップSA3では観察対象物SPの測定箇所にピントを合わせる。これは上述したオートフォーカス機構によって行うことができる。
(Measurement procedure)
FIG. 8 is a flowchart showing a procedure for measuring and observing the observation object SP using the magnifying observation apparatus 1. After the magnifying observation apparatus 1 is activated, the observation object SP is mounted on the motorized mounting table 23 in step SA1. Thereafter, in step SA2, a measurement point (observation point) of the observation object SP is searched. At step SA3, the measurement point of the observation object SP is focused. This can be done by the autofocus mechanism described above.

ピントを合わせた後、ステップSA4で対物レンズ27を選択する。対物レンズ27を選択すると、電動レボルバ28が回転して選択した対物レンズ27による観察が可能になる。次いで、ステップSA5では測定原理を選択する。測定原理とは、フォーカス合成及びレーザー共焦点であり、これらのうち、一方を選択する。ステップSA6では各種パラメータを設定する。そしてステップSA7で観察対象物SPの測定箇所の測定を行う。   After focusing, the objective lens 27 is selected in step SA4. When the objective lens 27 is selected, the motorized revolver 28 rotates and observation with the selected objective lens 27 becomes possible. Next, in step SA5, the measurement principle is selected. The measurement principle is focus synthesis and laser confocal, and one of them is selected. In step SA6, various parameters are set. Then, in step SA7, the measurement point of the observation object SP is measured.

上記各ステップでは、必要に応じて表示部5にユーザーインターフェースを表示する。以下、表示部5に表示されるユーザーインターフェースについて詳細に説明する。   In each of the above steps, the user interface is displayed on the display unit 5 as necessary. Hereinafter, the user interface displayed on the display unit 5 will be described in detail.

(UI生成部72aの構成)
図4に示すように制御ユニット60は制御部72を有している。図6に示すように制御部72はUI生成部72aを有している。UI生成部72aは、表示部5に表示させるユーザーインターフェースを生成する部分である。UI生成部72aで生成されたユーザーインターフェースのデータは、操作用端末4に送られて表示部5に表示される。後述するユーザーインターフェースのデザインは一例であり、各領域、ボタン、メニュー等の表示形態は同様な機能を有する他の形態に変更することが可能である。また、各領域、ボタン、メニュー等の表示位置も図面に示された位置に限定されるものではなく、任意に設定することができる。
(Configuration of UI Generation Unit 72a)
As shown in FIG. 4, the control unit 60 has a control unit 72. As shown in FIG. 6, the control unit 72 has a UI generation unit 72a. The UI generation unit 72 a is a portion that generates a user interface to be displayed on the display unit 5. The data of the user interface generated by the UI generation unit 72 a is sent to the operation terminal 4 and displayed on the display unit 5. The design of the user interface described later is an example, and the display form of each area, button, menu, etc. can be changed to another form having the same function. Further, the display position of each area, button, menu, etc. is not limited to the position shown in the drawing, and can be set arbitrarily.

UI生成部72aは、拡大観察装置1の起動後に表示部5に表示する起動後ユーザーインターフェース80を生成する(図9参照)。この起動後ユーザーインターフェース80には、観察対象物SPの時間的変化を示すライブ画像を表示するためのライブ画像表示領域80aと、観察範囲設定用のナビゲーション画像を表示するためのナビゲーション画像表示領域80bとが左右方向に並ぶように設けられている。この実施形態では、ライブ画像表示領域80aの方が、ナビゲーション画像表示領域80bに比べて大きくなっている。ライブ画像とは、撮像素子50で順次取得された観察対象物SPの画像を、順次更新しながら表示される画像のことである。   The UI generation unit 72a generates a post-activation user interface 80 to be displayed on the display unit 5 after activation of the magnifying observation apparatus 1 (see FIG. 9). After activation, a live image display area 80a for displaying a live image showing temporal change of the observation object SP and a navigation image display area 80b for displaying a navigation image for setting an observation range on the user interface 80. And are arranged side by side in the left-right direction. In this embodiment, the live image display area 80a is larger than the navigation image display area 80b. The live image is an image displayed while sequentially updating the image of the observation object SP sequentially acquired by the imaging device 50.

ライブ画像表示領域80aには、電動載置台23に載置された観察対象物SPの画像が略リアルタイムで動画表示されるようになっており、非共焦点観察光学系30を介して撮像素子50で取得された観察対象物SPの時間的変化を示す第1ライブ画像と、共焦点観察光学系40を介して光電子倍増管51で取得された観察対象物SPの時間的変化を示す第2ライブ画像との一方を選択して表示することができる。ライブ画像は、ライブビューと呼ぶこともできる。ライブ画像を表示部5に表示させることで、使用者は各種設定変更を行う際にライブ画像を見てほぼリアルタイムで変更結果を確認することが可能になるので、利便性を向上させることができる。   In the live image display area 80a, an image of the observation object SP placed on the motorized mounting table 23 is displayed as a moving image in substantially real time, and the imaging device 50 is operated via the non-confocal observation optical system 30. And a second live image showing temporal change of the observation object SP acquired by the photomultiplier tube 51 via the confocal observation optical system 40. It is possible to select and display one with the image. Live images can also be called live views. By displaying the live image on the display unit 5, the user can view the live image and confirm the change result in substantially real time when changing various settings, thereby improving convenience. .

ここで、非共焦点観察光学系30を介して撮像素子50で取得された第1ライブ画像と、共焦点観察光学系40を介して光電子倍増管51で取得された第2ライブ画像とについて詳細に説明する。   Here, the first live image acquired by the imaging device 50 through the non-confocal observation optical system 30 and the second live image acquired by the photomultiplier tube 51 through the confocal observation optical system 40 will be described in detail. Explain to.

非共焦点観察光学系30を介して撮像素子50で取得された第1ライブ画像は、深度合成前の、いわゆる通常の顕微鏡画像であるため、ピントが合わずにボケている領域が広いものの、色やおおよその外観は確認可能な画像である。この第1ライブ画像は、一般的にも見慣れた画像であり、各種パラメータを設定するための参照用画像としては十分である。共焦点観察光学系40を介して光電子倍増管51で取得された第2ライブ画像に不慣れな使用者は、第2三次元形状測定手段66によって観察対象物SPの観察面の三次元形状を把握できる画像を取得する場合であっても、通常の顕微鏡画像(第1ライブ画像)を参照しながら観察対象物SPの観察位置決定や各種パラメータの設定をする方が直観的で好ましいことがある。   The first live image acquired by the imaging device 50 via the non-confocal observation optical system 30 is a so-called ordinary microscope image before depth combination, so a wide out-of-focus area is obtained, The color and approximate appearance are identifiable images. This first live image is a generally familiar image and is sufficient as a reference image for setting various parameters. A user who is not accustomed to the second live image acquired by the photomultiplier 51 via the confocal observation optical system 40 grasps the three-dimensional shape of the observation surface of the observation object SP by the second three-dimensional shape measurement means 66 Even when acquiring a possible image, it may be intuitive and preferable to determine the observation position of the observation object SP or set various parameters while referring to a normal microscope image (first live image).

一方、共焦点観察光学系40を介して光電子倍増管51で取得された第2ライブ画像は、深度合成前の共焦点画像のため、ピントの合っていない領域は真っ暗に映り、観察対象物SPの全体像がつかみにくい。また、第2ライブ画像は輝度情報のみであるため、色を確認することができず、観察対象物SPのどの部分が映っているかを把握するには、慣れが必要である。第2三次元形状測定手段66によって観察対象物SPの観察面の三次元形状を把握できる画像を取得するのであれば、共焦点画像(第2ライブ画像)を見慣れた人にとっては、第2ライブ画像を参照しながら観察対象物SPの観察位置決定やパラメータ設定をするほうが直観的で好ましいことがある。   On the other hand, the second live image acquired by the photomultiplier tube 51 via the confocal observation optical system 40 is a confocal image before depth combination, so the unfocused area looks completely dark and the observation object SP It is difficult to grasp the whole picture of In addition, since the second live image is only luminance information, the color can not be confirmed, and it is necessary to get used to grasp which part of the observation object SP is displayed. If an image capable of grasping the three-dimensional shape of the observation surface of the observation object SP is acquired by the second three-dimensional shape measurement means 66, the second live is for people who are familiar with the confocal image (second live image). It may be intuitive and preferable to perform observation position determination and parameter setting of the observation object SP while referring to the image.

起動後ユーザーインターフェース80のライブ画像表示領域80aの上方には、その左側に「カメラ」ボタン及び「レーザー」ボタンからなるライブ画像選択ボタン80cが表示されており、このライブ画像選択ボタン80cをマウス7等で操作して、「カメラ」ボタンを押下すると、非共焦点観察光学系30を介して撮像素子50で取得された第1ライブ画像をライブ画像表示領域80aに表示させ、「レーザー」ボタンを押下すると、共焦点観察光学系40を介して光電子倍増管51で取得された第2ライブ画像をライブ画像表示領域80aに表示させる(図10参照)。つまり、制御部72は、第1ライブ画像と第2ライブ画像との一方を選択して表示可能にするライブ画像表示領域80aを生成して表示部5に表示させるように構成されている。これは制御ユニット60が各部を制御することによって実行される。   After activation, above the live image display area 80a of the user interface 80, a live image selection button 80c consisting of a "camera" button and a "laser" button is displayed on the left side of the live image display area 80a. When the "camera" button is pressed by operating the camera, etc., the first live image acquired by the imaging device 50 through the non-confocal observation optical system 30 is displayed on the live image display area 80a, and the "laser" button is displayed. When pressed, the second live image acquired by the photomultiplier tube 51 via the confocal observation optical system 40 is displayed on the live image display area 80a (see FIG. 10). That is, the control unit 72 is configured to generate the live image display area 80 a that allows one of the first live image and the second live image to be displayed and to be displayed on the display unit 5. This is performed by the control unit 60 controlling each part.

起動後ユーザーインターフェース80のライブ画像表示領域80aの上方には、表示されているライブ画像の明るさを調整する明るさ調整部80dが設けられている。明るさ調整部80dをマウス7等で操作することにより、ライブ画像表示領域80aに表示されているライブ画像の明るさを調整することができる。   After activation, above the live image display area 80a of the user interface 80, a brightness adjustment unit 80d is provided which adjusts the brightness of the displayed live image. By operating the brightness adjustment unit 80d with the mouse 7 or the like, the brightness of the live image displayed in the live image display area 80a can be adjusted.

起動後ユーザーインターフェース80のライブ画像表示領域80aの上方には、非共焦点観察光学系30を介して撮像素子50で撮像する際の照明を選択するための照明選択ボタン80eが設けられている。照明選択ボタン80eをマウス7等で操作すると、図11に示すように選択枝が表示される。選択枝は、「同軸+リング」、「同軸」、「リング」及び「OFF」の4つである。「同軸+リング」を選択すると、制御部72が有している照明制御部72c(図6に示す)は、同軸落射照明24及びリング照明25の両方を点灯させる。「同軸」を選択すると、照明制御部72cは同軸落射照明24を点灯させ、リング照明25を消灯させる。「リング」を選択すると、照明制御部72cは同軸落射照明24を消灯させ、リング照明25を点灯させる。「OFF」を選択すると、照明制御部72cは同軸落射照明24及びリング照明25の両方を消灯させる。   After activation, above the live image display area 80a of the user interface 80, an illumination selection button 80e for selecting illumination at the time of imaging with the imaging device 50 via the non-confocal observation optical system 30 is provided. When the illumination selection button 80e is operated by the mouse 7 or the like, a selection branch is displayed as shown in FIG. There are four options: "coaxial + ring", "coaxial", "ring" and "OFF". When “Coaxial + Ring” is selected, the illumination control unit 72 c (shown in FIG. 6) included in the control unit 72 turns on both the coaxial epi-illumination 24 and the ring illumination 25. When "coaxial" is selected, the illumination control unit 72c turns on the coaxial epi-illumination light 24 and turns off the ring illumination 25. When the “ring” is selected, the illumination control unit 72 c turns off the coaxial incident illumination 24 and turns on the ring illumination 25. When "OFF" is selected, the illumination control unit 72c turns off both the coaxial epi-illumination 24 and the ring illumination 25.

図12は、同軸落射照明24のみを使用して撮像した第1ライブ画像を示しており、図13は、リング照明25のみを使用して撮像した第1ライブ画像を示しており、図14は、同軸落射照明24及びリング照明25の両方を使用して撮像した第1ライブ画像を示している。   FIG. 12 shows the first live image taken using only the coaxial epi-illumination 24, FIG. 13 shows the first live image taken using only the ring illumination 25, and FIG. , A first live image captured using both coaxial epi-illumination 24 and ring illumination 25.

照明制御部72cは、同軸落射照明24の光量及びリング照明25の光量を別々に調整することができるように構成されている。例えば、「同軸+リング」が選択されていて、同軸落射照明24及びリング照明25が同時に観察対象物SPを照明している場合に、同軸落射照明24の光量及びリング照明25の光量を独立して調整することが可能になっている。すなわち、「同軸+リング」を選択すると、図15に示すように、同軸落射照明24の光量及びリング照明25の光量を独立して調整するための光量調整領域83が表示される。光量調整領域83では、同軸落射照明24の光量及びリング照明25の光量をそれぞれ0〜100の間で変更することができる。値が小さくなるほど光量が減少する。光量調整領域83は、当該領域に表示されている「OK」ボタンまたは「キャンセル」ボタンを操作することで消すことができる。調整結果に基づいて照明制御部72cが同軸落射照明24及びリング照明25の光量を制御する。   The illumination control unit 72 c is configured to be able to separately adjust the light amount of the coaxial incident light 24 and the light amount of the ring light 25. For example, when "coaxial + ring" is selected and the coaxial epi-illumination 24 and the ring illumination 25 simultaneously illuminate the observation object SP, the light quantity of the coaxial epi-illumination 24 and the light quantity of the ring illumination 25 are made independent. Can be adjusted. That is, when “Coaxial + Ring” is selected, a light amount adjustment area 83 for adjusting the light amount of the coaxial incident light 24 and the light amount of the ring light 25 independently is displayed as shown in FIG. In the light amount adjustment area 83, the light amount of the coaxial incident light 24 and the light amount of the ring light 25 can be changed between 0 and 100, respectively. As the value decreases, the light amount decreases. The light amount adjustment area 83 can be erased by operating the “OK” button or the “Cancel” button displayed in the area. The illumination control unit 72c controls the amount of light of the coaxial incident illumination 24 and the ring illumination 25 based on the adjustment result.

同軸落射照明24及びリング照明25の制御は使用者が手動で調整することもできるが、照明制御部72cが自動で調整するように構成することもできる。例えば、撮像素子50で撮像した画像のヒストグラムを制御部72が解析し、画像が所定の明るさよりも明るい場合には光量を低下させ、一方、画像が所定の明るさよりも暗い場合には光量を増加させるように、照明制御部72cが同軸落射照明24及びリング照明25の少なくとも一方を制御する。また、同様にして、同軸落射照明24及びリング照明25の両方を点灯させるか、一方を点灯させるかも自動的に設定することができる。   The control of the coaxial epi-illumination light 24 and the ring light 25 can be manually adjusted by the user, but can be configured so that the light control unit 72 c automatically adjusts. For example, the control unit 72 analyzes the histogram of the image captured by the imaging device 50 and reduces the light amount if the image is brighter than the predetermined brightness, while the light amount is decreased if the image is darker than the predetermined brightness The illumination control unit 72c controls at least one of the coaxial epi-illumination 24 and the ring illumination 25 so as to increase. Similarly, it is possible to automatically set whether to turn on both the coaxial epi-illumination light 24 and the ring illumination 25 or to turn on one of them.

また、起動後ユーザーインターフェース80の右側には、スキャンモード選択ボタン80gが設けられている。この実施形態では、スキャンモードは、フォーカス合成の原理を使用して観察対象物SPの観察面の三次元形状を把握するフォーカス合成モード(第1測定モード)と、レーザー共焦点の原理を使用して観察対象物SPの観察面の三次元形状を把握するレーザー共焦点モード(第2測定モード)とがある。スキャンモード選択ボタン80gを操作することで、フォーカス合成モードとレーザー共焦点モードとのうち、一方を選択することができる。フォーカス合成モードが選択されると、第1三次元形状測定手段65によって観察対象物SPの観察面の三次元形状を把握できる画像を取得し、一方、レーザー共焦点モードが選択されると、第2三次元形状測定手段66によって観察対象物SPの観察面の三次元形状を把握できる画像を取得する。   In addition, on the right side of the user interface 80 after activation, a scan mode selection button 80g is provided. In this embodiment, the scan mode uses a focus synthesis mode (first measurement mode) for grasping the three-dimensional shape of the observation surface of the observation object SP using the principle of focus synthesis, and the principle of laser confocal. Laser confocal mode (second measurement mode) for grasping the three-dimensional shape of the observation surface of the observation object SP. By operating the scan mode selection button 80g, one of the focus combining mode and the laser confocal mode can be selected. When the focus combining mode is selected, an image capable of grasping the three-dimensional shape of the observation surface of the observation object SP is acquired by the first three-dimensional shape measuring means 65, while when the laser confocal mode is selected, 2) The three-dimensional shape measurement means 66 acquires an image capable of grasping the three-dimensional shape of the observation surface of the observation object SP.

また、起動後ユーザーインターフェース80のナビゲーション画像表示領域80bの上側には、対物レンズ表示領域80hが設けられている。対物レンズ表示領域80hには、現在、電動レボルバ28に取り付けられている対物レンズ27がその倍率と共に図で表示されている。使用者が電動レボルバ28に取り付けた対物レンズ27の種類(リング照明の有無を含む)を手動で入力することによって制御ユニット60が対物レンズ27の種類を記憶し、対物レンズ表示領域80hに表示させることができる。また、対物レンズ表示領域80hには、リング照明25の有無も表示させることができる。尚、電動レボルバ28に取り付けた対物レンズ27の種類を自動認識できるようにして制御ユニット60に記憶させてもよい。   Further, an objective lens display area 80 h is provided on the upper side of the navigation image display area 80 b of the user interface 80 after activation. In the objective lens display area 80h, the objective lens 27 currently attached to the motorized revolver 28 is displayed in the figure together with the magnification. The control unit 60 stores the type of the objective lens 27 by manually inputting the type of the objective lens 27 (including the presence or absence of the ring illumination) attached to the motorized revolver 28 by the user, and causes the objective lens display area 80h to display the type. be able to. Further, the presence or absence of the ring illumination 25 can also be displayed in the objective lens display area 80 h. The type of the objective lens 27 attached to the electric revolver 28 may be stored in the control unit 60 so that it can be automatically recognized.

使用者が対物レンズ表示領域80hに表示されている対物レンズ27を選択すると、その対物レンズ27が選択されていることが分かるように対物レンズ表示領域80hに表示するとともに、電動レボルバ制御部61により電動レボルバ28を制御して選択された対物レンズ27による観察が可能となるように電動レボルバ28を回転させる。図16は高倍率の対物レンズ27に変更された場合を示している。   When the user selects the objective lens 27 displayed in the objective lens display area 80h, the display is made in the objective lens display area 80h so that it can be understood that the objective lens 27 is selected. The motorized revolver 28 is controlled to control the motorized revolver 28 so that observation with the selected objective lens 27 is possible. FIG. 16 shows the case where the objective lens 27 of high magnification is changed.

(ナビゲーション画像作成)
図9に示す起動後ユーザーインターフェース80のナビゲーション画像表示領域80bの下方には、ナビゲーション画像を作成してナビゲーション画像表示領域80bに表示させるためのナビゲーション画像作成ボタン80fが設けられている。表示部5は、起動後ユーザーインターフェース80を表示させることにより、後述するようにして取得したナビゲーション画像を表示させることができる。ナビゲーション画像とは、使用者によって観察範囲を設定するための観察範囲設定用の画像のことであり、一般的には、現在選択している対物レンズ27の視野よりも広い範囲を撮像した画像となる。
(Create navigation image)
Under the navigation image display area 80b of the start-up user interface 80 shown in FIG. 9, a navigation image creation button 80f is provided for creating a navigation image and displaying it in the navigation image display area 80b. The display unit 5 can display the navigation image acquired as described later by displaying the user interface 80 after activation. The navigation image is an image for setting the observation range for setting the observation range by the user, and in general, an image obtained by imaging an area wider than the field of view of the currently selected objective lens 27 Become.

すなわち、制御ユニット60は、観察用照明により観察対象物SPに光を照射した状態で、ナビゲーション画像を第1の撮像条件で前記撮像素子50または光電子倍増管51により取得するナビゲーション画像取得手段68(図4に示す)を備えており、図9に示すナビゲーション画像作成ボタン80fを操作すると、ナビゲーション画像取得手段68がナビゲーション画像の作成を開始する。第1の撮像条件には、観察光学系の倍率、観察用照明の照明条件、撮像素子50及び光電子倍増管51の露光時間を含んでいる。   That is, in a state where the observation target SP is irradiated with light by the observation illumination, the control unit 60 acquires the navigation image by the image pickup device 50 or the photomultiplier tube 51 under the first imaging condition. When the navigation image creation button 80f shown in FIG. 9 is operated, the navigation image acquisition means 68 starts creating a navigation image. The first imaging condition includes the magnification of the observation optical system, the illumination condition of the observation illumination, and the exposure time of the imaging device 50 and the photomultiplier tube 51.

観察光学系の倍率は、電動レボルバ28の回転によって選択された対物レンズ27の倍率と関連付けることができ、また、電動ズームレンズの場合はそのときの倍率とすることができる。観察用照明の照明条件には、同軸落射照明24とリング照明25の照明パラメータを含んでいる。照明パラメータには、同軸落射照明24のみ点灯、リング照明25のみ点灯、同軸落射照明24及びリング照明25の点灯、同軸落射照明24及びリング照明25の消灯、同軸落射照明24及びリング照明25の光量等が含まれている。撮像素子50及び光電子倍増管51の露光時間は制御部72によって適した露光時間となるように調整される。図4に示すように、制御ユニット60は撮像条件記憶部70を備えており、この撮像条件記憶部70に前記第1の撮像条件が記憶される。   The magnification of the observation optical system can be related to the magnification of the objective lens 27 selected by the rotation of the motorized revolver 28, and in the case of the motorized zoom lens, can be the magnification at that time. The illumination conditions of the observation illumination include illumination parameters of the coaxial epi-illumination 24 and the ring illumination 25. As the illumination parameters, only the coaxial epi-illumination 24 is lit, only the ring illumination 25 is illuminated, the coaxial epi-illumination 24 and the ring illumination 25 are lit, the coaxial epi-illumination 24 and the ring illumination 25 are extinguished, and the coaxial epi-illumination 24 and the ring illumination 25 are illuminated. Etc. are included. The exposure time of the imaging device 50 and the photomultiplier tube 51 is adjusted by the control unit 72 to be a suitable exposure time. As shown in FIG. 4, the control unit 60 includes an imaging condition storage unit 70, and the first imaging condition is stored in the imaging condition storage unit 70.

ナビゲーション画像取得手段68は、撮像条件記憶部70から第1の撮像条件を読み込んだ後、各部を第1の撮像条件となるように制御する。このとき、使用者が撮像条件のうち、1つまたは複数を変更することもできる。   After reading the first imaging condition from the imaging condition storage unit 70, the navigation image acquisition unit 68 controls each unit to be the first imaging condition. At this time, the user can also change one or more of the imaging conditions.

その後、ナビゲーション画像取得手段68は、非共焦点観察光学系30を介して撮像素子50により観察対象物SPの第1領域を撮像する。次いで、ナビゲーション画像取得手段68は、載置台制御部62によってステージ駆動部54を制御させ、電動載置台23をX方向またはY方向に移動させる。その後、ナビゲーション画像取得手段68は、非共焦点観察光学系30を介して撮像素子50により観察対象物SPの第2領域を撮像する。次いで、ナビゲーション画像取得手段68が電動載置台23をX方向またはY方向に移動させ、非共焦点観察光学系30を介して撮像素子50により観察対象物SPの第3領域を撮像する。   Thereafter, the navigation image acquisition means 68 images the first region of the observation object SP with the imaging device 50 via the non-confocal observation optical system 30. Next, the navigation image acquisition means 68 controls the stage driving unit 54 by the mounting table control unit 62, and moves the electric mounting table 23 in the X direction or the Y direction. Thereafter, the navigation image acquisition means 68 images the second region of the observation object SP with the imaging device 50 via the non-confocal observation optical system 30. Next, the navigation image acquisition means 68 moves the motorized mounting table 23 in the X direction or the Y direction, and images the third region of the observation object SP with the imaging element 50 via the non-confocal observation optical system 30.

このようにして観察対象物SPの複数の領域を隙間無く撮像し、撮像した画像を図17に示すようにナビゲーション画像表示領域80bに表示する。複数の撮像した画像を、撮像した順番でナビゲーション画像表示領域80bに表示させてもよいし、複数の撮像した画像を同時にナビゲーション画像表示領域80bに表示させてもよい。複数の撮像した画像を、撮像した順番でナビゲーション画像表示領域80bに表示させる場合には、横方向(X方向)や縦方向(Y方向)に順に並ぶように表示させる方法や、渦巻き状に並ぶように表示させる方法等がある。複数の撮像した画像同士の連結は、従来から周知の手法によって隙間ができないように、かつ、重複表示されないようにする。   Thus, a plurality of areas of the observation object SP are imaged without a gap, and the imaged image is displayed in the navigation image display area 80b as shown in FIG. A plurality of captured images may be displayed in the navigation image display area 80b in the order of capturing, or a plurality of captured images may be simultaneously displayed in the navigation image display area 80b. When displaying a plurality of captured images in the captured image order in the navigation image display area 80b, a method of displaying them so as to be sequentially arranged in the horizontal direction (X direction) or the vertical direction (Y direction) There is a method etc. The connection between a plurality of captured images is made so as not to cause gaps and to prevent overlapping display by a conventionally known method.

ナビゲーション画像表示領域80bには、使用者が観察する観察位置及び/又は観察視野を示す枠Aが表示される。枠Aの大きさは、対物レンズ27を変更することによって変わる。例えば対物レンズ27の倍率が高くなると視野が狭くなるので、その分、枠Aが小さくなる(図16参照)。   In the navigation image display area 80b, a frame A indicating the observation position and / or the observation field of view observed by the user is displayed. The size of the frame A is changed by changing the objective lens 27. For example, as the magnification of the objective lens 27 increases, the field of view narrows, so the frame A becomes smaller accordingly (see FIG. 16).

ナビゲーション画像は、共焦点観察光学系40を介して光電子倍増管51により観察対象物SPの複数の領域を撮像することによって取得するようにしてもよい。   The navigation image may be acquired by imaging a plurality of areas of the observation object SP with the photomultiplier tube 51 via the confocal observation optical system 40.

(ナビゲーション画像の領域追加)
ナビゲーション画像表示領域80bにナビゲーション画像が表示されると、図17に示すように、ナビゲーション画像作成ボタン80fが消えて、そのナビゲーション画像作成ボタン80fが表示されていた部分に追加指定ボタン81が表示される。
(Add area of navigation image)
When the navigation image is displayed in the navigation image display area 80b, as shown in FIG. 17, the navigation image creation button 80f disappears, and the addition designation button 81 is displayed in the portion where the navigation image creation button 80f was displayed. Ru.

例えば、視野の広い低倍率の対物レンズ27を使用してナビゲーション画像を作成しておき、その後、高倍率の対物レンズ27に切り替えて観察対象物SPを観察するのが一般的であるが、このような使われ方がされている時、電動載置台23を使用者がXY方向に動かし、これまでとは別の範囲を観察しようとすることがあり、そうすると作成されていた既存のナビゲーション画像の範囲から観察範囲が外れてしまう場合がある。この場合、使用者が観察対象物SPのどの部分を観察しているのか分からなくなるため、ナビゲーション画像を追加取得したくなる。このときに使用者が追加指定ボタン81を操作することで、ナビゲーション画像取得手段68がナビゲーション画像の追加取得を実行する。使用者がマウス7等によって追加指定ボタン81を操作することは、ナビゲーション画像表示領域80bに既に表示されているナビゲーション画像(既存のナビゲーション画像)への領域の追加指定を行ったことになり、これをナビゲーション画像取得手段68で検出することができる。   For example, it is common to create a navigation image using a wide-field, low-magnification objective lens 27 and then switch to a high-magnification objective lens 27 to observe the observation object SP. When being used like this, the user may move the motorized mounting table 23 in the X and Y directions and try to observe a different range from before, and in doing so, the existing navigation image that has been created The observation range may deviate from the range. In this case, since it is not clear which part of the observation object SP the user is observing, it is desired to additionally acquire a navigation image. At this time, when the user operates the addition designation button 81, the navigation image acquisition means 68 executes the additional acquisition of the navigation image. When the user operates the addition designation button 81 with the mouse 7 or the like, it means that the addition of the area to the navigation image (the existing navigation image) already displayed in the navigation image display area 80b is performed. Can be detected by the navigation image acquisition means 68.

ナビゲーション画像取得手段68は、使用者による既存のナビゲーション画像への領域の追加指定がなされたことを検出すると、その追加指定に基づいて、追加すべき領域(追加領域ともいう。)に対応して載置台制御部62を制御するとともに、現在の撮像条件が撮像条件記憶部70に記憶されている第1の撮像条件と異なる場合には、撮像条件を第1の撮像条件に変更して撮像素子50または光電子倍増管51により追加すべき領域を取得し、取得した追加すべき領域の画像とナビゲーション画像とを表示部5に表示させるように構成されている。どの領域を追加するかは、枠Aの位置に基づいて判断することができる。   When the navigation image acquisition means 68 detects that the user has made an addition specification of the area to the existing navigation image, the navigation image acquisition means 68 corresponds to the area to be added (also referred to as an addition area) based on the addition specification. While controlling the mounting table control unit 62, if the current imaging condition is different from the first imaging condition stored in the imaging condition storage unit 70, the imaging condition is changed to the first imaging condition and the imaging element is changed. An area to be added is acquired by the photomultiplier 50 or the photomultiplier 51, and the acquired image of the area to be added and the navigation image are displayed on the display unit 5. Which region is to be added can be determined based on the position of the frame A.

ナビゲーション画像に対する追加すべき領域の画像の追加方向を、ナビゲーション画像が表示された表示部5上の位置の指定に基づいて設定可能となっている。例えば、表示部5上においてナビゲーション画像よりも上方をマウス7等によって指定すると、追加すべき領域の画像の追加方向は「上」となり、観察対象物SPにおける既存のナビゲーション画像よりも上方の領域を撮像し、既存のナビゲーション画像の上方に追加する(図18参照)。マウス7等による位置指定は、表示部5上においてナビゲーション画像よりも下、右、左、斜め上、斜め下等のように指定することができ、指定された方向に追加する。   The addition direction of the image of the area to be added to the navigation image can be set based on the designation of the position on the display unit 5 where the navigation image is displayed. For example, when the upper side of the navigation image is designated by the mouse 7 or the like on the display unit 5, the additional direction of the image of the area to be added is "upper", and the area above the existing navigation image in the observation object SP Take an image and add it above the existing navigation image (see FIG. 18). The position designation by the mouse 7 or the like can be designated on the display unit 5 as below, right, left, obliquely upper, obliquely lower or the like than the navigation image, and is added in the designated direction.

図19に示すように、マウス7による選択操作(例:クリック操作等)を行うと、枠Bがナビゲーション画像表示領域80bに表示され、この状態でマウス7の右ボタンをクリックすると、メニュー84がナビゲーション画像表示領域80bに表示される。メニュー84には、「枠Bで囲まれた範囲を観察視野にする」、「枠Bで囲まれた範囲において追加領域の連結を行う」、「枠Bで囲まれた範囲のナビゲーション画像を取得する」の3つの選択枝が表示される。   As shown in FIG. 19, a frame B is displayed in the navigation image display area 80b when a selection operation (e.g., a click operation) is performed by the mouse 7. When the right button of the mouse 7 is clicked in this state, a menu 84 is displayed. It is displayed in the navigation image display area 80b. In the menu 84, "use the range surrounded by the frame B as the observation field of view", "connect the additional area in the range surrounded by the frame B", and "obtain the navigation image of the range surrounded by the frame B Three options of "to" are displayed.

メニュー84の「枠Bで囲まれた範囲を観察視野にする」を選択すると、観察視野が枠Bで囲まれた範囲となるように、載置台制御部62によってステージ駆動部54を制御させ、電動載置台23をX方向またはY方向に移動させる。これにより、枠Bで囲まれた範囲が対物レンズ27の視野と略一致し、観察視野になる。   When “set the range surrounded by frame B as the observation field of view” in the menu 84 is selected, the stage driving unit 54 is controlled by the mounting table control unit 62 so that the observation field of view is the range surrounded by the frame B, The motorized mounting table 23 is moved in the X direction or the Y direction. As a result, the range surrounded by the frame B substantially matches the field of view of the objective lens 27 and becomes the observation field of view.

メニュー84の「枠Bで囲まれた範囲において追加領域の連結を行う」を選択すると、枠Bで囲まれた範囲が既存のナビゲーション画像外に位置していれば、既存のナビゲーション画像外の部分について追加すべき領域を取得すべく、電動載置台23をX方向またはY方向に移動させて撮像を行う。このようにして取得した追加すべき領域の画像とナビゲーション画像とを表示部5に表示させる。   When "concatenate additional areas in the range surrounded by frame B" in the menu 84 is selected, if the range surrounded by the frame B is located outside the existing navigation image, a part outside the existing navigation image In order to obtain an area to be added, the motorized mounting table 23 is moved in the X direction or the Y direction to perform imaging. The display unit 5 displays the image of the area to be added and the navigation image acquired in this manner.

メニュー84の「枠Bで囲まれた範囲のナビゲーション画像を取得する」を選択すると、ナビゲーション画像取得手段68が、枠Bで囲まれた範囲のナビゲーション画像を取得すべく、電動載置台23をX方向またはY方向に移動させて撮像を行う。このようにして取得した追加すべき領域の画像とナビゲーション画像とを表示部5に表示させる。また、枠Bはマウス7の操作によってドラッグすることができ、これにより枠Bの位置を変更できる。また、枠Bを形成する位置は、マウス7による初期の選択操作位置に対応する位置とすることができ、マウス7による初期の選択操作の位置によって枠Bを形成する位置を変更することができる。   When "acquire a navigation image of a range surrounded by frame B" of the menu 84, the navigation image acquisition means 68 X the motorized mounting table 23 in order to acquire a navigation image of the range surrounded by a frame B. Move in the direction or Y direction to perform imaging. The display unit 5 displays the image of the area to be added and the navigation image acquired in this manner. Further, the frame B can be dragged by the operation of the mouse 7, whereby the position of the frame B can be changed. Further, the position at which the frame B is formed can be a position corresponding to the initial selection operation position by the mouse 7, and the position at which the frame B is formed can be changed according to the position of the initial selection operation by the mouse 7. .

ナビゲーション画像が表示された表示部5上の位置の指定に基づいて、ナビゲーション画像の一方向にのみ追加領域の画像を連結することができる。例えば、表示部5上においてナビゲーション画像よりも上方をマウス7等によって指定すると、既存のナビゲーション画像の上方向にのみ追加領域の画像を連結することができる。これにより、使用者が欲しい領域のみナビゲーション画像を追加することができ、追加領域の作成時間が短くて済む。尚、マウス7等による位置指定はどの方向であってもよい。また、マウス7等による位置指定が行われると、特定の方向だけでなく、既存のナビゲーション画像の全周に対して追加領域の画像を連結するようにしてもよい。   Based on the designation of the position on the display unit 5 where the navigation image is displayed, it is possible to connect the image of the additional area only in one direction of the navigation image. For example, when the upper side of the navigation image on the display unit 5 is designated by the mouse 7 or the like, the image of the additional area can be connected only in the upper direction of the existing navigation image. As a result, the navigation image can be added only to the area desired by the user, and the time for creating the additional area can be shortened. The position designation by the mouse 7 or the like may be in any direction. Further, when the position designation by the mouse 7 or the like is performed, the image of the additional area may be connected not only to the specific direction but also to the entire circumference of the existing navigation image.

使用者が指定した位置が、既存のナビゲーション画像から大きく離れている場合がある。このような場合には、追加領域の画像が既存のナビゲーション画像から離れてしまうことがあるが、追加領域の画像と既存のナビゲーション画像との間に追加する補完画像を、ナビゲーション画像取得手段68が取得し、その補完画像をナビゲーション画像表示領域80b(表示部5)に表示させる。つまり、既存のナビゲーション画像と、追加領域の画像と、それらの間を補完する補完画像とを表示させることができる。   The position designated by the user may be far from the existing navigation image. In such a case, although the image of the additional area may be separated from the existing navigation image, the navigation image acquisition means 68 adds a complementary image to be added between the image of the additional area and the existing navigation image. It acquires and the complement image is displayed on the navigation image display area 80b (display part 5). That is, it is possible to display an existing navigation image, an image of the additional area, and a complementary image that complements them.

ナビゲーション画像取得手段68は、撮像素子50によりナビゲーション画像を取得し、観察画像取得部69は、光電子増倍管51により観察画像を取得するように構成することもできる。   The navigation image acquisition unit 68 may be configured to acquire a navigation image by the imaging device 50, and the observation image acquisition unit 69 may be configured to acquire an observation image by the photomultiplier tube 51.

(測定パラメータ設定部67の構成)
起動後ユーザーインターフェース80の上部には各種ボタンが設けられており、そのうち、基本測定ボタン80iを操作すると、図20に示すように起動後ユーザーインターフェース80の右側に基本測定表示領域(パラメータ表示領域)82が表示される。基本測定表示領域82には、測定パラメータを設定するとともに、フォーカス合成モードとレーザー共焦点モードで共通化された第1設定表示領域82aと、照明条件パラメータを設定するとともに、フォーカス合成モードとレーザー共焦点モードで非共通化された第2設定表示領域82bと、フォーカス合成モードとレーザー共焦点モードで共通化された第3設定表示領域82cとを有している。測定パラメータには、撮像素子50のゲインや、高さに関する測定パラメータ、照明条件パラメータ等が含まれる。第1設定表示領域82a、第2設定表示領域82b及び第3設定表示領域82cは上下方向に並ぶように設けられており、使用者が各領域を区別することができるようになっている。
(Configuration of measurement parameter setting unit 67)
After activation, various buttons are provided on the upper part of the user interface 80. Among them, when the basic measurement button 80i is operated, as shown in FIG. 20, the basic measurement display area (parameter display area) on the right side of the user interface 80 after activation. 82 is displayed. In the basic measurement display area 82, measurement parameters are set, and a first setting display area 82a common to the focusing and synthesis modes and the laser confocal mode, and illumination condition parameters are set. It has a second setting display area 82b which is not shared in the focus mode, and a third setting display area 82c which is shared in the focusing mode and the laser confocal mode. The measurement parameters include the gain of the imaging device 50, the measurement parameter related to the height, the illumination condition parameter, and the like. The first setting display area 82a, the second setting display area 82b, and the third setting display area 82c are provided to be aligned in the vertical direction, so that the user can distinguish between the areas.

高さに関する測定パラメータには、対物レンズ27と電動載置台23との離間距離の上限値及び下限値と、フォーカス位置(例えばピントが合ったときのZ座標)とが含まれる。高さに関する測定パラメータは高さ情報検知部53で得ることができ、記憶部73に記憶させておくことができる。   The measurement parameters regarding the height include the upper limit value and the lower limit value of the separation distance between the objective lens 27 and the motorized mounting table 23, and the focus position (for example, the Z coordinate when the focus is achieved). The measurement parameter regarding the height can be obtained by the height information detection unit 53, and can be stored in the storage unit 73.

第1設定表示領域82aには、対物レンズ27と電動載置台23との離間距離の上限値及び下限値を個別に設定することができる領域と、オートフォーカスを行うオートフォーカスボタンとが設けられている。これは高さに関する測定パラメータ設定領域である。   The first setting display area 82a is provided with an area in which the upper limit value and the lower limit value of the separation distance between the objective lens 27 and the motorized mounting table 23 can be set individually, and an autofocus button for performing autofocus. There is. This is a measurement parameter setting area regarding height.

第2設定表示領域82bには、ライブ画像表示領域80aに表示されているライブ画像の明るさを調整する明るさ調整部が設けられている。第2設定表示領域82bの明るさ調整部は、ライブ画像表示領域80aの上方の明るさ調整部80dと連動させることができる。   In the second setting display area 82b, a brightness adjustment unit is provided which adjusts the brightness of the live image displayed in the live image display area 80a. The brightness adjustment unit of the second setting display area 82b can be interlocked with the brightness adjustment unit 80d above the live image display area 80a.

第2設定表示領域82bは、フォーカス合成モードとレーザー共焦点モードで異なっており、明るさ調整部はいずれのモードでも設けられる一方、フォーカス合成モードでは、照明選択ボタンと詳細設定ボタンとが設けられ、レーザー共焦点モードでは、照明選択ボタン及び詳細設定ボタンが無く、減光フィルタ選択メニューが設けられている。   The second setting display area 82b is different in the focus combining mode and the laser confocal mode, and the brightness adjustment unit is provided in any mode, while in the focus combining mode, the illumination selection button and the detail setting button are provided. In the laser confocal mode, there is no illumination selection button and detailed setting button, and a dimming filter selection menu is provided.

照明選択ボタンは、上述した照明選択ボタン80eと同様に、「同軸+リング」、「同軸」、「リング」及び「OFF」の中から任意の1つを選択することができるボタンである。詳細設定ボタンは、上述した光量調整領域83と同様に同軸落射照明24の光量及びリング照明25の光量を独立して調整するためのボタンである。減光フィルタ選択メニューは、減光フィルタ48の適用、非適用の他、適用する場合に減光率を設定するためのものである。減光フィルタ選択メニューによって設定された状態となるように、制御ユニット60が減光フィルタ48を制御する。これらは照明条件パラメータである。   The illumination selection button is a button which can select any one of “coaxial + ring”, “coaxial”, “ring” and “OFF”, as in the above-described illumination selection button 80 e. The detail setting button is a button for independently adjusting the light amount of the coaxial epi-illumination light 24 and the light amount of the ring illumination 25 as in the light amount adjustment area 83 described above. The light reduction filter selection menu is for setting the light reduction rate when applied, in addition to application or non-application of the light reduction filter 48. The control unit 60 controls the dimmer filter 48 so as to be in the state set by the dimmer filter selection menu. These are lighting condition parameters.

第3設定表示領域82cは、測定サイズ、測定品質、Z方向の測定ピッチを設定することができる領域である。測定サイズとは、たとえば1024×768(ピクセル)を標準サイズとしており、第3設定表示領域82cでは標準サイズよりも大きな測定サイズ及び標準サイズよりも小さな測定サイズを選択することができる。具体的には、標準(例えば1024×768)、高解像度(例えば2048×1536)、1/12(例えば1024×64)、1ライン(例えば1024×1)等で表示することができる。Z方向の測定ピッチは、フォーカス探索時のZ軸駆動部52による相対距離の変更ピッチのことであり、例えば、複数段階に設定することができ、これは高さに関する測定パラメータに含まれる。測定品質とは、精度を重視した「高精度」、速度を重視した「高速」、より高速な「超高速」等の中から選択できる。   The third setting display area 82c is an area where the measurement size, the measurement quality, and the measurement pitch in the Z direction can be set. The measurement size is, for example, 1024 × 768 (pixels) as a standard size, and in the third setting display area 82c, a measurement size larger than the standard size and a measurement size smaller than the standard size can be selected. Specifically, display can be made with standard (for example, 1024 × 768), high resolution (for example, 2048 × 1536), 1/12 (for example, 1024 × 64), one line (for example, 1024 × 1), or the like. The measurement pitch in the Z direction is a change pitch of the relative distance by the Z-axis drive unit 52 at the time of focus search, and can be set, for example, in a plurality of stages, and this is included in the measurement parameter regarding height. Measurement quality can be selected from "high accuracy" with emphasis on accuracy, "high speed" with emphasis on speed, and "super high speed" with higher speed.

図18〜図20は、第1三次元形状測定手段65による測定モード用パラメータ設定領域を基本測定表示領域82に表示した場合を示しており、図11は、第2三次元形状測定手段66による測定モード用パラメータ設定領域を基本測定表示領域82に表示した場合を示している。   18 to 20 show the case where the measurement mode parameter setting area by the first three-dimensional shape measurement means 65 is displayed in the basic measurement display area 82, and FIG. 11 shows the case where the second three-dimensional shape measurement means 66 The case where the measurement mode parameter setting area is displayed in the basic measurement display area 82 is shown.

スキャンモード選択ボタン80gの操作により、第1三次元形状測定手段65による測定モード用パラメータ設定領域と、第2三次元形状測定手段66による測定モード用パラメータ設定領域とのいずれを基本測定表示領域82に表示させるか、切替操作を行うことができる。スキャンモード選択ボタン80gでフォーカス合成モードを選択すると、第1三次元形状測定手段65による測定モード用パラメータ設定領域(フォーカス合成モード用パラメータ設定領域)を基本測定表示領域82に表示させ、一方、スキャンモード選択ボタン80gでレーザー共焦点モードを選択すると、第2三次元形状測定手段66による測定モード用パラメータ設定領域(レーザー共焦点モード用パラメータ設定領域)を基本測定表示領域82に表示させる。   Either of the parameter setting area for measurement mode by the first three-dimensional shape measuring means 65 and the parameter setting area for measurement mode by the second three-dimensional shape measuring means 66 by the operation of the scan mode selection button 80g is a basic measurement display area 82 Or the switching operation can be performed. When the focus combining mode is selected by the scan mode selection button 80g, the parameter setting area for measurement mode (focus combining mode parameter setting area) by the first three-dimensional shape measuring means 65 is displayed on the basic measurement display area 82, while scanning When the laser confocal mode is selected by the mode selection button 80g, the measurement mode parameter setting area (laser confocal mode parameter setting area) by the second three-dimensional shape measuring means 66 is displayed on the basic measurement display area 82.

フォーカス合成モード用パラメータ設定領域と、レーザー共焦点モード用パラメータ設定領域とでは、第1設定表示領域82aと第3設定表示領域82cの表示項目が共通化されているが、第2設定表示領域82bの表示項目が共通化されていない。   Although the display items of the first setting display area 82a and the third setting display area 82c are common in the focus combination mode parameter setting area and the laser confocal mode parameter setting area, the second setting display area 82b is used. Display items of are not standardized.

図4に示すように、制御ユニット60は、フォーカス合成モードと、レーザー共焦点モードとの各測定モードの測定パラメータを設定可能な測定パラメータ設定部67を備えている。測定パラメータ設定部67は、高さに関する測定パラメータ及び照明条件パラメータを含む複数のパラメータを設定可能に構成されている。   As shown in FIG. 4, the control unit 60 includes a measurement parameter setting unit 67 capable of setting measurement parameters of each of the measurement mode of the focusing mode and the laser confocal mode. The measurement parameter setting unit 67 is configured to be able to set a plurality of parameters including the measurement parameter related to the height and the illumination condition parameter.

測定パラメータ設定部67は、共焦点観察光学系40用の光源に対するレーザー共焦点モード用の照明条件パラメータと、焦点観察光学系30用の観察用照明(同軸落射照明24及びリング照明25)に対するフォーカス合成モード用の照明条件パラメータとを設定可能に構成されている。フォーカス合成モード用の照明条件パラメータと、レーザー共焦点モード用の照明条件パラメータとは独立して保持され、記憶部73に記憶しておくことができる。   The measurement parameter setting unit 67 is an illumination condition parameter for the laser confocal mode with respect to the light source for the confocal observation optical system 40 and a focus for the observation illumination (coaxial epi-illumination 24 and ring illumination 25) for the focus observation optical system 30. It is configured to be able to set illumination condition parameters for the combination mode. The illumination condition parameter for the focusing mode and the illumination condition parameter for the laser confocal mode can be held independently and stored in the storage unit 73.

フォーカス合成モード用の照明条件パラメータは、同軸落射照明24による照明条件パラメータとリング照明25による照明条件パラメータとを含んでいる。また、レーザー共焦点モード用の照明条件パラメータは、減光フィルタ48による減光率を含んでいる。   The illumination condition parameters for the focusing mode include illumination condition parameters by the coaxial epi-illumination light 24 and illumination condition parameters by the ring illumination 25. Also, the illumination condition parameter for the laser confocal mode includes the light reduction rate by the light reduction filter 48.

測定パラメータ設定部67は、第1フォーカス探索手段63によるフォーカス探索時のZ軸駆動部52による相対距離の変更ピッチと、第2フォーカス探索手段64によるフォーカス探索時のZ軸駆動部52による相対距離の変更ピッチとは、それぞれ、複数段階に設定可能に構成されている。複数段階とは、例えば、広めのピッチ、中間ピッチ、狭めのピッチ等であり、2段階であってもよいし、4段階以上であってもよい。   The measurement parameter setting unit 67 changes the relative pitch of the Z-axis drive unit 52 at the time of focus search by the first focus search unit 63, and the relative distance at the Z-axis drive unit 52 during the focus search by the second focus search unit 64. The change pitch of is configured to be able to be set in multiple stages. The plurality of stages are, for example, a wide pitch, an intermediate pitch, a narrow pitch, etc., and may be two stages or four or more stages.

フォーカス合成モード及びレーザー共焦点モードのうち、一方の測定モードから他方の測定モードに切り替えられた場合、一方の測定モード時に測定パラメータ設定部67により設定された一方の変更ピッチに対応する変更ピッチが他方の測定モードに適用されるように構成されている。すなわち、フォーカス合成モードに対応している第1フォーカス探索手段63によるフォーカス探索時の変更ピッチを「広めのピッチ」としている場合には、その後、レーザー共焦点モードに切り替えられたとき、第2フォーカス探索手段64によるフォーカス探索時の変更ピッチを「広めのピッチ」に自動的に設定する。逆の場合も同様である。また、一方の測定モードで「中間ピッチ」が選択されていれば、他方の測定モードでも「中間ピッチ」に自動的に設定し、一方の測定モードで「狭めのピッチ」が選択されていれば、他方の測定モードでも「狭めのピッチ」に自動的に設定する。尚、変更ピッチの自動適用はキャンセルすることもできる。   When one measurement mode is switched to the other measurement mode out of the focus combining mode and the laser confocal mode, the change pitch corresponding to one change pitch set by the measurement parameter setting unit 67 in one measurement mode is It is configured to be applied to the other measurement mode. That is, when the change pitch at the time of the focus search by the first focus search means 63 corresponding to the focus combining mode is "a wide pitch", the second focus is switched to the laser confocal mode thereafter. The change pitch at the time of the focus search by the search means 64 is automatically set to "a wide pitch". The same is true for the opposite case. Also, if "intermediate pitch" is selected in one measurement mode, "intermediate pitch" is automatically set in the other measurement mode, and if "narrowing pitch" is selected in one measurement mode. Set the "narrowing pitch" automatically in the other measurement mode. The automatic application of the change pitch can be canceled.

また、制御部72は、フォーカス合成モード及びレーザー共焦点モードのうち、一方の測定モードから他方の測定モードに切り替えられた場合、一方の測定モード時に測定パラメータ設定部67により設定された測定パラメータが他方の測定モードの測定パラメータとして引き継がれるように構成されている。具体的には、フォーカス合成モードで設定した高さに関する測定パラメータは、レーザー共焦点モードにも引き継がれる。高さに関する測定パラメータは、非共焦点観察光学系30と共焦点観察光学系40とで変更する必要は殆ど無く、むしろ非共焦点観察光学系30と共焦点観察光学系40とで同じにしておいた方が観察しやすいためである。従って、レーザー共焦点モードで設定した高さに関する測定パラメータは、フォーカス合成モードにも引き継がれる。   Further, when the control unit 72 switches from one measurement mode to the other measurement mode out of the focusing mode and the laser confocal mode, the measurement parameter set by the measurement parameter setting unit 67 in one measurement mode is It is configured to be taken over as a measurement parameter of the other measurement mode. Specifically, the measurement parameter related to the height set in the focusing mode is inherited to the laser confocal mode. There is almost no need to change the measurement parameters regarding the height between the non-confocal observation optical system 30 and the confocal observation optical system 40, but rather the same for the non-confocal observation optical system 30 and the confocal observation optical system 40. It is because it is easy to observe if it puts it. Therefore, the measurement parameter related to the height set in the laser confocal mode is inherited to the focusing mode.

ところが、照明パラメータについては、フォーカス合成モードからレーザー共焦点モード、レーザー共焦点モードからフォーカス合成モードに引き継がれない。非共焦点観察光学系30と共焦点観察光学系40とでは、光源が全く異なっているため、照明パラメータを引き継ぐことに利点がないからである。尚、照明パラメータも高さに関する測定パラメータと同様に引き継がれるようにしてもよい。   However, with regard to the illumination parameters, the focus synthesis mode is not inherited from the laser confocal mode, and the laser confocal mode is not transferred to the focus synthesis mode. This is because the non-confocal observation optical system 30 and the confocal observation optical system 40 have completely different light sources, and there is no advantage in taking over the illumination parameters. The illumination parameter may be taken over as well as the measurement parameter related to the height.

制御部72は、非共焦点観察光学系30のフォーカス位置と、共焦点観察光学系40のフォーカス位置との差分を記憶しておき、フォーカス合成モード及びレーザー共焦点モードのうち、一方の測定モードから他方の測定モードに切り替えられた場合、フォーカス位置の差分を考慮して、対物レンズ27と電動載置台23との離間距離の上限値及び下限値を計算するように構成されている。   The control unit 72 stores the difference between the focus position of the non-confocal observation optical system 30 and the focus position of the confocal observation optical system 40, and one of the measurement modes among the focusing mode and the laser confocal mode. When the mode is switched to the other measurement mode, the upper limit value and the lower limit value of the separation distance between the objective lens 27 and the motorized mounting table 23 are calculated in consideration of the difference in the focus position.

すなわち、この拡大観察装置1では、非共焦点観察光学系30の光源は自然光に近く、R、G、Bの波長域を含んでおり、一方、共焦点観察光学系40の光源は単色レーザー光で波長が短くなっている。また、拡大観察装置1は、nmオーダーの測定が可能であり、観察光の波長の相違による焦点距離の違いは無視できない程大きくなる。このため、非共焦点観察光学系30のフォーカス位置(フォーカス値が最大となる位置)と、共焦点観察光学系40のフォーカス位置(光電子倍増管51の受光量が最大となる位置)とでは、観察光の波長の相違に起因する差が生じることになり、制御部72はこの差分を記憶しておく。フォーカス合成モードからレーザー共焦点モード、また、レーザー共焦点モードからフォーカス合成モードに切り替えられた場合には、フォーカス位置の差分を考慮して、対物レンズ27と電動載置台23との離間距離の上限値及び下限値を再計算する。   That is, in the magnifying observation apparatus 1, the light source of the non-confocal observation optical system 30 is close to natural light and includes the wavelength ranges of R, G and B, while the light source of the confocal observation optical system 40 is monochromatic laser light The wavelength is shortened at In addition, the magnifying observation apparatus 1 can measure on the order of nm, and the difference in focal length due to the difference in wavelength of the observation light is not negligible. Therefore, at the focus position of the non-confocal observation optical system 30 (position where the focus value is maximum) and the focus position of the confocal observation optical system 40 (position where the light receiving amount of the photomultiplier tube 51 is maximum), A difference is caused due to the difference in wavelength of the observation light, and the control unit 72 stores this difference. When the focus combining mode is switched to the laser confocal mode, and the laser confocal mode is switched to the focus combining mode, the upper limit of the separation distance between the objective lens 27 and the motorized mounting table 23 in consideration of the difference in focus position. Recalculate values and lower limits.

(ライブ画像及びパラメータ設定領域の表示制御)
制御部72は、フォーカス合成モード用パラメータ設定領域が基本測定表示領域82に表示された場合には、非共焦点観察光学系30を介して撮像素子50で取得された第1ライブ画像をライブ画像表示領域80aに表示させる。制御部72は、レーザー共焦点モード用パラメータ設定領域が基本測定表示領域82に表示された場合には、共焦点観察光学系40を介して光電子倍増管51で取得された第2ライブ画像を前記ライブ画像表示領域に表示させる。
(Display control of live image and parameter setting area)
When the focus combination mode parameter setting area is displayed in the basic measurement display area 82, the control unit 72 performs a live image of the first live image acquired by the imaging element 50 via the non-confocal observation optical system 30. Display in the display area 80a. When the parameter setting area for the laser confocal mode is displayed in the basic measurement display area 82, the control unit 72 performs the second live image acquired by the photomultiplier tube 51 through the confocal observation optical system 40 as the above-mentioned Display in the live image display area.

基本測定表示領域82に表示されるフォーカス合成モード用パラメータ設定領域及びレーザー共焦点モード用パラメータ設定領域の切替に連動してライブ画像表示領域80aに表示されるライブ画像を切り替えるように構成されている。具体的には、制御部72は、レーザー共焦点モード用パラメータ設定領域が基本測定表示領域82に表示される場合に、第2ライブ画像をライブ画像表示領域80aに表示させ、一方、フォーカス合成モードモード用パラメータ設定領域が基本測定表示領域82に表示される場合に、第1ライブ画像をライブ画像表示領域に表示可能に構成されている。   The live image displayed in the live image display area 80a is switched in synchronization with the switching of the focus combining mode parameter setting area and the laser confocal mode parameter setting area displayed in the basic measurement display area 82. . Specifically, when the parameter setting area for laser confocal mode is displayed in the basic measurement display area 82, the control unit 72 causes the second live image to be displayed in the live image display area 80a, while the focus combining mode is performed. When the mode parameter setting area is displayed in the basic measurement display area 82, the first live image can be displayed in the live image display area.

また、第1ライブ画像をライブ画像表示領域80aに表示させる場合に、フォーカス合成モード用の照明条件パラメータ設定領域(図20に示す第2設定表示領域82b)を基本測定表示領域82に表示させ、一方、第2ライブ画像をライブ画像表示領域80aに表示させる場合に、レーザー共焦点モード用の照明条件パラメータ設定領域(図11に示す第2設定表示領域82b)をパラメータ表示領域に表示させる。ライブ画像表示領域80aに表示される第1ライブ画像と第2ライブ画像とが観察対象物SPの同じ領域を示す画像とすることができるが、異なっていてもよい。   Further, when displaying the first live image in the live image display area 80a, the illumination condition parameter setting area (the second setting display area 82b shown in FIG. 20) for the focus combining mode is displayed in the basic measurement display area 82, On the other hand, when the second live image is displayed in the live image display area 80a, the illumination condition parameter setting area for the laser confocal mode (the second setting display area 82b shown in FIG. 11) is displayed in the parameter display area. The first live image and the second live image displayed in the live image display area 80a may be images showing the same area of the observation object SP, but may be different.

制御部72は、第1ライブ画像がライブ画像表示領域80aに表示された後に、フォーカス合成モード用パラメータ設定領域を基本測定表示領域82に表示させ、一方、第2ライブ画像がライブ画像表示領域80aに表示された後に、レーザー共焦点モード用パラメータ設定領域を基本測定表示領域82に表示させることもできる。   After the first live image is displayed in the live image display area 80a, the control unit 72 causes the focus measurement mode parameter setting area to be displayed in the basic measurement display area 82, while the second live image is the live image display area 80a. The parameter setting area for the laser confocal mode can also be displayed on the basic measurement display area 82 after being displayed on the screen.

また、制御部72は、第1ライブ画像がライブ画像表示領域80aに表示される場合に、レーザー共焦点モード用パラメータ設定領域を基本測定表示領域82に表示させること、また、第2ライブ画像がライブ画像表示領域80aに表示される場合に、フォーカス合成モード用パラメータ設定領域を基本測定表示領域82に表示させることもできる。   In addition, when the first live image is displayed in the live image display area 80a, the control unit 72 causes the parameter setting area for laser confocal mode to be displayed in the basic measurement display area 82, and the second live image is displayed. When displayed in the live image display area 80a, the focus combination mode parameter setting area can also be displayed in the basic measurement display area 82.

尚、拡大観察装置1を使用した測定に慣れた使用者の場合には、例えば基本測定モードとして上述したように連動表示させるのが好ましいが、拡大観察装置1を使用した測定に慣れていない使用者の場合には、例えば簡単モードとして、どの三次元形状測定手段が選択されているかにかかわらず、常に、第1ライブ画像(通常の顕微鏡画像)を表示させる、つまり非連動にすることができるように構成してもよい。簡単モードを設ける理由は、第2ライブ画像は、レーザー共焦点の原理を使用しているためピントが合っていないと暗くなってしまうというのが、測定に不慣れな人にとっては直感的ではなく、わかりづらいからである。基本測定モードと、簡単モードとの切替は使用者が行うことができる。   In the case of a user who is accustomed to the measurement using the magnifying observation apparatus 1, for example, it is preferable to display interlockedly as described above as the basic measurement mode, but the use not used to the measurement using the magnifying observation apparatus 1 In the case of a person, for example, as a simple mode, regardless of which three-dimensional shape measurement means is selected, the first live image (normal microscope image) can always be displayed, that is, not linked. It may be configured as follows. The reason for providing the easy mode is that the second live image is dark when it is not in focus because it uses the principle of laser confocal, which is not intuitive for those who are not familiar with measurement. It is hard to understand. The user can switch between the basic measurement mode and the easy mode.

(観察画像取得部69の構成)
制御ユニット60は、ナビゲーション画像が表示された表示部5上の位置の指定に基づいて観察位置及び/又は観察視野を決定し、決定した該観察位置及び/又は観察視野に対応して載置台制御部62及び/又は電動レボルバ制御部61を制御して、撮像素子50により観察画像を取得する観察画像取得部69を有している。表示部5上においてナビゲーション画像上の任意の点にマウス7のポインタを置き、マウス7による範囲選択を行うと、例えば図20等のナビゲーション画像表示領域80bに表示されているような枠Aを該ナビゲーション画像表示領域80bに表示することができる。この枠Aを形成する位置の指定方法は特に限定されるものではないが、マウス7によって行われるのが好ましく、これが観察位置の指定になる。また、枠Aの大きさの指定もマウス7によって行うことができ、これが観察視野の範囲指定になる。観察位置の指定のみ行うようにしてもよいし、観察視野の範囲指定のみ行うようにしてもよい。このようにマウス7の操作によって観察位置及び/又は観察視野を決定することができる。
(Configuration of observation image acquisition unit 69)
The control unit 60 determines the observation position and / or the observation field of view based on the designation of the position on the display unit 5 where the navigation image is displayed, and controls the placement table corresponding to the determined observation position and / or observation field. An observation image acquisition unit 69 that acquires an observation image by the imaging device 50 by controlling the unit 62 and / or the electric revolver control unit 61 is provided. When the pointer of the mouse 7 is placed at an arbitrary point on the navigation image on the display unit 5 and range selection is performed by the mouse 7, for example, the frame A displayed in the navigation image display area 80b of FIG. It can be displayed in the navigation image display area 80b. The method of specifying the position for forming the frame A is not particularly limited, but is preferably performed by the mouse 7, and this becomes the specification of the observation position. Also, the size of the frame A can be specified by the mouse 7, and this becomes the range specification of the observation field of view. Only the designation of the observation position may be performed, or only the range specification of the observation field of view may be performed. Thus, the observation position and / or the observation field can be determined by the operation of the mouse 7.

決定された観察位置にある視野範囲が対物レンズ27の視野に入るように、載置台制御部62によってステージ駆動部54を制御させ、電動載置台23をX方向またはY方向に移動させる。また、決定された観察位置にある視野範囲が対物レンズ27の視野に入るように、電動レボルバ制御部61を制御して電動レボルバ28を回転させて対物レンズ27を変更する。   The stage driving unit 54 is controlled by the mounting table control unit 62 so that the field of view range at the determined observation position falls within the field of view of the objective lens 27, and the motorized mounting table 23 is moved in the X direction or Y direction. Further, the electric revolver control unit 61 is controlled to rotate the electric revolver 28 so that the objective lens 27 is changed such that the visual field range at the determined observation position falls within the visual field of the objective lens 27.

観察画像取得部69は、載置台制御部62及び電動レボルバ制御部61の両方を制御することなく、一方のみを制御して撮像素子50により観察画像を取得することができる。例えば、ナビゲーション画像が表示された表示部5上の位置の指定に基づいて観察位置及び/又は観察視野を決定し、決定した該観察位置及び/又は観察視野に対応して載置台制御部62を制御して、撮像素子50または光電子増倍管51により観察画像を取得することもできる。   The observation image acquisition unit 69 can control only one of the mounting table control unit 62 and the electric revolver control unit 61 and can acquire an observation image by the imaging device 50 by controlling only one of them. For example, the observation position and / or the observation field of view are determined based on the designation of the position on the display unit 5 where the navigation image is displayed, and the mounting table control unit 62 is set corresponding to the determined observation position and / or observation field of view. An observation image can also be acquired by the imaging device 50 or the photomultiplier tube 51 under control.

また、ナビゲーション画像が表示された表示部5上の位置の指定に基づいて、観察視野を包含するように観察光学系の最大倍率を決定可能に構成されている。観察位置及び/又は観察視野が決定されると、観察画像取得部69は観察視野の大きさを把握することができ、この観察視野が全て入るような倍率を演算して観察光学系の最大倍率として決定する。観察画像取得部69は、決定された最大倍率と現在の観察光学系の倍率とを比較し、決定された最大倍率と現在の観察光学系の倍率とが異なる場合、決定された最大倍率と現在の観察光学系の倍率とが異なっていることを使用者に報知する。報知する手段としては、表示部5上に表示する方法、音声による方法等を挙げることができるが、どのような方法であっても構わず、決定された観察視野が全て入る最大倍率と、現在の観察光学系の倍率とが異なることを報知できればよい。   Further, based on the designation of the position on the display unit 5 where the navigation image is displayed, the maximum magnification of the observation optical system can be determined so as to include the observation field of view. When the observation position and / or the observation field of view are determined, the observation image acquisition unit 69 can grasp the size of the observation field of view, calculates the magnification such that all the observation fields of view enter, and maximizes the magnification of the observation optical system. Decide as. The observation image acquisition unit 69 compares the determined maximum magnification with the magnification of the current observation optical system, and when the determined maximum magnification and the magnification of the current observation optical system are different, the determined maximum magnification and the current magnification The user is informed that the magnification of the observation optical system is different. As a means to notify, a method of displaying on the display unit 5, a method by voice, etc. can be mentioned, but any method may be used, and the maximum magnification with which all the determined observation fields are included, and the present It may be informed that the magnification of the observation optical system is different.

観察画像取得部69は、決定された最大倍率となるように電動レボルバ制御部61を制御する。決定された最大倍率と同じ倍率を実現する対物レンズ27による観察が可能となるように、電動レボルバ制御部61が電動レボルバ28を回転させる。決定された最大倍率と同じ倍率を実現する対物レンズ27が無い場合には、決定された最大倍率に近い倍率を実現する対物レンズ27にすればよい。   The observation image acquisition unit 69 controls the electric revolver control unit 61 so as to obtain the determined maximum magnification. The electric revolver control unit 61 rotates the electric revolver 28 so that observation with the objective lens 27 that realizes the same magnification as the determined maximum magnification is possible. If there is no objective lens 27 that achieves the same magnification as the determined maximum magnification, the objective lens 27 may achieve the magnification close to the determined maximum magnification.

観察画像取得部69は、観察光学系の倍率が最大倍率に変更された後に、オートフォーカス機構を作動させる。これにより、対物レンズ27の交換後にピントを自動的に合わせることができる。   The observation image acquisition unit 69 operates the autofocus mechanism after the magnification of the observation optical system is changed to the maximum magnification. Thereby, it is possible to automatically adjust the focus after the replacement of the objective lens 27.

また、上述した例では、撮像素子50で取得された非共焦点画像を表示部5に表示させるとともに、表示された非共焦点画像上で使用者による観察範囲の指示を受け付けるように構成されているが、光電子倍増管51で取得された共焦点画像を表示部5に表示させるとともに、表示された共焦点画像上で使用者による観察範囲の指示を受け付けるように構成されていてもよい。   Further, in the above-described example, the non-confocal image acquired by the imaging device 50 is displayed on the display unit 5, and an instruction of the observation range by the user is received on the displayed non-confocal image. However, the confocal image acquired by the photomultiplier tube 51 may be displayed on the display unit 5 and the instruction of the observation range by the user may be received on the displayed confocal image.

また、図21に示すように、起動後ユーザーインターフェース80の画像観察タブ80kを選択して2つの画像表示領域87a、87bを表示させることもできる。例えば、一方の画像表示領域87aには同軸落射照明24で照明した場合の画像を表示させ、他方の画像表示領域87bにはリング照明25で照明した場合の画像を表示させることができる。   Further, as shown in FIG. 21, it is possible to select the image observation tab 80k of the user interface 80 after activation and display two image display areas 87a and 87b. For example, an image when illuminated by the coaxial epi-illumination light 24 can be displayed in one of the image display regions 87 a, and an image when illuminated by the ring illumination 25 can be displayed in the other image display region 87 b.

(三次元形状測定結果)
図22は、フォーカス合成モードによる三次元形状測定結果を表示したユーザーインターフェースを示す図であり、図23は、レーザー共焦点モードによる三次元形状測定結果を表示したユーザーインターフェースを示す図である。
(Three-dimensional shape measurement result)
FIG. 22 is a view showing a user interface displaying the three-dimensional shape measurement result in the focusing mode, and FIG. 23 is a view showing the user interface displaying the three-dimensional shape measurement result in the laser confocal mode.

図20等に示すユーザーインターフェース80の右下には、測定開始ボタン88が設けられている。使用者がマウス7等によってスキャンモード選択ボタン80gでスキャンモードを選択した後、測定開始ボタン88を操作すると、選択されたスキャンモードで三次元形状測定が開始される。フォーカス合成モードが選択されていると、第1三次元形状測定手段65によって観察対象物SPの観察面の三次元形状を把握できる画像を取得し、図22に示すように、測定結果表示領域89に表示される。レーザー共焦点モードが選択されていると、第2三次元形状測定手段66によって観察対象物SPの観察面の三次元形状を把握できる画像を取得し、図23に示すように測定結果表示領域89に表示される。測定結果表示領域89は、ライブ画像表示領域80aであるが、表示内容が異なっているため名称及び符号を変更している。   A measurement start button 88 is provided at the lower right of the user interface 80 shown in FIG. When the user operates the measurement start button 88 after selecting the scan mode with the scan mode selection button 80g using the mouse 7 or the like, three-dimensional shape measurement is started in the selected scan mode. When the focus combining mode is selected, the first three-dimensional shape measuring means 65 acquires an image capable of grasping the three-dimensional shape of the observation surface of the observation object SP, and as shown in FIG. Is displayed on. When the laser confocal mode is selected, the second three-dimensional shape measuring means 66 acquires an image capable of grasping the three-dimensional shape of the observation surface of the observation object SP, and as shown in FIG. Is displayed on. Although the measurement result display area 89 is the live image display area 80a, the display content is different, and therefore the name and the code are changed.

測定結果表示領域89に表示される画像は、視点を変えた画像にすることができる。例えば、観察対象物SPを真上から見た画像、斜めから見た画像等にすることができ、例示しているのは観察対象物SPを斜めから見た画像である。また、測定結果表示領域89に表示される画像は、上述したカラー画像とすることもできる。さらに、測定結果表示領域89に表示される画像は、高さによって色を変えた画像にすることもできる。例えば高い部位は赤にし、低い部位は青にする等である。   The image displayed in the measurement result display area 89 can be an image in which the viewpoint is changed. For example, the observation object SP can be an image viewed from directly above, an image viewed obliquely, etc. What is illustrated is an image viewed obliquely from the observation object SP. Further, the image displayed in the measurement result display area 89 may be the above-described color image. Furthermore, the image displayed in the measurement result display area 89 may be an image whose color is changed depending on the height. For example, the high part is red and the low part is blue.

図24は、プロファイル測定画面90を表示したユーザーインターフェース80を示す図である。観察対象物SPの観察面の三次元形状の測定が完了した後、図22及び図23に示す測定ボタン92を操作すると、図24に示すようなプロファイル測定領域90が表示される。プロファイル測定領域90で例えば任意の2点を指定すると、測定結果表示領域91に2点間のプロファイルが拡大表示される。尚、これはプロファイルの測定の一例である。   FIG. 24 is a view showing a user interface 80 on which the profile measurement screen 90 is displayed. After measurement of the three-dimensional shape of the observation surface of the observation object SP is completed, when the measurement button 92 shown in FIGS. 22 and 23 is operated, a profile measurement area 90 as shown in FIG. 24 is displayed. If, for example, two arbitrary points are designated in the profile measurement area 90, the profile between the two points is enlarged and displayed in the measurement result display area 91. This is an example of profile measurement.

(画像生成部72bの構成)
図6に示すように、制御部72は画像生成部72bを有している。画像生成部72bは、第1三次元形状測定手段65で取得されたカラー画像と、第2三次元形状測定手段66で取得された三次元形状データとを合成した合成画像を生成する。ここで生成された合成画像は、表示部5に表示される。表示部5には、画像生成部72bで生成された合成画像と、第1三次元形状測定手段65で取得されたカラー画像とを同時に表示することもできる。
(Configuration of image generation unit 72b)
As shown in FIG. 6, the control unit 72 includes an image generation unit 72b. The image generation unit 72 b generates a composite image obtained by combining the color image acquired by the first three-dimensional shape measurement unit 65 and the three-dimensional shape data acquired by the second three-dimensional shape measurement unit 66. The composite image generated here is displayed on the display unit 5. The display unit 5 can simultaneously display the composite image generated by the image generation unit 72 b and the color image acquired by the first three-dimensional shape measurement means 65.

また、カラーを合成する方法としては次のような方法を採用することも可能である。例えば、電動載置台23を予め設定した上限高さに配置しておき、そこから下方へ移動させながらレーザー共焦点モードで各画素の高さ情報を得る。その後、電動載置台23が予め設定した下限高さに到達したら、今度は上方へ移動させながら撮像素子50で複数回撮像していき、ピントが合ったときの画素の色彩と、レーザー共焦点モードで取得した高さ情報とを合成し、カラー画像を生成することができる。   Moreover, it is also possible to adopt the following method as a method of combining colors. For example, the motorized mounting table 23 is disposed at a preset upper limit height, and while moving downward therefrom, height information of each pixel is obtained in the laser confocal mode. Thereafter, when the motorized mounting table 23 reaches the preset lower limit height, the image pickup device 50 picks up images a plurality of times while moving upward, and the color of the pixel when focused and the laser confocal mode The color information can be generated by combining the height information acquired in

第1フォーカス探索手段63は、同軸落射照明24もしくはリング照明25により観察対象物SPを照明し、撮像素子50により取得した画像に基づいてフォーカス探索を行うように構成されている。画像生成部72bが合成画像を生成する場合には、第1フォーカス探索手段63は、同軸落射照明24により観察対象物SPを照明し、撮像素子50により取得した画像に基づいてフォーカス探索を行うように構成されている。のが好ましい。これは、レーザー共焦点モードで取得した輝度情報と、撮像素子50で取得したカラー情報とを合成する場合に、レーザー共焦点モードでのレーザー光の照射方向と実質的に同一となる同軸落射照明24の方が照明手段として好ましいからである。   The first focus searching means 63 is configured to illuminate the observation object SP with the coaxial epi-illumination light 24 or the ring illumination 25 and to perform a focus search based on an image acquired by the imaging device 50. When the image generation unit 72 b generates a composite image, the first focus search unit 63 illuminates the observation object SP with the coaxial incident illumination 24 and performs focus search based on the image acquired by the imaging device 50. Is configured. Is preferred. This is the coaxial epi-illumination that is substantially the same as the irradiation direction of the laser beam in the laser confocal mode when combining the luminance information acquired in the laser confocal mode and the color information acquired by the imaging device 50. This is because 24 is preferable as the illumination means.

つまり、同軸落射照明24を使用して撮像素子50により画像を取得した場合、観察対象物SPの観察面に凹凸があったとしても、その凹凸による陰影が付きにくく、取得された画像が立体感の無い画像になる。一方、レーザー共焦点の原理では、傾斜面からの反射光量が少なくなるので、取得された画像は結果的に凹凸の輪郭が強調された画像となる。これらを組み合わせると観察するのに適した画像になる。その理由は、同軸落射照明24を使用して撮像素子50によりカラー情報を含む画像を取得した場合に、その画像には余計な陰影情報が無く、レーザー共焦点の原理で取得した陰影情報を含んだ画像と合成しても、レーザー共焦点の原理で取得した陰影情報(輝度情報)の邪魔をすることはないからである。従って、合成後に得られたカラー画像は見栄えが良好になる。   That is, when an image is acquired by the imaging device 50 using the coaxial epi-illumination 24, even if the observation surface of the observation object SP is uneven, the unevenness due to the unevenness is hard to occur, and the acquired image has a three-dimensional effect. It will be an image without On the other hand, according to the principle of laser confocal, the amount of light reflected from the inclined surface decreases, so that the obtained image is an image in which the contour of the unevenness is emphasized as a result. Combining these results in an image suitable for observation. The reason is that, when an image including color information is acquired by the imaging device 50 using the coaxial epi-illumination 24, there is no extra shading information in the image, and the shading information acquired by the principle of laser confocal is included. This is because, even if it is combined with an eclipse image, it does not disturb the shadow information (brightness information) acquired by the principle of laser confocal. Therefore, the color image obtained after composition has a good appearance.

一方、リング照明25を使用して撮像素子50により画像を取得した場合、観察対象物SPの観察面に凹凸があると、その凹凸による陰影が得られやすいので、コントラスト算出に有利である。コントラスト算出に有利であるということは、フォーカス探索しやすいということになる。また、凹凸感(立体感)のあるカラー画像を得るためにも有利であり、結果としてカラー画像の見栄えが良好になる。ただし、レーザー共焦点の原理により取得した輝度情報と組み合わせると、陰影のつき方がそもそも異なるので、観察に不適な画像となってしまい、カラー画像として見栄えが良好であるとは言い難い画像になる。   On the other hand, when an image is acquired by the imaging device 50 using the ring illumination 25, if the observation surface of the observation object SP has unevenness, a shadow due to the unevenness is easily obtained, which is advantageous for contrast calculation. The advantage in contrast calculation means that focus search is easy. Further, it is also advantageous for obtaining a color image having a sense of unevenness (three-dimensional effect), and as a result, the appearance of the color image is improved. However, when combined with the luminance information acquired according to the principle of laser confocal, since the way of shading differs in the first place, it becomes an image unsuitable for observation, and it becomes an image that can not be said to have a good appearance as a color image. .

尚、合焦時でも輝度差が無い(輝度比が1に近い)観察対象物SPについては、フォーカス合成の原理は向いていないが、観察対象物SPの表面の色は同一でも、凹凸による陰影があれば、得られる画像としては輝度差がある(輝度比が1より大きい)ものとなるため、フォーカス合成ができることになる。また、リング照明25による光の照射角により、凹凸のある観察対象物SPの場合には取得された画像に陰影が現れやすく、フォーカス合成がしやすくなる場合がある。この場合にはフォーカス探索しやすくなるので、カラー画像とした場合に、陰影が付き立体感のある画像が得られ、結果的に、カラー画像として見栄えが良好になる。   Although the principle of focus composition is not suitable for the observation object SP having no luminance difference (a luminance ratio is close to 1) even at the time of focusing, the shadows due to unevenness are the same even if the color of the surface of the observation object SP is the same. If there is, the resulting image has a difference in luminance (the luminance ratio is larger than 1), so that focus combination can be performed. Further, depending on the irradiation angle of the light by the ring illumination 25, in the case of the observation object SP having unevenness, a shadow may easily appear in the acquired image, and focus combination may be facilitated. In this case, it is easy to search for a focus, and therefore, in the case of a color image, an image with shading and a three-dimensional effect is obtained, and as a result, the appearance as a color image is improved.

(信頼性指標算出部72dの構成)
図6に示すように、制御部72は信頼性指標算出部72dを有している。信頼性指標算出部72dは、第1フォーカス探索手段63によるフォーカス探索結果の信頼性を示す第1信頼性指標または第2フォーカス探索手段64によるフォーカス探索結果の信頼性を示す第2信頼性指標を算出する。信頼性指標算出部72dは、画素毎に前記第1信頼性指標及び前記第2信頼性指標を算出するように構成されている。この実施形態では、前記第1信頼性指標及び前記第2信頼性指標の両方を算出するようにしているが、いずれか一方のみ算出するようにしてもよい。
(Configuration of the reliability index calculator 72d)
As shown in FIG. 6, the controller 72 includes a reliability index calculator 72d. The reliability index calculating unit 72 d is a first reliability index indicating the reliability of the focus search result obtained by the first focus searching means 63 or a second reliability index indicating the reliability of the focus search result obtained by the second focus searching means 64. calculate. The reliability index calculator 72 d is configured to calculate the first reliability index and the second reliability index for each pixel. In this embodiment, both of the first reliability index and the second reliability index are calculated, but only one of them may be calculated.

第1信頼性指標は、例えば撮像素子50で取得されたコントラスト値である。コントラスト値が高ければ高いほど第1信頼性指標を高く設定する。第1信頼性指標として、コントラスト値に代えて、各画素の輝度を用いてもよい。第2信頼性指標は、例えば光電子倍増管51で取得された画素値である。画素値が高ければ高いほど第2信頼性指標を高く設定する。第2信頼性指標として、画素値に代えて、図7に示す受光強度の半値幅を用いてもよい。   The first reliability index is, for example, a contrast value acquired by the imaging device 50. The higher the contrast value, the higher the first reliability index. Instead of the contrast value, the luminance of each pixel may be used as the first reliability index. The second reliability index is, for example, a pixel value acquired by the photomultiplier tube 51. The higher the pixel value is, the higher the second reliability index is set. As the second reliability index, the half value width of the light reception intensity shown in FIG. 7 may be used instead of the pixel value.

信頼性指標算出部72dは、同軸落射照明24により照明した観察対象物SPのフォーカス探索結果の信頼性指標と、リング照明25により照明した観察対象物SPのフォーカス探索結果の信頼性指標とを算出することもできる。   The reliability index calculation unit 72d calculates the reliability index of the focus search result of the observation object SP illuminated by the coaxial incident light 24 and the reliability index of the focus search result of the observation object SP illuminated by the ring illumination 25. You can also

(置換判断部72eの構成)
制御部72は、前記第1信頼性指標及び前記第2信頼性指標に基づいて、第1三次元形状測定手段65で取得される第1三次元形状データと、第2三次元形状測定手段66で取得される第2三次元形状データとの置換の要否を判断する置換判断部(置換判断手段)72eを備えている。
(Configuration of replacement determination unit 72e)
The controller 72 controls the first three-dimensional shape data acquired by the first three-dimensional shape measurement means 65 and the second three-dimensional shape measurement means 66 based on the first reliability index and the second reliability index. And a replacement determination unit (replacement determination means) 72e that determines the necessity of replacement with the second three-dimensional shape data acquired in step.

置換判断部72eは、前記第1三次元形状データと前記第2三次元形状データとの置換を自動で行うように構成されている。すなわち、第1三次元形状データを構成する各画素の第1信頼性指標を画素の位置に関連付けて取得するとともに、第2三次元形状データを構成する各画素の第2信頼性指標を画素の位置に関連付けて取得する。そして、第1三次元形状データの特定の画素と、その画素と同位置にある第2三次元形状データの画素との信頼性指標を比較する。つまり、同位置にある画素の第1信頼性指標と第2信頼性指標との比較を行う。   The replacement determination unit 72e is configured to automatically replace the first three-dimensional shape data with the second three-dimensional shape data. That is, while acquiring the first reliability index of each pixel constituting the first three-dimensional shape data in association with the position of the pixel, the second reliability index of each pixel constituting the second three-dimensional shape data corresponds to the pixel Get associated with the position. Then, the reliability index of the specific pixel of the first three-dimensional shape data and the pixel of the second three-dimensional shape data at the same position as the pixel is compared. That is, the first reliability index of the pixel at the same position is compared with the second reliability index.

比較の結果、第1信頼性指標の方が高ければ、第1三次元形状データを構成する画素を有効にして第2三次元形状データを構成する画素を無効にし、第2信頼性指標の方が高ければ、第2三次元形状データを構成する画素を有効にして第1三次元形状データを構成する画素を無効にする。このように、置換の要否を全ての画素について判断していくことで、信頼性の高い三次元形状データを構成することができる。   As a result of comparison, if the first reliability index is higher, the pixels constituting the first three-dimensional shape data are made effective, the pixels constituting the second three-dimensional shape data are invalidated, and the second reliability index is Is high, the pixels constituting the second three-dimensional shape data are made effective, and the pixels constituting the first three-dimensional shape data are made invalid. As described above, it is possible to construct highly reliable three-dimensional shape data by determining whether or not replacement is necessary for all pixels.

第1三次元形状データ及び第2三次元形状データは、上述したように高さ情報を含んでいる。また、第1三次元形状データ及び第2三次元形状データは、色情報を含んでいてもよい。   The first three-dimensional shape data and the second three-dimensional shape data include height information as described above. In addition, the first three-dimensional shape data and the second three-dimensional shape data may include color information.

置換判断部72eは、第1三次元形状データと第2三次元形状データとの置換を行うか否かの指示を受け付けるように構成することもできる。例えば、使用者が例えばマウス7等によって操作することで、第1三次元形状データと第2三次元形状データとの置換を行うという指示をすること、第1三次元形状データと第2三次元形状データとの置換を行わないという指示をすることができる。第1三次元形状データと第2三次元形状データとの置換を行わないということは、第1三次元形状データまたは第2三次元形状データをそのまま使用することになる。   The replacement determination unit 72e can also be configured to receive an instruction as to whether or not to replace the first three-dimensional shape data with the second three-dimensional shape data. For example, the user instructs to replace the first three-dimensional shape data with the second three-dimensional shape data by, for example, operating the mouse 7 or the like, and the first three-dimensional shape data and the second three-dimensional data. It can be instructed not to replace the shape data. Not replacing the first three-dimensional shape data with the second three-dimensional shape data means using the first three-dimensional shape data or the second three-dimensional shape data as it is.

置換判断部72eは、第1三次元形状データ及び第2三次元形状データの一方を他方よりも優先させる指示を受け付けるように構成されている。例えば、使用者が例えばマウス7等によって操作することで、第1三次元形状データを第2三次元形状データよりも優先して使用するように指示すること、第2三次元形状データを第1三次元形状データよりも優先して使用するように指示することができる。この場合、優先度を設定することができるようにしてもよい。   The replacement determination unit 72e is configured to receive an instruction to prioritize one of the first three-dimensional shape data and the second three-dimensional shape data over the other. For example, when the user operates with, for example, the mouse 7 etc., instructing the first three-dimensional shape data to be used in preference to the second three-dimensional shape data, the second three-dimensional shape data being It can be instructed to use prior to three-dimensional shape data. In this case, priority may be set.

置換判断部72eは、第1三次元形状データと第2三次元形状データとの置換を行うか否かの判断の際に使われる情報を、第1信頼性指標及び第2信頼性指標に基づいて取得している。置換判断部72eは、この情報を使用者に報知するように構成することができる。報知する手段としては、表示部5上に表示する方法、音声による方法等を挙げることができるが、どのような方法であっても構わず、第1三次元形状データと第2三次元形状データとの置換を行うか否かの判断の際に使われる情報を報知できればよい。この情報の具体例としては、例えば、第1信頼性指標及び第2信頼性指標を数値化したものやグラフ化したもの等を挙げることができる。   The replacement determining unit 72e determines, based on the first reliability index and the second reliability index, information used in determining whether to replace the first three-dimensional shape data with the second three-dimensional shape data. Have acquired. The replacement determination unit 72e can be configured to notify the user of this information. Examples of means for notification include a method of displaying on the display unit 5, a method by voice, and the like, but any method may be used, and the first three-dimensional shape data and the second three-dimensional shape data may be used. It is sufficient if the information used in the determination of whether or not to replace with can be notified. As a specific example of this information, for example, the first reliability index and the second reliability index can be listed as a numerical value or a graph.

制御部72は、第1三次元形状データ及び/又は第2三次元形状データで構成されるとともに、観察対象物SPの異なる領域を示した複数の三次元画像を生成し、該複数の三次元画像を連結して1つの三次元画像を構成することができる。すなわち、観察対象物SPの第1領域の第1三次元形状データ及び第2三次元形状データを取得することで、第1領域の三次元画像を生成することができる。この三次元画像は、第1三次元形状データのみで構成されていてもよいし、第2三次元形状データのみで構成されていてもよいし、第1三次元形状データ及び第2三次元形状データで構成されていてもよい。   The control unit 72 is configured by the first three-dimensional shape data and / or the second three-dimensional shape data, and generates a plurality of three-dimensional images showing different regions of the observation object SP, and the plurality of three-dimensional images The images can be concatenated to construct one three-dimensional image. That is, by acquiring the first three-dimensional shape data and the second three-dimensional shape data of the first region of the observation object SP, it is possible to generate a three-dimensional image of the first region. This three-dimensional image may be composed only of the first three-dimensional shape data, or may be composed only of the second three-dimensional shape data, or the first three-dimensional shape data and the second three-dimensional shape It may be composed of data.

その後、載置台制御部62がステージ駆動部54を制御することで電動載置台23の水平位置を変更して、観察対象物SPの第2領域の第1三次元形状データ及び第2三次元形状データを取得し、第2領域の三次元画像を生成することができる。このようにして複数の三次元画像を生成することができる。生成された複数の三次元画像を連結することで、観察対象物SPの広い範囲の三次元形状を示す1つの三次元画像を構成することができる。   Thereafter, the mounting table control unit 62 controls the stage driving unit 54 to change the horizontal position of the motorized mounting table 23, and the first three-dimensional shape data and the second three-dimensional shape of the second region of the observation object SP Data can be acquired to generate a three-dimensional image of the second region. Thus, a plurality of three-dimensional images can be generated. By linking a plurality of generated three-dimensional images, it is possible to construct one three-dimensional image showing a wide range of three-dimensional shapes of the observation object SP.

(信頼性指標に基づいたフォーカス探索手段の制御)
制御部72の信頼性指標算出部72dは、上述した手法により、同軸落射照明24により照明した観察対象物SPのフォーカス探索結果の信頼性指標と、リング照明25により照明した観察対象物SPのフォーカス探索結果の信頼性指標と算出することが可能に構成されている。具体的には、同軸落射照明24及びリング照明25の光を第1の比率で観察対象物SPに照射したときのフォーカス探索結果の信頼性指標を算出し、算出した信頼性指標が所定の基準を満たしているか否かを判定し、所定の基準を満たしていないと判定した場合には、同軸落射照明24及びリング照明25の光を前記第1の比率とは異なる第2の比率で観察対象物SPに照射してフォーカス探索を行うように構成されている。「所定の基準」とは、フォーカス探索結果によって三次元形状の測定結果が適切に得られるか否かに基づいて設定することができる。三次元形状の測定結果を適切に得ることができるフォーカス探索結果が所定の基準である。
(Control of focus search means based on reliability index)
The reliability index calculation unit 72 d of the control unit 72 calculates the reliability index of the focus search result of the observation object SP illuminated by the coaxial epi-illumination 24 and the focus index of the observation object SP illuminated by the ring illumination 25 by the above-described method. It is possible to calculate with the reliability index of the search result. Specifically, the reliability index of the focus search result when the light of the coaxial epi-illumination 24 and the ring illumination 25 is irradiated to the observation object SP at the first ratio is calculated, and the calculated reliability index is a predetermined standard. If it is determined that the predetermined standard is not satisfied, the light of the coaxial epi-illumination 24 and the ring illumination 25 is observed at a second ratio different from the first ratio. It is configured to irradiate the object SP to perform a focus search. The “predetermined reference” can be set based on whether or not the measurement result of the three-dimensional shape can be appropriately obtained by the focus search result. The focus search result that can appropriately obtain the measurement result of the three-dimensional shape is a predetermined reference.

この実施形態では、上述したように、同軸落射照明24の光量及びリング照明25の光量を独立して調整することができるようになっており、前記第1の比率及び第2の比率は、例えば百分率で表すことができる。同軸落射照明24及びリング照明25を0%〜100%の間で任意に設定できるとともに、同軸落射照明24を0%とし且つリング照明25を100%とすること(リング照明25のみの照明)や、同軸落射照明24を100%とし且つリング照明25を0%とすること(同軸落射照明24のみの照明)も可能である。   In this embodiment, as described above, the light amount of the coaxial epi-illumination light 24 and the light amount of the ring illumination 25 can be adjusted independently, and the first ratio and the second ratio are, for example, It can be expressed as a percentage. The coaxial epi-illumination 24 and the ring illumination 25 can be arbitrarily set between 0% and 100%, and the coaxial epi-illumination 24 is 0% and the ring illumination 25 is 100% (illumination of only the ring illumination 25) or It is also possible to set the coaxial epi-illumination 24 to 100% and the ring illumination 25 to 0% (illumination of only the coaxial epi-illumination 24).

また、制御部72は、同軸落射照明24及びリング照明25の光を第1の比率で観察対象物SPに照射したときのフォーカス探索結果の信頼性指標が所定の基準を満たしていると判定した場合には、前記第1の比率で観察対象物SPを照射して観察対象物SPの三次元形状を測定する。制御部72は、第1の比率を任意に変更することができる。   In addition, the control unit 72 determines that the reliability index of the focus search result when the light of the coaxial epi-illumination 24 and the ring illumination 25 is irradiated to the observation object SP at the first ratio satisfies the predetermined criteria. In the case, the observation object SP is irradiated at the first ratio to measure the three-dimensional shape of the observation object SP. The control unit 72 can arbitrarily change the first ratio.

また、制御部72は、同軸落射照明24により照明した観察対象物SPのフォーカス探索結果の信頼性指標と、リング照明25により照明した観察対象物SPのフォーカス探索結果の信頼性指標と比較し、同軸落射照明24により照明した場合の前記信頼性指標が、リング照明25により照明した場合の前記信頼性指標よりも低い場合には、リング照明25により照明し、撮像素子50により取得した画像に基づいて前記第1フォーカス探索手段63がフォーカス探索を行う。   Further, the control unit 72 compares the reliability index of the focus search result of the observation object SP illuminated by the coaxial incident light 24 with the reliability index of the focus search result of the observation target SP illuminated by the ring illumination 25; When the reliability index when illuminated by the coaxial epi-illumination 24 is lower than the reliability index when illuminated by the ring illumination 25, illumination is performed by the ring illumination 25 and the image acquired by the imaging device 50 is used. The first focus search means 63 performs a focus search.

また、制御部72は、同軸落射照明24及びリング照明25の光を第1の比率で観察対象物SPに照射したときのフォーカス探索結果の信頼性指標を算出し、算出した信頼性指標が所定の基準を満たしているか否かを判定し、所定の基準を満たしていないと判定した場合には、前記第1の比率を維持したまま、撮像した画像のダイナミックレンジを広げるハイダイナミックレンジ合成(HDR)処理を実行するように構成することもできる。HDR処理を行う際、照明の比率を第1の比率から変更してもよい。   Further, the control unit 72 calculates the reliability index of the focus search result when the light of the coaxial epi-illumination 24 and the ring illumination 25 is irradiated to the observation object SP at the first ratio, and the calculated reliability index is predetermined. If it is determined that the predetermined standard is not satisfied, high dynamic range combining (HDR) is performed to expand the dynamic range of the captured image while maintaining the first ratio. ) Can also be configured to perform the process. When performing HDR processing, the lighting ratio may be changed from the first ratio.

HDR処理は、露光時間等を変更しながら複数回撮像して複数の撮像データを取得した後、それらを合成することで広いダイナミックレンジを有する画像にする処理であり、この処理自体は従来のHDR処理と同じ処理とすることができる。また、単一の露光条件で取得した画像において、ハレーション(白飛び)や黒つぶれが発生している部分についてはフォーカス探索を行うことができないが、HDR処理を行うことでハレーションや黒つぶれの発生を抑えることができるため、より正確にフォーカス探索を行えるようになる。   The HDR processing is processing for obtaining an image having a wide dynamic range by combining a plurality of imaging data by capturing a plurality of times while changing the exposure time and the like, and combining them, and this processing itself is a conventional HDR It can be the same process as the process. In addition, in an image acquired under a single exposure condition, focus search can not be performed on a part where halation (overexposure) or underexposure has occurred, but when HDR processing is performed, halation or overexposure occurs. As a result, the focus search can be performed more accurately.

また、HDR処理を行うことなく、同軸落射照明24及びリング照明25の少なくとも一方の光量を変化させてもよいし、露光時間を変化させてもよい。   In addition, the light amount of at least one of the coaxial epi-illumination 24 and the ring illumination 25 may be changed without performing the HDR processing, or the exposure time may be changed.

また、制御部72は、同軸落射照明24の光を観察対象物SPに照射したときのフォーカス探索結果の信頼性指標と、リング照明25の光を観察対象物SPに照射したときのフォーカス探索結果の信頼性指標とを算出し、両方の信頼性指標が所定の基準を満たしているか否かを判定し、所定の基準を満たしていないと判定した場合には、第2三次元形状測定手段66により観察対象物SPの三次元形状を測定するように構成されていることを特徴とする。   Further, the control unit 72 determines the reliability index of the focus search result when the light of the coaxial incident illumination 24 is irradiated to the observation object SP, and the focus search result when the light of the ring illumination 25 is irradiated to the observation object SP The second three-dimensional shape measuring means 66 calculates the reliability index of the second one, and determines whether both the reliability indices satisfy the predetermined criteria, and determines that the predetermined criteria are not satisfied. To measure the three-dimensional shape of the observation object SP.

また、制御部72は、同軸落射照明24により照明した観察対象物SPのフォーカス探索結果の信頼性指標と、リング照明25により照明した観察対象物SPのフォーカス探索結果の信頼性指標とに基づいて、信頼性指標が高い照明に切り替えるように構成することもできる。   Further, the control unit 72 is based on the reliability index of the focus search result of the observation object SP illuminated by the coaxial incident light 24 and the reliability index of the focus search result of the observation object SP illuminated by the ring illumination 25. It can also be configured to switch to illumination with a high reliability index.

(衝突推定部72fの構成)
電動レボルバ28を設けた場合、作動距離(以下、WDという。)の長い対物レンズ27からWDの短い対物レンズ27に切り替える際には、対物レンズ27の先端部が観察対象物SPに衝突してしまう危険性がある。一方、レボルバを使用者が手で回す場合には、一般に対物レンズ27と観察対象物SPとを同時に見ながら回すので、対物レンズ27と観察対象物SPとが衝突する直前でレボルバの回転を停止させることができ、上述した問題は起こらないと考えられ、よって、上述した問題は電動レボルバ28に特有の問題となる。
(Configuration of collision estimation unit 72f)
When the electric revolver 28 is provided, the tip of the objective lens 27 collides with the observation object SP when switching from the long objective lens 27 of working distance (hereinafter referred to as WD) to the short objective lens 27 of WD. There is a risk of On the other hand, when the user turns the revolver by hand, generally, the objective lens 27 and the observation object SP are simultaneously viewed while turning, so the rotation of the revolver is stopped immediately before the objective lens 27 collides with the observation object SP. It is believed that the above-mentioned problem does not occur, and therefore the above-mentioned problem is a problem unique to the electric revolver 28.

このことに対し、この実施形態では、図6に示すように制御部72に衝突推定部72fを設けている。衝突推定部72fは、電動レボルバ28が回転を始めるとき、第1三次元形状測定手段65または第2三次元形状測定手段66により取得された観察対象物SPの位置及び高さ情報に基づき、電動レボルバ28が回転した後の対物レンズ27と観察対象物SPとの衝突を推定する。   On the other hand, in this embodiment, as shown in FIG. 6, the control unit 72 is provided with a collision estimation unit 72f. When the electric revolver 28 starts to rotate, the collision estimation unit 72 f is electrically operated based on the position and height information of the observation object SP acquired by the first three-dimensional shape measurement means 65 or the second three-dimensional shape measurement means 66. The collision between the objective lens 27 and the observation object SP after the revolver 28 rotates is estimated.

衝突推定部72fは、第1三次元形状測定手段65または第2三次元形状測定手段66により取得された観察対象物SPの位置及び高さ情報を取得することができ、観察対象物SPの位置及び高さ情報を取得した後に、電動レボルバ28を回転させようとするときには、回転を始める前に、衝突推定部72fが、電動レボルバ28が回転した後の対物レンズ27と観察対象物SPとの衝突を推定するように構成されている。観察対象物SPとの衝突は、主に対物レンズ27の先端部であることから、事前に対物レンズ27の先端部に関する情報を得て、記憶部73等に記憶しておく。対物レンズ27の先端部に関する情報としては、上記WDの他、同焦点距離、対物レンズ27の長さや外径等を挙げることができる。同焦点距離は、対物レンズ27の取付面から観察対象物SPの観察面までの距離である。尚、観察対象物SPの位置及び高さ情報を取得する前に電動レボルバ28を回転させようとするときには、回転を始める前に、観察対象物SPの位置及び高さ情報を取得して衝突の推定を行うようにすればよい。   The collision estimation unit 72f can acquire the position and height information of the observation object SP acquired by the first three-dimensional shape measurement means 65 or the second three-dimensional shape measurement means 66, and the position of the observation object SP When it is attempted to rotate the electric revolver 28 after acquiring the height information and the height information, the collision estimation unit 72 f may set the objective lens 27 and the observation object SP after the electric revolver 28 rotates before starting the rotation. It is configured to estimate a collision. Since the collision with the observation object SP is mainly at the tip of the objective lens 27, information on the tip of the objective lens 27 is obtained in advance and stored in the storage unit 73 or the like. As information on the tip portion of the objective lens 27, in addition to the above-mentioned WD, the same focal length, the length and the outer diameter of the objective lens 27, and the like can be mentioned. The homofocal distance is a distance from the attachment surface of the objective lens 27 to the observation surface of the observation object SP. When it is intended to rotate the electric revolver 28 before acquiring the position and height information of the observation object SP, the position and height information of the observation object SP is acquired before the rotation is started, and collision is It is sufficient to make an estimation.

対物レンズ27の先端部に関する情報に基づいて、電動レボルバ28が回転した後の対物レンズ27の先端部の位置を把握することができる。この位置に、観察対象物SPの一部が存在するか否かを判定し、対物レンズ27の先端部が位置する所に観察対象物SPの一部が存在する場合には、対物レンズ27と観察対象物SPとが衝突すると推定し、一方、対物レンズ27の先端部が位置する所に観察対象物SPの一部が存在しない場合には対物レンズ27と観察対象物SPとが衝突しないと推定する。   The position of the tip of the objective lens 27 after the motorized revolver 28 rotates can be grasped based on the information on the tip of the objective lens 27. It is determined whether or not a part of the observation object SP is present at this position, and when a part of the observation object SP is present where the tip of the objective lens 27 is located, It is assumed that the object of observation SP collides with the object of observation, while the part of the object of observation SP does not collide with the object of observation SP when the tip of the objective lens 27 is not partially present. presume.

ナビゲーション画像取得手段68は、電動レボルバ制御部61により電動レボルバ28を制御して非共焦点観察光学系30の倍率を第1の倍率として、撮像素子50によりナビゲーション画像を取得するように構成することができる。この第1の倍率は任意に設定することができる。   The navigation image acquisition unit 68 is configured to control the electric revolver 28 by the electric revolver control unit 61 to acquire the navigation image by the imaging device 50 with the magnification of the non-confocal observation optical system 30 as the first magnification. Can. This first magnification can be set arbitrarily.

衝突推定部72fは、非共焦点観察光学系30の倍率を前記第1の倍率よりも高い倍率とするように前記電動レボルバ28が回転を始めるとき、第1三次元形状測定手段65または第2三次元形状測定手段66により取得された観察対象物SPの位置及び高さ情報に基づき、対物レンズ27と観察対象物SPとの衝突を推定することができる。すなわち、高倍率の対物レンズ27は、低倍率の対物レンズ27に比べてWDが短い傾向にあり、この場合に、観察対象物SPの位置及び高さ情報に基づいた対物レンズ27と観察対象物SPとの衝突の推定が特に有効になる。   When the motorized revolver 28 starts to rotate so that the magnification of the non-confocal observation optical system 30 is set to be higher than the first magnification, the collision estimation unit 72 f performs the first three-dimensional shape measurement means 65 or the second The collision between the objective lens 27 and the observation object SP can be estimated based on the position and height information of the observation object SP acquired by the three-dimensional shape measurement means 66. That is, the high-magnification objective lens 27 tends to have a shorter WD than the low-magnification objective lens 27. In this case, the objective lens 27 and the observation object based on the position and height information of the observation object SP Estimating collisions with the SP is particularly useful.

また、ナビゲーション画像取得手段68は、電動レボルバ制御部61により電動レボルバ28を制御して共焦点観察光学系40の倍率を第1の倍率として、光電子倍増管51によりナビゲーション画像を取得するように構成することもできる。   Further, the navigation image acquisition means 68 is configured to control the electric revolver 28 by the electric revolver control unit 61 to acquire the navigation image by the photomultiplier tube 51 with the magnification of the confocal observation optical system 40 as the first magnification. You can also

衝突推定部72fは、共焦点観察光学系40の倍率を前記第1の倍率よりも高い倍率とするように前記電動レボルバ28が回転を始めるとき、第1三次元形状測定手段65または第2三次元形状測定手段66により取得された観察対象物SPの位置及び高さ情報に基づき、対物レンズ27と観察対象物SPとの衝突を推定することができる。   When the motorized revolver 28 starts to rotate so that the magnification of the confocal observation optical system 40 is set to be higher than the first magnification, the collision estimation unit 72 f performs the first three-dimensional shape measurement means 65 or the second third order The collision between the objective lens 27 and the observation object SP can be estimated based on the position and height information of the observation object SP acquired by the original shape measurement means 66.

第1フォーカス探索手段63、第2フォーカス探索手段64、第1三次元形状測定手段65及び第2三次元形状測定手段66は、衝突推定部72fが利用する観察対象物SPの位置及び高さ情報を測定するための簡易高さ測定条件に従って動作するように構成することができる。例えば、ナビゲーション画像が表示された表示部5上の位置の指定に基づいて決定した観察視野を包含する倍率の対物レンズ27を、前記簡易高さ測定条件における対物レンズ27としてもよい。簡易高さ測定条件は、観察時よりも簡易的に設定された測定条件である。   The first focus search means 63, the second focus search means 64, the first three-dimensional shape measurement means 65, and the second three-dimensional shape measurement means 66 are information on the position and height of the observation object SP used by the collision estimation unit 72f. It can be configured to operate according to the simple height measurement condition for measuring. For example, the objective lens 27 having a magnification that includes the observation field of view determined based on the designation of the position on the display unit 5 where the navigation image is displayed may be used as the objective lens 27 under the simplified height measurement condition. The simple height measurement conditions are measurement conditions set more simply than at the time of observation.

衝突推定部72fは、前記簡易高さ測定条件における対物レンズ27よりも作動距離の短い対物レンズ27が観察用の対物レンズ27となるように電動レボルバ28が回転を始めるとき、前記簡易高さ測定条件に従って取得された観察対象物SPの位置及び高さ情報に基づき、前記作動距離の短い対物レンズ27と観察対象物SPとの衝突を推定する。   The collision estimation unit 72f measures the simplified height when the motorized revolver 28 starts rotating so that the objective lens 27 whose working distance is shorter than the objective lens 27 under the simplified height measurement condition becomes the objective lens 27 for observation. The collision between the objective lens 27 with a short working distance and the observation object SP is estimated based on the position and height information of the observation object SP acquired according to the conditions.

衝突推定部72fは、前記簡易高さ測定条件における対物レンズ27よりも倍率の高い対物レンズ27が観察用の対物レンズ27となるように電動レボルバ28が回転を始めるとき、該倍率の高い対物レンズ27と観察対象物SPとの衝突を推定するように構成することもできる。   When the motorized revolver 28 starts to rotate so that the objective lens 27 having a magnification higher than that of the objective lens 27 under the simplified height measurement condition becomes the objective lens 27 for observation, the collision estimation unit 72 f performs the objective lens with a high magnification 27 can also be configured to estimate the collision between the observation object 27 and the observation object SP.

衝突推定部72fは、対物レンズ27と観察対象物SPとが衝突すると推定されるときには使用者に報知するように構成することができる。報知する手段としては、表示部5上に表示する方法、音声による方法等を挙げることができるが、どのような方法であっても構わない。   The collision estimation unit 72f can be configured to notify the user when it is estimated that the objective lens 27 and the observation object SP collide with each other. Examples of the means for notification include a method of displaying on the display unit 5, a method by voice, and the like, but any method may be used.

報知後、使用者が電動レボルバ28の回転をキャンセルできるようにしてもよい。ユーザーインターフェースに、電動レボルバ28の回転キャンセルボタンを設けておき、使用者が操作できるようにしておく。また、報知後、使用者に対して衝突可能性の低い対物レンズ27を提示し、選択可能にしてもよい。また、予め対物レンズ27の使用可能な倍率を使用者に提示しておくこともできる。   After notification, the user may be able to cancel the rotation of the electric revolver 28. A rotation cancel button of the electric revolver 28 is provided on the user interface so that the user can operate it. In addition, after notification, an objective lens 27 having a low possibility of collision may be presented to the user and made selectable. In addition, the user can be presented with a usable magnification of the objective lens 27 in advance.

Z軸駆動部52は、電動レボルバ28の回転前に、対物レンズ27と電動載置台23との相対距離が現在の距離よりも長くなるように該相対距離を変化させ、その後、載置台制御部62は、Z軸駆動部52により対物レンズ27と電動載置台23との相対距離を長くした後に、表示部5上の位置の指定に基づいて決定された観察位置及び/又は観察視野に対応して電動載置台23の水平位置を変更し、衝突推定部72fは、電動載置台23の水平位置が変更された後、対物レンズ27と観察対象物SPとの衝突を推定することもできる。   The Z-axis drive unit 52 changes the relative distance so that the relative distance between the objective lens 27 and the motorized mounting table 23 becomes longer than the current distance before the motorized revolver 28 rotates, and then the mounting table control unit 62 corresponds to the observation position and / or the observation field determined based on the designation of the position on the display unit 5 after the relative distance between the objective lens 27 and the motorized mounting table 23 is increased by the Z-axis drive unit 52 After the horizontal position of the motorized mounting table 23 is changed, the collision estimation unit 72f can also estimate the collision between the objective lens 27 and the observation object SP.

制御部72は、衝突推定部72fが利用する観察対象物SPの高さ情報に基づいて、対物レンズ27と電動載置台23との離間距離の上限値及び下限値を設定することができる。   The control unit 72 can set the upper limit value and the lower limit value of the separation distance between the objective lens 27 and the motorized mounting table 23 based on the height information of the observation object SP used by the collision estimation unit 72 f.

オートフォーカス機構は、Z軸駆動部52により対物レンズ27とZ軸駆動部52との相対距離を短くする過程で、観察対象物SPにピントを自動的に合わせるように構成することができる。   The autofocusing mechanism can be configured to automatically focus on the observation object SP in the process of shortening the relative distance between the objective lens 27 and the Z-axis drive unit 52 by the Z-axis drive unit 52.

ナビゲーション画像取得手段68がナビゲーション画像を取得するときに、第1三次元形状測定手段65及び第2三次元形状測定手段66が観察対象物SPの三次元形状を測定するように構成することもできる。   The first three-dimensional shape measurement means 65 and the second three-dimensional shape measurement means 66 may be configured to measure the three-dimensional shape of the observation object SP when the navigation image acquisition means 68 acquires a navigation image. .

(動作具体例1)
図25は、使用者に確認を求めずにフォーカス合成モードとレーザー共焦点モードで測定する場合の手順を示したフローチャートである。ステップSB1では、フォーカス合成モードで三次元形状測定データを取得する。ステップSB2では、信頼性指標算出部72dが、ステップSB1で取得した三次元形状測定データの信頼度を計算する。信頼度は、信頼性指標に基づいて得ることができ、信頼性指標が高いほど信頼度が高くなる。また、信頼度と信頼性指標とは同じにしてもよい。
(Operation example 1)
FIG. 25 is a flow chart showing a procedure for measurement in the focusing mode and the laser confocal mode without asking the user for confirmation. In step SB1, three-dimensional shape measurement data is acquired in the focus combining mode. At step SB2, the reliability index calculating unit 72d calculates the reliability of the three-dimensional shape measurement data acquired at step SB1. The reliability can be obtained based on the reliability index, and the higher the reliability index, the higher the reliability. Also, the reliability and the reliability index may be the same.

ステップSB3では、レーザー共焦点モードで三次元形状測定データを取得する。ステップSB4では、信頼性指標算出部72dが、ステップSB3で取得した三次元形状測定データの信頼度を計算する。ステップSB5では、ステップSB2で計算した三次元形状測定データの信頼度と、ステップSB4で計算した三次元形状測定データの信頼度とを比較する。ステップSB6では、各ピクセル(各画素)において信頼度の高い方のデータを使用して三次元形状測定データを作成する。   At step SB3, three-dimensional shape measurement data is acquired in the laser confocal mode. At step SB4, the reliability index calculating unit 72d calculates the reliability of the three-dimensional shape measurement data acquired at step SB3. At step SB5, the reliability of the three-dimensional shape measurement data calculated at step SB2 is compared with the reliability of the three-dimensional shape measurement data calculated at step SB4. In step SB6, three-dimensional shape measurement data is created using data of higher reliability in each pixel (each pixel).

詳しくは、制御部72は、フォーカス合成モードで取得した三次元形状データの信頼度が、レーザー共焦点モードで取得した三次元形状データの信頼度以上の場合には、上述の第1信頼性指標が第2信頼性指標以上であると判断し、フォーカス合成モードで取得した三次元形状データを使用する。対して、レーザー共焦点モードに係る信頼度がフォーカス合成モードに係る信頼度よりも高いときには、第1信頼性指標が第2信頼性指標未満であると判断し、レーザー共焦点モードで取得した三次元形状データを使用する。なお、信頼度が高いか否かの判断は、置換判断部72eが行う。また、上述のように、この判断は各ピクセルで行われる。信頼度にかえて、信頼性指標を直接比較してもよい。   Specifically, when the reliability of the three-dimensional shape data acquired in the focusing mode is equal to or higher than the reliability of the three-dimensional shape data acquired in the laser confocal mode, the control unit 72 performs the first reliability index described above. Is determined to be equal to or higher than the second reliability index, and three-dimensional shape data acquired in the focus combining mode is used. On the other hand, when the reliability related to the laser confocal mode is higher than the reliability related to the focus combining mode, it is determined that the first reliability index is less than the second reliability index, and the third order acquired in the laser confocal mode Use original shape data. It is to be noted that the replacement determination unit 72e determines whether the reliability is high. Also, as described above, this determination is made at each pixel. Instead of reliability, the reliability index may be directly compared.

その後、ステップSB7に進む。このようにして、観察対象物SPの三次元形状が取得されるようになっている。尚、ステップSB1、SB2と、ステップSB3、SB4とは入れ替えることができ、この場合、先にレーザー共焦点モードで測定することができる。また、ステップSB2とステップSB4とは並行して行うこともできる。   Thereafter, the process proceeds to step SB7. In this way, the three-dimensional shape of the observation object SP is acquired. Steps SB1 and SB2 can be interchanged with steps SB3 and SB4. In this case, measurement can be performed first in the laser confocal mode. Also, step SB2 and step SB4 can be performed in parallel.

(動作具体例2)
図26は、測定結果の信頼度によってフォーカス合成モードとレーザー共焦点モードで測定する場合の手順を示したフローチャートである。ステップSC1では、フォーカス合成モードで三次元形状測定データを取得する。ステップSC2では、信頼性指標算出部72dが、ステップSC1で取得した三次元形状測定データの信頼度を計算する。ステップSC3では、ステップSC2で計算した三次元形状測定データの信頼度がしきい値以上であるか否かを判定する。ステップSC2でNOと判定されて三次元形状測定データの信頼度がしきい値未満であればステップSC4に進み、一方、ステップSC2でYESと判定されて三次元形状測定データの信頼度がしきい値以上であればステップSC8に進み、フォーカス合成モードで取得した三次元形状測定データを使用する。
(Operation example 2)
FIG. 26 is a flow chart showing a procedure for measurement in the focusing mode and the laser confocal mode according to the reliability of the measurement result. In step SC1, three-dimensional shape measurement data is acquired in the focus combining mode. In step SC2, the reliability index calculator 72d calculates the reliability of the three-dimensional shape measurement data acquired in step SC1. In step SC3, it is determined whether the reliability of the three-dimensional shape measurement data calculated in step SC2 is equal to or more than a threshold. If NO in step SC2 and the reliability of the three-dimensional shape measurement data is less than the threshold value, the process proceeds to step SC4, while YES is determined in step SC2 and the reliability of the three-dimensional shape measurement data is the threshold. If it is the value or more, the process proceeds to step SC8, and the three-dimensional shape measurement data acquired in the focus combining mode is used.

ステップSC3でNOと判定されて進んだステップSC4では、レーザー共焦点モードで三次元形状測定データを取得する。ステップSC5では、信頼性指標算出部72dが、ステップSC4で取得した三次元形状測定データの信頼度を計算する。ステップSC6では、ステップSC2で計算した三次元形状測定データの信頼度と、ステップSC5で計算した三次元形状測定データの信頼度とを比較する。ステップSC7では、各ピクセル(各画素)において信頼度の高い方のデータを使用して三次元形状測定データを作成する。信頼度が高いか否かは置換判断部72eが行う。その後、ステップSC8に進む。このようにして、観察対象物SPの三次元形状が取得されるようになっている。   In step SC4, which is determined as NO in step SC3 and proceeds, three-dimensional shape measurement data is acquired in the laser confocal mode. In step SC5, the reliability index calculator 72d calculates the reliability of the three-dimensional shape measurement data acquired in step SC4. At step SC6, the reliability of the three-dimensional shape measurement data calculated at step SC2 is compared with the reliability of the three-dimensional shape measurement data calculated at step SC5. In step SC7, three-dimensional shape measurement data is created using data of higher reliability in each pixel (each pixel). The replacement determination unit 72e determines whether the reliability is high. Thereafter, the process proceeds to step SC8. In this way, the three-dimensional shape of the observation object SP is acquired.

このように、制御部72は、フォーカス合成モードで取得した三次元形状データの信頼度が上記しきい値以上の場合には、上述の第1信頼性指標が所定の第1しきい値以上であると判断し、フォーカス合成モードで取得した三次元形状データをそのまま使用する一方、その信頼度が上記しきい値未満のときには、レーザー共焦点モードで取得した三次元形状データによって置換して使用する。信頼度が高いか否かの判断は、置換判断部72eが行う。また、上述のように、この判断は各ピクセルで行われる。信頼度にかえて、信頼性指標を直接比較してもよい。   As described above, when the reliability of the three-dimensional shape data acquired in the focusing mode is equal to or more than the threshold value, the control unit 72 determines that the first reliability index is equal to or more than the predetermined first threshold value. It is judged that there is, and the 3D shape data acquired in the focusing mode is used as it is, but when the reliability is less than the above threshold, it is replaced by the 3D shape data acquired in the laser confocal mode . The replacement determination unit 72e determines whether the reliability is high. Also, as described above, this determination is made at each pixel. Instead of reliability, the reliability index may be directly compared.

尚、ステップSC1、SC2と、ステップSC4、SC5とは入れ替えることができ、この場合、先にレーザー共焦点モードで測定することができる。このような構成とした場合、制御部72は、レーザー共焦点モードで取得した三次元形状データの信頼度がしきい値以上の場合には、上述の第2信頼性指標が所定の第2しきい値以上であると判断し、レーザー共焦点モードで取得した三次元形状データをそのまま使用する一方、その信頼度が上記しきい値未満のときには、フォーカス合成モードで取得した三次元形状データによって置換して使用する。信頼度にかえて、信頼性指標を直接比較してもよい。   Steps SC1 and SC2 can be interchanged with steps SC4 and SC5. In this case, measurement can be performed first in the laser confocal mode. In such a configuration, when the reliability of the three-dimensional shape data acquired in the laser confocal mode is equal to or higher than the threshold, the control unit 72 determines that the second reliability index described above is a predetermined second. It is judged that the threshold value is over and the 3D shape data acquired in the laser confocal mode is used as it is, but when its reliability is less than the above threshold value, it is replaced by the 3D shape data acquired in the focusing mode. To use. Instead of reliability, the reliability index may be directly compared.

(動作具体例3)
図27は、フォーカス合成モードとレーザー共焦点モードで測定するか否かを使用者の判断にゆだねる場合の手順を示したフローチャートである。ステップSD1では、フォーカス合成モードで三次元形状測定データを取得する。ステップSD2では、信頼性指標算出部72dが、ステップSD1で取得した三次元形状測定データの信頼度を計算する。ステップSD3では、ステップSD2で計算した三次元形状測定データの信頼度がしきい値以上であるか否かを判定する。ステップSD2でNOと判定されて三次元形状測定データの信頼度がしきい値未満であればステップSD4に進み、一方、ステップSD2でYESと判定されて三次元形状測定データの信頼度がしきい値以上であればステップSD9に進み、フォーカス合成モードで取得した三次元形状測定データを使用する。
(Operation example 3)
FIG. 27 is a flow chart showing a procedure in the case where the user decides whether to measure in the focus combining mode and the laser confocal mode. At step SD1, three-dimensional shape measurement data is acquired in the focus combining mode. In step SD2, the reliability index calculator 72d calculates the reliability of the three-dimensional shape measurement data acquired in step SD1. In step SD3, it is determined whether the reliability of the three-dimensional shape measurement data calculated in step SD2 is equal to or more than a threshold. If NO in step SD2 and the reliability of the three-dimensional shape measurement data is less than the threshold value, the process proceeds to step SD4, while YES is determined in step SD2 and the reliability of the three-dimensional shape measurement data is the threshold. If it is the value or more, the process proceeds to step SD9, and the three-dimensional shape measurement data acquired in the focus combining mode is used.

ステップSD3でNOと判定されて進んだステップSD4では、置換の要否について、表示部5を介して使用者へ通知を行う。具体的に、このステップSD4では、「レーザー共焦点でデータを取得しますか?」というダイアログを表示部5に表示させる。ダイアログはこれに限られるものではなく、使用者に対し、レーザー共焦点モードで測定し直してもよいかどうかを尋ねるダイアログであればよい。そして、キーボード6やマウス7を介してなされた操作入力に基づき、置換を実行するための処理へと移行する。   In step SD4, which is determined as NO in step SD3 and proceeds, notification is made to the user via the display unit 5 as to whether or not replacement is necessary. Specifically, in this step SD4, the display unit 5 displays a dialog of "Do you want to acquire data by laser confocal?" The dialog is not limited to this, and may be a dialog asking the user whether or not measurement in laser confocal mode may be re-performed. Then, based on the operation input made through the keyboard 6 and the mouse 7, the processing shifts to processing for executing replacement.

具体的に、ステップSD4において使用者がNOと回答を入力するとステップSD9に進み、フォーカス合成モードで取得した三次元形状測定データを使用する。ステップSD4において使用者がYESと回答を入力するとステップSD5に進み、レーザー共焦点モードで三次元形状測定データを取得する。ステップSD6では、信頼性指標算出部72dが、ステップSD5で取得した三次元形状測定データの信頼度を計算する。ステップSD7では、ステップSD2で計算した三次元形状測定データの信頼度と、ステップSD6で計算した三次元形状測定データの信頼度とを比較する。ステップSD7では、各ピクセル(各画素)において信頼度の高い方のデータを使用して三次元形状測定データを作成する。信頼度が高いか否かは置換判断部72eが行う。その後、ステップSD9に進む。このようにして、観察対象物SPの三次元形状が取得されるようになっている。尚、ステップSD1、SD2と、ステップSD5、SD5とは入れ替えることができ、この場合、先にレーザー共焦点モードで測定することができる。先にレーザー共焦点モードで測定する場合には、ステップSD4において「フォーカス合成でデータを取得しますか?」というダイアログを表示部5に表示させればよい。   Specifically, when the user inputs an answer “NO” in step SD4, the process proceeds to step SD9, and the three-dimensional shape measurement data acquired in the focus combining mode is used. If the user inputs an answer YES in step SD4, the process proceeds to step SD5, and three-dimensional shape measurement data is acquired in the laser confocal mode. In step SD6, the reliability index calculator 72d calculates the reliability of the three-dimensional shape measurement data acquired in step SD5. At step SD7, the reliability of the three-dimensional shape measurement data calculated at step SD2 is compared with the reliability of the three-dimensional shape measurement data calculated at step SD6. In step SD7, three-dimensional shape measurement data is created using data of higher reliability in each pixel (each pixel). The replacement determination unit 72e determines whether the reliability is high. Thereafter, the process proceeds to step SD9. In this way, the three-dimensional shape of the observation object SP is acquired. Steps SD1 and SD2 can be interchanged with steps SD5 and SD5. In this case, measurement can be performed first in the laser confocal mode. In the case where the measurement is performed first in the laser confocal mode, a dialog of “Do you want to acquire data by focus combination?” May be displayed on the display unit 5 in step SD4.

動作具体例1〜3では、レーザー共焦点モードでの測定と、フォーカス合成モードでの測定を対物レンズ27の視野の全範囲について行うようにしているが、これに限られるものではない。例えば、フォーカス合成モードでの測定を対物レンズ27の視野の全範囲について行った後、信頼度の低い画素(領域)のみレーザー共焦点モードで測定し直すことや、レーザー共焦点モードでの測定を対物レンズ27の視野の全範囲について行った後、信頼度の低い画素(領域)のみフォーカス合成モードで測定し直すこともできる。   In the operation examples 1 to 3, although the measurement in the laser confocal mode and the measurement in the focusing mode are performed over the entire range of the field of view of the objective lens 27, it is not limited thereto. For example, after the measurement in the focusing mode is performed on the entire range of the field of view of the objective lens 27, only the pixels (areas) with low reliability are remeasured in the laser confocal mode, or the measurement in the laser confocal mode is performed. After performing the entire range of the field of view of the objective lens 27, it is also possible to re-measure only the pixels (areas) with low reliability in the focusing mode.

(実施形態の作用効果)
この実施形態によれば、フォーカス合成の原理を使用した測定手法と、レーザー共焦点の原理を使用した測定手法とを実現することができる。
(Operation and effect of the embodiment)
According to this embodiment, it is possible to realize a measurement method using the principle of focus synthesis and a measurement method using the principle of laser confocal.

第1三次元形状測定手段65によるフォーカス合成測定モードと、第2三次元形状測定手段66によるレーザー共焦点測定モードとの各測定モードの測定パラメータを測定パラメータ設定部67により設定できる。例えば、フォーカス合成測定モード時に測定パラメータ設定部67により測定パラメータを設定していて、その後、レーザー共焦点測定モードに切り替えられた場合には、フォーカス合成測定モード時に設定されていた測定パラメータがレーザー共焦点測定モードの測定パラメータとして引き継がれる。レーザー共焦点測定モードからフォーカス合成測定モードに切り替えた場合も同様である。したがって、測定モードを頻繁に切り替えたとしても使用者の操作の負担を軽減することができる。   The measurement parameter setting unit 67 can set measurement parameters of each measurement mode of the focus combining measurement mode by the first three-dimensional shape measurement means 65 and the laser confocal measurement mode by the second three-dimensional shape measurement means 66. For example, when the measurement parameter is set by the measurement parameter setting unit 67 in the focus synthesis measurement mode and then switched to the laser confocal measurement mode, the measurement parameter set in the focus synthesis measurement mode is the laser. It is taken over as a measurement parameter of the focus measurement mode. The same applies to the case where the laser confocal measurement mode is switched to the focus combination measurement mode. Therefore, even if the measurement mode is frequently switched, the burden on the user's operation can be reduced.

また、表示部5には、パラメータを表示可能な基本測定表示領域82と、ライブ画像表示領域80aとが表示されるので、使用者がライブ画像表示領域80aのライブ画像を見ながら測定モード用パラメータを設定することができる。このとき、基本測定表示領域82には、第1三次元形状測定手段65による測定モード用パラメータ設定領域と、第2三次元形状測定手段66による測定モード用パラメータ設定領域との一方を表示させて測定パラメータを設定することができる。例えば、使用者が第1三次元形状測定手段65による測定モード用パラメータ設定領域を表示させると、ライブ画像表示領域80aには、非共焦点観察光学系30を介して撮像素子50により取得されたライブ画像が表示され、また、使用者が第2三次元形状測定手段66による測定モード用パラメータ設定領域を表示させると、ライブ画像表示領域80aには、共焦点観察光学系40を介して光電子倍増管51により取得されたライブ画像が表示される。つまり、表示されているライブ画像と、基本測定表示領域82に表示されているパラメータとが対応するので、設定時における使用者の使いやすさを向上させることができる。   In addition, since the basic measurement display area 82 capable of displaying parameters and the live image display area 80a are displayed on the display unit 5, the measurement mode parameters are displayed while the user is looking at the live image of the live image display area 80a. Can be set. At this time, one of the measurement mode parameter setting area by the first three-dimensional shape measurement means 65 and the measurement mode parameter setting area by the second three-dimensional shape measurement means 66 are displayed in the basic measurement display area 82. Measurement parameters can be set. For example, when the user causes the first three-dimensional shape measurement means 65 to display the measurement mode parameter setting area, the live image display area 80a is acquired by the imaging device 50 through the non-confocal observation optical system 30. When a live image is displayed and the user causes the second three-dimensional shape measurement means 66 to display a parameter setting area for measurement mode, the photoelectron doubling is performed via the confocal observation optical system 40 in the live image display area 80a. The live image acquired by the pipe 51 is displayed. That is, since the live image being displayed corresponds to the parameter displayed in the basic measurement display area 82, the usability of the user at the time of setting can be improved.

また、上述したようにフォーカス合成の原理を使用した測定手法と、共焦点の原理を使用した測定手法との両方を兼ね備えた構成にすることができるとともに、フォーカス合成の原理を使用した測定手法の場合には、同軸落射照明24とリング照明25とのいずれか一方で照明した状態や、両方で照明した状態で観察対象物SPの三次元形状を測定することができる。これにより、鏡面状の観察対象物SPのみならず、拡散体や凹凸の大きい観察対象物であっても三次元形状を測定することができる。   Further, as described above, the measurement method using the principle of focus synthesis and the measurement method using the principle of confocal can be configured to have both, and the measurement method using the principle of focus synthesis In this case, the three-dimensional shape of the observation object SP can be measured in a state of being illuminated by either the coaxial epi-illumination 24 or the ring illumination 25 or in a state of being illuminated by both. As a result, it is possible to measure the three-dimensional shape not only of the observation object SP having a mirror-like shape, but also of the observation object having a diffuser or a large unevenness.

また、第1フォーカス探索手段63によるフォーカス探索の信頼性を示す第1信頼性指標と、第2フォーカス探索手段64によるフォーカス探索の信頼性を示す第2信頼性指標が算出されるので、信頼性の高い三次元測定データが得られる。   Also, since the first reliability index indicating the reliability of the focus search by the first focus searching means 63 and the second reliability index indicating the reliability of the focus search by the second focus searching means 64 are calculated, the reliability is calculated. High three-dimensional measurement data is obtained.

また、使用者が、ナビゲーション画像が表示された表示部5上で位置を指定すると、その位置の指定に基づいて観察位置及び/又は観察視野が決定される。決定された観察位置及び/又は観察視野に対応して電動載置台23を動かしたり、観察光学系の倍率を変更し、撮像素子51や光電子倍増管51により観察画像を取得する。   Also, when the user designates a position on the display unit 5 on which the navigation image is displayed, the observation position and / or the observation field of view are determined based on the designation of the position. The motorized mounting table 23 is moved according to the determined observation position and / or observation field of view, or the magnification of the observation optical system is changed, and an observation image is acquired by the imaging device 51 or the photomultiplier 51.

その後、例えば、使用者による観察範囲の変更等によって観察範囲がナビゲーション画像の外となった場合には、ナビゲーション画像への領域の追加が必要になるので、領域の追加指定が行われたことになる。そうすると、ナビゲーション画像取得手段68は、まず、現在の撮像条件が既存のナビゲーション画像取得時の撮像条件と異なっているか否かを判定し、異なっている場合には、撮像条件を、既存のナビゲーション画像取得時の撮像条件に変更して撮像素子51や光電子倍増管51により追加領域を取得し、取得した追加領域の画像と、これまで表示していたナビゲーション画像とが表示部5に同時に表示される。これにより、ナビゲーション画像に新たな領域が追加される。追加された領域の撮像条件がこれまで表示していたナビゲーション画像の撮像条件と同じであることから、自然なナビゲーション画像になる。   After that, for example, when the observation range is out of the navigation image due to a change in the observation range by the user, etc., it is necessary to add the region to the navigation image, and thus the area addition designation is performed. Become. Then, the navigation image acquisition means 68 first determines whether or not the current imaging condition is different from the existing imaging condition at the time of acquiring the navigation image, and if different, the imaging condition is set to the existing navigation image The image pickup condition at the time of acquisition is changed, the additional area is acquired by the imaging device 51 and the photomultiplier tube 51, and the acquired image of the additional area and the navigation image displayed so far are simultaneously displayed on the display unit 5 . This adds a new area to the navigation image. Since the imaging condition of the added area is the same as the imaging condition of the navigation image which has been displayed up to now, it becomes a natural navigation image.

また、第1三次元形状測定手段65や第2三次元形状測定手段66によって取得した観察対象物SPの位置及び高さ情報に基づいて、電動レボルバ28が回転した後の対物レンズ27と観察対象物SPとの衝突を推定できる。よって、WDの長い対物レンズ27からWDの短い対物レンズ27に切り替えるときに、対物レンズ27が観察対象物SPに衝突してしまう危険性が大幅に減少する。   In addition, the objective lens 27 and the observation target after the electric revolver 28 rotates based on the position and height information of the observation object SP acquired by the first three-dimensional shape measurement means 65 and the second three-dimensional shape measurement means 66 The collision with the object SP can be estimated. Therefore, when switching from the long WD objective lens 27 to the short WD objective lens 27, the risk of the objective lens 27 colliding with the observation object SP is greatly reduced.

上述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。   The embodiments described above are merely illustrative in every respect and should not be construed as limiting. Furthermore, all variations and modifications that fall within the equivalent scope of the claims fall within the scope of the present invention.

以上説明したように、本発明は、拡大観察装置、デジタルマイクロスコープ等に適用することができる。   As described above, the present invention can be applied to a magnifying observation apparatus, a digital microscope, and the like.

1 拡大観察装置
5 表示部
23 電動載置台
24 同軸落射照明
25 リング照明
27 対物レンズ
28 電動レボルバ
30 非共焦点観察光学系
40 共焦点観察光学系
50 撮像素子(第1受光素子)
51 光電子倍増管(第2受光素子)
52 Z軸駆動部(垂直移動機構)
53 高さ情報検知部(高さ情報検知手段)
54 ステージ駆動部
62 載置台制御部
63 第1フォーカス探索手段
64 第2フォーカス探索手段
65 第1三次元形状測定手段
66 第2三次元形状測定手段
67 測定パラメータ設定部
68 ナビゲーション画像取得手段
69 観察画像取得部
72 制御部
72d 信頼性指標算出部
72e 置換判断部(置換判断手段)
72f 衝突推定部
80a ライブ画像表示領域
80b ナビゲーション画像表示領域
82 基本測定表示領域
82a 第1設定表示領域
82b 第2設定表示領域
82c 第3設定表示領域
SP 測定対象物
Reference Signs List 1 magnifying observation apparatus 5 display unit 23 motorized mounting table 24 coaxial epi-illumination 25 ring illumination 27 objective lens 28 motorized revolver 30 non-confocal observation optical system 40 confocal observation optical system 50 image pickup element (first light receiving element)
51 Photomultiplier (second light receiving element)
52 Z-axis drive (vertical movement mechanism)
53 Height information detector (height information detector)
54 stage driving unit 62 mounting table control unit 63 first focus searching unit 64 second focus searching unit 65 first three-dimensional shape measuring unit 66 second three-dimensional shape measuring unit 67 measurement parameter setting unit 68 navigation image acquiring unit 69 observed image Acquisition unit 72 Control unit 72 d Reliability index calculation unit 72 e Replacement judgment unit (replacement judging means)
72f collision estimation unit 80a live image display area 80b navigation image display area 82 basic measurement display area 82a first setting display area 82b second setting display area 82c third setting display area SP measurement object SP

Claims (11)

観察対象物を拡大して観察可能にする拡大観察装置において、
観察対象物を載置するための載置台と、
観察対象物に向けて光を照射する観察用照明と、
対物レンズを有する非共焦点観察光学系と、
前記対物レンズを有する共焦点観察光学系と、
前記対物レンズと前記載置台との相対距離を変更自在な垂直移動機構と、
高さ情報を検知する高さ情報検知手段と、
観察対象物の画像を取得するために、前記非共焦点観察光学系を介して観察対象物を撮像する第1受光素子と、
前記共焦点観察光学系を介して観察対象物を測定するための第2受光素子と、
前記垂直移動機構による前記相対距離に対応して前記高さ情報検知手段により検知した高さ情報と前記第1受光素子により取得した画像とに基づいてフォーカス探索をする第1フォーカス探索手段と、
前記垂直移動機構による前記相対距離に対応して前記高さ情報検知手段により検知した高さ情報と前記第2受光素子により取得した信号とに基づいてフォーカス探索をする第2フォーカス探索手段と、
前記第1フォーカス探索手段により探索されたフォーカス位置に基づいて、観察対象物の三次元形状を示す第1三次元形状データを取得する第1三次元形状測定手段と、
前記第2フォーカス探索手段により探索されたフォーカス位置に基づいて、観察対象物の三次元形状を示す第2三次元形状データを取得する第2三次元形状測定手段と、
前記第1フォーカス探索手段によるフォーカス探索結果の信頼性を示す第1信頼性指標、及び、前記第2フォーカス探索手段によるフォーカス探索結果の信頼性を示す第2信頼性指標のうちの少なくとも一方を算出する制御部と、を備えていることを特徴とする拡大観察装置。
In a magnifying observation apparatus that magnifies an observation object and enables observation,
A mounting table for mounting an observation object;
Observation illumination for irradiating light to an observation object;
Non-confocal observation optical system having an objective lens,
A confocal observation optical system having the objective lens;
A vertical movement mechanism capable of changing the relative distance between the objective lens and the mounting table;
Height information detection means for detecting height information;
A first light receiving element for imaging an observation object through the non-confocal observation optical system to obtain an image of the observation object;
A second light receiving element for measuring an observation object via the confocal observation optical system;
First focus search means for performing a focus search based on height information detected by the height information detection means corresponding to the relative distance by the vertical movement mechanism and an image acquired by the first light receiving element;
Second focus search means for performing a focus search based on height information detected by the height information detection means in accordance with the relative distance by the vertical movement mechanism and a signal acquired by the second light receiving element;
First three-dimensional shape measurement means for acquiring first three-dimensional shape data indicating the three-dimensional shape of the observation object based on the focus position searched by the first focus search means;
Second three-dimensional shape measurement means for acquiring second three-dimensional shape data indicating the three-dimensional shape of the observation object based on the focus position searched by the second focus search means;
At least one of a first reliability index indicating the reliability of the focus search result by the first focus searching means and a second reliability index indicating the reliability of the focus search result by the second focus searching means is calculated And a control unit.
請求項1に記載された拡大観察装置において、
前記制御部は、前記第1信頼性指標及び前記第2信頼性指標の算出結果に基づいて、前記第1三次元形状データと前記第2三次元形状データとの置換の要否を判断する置換判断手段を備えていることを特徴とする拡大観察装置。
In the magnifying observation apparatus according to claim 1,
The control unit is a replacement that determines whether or not replacement of the first three-dimensional shape data and the second three-dimensional shape data is necessary based on the calculation result of the first reliability index and the second reliability index. A magnifying observation apparatus characterized by comprising determination means.
請求項2に記載された拡大観察装置において、
前記制御部は、前記第1三次元形状測定手段が前記第1三次元形状データを取得し、かつ前記第2三次元形状測定手段が前記第2三次元形状データを取得したとき、各データに基づいて、前記第1及び第2信頼性指標の双方を算出し、
前記制御部は、
前記第1信頼性指標が前記第2信頼性指標以上の場合には、前記第1三次元形状データを選択して使用する一方、
前記第1信頼性指標が前記第2信頼性指標未満の場合には、前記第2三次元形状データを選択して使用することを特徴とする拡大観察装置。
In the magnifying observation apparatus according to claim 2,
When the first three-dimensional shape measuring means acquires the first three-dimensional shape data and the second three-dimensional shape measuring means acquires the second three-dimensional shape data, the control unit is configured to Calculating both the first and second reliability indicators based on
The control unit
When the first reliability index is equal to or more than the second reliability index, the first three-dimensional shape data is selected and used,
And a second three-dimensional shape data selected and used when the first reliability index is less than the second reliability index.
請求項2に記載された拡大観察装置において、
前記制御部は、前記第1三次元形状測定手段が前記第1三次元形状データを取得したとき、該第1三次元形状データに基づいて前記第1信頼性指標を算出し、
前記制御部は、
前記第1信頼性指標が所定の第1しきい値以上の場合には、前記第1三次元形状データを使用する一方、
前記第1信頼性指標が前記第1しきい値未満の場合には、前記第2三次元形状測定手段を介して前記第2三次元形状データを取得するとともに、前記第1三次元形状データを前記第2三次元形状データによって置換して使用することを特徴とする拡大観察装置。
In the magnifying observation apparatus according to claim 2,
When the first three-dimensional shape measurement means acquires the first three-dimensional shape data, the control unit calculates the first reliability index based on the first three-dimensional shape data,
The control unit
When the first reliability index is equal to or more than a predetermined first threshold value, the first three-dimensional shape data is used,
When the first reliability index is less than the first threshold value, the second three-dimensional shape data is acquired through the second three-dimensional shape measurement means, and the first three-dimensional shape data is acquired. A magnifying observation apparatus characterized by using the second three-dimensional shape data in place of the second three-dimensional shape data.
請求項2に記載された拡大観察装置において、
前記制御部は、前記第2三次元形状測定手段が前記第2三次元形状データを取得したとき、該第2三次元形状データに基づいて前記第2信頼性指標を算出し、
前記制御部は、
前記第2信頼性指標が所定の第2しきい値以上の場合には、前記第2三次元形状データを使用する一方、
前記第2信頼性指標が前記第2しきい値未満の場合には、前記第1三次元形状測定手段を介して前記第1三次元形状データを取得するとともに、前記第2三次元形状データを前記第1三次元形状データによって置換して使用することを特徴とする拡大観察装置。
In the magnifying observation apparatus according to claim 2,
The control unit calculates the second reliability index on the basis of the second three-dimensional shape data when the second three-dimensional shape measurement means acquires the second three-dimensional shape data.
The control unit
If the second reliability index is equal to or greater than a predetermined second threshold, the second three-dimensional shape data is used,
When the second reliability index is less than the second threshold value, the first three-dimensional shape data is acquired via the first three-dimensional shape measurement means, and the second three-dimensional shape data is acquired. A magnifying observation apparatus characterized by using the first three-dimensional shape data in place of the first three-dimensional shape data.
請求項2から5のいずれか1項に記載された拡大観察装置において、
使用者に対して情報を表示する表示部と、
前記使用者による操作入力を受け付ける操作部と、を備え、
前記制御部は、前記第1三次元形状データと前記第2三次元形状データとの間で置換を行うべきと判断したときには、前記表示部を介して前記使用者へ通知を行うとともに、前記操作部に対してなされた操作入力に基づき、前記第1三次元形状データと前記第2三次元形状データとの間で置換を実行することを特徴とする拡大観察装置。
In the magnifying observation apparatus according to any one of claims 2 to 5,
A display unit for displaying information to the user;
And an operation unit that receives an operation input by the user.
When the control unit determines that the replacement should be performed between the first three-dimensional shape data and the second three-dimensional shape data, the control unit notifies the user via the display unit and performs the operation. A magnifying observation apparatus characterized in that replacement is performed between the first three-dimensional shape data and the second three-dimensional shape data based on an operation input made to a unit.
請求項2から6のいずれか1項に記載された拡大観察装置において、
前記制御部は、画素毎に前記第1及び第2信頼性指標のうちの少なくとも一方を算出するとともに、前記置換判断手段を介して画素毎に置換の要否を判断することを特徴とする拡大観察装置。
In the magnifying observation apparatus according to any one of claims 2 to 6,
The control unit calculates at least one of the first and second reliability indicators for each pixel, and determines whether or not replacement is necessary for each pixel via the replacement determination means. Observation device.
請求項7に記載された拡大観察装置において、
前記制御部は、各画素のコントラスト値に基づいて、前記第1信頼性指標を算出することを特徴とする拡大観察装置。
In the magnifying observation apparatus according to claim 7,
The said observation part calculates a said 1st reliability index based on the contrast value of each pixel, The expansion observation apparatus characterized by the above-mentioned.
請求項7又は8に記載された拡大観察装置において、
前記制御部は、各画素の画素値に基づいて、前記第2信頼性指標を算出することを特徴とする拡大観察装置。
In the magnifying observation apparatus according to claim 7 or 8,
The said observation part calculates a said 2nd reliability index based on the pixel value of each pixel, The expansion observation apparatus characterized by the above-mentioned.
請求項1から9のいずれか1項に記載された拡大観察装置において、
前記第1三次元形状データ及び前記第2三次元形状データは、高さ情報を含むことを特徴とする拡大観察装置。
In the magnifying observation apparatus according to any one of claims 1 to 9,
The magnifying observation apparatus characterized in that the first three-dimensional shape data and the second three-dimensional shape data include height information.
請求項1から10のいずれか1項に記載された拡大観察装置において、
前記第1三次元形状データは、色情報を含むことを特徴とする拡大観察装置。
In the magnifying observation apparatus according to any one of claims 1 to 10,
The first aspect of the present invention is characterized in that the first three-dimensional shape data includes color information.
JP2017201339A 2017-10-17 2017-10-17 Magnifying observation device Active JP7002178B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017201339A JP7002178B2 (en) 2017-10-17 2017-10-17 Magnifying observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017201339A JP7002178B2 (en) 2017-10-17 2017-10-17 Magnifying observation device

Publications (2)

Publication Number Publication Date
JP2019074665A true JP2019074665A (en) 2019-05-16
JP7002178B2 JP7002178B2 (en) 2022-01-20

Family

ID=66543232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017201339A Active JP7002178B2 (en) 2017-10-17 2017-10-17 Magnifying observation device

Country Status (1)

Country Link
JP (1) JP7002178B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005077253A (en) * 2003-09-01 2005-03-24 Keyence Corp Magnified observing apparatus, image file generating apparatus, image file generating program and computer readable recording medium
JP2016173294A (en) * 2015-03-17 2016-09-29 オリンパス株式会社 Three-dimensional shape measurement device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005077253A (en) * 2003-09-01 2005-03-24 Keyence Corp Magnified observing apparatus, image file generating apparatus, image file generating program and computer readable recording medium
JP2016173294A (en) * 2015-03-17 2016-09-29 オリンパス株式会社 Three-dimensional shape measurement device

Also Published As

Publication number Publication date
JP7002178B2 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
US8351115B2 (en) Complex type microscopic device
JP6374197B2 (en) Digital microscope and method for optimizing digital microscope work process
JP5732353B2 (en) Magnification observation apparatus, magnification observation method, and magnification observation program
JP5042788B2 (en) Optical three-dimensional measuring device
JP4936841B2 (en) Confocal microscope, confocal microscope operation method, confocal microscope operation program, computer-readable recording medium, and recorded apparatus
JP7097168B2 (en) Magnifying observation device
JP7032098B2 (en) Magnifying observation device
JP2019074670A (en) Magnifying observation device
JP2018066908A (en) Magnifying observation device
JP2007140183A (en) Confocal scanning type microscope device
JP7002178B2 (en) Magnifying observation device
JP6928533B2 (en) Magnifying observation device
JP4180322B2 (en) Confocal microscope system and computer program for parameter setting
JP7023667B2 (en) Magnifying observation device
JP4963567B2 (en) Minute height measuring device
JP6971770B2 (en) Magnifying observation device
JP7430597B2 (en) white interference microscope
JP2005114713A (en) Magnification observation device, method of observing magnified image, operation program for magnification observation, and computer-readable recording medium
JP2003315015A (en) Measuring microscope
JP2018066909A (en) Magnifying observation device
JP2004239890A (en) Magnifying observation device, magnified image observing method, magnifying observation device operation program, and computer-readable recording medium
JP6362435B2 (en) Microscope system
JP2022030997A (en) Laser confocal microscope
JP2023076268A (en) Observation device
JP2020086294A (en) Magnification observation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200923

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211225

R150 Certificate of patent or registration of utility model

Ref document number: 7002178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150