JP2014109616A - Optical microscope - Google Patents

Optical microscope Download PDF

Info

Publication number
JP2014109616A
JP2014109616A JP2012262718A JP2012262718A JP2014109616A JP 2014109616 A JP2014109616 A JP 2014109616A JP 2012262718 A JP2012262718 A JP 2012262718A JP 2012262718 A JP2012262718 A JP 2012262718A JP 2014109616 A JP2014109616 A JP 2014109616A
Authority
JP
Japan
Prior art keywords
light
measurement
magnification
light receiving
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012262718A
Other languages
Japanese (ja)
Other versions
JP6046997B2 (en
Inventor
Masaki Fujiwara
政記 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2012262718A priority Critical patent/JP6046997B2/en
Publication of JP2014109616A publication Critical patent/JP2014109616A/en
Application granted granted Critical
Publication of JP6046997B2 publication Critical patent/JP6046997B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a pattern projection measurement while keeping such convenience of an optical microscope that observation magnification can be freely changed, and limiting enlargement of the microscope to the minimum necessary.SOLUTION: First and second light projection parts 110 are each composed of an optical system having a fixed magnification (for typical example, a double sided telecentric lens). A zoom lens is used in a light receiving part 120, so that the light receiving part 120 can receive light in a wide magnification range. An imaging device 121a is constituted by a monochrome imaging device such as a monochrome CCD (charge-coupled device). The imaging device 121a has such a resolution that, when receiving a projection pattern on a subject S on a stage 140, at least one and preferably a plurality of pixels are included in the minimum pattern width on an observation image at the time of the minimum observation magnification (light receiving magnification).

Description

本発明は光学顕微鏡に関し、より詳しくは広い観察倍率レンジに対応可能なパターン投影計測機能を備えた光学顕微鏡に関する。   The present invention relates to an optical microscope, and more particularly to an optical microscope having a pattern projection measurement function capable of handling a wide observation magnification range.

光学顕微鏡は特許文献1、2などに見られるように電子化に伴って進化し続けている。特に特許文献2は、暗室を必要とせず、日常業務を行うデスクの上に置いて対象物を観察できる倒立型顕微鏡を提案している。   The optical microscope continues to evolve with digitization as seen in Patent Documents 1 and 2 and the like. In particular, Patent Document 2 proposes an inverted microscope that does not require a dark room and can be placed on a desk that performs daily work to observe an object.

光学顕微鏡は、周知のように、光学系の配置によって正立型と倒立型とに大別される。正立型顕微鏡は、ステージの下方に配置した光源から照明光を、上方に位置するステージ上の対象物に向けて照射し、そして、ステージの上方に配置した対物レンズ(受光部)で受光する構成が採用されている。   As is well known, optical microscopes are roughly classified into an upright type and an inverted type depending on the arrangement of optical systems. The upright microscope irradiates illumination light from a light source disposed below the stage toward an object on the stage positioned above, and receives the light with an objective lens (light receiving unit) disposed above the stage. Configuration is adopted.

他方、倒立型顕微鏡は、ステージの上方に配置した光源から照明光を下方に位置するステージ上の対象物に向けて照射し、そして、ステージの下方に配置した対物レンズ(受光部)で受光する構成が採用されている。   On the other hand, an inverted microscope irradiates illumination light from a light source disposed above the stage toward an object on the stage located below, and receives light with an objective lens (light receiving unit) disposed below the stage. Configuration is adopted.

正立型、倒立型のいずれであっても近時の光学顕微鏡は受光部に画像素子を備えたカメラを有し、カメラで撮影した画像をモニタで表示するのが定番になっている。なお、人間の目を通して対象物を観察するための接眼レンズは受光部の光学系の途中に組み込まれるが、特許文献1、2に見られるように接眼レンズ無しの光学顕微鏡も出現し、この種の光学顕微鏡はデジタルマイクロスコープとも呼ばれている。   Whether it is an upright type or an inverted type, a recent optical microscope has a camera having an image element in a light receiving portion, and it is a standard to display an image taken by the camera on a monitor. Note that an eyepiece for observing an object through the human eye is incorporated in the middle of the optical system of the light receiving unit. However, as seen in Patent Documents 1 and 2, an optical microscope without an eyepiece has also appeared. This optical microscope is also called a digital microscope.

ところで、特許文献3に見られるように、パターン投影を使った計測装置が知られている。このパターン投影計測は、原理的には、対象物に対して斜めにパターン光(この特許文献3ではスリット光)を投光し、その反射光をカメラで受光して、三角測距の原理を使って対象物の三次元形状を計測するものである。   By the way, as can be seen in Patent Document 3, a measuring apparatus using pattern projection is known. In principle, this pattern projection measurement projects the pattern light (slit light in this Patent Document 3) obliquely to the object, receives the reflected light with a camera, and uses the principle of triangulation. It is used to measure the three-dimensional shape of an object.

従来のパターン投影計測装置は一般的に単一倍率を前提に設計されている。具体的に説明すると、メーカーは、投光及び受光の光学倍率を整合させたセットとしてラインアップする体制をとっており、このことから、ユーザはメーカーがラインアップしている倍率のセットの中から所望のセットを選択しているのが実情である。   Conventional pattern projection measurement apparatuses are generally designed on the assumption of a single magnification. Specifically, manufacturers have a system of lineup as a set that matches the optical magnifications of light projection and light reception. From this, the user can select from the set of magnifications that the manufacturer has lined up. The actual situation is that a desired set is selected.

一般的に、計測精度を高めるには観察倍率と投光倍率とを光学的に例えば1:1というように一定の対をなす関係で設計するのが望ましいと認識されており、この設計指針に基づいてメーカーは投光及び受光の光学倍率を整合させたセットを設計している。   In general, it is recognized that it is desirable to design the observation magnification and the projection magnification optically in a fixed pair relationship such as 1: 1, for example, in order to increase the measurement accuracy. Based on this, the manufacturer designs a set that matches the optical magnifications of light projection and light reception.

特開2008−164642号公報JP 2008-164642 A 特開2012−18818号公報JP 2012-18818 A 特開2003−214824号公報JP 2003-214824 A

光学顕微鏡は受光素子(撮像素子)の進化に伴って高度な解像度を実現しており、観察から計測、解析、記録、管理、出力の一連のコンピュータ処理が可能なため産業界において例えば電子部品の検査、分析に用いられている。光学顕微鏡は光学ズーム機能、例えばレボルバー対物レンズのような交換式対物レンズを備え、目的に対応した観察倍率を自在に選択できるのが一つの特徴である。   Optical microscopes have achieved high resolution with the evolution of light receiving elements (imaging elements), and since a series of computer processing from observation to measurement, analysis, recording, management, and output is possible, for example, Used for inspection and analysis. One feature of the optical microscope is that it has an optical zoom function, for example, an interchangeable objective lens such as a revolver objective lens, and the observation magnification corresponding to the purpose can be freely selected.

この光学顕微鏡に三次元形状を計測する機能を付加する試みが行われている。光学顕微鏡が三次元形状を計測する機能を備えることにより、3D(三次元)画像を作成してこれをディスプレイ表示する、任意のラインの高さプロファイルデータを測定する、測定ライン上の高さ、幅、凹凸などをグラフ表示することができるだけでなく、高さ、幅、面積、表面粗さなどの計測が可能となる。   Attempts have been made to add a function of measuring a three-dimensional shape to the optical microscope. The optical microscope has a function of measuring a three-dimensional shape, thereby creating a 3D (three-dimensional) image and displaying it on the display, measuring the height profile data of an arbitrary line, the height on the measurement line, Not only can the width and unevenness be displayed in a graph, but also the height, width, area, surface roughness, and the like can be measured.

三次元形状を計測できる光学顕微鏡、特にパターン投影計測機能を備えた光学顕微鏡を開発するに当たって、日常業務を行うデスクの上に置いて使用可能な顕微鏡にターゲットを絞り込んだときに、必要最小限の大型化に留める努力が求められる。   When developing an optical microscope that can measure a three-dimensional shape, especially an optical microscope equipped with a pattern projection measurement function, when the target is narrowed down to a microscope that can be used on a desk where daily operations are performed, the minimum necessary Efforts to keep it large are required.

パターン投影計測は、前述したように三角測距の原理を使うことから、対象物に対して斜めにパターン光を投光する投光レンズが必要となるが、従来のパターン投影計測装置の基本的な考え方を導入したときには、受光部の倍率変更に伴って投光レンズの倍率を変更する必要があるため、自在な観察倍率の変更という光学顕微鏡本来の利便性が損なわれる。   Since pattern projection measurement uses the principle of triangulation as described above, a projection lens that projects pattern light obliquely to an object is required. When such a concept is introduced, it is necessary to change the magnification of the light projecting lens in accordance with the change in the magnification of the light receiving unit.

本発明の目的は、光学顕微鏡の持つ自在な観察倍率の変更という利便性を維持しつつ且つ必要最小限の大型化に留めながらパターン投影計測が可能な光学顕微鏡を提供することにある。   An object of the present invention is to provide an optical microscope capable of pattern projection measurement while maintaining the convenience of freely changing the observation magnification of the optical microscope and keeping the size as large as necessary.

本発明は、観察倍率と投光倍率とを光学的に対をなす関係で設計するという従来の考え方そのものに対して検討を加えた結果案出するに至ったものである。すなわち、観察倍率と投光倍率とを光学的に対をなす関係で設計するという従来の設計指針に従う限り、観察倍率の変更に伴って投光倍率を変更できる機構を付加する必要があり、光学顕微鏡の大型化及び機構の複雑化を回避するのが難しい。   The present invention has been devised as a result of studying the conventional idea itself of designing the observation magnification and the projection magnification in an optically paired relationship. In other words, as long as the conventional design guideline of designing the observation magnification and the projection magnification to be optically paired is followed, it is necessary to add a mechanism that can change the projection magnification in accordance with the change of the observation magnification. It is difficult to avoid the enlargement of the microscope and the complexity of the mechanism.

本発明は、光学系の設計において観察倍率(受光倍率)と投光倍率とを切り離したことを第1の特徴とする。すなわち、本発明は投光レンズを定倍率で固定し、観察倍率(受光倍率)の変更の有無を問わず対象物に対して常に定倍率の投影パターンを当てることを第1の特徴とする。換言すると、本発明は、観察倍率の切り替えが可能な光学顕微鏡において、複数の観察倍率に対して、可変光学系を有さない投影パターン照明光学系を備えていることを第1の特徴とする。   The first feature of the present invention is that the observation magnification (light reception magnification) and the projection magnification are separated in the design of the optical system. That is, the first feature of the present invention is that the projection lens is fixed at a constant magnification, and a projection pattern with a constant magnification is always applied to the object regardless of whether or not the observation magnification (light reception magnification) is changed. In other words, the first feature of the present invention is that an optical microscope capable of switching the observation magnification includes a projection pattern illumination optical system that does not have a variable optical system for a plurality of observation magnifications. .

本発明の第2の特徴は、パターン光を生成するのに二次元アレイを使用し、投光部の光源つまり計測光源からの光を二次元アレイを透過させる又は二次元アレイで反射させることにより生成したパターンを定倍率の投光レンズを通じて対象物に当てることにある。本発明の好ましい態様として、投光レンズとして両側テレセントリックレンズが採用される。両側テレセントリックレンズを採用することにより対象物に対して斜めに光を照射してもパターン投影領域を矩形にすることができる。ここに受光基本画像とは対象物が存在していない時に受光した画像を意味している。   The second feature of the present invention is that the two-dimensional array is used to generate the pattern light, and the light from the light source of the light projecting unit, that is, the light from the measurement light source is transmitted through the two-dimensional array or reflected by the two-dimensional array. The generated pattern is applied to an object through a projection lens having a constant magnification. As a preferred embodiment of the present invention, a double-sided telecentric lens is employed as the light projecting lens. By adopting the telecentric lenses on both sides, the pattern projection area can be made rectangular even if light is obliquely applied to the object. Here, the received light basic image means an image received when no object is present.

本発明の第3の特徴は、受光部の受光素子が受け取る投影パターンの最小パターン幅(観察画像上での最小パターン幅)に含まれる画素数が、受光倍率が最小のときに少なくとも一つ、好ましくは複数である点にある。つまり、本発明は、受光倍率(観察倍率)が最も低い倍率に設定されている場合であっても、受光素子に撮像される最小パターン幅に含まれる画素数が少なくとも一つ、好ましくは複数であることを第3の特徴とする。ここに最小パターン幅とはステージ上のパターンにおける最小パターン幅つまり投影パターンの最小パターン幅を意味する。   The third feature of the present invention is that the number of pixels included in the minimum pattern width (minimum pattern width on the observation image) of the projection pattern received by the light receiving element of the light receiving unit is at least one when the light receiving magnification is minimum, Preferably, there are a plurality of points. That is, according to the present invention, even when the light receiving magnification (observation magnification) is set to the lowest magnification, the number of pixels included in the minimum pattern width imaged on the light receiving element is at least one, preferably a plurality. It is a third feature. Here, the minimum pattern width means the minimum pattern width in the pattern on the stage, that is, the minimum pattern width of the projection pattern.

すなわち、本発明の第3の特徴は、従来ではパターン生成部での最小パターン幅と受光画素とが光学的に対の関係であったが、本発明では、受光倍率(観察倍率)が大きくなるに応じた数の複数の受光画素が受光側(観察画像)における最小パターン幅に含まれることになる。例えば3倍の受光倍率が選択されたときには、受光側での最小パターン幅に3倍の受光画素が含まれることになる。例えば1.5倍の受光倍率(観察倍率)が選択されたときには、受光側での最小パターン幅に1.5倍の受光画素が含まれることになる。逆に、例えば0.5倍の受光倍率(観察倍率)が選択されたとしても、受光側での最小パターン幅に少なくとも1つの画素を含むようにすればよい。   That is, the third feature of the present invention is that the minimum pattern width in the pattern generation unit and the light receiving pixels are optically paired in the past, but in the present invention, the light receiving magnification (observation magnification) is increased. A plurality of light receiving pixels corresponding to the number of light receiving pixels are included in the minimum pattern width on the light receiving side (observed image). For example, when a light reception magnification of 3 times is selected, a light reception pixel of 3 times is included in the minimum pattern width on the light reception side. For example, when a light reception magnification (observation magnification) of 1.5 times is selected, a light reception pixel of 1.5 times is included in the minimum pattern width on the light reception side. Conversely, for example, even if a light reception magnification (observation magnification) of 0.5 times is selected, it is sufficient to include at least one pixel in the minimum pattern width on the light reception side.

本発明によれば、投光倍率を定倍率に設定したことから、受光倍率の変動に応じて投光倍率を変動させる機構や制御が不要であり、従来から知られている光学顕微鏡の特徴である観察倍率の自在性をそのまま維持したなかで対象物の三次元計測が可能となる。   According to the present invention, since the light projection magnification is set to a constant magnification, there is no need for a mechanism or control for changing the light projection magnification according to the fluctuation of the light reception magnification. The object can be measured three-dimensionally while maintaining the flexibility of a certain observation magnification.

また、受光(観察)側の解像度に対して観察画像上の投影パターンの幅が太いため、測定可能な被写界深度が深くなる。受光側よりも投光側の深度が深いことによって、系全体で規定される測定深度において受光深度(観察深度)で計測深度が決定されることになり深度の最大化を図ることができる。投影する最小パターンが細い場合、投光側の深度によりパターンはぼけやすくなり、結果的に受光の深度と投光の深度とを重畳したものが計測深度となるが、投光パターンが太く、パターンのぼけが目立たないことで投光深度は受光深度に対して無視できるほど広く、結果的に受光深度で測定深度を規定することが可能になる。また、パターンが太いことにより、投光側の解像度を高めなくても十分な測定精度を得ることができ、受光レンズに対して低い解像度の投光レンズを採用しても計測精度に影響が出にくいという利点がある。   In addition, since the width of the projection pattern on the observation image is wider than the resolution on the light receiving (observation) side, the measurable depth of field becomes deep. Since the depth on the light projecting side is deeper than that on the light receiving side, the measurement depth is determined by the light receiving depth (observation depth) at the measurement depth defined for the entire system, and the depth can be maximized. If the minimum pattern to be projected is thin, the pattern tends to be blurred due to the depth of the light projecting side, and as a result, the measurement depth is obtained by superimposing the light reception depth and the light projection depth, but the light projection pattern is thick and the pattern Since the blur is not conspicuous, the projection depth is so wide that it can be ignored with respect to the light reception depth, and as a result, the measurement depth can be defined by the light reception depth. In addition, because the pattern is thick, sufficient measurement accuracy can be obtained without increasing the resolution on the light projecting side, and even if a light projection lens with a low resolution is used for the light receiving lens, the measurement accuracy is affected. There is an advantage that it is difficult.

観察倍率(受光倍率)が変化しても、観察画像上での最小パターン幅に含まれる受光画素の数が変化するだけであり、観察倍率に応じて計測方法を変更する必要がない。また、観察画像上での最小パターン幅の中に複数の受光画素が含まれる系で構成してあるため、受光の解像度を一層高めて欲しいという可能性としての要請に対して、計測方法を変更することなく高い解像度の受光素子(撮像素子)を採用することで対応することができる。   Even if the observation magnification (light reception magnification) changes, only the number of light receiving pixels included in the minimum pattern width on the observation image changes, and there is no need to change the measurement method according to the observation magnification. In addition, the measurement method has been changed in response to a request to further increase the resolution of received light because it is composed of a system in which multiple light-receiving pixels are included in the minimum pattern width on the observation image. This can be dealt with by adopting a light-receiving element (imaging element) with a high resolution without doing so.

本発明の他の目的及び作用効果は、本発明の実施例の詳細な説明から明らかになろう。   Other objects and advantages of the present invention will become apparent from the detailed description of the embodiments of the present invention.

本発明の一実施の形態に係る光学顕微鏡の構成を示すブロック図である。It is a block diagram which shows the structure of the optical microscope which concerns on one embodiment of this invention. 図1の光学顕微鏡の測定部の構成を示す模式図である。It is a schematic diagram which shows the structure of the measurement part of the optical microscope of FIG. 光が照射された状態の測定対象物の模式図である。It is a schematic diagram of the measuring object in the state irradiated with light. 光が照射された状態の測定対象物の模式図である。It is a schematic diagram of the measuring object in the state irradiated with light. 画像を2画面表示するGUIの一例を示す図である。It is a figure which shows an example of GUI which displays an image on 2 screens. 三角測距方式の原理を説明するための図である。It is a figure for demonstrating the principle of a triangulation system. 測定光の第1のパターンを説明するための図である。It is a figure for demonstrating the 1st pattern of measurement light. 測定光の第2のパターンを説明するための図である。It is a figure for demonstrating the 2nd pattern of measurement light. 測定光の第3のパターンを説明するための図である。It is a figure for demonstrating the 3rd pattern of measurement light. 測定対象物の特定の部分における画素データ(受光された光の強度)と画素データが得られた画像の順番(何番目か)の関係を示す図である。It is a figure which shows the relationship between the pixel data (the intensity | strength of the light received) in the specific part of a measuring object, and the order (the order) of the image from which pixel data was obtained. 測定光の第4のパターンを説明するための図である。It is a figure for demonstrating the 4th pattern of measurement light. 投光部にテレセントリックレンズを採用した場合の作用効果を説明するための図である。It is a figure for demonstrating the effect when a telecentric lens is employ | adopted as a light projection part. 第2実施例の光学顕微鏡の概念構成図である。It is a conceptual block diagram of the optical microscope of 2nd Example. 低倍率の第1受光部と高倍率の第2受光部との組み合わせと処理によって広い倍率レンジを実現可能であることを説明するための図である。It is a figure for demonstrating that a wide magnification range is realizable by the combination and process of a 1st light-receiving part of a low magnification, and a 2nd light-receiving part of a high magnification. 第3実施例の光学顕微鏡の概念構成図である。It is a conceptual block diagram of the optical microscope of 3rd Example. 第4実施例の光学顕微鏡の概念構成図である。It is a conceptual block diagram of the optical microscope of 4th Example. 第5実施例の光学顕微鏡の概念構成図である。It is a conceptual block diagram of the optical microscope of 5th Example. 第6実施例の光学顕微鏡の概念構成図である。It is a conceptual block diagram of the optical microscope of 6th Example. 相対的に低倍率の観察領域(観察視野)と、相対的に高倍率の観察領域(観察視野)を示し、高倍率の観察画像上での最小パターン幅が相対的に太くなることを説明するための図である。A relatively low-magnification observation area (observation field) and a relatively high-magnification observation area (observation field) are shown, and the explanation is that the minimum pattern width on the high-magnification observation image is relatively thick. FIG. 第7実施例の光学顕微鏡の概念構成図である。It is a conceptual block diagram of the optical microscope of 7th Example. 図20の第7実施例に含まれる微小変位駆動機構の概念構成図である。FIG. 21 is a conceptual configuration diagram of a minute displacement driving mechanism included in the seventh embodiment of FIG. 20. 第8実施例の光学顕微鏡の概念構成図である。It is a conceptual block diagram of the optical microscope of 8th Example. 第9実施例の光学顕微鏡の概念構成図である。It is a conceptual block diagram of the optical microscope of 9th Example. 第10実施例の光学顕微鏡の概念構成図である。It is a conceptual block diagram of the optical microscope of 10th Example. 第11実施例の光学顕微鏡の概念構成図である。It is a conceptual block diagram of the optical microscope of 11th Example.

第1実施例(図1〜図12)
本発明を適用した第1実施例の光学顕微鏡を説明する。図1は、第1実施例の光学顕微鏡500の構成を示すブロック図である。図2は、図1の光学顕微鏡500の測定部の構成を示す模式図である。図1、図2を参照して、光学顕微鏡500は、測定部100、PC(パーソナルコンピュータ)200、制御部300および表示部(モニタ)400を備えている(図1)。
First Example (FIGS. 1 to 12) :
An optical microscope according to a first embodiment to which the present invention is applied will be described. FIG. 1 is a block diagram illustrating a configuration of an optical microscope 500 according to the first embodiment. FIG. 2 is a schematic diagram illustrating the configuration of the measurement unit of the optical microscope 500 of FIG. Referring to FIGS. 1 and 2, the optical microscope 500 includes a measurement unit 100, a PC (personal computer) 200, a control unit 300, and a display unit (monitor) 400 (FIG. 1).

測定部100は、投光部110、受光部120、照明光出力部130、ステージ140および制御基板150を含む。投光部110は、測定光源111、パターン生成部112および複数のレンズ113、114、115を含む。受光部120は、カメラ121および複数のレンズ122、123を含む。ステージ140上に測定対象物Sが載置される。   The measuring unit 100 includes a light projecting unit 110, a light receiving unit 120, an illumination light output unit 130, a stage 140, and a control board 150. The light projecting unit 110 includes a measurement light source 111, a pattern generation unit 112, and a plurality of lenses 113, 114, and 115. The light receiving unit 120 includes a camera 121 and a plurality of lenses 122 and 123. The measuring object S is placed on the stage 140.

投光部110は、ステージ140の斜め上方に配置された投光ユニットで構成されている。投光部110は測定対象物Sの表面に対して斜めに光を照射する。測定部100は、複数の投光部110を含んでもよい。図2の例においては、測定部100は2つの投光部110を含む。以下、2つの投光部110を区別する場合は、一方の投光部110を第1の投光部110Aと呼び、他方の投光部110を第2の投光部110Bと呼ぶ。一対の第1、第2の投光部110A、110Bは受光部120の光軸を挟んで鏡像対称に配置される。受光部120の光軸に対して投光部110からの光が斜めに照射されるため凹凸を含む立体形状の測定対象物Sに影が発生する。これに対して一対の第1、第2の投光部110A、110Bを鏡像対称に配置することで、この影の発生を抑えることができる。   The light projecting unit 110 includes a light projecting unit disposed obliquely above the stage 140. The light projecting unit 110 irradiates light obliquely to the surface of the measuring object S. The measuring unit 100 may include a plurality of light projecting units 110. In the example of FIG. 2, the measurement unit 100 includes two light projecting units 110. Hereinafter, when distinguishing the two light projecting units 110, one light projecting unit 110 is referred to as a first light projecting unit 110A, and the other light projecting unit 110 is referred to as a second light projecting unit 110B. The pair of first and second light projecting units 110 </ b> A and 110 </ b> B are arranged mirror-symmetrically with the optical axis of the light receiving unit 120 interposed therebetween. Since the light from the light projecting unit 110 is obliquely irradiated with respect to the optical axis of the light receiving unit 120, a shadow is generated on the three-dimensional measuring object S including irregularities. On the other hand, the occurrence of this shadow can be suppressed by arranging the pair of first and second light projecting units 110A and 110B in a mirror image symmetry.

第1、第2の投光部110A、110Bの測定光源111は典型的には白色光を出射するハロゲンランプで構成される。測定光源111として、白色光を出射する白色LED(発光ダイオード)等の他の光源であってもよい。測定光源111から出射された光(以下、測定光と呼ぶ)は集光レンズ113により適切に集光された後、パターン生成部112に入射する。ここに、第1、第2の投光部110A、110Bは定倍率の光学系で構成され、その典型例として両側テレセントリックレンズ114、115を挙げることができる。両側テレセントリックレンズ114、115で投光部110を構成することにより高い計測精度を確保することができる。すなわち、テレセントリック光学系114、115は、レンズと対象物Sとの距離に左右されることなくパターンの結像サイズが一定であるため、立体である対象物Sの表面高さが一定でない場合(例えば凹凸面)であってもパターン寸法が変化しないため、高い精度で計測することができる。   The measurement light sources 111 of the first and second light projecting units 110A and 110B are typically configured by halogen lamps that emit white light. The measurement light source 111 may be another light source such as a white LED (light emitting diode) that emits white light. Light emitted from the measurement light source 111 (hereinafter referred to as measurement light) is appropriately condensed by the condenser lens 113 and then enters the pattern generation unit 112. Here, the first and second light projecting units 110A and 110B are configured by a constant magnification optical system, and typical examples thereof include both-side telecentric lenses 114 and 115. By configuring the light projecting unit 110 with the telecentric lenses 114 and 115 on both sides, high measurement accuracy can be ensured. That is, in the telecentric optical systems 114 and 115, the image formation size of the pattern is constant regardless of the distance between the lens and the object S, and therefore the surface height of the object S that is a solid is not constant ( For example, even if it is an uneven surface), the pattern dimension does not change, and therefore it can be measured with high accuracy.

パターン生成部112は、二次元アレイを構成するための好ましくはDMD(デジタルマイクロミラーデバイス)が採用される。ここにDMDは表示素子の一種であり、数μm角のマイクロミラーが画素のように数十万個配置されており、各マイクロミラーが独立して傾きを変えることができる。この特性により、マイクロミラーの向きによって光を光軸方向に反射させたり(明/ON)、光軸から外に偏向させることができる(暗/OFF)。このマイクロミラーは最大で数kHzの高速でON/OFFを切り替えることができるため、明るさの階調はPWM制御によって調整することができる。パターン生成部112によって生成される照明パターンは縞パターン(図9:マルチスリット法)だけでなく任意の二次元パターンを生成することができる。二次元パターンを例示的に列挙すると、バイナリパターン、スリットパターン、正弦波パターン、ドットパターン、チェッカーパターン、二次元コードパターンを挙げることができる。   The pattern generator 112 is preferably a DMD (digital micromirror device) for forming a two-dimensional array. Here, DMD is a kind of display element, and hundreds of thousands of micromirrors with a square of several μm are arranged like pixels, and the inclination of each micromirror can be changed independently. This characteristic allows light to be reflected in the direction of the optical axis (bright / ON) or deflected outward from the optical axis (dark / OFF) depending on the direction of the micromirror. Since this micromirror can be switched ON / OFF at a high speed of several kHz at the maximum, the gradation of brightness can be adjusted by PWM control. The illumination pattern generated by the pattern generation unit 112 can generate not only a stripe pattern (FIG. 9: multi-slit method) but also an arbitrary two-dimensional pattern. Examples of two-dimensional patterns include binary patterns, slit patterns, sine wave patterns, dot patterns, checker patterns, and two-dimensional code patterns.

パターン生成部112は、図2に図示の実施例では透過によって二次元パターンを生成する構成を採用したが、変形例として、反射によって二次元パターンを生成してもよい。   In the embodiment shown in FIG. 2, the pattern generation unit 112 employs a configuration that generates a two-dimensional pattern by transmission. However, as a modification, the pattern generation unit 112 may generate a two-dimensional pattern by reflection.

パターン生成部112は、LCD(液晶ディスプレイ)、LCOS(Liquid Crystal on Silicon:反射型液晶素子)またはマスクで構成してもよい。パターン生成部112に入射した測定光は、予め設定されたパターンおよび予め設定された強度(明るさ)に変換されて対象物Sに向けて投光される。パターン生成部112により出射された測定光は、上述したように定倍率の投光レンズとして採用した両側テレセントリック光学系を構成する複数のレンズ114、115により受光部120の観察及び測定が可能な視野よりも大きい径を有する光に変換された後、ステージ140上の測定対象物Sに投光される。   The pattern generation unit 112 may be configured by an LCD (Liquid Crystal Display), LCOS (Liquid Crystal on Silicon), or a mask. The measurement light incident on the pattern generation unit 112 is converted into a preset pattern and a preset intensity (brightness) and is projected toward the object S. As described above, the measurement light emitted from the pattern generation unit 112 is a field of view in which the light receiving unit 120 can be observed and measured by the plurality of lenses 114 and 115 constituting the double-sided telecentric optical system employed as a constant magnification projection lens. After being converted into light having a larger diameter, the light is projected onto the measuring object S on the stage 140.

受光部120は、カメラ121と受光レンズ122、123とで構成され、ステージ140の上方に配置される。測定対象物Sにより反射した光は、ステージ140の上方に進み、受光部120の複数のレンズ122、123により集光及び結像され、そしてこの反射光はカメラ121によって受光される。   The light receiving unit 120 includes a camera 121 and light receiving lenses 122 and 123 and is disposed above the stage 140. The light reflected by the measuring object S travels above the stage 140, is condensed and imaged by the plurality of lenses 122 and 123 of the light receiving unit 120, and the reflected light is received by the camera 121.

カメラ121は撮像素子(受光素子)121aおよびレンズを含むカメラで構成される。実施例では、精度を優先して固定倍率のテレセントリック光学系の受光レンズユニットを採用しているが、ズームレンズを採用して広範な倍率で使用できるようにしてもよい。撮像素子121aは、好ましくはモノクロの例えばCCD(電荷結合素子)で構成される。撮像素子121aとしてCMOS(相補性金属酸化膜半導体)イメージセンサ等の他の撮像素子を採用してもよい。撮像素子121aの各画素からは、受光量に対応するアナログの電気信号(以下、受光信号と呼ぶ)が制御基板150に出力される。   The camera 121 is configured by a camera including an imaging element (light receiving element) 121a and a lens. In the embodiment, the light receiving lens unit of a telecentric optical system with a fixed magnification is employed with priority given to accuracy, but a zoom lens may be employed so that it can be used in a wide range of magnifications. The image sensor 121a is preferably composed of a monochrome CCD (charge coupled device), for example. Another imaging device such as a CMOS (complementary metal oxide semiconductor) image sensor may be employed as the imaging device 121a. From each pixel of the image sensor 121a, an analog electrical signal (hereinafter referred to as a light reception signal) corresponding to the amount of received light is output to the control board 150.

ステージ140上の対象物Sでの投光パターンを受け取る時に、最小の観察倍率(受光倍率)のときの観察画像上での最小パターン幅に少なくとも1画素、好ましくは複数の画素が含まれる解像度を撮像素子つまり受光素子121aが有している。カメラ121がズーム機構を備えているときにはその最小倍率でパターンを受け取る時に最小パターン幅に、少なくとも一つの画素、好ましくは複数の画素が含まれる解像度のカメラ121が採用されている。   When receiving the light projection pattern on the object S on the stage 140, the resolution is such that the minimum pattern width on the observation image at the minimum observation magnification (light reception magnification) includes at least one pixel, preferably a plurality of pixels. The imaging element, that is, the light receiving element 121a has. When the camera 121 has a zoom mechanism, a camera 121 having a resolution that includes at least one pixel, preferably a plurality of pixels, in the minimum pattern width when a pattern is received at the minimum magnification.

換言すれば、最小倍率のときの最小パターン幅に少なくとも一つの受光画素、好ましくは複数の受光画素が収まるような最小倍率を受光レンズで設定すればよく、又は受光レンズの最小倍率において最小パターン幅に少なくとも一つの受光画素、好ましくは複数の受光画素が収まるように投光レンズの倍率を設定すればよい。   In other words, the minimum magnification may be set by the light receiving lens so that at least one light receiving pixel, preferably a plurality of light receiving pixels, fits within the minimum pattern width at the minimum magnification, or the minimum pattern width at the minimum magnification of the light receiving lens. The magnification of the light projecting lens may be set so that at least one light receiving pixel, preferably a plurality of light receiving pixels, can be accommodated.

カラーの撮像素子を採用した場合、各画素を赤色用、緑色用、青色用の受光に対応させる必要があるため、モノクロの撮像素子と比較すると計測分解能が低く、また各画素にカラーフィルタを設ける必要があるため感度が低下する。これに対して、モノクロの撮像素子121aを採用し、後述する照明光出力部130からRGBの各LED光源に夫々対応した照明を時分割で照射(シーケンシャル照射)して撮像することにより、カラー画像を取得することができる。このような構成にすることにより、計測精度を低下させずに測定物の二次元カラーテクスチャ画像を取得することができる。   When a color image sensor is used, each pixel needs to correspond to light reception for red, green, and blue, so the measurement resolution is lower than that of a monochrome image sensor, and a color filter is provided for each pixel. Sensitivity decreases because it is necessary. On the other hand, a monochrome image pickup device 121a is employed, and a color image is obtained by irradiating illumination corresponding to each of the LED light sources of RGB from a later-described illumination light output unit 130 in a time-division manner (sequential irradiation). Can be obtained. With such a configuration, it is possible to acquire a two-dimensional color texture image of a measurement object without reducing measurement accuracy.

勿論、撮像素子121aとして、上述したようにカラーの撮像素子を用いても良いことは云うまでもない。この場合、計測精度や感度は低下するが、照明光出力部130からRGB照明を時分割で照射する必要がなくなり、白色光を照射するだけで、カラー画像を取得できるため、照明光学系をシンプルに構成できる。   Of course, it goes without saying that a color image sensor may be used as the image sensor 121a as described above. In this case, although the measurement accuracy and sensitivity are reduced, it is not necessary to irradiate the RGB illumination from the illumination light output unit 130 in a time-sharing manner, and a color image can be acquired simply by irradiating white light, so the illumination optical system is simplified. Can be configured.

制御基板150には、図示しないA/D変換器(アナログ/デジタル変換器)およびFIFO(First In First Out)メモリが実装される。カメラ121から出力される受光信号は、制御部300による制御に基づいて、制御基板150のA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次制御用PC200に転送される。   On the control board 150, an A / D converter (analog / digital converter) and a FIFO (First In First Out) memory (not shown) are mounted. The light reception signal output from the camera 121 is sampled at a constant sampling period by the A / D converter of the control board 150 and converted into a digital signal based on control by the control unit 300. Digital signals output from the A / D converter are sequentially stored in the FIFO memory. The digital signal stored in the FIFO memory is sequentially transferred to the control PC 200 as pixel data.

図1に示すように、制御用PC200は、CPU(中央演算処理装置)210、ROM(リードオンリメモリ)220、作業用メモリ230、記憶装置240および操作部250を含む。また、操作部250は、キーボードおよびポインティングデバイスを含む。ポインティングデバイスとしては、マウスまたはジョイスティック等が用いられる。   As shown in FIG. 1, the control PC 200 includes a CPU (Central Processing Unit) 210, a ROM (Read Only Memory) 220, a work memory 230, a storage device 240, and an operation unit 250. The operation unit 250 includes a keyboard and a pointing device. A mouse or a joystick is used as the pointing device.

ROM220にはシステムプログラムが記憶される。作業用メモリ230はRAM(ランダムアクセスメモリ)で構成され、種々のデータの処理のために用いられる。記憶装置240はハードディスク等からなる。記憶装置240には、画像処理プログラムおよび形状測定プログラムが記憶される。また、記憶装置240は、制御基板150から与えられる画素データ等の種々のデータを保存するために用いられる。   The ROM 220 stores a system program. The working memory 230 is composed of a RAM (Random Access Memory) and is used for processing various data. The storage device 240 is composed of a hard disk or the like. The storage device 240 stores an image processing program and a shape measurement program. The storage device 240 is used for storing various data such as pixel data supplied from the control board 150.

CPU210は、制御基板150から与えられる画素データに基づいて画像データを生成する。また、CPU210は、生成した画像データに作業用メモリ230を用いて各種処理を行うとともに、画像データに基づく画像を表示部400に表示させる。さらに、CPU210は、後述するステージ駆動部145に駆動パルスを与える。表示部400は、好ましくは薄型ディスプレイ、例えばLCDパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。   The CPU 210 generates image data based on the pixel data given from the control board 150. The CPU 210 performs various processes on the generated image data using the work memory 230 and causes the display unit 400 to display an image based on the image data. Further, the CPU 210 gives a driving pulse to a stage driving unit 145 described later. The display unit 400 is preferably configured by a thin display, for example, an LCD panel or an organic EL (electroluminescence) panel.

図2において、測定対象物Sが載置されるステージ140上の平面(以下、載置面と呼ぶ)内で互いに直交する2方向をX方向およびY方向と定義し、それぞれ矢印X、Yで示す。ステージ140の載置面に対して直交する方向をZ方向と定義し、矢印Zで示す。Z方向に平行な軸を中心に回転する方向(矢印θで図示)をθ方向と定義する。   In FIG. 2, two directions orthogonal to each other within a plane (hereinafter referred to as a placement surface) on the stage 140 on which the measurement object S is placed are defined as an X direction and a Y direction, and arrows X and Y respectively. Show. A direction orthogonal to the mounting surface of the stage 140 is defined as a Z direction and is indicated by an arrow Z. A direction rotating around an axis parallel to the Z direction (shown by an arrow θ) is defined as a θ direction.

ステージ140は、X−Yステージ141、Zステージ142およびθステージ143を含む。X−Yステージ141はX方向移動機構およびY方向移動機構を有する。Zステージ142はZ方向移動機構を有する。θステージ143はθ方向回転機構を有する。これらX−Yステージ141、Zステージ142およびθステージ143によって、ステージ140が構成される。また、ステージ140は、その載置面に測定対象物Sを固定する図示しない固定部材(クランプ)をさらに含む。ステージ140は、その載置面に平行な軸を中心に回転可能な機構を有するチルトステージを更に含んでもよい。   The stage 140 includes an XY stage 141, a Z stage 142, and a θ stage 143. The XY stage 141 has an X direction moving mechanism and a Y direction moving mechanism. The Z stage 142 has a Z direction moving mechanism. The θ stage 143 has a θ direction rotation mechanism. The XY stage 141, the Z stage 142, and the θ stage 143 constitute a stage 140. The stage 140 further includes a fixing member (clamp) (not shown) that fixes the measurement object S to the placement surface. The stage 140 may further include a tilt stage having a mechanism that can rotate around an axis parallel to the mounting surface.

ステージ140のX方向移動機構、Y方向移動機構、Z方向移動機構およびθ方向回転機構は、それぞれ独立して駆動制御できる駆動源を備えているのが良く、この駆動源の典型例としてステッピングモータを挙げることができる。ステージ140のX方向移動機構、Y方向移動機構、Z方向移動機構およびθ方向回転機構は、図1のステージ操作部144またはステージ駆動部145により駆動される。   The X-direction moving mechanism, Y-direction moving mechanism, Z-direction moving mechanism, and θ-direction rotating mechanism of the stage 140 are preferably provided with drive sources that can be independently driven and controlled, and stepping motors are typical examples of these drive sources. Can be mentioned. The X direction moving mechanism, Y direction moving mechanism, Z direction moving mechanism, and θ direction rotating mechanism of the stage 140 are driven by the stage operation unit 144 or the stage driving unit 145 of FIG.

使用者は、ステージ操作部144を手動で操作することにより、ステージ140の載置面を受光部120に対して相対的にX方向、Y方向もしくはZ方向に移動させるか、またはθ方向に回転させることができる。ステージ駆動部145は、PC200より与えられる駆動パルスに基づいて、ステージ140のステッピングモータに電流を供給することにより、受光部120に対してステージ140を相対的にX方向、Y方向もしくはZ方向に移動させるか、またはθ方向に回転させることができる。   The user manually operates the stage operation unit 144 to move the mounting surface of the stage 140 relative to the light receiving unit 120 in the X direction, the Y direction, the Z direction, or rotate in the θ direction. Can be made. The stage driving unit 145 supplies the current to the stepping motor of the stage 140 based on the driving pulse given from the PC 200, thereby moving the stage 140 relative to the light receiving unit 120 in the X direction, Y direction, or Z direction. It can be moved or rotated in the θ direction.

ここに、図2に示すように、左右の投光部110の中心軸(光軸)と受光部120の中心軸(光軸)は、ステージ140の焦点が最も合うピント平面で互いに交差するように、受光部120、投光部110、ステージ140の相対的な位置関係が定められている。また、θ方向の回転軸の中心は、受光部120の中心軸と一致しているため、θ方向にステージ140が回転した際に、測定対象物が視野から外れることなく、回転軸を中心に視野内で回転するようになっている。また、Z方向移動機構に対して、これらX、Y、θ及びチルト移動機構は支持されている。   Here, as shown in FIG. 2, the central axis (optical axis) of the right and left light projecting units 110 and the central axis (optical axis) of the light receiving unit 120 intersect with each other on a focus plane where the focus of the stage 140 is best. In addition, the relative positional relationship among the light receiving unit 120, the light projecting unit 110, and the stage 140 is determined. Further, since the center of the rotation axis in the θ direction coincides with the center axis of the light receiving unit 120, when the stage 140 rotates in the θ direction, the measurement object does not deviate from the visual field, and the rotation axis is centered. It is designed to rotate within the field of view. Further, the X, Y, θ, and tilt moving mechanisms are supported with respect to the Z direction moving mechanism.

すなわち、ステージ140をθ方向に回転させたり、チルトさせた状態であっても、受光部120の観察中心軸(光軸)と、Z方向の移動軸にずれが生じない構成になっている。このようなステージ機構により、測定対象物の位置や姿勢を変化させた状態であっても、Z方向にステージ140を移動させて異なる焦点位置の画像を複数撮像して合成することが可能となる。なお、本実施の形態ではステッピングモータにより駆動させることが可能な電動ステージを例に説明したが、手動でのみ変位させることが可能な手動ステージであっても良い。   In other words, even when the stage 140 is rotated or tilted in the θ direction, the observation center axis (optical axis) of the light receiving unit 120 and the movement axis in the Z direction do not shift. With such a stage mechanism, even when the position and orientation of the measurement object are changed, it is possible to move the stage 140 in the Z direction and capture and synthesize a plurality of images at different focal positions. . In the present embodiment, an electric stage that can be driven by a stepping motor has been described as an example. However, a manual stage that can be displaced only manually may be used.

制御部300は、制御基板310および照明光源320を含む。制御基板310には、図示しないCPUが実装される。制御基板310のCPUは、PC200のCPU210からの指令に基づいて、投光部110、受光部120および制御基板150を制御する。   The control unit 300 includes a control board 310 and an illumination light source 320. A CPU (not shown) is mounted on the control board 310. The CPU of the control board 310 controls the light projecting unit 110, the light receiving unit 120, and the control board 150 based on a command from the CPU 210 of the PC 200.

照明光源320は、例えば赤色光(R)、緑色光(G)および青色光(B)を出射する3種類のLEDを含む。各LEDから出射される光の輝度を制御することにより、照明光源320から任意の色の光を発生することができる。照明光源320が発生する光(以下、照明光と呼ぶ)は、導光部材(ライトガイド)を通してリング状の照明光出力部130から出力される。なお、制御部300に照明光源320を設けずに、測定部100に照明光源320を設けてもよい。この場合、測定部100には照明光出力部130が設けられない。RGB照明光出力部130を使って対象物Sを照射してカラー画像を生成する場合には、例えば各色の光源は300Hzでシーケンシャルに切り替えられる。   The illumination light source 320 includes, for example, three types of LEDs that emit red light (R), green light (G), and blue light (B). By controlling the luminance of the light emitted from each LED, light of an arbitrary color can be generated from the illumination light source 320. Light generated by the illumination light source 320 (hereinafter referred to as illumination light) is output from the ring-shaped illumination light output unit 130 through a light guide member (light guide). Note that the illumination light source 320 may be provided in the measurement unit 100 without providing the illumination light source 320 in the control unit 300. In this case, the illumination light output unit 130 is not provided in the measurement unit 100. When a color image is generated by irradiating the object S using the RGB illumination light output unit 130, for example, the light sources of the respective colors are sequentially switched at 300 Hz.

図2の照明光出力部130は、観察中心軸を中心とする円環形状を有するリング形照明が採用されている。リング状の照明光出力部130は導光ケーブル132を介してRGB光源320(図2)に連結される。図2では図示を省略してあるが、RGB光源320の各色のLEDに隣接してコリメータレンズが配置され、また、両側テレセントリックレンズ系が配設されている。   The illumination light output unit 130 in FIG. 2 employs ring-shaped illumination having an annular shape centered on the observation center axis. The ring-shaped illumination light output unit 130 is connected to the RGB light source 320 (FIG. 2) via the light guide cable 132. Although not shown in FIG. 2, a collimator lens is disposed adjacent to each color LED of the RGB light source 320, and a bilateral telecentric lens system is disposed.

RGB光源320に隣接して配置したコリメータレンズによって絞り込む瞳での配光特性は光源320の発光面での照度分布と等しくなり、例えば発光面の照度分布が一様であれば瞳での配光特性は一様となる。すなわち、RGB光源320の照度分布がコリメータレンズの瞳の配光分布となり、他方、RGB光源320の配光分布がコリメータレンズの瞳の照度分布となる。なお、面発光する光源は一般的に発光面の全域でほぼ一様な照度分布を有している。コリメータレンズに続いて配置された両側テレセントリックレンズ系は、コリメータレンズの瞳を導光ケーブル132の入光部に結像させる機能を有している。つまりケーラー効果を生成するために両側テレセントリックレンズ系が配置されている。コリメータレンズによって配光特性が一様化した光の束は両側テレセントリックレンズ系を通過する過程で配光特性の一様性が保持され、そして集光した光が導光ケーブル132を通じて照明光出力部130に供給される。   The light distribution characteristic at the pupil narrowed by the collimator lens disposed adjacent to the RGB light source 320 is equal to the illuminance distribution on the light emitting surface of the light source 320. For example, if the illuminance distribution on the light emitting surface is uniform, the light distribution at the pupil The characteristics are uniform. That is, the illuminance distribution of the RGB light source 320 becomes the light distribution of the pupil of the collimator lens, while the light distribution of the RGB light source 320 becomes the illuminance distribution of the pupil of the collimator lens. Note that a surface emitting light source generally has a substantially uniform illuminance distribution over the entire light emitting surface. The double-sided telecentric lens system arranged after the collimator lens has a function of forming an image of the pupil of the collimator lens on the light incident portion of the light guide cable 132. That is, a double-sided telecentric lens system is arranged to generate the Kohler effect. The bundle of light whose light distribution characteristics are made uniform by the collimator lens maintains the uniformity of the light distribution characteristics in the process of passing through the both-side telecentric lens system, and the collected light passes through the light guide cable 132 and the illumination light output unit 130. To be supplied.

導光ケーブルを構成する複数の光ファイバの各々は、光ファイバの軸に対する光の角度を保存する特性を有しているため各光ファイバ内の光伝搬においても配光特性の一様性が保持される。この複数の光ファイバを例えば互いに編み込むなどによってランダム性を与えることが好ましく、これによりRGB光源320の僅かな照度ムラを解消した状態で対象物Sを照明することができる。   Each of the plurality of optical fibers constituting the light guide cable has a characteristic of preserving the angle of light with respect to the axis of the optical fiber, so that the uniformity of the light distribution characteristic is maintained even in the light propagation in each optical fiber. The Randomness is preferably given by, for example, weaving the plurality of optical fibers, so that the object S can be illuminated in a state where slight illuminance unevenness of the RGB light source 320 is eliminated.

リング形の照明光出力部130は、受光部120を包囲した状態でステージ140の上方に配置される。これにより影が発生しないように照明光出力部130から測定対象物Sに照明光が照射されてテクスチャ画像が取得される。すなわち、リング形状の照明を受光部120の光軸の周囲に配置したことで、測定対象物Sをほぼ影無しで観察することができる。したがって、測定対象物Sに対して斜めに投光する投光部110だけでは観察することのできない穴の底もリング状の照明出力部130を使うことで観察することができる。   The ring-shaped illumination light output unit 130 is disposed above the stage 140 so as to surround the light receiving unit 120. Accordingly, the illumination light is irradiated from the illumination light output unit 130 to the measurement object S so as not to cause a shadow, and a texture image is acquired. That is, by arranging the ring-shaped illumination around the optical axis of the light receiving unit 120, the measuring object S can be observed almost without shadow. Therefore, the bottom of the hole that cannot be observed only by the light projecting unit 110 that projects light obliquely with respect to the measurement object S can be observed by using the ring-shaped illumination output unit 130.

図3および図4は、光が照射された状態の測定対象物Sの模式図である。図3および図4の例においては、測定対象物Sは上面の略中央に孔Shを有する。また、図3(a)、(c)および図4(a)においては、影Ssをハッチングにより表わしている。   3 and 4 are schematic views of the measuring object S in a state irradiated with light. In the example of FIGS. 3 and 4, the measuring object S has a hole Sh at the approximate center of the upper surface. Further, in FIGS. 3A, 3C and 4A, the shadow Ss is represented by hatching.

図3(a)は第1の投光部110A(図2)からの測定光が照射された状態の測定対象物Sの平面図であり、図3(b)は図3(a)のA−A線断面図である。図3(a)、(b)に示すように、第1の投光部110Aから測定光を測定対象物Sに照射した場合、孔Shの深さによっては、孔Shの底部にまで測定光が到達せず、影Ssが発生する。したがって、測定対象物Sの一部を観察することができない。   FIG. 3A is a plan view of the measuring object S in a state irradiated with measurement light from the first light projecting unit 110A (FIG. 2), and FIG. FIG. As shown in FIGS. 3A and 3B, when the measurement object S is irradiated with the measurement light from the first light projecting unit 110A, the measurement light reaches the bottom of the hole Sh depending on the depth of the hole Sh. Does not reach and a shadow Ss occurs. Therefore, a part of the measuring object S cannot be observed.

図3(c)は第2の投光部110B(図2)からの測定光が照射された状態の測定対象物Sの平面図であり、図3(d)は図3(c)のB−B線断面図である。図3(c)、(d)に示すように、第2の投光部110Bから測定光を測定対象物Sに照射した場合、孔Shの深さによっては、孔Shの底部にまで測定光が到達せず、影Ssが発生する。したがって、測定対象物Sの一部を観察することができない。   FIG. 3C is a plan view of the measuring object S in a state irradiated with the measurement light from the second light projecting unit 110B (FIG. 2), and FIG. 3D is a view of B in FIG. FIG. As shown in FIGS. 3C and 3D, when the measurement object S is irradiated with the measurement light from the second light projecting unit 110B, the measurement light reaches the bottom of the hole Sh depending on the depth of the hole Sh. Does not reach and a shadow Ss occurs. Therefore, a part of the measuring object S cannot be observed.

図4(a)は第1、第2の投光部110A、110Bの両方からの測定光が照射された状態の測定対象物Sの平面図であり、図4(b)は図4(a)のC−C線断面図である。図4(a)、(b)に示すように、第1、第2の投光部110A、110Bの両方から測定光を測定対象物Sに照射した場合、第1又は第2の投光部110A又は110Bから測定光を測定対象物Sに照射した場合に比べて、孔Shの底部にまで到達しない測定光が減少するため、発生する影Ssが減少する。したがって、観察することができる測定対象物Sの部分が増加する。   FIG. 4A is a plan view of the measuring object S in a state where measurement light from both the first and second light projecting units 110A and 110B is irradiated, and FIG. 4B is a plan view of FIG. It is a CC sectional view taken on the line of FIG. As shown in FIGS. 4A and 4B, when the measuring object S is irradiated with the measurement light from both the first and second light projecting units 110A and 110B, the first or second light projecting unit. Compared with the case where the measurement object S is irradiated with the measurement light from 110A or 110B, the measurement light that does not reach the bottom of the hole Sh is reduced, and thus the generated shadow Ss is reduced. Therefore, the portion of the measuring object S that can be observed increases.

図4(c)は図2の照明光出力部130からの照明光が照射された状態の測定対象物Sの平面図であり、図4(d)は図4(c)のD−D線断面図である。図4(c)、(d)に示すように、照明光は測定対象物Sの略真上から照射されるので、孔Shの深さによらず、孔Shの底部にまで照明光が到達する。したがって、測定対象物Sの大部分を観察することができる。   FIG. 4C is a plan view of the measuring object S in a state irradiated with illumination light from the illumination light output unit 130 in FIG. 2, and FIG. 4D is a DD line in FIG. It is sectional drawing. As shown in FIGS. 4C and 4D, since the illumination light is irradiated from substantially right above the measurement object S, the illumination light reaches the bottom of the hole Sh regardless of the depth of the hole Sh. To do. Therefore, most of the measuring object S can be observed.

第1の投光部110Aから測定光が照射された測定対象物Sの画像と、第2の投光部110Bから測定光が照射された測定対象物Sの画像とが横並びに表示部400に表示(2画面表示)されてもよい。   The image of the measuring object S irradiated with the measuring light from the first light projecting unit 110A and the image of the measuring object S irradiated with the measuring light from the second light projecting unit 110B are displayed side by side on the display unit 400. It may be displayed (two-screen display).

PC(パソコン)200は受光部120(制御基板150)から送信されるカメラ画像データを受け取って処理を実行する。表示部400は、光学顕微鏡500を制御するためのモニタとして機能し、カメラ撮影画像や制御用プログラムのGUIを表示し、使用者はマウス、キーボードなどの入力手段を使って操作することができる。   The PC (personal computer) 200 receives camera image data transmitted from the light receiving unit 120 (control board 150) and executes processing. The display unit 400 functions as a monitor for controlling the optical microscope 500, displays a camera-captured image and a GUI for a control program, and can be operated by a user using input means such as a mouse and a keyboard.

図5は、画像を2画面表示するGUI(Graphical User Interface)の一例を示す図である。図5に示すように、表示部400には2つの画像表示領域410、420が並ぶように設けられる。画像を2画面表示する場合には、投光部110A、110Bから測定対象物Sに測定光が切り替わるように交互に照射される。画像表示領域410には、第1の投光部110Aから測定光が照射された場合における測定対象物Sの画像が表示される。画像表示領域420には、第2の投光部110Bから測定光が照射された場合における測定対象物Sの画像が表示される。これにより、使用者は第1、第2の投光部110A、110Bの各々により測定光を照射された場合における測定対象物Sの画像を区別して認識することができる。   FIG. 5 is a diagram illustrating an example of a GUI (Graphical User Interface) that displays an image on two screens. As shown in FIG. 5, the display unit 400 is provided with two image display areas 410 and 420 arranged side by side. When displaying an image on two screens, the measurement light is alternately irradiated to the measurement object S from the light projecting units 110A and 110B. In the image display area 410, an image of the measurement object S when the measurement light is irradiated from the first light projecting unit 110A is displayed. In the image display area 420, an image of the measurement object S when the measurement light is irradiated from the second light projecting unit 110B is displayed. Thereby, the user can distinguish and recognize the image of the measuring object S when the measurement light is irradiated by each of the first and second light projecting units 110A and 110B.

なお、第1、第2の投光部110A、110Bからの測定光の切り替えの頻度は、使用者が夫々を少なくとも動画と感じられる程度の値(例えば数Hz以上)に設定される。したがって、使用者には、測定部100において両方の投光部110A、110Bから測定対象物Sに測定光が略同時に照射され、同時に動画が更新されるように観測される。すなわち、投光部110A、110Bからの測定光を照射して得た夫々の画像は、そのいずれも動画(ライブ画像)のように使用者に認識される。   Note that the frequency of switching of the measurement light from the first and second light projecting units 110A and 110B is set to a value (for example, several Hz or more) that allows the user to feel at least a moving image. Therefore, the user observes that the measurement object 100 is irradiated with the measurement light from both the light projecting units 110A and 110B substantially simultaneously and the moving image is updated at the same time. That is, each of the images obtained by irradiating the measurement light from the light projecting units 110A and 110B is recognized by the user like a moving image (live image).

引き続き図5を参照して、表示部400には2つの明るさ設定バー430、440が表示される。明るさ設定バー430は、水平方向に移動可能なスライダ430sを有する。明るさ設定バー440は、水平方向に移動可能なスライダ440sを有する。明るさ設定バー430上のスライダ430sの位置は、第1の投光部110Aから出射される測定光の明るさまたは110Aからの測定光で画像を撮影する際のカメラ露光時間に対応する。明るさ設定バー440上のスライダ440sの位置は、第2の投光部110Bから出射される測定光の明るさまたは110Bからの測定光で画像を撮影する際のカメラ露光時間に対応する。   Still referring to FIG. 5, two brightness setting bars 430 and 440 are displayed on the display unit 400. The brightness setting bar 430 includes a slider 430s that can move in the horizontal direction. The brightness setting bar 440 includes a slider 440s that can move in the horizontal direction. The position of the slider 430s on the brightness setting bar 430 corresponds to the brightness of the measurement light emitted from the first light projecting unit 110A or the camera exposure time when an image is taken with the measurement light from 110A. The position of the slider 440s on the brightness setting bar 440 corresponds to the brightness of the measurement light emitted from the second light projecting unit 110B or the camera exposure time when an image is taken with the measurement light from 110B.

使用者は、図1のPC200の操作部250(典型的にはマウス)を操作して明るさ設定バー430のスライダ430sを水平方向に移動させることにより、第1の投光部110Aから出射される測定光の明るさ又はこの第1の投光部110Aに対応するカメラ露光時間を変更することができ、その結果がリアルタイムに表示部400の表示画像に反映される。同様に、使用者は、操作部250(典型的にはマウス)を操作して明るさ設定バー440のスライダ440sを水平方向に移動させることにより、第2の投光部110Bから出射される測定光の明るさまたは第2の投光部110Bに対応するカメラ露光時間を変更することができ、その結果がリアルタイムに表示部400の表示画像に反映される。   The user operates the operation unit 250 (typically a mouse) of the PC 200 shown in FIG. 1 to move the slider 430s of the brightness setting bar 430 in the horizontal direction, thereby emitting the light from the first light projecting unit 110A. The measurement light brightness or the camera exposure time corresponding to the first light projecting unit 110A can be changed, and the result is reflected in the display image of the display unit 400 in real time. Similarly, the user operates the operation unit 250 (typically a mouse) to move the slider 440s of the brightness setting bar 440 in the horizontal direction, and thereby the measurement emitted from the second light projecting unit 110B. The brightness of the light or the camera exposure time corresponding to the second light projecting unit 110B can be changed, and the result is reflected in the display image of the display unit 400 in real time.

上記のように、画像表示領域410、420には、投光部110A、110Bの各々により測定光を照射された場合における測定対象物Sの画像が並ぶように表示される。したがって、使用者は、画像表示領域410、420に表示された測定対象物Sの画像を見ながら、明るさ設定バー430、440のスライダ430s、440sの位置をそれぞれ移動させることにより、投光部110A、110Bの各々から出射される測定光の明るさまたはそれぞれの投光部に対応したカメラ露光時間を適切に調整することができる。   As described above, in the image display areas 410 and 420, images of the measurement object S when the measurement light is irradiated by each of the light projecting units 110A and 110B are displayed so as to be aligned. Therefore, the user moves the positions of the sliders 430 s and 440 s of the brightness setting bars 430 and 440 while viewing the image of the measurement object S displayed in the image display areas 410 and 420, respectively. The brightness of the measurement light emitted from each of 110A and 110B or the camera exposure time corresponding to each light projecting unit can be adjusted appropriately.

また、投光部110A、110Bから出射される測定光の適切な明るさと照明光出力部130から出射される照明光の適切な明るさ又は夫々の照明に対応したカメラ露光時間との間に相関がある場合がある。この場合、投光部110A、110Bの各々から出射される測定光の明るさまたはそれぞれの投光部に対応したカメラ露光時間は、照明光出力部130から出射される照明光の明るさまたは照明光に対応したカメラ露光時間に基づいて自動的に調整されてもよい。   Further, there is a correlation between the appropriate brightness of the measurement light emitted from the light projecting units 110A and 110B and the appropriate brightness of the illumination light emitted from the illumination light output unit 130 or the camera exposure time corresponding to each illumination. There may be. In this case, the brightness of the measurement light emitted from each of the light projecting units 110 </ b> A and 110 </ b> B or the camera exposure time corresponding to each light projecting unit is the brightness or illumination of the illumination light emitted from the illumination light output unit 130. It may be automatically adjusted based on the camera exposure time corresponding to the light.

あるいは、照明光出力部130から出射される照明光の明るさまたは照明光に対応したカメラ露光時間に基づいて、投光部110A、110Bの各々から出射される測定光の明るさ又はそれぞれの投光部に対応したカメラ露光時間を適切にするための調整ガイドが表示部400に表示されてもよい。この場合、使用者は、調整ガイドに基づいて明るさ設定バー430、440のスライダ430s、440sの位置をそれぞれ移動させることにより、投光部110A、110Bの各々から出射される測定光の明るさまたはそれぞれの投光部に対応したカメラ露光時間を適切に調整することができる。   Alternatively, based on the brightness of the illumination light emitted from the illumination light output unit 130 or the camera exposure time corresponding to the illumination light, the brightness of the measurement light emitted from each of the light projecting units 110A and 110B or the respective projections. An adjustment guide for making the camera exposure time corresponding to the light part appropriate may be displayed on the display part 400. In this case, the user moves the positions of the sliders 430s and 440s of the brightness setting bars 430 and 440 based on the adjustment guide, respectively, so that the brightness of the measurement light emitted from each of the light projecting units 110A and 110B. Or the camera exposure time corresponding to each light projection part can be adjusted appropriately.

光の照射方向が異なれば、光の反射方向も異なるため、結果として得られる画像の明るさは、同じ部位であっても光の照射方向によって異なる。すなわち、計測に適した照明の明るさ、撮像素子の露光時間は照射方向によって異なることになる。この実施例では、複数の投光部110A、110Bから光を照射して撮像されたそれぞれの画像の明るさを個別に調整可能とすることにより、照射方向毎に適切な照明の明るさ又は露光時間を設定することができる。また、明るさ調整中の画像は、画像表示領域410、420に更新されながら表示されるため、調整後の画像を確認しながら明るさを調整できる。この際に、画像表示領域410、420に表示された画像の中で、明るすぎて白とびしている部分や、暗すぎて黒つぶれしている部分を識別可能に表示することで、ユーザにとって明るさが適切に調整できているか否かをよりわかりやすく表示することも可能である。   If the light irradiation direction is different, the light reflection direction is also different, so that the brightness of the resulting image varies depending on the light irradiation direction even in the same region. That is, the brightness of illumination suitable for measurement and the exposure time of the image sensor vary depending on the irradiation direction. In this embodiment, it is possible to individually adjust the brightness of each image picked up by irradiating light from the plurality of light projecting units 110A and 110B, so that the appropriate illumination brightness or exposure is provided for each irradiation direction. You can set the time. In addition, since the image whose brightness is being adjusted is displayed while being updated in the image display areas 410 and 420, the brightness can be adjusted while checking the adjusted image. At this time, in the images displayed in the image display areas 410 and 420, by displaying the portion that is too bright and overexposed or the portion that is too dark and underexposed so as to be identifiable, it is possible for the user. It is also possible to display more clearly whether or not the brightness can be adjusted appropriately.

測定対象物の形状測定
(1)三角測距方式による形状測定(図6)
測定部100においては、三角測距方式により測定対象物Sの立体形状が測定される。図6は、三角測距方式の原理を説明するための図である。図6に示すように、投光部110から出射される測定光の光軸と受光部120に入射する測定光の光軸(受光部120の光軸)との間の角度αが予め設定される。角度αは0度よりも大きく90度よりも小さい。
Shape measurement of measurement object :
(1) Shape measurement by triangulation method (Fig. 6) :
In the measuring unit 100, the three-dimensional shape of the measuring object S is measured by a triangulation method. FIG. 6 is a diagram for explaining the principle of the triangulation system. As shown in FIG. 6, an angle α between the optical axis of the measurement light emitted from the light projecting unit 110 and the optical axis of the measurement light incident on the light receiving unit 120 (the optical axis of the light receiving unit 120) is set in advance. The The angle α is larger than 0 degree and smaller than 90 degrees.

ステージ140上に測定対象物Sが載置されない場合、投光部110から出射される測定光は、ステージ140の載置面の点Oにより反射され、受光部120に入射する。一方、ステージ140上に測定対象物Sが載置される場合、投光部110から出射される測定光は、測定対象物Sの表面の点Aにより反射され、受光部120に入射する。   When the measurement object S is not placed on the stage 140, the measurement light emitted from the light projecting unit 110 is reflected by the point O on the placement surface of the stage 140 and enters the light receiving unit 120. On the other hand, when the measuring object S is placed on the stage 140, the measuring light emitted from the light projecting unit 110 is reflected by the point A on the surface of the measuring object S and enters the light receiving unit 120.

点Oと点Aとの間のX方向における距離を「d」で示すと、ステージ140の載置面に対する測定対象物Sの点Aの高さhは、h=d÷tan(α)により与えられる。図1のPC200のCPU210は、制御基板150により与えられる測定対象物Sの画素データに基づいて、X方向における点Oと点Aとの間の距離dを測定する。また、CPU210は、測定された距離dに基づいて、測定対象物Sの表面の点Aの高さhを算出する。測定対象物Sの表面の全ての点の高さを算出することにより、測定対象物Sの三次元的な形状を測定できる。しかしながら、測定対象物Sの表面の全ての点を計測するには、測定対象物Sの視野範囲内全域に対して測定光(測定点)を例えばラスタースキャンするなどの処理が必要であり、その処理に多大な時間が必要となる。   When the distance in the X direction between the point O and the point A is indicated by “d”, the height h of the point A of the measuring object S with respect to the mounting surface of the stage 140 is represented by h = d ÷ tan (α). Given. The CPU 210 of the PC 200 in FIG. 1 measures the distance d between the point O and the point A in the X direction based on the pixel data of the measurement object S given by the control board 150. Further, the CPU 210 calculates the height h of the point A on the surface of the measuring object S based on the measured distance d. By calculating the heights of all points on the surface of the measuring object S, the three-dimensional shape of the measuring object S can be measured. However, in order to measure all points on the surface of the measuring object S, processing such as raster scanning of the measuring light (measuring points) is required for the entire field of view of the measuring object S. A great deal of time is required for processing.

このことから、ライン状の照射パターンを測定対象物Sの表面に当てて一方向にスキャンする光切断法、縞状の照射パターンを測定対象物Sの表面に当て一方向にスキャンする縞投影法が周知である。そして、このようにして獲得した三次元形状データに対して、均一照明を測定対象物Sに当てて得た対象物画像を表面テクスチャ情報としてマッピングすることで対象物Sの三次元形状を表示部400にディスプレイすることができる。三次元形状データを獲得するために実施例に採用可能な照射パターンを以下に例示的に説明する。ここに、マッピングとは、その典型例を具体的に説明すれば、三次元形状測定データと二次元テクスチャ画像とを同一のカメラで取得し、二次元テクスチャ画像の各ピクセルのデータと、三次元形状測定によって得られた高さ画像の同一ピクセルのデータとを対応付けして三次元テクスチャ画像を生成することを意味する。   Therefore, a light cutting method in which a line-shaped irradiation pattern is applied to the surface of the measurement object S and scanned in one direction, and a fringe projection method in which a stripe-shaped irradiation pattern is applied to the surface of the measurement object S and is scanned in one direction. Is well known. Then, the three-dimensional shape of the object S is displayed on the display unit by mapping the object image obtained by applying uniform illumination to the measurement object S as surface texture information with respect to the three-dimensional shape data acquired in this way. 400 can be displayed. Illustrative examples of irradiation patterns that can be employed in the embodiment for obtaining three-dimensional shape data are described below. Here, if the typical example of mapping is concretely explained, the 3D shape measurement data and the 2D texture image are acquired by the same camera, the data of each pixel of the 2D texture image, and the 3D This means that a three-dimensional texture image is generated by associating data of the same pixel of the height image obtained by the shape measurement.

(2)測定光の第1の照射パターン(図7:ライン状投影法)
図7は、測定光の第1のパターンを説明するための図である。図7(a)は、ステージ140上の測定対象物Sに投光部110から測定光を照射した状態を示す。図7(b)は、測定光が照射された測定対象物Sの平面図を示す。図7(a)に示すように、第1のパターンとして、Y方向に平行な直線状の断面を有する測定光(以下、ライン状測定光と呼ぶ)が投光部110から出射される。この場合、図7(b)に示すように、ステージ140に照射されたライン状測定光の部分と測定対象物Sの表面に照射されたライン状測定光の部分とは、測定対象物Sの表面の高さhに対応する距離dだけX方向に互いにずれる。したがって、距離dを測定することにより、測定対象物Sの高さhを算出することができる。
(2) First irradiation pattern of measurement light (FIG. 7: line projection method) :
FIG. 7 is a diagram for explaining a first pattern of measurement light. FIG. 7A shows a state in which the measuring object S on the stage 140 is irradiated with the measuring light from the light projecting unit 110. FIG. 7B shows a plan view of the measuring object S irradiated with the measuring light. As shown in FIG. 7A, as the first pattern, measurement light having a linear cross section parallel to the Y direction (hereinafter referred to as linear measurement light) is emitted from the light projecting unit 110. In this case, as shown in FIG. 7B, the portion of the line-shaped measurement light irradiated on the stage 140 and the portion of the line-shaped measurement light irradiated on the surface of the measurement object S are the same as those of the measurement object S. They are shifted from each other in the X direction by a distance d corresponding to the height h of the surface. Therefore, the height h of the measuring object S can be calculated by measuring the distance d.

測定対象物Sの表面のY方向に沿った複数の部分が異なる高さを有する場合には、各部分について上記の距離dを測定することにより、Y方向に沿った複数の部分の高さhを算出することができる。   When a plurality of portions along the Y direction on the surface of the measuring object S have different heights, the height h of the plurality of portions along the Y direction is measured by measuring the distance d for each portion. Can be calculated.

また、図1のCPU210は、X方向の一の位置でY方向に沿った複数の部分について距離dを測定した後、Y方向に平行なライン状測定光をX方向に走査することにより、X方向の他の位置でY方向に沿った複数の部分について距離dを測定する。これにより、X方向の複数の位置におけるY方向に沿った測定対象物Sの複数の部分の高さhが算出される。受光部120の観察及び測定可能な視野よりも広い範囲でライン状測定光をX方向に走査することにより、測定対象物Sの表面の全ての点の高さhを算出することができる。これにより、測定対象物Sの三次元形状データを獲得することができる。   Further, the CPU 210 in FIG. 1 measures the distance d for a plurality of portions along the Y direction at one position in the X direction, and then scans the line-shaped measurement light parallel to the Y direction in the X direction. The distance d is measured for a plurality of portions along the Y direction at other positions in the direction. Thereby, the height h of the several part of the measuring object S along the Y direction in the several position of a X direction is calculated. The height h of all points on the surface of the measuring object S can be calculated by scanning the line-shaped measurement light in the X direction over a range wider than the observation of the light receiving unit 120 and the measurable field of view. Thereby, the three-dimensional shape data of the measuring object S can be acquired.

(3)測定光の第2の照射パターン(図8:正弦波位相シフト法)
図8は、測定光の第2のパターンを説明するための図である。図8に示すように、第2のパターンとして、Y方向に平行な直線状の断面を有しかつX方向に強度が正弦波状に変化するパターンを有する測定光(以下、正弦波状測定光と呼ぶ)が投光部110から複数回(本例においては4回)出射される。正弦波位相シフト法では、最低3回の撮影で高さhを求めることができる。後に説明するように、90度(π/2)ずつ位相をシフトして4回撮影すると、計算式が非常に簡単になるという利点がある。
(3) Second irradiation pattern of measurement light (FIG. 8: sine wave phase shift method) :
FIG. 8 is a diagram for explaining a second pattern of measurement light. As shown in FIG. 8, as the second pattern, measurement light having a linear cross section parallel to the Y direction and having a pattern in which the intensity changes sinusoidally in the X direction (hereinafter referred to as sinusoidal measurement light). ) Is emitted from the light projecting unit 110 a plurality of times (in this example, four times). In the sine wave phase shift method, the height h can be obtained by at least three photographings. As will be described later, if the phase is shifted by 90 degrees (π / 2) and photographing is performed four times, there is an advantage that the calculation formula becomes very simple.

図8(a)は、1回目に出射される正弦波状測定光を示す。1回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の任意の位置POにおいて、初期位相φを有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の任意の部分POにより反射された光の強度(輝度)をI1とする。   FIG. 8A shows sinusoidal measurement light emitted for the first time. The intensity of the sinusoidal measurement light emitted for the first time has an initial phase φ at an arbitrary position PO on the surface of the measurement object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the measuring object S. The intensity (luminance) of light reflected by an arbitrary portion PO on the surface of the measuring object S is assumed to be I1.

図8(b)は、2回目に出射される正弦波状測定光を示す。2回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の任意の位置POにおいて、位相(φ+π/2)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分POにより反射された光の強度(輝度)をI2とする。   FIG. 8B shows sinusoidal measurement light emitted for the second time. The intensity of the sinusoidal measurement light emitted for the second time has a phase (φ + π / 2) at an arbitrary position PO on the surface of the measuring object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the measuring object S. The intensity (luminance) of the light reflected by the portion PO on the surface of the measuring object S is I2.

図8(c)は、3回目に出射される正弦波状測定光を示す。3回目に出射される正弦波状測定光の強度は、測定対象物Sの表面上の任意の位置POにおいて、位相(φ+π)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分POにより反射された光の強度(輝度)をI3とする。   FIG. 8C shows sinusoidal measurement light emitted for the third time. The intensity of the sinusoidal measurement light emitted for the third time has a phase (φ + π) at an arbitrary position PO on the surface of the measurement object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the measuring object S. The intensity (luminance) of the light reflected by the portion PO on the surface of the measuring object S is I3.

図8(d)は、4回目に出射される正弦波状測定光を示す。4回目の正弦波状測定光の強度は、測定対象物Sの表面上の任意の位置POにおいて、位相(φ+3π/2)を有する。この正弦波状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が測定対象物Sの画素データに基づいて測定される。測定対象物Sの表面上の部分POにより反射された光の強度(輝度)をI4とする。 FIG. 8D shows sinusoidal measurement light emitted for the fourth time. The intensity of the fourth sinusoidal measurement light has a phase (φ + 3π / 2) at an arbitrary position PO on the surface of the measuring object S. When the sinusoidal measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the measuring object S. The intensity of the light reflected by the portion P O on the surface of the measuring object S (luminance) and I4.

初期位相φは、φ=tan−1[(I1−I3)/(I2−I4)]で与えられる。この4点法を使うことにより、元になる正弦波の振幅や輝度中心を知る必要がなく、計測したI1〜I4から初期位相φを求めることにより測定対象物Sの任意の部分の高さhが算出される。より詳しく説明すると、測定対象物Sの表面上の任意の位置POにおいて、対象物Sが存在していないときの初期位相φoと、対象物Sが存在することによってシフトした初期位相φsとの位相差(図6の距離dに相当)を求めることで高さhが算出される。すなわち、この方式によれば、4回の光の強度の測定により、測定対象物Sの全ての部分の初期位相φを高速かつ容易に算出することができる。なお、初期位相φは、最低3回、位相の異なる測定光を照射し、受光される光の強度(輝度)を測定することにより算出することができる。そして、測定対象物Sの表面上の全ての部分の高さhを算出することにより、測定対象物Sの三次元的な形状を測定することができる。この正弦波位相シフト法によれば、撮影枚数が最低3枚であり少ない撮影回数で立体情報を入手できるため高速で三次元形状データを獲得できるという利点がある。 The initial phase φ is given by φ = tan −1 [(I1−I3) / (I2−I4)]. By using this four-point method, it is not necessary to know the amplitude and luminance center of the original sine wave, and the height h of an arbitrary part of the measuring object S is obtained by obtaining the initial phase φ from the measured I1 to I4. Is calculated. More specifically, at an arbitrary position PO on the surface of the measurement object S, the initial phase φo when the object S does not exist and the initial phase φs shifted by the presence of the object S are shown. The height h is calculated by obtaining the phase difference (corresponding to the distance d in FIG. 6). That is, according to this method, the initial phase φ of all portions of the measuring object S can be calculated quickly and easily by measuring the intensity of light four times. The initial phase φ can be calculated by irradiating measurement light with different phases at least three times and measuring the intensity (luminance) of the received light. Then, by calculating the height h of all the parts on the surface of the measuring object S, the three-dimensional shape of the measuring object S can be measured. This sine wave phase shift method has an advantage that three-dimensional shape data can be acquired at a high speed because the number of shots is at least three and stereoscopic information can be obtained with a small number of shots.

(4)測定光の第3の照射パターン(図9:マルチスリット法)
図9は、測定光の第3のパターンを説明するための図である。図9に示すように、第3のパターンとして、Y方向に平行でかつX方向に並ぶような直線状の断面を有する複数の細線状のパターン測定光(以下、縞状測定光と呼ぶ)が投光部110から複数回(本例においては16回)出射される。すなわち、スリット幅よりも狭いピッチで照明パターンを移動させて複数回の撮影が行われる。実施例では、このマルチスリット法と後に説明する空間コード法との組み合わせが採用されている。
(4) Third irradiation pattern of measurement light (FIG. 9: multi-slit method) :
FIG. 9 is a diagram for explaining a third pattern of measurement light. As shown in FIG. 9, as the third pattern, there are a plurality of fine line-shaped pattern measuring lights (hereinafter referred to as striped measuring lights) having a linear cross section parallel to the Y direction and aligned in the X direction. The light is emitted from the light projecting unit 110 a plurality of times (in this example, 16 times). In other words, photographing is performed a plurality of times by moving the illumination pattern at a pitch narrower than the slit width. In the embodiment, a combination of the multi-slit method and a spatial code method described later is employed.

縞状測定光においては、Y方向に平行な直線状の明部分およびY方向に平行な直線状の暗部分がX方向に周期的に配列される。ここで、パターン生成部112がDMDである場合にはマイクロミラーの寸法を1単位とする。   In the striped measurement light, a linear bright portion parallel to the Y direction and a linear dark portion parallel to the Y direction are periodically arranged in the X direction. Here, when the pattern generation unit 112 is a DMD, the dimension of the micromirror is set to one unit.

縞状測定光の各明部分のX方向の幅は、例えば3単位であり、縞状測定光の各暗部分のX方向の幅は、例えば13単位である。この場合、縞状測定光のX方向の周期は16単位である。なお、明部分および暗部分の単位は、図2のパターン生成部112の構成により異なる。例えば、パターン生成部112が液晶である場合には1単位は1画素の寸法である。   The width of each bright portion of the striped measurement light in the X direction is, for example, 3 units, and the width of each dark portion of the striped measurement light in the X direction is, for example, 13 units. In this case, the period of the striped measurement light in the X direction is 16 units. The unit of the bright part and the dark part differs depending on the configuration of the pattern generation unit 112 in FIG. For example, when the pattern generation unit 112 is a liquid crystal, one unit is the size of one pixel.

1回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が、測定対象物Sの1番目の撮影画像の画素データに基づいて測定される。図9(a)は、1回目の縞状測定光に対応する測定対象物Sの1番目の撮影画像である。   When the first striped measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the first captured image of the measuring object S. FIG. 9A is a first photographed image of the measuring object S corresponding to the first striped measurement light.

2回目の縞状測定光は、1回目の縞状測定光から明部分および暗部分をX方向に1単位だけ移動させたパターンを有する。2回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が、受光部120により受光される。受光された光の強度が測定対象物Sの2番目の撮影画像の画素データに基づいて測定される。   The second striped measurement light has a pattern in which the bright portion and the dark portion are moved by one unit in the X direction from the first striped measurement light. When the second striped measurement light is emitted, the light reflected by the surface of the measurement object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the second captured image of the measuring object S.

3回目の縞状測定光は、2回目の縞状測定光から明部分および暗部分をX方向に1単位だけ移動させたパターンを有する。3回目の縞状測定光が出射されることにより、測定対象物Sの表面で反射された光が受光部120により受光される。受光された光の強度が、測定対象物Sの3番目の撮影画像の画素データに基づいて測定される。   The third striped measurement light has a pattern in which the bright part and the dark part are moved by one unit in the X direction from the second striped measurement light. By emitting the third striped measurement light, the light reflected by the surface of the measuring object S is received by the light receiving unit 120. The intensity of the received light is measured based on the pixel data of the third captured image of the measuring object S.

同様の動作が繰り返されることにより、4〜16回目の縞状測定光に対応する光の強度が、測定対象物Sの4〜16番目の撮影画像の画素データに基づいてそれぞれ測定される。X方向の周期が16単位である縞状測定光が16回出射されることにより、測定対象物Sの表面の全ての部分に縞状測定光が照射される。なお、図9(b)は、7回目の縞状測定光に対応する測定対象物Sの7番目の撮影画像である。図9(c)は、13回目の縞状測定光に対応する測定対象物Sの13番目の撮影画像である。   By repeating the same operation, the intensity of the light corresponding to the 4th to 16th striped measurement light is measured based on the pixel data of the 4th to 16th captured images of the measuring object S, respectively. The striped measurement light whose period in the X direction is 16 units is emitted 16 times, so that the entire surface of the measurement object S is irradiated with the striped measurement light. FIG. 9B is a seventh captured image of the measuring object S corresponding to the seventh striped measurement light. FIG. 9C is a thirteenth captured image of the measuring object S corresponding to the thirteenth striped measurement light.

図10は、測定対象物Sの特定の部分における、画像が撮影されたタイミング(何番目か)と受光された光の強度との関係を示す図である。図10の横軸は撮影画像の番号を示し、縦軸は受光された光の強度を示す。上述のように、測定対象物Sについて、1〜16番目の撮影画像が生成される。また、生成された1〜16番目の撮影画像の各画素に対応する光の強度(輝度)が測定される。   FIG. 10 is a diagram illustrating the relationship between the timing (numbered number) at which an image is captured and the intensity of received light in a specific portion of the measurement object S. The horizontal axis in FIG. 10 indicates the number of the captured image, and the vertical axis indicates the intensity of the received light. As described above, the first to sixteenth captured images are generated for the measuring object S. In addition, the intensity (luminance) of light corresponding to each pixel of the generated first to sixteenth captured images is measured.

図10に示すように、撮影画像の番号に対応する画像内の各部分の光の強度(輝度)を図示することにより散布図が得られる。得られた散布図に例えばガウシアン曲線、スプライン曲線または放物線をフィッティングさせることにより、光の強度が最大になるときの撮影画像の番号(何番目か)を、1未満の精度で推定することができる。図10の例においては、フィッティングされた点線で示す曲線により、9番目と10番目との間である9.38番目の撮影画像(このような撮影画像は実際にはなく、あくまで計算推定上としてのみ存在する)において、光の強度が最大になることが推定される。   As shown in FIG. 10, a scatter diagram is obtained by illustrating the light intensity (luminance) of each part in the image corresponding to the number of the captured image. By fitting, for example, a Gaussian curve, a spline curve or a parabola to the obtained scatter diagram, it is possible to estimate the number (number) of the photographed image when the light intensity becomes maximum with an accuracy of less than 1. . In the example of FIG. 10, the 9.38th photographed image between the ninth and the tenth is shown by the curve indicated by the fitted dotted line (such a photographed image is not actually present but exists only for calculation estimation). In this case, it is estimated that the light intensity becomes maximum.

また、フィッティングされた曲線により、光の強度の最大値を推定することもできる。測定対象物Sの各部分において推定された光の強度が最大値を取る撮影画像の番号に基づいて、これにマイクロミラー1単位が対象物S上で何μmに相当するかという数値を掛け合わせることで図6の「d」に相当する距離を求め、そして、この値dに基づいて、測定対象物Sの各部の高さhを算出することができる(h=d÷tan(α))。この方法によれば、S/N(信号/ノイズ)比が十分に大きい光の強度に基づいて測定対象物Sの三次元的な形状を測定できるので測定対象物Sの形状測定の精度を向上させることができる。   In addition, the maximum value of the light intensity can be estimated from the fitted curve. Based on the number of the photographed image in which the light intensity estimated in each part of the measurement object S takes the maximum value, this value is multiplied by the value of how many μm each micromirror unit corresponds to on the object S. Thus, the distance corresponding to “d” in FIG. 6 is obtained, and the height h of each part of the measuring object S can be calculated based on this value d (h = d ÷ tan (α)). . According to this method, since the three-dimensional shape of the measuring object S can be measured based on the intensity of light having a sufficiently large S / N (signal / noise) ratio, the accuracy of the shape measurement of the measuring object S is improved. Can be made.

なお、正弦波状測定光または縞状測定光の周期的な投影パターンを用いた測定対象物Sの形状測定においては、測定対象物Sの表面の各部分の相対的な高さ(高さの相対値)が測定される。これは、個々の周期的な縞が区別できず、縞1周期分(2π)の整数倍に相当する不確かさが存在するため、絶対位相が求まらないからである。そのため、測定対象物Sの一の部分の高さとその部分に隣接する部分の高さが連続的に変化しているという仮定に基づいて、測定された高さのデータに公知のアンラッピング処理が行われてもよい。   In the shape measurement of the measuring object S using a periodic projection pattern of sinusoidal measuring light or striped measuring light, the relative height (relative height) of each part of the surface of the measuring object S is measured. Value) is measured. This is because individual periodic fringes cannot be distinguished and there is an uncertainty corresponding to an integral multiple of one fringe period (2π), so that the absolute phase cannot be obtained. Therefore, a known unwrapping process is performed on the measured height data based on the assumption that the height of one part of the measuring object S and the height of the part adjacent to the part continuously change. It may be done.

このマルチスリット法によれば、16画素周期、3画素幅のスリット光、移動ピッチ1画素の場合、撮影枚数は16枚となる。画素毎に最大輝度となる撮影タイミング(何枚目の画像か)を補間計算で求める際に、常に輝度の高いデータを利用するため、精度を安定的に高め易い。   According to this multi-slit method, the number of shots is 16 in the case of a 16-pixel cycle, a slit light with a width of 3 pixels, and a moving pitch of 1 pixel. Since data with high luminance is always used when obtaining an imaging timing (which image is the maximum) for each pixel by interpolation calculation, it is easy to stably improve accuracy.

(5)測定光の第4の照射パターン(図11:空間コード法)
図11は、測定光の第4のパターンを説明するための図である。図11に示すように、第4のパターンとして、Y方向に平行な直線状の断面を有しかつ明部分と暗部分とがX方向に並ぶ測定光(以下、コード状測定光と呼ぶ)が投光部110から複数回(本例においては4回)出射される。コード状測定光の明部分および暗部分の割合は、それぞれ50%である。
(5) Fourth irradiation pattern of measurement light (FIG. 11: spatial code method) :
FIG. 11 is a diagram for explaining a fourth pattern of measurement light. As shown in FIG. 11, as the fourth pattern, measurement light having a linear cross section parallel to the Y direction and having a bright portion and a dark portion aligned in the X direction (hereinafter referred to as code-like measurement light) is used. The light is emitted from the light projecting unit 110 a plurality of times (in this example, four times). The ratio of the bright part and the dark part of the code-like measurement light is 50%.

実施例では、測定対象物Sの表面がX方向において複数(図11の例では16)の領域に分割される。以下、複数に分割されたX方向における測定対象物Sの領域をそれぞれ第1〜第16の領域と呼ぶ。   In the embodiment, the surface of the measuring object S is divided into a plurality of regions (16 in the example of FIG. 11) in the X direction. Hereinafter, the areas of the measurement object S in the X direction divided into a plurality of parts are referred to as first to sixteenth areas, respectively.

図11(a)は、1回目に出射されるコード状測定光を示す。1回目に出射されるコード状測定光は、測定対象物Sの第1〜第8の領域に照射される明部分を有する。また、1回目に出射されるコード状測定光は、測定対象物Sの第9〜第16の領域に照射される暗部分を有する。これにより、1回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、1回目に出射されるコード状測定光の明部分および暗部分の割合は夫々50%である。   FIG. 11A shows the code-like measurement light emitted for the first time. The code-shaped measurement light emitted for the first time has a bright portion that is irradiated onto the first to eighth regions of the measurement object S. Moreover, the code-shaped measurement light emitted for the first time has a dark part irradiated on the ninth to sixteenth regions of the measuring object S. Thereby, in the code-like measurement light emitted for the first time, the bright portion and the dark portion are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright part and the dark part of the code-like measurement light emitted for the first time is 50%.

図11(b)は、2回目に出射されるコード状測定光を示す。2回目に出射されるコード状測定光は、測定対象物Sの第5〜第12の領域に照射される明部分を有する。また、2回目に出射されるコード状測定光は、測定対象物Sの第1〜第4および第13〜第16の領域に照射される暗部分を有する。これにより、2回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、2回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11B shows the code-like measurement light emitted for the second time. The code-like measurement light emitted for the second time has a bright portion that is irradiated onto the fifth to twelfth regions of the measurement object S. Moreover, the code-like measurement light emitted for the second time has dark portions that are irradiated to the first to fourth and thirteenth to sixteenth regions of the measuring object S. Thereby, in the code-like measurement light emitted for the second time, the bright part and the dark part are parallel to the Y direction and aligned in the X direction. Moreover, the ratio of the bright part and the dark part of the code-like measurement light emitted for the second time is 50%.

図11(c)は、3回目に出射されるコード状測定光を示す。3回目に出射されるコード状測定光は、測定対象物Sの第1、第2、第7〜第10、第15および第16の領域に照射される明部分を有する。また、3回目に出射されるコード状測定光は、測定対象物Sの第3〜第6および第11〜第14の領域に照射される暗部分を有する。これにより、3回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、3回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11C shows the code-like measurement light emitted for the third time. The code-like measurement light emitted for the third time has bright portions that are irradiated on the first, second, seventh to tenth, fifteenth and sixteenth regions of the measurement object S. Moreover, the code-like measurement light emitted for the third time has dark portions that are irradiated on the third to sixth and the eleventh to fourteenth regions of the measurement object S. Thereby, in the code-like measurement light emitted for the third time, the bright part and the dark part are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright part and the dark part of the code-like measurement light emitted for the third time is 50%.

図11(d)は、4回目に出射されるコード状測定光を示す。4回目に出射されるコード状測定光は、測定対象物Sの第1、第4、第5、第8、第9、第12、第13および第16の領域に照射される明部分を有する。また、4回目に出射されるコード状測定光は、測定対象物Sの第2、第3、第6、第7、第10、第11、第14および第15の領域に照射される暗部分を有する。これにより、4回目に出射されるコード状測定光においては、明部分と暗部分とがY方向に平行でかつX方向に並ぶ。また、4回目に出射されるコード状測定光の明部分および暗部分の割合は、それぞれ50%である。   FIG. 11D shows the code-like measurement light emitted for the fourth time. The coded measurement light emitted for the fourth time has a bright portion that is irradiated on the first, fourth, fifth, eighth, ninth, twelfth, thirteenth, and sixteenth regions of the measurement object S. . In addition, the coded measurement light emitted for the fourth time is a dark portion irradiated on the second, third, sixth, seventh, tenth, eleventh, fourteenth and fifteenth regions of the measuring object S. Have Thereby, in the code-like measurement light emitted for the fourth time, the bright part and the dark part are parallel to the Y direction and aligned in the X direction. Further, the ratio of the bright part and the dark part of the code-like measurement light emitted for the fourth time is 50%.

コード状測定光の明部分に論理“1”が割り当てられ、コード状測定光の暗部分が論理“0”が割り当てられる。また、測定対象物Sの各領域に照射される1回目〜4回目のコード状測定光の論理の並びを符号と呼ぶ。この場合、測定対象物Sの第1の領域には、符号“1011”のコード状測定光が照射される。これにより、測定対象物Sの第1の領域は、符号“1011”に符号化される。   Logic “1” is assigned to the bright part of the code-like measurement light, and logic “0” is assigned to the dark part of the code-like measurement light. In addition, the logic arrangement of the first to fourth code-like measurement lights irradiated on each region of the measurement object S is referred to as a code. In this case, the first region of the measurement object S is irradiated with the code-shaped measurement light with the code “1011”. As a result, the first region of the measuring object S is encoded to the code “1011”.

測定対象物Sの第2の領域には、符号“1010”のコード状測定光が照射される。これにより、測定対象物Sの第2の領域は、符号“1010”に符号化される。測定対象物Sの第3の領域には、符号“1000”のコード状測定光が照射される。これにより、測定対象物Sの第3の領域は、符号“1000”に符号化される。同様に、測定対象物Sの第16の領域には、符号“0011”のコード状測定光が照射される。これにより、測定対象物Sの第16の領域は、符号“0011”に符号化される。   The second area of the measurement object S is irradiated with code-shaped measurement light with a code “1010”. As a result, the second region of the measuring object S is encoded to the code “1010”. The third region of the measuring object S is irradiated with code-shaped measurement light with a code “1000”. As a result, the third region of the measuring object S is encoded with the code “1000”. Similarly, the 16th region of the measuring object S is irradiated with the code-shaped measurement light with the code “0011”. Thus, the sixteenth region of the measuring object S is encoded with the code “0011”.

このように、測定対象物Sの隣り合う領域の間では、符号のいずれかの桁が“1”のみ異なるようにコード状測定光が測定対象物Sに複数回照射される。すなわち、コード状測定光は、明部分および暗部分がグレイコード状に変化するように、複数回測定対象物Sに照射される。   In this way, between the adjacent regions of the measurement object S, the code-shaped measurement light is irradiated to the measurement object S a plurality of times so that any digit of the code differs by “1”. That is, the code-shaped measurement light is applied to the measurement object S a plurality of times so that the bright portion and the dark portion change into a gray code shape.

測定対象物Sの表面の各領域で反射された光が受光部120により受光される。受光された光によってコード状測定光画像が生成され(この例では4枚の画像)、これらの画像から各領域の符号を測定する。この符号と、領域毎に、測定対象物Sが存在しない場合の符号との差分を求めることで、図6の「d」に相当する距離が求まる。この際、画像内のX軸方向には前述の符号は1回のみ出現するというコード化法の特徴から、「d」の絶対的な値が求まる。ここから、測定対象物Sのその領域の絶対的な高さ(高さの絶対値)が算出される。測定対象物Sの表面上の全ての領域の高さを算出することにより、測定対象物Sの三次元的な形状を測定することができる。   Light reflected by each region on the surface of the measuring object S is received by the light receiving unit 120. Coded measurement light images are generated from the received light (in this example, four images), and the sign of each region is measured from these images. The distance corresponding to “d” in FIG. 6 is obtained by obtaining the difference between this code and the code when the measurement object S does not exist for each region. At this time, the absolute value of “d” is obtained from the characteristic of the coding method that the above-mentioned code appears only once in the X-axis direction in the image. From here, the absolute height (the absolute value of the height) of the region of the measuring object S is calculated. By calculating the height of all regions on the surface of the measuring object S, the three-dimensional shape of the measuring object S can be measured.

上記の説明においては、測定対象物Sの表面がX方向において16の領域に分割され、コード状測定光が投光部110から4回出射されたが、これに限定されない。測定対象物Sの表面がX方向において2の領域(Nは自然数)に分割され、コード状測定光が投光部110からN回出射されてもよい。上記の説明においては、理解を容易にするためにNは4に設定されている。本実施の形態における形状測定処理においては、Nは例えば8に設定される。したがって、測定対象物Sの表面はX方向において256の領域に分割される。 In the above description, the surface of the measuring object S is divided into 16 regions in the X direction, and the code-shaped measurement light is emitted from the light projecting unit 110 four times. However, the present invention is not limited to this. The surface of the measurement object S may be divided into 2 N regions (N is a natural number) in the X direction, and the code-shaped measurement light may be emitted N times from the light projecting unit 110. In the above description, N is set to 4 for easy understanding. In the shape measurement process in the present embodiment, N is set to 8, for example. Therefore, the surface of the measuring object S is divided into 256 regions in the X direction.

コード状測定光を用いた測定対象物Sの形状測定においては、縞をコードとして分離できる最小距離、すなわち受光1画素分に相当する距離が最小の分解能となる。したがって、受光部120のX方向における視野の画素数が1024画素である場合、高さが例えば10mmの測定対象物Sを10mm÷1024≒10μmの分解能で計測することができる。実施例では、このコード状測定光を用いた形状測定(絶対値が求まるが分解能が不足する)と上述したマルチスリット法とを組み合わせたアルゴリズムを使って三次元形状データが生成される。変形例として、上述したコード法と正弦波位相シフト法とを組み合わせたアルゴリズムを使って三次元形状データを生成するようにしてもよい。相対値しか求まらないが分解能が高いマルチスリット法又は正弦波位相シフト法とコード法との組み合わせによって、測定対象物Sの距離dの絶対値をより高い分解能で算出することができる。   In the shape measurement of the measuring object S using the code-like measurement light, the minimum resolution at which the stripe can be separated as a code, that is, the distance corresponding to one pixel of light reception is the minimum resolution. Therefore, when the number of pixels in the field of view in the X direction of the light receiving unit 120 is 1024 pixels, a measurement object S having a height of, for example, 10 mm can be measured with a resolution of 10 mm ÷ 1024≈10 μm. In the embodiment, three-dimensional shape data is generated by using an algorithm that combines the shape measurement using the code-shaped measurement light (absolute value is obtained but the resolution is insufficient) and the multi-slit method described above. As a modification, three-dimensional shape data may be generated using an algorithm that combines the above-described code method and sine wave phase shift method. Only the relative value is obtained, but the absolute value of the distance d of the measuring object S can be calculated with higher resolution by the combination of the multi-slit method or the sine wave phase shift method and the code method with high resolution.

特に、図9の縞状測定光を用いた測定対象物Sの形状測定においては、分解能を1/100画素にすることができる。なお、1/100画素の分解能は、受光部120のX方向における視野の画素数が1024画素である場合、測定対象物Sの表面をX方向において約100000の領域に分割すること(すなわちN≒17)に相当する。   In particular, in the shape measurement of the measuring object S using the striped measurement light in FIG. 9, the resolution can be 1/100 pixels. The resolution of 1/100 pixels is that the surface of the measuring object S is divided into about 100,000 areas in the X direction when the number of pixels of the field of view in the X direction of the light receiving unit 120 is 1024 pixels (that is, N≈ 17).

このコード状測定光を用いた形状測定法によれば絶対位相を求めることができるという利点があるが、分解能は比較的低い。したがって、絶対位相を知ることのできる空間コード法と、相対位相しか求めることのできない正弦波位相シフト法やマルチスリット法とを組み合わせることで、高分解能で且つ絶対値を得ることのできる計測法となる。つまり、このコード状測定光を用いた形状測定と縞状測定光を用いた形状測定とを組み合わせることにより、測定対象物Sの高さの絶対値をさらに高い分解能で算出することができる。   According to the shape measuring method using the code-shaped measuring light, there is an advantage that the absolute phase can be obtained, but the resolution is relatively low. Therefore, by combining the spatial code method that can know the absolute phase, the sine wave phase shift method and the multi-slit method that can only obtain the relative phase, a measurement method that can obtain an absolute value with high resolution and Become. That is, the absolute value of the height of the measuring object S can be calculated with higher resolution by combining the shape measurement using the code-shaped measurement light and the shape measurement using the striped measurement light.

上述したライン状の測定光を測定対象物上で走査する方法(第1照射パターン:図7)は一般に光切断法と呼ばれる。一方、正弦波状の測定光を照射する方法(第2照射パターン:図8)、縞状の測定光を照射する方法(第3照射パターン:図9)、あるいはコード状の測定光を照射する方法(第4照射パターン:図11)は、パターン投影法に分類される。また、パターン投影法の中でも、正弦波状の測定光を照射する方法と縞状の測定光を照射する方法は位相シフト法に分類され、コード状の測定光を照射する方法は空間コード法に分類される。   The above-described method of scanning the line-shaped measurement light on the measurement object (first irradiation pattern: FIG. 7) is generally called a light cutting method. On the other hand, a method of irradiating sinusoidal measurement light (second irradiation pattern: FIG. 8), a method of irradiating striped measurement light (third irradiation pattern: FIG. 9), or a method of irradiating code-shaped measurement light (4th irradiation pattern: FIG. 11) is classified into the pattern projection method. Among pattern projection methods, the method of irradiating sinusoidal measurement light and the method of irradiating striped measurement light are classified as phase shift methods, and the method of irradiating code-like measurement light is classified as a spatial code method. Is done.

正弦波位相シフト法(第2、第3の照射パターン:図8、図9)は、周期的な投影パターンである正弦波や複数のスリット光を照射した際に、測定対象物Sが存在しない場合の基準高さ位置から反射した受光量に基づいて計算された位相と、測定対象物が存在する場合の測定対象物Sの表面から反射した受光量に基づいて計算された位相の位相差から測定対象物Sの高さを求める。位相シフト法は、個々の周期的な縞が区別できず、縞1周期分(2π)の整数倍に相当する不確かさが存在するため、絶対位相が求まらないという欠点があるが、光切断法に比べ取得する画像の枚数が少ないため計測時間が比較的短く、また、計測分解能が高いという長所がある。一方、空間コード法(第4照射パターン:図11)は、対象物の領域毎に、対象物Sが存在することによって変化した符号が得られ、この符号と対象物Sが存在しない場合の符号との差分を領域毎に求めることで対象物の絶対的な高さを求めることができる。空間コード法も比較的少ない画像枚数で計測が可能であり、絶対的な高さを求めることができるという長所があるが、正弦波位相シフト法に比べると計測分解能に限界がある。   In the sine wave phase shift method (second and third irradiation patterns: FIGS. 8 and 9), the measurement object S does not exist when a sine wave that is a periodic projection pattern or a plurality of slit lights is irradiated. From the phase difference calculated based on the received light amount reflected from the reference height position in the case and the phase difference calculated based on the received light amount reflected from the surface of the measurement object S when the measurement object exists The height of the measuring object S is obtained. Although the phase shift method cannot distinguish individual periodic fringes and has an uncertainty corresponding to an integral multiple of one fringe period (2π), there is a drawback that the absolute phase cannot be obtained. Compared to the cutting method, the number of images to be acquired is small, so that the measurement time is relatively short and the measurement resolution is high. On the other hand, in the spatial code method (fourth irradiation pattern: FIG. 11), a code that is changed due to the presence of the object S is obtained for each region of the object, and this code and a code when the object S does not exist The absolute height of the object can be obtained by obtaining the difference between and for each region. The spatial code method can measure with a relatively small number of images and has an advantage that the absolute height can be obtained. However, the measurement resolution is limited compared to the sine wave phase shift method.

これらの投影法は、各々短所、長所を有しているが、いずれも三角測量の原理を用いている点は共通である。実施例では、上述したように第3の照射パターン(図9:マルチスリット法)と空間コード法(図11)とを組み合わせたアルゴリズムが採用されているが、マルチスリット法に代えて正弦波位相シフト法を採用して、この正弦波位相シフト法と空間コード法とを組み合わせたアルゴリズムを採用してもよい。   Each of these projection methods has disadvantages and advantages, but both use the principle of triangulation. In the embodiment, as described above, an algorithm in which the third irradiation pattern (FIG. 9: multi-slit method) and the spatial code method (FIG. 11) are combined is employed, but the sine wave phase is used instead of the multi-slit method. An algorithm combining the sine wave phase shift method and the spatial code method may be adopted by adopting the shift method.

第1実施例の光学顕微鏡500は、真下に光を照射するリング状のRGB照明光出力部130と、斜めに光を照射する投光部110とを使い分けて撮像する。対象物Sを観察するだけのときには、RGB照明光出力部130と投光部110の照明を適宜選択する又は一緒に使って最適な照明状態で対象物Sを観察することができる。3Dテクスチャ画像を生成するときには、リング状のRGB照明光出力部130を使って撮影したカラー画像(二次元テクスチャ画像)を取得し、また、投光部110を使って計測した三次元立体データを取得する。そして二次元テクスチャ画像を三次元立体データにマッピングして生成した3Dテクスチャ画像を表示部400に表示する。表示部400に表示された3Dテクスチャ画像は、測定対象物Sを目視したときの立体輪郭を忠実に再現するものであり、このリアルな3Dテクスチャ画像データをPC200に組み込んだ任意のプログラムを使って任意の方向から観察したり、計測や解析を行うことができる。   The optical microscope 500 of the first embodiment picks up an image by using a ring-shaped RGB illumination light output unit 130 that emits light directly below and a light projecting unit 110 that emits light obliquely. When only observing the object S, the illumination of the RGB illumination light output unit 130 and the light projecting unit 110 can be appropriately selected or used together to observe the object S in an optimal illumination state. When generating a 3D texture image, a color image (two-dimensional texture image) captured using the ring-shaped RGB illumination light output unit 130 is acquired, and three-dimensional solid data measured using the light projecting unit 110 is obtained. get. Then, the 3D texture image generated by mapping the 2D texture image to the 3D solid data is displayed on the display unit 400. The 3D texture image displayed on the display unit 400 faithfully reproduces the three-dimensional contour when the measuring object S is viewed, and an arbitrary program in which this realistic 3D texture image data is incorporated into the PC 200 is used. Observation from any direction, measurement and analysis can be performed.

換言すると、従来の光学顕微鏡では、測定対象物の綺麗な画像をモニタ表示できるものは二次元(2D)画像であるため立体感やリアル感に乏しい。これに対して、実施例の光学顕微鏡500によれば、綺麗な三次元(3D)テクスチャ画像をモニタ表示するため、これを観察する使用者にリアルな感覚を提供することができる。したがって、実施例の光学顕微鏡500は、そのリアルな3Dテクスチャ画像が瞬時に表示されるのを見た使用者に対して、リアルな3Dテクスチャ画像のモニタ表示が瞬時に行われることに対する驚きを与え且つPC200の表示部400内に対象物Sがそのまま取り込まれたかのような驚きを与えることができる。   In other words, in a conventional optical microscope, what can display a beautiful image of a measurement object on a monitor is a two-dimensional (2D) image, so that the stereoscopic effect and realism are poor. On the other hand, according to the optical microscope 500 of the embodiment, a beautiful three-dimensional (3D) texture image is displayed on the monitor, so that a real sense can be provided to the user who observes the image. Therefore, the optical microscope 500 according to the embodiment gives a surprise to a user who sees that the realistic 3D texture image is displayed instantaneously, that the monitor display of the realistic 3D texture image is instantaneously performed. In addition, it is possible to give a surprise as if the object S was taken in the display unit 400 of the PC 200 as it is.

実施例では、投光部110及び受光部120にテレセントリック光学系を採用することで対象物Sの光学像を極めて低い歪みで結像させ、また、撮像素子121aにモノクロの撮像素子を採用することで、高感度、高S/N比の高画質画像を取得することができる。そして、この画像から高精度な三次元形状データを生成できる。同様に、照明光出力部130による照明画像(2Dテクスチャ画像)も共通の受光部120を経て高画質に取得することができる。そして、三次元形状データと2D(二次元テクスチャ画像)とを組み合わせることで高画質の3D(三次元)テクスチャ画像を生成できる。この高画質の3Dテクスチャ画像が前述したリアリティを備えていることは言うまでもない。   In the embodiment, an optical image of the object S is formed with extremely low distortion by employing a telecentric optical system for the light projecting unit 110 and the light receiving unit 120, and a monochrome image sensor is employed for the image sensor 121a. Thus, a high-sensitivity and high-quality image with a high S / N ratio can be acquired. Then, highly accurate three-dimensional shape data can be generated from this image. Similarly, an illumination image (2D texture image) by the illumination light output unit 130 can also be acquired with high image quality via the common light receiving unit 120. A high-quality 3D (three-dimensional) texture image can be generated by combining the three-dimensional shape data and 2D (two-dimensional texture image). It goes without saying that this high-quality 3D texture image has the aforementioned reality.

図12は、投光部110に両側テレセントリックレンズ114、115を採用した場合の作用効果を説明するための図である。ステージ140には、投光部110からの光の束が図12の下方に図示するように矩形の投影像を生成し、2次元アレイ(パターン生成部112)の画素の水平ラインと受光画素の水平ラインとの平行性が維持される。したがって、受光画素で投影パターンを見たときに、この画面上での最小パターン幅の一定性を維持することができる。これによりステージ140上の投影パターンと観察画像との対応付けが容易となる。   FIG. 12 is a diagram for explaining the operational effect when the double-sided telecentric lenses 114 and 115 are employed in the light projecting unit 110. On the stage 140, the bundle of light from the light projecting unit 110 generates a rectangular projection image as shown in the lower part of FIG. 12, and the horizontal lines of the pixels of the two-dimensional array (pattern generating unit 112) and the light receiving pixels. Parallelism with the horizontal line is maintained. Therefore, when the projection pattern is viewed with the light receiving pixels, the continuity of the minimum pattern width on the screen can be maintained. This facilitates the association between the projection pattern on the stage 140 and the observation image.

これに対して投光部110にテレセントリックレンズではない光学レンズを配置した場合には、投光部110がステージ140に対して斜めに配置されていることに伴って台形の投影像となり、2次元アレイ(パターン生成部112)の画素の水平ラインを投影したステージ140上のラインと、観察画像上の水平ラインつまり受光画素の水平ラインは平行でなくなる。そして、投光部110に近い側では相対的に倍率が低くなり、投光部110から遠い側では相対的に倍率が高くなる、という台形歪みが発生し、これにより投光部110から照射する光の方向に沿って倍率が変化してしまう結果、観察画像上のパターン幅の一定性を維持できない。   On the other hand, when an optical lens that is not a telecentric lens is disposed in the light projecting unit 110, a trapezoidal projection image is obtained as the light projecting unit 110 is disposed obliquely with respect to the stage 140. The line on the stage 140 that projects the horizontal lines of the pixels of the array (pattern generation unit 112) and the horizontal line on the observation image, that is, the horizontal lines of the light receiving pixels are not parallel. Then, a trapezoidal distortion occurs in which the magnification is relatively low on the side close to the light projecting unit 110 and the magnification is relatively high on the side far from the light projecting unit 110, thereby irradiating from the light projecting unit 110. As a result of the magnification changing along the direction of the light, the uniformity of the pattern width on the observed image cannot be maintained.

また、ステージ140の投影パターンの面積は観察倍率が低倍率のときの観察領域よりも大きい。つまり投影パターンは低倍率のときの観察領域に対してマージンを有する。これにより低倍率のときにいずれの倍率においてもステージ140上に設置された、測定深度に対応した高さの被測定物上においての投影パターンを必ず取得することができる。   Further, the area of the projection pattern of the stage 140 is larger than the observation area when the observation magnification is low. That is, the projection pattern has a margin with respect to the observation area when the magnification is low. As a result, it is possible to always obtain a projection pattern on the object to be measured, which is installed on the stage 140 at any magnification and has a height corresponding to the measurement depth.

図19を参照して、一定の投光倍率で受光倍率を拡大していく場合、推定位相ピークが近い隣接画素の数が多くなり、その結果、画像順番ごとの輝度変化が小さくなる。その結果、比較的近い位相ピークが推定されてしまう可能性が大きくなる。換言すると、パターン投影計測において、位相を変化させて投影した複数のパターンを撮像して取得された画像の各画素の位相演算を行うことにより三次元計測を行う場合、投影パターンの位相変化の細かさは、パターン生成部の画素ピッチにより制限される。受光側に可変倍率光学系を用い、投光側に定倍率光学系を用いた場合、受光側の倍率が高倍率になるほど、パターン生成部が投影する投影パターンを変化させると実際に撮像される投影パターンが大きく変化することになる。つまり、高倍率になればなるほど、撮像される投影パターンの位相を細かく変化させることが困難になるため、隣り合う画素間での位相ピークの区別が困難になり、誤差が発生しやすくなる。このことは高さ結果に縦筋の系統誤差が発生し易くなることを意味する。これを回避するために、画像処理において、受光倍率によって系統誤差除去フィルタ(例えば水平ガウシアンフィルタ)のパラメータを受光倍率に応じて変更する処理を加えるのがよい。すなわち、隣り合う受光画素における画像順番ごとの輝度変化が大きくなるため、うねり幅が結果的に変化する。これを除去するためにフィルタの水平方向のかかり方、例えばガウシアンの幅と標準偏差を受光倍率が高くなるに従って大きく変更するのがよい。   Referring to FIG. 19, when the light reception magnification is increased at a constant light projection magnification, the number of adjacent pixels having an estimated phase peak is increased, and as a result, the luminance change for each image order is reduced. As a result, the possibility that a relatively close phase peak is estimated increases. In other words, in pattern projection measurement, when three-dimensional measurement is performed by performing phase calculation on each pixel of an image acquired by imaging a plurality of patterns projected by changing the phase, the phase change of the projection pattern is fine. This is limited by the pixel pitch of the pattern generation unit. When a variable magnification optical system is used on the light receiving side and a constant magnification optical system is used on the light projecting side, the image is actually captured when the projection pattern projected by the pattern generation unit is changed as the magnification on the light receiving side becomes higher. The projection pattern will change greatly. In other words, the higher the magnification, the more difficult it is to change the phase of the projected projection pattern to be picked up, making it difficult to distinguish the phase peaks between adjacent pixels, and errors are likely to occur. This means that a vertical line system error is likely to occur in the height result. In order to avoid this, in the image processing, it is preferable to add a process of changing the parameters of the systematic error removal filter (for example, a horizontal Gaussian filter) according to the light reception magnification. That is, since the luminance change for each image order in adjacent light receiving pixels becomes large, the swell width changes as a result. In order to eliminate this, it is preferable to greatly change the horizontal direction of the filter, for example, the Gaussian width and the standard deviation as the light receiving magnification increases.

次に本発明の他の実施例を説明するが、上記の第1実施例と同じ要素には同じ参照符号を付すことにより、その説明を省略し、以下に特徴部分を中心に説明する。   Next, another embodiment of the present invention will be described. The same reference numerals are given to the same elements as those in the first embodiment, and the description thereof will be omitted.

第2実施例(図13、図14)
図13を参照して、第2実施例の光学顕微鏡520は、次の2つの点で第1実施例の光学顕微鏡500と異なっている。第1に、投光部110に関して、測定光源111から出射された光がパターン生成部(二次元アレイ)112で反射することで二次元パターンが生成される。二次元パターンを生成するのに反射を使うことで顕微鏡520の幅寸法を小さくできるという利点があり、このことは三次元測定が可能な光学顕微鏡520の小型化を可能とする。
Second Example (FIGS. 13 and 14) :
Referring to FIG. 13, the optical microscope 520 of the second embodiment is different from the optical microscope 500 of the first embodiment in the following two points. First, regarding the light projecting unit 110, the light emitted from the measurement light source 111 is reflected by the pattern generation unit (two-dimensional array) 112 to generate a two-dimensional pattern. The use of reflection to generate a two-dimensional pattern has the advantage that the width of the microscope 520 can be reduced, which allows the optical microscope 520 capable of three-dimensional measurement to be miniaturized.

第2に、受光部120は、相対的に低倍率の第1の受光部120Aと、相対的に高倍率の第2の受光部120Bとで構成され、これら第1、第2の受光部120A、120Bは共に好ましくはテレセントリックレンズで構成される。   Secondly, the light receiving unit 120 includes a first light receiving unit 120A having a relatively low magnification and a second light receiving unit 120B having a relatively high magnification, and the first and second light receiving units 120A. , 120B are preferably composed of telecentric lenses.

低倍率の第1の受光部120Aの受光素子121aは観察光軸125と直交して配置されている。高倍率の第2の受光部120Bの受光素子121aは、観察光軸125上に配置された分岐ミラー127によって観察光軸125から分岐して横方向に延びる分岐観察軸128と直交して配置されている。観察光軸125上に分岐ミラー127を複数配置することにより複数の分岐観察軸128を作ることにより倍率の異なる3以上の受光部120を作ってもよい。   The light receiving element 121a of the first light receiving unit 120A with a low magnification is arranged orthogonal to the observation optical axis 125. The light receiving element 121a of the high-magnification second light receiving unit 120B is arranged orthogonal to a branch observation axis 128 that branches off from the observation optical axis 125 by a branch mirror 127 arranged on the observation optical axis 125 and extends in the lateral direction. ing. Three or more light receiving units 120 having different magnifications may be formed by forming a plurality of branch observation axes 128 by arranging a plurality of branch mirrors 127 on the observation optical axis 125.

複数の倍率の異なる受光部120をテレセントリックレンズで構成した場合、各倍率の受光部120において高いテレセントリック性を実現することができるため、各倍率での高さ測定において高い精度を確保することができる。   When a plurality of light receiving units 120 having different magnifications are configured by a telecentric lens, high telecentricity can be realized in the light receiving unit 120 of each magnification, so that high accuracy can be ensured in height measurement at each magnification. .

また、高倍率の第2の受光部120Bの受光素子121aとして高解像度(高密度)の受光素子を採用することで、低倍率の第1の受光部120Aと高倍率の第2の受光部120Bとの組み合わせによって広い倍率レンジを提供できる。   Further, by adopting a high-resolution (high-density) light-receiving element as the light-receiving element 121a of the high-magnification second light-receiving unit 120B, the low-magnification first light-receiving unit 120A and the high-magnification second light-receiving unit 120B. Can provide a wide magnification range.

この点について図14を参照して具体例で説明すると、観察画像の解像度を例えば水平1000画素の場合に受光素子121aとして例えば水平2000画素の素子を採用すれば、図14の一番上に図示するように受光素子121aの画像を間引き処理することで0.5倍の観察画像を得ることができる。図14の上から2番目に図示するように受光素子121aの中央の1000画素分の画像を切り出して観察画像を生成することで1倍の観察画像を得ることができる。図14の一番下に図示するように受光素子121aの中央の667画素分の画像を切り出し、ピクセル補間して観察画像を生成することで1.5倍の観察画像を得ることができる。そして、第1の受光部120Aの観察倍率を0.5倍から1.5倍に3倍拡大し、光学倍率が2倍の第2の受光部120Bの観察倍率を0.5倍から1.5倍に3倍拡大することで、第1、第2の受光部120A、120Bを使い分けることで9倍の倍率の実現ができる。   This point will be described in a specific example with reference to FIG. 14. When the resolution of the observation image is 1000 pixels horizontal, for example, if an element of 2000 pixels horizontal is used as the light receiving element 121 a, it is illustrated at the top of FIG. As described above, the observation image of the light receiving element 121a is thinned out to obtain a 0.5 times observation image. As shown in the second figure from the top in FIG. 14, an image for 1000 pixels at the center of the light receiving element 121a is cut out to generate an observation image, whereby a 1 × observation image can be obtained. As illustrated at the bottom of FIG. 14, an image for 667 pixels at the center of the light receiving element 121a is cut out, and an observation image is generated by performing pixel interpolation, whereby a 1.5 times observation image can be obtained. Then, the observation magnification of the first light receiving unit 120A is enlarged by 3 times from 0.5 to 1.5 times, and the observation magnification of the second light receiving unit 120B having an optical magnification of 2 times is enlarged by 3 times from 0.5 to 1.5 times. Thus, a magnification of 9 times can be realized by properly using the first and second light receiving portions 120A and 120B.

第2実施例の光学顕微鏡520は、第1、第2の受光部120A、120Bを使い分けることにより上述したようにトータルとして0.5倍から4.5倍まで9倍拡大できる観察倍率のレンジを備えることができる。そして、この広いレンジの観察倍率を備えた光学顕微鏡520は、前述したように定倍率の投光部110を備えているため観察倍率を変更したとしても、観察画像での最小パターン幅に含まれる受光画素の数が変化するだけであり、観察倍率の大小に左右されない統一した計測方式で高さ測定を行うことができる。   The optical microscope 520 of the second embodiment can be provided with an observation magnification range that can be magnified 9 times from 0.5 to 4.5 times as described above by properly using the first and second light receiving portions 120A and 120B. . Since the optical microscope 520 having a wide range of observation magnifications includes the constant magnification projection unit 110 as described above, even if the observation magnification is changed, it is included in the minimum pattern width in the observation image. Only the number of light-receiving pixels changes, and height measurement can be performed with a unified measurement method that does not depend on the magnitude of the observation magnification.

なお、間引き処理を行う場合に、図14の左上の受光素子上の画像(2000pix)に基づいて高さ測定を行ってもよいし、その右隣に図示した観察画像つまり間引き処理した後の画像に基づいて高さ測定を行ってもよい。   When thinning processing is performed, height measurement may be performed based on the image (2000 pix) on the upper left light receiving element in FIG. 14, or an observation image shown on the right side, that is, an image after thinning processing is performed. The height may be measured based on the above.

ステージ140上の領域及びパターン投影領域は、上述したように受光部120で取得する受光(観察)領域(観察視野)よりも大きくしてマージンを設定するのが好ましい。図19は、低倍率の第1受光部120Aでの観察領域(観察視野)を示し、また、その下に、高倍率の第2受光部120Bでの観察領域(観察視野)を示す。高倍率の第2受光部120Bでの観察視野は、低倍率の第1受光部120Aでの観察視野よりも小さい。換言すると、観察倍率が上がるに従って観察画像上での最小パターン幅が太くなる。   The area on the stage 140 and the pattern projection area are preferably set larger than the light receiving (observation) area (observation field of view) acquired by the light receiving unit 120 as described above to set the margin. FIG. 19 shows an observation region (observation field) in the first light receiving unit 120A with a low magnification, and below that, an observation region (observation field) in the second light receiving unit 120B with a high magnification is shown. The observation field of view at the high magnification second light receiving unit 120B is smaller than the observation field of view at the low magnification first light receiving unit 120A. In other words, the minimum pattern width on the observation image increases as the observation magnification increases.

パターンを生成するパターン生成部(二次元アレイ)112の最小パターン幅を例えば複数の画素で担っている場合に、観察倍率が高くなるに従って観察画像上での最小パターン幅を担う画素の数を少なくする制御を加えることで、観察倍率のレンジが広い場合でも、最小パターン幅に含まれる受光画素の数を一定値以下に抑えることができる。   When the minimum pattern width of the pattern generation unit (two-dimensional array) 112 that generates a pattern is held by, for example, a plurality of pixels, the number of pixels that bear the minimum pattern width on the observation image decreases as the observation magnification increases. By adding this control, the number of light receiving pixels included in the minimum pattern width can be suppressed to a predetermined value or less even when the observation magnification range is wide.

第3実施例(図15)
第3実施例の光学顕微鏡530は、その受光部120に含まれる受光光学系のテレセントリックレンズにズーム機構が加えられ、このズーム機構によって任意のズーム倍率つまり無段階の倍率で観察することができる。
Third Example (FIG. 15) :
In the optical microscope 530 of the third embodiment, a zoom mechanism is added to the telecentric lens of the light receiving optical system included in the light receiving unit 120, and the zoom mechanism allows observation at an arbitrary zoom magnification, that is, a stepless magnification.

第4実施例(図16)
第4実施例の光学顕微鏡540は、その受光部120に含まれる受光光学系の対物レンズが交換式とされ、この実施例ではレボルバー式の対物レンズを採用することにより多段階の観察倍率で観察することができる。勿論、複数の対物レンズを脱着して交換することにより多段階の観察倍率での観察を実現するようにしてもよい。
Fourth Example (FIG. 16) :
In the optical microscope 540 of the fourth embodiment, the objective lens of the light receiving optical system included in the light receiving unit 120 is replaceable, and in this embodiment, observation is performed at a multistage observation magnification by adopting a revolver type objective lens. can do. Of course, it is also possible to realize observation at a multistage observation magnification by attaching and detaching a plurality of objective lenses.

第5実施例(図17)
図17に図示の第5実施例の光学顕微鏡550は、図2を参照して説明した第1実施例の光学顕微鏡500の変形例でもある。図17の(I)は第5実施例の光学顕微鏡550の正面図であり、(II)は側面図である。
Example 5 (FIG. 17) :
The optical microscope 550 of the fifth embodiment shown in FIG. 17 is also a modification of the optical microscope 500 of the first embodiment described with reference to FIG. (I) of FIG. 17 is a front view of the optical microscope 550 of the fifth embodiment, and (II) is a side view.

第5実施例の光学顕微鏡550では、左右の投光部110A、110Bに関して、測定光源111から出射された光がパターン生成部(二次元アレイ)112で反射することで二次元パターンが生成される。また、受光部120は、相対的に低倍率の第1の受光部120Aと、相対的に高倍率の第2の受光部120Bとで構成され、これら第1、第2の受光部120A、120Bは共に好ましくはテレセントリックレンズで構成される。そして、低倍率の第1の受光部120Aの受光素子121aは観察光軸125と直交して配置されている。他方、高倍率の第2の受光部120Bの受光素子121aは、観察光軸125上に配置された分岐ミラー127によって観察光軸125から分岐して横方向に延びる分岐観察軸128と直交して配置されている。   In the optical microscope 550 of the fifth embodiment, the two-dimensional pattern is generated by reflecting the light emitted from the measurement light source 111 by the pattern generation unit (two-dimensional array) 112 with respect to the left and right light projecting units 110A and 110B. . The light receiving unit 120 includes a first light receiving unit 120A having a relatively low magnification and a second light receiving unit 120B having a relatively high magnification, and the first and second light receiving units 120A and 120B. Both are preferably composed of telecentric lenses. The light receiving element 121a of the first light receiving unit 120A with a low magnification is arranged orthogonal to the observation optical axis 125. On the other hand, the light receiving element 121a of the high-magnification second light receiving unit 120B is orthogonal to the branch observation axis 128 that branches from the observation optical axis 125 by the branch mirror 127 disposed on the observation optical axis 125 and extends in the lateral direction. Has been placed.

第6実施例(図18)
図18に図示の第6実施例の光学顕微鏡560は、上記の第5実施例(図17)の変形例でもある。図18の(I)は第6実施例の光学顕微鏡560の正面図であり、(II)は側面図である。この第6実施例の光学顕微鏡560は、第5実施例の光学顕微鏡550(図17)にリング状の照明光出力部130が観察光軸125と同軸に配置した構成を有している。このリング状の照明光出力部130は脱着可能であってもよいし、受光部120と一体構造であってもよい。
Example 6 (FIG. 18) :
The optical microscope 560 of the sixth embodiment shown in FIG. 18 is a modification of the fifth embodiment (FIG. 17). (I) of FIG. 18 is a front view of the optical microscope 560 of the sixth embodiment, and (II) is a side view. The optical microscope 560 of the sixth embodiment has a configuration in which a ring-shaped illumination light output unit 130 is arranged coaxially with the observation optical axis 125 in the optical microscope 550 (FIG. 17) of the fifth embodiment. The ring-shaped illumination light output unit 130 may be detachable or may be integrated with the light receiving unit 120.

リング状の照明光出力部130の変形例として、同軸落射照明、透過照明、側射スポット照明を採用してもよい。   As a modification of the ring-shaped illumination light output unit 130, coaxial epi-illumination, transmitted illumination, and side illumination spot illumination may be employed.

第7実施例(図20)
定倍率の投光倍率で投光部110を構成した場合に、上述した図19からも理解できるように、観察倍率レンジが広くなり高倍率になるほど観察画像上での最小パターン幅に対する受光画素の比率が大きくなる。前述したように対象物Sの三次元計測を行う場合に投影パターンをシフトさせて複数回の受光画像(観察画像)が取得される。この投影パターンのシフトは、上述した実施例ではパターン生成部112のDMDのマイクロミラーを単位として行われる。しかし、高倍率で観察する場合に、観察画像上で見たときのパターンの送りピッチや最小パターン幅を小さくできなくなる場合が可能性としてあり得る。換言すれば、ズーム倍率つまり低倍に対する高倍の倍率比である観察倍率レンジが大きくなるほど観察画像上での送りピッチが大きくなり過ぎて精度を確保できなくなる可能性がある。これに対する対策として、パターン生成部112の二次元アレイの画素ピッチよりも細かい分解能を生成する機構を組み込んだのが図20に示す第7実施例の光学顕微鏡570である。
Example 7 (FIG. 20) :
When the light projecting unit 110 is configured with a constant light projecting magnification, as can be understood from FIG. 19 described above, as the observation magnification range becomes wider and the magnification becomes higher, the light receiving pixel has a minimum pattern width on the observation image. The ratio increases. As described above, when three-dimensional measurement of the object S is performed, the projection pattern is shifted and a plurality of received light images (observation images) are acquired. This projection pattern shift is performed in units of DMD micromirrors of the pattern generation unit 112 in the above-described embodiment. However, when observing at a high magnification, there is a possibility that the pattern feed pitch and the minimum pattern width when viewed on the observation image cannot be reduced. In other words, as the zoom magnification, that is, the observation magnification range that is a high magnification ratio with respect to the low magnification becomes larger, the feed pitch on the observation image becomes too large, and there is a possibility that the accuracy cannot be ensured. As a countermeasure against this, an optical microscope 570 of the seventh embodiment shown in FIG. 20 incorporates a mechanism for generating a resolution finer than the pixel pitch of the two-dimensional array of the pattern generation unit 112.

図20に図示の第7実施例の光学顕微鏡570は、パターン生成部112の二次元アレイを変位させる微小変位駆動機構117を有している。この微小変位駆動機構117は、パターン生成部112の例えばDMDの一画素(マイクロミラー1つ)よりも小さい微小送り量でDMDをシフトさせる。例えば5倍以上の観察倍率のときに、この観察倍率を検知して微小変位駆動機構117を動作させ、そして、微小送りのピッチとして所定のピッチを設定しても良いし、観察倍率が大きくなるほど微小送りのピッチを小さくする制御を行うようにしてもよい。観察画像上のパターンの最小パターン幅を細分化できるピッチで微小変位駆動機構117による微小送りを行うことで、観察倍率(受光倍率)が高倍率のときの高さの測定に関する分解能及び精度を高めることができる。図中、×を円で囲んだ符号及び黒丸を円で囲んだ符号は紙面垂直方向の微小変位方向を示す。   An optical microscope 570 according to the seventh embodiment illustrated in FIG. 20 includes a minute displacement driving mechanism 117 that displaces the two-dimensional array of the pattern generation unit 112. The minute displacement driving mechanism 117 shifts the DMD by a minute feed amount smaller than, for example, one pixel (one micromirror) of the DMD of the pattern generation unit 112. For example, when the observation magnification is 5 times or more, this observation magnification is detected and the minute displacement drive mechanism 117 is operated, and a predetermined pitch may be set as the minute feed pitch. You may make it perform control which makes the pitch of minute feed small. By performing minute feed by the minute displacement drive mechanism 117 at a pitch that can subdivide the minimum pattern width of the pattern on the observation image, the resolution and accuracy relating to height measurement when the observation magnification (light reception magnification) is high are increased. be able to. In the figure, a symbol in which x is surrounded by a circle and a symbol in which a black circle is surrounded by a circle indicate a minute displacement direction perpendicular to the paper surface.

図21は、微小変位駆動機構117を組み込んだパターン生成部112の具体的な構成例を示す図である。パターン生成部112の二次元アレイ118を担持した支持基板572と制御基板573とがフレキシブルケーブル514で接続され、そして、制御基板573と支持基板572との間に微小変位駆動機構117とヒートシンク574とが配置されている。制御基板573は光学顕微鏡570のフレームに固定される。   FIG. 21 is a diagram illustrating a specific configuration example of the pattern generation unit 112 in which the minute displacement driving mechanism 117 is incorporated. A support substrate 572 carrying the two-dimensional array 118 of the pattern generation unit 112 and a control substrate 573 are connected by a flexible cable 514, and a minute displacement driving mechanism 117, a heat sink 574, and the like are interposed between the control substrate 573 and the support substrate 572. Is arranged. The control board 573 is fixed to the frame of the optical microscope 570.

第8実施例(図22)
図22に図示の第8実施例の光学顕微鏡580は、上記の第7実施例(図20)の変形例でもある。この第8実施例の光学顕微鏡580は、パターン生成部112の二次元アレイ118と測定光源111とがユニット化され、このユニット582に対して微小変位駆動機構117が組み付けられている。微小変位駆動機構117が動作することによりユニット582が変位することで、ステージ140上の投影パターンを二次元アレイの画素数よりも細かいピッチで変化させることができる。
Example 8 (FIG. 22) :
The optical microscope 580 of the eighth embodiment shown in FIG. 22 is also a modification of the seventh embodiment (FIG. 20). In the optical microscope 580 of the eighth embodiment, the two-dimensional array 118 of the pattern generation unit 112 and the measurement light source 111 are unitized, and a minute displacement driving mechanism 117 is assembled to the unit 582. When the unit 582 is displaced by the operation of the minute displacement driving mechanism 117, the projection pattern on the stage 140 can be changed at a pitch finer than the number of pixels of the two-dimensional array.

第9実施例(図23)
図23に図示の第9実施例の光学顕微鏡590は、上記第7実施例(図20)及び第8実施例(図22)の変形例でもある。この第9実施例の光学顕微鏡590は、パターン生成部112の二次元アレイ118と、測定光源111と、投光レンズ114、115などの導光光学系とがユニット化され、このユニット592に対して微小変位駆動機構117が組み付けられている。微小変位駆動機構117が動作することによりユニット592が変位することで、ステージ140上の投影パターンを二次元アレイの画素数よりも細かいピッチで変化させることができる。
Ninth embodiment (FIG. 23) :
The optical microscope 590 of the ninth embodiment shown in FIG. 23 is also a modification of the seventh embodiment (FIG. 20) and the eighth embodiment (FIG. 22). In the optical microscope 590 of the ninth embodiment, the two-dimensional array 118 of the pattern generation unit 112, the measurement light source 111, and the light guide optical system such as the light projection lenses 114 and 115 are unitized. Thus, a minute displacement driving mechanism 117 is assembled. When the unit 592 is displaced by the operation of the minute displacement driving mechanism 117, the projection pattern on the stage 140 can be changed at a pitch finer than the number of pixels of the two-dimensional array.

第10実施例(図24)
図24に図示の第10実施例の光学顕微鏡600は、投光レンズ114、115などの導光光学系を構成するレンズを微小移動させる微小変位駆動機構602を有し、このレンズを微小の往復動作又は微小のチルト動作をさせることにより、ステージ140上の投影パターンを二次元アレイの画素数よりも細かいピッチで変化させるようになっている。
Example 10 (FIG. 24) :
An optical microscope 600 according to the tenth embodiment shown in FIG. 24 has a minute displacement driving mechanism 602 that minutely moves a lens constituting a light guiding optical system such as the light projecting lenses 114 and 115. By performing an operation or a minute tilt operation, the projection pattern on the stage 140 is changed at a pitch finer than the number of pixels of the two-dimensional array.

第11実施例(図25)
図25に図示の第11実施例の光学顕微鏡610は、投光レンズ114、115などの導光光学系の出力側に光を透過するプレート612と、この光透過プレート612を微小変位させる微小変位駆動機構614を配置し、この光透過プレート612を微小往復動作又は微小のチルト動作をさせることにより、ステージ140上の投影パターンを二次元アレイの画素数よりも細かいピッチで変化させるようになっている。この図25の光透過プレート612に代えて、光を折り曲げるミラーを配置し、この折り曲げミラーを微小往復動作又は微小チルトによる変位動作させてもよい。
Example 11 (FIG. 25) :
An optical microscope 610 according to the eleventh embodiment shown in FIG. 25 includes a plate 612 that transmits light to the output side of the light guide optical system such as the light projecting lenses 114 and 115, and a minute displacement that slightly displaces the light transmitting plate 612. The drive mechanism 614 is arranged, and the light transmission plate 612 is micro-reciprocating or tilting to change the projection pattern on the stage 140 at a pitch finer than the number of pixels of the two-dimensional array. Yes. Instead of the light transmission plate 612 in FIG. 25, a mirror that bends light may be arranged, and the bending mirror may be displaced by a minute reciprocating operation or a minute tilt.

以上、本発明の実施例を説明したが、上述した第7乃至第11実施例で説明した微小変位駆動機構117、602、614を第1〜第6実施例に適用してもよいのは勿論である。   Although the embodiments of the present invention have been described above, the micro displacement drive mechanisms 117, 602, and 614 described in the seventh to eleventh embodiments may be applied to the first to sixth embodiments. It is.

500 光学顕微鏡
110 投光部
111 測定光源(ハロゲンランプ)
112 パターン生成部(DMD)
114、115 投光レンズ(好ましくは両側テレセントリックレンズ)
120 受光部
120A 低倍率の受光部
120B 高倍率の受光部
121a 撮像素子(好ましくはモノクロCCD)
140 ステージ
640 受光部の光軸(観察中心軸)
500 Optical microscope 110 Projecting unit 111 Measuring light source (halogen lamp)
112 Pattern generator (DMD)
114, 115 Projection lens (preferably double-sided telecentric lens)
120 light receiving unit 120A low magnification light receiving unit 120B high magnification light receiving unit 121a imaging device (preferably monochrome CCD)
140 Stage 640 Optical axis of observation part (observation center axis)

Claims (8)

対象物を載置するステージと、
該ステージに載置された対象物に向けた観察中心軸を有し且つ可変の受光倍率を有する受光部と、
前記対象物に対して斜めに光を照射する投光部とを有し、
該投光部がパターン生成部を有し、該パターン生成部の二次元アレイに測定光を反射させる又は該二次元アレイに測定光を透過させて前記ステージ上の対象物にパターンを投影することにより対象物の高さを計測することのできる光学顕微鏡であって、
前記投光部のレンズが定倍率で固定され、
前記受光部の受光素子が受け取る最小パターン幅に含まれる画素の数が、該受光部の最小倍率のときに少なくとも一つであることを特徴とする光学顕微鏡。
A stage on which the object is placed;
A light receiving unit having an observation center axis directed toward an object placed on the stage and having a variable light receiving magnification;
A light projecting unit that irradiates light obliquely to the object,
The light projecting unit has a pattern generation unit, and reflects the measurement light to the two-dimensional array of the pattern generation unit or transmits the measurement light to the two-dimensional array to project the pattern onto the object on the stage. An optical microscope capable of measuring the height of an object by:
The lens of the light projecting unit is fixed at a constant magnification,
An optical microscope, wherein the number of pixels included in the minimum pattern width received by the light receiving element of the light receiving unit is at least one when the minimum magnification of the light receiving unit.
前記投光部が両側テレセントリックレンズを含む、請求項1に記載の光学顕微鏡。   The optical microscope according to claim 1, wherein the light projecting unit includes a double-sided telecentric lens. 前記受光部がテレセントリックレンズを含む、請求項2に記載の光学顕微鏡。   The optical microscope according to claim 2, wherein the light receiving unit includes a telecentric lens. 前記受光部が、前記観察中心軸に直交して第1の受光素子を配置した低倍率の第1受光部と、前記観察中心軸から分岐した分岐観察軸に直交して第2の受光素子を配置した高倍率の第2受光部とを有する、請求項3に記載の光学顕微鏡。   The light receiving unit includes a low-magnification first light receiving unit in which a first light receiving element is arranged orthogonal to the observation center axis, and a second light receiving element orthogonal to a branch observation axis branched from the observation center axis. The optical microscope according to claim 3, further comprising a high-magnification second light-receiving unit arranged. 前記投光部の測定光源からの光を前記パターン生成部で反射して前記ステージ上の対象物にパターンを投影する、請求項2〜4のいずれか一項に記載の光学顕微鏡。   The optical microscope according to any one of claims 2 to 4, wherein light from a measurement light source of the light projecting unit is reflected by the pattern generation unit and a pattern is projected onto an object on the stage. 少なくとも一対の前記投光部を有し、
該一対の投光部が、前記受光部の観察中心軸を挟んで鏡像対称に配置されている、請求項1〜5のいずれか一項に記載の光学顕微鏡。
Having at least a pair of the light projecting portions;
The optical microscope according to any one of claims 1 to 5, wherein the pair of light projecting units are arranged in a mirror image symmetry with respect to an observation center axis of the light receiving unit.
前記受光素子がモノクロである、請求項1〜6のいずれか一項に記載の光学顕微鏡。   The optical microscope according to claim 1, wherein the light receiving element is monochrome. 受光倍率の大小に応じて画像うねり除去フィルタのパラメータを変更する画像処理を行う、請求項1〜7のいずれか一項に記載の光学顕微鏡。   The optical microscope according to any one of claims 1 to 7, wherein image processing is performed to change a parameter of an image waviness removal filter in accordance with a magnitude of light reception magnification.
JP2012262718A 2012-11-30 2012-11-30 Optical microscope Active JP6046997B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012262718A JP6046997B2 (en) 2012-11-30 2012-11-30 Optical microscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012262718A JP6046997B2 (en) 2012-11-30 2012-11-30 Optical microscope

Publications (2)

Publication Number Publication Date
JP2014109616A true JP2014109616A (en) 2014-06-12
JP6046997B2 JP6046997B2 (en) 2016-12-21

Family

ID=51030298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012262718A Active JP6046997B2 (en) 2012-11-30 2012-11-30 Optical microscope

Country Status (1)

Country Link
JP (1) JP6046997B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016053602A (en) * 2014-09-02 2016-04-14 キヤノン株式会社 Photographing device and illumination device
JP2016114924A (en) * 2014-12-15 2016-06-23 テスト リサーチ, インク. Optical system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000009444A (en) * 1998-06-23 2000-01-14 Takaoka Electric Mfg Co Ltd Surface form measuring device
JP2008058032A (en) * 2006-08-29 2008-03-13 Fuji Xerox Co Ltd Image processing device, inspection device, image processing method, and inspection method
JP2008107557A (en) * 2006-10-25 2008-05-08 Nikon Corp Microscope equipment and resolving method of microscopic image
JP2008139794A (en) * 2006-12-05 2008-06-19 Keyence Corp Fluorescence microscope, method of operating fluorescence microscope, operation program for fluorescence microscope, computer-readable recording medium, and recorded equipment
JP2008225096A (en) * 2007-03-13 2008-09-25 Olympus Corp Microscope apparatus and microscope observation method
JP2009264862A (en) * 2008-04-24 2009-11-12 Panasonic Electric Works Co Ltd Three-dimensional shape measuring method and device
JP2010169572A (en) * 2009-01-23 2010-08-05 Nikon Corp Arithmetic apparatus, arithmetic program, surface shape measurement apparatus, and surface shape measurement method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000009444A (en) * 1998-06-23 2000-01-14 Takaoka Electric Mfg Co Ltd Surface form measuring device
JP2008058032A (en) * 2006-08-29 2008-03-13 Fuji Xerox Co Ltd Image processing device, inspection device, image processing method, and inspection method
JP2008107557A (en) * 2006-10-25 2008-05-08 Nikon Corp Microscope equipment and resolving method of microscopic image
JP2008139794A (en) * 2006-12-05 2008-06-19 Keyence Corp Fluorescence microscope, method of operating fluorescence microscope, operation program for fluorescence microscope, computer-readable recording medium, and recorded equipment
JP2008225096A (en) * 2007-03-13 2008-09-25 Olympus Corp Microscope apparatus and microscope observation method
JP2009264862A (en) * 2008-04-24 2009-11-12 Panasonic Electric Works Co Ltd Three-dimensional shape measuring method and device
JP2010169572A (en) * 2009-01-23 2010-08-05 Nikon Corp Arithmetic apparatus, arithmetic program, surface shape measurement apparatus, and surface shape measurement method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016053602A (en) * 2014-09-02 2016-04-14 キヤノン株式会社 Photographing device and illumination device
JP2016114924A (en) * 2014-12-15 2016-06-23 テスト リサーチ, インク. Optical system
US9485491B2 (en) 2014-12-15 2016-11-01 Test Research, Inc. Optical system

Also Published As

Publication number Publication date
JP6046997B2 (en) 2016-12-21

Similar Documents

Publication Publication Date Title
JP6029394B2 (en) Shape measuring device
JP6112807B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6116164B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6091864B2 (en) Shape measuring device, shape measuring method, and shape measuring program
US10415958B2 (en) Measuring device
JP6695746B2 (en) measuring device
JP6279048B2 (en) Shape measuring device
JP6004851B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6009288B2 (en) Measurement microscope apparatus, measurement microscope apparatus operation program, and computer-readable recording medium
JP6161775B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP5969867B2 (en) Optical microscope
JP6736383B2 (en) measuring device
JP5956911B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6161253B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6077287B2 (en) Optical microscope and pattern projection measurement method
JP2014106094A (en) Shape measurement device
JP6046997B2 (en) Optical microscope
JP6695748B2 (en) measuring device
JP2014055814A (en) Shape measuring device, shape measuring method, and shape measuring program
JP6476252B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6025466B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP2014056059A (en) Optical microscope
JP2014134389A (en) Shape measurement device, shape measurement method and shape measurement program
JP6025533B2 (en) Optical microscope
JP6695747B2 (en) measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161118

R150 Certificate of patent or registration of utility model

Ref document number: 6046997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250