JP6670429B2 - Transparent substrate measuring device and transparent substrate measuring method - Google Patents

Transparent substrate measuring device and transparent substrate measuring method Download PDF

Info

Publication number
JP6670429B2
JP6670429B2 JP2015245604A JP2015245604A JP6670429B2 JP 6670429 B2 JP6670429 B2 JP 6670429B2 JP 2015245604 A JP2015245604 A JP 2015245604A JP 2015245604 A JP2015245604 A JP 2015245604A JP 6670429 B2 JP6670429 B2 JP 6670429B2
Authority
JP
Japan
Prior art keywords
transparent substrate
projection
light source
light
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015245604A
Other languages
Japanese (ja)
Other versions
JP2017111013A (en
Inventor
保士 富田
保士 富田
川部 英雄
英雄 川部
福本 敦
敦 福本
大迫 純一
純一 大迫
久保田 重夫
重夫 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oxide Corp
Original Assignee
Oxide Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oxide Corp filed Critical Oxide Corp
Priority to JP2015245604A priority Critical patent/JP6670429B2/en
Publication of JP2017111013A publication Critical patent/JP2017111013A/en
Application granted granted Critical
Publication of JP6670429B2 publication Critical patent/JP6670429B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、例えばガラスや樹脂などで構成された透明基材の特性を計測する透明基材計測装置および透明基材計測方法に関する。   The present invention relates to a transparent substrate measuring device and a transparent substrate measuring method for measuring characteristics of a transparent substrate made of, for example, glass or resin.

近年、乗用車のフロントガラスには、従来の強化ガラスに替わり、合わせガラスが使用されている。このフロントガラスをスクリーンとする虚像視ヘッドアップディスプレイ(Head-Up Display:HUD)が普及し始めている。虚像視HUDでは、プロジェクタからの投射画像が、合わせガラスの2つの界面で反射するので、一般的には、二重像が発生する。そこで、貼り合わされた2枚のガラスの間にある中間層に対して適当な楔角を与えることにより二重像を補正することが、例えば、特許文献1で提案されている。   In recent years, laminated glass has been used for windshields of passenger cars in place of conventional tempered glass. A virtual image head-up display (HUD) using this windshield as a screen has begun to spread. In the virtual image viewing HUD, a projected image from the projector is reflected at two interfaces of the laminated glass, so that a double image is generally generated. Therefore, for example, Japanese Patent Application Laid-Open No. H11-163873 proposes to correct a double image by giving an appropriate wedge angle to an intermediate layer between two bonded glasses.

特許第5315358号Patent No. 5315358

車載用フロントガラスは複雑な自由曲面形状を有している。形状バラツキ、即ち面位置や自由曲面の曲率バラツキがあると、反射光が設計上の理想状況から外れる。この場合、反射光が作り出す虚像に歪みやボケが発生する。更に、歪み、ボケに関しては、その発生原因が凹面鏡やHUD光学ユニットにある場合もあるため、発生原因の切り分けが可能な測定を行うべきである。しかしながら、現状では、HUD光学ユニット、凹面鏡、およびフロントガラスを組み合わせて測定を行わざるを得ず、ボケ、歪みの原因が何れに起因しているのかを判別するのが難しい。   A vehicle windshield has a complicated free-form surface shape. If there is a variation in the shape, that is, a variation in the surface position or the curvature of the free-form surface, the reflected light deviates from the ideal design condition. In this case, distortion or blur occurs in the virtual image created by the reflected light. Further, with regard to distortion and blur, the cause of the occurrence may be in the concave mirror or the HUD optical unit, so that measurement should be performed so that the cause of occurrence can be identified. However, at present, the measurement must be performed by combining the HUD optical unit, the concave mirror, and the windshield, and it is difficult to determine the cause of the blur or the distortion.

HUDシステムの開発を効率よく進める上では、凹面鏡やHUD投影光学系の試作がまだ完成していない時点でも、ガラス単体で、ガラスがHUDシステムの求める光学スペックを満たしているかを評価できることが望ましい。また、ボケ、歪みの原因がガラスにあるのか、それ以外にあるのかを切り分けるためにも、ガラス単体で評価できることが望ましい。なお、このような要望は、車載用フロントガラスの分野だけでなく、ガラスや樹脂などで構成された透明基材をスクリーンとして利用する技術分野全般にあるものと思われる。   In order to efficiently develop the HUD system, it is desirable to be able to evaluate whether the glass satisfies the optical specifications required by the HUD system with a single glass even at the time when the trial manufacture of the concave mirror or the HUD projection optical system has not been completed yet. In addition, it is desirable that the glass alone can be evaluated in order to determine whether the cause of blurring or distortion is caused by the glass or other factors. It is considered that such a demand exists not only in the field of windshields for vehicles, but also in the general technical field of using a transparent substrate made of glass, resin, or the like as a screen.

本発明はかかる問題点に鑑みてなされたもので、その目的は、光学的な不具合の発生原因の切り分けが可能な透明基材計測装置および透明基材計測方法を提供することにある。   The present invention has been made in view of such a problem, and an object of the present invention is to provide a transparent base material measuring apparatus and a transparent base material measuring method capable of isolating the cause of an optical defect.

本発明の一実施の形態に係る透明基材測定装置は、投射装置、撮像装置および情報処理装置を備えている。投射装置は、透明基板の1または複数の個所にピンホール状もしくはスリット状の投影光を照射可能に構成されている。撮像装置は、投射装置から出射された1または複数の投影光の透明基板での反射光が作り出す虚像を撮像する。情報処理装置は、撮像装置による撮像により得られた画像データに基づいて透明基板の特性を導出する。投射装置は、1または複数の投影光を出射する光源ユニットと、光源ユニット全体を移動させる第1機構部とを有している。光源ユニットは、ピンホールを有する点光源もしくはスリットを有する線光源と、当該投射装置の光軸上に配置されたテレセントリック投影光学系と、点光源もしくは線光源とテレセントリック投影光学系との間に配置された非点収差補正光学系と、投影光と透明基板とが交差する位置を変えずに、投影光の透明基板への入射角度を変化させる第2機構部とを有している。 A transparent substrate measuring device according to one embodiment of the present invention includes a projection device, an imaging device, and an information processing device. The projection device is configured to be able to irradiate one or more portions of the transparent substrate with pinhole-shaped or slit-shaped projection light. The imaging device captures a virtual image created by reflected light of one or more projection lights emitted from the projection device on the transparent substrate. The information processing device derives characteristics of the transparent substrate based on image data obtained by imaging by the imaging device. The projection device includes a light source unit that emits one or a plurality of projection lights, and a first mechanism that moves the entire light source unit. The light source unit includes a point light source having a pinhole or a line light source having a slit, a telecentric projection optical system arranged on the optical axis of the projection device, and a point light source or a line light source and a telecentric projection optical system. And a second mechanism for changing the incident angle of the projection light on the transparent substrate without changing the position where the projection light intersects the transparent substrate.

本発明の一実施の形態に係る透明基板測定方法は、以下の(A),(B),(C)を含む。
(A)透明基板の所定の個所に点状もしくは線状の投影光を光源ユニットから照射している間に、投影光の、透明基板での反射光が作り出す虚像が、指定した測定点に移動するように、投影光と透明基板とが交差する位置を変えずに、投影光の透明基板への入射角度を変化させることにより、光源ユニットの位置および姿勢の調整を行うこと
(B)調整の完了後に得られた虚像を撮像することと、
(C)虚像の撮像により得られた画像データに基づいて透明基板の特性を導出することと
A method for measuring a transparent substrate according to an embodiment of the present invention includes the following (A), (B) , and (C) .
(A) While a point or linear projection light is radiated from a light source unit to a predetermined location on a transparent substrate, a virtual image created by reflected light of the projection light on the transparent substrate moves to a designated measurement point. Adjust the position and orientation of the light source unit by changing the angle of incidence of the projection light on the transparent substrate without changing the position where the projection light and the transparent substrate intersect.
(B) capturing a virtual image obtained after the completion of the adjustment ;
(C) deriving characteristics of the transparent substrate based on image data obtained by capturing a virtual image;

本発明の一実施の形態に係る透明基材測定装置および透明基板測定方法では、透明基板の所定の個所に点状もしくは線状の投影光が照射されている間に、投影光の、透明基板での反射光が作り出す虚像が撮像される。さらに、撮像により得られた画像データに基づいて透明基板の特性が導出される。これにより、例えば、凹面鏡やHUD光学ユニットを用いずに、透明基板の特性を得ることができる。   In the transparent substrate measuring apparatus and the transparent substrate measuring method according to one embodiment of the present invention, while a predetermined point on the transparent substrate is irradiated with point-like or linear projection light, the transparent substrate A virtual image created by the reflected light at the is captured. Further, characteristics of the transparent substrate are derived based on image data obtained by imaging. Thus, for example, the characteristics of the transparent substrate can be obtained without using a concave mirror or an HUD optical unit.

本発明の一実施の形態に係る透明基材測定装置および透明基板測定方法によれば、凹面鏡やHUD光学ユニットを用いずに、透明基板の特性を得ることができるようにしたので、例えば、二重像、ボケ、歪みなどの光学的な不具合の発生原因を切り分けることができる。   According to the transparent substrate measuring apparatus and the transparent substrate measuring method according to one embodiment of the present invention, the characteristics of the transparent substrate can be obtained without using a concave mirror or a HUD optical unit. The cause of the occurrence of an optical defect such as a superimposed image, blur, or distortion can be identified.

本発明の一実施の形態に係る透明基材計測装置の構成例を表す図である。It is a figure showing the example of composition of the transparent substrate measuring device concerning one embodiment of the present invention. 被検体の構成例を表す図である。FIG. 3 is a diagram illustrating a configuration example of a subject. 被検体の機能を説明する図である。FIG. 3 is a diagram illustrating functions of a subject. 置台の構成例を表す図である。It is a figure showing the example of a structure of a mounting table. ターゲット部の構成例を表す図である。It is a figure showing the example of composition of a target part. 図1の光源ユニットの構成例を表す図である。FIG. 2 is a diagram illustrating a configuration example of a light source unit in FIG. 1. 図1の光源ユニットの他の構成例を表す図である。FIG. 3 is a diagram illustrating another configuration example of the light source unit in FIG. 1. 互いに近接する2つの像の強度分布の一例を表したものである。9 illustrates an example of the intensity distribution of two images that are close to each other. ピンホールまたはスリットを移動させたときの光線の変位の一例を表す図である。It is a figure showing an example of displacement of a light ray when moving a pinhole or a slit. イメージセンサにおけるサンプリングを説明するための図である。FIG. 3 is a diagram for explaining sampling in the image sensor. 情報処理装置の構成例を表す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing device. 教示データ取得手順の一例について説明する図である。It is a figure explaining an example of a teaching data acquisition procedure. 複数の視点で教示データを取得する方法の一例について説明する図である。It is a figure explaining an example of the method of acquiring teaching data from a plurality of viewpoints. 複数の測定点で教示データを取得する方法の一例について説明する図である。FIG. 9 is a diagram illustrating an example of a method for acquiring teaching data at a plurality of measurement points. 被検体の光学特性の計測手順の一例について説明する図である。FIG. 3 is a diagram illustrating an example of a procedure for measuring the optical characteristics of a subject. 二重像の計測方法の一例を表す図である。It is a figure showing an example of the measuring method of a double image. 歪みの計測方法の一例を表す図である。It is a figure showing an example of the measuring method of distortion. ボケの計測方法の一例を表す図である。It is a figure showing an example of the measuring method of a blur. 被検体を補正冶具で補正する方法の一例を表す図である。FIG. 4 is a diagram illustrating an example of a method of correcting a subject with a correction jig. 図1の透明基材計測装置の構成の一変形例を表す図である。FIG. 4 is a diagram illustrating a modification of the configuration of the transparent base material measuring device in FIG. 1.

以下、発明を実施するための形態について、図面を参照して詳細に説明する。以下の説明は本発明の一具体例であって、本発明は以下の態様に限定されるものではない。また、本発明は、各図に示す各構成要素の配置や寸法、寸法比などについても、それらに限定されるものではない。   Hereinafter, embodiments for carrying out the invention will be described in detail with reference to the drawings. The following description is a specific example of the present invention, and the present invention is not limited to the following embodiments. Further, the present invention is not limited to the arrangement, dimensions, dimensional ratios, and the like of the components shown in the drawings.

<1.実施の形態>
[構成]
本発明の一実施の形態に係る透明基材計測装置1の構成について説明する。図1は、透明基材計測装置1の構成例を表したものである。透明基材計測装置1は、被検体100の特性(例えば、二重像、歪み、ボケなどの光学特性)を計測するためのものである。
<1. Embodiment>
[Constitution]
The configuration of the transparent substrate measuring device 1 according to one embodiment of the present invention will be described. FIG. 1 illustrates a configuration example of a transparent base material measuring device 1. The transparent base material measuring apparatus 1 is for measuring characteristics (for example, optical characteristics such as a double image, distortion, and blur) of the subject 100.

(被検体100)
被検体100は、映像を投射されるスクリーンとして利用され得るものであり、ガラスや樹脂などで形成された透明基材である。透明基材は、可視光を透過する板状部材であり、例えば、平坦なガラス板、平坦な樹脂板、または、平坦な樹脂フィルムによって構成されている。透明基材は、湾曲したガラス板、湾曲した樹脂板、または、湾曲した樹脂フィルムによって構成されていてもよい。
(Subject 100)
The subject 100 can be used as a screen on which an image is projected, and is a transparent substrate formed of glass, resin, or the like. The transparent substrate is a plate-shaped member that transmits visible light, and is made of, for example, a flat glass plate, a flat resin plate, or a flat resin film. The transparent substrate may be constituted by a curved glass plate, a curved resin plate, or a curved resin film.

図2は、被検体100の構成例を表したものである。なお、図2には、被検体100が車載用のフロントガラスである例が示されている。図2に示した被検体100では、互いに対向する一対の主面100A,100Bは自由曲面を有している。そのため、曲率が縦方向と横方向とで異なる。また、曲率を描く縦方向の円と横方向の円との成す角は、図中のα1,α2に示したように、自由曲面内の場所ごとに変化する。フロントガラスの機種によっても、この縦横の曲率は異なる。   FIG. 2 illustrates a configuration example of the subject 100. FIG. 2 shows an example in which the subject 100 is a vehicle windshield. In the subject 100 shown in FIG. 2, the pair of main surfaces 100A and 100B facing each other have a free-form surface. Therefore, the curvature differs between the vertical direction and the horizontal direction. In addition, the angle formed by the vertical circle and the horizontal circle describing the curvature changes at each position in the free-form surface as indicated by α1 and α2 in the drawing. This vertical and horizontal curvature differs depending on the type of windshield.

次に、被検体100の機能について説明する。図3は、被検体100の機能の一例を説明するためのものである。被検体100は、投射装置から出射される虚像Iv1の光(投影光L)を、被検体100の背後の景色と共に、観察者200に視認させるためのものである。被検体100において、互いに対向する一対の主面100A,100Bは、投影光Lに対して反射面として機能する一方で、被検体100の背後から入射する外光に対して透過面として機能する。また、被検体100において、一対の主面100A,100Bは、一対の主面100A,100Bでの反射光によって、被検体100の背後に2つの虚像Iv2,Iv3を形成し得る。虚像Iv2は、所定の角度で主面100Aに入射した投影光Lの、主面100Aでの反射光線L2によって生成される。虚像Iv3は、所定の角度で主面100Aに入射した投影光Lの、主面100Bでの反射光線L3によって生成される。虚像Iv2,Iv3は、概ね同一の位置に生成され得る。   Next, the function of the subject 100 will be described. FIG. 3 is a view for explaining an example of the function of the subject 100. The subject 100 is for causing the observer 200 to visually recognize the light (projection light L) of the virtual image Iv1 emitted from the projection device together with the scenery behind the subject 100. In the subject 100, the pair of main surfaces 100A and 100B facing each other functions as a reflecting surface for the projection light L, and also functions as a transmitting surface for external light incident from behind the subject 100. Further, in the subject 100, the pair of main surfaces 100A and 100B can form two virtual images Iv2 and Iv3 behind the subject 100 by light reflected on the pair of main surfaces 100A and 100B. The virtual image Iv2 is generated by the reflected light L2 of the projection light L incident on the main surface 100A at a predetermined angle and reflected by the main surface 100A. The virtual image Iv3 is generated by the reflected light L3 of the projection light L incident on the main surface 100A at a predetermined angle on the main surface 100B. The virtual images Iv2 and Iv3 can be generated at substantially the same position.

主面100A,100Bは、虚像Iv1から発せられた1本の光線が主面100Aに斜めに入射することにより主面100Aで反射されるとともに、上述の1本の光線が主面100Aを屈折透過して主面100Bで反射されるように構成されている。主面100A,100Bは、さらに、主面100Aでの反射光線L2および主面100Bでの反射光線L3が観察者200の瞳孔210を介して観察者200の網膜220の位置で重なり合って結像するように構成されている。主面100A,100Bは、さらに、主面100Aでの反射光線L2および主面100Bでの反射光線L3が観察者200の瞳孔210を介して観察者200の網膜220の位置で目の解像度以下に結像するように構成されていることが好ましい。   The main surfaces 100A and 100B are reflected by the main surface 100A when one light beam emitted from the virtual image Iv1 is obliquely incident on the main surface 100A, and the one light beam is refracted and transmitted through the main surface 100A. And is reflected by the main surface 100B. The principal surfaces 100A and 100B further form an image by overlapping the reflected light L2 on the principal surface 100A and the reflected light L3 on the principal surface 100B at the position of the retina 220 of the observer 200 via the pupil 210 of the observer 200. It is configured as follows. The principal planes 100A and 100B further have a reflection ray L2 on the principal plane 100A and a reflection ray L3 on the principal plane 100B at the position of the retina 220 of the observer 200 through the pupil 210 of the observer 200, which is lower than the eye resolution. Preferably, it is configured to form an image.

(透明基材計測装置1)
透明基材計測装置1は、投射装置10、撮像装置20、置台30、ターゲット部40および情報処理装置50を備えている。
(Transparent substrate measuring device 1)
The transparent substrate measuring device 1 includes a projection device 10, an imaging device 20, a table 30, a target unit 40, and an information processing device 50.

(置台30)
置台30は、被検体100を載置するためのものである。被検体100が車載用のフロントガラスである場合、置台30は、例えば、図4に示したように、車載用のフロントガラスが車に搭載されているときと同じ姿勢で、車載用のフロントガラスを保持可能な機構を有している。車載用のフロントガラスが車に搭載したときと同じ姿勢で保持されている場合には、車載用のフロントガラスには、実際に使用する時と同じ撓みが発生する。
(Table 30)
The mounting table 30 is for mounting the subject 100 thereon. When the subject 100 is a vehicle-mounted windshield, for example, as shown in FIG. 4, the mounting table 30 is mounted in the same position as when the vehicle-mounted windshield is mounted on a car, and Is provided. When the in-vehicle windshield is held in the same posture as when mounted on a car, the in-vehicle windshield is bent as in actual use.

(ターゲット部40)
ターゲット部40は、投影光Lの、被検体100での反射光Lrが作り出す虚像Ivが投影される設計上の位置(例えば、被検体100の前方数mにおける規定の高さ)に配置されている。ターゲット部40は、例えば、図5に示したように、虚像表示エリアと同じ外形を持つ枠線と、測定を行いたい点(図中の測定点A〜E)とが描かれた紙面もしくはディスプレイである。なお、図5に示したようなターゲット部40を設ける代わりに、ターゲット部40に対応する仮想のターゲットを後述のカメラ21のファインダー像にオーバーレイさせ、情報処理装置50の表示画面上にCG(Computer Graphics)として描いてもよい。
(Target unit 40)
The target section 40 is disposed at a design position (for example, a prescribed height in a few meters ahead of the subject 100) where the virtual image Iv created by the reflected light Lr of the projection light L on the subject 100 is projected. I have. For example, as shown in FIG. 5, the target unit 40 is a paper surface or a display on which a frame line having the same outer shape as the virtual image display area and points to be measured (measurement points A to E in the figure) are drawn. It is. Instead of providing the target unit 40 as shown in FIG. 5, a virtual target corresponding to the target unit 40 is overlaid on a finder image of the camera 21 described later, and a CG (Computer) is displayed on the display screen of the information processing device 50. Graphics).

(投射装置10)
投射装置10は、被検体100の1または複数の個所に投影光Lを照射可能に構成されたものである。本実施の形態において、投射装置10は、被検体100の複数の個所に投影光Lを順次、照射する。投射装置10は、光源ユニット11および機構部12を有している。機構部12が、本発明の「第1機構部」の一具体例に相当する。
(Projection device 10)
The projection device 10 is configured to be capable of irradiating one or more locations of the subject 100 with projection light L. In the present embodiment, projection device 10 sequentially irradiates projection light L to a plurality of locations on subject 100. The projection device 10 has a light source unit 11 and a mechanism unit 12. The mechanism section 12 corresponds to a specific example of the “first mechanism section” of the present invention.

機構部12は、光源ユニット11全体を移動させるためのものである。機構部12は、投射装置10の位置調整と投射装置10の光軸AX1の角度調整とを可能に構成されている。機構部12は、例えば、投射装置10(もしくは光源ユニット11)の光軸AX1に対して垂直方向に移動するXYの2軸と、光軸AX1方向に移動するZの1軸と、XZ平面内およびYZ平面内で回転する2軸の合計5軸を有している。機構部12は、例えば、情報処理装置50からの制御信号に基づいて光源ユニット11全体を5軸で移動させるサーボ機構で構成されている。機構部12がサーボ機構で構成されている場合には、ユーザは、光源ユニット11の位置や姿勢をサーボ機構に教示することにより、光源ユニット11の位置や姿勢を高精度に設定することができる。また、この場合には、透明基材計測装置1を生産ラインに組み込むことも容易となる。なお、機構部12は、例えば、手動のスライダーで構成されていてもよい。   The mechanism section 12 is for moving the entire light source unit 11. The mechanism section 12 is configured to be capable of adjusting the position of the projection device 10 and adjusting the angle of the optical axis AX1 of the projection device 10. The mechanism unit 12 includes, for example, two axes XY moving in a direction perpendicular to the optical axis AX1 of the projection device 10 (or the light source unit 11), one axis Z moving in the direction of the optical axis AX1, and an XZ plane. And two axes rotating in the YZ plane. The mechanism unit 12 is configured by, for example, a servo mechanism that moves the entire light source unit 11 in five axes based on a control signal from the information processing device 50. When the mechanism unit 12 is configured by a servo mechanism, the user can set the position and the attitude of the light source unit 11 with high accuracy by teaching the position and the attitude of the light source unit 11 to the servo mechanism. . Further, in this case, it becomes easy to incorporate the transparent base material measuring device 1 into a production line. Note that the mechanism section 12 may be configured by, for example, a manual slider.

図6は、光源ユニット11の構成例を表したものである。光源ユニット11は、非点収差の補正、虚像Ivの位置調整、および投射装置10の光軸AX1の角度調整を可能に構成されている。光源ユニット11は、例えば、光源111、ピンホールマスク112、機構部113、シリンドリカルレンズ114,115、平凸レンズ116,117および機構部118を有している。光源111およびピンホールマスク112が、本発明の「点光源」の一具体例に相当する。シリンドリカルレンズ114,115が、本発明の「非点収差補正光学系」の一具体例に相当する。平凸レンズ116,117が、本発明の「投影光学系」、「テレセントリック光学系」の一具体例に相当する。機構部113,118は、投射装置10(もしくは光源ユニット11)の光軸AX1の角度(光線角度)調整を可能に構成されており、さらに、虚像Ivの位置調整も可能に構成されている。機構部113,118が、本発明の「第2機構部」の一具体例に相当する。   FIG. 6 illustrates a configuration example of the light source unit 11. The light source unit 11 is configured to correct astigmatism, adjust the position of the virtual image Iv, and adjust the angle of the optical axis AX1 of the projection device 10. The light source unit 11 includes, for example, a light source 111, a pinhole mask 112, a mechanism unit 113, cylindrical lenses 114 and 115, plano-convex lenses 116 and 117, and a mechanism unit 118. The light source 111 and the pinhole mask 112 correspond to a specific example of the “point light source” of the present invention. The cylindrical lenses 114 and 115 correspond to a specific example of the “astigmatism correction optical system” of the present invention. The plano-convex lenses 116 and 117 correspond to specific examples of the “projection optical system” and the “telecentric optical system” of the present invention. The mechanism units 113 and 118 are configured to be able to adjust the angle (light ray angle) of the optical axis AX1 of the projection device 10 (or the light source unit 11), and are also configured to be able to adjust the position of the virtual image Iv. The mechanism units 113 and 118 correspond to a specific example of the “second mechanism unit” of the present invention.

光源111は、例えば、インコヒーレント光を発する発光ダイオードであり、可視領域の波長の光を出射する。上記の発光ダイオードは、例えば、白色発光ダイオードである。光源111は、例えば、ピンホールマスク112のピンホール112Aを均一に照明する。ピンホールマスク112は、シート状の遮光部材における所定位置にピンホール112Aが設けられたものである。ピンホール112Aは、光源111から発せられた光の発散角を調整する。光源111は、ピンホールマスク112を介して、点状の投影光Lを光学ユニット11の外部に出射する。   The light source 111 is, for example, a light-emitting diode that emits incoherent light, and emits light having a wavelength in the visible region. The light emitting diode is, for example, a white light emitting diode. The light source 111 uniformly illuminates the pinhole 112A of the pinhole mask 112, for example. The pinhole mask 112 is provided with a pinhole 112A at a predetermined position in a sheet-like light shielding member. The pinhole 112A adjusts the divergence angle of the light emitted from the light source 111. The light source 111 emits the point-like projection light L to the outside of the optical unit 11 via the pinhole mask 112.

なお、光源ユニット11において、例えば、図7に示したように、ピンホールマスク112の代わりに、スリットマスク121が設けられていてもよい。光源111およびスリットマスク121が、本発明の「線光源」の一具体例に相当する。この場合、光源111は、例えば、スリットマスク121のスリット121Aを均一に照明する。スリットマスク121は、シート状の遮光部材における所定位置にスリット121Aが設けられたものである。スリット121Aは、光源111から発せられた光の発散角を調整する。光源111は、スリットマスク121を介して、線状の投影光Lを光学ユニット11の外部に出射する。   In the light source unit 11, for example, as shown in FIG. 7, a slit mask 121 may be provided instead of the pinhole mask 112. The light source 111 and the slit mask 121 correspond to a specific example of the “line light source” of the invention. In this case, the light source 111 uniformly illuminates the slit 121A of the slit mask 121, for example. The slit mask 121 is provided with a slit 121A at a predetermined position in a sheet-shaped light shielding member. The slit 121A adjusts the divergence angle of the light emitted from the light source 111. The light source 111 emits linear projection light L to the outside of the optical unit 11 via the slit mask 121.

図8は、互いに近接する2つの像の強度分布の一例を表したものである。ピンホール112Aの開口幅Dpまたはスリット121Aの開口幅Dsが、以下の式(1),式(2)を満たすことが好ましい。ピンホール112Aの開口幅Dp、または、スリット121Aの開口幅Dsが、以下の式(1)を満たすことにより、カメラ21(後述)の角度分解能を目標の角度分解能δにすることが可能である。
Dx≦2fδ…(1)
Dx:ピンホール112Aもしくはスリット121Aの、撮影画像(画像データ52C)上の像の幅
f:カメラ21(後述)の焦点距離
δ:目標の角度分解能
FIG. 8 illustrates an example of the intensity distribution of two images that are close to each other. The opening width Dp of the pinhole 112A or the opening width Ds of the slit 121A preferably satisfies the following expressions (1) and (2). When the opening width Dp of the pinhole 112A or the opening width Ds of the slit 121A satisfies the following expression (1), the angular resolution of the camera 21 (described later) can be set to the target angular resolution δ. .
Dx ≦ 2fδ (1)
Dx: width of the image of the pinhole 112A or the slit 121A on the captured image (image data 52C) f: focal length of the camera 21 (described later): target angular resolution

シリンドリカルレンズ114,115は、それぞれ、光源111から発せられた光を集光する。シリンドリカルレンズ114,115は、ともに、凸形状の面が光出射側となるように配置されている。シリンドリカルレンズ114,115は、シリンドリカルレンズ114においてレンズ効果のある方向と、シリンドリカルレンズ115においてレンズ効果のある方向とが交差角α(0°<α<180°)で交差するように配置されている。シリンドリカルレンズ114,115のうち少なくとも一方が光軸BX1と平行な軸を回転軸として回転可能に支持されている。光軸BX1は、ピンホール112Aもしくはスリット121Aを通過した光源111からの光の光軸である。シリンドリカルレンズ114,115は、交差角αの変化に応じて、シリンドリカルレンズ114,115に入射した光のビーム形状を変化させる。つまり、シリンドリカルレンズ114,115は、交差角αの変化に応じて、シリンドリカルレンズ114,115に入射した光の非点収差を変化させる。   The cylindrical lenses 114 and 115 collect light emitted from the light source 111, respectively. Both the cylindrical lenses 114 and 115 are arranged so that the convex surface is on the light emission side. The cylindrical lenses 114 and 115 are arranged so that a direction having a lens effect in the cylindrical lens 114 and a direction having a lens effect in the cylindrical lens 115 intersect at an intersection angle α (0 ° <α <180 °). . At least one of the cylindrical lenses 114 and 115 is rotatably supported around an axis parallel to the optical axis BX1 as a rotation axis. The optical axis BX1 is the optical axis of the light from the light source 111 that has passed through the pinhole 112A or the slit 121A. The cylindrical lenses 114 and 115 change the beam shape of the light incident on the cylindrical lenses 114 and 115 according to the change of the intersection angle α. That is, the cylindrical lenses 114 and 115 change the astigmatism of the light incident on the cylindrical lenses 114 and 115 according to the change of the intersection angle α.

平凸レンズ116,117は、シリンドリカルレンズ114,115を透過した光を投影光Lとして被検体100に投影する。平凸レンズ116は、凸形状の面が光出射側となるように配置されている。平凸レンズ117は、凸形状の面が光入射側となるように配置されている。平凸レンズ116,117は、光源111を物体とする物体側テレセントリック光学系である。   The plano-convex lenses 116 and 117 project the light transmitted through the cylindrical lenses 114 and 115 onto the subject 100 as projection light L. The plano-convex lens 116 is arranged such that the convex surface is on the light emission side. The plano-convex lens 117 is arranged so that the convex surface is on the light incident side. The plano-convex lenses 116 and 117 are object-side telecentric optical systems having the light source 111 as an object.

機構部113は、ピンホールマスク112またはスリットマスク121と、シリンドリカルレンズ114,115とを一緒に移動させるためのものである。機構部113は、例えば、光軸BX1に対して垂直方向に移動するXYの2軸と、光軸BX1方向に移動するZの1軸の合計3軸を有している。機構部113は、例えば、情報処理装置50からの制御信号に基づいて、ピンホールマスク112またはスリットマスク121と、シリンドリカルレンズ114,115とを3軸で一緒に移動させるサーボ機構で構成されている。機構部113がサーボ機構で構成されている場合には、ユーザは、位置情報をサーボ機構に教示することにより、ピンホールマスク112またはスリットマスク121の位置や、シリンドリカルレンズ114,115の位置を高精度に設定することができる。また、この場合には、透明基材計測装置1を生産ラインに組み込むことも容易となる。なお、機構部113は、例えば、手動のスライダーで構成されていてもよい。   The mechanism section 113 is for moving the pinhole mask 112 or the slit mask 121 and the cylindrical lenses 114 and 115 together. The mechanism unit 113 has, for example, a total of three axes of two axes of XY moving in a direction perpendicular to the optical axis BX1 and one axis of Z moving in the direction of the optical axis BX1. The mechanism unit 113 is configured by, for example, a servo mechanism that moves the pinhole mask 112 or the slit mask 121 and the cylindrical lenses 114 and 115 together on three axes based on a control signal from the information processing device 50. . When the mechanism unit 113 is configured by a servo mechanism, the user can elevate the position of the pinhole mask 112 or the slit mask 121 and the position of the cylindrical lenses 114 and 115 by teaching the position information to the servo mechanism. Can be set to accuracy. Further, in this case, it becomes easy to incorporate the transparent base material measuring device 1 into a production line. Note that the mechanism section 113 may be configured with, for example, a manual slider.

図9は、ピンホール112Aもしくはスリット121Aを機構部113により光軸BX1に対して垂直方向に移動させたときの、光線の変位の一例を表したものである。平凸レンズ116,117がテレセントリック光学系となっており、さらに、テレセントリック光学系の後ろ側焦点(図中のP)が被検体100上に配置されているとする。このとき、ピンホール112Aもしくはスリット121Aを機構部113により光軸BX1に対して垂直方向に移動させたときに、光線と被検体100とが交差する位置が変わらず、光線の、被検体100への入射角度のみが変化する。従って、機構部113は、機構部12との関係では、虚像Ivの投影位置の微調整に役立つ。   FIG. 9 illustrates an example of displacement of a light beam when the pinhole 112A or the slit 121A is moved by the mechanism unit 113 in a direction perpendicular to the optical axis BX1. It is assumed that the plano-convex lenses 116 and 117 are telecentric optical systems, and that the rear focal point (P in the figure) of the telecentric optical system is arranged on the subject 100. At this time, when the pinhole 112A or the slit 121A is moved in the direction perpendicular to the optical axis BX1 by the mechanism unit 113, the position where the light beam and the subject 100 intersect does not change, and the light beam is transmitted to the subject 100. Only the angle of incidence changes. Therefore, the mechanism unit 113 is useful for fine adjustment of the projection position of the virtual image Iv in relation to the mechanism unit 12.

機構部113は、シリンドリカルレンズ114,115を回転させるためのものでもある。機構部113は、例えば、上述の合計3軸の他に、XY面内で回転する1軸をさらに有している。これにより、機構部113は、間隙D1、間隙D2、間隙D3および交差角αを調整可能である。機構部113がサーボ機構で構成されている場合には、ユーザは、シリンドリカルレンズ114,115の位置や姿勢をサーボ機構に教示することにより、シリンドリカルレンズ114,115の位置や姿勢を高精度に設定することができる。また、この場合には、透明基材計測装置1を生産ラインに組み込むことも容易となる。なお、機構部113は、例えば、手動のスライダーで構成されていてもよい。
D1:ピンホールマスク112もしくはスリットマスク121とシリンドリカルレンズ114との間隙
D2:シリンドリカルレンズ114とシリンドリカルレンズ115との間隙
D3:シリンドリカルレンズ115と平凸レンズ116との間隙
The mechanism 113 is also for rotating the cylindrical lenses 114 and 115. The mechanism unit 113 further has, for example, one axis that rotates in the XY plane, in addition to the three axes described above. Thereby, the mechanism unit 113 can adjust the gap D1, the gap D2, the gap D3, and the intersection angle α. When the mechanism unit 113 is formed of a servo mechanism, the user sets the position and orientation of the cylindrical lenses 114 and 115 with high accuracy by teaching the position and orientation of the cylindrical lenses 114 and 115 to the servo mechanism. can do. Further, in this case, it becomes easy to incorporate the transparent base material measuring device 1 into a production line. Note that the mechanism section 113 may be configured with, for example, a manual slider.
D1: a gap between the pinhole mask 112 or the slit mask 121 and the cylindrical lens 114 D2: a gap between the cylindrical lens 114 and the cylindrical lens 115 D3: a gap between the cylindrical lens 115 and the plano-convex lens 116

機構部118は、平凸レンズ116,117を移動させるためのものである。機構部118は、例えば、光軸BX1方向に移動するZの1軸を有している。これにより、機構部118は、間隙D3を調整可能である。機構部118がサーボ機構で構成されている場合には、ユーザは、平凸レンズ116,117の位置をサーボ機構に教示することにより、平凸レンズ116,117の位置を高精度に設定することができる。また、この場合には、透明基材計測装置1を生産ラインに組み込むことも容易となる。なお、機構部118は、例えば、手動のスライダーで構成されていてもよい。   The mechanism section 118 is for moving the plano-convex lenses 116 and 117. The mechanism section 118 has, for example, one Z axis that moves in the optical axis BX1 direction. Thereby, the mechanism section 118 can adjust the gap D3. When the mechanism section 118 is configured by a servo mechanism, the user can set the positions of the plano-convex lenses 116 and 117 with high accuracy by teaching the positions of the plano-convex lenses 116 and 117 to the servo mechanism. . Further, in this case, it becomes easy to incorporate the transparent base material measuring device 1 into a production line. Note that the mechanism section 118 may be configured by, for example, a manual slider.

機構部113,118は、間隙D1、間隙D2および間隙D3を調整することで、虚像Ivの位置を調整する。これにより、機構部113,118は、虚像Ivの非点収差を補正し、回折限界まで虚像Ivを結像させることができる。   The mechanism units 113 and 118 adjust the position of the virtual image Iv by adjusting the gap D1, the gap D2, and the gap D3. Thereby, the mechanical units 113 and 118 can correct the astigmatism of the virtual image Iv and form the virtual image Iv up to the diffraction limit.

(撮像装置20)
撮像装置20は、投射装置10から出射された1または複数の投影光Lの被検体100での反射光Lrが作り出す虚像Ivを撮像するものである。撮像装置20は、カメラ21および機構部22を有している。
(Imaging device 20)
The imaging device 20 captures a virtual image Iv created by the reflected light Lr of the one or more projection lights L emitted from the projection device 10 on the subject 100. The imaging device 20 includes a camera 21 and a mechanism unit 22.

カメラ21は、光源ユニット11から発せられ、被検体100で反射された投影光Lを受光し、画像データ52C(後述)を生成する。カメラ21は、生成した画像データ52Cを情報処理装置50へ出力する。カメラ21は、例えば、対物レンズおよびイメージセンサを有する。対物レンズは、光源ユニット11から発せられ、被検体100で反射された投影光Lを集光する。イメージセンサは、対物レンズで集光された光を受光面で受光し、画像データ52Cを生成する。イメージセンサは、例えば、CCD(Charge Coupled Device)イメージセンサ、またはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。対物レンズおよびイメージセンサは、人の目の角度分解能(例えば、1’)よりも高い角度分解能を有することが好ましい。   The camera 21 receives the projection light L emitted from the light source unit 11 and reflected by the subject 100, and generates image data 52C (described later). The camera 21 outputs the generated image data 52C to the information processing device 50. The camera 21 has, for example, an objective lens and an image sensor. The objective lens collects the projection light L emitted from the light source unit 11 and reflected by the subject 100. The image sensor receives the light condensed by the objective lens on a light receiving surface, and generates image data 52C. The image sensor is, for example, a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor. Preferably, the objective lens and the image sensor have a higher angular resolution than the human eye's angular resolution (e.g., 1 ').

図10は、カメラ21のイメージセンサにおけるサンプリングを説明するための図である。カメラ21の開口数NAは、以下の式(2)を満たす。サンプリング定理により離散的に取得した像を連続した像に復元するためには、カメラ21のイメージセンサ上の回折限界の像の大きさ(1.22λ/NA)が、カメラ21のイメージセンサにおけるピクセルピッチPpの2倍以上となっていることが必要である。サンプリング定理により離散的に取得した像を連続した像に復元できる条件を式で表すと、以下の式(2)となる。
1.22λ/NA≧2Pp…(2)
λ:投射装置10(もしくは光源111)の波長
Pp:カメラ21のイメージセンサにおけるピクセルピッチ
FIG. 10 is a diagram for explaining sampling in the image sensor of the camera 21. The numerical aperture NA of the camera 21 satisfies the following equation (2). In order to restore an image discretely acquired by the sampling theorem into a continuous image, the size of the diffraction-limited image (1.22λ / NA) on the image sensor of the camera 21 depends on the number of pixels in the image sensor of the camera 21. It is necessary that the pitch be twice or more the pitch Pp. The following equation (2) can be used to express the condition under which the image obtained discretely by the sampling theorem can be restored to a continuous image.
1.22λ / NA ≧ 2Pp (2)
λ: wavelength Pp of the projection device 10 (or light source 111): pixel pitch in the image sensor of the camera 21

情報処理装置50は、カメラ21による撮像により得られた画像データ52Cに基づいて被検体100の特性(例えば、二重像、歪み、ボケなどの光学特性)を導出する。情報処理装置50は、例えば、図11に示したように、制御部51、記憶部52、通信部53および入力部54を有している。   The information processing device 50 derives characteristics (for example, optical characteristics such as a double image, distortion, and blur) of the subject 100 based on the image data 52C obtained by imaging with the camera 21. The information processing device 50 includes, for example, a control unit 51, a storage unit 52, a communication unit 53, and an input unit 54, as illustrated in FIG.

通信部53は、投射装置10との間で通信を行うとともに、撮像装置20との間で通信を行う。入力部54は、ユーザからの入力を受け付けるものである。入力部54は、例えば、計測プログラム52Aのロードされた制御部51からの指示に従って、ユーザからの情報入力を受け付ける。入力部54は、例えば、キーボード、マウス、またはタッチパネルによって構成されている。   The communication unit 53 communicates with the projection device 10 and also communicates with the imaging device 20. The input unit 54 receives an input from a user. The input unit 54 accepts information input from the user, for example, according to an instruction from the control unit 51 loaded with the measurement program 52A. The input unit 54 includes, for example, a keyboard, a mouse, or a touch panel.

記憶部52は、各種プログラムや各種データファイルを記憶可能となっている。記憶部52は、計測プログラム52Aを記憶している。記憶部52は、さらに、計測プログラム52Aが実行されることにより生成される各種データを記憶可能となっている。そのようなデータとしては、例えば、教示データ52Bおよび複数の画像データ52Cが挙げられる。記憶部52は、例えば、不揮発性メモリによって構成されており、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ、抵抗変化型メモリなどによって構成されている。   The storage unit 52 can store various programs and various data files. The storage unit 52 stores a measurement program 52A. The storage unit 52 can further store various data generated by executing the measurement program 52A. Such data includes, for example, teaching data 52B and a plurality of image data 52C. The storage unit 52 is configured by, for example, a nonvolatile memory, and is configured by, for example, an electrically erasable programmable read-only memory (EEPROM), a flash memory, a resistance change type memory, or the like.

計測プログラム52Aは、被検体100の特性(例えば、二重像、歪み、ボケなどの光学特性)を導出するための一連の手順をプロセッサ(制御部51)に実行させるためのものである。計測プログラム52Aは、教示データ取得手順と、計測手順とを含んでいる。なお、以下では、教示データ取得手順と、計測手順とを分けて説明する。教示データ52Bには、例えば、機構部22,113,118に対して設定された教示データが含まれる。各画像データ52Cは、カメラ21によって得られた画像データである。画像データ52Cには、被検体100越しに見えるターゲット部40の画像が含まれている。複数の画像データ52Cのうち、一部の画像データ52Cには、被検体100越しに見えるターゲット部40の画像と、光源ユニット11から発せられ、被検体100で反射された投影光Lの画像とが重ね合わされた画像が含まれている。   The measurement program 52A is for causing the processor (control unit 51) to execute a series of procedures for deriving characteristics (for example, optical characteristics such as a double image, distortion, and blur) of the subject 100. The measurement program 52A includes a teaching data acquisition procedure and a measurement procedure. In the following, the teaching data acquisition procedure and the measurement procedure will be described separately. The teaching data 52B includes, for example, teaching data set for the mechanical units 22, 113, and 118. Each image data 52C is image data obtained by the camera 21. The image data 52C includes an image of the target unit 40 seen through the subject 100. Among the plurality of image data 52C, some of the image data 52C include an image of the target unit 40 seen through the subject 100 and an image of the projection light L emitted from the light source unit 11 and reflected by the subject 100. Are included in the image.

制御部51は、例えば、ユーザからの指示に基づいて、計測プログラム52Aを記憶部52から読み出し、読み出した内容を実行する。制御部51は、計測プログラム52Aに含まれる教示データ取得手順および計測手順を実行する。   The control unit 51 reads the measurement program 52A from the storage unit 52 based on, for example, an instruction from a user, and executes the read content. The control unit 51 executes a teaching data acquisition procedure and a measurement procedure included in the measurement program 52A.

(教示データ取得)
まず、教示データ取得について説明する。図12は、教示データ取得手順の一例を表したものである。ユーザは、被検体100として、設計通りに製作されたマスター100Mを置台30に設置する(ステップS101、図13)。その後、ユーザは、入力部54を介して、制御部51に教示データ取得の実施を指示する。すると、制御部51は、計測プログラム52Aを記憶部52から読み出し、計測プログラム52Aに含まれる教示データ取得手順を実行する。
(Acquisition of teaching data)
First, the acquisition of teaching data will be described. FIG. 12 illustrates an example of a teaching data acquisition procedure. The user installs the master 100M manufactured as designed on the table 30 as the subject 100 (step S101, FIG. 13). After that, the user instructs the control unit 51 via the input unit 54 to acquire teaching data. Then, the control unit 51 reads the measurement program 52A from the storage unit 52, and executes a teaching data acquisition procedure included in the measurement program 52A.

具体的には、まず、ユーザは、カメラ21の光軸調整を行う(ステップS102)。ユーザは、カメラ21を複数の視点(例えば、視点Ch1〜Ch5)のうち、1つの視点(例えば、視点Ch1)に移動する。このとき、ユーザは、その視点(例えば、視点Ch1)において、被検体100越しに見えるターゲット部40の所定領域(具体的には、虚像Ivが表示され得る領域全体)がカメラ21の撮像領域内に入るよう、カメラ21の位置を微調整する。カメラ21の位置の微調整が完了したら、ユーザは、入力部54を介して、制御部51に教示データの取得を指示する。すると、制御部51は、そのときの機構部22の位置情報を機構部22から取得し、教示データ52Bとして記憶部52に記憶する(ステップS103)。   Specifically, first, the user adjusts the optical axis of the camera 21 (Step S102). The user moves the camera 21 to one viewpoint (for example, viewpoint Ch1) among a plurality of viewpoints (for example, viewpoints Ch1 to Ch5). At this time, at the viewpoint (for example, the viewpoint Ch1), the user sets a predetermined region (specifically, the entire region where the virtual image Iv can be displayed) of the target unit 40 seen over the subject 100 in the imaging region of the camera 21. The position of the camera 21 is finely adjusted so as to enter. When the fine adjustment of the position of the camera 21 is completed, the user instructs the control unit 51 via the input unit 54 to acquire teaching data. Then, the control unit 51 acquires the position information of the mechanism unit 22 at that time from the mechanism unit 22 and stores it in the storage unit 52 as the teaching data 52B (step S103).

ユーザは、他の視点における教示データ52Bの取得作業を行う場合には、再び、ステップS102を実行する(ステップS104;Y)。つまり、ユーザは、上記と同様にして、カメラ21を他の視点(例えば、視点Ch2〜Ch5)に順次移動し、カメラ21の位置の微調整が完了する度に、入力部54を介して、制御部51に教示データの取得を指示する。すると、制御部51は、その指示を受けるたびに、そのときの機構部22の位置情報を機構部22から取得し、教示データ52Bとして記憶部52に記憶する。   When performing the operation of acquiring the teaching data 52B from another viewpoint, the user executes Step S102 again (Step S104; Y). In other words, the user sequentially moves the camera 21 to another viewpoint (for example, viewpoints Ch2 to Ch5) in the same manner as described above, and every time the fine adjustment of the position of the camera 21 is completed, via the input unit 54, The control unit 51 is instructed to acquire teaching data. Then, each time the control unit 51 receives the instruction, the control unit 51 acquires the position information of the mechanism unit 22 at that time from the mechanism unit 22 and stores the acquired position information in the storage unit 52 as the teaching data 52B.

ユーザは、全ての視点における教示データ52Bの取得作業を完了した場合には、1つの視点(例えば、視点Ch1)と1つの測定点(例えば、測定点E)を指定した上で、光源ユニット11の光軸調整を行う(ステップS105)。ユーザは、まず、入力部54を介して、制御部51に、1つの視点(例えば、視点Ch1)の設定と、投影光Lの出力とを指示する。すると、制御部51は、カメラ21が、記憶部52に記憶された教示データ52Bの中から、設定された視点(例えば、視点Ch1)に対応する教示データ52Bを読み出し、読み出した教示データ52Bを制御信号として機構部22に出力する。機構部22は、カメラ21を、制御部51から入力された制御信号に基づく位置に設定する。その後、制御部51は、光源111から投影光Lを出力させる(図14)。このとき、ユーザは、光源111から投影光Lが出力している間に、光源ユニット11の位置や姿勢を微調整して、虚像Ivを、指定した測定点(例えば、測定点E)上に移動させる。光源ユニット11の位置や姿勢の微調整が完了したら、ユーザは、入力部54を介して、制御部51に教示データ52Bの取得を指示する。すると、制御部51は、そのときの機構部12,113,118の位置情報や姿勢情報を機構部12,113,118から取得し、教示データ52Bとして記憶部52に記憶する(ステップS106)。   When the user has completed the operation of acquiring the teaching data 52B at all viewpoints, the user designates one viewpoint (for example, viewpoint Ch1) and one measurement point (for example, measurement point E), and then specifies the light source unit 11B. The optical axis is adjusted (step S105). First, the user instructs the control unit 51 via the input unit 54 to set one viewpoint (for example, viewpoint Ch1) and output the projection light L. Then, the control unit 51 causes the camera 21 to read the teaching data 52B corresponding to the set viewpoint (for example, the viewpoint Ch1) from the teaching data 52B stored in the storage unit 52, and to read the read teaching data 52B. It outputs to the mechanism section 22 as a control signal. The mechanism unit 22 sets the camera 21 at a position based on the control signal input from the control unit 51. Thereafter, the control unit 51 causes the light source 111 to output the projection light L (FIG. 14). At this time, the user finely adjusts the position and orientation of the light source unit 11 while the projection light L is being output from the light source 111, and places the virtual image Iv on the specified measurement point (for example, the measurement point E). Move. When the fine adjustment of the position and orientation of the light source unit 11 is completed, the user instructs the control unit 51 via the input unit 54 to acquire the teaching data 52B. Then, the control unit 51 acquires the position information and the posture information of the mechanism units 12, 113, 118 at that time from the mechanism units 12, 113, 118, and stores the acquired information as the teaching data 52B in the storage unit 52 (step S106).

ユーザは、他の測定点における教示データ52Bの取得作業を行う場合には、再び、ステップS105を実行する(ステップS107;Y)。ユーザは、同様にして、光源ユニット11の位置や姿勢を微調整して、虚像Ivを、他の測定点(例えば、測定点A〜D)上に順次移動させる度に、入力部54を介して、制御部51に教示データ52Bの取得を指示する。すると、制御部51は、その指示を受けるたびに、そのときの機構部12,113,118の位置情報や姿勢情報を機構部12,113,118から取得し、教示データ52Bとして記憶部52に記憶する。   When performing the work of acquiring the teaching data 52B at another measurement point, the user executes Step S105 again (Step S107; Y). The user similarly fine-adjusts the position and orientation of the light source unit 11 to move the virtual image Iv sequentially to other measurement points (for example, the measurement points A to D) via the input unit 54. Then, the control unit 51 is instructed to acquire the teaching data 52B. Then, every time the control unit 51 receives the instruction, the control unit 51 acquires the position information and the posture information of the mechanism unit 12, 113, 118 at that time from the mechanism unit 12, 113, 118, and stores it in the storage unit 52 as the teaching data 52B. Remember.

ユーザは、設定した視点(例えば、視点Ch1)において全ての測定点(例えば、測定点A〜E)での教示データ52Bを取得した場合には、他の視点(例えば、視点Ch2〜Ch5)を順次選択し、再び、ステップS105を実行する(ステップS107;N、ステップS108;Y)。ユーザは、視点(例えば、視点Ch2〜Ch5)を設定するたびに、光源ユニット11の位置や姿勢を微調整して、虚像Ivを、各測定点(例えば、測定点A〜E)上に順次移動させる度に、入力部54を介して、制御部51に教示データ52Bの取得を指示する。すると、制御部51は、その指示を受けるたびに、そのときの機構部12,113,118の位置情報や姿勢情報を機構部12,113,118から取得し、教示データ52Bとして記憶部52に記憶する。このようにして、制御部51は、視点ごとおよび測定点ごとに取得した教示データ52Bを記憶部52に記憶する。   When the user acquires the teaching data 52B at all the measurement points (for example, the measurement points A to E) at the set viewpoint (for example, the viewpoint Ch1), the user sets another viewpoint (for example, the viewpoint Ch2 to Ch5). Then, step S105 is executed again (step S107; N, step S108; Y). Each time the user sets a viewpoint (for example, viewpoints Ch2 to Ch5), the position and orientation of the light source unit 11 are finely adjusted, and a virtual image Iv is sequentially placed on each measurement point (for example, measurement points A to E). Every time it is moved, the control unit 51 is instructed via the input unit 54 to acquire the teaching data 52B. Then, every time the control unit 51 receives the instruction, the control unit 51 acquires the position information and the posture information of the mechanism unit 12, 113, 118 at that time from the mechanism unit 12, 113, 118, and stores it in the storage unit 52 as the teaching data 52B. Remember. In this way, the control unit 51 stores the teaching data 52B acquired for each viewpoint and each measurement point in the storage unit 52.

なお、情報処理装置50は、機構部20,12,113,118の位置や姿勢の調整を、上述したような手動に代わって、カメラ21から得られた画像データ52Cに基づいて自動的に行うようにしてもよい。また、情報処理装置50は、1つの視点で教示データ52Bを取得する度に、各測定点での教示データ52Bを取得するようにしてもよい。   Note that the information processing device 50 automatically adjusts the positions and orientations of the mechanical units 20, 12, 113, and 118 based on image data 52C obtained from the camera 21 instead of manually as described above. You may do so. Further, each time the information processing device 50 acquires the teaching data 52B from one viewpoint, the information processing device 50 may acquire the teaching data 52B at each measurement point.

(計測)
次に、計測について説明する。図15は、被検体100Tの光学特性の計測手順の一例を表したものである。ユーザは、被検体100として、光学特性を求める被検体100Tを置台30に設置する(ステップS201、図16)。その後、ユーザは、入力部54を介して、制御部51に、光学特性の計測の実施を指示する。すると、制御部51は、計測プログラム52Aおよび教示データ52Bを記憶部52から読み出し、計測プログラム52Aに含まれる計測手順を教示データ52Bに基づいて実行する。
(measurement)
Next, measurement will be described. FIG. 15 illustrates an example of a procedure for measuring the optical characteristics of the subject 100T. The user installs, as the subject 100, the subject 100T whose optical characteristics are to be obtained on the table 30 (step S201, FIG. 16). Thereafter, the user instructs the control unit 51 via the input unit 54 to execute the measurement of the optical characteristics. Then, the control unit 51 reads the measurement program 52A and the teaching data 52B from the storage unit 52, and executes the measurement procedure included in the measurement program 52A based on the teaching data 52B.

具体的には、まず、制御部51は、1つの視点(例えば、Ch1)を選択するとともに、1つの測定点(例えば、測定点E)を選択する(ステップS202,S203)。次に、制御部51は、選択した視点(例えば、Ch1)の教示データ52Bを制御信号として機構部22へ出力する。すると、機構部22が、選択した視点(例えば、Ch1)へカメラ21を移動させる(ステップS204)。制御部51は、さらに、選択した測定点(例えば、測定点E)の教示データ52Bを制御信号として機構部12,113,118へ出力する。すると、機構部12,113,118が、選択した測定点(例えば、測定点E)へ光源ユニット11を移動させる(ステップS205)。   Specifically, first, the control unit 51 selects one viewpoint (for example, Ch1) and one measurement point (for example, measurement point E) (Steps S202 and S203). Next, the control unit 51 outputs the teaching data 52B of the selected viewpoint (for example, Ch1) to the mechanism unit 22 as a control signal. Then, the mechanism unit 22 moves the camera 21 to the selected viewpoint (for example, Ch1) (Step S204). The control unit 51 further outputs the teaching data 52B of the selected measurement point (for example, the measurement point E) to the mechanism units 12, 113, and 118 as a control signal. Then, the mechanical units 12, 113, and 118 move the light source unit 11 to the selected measurement point (for example, the measurement point E) (Step S205).

次に、制御部51は、光源ユニット11(光源111)に対して投影光Lの出力を指示する。すると、光源ユニット11(光源111)は、投影光Lを出力する(ステップS206、図16)。制御部51は、光源ユニット11(光源111)が投影光Lを出力している間に、カメラ21に対して撮影を指示する。すると、カメラ21は、選択された視点(例えば、視点Ch1)で、虚像Ivの撮影を行う(ステップS207)。カメラ21は、撮影により得られた撮影画像(画像データ52C)を記憶部52に保存する(ステップS208)。その後、制御部51は、カメラ21によって得られた画像データ52Cから光学特性を導出し(ステップS209)、導出した光学特性を保存する(ステップS210)。   Next, the control unit 51 instructs the light source unit 11 (light source 111) to output the projection light L. Then, the light source unit 11 (the light source 111) outputs the projection light L (Step S206, FIG. 16). The control unit 51 instructs the camera 21 to shoot while the light source unit 11 (the light source 111) is outputting the projection light L. Then, the camera 21 captures the virtual image Iv at the selected viewpoint (for example, the viewpoint Ch1) (Step S207). The camera 21 stores the photographed image (image data 52C) obtained by photographing in the storage unit 52 (Step S208). Thereafter, the control unit 51 derives optical characteristics from the image data 52C obtained by the camera 21 (Step S209), and stores the derived optical characteristics (Step S210).

ユーザは、他の測定点の選択を望む場合には(ステップS211;Y)、再び、ステップS102の実行を制御部51に指示する。ユーザは、さらに、他の視点の選択を望む場合には(ステップS212;Y)、再び、ステップS103の実行を制御部51に指示する。制御部51は、視点ごとおよび測定点ごとに画像データ52Cを取得し、取得した画像データ52Cから光学特性を導出し(ステップS209)、導出した光学特性を保存する(ステップS210)。ユーザが、他の測定点や他の視点の選択を終了することを制御部51に指示した場合には、制御部51は、測定の実行を終了する。   If the user desires to select another measurement point (step S211; Y), the user instructs the control unit 51 to execute step S102 again. If the user further desires to select another viewpoint (step S212; Y), the user instructs the control unit 51 to execute step S103 again. The control unit 51 acquires the image data 52C for each viewpoint and each measurement point, derives optical characteristics from the acquired image data 52C (Step S209), and stores the derived optical characteristics (Step S210). When the user instructs the control unit 51 to end the selection of another measurement point or another viewpoint, the control unit 51 ends the execution of the measurement.

情報処理装置50(制御部51)は、被検体100Tの光学特性として、例えば、二重像、歪み、ボケを計測することができる。   The information processing device 50 (control unit 51) can measure, for example, a double image, distortion, and blur as the optical characteristics of the subject 100T.

(二重像)
図16は、二重像の計測方法の一例を表したものである。情報処理装置50(制御部51)は、計測により得られた画像データ52Cごとに、二重像間隔DIdおよび二重像のズレ角度DIθを導出する。計測により得られた画像データ52Cが、例えば、図16に示したように、主像Imと副像Isとからなる二重像Idを含んでいるとする。ここで、主像Imは、投影光Lの、被検体100の主面(光源ユニット11側の面)での反射光Lrが作り出す虚像Ivである。副像Isは、例えば、投影光Lの、被検体100の主面(ターゲット部40側の面)での反射光Lrが作り出す虚像Ivである。
(Double image)
FIG. 16 illustrates an example of a double image measurement method. The information processing device 50 (control unit 51) derives a double image interval DId and a double image shift angle DIθ for each image data 52C obtained by measurement. It is assumed that the image data 52C obtained by the measurement includes, for example, a double image Id including a main image Im and a sub image Is, as illustrated in FIG. Here, the main image Im is a virtual image Iv created by the reflected light Lr of the projection light L on the main surface of the subject 100 (the surface on the light source unit 11 side). The sub-image Is is, for example, a virtual image Iv created by the reflected light Lr of the projection light L on the main surface of the subject 100 (the surface on the side of the target unit 40).

このとき、情報処理装置50(制御部51)は、主像Imの座標と、副像Isの座標とに基づいて、主像Imおよび副像Isの距離と、主像Imおよび副像Isを結んだ線分の傾きを計測する。より詳細には、情報処理装置50(制御部51)は、主像Imの光強度がピークとなる点の座標と、副像Isの光強度がピークとなる点の座標とに基づいて、双方の点の距離と、双方の点を結んだ線分の傾きを計測する。その後、情報処理装置50(制御部51)は、得られた距離と、カメラ21の光学倍率mと、ピクセルピッチPpとに基づいて、二重像間隔DIdを導出する。情報処理装置50(制御部51)は、さらに、得られた線分の傾きと、カメラ21の光学倍率mと、ピクセルピッチPpとに基づいて、二重像のズレ角度DIθを導出する。情報処理装置50(制御部51)は、このようにして、二重像の数値化を行う。   At this time, based on the coordinates of the main image Im and the coordinates of the sub-image Is, the information processing device 50 (the control unit 51) determines the distance between the main image Im and the sub-image Is and the main image Im and the sub-image Is. Measure the slope of the connected line segment. More specifically, the information processing device 50 (the control unit 51) performs both based on the coordinates of the point where the light intensity of the main image Im peaks and the coordinates of the point where the light intensity of the sub image Is peaks. The distance between the points and the inclination of the line connecting both points are measured. After that, the information processing device 50 (the control unit 51) derives the double image interval DId based on the obtained distance, the optical magnification m of the camera 21, and the pixel pitch Pp. The information processing device 50 (the control unit 51) further derives a double image shift angle DIθ based on the obtained inclination of the line segment, the optical magnification m of the camera 21, and the pixel pitch Pp. The information processing device 50 (the control unit 51) digitizes the double image in this way.

なお、情報処理装置50(制御部51)は、計測点ごとの計測により得られた複数の画像データ52Cを互いに重ね合わせることにより、合成画像データ52Dを導出してもよい。このようにした場合でも、情報処理装置50(制御部51)は、導出した合成画像データ52Dから、二重像間隔DId、および二重像のズレ角度DIθを算出することができる。   Note that the information processing device 50 (the control unit 51) may derive the composite image data 52D by overlapping a plurality of image data 52C obtained by measurement at each measurement point. Even in such a case, the information processing device 50 (the control unit 51) can calculate the double image interval DId and the double image shift angle DIθ from the derived composite image data 52D.

(歪み)
図17は、歪みの計測方法の一例を表したものである。情報処理装置50(制御部51)は、計測点ごとの計測により得られた複数の画像データ52Cを互いに重ね合わせることにより、合成画像データ52Dを導出する。得られた合成画像データ52Dには、例えば、図17に示したように、複数の虚像Ivが測定点A〜Eごとに1つずつ対応して映し出されている。情報処理装置50(制御部51)は、合成画像データ52Dから、虚像Ivごとに、測定点(本来虚像Ivが投影されるべき基準点)の座標と、虚像Ivの座標とに基づいて、測定点および虚像Ivの距離と、測定点および虚像Ivを結んだ線分の傾きを計測する。より詳細には、情報処理装置50(制御部51)は、上記測定点の座標と、虚像Ivの光強度がピークとなる点の座標とに基づいて、上記測定点および虚像Ivの距離と、測定点および虚像Ivを結んだ線分の傾きを計測する。その後、情報処理装置50(制御部51)は、得られた距離と、カメラ21の光学倍率mと、ピクセルピッチPpとに基づいて、歪み量Sdを導出する。情報処理装置50(制御部51)は、さらに、得られた線分の傾きと、カメラ21の光学倍率mと、ピクセルピッチPpとに基づいて、歪みのズレ角度Sθを算出する。情報処理装置50(制御部51)は、このようにして、歪みの数値化を行う。
(distortion)
FIG. 17 illustrates an example of a distortion measurement method. The information processing device 50 (the control unit 51) derives composite image data 52D by superimposing a plurality of image data 52C obtained by measurement at each measurement point. In the obtained composite image data 52D, for example, as shown in FIG. 17, a plurality of virtual images Iv are displayed one by one for each of the measurement points A to E. The information processing device 50 (the control unit 51) performs measurement from the combined image data 52D for each virtual image Iv based on the coordinates of a measurement point (a reference point on which the virtual image Iv should be projected) and the coordinates of the virtual image Iv. The distance between the point and the virtual image Iv and the inclination of a line connecting the measurement point and the virtual image Iv are measured. More specifically, the information processing device 50 (the control unit 51) calculates the distance between the measurement point and the virtual image Iv based on the coordinates of the measurement point and the coordinates of a point where the light intensity of the virtual image Iv reaches a peak. The inclination of a line connecting the measurement point and the virtual image Iv is measured. After that, the information processing device 50 (the control unit 51) derives the distortion amount Sd based on the obtained distance, the optical magnification m of the camera 21, and the pixel pitch Pp. The information processing device 50 (the control unit 51) further calculates a deviation angle Sθ of the distortion based on the obtained inclination of the line segment, the optical magnification m of the camera 21, and the pixel pitch Pp. The information processing device 50 (the control unit 51) digitizes the distortion in this way.

なお、情報処理装置50(制御部51)は、得られた画像データ52Cごとに、測定点および虚像Ivの距離と、上記測定点および虚像Ivを結んだ線分の傾きとを計測してもよい。このようにした場合でも、情報処理装置50(制御部51)は、各画像データ52Cから、歪み量Sd、および歪みのズレ角度Sθを算出することができる。   Note that the information processing device 50 (the control unit 51) also measures the distance between the measurement point and the virtual image Iv and the inclination of the line connecting the measurement point and the virtual image Iv for each of the obtained image data 52C. Good. Even in such a case, the information processing device 50 (the control unit 51) can calculate the distortion amount Sd and the distortion deviation angle Sθ from each image data 52C.

(ボケ)
図18は、ボケの計測方法の一例を表したものである。情報処理装置50(制御部51)は、計測により得られた画像データ52Cごとに、虚像Iv(例えば主像Im)の光強度分布における半値幅もしくは1/e2幅を、ボケ量として導出する。情報処理装置50(制御部51)は、このようにして、ボケの数値化を行う。
(Bokeh)
FIG. 18 illustrates an example of a method of measuring blur. The information processing device 50 (the control unit 51) derives the half width or 1 / e 2 width in the light intensity distribution of the virtual image Iv (for example, the main image Im) as the blur amount for each image data 52C obtained by the measurement. . The information processing device 50 (the control unit 51) digitizes the blur in this way.

なお、情報処理装置50(制御部51)は、計測点ごとの計測により得られた複数の画像データ52Cを互いに重ね合わせることにより、合成画像データ52Dを導出してもよい。このようにした場合でも、情報処理装置50(制御部51)は、導出した合成画像データ52Dから、虚像Iv(例えば主像Im)の光強度分布における半値幅もしくは1/e2幅を算出することができる。 Note that the information processing device 50 (the control unit 51) may derive the composite image data 52D by overlapping a plurality of image data 52C obtained by measurement at each measurement point. Even in this case, the information processing device 50 (the control unit 51) calculates the half width or the 1 / e 2 width in the light intensity distribution of the virtual image Iv (for example, the main image Im) from the derived composite image data 52D. be able to.

[効果]
次に、本実施の形態に係る透明基材測定装置1の効果について説明する。
[effect]
Next, the effect of the transparent substrate measuring device 1 according to the present embodiment will be described.

HUDシステムの開発を効率よく進める上では、凹面鏡やHUD投影光学系の試作がまだ完成していない時点でも、透明基板単体で、透明基板がHUDシステムの求める光学スペックを満たしているかを評価できることが望ましい。また、ボケ、歪みの原因が透明基板にあるのか、それ以外にあるのかを切り分けるためにも、透明基板単体で評価できることが望ましい。しかしながら、現状では、HUD光学ユニット、凹面鏡、および透明基板を組み合わせて測定を行わざるを得ず、ボケ、歪みの原因が何れに起因しているのかを判別するのが難しい。   In order to efficiently develop a HUD system, it is possible to evaluate whether a transparent substrate satisfies the optical specifications required by the HUD system with a single transparent substrate even when prototypes of concave mirrors and HUD projection optical systems are not yet completed. desirable. It is also desirable that the transparent substrate can be evaluated alone in order to determine whether the cause of blurring or distortion is caused by the transparent substrate or not. However, at present, the measurement must be performed by combining the HUD optical unit, the concave mirror, and the transparent substrate, and it is difficult to determine the cause of the blur or the distortion.

しかし、本実施の形態では、被検体100の所定の個所にピンホール状もしくはスリット状の投影光Lが照射されている間に、投影光Lの、被検体100での反射光Lrが作り出す虚像Ivが撮像される。さらに、撮像により得られた画像データ52Cに基づいて被検体100の光学特性が導出される。これにより、例えば、凹面鏡やHUD光学ユニットを用いずに、被検体100の光学特性を得ることができる。その結果、例えば、二重像、ボケ、歪みなどの光学的な不具合の発生原因を切り分けることができる。また、得られた光学特性に基づいて、被検体100の形状バラツキを評価し、被検体100の設計改善に役立てることができる。   However, in the present embodiment, while a predetermined portion of the subject 100 is irradiated with the pinhole-shaped or slit-shaped projection light L, the virtual image created by the reflected light Lr of the projection light L on the subject 100 Iv is imaged. Further, the optical characteristics of the subject 100 are derived based on the image data 52C obtained by the imaging. Thus, for example, the optical characteristics of the subject 100 can be obtained without using a concave mirror or a HUD optical unit. As a result, for example, the cause of an optical defect such as a double image, blur, or distortion can be identified. In addition, it is possible to evaluate the variation in the shape of the subject 100 based on the obtained optical characteristics, and use it for improving the design of the subject 100.

また、本実施の形態では、投影光Lを出射する光源ユニット11が機構部12によって移動される。機構部12は、投射装置10の位置調整と投射装置10の光軸の角度調整とを可能に構成されている。これにより、被検体100の光学特性を計測する際に、光源ユニット11をあらかじめ位置決めしておくことにより得られた教示データ52Bを機構部12に与えることができる。従って、被検体100の光学特性を計測する際に、光源ユニット11の位置や姿勢を精度よく制御することができる。   In the present embodiment, the light source unit 11 that emits the projection light L is moved by the mechanism unit 12. The mechanism section 12 is configured to be capable of adjusting the position of the projection device 10 and adjusting the angle of the optical axis of the projection device 10. Thus, when measuring the optical characteristics of the subject 100, the teaching data 52B obtained by positioning the light source unit 11 in advance can be provided to the mechanism unit 12. Therefore, when measuring the optical characteristics of the subject 100, the position and orientation of the light source unit 11 can be accurately controlled.

また、本実施の形態では、光源ユニット11では、非点収差の補正、虚像Ivの位置調整、および投射装置10の光軸AX1の角度調整を行うことができる。具体的には、光源ユニット11には、投射装置10の光軸AX1の角度調整や虚像Ivの位置調整を可能に構成された機構部12が設けられている。これにより、被検体100の曲率が例えば3m〜10mの範囲内にある場合において、回折限界まで虚像Ivを結像させることができるので、光源ユニット11の位置や姿勢を変えたときに、光源ユニット11の位置や姿勢に起因する二重像、ボケ、歪みなどの光学的な不具合の発生を低減することができる。従って、被検体100の光学特性を計測する際に、例えば、二重像、ボケ、歪みなどの光学的な不具合の発生原因を切り分けることができる。   In the present embodiment, the light source unit 11 can correct astigmatism, adjust the position of the virtual image Iv, and adjust the angle of the optical axis AX1 of the projection device 10. Specifically, the light source unit 11 is provided with a mechanism section 12 configured to be capable of adjusting the angle of the optical axis AX1 of the projection device 10 and the position of the virtual image Iv. Thereby, when the curvature of the subject 100 is in the range of, for example, 3 m to 10 m, the virtual image Iv can be formed up to the diffraction limit, so that when the position or the posture of the light source unit 11 is changed, It is possible to reduce the occurrence of optical defects such as double images, blur, distortion, and the like due to the position and posture of the eleventh embodiment. Therefore, when measuring the optical characteristics of the subject 100, for example, it is possible to isolate the cause of an optical defect such as a double image, blur, distortion, or the like.

また、本実施の形態では、光源ユニット11には、ピンホール光を出射する光学系(光源111およびピンホールマスク112)と、光源ユニット11の光軸AX1上に配置された投影光学系(一対の平凸レンズ117)と、ピンホール光を出射する光学系(光源111およびピンホールマスク112)と投影光学系(一対の平凸レンズ117)との間に配置された非点収差補正光学系(2つのシリンドリカルレンズ114,115)が設けられている。これにより、光源ユニット11に起因する二重像、ボケ、歪みなどの光学的な不具合の発生を低減することができる。従って、被検体100の光学特性を計測する際に、例えば、二重像、ボケ、歪みなどの光学的な不具合の発生原因を切り分けることができる。   In the present embodiment, the light source unit 11 includes an optical system that emits pinhole light (the light source 111 and the pinhole mask 112) and a projection optical system (a pair of optical systems) disposed on the optical axis AX1 of the light source unit 11. , A plano-convex lens 117), an astigmatism correction optical system (2) disposed between an optical system (a light source 111 and a pinhole mask 112) for emitting pinhole light, and a projection optical system (a pair of plano-convex lenses 117). Two cylindrical lenses 114, 115) are provided. Thereby, it is possible to reduce the occurrence of optical defects such as double images, blurs, and distortions due to the light source unit 11. Therefore, when measuring the optical characteristics of the subject 100, for example, it is possible to isolate the cause of an optical defect such as a double image, blur, distortion, or the like.

また、本実施の形態では、投影光学系(一対の平凸レンズ117)がテレセントリック光学系である。これにより、ピンホール112Aもしくはスリット121Aを機構部113により光軸AX1に対して垂直方向に移動させたときに、光線と被検体100とが交差する位置が変わらず、光線の、被検体100への入射角度のみが変化する。その結果、光源ユニット11の位置や姿勢の微調整を容易に行うことができる。従って、被検体100の光学特性を計測する際に、例えば、二重像、ボケ、歪みなどの光学的な不具合の発生原因を切り分けることができる。   In the present embodiment, the projection optical system (the pair of plano-convex lenses 117) is a telecentric optical system. Accordingly, when the pinhole 112A or the slit 121A is moved in the direction perpendicular to the optical axis AX1 by the mechanism unit 113, the position where the light beam and the subject 100 intersect does not change, and the light beam is transmitted to the subject 100. Only the angle of incidence changes. As a result, fine adjustment of the position and orientation of the light source unit 11 can be easily performed. Therefore, when measuring the optical characteristics of the subject 100, for example, it is possible to isolate the cause of an optical defect such as a double image, blur, distortion, or the like.

また、本実施の形態では、非点収差補正光学系が、レンズ効果のある方向が互いに交差するように配置された2つのシリンドリカルレンズ114,115によって構成されている。さらに、本実施の形態では、2つのシリンドリカルレンズ114,115のうち少なくとも一方が投射装置10の光軸AX1と平行な軸を回転軸として回転可能に支持されている。これにより、非点収差を容易に補正することができるので、被検体100の光学特性を計測する際に、例えば、二重像、ボケ、歪みなどの光学的な不具合の発生原因を切り分けることができる。   Further, in the present embodiment, the astigmatism correction optical system includes two cylindrical lenses 114 and 115 arranged so that directions having a lens effect intersect each other. Further, in the present embodiment, at least one of the two cylindrical lenses 114 and 115 is rotatably supported about an axis parallel to the optical axis AX1 of the projection device 10 as a rotation axis. As a result, astigmatism can be easily corrected, and when measuring the optical characteristics of the subject 100, for example, it is possible to isolate the cause of an optical defect such as a double image, blur, or distortion. it can.

また、本実施の形態では、虚像Ivの非点収差の補正により、回折限界まで虚像Ivを結像させることができる。これにより、カメラ21の角度分解能を目標の角度分解能δにすることが可能である。その結果、二重像、ボケ、歪みなどの光学的な不具合を高精度に計測することができる。   Further, in the present embodiment, the virtual image Iv can be formed up to the diffraction limit by correcting the astigmatism of the virtual image Iv. Thereby, the angular resolution of the camera 21 can be set to the target angular resolution δ. As a result, optical defects such as double images, blur, and distortion can be measured with high accuracy.

また、本実施の形態では、光学特性として虚像Ivの二重像間隔DId、歪み量Sdおよびボケ量が、カメラ21によって得られた画像データ52Cに基づいて導出される。虚像Ivの二重像間隔DId、歪み量Sdおよびボケ量を計測する際に、別個の装置を用いたり、共通の装置で別々に計測したりする必要がない。その結果、二重像、ボケ、歪みなどの光学的な不具合を高速に計測することができる。   In the present embodiment, the double image interval DId, the distortion amount Sd, and the blur amount of the virtual image Iv are derived as optical characteristics based on the image data 52C obtained by the camera 21. When measuring the double image interval DId, the distortion amount Sd, and the blur amount of the virtual image Iv, it is not necessary to use a separate device or separately measure them with a common device. As a result, optical defects such as double images, blur, and distortion can be measured at high speed.

<2.変形例>
以下に、上記実施の形態の透明基材計測装置1の変形例について説明する。なお、以下では、上記実施の形態と共通の構成要素に対しては、上記実施の形態で付されていた符号と同一の符号が付される。また、上記実施の形態と異なる構成要素の説明を主に行い、上記実施の形態と共通の構成要素の説明については、適宜、省略するものとする。
<2. Modification>
Hereinafter, a modified example of the transparent substrate measuring device 1 of the above embodiment will be described. In the following, the same components as those in the above embodiment are denoted by the same reference numerals as those in the above embodiment. In addition, components different from those in the above embodiment will be mainly described, and descriptions of components common to the above embodiment will be omitted as appropriate.

[変形例A]
上記実施の形態において、被検体100として、設計通りに製作されたマスター100Mを用意することができない場合がある。つまり、試作の被検体100の出来が悪く、歪みを抑えることが出来ない場合には、測定点の教示用として用いるマスター100Mとして相応しくない。その場合には、例えば、図19に示したように、マスター100Mとは異なる被検体100を置台30に設置したときに、被検体100が所望の撓み(曲面)となるように被検体100を支持する補正冶具31が置台30に設けられていてもよい。補正冶具31は、投影光Lが通過する領域を避けて配置されていればよい。なお、補正冶具31のような被検体100の自重に頼った補正方法とは異なる方法で、被検体100を補正してもよい。
[Modification A]
In the above embodiment, the master 100M manufactured as designed may not be prepared as the subject 100 in some cases. In other words, when the prototype 100 is poorly formed and distortion cannot be suppressed, it is not suitable as the master 100M used for teaching measurement points. In this case, for example, as shown in FIG. 19, when the subject 100 different from the master 100M is set on the mounting table 30, the subject 100 is bent so that the subject 100 has a desired bending (curved surface). The supporting jig 31 to be supported may be provided on the table 30. The correction jig 31 only needs to be arranged so as to avoid the region through which the projection light L passes. Note that the subject 100 may be corrected by a method different from a correction method based on the weight of the subject 100 such as the correction jig 31.

[変形例B]
上記実施の形態では、投射装置10は、被検体100の複数の個所に投影光Lを順次、照射していた。しかし、例えば、図20に示したように、投射装置10が複数の光源ユニット11を有している場合には、投射装置10は、被検体100の複数の個所に投影光Lを同時に照射してもよい。このようにした場合には、上記実施の形態と比べて、測定時間を大幅に短縮することができる。
[Modification B]
In the above embodiment, the projection device 10 sequentially irradiates the projection light L to a plurality of locations on the subject 100. However, for example, as illustrated in FIG. 20, when the projection device 10 includes a plurality of light source units 11, the projection device 10 simultaneously irradiates the projection light L to a plurality of locations on the subject 100. You may. In this case, the measurement time can be significantly reduced as compared with the above embodiment.

[変形例C]
上記実施の形態において、被検体100として、設計通りに製作されたマスター100Mを用意することができない場合がある。その場合には、被検体100Tを用いて、制御部51は、測定したい複数の測定点の内、1つの測定点においてだけ、教示データ52Bを取得してもよい。そして、残りの測定点における教示データ52Bに関しては、CADやシミュレータソフトの計算で、1点目の測定点の位置との差分を算出し、この差分を実際に取得した測定点における教示データ52Bに加えてやることで、測定精度を十分に満たすオフライン教示が可能になる。
[Modification C]
In the above embodiment, the master 100M manufactured as designed may not be prepared as the subject 100 in some cases. In that case, using the subject 100T, the control unit 51 may acquire the teaching data 52B only at one of the plurality of measurement points to be measured. Then, with respect to the teaching data 52B at the remaining measurement points, a difference from the position of the first measurement point is calculated by CAD or simulator software calculation, and this difference is added to the teaching data 52B at the actually acquired measurement point. In addition, off-line teaching that sufficiently satisfies the measurement accuracy becomes possible.

もちろんすべての点に対しても、オフライン教示することも可能である。しかし、特に絶対位置ズレを計測する歪み測定では、高い精度は望めない。CADやシミュレーションでは、ソフト上での仮想空間に、被検体100、光源ユニット11、カメラ21を配置しているにすぎない。ソフト上の仮想空間と実際の装置においては、位置的なズレ誤差を発生する。例えば、被検体100の取り付け角度が少しでも誤差を持つと、被検体100で反射した光軸は、被検体100の角度誤差の2倍の反射角で反射し、数m離れた虚像表示部では、大きな照射位置ズレを引き起こしてしまうからである。   Of course, all points can be taught off-line. However, high accuracy cannot be expected especially in distortion measurement for measuring an absolute position shift. In CAD and simulation, the subject 100, the light source unit 11, and the camera 21 are merely arranged in a virtual space on software. In the virtual space on the software and the actual device, a positional deviation error occurs. For example, if the mounting angle of the subject 100 has a slight error, the optical axis reflected by the subject 100 is reflected at a reflection angle twice as large as the angle error of the subject 100. This causes a large irradiation position shift.

[変形例D]
本発明は、HUDシステム用の二重像、ボケ、歪みの測定のみでなく、通常の透過像、即ち車の運転者が被検体100越しに見る信号機や道路標識に発生する二重像、ボケ、歪みの測定にも利用できる。
[Modification D]
The present invention not only measures the double image, blur, and distortion for the HUD system, but also a normal transmission image, that is, a double image generated on a traffic signal or a road sign seen through the subject 100 by a vehicle driver, It can also be used for measuring distortion.

1…透明基材計測装置、10…投射装置、11…光源ユニット、12…機構部、20…撮像装置、21…カメラ、22…機構部、30…置台、31…補正冶具、40…ターゲット部、50…情報処理装置、51…制御部、52…記憶部、52A…計測プログラム、52B…教示データ、52C…画像データ、52D…合成画像データ、53…通信部、54…入力部、AX1…光軸、AX2…光軸、100,100T…被検体、100A,100B…主面、100M…マスター、111…光源、112…ピンホールマスク、112A…ピンホール、113…機構部、114,115…シリンドリカルレンズ、116,117…平凸レンズ、118…機構部、121…スリットマスク、121A…スリット、200…観察者、210…瞳孔、220…網膜、AX1,AX2…光軸、D1,D2,D3…間隙、DId…二重像間隔、DIθ…二重像のズレ角度、Id…二重像、Im…主像、Is…副像、Iv1,Iv2,Iv3…虚像、L…投影光、L2,L3…反射光線、α…交差角。



DESCRIPTION OF SYMBOLS 1 ... Transparent base material measuring device, 10 ... Projection device, 11 ... Light source unit, 12 ... Mechanical part, 20 ... Imaging device, 21 ... Camera, 22 ... Mechanical part, 30 ... Placement table, 31 ... Correcting jig, 40 ... Target part , 50 ... Information processing device, 51 ... Control unit, 52 ... Storage unit, 52A ... Measurement program, 52B ... Teaching data, 52C ... Image data, 52D ... Synthetic image data, 53 ... Communication unit, 54 ... Input unit, AX1 ... Optical axis, AX2: Optical axis, 100, 100T: Subject, 100A, 100B: Main surface, 100M: Master, 111: Light source, 112: Pinhole mask, 112A: Pinhole, 113: Mechanical part, 114, 115 ... Cylindrical lens, 116, 117: plano-convex lens, 118: mechanical unit, 121: slit mask, 121A: slit, 200: observer, 210: pupil, 22 ... retina, AX1, AX2 ... optical axis, D1, D2, D3 ... gap, DId ... double image interval, DIθ ... double image shift angle, Id ... double image, Im ... main image, Is ... sub image, Iv1, Iv2, Iv3: virtual image, L: projection light, L2, L3: reflected light, α: crossing angle.



Claims (14)

透明基板の1または複数の個所に点状もしくは線状の投影光を照射可能に構成された投射装置と、
前記投射装置から出射された1または複数の前記投影光の前記透明基板での反射光が作り出す虚像を撮像する撮像装置と、
前記撮像装置による撮像により得られた画像データに基づいて前記透明基板の特性を導出する情報処理装置と
を備え、
前記投射装置は、
1または複数の前記投影光を出射する光源ユニットと、
前記光源ユニット全体を移動させる第1機構部と
を有し、
前記光源ユニットは、
ピンホールを有する点光源もしくはスリットを有する線光源と、
当該投射装置の光軸上に配置されたテレセントリック投影光学系と、
前記点光源もしくは前記線光源と前記テレセントリック投影光学系との間に配置された非点収差補正光学系と、
前記投影光と前記透明基板とが交差する位置を変えずに、前記投影光の前記透明基板への入射角度を変化させる第2機構部と
を有する
透明基材測定装置。
A projection device configured to be capable of irradiating point-like or linear projection light to one or a plurality of portions of the transparent substrate,
An imaging device for imaging a virtual image created by reflected light of the one or more projection lights emitted from the projection device on the transparent substrate,
An information processing device that derives characteristics of the transparent substrate based on image data obtained by imaging by the imaging device,
The projection device,
A light source unit that emits one or more projection lights,
And a first mechanism for moving the entire light source unit,
The light source unit,
A point light source having a pinhole or a line light source having a slit,
A telecentric projection optical system arranged on the optical axis of the projection device,
An astigmatism correction optical system disposed between the point light source or the line light source and the telecentric projection optical system,
A second mechanism for changing the angle of incidence of the projection light on the transparent substrate without changing the position where the projection light intersects with the transparent substrate.
前記第2機構部は、前記ピンホールもしくは前記スリットを移動させることにより、前記投影光と前記透明基板とが交差する位置を変えずに、前記投影光の前記透明基板への入射角度を変化させる
請求項1に記載の透明基材測定装置。
The second mechanism changes the incident angle of the projection light on the transparent substrate without changing the position where the projection light intersects with the transparent substrate by moving the pinhole or the slit. The transparent substrate measuring device according to claim 1.
前記非点収差補正光学系は、レンズ効果のある方向が互いに交差するように配置された2つのシリンドリカルレンズによって構成されている
請求項2に記載の透明基材測定装置。
The transparent base material measuring device according to claim 2, wherein the astigmatism correction optical system includes two cylindrical lenses arranged so that directions having a lens effect intersect each other.
前記2つのシリンドリカルレンズのうち少なくとも一方が当該投射装置の光軸と平行な軸を回転軸として回転可能に支持されている
請求項3に記載の透明基材測定装置。
The transparent substrate measuring device according to claim 3, wherein at least one of the two cylindrical lenses is rotatably supported around an axis parallel to an optical axis of the projection device as a rotation axis.
前記第1機構部は、当該投射装置の位置調整と当該投射装置の光軸の角度調整とを可能に構成されている
請求項2から請求項4のいずれか一項に記載の透明基材測定装置。
The transparent substrate measurement according to any one of claims 2 to 4, wherein the first mechanism unit is configured to be capable of adjusting a position of the projection device and an angle of an optical axis of the projection device. apparatus.
前記第1機構部は、当該投射装置の光軸に対して垂直方向に移動するXYの2軸と、当該投射装置の光軸方向に移動するZの1軸と、XZ平面内およびYZ平面内で回転する2軸の合計5軸で、前記光源ユニット全体を移動させる機構を有している
請求項5に記載の透明基材測定装置。
The first mechanism section includes two axes XY moving in a direction perpendicular to the optical axis of the projection device, one axis Z moving in the optical axis direction of the projection device, an XZ plane and a YZ plane. The transparent base material measuring apparatus according to claim 5, further comprising a mechanism for moving the entire light source unit with a total of five axes, that is, two axes rotating in the direction.
前記撮像装置の開口数は、以下の式を満たす
請求項1から請求項6のいずれか一項に記載の透明基材測定装置。
1.22λ/NA≧2Pp
λ:前記投射装置の波長
NA:前記撮像装置の開口数
Pp:前記撮像装置のピクセルピッチ
The transparent substrate measuring device according to any one of claims 1 to 6, wherein a numerical aperture of the imaging device satisfies the following expression.
1.22λ / NA ≧ 2Pp
λ: wavelength of the projection device NA: numerical aperture of the imaging device Pp: pixel pitch of the imaging device
前記情報処理装置は、前記特性として、前記虚像の二重像間隔、歪み量およびボケ量を含む光学特性を、前記画像データに基づいて導出する
請求項1から請求項7のいずれか一項に記載の透明基材測定装置。
The information processing device according to any one of claims 1 to 7, wherein the information processing device derives, as the characteristic, an optical characteristic including a double image interval, a distortion amount, and a blur amount of the virtual image based on the image data. The transparent substrate measuring device according to the above.
前記情報処理装置は、前記画像データに含まれる主像と副像との距離と、前記撮像装置の光学倍率と、前記撮像装置のピクセルピッチとに基づいて、前記虚像の二重像間隔を導出する
請求項8に記載の透明基材測定装置。
The information processing device derives a double image interval of the virtual image based on a distance between a main image and a sub image included in the image data, an optical magnification of the imaging device, and a pixel pitch of the imaging device. The transparent substrate measuring device according to claim 8.
前記情報処理装置は、前記画像データに含まれる主像と基準点との距離と、前記撮像装置の光学倍率と、前記撮像装置のピクセルピッチとに基づいて、前記虚像の歪みを導出する
請求項8に記載の透明基材測定装置。
The information processing device derives a distortion of the virtual image based on a distance between a main image and a reference point included in the image data, an optical magnification of the imaging device, and a pixel pitch of the imaging device. 9. The transparent substrate measuring device according to 8.
前記情報処理装置は、前記画像データに含まれる前記虚像の光強度分布における半値幅もしくは1/e2幅を、前記ボケ量として導出する
請求項8に記載の透明基材測定装置。
The transparent substrate measuring device according to claim 8, wherein the information processing device derives a half width or a 1 / e 2 width in a light intensity distribution of the virtual image included in the image data as the blur amount.
前記投射装置は、前記透明基板の複数の箇所に前記投影光を同時もしくは順次、照射する
請求項1から請求項11のいずれか一項に記載の透明基材測定装置。
The transparent base material measuring device according to any one of claims 1 to 11, wherein the projection device irradiates the projection light to a plurality of portions of the transparent substrate simultaneously or sequentially.
透明基板の所定の箇所に点状もしくは線状の投影光を光源ユニットから照射している間に、前記投影光の、前記透明基板での反射光が作り出す虚像が、指定した測定点に移動するように、前記投影光と前記透明基板とが交差する位置を変えずに、前記投影光の前記透明基板への入射角度を変化させることにより、前記光源ユニットの位置および姿勢の調整を行うことと、
前記調整の完了後に得られた前記虚像を撮像することと、
前記虚像の撮像により得られた画像データに基づいて前記透明基板の特性を導出することと
を含み、
前記光源ユニットは、
ピンホールを有する点光源もしくはスリットを有する線光源と、
当該投射装置の光軸上に配置されたテレセントリック投影光学系と、
前記点光源もしくは前記線光源と前記テレセントリック投影光学系との間に配置された非点収差補正光学系と
を有し、
当該透明基板測定方法は、前記ピンホールもしくは前記スリットを移動させることにより、前記投影光と前記透明基板とが交差する位置を変えずに、前記投影光の前記透明基板への入射角度を変化させることを更に含む
透明基板測定方法。
While irradiating point-like or linear projection light from a light source unit to a predetermined portion of the transparent substrate, a virtual image created by the reflected light of the transparent substrate on the transparent substrate moves to a designated measurement point. As described above, without changing the position where the projection light intersects with the transparent substrate, by changing the angle of incidence of the projection light on the transparent substrate, adjusting the position and orientation of the light source unit. ,
Imaging the virtual image obtained after the completion of the adjustment;
Look including a deriving properties of the transparent substrate on the basis of image data obtained by imaging the virtual image,
The light source unit,
A point light source having a pinhole or a line light source having a slit,
A telecentric projection optical system arranged on the optical axis of the projection device,
An astigmatism correction optical system disposed between the point light source or the line light source and the telecentric projection optical system;
Has,
The transparent substrate measuring method, by moving the pinhole or the slit, without changing the position where the projection light and the transparent substrate intersect, changing the incident angle of the projection light to the transparent substrate A method for measuring a transparent substrate , further comprising :
前記透明基板の複数箇所に対して前記調整を行うことと、
前記透明基板の、前記調整を行った各個所に順次、前記投影光を前記光源ユニットから照射している間に、前記投影光の、前記調整を行った各個所での反射光が作り出す虚像を撮像することと、
虚像の撮像によって得られた複数の画像データに基づいて前記透明基板の特性を導出することと
を更に含む
請求項13に記載の透明基板測定方法。
Performing the adjustment on a plurality of locations on the transparent substrate;
On the transparent substrate, sequentially at each location where the adjustment was performed, while irradiating the projection light from the light source unit, a virtual image created by the reflected light at each location where the adjustment was performed, of the projection light. Imaging,
The transparent substrate measuring method according to claim 13 , further comprising: deriving characteristics of the transparent substrate based on a plurality of pieces of image data obtained by capturing a virtual image.
JP2015245604A 2015-12-16 2015-12-16 Transparent substrate measuring device and transparent substrate measuring method Expired - Fee Related JP6670429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015245604A JP6670429B2 (en) 2015-12-16 2015-12-16 Transparent substrate measuring device and transparent substrate measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015245604A JP6670429B2 (en) 2015-12-16 2015-12-16 Transparent substrate measuring device and transparent substrate measuring method

Publications (2)

Publication Number Publication Date
JP2017111013A JP2017111013A (en) 2017-06-22
JP6670429B2 true JP6670429B2 (en) 2020-03-25

Family

ID=59081234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015245604A Expired - Fee Related JP6670429B2 (en) 2015-12-16 2015-12-16 Transparent substrate measuring device and transparent substrate measuring method

Country Status (1)

Country Link
JP (1) JP6670429B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7331618B2 (en) * 2019-10-21 2023-08-23 Agc株式会社 Glass inspection device, glass inspection method
JP7478084B2 (en) 2020-11-20 2024-05-02 株式会社キーエンス Optical Measuring Device
CN114754700B (en) * 2022-04-29 2023-08-18 江苏立晶工业科技有限公司 Method and device for detecting curvature of windshield

Also Published As

Publication number Publication date
JP2017111013A (en) 2017-06-22

Similar Documents

Publication Publication Date Title
CN110308557B (en) Display system, electron mirror system, moving object, and display method
JP4649319B2 (en) Gaze detection device, gaze detection method, and gaze detection program
US20170169612A1 (en) Augmented reality alignment system and method
EP3444584B1 (en) Inspecting device and inspecting method
US8396251B2 (en) Method for determining the position of an object from a digital image
JP6670429B2 (en) Transparent substrate measuring device and transparent substrate measuring method
JP2006054504A (en) Image generating method and apparatus
CN112649959B (en) Head-up display calibration
CN110006634B (en) Viewing field angle measuring method, viewing field angle measuring device, display method and display equipment
JP4217100B2 (en) Image composition method, apparatus, and program, and stereo model rendering method, apparatus, and program
JP2010183265A (en) Image display device and method for calculating camera-mounting angle of the same
EP1197729A1 (en) Shape measuring device
CN112738491B (en) Correction method of projection reflection picture
JP6582683B2 (en) Angle calculation system, angle calculation device, program, and angle calculation method
JP2015179019A (en) Optic axis orientation device
GB2559605A (en) Apparatus and method for controlling a vehicle display
US10338396B2 (en) Optical system and a method for operating an HUD
JP2016170052A (en) Eye detector and vehicle display system
WO2022004248A1 (en) Information processing device, information processing method, and program
US20190268519A1 (en) A bundle adjustment system
JP5560600B2 (en) Head motion tracker device
JP2019056950A (en) Inspection apparatus and inspection method
JP7207889B2 (en) Range finder and in-vehicle camera system
JP7318190B2 (en) Shape measuring device, shape measuring method and shape measuring program
JP2007333525A (en) Distance measurement device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200116

R150 Certificate of patent or registration of utility model

Ref document number: 6670429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees