JP7331618B2 - Glass inspection device, glass inspection method - Google Patents

Glass inspection device, glass inspection method Download PDF

Info

Publication number
JP7331618B2
JP7331618B2 JP2019192091A JP2019192091A JP7331618B2 JP 7331618 B2 JP7331618 B2 JP 7331618B2 JP 2019192091 A JP2019192091 A JP 2019192091A JP 2019192091 A JP2019192091 A JP 2019192091A JP 7331618 B2 JP7331618 B2 JP 7331618B2
Authority
JP
Japan
Prior art keywords
image
double
point
optical path
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019192091A
Other languages
Japanese (ja)
Other versions
JP2021067528A (en
Inventor
実 安川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AGC Inc
Original Assignee
Asahi Glass Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Glass Co Ltd filed Critical Asahi Glass Co Ltd
Priority to JP2019192091A priority Critical patent/JP7331618B2/en
Publication of JP2021067528A publication Critical patent/JP2021067528A/en
Application granted granted Critical
Publication of JP7331618B2 publication Critical patent/JP7331618B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ガラスの検査装置、ガラスの検査方法に関する。 The present invention relates to a glass inspection apparatus and a glass inspection method.

ヘッドアップディスプレイユニット(以下、HUDユニットとする)は、車両に搭載され、画像を凹面鏡で拡大して車両のガラスに投影し、画像の虚像を車両の内部から運転者に視認可能に表示させる装置である。運転者による虚像の視認性は、画像が投影されるガラスの品質に影響されるため、画像が投影されるガラスの品質を検査することは重要である。 A head-up display unit (hereinafter referred to as a HUD unit) is a device mounted on a vehicle that magnifies an image with a concave mirror and projects it onto the glass of the vehicle to display a virtual image of the image so that it can be visually recognized by the driver from inside the vehicle. is. Since the driver's visibility of the virtual image is affected by the quality of the glass onto which the image is projected, it is important to inspect the quality of the glass onto which the image is projected.

HUDユニットでは凹面鏡を介して画像を投影するため、画像が投影されるガラスの品質を検査する際は、凹面鏡を含むHUDユニットを用いて検査する方法が一般的である(例えば、特許文献1参照)。 Since the HUD unit projects an image through a concave mirror, when inspecting the quality of the glass on which the image is projected, it is common to use a HUD unit that includes a concave mirror (see, for example, Patent Document 1). ).

特開2015-75381号公報JP 2015-75381 A

しかしながら、HUDユニットは車種ごとに異なり、HUDユニットの生産準備中には入手が困難である。又、ガラスの検査の際にHUDユニットの凹面鏡を動かす場合があるが、凹面鏡を動かすための制御回路や制御プログラムが必要となり、準備に時間を要する。又、ガラスの検査の際にHUDユニットの凹面鏡を動かすと、HUDユニットの耐久性も問題となる。このように、ガラスの検査にHUDユニットを使用することは様々な問題を含んでいる。 However, HUD units differ from vehicle to vehicle, and are difficult to obtain during preparation for production of HUD units. In addition, the concave mirror of the HUD unit may be moved when inspecting the glass, but a control circuit and control program for moving the concave mirror are required, which requires time for preparation. Further, if the concave mirror of the HUD unit is moved during glass inspection, the durability of the HUD unit becomes a problem. Thus, using a HUD unit for inspecting glass poses various problems.

本発明は、上記の点に鑑みてなされたものであり、HUDユニットを用いずに、HUDユニットの画像が投影されるガラスの品質の検査が可能なガラスの検査装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a glass inspection apparatus capable of inspecting the quality of glass on which an image of a HUD unit is projected without using a HUD unit. do.

本ガラスの検査装置は、ヘッドアップディスプレイユニットと組み合わせて用いられるガラスの検査装置であって、画像表示器と、前記画像表示器に表示された検査用画像が前記ガラスに投影されて生成された虚像を撮像する撮像器と、前記撮像器が撮像した前記虚像の画像データを処理する画像処理部と、前記ヘッドアップディスプレイユニットの光学系の設計データを予め記憶している記憶部と、を有し、重力方向をZ方向とし、前記Z方向と交差する平面内で互いに交差するX方向及びY方向を規定したときに、前記画像表示器は少なくとも第1位置及び前記第1位置とはZ方向の座標が異なる第2位置に移動可能に構成され、前記画像処理部は、前記画像表示器が前記第1位置にあるときに、前記虚像の任意の点を形成するための元となる光線が出射される前記検査用画像の点の第1XY座標を求める第1XY座標算出部と、前記画像表示器が前記第2位置にあるときに、前記虚像の任意の点を形成するための元となる光線が出射される前記検査用画像の点の第2XY座標を求める第2XY座標算出部と、前記虚像の同一の点を形成する際の元となる光線が出射される前記第1XY座標と前記第2XY座標を特定することで、前記虚像の表示領域全体の各点を形成するための元となる光線の光路を特定する光路特定部と、前記光路特定部が特定した前記光路に基づいて、前記ガラスの品質に関連するデータを算出するデータ算出部と、を有し、前記虚像は、主像と二重像を含み、前記第1XY座標算出部は、前記画像表示器が前記第1位置にあるときに、前記主像の任意の点を形成するための元となる主像光線が出射される前記検査用画像の点の主像第1XY座標を求めると共に、前記二重像の任意の点を形成するための元となる二重像光線が出射される前記検査用画像の点の二重像第1XY座標を求め、前記第2XY座標算出部は、前記画像表示器が前記第2位置にあるときに、前記主像の任意の点を形成するための元となる主像光線が出射される前記検査用画像の点の主像第2XY座標を求めると共に、前記二重像の任意の点を形成するための元となる二重像光線が出射される前記検査用画像の点の二重像第2XY座標を求め、前記光路特定部は、前記主像の同一の点を形成する際の元となる主像光線が出射される前記主像第1XY座標と前記主像第2XY座標を特定することで、前記主像の表示領域全体の各点を形成するための元となる主像光線の光路を特定すると共に、前記二重像の同一の点を形成する際の元となる二重像光線が出射される二重像第1XY座標と二重像第2XY座標を特定することで、前記二重像の表示領域全体の各点を形成するための元となる二重像光線の光路を特定し、さらに前記記憶部から読み出した前記設計データに基づいて、前記ヘッドアップディスプレイユニットの凹面鏡及び光源の位置を特定し、前記凹面鏡及び前記光源の位置と前記主像光線の光路とに基づいて、前記主像光線の光路に光を出射する前記光源の出射位置を特定する
The present glass inspection apparatus is a glass inspection apparatus used in combination with a head-up display unit, and includes an image display and an inspection image displayed on the image display, which is projected onto the glass. An imaging device that captures a virtual image, an image processing unit that processes image data of the virtual image captured by the imaging device , and a storage unit that stores design data of an optical system of the head-up display unit in advance. When the direction of gravity is defined as the Z direction, and the X direction and the Y direction that intersect each other in a plane that intersects the Z direction are defined, the image display device is positioned at least at a first position and the first position is in the Z direction. The image processing unit is configured to be able to move to a second position where the coordinates of the a first XY coordinate calculator for obtaining a first XY coordinate of a point of the emitted inspection image; and a base for forming an arbitrary point of the virtual image when the image display is at the second position. a second XY coordinate calculator for calculating a second XY coordinate of a point of the inspection image from which a light ray is emitted; an optical path specifying unit that specifies an optical path of a light ray that forms each point in the entire display area of the virtual image by specifying 2XY coordinates; and based on the optical path specified by the optical path specifying unit, the a data calculation unit that calculates data related to the quality of the glass, the virtual image includes a main image and a double image, and the first XY coordinate calculation unit calculates the image display at the first position. At a certain time, the main image first XY coordinates of the point of the inspection image from which the main image ray that is the source for forming the arbitrary point of the main image is emitted are obtained, and the arbitrary point of the double image is obtained. The double image first XY coordinates of the point of the inspection image from which the double image light rays that form the basis for forming the image are emitted, and the second XY coordinate calculation unit calculates At a certain time, the main image second XY coordinates of the point of the inspection image from which the main image ray that is the source for forming the arbitrary point of the main image is emitted are obtained, and the arbitrary point of the double image is obtained. The second XY coordinates of the point of the inspection image from which the double image light rays that form the basis for forming the double image are obtained, and the optical path specifying unit calculates By specifying the main image first XY coordinates and the main image second XY coordinates from which the original principal image ray is emitted, the principal image ray serving as the original for forming each point in the entire display area of the main image By specifying the optical path of and specifying the double image first XY coordinates and the double image second XY coordinates from which the double image light rays that are the originals when forming the same point of the double image are emitted, The concave mirror of the head-up display unit is specified based on the design data read out from the storage unit, and the optical paths of the double image rays that are the original for forming each point in the entire display area of the double image are specified. and a position of a light source, and based on the positions of the concave mirror and the light source and the optical path of the principal image ray, the emission position of the light source that emits light to the optical path of the principal image ray is identified.

開示の一実施態様によれば、HUDユニットを用いずに、HUDユニットの画像が投影されるガラスの品質の検査が可能なガラスの検査装置を提供できる。 According to one embodiment of the disclosure, it is possible to provide a glass inspection apparatus capable of inspecting the quality of glass onto which an image of a HUD unit is projected without using a HUD unit.

本実施形態に係る検査装置の一例を示す模式図である。It is a mimetic diagram showing an example of an inspection device concerning this embodiment. 本実施形態に係る検査装置の制御部のハードウェアブロック図の一例である。It is an example of the hardware block diagram of the control part of the inspection apparatus which concerns on this embodiment. 本実施形態に係る検査装置の制御部の機能ブロック図の一例である。It is an example of the functional block diagram of the control part of the inspection apparatus which concerns on this embodiment. 本実施形態に係る検査装置を用いた検査方法を示すフローチャートの一例である。It is an example of the flowchart which shows the inspection method using the inspection apparatus which concerns on this embodiment. 図4のステップS103の詳細を示すフローチャートの一例である。FIG. 5 is an example of a flowchart showing details of step S103 in FIG. 4; FIG. 図5のステップS201からS206までの処理を模式的に示す図である。FIG. 6 is a diagram schematically showing the processing from steps S201 to S206 in FIG. 5; 第1位置においてX座標線画像の表示位置をX方向に移動させる様子を模式的に示す図である。FIG. 7 is a diagram schematically showing how the display position of the X-coordinate line image is moved in the X direction at the first position; 図5のステップS213からS216までの処理を模式的に示す図である。FIG. 6 is a diagram schematically showing the processing from steps S213 to S216 in FIG. 5; 第1位置においてY座標線画像の表示位置をY方向に移動させる様子を模式的に示す図である。FIG. 10 is a diagram schematically showing how the display position of the Y-coordinate line image is moved in the Y direction at the first position; 図4のステップS104の詳細を示すフローチャートの一例である。FIG. 5 is an example of a flowchart showing details of step S104 in FIG. 4. FIG. 図10のステップS301からS306までの処理を模式的に示す図である。FIG. 11 is a diagram schematically showing the processing from steps S301 to S306 in FIG. 10; 第2位置においてX座標線画像の表示位置をX方向に移動させる様子を模式的に示す図である。FIG. 10 is a diagram schematically showing how the display position of the X-coordinate line image is moved in the X direction at the second position; 図10のステップS313からS316までの処理を模式的に示す図である。FIG. 11 is a diagram schematically showing the processing from steps S313 to S316 in FIG. 10; 第2位置においてY座標線画像の表示位置をY方向に移動させる様子を模式的に示す図である。FIG. 10 is a diagram schematically showing how the display position of the Y-coordinate line image is moved in the Y direction at the second position; 図4のステップS105の詳細を示すフローチャートの一例である。FIG. 5 is an example of a flowchart showing details of step S105 in FIG. 4; FIG. X座標線画像及びY座標線画像の虚像のデータの一例である。It is an example of virtual image data of an X-coordinate line image and a Y-coordinate line image. X座標線画像及びY座標線画像の主像のデータの一例である。It is an example of main image data of an X-coordinate line image and a Y-coordinate line image. 主像を画素ごとにラベリングして座標を特定する例を示す図である。FIG. 4 is a diagram showing an example of labeling a main image for each pixel and specifying coordinates; 第1位置の主像投影行列の一例を示す図である。FIG. 4 is a diagram showing an example of a main image projection matrix at a first position; X座標線画像の移動と虚像の移動を模式的に示す図(その1)である。FIG. 4 is a diagram (part 1) schematically showing movement of an X-coordinate line image and movement of a virtual image; X座標線画像の移動と虚像の移動を模式的に示す図(その2)である。FIG. 11 is a diagram (part 2) schematically showing the movement of the X-coordinate line image and the movement of the virtual image; X座標線画像の移動と虚像の移動を模式的に示す図(その3)である。FIG. 3 is a diagram (part 3) schematically showing movement of an X-coordinate line image and movement of a virtual image; X座標線画像の移動と虚像の移動を模式的に示す図(その4)である。FIG. 4 is a diagram (4) schematically showing the movement of the X-coordinate line image and the movement of the virtual image; Y座標線画像の移動と虚像の移動を模式的に示す図(その1)である。FIG. 10 is a diagram (part 1) schematically showing movement of a Y-coordinate line image and movement of a virtual image; Y座標線画像の移動と虚像の移動を模式的に示す図(その2)である。FIG. 11 is a diagram (part 2) schematically showing movement of a Y-coordinate line image and movement of a virtual image; Y座標線画像の移動と虚像の移動を模式的に示す図(その3)である。FIG. 11 is a diagram (part 3) schematically showing the movement of the Y-coordinate line image and the movement of the virtual image; Y座標線画像の移動と虚像の移動を模式的に示す図(その4)である。FIG. 12 is a diagram (part 4) schematically showing the movement of the Y-coordinate line image and the movement of the virtual image; 第1位置及び第2位置の主像投影行列の一例を示す図である。FIG. 4 is a diagram showing an example of a main image projection matrix for first and second positions; 第2位置におけるXY座標の特定について説明する図である。It is a figure explaining specification of the XY coordinate in a 2nd position. 主像光線の特定について説明する図である。It is a figure explaining specification of a principal image ray. HUDユニットの凹面鏡及び光源の位置の特定について説明する図である。It is a figure explaining the identification of the concave mirror of a HUD unit, and the position of a light source. 光源の任意の出射位置に対する虚像表示領域内の主像の表示位置の特定について説明する図である。FIG. 10 is a diagram for explaining identification of a display position of a main image within a virtual image display area with respect to an arbitrary emission position of a light source; 図4のステップS106の詳細を示すフローチャートの一例である。FIG. 5 is an example of a flowchart showing details of step S106 in FIG. 4; FIG. 本実施形態に係る検査装置を用いたガラスのパラメータの検査方法を示すフローチャートの一例である。It is an example of the flowchart which shows the inspection method of the parameter of glass using the inspection apparatus which concerns on this embodiment. 本実施形態に係る検査装置を用いたガラスのパラメータの検査方法について説明する図である。It is a figure explaining the inspection method of the parameter of glass using the inspection apparatus which concerns on this embodiment.

以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一構成部分には同一符号を付し、重複した説明を省略する場合がある。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In each drawing, the same components are denoted by the same reference numerals, and redundant description may be omitted.

[検査装置の概要]
図1は、本実施形態に係る検査装置の一例を示す模式図である。図1を参照すると、検査装置1は、HUDユニットを用いずに、HUDユニットと組み合わせて用いられるガラスの検査が可能な検査装置であり、画像表示器10と、撮像器20と、制御部30と、検査結果出力部40とを有する。検査装置1は、HUDユニットと組み合わせて用いられるガラスの品質に関連するデータを算出可能である。
[Outline of inspection equipment]
FIG. 1 is a schematic diagram showing an example of an inspection apparatus according to this embodiment. Referring to FIG. 1, an inspection apparatus 1 is an inspection apparatus capable of inspecting glass used in combination with a HUD unit without using a HUD unit. , and an inspection result output unit 40 . The inspection device 1 can calculate data relating to the quality of the glass used in combination with the HUD unit.

ここで、ガラスの品質に関連するデータとは、例えば、HUDユニットからの光がガラスで反射されて生成される虚像における主像歪みや二重像歪み(主像と二重像との距離)、ガラスの厚さや面形状や楔角等である。 Here, the data related to the quality of the glass means, for example, main image distortion and double image distortion (distance between the main image and the double image) in a virtual image generated by the light from the HUD unit being reflected by the glass. , glass thickness, surface shape, wedge angle, and the like.

以降の説明では、検査対象物であるガラスの一例として車両用のウィンドシールド(WS50)を例示するが、検査対象物であるガラスは車両のウィンドシールドには限定されない。 In the following description, a vehicle windshield (WS50) is exemplified as an example of the glass that is the inspection object, but the glass that is the inspection object is not limited to the vehicle windshield.

図1において、WS50は、車両に取り付けた場合と同様の角度で取り付けられている。又、図1において、60は、画像表示器10が表示する検査用画像がWS50で反射され、撮像器20で撮像される虚像を示している。つまり、60は、撮像器20の位置に車両の運転者が搭乗していたとしたら視認できる虚像である。以下、検査装置1について、詳しく説明する。 In FIG. 1, the WS 50 is mounted at the same angle as when mounted on the vehicle. In FIG. 1, reference numeral 60 denotes a virtual image captured by the imaging device 20 after the inspection image displayed by the image display 10 is reflected by the WS 50 . That is, 60 is a virtual image that can be visually recognized if the driver of the vehicle were on board at the position of the imaging device 20 . The inspection device 1 will be described in detail below.

画像表示器10は、制御部30の制御により検査用画像を生成して表示する。画像表示器10に表示された検査用画像は、ミラー等の光学素子を介さずにWS50に直接投影され、虚像60が生成される。画像表示器10としては、例えば、液晶表示装置等が用いられる。 The image display 10 generates and displays an inspection image under the control of the control section 30 . The inspection image displayed on the image display 10 is directly projected onto the WS 50 without passing through an optical element such as a mirror to generate a virtual image 60 . As the image display device 10, for example, a liquid crystal display device or the like is used.

重力方向(WS50を車両に取り付けたときの垂直方向)をZ方向とし、Z方向と交差する平面内で互いに交差するX方向及びY方向を規定したときに、画像表示器10は、制御部30に制御されて、Z方向の座標が異なる少なくとも2つの位置(例えば、後述の第1位置及び第2位置)に移動可能に構成されている。 When the direction of gravity (vertical direction when the WS 50 is attached to the vehicle) is defined as the Z direction, and the X direction and the Y direction that intersect each other in a plane that intersects the Z direction are defined, the image display device 10 controls the control unit 30 , and can move to at least two positions having different coordinates in the Z direction (for example, a first position and a second position, which will be described later).

以降の説明では、画像表示器10はZ方向に移動可能であるとし、Z方向と直交する平面内で互いに直交するX方向及びY方向を規定し、X方向はWS50を車両に取り付けたときの車両の前後方向、Y方向はWS50を車両に取り付けたときの車両の左右方向とする。但し、これには限定されず、例えば、画像表示器10はZ方向に対して斜めの方向に移動させてもよい。又、X方向とY方向とは互いに直交していなくてもよい。 In the following description, it is assumed that the image display device 10 is movable in the Z direction, and the X direction and the Y direction are defined in a plane perpendicular to the Z direction. The longitudinal direction of the vehicle and the Y direction are the lateral directions of the vehicle when the WS 50 is attached to the vehicle. However, it is not limited to this, and for example, the image display device 10 may be moved in a direction oblique to the Z direction. Also, the X direction and the Y direction need not be orthogonal to each other.

撮像器20は、画像表示器10に表示された検査用画像がWS50に投影されて生成された虚像60を撮像する。撮像器20は、虚像60を撮像可能とするため、撮像方向が水平面内及び垂直面内で任意の角度に調整可能に構成されている。又、撮像器20は、X方向、Y方向、及びZ方向に移動可能に構成されている。撮像器20は、例えば、制御部30に制御されて所定方向に移動する。なお、撮像方向は、実使用時における車両の運転者の視線方向と対応する。撮像器20としては、例えば、CCD(Charge-Coupled Device)カメラやCMOS(Complementary Metal-Oxide-Semiconductor)カメラ等を用いることができる。 The imaging device 20 captures a virtual image 60 generated by projecting the inspection image displayed on the image display 10 onto the WS 50 . In order to capture the virtual image 60, the imaging device 20 is configured such that the imaging direction can be adjusted to any angle within the horizontal plane and the vertical plane. Also, the imaging device 20 is configured to be movable in the X, Y and Z directions. The imaging device 20 moves in a predetermined direction under the control of the control unit 30, for example. Note that the imaging direction corresponds to the line-of-sight direction of the vehicle driver during actual use. As the imaging device 20, for example, a CCD (Charge-Coupled Device) camera, a CMOS (Complementary Metal-Oxide-Semiconductor) camera, or the like can be used.

制御部30は、画像表示器10、撮像器20、検査結果出力部40等を制御する部である。制御部30については、後述する。 The control unit 30 is a unit that controls the image display device 10, the imaging device 20, the inspection result output unit 40, and the like. The control unit 30 will be described later.

検査結果出力部40は、検査装置1の検査結果を出力する部である。検査結果出力部40として、例えば、液晶表示装置や有機EL表示装置等を用い、検査結果を画像や数値として視認可能に表示してもよい。或いは、検査結果出力部40は、検査結果をデータとして外部に出力する構成としてもよいし、検査結果を音として外部に出力する構成としてもよいし、その他の構成としてもよい。 The inspection result output unit 40 is a unit that outputs inspection results of the inspection apparatus 1 . As the inspection result output unit 40, for example, a liquid crystal display device, an organic EL display device, or the like may be used to visually display the inspection result as an image or numerical value. Alternatively, the inspection result output unit 40 may be configured to output the inspection result as data to the outside, may be configured to output the inspection result to the outside as sound, or may be configured in another way.

図2は、本実施形態に係る検査装置の制御部のハードウェアブロック図の一例である。図2に示すように、制御部30は、主要な構成要素として、CPU31と、ROM32と、RAM33と、I/F34と、バスライン35とを有している。CPU31、ROM32、RAM33、及びI/F34は、バスライン35を介して相互に接続されている。制御部30は、必要に応じ、他のハードウェアブロックを有しても構わない。 FIG. 2 is an example of a hardware block diagram of the controller of the inspection apparatus according to this embodiment. As shown in FIG. 2, the control unit 30 has a CPU 31, a ROM 32, a RAM 33, an I/F 34, and a bus line 35 as main components. The CPU 31 , ROM 32 , RAM 33 and I/F 34 are interconnected via a bus line 35 . The control unit 30 may have other hardware blocks as needed.

CPU31は、制御部30の各機能を制御する。記憶部であるROM32は、CPU31が制御部30の各機能を制御するために実行するプログラムや、各種情報を記憶している。記憶部であるRAM33は、CPU31のワークエリア等として使用される。又、RAM33は、所定の情報を一時的に記憶できる。I/F34は、他の機器等と接続するためのインターフェイスであり、例えば、外部ネットワーク等と接続される。 The CPU 31 controls each function of the control section 30 . The ROM 32, which is a storage unit, stores programs executed by the CPU 31 to control each function of the control unit 30 and various information. A RAM 33, which is a storage unit, is used as a work area for the CPU 31 and the like. Also, the RAM 33 can temporarily store predetermined information. The I/F 34 is an interface for connecting with other devices and the like, and is connected with an external network or the like, for example.

制御部30は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、所定の機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、又はGPU(Graphics Processing Unit)であってもよい。又、制御部30は、回路モジュール等であってもよい。 The control unit 30 includes a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, an ASIC (Application Specific Integrated Circuit) designed to execute a predetermined function, a DSP (digital signal processor), FPGA (field programmable gate array), SOC (System on a chip), or GPU (Graphics Processing Unit). Also, the control unit 30 may be a circuit module or the like.

図3は、本実施形態に係る検査装置の制御部の機能ブロック図の一例である。図3に示すように、制御部30は、主要な機能ブロックとして、表示器位置決め部310と、表示器制御部320と、撮像器制御部330と、画像処理部340とを有している。画像処理部340は、撮像器20が撮像した虚像の画像データを処理する部であり、第1XY座標算出部341と、第2XY座標算出部342と、光路特定部343と、データ算出部344とを有している。制御部30は、必要に応じ、他の機能ブロックを有しても構わない。又、画像処理部340は、必要に応じ、他の機能ブロックを有しても構わない。制御部30の各機能ブロックの機能については、後述のフローチャートの説明の中で述べる。 FIG. 3 is an example of a functional block diagram of the control unit of the inspection apparatus according to this embodiment. As shown in FIG. 3, the control section 30 has a display positioning section 310, a display control section 320, an imaging device control section 330, and an image processing section 340 as main functional blocks. The image processing unit 340 is a unit that processes image data of a virtual image captured by the imaging device 20, and includes a first XY coordinate calculation unit 341, a second XY coordinate calculation unit 342, an optical path identification unit 343, and a data calculation unit 344. have. The control unit 30 may have other functional blocks as necessary. Also, the image processing unit 340 may have other functional blocks as necessary. The function of each functional block of the control unit 30 will be described in the explanation of the flow chart below.

[検査装置を用いた検査方法]
図4は、本実施形態に係る検査装置を用いた検査方法を示すフローチャートの一例である。まず、ステップS101では、WS50をセッティングする。実使用時のWS50とHUDユニットとの位置関係は車種ごとに設定されているので、ここでは、WS50と画像表示器10との位置関係が実使用時の設定に対応するように、WS50を所定位置にセッティングする。WS50は、例えば、ベルトコンベアーに搭載されて運ばれ、ロボットを用いて所定位置にセッティングできるが、これには限定されない。
[Inspection method using inspection device]
FIG. 4 is an example of a flowchart showing an inspection method using the inspection apparatus according to this embodiment. First, in step S101, WS50 is set. Since the positional relationship between the WS 50 and the HUD unit during actual use is set for each vehicle type, here, the WS 50 is predetermined so that the positional relationship between the WS 50 and the image display unit 10 corresponds to the setting during actual use. set in position. For example, the WS 50 can be carried on a belt conveyor and set at a predetermined position using a robot, but is not limited to this.

次に、ステップS102では、撮像器制御部330は、画像表示器10が表示した検査用画像の虚像60を撮像可能な所定位置に撮像器20を位置決めする。撮像器20は、例えば、車両の運転者の標準的なアイポイントの位置に来るように位置決めされる。 Next, in step S<b>102 , the imaging device control unit 330 positions the imaging device 20 at a predetermined position where the virtual image 60 of the inspection image displayed by the image display device 10 can be captured. The imager 20 is positioned, for example, at the standard eyepoint of the driver of the vehicle.

次に、ステップS103では、画像表示器10を第1位置(Near)にして検査を開始する。図4のステップS103の詳細を図5のフローチャートに示す。 Next, in step S103, the image display 10 is set to the first position (Near) to start the inspection. Details of step S103 in FIG. 4 are shown in the flow chart in FIG.

まず、図5のステップS201で、表示器位置決め部310は、画像表示器10の位置を第1位置(Near)に位置決めする。次に、ステップS202で、撮像器制御部330は、撮像器20の焦点を決定する。つまり、撮像器制御部330は、撮像器20の焦点を、第1位置に表示される検査用画像の虚像60が撮像できる最適な位置に調整する。 First, in step S201 of FIG. 5, the display positioning unit 310 positions the image display 10 at the first position (Near). Next, in step S<b>202 , the imager controller 330 determines the focus of the imager 20 . That is, the imaging device control unit 330 adjusts the focus of the imaging device 20 to an optimum position where the virtual image 60 of the inspection image displayed at the first position can be captured.

次に、ステップS203で、表示器制御部320は、検査用画像としてX座標線画像を生成する。X座標線画像とは、例えば、Y方向に平行な複数の直線が所定間隔で並置された画像である。X座標線画像に含まれる各線のX座標は既知である。 Next, in step S203, the display controller 320 generates an X-coordinate line image as an inspection image. The X coordinate line image is, for example, an image in which a plurality of straight lines parallel to the Y direction are juxtaposed at predetermined intervals. The X coordinate of each line included in the X coordinate line image is known.

次に、ステップS204で、表示器制御部320は、画像表示器10の所定位置にX座標線画像を表示する。次に、ステップS205で、撮像器制御部330は、X座標線画像の虚像60を撮像器20で撮像する。次に、ステップS206で、撮像器制御部330は、ステップS205で撮像したX座標線画像の虚像を記憶する。X座標線画像の虚像は、例えば、記憶部であるRAM33に記憶される。 Next, in step S<b>204 , the display controller 320 displays an X-coordinate line image at a predetermined position on the image display 10 . Next, in step S<b>205 , the imaging device control unit 330 captures the virtual image 60 of the X-coordinate line image with the imaging device 20 . Next, in step S206, the imaging device control unit 330 stores the virtual image of the X-coordinate line image captured in step S205. The virtual image of the X-coordinate line image is stored, for example, in the RAM 33, which is a storage unit.

図6は、図5のステップS201からS206までの処理を模式的に示す図である。図6では、画像表示器10はZ方向においてWS50に近い第1位置(Near)に位置決めされており、画像表示器10はX座標線画像10xを表示している。X座標線画像10xは、WS50で反射され、虚像表示領域600にX座標線画像10xの虚像60xが生成されている。 FIG. 6 is a diagram schematically showing the processing from steps S201 to S206 in FIG. In FIG. 6, image display 10 is positioned at a first position (Near) near WS 50 in the Z direction, and image display 10 is displaying X coordinate line image 10x. The X-coordinate line image 10x is reflected by the WS 50, and a virtual image 60x of the X-coordinate line image 10x is generated in the virtual image display area 600. FIG.

虚像60xは、実線で示す主像と、破線で示す二重像とを含んでいる。但し、二重像は、便宜上破線で示しているが、実際には主像と同様に連続した1本の線であり、主像よりも低輝度で表示される。虚像60xは撮像器20で撮像され、RAM33等に記憶される。 The virtual image 60x includes a main image indicated by solid lines and a double image indicated by dashed lines. Although the double image is indicated by broken lines for the sake of convenience, it is actually a continuous line like the main image, and is displayed with a lower luminance than the main image. The virtual image 60x is captured by the imaging device 20 and stored in the RAM 33 or the like.

ここでは、X座標線画像10xは、Y方向に平行な5本の線を所定間隔で配置した線画像としているが、これには限定されない。X座標線画像10xは、HUDユニットが虚像を表示する領域全体をカバーできる長さとし、所定間隔は主像と二重像との分離を妨げない範囲で狭い方が好ましい。 Here, the X-coordinate line image 10x is a line image in which five lines parallel to the Y direction are arranged at predetermined intervals, but is not limited to this. The X-coordinate line image 10x has a length that can cover the entire area where the HUD unit displays the virtual image, and the predetermined interval is preferably narrow within a range that does not hinder the separation of the main image and the double image.

図5の説明に戻り、次に、ステップS207で、撮像器制御部330は、予め決められた全ての位置でX座標線画像10xの撮像が終了したか否かを判定する。図5のステップS204からS206までの処理は、X座標線画像10xの表示位置をX方向に移動させて、X方向の離散的な複数箇所において実行される。ステップS207では、ステップS204からS206までの処理が予め設定されたX方向の全ての箇所において実行されたか否かが判定される。 Returning to the description of FIG. 5, next, in step S207, the imaging device control unit 330 determines whether imaging of the X-coordinate line image 10x has been completed at all predetermined positions. The processing from steps S204 to S206 in FIG. 5 is performed at a plurality of discrete locations in the X direction by moving the display position of the X coordinate line image 10x in the X direction. In step S207, it is determined whether or not the processes from steps S204 to S206 have been performed at all preset locations in the X direction.

ステップS207で全ての位置で撮像が終了していないと判定された場合(NOの場合)には、ステップS208に移行し、表示器制御部320は、X座標線画像10xを表示する所定位置をX方向にずらす。その後、ステップS204に移行し、同様の処理を繰り返す。 If it is determined in step S207 that imaging has not been completed at all positions (in the case of NO), the process proceeds to step S208, and the display controller 320 selects a predetermined position for displaying the X-coordinate line image 10x. Shift in the X direction. After that, the process moves to step S204, and the same processing is repeated.

図7は、第1位置においてX座標線画像の表示位置をX方向に移動させる様子を模式的に示す図である。実際には、X方向の数10か所の位置にX座標線画像10xを表示させて検査を行う。X座標線画像10xの表示位置が移動すると、それに伴って虚像60xにおける主像及び二重像の位置も移動する。全ての位置のX座標線画像10xの虚像60xが撮像器20で撮像され、RAM33等に記憶される。なお、図7において、画像表示器10の位置は移動しない。 FIG. 7 is a diagram schematically showing how the display position of the X coordinate line image is moved in the X direction at the first position. In practice, the inspection is performed by displaying the X coordinate line image 10x at several tens of positions in the X direction. When the display position of the X-coordinate line image 10x moves, the positions of the main image and the double image in the virtual image 60x also move accordingly. A virtual image 60x of the X-coordinate line image 10x at all positions is captured by the imaging device 20 and stored in the RAM 33 or the like. In addition, in FIG. 7, the position of the image display 10 does not move.

図5の説明に戻り、ステップS207で全ての位置で撮像が終了したと判定された場合(YESの場合)には、ステップS213に移行する。ステップS213からS218では、X座標線画像10xをY座標線画像10yに代えて、ステップS203からS208と同様の処理を実行する。これにより、図5に示すフローチャートの処理は、全て終了する。なお、Y座標線画像とは、例えば、X方向に平行な複数の直線が所定間隔で並置された画像である。Y座標線画像に含まれる各線のY座標は既知である。 Returning to the description of FIG. 5, if it is determined in step S207 that imaging has been completed at all positions (YES), the process proceeds to step S213. In steps S213 to S218, the same processing as in steps S203 to S208 is performed by replacing the X coordinate line image 10x with the Y coordinate line image 10y. As a result, all the processing of the flowchart shown in FIG. 5 ends. Note that the Y coordinate line image is, for example, an image in which a plurality of straight lines parallel to the X direction are juxtaposed at predetermined intervals. The Y coordinate of each line included in the Y coordinate line image is known.

図8は、図5のステップS213からS216までの処理を模式的に示す図である。図8では、画像表示器10はZ方向においてWS50に近い第1位置(Near)に位置決めされており、画像表示器10はY座標線画像10yを表示している。Y座標線画像10yは、WS50で反射され、虚像表示領域600にY座標線画像10yの虚像60yが生成されている。 FIG. 8 is a diagram schematically showing the processing from steps S213 to S216 in FIG. In FIG. 8, image display 10 is positioned at a first position (Near) near WS 50 in the Z direction, and image display 10 displays Y coordinate line image 10y. The Y-coordinate line image 10y is reflected by the WS 50, and a virtual image 60y of the Y-coordinate line image 10y is generated in the virtual image display area 600. FIG.

虚像60yは、実線で示す主像と、破線で示す二重像とを含んでいる。但し、二重像は、便宜上破線で示しているが、実際には主像と同様に連続した1本の線であり、主像よりも低輝度で表示される。虚像60yは撮像器20で撮像され、RAM33等に記憶される。 The virtual image 60y includes a main image indicated by solid lines and a double image indicated by dashed lines. Although the double image is indicated by broken lines for the sake of convenience, it is actually a continuous line like the main image, and is displayed with a lower luminance than the main image. The virtual image 60y is captured by the imaging device 20 and stored in the RAM 33 or the like.

ここでは、Y座標線画像10yは、X方向に平行な5本の線を所定間隔で配置した線画像としているが、これには限定されない。Y座標線画像10yは、HUDユニットが虚像を表示する領域全体をカバーできる長さとし、所定間隔は主像と二重像との分離を妨げない範囲で狭い方がでが好ましい。 Here, the Y-coordinate line image 10y is a line image in which five lines parallel to the X direction are arranged at predetermined intervals, but is not limited to this. The Y-coordinate line image 10y has a length that can cover the entire area where the HUD unit displays the virtual image, and the predetermined interval is preferably narrow within a range that does not hinder the separation of the main image and the double image.

図5の説明に戻り、次に、ステップS217で、撮像器制御部330は、予め決められた全ての位置でY座標線画像10yの撮像が終了したか否かを判定する。図5のステップS214からS216までの処理は、Y座標線画像10yの表示位置をY方向に移動させて、Y方向の離散的な複数箇所において実行される。ステップS217では、ステップS214からS216までの処理が予め設定されたY方向の全ての箇所において実行されたか否かが判定される。 Returning to the description of FIG. 5, next, in step S217, the imaging device control unit 330 determines whether imaging of the Y-coordinate line image 10y has been completed at all predetermined positions. The processing from steps S214 to S216 in FIG. 5 is performed at a plurality of discrete locations in the Y direction by moving the display position of the Y coordinate line image 10y in the Y direction. In step S217, it is determined whether or not the processes from steps S214 to S216 have been performed at all preset locations in the Y direction.

ステップS217で全ての位置で撮像が終了していないと判定された場合(NOの場合)には、ステップS218に移行し、表示器制御部320は、Y座標線画像10yを表示する所定位置をY方向にずらす。その後、ステップS214に移行し、同様の処理を繰り返す。 If it is determined in step S217 that imaging has not been completed at all positions (in the case of NO), the process proceeds to step S218, and the display controller 320 selects a predetermined position for displaying the Y-coordinate line image 10y. Shift in the Y direction. After that, the process moves to step S214, and the same processing is repeated.

図9は、第1位置においてY座標線画像の表示位置をY方向に移動させる様子を模式的に示す図である。実際には、Y方向の数10か所の位置にY座標線画像10yを表示させて検査を行う。Y座標線画像10yの表示位置が移動すると、それに伴って虚像60yにおける主像及び二重像の位置も移動する。全ての位置のY座標線画像10yの虚像60yが撮像器20で撮像され、RAM33等に記憶される。なお、図9において、画像表示器10の位置は移動しない。 FIG. 9 is a diagram schematically showing how the display position of the Y coordinate line image is moved in the Y direction at the first position. In practice, the inspection is performed by displaying the Y coordinate line images 10y at several tens of positions in the Y direction. When the display position of the Y-coordinate line image 10y moves, the positions of the main image and the double image in the virtual image 60y also move accordingly. A virtual image 60y of the Y-coordinate line image 10y at all positions is captured by the imaging device 20 and stored in the RAM 33 or the like. In addition, in FIG. 9, the position of the image display 10 does not move.

図5の説明に戻り、ステップS217で全ての位置で撮像が終了したと判定された場合(YESの場合)には、図5に示すフローチャートの処理は、全て終了する。 Returning to the description of FIG. 5, if it is determined in step S217 that imaging has been completed at all positions (YES), the processing of the flowchart shown in FIG. 5 ends.

図4の説明に戻り、次に、ステップS104では、画像表示器10を第2位置(Far)にして検査を開始する。図4のステップS104の詳細を図10のフローチャートに示す。図10に示すステップS301~S318の処理は、画像表示器10をZ方向において第1位置(Near)よりもWS50から遠い第2位置(Far)に位置決めした以外は、図5に示すステップS201~S218の処理と同様である。 Returning to the description of FIG. 4, next, in step S104, the image display 10 is set to the second position (Far), and inspection is started. Details of step S104 in FIG. 4 are shown in the flow chart in FIG. 10, except that the image display 10 is positioned at the second position (Far) farther from the WS 50 than the first position (Near) in the Z direction. This is the same as the processing of S218.

図11は、図10のステップS301からS306までの処理を模式的に示す図である。図11では、画像表示器10はZ方向においてWS50から遠い第2位置(Far)に位置決めされており、画像表示器10はX座標線画像10xを表示している。X座標線画像10xは、WS50で反射され、虚像表示領域600にX座標線画像10xの虚像60xが生成されている。 FIG. 11 is a diagram schematically showing the processing from steps S301 to S306 in FIG. In FIG. 11, image display 10 is positioned at a second position (Far) far from WS 50 in the Z direction, and image display 10 is displaying X coordinate line image 10x. The X-coordinate line image 10x is reflected by the WS 50, and a virtual image 60x of the X-coordinate line image 10x is generated in the virtual image display area 600. FIG.

虚像60xは、実線で示す主像と、破線で示す二重像とを含んでいる。但し、二重像は、便宜上破線で示しているが、実際には主像と同様に連続した1本の線であり、主像よりも低輝度で表示される。虚像60xは撮像器20で撮像され、RAM33等に記憶される。 The virtual image 60x includes a main image indicated by solid lines and a double image indicated by dashed lines. Although the double image is indicated by broken lines for the sake of convenience, it is actually a continuous line like the main image, and is displayed with a lower luminance than the main image. The virtual image 60x is captured by the imaging device 20 and stored in the RAM 33 or the like.

図12は、第2位置においてX座標線画像の表示位置をX方向に移動させる様子を模式的に示す図である。実際には、X方向の数10か所の位置にX座標線画像10xを表示させて検査を行う。X座標線画像10xの表示位置が移動すると、それに伴って虚像60xにおける主像及び二重像の位置も移動する。全ての位置のX座標線画像10xの虚像60xが撮像器20で撮像され、RAM33等に記憶される。なお、図12において、画像表示器10の位置は移動しない。 FIG. 12 is a diagram schematically showing how the display position of the X-coordinate line image is moved in the X direction at the second position. In practice, the inspection is performed by displaying the X coordinate line image 10x at several tens of positions in the X direction. When the display position of the X-coordinate line image 10x moves, the positions of the main image and the double image in the virtual image 60x also move accordingly. A virtual image 60x of the X-coordinate line image 10x at all positions is captured by the imaging device 20 and stored in the RAM 33 or the like. In addition, in FIG. 12, the position of the image display 10 does not move.

図13は、図10のステップS313からS316までの処理を模式的に示す図である。図13では、画像表示器10はZ方向においてWS50から遠い第2位置(Far)に位置決めされており、画像表示器10はY座標線画像10yを表示している。Y座標線画像10yは、WS50で反射され、虚像表示領域600にY座標線画像10yの虚像60yが生成されている。 FIG. 13 is a diagram schematically showing the processing from steps S313 to S316 in FIG. In FIG. 13, image display 10 is positioned at a second position (Far) far from WS 50 in the Z direction, and image display 10 displays Y coordinate line image 10y. The Y-coordinate line image 10y is reflected by the WS 50, and a virtual image 60y of the Y-coordinate line image 10y is generated in the virtual image display area 600. FIG.

虚像60yは、実線で示す主像と、破線で示す二重像とを含んでいる。但し、二重像は、便宜上破線で示しているが、実際には主像と同様に連続した1本の線であり、主像よりも低輝度で表示される。虚像60yは撮像器20で撮像され、RAM33等に記憶される。 The virtual image 60y includes a main image indicated by solid lines and a double image indicated by dashed lines. Although the double image is indicated by broken lines for the sake of convenience, it is actually a continuous line like the main image, and is displayed with a lower luminance than the main image. The virtual image 60y is captured by the imaging device 20 and stored in the RAM 33 or the like.

図14は、第2位置においてY座標線画像の表示位置をY方向に移動させる様子を模式的に示す図である。実際には、Y方向の数10か所の位置にY座標線画像10yを表示させて検査を行う。Y座標線画像10yの表示位置が移動すると、それに伴って虚像60yにおける主像及び二重像の位置も移動する。全ての位置のY座標線画像10yの虚像60yが撮像器20で撮像され、RAM33等に記憶される。なお、図14において、画像表示器10の位置は移動しない。 FIG. 14 is a diagram schematically showing how the display position of the Y coordinate line image is moved in the Y direction at the second position. In practice, the inspection is performed by displaying the Y coordinate line images 10y at several tens of positions in the Y direction. When the display position of the Y-coordinate line image 10y moves, the positions of the main image and the double image in the virtual image 60y also move accordingly. A virtual image 60y of the Y-coordinate line image 10y at all positions is captured by the imaging device 20 and stored in the RAM 33 or the like. In addition, in FIG. 14, the position of the image display 10 does not move.

図4の説明に戻り、次に、ステップS105では、主像光源位置を算出する。図4のステップS105の詳細を図15のフローチャートに示す。 Returning to the description of FIG. 4, next, in step S105, the position of the main image light source is calculated. Details of step S105 in FIG. 4 are shown in the flow chart in FIG.

まず、図15のステップS401で、画像処理部340の第1XY座標算出部341は、第1位置(Near)の撮像データを読み出す。具体的には、第1XY座標算出部341は、図5のステップS206で記憶した全てのX座標線画像10xの虚像60xのデータ、及びステップS216で記憶した全てのY座標線画像10yの虚像60yのデータを読み出す。例えば、図16(a)に示す画像60x(1)~60x(n)、及び図16(b)に示す画像60y(1)~60y(m)がデータとして読み出せる。なお、図16(a)及び図16(b)の1つの正方形は撮像器20の1つの画素を示している。 First, in step S401 of FIG. 15, the first XY coordinate calculation unit 341 of the image processing unit 340 reads the imaged data of the first position (Near). Specifically, the first XY coordinate calculation unit 341 calculates the data of the virtual images 60x of all the X coordinate line images 10x stored in step S206 in FIG. 5 and the virtual images 60y of all the Y coordinate line images 10y stored in step S216 data. For example, images 60x(1) to 60x(n) shown in FIG. 16(a) and images 60y(1) to 60y(m) shown in FIG. 16(b) can be read as data. Note that one square in FIGS. 16(a) and 16(b) indicates one pixel of the image pickup device 20. As shown in FIG.

図16(a)に示す画像60x(1)は、最初に撮像されたX座標線画像10xの虚像60x(白が主像、灰色が二重像)のデータである。又、画像60x(2)は、位置をずらして2回目に撮像されたX座標線画像10xの虚像60xのデータである。又、画像60x(n)は、位置をずらしてn回目に撮像されたX座標線画像10xの虚像60xのデータである。この場合は、位置をずらしてn枚のX座標線画像10xの虚像60xを撮像した例である。 An image 60x(1) shown in FIG. 16A is data of a virtual image 60x (white is the main image, gray is the double image) of the X-coordinate line image 10x captured first. An image 60x(2) is data of a virtual image 60x of the X-coordinate line image 10x captured for the second time after shifting the position. An image 60x(n) is data of a virtual image 60x of the X-coordinate line image 10x captured n-th time with the position shifted. This case is an example in which virtual images 60x of n pieces of X-coordinate line images 10x are picked up by shifting the positions.

同様に、図16(b)に示す画像60y(1)は、最初に撮像されたY座標線画像10yの虚像60y(白が主像、灰色が二重像)のデータである。又、画像60y(2)は、位置をずらして2回目に撮像されたY座標線画像10yの虚像のデータである。又、画像60y(m)は、位置をずらしてm回目に撮像されたY座標線画像10yの虚像のデータである。この場合、位置をずらしてm枚のY座標線画像10yの虚像60yを撮像した例である。 Similarly, an image 60y(1) shown in FIG. 16(b) is data of a virtual image 60y (white is the main image, gray is the double image) of the Y-coordinate line image 10y captured first. An image 60y(2) is virtual image data of the Y-coordinate line image 10y captured for the second time after shifting the position. An image 60y(m) is data of a virtual image of the Y-coordinate line image 10y captured m-th time after shifting the position. In this case, it is an example in which virtual images 60y of m Y-coordinate line images 10y are picked up by shifting the positions.

次に、ステップS402で、第1XY座標算出部341は、ステップS401で読み出した画像60x(1)~60x(n)及び画像60y(1)~60y(m)から主像のみを取り出す。例えば、図16(a)及び図16(b)の各画像から、図17(a)に示す画像60x(1)~60x(n)の主像、及び図17(a)に示す画像60y(1)~60y(m)の主像が抽出される。なお、主像と二重像とは輝度が大きく異なるため、主像と二重像とは容易に区別できる。 Next, in step S402, the first XY coordinate calculator 341 extracts only the main image from the images 60x(1) to 60x(n) and the images 60y(1) to 60y(m) read out in step S401. For example, from the images of FIGS. 16(a) and 16(b), the main images of images 60x(1) to 60x(n) shown in FIG. 17(a) and the image 60y( 1) The main image from 60y(m) is extracted. Since the main image and the double image differ greatly in luminance, the main image and the double image can be easily distinguished.

次に、ステップS403で、第1XY座標算出部341は、ステップS402で抽出した画像60x(1)~60x(n)の主像及び画像60y(1)~60y(m)の主像を画素ごとにラベリングして座標を特定する。例えば、図18(a)及び図18(b)に示すようにラべリングして座標を特定する。 Next, in step S403, the first XY coordinate calculation unit 341 calculates the main images of the images 60x(1) to 60x(n) and the main images of the images 60y(1) to 60y(m) extracted in step S402 for each pixel. to identify the coordinates. For example, as shown in FIGS. 18A and 18B, the coordinates are specified by labeling.

次に、ステップS404で、第1XY座標算出部341は、ステップS403で特定した座標に基づいて、第1位置の主像投影行列を作成する。例えば、図19に示すように第1位置の主像投影行列が作成される。なお、図19では、3つの座標のみを例示しているが、全ての画素に対して座標が特定される。 Next, in step S404, the first XY coordinate calculator 341 creates a main image projection matrix for the first position based on the coordinates specified in step S403. For example, a main image projection matrix for the first position is created as shown in FIG. Although only three coordinates are illustrated in FIG. 19, coordinates are specified for all pixels.

ここで、第1XY座標算出部341が、読み出した撮像データから座標を特定する方法について、更に詳しく説明する。 Here, a method for specifying coordinates from read imaging data by the first XY coordinate calculation unit 341 will be described in more detail.

まず、第1XY座標算出部341は座標を特定すべき画素(G1とする)を選択する。次に、第1XY座標算出部341は、X座標線画像10xの虚像60xを撮像した全ての画像から主像のみを取り出した画像を生成し(例えば、図17(a)の各画像)、生成した画像の中から画素G1と主像とが重なる画像を選択する。これについて、図20~図23を参照して説明する。 First, the first XY coordinate calculator 341 selects a pixel (G1) whose coordinates are to be specified. Next, the first XY coordinate calculation unit 341 generates an image (for example, each image in FIG. 17A) by extracting only the main image from all the images obtained by capturing the virtual image 60x of the X coordinate line image 10x, and generates An image in which the pixel G1 and the main image are overlapped is selected from the obtained images. This will be described with reference to FIGS. 20 to 23. FIG.

図20~図23は、X座標線画像の移動と虚像の移動を模式的に示す図であり、X座標線画像10xを移動させたときに虚像60xが移動する様子を模式的に示している。ここでは、理解を容易にするために、第1XY座標算出部341が読み出した画像の代わりに虚像60xを用いて説明する。図20~図23では主像及び虚像を示しているが、実際には第1XY座標算出部341は主像のみを取り出した画像を用いる。なお、図20~図23において、便宜上、画素G1に対応する虚像表示領域600内の位置に×印を付け、P1と表示している(つまり、×印は、表示された虚像ではない)。 20 to 23 are diagrams schematically showing the movement of the X-coordinate line image and the movement of the virtual image, and schematically showing how the virtual image 60x moves when the X-coordinate line image 10x is moved. . Here, in order to facilitate understanding, a virtual image 60x is used instead of the image read by the first XY coordinate calculation unit 341 for explanation. Although the main image and the virtual image are shown in FIGS. 20 to 23, the first XY coordinate calculator 341 actually uses an image obtained by extracting only the main image. 20 to 23, for the sake of convenience, the position in the virtual image display area 600 corresponding to the pixel G1 is marked with an X and indicated as P1 (that is, the X mark is not the displayed virtual image).

図20では、虚像60xに含まれる主像は位置P1と重なっていない。図21は、図20の位置に対してX座標線画像10xの表示位置をX-方向に所定距離だけ移動させたときの虚像60xを示している。図21では、虚像60xに含まれる主像は位置P1と重なっていない。 In FIG. 20, the main image included in the virtual image 60x does not overlap the position P1. FIG. 21 shows a virtual image 60x when the display position of the X-coordinate line image 10x is moved by a predetermined distance in the X-direction with respect to the position of FIG. In FIG. 21, the main image included in the virtual image 60x does not overlap the position P1.

図22は、図21の位置に対してX座標線画像10xの表示位置をX-方向に所定距離だけ移動させたときの虚像60xを示している。図22では、虚像60xに含まれる主像は位置P1と重なっていない。 FIG. 22 shows a virtual image 60x when the display position of the X-coordinate line image 10x is moved by a predetermined distance in the X-direction with respect to the position of FIG. In FIG. 22, the main image included in the virtual image 60x does not overlap the position P1.

図23は、図22の位置に対してX座標線画像10xの表示位置をX-方向に所定距離だけ移動させたときの虚像60xを示している。図23では、虚像60xに含まれる主像は位置P1と重なっている。 FIG. 23 shows a virtual image 60x when the display position of the X-coordinate line image 10x is moved by a predetermined distance in the X-direction with respect to the position of FIG. In FIG. 23, the main image included in the virtual image 60x overlaps the position P1.

以上の結果から、図23に示すX1の線が位置P1を通る主像として表示されていることがわかる。つまり、X1のX座標をXa(既知)とすると、Xaを通る光線がWS50に反射されて位置P1に主像を生成していることがわかる。 From the above results, it can be seen that the line X1 shown in FIG. 23 is displayed as the main image passing through the position P1. That is, assuming that the X coordinate of X1 is Xa (known), it can be seen that the ray passing through Xa is reflected by WS 50 and forms the main image at position P1.

次に、第1XY座標算出部341は、Y座標線画像10yの虚像60yを撮像した全ての画像から主像のみを取り出した画像を生成し(例えば、図17(b)の各画像)、生成した画像の中から画素G1と主像とが重なる画像を選択する。これについて、図24~図27を参照して説明する。 Next, the first XY coordinate calculation unit 341 generates an image (for example, each image in FIG. 17B) by extracting only the main image from all images obtained by capturing the virtual image 60y of the Y coordinate line image 10y, and generates An image in which the pixel G1 and the main image are overlapped is selected from the obtained images. This will be described with reference to FIGS. 24 to 27. FIG.

図24~図27は、Y座標線画像の移動と虚像の移動を模式的に示す図であり、Y座標線画像10yを移動させたときに虚像60yが移動する様子を模式的に示している。ここでは、理解を容易にするために、第1XY座標算出部341が読み出した画像の代わりに虚像60yを用いて説明する。図24~図27では主像及び虚像を示しているが、実際には第1XY座標算出部341は主像のみを取り出した画像を用いる。なお、図24~図27において、便宜上、画素G1に対応する虚像表示領域600内の位置に×印を付け、P1と表示している(つまり、×印は、表示された虚像ではない)。又、便宜上、図23で特定された線X1を画像表示器10上に図示している。 24 to 27 are diagrams schematically showing the movement of the Y-coordinate line image and the movement of the virtual image, and schematically showing how the virtual image 60y moves when the Y-coordinate line image 10y is moved. . Here, in order to facilitate understanding, a virtual image 60y is used instead of the image read by the first XY coordinate calculation unit 341 for explanation. Although the main image and the virtual image are shown in FIGS. 24 to 27, the first XY coordinate calculator 341 actually uses an image obtained by extracting only the main image. 24 to 27, for the sake of convenience, the position in the virtual image display area 600 corresponding to the pixel G1 is marked with an X and indicated as P1 (that is, the X mark is not the displayed virtual image). For convenience, the line X1 identified in FIG. 23 is also shown on the image display 10. In FIG.

図24では、虚像60yに含まれる主像は位置P1と重なっていない。図25は、図24の位置に対してY座標線画像10yの表示位置をY+方向に所定距離だけ移動させたときの虚像60yを示している。図21では、虚像60yに含まれる主像は位置P1と重なっていない。 In FIG. 24, the main image included in virtual image 60y does not overlap position P1. FIG. 25 shows a virtual image 60y when the display position of the Y-coordinate line image 10y is moved by a predetermined distance in the Y+ direction with respect to the position shown in FIG. In FIG. 21, the main image included in virtual image 60y does not overlap position P1.

図26は、図25の位置に対してY座標線画像10yの表示位置をY+方向に所定距離だけ移動させたときの虚像60yを示している。図26では、虚像60yに含まれる主像は位置P1と重なっていない。 FIG. 26 shows a virtual image 60y when the display position of the Y-coordinate line image 10y is moved by a predetermined distance in the Y+ direction with respect to the position shown in FIG. In FIG. 26, the main image included in virtual image 60y does not overlap position P1.

図27は、図26の位置に対してY座標線画像10yの表示位置をY+方向に所定距離だけ移動させたときの虚像60yを示している。図27では、虚像60yに含まれる主像は位置P1と重なっている。 FIG. 27 shows a virtual image 60y when the display position of the Y-coordinate line image 10y is moved by a predetermined distance in the Y+ direction with respect to the position shown in FIG. In FIG. 27, the main image included in the virtual image 60y overlaps the position P1.

以上の結果から、図27に示すY1の線が位置P1を通る主像として表示されていることがわかる。つまり、Y1のY座標をYa(既知)とすると、Yaを通る光線がWS50に反射されて位置P1に主像を生成していることがわかる。 From the above results, it can be seen that the line Y1 shown in FIG. 27 is displayed as the main image passing through the position P1. In other words, if the Y coordinate of Y1 is Ya (known), it can be seen that the ray passing through Ya is reflected by WS 50 and forms the main image at position P1.

図23において既にX座標がXaに特定されていることを合わせて考えると、XY座標が(Xa、Ya)である位置Pn1を通る光線が、WS50に反射されて位置P1に主像を生成していることがわかる。 Considering that the X coordinate is already specified as Xa in FIG. 23, the light ray passing through the position Pn1 whose XY coordinates are (Xa, Ya) is reflected by the WS 50 to form the main image at the position P1. It can be seen that

つまり、画素G1に対応する第1位置のXY座標(第1XY座標と称する場合がある)は(Xa、Ya)となる。そこで、図28(a)に示すように、第1位置の主像投影行列の画素G1の位置に(Xa、Ya)を格納する。以上の処理を撮像器20の全ての画素について行うことで、図28(a)の全ての画素の位置のXY座標が特定され、第1位置の主像投影行列が完成する。第1位置の主像投影行列は、各画素に主像を形成するためには、光線が第1位置のどのXY座標を通るかを示すものである。 That is, the XY coordinates (sometimes referred to as first XY coordinates) of the first position corresponding to the pixel G1 are (Xa, Ya). Therefore, as shown in FIG. 28A, (Xa, Ya) is stored at the position of pixel G1 in the main image projection matrix at the first position. By performing the above processing for all the pixels of the image pickup device 20, the XY coordinates of the positions of all the pixels in FIG. 28(a) are specified, and the main image projection matrix for the first position is completed. The primary image projection matrix of the first position indicates which XY coordinates of the first position the ray should pass through in order to form the primary image at each pixel.

図15の説明に戻り、次に、ステップS405~S408の処理を実行する。ステップS405~S408の処理は、画像処理部340の第2XY座標算出部342が第2位置(Far)の撮像データを読み出す以外は、ステップS401~S404の処理と同様である。結果として、第2位置の主像投影行列が作成される。 Returning to the description of FIG. 15, next, the processes of steps S405 to S408 are executed. The processing of steps S405 to S408 is the same as the processing of steps S401 to S404, except that the second XY coordinate calculation unit 342 of the image processing unit 340 reads the imaging data at the second position (Far). As a result, a main image projection matrix for the second position is created.

第1位置の場合と同様にして、X座標線画像10xを移動させたときの虚像60xの画像のデータから、図29に示すX2の線が位置P1を通る主像として表示されていることがわかったとする。つまり、X2のX座標をXb(既知)とすると、Xbを通る光線がWS50に反射されて位置P1に主像を生成していることがわかったとする。 As in the case of the first position, the image data of the virtual image 60x when the X-coordinate line image 10x is moved shows that the line X2 shown in FIG. 29 is displayed as the main image passing through the position P1. I understand. In other words, if the X coordinate of X2 is Xb (known), it is assumed that the ray passing through Xb is reflected by WS 50 and forms the main image at position P1.

又、Y座標線画像10yを移動させたときの虚像60yの画像のデータから、図29に示すY2の線が位置P1を通る主像として表示されていることがわかったとする。つまり、Y2のY座標をYb(既知)とすると、Ybを通る光線がWS50に反射されて位置P1に主像を生成していることがわかったとする。 Also, it is assumed from the image data of the virtual image 60y when the Y-coordinate line image 10y is moved that the line Y2 shown in FIG. 29 is displayed as the main image passing through the position P1. In other words, if the Y coordinate of Y2 is Yb (known), it is assumed that the ray passing through Yb is reflected by the WS 50 and forms the main image at the position P1.

既にX座標がXbに特定されていることを合わせて考えると、XY座標が(Xb、Yb)である位置Pf1を通る光線が、WS50に反射されて位置P1に主像を生成していることがわかる。 Considering that the X coordinate has already been specified as Xb, the light ray passing through the position Pf1 whose XY coordinates are (Xb, Yb) is reflected by the WS 50 and forms the main image at the position P1. I understand.

つまり、画素G1に対応する第2位置のXY座標(第2XY座標と称する場合がある)は(Xb、Yb)となる。そこで、図28(b)に示すように、第2位置の主像投影行列の画素G1の位置に(Xb、Yb)を格納する。以上の処理を撮像器20の全ての画素について行うことで、図28(b)の全ての画素の位置のXY座標が特定され、第2位置の主像投影行列が完成する。第2位置の主像投影行列は、各画素に主像を形成するためには、光線が第2位置のどのXY座標を通るかを示すものである。 That is, the XY coordinates of the second position corresponding to the pixel G1 (sometimes referred to as second XY coordinates) are (Xb, Yb). Therefore, as shown in FIG. 28B, (Xb, Yb) is stored at the position of pixel G1 in the main image projection matrix at the second position. By performing the above processing for all the pixels of the image pickup device 20, the XY coordinates of the positions of all the pixels in FIG. 28(b) are specified, and the main image projection matrix for the second position is completed. The main image projection matrix at the second position indicates which XY coordinates at the second position the ray should pass through to form the main image at each pixel.

ステップS401~S404で得られた結果と、ステップS405~S408で得られた結果とを合わせて考えると、図30に示すように、位置Pn1及びPf1を通る光線R1が、WS50に反射されて虚像表示領域600内の位置P1に主像を生成していることになる。なお、主像を生成する元となる光線を主像光線と称する場合がある。又、二重像を生成する元となる光線を二重像光線と称する場合がある。 Considering together the results obtained in steps S401 to S404 and the results obtained in steps S405 to S408, as shown in FIG. The main image is generated at the position P1 within the display area 600. FIG. Note that the ray that forms the main image may be referred to as the main image ray. Also, a light ray that is the source of generating a double image may be referred to as a double image ray.

このようにして、虚像表示領域600内の任意の位置に表示される主像が、第1位置(Near)及び第2位置(Far)のどの位置を通過した光線により形成されたものであるかを特定できる。言い換えれば、第1位置の主像投影行列と第2位置の主像投影行列により、虚像表示領域600内の任意の位置に表示される主像が、第1位置(Near)及び第2位置(Far)のどの位置を通過した光線により形成されたものであるかを知ることができる。 In this way, the main image displayed at an arbitrary position within the virtual image display area 600 is formed by a light ray that has passed through the first position (Near) or the second position (Far). can be identified. In other words, the main image displayed at an arbitrary position within the virtual image display area 600 is displayed at the first position (Near) and the second position ( It is possible to know which position of Far) was formed by the light ray that passed through.

図15の説明に戻り、次に、ステップS409で、画像処理部340の光路特定部343は、主像光源位置行列を作成する。まず、光路特定部343は、記憶部であるRAM33等に予め記憶されているHUDユニットの光学系のCADデータを読み出し、読み出したCADデータに基づいてHUDユニットの凹面鏡及び光源の位置を特定する。なお、HUDユニットの光源とは、虚像の元になる画像が表示される液晶表示装置等である。 Returning to the description of FIG. 15, next, in step S409, the optical path specifying unit 343 of the image processing unit 340 creates a main image light source position matrix. First, the optical path specifying unit 343 reads CAD data of the optical system of the HUD unit pre-stored in the RAM 33 or the like as a storage unit, and specifies the positions of the concave mirror and the light source of the HUD unit based on the read CAD data. Note that the light source of the HUD unit is a liquid crystal display device or the like that displays an image that is the basis of the virtual image.

次に、光路特定部343は、特定した凹面鏡及び光源の位置と主像光線の光路とに基づいて、主像光線の光路に光を出射する光源の出射位置を特定する。具体的には、光路特定部343は、図30で求めた光線R1と凹面鏡との交点を求める。例えば、図31に示すように、WS50の位置に対するHUDユニットの凹面鏡70及び光源80の位置が特定され、光線R1と凹面鏡70との交点I1が求められる。 Next, the optical path specifying unit 343 specifies the emission position of the light source that emits light to the optical path of the main image ray based on the specified positions of the concave mirror and the light source and the optical path of the main image ray. Specifically, the optical path identification unit 343 obtains the intersection point between the light ray R1 obtained in FIG. 30 and the concave mirror. For example, as shown in FIG. 31, the positions of the concave mirror 70 and the light source 80 of the HUD unit with respect to the position of the WS 50 are identified, and the intersection point I1 between the light ray R1 and the concave mirror 70 is obtained.

次に、光路特定部343は、凹面鏡70の交点I1の位置で反射する光線R2を求める。HUDユニットの光学系のCADデータから凹面鏡70の反射面の3次元形状や反射面の向き等が特定されているため、光線R2を求めることができる。 Next, the optical path identification unit 343 obtains a light ray R2 reflected at the position of the intersection I1 of the concave mirror 70. FIG. Since the three-dimensional shape of the reflecting surface of the concave mirror 70, the orientation of the reflecting surface, and the like are specified from the CAD data of the optical system of the HUD unit, the ray R2 can be obtained.

次に、光路特定部343は、光線R2と光源80との交点I2を求める。HUDユニットのCADデータから光源80の位置が特定されているため、交点I2を求めることができる。つまり、第1位置の主像投影行列、第2位置の主像投影行列、及びHUDユニットの光学系のCADデータに基づいて、虚像60yの位置P1に主像を表示する場合の光源80の出射位置である交点I2を求めることができる。光路特定部343は、求めた交点I2の座標を、図31に示すように主像光源位置行列の画素G1の位置に格納する。 Next, the optical path identification unit 343 obtains an intersection point I2 between the light ray R2 and the light source 80. FIG. Since the position of the light source 80 is specified from the CAD data of the HUD unit, the intersection point I2 can be obtained. That is, based on the main image projection matrix at the first position, the main image projection matrix at the second position, and the CAD data of the optical system of the HUD unit, the emission of the light source 80 when the main image is displayed at the position P1 of the virtual image 60y The intersection point I2, which is the position, can be obtained. The optical path specifying unit 343 stores the obtained coordinates of the intersection point I2 at the position of the pixel G1 in the main image light source position matrix as shown in FIG.

以上の処理を撮像器20の全ての画素について行うことで、全ての画素について光源80の出射位置のXY座標が特定され、主像光源位置行列が完成する。主像光源位置行列は、各画素に主像を形成するためには、光源80のどの位置から光線が出射されるかを示すものである。 By performing the above processing for all pixels of the image pickup device 20, the XY coordinates of the emission position of the light source 80 are specified for all pixels, and the main image light source position matrix is completed. The main image light source position matrix indicates from which position of the light source 80 light rays are emitted in order to form the main image in each pixel.

主像光源位置行列により、例えば、図32に模式的に示すように、光源80の任意の出射位置に対する虚像表示領域600内の主像の表示位置を特定できる。なお、実際の光源80の出射位置は図示の数よりも遥かに多い。以上で、ステップS409の説明は終了である。 With the main image light source position matrix, for example, as schematically shown in FIG. 32, the display position of the main image within the virtual image display area 600 with respect to an arbitrary emission position of the light source 80 can be specified. Note that the actual emission positions of the light sources 80 are much larger than the number shown. This completes the description of step S409.

図4の説明に戻り、次に、ステップS106では、光路特定部343は二重像光源位置を算出する。図4のステップS106の詳細を図33のフローチャートに示す。 Returning to the description of FIG. 4, next, in step S106, the optical path specifying unit 343 calculates the double image light source position. Details of step S106 in FIG. 4 are shown in the flow chart of FIG.

図33に示すステップS501~S509の処理は、光路特定部343が主像に代えて二重像を扱う以外は、図15に示すステップS401~S409の処理と同様である。つまり、光路特定部343は、CADデータに基づいて特定したHUDユニットの凹面鏡及び光源の位置と二重像光線の光路とに基づいて、二重像光線の光路に光線を出射する光源の出射位置を特定する。結果として、図31と同様の二重像光源位置行列が作成される。二重像光源位置行列により、光源80の任意の出射位置に対する二重像の表示位置を特定できる。 The processing of steps S501 to S509 shown in FIG. 33 is the same as the processing of steps S401 to S409 shown in FIG. 15 except that the optical path specifying unit 343 handles a double image instead of the main image. That is, the optical path specifying unit 343 determines the emission position of the light source that emits the light beam to the optical path of the double image light beam based on the positions of the concave mirror and the light source of the HUD unit specified based on the CAD data and the optical path of the double image light beam. identify. As a result, a double image light source position matrix similar to that of FIG. 31 is created. A double image display position for an arbitrary emission position of the light source 80 can be specified by the double image light source position matrix.

次に、ステップS107では、画像処理部340のデータ算出部344は主像歪みを算出する。まず、画像処理部340は、記憶部であるRAM33等に予め記憶されているウィンドシールドのCADデータ(以降、ウィンドシールド(CAD)とする)を読み出す。そして、ウィンドシールド(CAD)を用いた場合に、光源80(図32等参照)の各出射位置から出射した光線により虚像表示領域600のどの位置に主像が形成されるかを算出する。 Next, in step S107, the data calculation unit 344 of the image processing unit 340 calculates main image distortion. First, the image processing unit 340 reads CAD data of a windshield (hereinafter referred to as windshield (CAD)) stored in advance in the RAM 33 or the like that is a storage unit. Then, when a windshield (CAD) is used, it is calculated at which position in the virtual image display area 600 the main image is formed by the rays emitted from the respective emission positions of the light source 80 (see FIG. 32, etc.).

次に、データ算出部344は、光源80の同じ出射位置から出射した主像光線が記憶部から読み出したウィンドシールド(CAD)を用いた場合に形成する主像の位置と、測定対象となるWS50を用いた場合に形成する主像の位置とを比較し、両者の差分に基づいて主像歪みを算出する。データ算出部344は、光源80の全ての出射位置について、上記の差分に基づいて主像歪みを算出する。 Next, the data calculation unit 344 calculates the position of the main image formed when the main image beam emitted from the same emission position of the light source 80 uses the windshield (CAD) read from the storage unit and the WS50 to be measured. is compared with the position of the main image formed when using , and the main image distortion is calculated based on the difference between the two. The data calculator 344 calculates the main image distortion for all emission positions of the light source 80 based on the difference.

次に、ステップS108では、データ算出部344は二重像歪みを算出する。具体的には、データ算出部344は、光源80の同じ出射位置から出射した主像光線が生成する主像の位置と、光源80の同じ出射位置から出射した二重像光線が生成する二重像の位置とを比較し、両者の差分に基づいて二重像歪みを算出する。データ算出部344は、光源80の全ての出射位置について、上記の差分に基づいて二重像歪みを算出する。なお、光源80の同じ出射位置から出射した主像光線が生成する主像の位置と、二重像光線が生成する二重像の位置は、ステップS103からS106までの処理の中で既に得られている。 Next, in step S108, the data calculator 344 calculates double image distortion. Specifically, the data calculator 344 calculates the position of the main image generated by the main image ray emitted from the same emission position of the light source 80 and the double image ray generated by the double image ray emitted from the same emission position of the light source 80 . The positions of the images are compared, and the double image distortion is calculated based on the difference between the two. The data calculation unit 344 calculates the double image distortion based on the above difference for all emission positions of the light source 80 . The position of the main image generated by the principal image ray emitted from the same emission position of the light source 80 and the position of the double image generated by the double image ray have already been obtained in the processes from steps S103 to S106. ing.

次に、ステップS109では、データ算出部344は、ステップS107で算出した主像歪みとステップS108で算出した二重像歪みを所定の閾値と比較し、良否判定を行う。データ算出部344は、判定結果を検査結果出力部40に送信し、検査結果出力部40は検査結果を映像や音声、データ等で出力する。以上により、図4に示す全ての処理が終了する。 Next, in step S109, the data calculation unit 344 compares the main image distortion calculated in step S107 and the double image distortion calculated in step S108 with a predetermined threshold value, and performs quality determination. The data calculation unit 344 transmits the determination result to the inspection result output unit 40, and the inspection result output unit 40 outputs the inspection result as video, audio, data, or the like. All the processes shown in FIG. 4 are thus completed.

必要に応じ、検査装置1は、WS50を他のウィンドシールドに変えて検査を実行する。検査を実行する場合には、図4のステップS101に移行して上記と同様の処理を繰り返す。なお、制御部30に測定条件を外部から入力する入力手段を設けておき、検査装置1の操作者が予め検査すべきウィンドシールドの個数を入力しておくようにしてもよい。この場合、制御部30が入力手段から入力された個数に到達したと判定するまで、ステップS101からS109までの処理が繰り返される。 If necessary, the inspection apparatus 1 changes the WS 50 to another windshield to perform the inspection. If inspection is to be performed, the process proceeds to step S101 in FIG. 4 and repeats the same processing as described above. The controller 30 may be provided with input means for inputting the measurement conditions from the outside, and the operator of the inspection apparatus 1 may input the number of windshields to be inspected in advance. In this case, the processing from steps S101 to S109 is repeated until the control unit 30 determines that the number input from the input means has been reached.

又、運転者の異なる視点位置に対応するため、同一のWS50に対して、撮像器20を順次異なる位置に変えて(移動させて)検査を行ってもよい。 Also, in order to correspond to different viewpoint positions of the driver, the same WS 50 may be inspected by sequentially changing (moving) the imaging device 20 to different positions.

以上により、主像歪みと二重像歪みの測定についての説明は終了であるが、検査装置1は、主像歪みと二重像歪み以外に、ガラスのパラメータの検査も可能である。 This completes the description of the measurement of the main image distortion and the double image distortion, but the inspection apparatus 1 can also inspect glass parameters in addition to the main image distortion and the double image distortion.

図34は、本実施形態に係る検査装置を用いたガラスのパラメータの検査方法を示すフローチャートの一例である。 FIG. 34 is an example of a flowchart showing a method of inspecting parameters of glass using the inspection apparatus according to the present embodiment.

まず、ステップS601において、画像処理部340の光路特定部343は、WS50に入射する光線R1と主像視線E1との交点を求める。例えば、図31に示した光線R1が特定できると、図35(a)に示すように、光線R1に対する主像視線E1が特定できるので、光線R1と主像視線E1との交点を求めることができる。 First, in step S601, the optical path specifying unit 343 of the image processing unit 340 obtains the intersection of the light beam R1 incident on the WS50 and the main image line of sight E1. For example, if the light ray R1 shown in FIG. 31 can be specified, the main image line of sight E1 for the light ray R1 can be specified as shown in FIG. can.

次に、ステップS602において、光路特定部343は、光線R1と主像視線E1の交点におけるWS50の車内側となる面である第4面M4の角度を算出する。主像はWS50の第4面M4で反射して生成されるので、入射角と反射角が等しいことを踏まえると、図34(b)に示すように、光線R1と主像視線E1の交点におけるWS50の第4面M4の角度(水平面に対する角度)を算出できる。光線と主像視線の交点は全ての光線に対して求めることができるので、WS50の第4面M4全体の角度が求められる。 Next, in step S602, the optical path specifying unit 343 calculates the angle of the fourth plane M4, which is the plane inside the vehicle of the WS 50, at the intersection of the light ray R1 and the main image line of sight E1. Since the main image is generated by being reflected by the fourth surface M4 of the WS 50, considering that the angle of incidence and the angle of reflection are the same, as shown in FIG. The angle of the fourth surface M4 of the WS50 (angle with respect to the horizontal plane) can be calculated. Since the intersection of the rays and the principal image line of sight can be obtained for all rays, the angle of the entire fourth surface M4 of WS50 can be obtained.

次に、ステップS603において、画像処理部340のデータ算出部344は、WS50の車外側となる面である第1面M1の位置及び角度を算出する。図34(c)に示すように、P5の位置に生成される二重像について考えると、この二重像は、第4面M4に入射する光線R5が第4面M4で屈折し、WS50の車外側の面となる第1面M1で反射し、再度第4面M4で屈折して生成される。第4面M4の角度は既に求めているため、第1面M1の位置及び角度を求めることができる。全ての二重像を考慮することで、WS50の第1面M1全体の位置及び角度が求められる。 Next, in step S603, the data calculation unit 344 of the image processing unit 340 calculates the position and angle of the first surface M1, which is the surface of the WS 50 on the outside of the vehicle. As shown in FIG. 34(c), considering the double image generated at the position P5, this double image is caused by the ray R5 incident on the fourth surface M4 being refracted at the fourth surface M4, and the WS50 The light is reflected by the first surface M1, which is a surface on the vehicle outer side, and is refracted again by the fourth surface M4. Since the angle of the fourth surface M4 has already been obtained, the position and angle of the first surface M1 can be obtained. By considering all double images, the position and angle of the entire first surface M1 of WS50 can be obtained.

次に、ステップS604において、データ算出部344は、関連する項目を算出する。ここで、関連する項目とは、ステップS601~S603で得られた情報に基づいて算出される値であり、例えば、WS50の厚さや楔角の分布である。 Next, in step S604, the data calculation unit 344 calculates related items. Here, the related items are values calculated based on the information obtained in steps S601 to S603, such as the thickness of the WS 50 and the wedge angle distribution.

データ算出部344は、例えば、WS50の面の形状や楔角の分布を検査結果出力部40に送信し、検査結果出力部40は検査結果を映像や音声、データ等で出力する。或いは、データ算出部344は、WS50の面の形状や楔角の分布をウィンドシールドのCADデータと比較し、比較結果を検査結果出力部40に送信し、検査結果出力部40は比較結果を映像や音声、データ等で出力してもよい。 The data calculation unit 344 transmits, for example, the surface shape of the WS 50 and the wedge angle distribution to the inspection result output unit 40, and the inspection result output unit 40 outputs the inspection result as video, audio, data, and the like. Alternatively, the data calculation unit 344 compares the shape of the surface of the WS 50 and the wedge angle distribution with the CAD data of the windshield, and transmits the comparison result to the inspection result output unit 40, and the inspection result output unit 40 displays the comparison result as an image. , voice, data, etc. may be output.

このように、検査装置1において、第1XY座標算出部341は、画像表示器10が第1位置(Near)にあるときに、虚像の任意の点を形成するための元となる光線が出射される検査用画像の点の第1XY座標を求める。又、第2XY座標算出部342は、画像表示器10が第2位置(Far)にあるときに、虚像の任意の点を形成するための元となる光線が出射される検査用画像の点の第2XY座標を求める。 As described above, in the inspection apparatus 1, the first XY coordinate calculation unit 341 emits a light beam that serves as a base for forming an arbitrary point of the virtual image when the image display device 10 is at the first position (Near). A first XY coordinate of a point in the inspection image is obtained. Further, the second XY coordinate calculation unit 342 calculates the point of the inspection image from which the original light beam for forming an arbitrary point of the virtual image is emitted when the image display device 10 is at the second position (Far). Obtain the second XY coordinates.

そして、光路特定部343は、虚像の同一の点を形成する際の元となる光線が出射される第1XY座標と第2XY座標を特定することで、虚像の表示領域全体の各点を形成するための元となる光線の光路を特定する。そして、データ算出部344は、光路特定部343が特定した光路やヘッドアップディスプレイユニットの光学系の設計データ(例えば、CADデータ)に基づいて、ガラスの品質に関連するデータとして、主像歪みのデータ、二重像歪みのデータ、ガラスの厚さのデータ、ガラスの楔角のデータ、ガラスの面形状のデータの何れか1つ以上を算出する。 Then, the optical path specifying unit 343 specifies the first XY coordinates and the second XY coordinates from which light beams are emitted to form the same point of the virtual image, thereby forming each point of the entire display area of the virtual image. Identify the optical path of the light ray that is the source of the Then, the data calculation unit 344 calculates the main image distortion as data related to the quality of the glass based on the optical path specified by the optical path specifying unit 343 and the design data (for example, CAD data) of the optical system of the head-up display unit. data, double image distortion data, glass thickness data, glass wedge angle data, and glass surface shape data.

検査装置1によれば、HUDユニットを用いずに、HUDユニットの画像が投影されるガラスの品質の検査が可能となる。 According to the inspection apparatus 1, it is possible to inspect the quality of the glass on which the image of the HUD unit is projected without using the HUD unit.

以上、好ましい実施形態等について詳説したが、上述した実施形態等に制限されることはなく、特許請求の範囲に記載された範囲を逸脱することなく、上述した実施形態等に種々の変形及び置換を加えることができる。 Although the preferred embodiments and the like have been described in detail above, the present invention is not limited to the above-described embodiments and the like, and various modifications and substitutions can be made to the above-described embodiments and the like without departing from the scope of the claims. can be added.

例えば、上記の実施形態では、第1位置(Near)と第2位置(Far)の2か所で取得したデータに基づいて、虚像の表示領域全体の各点を形成するための光が通過する光路を特定した。しかし、これには限定されず、Z方向の座標が異なる3か所以上で取得したデータに基づいて、虚像の表示領域全体の各点を形成するための光が通過する光路を特定してもよい。 For example, in the above embodiment, light for forming each point in the entire display area of the virtual image passes through based on the data acquired at the first position (Near) and the second position (Far). identified the optical path. However, it is not limited to this, and an optical path through which light passes for forming each point in the entire virtual image display area may be specified based on data acquired at three or more locations with different coordinates in the Z direction. good.

又、上記の実施形態では、座標が明らかなX座標線画像とY座標線画像とを移動させながら虚像の投影位置に対応する第1位置及び第2位置のXY座標を求める例を示した。しかし、これには限定されず、検査用画像として、例えば、X座標及びY座標の特定を同時に行える市松模様の画像や、色の違いで座標が判定できる模様の画像等を用いてもよい。これらの画像を用いた場合、撮像回数を減らせる点で好適である。 In the above embodiment, the XY coordinates of the first position and the second position corresponding to the projection position of the virtual image are obtained while moving the X coordinate line image and the Y coordinate line image whose coordinates are clear. However, the inspection image is not limited to this, and for example, a checkerboard pattern image that allows simultaneous identification of the X and Y coordinates, or a pattern image that allows the coordinates to be determined based on the difference in color may be used. Using these images is preferable in that the number of times of imaging can be reduced.

1 検査装置
10 画像表示器
10x X座標線画像
10y Y座標線画像
20 撮像器
30 制御部
31 CPU
32 ROM
33 RAM
34 I/F
35 バスライン
40 検査結果出力部
50 ウィンドシールド(WS)
60、60x、60y 虚像
70 凹面鏡
80 光源
310 表示器位置決め部
320 表示器制御部
330 撮像器制御部
340 画像処理部
341 第1XY座標算出部
342 第2XY座標算出部
343 光路特定部
344 データ算出部
600 虚像表示領域
1 inspection device 10 image display device 10x X-coordinate line image 10y Y-coordinate line image 20 imaging device 30 control unit 31 CPU
32 ROMs
33 RAM
34 interfaces
35 Bus line 40 Inspection result output unit 50 Windshield (WS)
60, 60x, 60y Virtual image 70 Concave mirror 80 Light source 310 Display device positioning unit 320 Display device control unit 330 Image pickup device control unit 340 Image processing unit 341 First XY coordinate calculation unit 342 Second XY coordinate calculation unit 343 Optical path identification unit 344 Data calculation unit 600 Virtual image display area

Claims (8)

ヘッドアップディスプレイユニットと組み合わせて用いられるガラスの検査装置であって、
画像表示器と、
前記画像表示器に表示された検査用画像が前記ガラスに投影されて生成された虚像を撮像する撮像器と、
前記撮像器が撮像した前記虚像の画像データを処理する画像処理部と、
前記ヘッドアップディスプレイユニットの光学系の設計データを予め記憶している記憶部と、を有し、
重力方向をZ方向とし、前記Z方向と交差する平面内で互いに交差するX方向及びY方向を規定したときに、前記画像表示器は少なくとも第1位置及び前記第1位置とはZ方向の座標が異なる第2位置に移動可能に構成され、
前記画像処理部は、
前記画像表示器が前記第1位置にあるときに、前記虚像の任意の点を形成するための元となる光線が出射される前記検査用画像の点の第1XY座標を求める第1XY座標算出部と、
前記画像表示器が前記第2位置にあるときに、前記虚像の任意の点を形成するための元となる光線が出射される前記検査用画像の点の第2XY座標を求める第2XY座標算出部と、
前記虚像の同一の点を形成する際の元となる光線が出射される前記第1XY座標と前記第2XY座標を特定することで、前記虚像の表示領域全体の各点を形成するための元となる光線の光路を特定する光路特定部と、
前記光路特定部が特定した前記光路に基づいて、前記ガラスの品質に関連するデータを算出するデータ算出部と、を有し、
前記虚像は、主像と二重像を含み、
前記第1XY座標算出部は、前記画像表示器が前記第1位置にあるときに、前記主像の任意の点を形成するための元となる主像光線が出射される前記検査用画像の点の主像第1XY座標を求めると共に、前記二重像の任意の点を形成するための元となる二重像光線が出射される前記検査用画像の点の二重像第1XY座標を求め、
前記第2XY座標算出部は、前記画像表示器が前記第2位置にあるときに、前記主像の任意の点を形成するための元となる主像光線が出射される前記検査用画像の点の主像第2XY座標を求めると共に、前記二重像の任意の点を形成するための元となる二重像光線が出射される前記検査用画像の点の二重像第2XY座標を求め、
前記光路特定部は、前記主像の同一の点を形成する際の元となる主像光線が出射される前記主像第1XY座標と前記主像第2XY座標を特定することで、前記主像の表示領域全体の各点を形成するための元となる主像光線の光路を特定すると共に、前記二重像の同一の点を形成する際の元となる二重像光線が出射される二重像第1XY座標と二重像第2XY座標を特定することで、前記二重像の表示領域全体の各点を形成するための元となる二重像光線の光路を特定し、さらに前記記憶部から読み出した前記設計データに基づいて、前記ヘッドアップディスプレイユニットの凹面鏡及び光源の位置を特定し、前記凹面鏡及び前記光源の位置と前記主像光線の光路とに基づいて、前記主像光線の光路に光を出射する前記光源の出射位置を特定するガラスの検査装置。
A glass inspection device used in combination with a head-up display unit,
an image display;
an imaging device that captures a virtual image generated by projecting the inspection image displayed on the image display onto the glass;
an image processing unit that processes image data of the virtual image captured by the imaging device;
a storage unit storing in advance design data of the optical system of the head-up display unit ;
When the direction of gravity is defined as the Z direction, and the X direction and the Y direction that intersect each other in a plane that intersects the Z direction are defined, the image display device has at least a first position and the first position is a coordinate in the Z direction. is configured to be movable to different second positions,
The image processing unit
A first XY coordinate calculation unit for obtaining a first XY coordinate of a point of the inspection image from which a light beam forming an arbitrary point of the virtual image is emitted when the image display is at the first position. and,
A second XY coordinate calculator for calculating a second XY coordinate of a point of the inspection image from which a light beam forming an arbitrary point of the virtual image is emitted when the image display is at the second position. and,
By specifying the first XY coordinates and the second XY coordinates from which light rays are emitted, which are the basis for forming the same point of the virtual image, the basis for forming each point in the entire display area of the virtual image. an optical path specifying unit that specifies the optical path of the light ray,
a data calculation unit that calculates data related to the quality of the glass based on the optical path specified by the optical path specifying unit ;
The virtual image includes a main image and a double image,
The first XY coordinate calculator calculates a point of the inspection image from which a main image ray is emitted to form an arbitrary point of the main image when the image display is at the first position. find the first XY coordinates of the main image of the double image, and find the first XY coordinates of the double image of the point of the inspection image from which the original double image light beam for forming an arbitrary point of the double image is emitted,
The second XY coordinate calculator calculates a point of the inspection image from which a main image ray is emitted as a base for forming an arbitrary point of the main image when the image display is at the second position. find the second XY coordinates of the main image of the double image, and find the second XY coordinates of the double image of the point of the inspection image from which the original double image light beam for forming an arbitrary point of the double image is emitted,
The optical path specifying unit specifies the main image first XY coordinates and the main image second XY coordinates from which the main image ray is emitted to form the same point of the main image. In addition to specifying the optical path of the main image ray that is the source for forming each point in the entire display area of the above, By specifying the first XY coordinates of the double image and the second XY coordinates of the double image, an optical path of the double image ray that is the source for forming each point in the entire display area of the double image is specified, and further the storage is performed. The position of the concave mirror and the light source of the head-up display unit is specified based on the design data read from the unit, and the position of the main image ray is determined based on the positions of the concave mirror and the light source and the optical path of the main image ray. A glass inspection apparatus for specifying the emission position of the light source that emits light to the optical path .
前記記憶部は、前記ガラスの設計データを予め記憶しており、
前記データ算出部は、
前記光源の同じ出射位置から出射した前記主像光線が前記記憶部から読み出した前記ガラスの設計データを用いた場合に形成する主像の位置と、測定対象となる前記ガラスを用い場合に形成する主像の位置とを比較し、両者の差分に基づいて主像歪みを算出する請求項に記載のガラスの検査装置。
The storage unit stores design data of the glass in advance,
The data calculation unit
The position of the main image formed when the main image ray emitted from the same emission position of the light source uses the design data of the glass read from the storage unit, and the position of the main image formed when the glass to be measured is used. 2. A glass inspection apparatus according to claim 1 , wherein the position of the main image is compared and the main image distortion is calculated based on the difference between the two.
前記光路特定部は、
前記凹面鏡及び前記光源の位置と前記二重像光線の光路とに基づいて、前記二重像光線の光路に光線を出射する前記光源の出射位置を特定する請求項又はに記載のガラスの検査装置。
The optical path specifying unit
3. The glass according to claim 1 or 2 , wherein an emission position of the light source that emits light to the optical path of the double image light is specified based on the positions of the concave mirror and the light source and the optical path of the double image light. inspection equipment.
前記データ算出部は、
前記光源の同じ出射位置から出射した前記主像光線が生成する主像の位置と、前記光源の同じ出射位置から出射した前記二重像光線が生成する二重像の位置とを比較し、両者の差分に基づいて二重像歪みを算出する請求項に記載のガラスの検査装置。
The data calculation unit
comparing the position of the main image generated by the principal image ray emitted from the same emission position of the light source and the position of the double image generated by the double image ray emitted from the same emission position of the light source; 4. The glass inspection apparatus according to claim 3 , wherein the double image distortion is calculated based on the difference between .
前記データ算出部は、前記主像光線の光路、及び前記二重像光線の光路に基づいて、前記ガラスの厚さのデータ、前記ガラスの楔角のデータ、前記ガラスの面形状のデータの何れか1つ以上を算出する請求項乃至の何れか一項に記載のガラスの検査装置。 The data calculator calculates any one of the thickness data of the glass, the wedge angle data of the glass, and the surface shape data of the glass based on the optical path of the main image ray and the optical path of the double image ray. 5. The glass inspection apparatus according to any one of claims 1 to 4 , wherein one or more of the above is calculated. 前記検査用画像は、光学系を介さずに前記ガラスに直接投影される請求項1乃至の何れか一項に記載のガラスの検査装置。 The glass inspection apparatus according to any one of claims 1 to 5 , wherein the inspection image is directly projected onto the glass without an optical system. 前記ガラスは、車両用のウィンドシールドである請求項1乃至の何れか一項に記載のガラスの検査装置。 The glass inspection apparatus according to any one of claims 1 to 6 , wherein the glass is a vehicle windshield. ヘッドアップディスプレイユニットと組み合わせて用いられるガラスの検査方法であって、
画像表示器に表示された検査用画像が前記ガラスに投影されて生成された虚像を撮像する撮像ステップと、
前記撮像ステップで撮像した前記虚像の画像データを処理する画像処理ステップと、を有し、
重力方向をZ方向とし、前記Z方向と交差する平面内で互いに交差するX方向及びY方向を規定したときに、前記画像表示器は少なくとも第1位置及び前記第1位置とはZ方向の座標が異なる第2位置に移動可能に構成され、
前記画像処理ステップは、
前記画像表示器が前記第1位置にあるときに、前記虚像の任意の点を形成するための元となる光線が出射される前記検査用画像の点の第1XY座標を求める第1XY座標算出ステップと、
前記画像表示器が前記第2位置にあるときに、前記虚像の任意の点を形成するための元となる光線が出射される前記検査用画像の点の第2XY座標を求める第2XY座標算出ステップと、
前記虚像の同一の点を形成する際の元となる光線が出射される前記第1XY座標と前記第2XY座標を特定することで、前記虚像の表示領域全体の各点を形成するための元となる光線の光路を特定する光路特定ステップと、
前記光路特定ステップで特定した前記光路に基づいて、前記ガラスの品質に関連するデータを算出するデータ算出ステップと、を有し、
前記虚像は、主像と二重像を含み、
前記第1XY座標算出ステップでは、前記画像表示器が前記第1位置にあるときに、前記主像の任意の点を形成するための元となる主像光線が出射される前記検査用画像の点の主像第1XY座標を求めると共に、前記二重像の任意の点を形成するための元となる二重像光線が出射される前記検査用画像の点の二重像第1XY座標を求め、
前記第2XY座標算出ステップでは、前記画像表示器が前記第2位置にあるときに、前記主像の任意の点を形成するための元となる主像光線が出射される前記検査用画像の点の主像第2XY座標を求めると共に、前記二重像の任意の点を形成するための元となる二重像光線が出射される前記検査用画像の点の二重像第2XY座標を求め、
前記光路特定ステップでは、前記主像の同一の点を形成する際の元となる主像光線が出射される前記主像第1XY座標と前記主像第2XY座標を特定することで、前記主像の表示領域全体の各点を形成するための元となる主像光線の光路を特定すると共に、前記二重像の同一の点を形成する際の元となる二重像光線が出射される二重像第1XY座標と二重像第2XY座標を特定することで、前記二重像の表示領域全体の各点を形成するための元となる二重像光線の光路を特定し、さらに前記ヘッドアップディスプレイユニットの光学系の設計データを予め記憶している記憶部から読み出した前記設計データに基づいて、前記ヘッドアップディスプレイユニットの凹面鏡及び光源の位置を特定し、前記凹面鏡及び前記光源の位置と前記主像光線の光路とに基づいて、前記主像光線の光路に光を出射する前記光源の出射位置を特定するガラスの検査方法。
A glass inspection method used in combination with a head-up display unit,
an imaging step of imaging a virtual image generated by projecting the inspection image displayed on the image display onto the glass;
an image processing step of processing the image data of the virtual image captured in the imaging step;
When the direction of gravity is defined as the Z direction, and the X direction and the Y direction that intersect each other in a plane that intersects the Z direction are defined, the image display device has at least a first position and the first position is a coordinate in the Z direction. is configured to be movable to different second positions,
The image processing step includes:
A first XY coordinate calculation step of obtaining a first XY coordinate of a point of the inspection image from which a light beam forming an arbitrary point of the virtual image is emitted when the image display is at the first position. and,
A second XY coordinate calculation step of obtaining a second XY coordinate of a point of the inspection image from which a light beam forming an arbitrary point of the virtual image is emitted when the image display is at the second position. and,
By specifying the first XY coordinates and the second XY coordinates from which light rays are emitted, which are the basis for forming the same point of the virtual image, the basis for forming each point in the entire display area of the virtual image. an optical path identification step of identifying the optical path of a ray of
a data calculation step of calculating data related to the quality of the glass based on the optical path identified in the optical path identification step ;
The virtual image includes a main image and a double image,
In the first XY coordinate calculation step, when the image display device is at the first position, a point of the inspection image emitted from which a main image ray forming an arbitrary point of the main image is emitted. find the first XY coordinates of the main image of the double image, and find the first XY coordinates of the double image of the point of the inspection image from which the original double image light beam for forming an arbitrary point of the double image is emitted,
In the second XY coordinate calculation step, when the image display device is at the second position, a point of the inspection image emitted from which a main image ray forming an arbitrary point of the main image is emitted. find the second XY coordinates of the main image of the double image, and find the second XY coordinates of the double image of the point of the inspection image from which the original double image light beam for forming an arbitrary point of the double image is emitted,
In the optical path specifying step, the main image first XY coordinates and the main image second XY coordinates from which the main image ray is emitted to form the same point of the main image are specified. In addition to specifying the optical path of the main image ray that is the source for forming each point in the entire display area of the above, By specifying the first XY coordinates of the double image and the second XY coordinates of the double image, the optical path of the double image light beam that is the source for forming each point in the entire display area of the double image is specified, and further the head The positions of the concave mirror and the light source of the head-up display unit are specified based on the design data read from the storage unit that stores the design data of the optical system of the up-display unit in advance, and the positions of the concave mirror and the light source are determined. A method of inspecting glass, wherein an emission position of the light source that emits light to the optical path of the main image ray is specified based on the optical path of the main image ray.
JP2019192091A 2019-10-21 2019-10-21 Glass inspection device, glass inspection method Active JP7331618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019192091A JP7331618B2 (en) 2019-10-21 2019-10-21 Glass inspection device, glass inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019192091A JP7331618B2 (en) 2019-10-21 2019-10-21 Glass inspection device, glass inspection method

Publications (2)

Publication Number Publication Date
JP2021067528A JP2021067528A (en) 2021-04-30
JP7331618B2 true JP7331618B2 (en) 2023-08-23

Family

ID=75638350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019192091A Active JP7331618B2 (en) 2019-10-21 2019-10-21 Glass inspection device, glass inspection method

Country Status (1)

Country Link
JP (1) JP7331618B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014038015A (en) 2012-08-14 2014-02-27 Nidec Tosok Corp Three-dimensional measuring device
JP2017111013A (en) 2015-12-16 2017-06-22 株式会社オキサイド Transparent base material measurement device and transparent base material measurement method
WO2017179453A1 (en) 2016-04-14 2017-10-19 旭硝子株式会社 Inspecting device and inspecting method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0259604A (en) * 1988-08-25 1990-02-28 Nippon Sheet Glass Co Ltd Inspecting device for reflection strain of glass material
US5343288A (en) * 1992-11-23 1994-08-30 Libbey-Owens-Ford Co. Optical evaluation of automotive glass

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014038015A (en) 2012-08-14 2014-02-27 Nidec Tosok Corp Three-dimensional measuring device
JP2017111013A (en) 2015-12-16 2017-06-22 株式会社オキサイド Transparent base material measurement device and transparent base material measurement method
WO2017179453A1 (en) 2016-04-14 2017-10-19 旭硝子株式会社 Inspecting device and inspecting method

Also Published As

Publication number Publication date
JP2021067528A (en) 2021-04-30

Similar Documents

Publication Publication Date Title
US8233041B2 (en) Image processing device and image processing method for performing three dimensional measurements
JP5564349B2 (en) Image processing apparatus and appearance inspection method
US10948719B2 (en) Inspection device and inspection method
JP5597056B2 (en) Image measuring apparatus, image measuring method, and program for image measuring apparatus
US8503758B2 (en) Image measurement device, method for image measurement, and computer readable medium storing a program for image measurement
JP5365645B2 (en) Substrate inspection apparatus, substrate inspection system, and method of displaying screen for confirming substrate inspection result
JP7167453B2 (en) APPEARANCE INSPECTION SYSTEM, SETTING DEVICE, IMAGE PROCESSING DEVICE, SETTING METHOD AND PROGRAM
JP2016061687A (en) Contour line measurement device and robot system
US10796428B2 (en) Inspection system and inspection method
WO2006098258A1 (en) Calibration method for 3-dimensional measurement and 3-dimensional measurement system using the method
JP2008241643A (en) Three-dimensional shape measuring device
JP7088530B2 (en) 3D method and device for projecting measurement result-related information on the surface of an object to be measured
US20180247147A1 (en) Automatic alignment of a 3d model to a test object
JP7331618B2 (en) Glass inspection device, glass inspection method
JP3817640B1 (en) 3D shape measurement system
US10909702B2 (en) Inspection device
JP3340296B2 (en) Distortion inspection method and distortion inspection device
JP2011191170A (en) Image processing apparatus
JP2016011930A (en) Connection method of three-dimensional data, measurement method, measurement device, structure manufacturing method, structure manufacturing system, and shape measurement program
JP2009192483A (en) Three dimensional shape measuring method and three dimensional shape measuring device
JP5648255B2 (en) Luminance measuring device and luminance measuring method
JP2020056635A (en) Shape measuring device, shape measuring method, and shape measuring program
WO2023026699A1 (en) Appearance inspecting device and appearance inspecting method
WO2024004681A1 (en) Robot teaching device, visual inspection system, and robot teaching method
JP7176969B2 (en) inspection equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R150 Certificate of patent or registration of utility model

Ref document number: 7331618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150