JP2020197511A - Measurement device, imaging device, measurement system, and program - Google Patents

Measurement device, imaging device, measurement system, and program Download PDF

Info

Publication number
JP2020197511A
JP2020197511A JP2019105611A JP2019105611A JP2020197511A JP 2020197511 A JP2020197511 A JP 2020197511A JP 2019105611 A JP2019105611 A JP 2019105611A JP 2019105611 A JP2019105611 A JP 2019105611A JP 2020197511 A JP2020197511 A JP 2020197511A
Authority
JP
Japan
Prior art keywords
measurement
plane
measuring device
imaging
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019105611A
Other languages
Japanese (ja)
Other versions
JP7277267B2 (en
Inventor
太省 森
Taisho Mori
太省 森
章成 高木
Akinari Takagi
章成 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019105611A priority Critical patent/JP7277267B2/en
Publication of JP2020197511A publication Critical patent/JP2020197511A/en
Application granted granted Critical
Publication of JP7277267B2 publication Critical patent/JP7277267B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To acquire an image taken of a measurement target in a desirable state when making a measurement based on the image.SOLUTION: The measurement device includes: acquisition means for acquiring an image taken of an object with a flat surface as a measurement target on which a predetermined pattern is projected, information of the predetermined pattern, and information on the relative positional relation between a projection optical system which projected the predetermined pattern and an imaging optical system; determination means for determining the direction of taking the image on the basis of the image taken by the acquisition means, the information on the predetermined pattern, and the information on the relative positional relation; and first notification means for issuing a notification according to the direction of imaging determined by the determination means.SELECTED DRAWING: Figure 3

Description

本発明は、計測装置、撮像装置、計測システム及びプログラムに関し、特に撮像画像に基づく被写体に係る各種計測を行う技術に関する。 The present invention relates to a measuring device, an imaging device, a measuring system, and a program, and more particularly to a technique for performing various measurements on a subject based on a captured image.

寸法計測手法の1つに、計測対象である被写体を撮像し、撮像画像上における被写体像の大きさに基づいて寸法を導出するものがある。例えば工業用途では、部品や製品が仕様通りに加工・組み付けされているかを判断する外観検査に、このような寸法計測手法が採用されている。この他、近年ではスマートフォン等の通信端末では、家具や魚等の被写体を撮像した撮像画像上に、所定の点間の現実空間における距離や、距離把握の基準となる物差しを重畳する機能を備えるものもある。 One of the dimensional measurement methods is to take an image of a subject to be measured and derive the dimensions based on the size of the subject image on the captured image. For example, in industrial applications, such a dimensional measurement method is used for visual inspection to determine whether parts and products are processed and assembled according to specifications. In addition, in recent years, communication terminals such as smartphones have a function of superimposing the distance between predetermined points in the real space and a measuring rod that serves as a reference for grasping the distance on the captured image of a subject such as furniture or fish. There are also things.

このような撮像画像に基づく寸法計測では、撮像時の撮像倍率や撮像画角に加え、被写体までの距離(被写体距離、深度情報)が結果導出に必要になる。被写体距離を導出する1つの手法として、撮像光学系と異なる位置から既知のパターンの像を被写体に投影し、撮像画像において投影態様を解析することで被写体距離や被写体の表面形状を導出する手法がある。特許文献1では、既知の間隔の平行光を投光し、それを撮像することで測距を行っている。 In such dimensional measurement based on a captured image, the distance to the subject (subject distance, depth information) is required to derive the result in addition to the imaging magnification and the imaging angle of view at the time of imaging. One method for deriving the subject distance is to project an image of a known pattern onto the subject from a position different from that of the imaging optical system, and analyze the projection mode in the captured image to derive the subject distance and the surface shape of the subject. is there. In Patent Document 1, distance measurement is performed by projecting parallel light at a known interval and imaging the parallel light.

特開2017−191024号公報JP-A-2017-191024

ところで、上述したような撮像画像に基づく寸法計測を行う対象が、撮像光学系の光軸に対してヨー方向やピッチ方向に傾斜している状況では、奥行き位置の違いによる撮像倍率の変化により、計測精度が低下し得る。これは、手前の測定位置と奥の測定位置とで撮影倍率の差が生じ、撮像画像における空間分解能(解像度)が異なるため、撮像画像において手前の被写体に比べて奥の被写体に割り当てられる単位長さあたりの画素数が少なくなることに起因する。 By the way, in a situation where the object to be dimensionally measured based on the captured image as described above is inclined in the yaw direction or the pitch direction with respect to the optical axis of the imaging optical system, due to the change in the imaging magnification due to the difference in the depth position, The measurement accuracy may decrease. This is because there is a difference in shooting magnification between the measurement position in the foreground and the measurement position in the back, and the spatial resolution (resolution) in the captured image is different. Therefore, the unit length assigned to the subject in the back compared to the subject in the foreground in the captured image. This is due to the fact that the number of pixels around the edge is reduced.

一方、特許文献1の照射装置では、撮像時に被写体に予め定められた関係の3種類の基準光点を照射し、撮像画像に現れたこれらの交点の位置関係に応じて、計測対象の傾斜状態を取得し、計測結果を補正している。しかしながら、特許文献1の手法は撮像後に奥行き方向での撮像倍率の変化を補正するものであるため、寸法を導出したとしても画素数低下による精度低下を根本的に解決できない可能性があった。 On the other hand, in the irradiation device of Patent Document 1, the subject is irradiated with three types of reference light points having a predetermined relationship at the time of imaging, and the measurement target is tilted according to the positional relationship of these intersections appearing in the captured image. Is acquired and the measurement result is corrected. However, since the method of Patent Document 1 corrects the change in the imaging magnification in the depth direction after imaging, there is a possibility that the decrease in accuracy due to the decrease in the number of pixels cannot be fundamentally solved even if the dimensions are derived.

本発明は、上述の問題点に鑑みてなされたものであり、撮像画像に基づく計測に際し、計測対象が好適な状態の撮像画像を取得する計測装置、撮像装置、計測システム及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and provides a measuring device, an imaging device, a measuring system, and a program for acquiring an captured image in a state in which a measurement target is suitable for measurement based on an captured image. With the goal.

前述の目的を達成するために、本発明の計測装置は、所定のパターンが投影された、計測対象の平面を有する被写体を撮像した撮像画像、該所定のパターンの情報、及び所定のパターンを投影した投影光学系と撮像光学系の相対位置関係の情報を取得する取得手段と、取得手段により取得された撮像画像、所定のパターンの情報、及び相対位置関係の情報に基づき、該撮像画像の撮像方向を判断する判断手段と、判断手段により判断される撮像方向に応じた通知を行う第1の通知手段と、を有することを特徴とする。 In order to achieve the above-mentioned object, the measuring device of the present invention projects a captured image of a subject having a plane to be measured on which a predetermined pattern is projected, information on the predetermined pattern, and a predetermined pattern. Imaging of the captured image based on the acquisition means for acquiring the information on the relative positional relationship between the projected projection optical system and the imaging optical system, the captured image acquired by the acquisition means, the information of a predetermined pattern, and the information on the relative positional relationship. It is characterized by having a determination means for determining a direction and a first notification means for giving a notification according to an imaging direction determined by the determination means.

このような構成により本発明によれば、撮像画像に基づく計測に際し、計測対象が好適な状態の撮像画像を取得することが可能となる。 According to the present invention, it is possible to acquire an image captured in a state in which the measurement target is suitable for measurement based on the captured image.

本発明の実施形態1に係る計測装置100を示した外観図External view showing the measuring device 100 according to the first embodiment of the present invention. 本発明の実施形態1に係る計測装置100の機能構成を説明するための図The figure for demonstrating the functional structure of the measuring apparatus 100 which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る計測装置100で実行される計測処理を例示したフローチャートA flowchart illustrating a measurement process executed by the measuring device 100 according to the first embodiment of the present invention. 本発明の実施形態1に係る計測装置100における、計測項目に係る計測点の入力を説明するための図The figure for demonstrating the input of the measurement point which concerns on the measurement item in the measurement apparatus 100 which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る計測装置100における、計測項目に係る計測点の入力を説明するための別の図Another figure for explaining the input of the measurement point which concerns on the measurement item in the measurement apparatus 100 which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る計測装置100における、計測項目に係る計測点の入力を説明するためのさらに別の図Yet another diagram for explaining the input of the measurement points related to the measurement items in the measuring device 100 according to the first embodiment of the present invention. 本発明の実施形態及び変形例に係る対象被写体の平面の法線と撮像方向との関係を説明するための図The figure for demonstrating the relationship between the plane normal and the imaging direction of the object subject which concerns on embodiment and modification of this invention. 本発明の実施形態及び変形例に係る対象被写体の平面の法線と撮像方向との関係を説明するための別の図Another diagram for explaining the relationship between the plane normal and the imaging direction of the target subject according to the embodiment and the modified example of the present invention. 本発明の実施形態1に係る対象被写体へのパターン投影態様を説明するための図The figure for demonstrating the pattern projection mode to the object subject which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る計測装置100と対象被写体の平面とが正対している状態を説明するための図The figure for demonstrating the state which the measuring apparatus 100 which concerns on Embodiment 1 of this invention and a plane of a target subject face each other. 本発明の実施形態1に係る投影角と像ずれ量の関係を説明するための図The figure for demonstrating the relationship between the projection angle and the amount of image displacement which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る計測装置100における、対象被写体の平面と正対していない状態の通知態様を例示した図The figure which illustrated the notification mode of the state which does not face a plane of a target subject in the measuring apparatus 100 which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る計測装置100における、計測結果の提示態様を例示した図The figure which illustrated the presentation mode of the measurement result in the measuring apparatus 100 which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る計測装置100における、計測精度を向上させるためのガイド表示の提示態様を説明するための図The figure for demonstrating the presentation mode of the guide display for improving the measurement accuracy in the measuring apparatus 100 which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る計測装置100における、計測精度を向上させるためのガイド表示の提示態様を説明するための別の図Another diagram for explaining the presentation mode of the guide display for improving the measurement accuracy in the measuring device 100 according to the first embodiment of the present invention. 本発明の変形例に係る計測装置100を示した外観図External view showing the measuring device 100 according to the modified example of the present invention. 本発明の変形例に係る対象被写体へのパターン投影態様を説明するための図The figure for demonstrating the pattern projection mode to the target subject which concerns on the modification of this invention. 本発明の実施形態2に係る計測装置100で実行される計測処理を例示したフローチャートA flowchart illustrating a measurement process executed by the measuring device 100 according to the second embodiment of the present invention. 本発明の実施形態2における、計測項目に係る計測点の分布状態を例示した図The figure which illustrated the distribution state of the measurement point which concerns on the measurement item in Embodiment 2 of this invention. 本発明の実施形態2に係る計測装置100における、寸法導出用に格納される撮像画像を例示した図The figure which illustrated the captured image stored for dimension derivation in the measuring apparatus 100 which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る計測装置100における、寸法導出用の展開画像を例示した図The figure which illustrated the developed image for dimension derivation in the measuring apparatus 100 which concerns on Embodiment 2 of this invention.

[実施形態1]
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[Embodiment 1]
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate description is omitted.

以下に説明する一実施形態は、計測システムの一例としての、距離計測用のパターンを投影する投影光学系と、計測用の撮像光学系とを有する計測装置に、本発明を適用した例を説明する。しかし、本発明は、既知の位置関係で配置された投影装置及び撮像装置と通信接続されて情報の送受信が可能に構成され、計測対象の撮像態様を解析可能な任意の機器またはこれらの機器で構成されるシステムに適用可能である。 One embodiment described below describes an example in which the present invention is applied to a measuring device having a projection optical system for projecting a pattern for distance measurement and an imaging optical system for measurement as an example of a measurement system. To do. However, the present invention is configured to be capable of transmitting and receiving information by being connected to a projection device and an imaging device arranged in a known positional relationship by communication, and can be an arbitrary device capable of analyzing an imaging mode of a measurement target, or any device thereof. Applicable to the configured system.

《計測装置100の構成》
図1は、本実施形態に係る計測装置100の外観を示した図である。図示されるように、本実施形態の計測装置100は、撮像用の撮像部102とパターン投影用の投影部101とが計測装置100の筐体に備えられており、1台でパターン投影を行いながらの撮像及び被写体距離の導出が可能に構成されている。本実施形態では、このように計測装置100が撮像部102及び投影部101を備えるものとして説明するが、本発明の実施はこれに限られるものではない。計測装置100は、撮像部102から取得した撮像画像について、被写体に投影部101が投影したパターンの情報を把握し、撮像画像中の該パターンの状態を解析することで撮像部102の撮像方向を特定可能であればよく、一体となっている必要はない。
<< Configuration of measuring device 100 >>
FIG. 1 is a diagram showing the appearance of the measuring device 100 according to the present embodiment. As shown in the figure, in the measuring device 100 of the present embodiment, an imaging unit 102 for imaging and a projection unit 101 for pattern projection are provided in the housing of the measuring device 100, and pattern projection is performed by one unit. It is configured to enable imaging and derivation of subject distance. In the present embodiment, the measuring device 100 is described as including the imaging unit 102 and the projection unit 101 in this way, but the implementation of the present invention is not limited to this. The measuring device 100 grasps the information of the pattern projected by the projection unit 101 on the subject of the captured image acquired from the imaging unit 102, and analyzes the state of the pattern in the captured image to determine the imaging direction of the imaging unit 102. It does not have to be integrated as long as it can be identified.

次に、図2のブロック図を用いて、本実施形態の計測装置100の機能構成について説明する。 Next, the functional configuration of the measuring device 100 of the present embodiment will be described with reference to the block diagram of FIG.

演算部104は、例えばCPUやマイクロプロセッサ、及びワークメモリで構成された制御装置であり、計測装置100が備える各ブロックの動作を制御する。演算部104は、例えば記憶部105に格納されている各ブロックの動作プログラムを読み出し、不図示のワークメモリに展開して実行することで各ブロックの動作を制御する。また演算部104は、撮像時において、オートフォーカス(AF:自動焦点合わせ)、フォーカス位置の変更、F値(絞り)の変更等の撮像部102の制御処理も行う。また本実施形態の演算部104は、撮像部102によって撮像された画像信号に対する各種の画像処理も行うものとして説明する。 The calculation unit 104 is a control device composed of, for example, a CPU, a microprocessor, and a work memory, and controls the operation of each block included in the measurement device 100. The arithmetic unit 104 controls the operation of each block by reading the operation program of each block stored in the storage unit 105, expanding it into a work memory (not shown), and executing the program. The arithmetic unit 104 also performs control processing of the imaging unit 102 such as autofocus (AF: automatic focusing), change of focus position, and change of F value (aperture) at the time of imaging. Further, the calculation unit 104 of the present embodiment will be described as performing various image processing on the image signal captured by the image pickup unit 102.

記憶部105は、例えば不揮発性メモリ等の計測装置100が備える記録装置である。記憶部105は、計測装置100が有する各ブロックの動作プログラム等、恒久的な記録が必要となる情報の格納に用いられる。一方、先に述べたワークメモリは、例えば揮発性メモリ等の記憶装置であり、動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力された中間データを一時的に記憶する記憶領域として機能する。 The storage unit 105 is a recording device included in the measuring device 100 such as a non-volatile memory. The storage unit 105 is used to store information that requires permanent recording, such as an operation program of each block of the measuring device 100. On the other hand, the work memory described above is a storage device such as a volatile memory, and is not only used as an expansion area for an operation program but also as a storage area for temporarily storing intermediate data output in the operation of each block. Function.

ディスプレイ103は、例えばLCD等の表示装置であり、計測装置100における各種の情報提示を行う。ディスプレイ103は、撮像部102により撮像が行われている際、A/D変換された画像データを表示(スルー表示)することで、デジタルビューファインダとして機能する。また本実施形態ではディスプレイ103は、好適な撮像方向を通知する際のGUIの表示や、計測結果の表示にも用いられる。 The display 103 is, for example, a display device such as an LCD, and presents various types of information in the measuring device 100. The display 103 functions as a digital viewfinder by displaying (through display) the A / D converted image data when the image pickup unit 102 is performing imaging. Further, in the present embodiment, the display 103 is also used for displaying a GUI when notifying a suitable imaging direction and displaying a measurement result.

操作入力部106は、例えばレリーズスイッチ、設定ボタン、モード設定ダイアル等の計測装置100が備えるユーザ入力インタフェースである。操作入力部106は、各種ユーザ入力インタフェースに対してなされた操作入力を検出すると、該操作入力に対応する制御信号を演算部104に出力する。またディスプレイ103がタッチパネルセンサを備えている態様においては、操作入力部106は、ディスプレイ103に対してなされたタッチ操作を検出するインタフェースとしても機能する。 The operation input unit 106 is a user input interface included in the measuring device 100 such as a release switch, a setting button, and a mode setting dial. When the operation input unit 106 detects the operation input made to various user input interfaces, the operation input unit 106 outputs a control signal corresponding to the operation input to the calculation unit 104. Further, in the embodiment in which the display 103 is provided with a touch panel sensor, the operation input unit 106 also functions as an interface for detecting a touch operation performed on the display 103.

投影部101は、計測対象の被写体に対して所定のパターンを投影する。投影部101は、投影光学系111、パターン表示部112及び投光部113で構成され、後述の計測処理の必要なタイミングにおいて駆動するよう制御される。 The projection unit 101 projects a predetermined pattern on the subject to be measured. The projection unit 101 is composed of a projection optical system 111, a pattern display unit 112, and a light projection unit 113, and is controlled to be driven at a timing required for measurement processing described later.

投光部113は、例えば光源や照明等を有した投光機能を実現する。投光部113により照射された光束は、パターン表示部112と投影光学系111を介して計測対象の被写体に対して投影される。パターン表示部112は、例えば液晶パネル、DLP等の像形成装置であり、被写体に対して投影するパターンを形成する。即ち、投光部113によってパターン表示部112が照射されると、パターン表示部112に形成されたパターンが、投影光学系111を介して被写体に対して投影される。なお、本実施形態では投影するパターンを可変とするために、パターン表示部112は液晶素子であるものとして説明するが、空間変調器等のその他の素子が採用されるものであってもよい。 The light projecting unit 113 realizes a light projecting function having, for example, a light source or lighting. The luminous flux emitted by the light projecting unit 113 is projected onto the subject to be measured via the pattern display unit 112 and the projection optical system 111. The pattern display unit 112 is an image forming device such as a liquid crystal panel or DLP, and forms a pattern to be projected onto a subject. That is, when the pattern display unit 112 is irradiated by the light projecting unit 113, the pattern formed on the pattern display unit 112 is projected onto the subject via the projection optical system 111. In the present embodiment, the pattern display unit 112 is described as a liquid crystal element in order to make the projected pattern variable, but other elements such as a space modulator may be adopted.

撮像部102は、計測対象の被写体を含む撮像範囲を撮像し、撮像画像に係る画像信号を出力する。撮像部102は、例えばCCDやCMOSセンサ等であってよい撮像素子122を有する。撮像素子122は、撮像光学系121を介して入射した光束によって撮像素子122の撮像面に形成された光学像を光電変換し、アナログ画像信号を出力する。本実施形態では撮像により取得されたアナログ画像信号は、例えば演算部104によりA/D変換処理や調整処理、現像処理等、各種の画像処理を行い、デジタルデータの撮像画像に変換されるものとして説明する。 The imaging unit 102 images an imaging range including the subject to be measured, and outputs an image signal related to the captured image. The image pickup unit 102 has an image pickup element 122 that may be, for example, a CCD or a CMOS sensor. The image pickup element 122 photoelectrically converts an optical image formed on the image pickup surface of the image pickup element 122 by a luminous flux incident through the image pickup optical system 121, and outputs an analog image signal. In the present embodiment, the analog image signal acquired by imaging is subjected to various image processing such as A / D conversion processing, adjustment processing, and development processing by the arithmetic unit 104, and is converted into a captured image of digital data. explain.

しかしながら、本発明の実施はこれに限られるものではない。例えば、このような画像処理や変換処理は、撮像部102に備えられた不図示の機能構成により実現され、撮像画像が撮像部102から出力される構成としてもよいし、演算部104とは異なる専用の機能構成により実現されるものであってもよい。換言すれば、本実施形態ではこれらの機能を実現するプログラムを演算部104が実行することによって、該機能が実現されるものとして説明するが、該機能を実現するハードウェアが設けられていてもよい。 However, the practice of the present invention is not limited to this. For example, such image processing and conversion processing may be realized by a functional configuration (not shown) provided in the imaging unit 102, and the captured image may be output from the imaging unit 102, which is different from the arithmetic unit 104. It may be realized by a dedicated functional configuration. In other words, in the present embodiment, it is described that the function is realized by executing the program that realizes these functions by the arithmetic unit 104, but even if the hardware that realizes the function is provided. Good.

《計測処理》
このような構成をもつ本実施形態の計測装置100において、計測対象の被写体(対象被写体について種々の計測を行う計測処理について、図3のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、演算部104が、例えば記憶部105に記憶されている対応する処理プログラムを読み出し、ワークメモリに展開して実行することにより実現することができる。本計測処理は、例えば計測装置100が計測を行うモードに設定されて動作を開始した際に開始されるものとして説明する。
<< Measurement processing >>
In the measuring device 100 of the present embodiment having such a configuration, a specific process will be described with reference to the flowchart of FIG. 3 for a subject to be measured (a measurement process for performing various measurements on the target subject). The corresponding processing can be realized by, for example, the arithmetic unit 104 reading the corresponding processing program stored in the storage unit 105, expanding the corresponding processing program into the work memory, and executing the measurement processing. It is assumed that the operation is started when the 100 is set to the measurement mode and the operation is started.

S301で、演算部104は、計測を行う項目を決定する。本実施形態の計測装置100では、撮像範囲に存在する被写体について、撮像画像上で設定された、任意の1つの平面上の2点を結ぶ直線または曲線の空間距離、または平面上の3点以上で囲まれた領域の面積が、計測可能な項目として設けられているものとする。該計測を行う項目の決定は、ユーザによる選択操作に係る操作入力の検出に基づいて行われるものであってもよいし、モード毎に予め設定されている、あるいは、被写体の状態に基づいて決定されるものであってもよい。なお、以下の説明では、2点間の空間距離を寸法として導出する態様について説明する。 In S301, the calculation unit 104 determines the item to be measured. In the measuring device 100 of the present embodiment, with respect to the subject existing in the imaging range, the spatial distance of a straight line or a curve connecting two points on an arbitrary plane set on the captured image, or three or more points on the plane. It is assumed that the area of the area surrounded by is provided as a measurable item. The item to be measured may be determined based on the detection of the operation input related to the selection operation by the user, preset for each mode, or determined based on the state of the subject. It may be what is done. In the following description, a mode of deriving the space distance between two points as a dimension will be described.

S302で、演算部104は、寸法計測を行う2つの計測点を決定する。該決定に際し、撮像部102により撮像された撮像画像がディスプレイ103にスルー表示され、ユーザは撮像画像中の任意の計測点を指定する操作入力を行うことが可能に構成される。このとき、例えば図4に示されるように、スルー表示された、対象被写体401が含まれる撮像画像に対し、寸法計測を行う2つの計測点の選択を促す通知402が重畳表示されて提示されるものとする。演算部104は、該指定に係る操作入力に基づき計測対象の計測点の情報を取得すると、ワークメモリにこれを格納する。 In S302, the calculation unit 104 determines two measurement points for dimension measurement. At the time of the determination, the captured image captured by the imaging unit 102 is displayed through the display 103, and the user can perform an operation input to specify an arbitrary measurement point in the captured image. At this time, for example, as shown in FIG. 4, a notification 402 prompting the selection of two measurement points for dimensional measurement is superimposed and displayed on the captured image including the target subject 401 which is displayed through. It shall be. When the calculation unit 104 acquires the information of the measurement point to be measured based on the operation input related to the designation, the calculation unit 104 stores the information in the work memory.

ここで、計測点の入力がなされた際には、ディスプレイ103上では撮像画像に対して、該計測点及び2つの計測点の指定後はその計測点間を結ぶ直線を重畳表示することで、入力がなされた旨を知らしめる構成としてよい。図4の例では、計測点403と計測点404が指定された後、該点間を結んだ直線405が寸法導出の対象であることが明示されている。 Here, when the measurement points are input, the measurement points and the straight lines connecting the two measurement points are superimposed and displayed on the captured image on the display 103 after the designation of the measurement points and the two measurement points. It may be configured to notify that the input has been made. In the example of FIG. 4, after the measurement points 403 and the measurement points 404 are designated, it is clearly shown that the straight line 405 connecting the measurement points is the target of the dimension derivation.

上述したように、本実施形態の計測処理では主だって2つの計測点間の直線距離を寸法として導出するものとして説明するが、曲線の距離が計測項目として選択される態様においては、例えば図5のような提示がディスプレイ103になされればよい。図示されるように、ディスプレイ103上では撮像画像に対し、寸法計測を行う曲線の入力を促す通知501が重畳表示され、ユーザによる計測対象とする曲線502の軌跡入力をもって、その始点と終点が計測点として格納されるものとする。この場合、該軌跡の情報も格納される。また面積が計測項目として選択される態様においては、例えば図6のような提示がディスプレイ103になされればよい。図示されるように、ディスプレイ103上では撮像画像に対し、面積導出を行う多角形領域の各頂点の入力を促す通知601が重畳表示され、ユーザにより3点以上の頂点が計測点として入力されると、これらを結んだ領域602が面積導出対象として提示される。 As described above, in the measurement process of the present embodiment, the linear distance between the two measurement points is mainly derived as a dimension, but in the embodiment in which the curved distance is selected as the measurement item, for example, FIG. Such a presentation may be made on the display 103. As shown in the figure, a notification 501 prompting the input of a curve for dimension measurement is superimposed and displayed on the captured image on the display 103, and the start point and the end point are measured by the trajectory input of the curve 502 to be measured by the user. It shall be stored as a point. In this case, the locus information is also stored. Further, in the embodiment in which the area is selected as the measurement item, the display 103 may be presented as shown in FIG. 6, for example. As shown, on the display 103, a notification 601 prompting the input of each vertex of the polygonal region for which the area is to be derived is superimposed and displayed on the captured image, and three or more vertices are input as measurement points by the user. And the area 602 connecting these is presented as an area derivation target.

S303で、演算部104は、S302において決定した2つの計測点の位置に基づいて、投影部101に投影させる像(投影像)を決定する。本実施形態の計測装置100では、対象被写体のうちの実際に計測点が存在する平面について正対しているか否かを判断すべく、投影像は、計測点が分布する領域に所定のパターンが配置されるよう構成される。換言すれば、投影像において所定のパターンは、計測点が分布する領域を包含するように配置されている。 In S303, the calculation unit 104 determines an image (projected image) to be projected on the projection unit 101 based on the positions of the two measurement points determined in S302. In the measuring device 100 of the present embodiment, a predetermined pattern is arranged in the area where the measuring points are distributed in the projected image in order to determine whether or not the projection image faces the plane where the measuring points actually exist in the target subject. It is configured to be. In other words, in the projected image, the predetermined pattern is arranged so as to include the region where the measurement points are distributed.

S304で、投影部101は演算部104の制御の下、S303で決定された投影像を投影する。より詳しくは、パターン表示部112が投影像を形成し、形成された投影像が投光部113によって照射されることで、投影光学系111を介して対象被写体に正対判断用のパターンが投影される。 In S304, the projection unit 101 projects the projection image determined in S303 under the control of the calculation unit 104. More specifically, the pattern display unit 112 forms a projection image, and the formed projection image is irradiated by the projection unit 113, so that a pattern for facing determination is projected onto the target subject via the projection optical system 111. Will be done.

S305で、撮像部102は演算部104の制御の下、投影像が投影された対象被写体を撮像し、撮像画像を出力する。なお、撮像により得られた撮像画像において、計測点が分布する領域をカバーするようにパターンが投影されていない場合には、演算部104が投影光学系111に適した焦点距離を導出し、該焦点距離を変更する調整等した上で再度投影及び撮像を行えばよい。この場合、撮像部102が被写体距離を導出可能な態様では、該被写体距離の情報に基づいて投影光学系111の焦点距離調整を行ってもよい。 In S305, the imaging unit 102 images the target subject on which the projected image is projected under the control of the calculation unit 104, and outputs the captured image. In the captured image obtained by imaging, when the pattern is not projected so as to cover the region where the measurement points are distributed, the calculation unit 104 derives a focal length suitable for the projection optical system 111, and the pattern is derived. After making adjustments to change the focal length, projection and imaging may be performed again. In this case, in a mode in which the imaging unit 102 can derive the subject distance, the focal length of the projection optical system 111 may be adjusted based on the subject distance information.

S306で、演算部104は、S305において撮像された撮像画像において、S303において決定した投影像のうちのパターンに該当する領域を抽出する。ここで、パターンに該当する領域の抽出は、該パターンそのものを抽出することに限定されるものではなく、該パターンと所定値以上の類似度が導出される領域を抽出することを含むものとする。即ち、本ステップの抽出は、計測対象である計測点の分布する平面と正対しているか否かを判断するために行われるものであるため、該平面の撮像部102の光軸に対する向きによっては撮像画像中にパターンが変形して現れ得る。故に、本ステップにおいて演算部104は、撮像画像のうちから決定したパターンと類似する投影像が現れている領域を、正対判断用に抽出する。 In S306, the calculation unit 104 extracts a region corresponding to the pattern in the projected image determined in S303 from the captured image captured in S305. Here, the extraction of the region corresponding to the pattern is not limited to the extraction of the pattern itself, but includes the extraction of the region from which the similarity of the pattern and the predetermined value or more is derived. That is, since the extraction in this step is performed to determine whether or not it faces the plane on which the measurement points to be measured are distributed, depending on the orientation of the image pickup unit 102 on the plane with respect to the optical axis. The pattern may be deformed and appear in the captured image. Therefore, in this step, the calculation unit 104 extracts a region in which a projection image similar to the pattern determined from the captured image appears for the face-to-face determination.

S307で、演算部104は、S306において抽出した領域の画像に基づき、現在の計測装置100の撮像方向が対象被写体と正対しているとみなせる範囲にあるか否かを判断する。正対しているとみなせる範囲とは、撮像方向に係る撮像部102の光軸と、計測点の存在する対象被写体の平面の法線とがなす角度が所定の閾値に収まる範囲として、予め定められているものとする。 In S307, the calculation unit 104 determines whether or not the imaging direction of the current measuring device 100 is within a range that can be regarded as facing the target subject, based on the image of the region extracted in S306. The range that can be regarded as facing each other is predetermined as a range in which the angle formed by the optical axis of the imaging unit 102 related to the imaging direction and the normal of the plane of the target subject in which the measurement point exists falls within a predetermined threshold value. It is assumed that

例えば、2つの計測点701a及びbで構成される寸法計測線分702と計測装置100とが図7のように分布している場合について考える。ここで、計測装置100が位置705に存在する場合は、寸法計測線分702を含み、計測点701aから計測点701bに向かうベクトルと撮像部102の光軸に沿ったベクトルとで定義される平面703を基準に、上記なす角度が定められる。即ち、撮像部102の光軸と対象被写体の平面の法線とがなく角度θは、図示されるように寸法計測線分702を有する対象被写体の面法線と、平面703とがなす角度となっている。また同様に、計測装置100が位置706に存在する場合には平面704を基準に、なす角θが定められる。 For example, consider a case where the dimensional measurement line segment 702 composed of the two measurement points 701a and b and the measurement device 100 are distributed as shown in FIG. 7. Here, when the measuring device 100 exists at the position 705, a plane including the dimensional measurement line segment 702 and defined by a vector from the measuring point 701a to the measuring point 701b and a vector along the optical axis of the imaging unit 102. The angle formed above is determined with reference to 703. That is, there is no optical axis of the imaging unit 102 and the normal of the plane of the target subject, and the angle θ is the angle formed by the surface normal of the target subject having the dimensional measurement line segment 702 and the plane 703 as shown in the figure. It has become. Similarly, when the measuring device 100 is present at the position 706, the angle θ formed is determined with reference to the plane 704.

ここで、θ≠0である場合には、上述したように計測点間で計測装置100との被写体距離が異なるため、計測精度が低下し得る。一方で、θ=0であれば、このような精度低下に係る要因は生じないため、計測精度は担保され易い。故に、本実施形態の計測装置100では、計測点が存在する対象被写体の平面と計測装置100とが正対している状態(θ=0)で得られた撮像画像に基づいて計測が行われるよう、本ステップにおいて正対しているとみなせる範囲に収まるか否かを判断する。 Here, when θ ≠ 0, the measurement accuracy may decrease because the subject distance from the measuring device 100 differs between the measuring points as described above. On the other hand, when θ = 0, such a factor related to the decrease in accuracy does not occur, so that the measurement accuracy can be easily guaranteed. Therefore, in the measuring device 100 of the present embodiment, the measurement is performed based on the captured image obtained in the state where the plane of the target subject in which the measuring point exists and the measuring device 100 face each other (θ = 0). , Judge whether or not it falls within the range that can be regarded as facing in this step.

なお、計測装置100が平面703上にある場合と平面704上にある場合とで、寸法計測線分702との関係は変化しないため、計測装置100がいずれの平面上にあるかは問題ではない。よって、以下の説明では撮像方向は、寸法計測線分702を含み、計測点701aから計測点701bに向かうベクトルと、撮像部102の光軸に沿ったベクトルとで定義される平面であるものとして、適宜読み替えて説明する。 Since the relationship with the dimensional measurement line segment 702 does not change depending on whether the measuring device 100 is on the plane 703 or the plane 704, it does not matter which plane the measuring device 100 is on. .. Therefore, in the following description, the imaging direction is assumed to be a plane including the dimensional measurement line segment 702 and defined by a vector from the measurement point 701a to the measurement point 701b and a vector along the optical axis of the imaging unit 102. , Read as appropriate and explain.

〈正対している方向からのずれの導出〉
以下、現在の撮像方向が、正対している方向からのずれを導出する原理について、図面を用いて説明する。
<Drivation of deviation from the facing direction>
Hereinafter, the principle of deriving the deviation from the direction in which the current imaging direction faces is described with reference to the drawings.

図8に例示されるように、投影部101及び撮像部102(計測装置100)と、計測点を有する対象被写体の平面801とが配置されている場合について説明する。図では、平面801が計測装置100に対して相対的に傾いている状態にある態様を、理解を容易ならしめるため、平面801の傾き、寸法計測線分702が延びる方向、パターン投影位置が全てxz断面内にあるものとして示している。図の例では、計測装置100はz方向に向けられており、撮像部102の位置が、座標系の原点となっている。投影部101と撮像部102とは、x軸方向に距離dだけ離間して配置され、かつ、投影光学系111の光軸と撮像光学系121の光軸は平行になるよう構成されている。これらの投影部101と撮像部102の相対的な配置関係(相対位置関係)の情報は、予め記憶部105に記憶されているものとする。 As illustrated in FIG. 8, a case where the projection unit 101 and the imaging unit 102 (measurement device 100) and the plane 801 of the target subject having the measurement point are arranged will be described. In the figure, in order to facilitate understanding of the aspect in which the plane 801 is tilted relative to the measuring device 100, the tilt of the plane 801, the direction in which the dimensional measurement line segment 702 extends, and the pattern projection position are all. It is shown as being within the xz cross section. In the example of the figure, the measuring device 100 is oriented in the z direction, and the position of the imaging unit 102 is the origin of the coordinate system. The projection unit 101 and the imaging unit 102 are arranged so as to be separated by a distance d in the x-axis direction, and the optical axis of the projection optical system 111 and the optical axis of the imaging optical system 121 are parallel to each other. It is assumed that the information on the relative arrangement (relative positional relationship) between the projection unit 101 and the imaging unit 102 is stored in the storage unit 105 in advance.

図8において、像面802は撮像部102の像面を模式的に表しており、z=−fの位置に分布する。ここで、fは、撮像部102の撮像光学系121に設定されている焦点距離である。また平面801は、x=0でz=zobを通過しているため、対象被写体の被写体距離はzobとして表現する。このとき、平面801がz=zobの平面上に分布している場合には、平面801と計測装置100とは正対している状態となる。ここでは、平面801は、y軸周りに角度αyだけ回転した方向に傾斜しているものとし、平面801の法線803は、(sinαy, 0 ,cosαyTで表される。また図8において寸法計測線分702は、xz断面内にあるため、θ=αyとなる。 In FIG. 8, the image plane 802 schematically represents the image plane of the imaging unit 102, and is distributed at the position of z = −f. Here, f is a focal length set in the imaging optical system 121 of the imaging unit 102. Further, since the plane 801 passes through z = z ob at x = 0, the subject distance of the target subject is expressed as z ob . At this time, when the plane 801 is distributed on the plane of z = z ob , the plane 801 and the measuring device 100 are in a state of facing each other. Here, it is assumed that the plane 801 is inclined in the direction rotated by an angle α y around the y-axis, and the normal 803 of the plane 801 is represented by (sin α y , 0, cos α y ) T. Further, in FIG. 8, since the dimensional measurement line segment 702 is within the xz cross section, θ = α y .

また投影部101は、平面801上の投影位置804には少なくともパターンを投影している。仮に、平面801が計測装置100と正対している場合であれば、投影位置804に投影されたパターンは位置805に投影されることになる。故に、平面801が計測装置100と正対しているのであれば、投影されたパターンの像は撮像によって、像面802上の投影位置804に対応する位置806に形成される。このとき、位置806の座標(X0,Y0,Z0)は、投影位置804の撮像光学系121の光軸に対する投影角(x方向:y軸周り)をωxとすると、次の数1で表すことができる。 Further, the projection unit 101 projects at least a pattern on the projection position 804 on the plane 801. If the plane 801 faces the measuring device 100, the pattern projected at the projection position 804 will be projected at the position 805. Therefore, if the plane 801 faces the measuring device 100, the image of the projected pattern is formed at the position 806 corresponding to the projected position 804 on the image plane 802 by imaging. At this time, the coordinates (X 0 , Y 0 , Z 0 ) of the position 806 are the following numbers, where ω x is the projection angle (x direction: around the y axis) with respect to the optical axis of the imaging optical system 121 at the projection position 804. It can be represented by 1.

一方、実際には平面801は傾斜しているため、撮像によって同パターンの像は、像面802上の位置805に対応する位置に形成されることになる。このとき、位置807の座標(X,Y,Z)は次の数2で表すことができる。 On the other hand, since the plane 801 is actually inclined, an image of the same pattern is formed at a position corresponding to the position 805 on the image plane 802 by imaging. At this time, the coordinates (X, Y, Z) of the position 807 can be represented by the following equation 2.

数2から分かるように、平面801がy軸周りで傾斜するのであれば、該傾きは、パターンの像の結像位置のx成分にしか影響を与えない。これは、投影部101と撮像部102がx方向にずれていることにも起因する。故に、撮像部102により取得された撮像画像に基づいて少なくとも2箇所のパターンについてx成分のずれ量を導出することで、αyが逆算可能となる。つまり、正対している方向からのずれ(角度)を導出することができる。 As can be seen from Equation 2, if the plane 801 is tilted about the y-axis, the tilt affects only the x component of the imaging position of the image of the pattern. This is also due to the fact that the projection unit 101 and the imaging unit 102 are displaced in the x direction. Therefore, by deriving the deviation amount of the x component for at least two patterns based on the captured image acquired by the imaging unit 102, α y can be calculated back. That is, the deviation (angle) from the facing direction can be derived.

より詳しくは、例えば図9に示されるように、寸法計測線分702に対して直交するような直線が等間隔に配置されたパターン901を投影して、正対している方向からのずれを導出すればよい。なお、本実施形態では投影像が投影された被写体を撮像した場合に、パターンを容易に検出可能ならしめるために直線群のパターンを投影するものとして説明するが、本発明の実施はこれに限られるものではない。即ち、撮像画像においてパターンを検出可能であればいずれのパターンを投影するものであってもよい。ここで、数2によれば、f、d、z、ωxが既知であるなら、パターンとして投影される直線は1本あればαyを導出できる。しかしながら、本実施形態の計測装置100のように1つの直線パターンでは被写体距離zを導出できない構成である場合には、少なくとも2本の直線がパターンに必要であるため、S303において形成する投影像も、パターンとして2本以上の直線を含む。 More specifically, for example, as shown in FIG. 9, a pattern 901 in which straight lines orthogonal to the dimensional measurement line segment 702 are arranged at equal intervals is projected to derive a deviation from the facing direction. do it. In the present embodiment, when a subject on which a projected image is projected is imaged, a pattern of a straight line group is projected in order to make the pattern easily detectable, but the embodiment of the present invention is limited to this. It is not something that can be done. That is, any pattern may be projected as long as the pattern can be detected in the captured image. Here, according to Equation 2, if f, d, z, and ω x are known, α y can be derived if there is only one straight line projected as a pattern. However, in the case of the measuring device 100 of the present embodiment in which the subject distance z cannot be derived from one straight line pattern, at least two straight lines are required for the pattern, so that the projected image formed in S303 is also included. , Includes two or more straight lines as a pattern.

従って、2つの直線パターンについての投影角ωx,1及びωx,2についてそのずれ量X1及びX2は、
となるため、これらの式からzを除外することで、正対している方向からのずれ角αyを導出できる。
Therefore, for the projection angles ω x, 1 and ω x, 2 for the two linear patterns, the deviation amounts X 1 and X 2 are
Therefore, by excluding z from these equations, the deviation angle α y from the facing direction can be derived.

なお、パターン検出誤差等の影響を低減するべく、2つの直線パターンに限られるものではなく、3以上の直線パターンについて複数のαyを導出した平均値を最終的なαyとするものであってもよい。あるいは、
を最小にするαyを最小二乗法や数値演算的に導出するものとしてもよい。ここで、ωx,iはi番目のパターンの投影角、Xiはi番目のパターンの像の位置、Npはパターンに含まれる直線の総数である。
Incidentally, in order to reduce the influence of the pattern detection error is not limited to the two rectilinear patterns, be one that the final alpha y an average value derived multiple alpha y for 3 or more straight line patterns You may. Or
Α y that minimizes may be derived by the method of least squares or numerical operation. Here, ω x and i are the projection angles of the i-th pattern, X i is the position of the image of the i-th pattern, and N p is the total number of straight lines included in the pattern.

演算部104は、このように導出された正対している方向からのずれ角αyに基づいて、本ステップの判断を行えばよい。即ち、演算部104は、例えばずれ角αyの絶対値が正対しているものとみなす閾値を上回らない場合には、対象被写体の平面に対して計測装置100が正対しているものとして判断する。一方、演算部104は、ずれ角αyの絶対値が正対しているものとみなす閾値を上回る場合には、対象被写体の平面に対して計測装置100が正対していないものとして判断する。演算部104は、対象被写体の平面に対して計測装置100が正対していると判断した場合は、図10に示されるように正対していることを示す通知1001をディスプレイ103に表示させて処理をS309に移す。また演算部104は、対象被写体の平面に対して計測装置100が正対していないと判断した場合は処理をS308に移す。 The calculation unit 104 may make a determination in this step based on the deviation angle α y from the facing direction derived in this way. That is, if, for example, the absolute value of the deviation angle α y does not exceed the threshold value that is regarded as facing the target subject, the calculation unit 104 determines that the measuring device 100 faces the plane of the target subject. .. On the other hand, when the absolute value of the deviation angle α y exceeds the threshold value deemed to face the target subject, the calculation unit 104 determines that the measuring device 100 does not face the plane of the target subject. When the calculation unit 104 determines that the measuring device 100 is facing the plane of the target subject, the calculation unit 104 processes the display 103 by displaying a notification 1001 indicating that the measuring device 100 is facing the plane of the target subject as shown in FIG. To S309. Further, when the calculation unit 104 determines that the measuring device 100 does not face the plane of the target subject, the calculation unit 104 shifts the processing to S308.

S308で、演算部104は、正対する方向からずれている旨の通知を、ディスプレイ103を介して提示する。正対する方向からずれている旨の通知は、好適な撮像位置に移動させることを容易ならしめるべく、本実施形態の計測処理ではx方向の像ずれ量ΔXに基づいて行われる。像ずれ量ΔXは、図8において像面802上に示した像ずれ量808であり、数1と数2との差に該当する。故に、図示した態様ではx成分だけがゼロでない値となり、像ずれ量ΔXは数3で表すことができる。 In S308, the calculation unit 104 presents a notification via the display 103 that the direction is deviated from the facing direction. The notification of deviation from the facing direction is performed based on the image deviation amount ΔX in the x direction in the measurement process of the present embodiment in order to facilitate the movement to a suitable imaging position. The image shift amount ΔX is the image shift amount 808 shown on the image plane 802 in FIG. 8, and corresponds to the difference between Equation 1 and Equation 2. Therefore, in the illustrated embodiment, only the x component has a non-zero value, and the image shift amount ΔX can be represented by Equation 3.

なお、パターンの位置Xから高精度にαyを導出するためには|ΔX|が可能な限り大きい値として現れることが好ましい。また、上記では簡単のため、平面801がy軸周りにだけ傾斜しているとし、パターンの投影位置についてもx方向の投影角ωxだけであるものとして説明した。このような限定的な態様ではなく、平面801がx軸周りにも角度αxだけ傾斜し、投影位置もy方向の投影角ωyを含む態様では、上記数3は数4のように展開できる。 In order to derive α y from the position X of the pattern with high accuracy, it is preferable that | ΔX | appears as a value as large as possible. Further, for the sake of simplicity, it has been described above that the plane 801 is inclined only around the y-axis and that the projection position of the pattern is only the projection angle ω x in the x direction. In a mode in which the plane 801 is inclined by an angle α x around the x-axis and the projection position also includes a projection angle ω y in the y direction, the above equation 3 is expanded as in the equation 4. it can.

図11は、数4のωx及びωyの変化に対するΔXの変化をプロットしたグラフである。パラメータの値は、z=2[m]、d=10[cm]、αx=5[deg]、αy=5[deg]、f=20[mm]、となっている。また、ωxを変化させたときには、ωy=0、ωyを変化させたときには、ωx=0としている。ωyの変化に対して|ΔX|の変動は緩やかであるが、これに対して、ωxの変化に対しては、|ωx|に応じて|ΔX|は大きく変動する。よって、計測時には、投影部101と撮像部102の配列方向に、なるべく大きな画角を持ったパターンを投影することが好ましい。特に、|ωx|≒25[deg]では、|ΔX|はおよそ40[μm]の像ずれ量が観測される。従って、40[μm]の像ずれ量を検出可能なよう、投影部101や撮像部102のパラメータが構成されていることが計測には好適である。ここでパラメータとは、例えば投影部101の投影光学系111のF値、撮像部102の撮像光学系121のF値、撮像素子122の画素ピッチ等を含む。 FIG. 11 is a graph plotting the change of ΔX with respect to the change of ω x and ω y of Equation 4. The parameter values are z = 2 [m], d = 10 [cm], α x = 5 [deg], α y = 5 [deg], and f = 20 [mm]. Further, when ω x is changed, ω y = 0, and when ω y is changed, ω x = 0. Although variation of is gradual, whereas, for the change of ω x, | | ω y to changes in | ΔX ω x | depending on | [Delta] X | varies greatly. Therefore, at the time of measurement, it is preferable to project a pattern having an angle of view as large as possible in the arrangement direction of the projection unit 101 and the imaging unit 102. In particular, when | ω x | ≈25 [deg], an image shift amount of about 40 [μm] is observed for | ΔX |. Therefore, it is suitable for the measurement that the parameters of the projection unit 101 and the imaging unit 102 are configured so that the image shift amount of 40 [μm] can be detected. Here, the parameters include, for example, the F value of the projection optical system 111 of the projection unit 101, the F value of the image pickup optical system 121 of the image pickup unit 102, the pixel pitch of the image sensor 122, and the like.

このような像ずれ量ΔXに基づく通知は、例えば図12に示されるように、ディスプレイ103において、撮像画像に重畳させて、対象被写体を正対した方向から撮像した場合の像1201を表示することにより行われるものであってよい。像1201は、例えば計測装置100の現在の正対している方向からのずれ角θを用いて、撮像画像を射影変換することで生成されるものであってよい。重畳表示は、例えばディスプレイ103において撮像画像と像1201を1画素おきに表示する等によって実現されるものであってもよい。図12では、図の識別性を考慮して平面801上の像のみを重畳表示しているが、像1201は撮像画像を変換して生成するものであるため、パターンを正対位置から撮像した状態と等価な像も本来は提示されることは容易に理解されよう。なお、ユーザに対して撮像位置の移動を促す通知1202を、ディスプレイ103に表示させるものとしてもよい。 As shown in FIG. 12, for example, the notification based on the image shift amount ΔX is superimposed on the captured image on the display 103 to display the image 1201 when the target subject is imaged from the direction facing the subject. It may be done by. The image 1201 may be generated by projective transformation of the captured image using, for example, the deviation angle θ from the current facing direction of the measuring device 100. The superimposed display may be realized, for example, by displaying the captured image and the image 1201 on the display 103 every other pixel. In FIG. 12, only the image on the plane 801 is superimposed and displayed in consideration of the distinctiveness of the figure, but since the image 1201 is generated by converting the captured image, the pattern is imaged from the facing position. It is easy to understand that an image equivalent to a state is originally presented. Note that the notification 1202 that prompts the user to move the imaging position may be displayed on the display 103.

この他、像ずれ量ΔXに基づく通知は、例えば像ずれ量ΔXやずれ角θ(αy)のような定量的な情報を提示するものであってもよい。あるいは、正対する方向へのユーザの移動方向や移動量を通知に含むものであってもよい。 In addition, the notification based on the image shift amount ΔX may present quantitative information such as the image shift amount ΔX and the shift angle θ (α y ). Alternatively, the notification may include the movement direction and movement amount of the user in the facing direction.

このように通知を行った後、異なる撮像位置への移動完了の操作入力がなされるまで演算部104は処理を待機する。そして、移動完了指示がなされた際には、演算部104は撮像部102に予備撮像を行わせて得られた撮像画像にて計測点を特定した上で、処理をS303に戻す。このようにすることで、同様の計測点について、新たな撮像位置で正対判断用の投影像を構成して投影させることが可能となる。 After the notification is given in this way, the calculation unit 104 waits for processing until an operation input for completing the movement to a different imaging position is made. Then, when the movement completion instruction is given, the calculation unit 104 causes the imaging unit 102 to perform preliminary imaging, identifies the measurement point from the captured image obtained, and then returns the process to S303. By doing so, it is possible to construct and project a projection image for facing judgment at a new imaging position for the same measurement point.

一方、S307において対象被写体の平面に対して計測装置100が正対していると判断された場合、撮像部102は演算部104の制御の下、S309で、計測点間の寸法導出用の撮像画像に係る撮像を行う。該撮像は、寸法導出用の撮像を促す通知を行い、ユーザが該通知に基づいて行われるものであってもよいし、正対している状態にあると判断したことを受けて、演算部104が撮像部102に行わせるものであってもよい。 On the other hand, when it is determined in S307 that the measuring device 100 faces the plane of the target subject, the imaging unit 102 controls the arithmetic unit 104, and in S309, the captured image for deriving the dimensions between the measurement points. Take an image of the above. The imaging may be performed based on the notification by giving a notification prompting the imaging for dimension derivation, or upon determining that the image is in a facing state, the calculation unit 104 May be performed by the imaging unit 102.

S310で、演算部104は、S309で撮像された撮像画像に基づいて、計測点間の寸法を導出し、ディスプレイ103を介して提示する。計測点間の寸法導出は、撮像画像における計測点間のサイズと、撮像光学系121の撮影倍率の関係から、数4を用いて
で導出することができる。
In S310, the calculation unit 104 derives the dimensions between the measurement points based on the captured image captured in S309, and presents them via the display 103. Derivation of dimensions between measurement points uses Equation 4 from the relationship between the size between measurement points in the captured image and the imaging magnification of the imaging optical system 121.
Can be derived with.

ここで、Lは計測点間の寸法(現実世界における空間距離)、lは寸法導出用の撮像画像における計測点間のサイズ、zは計測点が存在する対象被写体の平面の被写体距離、fは撮像光学系121の焦点距離である。lは撮像画像上の画素数と撮像素子122の画素ピッチから導出することができる。また、zは計測装置100が被写体距離の検出構成を具備している場合には該構成から取得すればよいが、具備していない場合には数4からαx及びαyを除去することで導出できる。 Here, L is the dimension between the measurement points (spatial distance in the real world), l is the size between the measurement points in the captured image for dimension derivation, z is the subject distance on the plane of the target subject where the measurement point exists, and f is the subject distance. This is the focal length of the imaging optical system 121. l can be derived from the number of pixels on the captured image and the pixel pitch of the image sensor 122. Further, if the measuring device 100 has a subject distance detection configuration, z may be acquired from the configuration, but if it does not, z can be obtained by removing α x and α y from Equation 4. Can be derived.

そして演算部104は、計測点間の寸法を導出するとディスプレイ103を介してこれを提示する。このとき、演算部104は、例えば図13に示されるように、撮像画像に計測点及び導出した寸法を重畳させることで、寸法が導出されたことを提示するものであってよい。 Then, when the calculation unit 104 derives the dimensions between the measurement points, it presents them via the display 103. At this time, the calculation unit 104 may indicate that the dimensions have been derived by superimposing the measurement points and the derived dimensions on the captured image, for example, as shown in FIG.

ところで、数4から明らかなようにαy=0である場合にはΔX=0となり、αxの導出ができない。即ち、このような態様において寸法計測線分702が延びる方向がy成分やz成分を有している場合には、正対する方向を導出できない。よって、寸法計測線分702が延びる方向は、x軸方向である必要がある。換言すれば、寸法計測線分702が延びる方向と、投影部101と撮像部102の配列方向(投影光学系111と撮像光学系121の光軸を結ぶ方向)とは、同一平面内にある必要がある。故に、このような関係となるよう、ユーザに計測装置100の姿勢を変更ならしめるよう促す通知を行ってもよい。 By the way, as is clear from Equation 4, when α y = 0, ΔX = 0, and α x cannot be derived. That is, in such an embodiment, when the direction in which the dimensional measurement line segment 702 extends has the y component and the z component, the direction facing the opposite cannot be derived. Therefore, the direction in which the dimensional measurement line segment 702 extends needs to be the x-axis direction. In other words, the direction in which the dimensional measurement line segment 702 extends and the arrangement direction of the projection unit 101 and the imaging unit 102 (the direction connecting the optical axes of the projection optical system 111 and the imaging optical system 121) must be in the same plane. There is. Therefore, a notification may be given to urge the user to change the posture of the measuring device 100 so as to have such a relationship.

該通知は、例えば図14に示されるような、計測点を結ぶ直線を合わせるべき水平線を示したガイド表示1401と、計測装置100の姿勢変更を促す通知1402とを、撮像画像に重畳することで行われるものであってよい。ここで、ガイド表示1401は、投影部101と撮像部102の配列方向に合致しているものとする。このようにすることで、撮像方向を正しく導出する状態での撮像を促すことが可能となる。そして、計測装置100の姿勢が適切な状態となった場合には、図15に示されるように、上述したように正対している方向からの撮像とするための情報提示がディスプレイ103を介して行われればよい。 The notification is obtained by superimposing a guide display 1401 indicating a horizontal line connecting straight lines connecting measurement points as shown in FIG. 14, and a notification 1402 prompting a posture change of the measurement device 100 on an captured image. It may be done. Here, it is assumed that the guide display 1401 matches the arrangement direction of the projection unit 101 and the image pickup unit 102. By doing so, it is possible to promote imaging in a state where the imaging direction is correctly derived. Then, when the posture of the measuring device 100 is in an appropriate state, as shown in FIG. 15, information is presented via the display 103 for taking an image from the direction facing the measurement device 100 as described above. It should be done.

また、本実施形態では計測処理のS307において、現在の計測装置100の撮像方向が対象被写体と正対していないと判断した場合にのみ、正対していない旨を示す通知を行うものとして説明したが、本発明の実施はこれに限られるものではない。現在の計測装置100の撮像方向に応じた通知については、正対していない状態であるか否かに依らず通知がなされるものであってもよい。即ち、例えば、正対している場合には、撮像方向を変更する必要がない旨の通知を行うものとしてもよい。また、正対位置から何度の方向、など単に現在の撮像方向を通知する形態であってもよい。 Further, in the present embodiment, it has been described that in S307 of the measurement process, a notification indicating that the current measuring device 100 does not face the target subject is given only when it is determined that the current imaging direction of the measuring device 100 does not face the target subject. , The practice of the present invention is not limited to this. Regarding the notification according to the imaging direction of the current measuring device 100, the notification may be given regardless of whether or not it is in a non-facing state. That is, for example, when facing each other, a notification that the imaging direction does not need to be changed may be given. In addition, the current imaging direction may be simply notified, such as the number of directions from the facing position.

以上説明したように、本実施形態の計測装置100によれば、撮像画像に基づく計測に際し、計測対象が好適な状態の撮像画像を取得することができる。より詳しくは、計測対象の被写体の平面に対して、撮像方向が正対しているか否かを判断した上で計測を行うか否かを判断するため、精度の低い計測結果が導出される状況を好適に回避することができる。 As described above, according to the measuring device 100 of the present embodiment, it is possible to acquire a captured image in a state in which the measurement target is suitable for measurement based on the captured image. More specifically, in order to determine whether or not to perform measurement after determining whether or not the imaging direction faces the plane of the subject to be measured, a situation in which a low-precision measurement result is derived is described. It can be preferably avoided.

[変形例]
ところで、計測項目として面積が選択された場合には、対象被写体の面に対して正対していなければならない。そこで、例えば図16に示されるように、異なる2方向に投影部101と撮像部102が配置されている必要がある。図16の例では、実施形態1の計測装置100に加えて投影部101と同様の構成であってよい新たな投影部1601が追加されており、撮像部102と投影部101の配列方向に対して撮像部102と投影部1601の配列方向が直交するように配置されている。計測対象が領域である態様では、汎用的に対応可能なよう、図示されるように両配列方向が直交する構成が好適であるが、本変形例に係る発明の実施において、両配列方向は異なっていればよい。
[Modification example]
By the way, when the area is selected as the measurement item, it must face the surface of the target subject. Therefore, for example, as shown in FIG. 16, the projection unit 101 and the imaging unit 102 need to be arranged in two different directions. In the example of FIG. 16, in addition to the measuring device 100 of the first embodiment, a new projection unit 1601 which may have the same configuration as the projection unit 101 is added, with respect to the arrangement direction of the imaging unit 102 and the projection unit 101. The imaging unit 102 and the projection unit 1601 are arranged so as to be orthogonal to each other. In the embodiment in which the measurement target is a region, a configuration in which both arrangement directions are orthogonal to each other as shown in the figure is preferable so that it can be used for general purposes. However, in the implementation of the invention according to the present modification, both arrangement directions are different. You just have to.

このような構成を有する本変形例の計測装置100により、投影部101及び投影部1601で正対判断用の投影像を投影した場合、図17のようになる。図17において、対象被写体の平面には、投影部101により投影されたパターン901に加えて、投影部1601により投影されたパターン1701が結像している。このようにすることで、異なる2種類の方向について撮像方向を導出して正対しているか否かの判断を拡張して行うことができるため、結果、2次元の領域についての計測精度も向上させることが可能となる。 When the projection unit 101 and the projection unit 1601 project a projection image for facing determination by the measuring device 100 of the present modification having such a configuration, the result is as shown in FIG. In FIG. 17, in addition to the pattern 901 projected by the projection unit 101, the pattern 1701 projected by the projection unit 1601 is formed on the plane of the target subject. By doing so, it is possible to derive the imaging direction for two different types of directions and expand the judgment as to whether or not they are facing each other. As a result, the measurement accuracy for the two-dimensional region is also improved. It becomes possible.

なお、本変形例では、計測装置100が図16に示したように、1つの撮像部102と投影部101及び投影部1601とを備える構成例について説明したが、本発明の実施はこれに限られるものではない。即ち、投影光学系と撮像光学系の光軸を結ぶ方向について、少なくとも2つの異なる組み合わせでパターン投影に基づく解析が可能であればよく、1つの投影部101と、2つの撮像部とを備える構成例としても同様の効果が得られることは容易に理解されよう。 In this modification, as shown in FIG. 16, a configuration example in which the measuring device 100 includes one imaging unit 102, a projection unit 101, and a projection unit 1601 has been described, but the implementation of the present invention is limited to this. It is not something that can be done. That is, it suffices if the direction connecting the optical axes of the projection optical system and the imaging optical system can be analyzed based on pattern projection with at least two different combinations, and the configuration includes one projection unit 101 and two imaging units. It is easy to understand that the same effect can be obtained as an example.

[実施形態2]
上述した実施形態及び変形例では、同一の平面に存在する計測点群や領域について、撮像画像に基づく精度の高い計測を実現すべく、該平面と正対する方向から撮像されるように通知を行う態様について説明した。本実施形態ではさらに、複数の平面に渡って計測対象が分布する態様においても、好適な精度での計測を実現する態様について説明する。なお、本実施形態の説明において計測装置100の構成は上述した変形例と同様に、平面に対する正対方向を把握できる構成であるものとし、説明は省略する。
[Embodiment 2]
In the above-described embodiment and modification, the measurement points and regions existing on the same plane are notified to be imaged from the direction facing the plane in order to realize highly accurate measurement based on the captured image. Aspects have been described. In the present embodiment, a mode for realizing measurement with suitable accuracy will be described even in a mode in which measurement targets are distributed over a plurality of planes. In the description of the present embodiment, the configuration of the measuring device 100 is assumed to be a configuration capable of grasping the direction facing the plane as in the above-described modification, and the description thereof will be omitted.

《計測処理》
以下、本実施形態の計測装置100の計測処理について、図18のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、演算部104が、例えば記憶部105に記憶されている対応する処理プログラムを読み出し、ワークメモリに展開して実行することにより実現することができる。本計測処理は、例えば計測装置100が計測を行うモードに設定されて動作を開始した際に開始されるものとして説明する。なお、本実施形態の計測処理の説明において、実施形態1と同様の処理を行うステップについては同一の参照番号を付して説明を省略し、以下では本実施形態の計測処理に特徴的な処理を行うステップについてのみ説明する。
<< Measurement processing >>
Hereinafter, specific processing of the measurement processing of the measuring device 100 of the present embodiment will be described with reference to the flowchart of FIG. The processing corresponding to the flowchart can be realized by the arithmetic unit 104 reading, for example, the corresponding processing program stored in the storage unit 105, expanding it into the work memory, and executing it. This measurement process will be described as being started, for example, when the measuring device 100 is set to the mode for performing measurement and starts the operation. In the description of the measurement process of the present embodiment, the steps for performing the same process as that of the first embodiment are given the same reference number and the description is omitted. In the following, the process characteristic of the measurement process of the present embodiment is omitted. Only the steps to do this will be described.

ここで、本実施形態の計測処理では、図19に示されるように寸法計測の基準となる計測点1901a及びbが、互いに法線方向が異なる、隣接した2つの平面1903及び1904に存在しているものとする。また計測により導出する該計測点間の寸法計測線分1902の寸法は、3次元空間を直線的に結んだ空間距離として導出されるのではなく、該平面群に沿った最短距離として導出されるものとする。 Here, in the measurement process of the present embodiment, as shown in FIG. 19, measurement points 1901a and b, which are reference points for dimensional measurement, exist on two adjacent planes 1903 and 1904 having different normal directions from each other. It is assumed that there is. In addition, the dimensions of the dimensional measurement line segment 1902 between the measurement points derived by measurement are not derived as the spatial distance linearly connecting the three-dimensional spaces, but as the shortest distance along the plane group. It shall be.

S306において撮像画像から投影像のうちのパターンに該当する領域を抽出すると、演算部104はS1801で、該抽出した領域に現れているパターンの変化に基づき、計測点がそれぞれ異なる平面に存在するか否かを判断する。本ステップの判断は、例えばS307と同様の処理を一部含んで行われてよく、領域中の平面の法線と撮像方向とがなす角を複数点についてサンプリングし、なす角の分布から計測点間にいくつの面が存在するかを判断すればよい。例えば図19の例では、計測点1901a及びbの間の寸法計測線分1902に投影されたパターンからは、平面1903に係るθ1と平面1904に係るθ2が導出される。演算部104は、計測点がそれぞれ異なる平面に存在すると判断した場合は処理をS1802に移し、1つの平面に存在すると判断した場合は処理をS307に移す。 When the region corresponding to the pattern in the projected image is extracted from the captured image in S306, the calculation unit 104 in S1801 determines whether the measurement points exist in different planes based on the change in the pattern appearing in the extracted region. Judge whether or not. The determination in this step may be performed including a part of the same processing as in S307, for example, by sampling the angle formed by the normal of the plane in the region and the imaging direction at a plurality of points and measuring the measurement point from the distribution of the formed angle. You just have to determine how many planes exist in between. For example, in the example of FIG. 19, θ 1 related to the plane 1903 and θ 2 related to the plane 1904 are derived from the pattern projected on the dimensional measurement line segment 1902 between the measurement points 1901a and b. When the calculation unit 104 determines that the measurement points exist on different planes, the processing is transferred to S1802, and when it is determined that the measurement points exist on one plane, the processing is transferred to S307.

S1802で、演算部104は、計測点間に存在する平面群のうちの、正対する方向からの撮像が行われていない平面を、対象平面として選択する。図19に示したように計測点が異なる平面に分布して存在している場合、演算部104は、S306において抽出された領域の画像を同一平面と判断できる領域ごとに分割し、本ステップでは分割した領域の各々を対象平面として扱って処理を行う。 In S1802, the calculation unit 104 selects, among the plane groups existing between the measurement points, a plane that has not been imaged from the direction facing the measurement point as the target plane. When the measurement points are distributed and exist on different planes as shown in FIG. 19, the calculation unit 104 divides the image of the region extracted in S306 into regions that can be determined to be the same plane, and in this step, Processing is performed by treating each of the divided regions as a target plane.

S1803で、演算部104は、S1802において選択した対象平面について、投影部101に投影させる投影像を決定する。そしてS1804で、投影部101は演算部104の制御の下該投影像を投影し、S1805で、撮像部102が、投影像が投影された対象平面に係る対象被写体を撮像して撮像画像を出力する。そしてS1806で、演算部104は撮像画像に含まれるパターンに該当する領域を抽出し、S1807で計測装置100の撮像方向が対象平面と正対しているとみなせる範囲にあるか否かを判断する。S1803〜S1807の処理は、S303〜S307と同様の処理内容となるが、対象平面を基準に行われることになる。演算部104は、撮像方向が対象平面と正対していると判断した場合は正対していることを示す通知を表示させて、処理をS1808に移す。また演算部104は、撮像方向が対象平面と正対していないと判断した場合は処理をS1809に移し、正対する方向からずれている旨の通知を提示した後、異なる撮像位置への移動完了の操作入力に応じて処理をS1803に戻す。 In S1803, the calculation unit 104 determines the projection image to be projected on the projection unit 101 with respect to the target plane selected in S1802. Then, in S1804, the projection unit 101 projects the projected image under the control of the calculation unit 104, and in S1805, the imaging unit 102 captures the target subject related to the target plane on which the projected image is projected and outputs the captured image. To do. Then, in S1806, the calculation unit 104 extracts a region corresponding to the pattern included in the captured image, and determines in S1807 whether or not the imaging direction of the measuring device 100 is within a range that can be regarded as facing the target plane. The processing of S1803 to S1807 has the same processing content as that of S303 to S307, but is performed with reference to the target plane. When the calculation unit 104 determines that the image pickup direction faces the target plane, the calculation unit 104 displays a notification indicating that the image pickup direction faces the target plane, and shifts the processing to S1808. If the calculation unit 104 determines that the imaging direction does not face the target plane, the processing is transferred to S1809, and after presenting a notification that the imaging direction deviates from the facing direction, the movement to a different imaging position is completed. The process is returned to S1803 according to the operation input.

一方、S1807において対象平面に対して計測装置100が正対していると判断された場合、撮像部102は演算部104の制御の下、S1809で、対象平面に係る寸法導出用の撮像画像に係る撮像を行う。撮像した撮像画像は、対象平面を識別する情報に関連付けて例えばワークメモリに格納される。 On the other hand, when it is determined in S1807 that the measuring device 100 faces the target plane, the imaging unit 102 relates to the captured image for dimension derivation related to the target plane in S1809 under the control of the calculation unit 104. Take an image. The captured image is stored in, for example, a work memory in association with the information for identifying the target plane.

S1810で、演算部104は、計測点間に存在する平面群に、まだ対象平面として選択されていない平面が存在するか否かを判断する。演算部104は、まだ対象平面として選択されていない平面が存在すると判断した場合は処理をS1802に戻し、存在しないと判断した場合はS1811に移す。 In S1810, the calculation unit 104 determines whether or not there is a plane that has not yet been selected as the target plane in the plane group existing between the measurement points. If the calculation unit 104 determines that a plane that has not yet been selected as the target plane exists, the process returns to S1802, and if it determines that the plane does not exist, the calculation unit 104 moves to S1811.

S1811で、演算部104は、計測点間に存在する各平面について格納した撮像画像を結合し、計測点間の平面群を展開した画像(展開画像)を生成する。図19に示した態様では、本ステップに至った時点で、ワークメモリには図20に示されるように平面1903及び1904を正対する方向から撮像した画像2001及び2002が格納されている。本ステップで演算部104は、このように格納された画像のうちの各平面に係る領域2003及び2004を抽出し、平面の境界部の連続性が担保されるよう調整して結合することで、図21に示されるような展開画像を生成する。ここで、展開画像に係る結合は、領域2003及び2004の境界部付近の像のテクスチャを用いて位置合わせすることにより行われればよい。なお、画像2001と画像2002の撮像倍率が異なる場合には、結合時にいずれかの画像を拡縮する処理等を含むものとする。 In S1811, the calculation unit 104 combines the captured images stored for each plane existing between the measurement points to generate an image (expanded image) in which the plane group between the measurement points is expanded. In the aspect shown in FIG. 19, at the time of reaching this step, the work memory stores the images 2001 and 2002 captured from the directions facing the planes 1903 and 1904 as shown in FIG. 20. In this step, the calculation unit 104 extracts the regions 2003 and 2004 related to each plane in the image stored in this way, adjusts and joins them so that the continuity of the boundary portion of the plane is ensured. A developed image as shown in FIG. 21 is generated. Here, the combination related to the developed image may be performed by aligning using the texture of the image near the boundary portion of the regions 2003 and 2004. When the imaging magnifications of the image 2001 and the image 2002 are different, a process of scaling one of the images at the time of combining is included.

S1812で、演算部104は、S1811で生成された展開画像に基づいて、計測点間の寸法を導出し、ディスプレイ103を介して提示する。 In S1812, the calculation unit 104 derives the dimensions between the measurement points based on the developed image generated in S1811, and presents them via the display 103.

このようにすることで、計測点間を結ぶ寸法計測線分の間に、傾きの異なる平面が含まれていたとしても、本実施形態の計測装置100によれば該平面に沿った寸法計測線分の長さを導出可能なように、好適な撮像方向を提示することができる。 By doing so, even if planes having different inclinations are included between the dimension measurement line segments connecting the measurement points, according to the measurement device 100 of the present embodiment, the dimension measurement lines along the planes. A suitable imaging direction can be presented so that the length of the line segment can be derived.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:計測装置、101:投影部、102:撮像部、103:ディスプレイ、104:演算部、105:記憶部、106:操作入力部、111:投影光学系、112:パターン表示部、113:投光部、121:撮像光学系、122:撮像素子 100: Measuring device, 101: Projection unit, 102: Image pickup unit, 103: Display, 104: Calculation unit, 105: Storage unit, 106: Operation input unit, 111: Projection optical system, 112: Pattern display unit, 113: Throw Optical unit, 121: Imaging optical system, 122: Image sensor

Claims (18)

所定のパターンが投影された、計測対象の平面を有する被写体を撮像した撮像画像、該所定のパターンの情報、及び前記所定のパターンを投影した投影光学系と前記被写体を撮像した撮像光学系の相対位置関係の情報を取得する取得手段と、
前記取得手段により取得された前記撮像画像、前記所定のパターンの情報、及び前記相対位置関係の情報に基づき、該撮像画像の撮像方向を判断する判断手段と、
前記判断手段により判断される前記撮像方向に応じた通知を行う第1の通知手段と、
を有することを特徴とする計測装置。
An image of an image of a subject having a plane to be measured on which a predetermined pattern is projected, information on the predetermined pattern, and a relative relationship between the projection optical system on which the predetermined pattern is projected and the imaging optical system on which the subject is imaged. An acquisition method for acquiring positional relationship information,
A determination means for determining the imaging direction of the captured image based on the captured image acquired by the acquisition means, the information on the predetermined pattern, and the information on the relative positional relationship.
A first notification means that gives notification according to the imaging direction determined by the determination means, and
A measuring device characterized by having.
前記判断手段は、前記撮像画像における前記所定のパターンが投影された領域における該パターンの状態に基づいて、前記撮像方向が前記計測対象の平面と正対しているか否かを判断することを特徴とする請求項1に記載の計測装置。 The determination means is characterized in that it determines whether or not the imaging direction faces the plane of the measurement target based on the state of the pattern in the region where the predetermined pattern is projected in the captured image. The measuring device according to claim 1. 前記判断手段は、前記撮像画像における前記所定のパターンが投影された領域における該パターンの状態に基づいて導出された前記計測対象の平面の法線と前記撮像方向とがなす角度により、前記撮像方向が前記計測対象の平面と正対しているか否かを判断することを特徴とする請求項2に記載の計測装置。 The determination means determines the imaging direction based on the angle formed by the normal line of the plane of the measurement target and the imaging direction derived based on the state of the pattern in the region where the predetermined pattern is projected in the captured image. The measuring device according to claim 2, wherein it is determined whether or not is facing the plane of the measurement target. 前記判断手段は、前記計測対象の平面の法線と前記撮像方向とがなす角度が、正対しているとみなすとして予め定められた角度の閾値を上回らない場合に、前記撮像方向が前記計測対象の平面と正対しているものと判断することを特徴とする請求項3に記載の計測装置。 In the determination means, when the angle formed by the normal of the plane of the measurement target and the imaging direction does not exceed the threshold value of the angle predetermined to be regarded as facing each other, the imaging direction is the measurement target. The measuring device according to claim 3, wherein it is determined that the surface is facing the plane of the above. 前記第1の通知手段は、前記判断手段による前記撮像方向が前記計測対象の平面と正対しているか否かの判断の結果を通知することを特徴とする請求項2乃至4のいずれか1項に記載の計測装置。 The first notification means is any one of claims 2 to 4, wherein the first notification means notifies the result of determination by the determination means whether or not the imaging direction faces the plane of the measurement target. The measuring device described in. 前記第1の通知手段は、前記判断手段により前記撮像方向が前記計測対象の平面と正対していないと判断された場合に、正対していない旨の通知を行うことを特徴とする請求項5に記載の計測装置。 5. The first notification means is characterized in that, when the determination means determines that the imaging direction does not face the plane of the measurement target, the first notification means notifies that the image pickup direction does not face the plane of the measurement target. The measuring device described in. 前記第1の通知手段による前記正対していない旨の通知は、前記撮像方向と前記計測対象の平面とが正対している場合の被写体の像と撮像画像とを提示することを含むことを特徴とする請求項6に記載の計測装置。 The notification to the effect that they are not facing each other by the first notification means includes presenting an image of a subject and a captured image when the imaging direction and the plane of the measurement target are facing each other. The measuring device according to claim 6. 前記判断手段により前記撮像方向が前記計測対象の平面と正対していると判断された場合に、該正対している状態で撮像された撮像画像に基づいて前記計測対象の平面に係る計測を行う計測手段をさらに有することを特徴とする請求項5乃至7のいずれか1項に記載の計測装置。 When it is determined by the determination means that the imaging direction faces the plane of the measurement target, the measurement related to the plane of the measurement target is performed based on the captured image captured in the facing state. The measuring device according to any one of claims 5 to 7, further comprising a measuring means. 前記計測手段により計測結果を提示する提示手段をさらに有することを特徴とする請求項8に記載の計測装置。 The measuring device according to claim 8, further comprising a presenting means for presenting a measurement result by the measuring means. 前記判断手段により前記撮像方向が前記計測対象の平面と正対していると判断された場合に、正対している旨の通知を行う第2の通知手段をさらに有することを特徴とする請求項5乃至9のいずれか1項に記載の計測装置。 5. The fifth aspect of the present invention is further comprising a second notifying means for notifying that the imaging direction is facing the plane of the measurement target when the determining means determines that the imaging direction is facing the plane of the measurement target. 9. The measuring device according to any one of 9. 計測項目を選択する選択手段と、
前記選択手段により選択された計測項目に応じて、該計測項目に係る計測点であって、前記計測対象の平面に分布した計測点を指定する入力を受け付ける入力手段と、
前記入力手段により受け付けられた入力に基づいて、前記計測対象の平面に投影される前記所定のパターンを調整する調整手段と、
をさらに有することを特徴とする請求項1乃至10のいずれか1項に記載の計測装置。
Selection means for selecting measurement items and
An input means that accepts an input that is a measurement point related to the measurement item and specifies a measurement point distributed on the plane of the measurement target according to the measurement item selected by the selection means.
An adjusting means that adjusts the predetermined pattern projected on the plane of the measurement target based on the input received by the input means.
The measuring device according to any one of claims 1 to 10, further comprising.
前記計測項目は、平面上の、2つの前記計測点間を結ぶ直線または曲線の長さ、または少なくとも3つの前記計測点で構成される領域の面積を含み、
前記調整手段は、指定された前記計測点が分布する領域を包含するように前記所定のパターンを調整する
ことを特徴とする請求項11に記載の計測装置。
The measurement item includes the length of a straight line or curve connecting the two measurement points on a plane, or the area of a region composed of at least three measurement points.
The measuring device according to claim 11, wherein the adjusting means adjusts the predetermined pattern so as to include a region in which the designated measuring points are distributed.
前記調整手段は、前記選択手段により2つの前記計測点間を結ぶ直線が前記計測項目として選択された場合に、該直線に直交する複数の直線を含むよう前記所定のパターンを調整することを特徴とする請求項12に記載の計測装置。 The adjusting means is characterized in that when a straight line connecting two measurement points is selected as the measurement item by the selection means, the predetermined pattern is adjusted so as to include a plurality of straight lines orthogonal to the straight line. The measuring device according to claim 12. 前記選択手段により2つの前記計測点間を結ぶ直線が前記計測項目として選択された場合に、前記撮像画像において該直線が前記投影光学系と前記撮像光学系の配列方向に延びるように撮像を促す通知を行う第3の通知手段をさらに有することを特徴とする請求項12または13に記載の計測装置。 When a straight line connecting two measurement points is selected as the measurement item by the selection means, imaging is promoted so that the straight line extends in the arrangement direction of the projection optical system and the imaging optical system in the captured image. The measuring device according to claim 12 or 13, further comprising a third notifying means for giving notification. 指定された複数の前記計測点が異なる平面に分布している場合に、
前記調整手段は、複数の前記計測点間に存在する平面の各々について前記所定のパターンを調整し、
前記判断手段は、複数の前記計測点間に存在する平面の各々について、前記撮像方向が該平面と正対しているか否かを判断する
ことを特徴とする請求項11乃至14のいずれか1項に記載の計測装置。
When the specified plurality of measurement points are distributed on different planes,
The adjusting means adjusts the predetermined pattern for each of the planes existing between the plurality of measurement points.
One of claims 11 to 14, wherein the determination means determines whether or not the imaging direction faces the plane for each of the planes existing between the plurality of measurement points. The measuring device described in.
請求項1乃至15のいずれか1項に記載の計測装置と、
前記投影光学系を介して前記所定のパターンを前記被写体に投影する投影手段と、
前記撮像光学系を介して前記被写体を撮像し、前記撮像画像を出力する撮像手段と、
を有することを特徴とする撮像装置。
The measuring device according to any one of claims 1 to 15.
A projection means for projecting the predetermined pattern onto the subject via the projection optical system,
An imaging means that images the subject via the imaging optical system and outputs the captured image.
An imaging device characterized by having.
請求項1乃至15のいずれか1項に記載の計測装置と、
前記投影光学系を介して前記所定のパターンを前記被写体に投影する投影装置と、
前記撮像光学系を介して前記被写体を撮像し、前記撮像画像を出力する撮像装置と、
を有することを特徴とする計測システム。
The measuring device according to any one of claims 1 to 15.
A projection device that projects the predetermined pattern onto the subject via the projection optical system, and
An imaging device that images the subject via the imaging optical system and outputs the captured image.
A measurement system characterized by having.
コンピュータを、請求項1乃至15のいずれか1項に記載の計測装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the measuring device according to any one of claims 1 to 15.
JP2019105611A 2019-06-05 2019-06-05 Measuring device, imaging device, measuring system and program Active JP7277267B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019105611A JP7277267B2 (en) 2019-06-05 2019-06-05 Measuring device, imaging device, measuring system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019105611A JP7277267B2 (en) 2019-06-05 2019-06-05 Measuring device, imaging device, measuring system and program

Publications (2)

Publication Number Publication Date
JP2020197511A true JP2020197511A (en) 2020-12-10
JP7277267B2 JP7277267B2 (en) 2023-05-18

Family

ID=73648449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019105611A Active JP7277267B2 (en) 2019-06-05 2019-06-05 Measuring device, imaging device, measuring system and program

Country Status (1)

Country Link
JP (1) JP7277267B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04132905A (en) * 1990-09-25 1992-05-07 Daihatsu Motor Co Ltd Monitoring apparatus of periphery of automobile
JP2013253799A (en) * 2012-06-05 2013-12-19 Panasonic Corp Size measurement device
JP2015117993A (en) * 2013-12-18 2015-06-25 株式会社ミツトヨ Three-dimensional measurement system, three-dimensional measurement method, and measurement object body, and position detection device
JP2017049152A (en) * 2015-09-03 2017-03-09 株式会社 日立産業制御ソリューションズ Crack width measuring system
JP2019020307A (en) * 2017-07-20 2019-02-07 キヤノン株式会社 Measurement device, measurement device control method, and program
JP2019120618A (en) * 2018-01-09 2019-07-22 キヤノン株式会社 Object measuring device, control method thereof, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04132905A (en) * 1990-09-25 1992-05-07 Daihatsu Motor Co Ltd Monitoring apparatus of periphery of automobile
JP2013253799A (en) * 2012-06-05 2013-12-19 Panasonic Corp Size measurement device
JP2015117993A (en) * 2013-12-18 2015-06-25 株式会社ミツトヨ Three-dimensional measurement system, three-dimensional measurement method, and measurement object body, and position detection device
JP2017049152A (en) * 2015-09-03 2017-03-09 株式会社 日立産業制御ソリューションズ Crack width measuring system
JP2019020307A (en) * 2017-07-20 2019-02-07 キヤノン株式会社 Measurement device, measurement device control method, and program
JP2019120618A (en) * 2018-01-09 2019-07-22 キヤノン株式会社 Object measuring device, control method thereof, and program

Also Published As

Publication number Publication date
JP7277267B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
US10508902B2 (en) Three-dimensional measurement device
KR101600769B1 (en) System and method for multiframe surface measurement of the shape of objects
JP6363863B2 (en) Information processing apparatus and information processing method
JP5095644B2 (en) Image measuring apparatus and computer program
JP4885584B2 (en) Rangefinder calibration method and apparatus
JP5051493B2 (en) 3D measurement marker and 3D measurement method using the same
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
JP3937024B2 (en) Detection of misalignment, pattern rotation, distortion, and misalignment using moiré fringes
JP6721112B2 (en) Camera parameter estimation device, method and program
JP2012088114A (en) Optical information processing device, optical information processing method, optical information processing system and optical information processing program
CN108027233B (en) Method and apparatus for measuring features on or near an object
JP2007322162A (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP6804056B2 (en) Projection type display device, control method of projection type display device, and program
JP2011155412A (en) Projection system and distortion correction method in the same
JP2011101265A (en) Method and device for calculation of calibration information, and wide angle image processing apparatus
JP5222430B1 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
JP6425406B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2011021970A (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
JP2015102532A (en) Three-dimensional shape measurement device
JP6550102B2 (en) Light source direction estimation device
JP2006317418A (en) Image measuring device, image measurement method, measurement processing program, and recording medium
JP2020197511A (en) Measurement device, imaging device, measurement system, and program
JP2006084286A (en) Three-dimensional measuring method and its measuring device
JP6508763B2 (en) Surface inspection device
JP5531071B2 (en) Image measuring apparatus and computer program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R151 Written notification of patent or utility model registration

Ref document number: 7277267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151