JP2023172183A - Projection video control apparatus, method, and program - Google Patents

Projection video control apparatus, method, and program Download PDF

Info

Publication number
JP2023172183A
JP2023172183A JP2022083813A JP2022083813A JP2023172183A JP 2023172183 A JP2023172183 A JP 2023172183A JP 2022083813 A JP2022083813 A JP 2022083813A JP 2022083813 A JP2022083813 A JP 2022083813A JP 2023172183 A JP2023172183 A JP 2023172183A
Authority
JP
Japan
Prior art keywords
mask
illuminance sensor
projection
image
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022083813A
Other languages
Japanese (ja)
Inventor
達也 小林
Tatsuya Kobayashi
恭治 松島
Kyoji Matsushima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Kansai University
Original Assignee
KDDI Corp
Kansai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp, Kansai University filed Critical KDDI Corp
Priority to JP2022083813A priority Critical patent/JP2023172183A/en
Publication of JP2023172183A publication Critical patent/JP2023172183A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a projection video control apparatus, method and program which enable high-precision alignment without depending on size of an opening of an invisible light marker or an optical sensor.SOLUTION: A projection object 10 includes: a plurality of illuminance sensors 102 for sensing illuminance of irradiation light; an optical mask 101 for blocking a part of the irradiation light incident on a light receiving unit of each illuminance sensor 102; and a sensor read unit 103 which reads sensor signals output from the illuminance sensors 102 and converts them into illuminance values. A video projection control unit 20 includes a first position identifying unit 201, a second position identifying unit 202, and a control unit 203, specifies, in stages, positions of the illuminance sensors 102 in a pixel coordinate system controlling a projection video, based on the illuminance values output by the sensor read unit 103, and perform various controls for keystone correction or dimming correction of a specific region on a video projected by a video projection unit 30 on the basis of the positions of the illuminance sensors 102. The video projection unit 30 projects corrected video data on a video screen for visualization.SELECTED DRAWING: Figure 1

Description

本発明は、プロジェクタから投影対象物の所定の領域に高精度に映像の投影を行う投影映像制御装置、方法及びプログラムに関する。 The present invention relates to a projection image control device, method, and program for projecting an image from a projector onto a predetermined region of a projection target with high precision.

近年、プロジェクタの小型化や高性能化が進み、利用シーンが拡大している。プロジェクタが投影対象物(スクリーン)に正対し、共に固定設置された環境下では投影映像を自動制御する必要性は乏しい。しかしながら、プロジェクタや投影対象物の少なくとも一方が動くような場合、投影領域内の動体の動きに応じて映像を制御したい場合、あるいは投影領域内の所定の領域に精度良く映像を投影したいような場合には投影映像を制御するシステムが必要になる。 In recent years, projectors have become smaller and more sophisticated, and their usage has expanded. In an environment where the projector faces the projection target (screen) and is fixedly installed, there is little need to automatically control the projected image. However, when at least one of the projector or the projection target moves, when you want to control the image according to the movement of a moving object within the projection area, or when you want to accurately project an image onto a predetermined area within the projection area. requires a system to control the projected images.

特許文献1には、プロジェクタの筐体に光の透過穴及び光センサを設置し、スクリーンからの反射光を光センサで検知することでスクリーンに対する光軸の角度を推定し、自動的に台形補正を行う技術が開示されている。 Patent Document 1 discloses that a light transmission hole and a light sensor are installed in the housing of the projector, and the angle of the optical axis with respect to the screen is estimated by detecting the reflected light from the screen with the light sensor, and keystone correction is automatically performed. A technique for performing this has been disclosed.

特許文献2には、スクリーンの複数個所に光センサを設置することでスクリーンの前のプレゼンタを自動検知し、プレゼンタの目の近傍への投影光を減少させることによりプレゼンタの目を保護する技術が開示されている。 Patent Document 2 describes a technology that automatically detects the presenter in front of the screen by installing optical sensors at multiple locations on the screen, and protects the presenter's eyes by reducing the amount of light projected near the presenter's eyes. Disclosed.

特許文献3には、3次元センサを用いて三次元空間中でスクリーンに適した平面領域を検出し、投影領域を自動で制御する技術が開示されている。 Patent Document 3 discloses a technique for detecting a flat area suitable for a screen in a three-dimensional space using a three-dimensional sensor and automatically controlling a projection area.

特許文献4には、スクリーンに複数の光センサを設置し、プロジェクタから位置合わせパタンを光センサに投影することにより投影映像を所定の位置に正確に位置合わせする技術が開示されている。 Patent Document 4 discloses a technique in which a plurality of optical sensors are installed on a screen, and a projector projects an alignment pattern onto the optical sensors to accurately align a projected image at a predetermined position.

特許文献5には、スクリーンに複数の反射材を設置し、反射光をカメラで撮像することでスクリーンの動きを検知し、投影映像を追従させる技術が開示されている。 Patent Document 5 discloses a technique in which a plurality of reflective materials are installed on a screen, and the movement of the screen is detected by capturing an image of the reflected light with a camera, thereby causing a projected image to follow.

特許文献6には、動体に複数の不可視光マーカを設置し、不可視光マーカをセンサで検出することで動体の位置を検知し、投影映像を追従させる技術が開示されている。 Patent Document 6 discloses a technique for installing a plurality of invisible light markers on a moving object, detecting the invisible light markers with a sensor to detect the position of the moving object, and causing a projected image to follow.

特許文献7には、投影映像の表示輝度などを自動調整するために設置される光センサの位置を精度良く検知し、光センサに評価用の映像を高精度に入光させる技術が開示されている。 Patent Document 7 discloses a technology that accurately detects the position of an optical sensor installed to automatically adjust the display brightness of a projected image, and allows an evaluation image to enter the optical sensor with high precision. There is.

特開2005-159426号公報Japanese Patent Application Publication No. 2005-159426 特開2013-25014号公報Japanese Patent Application Publication No. 2013-25014 特開2017-73705号公報Japanese Patent Application Publication No. 2017-73705 特開平03-259188号公報Japanese Patent Application Publication No. 03-259188 特開2019-102931号公報Japanese Patent Application Publication No. 2019-102931 特開2011-254411号公報Japanese Patent Application Publication No. 2011-254411 特開2009-175355号公報Japanese Patent Application Publication No. 2009-175355

上記のいずれの従来技術においても、プロジェクタから投影対象物の所定の領域(投影対象領域)へ高精度に映像の投影を行うことが困難であった。 In any of the above-mentioned conventional techniques, it is difficult to project an image from a projector onto a predetermined region (projection target region) of a projection target object with high precision.

例えば、特許文献1~3が開示する投影映像制御システムは、共に投影映像を自動制御(台形補正、特定領域の減光、平面領域への投影制御)できるものの、投影対象領域への高精度な映像投影の用途に応用することが可能な技術では無かった。 For example, the projection image control systems disclosed in Patent Documents 1 to 3 can automatically control the projected image (keystone correction, dimming of light in a specific area, control of projection onto a flat area), but they cannot control the projection image with high precision on the projection target area. It was not a technology that could be applied to image projection purposes.

特許文献4~7が開示する投影映像制御システムは、共に投影対象領域や評価用の光センサへの高精度な映像投影を目的とするものであるが、投影制御の精度が十分ではなかった。 The projection image control systems disclosed in Patent Documents 4 to 7 are all aimed at highly accurate image projection onto a projection target area or an optical sensor for evaluation, but the accuracy of projection control is not sufficient.

例えば、特許文献4では光センサを用いてスクリーン上の投影対象領域の位置合わせを行うため、位置合わせの精度は光センサの開口部のサイズに依存する。この方式では位置合わせ用の光パタンの検知が可能な範囲内で開口部をできるだけ小さくすることで位置合わせの精度が高まる。しかしながら、開口部を小さくするほど透過光量が少なくなり、光パタンの検知が難しくなるため、開口部の縮小には限界があり(特許文献4では開口部サイズとして5mm角が想定されている)、位置合わせの精度を十分に高くできなかった。 For example, in Patent Document 4, an optical sensor is used to align the projection target area on the screen, so the accuracy of alignment depends on the size of the aperture of the optical sensor. In this method, the accuracy of alignment is improved by making the aperture as small as possible within the range in which the optical pattern for alignment can be detected. However, as the aperture becomes smaller, the amount of transmitted light decreases, making it more difficult to detect the light pattern, so there is a limit to the reduction of the aperture (in Patent Document 4, the aperture size is assumed to be 5 mm square). The accuracy of alignment could not be made sufficiently high.

特許文献5,6が開示する投影映像制御技術も同様であり、これらはスクリーンに反射材や不可視光マーカを設置し、反射光をカメラなどのセンサで捉えることで投影対象領域の位置合わせを行う。しかしながら、位置合わせの精度は反射材や不可視光マーカのサイズに依存し、小さくするほど反射材や不可視光マーカ自体の検知が難しくなることから、位置合わせの精度を十分に高くできなかった。 The same applies to the projection image control technologies disclosed in Patent Documents 5 and 6, in which reflective materials or invisible light markers are installed on the screen, and the reflected light is captured by a sensor such as a camera to align the projection target area. . However, the accuracy of alignment depends on the size of the reflective material and the invisible light marker, and the smaller the size, the more difficult it becomes to detect the reflective material or the invisible light marker itself, so the accuracy of alignment cannot be made sufficiently high.

特許文献7が開示する投影映像制御技術も同様であり、光センサの位置検出精度は光センサの開口部のサイズに依存するため、位置合わせの精度を十分に高くできなかった。 The same applies to the projection image control technology disclosed in Patent Document 7, and since the position detection accuracy of the optical sensor depends on the size of the aperture of the optical sensor, the accuracy of alignment cannot be made sufficiently high.

本発明の目的は、上記の技術課題を解決し、不可視光マーカや光センサの開口部のサイズに依存せずに精度の高い位置合わせを可能にする投影映像制御装置、方法及びプログラムを提供することにある。 An object of the present invention is to provide a projection image control device, method, and program that solve the above technical problems and enable highly accurate positioning without depending on the size of the invisible light marker or the aperture of the optical sensor. There is a particular thing.

上記の目的を達成するために、本発明は、投影対象物に投影対象領域との相対位置が既知である複数の照度センサを設け、投影映像のピクセル座標系で特定した各照度センサの位置に基づいて投影映像を制御する投影映像制御装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention provides a projection target with a plurality of illuminance sensors whose relative positions with respect to the projection target area are known, and the position of each illuminance sensor specified in the pixel coordinate system of the projected image. A projection image control device that controls a projection image based on the following features is characterized in that it has the following configuration.

(1) 各照度センサへの入射光を所定のマスクパタンで遮蔽する光マスクと、前記マスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査した際の各照度センサの出力に基づいて各照度センサのピクセル座標系における位置を特定する手段とを具備した。 (1) An optical mask that blocks the incident light to each illuminance sensor with a predetermined mask pattern, and the output of each illuminance sensor when a mask pattern image having the same pattern structure as the mask pattern is scanned on the projection target. and means for specifying the position of each illuminance sensor in the pixel coordinate system based on.

(2) 前記マスクパタンは、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有するようにした。 (2) The amount of light transmitted through the mask pattern increases as the amount of deviation from the projected mask pattern image decreases, and the rate of change in the amount of light transmitted relative to the change in the relative position of each pattern is The pattern structure is such that the amount of deviation is larger in a relatively small range than in a large range.

(3) 前記各照度センサの位置を特定する手段は、各照度センサのピクセル座標系での大まかな位置を特定する第1位置特定手段と、投影対象物における各照度センサの相対位置を前記大まかに特定した各照度センサの位置に変換する変換行列を算出する手段と、前記変換行列で前記マスクパタン画像を変形する手段と、前記変形したマスクパタン画像を投影対象物上で走査した際の各照度センサの出力変化に基づいて各照度センサの位置を特定する第2位置特定手段とを含むようにした。 (3) The means for specifying the position of each illuminance sensor includes a first position specifying means for specifying the rough position of each illuminance sensor in the pixel coordinate system, and a first position specifying means for determining the rough position of each illuminance sensor in the projection target object. means for calculating a transformation matrix for converting to the position of each illuminance sensor specified in the above; means for transforming the mask pattern image using the transformation matrix; and second position specifying means for specifying the position of each illuminance sensor based on a change in the output of the illuminance sensor.

なお、本発明はこのような特徴的な構成を備える投影映像制御装置として実現できるのみならず、かかる特徴的な構成を手順とする投影映像制御方法として実現し、更にはかかる手順をコンピュータに実行させる投影映像制御プログラムとしても実現することができる。 Note that the present invention can be realized not only as a projection image control device having such a characteristic configuration, but also as a projection image control method using such a characteristic configuration as a procedure, and furthermore, can be realized as a projection image control method having such a characteristic configuration as a procedure, and furthermore, can be realized as a projection image control method having such a characteristic configuration as a procedure. It can also be realized as a projection image control program.

本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.

(1) 照度センサへの入射光を遮蔽する光マスクのマスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査するので、不可視光マーカや光センサの開口部のサイズに依存せずに、各マスクパタンが一致する走査位置と一致しない走査位置とで照度センサのセンサ出力値を有意に異ならせることができる。したがって、照度センサのピクセル座標系における位置を正確に特定できるようになる。 (1) Since the mask pattern image having the same pattern structure as the mask pattern of the optical mask that blocks the incident light to the illuminance sensor is scanned on the projection target, it depends on the size of the invisible light marker and the aperture of the optical sensor. The sensor output value of the illuminance sensor can be made to differ significantly between the scan position where each mask pattern matches and the scan position where the mask patterns do not match. Therefore, the position of the illuminance sensor in the pixel coordinate system can be accurately specified.

(2) 光マスクのマスクパタンは、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有するので、各マスクパタンが一致する走査位置と一致しない走査位置とで照度センサのセンサ出力値を特異的に大きく異ならせることができる。したがって、照度センサのピクセル座標系における位置を更に正確に特定できるようになる。 (2) The amount of light transmitted from the mask pattern of the optical mask increases as the amount of deviation from the projected mask pattern image decreases, and the rate of change in the amount of light transmitted relative to the change in the relative position of each pattern is Since each pattern has a pattern structure in which the amount of deviation is larger in a relatively small range than in a large range, the sensor output value of the illuminance sensor is specifically increased between the scanning position where each mask pattern matches and the scanning position where it does not match. can be made different. Therefore, the position of the illuminance sensor in the pixel coordinate system can be specified more accurately.

(3) 第1位置特定手段及び第2位置特定手段を設け、第1位置特定手段は広い範囲内で大まか位置探索を行う一方、第2位置特定手段は第1位置特定手段が特定した大まかな位置近傍のみを対象に精密な位置探索を行うので、各照度センサの位置を短時間で精密に特定できるようになる。
しかも、本実施形態では第2位置特定手段が、歪みを相殺するようにホモグラフィ変換により変形したマスクパタン映像を投影するので、光マスクの中心座標が真値に合致したことを照度値のピークとして検出できるようになる。
(3) A first position specifying means and a second position specifying means are provided, and the first position specifying means performs a general position search within a wide range, while the second position specifying means performs a general position search specified by the first position specifying means. Since a precise position search is performed only in the vicinity of the position, the position of each illuminance sensor can be precisely specified in a short time.
Moreover, in this embodiment, the second position specifying means projects a mask pattern image transformed by homography transformation so as to cancel out the distortion, so that the peak of the illuminance value indicates that the center coordinates of the optical mask match the true value. can be detected as .

本発明の一実施形態に係る投影映像制御装置の機能ブロック図である。FIG. 1 is a functional block diagram of a projection image control device according to an embodiment of the present invention. 投影対象領域R1と複数の照度センサ及びその光マスクとの相対的な位置関係を示した図である。FIG. 3 is a diagram showing a relative positional relationship between a projection target region R1, a plurality of illuminance sensors, and their optical masks. 光マスクの例を示した図である。It is a figure showing an example of a light mask. 光マスクのマスクパタンに対する投影されたマスクパタン画像のずれ量と光の透過量との関係を示した図である。FIG. 3 is a diagram showing the relationship between the amount of shift of a projected mask pattern image with respect to the mask pattern of an optical mask and the amount of light transmitted. センサ読取部の機能ブロック図である。FIG. 3 is a functional block diagram of a sensor reading section. 投影映像を制御するピクセル座標系と投影対象物との関係を示した図である。FIG. 2 is a diagram showing the relationship between a pixel coordinate system that controls a projected image and a projection target. 映像投影制御部の動作を示したフローチャートである。5 is a flowchart showing the operation of the video projection control section. 照度センサの位置を大まかに特定するために投影する映像の例を示した図である。FIG. 3 is a diagram showing an example of an image projected to roughly specify the position of an illuminance sensor. 照度センサの位置を精密に特定するために投影する、各照度センサの対応位置にマスクパタン画像が配置されたパタン構造画像の例を示した図である。FIG. 7 is a diagram showing an example of a pattern structure image in which mask pattern images are arranged at positions corresponding to each illuminance sensor, which is projected in order to accurately specify the position of the illuminance sensor. 投影対象物における各光マスクの位置を、ピクセル座標系で特定した各大まかな位置に座標変換するホモグラフィ行列を算出する方法を示した図である。FIG. 6 is a diagram illustrating a method for calculating a homography matrix that coordinates transforms the position of each optical mask on a projection target into each rough position specified in a pixel coordinate system.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係る投影映像制御装置の主要部の構成を示した機能ブロック図であり、投影対象物10、映像投影制御部20及び映像投影部30を主要な構成とする。 Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of the main parts of a projection image control device according to an embodiment of the present invention, and the main components include a projection target 10, an image projection control section 20, and an image projection section 30. do.

投影対象物10は、照射光の照度を検知する複数の照度センサ102、各照度センサ102の受光部へ入射する照射光の一部を遮蔽する光マスク101及び各照度センサ102が出力するセンサ信号を読み取って照度値に変換するセンサ読取部103を具備する。各照度センサ102は投影映像を可視化する映像スクリーン等と一体又は別体に構成される。 The projection target 10 includes a plurality of illuminance sensors 102 that detect the illuminance of irradiated light, a light mask 101 that blocks part of the irradiated light that enters the light receiving section of each illuminance sensor 102, and a sensor signal output by each illuminance sensor 102. It is equipped with a sensor reading unit 103 that reads and converts it into an illuminance value. Each illuminance sensor 102 is configured integrally with or separately from a video screen or the like that visualizes the projected image.

映像投影制御部20は、第1位置特定部201、第2位置特定部202及び制御部203を具備し、センサ読取部103が出力する照度値に基づいて、投影映像を制御するピクセル座標系における各照度センサ102の位置を段階的に特定し、各照度センサ102の位置に基づいて、映像投影部30が投影対象物10に投影する映像に台形補正等の幾何変換や特定領域の減光補正等の各種制御を行う。 The image projection control unit 20 includes a first position specifying unit 201, a second position specifying unit 202, and a control unit 203, and controls the projected image based on the illuminance value output by the sensor reading unit 103. The position of each illuminance sensor 102 is identified step by step, and based on the position of each illuminance sensor 102, the image projected by the image projection unit 30 on the projection target 10 is subjected to geometric transformation such as keystone correction and dimming correction of a specific area. Performs various controls such as

このような映像投影制御部20は、CPU、ROM、RAM、バス、インタフェース等を備えた汎用のコンピュータやサーバに、以下に詳述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部をハードウェア化またはソフトウェア化した専用機や単能機としても構成できる。 Such an image projection control unit 20 is configured by implementing an application (program) that realizes each function described in detail below on a general-purpose computer or server equipped with a CPU, ROM, RAM, bus, interface, etc. can. Alternatively, it can be configured as a dedicated machine or single-function machine in which part of the application is converted into hardware or software.

映像投影部30は、補正後の映像データを映像スクリーンに投影して可視化する。映像投影部30としては、DLP(Digital Light Processing)、液晶、レーザー等の任意の汎用プロジェクタ装置を用いることができる。 The video projection unit 30 projects the corrected video data onto a video screen to visualize it. As the image projection unit 30, any general-purpose projector device such as DLP (Digital Light Processing), liquid crystal, laser, etc. can be used.

図2は、投影対象物10において視聴用の映像が照射される投影対象領域R1と複数の照度センサ102との相対的な位置関係を示した図である。なお、本実施形態では光マスク101が照度センサ102の受光部に設けられ、映像投影部30から見た各光マスク101の位置が対応する各照度センサ102の位置となるので、便宜上、各光マスク101の位置を各照度センサ102の位置と見做して説明する場合もある。 FIG. 2 is a diagram showing the relative positional relationship between the projection target region R1 on the projection target object 10 onto which the video for viewing is irradiated and the plurality of illuminance sensors 102. As shown in FIG. Note that in this embodiment, the optical mask 101 is provided at the light receiving section of the illuminance sensor 102, and the position of each optical mask 101 viewed from the image projection section 30 is the position of the corresponding illuminance sensor 102. In some cases, the position of the mask 101 is considered to be the position of each illuminance sensor 102 in the explanation.

本実施形態では4つの照度センサ102及びその光マスク101が、映像スクリーン上の物理的な投影可能領域内であって投影対象領域R1の外側の間隙領域内に、当該投影対象領域R1との相対関係が既知の位置に固定されている。 In this embodiment, four illuminance sensors 102 and their optical masks 101 are placed in a gap area outside the projection target area R1 within the physical projectable area on the video screen, relative to the projection target area R1. The relationship is fixed in a known position.

各照度センサ102は光マスク101を透過した光を検知し、その強度に応じた電流値等のセンサ信号をセンサ読取部103へ出力する。各照度センサ102は一般にフォトダイオードやフォトトランジスタと呼ばれる、光をセンサ信号に変換して出力する任意のデバイスや、光の強度に応じて電気抵抗が低下するフォトレジスタ等のデバイスを用いて実装することが可能である。 Each illuminance sensor 102 detects the light transmitted through the optical mask 101 and outputs a sensor signal such as a current value according to the intensity to the sensor reading unit 103. Each illuminance sensor 102 is generally implemented using an arbitrary device called a photodiode or phototransistor that converts light into a sensor signal and outputs it, or a device such as a photoresistor whose electrical resistance decreases depending on the intensity of light. Is possible.

本実施形態では、光マスク101の位置にそのマスクパタンと同一のパタン構造を有するマスクパタン映像Lが投影されたとき、各パタンの位置ずれが少ないほど光の透過量が特異的に多くなるように各マスクパタンのパタン構造が設計されている。 In this embodiment, when a mask pattern image L having the same pattern structure as that of the mask pattern is projected onto the position of the optical mask 101, the amount of light transmitted specifically increases as the positional deviation of each pattern decreases. The pattern structure of each mask pattern is designed.

図3は、本実施形態における光マスク101のマスクパタンの例を示した図であり、黒色部分は光を透過しないマスク領域を表し、白色部分は光を透過する非マスク領域を表している。各照度センサ102の受光面に対応する各光マスク101の領域には複数のマスク領域及び複数の非マスク領域が所定のパタン構造で配置されている。 FIG. 3 is a diagram showing an example of a mask pattern of the optical mask 101 in this embodiment, where black portions represent mask regions that do not transmit light, and white portions represent non-masked regions that transmit light. In a region of each optical mask 101 corresponding to the light receiving surface of each illumination sensor 102, a plurality of mask regions and a plurality of non-mask regions are arranged in a predetermined pattern structure.

本実施形態では、光マスク101のマスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査した際の各照度センサ102の出力に基づいて各照度センサ102のピクセル座標系における位置を正確に特定するために、光マスク101のマスクパタンは、光の透過量がマスクパタン画像との位置ずれに対して敏感なパタン構造を有している。 In this embodiment, the position of each illuminance sensor 102 in the pixel coordinate system is determined based on the output of each illuminance sensor 102 when a mask pattern image having the same pattern structure as the mask pattern of the optical mask 101 is scanned on the projection target. In order to accurately specify the mask pattern of the optical mask 101, the mask pattern of the optical mask 101 has a pattern structure in which the amount of light transmitted is sensitive to positional deviation from the mask pattern image.

更に具体的に言えば、光マスク101のマスクパタンは、後に図4を参照して詳述するように、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有している。 More specifically, as will be described later in detail with reference to FIG. 4, the mask pattern of the optical mask 101 increases the amount of light transmitted as the amount of deviation from the projected mask pattern image decreases, and The pattern structure has a pattern structure in which the ratio of change in the amount of light transmission to a change in the relative position of each pattern is larger in a range where the amount of shift of each pattern is relatively small than in a range where it is large.

同図(a)では、複数の矩形のマスク領域及び非マスク領域が千鳥格子状に配置されている。換言すれば、照度センサ102の受光面に対応するマスク領域に複数の非マスク領域が不連続に配置されている。 In FIG. 4A, a plurality of rectangular mask areas and non-mask areas are arranged in a houndstooth pattern. In other words, a plurality of non-masked regions are arranged discontinuously in the masked region corresponding to the light-receiving surface of the illuminance sensor 102.

同図(b)では、複数の矩形のマスク領域及び非マスク領域が不規則に配置されている。換言すれば、照度センサ102の受光面に対応するマスク領域に、複数の非マスク領域が相互に連結して一体化し、結果的に複数の複雑な非マスク領域を構成することを許容して配置されている。 In FIG. 4B, a plurality of rectangular mask areas and non-mask areas are irregularly arranged. In other words, the mask area corresponding to the light receiving surface of the illuminance sensor 102 is arranged so as to allow a plurality of non-mask areas to be interconnected and integrated, resulting in a plurality of complex non-mask areas. has been done.

同図(c)では、大きさの異なる複数の環状のマスク領域及び非マスク領域が同心円状に交互に配置されている。なお、各非マスク領域の形状は矩形や環状に限定されるものではなく、任意の形状とすることができる。 In FIG. 4(c), a plurality of annular mask regions and non-mask regions of different sizes are alternately arranged concentrically. Note that the shape of each non-masked region is not limited to a rectangle or an annular shape, but can be any shape.

図4(a)-(c)は各光マスク101のマスクパタンに対するマスクパタン画像のずれ量と光の透過量との関係を計算して三次元グラフ化した図であり、同図(d)には特許文献4が採用する従来の光マスク、すなわち1つの非マスク領域が1つのマスク領域で囲まれる単純なパタン構造における関係を比較のために示している。 FIGS. 4(a) to 4(c) are diagrams in which the relationship between the amount of deviation of the mask pattern image and the amount of light transmitted for each mask pattern of each optical mask 101 is calculated and made into a three-dimensional graph, and FIG. 4(d) shows, for comparison, the relationship in the conventional optical mask employed in Patent Document 4, that is, a simple pattern structure in which one non-mask area is surrounded by one mask area.

本実施形態のように、マスクパタンが複雑で、位置ずれに敏感なパタン構造を有する光マスク101を用いると、同図(d)のようにマスクパタンが単純で、位置ずれに鈍感なパタン構造を有する光マスクを用いた場合と較べて、マスクパタンとマスクパタン映像とのずれが少ない範囲で光の透過量が特異的に高くなって先鋭化し、精度の高い位置検出が可能になることが判る。環境光や計測ノイズ、投影映像と光マスクの角度の不一致等の影響を無視すれば、理想的には同様の形状の二次元グラフとして照度値がセンシングされることが期待される。 If an optical mask 101 with a complex mask pattern and a pattern structure sensitive to positional deviation is used as in this embodiment, a pattern structure with a simple mask pattern and insensitive to positional deviation as shown in FIG. Compared to the case of using an optical mask with I understand. Ignoring the effects of environmental light, measurement noise, mismatch in angle between the projected image and the optical mask, etc., it is expected that the illuminance value will ideally be sensed as a two-dimensional graph with a similar shape.

なお、同図(a)に示すような規則的なマスクパタンでは複数の極大値が発生し、環境光や計測ノイズの影響でピーク位置を誤検出することが起こり得る。これに対して、同図(b)に示すように複数のマスク領域及び非マスク領域を不規則に配置すれば、誤った位置でパタン画像を投影した際の照度値を低減させることができるので、高精度かつ頑健な位置検出が可能になる。 Note that with a regular mask pattern as shown in FIG. 2(a), a plurality of local maximum values occur, and the peak position may be erroneously detected due to the influence of environmental light and measurement noise. On the other hand, if multiple masked areas and non-masked areas are arranged irregularly as shown in Figure (b), it is possible to reduce the illuminance value when the pattern image is projected at the wrong position. , enables highly accurate and robust position detection.

このような不規則なマスクパタンは、照度センサ102の受光部に対応する領域を二次元グリッドに分割した上で、グリッド番号に対応したM系列符号などの疑似乱数を生成し、符号が1のグリッドを非マスク領域とするなどで生成できる。 Such an irregular mask pattern is created by dividing the area corresponding to the light receiving part of the illuminance sensor 102 into two-dimensional grids, generating pseudo-random numbers such as M-sequence codes corresponding to the grid numbers, and generating pseudo-random numbers with a code of 1. It can be generated by making the grid a non-masked area.

ここで、例えば二次元グリッドの列数の長さのM系列符号を生成して1行目に割り当て、2行目以降のグリッドには当該符号を数ビットずつシフトした符号を割り当てても良い。このとき、行と列とは逆でも良い。これにより行(列)方向のみならず列(行)方向にもM系列符号の性質を持たせることが可能になる。 Here, for example, an M-sequence code having the length of the number of columns of a two-dimensional grid may be generated and assigned to the first row, and codes obtained by shifting the code by several bits may be assigned to the second and subsequent grids. At this time, the rows and columns may be reversed. This makes it possible to provide M-sequence code properties not only in the row (column) direction but also in the column (row) direction.

一般にM系列符号の自己相関は、ずれ量が0の時にピークの値になり、それ以外は低い値になるため、一般的な疑似乱数を用いた場合と比較して、誤った位置で映像を投影した際の照度値を低減し、より高精度かつ頑健な位置検出が可能になる。 In general, the autocorrelation of M-sequence codes reaches a peak value when the amount of deviation is 0, and is low at other times. By reducing the illuminance value when projected, more accurate and robust position detection becomes possible.

また、同図(c)に示すように同心円状のマスク構造を採用すると、同図(b)の不規則パタンの場合と同様に位置ズレ時の照度値の低減が可能になることに加えて、投影映像と光マスク101との角度の不一致による照度値への影響が少なくなるため、投影映像と光マスク101との角度の不一致に頑健な位置検出が可能になる。 In addition, if a concentric mask structure is adopted as shown in (c) of the same figure, it is possible to reduce the illuminance value when the position is misaligned, as in the case of the irregular pattern shown in (b) of the same figure. Since the illuminance value is less affected by the angle mismatch between the projected image and the optical mask 101, position detection that is robust to the angle mismatch between the projected image and the optical mask 101 becomes possible.

なお、光マスク101において非マスク領域を配置する範囲の大きさは照度センサ102の受光部のサイズと同程度(例えば5mm角)、あるいはそれよりも小さいサイズとすることが望ましい。そうすることで、光マスク101を透過した光を照度センサ102で漏れなく検出できるので、光マスクを最も多くの光が透過した際に照度値のピークを検出することが可能になる。 Note that the size of the area in which the non-masked area is arranged in the optical mask 101 is preferably about the same size as the light receiving section of the illuminance sensor 102 (for example, 5 mm square), or smaller than that. By doing so, the illuminance sensor 102 can detect all of the light that has passed through the optical mask 101, making it possible to detect the peak of the illuminance value when the most amount of light has passed through the optical mask.

センサ読取部103は、各照度センサ102が出力するセンサ信号を読み取って照度値に変換し、映像投影制御部20へ出力する。図5はセンサ読取部103の機能ブロック図であり、ここでは照度センサ102がフォトダイオードである場合を例にして説明する。 The sensor reading unit 103 reads the sensor signals output by each illuminance sensor 102, converts it into an illuminance value, and outputs it to the image projection control unit 20. FIG. 5 is a functional block diagram of the sensor reading unit 103, and here, the case where the illuminance sensor 102 is a photodiode will be explained as an example.

センサ読取部103は、各照度センサ102が出力する時刻tにおける電流値等のアナログのセンサ信号をデジタル信号に変換し、対応する照度値への変換やエラー補正などを行った上で、各照度センサ102の照度値L1,t,L2,t…LK,tとして映像投影制御部20へ逐次出力する。 The sensor reading unit 103 converts analog sensor signals such as current values at time t output by each illuminance sensor 102 into digital signals, converts them to corresponding illuminance values, performs error correction, etc., and then reads each illuminance. The illuminance values of the sensor 102 are sequentially outputted to the image projection control unit 20 as L 1,t , L 2,t . . . L K,t .

映像投影制御部20は、前記第1位置特定部201、第2位置特定部202及び制御部203を主要な構成とし、センサ読取部103から取得した時刻tにおける各照度センサ102の照度値L1,t ,L2,t…LK,tに基づいて各光マスク101の位置を段階的に特定し、当該位置で各照度センサ102の位置を代表する。更に、特定した各照度センサ102の位置に基づいて投影対象領域R1を特定し、後段の映像投影部30が投影する映像及び投影対象領域R1を制御する。 The image projection control section 20 mainly includes the first position specifying section 201, the second position specifying section 202, and the control section 203, and has the illuminance value L 1 of each illuminance sensor 102 at time t acquired from the sensor reading section 103. ,t , L 2,t ...L K,t, the position of each optical mask 101 is identified step by step, and the position represents the position of each illumination sensor 102. Furthermore, the projection target area R1 is specified based on the position of each specified illuminance sensor 102, and the image projected by the subsequent image projection unit 30 and the projection target area R1 are controlled.

図6に示すように、投影対象物10の投影対象領域R1を矩形領域として、その外周近傍にK個(K≧3:本実施形態では4個)の照度センサ102を配置し、その光マスク101を投影対象領域R1と同一平面上に固定配置する場合、各光マスク101の中心座標PM,1,PM,2,PM,3,PM,4及び投影対象領域R1を定義する四隅の座標PT,1,PT,2,PT,3,PT,4は、映像投影部30が投影する映像のピクセル座標系(u,v)で定義できる。 As shown in FIG. 6, the projection target area R1 of the projection target object 10 is a rectangular area, and K pieces (K≧3: 4 pieces in this embodiment) of illumination sensors 102 are arranged near the outer periphery of the rectangular area, and the optical mask 101 are fixedly arranged on the same plane as the projection target region R1, define the center coordinates P M,1 , P M,2 , P M,3 , P M,4 of each optical mask 101 and the projection target region R1. The coordinates P T,1 , P T,2 , P T,3 , and P T,4 of the four corners can be defined in the pixel coordinate system (u, v) of the image projected by the image projection unit 30.

そして、各光マスク101の中心座標PM,1~PM,4を投影対象領域R1の四隅の各座標PT,1~PT,4に座標変換するホモグラフィ行列HMTを用いることで、各光マスク101の中心座標から投影対象領域R1を特定することが可能になる。なお、光マスク101と投影対象領域R1とは既知の位置関係にあることから、ホモグラフィ行列HMTは予め算出したものを使用することが可能である。つまり、各光マスク101の中心座標PM,1,PM,2,PM,3,PM,4を特定すれば投影対象領域R1を特定できる。 Then, by using a homography matrix H MT that coordinates transforms the center coordinates P M,1 to P M,4 of each optical mask 101 to the coordinates P T,1 to P T,4 of the four corners of the projection target area R1. , it becomes possible to specify the projection target region R1 from the center coordinates of each optical mask 101. Note that since the optical mask 101 and the projection target region R1 have a known positional relationship, it is possible to use a homography matrix HMT calculated in advance. That is, by specifying the center coordinates P M,1 , P M,2 , P M,3 , P M,4 of each optical mask 101, the projection target region R1 can be specified.

そこで、本実施形態では各光マスク101の位置で各照度センサ102の位置を代表するものとし、各光マスク101のピクセル座標系における位置を特定し、当該各光マスク101の位置に基づいて投影対象領域R1のピクセル座標系における位置を特定する。 Therefore, in this embodiment, the position of each light mask 101 is assumed to represent the position of each illuminance sensor 102, the position of each light mask 101 in the pixel coordinate system is specified, and the projection is performed based on the position of each light mask 101. Identify the position of the target region R1 in the pixel coordinate system.

次いで、図7のフローチャートを参照して映像投影制御部20の動作を詳細に説明する。ステップS1では、第1位置特定部201が図8に一例を示すように、黒(最低輝度)を背景として投影映像のピクセル座標系における特定の座標(um,vm)を中心とする所定の半径の円領域のみが白(最大輝度)となるスポット光を投影対象物10において走査する映像を投影する。そして、各照度センサ102の照度値L1,t~L4,tがそれぞれ最大値となったスポット光の各走査位置の座標を、それぞれ各光マスク101のピクセル座標系における大まかな位置P' M,1~P' M,4として特定する。 Next, the operation of the video projection control section 20 will be explained in detail with reference to the flowchart in FIG. In step S1, the first position specifying unit 201 , as shown in an example in FIG. An image is projected by scanning the projection target 10 with a spot light in which only a circular area with a radius of is white (maximum brightness). Then, the coordinates of each scanning position of the spot light at which the illuminance values L 1,t to L 4,t of each illuminance sensor 102 are respectively the maximum values are determined as the rough position P ' in the pixel coordinate system of each optical mask 101. Specify as M,1 ~P ' M,4 .

あるいは、より短時間での実行が見込める方法として、円領域ではなく所定の線幅を持った白の直線をu方向及びv方向にそれぞれ走査する方法を採用しても良い。その他にも、被映像投影領域をグリッド分割して各グリッドにIDを割り当て、IDに応じた特定のパタンで白黒の映像投影を切り替えることで各光マスク位置を特定するといった方法や、一般に距離計測等で用いられる位相シフト法と呼ばれる手法を用いて複数の位相をシフトさせた正弦波パタンを投影し、照度値から正弦波の位相をサブピクセル精度で推定する方法を採用しても良い。 Alternatively, as a method that can be expected to be executed in a shorter time, a method may be adopted in which a white straight line with a predetermined line width is scanned in the u direction and the v direction, instead of a circular area. Other methods include dividing the image projection area into grids, assigning an ID to each grid, and identifying the position of each light mask by switching between black and white image projection in a specific pattern according to the ID, and distance measurement in general. It is also possible to adopt a method of projecting a plurality of phase-shifted sine wave patterns using a technique called a phase shift method, which is used in E.g., and estimating the phase of the sine wave with sub-pixel accuracy from the illuminance value.

前記第1特定部201による光マスク101の位置特定処理は、単独でも一定の精度で照度センサの位置を特定できる。しかしながら、いずれの手法においても投影映像をマスク中心の真値から僅かにシフトさせた際の照度値の変化は同様に僅かであり、計測ノイズに頑健かつ精度よく光マスクの位置を特定することは困難である。そこで、本実施形態では各光マスク101の大まかな位置P'に基づいて、第2位置特定部202が更に精密な位置特定を行う。 The position specifying process of the optical mask 101 by the first specifying unit 201 can specify the position of the illuminance sensor with a certain degree of accuracy even when performed alone. However, in both methods, the change in illuminance value when the projected image is slightly shifted from the true value at the center of the mask is similarly small, and it is difficult to accurately identify the position of the optical mask robustly to measurement noise. Have difficulty. Therefore, in this embodiment, the second position specifying unit 202 performs more precise position specifying based on the rough position P ' of each optical mask 101.

第2位置特定部202は、図9に一例を示すように、投影対象物10において各照度センサ102の受光部に設けた光マスク101に対応する位置に各光マスク101と同じパタン構造のマスクパタン画像CPを配置し、残りの全領域を黒としたパタン構造画像を保持する。本実施形態では光マスク101として3×3の千鳥格子パタンを想定するので、各マスクパタン画像CPも3×3の千鳥格子パタンとなっている。ピクセル座標系における各マスクパタン画像CP1~CP4の相対位置は投影対象物10における各光マスク101の相対位置と等しい。 As an example is shown in FIG. 9, the second position specifying unit 202 provides a mask having the same pattern structure as each optical mask 101 at a position corresponding to the optical mask 101 provided in the light receiving part of each illuminance sensor 102 on the projection target 10. A pattern structure image is held in which the pattern image CP is placed and the entire remaining area is black. In this embodiment, a 3×3 houndstooth pattern is assumed as the optical mask 101, so each mask pattern image CP also has a 3×3 houndstooth pattern. The relative position of each mask pattern image CP1 to CP4 in the pixel coordinate system is equal to the relative position of each optical mask 101 on the projection target 10.

図10は、各マスクパタン画像CP1~CP4の位置で代表した投影対象物10における各光マスク101の位置を、ピクセル座標系で特定した各大まかな位置P'に座標変換するホモグラフィ行列を算出する方法を示した図である。 FIG. 10 calculates a homography matrix that coordinates transforms the position of each optical mask 101 on the projection object 10, represented by the positions of each mask pattern image CP1 to CP4, to each rough position P ' specified in the pixel coordinate system. FIG.

ステップS2では、図10に示すように、パタン構造画像中の各マスクパタン画像CPの中心座標pM,1,pM,2,pM,3,pM,4と前記第1位置特定部201が特定した各光マスク101の大まかな位置P' M,1,P' M,2,P' M,3,P' M,4との点対応に基づいて、各マスクパタン画像CPの中心座標pM,1~pM,4を、対応する各光マスク101の大まかな位置P' M,1~P' M,4にそれぞれ座標変換するホモグラフィ行列HpM→PMを算出する。 In step S2, as shown in FIG. 10, the center coordinates p M,1 , p M,2 , p M,3 , p M,4 of each mask pattern image CP in the pattern structure image and the The center of each mask pattern image CP is determined based on the point correspondence with the rough positions P'M ,1 , P'M ,2 , P'M ,3 , P'M ,4 of each optical mask 101 identified by 201. A homography matrix H pM → P M that transforms the coordinates p M,1 to p M,4 to the rough positions P M,1 to P M,4 of each corresponding optical mask 101 is calculated.

ステップS3では、制御部203が前記パタン構造画像に前記変換行列HpM→PMを適用してホモグラフィ変換(平面射影変換)した変換後パタン構造画像を生成する。変換後パタン構造画像では、各マスクパタン画像CPのパタン構造も前記ホモグラフィ変換HpM→PMによりその位置に応じた形状に変形されている。 In step S3, the control unit 203 applies the transformation matrix H pM →P M to the pattern structure image to generate a transformed pattern structure image subjected to homography transformation (planar projection transformation). In the converted pattern structure image, the pattern structure of each mask pattern image CP has also been transformed into a shape corresponding to its position by the homography transformation H pMPM .

ステップS4では、第2位置特定部202が前記変換後パタン構造画像中の各マスクパタン画像CPの領域を、対応する前記大まかな各位置P' M,1~P' M,4を中心にした所定の範囲の矩形領域あるいは円領域内でシフト(走査)させながら各照度センサ102の照度値を取得する。そして、各照度センサの照度値L1,t~L4,tがそれぞれ最大値となった座標を各光マスク101のピクセル座標系における精密な位置PM,1~PM,4として特定する。 In step S4, the second position specifying unit 202 determines the area of each mask pattern image CP in the converted pattern structure image with the corresponding rough positions P M,1 to P M,4 as centers. The illuminance value of each illuminance sensor 102 is acquired while shifting (scanning) within a predetermined rectangular or circular area. Then, the coordinates where the illuminance values L 1,t to L 4,t of each illuminance sensor reach their maximum values are specified as precise positions P M,1 to P M,4 in the pixel coordinate system of each light mask 101. .

前記第2位置特定部202は、マスクパタン画像CPをサブピクセル精度でシフトすることで各光マスク101の位置PM,1~PM,2をサブピクセル精度で求めることができる。あるいは照度値の最大値周辺の照度値を用いたパラボラフィッティングやバイキュービック法等を適用することで照度値をアップサンプルし、各光マスク101の位置PM,1~PM,2をサブピクセル精度で求めても良い。 The second position specifying unit 202 can determine the positions P M,1 to P M,2 of each optical mask 101 with sub-pixel precision by shifting the mask pattern image CP with sub-pixel precision. Alternatively, the illuminance value is up-sampled by applying parabolic fitting, bicubic method, etc. using the illuminance value around the maximum value of the illuminance value, and the positions P M,1 to P M,2 of each light mask 101 are sub-pixel. You can also find it by accuracy.

なお、点対応からホモグラフィ行列を算出する方法として、少なくとも4組の点対応を用いてDLT(Direct Linear Transform)法により初期値を推定し、ガウスニュートン法やレーベンバーグ・マーカート法等によって最適化を行う手法が一般に知られている。この手法を用いる場合、光マスク101を少なくとも4個使用し、その中心座標を検出する必要がある。 In addition, as a method for calculating the homography matrix from point correspondences, the initial values are estimated using the DLT (Direct Linear Transform) method using at least four sets of point correspondences, and then optimized using the Gauss-Newton method, Levenberg-Marquardt method, etc. There are generally known methods for doing this. When using this method, it is necessary to use at least four optical masks 101 and detect their center coordinates.

また、点対応からホモグラフィ行列を算出する別の方法として、3組あるいは4組の点対応を用いたPnP(Perspective-n-Point)法によりプロジェクタの外部パラメータを推定し、事前にキャリブレーションで取得したプロジェクタの内部パラメータと掛け合わせることでホモグラフィ行列を算出する手法も知られている。この手法を用いる場合、光マスクを少なくとも3個使用し、その中心座標を検出する必要がある。本発明ではホモグラフィ行列を計算する手段を特に限定せず、任意の方式を用いることが可能である。 Another method for calculating the homography matrix from point correspondences is to estimate the external parameters of the projector using the PnP (Perspective-n-Point) method using three or four sets of point correspondences, and perform calibration in advance. There is also a known method of calculating a homography matrix by multiplying it by the acquired internal parameters of the projector. When using this method, it is necessary to use at least three optical masks and detect their central coordinates. In the present invention, the means for calculating the homography matrix is not particularly limited, and any method can be used.

ステップS5では、制御部203が前記ホモグラフィ行列HMTを用いて、ピクセル座標系における各光マスク101の特定位置PM,1~PM,4を投影対象領域R1の四隅の座標PT,1~PT,4に座標変換することで投影対象物10の投影対象領域R1を特定する。投影対象領域R1を特定できれば、例えば投影対象物10の任意の四隅の頂点座標PC,1~PC,4をPT,1~PT,4に座標変換するホモグラフィ行列HPC→PMを算出して適用することで、投影領域全体に投影する映像を投影対象領域R1に収まるように制御して投影すること等が可能になる。 In step S5, the control unit 203 uses the homography matrix HMT to set the specific positions P M,1 to P M,4 of each optical mask 101 in the pixel coordinate system to the coordinates P T,1 of the four corners of the projection target area R1. The projection target region R1 of the projection target object 10 is specified by coordinate transformation to ~P T,4 . If the projection target region R1 can be specified, for example, a homography matrix H PC →P that transforms the vertex coordinates P C,1 to P C,4 of arbitrary four corners of the projection target object 10 to P T,1 to P T,4 By calculating and applying M , it becomes possible to control and project an image to be projected onto the entire projection area so that it fits within the projection target area R1.

なお、各特定位置PM,1~PM,4を未だ大まかな位置と見做して前記変換行列ホモグラフィ行列HpM→PMを改めて算出し、改めて算出した変換行列を用いて前記パタン構造画像を改めて変形し、前記第2位置特定部202は、改めて変形したマスクパタン画像CPを用いて各光マスク101の位置を改めて特定することを、所定の収束条件が充足されるまで繰り返しても良い。 Note that the transformation matrix homography matrix H pM →P M is recalculated by regarding each specific position P M,1 to P M,4 as a rough position, and the recalculated transformation matrix is used to transform the pattern. The second position specifying unit 202 repeatedly deforms the structural image and specifies the position of each optical mask 101 anew using the newly deformed mask pattern image CP until a predetermined convergence condition is satisfied. Also good.

前記制御部203は、収束条件が成立した時点での各特定位置PM,1~PM,4を用いて投影映像を制御する。前記映像投影部30は、映像投影制御部20が制御した映像を投影対象物10に投影する。 The control unit 203 controls the projected image using each of the specific positions P M,1 to P M,4 at the time when the convergence condition is satisfied. The image projection section 30 projects the image controlled by the image projection control section 20 onto the projection target 10.

本実施形態によれば、照度センサ102への入射光を遮蔽する光マスク101のマスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査するので、各マスクパタンが一致する走査位置と一致しない走査位置とで照度センサのセンサ出力値を有意に異ならせることができる。したがって、照度センサ102のピクセル座標系における位置を正確に特定できるようになる。 According to this embodiment, since a mask pattern image having the same pattern structure as the mask pattern of the optical mask 101 that blocks the incident light to the illuminance sensor 102 is scanned on the projection target, the scanning where each mask pattern coincides with the mask pattern image is performed. The sensor output value of the illuminance sensor can be made to differ significantly between the scanning positions and the scanning positions that do not match the scanning position. Therefore, the position of the illuminance sensor 102 in the pixel coordinate system can be accurately specified.

また、本実施形態によれば、光マスク101のマスクパタンは、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有するので、各マスクパタンが一致する走査位置と一致しない走査位置とで照度センサのセンサ出力値を特異的に大きく異ならせることができる。したがって、各光マスク101のピクセル座標系における位置を更に正確に特定できるようになる。 Furthermore, according to the present embodiment, the mask pattern of the optical mask 101 has a structure in which the amount of light transmitted increases as the amount of deviation from the projected mask pattern image decreases, and the amount of light transmitted increases as the amount of deviation from the projected mask pattern image decreases. Since the pattern structure has a pattern structure in which the rate of change in amount is larger in a range where the amount of deviation of each pattern is relatively small than in a large range, the illuminance sensor sensor Output values can be made to vary significantly. Therefore, the position of each optical mask 101 in the pixel coordinate system can be specified more accurately.

さらに、本実施形態によれば、第1位置特定部201及び第2位置特定部202を設け、第1位置特定部201は広い範囲内で大まか位置探索を行う一方、第2位置特定部202は第1位置特定部201が特定した大まかな位置近傍のみを対象に精密な位置探索を行うので、各光マスク101のピクセル座標系における位置を短時間で精密に特定できるようになる。 Further, according to the present embodiment, a first position specifying unit 201 and a second position specifying unit 202 are provided, and while the first position specifying unit 201 performs a rough position search within a wide range, the second position specifying unit 202 performs a rough position search within a wide range. Since a precise position search is performed only in the vicinity of the rough position specified by the first position specifying unit 201, the position of each optical mask 101 in the pixel coordinate system can be precisely specified in a short time.

さらに、光マスク101と同一のパタン構造をするマスクパタン映像を投影するだけでは、投影映像と光マスク101との角度の不一致により照度値のピークを精度良く算出することができないところ、本実施形態では歪みを相殺するようにホモグラフィ変換により変形したマスクパタン映像を投影するので、光マスク101の中心座標が真値に合致したことを照度値のピークとして検出できるようになる。 Furthermore, simply by projecting a mask pattern image having the same pattern structure as the light mask 101, the peak of the illuminance value cannot be accurately calculated due to the angle mismatch between the projected image and the light mask 101. Since a mask pattern image transformed by homography transformation is projected so as to cancel the distortion, it becomes possible to detect the coincidence of the center coordinates of the optical mask 101 with the true value as the peak of the illuminance value.

なお、上記の実施形態では、マスクパタン映像をホモグラフィ変換して投影してから投影することで各照度センサ102の位置を推定するものとして説明したが、本発明はこれのみに限定されるものではなく、映像を投影する位置、方向、角度を物理的に制御(移動)することでマスクパタン映像を光マスク101に合わせて変形させたり、投影対象領域R1に収まるように制御したりしても良い。 In the above embodiment, the position of each illuminance sensor 102 is estimated by homographically converting the mask pattern image and projecting it, but the present invention is not limited to this. Instead, by physically controlling (moving) the position, direction, and angle at which the image is projected, the mask pattern image can be deformed to match the optical mask 101, or controlled so that it fits within the projection target area R1. Also good.

また、本実施形態では1つの光マスク101で1つの照度センサ102の受光部を覆うものとして説明したが、本発明はこれのみに限定されるものではなく、複数の照度センサ102を近接配置し、当該複数の照度センサ102の全ての受光部を1つの大型の光マスク101で覆い、光マスク101を透過した光を複数の照度センサ102の受光部によって漏れなく検出する構成としても良い。この場合、センサ読取部103は1つの光マスク101に対応する複数の照度センサ102の照度値を合算することで、あたかも一つの大きな照度センサ102を使用したように扱うことができる。 Furthermore, in this embodiment, one optical mask 101 covers the light receiving part of one illuminance sensor 102, but the present invention is not limited to this, and multiple illuminance sensors 102 may be arranged close together. , all the light receiving parts of the plurality of illuminance sensors 102 may be covered with one large optical mask 101, and the light transmitted through the optical mask 101 may be detected without omission by the light receiving parts of the plurality of illuminance sensors 102. In this case, by summing up the illuminance values of the plurality of illuminance sensors 102 corresponding to one optical mask 101, the sensor reading unit 103 can treat it as if one large illuminance sensor 102 were used.

さらに、上記の実施形態では全ての光マスク101のマスクパタンが同一であり、第1位置特定部201はパタン構造を有しないスポット光を走査する映像を投影し、第2位置特定部201のみがマスクパタンと同一のパタン構造を有する映像を走査するものとして説明した。 Furthermore, in the above embodiment, the mask patterns of all the optical masks 101 are the same, the first position specifying unit 201 projects an image scanning a spot light without a pattern structure, and only the second position specifying unit 201 projects an image scanning a spot light without a pattern structure. The description has been made assuming that an image having the same pattern structure as a mask pattern is scanned.

しかしながら、本発明はこれのみに限定されるものではなく、多数(例えば、8個)の照度センサ102を設けられるのであれば、そのうちの4個にはパタンの位置ずれに鈍感な光マスク101aを適用し、残りの4個にはパタンの位置ずれに敏感な光マスク101bを適用するようにしても良い。 However, the present invention is not limited to this, and if a large number (for example, 8) of illuminance sensors 102 can be provided, four of them are provided with optical masks 101a that are insensitive to pattern displacement. Alternatively, a light mask 101b sensitive to pattern displacement may be applied to the remaining four.

一般的に、マスク領域の割合が非マスク領域の割合よりも高いマスクほどパタンの位置ずれに敏感になるので、光マスク101aではマスク領域の割合を非マスク領域の割合よりも低くし、光マスク101bではマスク領域の割合を非マスク領域の割合よりも高くすることになる。 Generally, the mask area ratio is higher than the non-mask area ratio, and the mask becomes more sensitive to pattern misalignment, so in the optical mask 101a, the mask area ratio is lower than the non-mask area ratio, and the optical mask In 101b, the ratio of masked areas is made higher than the ratio of non-masked areas.

第1位置特定部201は光マスク101aでマスクされた照度センサ102を対象に、光マスク101aと同一のパタン構造を有するマスクパタン映像を走査することで精度よりも速度を優先する大まかな位置特定を行う。第2位置特定部202は、光マスク101aの大まかな位置に基づいて光マスク101bの大まかな位置を推定し、当該光マスク101bでマスクされた照度センサ102を対象に、光マスク101bと同一のパタン構造を有するマスクパタン映像を走査することで精度を優先する精密な位置特定を行う。 The first position specifying unit 201 targets the illuminance sensor 102 masked with the optical mask 101a, and performs rough position identification that prioritizes speed over accuracy by scanning a mask pattern image having the same pattern structure as the optical mask 101a. I do. The second position specifying unit 202 estimates the rough position of the light mask 101b based on the rough position of the light mask 101a, and targets the illuminance sensor 102 masked with the light mask 101b. By scanning a mask pattern image with a pattern structure, precise positioning is performed with priority given to accuracy.

そして、上記の実施形態によれば視聴品質の高い映像投影が可能になるので、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、包括的で持続可能な産業化を推進する」に貢献することが可能となる。 According to the embodiment described above, it is possible to project images with high viewing quality, so Goal 9 of the Sustainable Development Goals (SDGs) led by the United Nations: It will be possible to contribute to "promoting industrialization."

10…投影対象物,20…映像投影制御部,30…映像投影部,101…光マスク,102…照度センサ,103…センサ読取部,201…第1位置特定部,202…第2位置特定部, 203…制御部 10... Projection object, 20... Image projection control section, 30... Image projection section, 101... Optical mask, 102... Illuminance sensor, 103... Sensor reading section, 201... First position specifying section, 202... Second position specifying section , 203...control unit

Claims (17)

投影対象物に投影対象領域との相対位置が既知である複数の照度センサを設け、投影映像のピクセル座標系で特定した各照度センサの位置に基づいて投影映像を制御する投影映像制御装置において、
各照度センサへの入射光を所定のマスクパタンで遮蔽する光マスクと、
前記マスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査した際の各照度センサの出力に基づいて各照度センサのピクセル座標系における位置を特定する手段とを具備したことを特徴とする投影映像制御装置。
In a projection image control device that provides a projection object with a plurality of illuminance sensors whose relative positions with respect to a projection target area are known, and controls a projected image based on the position of each illuminance sensor specified in a pixel coordinate system of the projection image,
a light mask that blocks incident light to each illuminance sensor with a predetermined mask pattern;
and means for specifying the position of each illuminance sensor in a pixel coordinate system based on the output of each illuminance sensor when a mask pattern image having the same pattern structure as the mask pattern is scanned on the projection target object. Characteristic projection image control device.
前記マスクパタンは、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有することを特徴とする請求項1に記載の投影映像制御装置。 The amount of light transmitted through the mask pattern increases as the amount of deviation from the projected mask pattern image decreases, and the ratio of the change in the amount of light transmitted to the change in the relative position of each pattern is determined by the amount of deviation of each pattern. 2. The projection image control device according to claim 1, wherein the projection image control device has a pattern structure in which the area is larger in a relatively small range than in a large area. 前記各照度センサの位置を特定する手段は、
各照度センサのピクセル座標系での大まかな位置を特定する第1位置特定手段と、
投影対象物における各照度センサの相対位置を前記大まかに特定した各照度センサの位置に変換する変換行列を算出する手段と、
前記変換行列で前記マスクパタン画像を変形する手段と、
前記変形したマスクパタン画像を投影対象物上で走査した際の各照度センサの出力変化に基づいて各照度センサの位置を特定する第2位置特定手段とを含むことを特徴とする請求項1または2に記載の投影映像制御装置。
The means for specifying the position of each illuminance sensor includes:
a first position specifying means for specifying the rough position of each illuminance sensor in a pixel coordinate system;
means for calculating a conversion matrix for converting the relative position of each illuminance sensor on the projection object into the roughly specified position of each illuminance sensor;
means for transforming the mask pattern image with the transformation matrix;
2. A second position specifying means for specifying the position of each illuminance sensor based on a change in the output of each illuminance sensor when the deformed mask pattern image is scanned on the projection target object. 2. The projection image control device according to 2.
前記第2位置特定手段が特定した各照度センサの位置を大まかな位置と見做して前記変換行列を改めて算出し、
前記改めて算出した変換行列を用いて前記マスクパタン画像を改めて変形し、
前記第2位置特定手段は、前記改めて変形したマスクパタン画像を投影対象物上で走査した際の各照度センサの出力変化に基づいて各照度センサの位置を改めて特定することを、所定の条件が充足されるまで繰り返し、
前記投影映像を制御する手段は、各照度センサの前記改めて特定した位置に基づいて投影映像を制御することを特徴とする請求項3に記載の投影映像制御装置。
recalculating the transformation matrix by regarding the position of each illuminance sensor identified by the second position specifying means as a rough position;
Transforming the mask pattern image again using the newly calculated transformation matrix,
The second position specifying means specifies the position of each illuminance sensor anew based on the output change of each illuminance sensor when scanning the newly transformed mask pattern image on the projection target, if a predetermined condition is met. Repeat until satisfied,
4. The projected image control device according to claim 3, wherein the means for controlling the projected image controls the projected image based on the newly specified position of each illuminance sensor.
前記第1位置特定手段は、スポット光を投影対象物上で走査する映像を投影した際の各照度センサの出力変化に基づいて各照度センサの大まか位置を特定することを特徴とする請求項3に記載の投影映像制御装置。 3. The first position specifying means specifies the approximate position of each illuminance sensor based on a change in the output of each illuminance sensor when an image in which a spot light is scanned on the projection target object is projected. The projection image control device described in . 前記マスクパタン画像を変形する手段は、照度センサと同数のマスクパタン画像が各照度センサと対応する位置にそれぞれ配置されて当該マスクパタン画像以外の領域が黒色のパタン構造画像を前記変換行列で変形し、
前記第2位置特定手段は、前記変形させたパタン構造画像の各マスクパタン画像の部分を、対応する照度センサの大まかな位置近傍でそれぞれ走査することを特徴とする請求項3に記載の投影映像制御装置。
The means for transforming the mask pattern image is configured to transform a pattern structure image in which the same number of mask pattern images as illuminance sensors are arranged at positions corresponding to each illuminance sensor, and the area other than the mask pattern image is black, using the transformation matrix. death,
4. The projected image according to claim 3, wherein the second position specifying means scans each mask pattern image portion of the transformed pattern structure image in the vicinity of the rough position of the corresponding illuminance sensor. Control device.
前記マスクパタンが、照度センサの受光面に対応するマスク領域内に、相互に分離した複数の非マスク領域を配置したパタン構造を有することを特徴とする請求項1または2に記載の投影映像制御装置。 The projection image control according to claim 1 or 2, wherein the mask pattern has a pattern structure in which a plurality of mutually separated non-mask areas are arranged in a mask area corresponding to a light receiving surface of the illuminance sensor. Device. 前記マスクパタンが、照度センサの受光面に対応するマスク領域内に、複数の非マスク領域を各非マスク領域が相互に連結して一体化することを許容して配置したパタン構造を有することを特徴とする請求項1または2に記載の投影映像制御装置。 The mask pattern has a pattern structure in which a plurality of non-mask regions are arranged in a mask region corresponding to a light-receiving surface of the illuminance sensor, allowing each non-mask region to be interconnected and integrated. The projection image control device according to claim 1 or 2. 前記マスクパタンのパタン構造が、複数のマスク領域及び非マスク領域を千鳥格子状に配置した第1のパタン構造、複数のマスク領域及び非マスク領域を不規則に配置した第2のパタン構造及び大きさの異なる複数の環状のマスク領域及び非マスク領域を同心円状に交互に配置した第3のパタン構造のいずれかであることを特徴とする請求項1または2に記載の投影映像制御装置。 The pattern structure of the mask pattern includes a first pattern structure in which a plurality of mask regions and non-mask regions are arranged in a staggered pattern, a second pattern structure in which a plurality of mask regions and non-mask regions are arranged irregularly, and 3. The projection image control device according to claim 1, wherein the projection image control device has a third pattern structure in which a plurality of annular mask regions and non-mask regions of different sizes are alternately arranged concentrically. 前記第2のパタン構造では、光をマスクする領域内を二次元グリッドに分割した上で各グリッド番号に対応したM系列符号を生成し、各符号に従って非マスク領域が設けられたことを特徴とする請求項9に記載の投影映像制御装置。 The second pattern structure is characterized in that the area for masking light is divided into two-dimensional grids, M-sequence codes corresponding to each grid number are generated, and non-masked areas are provided according to each code. The projection image control device according to claim 9. 前記第2のパタン構造では、前記二次元グリッドの列数または行数の長さのM系列符号を生成して1行目又は1列目に割り当て、2行目又は2列目以降のグリッドには当該符号を所定ビットずつシフトした符号を割り当てることを特徴とする請求項10に記載の投影映像制御装置。 In the second pattern structure, an M-sequence code having the length of the number of columns or rows of the two-dimensional grid is generated and assigned to the first row or column, and is assigned to the second row or grid after the second row. 11. The projection image control apparatus according to claim 10, wherein a code obtained by shifting the code by a predetermined bit is assigned. 投影対象物に投影対象領域との相対位置が既知である複数の照度センサ及び当該照度センサへの入射光を遮蔽する光マスクを設け、コンピュータが、投影映像のピクセル座標系で特定した各照度センサの位置に基づいて投影映像を制御する投影映像制御方法において、
前記光マスクのマスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査した際の各照度センサの出力に基づいて各照度センサのピクセル座標系における位置を特定することを特徴とする投影映像制御方法。
The projection target object is provided with a plurality of illuminance sensors whose relative positions to the projection target area are known and a light mask that blocks incident light to the illuminance sensors, and each illuminance sensor is identified by the computer in the pixel coordinate system of the projected image. In a projected image control method for controlling a projected image based on the position of
The position of each illuminance sensor in the pixel coordinate system is specified based on the output of each illuminance sensor when a mask pattern image having the same pattern structure as the mask pattern of the optical mask is scanned on the projection target. Projection image control method.
前記マスクパタンは、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有することを特徴とする請求項12に記載の投影映像制御方法。 The amount of light transmitted through the mask pattern increases as the amount of deviation from the projected mask pattern image decreases, and the ratio of the change in the amount of light transmitted to the change in the relative position of each pattern is determined by the amount of deviation of each pattern. 13. The projection image control method according to claim 12, wherein the pattern structure is such that the pattern is larger in a relatively small range than in a large range. 前記各照度センサのピクセル座標系における位置を特定する際に、
各照度センサのピクセル座標系での大まかな位置を特定し、
投影対象物における各照度センサの相対位置を前記大まかに特定した各照度センサの位置に変換する変換行列を算出し、
前記変換行列で前記マスクパタン画像を変形し、
前記変形したマスクパタン画像を投影対象物上で走査した際の各照度センサの出力変化に基づいて各照度センサの位置を特定することを特徴とする請求項12または13に記載の投影映像制御方法。
When specifying the position of each illuminance sensor in the pixel coordinate system,
Identify the rough position of each illuminance sensor in the pixel coordinate system,
Calculating a conversion matrix that converts the relative position of each illuminance sensor on the projection target into the roughly specified position of each illuminance sensor,
transforming the mask pattern image with the transformation matrix;
The projection image control method according to claim 12 or 13, characterized in that the position of each illuminance sensor is specified based on a change in the output of each illuminance sensor when the deformed mask pattern image is scanned on the projection target object. .
投影対象物に投影対象領域との相対位置が既知である複数の照度センサ及び当該照度センサへの入射光を遮蔽する光マスクを設け、投影映像のピクセル座標系で特定した各照度センサの位置に基づいて投影映像を制御する投影映像制御プログラムにおいて、
前記光マスクのマスクパタンと同一のパタン構造を有するマスクパタンを有するマスクパタン画像を投影対象物上で走査した際の各照度センサの出力に基づいて各照度センサのピクセル座標系における位置を特定することをコンピュータに実行させることを特徴とする投影映像制御プログラム。
A plurality of illuminance sensors whose relative positions with respect to the projection target area are known and a light mask that blocks incident light to the illuminance sensors are provided on the projection target object, and each illumination sensor is positioned at the position specified by the pixel coordinate system of the projected image. In a projection image control program that controls a projection image based on
The position of each illuminance sensor in the pixel coordinate system is specified based on the output of each illuminance sensor when a mask pattern image having a mask pattern having the same pattern structure as the mask pattern of the optical mask is scanned on the projection target. A projection image control program characterized by causing a computer to perform certain functions.
前記マスクパタンは、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有することを特徴とする請求項15に記載の投影映像制御プログラム。 The amount of light transmitted through the mask pattern increases as the amount of deviation from the projected mask pattern image decreases, and the ratio of the change in the amount of light transmitted to the change in the relative position of each pattern is determined by the amount of deviation of each pattern. 16. The projection image control program according to claim 15, wherein the projection image control program has a pattern structure that is larger in a relatively small range than in a large range. 前記各照度センサのピクセル座標系における位置を特定する際に、
各照度センサのピクセル座標系での大まかな位置を特定し、
投影対象物における各照度センサの相対位置を前記大まかに特定した各照度センサの位置に変換する変換行列を算出し、
前記変換行列で前記マスクパタン画像を変形し、
前記変形したマスクパタン画像を投影対象物上で走査した際の各照度センサの出力変化に基づいて各照度センサの位置を特定することを特徴とする請求項15または16に記載の投影映像制御プログラム。
When specifying the position of each illuminance sensor in the pixel coordinate system,
Identify the rough position of each illuminance sensor in the pixel coordinate system,
Calculating a conversion matrix that converts the relative position of each illuminance sensor on the projection target into the roughly specified position of each illuminance sensor,
transforming the mask pattern image with the transformation matrix;
The projection video control program according to claim 15 or 16, characterized in that the position of each illuminance sensor is specified based on a change in the output of each illuminance sensor when the deformed mask pattern image is scanned on the projection target object. .
JP2022083813A 2022-05-23 2022-05-23 Projection video control apparatus, method, and program Pending JP2023172183A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022083813A JP2023172183A (en) 2022-05-23 2022-05-23 Projection video control apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022083813A JP2023172183A (en) 2022-05-23 2022-05-23 Projection video control apparatus, method, and program

Publications (1)

Publication Number Publication Date
JP2023172183A true JP2023172183A (en) 2023-12-06

Family

ID=89029468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022083813A Pending JP2023172183A (en) 2022-05-23 2022-05-23 Projection video control apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP2023172183A (en)

Similar Documents

Publication Publication Date Title
EP1540948B1 (en) Method and system for determining correspondence between locations on display surface having arbitrary shape and pixels in output image of projector
EP1777487B1 (en) Three-dimensional shape measuring apparatus, program and three-dimensional shape measuring method
CN100442141C (en) Image projection method and device
CN103649674B (en) Measuring equipment and messaging device
US20050200613A1 (en) Coordinate input apparatus, its control method, and program
US20030123707A1 (en) Imaging-based distance measurement and three-dimensional profiling system
US20160267668A1 (en) Measurement apparatus
JP2021501070A (en) Scan system calibration
WO1998005157A3 (en) High accuracy calibration for 3d scanning and measuring systems
JP2007524808A (en) Scanning system with stereoscopic camera set
EP1936477A1 (en) Position information detection device, position information detection method, and position information detection program
JP3975917B2 (en) Position measurement system
KR102133492B1 (en) Robust display system and method using depth camera and flight vehicle
TWI741904B (en) Measuring system and measuring method
US11638073B2 (en) Ranging device and ranging methhod
US6304680B1 (en) High resolution, high accuracy process monitoring system
US6369879B1 (en) Method and apparatus for determining the coordinates of an object
US20230267628A1 (en) Decoding an image for active depth sensing to account for optical distortions
JP2023172183A (en) Projection video control apparatus, method, and program
KR100808536B1 (en) Method for calibration using by pattern image
CN112292577B (en) Three-dimensional measuring device and method
JP2006084286A (en) Three-dimensional measuring method and its measuring device
WO2022050279A1 (en) Three-dimensional measurement device
JP7259660B2 (en) Image registration device, image generation system and image registration program
CN111380668B (en) Precision detection system and precision detection method of depth camera