JP2023172183A - Projection video control apparatus, method, and program - Google Patents
Projection video control apparatus, method, and program Download PDFInfo
- Publication number
- JP2023172183A JP2023172183A JP2022083813A JP2022083813A JP2023172183A JP 2023172183 A JP2023172183 A JP 2023172183A JP 2022083813 A JP2022083813 A JP 2022083813A JP 2022083813 A JP2022083813 A JP 2022083813A JP 2023172183 A JP2023172183 A JP 2023172183A
- Authority
- JP
- Japan
- Prior art keywords
- mask
- illuminance sensor
- projection
- image
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000003287 optical effect Effects 0.000 claims abstract description 86
- 239000011159 matrix material Substances 0.000 claims description 26
- 230000009466 transformation Effects 0.000 claims description 18
- 230000007423 decrease Effects 0.000 claims description 11
- 230000001131 transforming effect Effects 0.000 claims description 6
- 238000005286 illumination Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims 3
- 230000000873 masking effect Effects 0.000 claims 1
- 238000012937 correction Methods 0.000 abstract description 7
- 239000003550 marker Substances 0.000 abstract description 5
- 230000000903 blocking effect Effects 0.000 abstract 1
- 238000012800 visualization Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 13
- 239000013256 coordination polymer Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、プロジェクタから投影対象物の所定の領域に高精度に映像の投影を行う投影映像制御装置、方法及びプログラムに関する。 The present invention relates to a projection image control device, method, and program for projecting an image from a projector onto a predetermined region of a projection target with high precision.
近年、プロジェクタの小型化や高性能化が進み、利用シーンが拡大している。プロジェクタが投影対象物(スクリーン)に正対し、共に固定設置された環境下では投影映像を自動制御する必要性は乏しい。しかしながら、プロジェクタや投影対象物の少なくとも一方が動くような場合、投影領域内の動体の動きに応じて映像を制御したい場合、あるいは投影領域内の所定の領域に精度良く映像を投影したいような場合には投影映像を制御するシステムが必要になる。 In recent years, projectors have become smaller and more sophisticated, and their usage has expanded. In an environment where the projector faces the projection target (screen) and is fixedly installed, there is little need to automatically control the projected image. However, when at least one of the projector or the projection target moves, when you want to control the image according to the movement of a moving object within the projection area, or when you want to accurately project an image onto a predetermined area within the projection area. requires a system to control the projected images.
特許文献1には、プロジェクタの筐体に光の透過穴及び光センサを設置し、スクリーンからの反射光を光センサで検知することでスクリーンに対する光軸の角度を推定し、自動的に台形補正を行う技術が開示されている。
特許文献2には、スクリーンの複数個所に光センサを設置することでスクリーンの前のプレゼンタを自動検知し、プレゼンタの目の近傍への投影光を減少させることによりプレゼンタの目を保護する技術が開示されている。
特許文献3には、3次元センサを用いて三次元空間中でスクリーンに適した平面領域を検出し、投影領域を自動で制御する技術が開示されている。
特許文献4には、スクリーンに複数の光センサを設置し、プロジェクタから位置合わせパタンを光センサに投影することにより投影映像を所定の位置に正確に位置合わせする技術が開示されている。
特許文献5には、スクリーンに複数の反射材を設置し、反射光をカメラで撮像することでスクリーンの動きを検知し、投影映像を追従させる技術が開示されている。 Patent Document 5 discloses a technique in which a plurality of reflective materials are installed on a screen, and the movement of the screen is detected by capturing an image of the reflected light with a camera, thereby causing a projected image to follow.
特許文献6には、動体に複数の不可視光マーカを設置し、不可視光マーカをセンサで検出することで動体の位置を検知し、投影映像を追従させる技術が開示されている。 Patent Document 6 discloses a technique for installing a plurality of invisible light markers on a moving object, detecting the invisible light markers with a sensor to detect the position of the moving object, and causing a projected image to follow.
特許文献7には、投影映像の表示輝度などを自動調整するために設置される光センサの位置を精度良く検知し、光センサに評価用の映像を高精度に入光させる技術が開示されている。 Patent Document 7 discloses a technology that accurately detects the position of an optical sensor installed to automatically adjust the display brightness of a projected image, and allows an evaluation image to enter the optical sensor with high precision. There is.
上記のいずれの従来技術においても、プロジェクタから投影対象物の所定の領域(投影対象領域)へ高精度に映像の投影を行うことが困難であった。 In any of the above-mentioned conventional techniques, it is difficult to project an image from a projector onto a predetermined region (projection target region) of a projection target object with high precision.
例えば、特許文献1~3が開示する投影映像制御システムは、共に投影映像を自動制御(台形補正、特定領域の減光、平面領域への投影制御)できるものの、投影対象領域への高精度な映像投影の用途に応用することが可能な技術では無かった。
For example, the projection image control systems disclosed in
特許文献4~7が開示する投影映像制御システムは、共に投影対象領域や評価用の光センサへの高精度な映像投影を目的とするものであるが、投影制御の精度が十分ではなかった。
The projection image control systems disclosed in
例えば、特許文献4では光センサを用いてスクリーン上の投影対象領域の位置合わせを行うため、位置合わせの精度は光センサの開口部のサイズに依存する。この方式では位置合わせ用の光パタンの検知が可能な範囲内で開口部をできるだけ小さくすることで位置合わせの精度が高まる。しかしながら、開口部を小さくするほど透過光量が少なくなり、光パタンの検知が難しくなるため、開口部の縮小には限界があり(特許文献4では開口部サイズとして5mm角が想定されている)、位置合わせの精度を十分に高くできなかった。
For example, in
特許文献5,6が開示する投影映像制御技術も同様であり、これらはスクリーンに反射材や不可視光マーカを設置し、反射光をカメラなどのセンサで捉えることで投影対象領域の位置合わせを行う。しかしながら、位置合わせの精度は反射材や不可視光マーカのサイズに依存し、小さくするほど反射材や不可視光マーカ自体の検知が難しくなることから、位置合わせの精度を十分に高くできなかった。 The same applies to the projection image control technologies disclosed in Patent Documents 5 and 6, in which reflective materials or invisible light markers are installed on the screen, and the reflected light is captured by a sensor such as a camera to align the projection target area. . However, the accuracy of alignment depends on the size of the reflective material and the invisible light marker, and the smaller the size, the more difficult it becomes to detect the reflective material or the invisible light marker itself, so the accuracy of alignment cannot be made sufficiently high.
特許文献7が開示する投影映像制御技術も同様であり、光センサの位置検出精度は光センサの開口部のサイズに依存するため、位置合わせの精度を十分に高くできなかった。 The same applies to the projection image control technology disclosed in Patent Document 7, and since the position detection accuracy of the optical sensor depends on the size of the aperture of the optical sensor, the accuracy of alignment cannot be made sufficiently high.
本発明の目的は、上記の技術課題を解決し、不可視光マーカや光センサの開口部のサイズに依存せずに精度の高い位置合わせを可能にする投影映像制御装置、方法及びプログラムを提供することにある。 An object of the present invention is to provide a projection image control device, method, and program that solve the above technical problems and enable highly accurate positioning without depending on the size of the invisible light marker or the aperture of the optical sensor. There is a particular thing.
上記の目的を達成するために、本発明は、投影対象物に投影対象領域との相対位置が既知である複数の照度センサを設け、投影映像のピクセル座標系で特定した各照度センサの位置に基づいて投影映像を制御する投影映像制御装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention provides a projection target with a plurality of illuminance sensors whose relative positions with respect to the projection target area are known, and the position of each illuminance sensor specified in the pixel coordinate system of the projected image. A projection image control device that controls a projection image based on the following features is characterized in that it has the following configuration.
(1) 各照度センサへの入射光を所定のマスクパタンで遮蔽する光マスクと、前記マスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査した際の各照度センサの出力に基づいて各照度センサのピクセル座標系における位置を特定する手段とを具備した。 (1) An optical mask that blocks the incident light to each illuminance sensor with a predetermined mask pattern, and the output of each illuminance sensor when a mask pattern image having the same pattern structure as the mask pattern is scanned on the projection target. and means for specifying the position of each illuminance sensor in the pixel coordinate system based on.
(2) 前記マスクパタンは、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有するようにした。 (2) The amount of light transmitted through the mask pattern increases as the amount of deviation from the projected mask pattern image decreases, and the rate of change in the amount of light transmitted relative to the change in the relative position of each pattern is The pattern structure is such that the amount of deviation is larger in a relatively small range than in a large range.
(3) 前記各照度センサの位置を特定する手段は、各照度センサのピクセル座標系での大まかな位置を特定する第1位置特定手段と、投影対象物における各照度センサの相対位置を前記大まかに特定した各照度センサの位置に変換する変換行列を算出する手段と、前記変換行列で前記マスクパタン画像を変形する手段と、前記変形したマスクパタン画像を投影対象物上で走査した際の各照度センサの出力変化に基づいて各照度センサの位置を特定する第2位置特定手段とを含むようにした。 (3) The means for specifying the position of each illuminance sensor includes a first position specifying means for specifying the rough position of each illuminance sensor in the pixel coordinate system, and a first position specifying means for determining the rough position of each illuminance sensor in the projection target object. means for calculating a transformation matrix for converting to the position of each illuminance sensor specified in the above; means for transforming the mask pattern image using the transformation matrix; and second position specifying means for specifying the position of each illuminance sensor based on a change in the output of the illuminance sensor.
なお、本発明はこのような特徴的な構成を備える投影映像制御装置として実現できるのみならず、かかる特徴的な構成を手順とする投影映像制御方法として実現し、更にはかかる手順をコンピュータに実行させる投影映像制御プログラムとしても実現することができる。 Note that the present invention can be realized not only as a projection image control device having such a characteristic configuration, but also as a projection image control method using such a characteristic configuration as a procedure, and furthermore, can be realized as a projection image control method having such a characteristic configuration as a procedure, and furthermore, can be realized as a projection image control method having such a characteristic configuration as a procedure. It can also be realized as a projection image control program.
本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.
(1) 照度センサへの入射光を遮蔽する光マスクのマスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査するので、不可視光マーカや光センサの開口部のサイズに依存せずに、各マスクパタンが一致する走査位置と一致しない走査位置とで照度センサのセンサ出力値を有意に異ならせることができる。したがって、照度センサのピクセル座標系における位置を正確に特定できるようになる。 (1) Since the mask pattern image having the same pattern structure as the mask pattern of the optical mask that blocks the incident light to the illuminance sensor is scanned on the projection target, it depends on the size of the invisible light marker and the aperture of the optical sensor. The sensor output value of the illuminance sensor can be made to differ significantly between the scan position where each mask pattern matches and the scan position where the mask patterns do not match. Therefore, the position of the illuminance sensor in the pixel coordinate system can be accurately specified.
(2) 光マスクのマスクパタンは、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有するので、各マスクパタンが一致する走査位置と一致しない走査位置とで照度センサのセンサ出力値を特異的に大きく異ならせることができる。したがって、照度センサのピクセル座標系における位置を更に正確に特定できるようになる。 (2) The amount of light transmitted from the mask pattern of the optical mask increases as the amount of deviation from the projected mask pattern image decreases, and the rate of change in the amount of light transmitted relative to the change in the relative position of each pattern is Since each pattern has a pattern structure in which the amount of deviation is larger in a relatively small range than in a large range, the sensor output value of the illuminance sensor is specifically increased between the scanning position where each mask pattern matches and the scanning position where it does not match. can be made different. Therefore, the position of the illuminance sensor in the pixel coordinate system can be specified more accurately.
(3) 第1位置特定手段及び第2位置特定手段を設け、第1位置特定手段は広い範囲内で大まか位置探索を行う一方、第2位置特定手段は第1位置特定手段が特定した大まかな位置近傍のみを対象に精密な位置探索を行うので、各照度センサの位置を短時間で精密に特定できるようになる。
しかも、本実施形態では第2位置特定手段が、歪みを相殺するようにホモグラフィ変換により変形したマスクパタン映像を投影するので、光マスクの中心座標が真値に合致したことを照度値のピークとして検出できるようになる。
(3) A first position specifying means and a second position specifying means are provided, and the first position specifying means performs a general position search within a wide range, while the second position specifying means performs a general position search specified by the first position specifying means. Since a precise position search is performed only in the vicinity of the position, the position of each illuminance sensor can be precisely specified in a short time.
Moreover, in this embodiment, the second position specifying means projects a mask pattern image transformed by homography transformation so as to cancel out the distortion, so that the peak of the illuminance value indicates that the center coordinates of the optical mask match the true value. can be detected as .
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係る投影映像制御装置の主要部の構成を示した機能ブロック図であり、投影対象物10、映像投影制御部20及び映像投影部30を主要な構成とする。
Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of the main parts of a projection image control device according to an embodiment of the present invention, and the main components include a
投影対象物10は、照射光の照度を検知する複数の照度センサ102、各照度センサ102の受光部へ入射する照射光の一部を遮蔽する光マスク101及び各照度センサ102が出力するセンサ信号を読み取って照度値に変換するセンサ読取部103を具備する。各照度センサ102は投影映像を可視化する映像スクリーン等と一体又は別体に構成される。
The
映像投影制御部20は、第1位置特定部201、第2位置特定部202及び制御部203を具備し、センサ読取部103が出力する照度値に基づいて、投影映像を制御するピクセル座標系における各照度センサ102の位置を段階的に特定し、各照度センサ102の位置に基づいて、映像投影部30が投影対象物10に投影する映像に台形補正等の幾何変換や特定領域の減光補正等の各種制御を行う。
The image
このような映像投影制御部20は、CPU、ROM、RAM、バス、インタフェース等を備えた汎用のコンピュータやサーバに、以下に詳述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部をハードウェア化またはソフトウェア化した専用機や単能機としても構成できる。
Such an image
映像投影部30は、補正後の映像データを映像スクリーンに投影して可視化する。映像投影部30としては、DLP(Digital Light Processing)、液晶、レーザー等の任意の汎用プロジェクタ装置を用いることができる。
The
図2は、投影対象物10において視聴用の映像が照射される投影対象領域R1と複数の照度センサ102との相対的な位置関係を示した図である。なお、本実施形態では光マスク101が照度センサ102の受光部に設けられ、映像投影部30から見た各光マスク101の位置が対応する各照度センサ102の位置となるので、便宜上、各光マスク101の位置を各照度センサ102の位置と見做して説明する場合もある。
FIG. 2 is a diagram showing the relative positional relationship between the projection target region R1 on the
本実施形態では4つの照度センサ102及びその光マスク101が、映像スクリーン上の物理的な投影可能領域内であって投影対象領域R1の外側の間隙領域内に、当該投影対象領域R1との相対関係が既知の位置に固定されている。
In this embodiment, four
各照度センサ102は光マスク101を透過した光を検知し、その強度に応じた電流値等のセンサ信号をセンサ読取部103へ出力する。各照度センサ102は一般にフォトダイオードやフォトトランジスタと呼ばれる、光をセンサ信号に変換して出力する任意のデバイスや、光の強度に応じて電気抵抗が低下するフォトレジスタ等のデバイスを用いて実装することが可能である。
Each
本実施形態では、光マスク101の位置にそのマスクパタンと同一のパタン構造を有するマスクパタン映像Lが投影されたとき、各パタンの位置ずれが少ないほど光の透過量が特異的に多くなるように各マスクパタンのパタン構造が設計されている。
In this embodiment, when a mask pattern image L having the same pattern structure as that of the mask pattern is projected onto the position of the
図3は、本実施形態における光マスク101のマスクパタンの例を示した図であり、黒色部分は光を透過しないマスク領域を表し、白色部分は光を透過する非マスク領域を表している。各照度センサ102の受光面に対応する各光マスク101の領域には複数のマスク領域及び複数の非マスク領域が所定のパタン構造で配置されている。
FIG. 3 is a diagram showing an example of a mask pattern of the
本実施形態では、光マスク101のマスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査した際の各照度センサ102の出力に基づいて各照度センサ102のピクセル座標系における位置を正確に特定するために、光マスク101のマスクパタンは、光の透過量がマスクパタン画像との位置ずれに対して敏感なパタン構造を有している。
In this embodiment, the position of each
更に具体的に言えば、光マスク101のマスクパタンは、後に図4を参照して詳述するように、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有している。
More specifically, as will be described later in detail with reference to FIG. 4, the mask pattern of the
同図(a)では、複数の矩形のマスク領域及び非マスク領域が千鳥格子状に配置されている。換言すれば、照度センサ102の受光面に対応するマスク領域に複数の非マスク領域が不連続に配置されている。
In FIG. 4A, a plurality of rectangular mask areas and non-mask areas are arranged in a houndstooth pattern. In other words, a plurality of non-masked regions are arranged discontinuously in the masked region corresponding to the light-receiving surface of the
同図(b)では、複数の矩形のマスク領域及び非マスク領域が不規則に配置されている。換言すれば、照度センサ102の受光面に対応するマスク領域に、複数の非マスク領域が相互に連結して一体化し、結果的に複数の複雑な非マスク領域を構成することを許容して配置されている。
In FIG. 4B, a plurality of rectangular mask areas and non-mask areas are irregularly arranged. In other words, the mask area corresponding to the light receiving surface of the
同図(c)では、大きさの異なる複数の環状のマスク領域及び非マスク領域が同心円状に交互に配置されている。なお、各非マスク領域の形状は矩形や環状に限定されるものではなく、任意の形状とすることができる。 In FIG. 4(c), a plurality of annular mask regions and non-mask regions of different sizes are alternately arranged concentrically. Note that the shape of each non-masked region is not limited to a rectangle or an annular shape, but can be any shape.
図4(a)-(c)は各光マスク101のマスクパタンに対するマスクパタン画像のずれ量と光の透過量との関係を計算して三次元グラフ化した図であり、同図(d)には特許文献4が採用する従来の光マスク、すなわち1つの非マスク領域が1つのマスク領域で囲まれる単純なパタン構造における関係を比較のために示している。
FIGS. 4(a) to 4(c) are diagrams in which the relationship between the amount of deviation of the mask pattern image and the amount of light transmitted for each mask pattern of each
本実施形態のように、マスクパタンが複雑で、位置ずれに敏感なパタン構造を有する光マスク101を用いると、同図(d)のようにマスクパタンが単純で、位置ずれに鈍感なパタン構造を有する光マスクを用いた場合と較べて、マスクパタンとマスクパタン映像とのずれが少ない範囲で光の透過量が特異的に高くなって先鋭化し、精度の高い位置検出が可能になることが判る。環境光や計測ノイズ、投影映像と光マスクの角度の不一致等の影響を無視すれば、理想的には同様の形状の二次元グラフとして照度値がセンシングされることが期待される。
If an
なお、同図(a)に示すような規則的なマスクパタンでは複数の極大値が発生し、環境光や計測ノイズの影響でピーク位置を誤検出することが起こり得る。これに対して、同図(b)に示すように複数のマスク領域及び非マスク領域を不規則に配置すれば、誤った位置でパタン画像を投影した際の照度値を低減させることができるので、高精度かつ頑健な位置検出が可能になる。 Note that with a regular mask pattern as shown in FIG. 2(a), a plurality of local maximum values occur, and the peak position may be erroneously detected due to the influence of environmental light and measurement noise. On the other hand, if multiple masked areas and non-masked areas are arranged irregularly as shown in Figure (b), it is possible to reduce the illuminance value when the pattern image is projected at the wrong position. , enables highly accurate and robust position detection.
このような不規則なマスクパタンは、照度センサ102の受光部に対応する領域を二次元グリッドに分割した上で、グリッド番号に対応したM系列符号などの疑似乱数を生成し、符号が1のグリッドを非マスク領域とするなどで生成できる。
Such an irregular mask pattern is created by dividing the area corresponding to the light receiving part of the
ここで、例えば二次元グリッドの列数の長さのM系列符号を生成して1行目に割り当て、2行目以降のグリッドには当該符号を数ビットずつシフトした符号を割り当てても良い。このとき、行と列とは逆でも良い。これにより行(列)方向のみならず列(行)方向にもM系列符号の性質を持たせることが可能になる。 Here, for example, an M-sequence code having the length of the number of columns of a two-dimensional grid may be generated and assigned to the first row, and codes obtained by shifting the code by several bits may be assigned to the second and subsequent grids. At this time, the rows and columns may be reversed. This makes it possible to provide M-sequence code properties not only in the row (column) direction but also in the column (row) direction.
一般にM系列符号の自己相関は、ずれ量が0の時にピークの値になり、それ以外は低い値になるため、一般的な疑似乱数を用いた場合と比較して、誤った位置で映像を投影した際の照度値を低減し、より高精度かつ頑健な位置検出が可能になる。 In general, the autocorrelation of M-sequence codes reaches a peak value when the amount of deviation is 0, and is low at other times. By reducing the illuminance value when projected, more accurate and robust position detection becomes possible.
また、同図(c)に示すように同心円状のマスク構造を採用すると、同図(b)の不規則パタンの場合と同様に位置ズレ時の照度値の低減が可能になることに加えて、投影映像と光マスク101との角度の不一致による照度値への影響が少なくなるため、投影映像と光マスク101との角度の不一致に頑健な位置検出が可能になる。
In addition, if a concentric mask structure is adopted as shown in (c) of the same figure, it is possible to reduce the illuminance value when the position is misaligned, as in the case of the irregular pattern shown in (b) of the same figure. Since the illuminance value is less affected by the angle mismatch between the projected image and the
なお、光マスク101において非マスク領域を配置する範囲の大きさは照度センサ102の受光部のサイズと同程度(例えば5mm角)、あるいはそれよりも小さいサイズとすることが望ましい。そうすることで、光マスク101を透過した光を照度センサ102で漏れなく検出できるので、光マスクを最も多くの光が透過した際に照度値のピークを検出することが可能になる。
Note that the size of the area in which the non-masked area is arranged in the
センサ読取部103は、各照度センサ102が出力するセンサ信号を読み取って照度値に変換し、映像投影制御部20へ出力する。図5はセンサ読取部103の機能ブロック図であり、ここでは照度センサ102がフォトダイオードである場合を例にして説明する。
The
センサ読取部103は、各照度センサ102が出力する時刻tにおける電流値等のアナログのセンサ信号をデジタル信号に変換し、対応する照度値への変換やエラー補正などを行った上で、各照度センサ102の照度値L1,t,L2,t…LK,tとして映像投影制御部20へ逐次出力する。
The
映像投影制御部20は、前記第1位置特定部201、第2位置特定部202及び制御部203を主要な構成とし、センサ読取部103から取得した時刻tにおける各照度センサ102の照度値L1,t ,L2,t…LK,tに基づいて各光マスク101の位置を段階的に特定し、当該位置で各照度センサ102の位置を代表する。更に、特定した各照度センサ102の位置に基づいて投影対象領域R1を特定し、後段の映像投影部30が投影する映像及び投影対象領域R1を制御する。
The image
図6に示すように、投影対象物10の投影対象領域R1を矩形領域として、その外周近傍にK個(K≧3:本実施形態では4個)の照度センサ102を配置し、その光マスク101を投影対象領域R1と同一平面上に固定配置する場合、各光マスク101の中心座標PM,1,PM,2,PM,3,PM,4及び投影対象領域R1を定義する四隅の座標PT,1,PT,2,PT,3,PT,4は、映像投影部30が投影する映像のピクセル座標系(u,v)で定義できる。
As shown in FIG. 6, the projection target area R1 of the
そして、各光マスク101の中心座標PM,1~PM,4を投影対象領域R1の四隅の各座標PT,1~PT,4に座標変換するホモグラフィ行列HMTを用いることで、各光マスク101の中心座標から投影対象領域R1を特定することが可能になる。なお、光マスク101と投影対象領域R1とは既知の位置関係にあることから、ホモグラフィ行列HMTは予め算出したものを使用することが可能である。つまり、各光マスク101の中心座標PM,1,PM,2,PM,3,PM,4を特定すれば投影対象領域R1を特定できる。
Then, by using a homography matrix H MT that coordinates transforms the center coordinates P M,1 to P M,4 of each
そこで、本実施形態では各光マスク101の位置で各照度センサ102の位置を代表するものとし、各光マスク101のピクセル座標系における位置を特定し、当該各光マスク101の位置に基づいて投影対象領域R1のピクセル座標系における位置を特定する。
Therefore, in this embodiment, the position of each
次いで、図7のフローチャートを参照して映像投影制御部20の動作を詳細に説明する。ステップS1では、第1位置特定部201が図8に一例を示すように、黒(最低輝度)を背景として投影映像のピクセル座標系における特定の座標(um,vm)を中心とする所定の半径の円領域のみが白(最大輝度)となるスポット光を投影対象物10において走査する映像を投影する。そして、各照度センサ102の照度値L1,t~L4,tがそれぞれ最大値となったスポット光の各走査位置の座標を、それぞれ各光マスク101のピクセル座標系における大まかな位置P'
M,1~P'
M,4として特定する。
Next, the operation of the video
あるいは、より短時間での実行が見込める方法として、円領域ではなく所定の線幅を持った白の直線をu方向及びv方向にそれぞれ走査する方法を採用しても良い。その他にも、被映像投影領域をグリッド分割して各グリッドにIDを割り当て、IDに応じた特定のパタンで白黒の映像投影を切り替えることで各光マスク位置を特定するといった方法や、一般に距離計測等で用いられる位相シフト法と呼ばれる手法を用いて複数の位相をシフトさせた正弦波パタンを投影し、照度値から正弦波の位相をサブピクセル精度で推定する方法を採用しても良い。 Alternatively, as a method that can be expected to be executed in a shorter time, a method may be adopted in which a white straight line with a predetermined line width is scanned in the u direction and the v direction, instead of a circular area. Other methods include dividing the image projection area into grids, assigning an ID to each grid, and identifying the position of each light mask by switching between black and white image projection in a specific pattern according to the ID, and distance measurement in general. It is also possible to adopt a method of projecting a plurality of phase-shifted sine wave patterns using a technique called a phase shift method, which is used in E.g., and estimating the phase of the sine wave with sub-pixel accuracy from the illuminance value.
前記第1特定部201による光マスク101の位置特定処理は、単独でも一定の精度で照度センサの位置を特定できる。しかしながら、いずれの手法においても投影映像をマスク中心の真値から僅かにシフトさせた際の照度値の変化は同様に僅かであり、計測ノイズに頑健かつ精度よく光マスクの位置を特定することは困難である。そこで、本実施形態では各光マスク101の大まかな位置P'に基づいて、第2位置特定部202が更に精密な位置特定を行う。
The position specifying process of the
第2位置特定部202は、図9に一例を示すように、投影対象物10において各照度センサ102の受光部に設けた光マスク101に対応する位置に各光マスク101と同じパタン構造のマスクパタン画像CPを配置し、残りの全領域を黒としたパタン構造画像を保持する。本実施形態では光マスク101として3×3の千鳥格子パタンを想定するので、各マスクパタン画像CPも3×3の千鳥格子パタンとなっている。ピクセル座標系における各マスクパタン画像CP1~CP4の相対位置は投影対象物10における各光マスク101の相対位置と等しい。
As an example is shown in FIG. 9, the second
図10は、各マスクパタン画像CP1~CP4の位置で代表した投影対象物10における各光マスク101の位置を、ピクセル座標系で特定した各大まかな位置P'に座標変換するホモグラフィ行列を算出する方法を示した図である。
FIG. 10 calculates a homography matrix that coordinates transforms the position of each
ステップS2では、図10に示すように、パタン構造画像中の各マスクパタン画像CPの中心座標pM,1,pM,2,pM,3,pM,4と前記第1位置特定部201が特定した各光マスク101の大まかな位置P'
M,1,P'
M,2,P'
M,3,P'
M,4との点対応に基づいて、各マスクパタン画像CPの中心座標pM,1~pM,4を、対応する各光マスク101の大まかな位置P'
M,1~P'
M,4にそれぞれ座標変換するホモグラフィ行列HpM→PMを算出する。
In step S2, as shown in FIG. 10, the center coordinates p M,1 , p M,2 , p M,3 , p M,4 of each mask pattern image CP in the pattern structure image and the The center of each mask pattern image CP is determined based on the point correspondence with the rough positions P'M ,1 , P'M ,2 , P'M ,3 , P'M ,4 of each
ステップS3では、制御部203が前記パタン構造画像に前記変換行列HpM→PMを適用してホモグラフィ変換(平面射影変換)した変換後パタン構造画像を生成する。変換後パタン構造画像では、各マスクパタン画像CPのパタン構造も前記ホモグラフィ変換HpM→PMによりその位置に応じた形状に変形されている。
In step S3, the
ステップS4では、第2位置特定部202が前記変換後パタン構造画像中の各マスクパタン画像CPの領域を、対応する前記大まかな各位置P'
M,1~P'
M,4を中心にした所定の範囲の矩形領域あるいは円領域内でシフト(走査)させながら各照度センサ102の照度値を取得する。そして、各照度センサの照度値L1,t~L4,tがそれぞれ最大値となった座標を各光マスク101のピクセル座標系における精密な位置PM,1~PM,4として特定する。
In step S4, the second
前記第2位置特定部202は、マスクパタン画像CPをサブピクセル精度でシフトすることで各光マスク101の位置PM,1~PM,2をサブピクセル精度で求めることができる。あるいは照度値の最大値周辺の照度値を用いたパラボラフィッティングやバイキュービック法等を適用することで照度値をアップサンプルし、各光マスク101の位置PM,1~PM,2をサブピクセル精度で求めても良い。
The second
なお、点対応からホモグラフィ行列を算出する方法として、少なくとも4組の点対応を用いてDLT(Direct Linear Transform)法により初期値を推定し、ガウスニュートン法やレーベンバーグ・マーカート法等によって最適化を行う手法が一般に知られている。この手法を用いる場合、光マスク101を少なくとも4個使用し、その中心座標を検出する必要がある。
In addition, as a method for calculating the homography matrix from point correspondences, the initial values are estimated using the DLT (Direct Linear Transform) method using at least four sets of point correspondences, and then optimized using the Gauss-Newton method, Levenberg-Marquardt method, etc. There are generally known methods for doing this. When using this method, it is necessary to use at least four
また、点対応からホモグラフィ行列を算出する別の方法として、3組あるいは4組の点対応を用いたPnP(Perspective-n-Point)法によりプロジェクタの外部パラメータを推定し、事前にキャリブレーションで取得したプロジェクタの内部パラメータと掛け合わせることでホモグラフィ行列を算出する手法も知られている。この手法を用いる場合、光マスクを少なくとも3個使用し、その中心座標を検出する必要がある。本発明ではホモグラフィ行列を計算する手段を特に限定せず、任意の方式を用いることが可能である。 Another method for calculating the homography matrix from point correspondences is to estimate the external parameters of the projector using the PnP (Perspective-n-Point) method using three or four sets of point correspondences, and perform calibration in advance. There is also a known method of calculating a homography matrix by multiplying it by the acquired internal parameters of the projector. When using this method, it is necessary to use at least three optical masks and detect their central coordinates. In the present invention, the means for calculating the homography matrix is not particularly limited, and any method can be used.
ステップS5では、制御部203が前記ホモグラフィ行列HMTを用いて、ピクセル座標系における各光マスク101の特定位置PM,1~PM,4を投影対象領域R1の四隅の座標PT,1~PT,4に座標変換することで投影対象物10の投影対象領域R1を特定する。投影対象領域R1を特定できれば、例えば投影対象物10の任意の四隅の頂点座標PC,1~PC,4をPT,1~PT,4に座標変換するホモグラフィ行列HPC→PMを算出して適用することで、投影領域全体に投影する映像を投影対象領域R1に収まるように制御して投影すること等が可能になる。
In step S5, the
なお、各特定位置PM,1~PM,4を未だ大まかな位置と見做して前記変換行列ホモグラフィ行列HpM→PMを改めて算出し、改めて算出した変換行列を用いて前記パタン構造画像を改めて変形し、前記第2位置特定部202は、改めて変形したマスクパタン画像CPを用いて各光マスク101の位置を改めて特定することを、所定の収束条件が充足されるまで繰り返しても良い。
Note that the transformation matrix homography matrix H pM →P M is recalculated by regarding each specific position P M,1 to P M,4 as a rough position, and the recalculated transformation matrix is used to transform the pattern. The second
前記制御部203は、収束条件が成立した時点での各特定位置PM,1~PM,4を用いて投影映像を制御する。前記映像投影部30は、映像投影制御部20が制御した映像を投影対象物10に投影する。
The
本実施形態によれば、照度センサ102への入射光を遮蔽する光マスク101のマスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査するので、各マスクパタンが一致する走査位置と一致しない走査位置とで照度センサのセンサ出力値を有意に異ならせることができる。したがって、照度センサ102のピクセル座標系における位置を正確に特定できるようになる。
According to this embodiment, since a mask pattern image having the same pattern structure as the mask pattern of the
また、本実施形態によれば、光マスク101のマスクパタンは、投影されたマスクパタン画像とのずれ量が小さくなるほど光の透過量が増加し、かつ各パタンの相対位置の変化に対する光の透過量の変化の割合が、各パタンのずれ量が相対的に小さい範囲では大きい範囲よりも大きくなるパタン構造を有するので、各マスクパタンが一致する走査位置と一致しない走査位置とで照度センサのセンサ出力値を特異的に大きく異ならせることができる。したがって、各光マスク101のピクセル座標系における位置を更に正確に特定できるようになる。
Furthermore, according to the present embodiment, the mask pattern of the
さらに、本実施形態によれば、第1位置特定部201及び第2位置特定部202を設け、第1位置特定部201は広い範囲内で大まか位置探索を行う一方、第2位置特定部202は第1位置特定部201が特定した大まかな位置近傍のみを対象に精密な位置探索を行うので、各光マスク101のピクセル座標系における位置を短時間で精密に特定できるようになる。
Further, according to the present embodiment, a first
さらに、光マスク101と同一のパタン構造をするマスクパタン映像を投影するだけでは、投影映像と光マスク101との角度の不一致により照度値のピークを精度良く算出することができないところ、本実施形態では歪みを相殺するようにホモグラフィ変換により変形したマスクパタン映像を投影するので、光マスク101の中心座標が真値に合致したことを照度値のピークとして検出できるようになる。
Furthermore, simply by projecting a mask pattern image having the same pattern structure as the
なお、上記の実施形態では、マスクパタン映像をホモグラフィ変換して投影してから投影することで各照度センサ102の位置を推定するものとして説明したが、本発明はこれのみに限定されるものではなく、映像を投影する位置、方向、角度を物理的に制御(移動)することでマスクパタン映像を光マスク101に合わせて変形させたり、投影対象領域R1に収まるように制御したりしても良い。
In the above embodiment, the position of each
また、本実施形態では1つの光マスク101で1つの照度センサ102の受光部を覆うものとして説明したが、本発明はこれのみに限定されるものではなく、複数の照度センサ102を近接配置し、当該複数の照度センサ102の全ての受光部を1つの大型の光マスク101で覆い、光マスク101を透過した光を複数の照度センサ102の受光部によって漏れなく検出する構成としても良い。この場合、センサ読取部103は1つの光マスク101に対応する複数の照度センサ102の照度値を合算することで、あたかも一つの大きな照度センサ102を使用したように扱うことができる。
Furthermore, in this embodiment, one
さらに、上記の実施形態では全ての光マスク101のマスクパタンが同一であり、第1位置特定部201はパタン構造を有しないスポット光を走査する映像を投影し、第2位置特定部201のみがマスクパタンと同一のパタン構造を有する映像を走査するものとして説明した。
Furthermore, in the above embodiment, the mask patterns of all the
しかしながら、本発明はこれのみに限定されるものではなく、多数(例えば、8個)の照度センサ102を設けられるのであれば、そのうちの4個にはパタンの位置ずれに鈍感な光マスク101aを適用し、残りの4個にはパタンの位置ずれに敏感な光マスク101bを適用するようにしても良い。
However, the present invention is not limited to this, and if a large number (for example, 8) of
一般的に、マスク領域の割合が非マスク領域の割合よりも高いマスクほどパタンの位置ずれに敏感になるので、光マスク101aではマスク領域の割合を非マスク領域の割合よりも低くし、光マスク101bではマスク領域の割合を非マスク領域の割合よりも高くすることになる。 Generally, the mask area ratio is higher than the non-mask area ratio, and the mask becomes more sensitive to pattern misalignment, so in the optical mask 101a, the mask area ratio is lower than the non-mask area ratio, and the optical mask In 101b, the ratio of masked areas is made higher than the ratio of non-masked areas.
第1位置特定部201は光マスク101aでマスクされた照度センサ102を対象に、光マスク101aと同一のパタン構造を有するマスクパタン映像を走査することで精度よりも速度を優先する大まかな位置特定を行う。第2位置特定部202は、光マスク101aの大まかな位置に基づいて光マスク101bの大まかな位置を推定し、当該光マスク101bでマスクされた照度センサ102を対象に、光マスク101bと同一のパタン構造を有するマスクパタン映像を走査することで精度を優先する精密な位置特定を行う。
The first
そして、上記の実施形態によれば視聴品質の高い映像投影が可能になるので、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、包括的で持続可能な産業化を推進する」に貢献することが可能となる。 According to the embodiment described above, it is possible to project images with high viewing quality, so Goal 9 of the Sustainable Development Goals (SDGs) led by the United Nations: It will be possible to contribute to "promoting industrialization."
10…投影対象物,20…映像投影制御部,30…映像投影部,101…光マスク,102…照度センサ,103…センサ読取部,201…第1位置特定部,202…第2位置特定部, 203…制御部 10... Projection object, 20... Image projection control section, 30... Image projection section, 101... Optical mask, 102... Illuminance sensor, 103... Sensor reading section, 201... First position specifying section, 202... Second position specifying section , 203...control unit
Claims (17)
各照度センサへの入射光を所定のマスクパタンで遮蔽する光マスクと、
前記マスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査した際の各照度センサの出力に基づいて各照度センサのピクセル座標系における位置を特定する手段とを具備したことを特徴とする投影映像制御装置。 In a projection image control device that provides a projection object with a plurality of illuminance sensors whose relative positions with respect to a projection target area are known, and controls a projected image based on the position of each illuminance sensor specified in a pixel coordinate system of the projection image,
a light mask that blocks incident light to each illuminance sensor with a predetermined mask pattern;
and means for specifying the position of each illuminance sensor in a pixel coordinate system based on the output of each illuminance sensor when a mask pattern image having the same pattern structure as the mask pattern is scanned on the projection target object. Characteristic projection image control device.
各照度センサのピクセル座標系での大まかな位置を特定する第1位置特定手段と、
投影対象物における各照度センサの相対位置を前記大まかに特定した各照度センサの位置に変換する変換行列を算出する手段と、
前記変換行列で前記マスクパタン画像を変形する手段と、
前記変形したマスクパタン画像を投影対象物上で走査した際の各照度センサの出力変化に基づいて各照度センサの位置を特定する第2位置特定手段とを含むことを特徴とする請求項1または2に記載の投影映像制御装置。 The means for specifying the position of each illuminance sensor includes:
a first position specifying means for specifying the rough position of each illuminance sensor in a pixel coordinate system;
means for calculating a conversion matrix for converting the relative position of each illuminance sensor on the projection object into the roughly specified position of each illuminance sensor;
means for transforming the mask pattern image with the transformation matrix;
2. A second position specifying means for specifying the position of each illuminance sensor based on a change in the output of each illuminance sensor when the deformed mask pattern image is scanned on the projection target object. 2. The projection image control device according to 2.
前記改めて算出した変換行列を用いて前記マスクパタン画像を改めて変形し、
前記第2位置特定手段は、前記改めて変形したマスクパタン画像を投影対象物上で走査した際の各照度センサの出力変化に基づいて各照度センサの位置を改めて特定することを、所定の条件が充足されるまで繰り返し、
前記投影映像を制御する手段は、各照度センサの前記改めて特定した位置に基づいて投影映像を制御することを特徴とする請求項3に記載の投影映像制御装置。 recalculating the transformation matrix by regarding the position of each illuminance sensor identified by the second position specifying means as a rough position;
Transforming the mask pattern image again using the newly calculated transformation matrix,
The second position specifying means specifies the position of each illuminance sensor anew based on the output change of each illuminance sensor when scanning the newly transformed mask pattern image on the projection target, if a predetermined condition is met. Repeat until satisfied,
4. The projected image control device according to claim 3, wherein the means for controlling the projected image controls the projected image based on the newly specified position of each illuminance sensor.
前記第2位置特定手段は、前記変形させたパタン構造画像の各マスクパタン画像の部分を、対応する照度センサの大まかな位置近傍でそれぞれ走査することを特徴とする請求項3に記載の投影映像制御装置。 The means for transforming the mask pattern image is configured to transform a pattern structure image in which the same number of mask pattern images as illuminance sensors are arranged at positions corresponding to each illuminance sensor, and the area other than the mask pattern image is black, using the transformation matrix. death,
4. The projected image according to claim 3, wherein the second position specifying means scans each mask pattern image portion of the transformed pattern structure image in the vicinity of the rough position of the corresponding illuminance sensor. Control device.
前記光マスクのマスクパタンと同一のパタン構造を有するマスクパタン画像を投影対象物上で走査した際の各照度センサの出力に基づいて各照度センサのピクセル座標系における位置を特定することを特徴とする投影映像制御方法。 The projection target object is provided with a plurality of illuminance sensors whose relative positions to the projection target area are known and a light mask that blocks incident light to the illuminance sensors, and each illuminance sensor is identified by the computer in the pixel coordinate system of the projected image. In a projected image control method for controlling a projected image based on the position of
The position of each illuminance sensor in the pixel coordinate system is specified based on the output of each illuminance sensor when a mask pattern image having the same pattern structure as the mask pattern of the optical mask is scanned on the projection target. Projection image control method.
各照度センサのピクセル座標系での大まかな位置を特定し、
投影対象物における各照度センサの相対位置を前記大まかに特定した各照度センサの位置に変換する変換行列を算出し、
前記変換行列で前記マスクパタン画像を変形し、
前記変形したマスクパタン画像を投影対象物上で走査した際の各照度センサの出力変化に基づいて各照度センサの位置を特定することを特徴とする請求項12または13に記載の投影映像制御方法。 When specifying the position of each illuminance sensor in the pixel coordinate system,
Identify the rough position of each illuminance sensor in the pixel coordinate system,
Calculating a conversion matrix that converts the relative position of each illuminance sensor on the projection target into the roughly specified position of each illuminance sensor,
transforming the mask pattern image with the transformation matrix;
The projection image control method according to claim 12 or 13, characterized in that the position of each illuminance sensor is specified based on a change in the output of each illuminance sensor when the deformed mask pattern image is scanned on the projection target object. .
前記光マスクのマスクパタンと同一のパタン構造を有するマスクパタンを有するマスクパタン画像を投影対象物上で走査した際の各照度センサの出力に基づいて各照度センサのピクセル座標系における位置を特定することをコンピュータに実行させることを特徴とする投影映像制御プログラム。 A plurality of illuminance sensors whose relative positions with respect to the projection target area are known and a light mask that blocks incident light to the illuminance sensors are provided on the projection target object, and each illumination sensor is positioned at the position specified by the pixel coordinate system of the projected image. In a projection image control program that controls a projection image based on
The position of each illuminance sensor in the pixel coordinate system is specified based on the output of each illuminance sensor when a mask pattern image having a mask pattern having the same pattern structure as the mask pattern of the optical mask is scanned on the projection target. A projection image control program characterized by causing a computer to perform certain functions.
各照度センサのピクセル座標系での大まかな位置を特定し、
投影対象物における各照度センサの相対位置を前記大まかに特定した各照度センサの位置に変換する変換行列を算出し、
前記変換行列で前記マスクパタン画像を変形し、
前記変形したマスクパタン画像を投影対象物上で走査した際の各照度センサの出力変化に基づいて各照度センサの位置を特定することを特徴とする請求項15または16に記載の投影映像制御プログラム。 When specifying the position of each illuminance sensor in the pixel coordinate system,
Identify the rough position of each illuminance sensor in the pixel coordinate system,
Calculating a conversion matrix that converts the relative position of each illuminance sensor on the projection target into the roughly specified position of each illuminance sensor,
transforming the mask pattern image with the transformation matrix;
The projection video control program according to claim 15 or 16, characterized in that the position of each illuminance sensor is specified based on a change in the output of each illuminance sensor when the deformed mask pattern image is scanned on the projection target object. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022083813A JP2023172183A (en) | 2022-05-23 | 2022-05-23 | Projection video control apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022083813A JP2023172183A (en) | 2022-05-23 | 2022-05-23 | Projection video control apparatus, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023172183A true JP2023172183A (en) | 2023-12-06 |
Family
ID=89029468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022083813A Pending JP2023172183A (en) | 2022-05-23 | 2022-05-23 | Projection video control apparatus, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023172183A (en) |
-
2022
- 2022-05-23 JP JP2022083813A patent/JP2023172183A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1540948B1 (en) | Method and system for determining correspondence between locations on display surface having arbitrary shape and pixels in output image of projector | |
EP1777487B1 (en) | Three-dimensional shape measuring apparatus, program and three-dimensional shape measuring method | |
CN100442141C (en) | Image projection method and device | |
CN103649674B (en) | Measuring equipment and messaging device | |
US20050200613A1 (en) | Coordinate input apparatus, its control method, and program | |
US20030123707A1 (en) | Imaging-based distance measurement and three-dimensional profiling system | |
US20160267668A1 (en) | Measurement apparatus | |
JP2021501070A (en) | Scan system calibration | |
WO1998005157A3 (en) | High accuracy calibration for 3d scanning and measuring systems | |
JP2007524808A (en) | Scanning system with stereoscopic camera set | |
EP1936477A1 (en) | Position information detection device, position information detection method, and position information detection program | |
JP3975917B2 (en) | Position measurement system | |
KR102133492B1 (en) | Robust display system and method using depth camera and flight vehicle | |
TWI741904B (en) | Measuring system and measuring method | |
US11638073B2 (en) | Ranging device and ranging methhod | |
US6304680B1 (en) | High resolution, high accuracy process monitoring system | |
US6369879B1 (en) | Method and apparatus for determining the coordinates of an object | |
US20230267628A1 (en) | Decoding an image for active depth sensing to account for optical distortions | |
JP2023172183A (en) | Projection video control apparatus, method, and program | |
KR100808536B1 (en) | Method for calibration using by pattern image | |
CN112292577B (en) | Three-dimensional measuring device and method | |
JP2006084286A (en) | Three-dimensional measuring method and its measuring device | |
WO2022050279A1 (en) | Three-dimensional measurement device | |
JP7259660B2 (en) | Image registration device, image generation system and image registration program | |
CN111380668B (en) | Precision detection system and precision detection method of depth camera |