JP2021061513A - Device, method, program, and storage medium - Google Patents
Device, method, program, and storage medium Download PDFInfo
- Publication number
- JP2021061513A JP2021061513A JP2019184080A JP2019184080A JP2021061513A JP 2021061513 A JP2021061513 A JP 2021061513A JP 2019184080 A JP2019184080 A JP 2019184080A JP 2019184080 A JP2019184080 A JP 2019184080A JP 2021061513 A JP2021061513 A JP 2021061513A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projected
- pixel
- projector
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、複数のプロジェクタで投影された複数の投影画像のずれを検知する装置に関するものである。 The present invention relates to a device that detects deviations in a plurality of projected images projected by a plurality of projectors.
プロジェクタからスクリーンに画像を投影して表示する場合、投影輝度または投影解像度を向上させるために、複数台のプロジェクタを用いて画素を重ねて投影することがある。 When an image is projected from a projector onto a screen and displayed, pixels may be projected in an overlapping manner using a plurality of projectors in order to improve the projection brightness or the projection resolution.
特許文献1には、複数台のプロジェクタを用いた投影の画素の重なりを解析するために、テストパターンを用いて画素の重なりのずれ(以下、画素ずれとする)を検出して複数台のプロジェクタの投影の位置を合わせる技術が開示されている。
In
また、特許文献2には、レーザー光の観測データと評価ラベルの組を教師データとして、機械学習を行い、レーザー光の良否の判定を行うための学習モデルを構築する技術が開示されている。 Further, Patent Document 2 discloses a technique for constructing a learning model for performing machine learning and determining the quality of laser light by using a set of laser light observation data and evaluation label as teacher data.
実際に複数台のプロジェクタを用いて画素を重ねて投影すると、経時変化により数画素単位の画素ずれが発生することがある。 When pixels are actually projected using a plurality of projectors in an overlapping manner, pixel shift in units of several pixels may occur due to changes over time.
しかしながら、上記の特許文献1に記載された従来技術では、テストパターンを投影して画素ずれを検出するため、画素ずれの検出のために視聴しているコンテンツの投影を止める必要があった。
However, in the prior art described in
また、上記の特許文献2に記載された従来技術では、複数台のプロジェクタで投影した際の画素ずれを検出する機械学習の学習モデルを生成することはできなかった。 Further, in the conventional technique described in Patent Document 2 above, it is not possible to generate a learning model of machine learning that detects pixel deviation when projected by a plurality of projectors.
本発明は上述した課題に鑑みてなされたものであり、機械学習に基づいて、複数のプロジェクタの画素ずれを検出することができる装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a device capable of detecting pixel deviations of a plurality of projectors based on machine learning.
本発明に係わる装置は、第1プロジェクタが投影する第1投影画像と、第2プロジェクタが投影する第2投影画像とが重なる重畳領域を含む領域を撮像した撮像画像を取得する取得手段と、複数のプロジェクタが投影する複数の投影画像が互いに重なる領域を示すモデル画像を前記領域における前記複数の投影画像の画素のずれに基づいて分類した教師データを用いて生成された学習モデルを用いて、前記撮像画像から、前記重畳領域における前記第1投影画像と前記第2投影画像との画素ずれの大きさと方向とを推測する推測手段と、を備えることを特徴とする。 The apparatus according to the present invention includes a plurality of acquisition means for acquiring an image captured by capturing a region including a superposed region in which the first projected image projected by the first projector and the second projected image projected by the second projector overlap. Using a learning model generated using teacher data in which model images showing a region in which a plurality of projected images projected by the projector of the above overlap each other are classified based on the pixel deviation of the plurality of projected images in the region, the above-mentioned It is characterized by including an estimation means for estimating the magnitude and direction of pixel deviation between the first projected image and the second projected image in the superimposed region from the captured image.
本発明によれば、機械学習に基づいて、複数のプロジェクタの画素ずれを検出することが可能となる。 According to the present invention, it is possible to detect pixel shifts of a plurality of projectors based on machine learning.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.
(第1の実施形態)
図1は、本発明の第1の実施形態に係わる、複数のプロジェクタを含む投影システムの構成を示す図である。投影システム160は、プロジェクタ100a、プロジェクタ100b、スクリーン150、信号源152、及び学習装置154を備える。
(First Embodiment)
FIG. 1 is a diagram showing a configuration of a projection system including a plurality of projectors according to the first embodiment of the present invention. The
プロジェクタ100aおよびプロジェクタ100bは、信号源152から入力された画像データに基づいて、スクリーンに投影画像を投影する投影装置である。プロジェクタ100a,100bは、学習装置154の学習結果に基づいて、それぞれの投影画像の画素ずれを検出する。プロジェクタ100aおよびプロジェクタ100bの機能の詳細は後述する。なお、プロジェクタ100aおよびプロジェクタ100bについてまとめて記述する場合は、プロジェクタ100と表記する。それぞれを個別に示す場合は、プロジェクタ100a、およびプロジェクタ100bと表記する。投影システム160は、プロジェクタ100aが投影する投影画像A、およびプロジェクタ100bが投影する投影画像Bをスクリーン上で重ねて投影するスタック投影システムである。
The
スクリーン150は、プロジェクタ100aおよびプロジェクタ100bによって画像を投影される投影面である。スクリーン150は、壁面であってもよいし、平面でなくともよい。
The
信号源152は、プロジェクタ100a、およびプロジェクタ100bに入力する画像データを出力する出力装置である。信号源152は、例えば、PCや映像分配器である。
The
なお、本実施形態では、複数のプロジェクタとして2台のプロジェクタ100a,100bを示しているが、3台以上のプロジェクタを用いてもよいことは言うまでもない。
In this embodiment, two
図2は、プロジェクタ100と学習装置154の関係を示すブロック図である。
FIG. 2 is a block diagram showing the relationship between the
学習装置154は、多数の教師データ10aが記憶された教師データ記憶部10、画素ずれ学習部11、学習済みモデル12を有する。画素ずれ学習部11は、教師データ10aに基づいて機械学習を行い、学習済モデル(学習モデル)12を生成する。
The
プロジェクタ100は、入力された画像データ(画像信号)、もしくは内部に格納された画像データに基づいて画像をスクリーン150に投影するプロジェクタである。投影システム160は、すでに説明したように、複数台のプロジェクタ100を用いて画素を重ねて投影輝度を向上させて投影するように構成されている。プロジェクタ100は、学習装置154で生成した学習済モデル12を用いて、スクリーン150の投影面を撮影した画像から画素ずれを検出することができる。
The
学習装置154において、教師データ10aは、画素ずれ量と方向ごとに分類された画像と画素ずれ状態(ずれ種類、方向、ずれ量)を示す教師ラベル(以下ラベルと呼ぶ)を付加したデータから構成される。詳細は後述する。
In the
画素ずれ学習部11は、教師データ10aを用いて機械学習の教師あり学習を行うことにより学習済モデル12を生成する。画素ずれ学習部11は、不図示のパーソナルコンピュータにGPU(Graphical Processing Unit)を内蔵した機器から構成される。また、画素ずれ学習部11は、不図示のLSI(Large-scale Integrated Circuit)、またはFPGA(Field Programmable Gate Array)から構成されていてもよい。
The pixel
図3を用いてニューラルネットワーク50について説明する。ニューラルネットワーク50は神経細胞をモデル化した複数のニューロン51とニューロン間を接続する複数の信号52(結合重みづけ係数を持つ)から構成される。ニューラルネットワーク50の左の列のニューロンを入力層、一番右の列のニューロンを出力層、中間の列のニューロンを中間層と呼ぶ。画素ずれ学習部11は、入力層にデータを入力して中間層と出力層により演算を行いニューラルネットワーク50の出力を取得する。
The
画素ずれ学習部11は、不図示の誤差検出部と、更新部とを備えている。誤差検出部は、ニューラルネットワーク50の入力層に入力される教師データ10aに応じて出力層から出力される出力データと教師データ10aとの誤差を得る。更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワーク50のニューロン間(信号52)の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、ニューラルネットワーク50の信号52の結合重み付け係数等を調整する手法である。
The pixel
画素ずれ学習部11は、このようにして、教師データ10aの特徴を学習して学習済モデル12を生成する。ここで、学習済モデル12はニューラルネットワーク50の結合重み付け係数と、ニューラルネットワーク50を用いて演算処理を行うプログラムとから構成される。
In this way, the pixel
なお、画素ずれ学習部11は、ニューラルネットワークに限らずSVM(Support Vector Machine)や決定木のアルゴリズムを利用してもよい。
The pixel
続いて、図2のプロジェクタ100の構成について説明する。
Subsequently, the configuration of the
プロジェクタ100は、撮像部20、画素ずれ推測部21、出力部22、画像入力部23、画像処理部24、メモリ25、光源26、パネル27、投影光学系28、CPU30、バス31を備える。
The
撮像部20は、スクリーン150の周辺を撮影可能であり、複数台のプロジェクタ100(本実施形態では、プロジェクタ100a,100b)によりスクリーン150に投影された画像を撮影して、撮像画像を生成する。撮像部20は、複数台のプロジェクタ100がスクリーン150に投影した複数の画像が互いに重なる領域(重畳領域)を含むスクリーン150の領域を撮像して撮像画像(重畳画像)を取得する。本実施形態では、プロジェクタ100aが投影した画像の全体とプロジェクタ100bが投影した画像の全体とが重なるように投影する。したがって、撮像部20は、プロジェクタ100a,100bがそれぞれ投影する画像を撮影する。撮像部20は撮影した画像を画素ずれ推測部21に出力する。
The
なお、撮像部20は、被写体の光学像を取得するレンズ、レンズを駆動するアクチュエータ、アクチュエータを制御するマイクロプロセッサ、レンズを介して取得した光学像を画像信号に変換する撮像素子、撮像素子により得られた画像信号をデジタル信号に変換するAD変換部などを備える。なお、撮像部20は、プロジェクタ100の外部装置(撮像装置)として設けられてもよい。その場合、プロジェクタ100は、撮像部20と接続する接続インターフェースを備え、接続インターフェースを介して撮像部20から撮像画像を取得する。
The
画素ずれ推測部21では、撮像部20が生成した撮影画像を用いて、複数台のプロジェクタ100で投影した画像のそれぞれの画素ずれを推測する。画素ずれ推測部21は学習済モデル12を用いて画素ずれを推測する。
The pixel
出力部22は、画素ずれ推測部21の画素ずれ推測結果を外部に通知する。例えば、外部のサーバーに不図示のネットワークを介して画素ずれ検出結果を送信することが出来る。メモリ25は、ワークメモリとして一時的に制御プログラムやデータを格納する。
The
画像入力部23は、外部装置(図1の信号源152)から映像信号を受信する機能を有し、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)端子、SDI(Serial Digital Interface)端子、 DisplayPort(登録商標)(DP)端子等を含む。ここで、外部装置は映像信号を出力するパーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機等である。画像入力部23は、受信した映像信号を画像処理部24に送信する。
The
画像処理部24は、映像入力部23から受信した映像信号にフレーム数、画素数、画像形状などの変更処理を施して、パネル27に送信する機能を有し、例えば画像処理用のマイクロプロセッサからなる。なお、画像処理部24は、専用のマイクロプロセッサである必要はなく、例えば、メモリ25に記憶されたプログラムによって、CPU30が画像処理部24と同様の処理を実行してもよい。画像処理部24は、フレーム間引き処理、フレーム補間処理、解像度変換処理、メニュー等のOSD重畳処理、歪み補正処理(キーストン補正処理)、エッジブレンディング処理といった機能を実行することが可能である。また、画像処理部24は、映像入力部23から受信した映像信号以外にも、CPU30によって再生された画像や映像に対して前述の変更処理を施すこともできる。
The
光源26は、パネル27に光を出力(照射)する光源である。光源26は、発光可能な部材であればよく、例えば、ハロゲンランプ、キセノンランプ、高圧水銀ランプ、LED(Light Emitting Diode)、レーザーなどである。
The
パネル27は、光源26から照射された光を変調して画像(画像を表す光)を出力する変調パネルである。パネル27は、光源26から照射された光を、画像処理回路24から入力された画像データに基づく透過率(透過率分布)で透過させる。もしくは、パネル27は、光源26から照射された光を、画像処理回路24から入力された画像データに基づく反射率(反射率分布)で反射する。本実施形態では、パネル27が透過型の液晶パネルであるものとする。なお、パネル27は液晶パネルに限定されるものではない。
The
投影光学系28は、パネル27から出力された画像をスクリーン150に投影するための光学系である。投影光学系28は、複数のレンズ、レンズ駆動用のアクチュエータなどから構成されており、レンズをアクチュエータにより駆動することによって、投影画像の拡大/縮小、投影位置のシフト調整、投影光学系28の焦点調節などを行う。なお、投影画像は、パネル27から出力された画像の投影によってスクリーン上に表示された画像であり、投影位置は、パネル27から出力された画像が投影される、スクリーン150上の位置である。
The projection
CPU30は、プロジェクタ100の動作を制御するためのプロセッサである。CPU30は、メモリ25から読み出したプログラムを実行して後述の制御(機能)を実行する。なお、CPU30は、複数のプロセッサで構成されてもよい。また、CPU30が実行する制御の一部もしくはすべてを、プログラムを用いずに電子回路で実行してもよい。
The
図4は、学習装置154の処理を示すフローチャートである。本フローチャートは学習装置154が学習を開始した後に行う処理である。
FIG. 4 is a flowchart showing the processing of the
S1では、ユーザーが画素ずれを学習させるために使用する教師データを準備する。教師データはあらかじめ画素ずれ量がわかっている画素ずれをしている画像を分類し、分類済の画像に画素ずれの状態を示すラベルを付与したものである。この作業はユーザーが手作業で行い、作成された教師データ10aを教師データ記憶部10に記憶する。
In S1, the teacher data used by the user to learn the pixel shift is prepared. The teacher data classifies images with pixel misalignment for which the amount of pixel misalignment is known in advance, and assigns a label indicating the state of pixel misalignment to the classified images. This work is manually performed by the user, and the created
また、あらかじめ入力された画素ずれの大きさ、および方向で投影面上で重畳される投影画像を投影シミュレータを用いて作成し、作成された画像に対応する画素ずれの大きさ、および方向をラベルとして付与してもよい。 In addition, a projection image superimposed on the projection surface in the pre-input pixel shift size and direction is created using a projection simulator, and the pixel shift size and direction corresponding to the created image are labeled. May be given as.
ここで、図5を用いて学習に用いる教師データ10aについて説明する。図5(a)は、画素ずれを説明するための図である。図5(b)は、画素を水平、垂直、斜めにずらした画像とそのラベルを説明するための図である。また、図5(c)は、画素を水平方向に2、4、8画素ずらした画像とそのラベルを説明するための図である。
Here, the
ここで、教師データ10aの画素ずれ画像は、あらかじめ2台の画像投影装置で同一の投影面に投影してずれ方向とずれ量を調整して画素ずれを発生させた後に、投影面を撮影して取得される。また、教師データ10aの画素ずれ画像は、1枚の画像を複製してずれ方向とずれ量に基づいて1枚に合成して生成することもできる。教師データ10aのラベルはこのときのずれ方向、ずれ量に基づいて生成する。
Here, the pixel shift image of the
図5(a)を用いて、2台のプロジェクタ100でスクリーン上に画素が重なるように投影した際の画素ずれについて説明する。
FIG. 5A will be described with reference to the pixel shift when the two
スクリーン150上で、プロジェクタ100aが投影する投影画像の画素100は、プロジェクタ100bが投影する投影画像の対応する画素101と重ねて投影されるとする。
It is assumed that the
しかし、プロジェクタ100の投影位置の経時的な変化などによって、投影画像の投影位置がずれる場合がある。この場合、画素100と画素101との投影位置が一致しない。
However, the projection position of the projected image may shift due to changes in the projection position of the
図5(a)〜(d)は、それぞれ、画素100と画素101との投影位置の関係を示す模式図である。なお、スクリーン150上には画素100、101以外の画素も投影されていることは言うまでもない。
5 (a) to 5 (d) are schematic views showing the relationship between the projection positions of the
図5(a)は、2台のプロジェクタ100a,100bでスクリーン150上に画素が重なるように投影した際に、プロジェクタ100aの画素100(白で塗りつぶされた円)とプロジェクタ100bの画素101(斜線の円)が重なっている状態(画素ずれなしの状態)を示す。
FIG. 5A shows the
図5(b)は、画素100と画素101が垂直方向にずれている状態を示す。図5(c)は、画素100と画素101が水平方向にずれている状態を示す。図5(d)は、画素100と画素101が斜め方向にずれている状態を示す。
FIG. 5B shows a state in which the
また、画素ずれ量を基準に画素ずれを分類することも可能である。例えば、画素100と画素101が3画素ずれている状態を、「3画素ずれ」として分類する。また、画素ずれ方向と画素ずれ量を用いて画素ずれを分類することも可能である。例えば、水平方向に2画素ずれている状態を、「水平2画素ずれ」として分類する。
It is also possible to classify pixel deviations based on the amount of pixel deviations. For example, a state in which the
図6を用いて、画素ずれ方向(ずれなし、水平、垂直、斜め)を推測する教師データ10a(モデル画像)について説明する。
The
図6(a)の画像200は、画素ずれをしていない画像を集めた複数の画像データである。「画素ずれなし」201は画像200のラベルである。以下同様にずれ方向ごとに、図6(b)の画像202は、水平方向にずれた画像を集めた複数の画像データである。「水平ずれ」203は画像202の画素ずれ方向を示すラベルである。図6(c)の画像204は、垂直方向にずれた画像を集めた複数の画像データである。「垂直ずれ」205は画像204の画素ずれ方向を示すラベルである。図6(d)の画像206は、斜め方向にずれた画像を集めた複数の画像データである。「斜めずれ」207は画像206の画素ずれ方向を示すラベルである。
The
次に、図7を用いて、画素ずれ量を推測するための教師データ10aについて説明する。
Next, the
図7(a)の画像220は、画素ずれをしていない画像を集めた複数の画像データである。「画素ずれなし」221は画像220のラベルである。以下同様に、画素ずれ量ごとに画像データを分類する。図7(b)の画像222は2画素ずれした画像を集めた複数の画像データである。ここで、「2画素ずれ」とは、画素ずれなしの状態から2画素分位置がずれた場所に画素が移動した状態のことである。2画素以上のずれの場合も同様である。「2画素ずれ」223は、画像222の画素ずれ量を示すラベルである。図7(c)の画像224は、4画素ずれした画像を集めた複数の画像データである。「4画素ずれ」225は、画像224の画素ずれ量を示すラベルである。図7(d)の画像226は、6画素ずれした画像を集めた複数の画像データである。「6画素ずれ」227は、画像226の画素ずれ量を示すラベルである。
The
図4のフローチャートに戻り、S2では、画素ずれ学習部11が教師データ10aを用いて学習を行う。画素ずれ学習部11は、学習処理を終えると学習済データ12を生成する。
Returning to the flowchart of FIG. 4, in S2, the pixel
S3では、画素ずれ学習部11が生成した学習済データ12を記憶部に記憶させて、プロジェクタ100の画素ずれ推測部21に学習済データ12を設定する。
In S3, the learned
図8のフローチャートを用いて、画素ずれ補正処理について説明する。ずれ補正処理は、プロジェクタ100がスタック投影で画像を投影している状態で実行される。ずれ補正処理は、あらかじめユーザーによってずれ補正機能を有効とする設定がされている場合に、繰り返し実行されるとする。ずれ補正処理は、プロジェクタ100a,100bの両方が実行してもよいし、いずれか一方が実行してもよい。本実施形態ではプロジェクタ100aのずれ補正機能が有効に設定され、プロジェクタ100bのずれ補正機能が無効と設定されているとする。すなわち、プロジェクタ100aが画素ずれ特性を検出し、検出された画素ずれ特性に応じて、プロジェクタ100aの投影画像の投影位置を補正する。なお、本フローチャートの処理を開始する前に、ユーザーにより学習済モデル12が画素ずれ推測部21に設定されているものとする。
The pixel shift correction process will be described with reference to the flowchart of FIG. The deviation correction process is executed in a state where the
S100では、撮像部20がスクリーンに投影された画像を撮影して撮影画像を生成する。
In S100, the
S101では、画素ずれ推測部21が、S100で生成した撮影画像を用いてスタック投影の画素ずれが発生しているか否かを推測する。
In S101, the pixel
ここで、図9を用いて画素ずれ推測部21の推測結果について説明する。
Here, the estimation result of the pixel
推測結果400は、画素ずれ推測部21の推測結果である。推測結果400はラベルとそのラベルに分類された分類確率の項目を持つ。ラベルは教師データ10aに与えられた画素ずれの状態を示すものである。CPU30は、推測結果400から最も高い分類確率を持つラベルを選択して、画素ずれを検出する。推測結果400の場合、CPU30は、分類確率が85%と最も高い「水平ずれ」を画素ずれ検出結果とする。
The
図8のフローチャートに戻り、S102では、CPU30が、推測結果400に基づき画素ずれを検出したか否かを判定する。推測結果400の最も高い確率のラベルが画素ずれを示していた場合は、CPU30は画素ずれありと判定し、S103に進む。また、推測結果400の最も高い確率のラベルが画素ずれなしを示していた場合は、CPU30は画素ずれなしと判定し、ステップS105に進む。
Returning to the flowchart of FIG. 8, in S102, it is determined whether or not the
S103では、CPU30が推測結果400に基づいて画素ずれ方向と画素ずれ量を推測する。
In S103, the
S104では、画素ずれ補正処理を行う。CPU30は、S103で求めた画素ずれ方向と画素ずれ量に基づき、投影光学系28の投影位置のシフト量の調整を行う。また、画像処理部24の歪み補正処理機能を用いて、画素ずれの補正を行うことも可能である。
In S104, pixel shift correction processing is performed. The
S105では、ユーザーが終了操作(図8のフローチャートを終了する操作)を行ったか否かをCPU30が判定する。終了操作が行われた場合は、図8のフローチャートが終了し、終了操作が行われなかった場合はS100に戻り処理を継続する。
In S105, the
なお、第1の実施形態では、画素ずれを検出した場合、画素ずれを補正するように説明したが、画素ずれを検出したら補正をせずに出力部22がネットワークを介して外部サーバーに画素ずれ情報を出力するようにしてもよい。
In the first embodiment, when the pixel shift is detected, the pixel shift is corrected. However, when the pixel shift is detected, the
また、上記の説明では、撮像部20、画素ずれ推測部21、出力部22からなる画素ずれを検出する機能部分をプロジェクタ100の内部に設けるように説明した。しかし、これらの画素ずれを検出する機能部分の全て又は一部が、プロジェクタ100の外部の制御装置に搭載されていてもよい。外部の制御装置としては、投影制御用に作成された制御装置、あるいはパーソナルコンピュータなどを用いることができる。
Further, in the above description, it has been described that a functional portion for detecting pixel deviation, which is composed of an
なお、上記ではプロジェクタをスタック投影する説明をしたが、プロジェクタをマルチ投影して高解像度投影する際のエッジブレンディング部分の画素のずれを検出、補正することも可能である。 In the above description, the projectors are projected in a stack, but it is also possible to detect and correct the pixel deviation of the edge blending portion when the projectors are multi-projected and projected at high resolution.
以上説明したように、第1の実施形態によれば、複数のプロジェクタ100の投影画像を撮影した画像に基づいて、学習済モデルを用いて投影面上における画素ずれを検出することが出来る。また、検出した画素ずれから補正量を算出して画素ずれを補正することが出来る。
As described above, according to the first embodiment, the pixel shift on the projection surface can be detected by using the trained model based on the captured images of the projection images of the plurality of
(第2の実施形態)
以下、本発明の第2の実施形態について説明する。第1の実施形態では、複数のプロジェクタ100の投影画像を撮影した画像に基づいて、学習済モデルを用いて投影面上における画素ずれを検出し、補正する構成について説明した。しかし、この方法では、学習において教師データを大量に準備しなければならないことと、使用するニューラルネットワークの規模が大きくなることが問題となる。そこで、第2の実施形態では、第1の実施形態の画素ずれを推測するための教師データ10aに前処理をした後に学習する構成について説明する。第2の実施形態の画像投影システム160の構成は、図1に示した第1の実施形態の構成と同様であるため、重複する内容の説明は省略する。ただし、プロジェクタ100がプロジェクタ300に変更され、学習装置154が学習装置301に変更される。
(Second embodiment)
Hereinafter, a second embodiment of the present invention will be described. In the first embodiment, a configuration for detecting and correcting pixel deviation on a projection surface using a trained model based on images obtained by capturing projected images of a plurality of
図10は、第2の実施形態におけるプロジェクタ300と学習装置301の関係を示すブロック図である。第1の実施形態との違いは、教師データ10aを学習させる前に前処理を加える点と、画素ずれを推測する前に投影面の撮影画像に前処理を加える点である。
FIG. 10 is a block diagram showing the relationship between the
学習装置301は、教師データ記憶部10、フーリエ変換部310、画素ずれ学習部11、学習済モデル311を有する。
The
フーリエ変換部310は、教師データ10aに対して2次元フーリエ変換を適用し、周波数スペクトル画像を生成して教師データを不図示の記憶部に保存する。ここで、一般的に2次元フーリエ変換で生成した周波数スペクトル画像は、中心付近に画像の高周波成分が含まれ、周波数スペクトル画像の四隅付近に低周波成分が含まれる。以下では、フーリエ変換部310が周波数スペクトル画像の中央に原点をとった座標平面を4つに区切ったときに、第1象限(右上)と第3象限(左下)、第2象限(左上)と第4象限(右下)を入れ替えた周波数スペクトル画像を生成するものとする。この入れ替えにより生成した周波数スペクトル画像は、中心付近に低周波成分が含まれ、中心から離れるにしたがって高周波成分が含まる。
The
ここで、図11を用いて、学習に用いるフーリエ変換部310で変換した教師データについて説明する。図11の教師データは、ずれ方向(水平、垂直、斜め)を推測するためのデータである。
Here, the teacher data converted by the
図11(a)の画像500は画素ずれをしていない画像であり、「画素ずれなし」501のラベルを与えられる。同様に、図11(b)の画像502は水平ずれをしている画像であり、「水平ずれ」503のラベルが与えられる。同様に、図11(c)の画像504には、「垂直ずれ」505のラベルが与えられる。また、図11(d)の画像506には、「斜めずれ」507のラベルが与えられる。
The
フーリエ変換部310は、教師データに含まれる画像をフーリエ変換して周波数スペクトル画像を生成する。図11(a)の画像500をフーリエ変換して図11(e)の周波数スペクトル画像510を生成する。同様に、図11(b)の画像502を図11(f)の周波数スペクトル画像512に、図11(c)の画像504を図11(g)の周波数スペクトル画像514に、図11(d)の画像506を図11(h)の周波数スペクトル画像516にそれぞれ変換して生成する。
The
そして、周波数スペクトル画像に変換する前の画像に与えられていたラベルと同じラベルを与える。周波数スペクトル画像510には、「画素ずれなし」511のラベルが与えられる。周波数スペクトル画像512には、「水平ずれ」512のラベルが与えられる。周波数スペクトル画像514には、「垂直ずれ」515のラベルが与えられる。さらに、周波数スペクトル画像516には、「斜めずれ」517のラベルが与えられる。
Then, the same label as that given to the image before conversion to the frequency spectrum image is given. The
図10に戻り、学習済モデル311は、画素ずれ学習部11が周波数スペクトル画像に変換された教師データを用いて学習することにより生成された学習済モデルである。
Returning to FIG. 10, the trained
プロジェクタ302は、撮像部20、フーリエ変換部320、画素ずれ推測部21、出力部22、画像入力部23、画像処理部24、メモリ25、光源26、パネル27、投影光学系28、CPU30、バス31を有する。
The projector 302 includes an
フーリエ変換部320は、撮像部20からスクリーンの投影像を撮影した画像を取得した後に、2次元フーリエ変換処理により周波数スペクトル画像を生成して画素ずれ推測部21に出力する。ここで、周波数スペクトル画像はフーリエ変換部310と同様に周波数スペクトル画像の中央に原点をとった座標平面を4つに区切った時に第1象限(右上)と第3象限(左下)、第2象限(左上)と第4象限(右下)を入れ替えたものを用いる。
The
以上説明したように、第2の実施形態によれば、限られた教師データ量とニューラルネットワーク規模で、複数のプロジェクタ100の投影像を撮影した画像について、学習済モデルを用いて画素ずれを検出し、補正することが出来る。
As described above, according to the second embodiment, pixel misalignment is detected by using a trained model for images obtained by capturing projection images of a plurality of
(第3の実施形態)
以下、本発明の第3の実施形態について説明する。第1および第2の実施形態では、複数のプロジェクタ100(300)の投影像を撮影した画像について、画素ずれを推測する学習済モデルを用いて画素ずれを検出し、補正する構成について説明した。しかし、実際には画素ずれを検出しにくい画像が存在するという問題もある。例えば、低周波成分が多い画像などは画素ずれが検出しにくい。そこで、第3の実施形態では、画素ずれを検出しない画像を集めて、画素ずれを検出しないラベルを与える構成について説明する。第3の実施形態の画像投影システム160の構成は、図1に示した第1の実施形態の構成と同様であるため、重複する内容の説明は省略する。第3の実施形態は第1の実施形態と教師データだけが異なる。
(Third Embodiment)
Hereinafter, a third embodiment of the present invention will be described. In the first and second embodiments, a configuration has been described in which pixel deviations are detected and corrected by using a learned model for estimating pixel deviations in images obtained by capturing projected images of a plurality of projectors 100 (300). However, there is also a problem that there is actually an image in which pixel deviation is difficult to detect. For example, it is difficult to detect pixel shift in an image having many low frequency components. Therefore, in the third embodiment, a configuration will be described in which images that do not detect pixel deviation are collected and a label that does not detect pixel deviation is given. Since the configuration of the
図12を用いて第3の実施形態の教師データについて説明する。 The teacher data of the third embodiment will be described with reference to FIG.
図12(a)〜(d)の画像200、画像202、画204、画像206は、第1の実施形態と同様であるため説明を省略する。また、それらの画像のラベルである「画素ずれなし」201、「水平ずれ」203、「垂直ずれ」205、「斜めずれ」207も第1の実施形態と同様である。
The
図12(e)の画像600は、例えば、テストパターンなど画素ずれの検出率が低い画像データを集めたものである。「検出しない」601は画像600に与えられるラベルである。
The
画素ずれ学習部11は、第3の実施形態の図12の教師データを用いて学習を行い、学習済モデルを生成する。そして、図8のプロジェクタ100のフローチャートに従って画素ずれを推測する処理を行い、画素ずれしにくい画像では画素ずれを判別しないようにする。これにより、画素ずれの検出率を向上させることが出来る。
The pixel
以上説明したように、第3の実施形態では、複数のプロジェクタ100の投影像を撮影した画像について、学習済モデルを用いて画素ずれを検出する場合の検出精度を向上させることが可能となる。
As described above, in the third embodiment, it is possible to improve the detection accuracy when detecting the pixel shift using the trained model for the images obtained by capturing the projected images of the plurality of
(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.
10:教師データ、11:画素ずれ学習部、12:学習済モデル、20:撮像部、21:画素ずれ推測部、22:出力部、23:画像入力部、24:画像処理部、25:メモリ、26:光源、27:パネル、28:投影光学系、100:プロジェクタ、150:スクリーン、152:信号源、154:学習装置 10: Teacher data, 11: Pixel shift learning unit, 12: Trained model, 20: Imaging unit, 21: Pixel deviation estimation unit, 22: Output unit, 23: Image input unit, 24: Image processing unit, 25: Memory , 26: Light source, 27: Panel, 28: Projection optics, 100: Projector, 150: Screen, 152: Signal source, 154: Learning device
Claims (19)
複数のプロジェクタが投影する複数の投影画像が互いに重なる領域を示すモデル画像を前記領域における前記複数の投影画像の画素のずれに基づいて分類した教師データを用いて生成された学習モデルを用いて、前記撮像画像から、前記重畳領域における前記第1投影画像と前記第2投影画像との画素ずれの大きさと方向とを推測する推測手段と、
を備えることを特徴とする装置。 An acquisition means for acquiring an image captured by capturing a region including a superposed region in which the first projected image projected by the first projector and the second projected image projected by the second projector overlap.
Using a learning model generated using teacher data, which classifies model images showing a region where a plurality of projected images projected by a plurality of projectors overlap each other based on pixel deviations of the plurality of projected images in the region, An estimation means for estimating the magnitude and direction of pixel deviation between the first projected image and the second projected image in the superimposed region from the captured image.
A device characterized by comprising.
画像を投影する投影手段と、
を備えることを特徴とする投影装置。 The device according to any one of claims 1 to 7.
Projection means for projecting images and
A projection device characterized by comprising.
前記学習モデルは、第1プロジェクタが投影面に投影した第1投影画像と第2プロジェクタが前記投影面に投影した第2投影画像とが前記投影面において重なる重畳領域を撮像した撮像画像を入力した場合に、前記重畳領域における前記第1投影画像と前記第2投影画像との位置のずれを推測することを特徴とする装置。 A learning means for generating a learning model by using teacher data obtained by classifying a superposed image obtained by superimposing a plurality of projected images using the displacement of the positions of the plurality of projected images in the superposed image is provided.
In the learning model, an image captured by capturing an superimposed region in which the first projected image projected on the projection surface by the first projector and the second projected image projected on the projection surface by the second projector overlap on the projection surface is input. In this case, the apparatus is characterized by estimating the positional deviation between the first projected image and the second projected image in the superimposed region.
複数のプロジェクタが投影する複数の投影画像が互いに重なる領域を示すモデル画像を前記領域における前記複数の投影画像の画素のずれに基づいて分類した教師データを用いて生成された学習モデルを用いて、前記撮像画像から、前記重畳領域における前記第1投影画像と前記第2投影画像との画素ずれの大きさと方向とを推測する推測工程と、
を有することを特徴とする方法。 An acquisition step of acquiring an image captured by capturing a region including a superposed region in which the first projected image projected by the first projector and the second projected image projected by the second projector overlap.
Using a learning model generated using teacher data, which classifies model images showing a region where a plurality of projected images projected by a plurality of projectors overlap each other based on pixel deviations of the plurality of projected images in the region, a learning model is used. An estimation step of estimating the magnitude and direction of pixel deviation between the first projected image and the second projected image in the superimposed region from the captured image.
A method characterized by having.
前記学習モデルは、第1プロジェクタが投影面に投影した第1投影画像と第2プロジェクタが前記投影面に投影した第2投影画像とが前記投影面において重なる重畳領域を撮像した撮像画像を入力した場合に、前記重畳領域における前記第1投影画像と前記第2投影画像との位置のずれを推測することを特徴とする方法。 It has a learning step of generating a learning model by using teacher data in which a superposed image obtained by superimposing a plurality of projected images is classified by using the displacement of the positions of the plurality of projected images in the superposed image.
In the learning model, an image captured by capturing an superimposed region in which the first projected image projected on the projection surface by the first projector and the second projected image projected on the projection surface by the second projector overlap on the projection surface is input. In this case, a method characterized by estimating the positional deviation between the first projected image and the second projected image in the superimposed region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019184080A JP2021061513A (en) | 2019-10-04 | 2019-10-04 | Device, method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019184080A JP2021061513A (en) | 2019-10-04 | 2019-10-04 | Device, method, program, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021061513A true JP2021061513A (en) | 2021-04-15 |
Family
ID=75380629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019184080A Pending JP2021061513A (en) | 2019-10-04 | 2019-10-04 | Device, method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021061513A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115002427A (en) * | 2022-04-28 | 2022-09-02 | 江苏通纺互联科技有限公司 | Projection fusion method based on neural network |
-
2019
- 2019-10-04 JP JP2019184080A patent/JP2021061513A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115002427A (en) * | 2022-04-28 | 2022-09-02 | 江苏通纺互联科技有限公司 | Projection fusion method based on neural network |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9122138B2 (en) | Projector, image display system, and projector control method | |
JP3925521B2 (en) | Keystone correction using part of the screen edge | |
JP5604909B2 (en) | Correction information calculation apparatus, image processing apparatus, image display system, and image correction method | |
JP4232042B2 (en) | Projection control system, projector, program, information storage medium, and projection control method | |
US8711213B2 (en) | Correction information calculating device, image processing apparatus, image display system, and image correcting method | |
JP2004312690A (en) | Image processing system, projector, program, information storage medium and image processing method | |
WO2006025191A1 (en) | Geometrical correcting method for multiprojection system | |
TW200425736A (en) | Image processing system, projector and image processing method | |
WO2005002240A1 (en) | Method for calculating display characteristic correction data, program for calculating display characteristic correction data, and device for calculating display characteristic correction data | |
JP2006121240A (en) | Image projection method, projector, and computer program | |
JP2010026870A (en) | Image processing apparatus, image display apparatus and image data generating method | |
JP2015060012A (en) | Image processing system, image processing device, image processing method and image processing program as well as display system | |
JP2019078786A (en) | Image projection system, projector, and control method of image projection system | |
CN110992244B (en) | Picture generation method, system, device and storage medium with mole pattern | |
US9264680B2 (en) | Apparatus, method and computer-readable recording medium for improving visibility of an image projected on a screen | |
US9241141B1 (en) | Projection block extraction | |
JP2007158398A (en) | Shift amount detector and multiprojection device | |
JP5205865B2 (en) | Projection image shape distortion correction support system, projection image shape distortion correction support method, projector, and program | |
JP2018125819A (en) | Control device, control method, program, and storage medium | |
JP2021061513A (en) | Device, method, program, and storage medium | |
JP2000081593A (en) | Projection type display device and video system using the same | |
CN113994662A (en) | Information processing apparatus, information processing method, program, projection apparatus, and information processing system | |
JP5250980B2 (en) | Projector and image correction method for the projector | |
KR100917615B1 (en) | Method and apparatus for detecting location of laser beam with minimized error using mono-camera | |
CN114125411B (en) | Projection device correction method, projection device correction device, storage medium and projection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |