JP2021061513A - Device, method, program, and storage medium - Google Patents

Device, method, program, and storage medium Download PDF

Info

Publication number
JP2021061513A
JP2021061513A JP2019184080A JP2019184080A JP2021061513A JP 2021061513 A JP2021061513 A JP 2021061513A JP 2019184080 A JP2019184080 A JP 2019184080A JP 2019184080 A JP2019184080 A JP 2019184080A JP 2021061513 A JP2021061513 A JP 2021061513A
Authority
JP
Japan
Prior art keywords
image
projected
pixel
projector
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019184080A
Other languages
Japanese (ja)
Inventor
徹 小池
Toru Koike
徹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019184080A priority Critical patent/JP2021061513A/en
Publication of JP2021061513A publication Critical patent/JP2021061513A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a projection control device capable of detecting pixel shifts of a plurality of projectors based on machine learning.SOLUTION: A device includes an acquisition unit that acquires a captured image obtained by capturing a region including a superimposed region in which a first projection image projected by a first projector and a second projection image projected by a second projector overlap, and an estimation unit that estimates the magnitude and the direction of pixel deviation between the first projection image and the second projection image in the superimposed region from the captured image using a learning model generated using teacher data classified on the basis of the pixel deviation of a plurality of projection images in a region of a model image indicating a region in which the plurality of projection images projected by the plurality of projectors overlap each other.SELECTED DRAWING: Figure 2

Description

本発明は、複数のプロジェクタで投影された複数の投影画像のずれを検知する装置に関するものである。 The present invention relates to a device that detects deviations in a plurality of projected images projected by a plurality of projectors.

プロジェクタからスクリーンに画像を投影して表示する場合、投影輝度または投影解像度を向上させるために、複数台のプロジェクタを用いて画素を重ねて投影することがある。 When an image is projected from a projector onto a screen and displayed, pixels may be projected in an overlapping manner using a plurality of projectors in order to improve the projection brightness or the projection resolution.

特許文献1には、複数台のプロジェクタを用いた投影の画素の重なりを解析するために、テストパターンを用いて画素の重なりのずれ(以下、画素ずれとする)を検出して複数台のプロジェクタの投影の位置を合わせる技術が開示されている。 In Patent Document 1, in order to analyze the pixel overlap of a projection using a plurality of projectors, a test pattern is used to detect the pixel overlap deviation (hereinafter referred to as pixel deviation) and the plurality of projectors. A technique for aligning the projection position of is disclosed.

また、特許文献2には、レーザー光の観測データと評価ラベルの組を教師データとして、機械学習を行い、レーザー光の良否の判定を行うための学習モデルを構築する技術が開示されている。 Further, Patent Document 2 discloses a technique for constructing a learning model for performing machine learning and determining the quality of laser light by using a set of laser light observation data and evaluation label as teacher data.

特開2011−182076号公報Japanese Unexamined Patent Publication No. 2011-182076 特開2019−38027号公報JP-A-2019-38027

実際に複数台のプロジェクタを用いて画素を重ねて投影すると、経時変化により数画素単位の画素ずれが発生することがある。 When pixels are actually projected using a plurality of projectors in an overlapping manner, pixel shift in units of several pixels may occur due to changes over time.

しかしながら、上記の特許文献1に記載された従来技術では、テストパターンを投影して画素ずれを検出するため、画素ずれの検出のために視聴しているコンテンツの投影を止める必要があった。 However, in the prior art described in Patent Document 1 above, since a test pattern is projected to detect pixel deviation, it is necessary to stop the projection of the content being viewed in order to detect the pixel deviation.

また、上記の特許文献2に記載された従来技術では、複数台のプロジェクタで投影した際の画素ずれを検出する機械学習の学習モデルを生成することはできなかった。 Further, in the conventional technique described in Patent Document 2 above, it is not possible to generate a learning model of machine learning that detects pixel deviation when projected by a plurality of projectors.

本発明は上述した課題に鑑みてなされたものであり、機械学習に基づいて、複数のプロジェクタの画素ずれを検出することができる装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a device capable of detecting pixel deviations of a plurality of projectors based on machine learning.

本発明に係わる装置は、第1プロジェクタが投影する第1投影画像と、第2プロジェクタが投影する第2投影画像とが重なる重畳領域を含む領域を撮像した撮像画像を取得する取得手段と、複数のプロジェクタが投影する複数の投影画像が互いに重なる領域を示すモデル画像を前記領域における前記複数の投影画像の画素のずれに基づいて分類した教師データを用いて生成された学習モデルを用いて、前記撮像画像から、前記重畳領域における前記第1投影画像と前記第2投影画像との画素ずれの大きさと方向とを推測する推測手段と、を備えることを特徴とする。 The apparatus according to the present invention includes a plurality of acquisition means for acquiring an image captured by capturing a region including a superposed region in which the first projected image projected by the first projector and the second projected image projected by the second projector overlap. Using a learning model generated using teacher data in which model images showing a region in which a plurality of projected images projected by the projector of the above overlap each other are classified based on the pixel deviation of the plurality of projected images in the region, the above-mentioned It is characterized by including an estimation means for estimating the magnitude and direction of pixel deviation between the first projected image and the second projected image in the superimposed region from the captured image.

本発明によれば、機械学習に基づいて、複数のプロジェクタの画素ずれを検出することが可能となる。 According to the present invention, it is possible to detect pixel shifts of a plurality of projectors based on machine learning.

本発明の第1の実施形態に係わる投影システムの構成を示す図。The figure which shows the structure of the projection system which concerns on 1st Embodiment of this invention. 第1の実施形態のプロジェクタと学習装置の関係を示すブロック図。The block diagram which shows the relationship between the projector and the learning apparatus of 1st Embodiment. ニューラルネットワークの概念図。Conceptual diagram of neural network. 学習装置の処理を説明するフローチャート。A flowchart illustrating the processing of the learning device. 第1の実施形態の教師データを説明するための概念図。The conceptual diagram for explaining the teacher data of 1st Embodiment. 画素ずれ方向を推測する教師データを示す図である。It is a figure which shows the teacher data which estimates the pixel shift direction. 画素ずれ量を推測するための教師データを示す図である。It is a figure which shows the teacher data for estimating the pixel shift amount. 画素ずれ推測部の処理を説明するためのフローチャート。The flowchart for demonstrating the processing of the pixel shift estimation part. 画素ずれの推測結果を説明するための概念図。The conceptual diagram for explaining the estimation result of a pixel shift. 第2の実施形態のプロジェクタと学習装置の関係を示すブロック図。The block diagram which shows the relationship between the projector and the learning apparatus of 2nd Embodiment. 第2の実施形態の教師データを説明するための概念図。The conceptual diagram for explaining the teacher data of the 2nd Embodiment. 第3の実施形態の教師データを説明するための概念図。The conceptual diagram for explaining the teacher data of the 3rd Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

(第1の実施形態)
図1は、本発明の第1の実施形態に係わる、複数のプロジェクタを含む投影システムの構成を示す図である。投影システム160は、プロジェクタ100a、プロジェクタ100b、スクリーン150、信号源152、及び学習装置154を備える。
(First Embodiment)
FIG. 1 is a diagram showing a configuration of a projection system including a plurality of projectors according to the first embodiment of the present invention. The projection system 160 includes a projector 100a, a projector 100b, a screen 150, a signal source 152, and a learning device 154.

プロジェクタ100aおよびプロジェクタ100bは、信号源152から入力された画像データに基づいて、スクリーンに投影画像を投影する投影装置である。プロジェクタ100a,100bは、学習装置154の学習結果に基づいて、それぞれの投影画像の画素ずれを検出する。プロジェクタ100aおよびプロジェクタ100bの機能の詳細は後述する。なお、プロジェクタ100aおよびプロジェクタ100bについてまとめて記述する場合は、プロジェクタ100と表記する。それぞれを個別に示す場合は、プロジェクタ100a、およびプロジェクタ100bと表記する。投影システム160は、プロジェクタ100aが投影する投影画像A、およびプロジェクタ100bが投影する投影画像Bをスクリーン上で重ねて投影するスタック投影システムである。 The projector 100a and the projector 100b are projection devices that project a projected image onto a screen based on image data input from the signal source 152. The projectors 100a and 100b detect the pixel shift of each projected image based on the learning result of the learning device 154. Details of the functions of the projector 100a and the projector 100b will be described later. When the projector 100a and the projector 100b are described together, it is referred to as the projector 100. When each is shown individually, it is referred to as a projector 100a and a projector 100b. The projection system 160 is a stack projection system in which the projection image A projected by the projector 100a and the projection image B projected by the projector 100b are superimposed and projected on the screen.

スクリーン150は、プロジェクタ100aおよびプロジェクタ100bによって画像を投影される投影面である。スクリーン150は、壁面であってもよいし、平面でなくともよい。 The screen 150 is a projection surface on which an image is projected by the projector 100a and the projector 100b. The screen 150 may be a wall surface or may not be a flat surface.

信号源152は、プロジェクタ100a、およびプロジェクタ100bに入力する画像データを出力する出力装置である。信号源152は、例えば、PCや映像分配器である。 The signal source 152 is an output device that outputs image data to be input to the projector 100a and the projector 100b. The signal source 152 is, for example, a PC or a video distributor.

なお、本実施形態では、複数のプロジェクタとして2台のプロジェクタ100a,100bを示しているが、3台以上のプロジェクタを用いてもよいことは言うまでもない。 In this embodiment, two projectors 100a and 100b are shown as a plurality of projectors, but it goes without saying that three or more projectors may be used.

図2は、プロジェクタ100と学習装置154の関係を示すブロック図である。 FIG. 2 is a block diagram showing the relationship between the projector 100 and the learning device 154.

学習装置154は、多数の教師データ10aが記憶された教師データ記憶部10、画素ずれ学習部11、学習済みモデル12を有する。画素ずれ学習部11は、教師データ10aに基づいて機械学習を行い、学習済モデル(学習モデル)12を生成する。 The learning device 154 has a teacher data storage unit 10, a pixel shift learning unit 11, and a learned model 12 in which a large number of teacher data 10a are stored. The pixel shift learning unit 11 performs machine learning based on the teacher data 10a and generates a learned model (learning model) 12.

プロジェクタ100は、入力された画像データ(画像信号)、もしくは内部に格納された画像データに基づいて画像をスクリーン150に投影するプロジェクタである。投影システム160は、すでに説明したように、複数台のプロジェクタ100を用いて画素を重ねて投影輝度を向上させて投影するように構成されている。プロジェクタ100は、学習装置154で生成した学習済モデル12を用いて、スクリーン150の投影面を撮影した画像から画素ずれを検出することができる。 The projector 100 is a projector that projects an image onto the screen 150 based on the input image data (image signal) or the image data stored inside. As described above, the projection system 160 is configured to use a plurality of projectors 100 to superimpose pixels to improve the projection brightness for projection. The projector 100 can detect pixel deviation from an image captured on the projection surface of the screen 150 by using the trained model 12 generated by the learning device 154.

学習装置154において、教師データ10aは、画素ずれ量と方向ごとに分類された画像と画素ずれ状態(ずれ種類、方向、ずれ量)を示す教師ラベル(以下ラベルと呼ぶ)を付加したデータから構成される。詳細は後述する。 In the learning device 154, the teacher data 10a is composed of images classified by pixel shift amount and direction, and data to which a teacher label (hereinafter referred to as a label) indicating a pixel shift state (shift type, direction, shift amount) is added. Will be done. Details will be described later.

画素ずれ学習部11は、教師データ10aを用いて機械学習の教師あり学習を行うことにより学習済モデル12を生成する。画素ずれ学習部11は、不図示のパーソナルコンピュータにGPU(Graphical Processing Unit)を内蔵した機器から構成される。また、画素ずれ学習部11は、不図示のLSI(Large-scale Integrated Circuit)、またはFPGA(Field Programmable Gate Array)から構成されていてもよい。 The pixel shift learning unit 11 generates a trained model 12 by performing supervised learning of machine learning using the teacher data 10a. The pixel shift learning unit 11 is composed of a device in which a GPU (Graphical Processing Unit) is built in a personal computer (not shown). Further, the pixel shift learning unit 11 may be composed of an LSI (Large-scale Integrated Circuit) (not shown) or an FPGA (Field Programmable Gate Array).

図3を用いてニューラルネットワーク50について説明する。ニューラルネットワーク50は神経細胞をモデル化した複数のニューロン51とニューロン間を接続する複数の信号52(結合重みづけ係数を持つ)から構成される。ニューラルネットワーク50の左の列のニューロンを入力層、一番右の列のニューロンを出力層、中間の列のニューロンを中間層と呼ぶ。画素ずれ学習部11は、入力層にデータを入力して中間層と出力層により演算を行いニューラルネットワーク50の出力を取得する。 The neural network 50 will be described with reference to FIG. The neural network 50 is composed of a plurality of neurons 51 that model nerve cells and a plurality of signals 52 (having a coupling weighting coefficient) that connect the neurons. The neurons in the left column of the neural network 50 are called the input layer, the neurons in the rightmost column are called the output layer, and the neurons in the middle column are called the intermediate layer. The pixel shift learning unit 11 inputs data to the input layer, performs calculations by the intermediate layer and the output layer, and acquires the output of the neural network 50.

画素ずれ学習部11は、不図示の誤差検出部と、更新部とを備えている。誤差検出部は、ニューラルネットワーク50の入力層に入力される教師データ10aに応じて出力層から出力される出力データと教師データ10aとの誤差を得る。更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワーク50のニューロン間(信号52)の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、ニューラルネットワーク50の信号52の結合重み付け係数等を調整する手法である。 The pixel shift learning unit 11 includes an error detection unit (not shown) and an update unit. The error detection unit obtains an error between the output data output from the output layer and the teacher data 10a according to the teacher data 10a input to the input layer of the neural network 50. Based on the error obtained by the error detection unit, the update unit updates the coupling weighting coefficient and the like between the neurons of the neural network 50 (signal 52) so that the error becomes small. This updating unit updates the coupling weighting coefficient and the like by using, for example, the backpropagation method. The error back propagation method is a method of adjusting the coupling weighting coefficient and the like of the signal 52 of the neural network 50 so that the above error becomes small.

画素ずれ学習部11は、このようにして、教師データ10aの特徴を学習して学習済モデル12を生成する。ここで、学習済モデル12はニューラルネットワーク50の結合重み付け係数と、ニューラルネットワーク50を用いて演算処理を行うプログラムとから構成される。 In this way, the pixel shift learning unit 11 learns the features of the teacher data 10a and generates the trained model 12. Here, the trained model 12 is composed of a coupling weighting coefficient of the neural network 50 and a program that performs arithmetic processing using the neural network 50.

なお、画素ずれ学習部11は、ニューラルネットワークに限らずSVM(Support Vector Machine)や決定木のアルゴリズムを利用してもよい。 The pixel shift learning unit 11 is not limited to the neural network, and may use an SVM (Support Vector Machine) or a decision tree algorithm.

続いて、図2のプロジェクタ100の構成について説明する。 Subsequently, the configuration of the projector 100 of FIG. 2 will be described.

プロジェクタ100は、撮像部20、画素ずれ推測部21、出力部22、画像入力部23、画像処理部24、メモリ25、光源26、パネル27、投影光学系28、CPU30、バス31を備える。 The projector 100 includes an image pickup unit 20, a pixel shift estimation unit 21, an output unit 22, an image input unit 23, an image processing unit 24, a memory 25, a light source 26, a panel 27, a projection optical system 28, a CPU 30, and a bus 31.

撮像部20は、スクリーン150の周辺を撮影可能であり、複数台のプロジェクタ100(本実施形態では、プロジェクタ100a,100b)によりスクリーン150に投影された画像を撮影して、撮像画像を生成する。撮像部20は、複数台のプロジェクタ100がスクリーン150に投影した複数の画像が互いに重なる領域(重畳領域)を含むスクリーン150の領域を撮像して撮像画像(重畳画像)を取得する。本実施形態では、プロジェクタ100aが投影した画像の全体とプロジェクタ100bが投影した画像の全体とが重なるように投影する。したがって、撮像部20は、プロジェクタ100a,100bがそれぞれ投影する画像を撮影する。撮像部20は撮影した画像を画素ずれ推測部21に出力する。 The imaging unit 20 can capture the periphery of the screen 150, and captures an image projected on the screen 150 by a plurality of projectors 100 (projectors 100a and 100b in this embodiment) to generate an captured image. The imaging unit 20 acquires an captured image (superimposed image) by imaging an area of the screen 150 including a region (superimposed region) in which a plurality of images projected on the screen 150 by a plurality of projectors 100 overlap each other. In the present embodiment, the entire image projected by the projector 100a and the entire image projected by the projector 100b are projected so as to overlap each other. Therefore, the imaging unit 20 captures the images projected by the projectors 100a and 100b, respectively. The imaging unit 20 outputs the captured image to the pixel shift estimation unit 21.

なお、撮像部20は、被写体の光学像を取得するレンズ、レンズを駆動するアクチュエータ、アクチュエータを制御するマイクロプロセッサ、レンズを介して取得した光学像を画像信号に変換する撮像素子、撮像素子により得られた画像信号をデジタル信号に変換するAD変換部などを備える。なお、撮像部20は、プロジェクタ100の外部装置(撮像装置)として設けられてもよい。その場合、プロジェクタ100は、撮像部20と接続する接続インターフェースを備え、接続インターフェースを介して撮像部20から撮像画像を取得する。 The image pickup unit 20 is obtained by a lens that acquires an optical image of a subject, an actuator that drives the lens, a microprocessor that controls the actuator, an image pickup element that converts an optical image acquired via the lens into an image signal, and an image pickup element. It is provided with an AD conversion unit or the like that converts the generated image signal into a digital signal. The image pickup unit 20 may be provided as an external device (imaging device) of the projector 100. In that case, the projector 100 includes a connection interface that connects to the image pickup unit 20, and acquires an captured image from the image pickup unit 20 via the connection interface.

画素ずれ推測部21では、撮像部20が生成した撮影画像を用いて、複数台のプロジェクタ100で投影した画像のそれぞれの画素ずれを推測する。画素ずれ推測部21は学習済モデル12を用いて画素ずれを推測する。 The pixel deviation estimation unit 21 estimates the pixel deviation of each of the images projected by the plurality of projectors 100 by using the captured image generated by the imaging unit 20. The pixel shift estimation unit 21 estimates the pixel shift using the trained model 12.

出力部22は、画素ずれ推測部21の画素ずれ推測結果を外部に通知する。例えば、外部のサーバーに不図示のネットワークを介して画素ずれ検出結果を送信することが出来る。メモリ25は、ワークメモリとして一時的に制御プログラムやデータを格納する。 The output unit 22 notifies the outside of the pixel deviation estimation result of the pixel deviation estimation unit 21. For example, the pixel shift detection result can be transmitted to an external server via a network (not shown). The memory 25 temporarily stores a control program and data as a work memory.

画像入力部23は、外部装置(図1の信号源152)から映像信号を受信する機能を有し、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)端子、SDI(Serial Digital Interface)端子、 DisplayPort(登録商標)(DP)端子等を含む。ここで、外部装置は映像信号を出力するパーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機等である。画像入力部23は、受信した映像信号を画像処理部24に送信する。 The image input unit 23 has a function of receiving a video signal from an external device (signal source 152 in FIG. 1), and is, for example, an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal or an SDI (Serial Digital Interface) terminal. , DisplayPort® (DP) terminal and the like. Here, the external device is a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, a game machine, or the like that outputs a video signal. The image input unit 23 transmits the received video signal to the image processing unit 24.

画像処理部24は、映像入力部23から受信した映像信号にフレーム数、画素数、画像形状などの変更処理を施して、パネル27に送信する機能を有し、例えば画像処理用のマイクロプロセッサからなる。なお、画像処理部24は、専用のマイクロプロセッサである必要はなく、例えば、メモリ25に記憶されたプログラムによって、CPU30が画像処理部24と同様の処理を実行してもよい。画像処理部24は、フレーム間引き処理、フレーム補間処理、解像度変換処理、メニュー等のOSD重畳処理、歪み補正処理(キーストン補正処理)、エッジブレンディング処理といった機能を実行することが可能である。また、画像処理部24は、映像入力部23から受信した映像信号以外にも、CPU30によって再生された画像や映像に対して前述の変更処理を施すこともできる。 The image processing unit 24 has a function of changing the number of frames, the number of pixels, the image shape, etc. of the video signal received from the video input unit 23 and transmitting it to the panel 27, for example, from a microprocessor for image processing. Become. The image processing unit 24 does not need to be a dedicated microprocessor. For example, the CPU 30 may execute the same processing as the image processing unit 24 by a program stored in the memory 25. The image processing unit 24 can execute functions such as frame thinning processing, frame interpolation processing, resolution conversion processing, OSD superimposition processing such as menus, distortion correction processing (keystone correction processing), and edge blending processing. In addition to the video signal received from the video input unit 23, the image processing unit 24 can also perform the above-mentioned change processing on the image or video reproduced by the CPU 30.

光源26は、パネル27に光を出力(照射)する光源である。光源26は、発光可能な部材であればよく、例えば、ハロゲンランプ、キセノンランプ、高圧水銀ランプ、LED(Light Emitting Diode)、レーザーなどである。 The light source 26 is a light source that outputs (irradiates) light to the panel 27. The light source 26 may be any member as long as it can emit light, and includes, for example, a halogen lamp, a xenon lamp, a high-pressure mercury lamp, an LED (Light Emitting Diet), and a laser.

パネル27は、光源26から照射された光を変調して画像(画像を表す光)を出力する変調パネルである。パネル27は、光源26から照射された光を、画像処理回路24から入力された画像データに基づく透過率(透過率分布)で透過させる。もしくは、パネル27は、光源26から照射された光を、画像処理回路24から入力された画像データに基づく反射率(反射率分布)で反射する。本実施形態では、パネル27が透過型の液晶パネルであるものとする。なお、パネル27は液晶パネルに限定されるものではない。 The panel 27 is a modulation panel that modulates the light emitted from the light source 26 and outputs an image (light representing an image). The panel 27 transmits the light emitted from the light source 26 with a transmittance (transmittance distribution) based on the image data input from the image processing circuit 24. Alternatively, the panel 27 reflects the light emitted from the light source 26 with a reflectance (reflectance distribution) based on the image data input from the image processing circuit 24. In this embodiment, it is assumed that the panel 27 is a transmissive liquid crystal panel. The panel 27 is not limited to the liquid crystal panel.

投影光学系28は、パネル27から出力された画像をスクリーン150に投影するための光学系である。投影光学系28は、複数のレンズ、レンズ駆動用のアクチュエータなどから構成されており、レンズをアクチュエータにより駆動することによって、投影画像の拡大/縮小、投影位置のシフト調整、投影光学系28の焦点調節などを行う。なお、投影画像は、パネル27から出力された画像の投影によってスクリーン上に表示された画像であり、投影位置は、パネル27から出力された画像が投影される、スクリーン150上の位置である。 The projection optical system 28 is an optical system for projecting the image output from the panel 27 onto the screen 150. The projection optical system 28 is composed of a plurality of lenses, an actuator for driving the lens, and the like. By driving the lens by the actuator, the projection image is enlarged / reduced, the projection position is shifted, and the focus of the projection optical system 28 is adjusted. Make adjustments. The projected image is an image displayed on the screen by projecting the image output from the panel 27, and the projection position is a position on the screen 150 on which the image output from the panel 27 is projected.

CPU30は、プロジェクタ100の動作を制御するためのプロセッサである。CPU30は、メモリ25から読み出したプログラムを実行して後述の制御(機能)を実行する。なお、CPU30は、複数のプロセッサで構成されてもよい。また、CPU30が実行する制御の一部もしくはすべてを、プログラムを用いずに電子回路で実行してもよい。 The CPU 30 is a processor for controlling the operation of the projector 100. The CPU 30 executes a program read from the memory 25 to execute the control (function) described later. The CPU 30 may be composed of a plurality of processors. Further, a part or all of the control executed by the CPU 30 may be executed by an electronic circuit without using a program.

図4は、学習装置154の処理を示すフローチャートである。本フローチャートは学習装置154が学習を開始した後に行う処理である。 FIG. 4 is a flowchart showing the processing of the learning device 154. This flowchart is a process performed after the learning device 154 starts learning.

S1では、ユーザーが画素ずれを学習させるために使用する教師データを準備する。教師データはあらかじめ画素ずれ量がわかっている画素ずれをしている画像を分類し、分類済の画像に画素ずれの状態を示すラベルを付与したものである。この作業はユーザーが手作業で行い、作成された教師データ10aを教師データ記憶部10に記憶する。 In S1, the teacher data used by the user to learn the pixel shift is prepared. The teacher data classifies images with pixel misalignment for which the amount of pixel misalignment is known in advance, and assigns a label indicating the state of pixel misalignment to the classified images. This work is manually performed by the user, and the created teacher data 10a is stored in the teacher data storage unit 10.

また、あらかじめ入力された画素ずれの大きさ、および方向で投影面上で重畳される投影画像を投影シミュレータを用いて作成し、作成された画像に対応する画素ずれの大きさ、および方向をラベルとして付与してもよい。 In addition, a projection image superimposed on the projection surface in the pre-input pixel shift size and direction is created using a projection simulator, and the pixel shift size and direction corresponding to the created image are labeled. May be given as.

ここで、図5を用いて学習に用いる教師データ10aについて説明する。図5(a)は、画素ずれを説明するための図である。図5(b)は、画素を水平、垂直、斜めにずらした画像とそのラベルを説明するための図である。また、図5(c)は、画素を水平方向に2、4、8画素ずらした画像とそのラベルを説明するための図である。 Here, the teacher data 10a used for learning will be described with reference to FIG. FIG. 5A is a diagram for explaining pixel deviation. FIG. 5B is a diagram for explaining an image in which the pixels are horizontally, vertically, and obliquely shifted, and a label thereof. Further, FIG. 5C is a diagram for explaining an image in which the pixels are shifted by 2, 4, or 8 pixels in the horizontal direction and a label thereof.

ここで、教師データ10aの画素ずれ画像は、あらかじめ2台の画像投影装置で同一の投影面に投影してずれ方向とずれ量を調整して画素ずれを発生させた後に、投影面を撮影して取得される。また、教師データ10aの画素ずれ画像は、1枚の画像を複製してずれ方向とずれ量に基づいて1枚に合成して生成することもできる。教師データ10aのラベルはこのときのずれ方向、ずれ量に基づいて生成する。 Here, the pixel shift image of the teacher data 10a is projected onto the same projection surface by two image projection devices in advance, the shift direction and the shift amount are adjusted to generate pixel shift, and then the projection surface is photographed. Is acquired. Further, the pixel shift image of the teacher data 10a can be generated by duplicating one image and synthesizing it into one image based on the shift direction and the shift amount. The label of the teacher data 10a is generated based on the deviation direction and the deviation amount at this time.

図5(a)を用いて、2台のプロジェクタ100でスクリーン上に画素が重なるように投影した際の画素ずれについて説明する。 FIG. 5A will be described with reference to the pixel shift when the two projectors 100 project the pixels so as to overlap each other on the screen.

スクリーン150上で、プロジェクタ100aが投影する投影画像の画素100は、プロジェクタ100bが投影する投影画像の対応する画素101と重ねて投影されるとする。 It is assumed that the pixel 100 of the projected image projected by the projector 100a is projected on the screen 150 so as to be superimposed on the corresponding pixel 101 of the projected image projected by the projector 100b.

しかし、プロジェクタ100の投影位置の経時的な変化などによって、投影画像の投影位置がずれる場合がある。この場合、画素100と画素101との投影位置が一致しない。 However, the projection position of the projected image may shift due to changes in the projection position of the projector 100 over time. In this case, the projection positions of the pixel 100 and the pixel 101 do not match.

図5(a)〜(d)は、それぞれ、画素100と画素101との投影位置の関係を示す模式図である。なお、スクリーン150上には画素100、101以外の画素も投影されていることは言うまでもない。 5 (a) to 5 (d) are schematic views showing the relationship between the projection positions of the pixel 100 and the pixel 101, respectively. Needless to say, pixels other than the pixels 100 and 101 are also projected on the screen 150.

図5(a)は、2台のプロジェクタ100a,100bでスクリーン150上に画素が重なるように投影した際に、プロジェクタ100aの画素100(白で塗りつぶされた円)とプロジェクタ100bの画素101(斜線の円)が重なっている状態(画素ずれなしの状態)を示す。 FIG. 5A shows the pixels 100 of the projector 100a (circles filled with white) and the pixels 101 of the projector 100b (diagonal lines) when the two projectors 100a and 100b project the pixels on the screen 150 so as to overlap each other. Indicates a state in which (circles) overlap (a state in which there is no pixel shift).

図5(b)は、画素100と画素101が垂直方向にずれている状態を示す。図5(c)は、画素100と画素101が水平方向にずれている状態を示す。図5(d)は、画素100と画素101が斜め方向にずれている状態を示す。 FIG. 5B shows a state in which the pixels 100 and the pixels 101 are vertically displaced. FIG. 5C shows a state in which the pixels 100 and the pixels 101 are displaced in the horizontal direction. FIG. 5D shows a state in which the pixels 100 and the pixels 101 are obliquely displaced.

また、画素ずれ量を基準に画素ずれを分類することも可能である。例えば、画素100と画素101が3画素ずれている状態を、「3画素ずれ」として分類する。また、画素ずれ方向と画素ずれ量を用いて画素ずれを分類することも可能である。例えば、水平方向に2画素ずれている状態を、「水平2画素ずれ」として分類する。 It is also possible to classify pixel deviations based on the amount of pixel deviations. For example, a state in which the pixel 100 and the pixel 101 are displaced by 3 pixels is classified as "3 pixel deviation". It is also possible to classify the pixel shift using the pixel shift direction and the pixel shift amount. For example, a state in which two pixels are displaced in the horizontal direction is classified as "horizontal two pixel deviation".

図6を用いて、画素ずれ方向(ずれなし、水平、垂直、斜め)を推測する教師データ10a(モデル画像)について説明する。 The teacher data 10a (model image) for estimating the pixel shift direction (no shift, horizontal, vertical, diagonal) will be described with reference to FIG.

図6(a)の画像200は、画素ずれをしていない画像を集めた複数の画像データである。「画素ずれなし」201は画像200のラベルである。以下同様にずれ方向ごとに、図6(b)の画像202は、水平方向にずれた画像を集めた複数の画像データである。「水平ずれ」203は画像202の画素ずれ方向を示すラベルである。図6(c)の画像204は、垂直方向にずれた画像を集めた複数の画像データである。「垂直ずれ」205は画像204の画素ずれ方向を示すラベルである。図6(d)の画像206は、斜め方向にずれた画像を集めた複数の画像データである。「斜めずれ」207は画像206の画素ずれ方向を示すラベルである。 The image 200 of FIG. 6A is a plurality of image data obtained by collecting images that are not pixel-shifted. “No pixel shift” 201 is the label of the image 200. Similarly, the image 202 of FIG. 6B is a plurality of image data obtained by collecting images displaced in the horizontal direction for each deviation direction. “Horizontal shift” 203 is a label indicating the pixel shift direction of the image 202. Image 204 of FIG. 6C is a plurality of image data obtained by collecting images displaced in the vertical direction. “Vertical shift” 205 is a label indicating the pixel shift direction of the image 204. Image 206 of FIG. 6D is a plurality of image data obtained by collecting images displaced in the oblique direction. “Diagonal deviation” 207 is a label indicating the pixel deviation direction of the image 206.

次に、図7を用いて、画素ずれ量を推測するための教師データ10aについて説明する。 Next, the teacher data 10a for estimating the amount of pixel shift will be described with reference to FIG. 7.

図7(a)の画像220は、画素ずれをしていない画像を集めた複数の画像データである。「画素ずれなし」221は画像220のラベルである。以下同様に、画素ずれ量ごとに画像データを分類する。図7(b)の画像222は2画素ずれした画像を集めた複数の画像データである。ここで、「2画素ずれ」とは、画素ずれなしの状態から2画素分位置がずれた場所に画素が移動した状態のことである。2画素以上のずれの場合も同様である。「2画素ずれ」223は、画像222の画素ずれ量を示すラベルである。図7(c)の画像224は、4画素ずれした画像を集めた複数の画像データである。「4画素ずれ」225は、画像224の画素ずれ量を示すラベルである。図7(d)の画像226は、6画素ずれした画像を集めた複数の画像データである。「6画素ずれ」227は、画像226の画素ずれ量を示すラベルである。 The image 220 of FIG. 7A is a plurality of image data obtained by collecting images that are not pixel-shifted. “No pixel shift” 221 is the label of the image 220. Similarly, the image data is classified according to the amount of pixel shift. The image 222 of FIG. 7B is a plurality of image data obtained by collecting images shifted by two pixels. Here, the "two pixel shift" is a state in which the pixel is moved to a place where the position is shifted by two pixels from the state where there is no pixel shift. The same applies to the case where the deviation is two or more pixels. “2 pixel shift” 223 is a label indicating the amount of pixel shift of the image 222. The image 224 of FIG. 7C is a plurality of image data obtained by collecting images shifted by 4 pixels. “4 pixel shift” 225 is a label indicating the amount of pixel shift of the image 224. The image 226 of FIG. 7D is a plurality of image data obtained by collecting images shifted by 6 pixels. “6 pixel shift” 227 is a label indicating the amount of pixel shift of the image 226.

図4のフローチャートに戻り、S2では、画素ずれ学習部11が教師データ10aを用いて学習を行う。画素ずれ学習部11は、学習処理を終えると学習済データ12を生成する。 Returning to the flowchart of FIG. 4, in S2, the pixel shift learning unit 11 performs learning using the teacher data 10a. The pixel shift learning unit 11 generates the learned data 12 when the learning process is completed.

S3では、画素ずれ学習部11が生成した学習済データ12を記憶部に記憶させて、プロジェクタ100の画素ずれ推測部21に学習済データ12を設定する。 In S3, the learned data 12 generated by the pixel shift learning unit 11 is stored in the storage unit, and the learned data 12 is set in the pixel shift estimation unit 21 of the projector 100.

図8のフローチャートを用いて、画素ずれ補正処理について説明する。ずれ補正処理は、プロジェクタ100がスタック投影で画像を投影している状態で実行される。ずれ補正処理は、あらかじめユーザーによってずれ補正機能を有効とする設定がされている場合に、繰り返し実行されるとする。ずれ補正処理は、プロジェクタ100a,100bの両方が実行してもよいし、いずれか一方が実行してもよい。本実施形態ではプロジェクタ100aのずれ補正機能が有効に設定され、プロジェクタ100bのずれ補正機能が無効と設定されているとする。すなわち、プロジェクタ100aが画素ずれ特性を検出し、検出された画素ずれ特性に応じて、プロジェクタ100aの投影画像の投影位置を補正する。なお、本フローチャートの処理を開始する前に、ユーザーにより学習済モデル12が画素ずれ推測部21に設定されているものとする。 The pixel shift correction process will be described with reference to the flowchart of FIG. The deviation correction process is executed in a state where the projector 100 is projecting an image by stack projection. It is assumed that the deviation correction process is repeatedly executed when the user has previously set to enable the deviation correction function. The deviation correction process may be executed by both the projectors 100a and 100b, or may be executed by either one. In the present embodiment, it is assumed that the deviation correction function of the projector 100a is set to be valid and the deviation correction function of the projector 100b is set to be invalid. That is, the projector 100a detects the pixel shift characteristic and corrects the projection position of the projected image of the projector 100a according to the detected pixel shift characteristic. Before starting the processing of this flowchart, it is assumed that the trained model 12 is set in the pixel shift estimation unit 21 by the user.

S100では、撮像部20がスクリーンに投影された画像を撮影して撮影画像を生成する。 In S100, the imaging unit 20 captures an image projected on the screen to generate a captured image.

S101では、画素ずれ推測部21が、S100で生成した撮影画像を用いてスタック投影の画素ずれが発生しているか否かを推測する。 In S101, the pixel shift estimation unit 21 estimates whether or not the pixel shift of the stack projection has occurred using the captured image generated in S100.

ここで、図9を用いて画素ずれ推測部21の推測結果について説明する。 Here, the estimation result of the pixel shift estimation unit 21 will be described with reference to FIG.

推測結果400は、画素ずれ推測部21の推測結果である。推測結果400はラベルとそのラベルに分類された分類確率の項目を持つ。ラベルは教師データ10aに与えられた画素ずれの状態を示すものである。CPU30は、推測結果400から最も高い分類確率を持つラベルを選択して、画素ずれを検出する。推測結果400の場合、CPU30は、分類確率が85%と最も高い「水平ずれ」を画素ずれ検出結果とする。 The estimation result 400 is an estimation result of the pixel shift estimation unit 21. The estimation result 400 has a label and an item of classification probability classified into the label. The label indicates the state of pixel shift given to the teacher data 10a. The CPU 30 selects the label having the highest classification probability from the estimation result 400 and detects the pixel shift. In the case of the estimation result 400, the CPU 30 sets the "horizontal deviation" having the highest classification probability of 85% as the pixel deviation detection result.

図8のフローチャートに戻り、S102では、CPU30が、推測結果400に基づき画素ずれを検出したか否かを判定する。推測結果400の最も高い確率のラベルが画素ずれを示していた場合は、CPU30は画素ずれありと判定し、S103に進む。また、推測結果400の最も高い確率のラベルが画素ずれなしを示していた場合は、CPU30は画素ずれなしと判定し、ステップS105に進む。 Returning to the flowchart of FIG. 8, in S102, it is determined whether or not the CPU 30 has detected the pixel shift based on the estimation result 400. If the label with the highest probability of the estimation result 400 indicates a pixel shift, the CPU 30 determines that there is a pixel shift and proceeds to S103. If the label with the highest probability of the estimation result 400 indicates that there is no pixel shift, the CPU 30 determines that there is no pixel shift, and proceeds to step S105.

S103では、CPU30が推測結果400に基づいて画素ずれ方向と画素ずれ量を推測する。 In S103, the CPU 30 estimates the pixel shift direction and the pixel shift amount based on the estimation result 400.

S104では、画素ずれ補正処理を行う。CPU30は、S103で求めた画素ずれ方向と画素ずれ量に基づき、投影光学系28の投影位置のシフト量の調整を行う。また、画像処理部24の歪み補正処理機能を用いて、画素ずれの補正を行うことも可能である。 In S104, pixel shift correction processing is performed. The CPU 30 adjusts the shift amount of the projection position of the projection optical system 28 based on the pixel shift direction and the pixel shift amount obtained in S103. It is also possible to correct pixel misalignment by using the distortion correction processing function of the image processing unit 24.

S105では、ユーザーが終了操作(図8のフローチャートを終了する操作)を行ったか否かをCPU30が判定する。終了操作が行われた場合は、図8のフローチャートが終了し、終了操作が行われなかった場合はS100に戻り処理を継続する。 In S105, the CPU 30 determines whether or not the user has performed an end operation (an operation to end the flowchart of FIG. 8). When the end operation is performed, the flowchart of FIG. 8 ends, and when the end operation is not performed, the process returns to S100 and the process is continued.

なお、第1の実施形態では、画素ずれを検出した場合、画素ずれを補正するように説明したが、画素ずれを検出したら補正をせずに出力部22がネットワークを介して外部サーバーに画素ずれ情報を出力するようにしてもよい。 In the first embodiment, when the pixel shift is detected, the pixel shift is corrected. However, when the pixel shift is detected, the output unit 22 sends the pixel shift to the external server via the network without correction. Information may be output.

また、上記の説明では、撮像部20、画素ずれ推測部21、出力部22からなる画素ずれを検出する機能部分をプロジェクタ100の内部に設けるように説明した。しかし、これらの画素ずれを検出する機能部分の全て又は一部が、プロジェクタ100の外部の制御装置に搭載されていてもよい。外部の制御装置としては、投影制御用に作成された制御装置、あるいはパーソナルコンピュータなどを用いることができる。 Further, in the above description, it has been described that a functional portion for detecting pixel deviation, which is composed of an imaging unit 20, a pixel deviation estimation unit 21, and an output unit 22, is provided inside the projector 100. However, all or part of the functional parts for detecting these pixel shifts may be mounted on an external control device of the projector 100. As the external control device, a control device created for projection control, a personal computer, or the like can be used.

なお、上記ではプロジェクタをスタック投影する説明をしたが、プロジェクタをマルチ投影して高解像度投影する際のエッジブレンディング部分の画素のずれを検出、補正することも可能である。 In the above description, the projectors are projected in a stack, but it is also possible to detect and correct the pixel deviation of the edge blending portion when the projectors are multi-projected and projected at high resolution.

以上説明したように、第1の実施形態によれば、複数のプロジェクタ100の投影画像を撮影した画像に基づいて、学習済モデルを用いて投影面上における画素ずれを検出することが出来る。また、検出した画素ずれから補正量を算出して画素ずれを補正することが出来る。 As described above, according to the first embodiment, the pixel shift on the projection surface can be detected by using the trained model based on the captured images of the projection images of the plurality of projectors 100. Further, the correction amount can be calculated from the detected pixel deviation to correct the pixel deviation.

(第2の実施形態)
以下、本発明の第2の実施形態について説明する。第1の実施形態では、複数のプロジェクタ100の投影画像を撮影した画像に基づいて、学習済モデルを用いて投影面上における画素ずれを検出し、補正する構成について説明した。しかし、この方法では、学習において教師データを大量に準備しなければならないことと、使用するニューラルネットワークの規模が大きくなることが問題となる。そこで、第2の実施形態では、第1の実施形態の画素ずれを推測するための教師データ10aに前処理をした後に学習する構成について説明する。第2の実施形態の画像投影システム160の構成は、図1に示した第1の実施形態の構成と同様であるため、重複する内容の説明は省略する。ただし、プロジェクタ100がプロジェクタ300に変更され、学習装置154が学習装置301に変更される。
(Second embodiment)
Hereinafter, a second embodiment of the present invention will be described. In the first embodiment, a configuration for detecting and correcting pixel deviation on a projection surface using a trained model based on images obtained by capturing projected images of a plurality of projectors 100 has been described. However, this method has problems that a large amount of teacher data must be prepared for learning and that the scale of the neural network used becomes large. Therefore, in the second embodiment, a configuration in which the teacher data 10a for estimating the pixel deviation of the first embodiment is preprocessed and then learned will be described. Since the configuration of the image projection system 160 of the second embodiment is the same as the configuration of the first embodiment shown in FIG. 1, the description of overlapping contents will be omitted. However, the projector 100 is changed to the projector 300, and the learning device 154 is changed to the learning device 301.

図10は、第2の実施形態におけるプロジェクタ300と学習装置301の関係を示すブロック図である。第1の実施形態との違いは、教師データ10aを学習させる前に前処理を加える点と、画素ずれを推測する前に投影面の撮影画像に前処理を加える点である。 FIG. 10 is a block diagram showing the relationship between the projector 300 and the learning device 301 in the second embodiment. The difference from the first embodiment is that preprocessing is applied before the teacher data 10a is trained, and preprocessing is applied to the captured image of the projection surface before estimating the pixel deviation.

学習装置301は、教師データ記憶部10、フーリエ変換部310、画素ずれ学習部11、学習済モデル311を有する。 The learning device 301 has a teacher data storage unit 10, a Fourier transform unit 310, a pixel shift learning unit 11, and a trained model 311.

フーリエ変換部310は、教師データ10aに対して2次元フーリエ変換を適用し、周波数スペクトル画像を生成して教師データを不図示の記憶部に保存する。ここで、一般的に2次元フーリエ変換で生成した周波数スペクトル画像は、中心付近に画像の高周波成分が含まれ、周波数スペクトル画像の四隅付近に低周波成分が含まれる。以下では、フーリエ変換部310が周波数スペクトル画像の中央に原点をとった座標平面を4つに区切ったときに、第1象限(右上)と第3象限(左下)、第2象限(左上)と第4象限(右下)を入れ替えた周波数スペクトル画像を生成するものとする。この入れ替えにより生成した周波数スペクトル画像は、中心付近に低周波成分が含まれ、中心から離れるにしたがって高周波成分が含まる。 The Fourier transform unit 310 applies a two-dimensional Fourier transform to the teacher data 10a, generates a frequency spectrum image, and stores the teacher data in a storage unit (not shown). Here, in general, a frequency spectrum image generated by a two-dimensional Fourier transform contains high-frequency components of the image near the center and low-frequency components near the four corners of the frequency spectrum image. In the following, when the Fourier transform unit 310 divides the coordinate plane having the origin at the center of the frequency spectrum image into four, the first quadrant (upper right), the third quadrant (lower left), and the second quadrant (upper left) are It is assumed that a frequency spectrum image in which the fourth quadrant (lower right) is exchanged is generated. The frequency spectrum image generated by this replacement contains a low frequency component near the center and a high frequency component as the distance from the center increases.

ここで、図11を用いて、学習に用いるフーリエ変換部310で変換した教師データについて説明する。図11の教師データは、ずれ方向(水平、垂直、斜め)を推測するためのデータである。 Here, the teacher data converted by the Fourier transform unit 310 used for learning will be described with reference to FIG. The teacher data in FIG. 11 is data for estimating the deviation direction (horizontal, vertical, diagonal).

図11(a)の画像500は画素ずれをしていない画像であり、「画素ずれなし」501のラベルを与えられる。同様に、図11(b)の画像502は水平ずれをしている画像であり、「水平ずれ」503のラベルが与えられる。同様に、図11(c)の画像504には、「垂直ずれ」505のラベルが与えられる。また、図11(d)の画像506には、「斜めずれ」507のラベルが与えられる。 The image 500 of FIG. 11A is an image without pixel shift, and is given the label of “no pixel shift” 501. Similarly, image 502 in FIG. 11B is a horizontally displaced image and is given the label “horizontal deviation” 503. Similarly, the image 504 of FIG. 11 (c) is given the label "vertical shift" 505. Further, the image 506 of FIG. 11D is given the label of "diagonal deviation" 507.

フーリエ変換部310は、教師データに含まれる画像をフーリエ変換して周波数スペクトル画像を生成する。図11(a)の画像500をフーリエ変換して図11(e)の周波数スペクトル画像510を生成する。同様に、図11(b)の画像502を図11(f)の周波数スペクトル画像512に、図11(c)の画像504を図11(g)の周波数スペクトル画像514に、図11(d)の画像506を図11(h)の周波数スペクトル画像516にそれぞれ変換して生成する。 The Fourier transform unit 310 Fourier transforms the image included in the teacher data to generate a frequency spectrum image. The image 500 of FIG. 11 (a) is Fourier transformed to generate the frequency spectrum image 510 of FIG. 11 (e). Similarly, the image 502 of FIG. 11 (b) is shown in the frequency spectrum image 512 of FIG. 11 (f), the image 504 of FIG. 11 (c) is shown in the frequency spectrum image 514 of FIG. 11 (g), and FIG. 11 (d). Image 506 is converted into the frequency spectrum image 516 of FIG. 11 (h) and generated.

そして、周波数スペクトル画像に変換する前の画像に与えられていたラベルと同じラベルを与える。周波数スペクトル画像510には、「画素ずれなし」511のラベルが与えられる。周波数スペクトル画像512には、「水平ずれ」512のラベルが与えられる。周波数スペクトル画像514には、「垂直ずれ」515のラベルが与えられる。さらに、周波数スペクトル画像516には、「斜めずれ」517のラベルが与えられる。 Then, the same label as that given to the image before conversion to the frequency spectrum image is given. The frequency spectrum image 510 is given the label "no pixel shift" 511. The frequency spectrum image 512 is labeled "horizontal shift" 512. The frequency spectrum image 514 is given the label "vertical deviation" 515. Further, the frequency spectrum image 516 is given the label "diagonal deviation" 517.

図10に戻り、学習済モデル311は、画素ずれ学習部11が周波数スペクトル画像に変換された教師データを用いて学習することにより生成された学習済モデルである。 Returning to FIG. 10, the trained model 311 is a trained model generated by the pixel shift learning unit 11 learning using the teacher data converted into the frequency spectrum image.

プロジェクタ302は、撮像部20、フーリエ変換部320、画素ずれ推測部21、出力部22、画像入力部23、画像処理部24、メモリ25、光源26、パネル27、投影光学系28、CPU30、バス31を有する。 The projector 302 includes an imaging unit 20, a Fourier transform unit 320, a pixel shift estimation unit 21, an output unit 22, an image input unit 23, an image processing unit 24, a memory 25, a light source 26, a panel 27, a projection optical system 28, a CPU 30, and a bus. Has 31.

フーリエ変換部320は、撮像部20からスクリーンの投影像を撮影した画像を取得した後に、2次元フーリエ変換処理により周波数スペクトル画像を生成して画素ずれ推測部21に出力する。ここで、周波数スペクトル画像はフーリエ変換部310と同様に周波数スペクトル画像の中央に原点をとった座標平面を4つに区切った時に第1象限(右上)と第3象限(左下)、第2象限(左上)と第4象限(右下)を入れ替えたものを用いる。 The Fourier transform unit 320 acquires an image obtained by capturing a projected image of the screen from the imaging unit 20, then generates a frequency spectrum image by a two-dimensional Fourier transform process and outputs the frequency spectrum image to the pixel shift estimation unit 21. Here, the frequency spectrum image has the first quadrant (upper right), the third quadrant (lower left), and the second quadrant when the coordinate plane having the origin at the center of the frequency spectrum image is divided into four like the Fourier transform unit 310. Use the one in which (upper left) and the fourth quadrant (lower right) are exchanged.

以上説明したように、第2の実施形態によれば、限られた教師データ量とニューラルネットワーク規模で、複数のプロジェクタ100の投影像を撮影した画像について、学習済モデルを用いて画素ずれを検出し、補正することが出来る。 As described above, according to the second embodiment, pixel misalignment is detected by using a trained model for images obtained by capturing projection images of a plurality of projectors 100 with a limited amount of teacher data and a neural network scale. And can be corrected.

(第3の実施形態)
以下、本発明の第3の実施形態について説明する。第1および第2の実施形態では、複数のプロジェクタ100(300)の投影像を撮影した画像について、画素ずれを推測する学習済モデルを用いて画素ずれを検出し、補正する構成について説明した。しかし、実際には画素ずれを検出しにくい画像が存在するという問題もある。例えば、低周波成分が多い画像などは画素ずれが検出しにくい。そこで、第3の実施形態では、画素ずれを検出しない画像を集めて、画素ずれを検出しないラベルを与える構成について説明する。第3の実施形態の画像投影システム160の構成は、図1に示した第1の実施形態の構成と同様であるため、重複する内容の説明は省略する。第3の実施形態は第1の実施形態と教師データだけが異なる。
(Third Embodiment)
Hereinafter, a third embodiment of the present invention will be described. In the first and second embodiments, a configuration has been described in which pixel deviations are detected and corrected by using a learned model for estimating pixel deviations in images obtained by capturing projected images of a plurality of projectors 100 (300). However, there is also a problem that there is actually an image in which pixel deviation is difficult to detect. For example, it is difficult to detect pixel shift in an image having many low frequency components. Therefore, in the third embodiment, a configuration will be described in which images that do not detect pixel deviation are collected and a label that does not detect pixel deviation is given. Since the configuration of the image projection system 160 of the third embodiment is the same as the configuration of the first embodiment shown in FIG. 1, the description of overlapping contents will be omitted. The third embodiment differs from the first embodiment only in the teacher data.

図12を用いて第3の実施形態の教師データについて説明する。 The teacher data of the third embodiment will be described with reference to FIG.

図12(a)〜(d)の画像200、画像202、画204、画像206は、第1の実施形態と同様であるため説明を省略する。また、それらの画像のラベルである「画素ずれなし」201、「水平ずれ」203、「垂直ずれ」205、「斜めずれ」207も第1の実施形態と同様である。 The images 200, 202, 204, and 206 of FIGS. 12A to 12D are the same as those of the first embodiment, and thus the description thereof will be omitted. Further, the labels of those images, "no pixel shift" 201, "horizontal shift" 203, "vertical shift" 205, and "diagonal shift" 207, are the same as those in the first embodiment.

図12(e)の画像600は、例えば、テストパターンなど画素ずれの検出率が低い画像データを集めたものである。「検出しない」601は画像600に与えられるラベルである。 The image 600 of FIG. 12E is a collection of image data having a low detection rate of pixel shift, such as a test pattern. "Not detected" 601 is a label given to image 600.

画素ずれ学習部11は、第3の実施形態の図12の教師データを用いて学習を行い、学習済モデルを生成する。そして、図8のプロジェクタ100のフローチャートに従って画素ずれを推測する処理を行い、画素ずれしにくい画像では画素ずれを判別しないようにする。これにより、画素ずれの検出率を向上させることが出来る。 The pixel shift learning unit 11 performs learning using the teacher data of FIG. 12 of the third embodiment, and generates a trained model. Then, a process of estimating the pixel deviation is performed according to the flowchart of the projector 100 of FIG. 8, so that the pixel deviation is not discriminated in the image in which the pixel deviation is difficult to occur. Thereby, the detection rate of pixel shift can be improved.

以上説明したように、第3の実施形態では、複数のプロジェクタ100の投影像を撮影した画像について、学習済モデルを用いて画素ずれを検出する場合の検出精度を向上させることが可能となる。 As described above, in the third embodiment, it is possible to improve the detection accuracy when detecting the pixel shift using the trained model for the images obtained by capturing the projected images of the plurality of projectors 100.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

10:教師データ、11:画素ずれ学習部、12:学習済モデル、20:撮像部、21:画素ずれ推測部、22:出力部、23:画像入力部、24:画像処理部、25:メモリ、26:光源、27:パネル、28:投影光学系、100:プロジェクタ、150:スクリーン、152:信号源、154:学習装置 10: Teacher data, 11: Pixel shift learning unit, 12: Trained model, 20: Imaging unit, 21: Pixel deviation estimation unit, 22: Output unit, 23: Image input unit, 24: Image processing unit, 25: Memory , 26: Light source, 27: Panel, 28: Projection optics, 100: Projector, 150: Screen, 152: Signal source, 154: Learning device

Claims (19)

第1プロジェクタが投影する第1投影画像と、第2プロジェクタが投影する第2投影画像とが重なる重畳領域を含む領域を撮像した撮像画像を取得する取得手段と、
複数のプロジェクタが投影する複数の投影画像が互いに重なる領域を示すモデル画像を前記領域における前記複数の投影画像の画素のずれに基づいて分類した教師データを用いて生成された学習モデルを用いて、前記撮像画像から、前記重畳領域における前記第1投影画像と前記第2投影画像との画素ずれの大きさと方向とを推測する推測手段と、
を備えることを特徴とする装置。
An acquisition means for acquiring an image captured by capturing a region including a superposed region in which the first projected image projected by the first projector and the second projected image projected by the second projector overlap.
Using a learning model generated using teacher data, which classifies model images showing a region where a plurality of projected images projected by a plurality of projectors overlap each other based on pixel deviations of the plurality of projected images in the region, An estimation means for estimating the magnitude and direction of pixel deviation between the first projected image and the second projected image in the superimposed region from the captured image.
A device characterized by comprising.
前記教師データは、前記モデル画像に、画素のずれの大きさおよび方向を示すラベルを付すことにより生成されることを特徴とする請求項1に記載の装置。 The apparatus according to claim 1, wherein the teacher data is generated by attaching a label indicating the magnitude and direction of pixel deviation to the model image. 前記教師データは、前記モデル画像に対して2次元フーリエ変換を適用した周波数スペクトル画像に、対応する画素のずれの大きさおよび方向を示すラベルを付すことにより生成されることを特徴とする請求項1に記載の装置。 The claim data is characterized in that the teacher data is generated by attaching a label indicating the magnitude and direction of the deviation of the corresponding pixel to the frequency spectrum image obtained by applying the two-dimensional Fourier transform to the model image. The device according to 1. 前記推測手段は、前記撮像画像に2次元フーリエ変換を適用した周波数スペクトル画像を前記学習モデルに入力することにより、前記画素ずれの大きさと方向とを推測することを特徴とする請求項3に記載の装置。 The third aspect of the invention is characterized in that the estimation means estimates the magnitude and direction of the pixel shift by inputting a frequency spectrum image obtained by applying a two-dimensional Fourier transform to the captured image into the learning model. Equipment. 前記推測手段により推測された画素ずれのずれ量とずれの方向に基づいて、前記第1プロジェクタが前記第1投影画像を投影する位置および前記第2プロジェクタが前記第2投影画像を投影する位置の少なくとも一方を補正する補正手段をさらに備えることを特徴とする請求項1乃至4のいずれか1項に記載の装置。 The position where the first projector projects the first projected image and the position where the second projector projects the second projected image based on the amount of pixel shift estimated by the guessing means and the direction of the shift. The apparatus according to any one of claims 1 to 4, further comprising a correction means for correcting at least one of them. 前記第1投影画像および前記第2投影画像の重畳領域を含む領域を撮像する撮像装置と接続する接続手段をさらに備えることを特徴とする請求項1乃至5のいずれか1項に記載の装置。 The device according to any one of claims 1 to 5, further comprising a connecting means for connecting to an image pickup device that images a region including a first projected image and a superposed region of the second projected image. 前記推測手段の推測の結果を外部に出力する出力手段をさらに備えることを特徴とする請求項1乃至6のいずれか1項に記載の装置。 The apparatus according to any one of claims 1 to 6, further comprising an output means for outputting the estimation result of the guessing means to the outside. 請求項1乃至7のいずれか1項に記載の装置と、
画像を投影する投影手段と、
を備えることを特徴とする投影装置。
The device according to any one of claims 1 to 7.
Projection means for projecting images and
A projection device characterized by comprising.
複数の投影画像を重ねて得られる重畳画像を、当該重畳画像における前記複数の投影画像の位置のずれを用いて分類した教師データを用いて、学習モデルを生成する学習手段を備え、
前記学習モデルは、第1プロジェクタが投影面に投影した第1投影画像と第2プロジェクタが前記投影面に投影した第2投影画像とが前記投影面において重なる重畳領域を撮像した撮像画像を入力した場合に、前記重畳領域における前記第1投影画像と前記第2投影画像との位置のずれを推測することを特徴とする装置。
A learning means for generating a learning model by using teacher data obtained by classifying a superposed image obtained by superimposing a plurality of projected images using the displacement of the positions of the plurality of projected images in the superposed image is provided.
In the learning model, an image captured by capturing an superimposed region in which the first projected image projected on the projection surface by the first projector and the second projected image projected on the projection surface by the second projector overlap on the projection surface is input. In this case, the apparatus is characterized by estimating the positional deviation between the first projected image and the second projected image in the superimposed region.
第1プロジェクタが投影する第1投影画像と、第2プロジェクタが投影する第2投影画像とが重なる重畳領域を含む領域を撮像した撮像画像を取得する取得工程と、
複数のプロジェクタが投影する複数の投影画像が互いに重なる領域を示すモデル画像を前記領域における前記複数の投影画像の画素のずれに基づいて分類した教師データを用いて生成された学習モデルを用いて、前記撮像画像から、前記重畳領域における前記第1投影画像と前記第2投影画像との画素ずれの大きさと方向とを推測する推測工程と、
を有することを特徴とする方法。
An acquisition step of acquiring an image captured by capturing a region including a superposed region in which the first projected image projected by the first projector and the second projected image projected by the second projector overlap.
Using a learning model generated using teacher data, which classifies model images showing a region where a plurality of projected images projected by a plurality of projectors overlap each other based on pixel deviations of the plurality of projected images in the region, a learning model is used. An estimation step of estimating the magnitude and direction of pixel deviation between the first projected image and the second projected image in the superimposed region from the captured image.
A method characterized by having.
前記教師データは、前記モデル画像に、画素のずれの大きさおよび方向を示すラベルを付すことにより生成されることを特徴とする請求項10に記載の方法。 The method according to claim 10, wherein the teacher data is generated by attaching a label indicating the magnitude and direction of pixel deviation to the model image. 前記教師データは、前記モデル画像に対して2次元フーリエ変換を適用した周波数スペクトル画像に、対応する画素のずれの大きさおよび方向を示すラベルを付すことにより生成されることを特徴とする請求項10に記載の方法。 The claim data is characterized in that the teacher data is generated by attaching a label indicating the magnitude and direction of the deviation of the corresponding pixel to the frequency spectrum image obtained by applying the two-dimensional Fourier transform to the model image. 10. The method according to 10. 前記推測工程では、前記撮像画像に2次元フーリエ変換を適用した周波数スペクトル画像を前記学習モデルに入力することにより、前記画素ずれの大きさと方向とを推測することを特徴とする請求項12に記載の方法。 12. The estimation step according to claim 12, wherein a frequency spectrum image obtained by applying a two-dimensional Fourier transform to the captured image is input to the learning model to estimate the magnitude and direction of the pixel shift. the method of. 前記推測工程において推測された画素ずれのずれ量とずれの方向に基づいて、前記第1プロジェクタが前記第1投影画像を投影する位置および前記第2プロジェクタが前記第2投影画像を投影する位置の少なくとも一方を補正する補正工程をさらに有することを特徴とする請求項10乃至13のいずれか1項に記載の方法。 A position where the first projector projects the first projected image and a position where the second projector projects the second projected image based on the amount of the pixel shift estimated in the estimation step and the direction of the shift. The method according to any one of claims 10 to 13, further comprising a correction step for correcting at least one of them. 前記第1投影画像および前記第2投影画像の重畳領域を含む領域を撮像する撮像装置と接続する接続工程をさらに有することを特徴とする請求項10乃至14のいずれか1項に記載の方法。 The method according to any one of claims 10 to 14, further comprising a connection step of connecting to an image pickup apparatus that images a region including a superimposed region of the first projected image and the second projected image. 前記推測工程でのの推測の結果を外部に出力する出力工程をさらに有することを特徴とする請求項10乃至15のいずれか1項に記載の方法。 The method according to any one of claims 10 to 15, further comprising an output step of outputting the result of the guess in the guess step to the outside. 複数の投影画像を重ねて得られる重畳画像を、当該重畳画像における前記複数の投影画像の位置のずれを用いて分類した教師データを用いて、学習モデルを生成する学習工程を有し、
前記学習モデルは、第1プロジェクタが投影面に投影した第1投影画像と第2プロジェクタが前記投影面に投影した第2投影画像とが前記投影面において重なる重畳領域を撮像した撮像画像を入力した場合に、前記重畳領域における前記第1投影画像と前記第2投影画像との位置のずれを推測することを特徴とする方法。
It has a learning step of generating a learning model by using teacher data in which a superposed image obtained by superimposing a plurality of projected images is classified by using the displacement of the positions of the plurality of projected images in the superposed image.
In the learning model, an image captured by capturing an superimposed region in which the first projected image projected on the projection surface by the first projector and the second projected image projected on the projection surface by the second projector overlap on the projection surface is input. In this case, a method characterized by estimating the positional deviation between the first projected image and the second projected image in the superimposed region.
コンピュータを、請求項1乃至7のいずれか1項に記載の装置の各手段として機能させるためのプログラム。 A program for operating a computer as each means of the device according to any one of claims 1 to 7. コンピュータを、請求項1乃至7のいずれか1項に記載の装置の各手段として機能させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores a program for causing the computer to function as each means of the apparatus according to any one of claims 1 to 7.
JP2019184080A 2019-10-04 2019-10-04 Device, method, program, and storage medium Pending JP2021061513A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019184080A JP2021061513A (en) 2019-10-04 2019-10-04 Device, method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019184080A JP2021061513A (en) 2019-10-04 2019-10-04 Device, method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2021061513A true JP2021061513A (en) 2021-04-15

Family

ID=75380629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019184080A Pending JP2021061513A (en) 2019-10-04 2019-10-04 Device, method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2021061513A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115002427A (en) * 2022-04-28 2022-09-02 江苏通纺互联科技有限公司 Projection fusion method based on neural network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115002427A (en) * 2022-04-28 2022-09-02 江苏通纺互联科技有限公司 Projection fusion method based on neural network

Similar Documents

Publication Publication Date Title
US9122138B2 (en) Projector, image display system, and projector control method
JP3925521B2 (en) Keystone correction using part of the screen edge
JP5604909B2 (en) Correction information calculation apparatus, image processing apparatus, image display system, and image correction method
JP4232042B2 (en) Projection control system, projector, program, information storage medium, and projection control method
US8711213B2 (en) Correction information calculating device, image processing apparatus, image display system, and image correcting method
JP2004312690A (en) Image processing system, projector, program, information storage medium and image processing method
WO2006025191A1 (en) Geometrical correcting method for multiprojection system
TW200425736A (en) Image processing system, projector and image processing method
WO2005002240A1 (en) Method for calculating display characteristic correction data, program for calculating display characteristic correction data, and device for calculating display characteristic correction data
JP2006121240A (en) Image projection method, projector, and computer program
JP2010026870A (en) Image processing apparatus, image display apparatus and image data generating method
JP2015060012A (en) Image processing system, image processing device, image processing method and image processing program as well as display system
JP2019078786A (en) Image projection system, projector, and control method of image projection system
CN110992244B (en) Picture generation method, system, device and storage medium with mole pattern
US9264680B2 (en) Apparatus, method and computer-readable recording medium for improving visibility of an image projected on a screen
US9241141B1 (en) Projection block extraction
JP2007158398A (en) Shift amount detector and multiprojection device
JP5205865B2 (en) Projection image shape distortion correction support system, projection image shape distortion correction support method, projector, and program
JP2018125819A (en) Control device, control method, program, and storage medium
JP2021061513A (en) Device, method, program, and storage medium
JP2000081593A (en) Projection type display device and video system using the same
CN113994662A (en) Information processing apparatus, information processing method, program, projection apparatus, and information processing system
JP5250980B2 (en) Projector and image correction method for the projector
KR100917615B1 (en) Method and apparatus for detecting location of laser beam with minimized error using mono-camera
CN114125411B (en) Projection device correction method, projection device correction device, storage medium and projection device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113