JP2018042230A - Image projection system, program, and image projection method - Google Patents

Image projection system, program, and image projection method Download PDF

Info

Publication number
JP2018042230A
JP2018042230A JP2017016707A JP2017016707A JP2018042230A JP 2018042230 A JP2018042230 A JP 2018042230A JP 2017016707 A JP2017016707 A JP 2017016707A JP 2017016707 A JP2017016707 A JP 2017016707A JP 2018042230 A JP2018042230 A JP 2018042230A
Authority
JP
Japan
Prior art keywords
image
projection
visible light
input panel
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017016707A
Other languages
Japanese (ja)
Inventor
香織 藤波
Kaori Fujinami
香織 藤波
真美 小坂
Masami Kosaka
真美 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Agriculture and Technology NUC
Original Assignee
Tokyo University of Agriculture and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Agriculture and Technology NUC filed Critical Tokyo University of Agriculture and Technology NUC
Publication of JP2018042230A publication Critical patent/JP2018042230A/en
Pending legal-status Critical Current

Links

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image projection system and the like, capable of acquiring a color or pattern of a contact surface of an object that comes into contact with an input panel.SOLUTION: An image projection system comprises: an input panel for making infrared light from a light source be transmitted inside; a projection screen arranged so as to be superposed on the back surface side of the input panel; an infrared camera for imaging scattered light generated by an object coming into contact with a front surface of the input panel, from the back surface side; a projector for projecting an image on the projection screen from the back surface side; a visible light camera for imaging the input panel from the back surface side; and a processing unit. The processing unit creates an original image for projection; binarizes an infrared image imaged by the infrared camera to generate a mask image; combines the original image with the mask image to generate a composite image; transmits the composite image to the projector to make the projector project the composite image; combines a visible light image imaged by the visible light camera with the mask image to generate a contact surface image obtained by extracting an image of an area corresponding to a contact portion; and generates a new original image on the basis of the contact surface image.SELECTED DRAWING: Figure 1

Description

本発明は、画像投影システム、プログラム及び画像投影方法に関する。   The present invention relates to an image projection system, a program, and an image projection method.

非特許文献1には、任意の物体を入力に用いるデジタルペイントシステムが開示されている。このシステムは、FTIRを応用した物体接触形状取得機能と背面透過型プロジェクタを用いた出力機能を備えている。   Non-Patent Document 1 discloses a digital paint system that uses an arbitrary object for input. This system has an object contact shape acquisition function using FTIR and an output function using a rear transmission projector.

小坂真美、藤波香織、「任意物体を用いたデジタルペイントシステムUnicrePaintにおける入出力パネルの改良とユーザ評価」、情報処理学会インタラクション2016、2016年3月4日、p.1016−1021Mami Kosaka and Kaori Fujinami, “Improvement and User Evaluation of Input / Output Panel in Digital Paint System UnipaintPaint Using Arbitrary Objects”, Information Processing Society of Japan Interaction 2016, March 4, 2016, p. 1016-1021

非特許文献1に開示されたデジタルペイントシステムでは、入力パネル(投影面)に置かれた物体の接触形状を取得できるものの、当該物体の接触面の色や模様を取得することはできなかった。   In the digital paint system disclosed in Non-Patent Document 1, although the contact shape of an object placed on the input panel (projection surface) can be acquired, the color and pattern of the contact surface of the object cannot be acquired.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、入力パネルに接触した物体の接触面の色や模様を取得することが可能な画像投影システム等を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image projection system and the like that can acquire the color and pattern of the contact surface of an object that has contacted the input panel. It is to provide.

(1)本発明は、光源からの赤外光を内部に導波させる入力パネルと、前記入力パネルの背面側に重ねて配置された投影スクリーンと、前記入力パネルの表面に接触した物体により生じた散乱光を背面側から撮像する赤外線カメラと、前記投影スクリーンに画像を背面側から投影するプロジェクタと、前記入力パネルを背面側から撮像する可視光カメラと、処理部と、を備えた画像投影システムであって、前記処理部は、投影用の元画像を生成する元画像生成部と、前記赤外線カメラで撮像された赤外線画像を2値化してマスク画像を生成するマスク画像生成部と、前記元画像と前記マスク画像とを合成して合成画像を生成する合成画像生成部と、前記合成画像を前記プロジェクタに送信して投影させる投影制御部と、前記合成画像の投影完了後に前記可視光カメラに撮像を行わせる撮像制御部と、前記可視光カメラで撮像された可視光画像と前記マスク画像とを合成して、前記可視光画像から前記物体と前記入力パネルとの接触部分に対応する領域の画像を抽出した接触面画像を生成する接触面画像生成部と、を含み、前記元画像生成部は、前記接触面画像に基づいて前記元画像を生成し、前記合成画像生成部は、前記合成画像を投影した場合に前記接触部分が前記可視光カメラから見て単色になるような前記合成画像を生成する、画像投影システムに関する。   (1) The present invention is caused by an input panel that guides infrared light from a light source therein, a projection screen that is placed on the back side of the input panel, and an object that is in contact with the surface of the input panel. Image projector comprising: an infrared camera that captures the scattered light from the back side; a projector that projects an image onto the projection screen from the back side; a visible light camera that captures the input panel from the back side; and a processing unit. In the system, the processing unit includes: an original image generation unit that generates an original image for projection; a mask image generation unit that generates a mask image by binarizing an infrared image captured by the infrared camera; A composite image generation unit that generates a composite image by combining the original image and the mask image, a projection control unit that transmits the composite image to the projector for projection, and a projection completion of the composite image An imaging control unit that causes the visible light camera to perform imaging later, and a visible light image captured by the visible light camera and the mask image are combined to contact the object and the input panel from the visible light image. A contact surface image generation unit that generates a contact surface image obtained by extracting an image of an area corresponding to a part, wherein the original image generation unit generates the original image based on the contact surface image, and generates the composite image. The generation unit relates to an image projection system that generates the composite image so that the contact portion becomes monochromatic when viewed from the visible light camera when the composite image is projected.

また、本発明は、光源からの赤外光を内部に導波させる入力パネルと、前記入力パネルの背面側に重ねて配置された投影スクリーンと、前記入力パネルの表面に接触した物体により生じた散乱光を背面側から撮像する赤外線カメラと、前記投影スクリーンに画像を背面側から投影するプロジェクタと、前記入力パネルを背面側から撮像する可視光カメラと、を備えた画像投影システムのためのプログラムであって、投影用の元画像を生成する元画像生成部と、前記赤外線カメラで撮像された赤外線画像を2値化してマスク画像を生成
するマスク画像生成部と、前記元画像と前記マスク画像とを合成して合成画像を生成する合成画像生成部と、前記合成画像を前記プロジェクタに送信して投影させる投影制御部と、前記合成画像の投影完了後に前記可視光カメラに撮像を行わせる撮像制御部と、前記可視光カメラで撮像された可視光画像と前記マスク画像とを合成して、前記可視光画像から前記物体と前記入力パネルとの接触部分に対応する領域の画像を抽出した接触面画像を生成する接触面画像生成部としてコンピュータを機能させ、前記元画像生成部は、前記接触面画像に基づいて前記元画像を生成し、前記合成画像生成部は、前記合成画像を投影した場合に前記接触部分が前記可視光カメラから見て単色になるような前記合成画像を生成する、プログラムに関する。また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記プログラムを記憶した情報記憶媒体に関係する。
Further, the present invention is caused by an input panel that guides infrared light from a light source to the inside, a projection screen that is placed on the back side of the input panel, and an object that is in contact with the surface of the input panel. A program for an image projection system, comprising: an infrared camera that captures scattered light from the back side; a projector that projects an image on the projection screen from the back side; and a visible light camera that captures the input panel from the back side An original image generation unit that generates an original image for projection, a mask image generation unit that generates a mask image by binarizing an infrared image captured by the infrared camera, the original image, and the mask image A combined image generating unit that generates a combined image, a projection control unit that transmits the combined image to the projector for projection, and after completion of the projection of the combined image An imaging control unit that causes the visible light camera to perform imaging, a visible light image captured by the visible light camera, and the mask image, and a contact portion between the object and the input panel from the visible light image The computer functions as a contact surface image generation unit that generates a contact surface image obtained by extracting an image corresponding to the region, and the original image generation unit generates the original image based on the contact surface image, and the combined image The generation unit relates to a program for generating the composite image so that the contact portion becomes monochromatic when viewed from the visible light camera when the composite image is projected. The present invention also relates to a computer-readable information storage medium that stores the program.

また、本発明は、光源からの赤外光を内部に導波させる入力パネルと、前記入力パネルの背面側に重ねて配置された投影スクリーンと、前記入力パネルの表面に接触した物体により生じた散乱光を背面側から撮像する赤外線カメラと、前記投影スクリーンに画像を背面側から投影するプロジェクタと、前記入力パネルを背面側から撮像する可視光カメラと、を備えた画像投影システムで実行される画像投影方法であって、投影用の元画像を生成する元画像生成ステップと、前記赤外線カメラで撮像された赤外線画像を2値化してマスク画像を生成するマスク画像生成ステップと、前記元画像と前記マスク画像とを合成して合成画像を生成する合成画像生成ステップと、前記合成画像を前記プロジェクタに送信して投影させる投影制御ステップと、前記合成画像の投影完了後に前記可視光カメラに撮像を行わせる撮像制御ステップと、前記可視光カメラで撮像された可視光画像と前記マスク画像とを合成して、前記可視光画像から前記物体と前記入力パネルとの接触部分に対応する領域の画像を抽出した接触面画像を生成する接触面画像生成ステップと、を含み、前記元画像生成ステップでは、前記接触面画像に基づいて前記元画像を生成し、前記合成画像生成ステップでは、前記合成画像を投影した場合に前記接触部分が前記可視光カメラから見て単色になるような前記合成画像を生成する、画像投影方法に関する。   Further, the present invention is caused by an input panel that guides infrared light from a light source to the inside, a projection screen that is placed on the back side of the input panel, and an object that is in contact with the surface of the input panel. The image projection system includes an infrared camera that captures scattered light from the back side, a projector that projects an image on the projection screen from the back side, and a visible light camera that captures the input panel from the back side. An image projecting method, an original image generating step for generating an original image for projection, a mask image generating step for generating a mask image by binarizing an infrared image captured by the infrared camera, and the original image A composite image generating step of generating a composite image by combining the mask image, and a projection control step of transmitting the composite image to the projector for projection An imaging control step for causing the visible light camera to capture an image after the projection of the composite image is completed; and a visible light image captured by the visible light camera and the mask image are combined, and the object is obtained from the visible light image. And a contact surface image generating step for generating a contact surface image obtained by extracting an image of a region corresponding to a contact portion between the input image and the input panel. In the original image generating step, the original image is based on the contact surface image. And the composite image generation step generates the composite image so that the contact portion becomes monochromatic when viewed from the visible light camera when the composite image is projected.

本発明によれば、投影用の元画像とマスク画像を合成して、投影時に物体と入力パネルとの接触部分に対応する領域が可視光カメラから見て単色になるような合成画像を生成して投影させ、可視光カメラで撮像した可視光画像から接触部分に対応する画像を抽出することで、プロジェクタの投影光による影響を排除して、当該物体の接触面の色や模様を取得することができる。   According to the present invention, an original image for projection and a mask image are synthesized, and a synthesized image is generated such that a region corresponding to a contact portion between an object and an input panel is monochromatic when viewed from a visible light camera at the time of projection. By extracting the image corresponding to the contact part from the visible light image captured by the visible light camera, the influence of the projection light of the projector is eliminated, and the color or pattern of the contact surface of the object is acquired. Can do.

(2)また本発明に係る画像投影システム、プログラム及び画像投影方法では、前記プロジェクタは、前記合成画像の投影が完了した場合に、通知情報を前記処理部に送信し、前記撮像制御部は(前記撮像制御ステップでは)、前記通知情報を受信した場合に、前記可視光カメラに撮像を行わせてもよい。   (2) In the image projection system, the program, and the image projection method according to the present invention, when the projection of the composite image is completed, the projector transmits notification information to the processing unit, and the imaging control unit ( In the imaging control step), when the notification information is received, the visible light camera may perform imaging.

本発明によれば、合成画像の投影が完了する前に可視光カメラにより撮像された可視光画像を取得してしまうことを防止することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can prevent acquiring the visible light image imaged with the visible light camera before the projection of a synthesized image is completed.

(3)また本発明に係る画像投影システム、プログラム及び画像投影方法では、前記撮像制御部は(前記撮像制御ステップでは)、前記可視光画像のうち前記接触部分に対応する領域を前記合成画像における当該領域と同一色にした画像と前記合成画像とを比較して差分を算出し、算出した差分が許容範囲内となるまで、前記可視光カメラによる撮像を繰り返し行わせてもよい。   (3) In the image projection system, the program, and the image projection method according to the present invention, the imaging control unit (in the imaging control step) sets an area corresponding to the contact portion in the visible light image in the composite image. A difference may be calculated by comparing an image having the same color as the region and the composite image, and imaging with the visible light camera may be repeatedly performed until the calculated difference is within an allowable range.

本発明によれば、プロジェクタが通知機能を備えていない場合や、処理部が通知を受け付ける機能を備えていない場合であっても、合成画像の投影が完了する前に可視光カメラにより撮像された可視光画像を取得してしまうことを防止することができる。   According to the present invention, even when the projector does not have a notification function or when the processing unit does not have a function to receive a notification, the image is captured by the visible light camera before the projection of the composite image is completed. It is possible to prevent a visible light image from being acquired.

(4)また本発明に係る画像投影システム、プログラム及び画像投影方法では、前記撮像制御部は(前記撮像制御ステップでは)、前記合成画像を前記プロジェクタに送信してから所定時間経過後に、前記可視光カメラに撮像を行わせてもよい。   (4) In the image projection system, the program, and the image projection method according to the present invention, the imaging control unit (in the imaging control step) transmits the composite image to the projector after a predetermined time has passed. You may make an optical camera image.

本発明によれば、プロジェクタが通知機能を備えていない場合や、処理部が通知を受け付ける機能を備えていない場合であっても、合成画像の投影が完了する前に可視光カメラにより撮像された可視光画像を取得してしまうことを防止することができる。   According to the present invention, even when the projector does not have a notification function or when the processing unit does not have a function to receive a notification, the image is captured by the visible light camera before the projection of the composite image is completed. It is possible to prevent a visible light image from being acquired.

(5)また本発明に係る画像投影システム、プログラム及び画像投影方法では、前記元画像生成部は(前記元画像生成ステップでは)、前記入力パネルに接触した前記物体の移動軌跡を前記接触面画像の色又は模様を用いて描画した画像を前記元画像として生成してもよい。   (5) In the image projection system, the program, and the image projection method according to the present invention, the original image generation unit (in the original image generation step) displays the movement trajectory of the object in contact with the input panel as the contact surface image. An image drawn using a color or pattern may be generated as the original image.

本発明によれば、入力パネルに接触した物体の接触形状のみならず、当該物体の接触面の色や模様を用いて描画することが可能なデジタルペイントを実現することができる。   ADVANTAGE OF THE INVENTION According to this invention, not only the contact shape of the object which contacted the input panel but the digital paint which can be drawn using the color and pattern of the contact surface of the said object are realizable.

(6)また本発明に係る画像投影システム、プログラム及び画像投影方法では、前記入力パネルに対する前記物体の接触を検出するための圧力センサを更に備え、前記マスク画像生成部は、前記入力パネルに対する前記物体の接触が検出された場合に、前記赤外線画像を第1の閾値で2値化してマスク画像を生成し、生成したマスク画像における白画素の数が所定値未満である場合に、前記赤外線画像を前記第1の閾値未満の第2の閾値で2値化してマスク画像を再度生成してもよい。   (6) In the image projection system, the program, and the image projection method according to the present invention, the image projection system, the program, and the image projection method further include a pressure sensor for detecting contact of the object with the input panel, and the mask image generation unit When the contact of an object is detected, the infrared image is binarized with a first threshold value to generate a mask image, and when the number of white pixels in the generated mask image is less than a predetermined value, the infrared image May be binarized with a second threshold value less than the first threshold value to generate a mask image again.

本発明によれば、入力パネルに接触した物体の接触面の形状及び色や模様を精度良く取得することができる。   According to the present invention, the shape, color, and pattern of the contact surface of an object that has contacted the input panel can be acquired with high accuracy.

第1の実施形態に係る画像投影システムの構成を模式的に示す図である。It is a figure which shows typically the structure of the image projection system which concerns on 1st Embodiment. 第1の実施形態における入力パネルの構成の一例を示す側面図である。It is a side view which shows an example of a structure of the input panel in 1st Embodiment. 第1の実施形態に係る画像投影システムの機能ブロック図の一例である。It is an example of the functional block diagram of the image projection system which concerns on 1st Embodiment. 比較例について説明するための図である。It is a figure for demonstrating a comparative example. 第1の実施形態における画像投影システムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image projection system in 1st Embodiment. 元画像、マスク画像、補正用画像、補正後のマスク画像及び合成画像の一例を模式的に示す図である。It is a figure which shows typically an example of an original image, a mask image, the image for correction | amendment, the mask image after correction | amendment, and a synthesized image. 合成画像を投影スクリーンに投影したときの投影画像を模式的に示す図である。It is a figure which shows typically a projection image when a synthesized image is projected on a projection screen. 可視光画像及び接触面画像の一例を模式的に示す図である。It is a figure which shows typically an example of a visible light image and a contact surface image. 物体の移動軌跡を当該物体の色又は模様で描画して生成した元画像及び合成画像を模式的に示す図である。It is a figure which shows typically the original image and synthetic | combination image which were produced | generated by drawing the movement locus | trajectory of an object with the color or pattern of the said object. プロジェクタによる投影と可視光カメラによる撮影のタイミングについて説明するための図である。It is a figure for demonstrating the timing of projection by a projector, and imaging | photography with a visible light camera. 可視光カメラによる撮像をプロジェクタによる投影完了後に行う第2の手法について説明するための図である。It is a figure for demonstrating the 2nd method of performing the imaging by a visible light camera after the projection by a projector is completed. 第2の実施形態における入力パネルの構成の一例を示す側面図である。It is a side view which shows an example of a structure of the input panel in 2nd Embodiment. 第2の実施形態における画像投影システムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image projection system in 2nd Embodiment. 赤外線画像と、赤外線画像を2値化したマスク画像の一例を示す図である。It is a figure which shows an example of the mask image which binarized the infrared image and the infrared image.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

(第1の実施形態)
図1は、第1の実施形態に係る画像投影システムの構成を模式的に示す図である。画像投影システム1は、光源からの赤外光を内部に導波させる入力パネル10と、入力パネル10の背面側に重ねて配置された投影スクリーン20と、入力パネル10の表面に接触した物体Bにより生じた散乱光を背面側から撮像する赤外線カメラ30と、投影スクリーン20に画像を背面側から投影するプロジェクタ40と、入力パネル10を背面側から撮像する可視光カメラ50(RBGカメラ)と、処理部100と、を含む。プロジェクタ40の投影範囲と赤外線カメラ30及び可視光カメラ50の撮像範囲は凡そ一致している。利用者Uが任意の物体Bを入力パネル10に載せる(接触させる)と、物体Bの接触面の形状、色、模様(文字を含む)に応じた画像が投影スクリーン20に投影され、利用者Uは、その投影画像を入力パネル10の表面側から観察することができる。
(First embodiment)
FIG. 1 is a diagram schematically illustrating a configuration of an image projection system according to the first embodiment. The image projection system 1 includes an input panel 10 that guides infrared light from a light source therein, a projection screen 20 that is disposed on the back side of the input panel 10, and an object B that is in contact with the surface of the input panel 10. An infrared camera 30 that captures the scattered light generated from the back side, a projector 40 that projects an image on the projection screen 20 from the back side, a visible light camera 50 (RBG camera) that images the input panel 10 from the back side, And processing unit 100. The projection range of the projector 40 and the imaging ranges of the infrared camera 30 and the visible light camera 50 are approximately the same. When the user U places (contacts) an arbitrary object B on the input panel 10, an image corresponding to the shape, color, and pattern (including characters) of the contact surface of the object B is projected onto the projection screen 20. U can observe the projected image from the surface side of the input panel 10.

図2は、第1の実施形態における入力パネル10の構成の一例を示す側面図である。入力パネル10は、赤外光の全反射現象(FTIR:Frustrated Total Internal Reflection)を利用した透明なパネルであり、空気よりも屈折率の高い透明板11(例えば、透明アクリル板)から構成される。透明板11の各辺の側面に対向する位置には、赤外線光源12(例えば、赤外線LED)が配置される。また、FTIRの感度を向上するため、透明板11の表面には、シート状の透明シリコーンゴム13が貼付されている。赤外線光源12から出射した赤外光は、透明板11内部を全反射現象により導波する。物体Bを入力パネル10(透明シリコーンゴム13)の表面に接触させると、接触部分において赤外線が散乱し、散乱光が生じる。赤外線カメラ30は、この赤外散乱光を、入力パネル10の背面側から撮像する。   FIG. 2 is a side view showing an example of the configuration of the input panel 10 according to the first embodiment. The input panel 10 is a transparent panel using an infrared light total reflection phenomenon (FTIR: Frustrated Total Internal Reflection), and includes a transparent plate 11 (for example, a transparent acrylic plate) having a refractive index higher than that of air. . An infrared light source 12 (for example, an infrared LED) is disposed at a position facing the side surface of each side of the transparent plate 11. Further, in order to improve the sensitivity of FTIR, a sheet-like transparent silicone rubber 13 is stuck on the surface of the transparent plate 11. The infrared light emitted from the infrared light source 12 is guided in the transparent plate 11 by a total reflection phenomenon. When the object B is brought into contact with the surface of the input panel 10 (transparent silicone rubber 13), infrared rays are scattered at the contact portion, and scattered light is generated. The infrared camera 30 images the infrared scattered light from the back side of the input panel 10.

投影スクリーン20は、背面投影用の透明に近い透過フィルムである。図2に示す例では、投影スクリーン20は2枚の透明板11の間に挟まれている(下側の透明板11の表面に貼付され、上側の透明板11の背面側に重ねて配置されている)が、投影スクリーン20を1枚の透明板11の背面に貼付するように構成してもよい。   The projection screen 20 is a nearly transparent transmission film for rear projection. In the example shown in FIG. 2, the projection screen 20 is sandwiched between two transparent plates 11 (affixed to the surface of the lower transparent plate 11 and placed on the back side of the upper transparent plate 11. However, you may comprise so that the projection screen 20 may be affixed on the back surface of the transparent plate 11 of 1 sheet.

図3は、第1の実施形態に係る画像投影システム1の機能ブロック図の一例である。画像投影システム1は記憶部110を含む。記憶部110は、処理部100の各部としてコンピュータを機能させるためのプログラムや各種データを記憶するとともに、処理部100のワーク領域として機能し、その機能はハードディスク、RAMなどにより実現できる。   FIG. 3 is an example of a functional block diagram of the image projection system 1 according to the first embodiment. The image projection system 1 includes a storage unit 110. The storage unit 110 stores a program and various data for causing the computer to function as each unit of the processing unit 100, and also functions as a work area of the processing unit 100. The function can be realized by a hard disk, a RAM, or the like.

処理部100は、赤外線カメラ30、プロジェクタ40及び可視光カメラ50を制御する処理と、各種の画像処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。処理部100は、投影用の元画像を生成する元画像生成部101と、赤外線カメラ30で撮像された赤外線画像を2値化してマスク画像を生成するマスク画像生成部102と、元画像とマスク画像を合成して合成画像を生成する合成画像生成部103と、合成画像をプロジェクタ40に送信して投影させる投影制御部104と、合成画像の投影完了後に可視光カメラ50を制御して撮像を行わせる撮像制御部105と、可視光カメラ50で撮像された可視光画像とマスク画像とを合成して接触面画像を生成する接触面画像生成部106とを含む。   The processing unit 100 performs processing for controlling the infrared camera 30, the projector 40, and the visible light camera 50, and various image processing. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs. The processing unit 100 includes an original image generation unit 101 that generates an original image for projection, a mask image generation unit 102 that generates a mask image by binarizing an infrared image captured by the infrared camera 30, and an original image and a mask. A composite image generation unit 103 that generates a composite image by combining the images, a projection control unit 104 that transmits the composite image to the projector 40 for projection, and controls the visible light camera 50 after the composite image has been projected to capture an image. An imaging control unit 105 to be performed, and a contact surface image generation unit 106 that combines the visible light image captured by the visible light camera 50 and the mask image to generate a contact surface image.

本実施形態の画像投影システム1では、赤外線カメラ30により入力パネル10を背面側から撮像することで、入力パネル10の表面に接触した物体Bの接触面の形状(物体Bと入力パネル10との接触形状)を取得するとともに、可視光カメラ50により入力パネル10を背面側から撮像することで、接触面の色や模様を取得する。しかしながら、入力パネル10の背面側には投影スクリーン20が配置されているため、図4に示すように、プロジェクタ40により画像をそのまま投影スクリーン20に投影すると、投影画像PP(投影光)が物体Bの接触面CFに重畳することで、接触面CFの見え方が変わってしまい、接触面CF本来の色や模様を取得することができない。   In the image projection system 1 of this embodiment, the input panel 10 is imaged from the back side by the infrared camera 30, so that the shape of the contact surface of the object B in contact with the surface of the input panel 10 (the object B and the input panel 10 (Contact shape) and the input panel 10 is imaged from the back side by the visible light camera 50, thereby obtaining the color and pattern of the contact surface. However, since the projection screen 20 is disposed on the back side of the input panel 10, as shown in FIG. 4, when the image is directly projected onto the projection screen 20 by the projector 40, the projection image PP (projection light) is the object B. By superimposing on the contact surface CF, the appearance of the contact surface CF changes, and the original color and pattern of the contact surface CF cannot be acquired.

このような投影と撮像の競合は、例えば、プロジェクタ40による投影と可視光カメラ50による撮像とを交互に切り替えることで避けることができる。しかし、投影光の点滅が利用者の目に与える負担や脳内の視覚過程に及ぼす影響を考慮すると、投影と撮像の切り替えは高速(70〜80Hz以上)で行う必要がある。そのため、この手法を採用する場合、各装置(プロジェクタ40、可視光カメラ50、処理部100)を高速化する必要があり高コスト化を招く。   Such a competition between projection and imaging can be avoided by alternately switching between projection by the projector 40 and imaging by the visible light camera 50, for example. However, in consideration of the burden of blinking projection light on the user's eyes and the effect on the visual process in the brain, it is necessary to switch between projection and imaging at high speed (70 to 80 Hz or more). Therefore, when this method is adopted, it is necessary to increase the speed of each device (the projector 40, the visible light camera 50, and the processing unit 100), resulting in an increase in cost.

本実施形態の画像投影システム1では、画像投影時に物体Bの接触面CF(物体Bと入力パネル10との接触部分)が可視光カメラ50から見て単色になるような画像を投影することで、投影と撮像の競合を解消する。   In the image projection system 1 of the present embodiment, an image is projected such that the contact surface CF of the object B (the contact portion between the object B and the input panel 10) is monochromatic when viewed from the visible light camera 50 during image projection. Resolve the conflict between projection and imaging.

図5は、第1の実施形態における画像投影システム1の処理の流れを示すフローチャートである。   FIG. 5 is a flowchart showing the flow of processing of the image projection system 1 in the first embodiment.

まず、元画像生成部101は、投影用の元画像FPを生成する(ステップS10)。図6の(a)に、元画像FPの一例を模式的に示す。   First, the original image generation unit 101 generates an original image FP for projection (step S10). FIG. 6A schematically shows an example of the original image FP.

次に、処理部100は、赤外線カメラ30を制御して撮像させ、赤外線カメラ30で撮像された赤外線画像を取得する(ステップS11)。次に、マスク画像生成部102は、取得した赤外線画像を2値化してマスク画像MPを生成する(ステップS12)。2値化した画像にはノイズが含まれる場合があるため、2値化した画像に対してノイズ除去処理を行ってマスク画像MPを生成することが望ましい。図6の(b)に、マスク画像MPの一例を模式的に示す。マスク画像MPにおいて、領域CAは物体Bの接触面CFに対応する領域であり、領域CAの画素値は1、それ以外の領域の画素値が0となる。   Next, the processing unit 100 controls the infrared camera 30 to capture an image and acquires an infrared image captured by the infrared camera 30 (step S11). Next, the mask image generation unit 102 binarizes the acquired infrared image to generate a mask image MP (step S12). Since the binarized image may contain noise, it is desirable to generate a mask image MP by performing noise removal processing on the binarized image. FIG. 6B schematically shows an example of the mask image MP. In the mask image MP, the area CA is an area corresponding to the contact surface CF of the object B, the pixel value of the area CA is 1, and the pixel values of the other areas are 0.

次に、マスク画像生成部102は、マスク画像MPと補正用画像RPを合成(例えば、対応する画素毎に乗算)し、マスク画像MPを補正してマスク画像MP’を得る(ステップS13)。図6の(c)に、補正用画像RPの一例を模式的に示す。補正用画像RPは、当該画像を投影スクリーン20に投影した場合に可視光カメラ50から見て一様に単色になるような画像である。補正用画像RPの各画素の輝度は、投影スクリーン20からの反射光の強度(プロジェクタ40と投影スクリーン20との位置関係で代用してもよい)により決定される。例えば、マスク画像生成部102は、補正用画像RPとして、プロジェクタ40に近い(投影光の反射が強い)位置に投影される部分は輝度の低い色(例えば、濃いグレー)とし、プロジェクタ40から遠い(投影光の反射が弱い)位置に投影される部分は輝度の高い色(例えば、薄いグレー)とした画像を生成する。また、補正用画像RPの色は、投影時に接触面CFの見え方(色)が変わり難い色とし、例えば、白(輝度値が最大値)又は黒(輝度値が0)以外の色であって彩度が低い色(例えば、グレー)とする。補正用画像RPの最適色は、プロジェクタ40と可視光カメラ50の色特性等から決定することができる。図6の(d)に補正後のマスク画像MP’を模式的に示す。補正後のマスク画像MP’では、マスク画像MPのうち接触面CFに対応する領域CAに補正
用画像RPが重畳されている。
Next, the mask image generation unit 102 synthesizes the mask image MP and the correction image RP (for example, multiplies each corresponding pixel), corrects the mask image MP, and obtains a mask image MP ′ (step S13). FIG. 6C schematically shows an example of the correction image RP. The correction image RP is an image that is uniformly monochromatic when viewed from the visible light camera 50 when the image is projected onto the projection screen 20. The luminance of each pixel of the correction image RP is determined by the intensity of reflected light from the projection screen 20 (the positional relationship between the projector 40 and the projection screen 20 may be substituted). For example, the mask image generation unit 102 sets a portion of the correction image RP projected at a position close to the projector 40 (a strong reflection of projection light) as a color with low luminance (for example, dark gray) and is far from the projector 40. The portion projected at the position (the reflection of the projection light is weak) generates an image having a high luminance color (for example, light gray). Further, the color of the correction image RP is a color in which the appearance (color) of the contact surface CF does not easily change during projection, for example, a color other than white (luminance value is the maximum value) or black (luminance value is 0). The color is low in saturation (for example, gray). The optimum color of the correction image RP can be determined from the color characteristics of the projector 40 and the visible light camera 50, and the like. FIG. 6D schematically shows the corrected mask image MP ′. In the corrected mask image MP ′, the correction image RP is superimposed on the area CA corresponding to the contact surface CF in the mask image MP.

次に、合成画像生成部103は、元画像FPと補正後のマスク画像MP’を合成(例えば、対応する画素の画素値を比較して、マスク画像MP’の画素値が0(黒)である画素については元画像FPの画素値を採用し、マスク画像MP’の画素値が0以外である画素(領域CAの画素)についてはマスク画像MP’の画素値を採用する)して合成画像SPを生成する(ステップS14)。図6の(e)に、合成画像SPを模式的に示す。合成画像SPでは、元画像FPのうち接触面CFに対応する領域CAに補正用画像RPが重畳されている。従って、合成画像SPは、投影時に接触面CFの見た目(可視光カメラ50からの見た目)が単色になるような画像となる。   Next, the synthesized image generation unit 103 synthesizes the original image FP and the corrected mask image MP ′ (for example, the pixel values of the corresponding pixels are compared and the pixel value of the mask image MP ′ is 0 (black)). The pixel value of the original image FP is adopted for a certain pixel, and the pixel value of the mask image MP ′ is a pixel value other than 0 (the pixel value of the area CA is adopted the pixel value of the mask image MP ′). SP is generated (step S14). FIG. 6E schematically shows the composite image SP. In the composite image SP, the correction image RP is superimposed on the area CA corresponding to the contact surface CF in the original image FP. Therefore, the composite image SP is an image in which the appearance of the contact surface CF (the appearance from the visible light camera 50) becomes monochromatic at the time of projection.

次に、投影制御部104は、合成画像SPをプロジェクタ40に送信して合成画像SPを投影スクリーン20に投影させる制御を行う(ステップS15)。図7に、合成画像SPを投影したときの投影画像PPを模式的に示す。図7に示すように、本実施形態によれば、投影時に接触面CFの見た目が単色になるような合成画像SPを投影することで、投影画像PPが接触面CFの見え方に与える影響を極力抑制することができる。   Next, the projection control unit 104 performs control to transmit the composite image SP to the projector 40 and project the composite image SP onto the projection screen 20 (step S15). FIG. 7 schematically shows a projection image PP when the composite image SP is projected. As shown in FIG. 7, according to the present embodiment, by projecting the composite image SP such that the appearance of the contact surface CF becomes monochromatic at the time of projection, the influence of the projection image PP on the appearance of the contact surface CF is affected. It can be suppressed as much as possible.

次に、撮像制御部105は、可視光カメラ50を制御して撮像させ、可視光カメラ50で撮像された可視光画像OPを取得する(ステップS16)。図8の(a)に、可視光画像OPを模式的に示す。   Next, the imaging control unit 105 controls the visible light camera 50 to capture an image, and obtains a visible light image OP captured by the visible light camera 50 (step S16). FIG. 8A schematically shows the visible light image OP.

次に、接触面画像生成部106は、可視光画像OPとマスク画像MPを合成して、可視光画像OPから接触面CFに対応する領域CAの画像を抽出した接触面画像CPを生成する(ステップS17)。図8の(b)に、接触面画像CPを模式的に示す。接触面画像CPにおける領域CAの色や模様は、物体Bの接触面CFの色や模様を表している。このように、本実施形態によれば、プロジェクタ40の投影光による影響を排除して、物体Bの接触面CFの色や模様を取得することができる。   Next, the contact surface image generation unit 106 combines the visible light image OP and the mask image MP to generate a contact surface image CP obtained by extracting an image of the area CA corresponding to the contact surface CF from the visible light image OP ( Step S17). FIG. 8B schematically shows the contact surface image CP. The color or pattern of the area CA in the contact surface image CP represents the color or pattern of the contact surface CF of the object B. Thus, according to the present embodiment, it is possible to acquire the color and pattern of the contact surface CF of the object B by eliminating the influence of the projection light of the projector 40.

次に、ステップS10に移行し、ステップS10以降の処理を繰り返す。ステップS10では、元画像生成部101は、前回フレーム(処理単位時間)のステップS17で生成した接触面画像CPに基づいて新たな元画像FPを生成する。   Next, it transfers to step S10 and repeats the process after step S10. In step S10, the original image generation unit 101 generates a new original image FP based on the contact surface image CP generated in step S17 of the previous frame (processing unit time).

例えば、元画像生成部101は、前回フレームで生成した接触面画像CPにおける領域CA(及び、それ以前に生成した接触面画像CPにおける領域CA)を、接触面画像CP(領域CA)の色又は模様で描画することで、入力パネル10における物体Bの移動軌跡を当該物体Bの色又は模様で描画した元画像FPを生成する。これにより、入力パネル10に接触した物体Bの接触形状のみならず、物体Bの接触面の色や模様を用いて描画することが可能なデジタルペイントを実現することができる。   For example, the original image generation unit 101 uses the area CA in the contact surface image CP generated in the previous frame (and the area CA in the contact surface image CP generated before that) as the color of the contact surface image CP (area CA) or By drawing with a pattern, an original image FP in which the movement locus of the object B on the input panel 10 is drawn with the color or pattern of the object B is generated. Thereby, not only the contact shape of the object B in contact with the input panel 10 but also digital paint that can be drawn using the color or pattern of the contact surface of the object B can be realized.

図9に示す例の場合、時間t1では、時間t0(前回フレーム)で生成した接触面画像CPにおける領域CAを領域CAの色又は模様で描画した元画像FPを生成し、時間t1における領域CAをマスクした合成画像SPを生成している。また、時間t2では、時間t1における領域CAを含む物体Bの移動軌跡TRを領域CAの色又は模様で描画した元画像FPを生成し、時間t2における領域CAをマスクした合成画像SPを生成している。同様に、時間t3では、時間t2における領域CAを含む移動軌跡TRを領域CAの色又は模様で描画した元画像FPを生成し、時間t3における領域CAをマスクした合成画像SPを生成している。このようにして、物体Bの移動軌跡TRを物体Bの色又は模様で描画することができる。 In the case of the example shown in FIG. 9, at time t1, an original image FP 1 in which the area CA 0 in the contact surface image CP generated at time t0 (previous frame) is drawn with the color or pattern of the area CA 0 is generated, and time t1 A composite image SP 1 is generated by masking the area CA 1 in FIG. Further, at time t2, an original image FP 2 in which the movement trajectory TR of the object B including the area CA 1 at time t1 is drawn with the color or pattern of the area CA 1 is generated, and a composite image in which the area CA 2 at time t2 is masked. SP 2 is generated. Similarly, at time t3, to generate the original image FP 3 the movement trajectory TR was drawn in the color or pattern of the area CA 2 including a region CA 2 at time t2, the composite image SP 3 masked regions CA 3 at time t3 Is generated. In this way, the movement trajectory TR of the object B can be drawn with the color or pattern of the object B.

また、物体Bの接触面に当該物体Bの識別情報を符号化した模様(例えば、バーコード
や二次元シンボル、文字列など)が付されている場合、処理部100は、接触面画像CP(領域CAの画像)に対して画像認識を行うことで物体Bを識別し、元画像生成部101は、識別した物体Bに関連する画像を入力パネル10における物体Bの近傍に投影するための元画像FPを生成するように構成してもよい。
When the contact surface of the object B is provided with a pattern (for example, a barcode, a two-dimensional symbol, or a character string) obtained by encoding the identification information of the object B, the processing unit 100 displays the contact surface image CP ( The object B is identified by performing image recognition on the image of the area CA, and the original image generation unit 101 is an element for projecting an image related to the identified object B on the input panel 10 in the vicinity of the object B. You may comprise so that the image FP may be produced | generated.

ここで、撮像制御部105は、図10の(a)に示すように、プロジェクタ40による合成画像SPの投影(投影画面の更新)が完了した状態で、可視光カメラ50に対して撮像の開始を指示する必要がある。   Here, as illustrated in FIG. 10A, the imaging control unit 105 starts imaging with respect to the visible light camera 50 in a state where the projection of the composite image SP (update of the projection screen) by the projector 40 has been completed. Need to be instructed.

仮に、図10の(b)に示すように、プロジェクタ40による合成画像SPの投影が完了する前に、可視光カメラ50による撮像を開始してしまうと、前回フレームで生成・投影した合成画像SPと今回フレームで生成・投影する合成画像SPとが混在した画像(更新途中の投影画像)を撮像することになり、投影光による影響が排除されていない状態(投影画像と接触面CFとの重畳が発生した状態)で撮像された可視光画像OPを取得することになってしまう。   As shown in FIG. 10B, if imaging by the visible light camera 50 is started before the projection of the composite image SP by the projector 40 is completed, the composite image SP generated and projected in the previous frame is started. And a composite image SP generated / projected in the current frame (a projected image being updated) are captured, and the influence of the projection light is not excluded (superimposition of the projected image and the contact surface CF) In other words, the visible light image OP picked up in the state where the image is generated) is acquired.

以下、可視光カメラ50による撮像をプロジェクタ40による合成画像SPの投影完了後に行うための3つの手法について説明する。   Hereinafter, three methods for performing imaging by the visible light camera 50 after the projection of the composite image SP by the projector 40 is completed will be described.

第1の手法では、プロジェクタ40が、合成画像SPの投影が完了した場合に、その旨を通知する通知情報を処理部100に送信し、撮像制御部105は、この通信情報を受信した場合に、可視光カメラ50に撮像を開始させる制御を行う。第1の手法によれば、合成画像SPの投影が完了する前に可視光カメラ50による撮像を開始してしまうことを確実に防止するとともに、合成画像SPの投影完了後の可視光カメラ50による撮影を遅滞なく行うことができる。   In the first method, when the projection of the composite image SP is completed, the projector 40 transmits notification information to that effect to the processing unit 100, and the imaging control unit 105 receives this communication information. Then, the visible light camera 50 is controlled to start imaging. According to the first method, it is possible to reliably prevent the visible light camera 50 from starting imaging before the projection of the composite image SP is completed, and the visible light camera 50 after the projection of the composite image SP is completed. Shooting can be performed without delay.

第2の手法では、撮像制御部105が、プロジェクタ40に送信した合成画像SPと、可視光カメラ50から受信した可視光画像OPのうち領域CAを合成画像SPにおける領域CAと同一色にした画像(可視光画像OPと補正後のマスク画像MP’を合成した画像)とを比較して差分(画素毎の差分絶対値の合計値)を算出し、算出した差分が所定の閾値δ未満(許容範囲内)となるまで、可視光カメラ50に対する撮像指示を繰り返し行う。図11に示す例では、1回目の撮像により取得した可視光画像OPと合成画像SPとを比較した結果、差分が閾値δ以上であったため、再び可視光カメラ50に対して撮像を指示している。そして、2回目の撮像により取得した可視光画像OPと合成画像SPとを比較した結果、差分が閾値δ未満であったため、可視光画像OPが合成画像SPの投影完了後に撮像された画像であると判定され、次のステップに移行している。   In the second method, the imaging control unit 105 sets the area CA in the synthesized image SP transmitted to the projector 40 and the visible light image OP received from the visible light camera 50 to the same color as the area CA in the synthesized image SP. A difference (total value of difference absolute values for each pixel) is calculated by comparing the visible light image OP and the corrected mask image MP ′, and the calculated difference is less than a predetermined threshold δ (allowable) The imaging instruction to the visible light camera 50 is repeatedly performed until it is within the range. In the example shown in FIG. 11, as a result of comparing the visible light image OP acquired by the first imaging with the composite image SP, the difference is equal to or greater than the threshold value δ. Yes. Then, as a result of comparing the visible light image OP acquired by the second imaging with the composite image SP, the difference is less than the threshold δ, so the visible light image OP is an image captured after the projection of the composite image SP is completed. It is determined that the process proceeds to the next step.

第3の手法では、合成画像SPのプロジェクタ40への転送に要する時間と投影画面の更新に要する時間の合計時間(所定時間)を事前調査により見積もっておき、撮像制御部105が、合成画像SPをプロジェクタ40に送信してから事前に見積もった合計時間が経過した後(投影画面の更新が完了したと推定される時刻以降)に、可視光カメラ50に撮像を開始させる制御を行う。   In the third method, the total time (predetermined time) of the time required to transfer the composite image SP to the projector 40 and the time required to update the projection screen is estimated by a preliminary survey, and the imaging control unit 105 performs the composite image SP. Is transmitted to the projector 40, and after the total time estimated in advance has elapsed (after the time when it is estimated that the update of the projection screen has been completed), the visible light camera 50 is controlled to start imaging.

第2の手法及び第3の手法によれば、プロジェクタ40が通知機能を備えていない場合や、処理部100が通知を受け付ける機能を備えていない場合であっても、合成画像SPの投影が完了する前に可視光カメラ50による撮像を開始してしまうことを防止することができる。   According to the second method and the third method, the projection of the composite image SP is completed even when the projector 40 does not have a notification function or when the processing unit 100 does not have a function of receiving a notification. It is possible to prevent the imaging by the visible light camera 50 from being started before performing.

(第2の実施形態)
物体Bの材質や、利用者Uが物体Bを入力パネル10に接触させるやり方によっては、
物体Bと入力パネル10との密着が不完全となることで、物体Bが入力パネル10に接触しているにもかかわらず物体Bの接触面CFの情報(マスク画像MPにおける領域CA)を取得できない場合がある。この場合、赤外線画像を2値化する(マスク画像MPを生成する)際の閾値を低くすれば、接触面CFの情報を取得することができる。しかし、物体Bが入力パネル10に接触していないときも常に赤外線画像を低い閾値で2値化してマスク画像MPを生成するようにすると、入力パネル10の表面から漏れ出た(或いは、全反射角に入らなかった)赤外線が接触面CFに接触していない物体(例えば、物体Bを持っている利用者Uの手や腕)に反射して入力パネル10に映り込んだ場合等に、当該映り込み等を接触面CFとして誤検出してしまう恐れがある。
(Second Embodiment)
Depending on the material of the object B and how the user U touches the input panel 10 with the object B,
Due to the incomplete contact between the object B and the input panel 10, information on the contact surface CF of the object B (area CA in the mask image MP) is acquired even though the object B is in contact with the input panel 10. There are cases where it is not possible. In this case, if the threshold value for binarizing the infrared image (generating the mask image MP) is lowered, information on the contact surface CF can be acquired. However, even when the object B is not in contact with the input panel 10, if the infrared image is always binarized with a low threshold value to generate the mask image MP, it leaks from the surface of the input panel 10 (or is totally reflected). In the case where infrared rays that have not entered the corner are reflected on an object that is not in contact with the contact surface CF (for example, the hand or arm of the user U holding the object B) and reflected on the input panel 10. There is a possibility that reflection or the like may be erroneously detected as the contact surface CF.

そこで、第2の実施形態では、入力パネル10に対する物体Bの接触を圧力センサ(感圧センサ)により検出し、入力パネル10に対する物体Bの接触が検出された場合に、赤外線画像を取得し、取得した赤外線画像を第1の閾値Tで2値化してマスク画像MPを生成する。そして、生成したマスク画像MPにおける白画素の数が所定値未満である場合には、取得した赤外線画像を第1の閾値T未満の第2の閾値Tで2値化してマスク画像MPを再度生成する。すなわち、第2の実施形態では、物体Bが入力パネル10に接触しているにも関わらず接触面CFの情報を取得できなかったと見做せる場合に、赤外線画像を2値化する際の閾値を低下させてマスク画像MPを生成する。 Therefore, in the second embodiment, the contact of the object B with the input panel 10 is detected by a pressure sensor (pressure sensor), and when the contact of the object B with the input panel 10 is detected, an infrared image is acquired, the obtained infrared image by binarizing the first thresholds T 1 and generates a mask image MP. If the number of white pixels in the generated mask image MP is less than a predetermined value, the acquired infrared image is binarized with a second threshold T 2 that is less than the first threshold T 1 and the mask image MP is obtained. Generate again. That is, in the second embodiment, when it can be considered that the information on the contact surface CF could not be acquired even though the object B is in contact with the input panel 10, the threshold value for binarizing the infrared image Is reduced to generate a mask image MP.

図12は、第2の実施形態における入力パネル10の構成の一例を示す側面図である。図12において、図2で示した構成と同一の構成には同符号を付し、その説明を適宜省略する。   FIG. 12 is a side view illustrating an example of the configuration of the input panel 10 according to the second embodiment. 12, the same components as those shown in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted as appropriate.

第2の実施形態では、上側の透明板11と投影スクリーン20との間に、入力パネル10に対する物体Bの接触を検出するための圧力センサ60が設けられている。圧力センサ60としては、例えば、抵抗膜力センサを用いることができる。また、上側の透明板11と圧力センサ60との間には、突起部として機能するシリコーンゴム14が設けられている。圧力センサ60及びシリコーンゴム14は、入力パネル10の平面視で四隅に設けられる。   In the second embodiment, a pressure sensor 60 for detecting contact of the object B with the input panel 10 is provided between the upper transparent plate 11 and the projection screen 20. As the pressure sensor 60, for example, a resistive film force sensor can be used. A silicone rubber 14 that functions as a protrusion is provided between the upper transparent plate 11 and the pressure sensor 60. The pressure sensor 60 and the silicone rubber 14 are provided at the four corners in the plan view of the input panel 10.

図13は、第2の実施形態における画像投影システム1の処理の流れを示すフローチャートである。なお、図13に示すステップS20、S27〜S31については、図5に示すステップS10、S13〜S17と同様であるから説明を適宜省略する。   FIG. 13 is a flowchart showing the flow of processing of the image projection system 1 in the second embodiment. Note that steps S20 and S27 to S31 shown in FIG. 13 are the same as steps S10 and S13 to S17 shown in FIG.

処理部100は、圧力センサ60からの出力信号(複数の圧力センサ60からの出力信号の平均値)に基づいて、入力パネル10に対して物体Bが接触しているか否かを判断し(ステップS21)、入力パネル10に対して物体Bが接触していない場合(ステップS21のN)には、ステップS20に移行する。一方、入力パネル10に対して物体Bが接触している場合(ステップS21のY)には、処理部100は、赤外線カメラ30を制御して撮像させ、赤外線カメラ30で撮像された赤外線画像を取得する(ステップS22)。   The processing unit 100 determines whether or not the object B is in contact with the input panel 10 based on an output signal from the pressure sensor 60 (an average value of output signals from the plurality of pressure sensors 60) (step S100). S21) When the object B is not in contact with the input panel 10 (N in step S21), the process proceeds to step S20. On the other hand, when the object B is in contact with the input panel 10 (Y in step S21), the processing unit 100 controls the infrared camera 30 to capture an image, and the infrared image captured by the infrared camera 30 is captured. Obtain (step S22).

次に、マスク画像生成部102は、取得した赤外線画像を第1の閾値Tで2値化してマスク画像MPを生成する(ステップS23)。次に、マスク画像生成部102は、ステップS23で生成したマスク画像MPにおける白画素(画素値が1の画素)の数Sをカウントする(ステップS24)。ここで、予め物体Bが入力パネル10に接触していない状態で撮像した赤外線画像を2値化した画像を背景画像として用意しておき、当該背景画像とマスク画像MPとを画素毎に比較して、背景画像よりもマスク画像MPの画素値が高い画素の数を白画素の数Sとしてカウントしてもよい。 Then, the mask image generation unit 102, by binarizing the infrared image obtained by the first thresholds T 1 generates a mask image MP (step S23). Next, the mask image generation unit 102 counts the number S of white pixels (pixels having a pixel value of 1) in the mask image MP generated in step S23 (step S24). Here, an image obtained by binarizing an infrared image captured in a state where the object B is not in contact with the input panel 10 is prepared as a background image, and the background image and the mask image MP are compared for each pixel. Thus, the number of pixels having a higher pixel value of the mask image MP than the background image may be counted as the number S of white pixels.

次に、マスク画像生成部102は、カウントした白画素の数Sが所定値P未満であるか否かを判断し(ステップS25)、白画素の数Sが所定値P以上である場合(ステップS25のN)には、ステップS27に移行する。白画素の数Sが所定値P未満である場合(ステップS25のY)には、マスク画像生成部102は、取得した赤外線画像を第2の閾値T(T<T)で2値化してマスク画像MPを生成する(ステップS26)。 Next, the mask image generation unit 102 determines whether or not the counted number S of white pixels is less than the predetermined value P (step S25), and when the number S of white pixels is equal to or greater than the predetermined value P (step S25). In N) of S25, the process proceeds to step S27. When the number S of white pixels is less than the predetermined value P (Y in step S25), the mask image generation unit 102 uses the acquired infrared image as a binary value with a second threshold T 2 (T 2 <T 1 ). To generate a mask image MP (step S26).

次に、マスク画像生成部102は、ステップS25で偽の場合には、ステップS23で生成した(第1の閾値Tで2値化した)マスク画像MPと補正用画像RPを合成してマスク画像MP’を生成し、ステップS25で真の場合には、ステップS26で生成した(第2の閾値Tで2値化した)マスク画像MPと補正用画像RPを合成してマスク画像MP’を生成する(ステップS27)。 Next, in the case of false in step S25, the mask image generation unit 102 combines the mask image MP generated in step S23 (binarized with the first threshold value T1) and the correction image RP to generate a mask. image MP 'generates, in the case of true in step S25, generated at step S26 (second binarized by the threshold T 2) mask image MP by synthesizing the correction image RP and the mask image MP' Is generated (step S27).

図14に、赤外線画像IPと、赤外線画像IPを2値化したマスク画像MPの一例を示す。図14に示すマスク画像MPは、赤外線画像IPを第1の閾値Tで2値化した画像であり、マスク画像MPは、赤外線画像IPを第2の閾値Tで2値化した画像である。ここでは、赤外線画像IPの階調は8ビットであり、第1の閾値T=253とし、第2の閾値T=175としている。赤外線画像IPは、利用者Uがスポンジ状の物体Bを入力パネル10に接触させたときに撮像した画像であり、物体Bと入力パネル10との密着が不十分であるため、赤外線画像IPを第1の閾値Tで2値化したマスク画像MPでは白画素の領域(領域CA)が殆どない。この場合、第2の実施形態では、マスク画像MPにおける白画素の数Sが所定値P未満であると判定され、赤外線画像IPを第2の閾値Tで2値化したマスク画像MPが生成される。ここでは、赤外線画像IP(及びマスク画像MP)の画素数が720×720ピクセルであり、所定値P=50としている。マスク画像MPには、物体Bの接触面CFに相当する白画素の領域が存在しており、接触面CFの情報を取得できていることが分かる。 FIG. 14 shows an example of an infrared image IP and a mask image MP obtained by binarizing the infrared image IP. The mask image MP 1 shown in FIG. 14 is an image obtained by binarizing the infrared image IP with the first threshold value T 1. The mask image MP 2 is obtained by binarizing the infrared image IP with the second threshold value T 2 . It is an image. Here, the gradation of the infrared image IP is 8 bits, the first threshold T 1 = 253, and the second threshold T 2 = 175. The infrared image IP is an image captured when the user U touches the input panel 10 with the sponge-like object B. Since the close contact between the object B and the input panel 10 is insufficient, the infrared image IP is The mask image MP 1 binarized with the first threshold value T 1 has almost no white pixel area (area CA). In this case, in the second embodiment, it is determined that the number S of white pixels in the mask image MP 1 is less than the predetermined value P, and the mask image MP 2 obtained by binarizing the infrared image IP with the second threshold T 2 is used. Is generated. Here, the number of pixels of the infrared image IP (and mask image MP) is 720 × 720 pixels, and the predetermined value P = 50. The mask image MP 2, it can be seen that the area of white pixels corresponding to the contact surface CF of the object B are present, and to obtain information of the contact surface CF.

このように、第2の実施形態によれば、入力パネル10に対する物体Bの接触を検出した場合に、取得した赤外線画像IPを第1の閾値Tで2値化してマスク画像MPを生成し、マスク画像MPにおける白画素の数Sが所定値P以上である場合には、マスク画像MPを用いて以降の処理を行い、白画素の数Sが所定値P未満である場合には、赤外線画像IPを第1の閾値Tよりも低い第2の閾値Tで2値化したマスク画像MPを用いて以降の処理を行うことで、入力パネル10に接触していない物体Bの映り込み等を接触面CFとして誤検出してしまうことを防止しつつ、入力パネル10に対する密着が不完全な物体Bの接触面CFの形状及び色や模様を精度良く確実に取得することができる。 As described above, according to the second embodiment, when the contact of the object B with the input panel 10 is detected, the acquired infrared image IP is binarized with the first threshold value T 1 to generate the mask image MP 1 . and, if the number S of white pixels in the mask image MP 1 is not less than the predetermined value P, it performs the subsequent process using the mask image MP 1, if the number S of white pixels is less than the predetermined value P Does not touch the input panel 10 by performing the subsequent processing using the mask image MP 2 obtained by binarizing the infrared image IP with the second threshold T 2 lower than the first threshold T 1. To accurately and reliably acquire the shape, color, and pattern of the contact surface CF of the object B that is incompletely in close contact with the input panel 10 while preventing the B reflection from being erroneously detected as the contact surface CF. Can do.

なお、本発明は、上述の実施の形態に限定されるものではなく、種々の変更が可能である。本発明は、実施の形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施の形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施の形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施の形態で説明した構成に公知技術を付加した構成を含む。   In addition, this invention is not limited to the above-mentioned embodiment, A various change is possible. The present invention includes configurations that are substantially the same as the configurations described in the embodiments (for example, configurations that have the same functions, methods, and results, or configurations that have the same objects and effects). In addition, the invention includes a configuration in which a non-essential part of the configuration described in the embodiment is replaced. In addition, the present invention includes a configuration that exhibits the same operational effects as the configuration described in the embodiment or a configuration that can achieve the same object. Further, the invention includes a configuration in which a known technique is added to the configuration described in the embodiment.

1…画像投影システム、10…入力パネル、11…透明板、12…赤外線光源、13…透明シリコーンゴム、14…シリコーンゴム、20…投影スクリーン、30…赤外線カメラ、40…プロジェクタ、50…可視光カメラ、60…圧力センサ、100…処理部、101…元画像生成部、102…マスク画像生成部、103…合成画像生成部、104…投影制御部、105…撮像制御部、106…接触面画像生成部、110…記憶部 DESCRIPTION OF SYMBOLS 1 ... Image projection system, 10 ... Input panel, 11 ... Transparent board, 12 ... Infrared light source, 13 ... Transparent silicone rubber, 14 ... Silicone rubber, 20 ... Projection screen, 30 ... Infrared camera, 40 ... Projector, 50 ... Visible light Camera ... 60 ... Pressure sensor 100 ... Processing unit 101 ... Original image generation unit 102 ... Mask image generation unit 103 ... Composite image generation unit 104 ... Projection control unit 105 ... Imaging control unit 106 ... Contact surface image Generation unit, 110 ... storage unit

Claims (8)

光源からの赤外光を内部に導波させる入力パネルと、
前記入力パネルの背面側に重ねて配置された投影スクリーンと、
前記入力パネルの表面に接触した物体により生じた散乱光を背面側から撮像する赤外線カメラと、
前記投影スクリーンに画像を背面側から投影するプロジェクタと、
前記入力パネルを背面側から撮像する可視光カメラと、
処理部と、を備えた画像投影システムであって、
前記処理部は、
投影用の元画像を生成する元画像生成部と、
前記赤外線カメラで撮像された赤外線画像を2値化してマスク画像を生成するマスク画像生成部と、
前記元画像と前記マスク画像とを合成して合成画像を生成する合成画像生成部と、
前記合成画像を前記プロジェクタに送信して投影させる投影制御部と、
前記合成画像の投影完了後に前記可視光カメラに撮像を行わせる撮像制御部と、
前記可視光カメラで撮像された可視光画像と前記マスク画像とを合成して、前記可視光画像から前記物体と前記入力パネルとの接触部分に対応する領域の画像を抽出した接触面画像を生成する接触面画像生成部と、を含み、
前記元画像生成部は、
前記接触面画像に基づいて前記元画像を生成し、
前記合成画像生成部は、
前記合成画像を投影した場合に前記接触部分が前記可視光カメラから見て単色になるような前記合成画像を生成する、画像投影システム。
An input panel for guiding infrared light from the light source to the inside;
A projection screen disposed on the back side of the input panel;
An infrared camera that images from the back side the scattered light generated by an object in contact with the surface of the input panel;
A projector that projects an image onto the projection screen from the back side;
A visible light camera that images the input panel from the back side;
An image projection system comprising a processing unit,
The processor is
An original image generation unit for generating an original image for projection;
A mask image generation unit that generates a mask image by binarizing an infrared image captured by the infrared camera;
A composite image generating unit that generates a composite image by combining the original image and the mask image;
A projection control unit for transmitting the composite image to the projector and projecting it;
An imaging control unit that causes the visible light camera to perform imaging after the projection of the composite image is completed;
A visible image captured by the visible light camera and the mask image are combined to generate a contact surface image obtained by extracting an image of an area corresponding to a contact portion between the object and the input panel from the visible light image. A contact surface image generation unit that
The original image generation unit
Generating the original image based on the contact surface image;
The composite image generation unit
An image projection system for generating the composite image such that the contact portion is monochromatic when viewed from the visible light camera when the composite image is projected.
請求項1において、
前記プロジェクタは、
前記合成画像の投影が完了した場合に、通知情報を前記処理部に送信し、
前記撮像制御部は、
前記通知情報を受信した場合に、前記可視光カメラに撮像を行わせる、画像投影システム。
In claim 1,
The projector is
When the projection of the composite image is completed, notification information is transmitted to the processing unit,
The imaging control unit
An image projection system that causes the visible light camera to perform imaging when the notification information is received.
請求項1において、
前記撮像制御部は、
前記可視光画像のうち前記接触部分に対応する領域を前記合成画像における当該領域と同一色にした画像と前記合成画像とを比較して差分を算出し、算出した差分が許容範囲内となるまで、前記可視光カメラによる撮像を繰り返し行わせる、画像投影システム。
In claim 1,
The imaging control unit
A difference is calculated by comparing an image corresponding to the contact portion in the visible light image with the composite image and an image in the same color as the region in the composite image, and the calculated difference is within an allowable range. An image projection system that repeatedly performs imaging by the visible light camera.
請求項1において、
前記撮像制御部は、
前記合成画像を前記プロジェクタに送信してから所定時間経過後に、前記可視光カメラに撮像を行わせる、画像投影システム。
In claim 1,
The imaging control unit
An image projection system that causes the visible light camera to perform imaging after a predetermined time has elapsed since the composite image was transmitted to the projector.
請求項1乃至4のいずれか1項において、
前記元画像生成部は、
前記入力パネルに接触した前記物体の移動軌跡を前記接触面画像の色又は模様を用いて描画した画像を前記元画像として生成する、画像投影システム。
In any one of Claims 1 thru | or 4,
The original image generation unit
The image projection system which produces | generates the image which drawn the movement locus | trajectory of the said object which contacted the said input panel using the color or pattern of the said contact surface image as said original image.
請求項1乃至5のいずれか1項において、
前記入力パネルに対する前記物体の接触を検出するための圧力センサを更に備え、
前記マスク画像生成部は、
前記入力パネルに対する前記物体の接触が検出された場合に、前記赤外線画像を第1の閾値で2値化してマスク画像を生成し、生成したマスク画像における白画素の数が所定値未満である場合に、前記赤外線画像を前記第1の閾値未満の第2の閾値で2値化してマスク画像を再度生成する、画像投影システム。
In any one of Claims 1 thru | or 5,
A pressure sensor for detecting contact of the object with the input panel;
The mask image generation unit
When the contact of the object with the input panel is detected, the infrared image is binarized with a first threshold value to generate a mask image, and the number of white pixels in the generated mask image is less than a predetermined value In addition, the image projection system generates a mask image again by binarizing the infrared image with a second threshold value less than the first threshold value.
光源からの赤外光を内部に導波させる入力パネルと、前記入力パネルの背面側に重ねて配置された投影スクリーンと、前記入力パネルの表面に接触した物体により生じた散乱光を背面側から撮像する赤外線カメラと、前記投影スクリーンに画像を背面側から投影するプロジェクタと、前記入力パネルを背面側から撮像する可視光カメラと、を備えた画像投影システムのためのプログラムであって、
投影用の元画像を生成する元画像生成部と、
前記赤外線カメラで撮像された赤外線画像を2値化してマスク画像を生成するマスク画像生成部と、
前記元画像と前記マスク画像とを合成して合成画像を生成する合成画像生成部と、
前記合成画像を前記プロジェクタに送信して投影させる投影制御部と、
前記合成画像の投影完了後に前記可視光カメラに撮像を行わせる撮像制御部と、
前記可視光カメラで撮像された可視光画像と前記マスク画像とを合成して、前記可視光画像から前記物体と前記入力パネルとの接触部分に対応する領域の画像を抽出した接触面画像を生成する接触面画像生成部としてコンピュータを機能させ、
前記元画像生成部は、
前記接触面画像に基づいて前記元画像を生成し、
前記合成画像生成部は、
前記合成画像を投影した場合に前記接触部分が前記可視光カメラから見て単色になるような前記合成画像を生成する、プログラム。
An input panel that guides infrared light from the light source to the inside, a projection screen that is arranged on the back side of the input panel, and scattered light generated by an object that contacts the surface of the input panel from the back side A program for an image projection system comprising: an infrared camera for imaging; a projector that projects an image on the projection screen from the back side; and a visible light camera that images the input panel from the back side;
An original image generation unit for generating an original image for projection;
A mask image generation unit that generates a mask image by binarizing an infrared image captured by the infrared camera;
A composite image generating unit that generates a composite image by combining the original image and the mask image;
A projection control unit for transmitting the composite image to the projector and projecting it;
An imaging control unit that causes the visible light camera to perform imaging after the projection of the composite image is completed;
A visible image captured by the visible light camera and the mask image are combined to generate a contact surface image obtained by extracting an image of an area corresponding to a contact portion between the object and the input panel from the visible light image. The computer functions as a contact surface image generation unit that performs
The original image generation unit
Generating the original image based on the contact surface image;
The composite image generation unit
The program which produces | generates the said synthetic | combination image that the said contact part becomes single color seeing from the said visible light camera when the said synthetic | combination image is projected.
光源からの赤外光を内部に導波させる入力パネルと、前記入力パネルの背面側に重ねて配置された投影スクリーンと、前記入力パネルの表面に接触した物体により生じた散乱光を背面側から撮像する赤外線カメラと、前記投影スクリーンに画像を背面側から投影するプロジェクタと、前記入力パネルを背面側から撮像する可視光カメラと、を備えた画像投影システムで実行される画像投影方法であって、
投影用の元画像を生成する元画像生成ステップと、
前記赤外線カメラで撮像された赤外線画像を2値化してマスク画像を生成するマスク画像生成ステップと、
前記元画像と前記マスク画像とを合成して合成画像を生成する合成画像生成ステップと、
前記合成画像を前記プロジェクタに送信して投影させる投影制御ステップと、
前記合成画像の投影完了後に前記可視光カメラに撮像を行わせる撮像制御ステップと、
前記可視光カメラで撮像された可視光画像と前記マスク画像とを合成して、前記可視光画像から前記物体と前記入力パネルとの接触部分に対応する領域の画像を抽出した接触面画像を生成する接触面画像生成ステップと、を含み、
前記元画像生成ステップでは、
前記接触面画像に基づいて前記元画像を生成し、
前記合成画像生成ステップでは、
前記合成画像を投影した場合に前記接触部分が前記可視光カメラから見て単色になるような前記合成画像を生成する、画像投影方法。
An input panel that guides infrared light from the light source to the inside, a projection screen that is arranged on the back side of the input panel, and scattered light generated by an object that contacts the surface of the input panel from the back side An image projection method executed by an image projection system comprising: an infrared camera for imaging; a projector for projecting an image on the projection screen from the back side; and a visible light camera for imaging the input panel from the back side. ,
An original image generating step for generating an original image for projection;
A mask image generation step of generating a mask image by binarizing an infrared image captured by the infrared camera;
A composite image generation step of generating a composite image by combining the original image and the mask image;
A projection control step of transmitting the composite image to the projector and projecting it;
An imaging control step for causing the visible light camera to perform imaging after completion of the projection of the composite image;
A visible image captured by the visible light camera and the mask image are combined to generate a contact surface image obtained by extracting an image of an area corresponding to a contact portion between the object and the input panel from the visible light image. And a contact surface image generating step to perform,
In the original image generation step,
Generating the original image based on the contact surface image;
In the composite image generation step,
An image projecting method for generating the composite image such that the contact portion is monochromatic when viewed from the visible light camera when the composite image is projected.
JP2017016707A 2016-09-02 2017-02-01 Image projection system, program, and image projection method Pending JP2018042230A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016171768 2016-09-02
JP2016171768 2016-09-02

Publications (1)

Publication Number Publication Date
JP2018042230A true JP2018042230A (en) 2018-03-15

Family

ID=61626551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017016707A Pending JP2018042230A (en) 2016-09-02 2017-02-01 Image projection system, program, and image projection method

Country Status (1)

Country Link
JP (1) JP2018042230A (en)

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US9767612B2 (en) Method, system and apparatus for removing a marker projected in a scene
JP5300859B2 (en) IMAGING DEVICE, DISPLAY IMAGING DEVICE, AND ELECTRONIC DEVICE
EP2720114A1 (en) Information input device
US20200134282A1 (en) Image processing method, device, electronic apparatus and storage medium
US20170237955A1 (en) Position detection apparatus and contrast adjustment method used with the same
CN107533765B (en) Apparatus, method and system for tracking optical objects
US20210044756A1 (en) Display and imaging device
KR20120052649A (en) A transparent display apparatus and a method for controlling the same
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
US20160063711A1 (en) Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method
JP7062751B2 (en) Projection control device, projection device, projection control method, and projection control program
JP2018042230A (en) Image projection system, program, and image projection method
JP2015184906A (en) Skin color detection condition determination device, skin color detection condition determination method and skin color detection condition determination computer program
US9473670B2 (en) Peripheral with image processing function
JP6368593B2 (en) Image processing program, information processing system, and image processing method
US10318077B2 (en) Coherent illumination for touch point identification
US10289367B2 (en) Image forming apparatus
US20230419735A1 (en) Information processing device, information processing method, and storage medium
JP6386837B2 (en) Image processing program, information processing system, information processing apparatus, and image processing method
JP5392656B2 (en) Information input device, information input / output device, and electronic device
JP2012226507A (en) Emitter identification device, emitter identification method and emitter identification program
JP7199822B2 (en) Detection device and detection method
US9298319B2 (en) Multi-touch recognition apparatus using filtering and a difference image and control method thereof
US20230199323A1 (en) Image processing apparatus, optical transmission apparatus, optical communication system, program and image processing method