JP6364944B2 - Image processing apparatus, projection and photographing method, and computer program - Google Patents

Image processing apparatus, projection and photographing method, and computer program Download PDF

Info

Publication number
JP6364944B2
JP6364944B2 JP2014100814A JP2014100814A JP6364944B2 JP 6364944 B2 JP6364944 B2 JP 6364944B2 JP 2014100814 A JP2014100814 A JP 2014100814A JP 2014100814 A JP2014100814 A JP 2014100814A JP 6364944 B2 JP6364944 B2 JP 6364944B2
Authority
JP
Japan
Prior art keywords
image
screen
projection
correction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014100814A
Other languages
Japanese (ja)
Other versions
JP2015220503A (en
Inventor
春充 藤森
春充 藤森
雄治 小林
雄治 小林
明洋 林
明洋 林
史郎 梅田
史郎 梅田
孝介 桝元
孝介 桝元
康弘 石原
康弘 石原
山口 洋
洋 山口
渡辺 功
功 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014100814A priority Critical patent/JP6364944B2/en
Publication of JP2015220503A publication Critical patent/JP2015220503A/en
Application granted granted Critical
Publication of JP6364944B2 publication Critical patent/JP6364944B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、プロジェクタなどによる画像の投影およびその画像の撮影の技術に関する。   The present invention relates to a technique for projecting an image by a projector or the like and photographing the image.

近年、パーソナルコンピュータまたはスマートフォンなどに表示される画像をスクリーンに投影するプロジェクタ普及している。プロジェクタは、「画像投影装置」と呼ばれることもある。   In recent years, projectors that project an image displayed on a personal computer or a smartphone onto a screen have become widespread. The projector is sometimes called an “image projector”.

JPEG(Joint Photographic Experts Group)、GIF(Graphics Interchange Format)、またはTIFF(Tagged Image File Format)などの画像データのほか、プレゼンテーション用のアプリケーションのフォーマットの画像データを使用して画像を出力することができるプロジェクタも、市販されている。   In addition to image data such as JPEG (Joint Photographic Experts Group), GIF (Graphics Interchange Format), or TIFF (Tagged Image File Format), images can be output using image data in the format of a presentation application. Projectors are also commercially available.

ホワイトボードをスクリーンとして使用することができる。または、壁に白いビニールを貼り、これをスクリーンとして使用することもできる。これらの場合に、ユーザは、画像がスクリーンに映っているときに、ペンでメモなどを手書きすることができる。そして、ユーザは、デジタルカメラでスクリーンを撮影し、記録しておくことができる。   A whiteboard can be used as a screen. Alternatively, white vinyl can be pasted on the wall and used as a screen. In these cases, the user can hand-write a memo or the like with a pen when the image is reflected on the screen. Then, the user can take a picture with a digital camera and record it.

スクリーンへ画像を投影する技術およびスクリーンを撮影する技術として、次のような技術が提案されている。   The following techniques have been proposed as a technique for projecting an image on a screen and a technique for photographing the screen.

特許文献1に記載される技術によると、投影装置によって投影オブジェクトが投影され且つユーザーによって手書きオブジェクトが手書きされた板を撮影して得た入力画像から、前記板の四辺及び投影領域の四辺を検出し、当該検出した各四辺に基づき第1及び第2の枠を抽出し、第1の枠から第1の歪み補正値を、第2の枠から第2の歪み補正値を得る。入力画像からオブジェクトを抽出し、手書きオブジェクトに対しては第1の歪み補正値を用い、投影オブジェクトに対しては第2の歪み補正値を用いて、各オブジェクトの形状の歪み補正を行い、歪み補正された画像データを生成する。   According to the technique described in Patent Document 1, the four sides of the board and the four sides of the projection area are detected from an input image obtained by photographing the board on which the projection object is projected by the projection device and the handwritten object is handwritten by the user. Then, the first and second frames are extracted based on the detected four sides, and the first distortion correction value is obtained from the first frame, and the second distortion correction value is obtained from the second frame. An object is extracted from the input image, the first distortion correction value is used for a handwritten object, and the second distortion correction value is used for a projection object. Corrected image data is generated.

特許文献2に記載される技術によると、方形からスクリーン上で発生する歪みの方向とは逆方向に歪ませた画像をライトバルブ上に表示し、これを投射レンズを介して投射する。これによって、スクリーンに映る映像の歪みが補正され、輪郭が方形をした補正投射映像となって視認される。このとき、補正投射映像を撮像した撮像素子からは、出力として撮影映像が得られる。この撮影映像は歪んでいるため、これを輪郭が方形をした映像に補正するために、撮像映像歪み補正手段を用いて補正撮影映像を得る。   According to the technique described in Patent Document 2, an image distorted in a direction opposite to the direction of distortion generated on a screen from a square is displayed on a light valve, and this is projected through a projection lens. As a result, the distortion of the image displayed on the screen is corrected, and a corrected projected image having a rectangular outline is visually recognized. At this time, a captured image is obtained as an output from the image sensor that has captured the corrected projected image. Since this captured image is distorted, a corrected captured image is obtained by using the captured image distortion correcting means in order to correct the captured image to a rectangular image.

特許文献3に記載される技術によると、投影画像入力部に入力された投影すべき映像情報に対して色補正、輝度補正、台形歪み補正等の補正処理を行う画像補正部と、該画像補正部で補正処理された映像情報に基づく映像をスクリーン面に投影するプロジェクタと、該プロジェクタが投影したスクリーン面上の映像を撮影するカメラとを備える映像表示装置において、上記プロジェクタは、テストチャートの画像を投影し、上記カメラは、この投影されたテストチャートの画像を撮影する。そして、制御部は、上記カメラが撮影したテストチャートの映像情報と上記プロジェクタに投影させたテストチャートの画像情報とを比較することで補正量を求め、その補正量に従って上記画像補正部で、上記投影すべき映像情報に対する補正処理を行わせる。   According to the technique described in Patent Document 3, an image correction unit that performs correction processing such as color correction, luminance correction, and trapezoidal distortion correction on video information to be projected input to the projection image input unit, and the image correction In a video display device comprising: a projector that projects video on the screen surface based on video information corrected by the unit; and a camera that captures video on the screen surface projected by the projector, the projector includes an image of a test chart And the camera takes an image of the projected test chart. Then, the control unit obtains a correction amount by comparing the video information of the test chart photographed by the camera and the image information of the test chart projected on the projector, and the image correction unit determines the correction amount according to the correction amount. Correction processing is performed on video information to be projected.

特許文献4に記載される技術によると、入力される画像信号に応じた光像を形成し、被投影面に向けて投影するマイクロミラー素子、投影レンズを含む投影系と、一定の距離をあけて配置され、共に上記投影系で投影した画像を撮像する、第1の撮像レンズとCCD、第2の撮像レンズとCCDを含む一対の撮像系と、これら一対の撮像系で撮像した画像の位相差から被投影面までの距離及び角度を算出し、得た被投影面までの距離及び角度により投影系で投影する画像を台形補正させる制御部とを備える。   According to the technique described in Patent Document 4, a fixed distance is formed between a projection system including a micromirror element and a projection lens that form an optical image corresponding to an input image signal and project it toward a projection surface. A pair of imaging systems including a first imaging lens and a CCD, a second imaging lens and a CCD, and the positions of images captured by the pair of imaging systems. A control unit that calculates a distance and an angle from the phase difference to the projection surface and corrects an image projected by the projection system based on the obtained distance and angle to the projection surface;

特許文献5に記載される技術によると、所定の画像を投影面に投影した画像を撮像した撮像画像から、前記所定の画像に対応する画像を探索する探索処理と、前記探索した画像に基づいて前記撮像画像に対するパースペクティブ歪みの補正のパラメータを算出するパラメータ算出処理と、前記算出したパラメータに基づいて、パラメータを算出した後に撮像した撮像画像及び前記撮像画像に対して補正する補正処理と、を実行する。   According to the technique described in Patent Document 5, a search process for searching for an image corresponding to the predetermined image from a captured image obtained by capturing an image obtained by projecting the predetermined image onto a projection plane, and the search based on the searched image. A parameter calculation process for calculating a perspective distortion correction parameter for the captured image, and a captured image captured after calculating the parameter based on the calculated parameter and a correction process for correcting the captured image are performed. To do.

特開2011−141600号公報 撮影JP, 2011-141600, A 特開2005−64667号公報JP 2005-64667 A 特開2003−283964号公報JP 2003-283964 A 特開2007−94036号公報JP 2007-94036 A 特開2013−257643号公報JP 2013-257463 A

従来の技術によると、台形補正が施された画像がスクリーンへ投影されると、スクリーンにおいて元の画像の形状つまり長方形で表示される。しかし、解像度は、元の画像よりも低くなってしまう。   According to the prior art, when an image subjected to trapezoidal correction is projected onto a screen, it is displayed on the screen in the shape of the original image, that is, a rectangle. However, the resolution is lower than the original image.

また、スクリーンに表示された画像を撮影して台形補正を施すと、元の画像の形状つまり長方形に調整することができるが、解像度が低くなってしまう。スクリーンに手書きした画像(手書画像)も同様に、台形補正を施す前よりも解像度が低くなってしまう。   Moreover, when the image displayed on the screen is photographed and keystone correction is performed, the original image shape, that is, a rectangle can be adjusted, but the resolution is lowered. Similarly, an image handwritten on the screen (handwritten image) has a lower resolution than before the keystone correction.

すると、スクリーンを撮影して記録しても、その後、何が書いてあるのかをユーザが認識しにくくなることがある。   Then, even if the screen is shot and recorded, it may be difficult for the user to recognize what is written thereafter.

本発明は、このような問題点に鑑み、解像度の低減を従来よりも抑えてスクリーンの画像を取得することを、目的とする。   In view of such a problem, an object of the present invention is to obtain a screen image while suppressing a reduction in resolution as compared with the prior art.

本発明の一形態に係る画像投影装置は、出力する対象である対象画像をスクリーンへ投影する画像投影装置であって、前記対象画像が前記スクリーンに表示されている際に当該スクリーンを撮影することによって撮影画像を取得する撮影手段と、前記撮影手段の位置と前記スクリーンの位置との関係に基づいて、前記対象画像を、当該スクリーンにおいて形状が長方形になって表示されるように補正することによって、第一の補正画像を生成する、第一の補正手段と、前記対象画像および前記第一の補正画像を選択的に前記スクリーンへ投影する投影手段と、前記スクリーンに書き込まれた画像である書込画像を前記撮影画像と前記対象画像とを比較することによって検出する検出手段と、形状が長方形になるように前記書込画像を前記関係に基づいて補正することによって第二の補正画像を生成する第二の補正手段と、前記対象画像に前記第二の補正画像を重ね合わせることによって記録用画像を生成する記録用画像生成手段と、を有する。
An image projection apparatus according to an aspect of the present invention is an image projection apparatus that projects a target image, which is an output target, onto a screen, and captures the screen when the target image is displayed on the screen. By correcting the target image so that the shape is displayed in a rectangular shape on the screen based on the relationship between the position of the shooting unit and the position of the screen based on the shooting unit that acquires the shot image by to generate a first corrected image, and the first correction means is a projection means and the image written to the screen to project the target image and the first corrected image to selectively said screen writing Detecting means for detecting an embedded image by comparing the captured image with the target image, and the relationship between the written image so that the shape is rectangular A second correction means for generating a second corrected image by correcting based, and a recording image generating means for generating a recording image by superposing the second corrected image to the target image Have.

または、較正用のパターンを前記スクリーンへ投影し当該スクリーンを撮影することによって前記位置を表わすデータを生成する関係データ生成手段、を有し、前記第一の補正手段は、前記データに基づいて前記第一の補正画像を生成し、前記第二の補正手段は、前記データに基づいて前記第二の補正画像を生成する。または、前記スクリーンに対する前記撮影手段の光軸の角度を検出する角度手段、を有し、前記第一の補正手段は、前記角度に基づいて前記第一の補正画像を生成し、前記第二の補正手段は、前記角度に基づいて前記第二の補正画像を生成する。 Or it has relation data generation means for generating data representing the position by projecting a calibration pattern onto the screen and photographing the screen, and the first correction means is based on the data A first correction image is generated, and the second correction unit generates the second correction image based on the data. Alternatively, an angle unit that detects an angle of the optical axis of the photographing unit with respect to the screen, the first correction unit generates the first correction image based on the angle, and the second correction unit The correcting unit generates the second corrected image based on the angle.

または、前記投影手段および前記撮影手段は、水平方向に隣り合うように設けられている。または、前記投影手段および前記撮影手段は、共通のレンズを使用する。   Alternatively, the projection unit and the photographing unit are provided so as to be adjacent in the horizontal direction. Alternatively, the projection unit and the photographing unit use a common lens.

本発明によると、解像度の低減を従来よりも抑えてスクリーンの画像を取得することができる。   According to the present invention, it is possible to acquire a screen image while suppressing the reduction in resolution as compared with the prior art.

会議システムの全体的な構成の例を示す図である。It is a figure which shows the example of the whole structure of a conference system. 第一のプロジェクタおよび第二のプロジェクタの外観の例を示す図である。It is a figure which shows the example of the external appearance of a 1st projector and a 2nd projector. 第一のプロジェクタのハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a 1st projector. 画像の歪みおよび補正の原理について説明するための図である。It is a figure for demonstrating the principle of distortion and correction | amendment of an image. 補正用データ取得処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of the data acquisition process for correction | amendment. 補正用データを取得する処理を説明するための図である。It is a figure for demonstrating the process which acquires the data for correction | amendment. 投影処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a projection process. 対象画像を投影する処理を説明するための図である。It is a figure for demonstrating the process which projects a target image. 撮影処理の際の各画像の形態の例を示す図である。It is a figure which shows the example of the form of each image in the case of an imaging | photography process. 撮影処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of an imaging process. 投影および撮影の際の全体的な処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of the whole process in the case of a projection and imaging | photography. 第二のプロジェクタのハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a 2nd projector.

図1は、会議システム4の全体的な構成の例を示す図である。図2は、第一のプロジェクタ1Aおよび第二のプロジェクタ1Bの外観の例を示す図である。   FIG. 1 is a diagram illustrating an example of the overall configuration of the conference system 4. FIG. 2 is a diagram showing an example of the external appearance of the first projector 1A and the second projector 1B.

図1に示す会議システム4は、会議の資料の画像を表示したり撮影したりするためのシステムである。会議システム4は、プロジェクタ1、端末装置2、およびスクリーン3などによって構成される。プロジェクタ1と端末装置2とは、有線または無線によって接続されている。   A conference system 4 shown in FIG. 1 is a system for displaying and photographing an image of a conference material. The conference system 4 includes a projector 1, a terminal device 2, a screen 3, and the like. The projector 1 and the terminal device 2 are connected by wire or wireless.

スクリーン3には、プロジェクタ1から出力された画像が表示される。スクリーン3として、専用のボードが用いられるが、ホワイトボードを用いてもよい。または、部屋の壁面を用いてもよい。   An image output from the projector 1 is displayed on the screen 3. A dedicated board is used as the screen 3, but a white board may be used. Alternatively, the wall surface of the room may be used.

以下、スクリーン3としてホワイトボードが用いられる場合を例に説明する。よって、ユーザは、画像が表示されているときに、水性ペンでスクリーン3にメモを書き込むことができる。   Hereinafter, a case where a white board is used as the screen 3 will be described as an example. Therefore, the user can write a memo on the screen 3 with the water-based pen when the image is displayed.

プロジェクタ1は、投影部を有し、画像をスクリーン3に投影する。プロジェクタ1は、さらに、撮影部を有し、スクリーン3を撮影することによって、この画像とともにメモを記録することができる。   The projector 1 has a projection unit and projects an image on the screen 3. The projector 1 further includes a photographing unit, and can record a memo together with this image by photographing the screen 3.

撮影部の撮影レンズおよび投影部の投影レンズとして図2(A)のように別々のレンズを用いる第一のプロジェクタ1Aと、図2(B)のように1枚のレンズを共通に用いる第二のプロジェクタ1Bとが、ある。   The first projector 1A that uses separate lenses as shown in FIG. 2A as the photographing lens of the photographing unit and the projection lens of the projection unit, and the second that uses a single lens as shown in FIG. 2B. Projector 1B.

端末装置2は、スクリーン3に投影する画像の画像データをプロジェクタ1へ提供する。端末装置2として、パーソナルコンピュータ、スマートフォン、またはタブレットコンピュータなどが用いられる。   The terminal device 2 provides image data of an image to be projected on the screen 3 to the projector 1. As the terminal device 2, a personal computer, a smartphone, a tablet computer, or the like is used.

以下、第一のプロジェクタ1Aおよび第二のプロジェクタ1Bのそれぞれについて、順次説明する。   Hereinafter, each of the first projector 1A and the second projector 1B will be sequentially described.

〔第一のプロジェクタ〕
図3は、第一のプロジェクタ1Aのハードウェア構成の例を示す図である。図4は、画像の歪みおよび補正の原理について説明するための図である。図5は、補正用データ取得処理の流れの例を説明するフローチャートである。図6は、補正用データ61を取得する処理を説明するための図である。図7は、投影処理の流れの例を説明するフローチャートである。図8は、対象画像52aを投影する処理を説明するための図である。図9は、撮影処理の際の各画像の形態の例を示す図である。図10は、撮影処理の流れの例を説明するフローチャートである。
[First projector]
FIG. 3 is a diagram illustrating an example of a hardware configuration of the first projector 1A. FIG. 4 is a diagram for explaining the principle of image distortion and correction. FIG. 5 is a flowchart for explaining an example of the flow of correction data acquisition processing. FIG. 6 is a diagram for explaining processing for acquiring the correction data 61. FIG. 7 is a flowchart for explaining an example of the flow of projection processing. FIG. 8 is a diagram for explaining the process of projecting the target image 52a. FIG. 9 is a diagram illustrating an example of the form of each image at the time of shooting processing. FIG. 10 is a flowchart illustrating an example of the flow of shooting processing.

プロジェクタ1Aは、図3に示すように、制御部101、入出力インタフェース102、操作パネル103、投影部12、第一の撮影部13、第二の撮影部104、補正量算出部105、投影画像処理部106、記憶部107、撮影画像処理部108、手書オブジェクト検出部109、および記録画像生成部110などによって構成される。   As shown in FIG. 3, the projector 1A includes a control unit 101, an input / output interface 102, an operation panel 103, a projection unit 12, a first imaging unit 13, a second imaging unit 104, a correction amount calculation unit 105, a projection image. The processing unit 106, the storage unit 107, the captured image processing unit 108, the handwriting object detection unit 109, the recorded image generation unit 110, and the like are included.

補正量算出部105、投影画像処理部106、撮影画像処理部108、手書オブジェクト検出部109、および記録画像生成部110は、ASIC(Application Specific Integrated Circuit)またはFPGA(Field Programmable Gate Array)などの回路である。機能については、後に順次説明する。   The correction amount calculation unit 105, the projection image processing unit 106, the captured image processing unit 108, the handwriting object detection unit 109, and the recorded image generation unit 110 are an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). Circuit. The functions will be sequentially described later.

制御部101は、CPU(Central Processing Unit)、RAM(Random Access Memory)、およびROM(Read Only Memory)などによって構成され、プロジェクタ1Aの全体的な制御を行う。RAMには、メインプログラム1P0、補正用データ取得プログラム1P1、投影プログラム1P2、および撮影プログラム1P3などのコンピュータプログラムが記憶されている。これらのコンピュータプログラムは、必要に応じてRAMにロードされ、CPUによって実行される。   The control unit 101 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and performs overall control of the projector 1A. The RAM stores computer programs such as a main program 1P0, a correction data acquisition program 1P1, a projection program 1P2, and an imaging program 1P3. These computer programs are loaded into the RAM as necessary and executed by the CPU.

入出力インタフェース102は、端末装置2との間でデータをやり取りするためのインタフェースである。入出力インタフェース102として、D−SUB(D-Subminiature)、DVI(Digital Visual Interface)、HDMI(High-Definition Multimedia Interface)、USB(Universal Serial Bus)、イーサネット、Bluetooth、または無線LANなどの規格のインタフェースが用いられる。HDMI、イーサネット、Bluetoothは、登録商標である。   The input / output interface 102 is an interface for exchanging data with the terminal device 2. As the input / output interface 102, a standard interface such as D-SUB (D-Subminiature), DVI (Digital Visual Interface), HDMI (High-Definition Multimedia Interface), USB (Universal Serial Bus), Ethernet, Bluetooth, or wireless LAN. Is used. HDMI, Ethernet, and Bluetooth are registered trademarks.

操作パネル103は、ユーザが情報およびコマンドを入力するためのボタンを有し、入力された内容を制御部101へ通知する。   The operation panel 103 has buttons for the user to input information and commands, and notifies the control unit 101 of the input content.

投影部12は、透過型液晶方式の投影装置であって、光源121、投影素子122、および投影レンズ123などによって構成され、端末装置2から入力された画像をスクリーン3へ投影する。なお、この画像は、後述する投影画像処理部106によって補正される場合がある。   The projection unit 12 is a transmissive liquid crystal type projection device, and includes a light source 121, a projection element 122, a projection lens 123, and the like, and projects an image input from the terminal device 2 onto the screen 3. Note that this image may be corrected by a projection image processing unit 106 described later.

光源121は、ランプおよびミラーなどによって構成され、画像に応じた光を投影素子122に対して照射する。   The light source 121 includes a lamp and a mirror, and irradiates the projection element 122 with light corresponding to an image.

投影素子122は、液晶パネルである。ランプから照射された光は、投影素子122によって量が調整され、投影レンズ123へ進む。   The projection element 122 is a liquid crystal panel. The amount of light emitted from the lamp is adjusted by the projection element 122 and proceeds to the projection lens 123.

投影レンズ123は、投影素子122からの光を発散させ、スクリーン3へ照射する。これにより、画像がスクリーン3に表示される。   The projection lens 123 diverges the light from the projection element 122 and irradiates the screen 3. As a result, an image is displayed on the screen 3.

第一の撮影部13は、スクリーン3を撮影するための撮影装置であって、撮影レンズ131および撮影素子132などによって構成される。   The first photographing unit 13 is a photographing device for photographing the screen 3, and includes a photographing lens 131, a photographing element 132, and the like.

撮影レンズ131は、スクリーン3からの光を撮影素子132に収束させる。撮影素子132は、受光した光を電気信号に変換する。これにより、スクリーン3が撮影される。撮影素子132として、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサが用いられる。   The photographing lens 131 converges the light from the screen 3 on the photographing element 132. The imaging element 132 converts the received light into an electrical signal. Thereby, the screen 3 is photographed. As the imaging element 132, an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) is used.

なお、投影レンズ123と撮影レンズ131とは、図2(A)に示すように水平方向に隣り合うように配置されており、一定の視差αがある。   Note that the projection lens 123 and the photographing lens 131 are arranged adjacent to each other in the horizontal direction as shown in FIG. 2A, and have a certain parallax α.

ところで、画像の形状を補正することなくスクリーン3へ投影すると、画像が歪んで表示されてしまうことがある。その原因は、図4(A)に示すように、第一のプロジェクタ1Aの投影レンズ123の光軸がスクリーン3の投影面に直交しないからである。   By the way, if the image is projected onto the screen 3 without correcting the shape of the image, the image may be distorted and displayed. This is because the optical axis of the projection lens 123 of the first projector 1A is not orthogonal to the projection surface of the screen 3 as shown in FIG.

例えば、図4(B)のように、長方形の画像50aを、形状を補正することなく投影すると、台形の画像50bが投影される。   For example, as shown in FIG. 4B, when a rectangular image 50a is projected without correcting the shape, a trapezoidal image 50b is projected.

そこで、画像50aを図4(C)のような画像50cに予め補正し、これを投影すれば、長方形の画像50dが表示される。   Therefore, if the image 50a is corrected in advance to an image 50c as shown in FIG. 4C and projected, a rectangular image 50d is displayed.

このような公知の原理を用いて、制御部101、第二の撮影部104、補正量算出部105、および投影画像処理部106は、画像が歪んでスクリーン3に表示されないように、次のように処理を行う。   Using such a known principle, the control unit 101, the second photographing unit 104, the correction amount calculation unit 105, and the projection image processing unit 106 are as follows so that the image is not distorted and displayed on the screen 3. To process.

ユーザが第一のプロジェクタ1Aをスクリーン3の前に設置し、操作パネル103に対して所定の操作を行うと、制御部101は、補正用データ取得プログラム1P1に基づいて、補正用のデータ(以下、「補正用データ61」と記載する。)を取得する処理を、図5のフローチャートに示す手順で実行する。   When the user installs the first projector 1A in front of the screen 3 and performs a predetermined operation on the operation panel 103, the control unit 101 performs correction data (hereinafter referred to as correction data (hereinafter referred to as correction data) based on the correction data acquisition program 1P1). , Described as “correction data 61”) is executed according to the procedure shown in the flowchart of FIG.

制御部101は、較正用パターン画像51aを、形状を補正することなく投影するように、投影部12を制御する(図5の#701)。較正用パターン画像51aは、図6(A)に示すように、全体が長方形でありかつ所定の大きさである、格子の模様の画像である。   The control unit 101 controls the projection unit 12 to project the calibration pattern image 51a without correcting the shape (# 701 in FIG. 5). As shown in FIG. 6A, the calibration pattern image 51a is an image of a lattice pattern that is entirely rectangular and has a predetermined size.

すると、スクリーン3に較正用パターン画像51aが投影される。ただし、図6(B)のように、較正用パターン画像51aが歪んでしまうことが多い。以下、スクリーン3に表示されている較正用パターン画像51aを「較正用パターン画像51b」と記載する。   Then, the calibration pattern image 51 a is projected on the screen 3. However, as shown in FIG. 6B, the calibration pattern image 51a is often distorted. Hereinafter, the calibration pattern image 51a displayed on the screen 3 is referred to as a “calibration pattern image 51b”.

制御部101は、較正用パターン画像51bを撮影するように第二の撮影部104を制御する(#702)。しかし、第二の撮影部104のレンズの光軸がスクリーン3に垂直に交わらないことが多い。したがって、第二の撮影部104によって較正用パターン画像51bを撮影すると、図6(C)に示すような、投影部12、スクリーン3、および第二の撮影部104の位置関係に応じた形状の較正用パターン画像51cの画像データが得られる。   The control unit 101 controls the second photographing unit 104 so as to photograph the calibration pattern image 51b (# 702). However, the optical axis of the lens of the second photographing unit 104 often does not intersect the screen 3 perpendicularly. Therefore, when the calibration pattern image 51b is photographed by the second photographing unit 104, a shape corresponding to the positional relationship among the projection unit 12, the screen 3, and the second photographing unit 104 as shown in FIG. Image data of the calibration pattern image 51c is obtained.

制御部101は、較正用パターン画像51aと較正用パターン画像51cとの差異を算出し(#703)、算出した差異および投影部12と第二の撮影部104との位置関係などに基づいて、公知のキーストーン補正の原理に基づいて、スクリーン3に対する投影レンズ123の光軸の角度(投影角度θ)を算出する(#704)。このようにして得られた投影角度θが、補正用データ61として記憶部107に記憶される(#705)。   The control unit 101 calculates the difference between the calibration pattern image 51a and the calibration pattern image 51c (# 703), and based on the calculated difference and the positional relationship between the projection unit 12 and the second imaging unit 104, and the like. Based on the known principle of keystone correction, the angle of the optical axis of the projection lens 123 with respect to the screen 3 (projection angle θ) is calculated (# 704). The projection angle θ thus obtained is stored in the storage unit 107 as correction data 61 (# 705).

制御部101は、プレゼンテーションなどのためにスクリーン3へ投影する対象の画像(以下、「対象画像52a」と記載する。)を投影する処理を、投影プログラム1P2に基づいて図7のフローチャートに示す手順で実行する。   The control unit 101 performs a process shown in the flowchart of FIG. 7 on the basis of the projection program 1P2 for projecting an image to be projected onto the screen 3 for presentation or the like (hereinafter referred to as “target image 52a”). Run with.

制御部101は、図8(A)のような対象画像52aが端末装置2から入力されると、対象画像52aの各画素をどれくらい縮小すればよいのか(つまり、補正量)を、補正量算出部105に算出させる(図7の#711)。補正量算出部105は、補正用データ61(投影角度θ)に基づいて、キーストーン方式によって補正量を算出する。   When the target image 52a as shown in FIG. 8A is input from the terminal device 2, the control unit 101 calculates how much each pixel of the target image 52a should be reduced (that is, the correction amount). The calculation is performed by the unit 105 (# 711 in FIG. 7). The correction amount calculation unit 105 calculates the correction amount by the keystone method based on the correction data 61 (projection angle θ).

制御部101は、対象画像52aの補正を行うように、投影画像処理部106を制御する(#712)。すると、投影画像処理部106は、算出された補正量に基づいて対象画像52aに対して、補正を行うことによって、図8(B)のような、台形の補正画像52bを算出する。   The control unit 101 controls the projection image processing unit 106 so as to correct the target image 52a (# 712). Then, the projection image processing unit 106 calculates a trapezoidal correction image 52b as shown in FIG. 8B by performing correction on the target image 52a based on the calculated correction amount.

そして、制御部101は、補正画像52bをスクリーン3へ投影するように投影部12を制御する(#713)。すると、図8(C)のような、長方形の対象画像52cが表示される。   Then, the control unit 101 controls the projection unit 12 to project the corrected image 52b onto the screen 3 (# 713). Then, a rectangular target image 52c as shown in FIG. 8C is displayed.

このように、投影画像処理部106は、長方形の対象画像52cが表示されるように、補正画像52bを補正している。つまり、いわゆる逆の台形補正を行っている。この際に、公知のキーストーン補正の原理が用いられる。なお、対象画像52cは、対象画像52aを縮小することによって得られたものなので、対象画像52aに比べて解像度が低くなっている。   Thus, the projection image processing unit 106 corrects the corrected image 52b so that the rectangular target image 52c is displayed. That is, so-called reverse trapezoidal correction is performed. At this time, a known principle of keystone correction is used. Since the target image 52c is obtained by reducing the target image 52a, the resolution is lower than that of the target image 52a.

制御部101は、対象画像52aの画像データを記憶部107に記憶させる(#714)。   The control unit 101 stores the image data of the target image 52a in the storage unit 107 (# 714).

ユーザは、対象画像52cがスクリーン3に表示されているときに、図9(A)のように水性ペンでメモなどのオブジェクトをスクリーン3に書き込むことができる。そして、第一の撮影部13によって、このオブジェクトを対象画像52cとともに記録することができる。以下、手書きされたオブジェクトを「手書オブジェクト53c」と記載する。   When the target image 52c is displayed on the screen 3, the user can write an object such as a memo on the screen 3 with an aqueous pen as shown in FIG. Then, the first photographing unit 13 can record this object together with the target image 52c. Hereinafter, the handwritten object is referred to as “handwritten object 53c”.

対象画像52cおよび手書オブジェクト53cは、第一の撮影部13によって撮影される。しかし、撮影された対象画像52cおよび手書オブジェクト53cは、歪んでしまう。そこで、撮影画像処理部108は、公知のキーストーン補正の原理を用いて、視差αおよび投影角度θなどに基づいて、撮影された対象画像52cおよび手書オブジェクト53cに対して、遠近法(perspective)に伴う台形歪み補正(以下、「台形補正」と記載する。)を施し、長方形になるように調整する。   The target image 52 c and the handwriting object 53 c are photographed by the first photographing unit 13. However, the captured target image 52c and handwritten object 53c are distorted. Therefore, the captured image processing unit 108 uses a known keystone correction principle to perform a perspective method on the captured target image 52c and handwritten object 53c based on the parallax α and the projection angle θ. ) To correct the trapezoidal distortion correction (hereinafter referred to as “trapezoidal correction”), and adjust to a rectangle.

ところで、対象画像52cは、図8(A)(C)に示したように、元の画像つまり対象画像52aよりも解像度が低くなっている。したがって、対象画像52aに小さな文字が含まれている場合は、対象画像52cにおいて、ユーザがこの文字を認識しにくくなることがある。しかも、対象画像52cを第一の撮影部13によって撮影し、台形補正すると、対象画像52cがさらに縮小され解像度が低くなってしまうので、なおさら、認識しにくくなる。   Incidentally, as shown in FIGS. 8A and 8C, the target image 52c has a lower resolution than the original image, that is, the target image 52a. Therefore, when the target image 52a includes a small character, it may be difficult for the user to recognize the character in the target image 52c. Moreover, if the target image 52c is captured by the first imaging unit 13 and the keystone is corrected, the target image 52c is further reduced and the resolution is lowered, so that it becomes difficult to recognize.

そこで、制御部101は、操作パネル103を介して所定のコマンドが入力された場合は、対象画像52cおよび手書オブジェクト53cを撮影する処理を、撮影プログラム1P3に基づいて、図10に示すフローチャートの手順で実行する。   Therefore, when a predetermined command is input via the operation panel 103, the control unit 101 performs processing for capturing the target image 52c and the handwriting object 53c based on the capturing program 1P3 in the flowchart illustrated in FIG. Follow the steps.

制御部101は、台形補正(逆の台形補正)を行うことなく(つまり、台形補正を解除して)対象画像52aを投影するように、投影部12を制御する(図10の#721)。   The control unit 101 controls the projection unit 12 to project the target image 52a without performing keystone correction (reverse keystone correction) (that is, canceling the keystone correction) (# 721 in FIG. 10).

すると、スクリーン3に対象画像52aが、図9(B)のように歪んで表示される。以下、表示された対象画像52aを「対象画像52d」と記載する。一方、手書オブジェクト53cは、ユーザがスクリーン3に水性ペンで描いたものなので、台形補正を解除する前と同じ位置にあり、かつ、同じ形状のままである。   Then, the target image 52a is distorted and displayed on the screen 3 as shown in FIG. Hereinafter, the displayed target image 52a is referred to as “target image 52d”. On the other hand, since the handwritten object 53c is drawn by the user with the water-based pen on the screen 3, it is in the same position as before releasing the trapezoidal correction and remains in the same shape.

制御部101は、スクリーン3を撮影するように第一の撮影部13を制御する(#722)。すると、対象画像52dおよび手書オブジェクト53cが第一の撮影部13によって1つの画像として撮影される。以下、撮影された画像を「撮影画像52e」と記載する。   The control unit 101 controls the first photographing unit 13 to photograph the screen 3 (# 722). Then, the target image 52d and the handwriting object 53c are photographed as one image by the first photographing unit 13. Hereinafter, the captured image is referred to as “captured image 52e”.

撮影画像52eは、図9(C)のように、スクリーン3における画像(対象画像52dおよび手書オブジェクト53c)と比較し、位置および形状が変化している。しかし、撮影画像52eのうち、対象画像52dに相当する部分の形状は、元の画像つまり対象画像52aとほぼ同じである。   As shown in FIG. 9C, the captured image 52e is changed in position and shape as compared with the image on the screen 3 (the target image 52d and the handwriting object 53c). However, the shape of the portion corresponding to the target image 52d in the captured image 52e is substantially the same as the original image, that is, the target image 52a.

制御部101は、対象画像52dから手書オブジェクト53cに相当する部分(以下、「手書オブジェクト53e」と記載する。)を検出する処理を、手書オブジェクト検出部109に実行させる(#723)。   The control unit 101 causes the handwriting object detection unit 109 to execute processing for detecting a portion corresponding to the handwriting object 53c (hereinafter referred to as “handwriting object 53e”) from the target image 52d (# 723). .

すると、手書オブジェクト検出部109は、対象画像52dと対象画像52aとを比較することによって、対象画像52dに含まれているが対象画像52aに含まれていない画像を手書オブジェクト53eとして検出(抽出)する。   Then, the handwriting object detection unit 109 detects the image included in the target image 52d but not included in the target image 52a as the handwriting object 53e by comparing the target image 52d and the target image 52a ( Extract.

さらに、手書オブジェクト検出部109は、図9(D)のように、手書オブジェクト53eを投影角度θなどに基づいて台形補正することによって手書オブジェクト53fを生成する(#724)。具体的には、手書オブジェクト53eをスクリーン3へ投影した場合に、スクリーン3に表示される画像を投影角度θなどに基づいて手書オブジェクト53fとして算出する。   Further, as shown in FIG. 9D, the handwriting object detection unit 109 generates the handwriting object 53f by correcting the handwriting object 53e with a trapezoid based on the projection angle θ or the like (# 724). Specifically, when the handwriting object 53e is projected onto the screen 3, the image displayed on the screen 3 is calculated as the handwriting object 53f based on the projection angle θ or the like.

そして、制御部101は、手書オブジェクト53fを対象画像52aに重ね合わせる(マージする)ことによって図9(E)のような記録画像52fを生成する処理を、記録画像生成部110に実行させる(#725)。   Then, the control unit 101 causes the recording image generation unit 110 to execute a process of generating the recording image 52f as illustrated in FIG. 9E by superimposing (merging) the handwriting object 53f with the target image 52a (see FIG. 9E). # 725).

対象画像52aの中のどの位置に手書オブジェクト53fを重ねればよいのかは、記録画像生成部110は、例えば次のように求めることができる。手書オブジェクト53fの任意の点P1(例えば、左上隅の点)に対応する、撮影画像52eにおける点P2を検出する。点P2に対応する、スクリーン3における点P3を、投影角度θなどに基づいて算出する。そして、点P3に対応する、対象画像52aにおける点P4を、投影角度θなどに基づいて算出する。記録画像生成部110は、手書オブジェクト53fを、点P1が点P4に一致するように対象画像52aに重ね合わせる。   For example, the recorded image generation unit 110 can determine which position in the target image 52a should be overlaid with the handwriting object 53f as follows. A point P2 in the photographed image 52e corresponding to an arbitrary point P1 (for example, the upper left corner point) of the handwriting object 53f is detected. A point P3 on the screen 3 corresponding to the point P2 is calculated based on the projection angle θ and the like. Then, a point P4 in the target image 52a corresponding to the point P3 is calculated based on the projection angle θ or the like. The recorded image generating unit 110 superimposes the handwriting object 53f on the target image 52a so that the point P1 coincides with the point P4.

記録画像52fは、画像データとして入出力インタフェース102によって外部の装置へ送信され、または、記憶部107に記憶される(#726)。   The recorded image 52f is transmitted as image data to an external device by the input / output interface 102 or stored in the storage unit 107 (# 726).

図11は、投影および撮影の際の全体的な処理の流れの例を説明するフローチャートである。   FIG. 11 is a flowchart for explaining an example of the overall processing flow during projection and photographing.

次に、第一のプロジェクタ1Aにおける全体的な処理の流れを、図11に示すフローチャートを参照しながら説明する。   Next, the overall processing flow in the first projector 1A will be described with reference to the flowchart shown in FIG.

第一のプロジェクタ1Aは、電源がオンになると、メインプログラム1P0が起動する。そして、イベントが発生するごとに、メインプログラム1P0に基づいて図11の処理を実行する。   When the first projector 1A is turned on, the main program 1P0 is activated. Then, every time an event occurs, the process of FIG. 11 is executed based on the main program 1P0.

ユーザによってスクリーン3の前に設置され調整用のコマンドが入力されると(図11の#11でYes)、第一のプロジェクタ1Aは、補正用データ61を生成する処理を行う(#12)。この処理の手順は、図5で説明した通りである。補正用データ61が生成されると、プレゼンテーションモードになる。   When a user installs an adjustment command in front of the screen 3 (Yes in # 11 of FIG. 11), the first projector 1A performs a process of generating correction data 61 (# 12). The procedure of this process is as described in FIG. When the correction data 61 is generated, the presentation mode is set.

プレゼンテーションモードにおいて、端末装置2から対象画像52aが入力されると(#13でYes)、第一のプロジェクタ1Aは、対象画像52aをスクリーン3へ投影する処理を行う(#14)。この処理の手順は、図7で説明した通りである。なお、複数のスライドからなる場合は、最初は、1番目のスライドを対象画像52aとして投影させる。   When the target image 52a is input from the terminal device 2 in the presentation mode (Yes in # 13), the first projector 1A performs a process of projecting the target image 52a onto the screen 3 (# 14). The procedure of this process is as described in FIG. In the case of a plurality of slides, first, the first slide is projected as the target image 52a.

ユーザによって手書オブジェクト53cがスクリーン3に書き込まれ撮影のコマンドが入力されると(#15でYes)、撮影モードに切り換わり、第一のプロジェクタ1Aは、スクリーン3を撮影する処理を行う(#16)。この処理の手順は、前に図10で説明した通りである。したがって、台形補正(逆の台形補正)が解除されて対象画像52aが投影されるので、対象画像52aが歪んで表示される。撮影後、プレゼンテーションモードに切り換わり、ステップ#14に戻って、再び台形補正を行って投影し直す。   When the handwriting object 53c is written on the screen 3 and a shooting command is input by the user (Yes in # 15), the mode is switched to the shooting mode, and the first projector 1A performs a process of shooting the screen 3 (#). 16). The procedure of this process is as described above with reference to FIG. Therefore, since the keystone correction (reverse keystone correction) is canceled and the target image 52a is projected, the target image 52a is distorted and displayed. After shooting, the mode is switched to the presentation mode, the process returns to step # 14, and the keystone correction is performed again to project again.

ユーザによって次ページへ進むコマンドが入力された場合は(#17でYes)、直近に表示したスライドに変えて、次のスライドを対象画像52aとして投影する処理を実行する(#14)。   When a command to advance to the next page is input by the user (Yes in # 17), a process of projecting the next slide as the target image 52a is executed instead of the most recently displayed slide (# 14).

〔第二のプロジェクタ1B〕
図12は、第二のプロジェクタ1Bのハードウェア構成の例を示す図である。
[Second projector 1B]
FIG. 12 is a diagram illustrating an example of a hardware configuration of the second projector 1B.

図2(A)に示したように、第一のプロジェクタ1Aの投影レンズ123および撮影レンズ131には、水平方向に視差αがある。よって、投影レンズ123と撮影レンズ131とを結ぶ線がスクリーン3の表示面に平行でなければ、対象画像52dおよび対象画像52aの形状が相違し、両画像の比較ができないことがある。   As shown in FIG. 2A, the projection lens 123 and the photographing lens 131 of the first projector 1A have a parallax α in the horizontal direction. Therefore, if the line connecting the projection lens 123 and the photographing lens 131 is not parallel to the display surface of the screen 3, the shapes of the target image 52d and the target image 52a are different, and the two images may not be compared.

一方、第二のプロジェクタ1Bは、図2(B)に示したように、投影部および撮影部が1枚のレンズを共用するので、第一のプロジェクタ1Aの正面がスクリーン3の表示面に平行でなくても、第一のプロジェクタ1Aよりも確実に手書オブジェクト53eを検出することができる。   On the other hand, in the second projector 1B, as shown in FIG. 2B, since the projection unit and the photographing unit share one lens, the front of the first projector 1A is parallel to the display surface of the screen 3. Even if not, the handwriting object 53e can be detected more reliably than the first projector 1A.

以下、第二のプロジェクタ1Bの仕組みについて、説明する。第一のプロジェクタ1Aと重複する点については、説明を省略する。   Hereinafter, the mechanism of the second projector 1B will be described. The description overlapping with the first projector 1A is omitted.

第二のプロジェクタ1Bは、図12に示すように、制御部151、入出力インタフェース152、操作パネル153、投影部16、第一の撮影部17、共用光学系18、第二の撮影部154、補正量算出部155、投影画像処理部156、記憶部157、撮影画像処理部158、手書オブジェクト検出部159、および記録画像生成部150などによって構成される。   As shown in FIG. 12, the second projector 1B includes a control unit 151, an input / output interface 152, an operation panel 153, a projection unit 16, a first imaging unit 17, a shared optical system 18, a second imaging unit 154, The correction amount calculation unit 155, the projection image processing unit 156, the storage unit 157, the captured image processing unit 158, the handwriting object detection unit 159, the recorded image generation unit 150, and the like are included.

制御部151、入出力インタフェース152、および操作パネル153の機能は、第一のプロジェクタ1Aの制御部101、入出力インタフェース102、および操作パネル103と同様である。   The functions of the control unit 151, the input / output interface 152, and the operation panel 153 are the same as those of the control unit 101, the input / output interface 102, and the operation panel 103 of the first projector 1A.

投影部16は、第一のプロジェクタ1Aの投影部12と同様、透過型液晶方式の投影装置であって、光源161および投影素子162などを有する。ただし、光学系を第一の撮影部17と共用する。光源161および投影素子162それぞれの機能は、第一のプロジェクタ1Aの光源121および投影素子122の機能と同様である。   The projection unit 16 is a transmissive liquid crystal type projection device, like the projection unit 12 of the first projector 1A, and includes a light source 161, a projection element 162, and the like. However, the optical system is shared with the first photographing unit 17. The functions of the light source 161 and the projection element 162 are the same as the functions of the light source 121 and the projection element 122 of the first projector 1A.

第一の撮影部17は、第一のプロジェクタ1Aの第一の撮影部13と同様、スクリーン3を撮影するための撮影装置であって、撮影素子172などを有する。ただし、光学系を投影部16と共用する。撮影素子172の機能は、第一のプロジェクタ1Aの撮影素子132の機能と同様である。   The first photographing unit 17 is a photographing device for photographing the screen 3 like the first photographing unit 13 of the first projector 1A, and includes a photographing element 172 and the like. However, the optical system is shared with the projection unit 16. The function of the imaging element 172 is the same as the function of the imaging element 132 of the first projector 1A.

共用光学系18は、投影部16および第一の撮影部17の共用の光学系であって、ミラー181、182、183、ハーフミラー184、およびレンズ185などによって構成される。   The shared optical system 18 is a shared optical system for the projection unit 16 and the first photographing unit 17, and includes mirrors 181, 182, 183, a half mirror 184, a lens 185, and the like.

光源161が発した光は、投影素子162を透過する。そして、ミラー181、182で反射し、ハーフミラー184を透過し、レンズ185によって拡散されてスクリーン3へ照射される。これにより、画像がスクリーン3に表示される。   Light emitted from the light source 161 passes through the projection element 162. Then, the light is reflected by the mirrors 181 and 182, transmitted through the half mirror 184, diffused by the lens 185, and irradiated on the screen 3. As a result, an image is displayed on the screen 3.

また、撮影時において、スクリーン3からの光は、レンズ185によって収束され、ハーフミラー184を透過し、ミラー183を反射して撮影素子132に届く。そして、撮影素子172は、受光した光を電気信号に変換する。これにより、スクリーン3が撮影される。   At the time of photographing, the light from the screen 3 is converged by the lens 185, passes through the half mirror 184, reflects off the mirror 183, and reaches the photographing element 132. The photographing element 172 converts the received light into an electrical signal. Thereby, the screen 3 is photographed.

ハーフミラー184の透過率は、50%である。投影素子162からレンズ185までの光路の距離とレンズ185から撮影素子172までの考慮の距離とは、等しい。   The transmittance of the half mirror 184 is 50%. The distance of the optical path from the projection element 162 to the lens 185 is equal to the consideration distance from the lens 185 to the imaging element 172.

補正用データを生成する処理、プレゼンテーションのために対象画像を投影する処理、および記録のために対象画像および手書オブジェクトを撮影する処理の手順は、第一のプロジェクタ1Aにおけるそれぞれの処理の手順と同様である(図5、図7、図10参照)。したがって、各処理において、第一のプロジェクタ1Aを使用した場合と同様の画像がスクリーン3に表示され、同様の画像が撮影される。第二のプロジェクタ1Bの全体的な処理の流れも、第一のプロジェクタ1Aを使用した場合と同様であり、図11で説明した通りである。つまり、補正量算出部155、投影画像処理部156、記憶部157、撮影画像処理部158、手書オブジェクト検出部159、および記録画像生成部150は、それぞれ、補正量算出部105、投影画像処理部106、記憶部107、撮影画像処理部108、手書オブジェクト検出部109、および記録画像生成部110と同様に機能する。ただし、第一のプロジェクタ1Aとは異なり、投影部16と第一の撮影部17とに視差がないので、台形補正を行う際に視差を考慮しない。   The procedure of processing for generating correction data, the processing of projecting a target image for presentation, and the processing of photographing the target image and handwriting object for recording are the procedures of the respective processes in the first projector 1A. The same is true (see FIGS. 5, 7, and 10). Therefore, in each process, an image similar to that when the first projector 1A is used is displayed on the screen 3, and a similar image is taken. The overall processing flow of the second projector 1B is the same as that when the first projector 1A is used, as described in FIG. In other words, the correction amount calculation unit 155, the projection image processing unit 156, the storage unit 157, the captured image processing unit 158, the handwriting object detection unit 159, and the recorded image generation unit 150 are the correction amount calculation unit 105, the projection image processing unit, respectively. Functions in the same manner as the unit 106, the storage unit 107, the captured image processing unit 108, the handwritten object detection unit 109, and the recorded image generation unit 110. However, unlike the first projector 1A, since the projection unit 16 and the first photographing unit 17 have no parallax, the parallax is not considered when performing the keystone correction.

本実施形態によると、解像度の低減を従来よりも抑えつつ、スクリーン3に表示された画像を撮影することができる。さらに、撮影した画像から手書オブジェクトを検出し、元の画像にマージして記録しておくことができる。   According to the present embodiment, it is possible to take an image displayed on the screen 3 while suppressing reduction in resolution as compared with the conventional case. Furthermore, a handwritten object can be detected from the photographed image and merged with the original image and recorded.

本実施形態では、補正用データ61を生成するために第二の撮影部104または154によって較正用パターン画像を撮影したが、第一の撮影部13または17によって撮影してもよい。または、スクリーン3と第一のプロジェクタ1Aまたは1Bとの位置関係が固定的であり、両者の距離を予め把握することができるのであれば、傾斜角センサによって投影角度θを計測してもよい。   In the present embodiment, the calibration pattern image is captured by the second imaging unit 104 or 154 in order to generate the correction data 61, but may be captured by the first imaging unit 13 or 17. Alternatively, if the positional relationship between the screen 3 and the first projector 1A or 1B is fixed and the distance between the two can be grasped in advance, the projection angle θ may be measured by an inclination angle sensor.

または、ユーザが、スクリーン3に表示された較正用パターン画像を見ながら、較正用パターン画像が長方形で表示されるように手動で調整してもよい。そして、プロジェクタ1は、その調整量を示すデータを、補正用データ61として記憶し使用すればよい。   Alternatively, the user may manually adjust the calibration pattern image so as to be displayed as a rectangle while viewing the calibration pattern image displayed on the screen 3. Then, the projector 1 may store and use data indicating the adjustment amount as the correction data 61.

投影部12または16による投影の範囲が第一の撮影部13または17による撮影の範囲と同一であってもよいし、撮影の範囲を広くして投影の範囲が撮影の範囲に含まれるようにしてもよい。   The range of projection by the projection unit 12 or 16 may be the same as the range of imaging by the first imaging unit 13 or 17, or the imaging range is widened so that the projection range is included in the imaging range. May be.

本実施形態では、補正量算出部105、155、投影画像処理部106、156、撮影画像処理部108、158、手書オブジェクト検出部109、159、および記録画像生成部110、150をASICまたはFPGAなどの回路によって実現したが、これらの全部または一部は、ソフトウェアモジュールであってもよい。つまり、各部の処理を記述したコンピュータプログラムを用意し、コンピュータプログラムを制御部101に実行させることによって各部を実現してもよい。   In the present embodiment, the correction amount calculation units 105 and 155, the projection image processing units 106 and 156, the photographed image processing units 108 and 158, the handwriting object detection units 109 and 159, and the recorded image generation units 110 and 150 are connected to the ASIC or FPGA. However, all or some of them may be software modules. That is, each unit may be realized by preparing a computer program describing the processing of each unit and causing the control unit 101 to execute the computer program.

本実施形態では、スクリーン3に手書オブジェクト53cが1つだけ書き込まれた場合を例に説明したが、複数書き込まれた場合にも、本発明を適用することができる。この場合は、手書オブジェクト53cごとに台形補正を行い、対象画像52aへマージすればよい。   In the present embodiment, the case where only one handwriting object 53c is written on the screen 3 has been described as an example. However, the present invention can also be applied to the case where a plurality of handwriting objects 53c are written. In this case, keystone correction may be performed for each handwriting object 53c and merged into the target image 52a.

第一のプロジェクタ1Aの投影角度θだけでなく撮影角度γをも算出し、投影角度θ、撮影角度γ、および視差αに基づいて各画像(較正用パターン画像、対象画像、手書オブジェクト)の台形補正を行ってもよい。   Not only the projection angle θ of the first projector 1A but also the shooting angle γ is calculated, and each image (calibration pattern image, target image, handwriting object) is calculated based on the projection angle θ, the shooting angle γ, and the parallax α. Keystone correction may be performed.

その他、会議システム4、第一のプロジェクタ1A、第二のプロジェクタ1Bの全体または各部の構成、処理内容、処理順序、画像などは、本発明の趣旨に沿って適宜変更することができる。   In addition, the configuration, processing contents, processing order, images, and the like of the entire conference system 4, the first projector 1A, and the second projector 1B, or each unit can be appropriately changed in accordance with the spirit of the present invention.

1 プロジェクタ
12 投影部(投影手段)
13 第一の撮影部(撮影手段)
101 制御部(関係データ生成手段)
106 投影画像処理部(補正手段)
109 手書オブジェクト検出部(検出手段、第二の補正手段)
110 記録画像生成部(記録用画像生成手段)
185 レンズ
52a 対象画像
52b 補正画像
52d 対象画像(撮影画像)
52f 記録画像(記録用画像)
手書オブジェクト53e(書込画像)
1 Projector 12 Projector (Projector)
13 First imaging unit (imaging means)
101 control unit (related data generation means)
106 Projected image processing unit (correction means)
109 Handwritten object detection unit (detection means, second correction means)
110 Recorded image generating unit (recording image generating means)
185 Lens 52a Target image 52b Correction image 52d Target image (captured image)
52f Recorded image (recording image)
Handwritten object 53e (written image)

Claims (7)

出力する対象である対象画像をスクリーンへ投影する画像投影装置であって、
前記対象画像が前記スクリーンに表示されている際に当該スクリーンを撮影することによって撮影画像を取得する撮影手段と、
前記撮影手段の位置と前記スクリーンの位置との関係に基づいて、前記対象画像を、当該スクリーンにおいて形状が長方形になって表示されるように補正することによって、第一の補正画像を生成する、第一の補正手段と、
前記対象画像および前記第一の補正画像を選択的に前記スクリーンへ投影する投影手段と、
前記スクリーンに書き込まれた画像である書込画像を前記撮影画像と前記対象画像とを比較することによって検出する検出手段と、
形状が長方形になるように前記書込画像を前記関係に基づいて補正することによって第二の補正画像を生成する第二の補正手段と、
前記対象画像に前記第二の補正画像を重ね合わせることによって記録用画像を生成する記録用画像生成手段と、
を有することを特徴とする画像投影装置。
An image projection device that projects a target image to be output onto a screen,
Photographing means for obtaining a photographed image by photographing the target image when the target image is displayed on the screen;
On the basis of the relationship between the position of the imaging means and the position of the screen, the target image, in the screen shape by correcting to be displayed as a rectangle, generating a first corrected image, A first correction means;
Projection means for selectively projecting the target image and the first corrected image onto the screen;
Detecting means for detecting a written image, which is an image written on the screen, by comparing the captured image with the target image;
Second correction means for generating a second corrected image by correcting the written image based on the relationship so that the shape is rectangular;
A recording image generating means for generating a recording image by superimposing the second correction image on the target image;
An image projection apparatus comprising:
較正用のパターンを前記スクリーンへ投影し当該スクリーンを撮影することによって前記位置を表わすデータを生成する関係データ生成手段、を有し、
前記第一の補正手段は、前記データに基づいて前記第一の補正画像を生成し、
前記第二の補正手段は、前記データに基づいて前記第二の補正画像を生成する、
請求項に記載の画像投影装置。
Relationship data generating means for generating data representing the position by projecting a calibration pattern onto the screen and photographing the screen;
The first correction unit generates the first correction image based on the data,
The second correction unit generates the second correction image based on the data.
The image projection apparatus according to claim 1 .
前記スクリーンに対する前記撮影手段の光軸の角度を検出する角度手段、を有し、
前記第一の補正手段は、前記角度に基づいて前記第一の補正画像を生成し、
前記第二の補正手段は、前記角度に基づいて前記第二の補正画像を生成する、
請求項に記載の画像投影装置。
Angle means for detecting the angle of the optical axis of the photographing means with respect to the screen,
The first correction unit generates the first correction image based on the angle,
The second correction unit generates the second correction image based on the angle.
The image projection apparatus according to claim 1 .
前記投影手段および前記撮影手段は、水平方向に隣り合うように設けられている、
請求項1ないし請求項のいずれかに記載の画像投影装置。
The projection means and the photographing means are provided so as to be adjacent in the horizontal direction.
The image projection apparatus according to any one of claims 1 to 3.
前記投影手段および前記撮影手段は、共通のレンズを使用する、
請求項1ないし請求項のいずれかに記載の画像投影装置。
The projection unit and the photographing unit use a common lens.
The image projection apparatus according to any one of claims 1 to 3.
出力する対象である対象画像を投影手段によって投影し撮影手段によって撮影する投影および撮影の方法であって、
前記撮影手段の位置とスクリーンの位置との関係に基づいて、前記対象画像を、当該スクリーンにおいて形状が長方形になって表示されるように補正することによって、第一の補正画像を生成し、
前記対象画像および前記第一の補正画像を選択的に前記スクリーンへ前記投影手段によって投影し、
前記対象画像が前記スクリーンに表示されている際に前記スクリーンを前記撮影手段で撮影することによって撮影画像を取得
前記スクリーンに書き込まれた画像である書込画像を前記撮影画像と前記対象画像とを比較することによって検出し、
形状が長方形になるように前記書込画像を前記関係に基づいて補正することによって第二の補正画像し、
前記対象画像に前記第二の補正画像を重ね合わせることによって記録用画像を生成する、
ことを特徴とする投影および撮影の方法。
A projection and photographing method in which a target image that is a target to be output is projected by a projecting unit and photographed by a photographing unit,
On the basis of the relationship between the position and the screen position of the imaging means, the target image, by correcting as in the screen shape is displayed as a rectangle, to generate a first corrected image,
Selectively projecting the target image and the first corrected image onto the screen by the projection means;
Acquires a photographed image by the screen shooting in the shooting means when the target image is displayed on the screen,
Detecting a written image, which is an image written on the screen, by comparing the captured image with the target image;
A second corrected image by correcting the written image based on the relationship so that the shape is rectangular,
Generating a recording image by superimposing the second correction image on the target image;
Projection and photographing method characterized by the above.
出力する対象である対象画像をスクリーンへ投影するように投影手段を制御し当該スクリーンを撮影するように撮影手段を制御するコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
前記撮影手段の位置と前記スクリーンの位置との関係に基づいて、前記対象画像を、当該スクリーンにおいて形状が長方形になって表示されるように補正することによって、第一の補正画像を生成する処理を実行させ、
第一のモードが設定された場合に、前記第一の補正画像が前記スクリーンへ投影されるように前記投影手段を制御する処理を実行させ、
前記第一のモードとは異なる第二のモードが設定された場合に、前記対象画像が前記スクリーンへ投影されるように前記投影手段を制御する処理を実行させ、
前記対象画像が前記スクリーンに表示されている際に前記スクリーンが撮影されるように前記撮影手段を制御することによって撮影画像を取得する処理を実行させ、
前記スクリーンに書き込まれた画像である書込画像を前記撮影画像と前記対象画像とを比較することによって検出する処理を実行させ、
形状が長方形になるように前記書込画像を前記関係に基づいて補正することによって第二の補正画像を生成する処理を実行させ、
前記対象画像に前記第二の補正画像を重ね合わせることによって記録用画像を生成する処理を実行させる、
ことを特徴とするコンピュータプログラム。
A computer program used in a computer for controlling the photographing means to photograph the controlling the screen projection unit to project the target image is a target to be output to the screen,
In the computer,
A process of generating a first corrected image by correcting the target image so that the shape is displayed in a rectangular shape on the screen based on the relationship between the position of the photographing unit and the position of the screen. And execute
When the first mode is set, the processing for controlling the projection unit is executed so that the first corrected image is projected onto the screen,
When a second mode different from the first mode is set, a process of controlling the projection unit is executed so that the target image is projected onto the screen,
Executing a process of acquiring a captured image by controlling the imaging unit so that the screen is captured when the target image is displayed on the screen;
Executing a process of detecting a written image, which is an image written on the screen, by comparing the captured image with the target image;
Executing a process of generating a second corrected image by correcting the written image based on the relationship so that the shape is rectangular,
Causing the recording image to be generated by superimposing the second correction image on the target image;
A computer program characterized by the above.
JP2014100814A 2014-05-14 2014-05-14 Image processing apparatus, projection and photographing method, and computer program Active JP6364944B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014100814A JP6364944B2 (en) 2014-05-14 2014-05-14 Image processing apparatus, projection and photographing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014100814A JP6364944B2 (en) 2014-05-14 2014-05-14 Image processing apparatus, projection and photographing method, and computer program

Publications (2)

Publication Number Publication Date
JP2015220503A JP2015220503A (en) 2015-12-07
JP6364944B2 true JP6364944B2 (en) 2018-08-01

Family

ID=54779598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014100814A Active JP6364944B2 (en) 2014-05-14 2014-05-14 Image processing apparatus, projection and photographing method, and computer program

Country Status (1)

Country Link
JP (1) JP6364944B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121747A (en) * 2003-10-14 2005-05-12 Seiko Epson Corp Projector device and writing acquisition method
JP3770609B2 (en) * 2003-10-14 2006-04-26 Necビューテクノロジー株式会社 Projector and distortion correction method
WO2012111121A1 (en) * 2011-02-17 2012-08-23 Necディスプレイソリューションズ株式会社 Projector and minute information generating method
WO2012172655A1 (en) * 2011-06-15 2012-12-20 Necディスプレイソリューションズ株式会社 Projector and control method thereof

Also Published As

Publication number Publication date
JP2015220503A (en) 2015-12-07

Similar Documents

Publication Publication Date Title
US10452945B2 (en) Image generating device, electronic device, image generating method and recording medium
WO2018214365A1 (en) Image correction method, apparatus, device, and system, camera device, and display device
TWI719493B (en) Image projection system, image projection apparatus and calibrating method for display image thereof
JP5906028B2 (en) Image processing apparatus and image processing method
CN108028900B (en) Projection apparatus, projection method, and program storage medium
CN106605195B (en) Communication apparatus and control method of communication apparatus
US20160295108A1 (en) System and method for panoramic imaging
WO2019052534A1 (en) Image stitching method and device, and storage medium
US9946146B2 (en) Control apparatus configured to control projection of an image based on position information, projection information, and shape information, corresponding control method and corresponding storage medium
JP2010050542A (en) Projection display apparatus, and display method
WO2019127512A1 (en) Image processing method for photography device, photography device and movable platform
CN104519293A (en) Information processing apparatus, method of controlling an information processing apparatus
WO2018045596A1 (en) Processing method and mobile device
US20140204083A1 (en) Systems and methods for real-time distortion processing
US10362231B2 (en) Head down warning system
JP2010072813A (en) Image processing device and image processing program
JP2018125819A (en) Control device, control method, program, and storage medium
JP6205755B2 (en) Projector apparatus, projector system, projector control method, and projector control program
JP5955003B2 (en) Image processing apparatus, image processing method, and program
JP6364944B2 (en) Image processing apparatus, projection and photographing method, and computer program
JP5162855B2 (en) Image processing apparatus, remote image processing system, and image processing method
JP2019016843A (en) Document reading device, control method of document reading device, and program
JP7391502B2 (en) Image processing device, image processing method and program
US20160224854A1 (en) Information processing apparatus, information processing method, and storage medium
JP2015149603A (en) Image display system, image display device, and image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171211

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180618

R150 Certificate of patent or registration of utility model

Ref document number: 6364944

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150