JP2010273289A - Electronic information board system, computer terminal, and calibration method - Google Patents

Electronic information board system, computer terminal, and calibration method Download PDF

Info

Publication number
JP2010273289A
JP2010273289A JP2009125642A JP2009125642A JP2010273289A JP 2010273289 A JP2010273289 A JP 2010273289A JP 2009125642 A JP2009125642 A JP 2009125642A JP 2009125642 A JP2009125642 A JP 2009125642A JP 2010273289 A JP2010273289 A JP 2010273289A
Authority
JP
Japan
Prior art keywords
image
camera
projected
captured image
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009125642A
Other languages
Japanese (ja)
Inventor
Keisuke Igami
啓介 井神
Keimei Kanisawa
啓明 蟹澤
Toru Murauchi
徹 村内
Hiroshi Arisawa
博 有澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Yokohama National University NUC
Original Assignee
Seiko Epson Corp
Yokohama National University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp, Yokohama National University NUC filed Critical Seiko Epson Corp
Priority to JP2009125642A priority Critical patent/JP2010273289A/en
Publication of JP2010273289A publication Critical patent/JP2010273289A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic board information system which reduces an error in projection transformation parameters to perform more correct calibration. <P>SOLUTION: A projector projects a calibration image including an indicator indicating a coordinate position in a projection image. A camera picks up an image of a region where the calibration image is projected by the projector. A computer terminal divides the pickup image picked up by the camera into a plurality of images, calculates the projection transformation parameters for projecting and transforming the pickup image into a projection image based on the indicator included in each of the plurality of division images, and projects and transforms the pickup image picked up by the camera into a projection image, based on the calculated projection transformation parameters. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、スクリーン領域上の赤外光に応じてコンピューター端末上のカーソルを移動させる電子情報ボードシステム、コンピューター端末およびキャリブレーション方法に関する。   The present invention relates to an electronic information board system, a computer terminal, and a calibration method for moving a cursor on a computer terminal according to infrared light on a screen area.

近年、コンピューター端末の表示部に表示される画像を、プロジェクターによってホワイトボードなどのスクリーン領域に投影し、ユーザーの操作に応じてスクリーン領域上を移動するペンをカメラによって検出し、検出したペンの軌跡や動作に応じてコンピューター端末上の画像に描画する電子情報ボードシステムが提供されている。スクリーン領域を移動させるペンとしては、例えばホワイトボードに接触することにより赤外光を発光する発光ペンが用いられる。そして、赤外光を撮像するカメラによって捉えられる発光ペンの動作に応じてコンピューター端末上のカーソルを移動させ、カーソルの移動に合わせて、コンピューター端末上の画像に重ねて描画を行なう。このような電子情報ボードシステムによれば、プロジェクターによってスクリーン領域に投影された画像を複数人が同時に見ることができるとともに、ユーザーがスクリーン領域上でペンを移動させることによって投影画像に書き込みを行なうことができ、電子的な黒板を提供できる。特許文献1には、このような電子情報ボードシステムを利用した遠隔講義システムが提案されている。   In recent years, an image displayed on a display unit of a computer terminal is projected onto a screen area such as a whiteboard by a projector, a pen moving on the screen area in accordance with a user operation is detected by a camera, and the locus of the detected pen There is provided an electronic information board system that draws an image on a computer terminal according to the operation. As the pen for moving the screen area, for example, a light emitting pen that emits infrared light by contacting a whiteboard is used. Then, the cursor on the computer terminal is moved according to the operation of the light-emitting pen captured by the camera that captures infrared light, and drawing is performed on the image on the computer terminal in accordance with the movement of the cursor. According to such an electronic information board system, a plurality of people can simultaneously view the image projected on the screen area by the projector, and the user can write on the projected image by moving the pen on the screen area. Can provide an electronic blackboard. Patent Document 1 proposes a remote lecture system using such an electronic information board system.

このような電子情報ボードシステムにおいて、スクリーン領域上の赤外光の移動に応じてコンピューター端末上のカーソルを移動させるに当たっては、カメラによって撮像されたスクリーン領域の撮像画像の座標系から、プロジェクターによって投影される投影画像の座標系への変換処理が必要となる。ここでは、撮像画像の座標系から、投影画像の座標系への射影変換パラメーターを算出し、算出した射影変換パラメーターに基づいて射影変換を行なう。射影変換パラメーターは、射影変換の一般式に画像の四辺形の4頂点を代入することで算出される。   In such an electronic information board system, when the cursor on the computer terminal is moved in accordance with the movement of infrared light on the screen area, it is projected by the projector from the coordinate system of the captured image of the screen area captured by the camera. It is necessary to convert the projected image into a coordinate system. Here, a projective transformation parameter from the coordinate system of the captured image to the coordinate system of the projected image is calculated, and the projective transformation is performed based on the calculated projective transformation parameter. The projective transformation parameter is calculated by substituting the four vertices of the quadrilateral of the image into the general formula of the projective transformation.

特開2005−234368号公報JP 2005-234368 A

しかしながら、射影変換パラメーターを算出するためには上述のように画像の四辺形を抽出することが必要になるが、カメラによって撮像された撮像画像は、スクリーン領域自体の歪みや弛みのために歪んでいたり、カメラのレンズによる収差歪みのために、やや楕円に膨らんだ四辺形になったりすることが考えられる。例えば、プロジェクターによって投影される投影画像が、図9に示されるようにX軸とY軸とに沿った長方形である場合、カメラによって撮像された撮像画像は、図10に示されるように楕円に膨らんだ画像となる。このような歪みにより、算出される射影変換パラメーターにずれが生じれば、射影変換を行なう際に誤差が生じ、撮像画像に含まれる赤外光の座標位置と、投影画像に含まれるカーソルの座標位置とがずれることとなる。すなわち、発光ペンを用いたユーザーによるスクリーン領域上での動作と、コンピューター端末上の画像への描画とにずれが生じる。ここで、射影変換を行なう際には、このような歪みによるずれを補正し、誤差を軽減してより正確なキャリブレーションを行なうことが望ましい。   However, in order to calculate the projective transformation parameters, it is necessary to extract the quadrilateral of the image as described above, but the captured image captured by the camera is distorted due to distortion or slack of the screen area itself. Or due to aberration distortion caused by the camera lens, it may be a quadrilateral bulging into an ellipse. For example, when the projection image projected by the projector is a rectangle along the X axis and the Y axis as shown in FIG. 9, the captured image taken by the camera is an ellipse as shown in FIG. The image is swollen. If there is a deviation in the calculated projective transformation parameter due to such distortion, an error occurs when performing the projective transformation, and the infrared light coordinate position included in the captured image and the cursor coordinate included in the projected image The position will shift. That is, there is a difference between the operation on the screen area by the user using the light emitting pen and the drawing on the image on the computer terminal. Here, when performing projective transformation, it is desirable to correct such a shift due to distortion, reduce the error, and perform more accurate calibration.

本発明は、このような状況に鑑みてなされたもので、射影変換パラメーターの誤差を軽減し、より正確なキャリブレーションを行なう電子ボード情報システム、コンピューター端末およびキャリブレーション方法を提供する。   The present invention has been made in view of such a situation, and provides an electronic board information system, a computer terminal, and a calibration method which reduce errors in projective transformation parameters and perform more accurate calibration.

上述した課題を解決するために、本発明は、定められた投影画像を投影するプロジェクターと、プロジェクターによって投影された領域を撮像するカメラと、カメラによって撮像された画像を受信するコンピューター端末とを備えた電子情報ボードシステムであって、プロジェクターは、投影画像内における座標位置を示す指標が含まれるキャリブレーション画像を投影し、カメラは、プロジェクターによってキャリブレーション画像が投影された領域を撮像し、コンピューター端末は、カメラによって撮像された撮像画像を、複数の画像に分割する画像分割部と、画像分割部によって分割された複数の画像のそれぞれについて、画像に含まれる指標に基づいて撮像画像を投影画像に射影変換するための射影変換パラメーターを算出する射影変換パラメーター算出部と、射影変換パラメーター算出部によって算出された射影変換パラメーターに基づいて、カメラによって撮像された撮像画像を投影画像に射影変換する射影変換部と、を備えることを特徴とする。   In order to solve the above-described problems, the present invention includes a projector that projects a predetermined projection image, a camera that captures an area projected by the projector, and a computer terminal that receives an image captured by the camera. The electronic information board system, wherein the projector projects a calibration image including an index indicating a coordinate position in the projected image, and the camera captures an area where the calibration image is projected by the projector, and the computer terminal The image dividing unit that divides the captured image captured by the camera into a plurality of images and the plurality of images divided by the image dividing unit are converted into projected images based on indices included in the images. Projection to calculate projective transformation parameters for projective transformation A conversion parameter calculation unit, on the basis of the projective transformation parameter calculated by the projective transformation parameter calculating unit, characterized in that it and a projective transformation unit for projective transformation on the projection image an image captured by the camera.

また、本発明は、上述のカメラは可視光を撮像し、射影変換パラメーター算出部は、画像内における指標の座標位置を算出し、算出した座標位置に基づいて射影変換パラメーターを算出することを特徴とする。   Further, according to the present invention, the camera described above captures visible light, and the projective transformation parameter calculation unit calculates the coordinate position of the index in the image, and calculates the projective transformation parameter based on the calculated coordinate position. And

また、本発明は、投影する画像内における座標位置を示す指標が含まれるキャリブレーション画像を投影プロジェクターと、プロジェクターによってキャリブレーション画像が投影された領域を撮像するカメラと、カメラによって撮像された画像を受信するコンピューター端末とを備えた電子情報ボードシステムにおけるコンピューター端末であって、カメラによって撮像された撮像画像を、複数の画像に分割する画像分割部と、画像分割部によって分割された複数の画像のそれぞれについて、画像に含まれる指標に基づいて撮像画像を投影画像に射影変換するための射影変換パラメーターを算出する射影変換パラメーター算出部と、射影変換パラメーター算出部によって算出された射影変換パラメーターに基づいて、カメラによって撮像された撮像画像を投影画像に射影変換する射影変換部と、を備えることを特徴とする。   The present invention also provides a projection projector that includes a calibration image including an index indicating a coordinate position in an image to be projected, a camera that captures an area on which the calibration image is projected by the projector, and an image captured by the camera. A computer terminal in an electronic information board system including a computer terminal for receiving an image, and an image dividing unit that divides a captured image captured by a camera into a plurality of images, and a plurality of images divided by the image dividing unit For each, based on the projection conversion parameter calculated by the projection conversion parameter calculation unit, a projection conversion parameter calculation unit that calculates a projection conversion parameter for projectively converting the captured image into a projection image based on an index included in the image, Imaged by the camera A projective transformation unit for projective transformation of the captured image to the projection image, characterized in that it comprises a.

また、本発明は、定められた投影画像を投影するプロジェクターと、プロジェクターによって投影された領域を撮像するカメラと、カメラによって撮像された画像を受信するコンピューター端末とを備えた電子情報ボードシステムのキャリブレーション方法であって、プロジェクターが、投影画像内における座標位置を示す指標が含まれるキャリブレーション画像を投影するステップと、カメラが、プロジェクターによってキャリブレーション画像が投影された領域を撮像するステップと、コンピューター端末の、画像分割部が、カメラによって撮像された撮像画像を、複数の画像に分割するステップと、射影変換パラメーター算出部が、画像分割部によって分割された複数の画像のそれぞれについて、画像に含まれる指標に基づいて撮像画像を投影画像に射影変換するための射影変換パラメーターを算出するステップと、射影変換部が、射影変換パラメーター算出部によって算出された射影変換パラメーターに基づいて、カメラによって撮像された撮像画像を投影画像に射影変換するステップと、を備えることを特徴とする。   According to another aspect of the present invention, there is provided a calibration of an electronic information board system including a projector that projects a predetermined projection image, a camera that captures an area projected by the projector, and a computer terminal that receives an image captured by the camera. A method in which a projector projects a calibration image including an index indicating a coordinate position in a projection image, a camera images an area in which the calibration image is projected by the projector, and a computer The image dividing unit of the terminal includes a step of dividing the captured image captured by the camera into a plurality of images, and the projective transformation parameter calculating unit includes each of the plurality of images divided by the image dividing unit. Based on the index A projective transformation parameter for projectively transforming the image into a projected image, and the projection transforming unit converts the captured image captured by the camera into a projected image based on the projective transformation parameter calculated by the projective transformation parameter calculating unit. And a projective transformation step.

以上説明したように、本発明によれば、プロジェクターが、投影画像内における座標位置を示す指標が含まれるキャリブレーション画像を投影し、カメラが、プロジェクターによってキャリブレーション画像が投影された領域を撮像し、コンピューター端末が、カメラによって撮像された撮像画像を、複数の画像に分割し、分割された複数の画像のそれぞれについて、画像に含まれる指標に基づいて撮像画像を投影画像に射影変換するための射影変換パラメーターを算出し、算出された射影変換パラメーターに基づいて、カメラによって撮像された撮像画像を投影画像に射影変換するようにしたので、射影変換を行う画像を複数の画像に分割し、分割された画面のそれぞれについて射影変換パラメーターを算出して射影変換を行うことができる。これにより、より誤差が少ない射影変換パラメーターにより射影変換を行なうことが可能となる。   As described above, according to the present invention, the projector projects the calibration image including the index indicating the coordinate position in the projection image, and the camera captures the area where the calibration image is projected by the projector. The computer terminal divides the captured image captured by the camera into a plurality of images, and performs projective conversion of the captured image into a projected image based on an index included in each of the divided images. Projection conversion parameters are calculated, and based on the calculated projection conversion parameters, the captured image captured by the camera is projectively converted into a projected image. Projective transformation parameters can be calculated for each of the displayed screens. . Thereby, it is possible to perform the projective transformation with the projective transformation parameter with less error.

本発明の一実施形態による電子情報ボードシステムの概念を示す図である。It is a figure which shows the concept of the electronic information board system by one Embodiment of this invention. 本発明の一実施形態による電子情報ボードシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the electronic information board system by one Embodiment of this invention. 本発明の一実施形態によるキャリブレーション画像の例を示す図である。It is a figure which shows the example of the calibration image by one Embodiment of this invention. 本発明の一実施形態により分割する撮像画像の例を示す図である。It is a figure which shows the example of the captured image divided | segmented by one Embodiment of this invention. 本発明の一実施形態により分割する投影画像の例を示す図である。It is a figure which shows the example of the projection image divided | segmented by one Embodiment of this invention. 本発明の一実施形態による描画ツールボックスの例を示す図である。It is a figure which shows the example of the drawing toolbox by one Embodiment of this invention. 本発明の一実施形態による電子情報ボードシステムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the electronic information board system by one Embodiment of this invention. 本発明の一実施形態による電子情報ボードシステムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the electronic information board system by one Embodiment of this invention. 従来技術による投影画像の例を示す図である。It is a figure which shows the example of the projection image by a prior art. 従来技術による撮像画像の例を示す図である。It is a figure which shows the example of the captured image by a prior art.

以下、本発明の一実施形態について、図面を参照して説明する。
図1は、本実施形態による電子情報ボードシステム1の概念を示す図である。ここでは、ユーザーが、電子情報ボードシステム1を用いてプレゼンテーションを行なう例を示している。例えば、プレゼンテーションが行なわれる室内には、画面を投影するためのスクリーン領域200であるホワイトボードが設置される。プロジェクター100は、スクリーン領域200に向かって画像を投影するように設置される。ユーザーは、スクリーン領域200の前に立ち、黒板にチョークで書き込みを行なうように、スクリーン領域200に投影された画像上で発光ペン210を移動させる。発光ペン210の先端部には、赤外光を発光する発光部が設けられており、スクリーン領域200に接触していることを検知すると、赤外光を発光する。カメラ300は、スクリーン領域200の全体を撮像するように設置される。コンピューター端末400は、例えば、VGA(Video Graphics Array)ケーブルによりプロジェクター100に接続され、USB(Universal Serial Bus)ケーブルによりカメラ300に接続される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing the concept of the electronic information board system 1 according to the present embodiment. Here, an example in which a user makes a presentation using the electronic information board system 1 is shown. For example, a whiteboard that is a screen area 200 for projecting a screen is installed in a room where a presentation is performed. The projector 100 is installed so as to project an image toward the screen area 200. The user stands in front of the screen area 200 and moves the light-emitting pen 210 on the image projected on the screen area 200 so as to write on the blackboard with chalk. A light emitting unit that emits infrared light is provided at the tip of the light emitting pen 210 and emits infrared light when it is detected that it is in contact with the screen region 200. The camera 300 is installed so as to capture the entire screen area 200. The computer terminal 400 is connected to the projector 100 by, for example, a VGA (Video Graphics Array) cable, and is connected to the camera 300 by a USB (Universal Serial Bus) cable.

図2は、本実施形態による電子情報ボードシステム1の構成を示すブロック図である。プロジェクター100は、コンピューター端末400の表示部410に表示される画像を受信して、受信した画像を投影画像としてスクリーン領域200に投影するディスプレイ装置である。
スクリーン領域200は、プロジェクター100によって投影される画像の投影面である。本実施形態では、スクリーン領域200はホワイトボードであるとして説明するが、スクリーン領域200はプロジェクター100から画像が投影されるものであれば良く、室内の壁の平面部や、布やビニールシートなどのスクリーンでも良い。
FIG. 2 is a block diagram showing the configuration of the electronic information board system 1 according to the present embodiment. The projector 100 is a display device that receives an image displayed on the display unit 410 of the computer terminal 400 and projects the received image on the screen region 200 as a projection image.
The screen area 200 is a projection surface of an image projected by the projector 100. In the present embodiment, the screen area 200 is described as a whiteboard. However, the screen area 200 may be anything as long as an image is projected from the projector 100, and may be a flat part of an indoor wall, cloth, vinyl sheet, or the like. A screen may be used.

カメラ300は、スクリーン領域200に投影された画像を撮像する撮像装置である。カメラ300は、可視光と赤外光とを撮像する機能を有し、撮像カメラ300が備えるレンズの前に可視光カットフィルタ(赤外光透過フィルタ)を設置して撮像することで、赤外光のみを撮像することが可能である。一方、可視光カットフィルタを設置せずに撮像すれば、可視光と赤外光との双方を撮像する。   The camera 300 is an imaging device that captures an image projected on the screen area 200. The camera 300 has a function of imaging visible light and infrared light, and an infrared image is obtained by installing a visible light cut filter (infrared light transmission filter) in front of a lens included in the imaging camera 300 to perform imaging. It is possible to image only light. On the other hand, if imaging is performed without installing a visible light cut filter, both visible light and infrared light are imaged.

コンピューター端末400は、表示部410と、表示制御部420と、キャリブレーション画像記憶部430と、画像受信部440と、画面分割部450と、射影変換パラメーター算出部460と、射影変換パラメーター記憶部470と、射影変換部480と、描画処理部490と、オーバーレイ処理部495とを備えており、OS(Operating System)等の制御部からの動作命令により各部を動作させる。
表示部410は、画像を出力するディスプレイであり、例えば、LCD(Liquid Crystal Display)である。
The computer terminal 400 includes a display unit 410, a display control unit 420, a calibration image storage unit 430, an image reception unit 440, a screen division unit 450, a projection conversion parameter calculation unit 460, and a projection conversion parameter storage unit 470. A projection conversion unit 480, a drawing processing unit 490, and an overlay processing unit 495, each of which is operated by an operation command from a control unit such as an OS (Operating System).
The display unit 410 is a display that outputs an image, and is, for example, an LCD (Liquid Crystal Display).

表示制御部420は、OS等から入力される画像情報を表示部410に出力させる。例えば、表示制御部420は、コンピューター端末400の記憶領域に予め記憶されているプレゼンテーション画像を、表示部410に出力させる。
キャリブレーション画像記憶部430は、プロジェクター100がスクリーン領域200に投影した投影画像と、カメラ300が撮像した撮像画像とのゆがみを較正(キャリブレーション)する射影変換パラメーターを算出するための座標位置を示す指標が含まれる画像である。例えば、図3は、キャリブレーション画像記憶部430に記憶されたキャリブレーション画像の例を示す図である。キャリブレーション画像は、表示部410の画面のアスペクト比に応じた長方形を成しており、画像内には定められた間隔で指標が配置される。この例では、指標として黒い円が配置されている。指標は、長方形の4頂点と、各辺の中央に4点の計8点が配置されている。
The display control unit 420 causes the display unit 410 to output image information input from the OS or the like. For example, the display control unit 420 causes the display unit 410 to output a presentation image stored in advance in the storage area of the computer terminal 400.
The calibration image storage unit 430 indicates coordinate positions for calculating projective transformation parameters for calibrating (calibrating) the distortion between the projection image projected by the projector 100 onto the screen region 200 and the captured image captured by the camera 300. It is an image including an index. For example, FIG. 3 is a diagram illustrating an example of a calibration image stored in the calibration image storage unit 430. The calibration image has a rectangular shape corresponding to the aspect ratio of the screen of the display unit 410, and indexes are arranged at predetermined intervals in the image. In this example, a black circle is arranged as an index. As for the index, four vertices of a rectangle and four points in total are arranged at the center of each side.

画像受信部440は、カメラ300が撮像したスクリーン領域200の撮像画像をカメラ300から受信する。ここで、画像受信部440がカメラ300から受信する撮像画像は、スクリーン領域200自体の歪みやカメラ300の収差歪みなどによって、表示部410に出力される画像が歪んだ画像となる。ここで、画像受信部440が受信する撮像画像は、カメラ300のレンズの前に可視光カットフィルタが設置された状態では、可視光がカットされ赤外光のみが撮像された赤外光撮像画像であり、可視光カットフィルタが設置されていない状態では、可視光と赤外光との双方が含まれる可視光撮像画像である。   The image receiving unit 440 receives a captured image of the screen area 200 captured by the camera 300 from the camera 300. Here, the captured image received by the image receiving unit 440 from the camera 300 is an image in which the image output to the display unit 410 is distorted due to distortion of the screen region 200 itself, aberration distortion of the camera 300, or the like. Here, the captured image received by the image receiving unit 440 is an infrared light captured image in which visible light is cut and only infrared light is captured in a state where a visible light cut filter is installed in front of the lens of the camera 300. In the state where the visible light cut filter is not installed, the visible light captured image includes both visible light and infrared light.

画面分割部450は、画像受信部440が受信した可視光撮像画像を、複数の画像に分割する。例えば図4に示すように、画面分割部450は、可視光撮像画像を分割し、符号aが示す第1の分割画像と、符号bが示す第2の分割画像と、符号cが示す第3の分割画像と、符号dが示す第4の分割画像との4区画の分割画像を生成する。
射影変換パラメーター算出部460は、可視光撮像画像に基づいて画面分割部450が生成した分割画像のそれぞれについて、射影変換パラメーターを算出する。射影変換パラメーターは、以下式(1)で表される射影変換の一般式により求められる。
The screen dividing unit 450 divides the visible light captured image received by the image receiving unit 440 into a plurality of images. For example, as illustrated in FIG. 4, the screen division unit 450 divides the visible light captured image, and includes a first divided image indicated by the symbol a, a second divided image indicated by the symbol b, and a third indicated by the symbol c. 4 divided images and a fourth divided image indicated by the symbol d are generated.
Projection conversion parameter calculation unit 460 calculates a projection conversion parameter for each of the divided images generated by screen division unit 450 based on the visible light captured image. The projective transformation parameter is obtained by a general formula of projective transformation represented by the following formula (1).

Figure 2010273289
Figure 2010273289

上記式(1)において、x、yは射影変換前の可視光撮像画像における座標位置を示し、X、Yは射影変換後の投影画像における座標位置を示す。すなわち、上記式(1)における9個の係数(a、a、a、b、b、b、c、c、c)が与えられれば、可視光撮像画像の座標位置(x、y)に対応する投影画像の座標位置(X、Y)を算出できる。この9個の係数は、可視光撮像画像から投影画像への射影変換を行なうための射影変換パラメーターとなる。ただし、上記式(1)は分子分母をスカラーで通分できるため、独立した未知数は8個になる。そこで、射影変換パラメーター算出部460は、可視光撮像画像の四辺形の4頂点と、投影画像の4頂点とを上記式(1)に代入して、8元連立方程式を解くことで射影変換パラメーターを算出する。射影変換パラメーター算出部460は、可視光撮像画像として受信したキャリブレーション画像に含まれる指標(黒い円)を検出することで、四辺形の4頂点の座標位置を算出する。射影変換パラメーター算出部460は、画面分割部450によって分割された分割画像のそれぞれについて、射影変換パラメーターを算出する。例えば、図3に示したような位置に指標が含まれるキャリブレーション画像を4分割し、分割された分割画像のそれぞれについて4頂点の座標位置を算出する場合には、分割画像に含まれる各指標の位置関係から頂点を算出する。例えば、分割前の画像の右上の指標および左下の指標を結んだ線と、分割前の画像の左上の指標および右下の指標とを結んだ線との交点を、分割画像の1頂点として算出する。また、射影変換パラメーター算出部460は、算出した射影変換パラメーターを、射影変換パラメーター記憶部470に記憶させる。 In the above formula (1), x and y indicate coordinate positions in the visible light captured image before projective transformation, and X and Y indicate coordinate positions in the projected image after projective transformation. That is, if the nine coefficients (a 0 , a 1 , a 2 , b 0 , b 1 , b 2 , c 0 , c 1 , c 2 ) in the above formula (1) are given, The coordinate position (X, Y) of the projection image corresponding to the coordinate position (x, y) can be calculated. These nine coefficients serve as projective transformation parameters for performing projective transformation from a visible light captured image to a projected image. However, since the above formula (1) can share the numerator denominator with a scalar, there are eight independent unknowns. Therefore, the projective transformation parameter calculation unit 460 substitutes the four vertices of the quadrilateral of the visible light captured image and the four vertices of the projection image into the above equation (1), and solves the quaternary simultaneous equations to thereby compute the projective transformation parameters. Is calculated. The projective transformation parameter calculation unit 460 calculates the coordinate positions of the four vertices of the quadrilateral by detecting an index (black circle) included in the calibration image received as the visible light captured image. Projection conversion parameter calculation unit 460 calculates a projection conversion parameter for each of the divided images divided by screen division unit 450. For example, when a calibration image including an index at a position as illustrated in FIG. 3 is divided into four and the coordinate positions of four vertices are calculated for each of the divided divided images, each index included in the divided image is calculated. The vertex is calculated from the positional relationship. For example, the intersection of the line connecting the upper right index and the lower left index of the image before division and the line connecting the upper left index and the lower right index of the image before division is calculated as one vertex of the divided image. To do. Further, the projection conversion parameter calculation unit 460 stores the calculated projection conversion parameter in the projection conversion parameter storage unit 470.

射影変換部480は、画像受信部440が受信した赤外光撮像画像に含まれる赤外光の座標位置を、射影変換パラメーター記憶部470に記憶された射影変換パラメーターに基づいて射影変換し、赤外光撮像に撮像された赤外光の座標位置に対応する投影画像における座標位置を算出する。例えば、射影変換部480は、図4に示される撮像画像における点(x,y)に対応して、図5に示される投影画像における点(X、Y)を算出する。   The projective transformation unit 480 performs projective transformation on the coordinate position of the infrared light contained in the infrared light captured image received by the image receiving unit 440 based on the projective transformation parameter stored in the projective transformation parameter storage unit 470, and A coordinate position in the projection image corresponding to the coordinate position of the infrared light imaged in the external light imaging is calculated. For example, the projective transformation unit 480 calculates a point (X, Y) in the projection image shown in FIG. 5 corresponding to the point (x, y) in the captured image shown in FIG.

描画処理部490は、予め定められた設定に基づいて、射影変換部480が算出した座標位置に応じた描画処理を行う。例えば、描画処理部490は、射影変換部480が算出した座標位置に、マウスによって操作されたと同様の描画処理を行う。ここでは、描画処理部490は、図6に示すような描画ツールボックスを予め表示部410に表示させ、描画処理に関する設定情報の入力を受付けて、自身の記憶領域に描画設定情報を記憶させておくようにしても良い。例えば、描画処理部490は、描画ツールボックスにおいて「ペン」が選択されている場合には、射影変換された赤外光の座標位置に、設定に応じた太さの線を描画した描画像を生成する。
オーバーレイ処理部495は、描画処理部490によって生成された描画像を、表示制御部420によって表示部410に出力される画像に重ねて合成させるオーバーレイ処理を行う。また、オーバーレイ処理部495によって合成された画像は、コンピューター端末400の記憶領域に記憶されるようにしても良い。
The drawing processing unit 490 performs a drawing process according to the coordinate position calculated by the projective conversion unit 480 based on a predetermined setting. For example, the drawing processing unit 490 performs the same drawing process as that operated by the mouse at the coordinate position calculated by the projective transformation unit 480. Here, the drawing processing unit 490 displays a drawing tool box as shown in FIG. 6 on the display unit 410 in advance, receives input of setting information related to drawing processing, and stores the drawing setting information in its own storage area. You may make it leave. For example, when “pen” is selected in the drawing toolbox, the drawing processing unit 490 draws a drawing image in which a line having a thickness corresponding to the setting is drawn at the coordinate position of the infrared light after the projective transformation. Generate.
The overlay processing unit 495 performs overlay processing in which the drawing image generated by the drawing processing unit 490 is combined with the image output to the display unit 410 by the display control unit 420. Further, the image synthesized by the overlay processing unit 495 may be stored in the storage area of the computer terminal 400.

次に、図面を参照して、電子情報ボードシステム1によるキャリブレーションの動作例を説明する。
図7は、電子情報ボードシステム1によって行なわれる射影変換パラメーター算出処理の動作例を示すフローチャートである。
ここで、カメラ300のレンズには可視光カットフィルタが設置されておらず、可視光撮像画像が撮像されるものとする。スクリーン領域200には、プロジェクター100によってコンピューター端末400から受信したキャリブレーション画像が投影されている。カメラ300は、スクリーン領域200に投影されたキャリブレーション画像を撮像し、可視光撮像画像を生成し、出力する(ステップS1)。コンピューター端末400の画像受信部440は、カメラ300が出力した可視光撮像画像を受信する(ステップS2)。画面分割部450は、画像受信部440が受信した可視光撮像画像を4分割した分割画像を生成する(ステップS3)。
Next, an example of calibration operation by the electronic information board system 1 will be described with reference to the drawings.
FIG. 7 is a flowchart showing an operation example of the projective transformation parameter calculation process performed by the electronic information board system 1.
Here, it is assumed that a visible light cut filter is not installed in the lens of the camera 300 and a visible light captured image is captured. On the screen area 200, a calibration image received from the computer terminal 400 by the projector 100 is projected. The camera 300 captures the calibration image projected on the screen area 200, generates a visible light captured image, and outputs it (step S1). The image receiving unit 440 of the computer terminal 400 receives the visible light captured image output from the camera 300 (step S2). The screen dividing unit 450 generates a divided image obtained by dividing the visible light captured image received by the image receiving unit 440 into four (step S3).

射影変換パラメーター算出部460は、画面分割部450が生成した可視光撮像画像の分割画像と、キャリブレーション画像記憶部430に記憶されたキャリブレーション画像とに基づいて、上記式(1)により射影変換パラメーターを算出する(ステップS4)。射影変換パラメーター算出部460は、算出した射影変換パラメーターを、射影変換パラメーター記憶部470に記憶させる(ステップS5)。   The projective transformation parameter calculation unit 460 performs projective transformation according to the above formula (1) based on the divided image of the visible light captured image generated by the screen division unit 450 and the calibration image stored in the calibration image storage unit 430. A parameter is calculated (step S4). The projection conversion parameter calculation unit 460 stores the calculated projection conversion parameter in the projection conversion parameter storage unit 470 (step S5).

図8は、電子情報ボードシステム1によって較正された投影画像を投影する動作例を示すフローチャートである。
ここで、カメラ300のレンズには可視光カットフィルタが設置されており、赤外光撮像画像が撮像されるものとする。スクリーン領域200には、プロジェクター100によってコンピューター端末400から受信したプレゼンテーション画像が投影されている。カメラ300は、スクリーン領域200を撮像して赤外光撮像画像を生成し、出力する(ステップS11)。コンピューター端末400の画像受信部440は、カメラ300が出力した赤外光撮像画像を受信する(ステップS12)。射影変換部480は、射影変換パラメーター記憶部470に記憶された射影変換パラメーターを読み出す(ステップS13)。射影変換部480は、読み出した射影変換パラメーターに基づいて、赤外光撮像画像に含まれる赤外光の座標位置に対応する投影画像の座標位置を算出し、座標位置の射影変換を行なう(ステップS14)。
FIG. 8 is a flowchart showing an operation example of projecting a projection image calibrated by the electronic information board system 1.
Here, it is assumed that a visible light cut filter is installed in the lens of the camera 300 and an infrared light captured image is captured. On the screen area 200, a presentation image received from the computer terminal 400 by the projector 100 is projected. The camera 300 captures the screen area 200, generates an infrared light captured image, and outputs it (step S11). The image receiving unit 440 of the computer terminal 400 receives the infrared light captured image output from the camera 300 (step S12). The projective transformation unit 480 reads the projective transformation parameters stored in the projective transformation parameter storage unit 470 (step S13). The projective conversion unit 480 calculates the coordinate position of the projection image corresponding to the coordinate position of the infrared light included in the infrared light captured image based on the read projective conversion parameter, and performs the projective conversion of the coordinate position. S14).

描画処理部490は、射影変換部480が算出した座標位置に応じて、定められた描画処理を行い、描画像を生成する(ステップS15)。オーバーレイ処理部495は、描画処理部490が生成した描画像を、表示制御部420が出力する画像に重ねるオーバーレイ処理を行う(ステップS16)。表示制御部420は、描画像がオーバーレイされた画像を、プロジェクター100に出力する(ステップS17)。プロジェクター100は、コンピューター端末400の表示制御部420から送信された画像をスクリーン領域200に投影する(ステップS18)。   The drawing processing unit 490 performs a predetermined drawing process according to the coordinate position calculated by the projective transformation unit 480, and generates a drawing image (step S15). The overlay processing unit 495 performs overlay processing to superimpose the drawing image generated by the drawing processing unit 490 on the image output from the display control unit 420 (step S16). The display control unit 420 outputs an image on which the drawing image is overlaid to the projector 100 (step S17). The projector 100 projects the image transmitted from the display control unit 420 of the computer terminal 400 onto the screen area 200 (step S18).

なお、本実施形態では、プロジェクター100によって画像が投影されるスクリーン領域200としてホワイトボードを適用することとして説明したが、例えば、人体模型や、地図などをスクリーン領域200とするようにしても良い。この場合でも、スクリーン領域200とカメラ300との間で発光ペン210を発光させながら移動させることで、オーバーレイ処理部495による描画を行なうことができる。このため、ユーザーは、ペン等を用いてインクを塗布することにより書き込みを行なうとインクが消せないものなどをスクリーン領域200の対象物とする場合でも、電子情報ボードシステム1を用いて対象物に電子的な描画をしながら説明を行なうことができる。   In the present embodiment, the white board is applied as the screen area 200 on which an image is projected by the projector 100. However, for example, a human body model or a map may be used as the screen area 200. Even in this case, the overlay processing unit 495 can perform drawing by moving the light emitting pen 210 while emitting light between the screen region 200 and the camera 300. For this reason, even when the user uses the electronic information board system 1 as an object of the screen area 200 even if the object that cannot be erased by writing by applying ink using a pen or the like is used as the object of the screen area 200, Explanations can be given while drawing electronically.

また、本実施形態では、画面分割部450は、撮像画像を4分割する場合を説明したが、画面のアスペクト比や要求するキャリブレーションの精度などに応じて、6分割、8分割などの複数画像に分割し、それぞれの分割画像について射影変換パラメーターを算出するようにしても良い。   Further, in the present embodiment, the screen dividing unit 450 has been described as dividing the captured image into four. However, depending on the aspect ratio of the screen, the accuracy of calibration required, and the like, a plurality of images such as 6 and 8 are divided. And projective transformation parameters may be calculated for each of the divided images.

また、本実施形態では、発光ペン210は、スクリーン領域200に接触したことを検知して赤外光を発光することとしたが、例えば発光ペン210にボタンを設け、ボタンが押下されている場合に赤外光を発光するようにしても良い。すなわち、スクリーン領域200とカメラ300との間に存在する発光ペン210から発光される赤外光を検知して描画を行なうため、発光ペン210はスクリーン領域200に接地していなくとも描画が可能である。このようにすれば、スクリーン領域200の対象物が変形しやすいものや傷付き易いものであった場合に、対象物に触れずに描画することが可能となる。この際、描画処理部490は、赤外光の座標位置に点を描画するようにすれば、ポインタとして利用することが可能となる。   In the present embodiment, the light-emitting pen 210 detects that the screen pen 200 has been touched and emits infrared light. For example, a button is provided on the light-emitting pen 210 and the button is pressed. Alternatively, infrared light may be emitted. That is, since drawing is performed by detecting infrared light emitted from the light emitting pen 210 existing between the screen area 200 and the camera 300, the light emitting pen 210 can perform drawing even if the light emitting pen 210 is not grounded. is there. In this way, when the object in the screen region 200 is easily deformed or easily damaged, it is possible to draw without touching the object. At this time, the drawing processing unit 490 can be used as a pointer by drawing a point at the coordinate position of the infrared light.

また、スクリーン領域200の形状や、スクリーン領域200に照射される他の光などの影響により、可視光を用いたキャリブレーションによって正確な射影変換パラメーターが算出できない場合には、赤外光によるキャリブレーションを行うようにしても良い。
また、本実施形態では、コンピューター端末400が各機能部を備えることとしたが、専用のコンピューター装置が、描画処理やキャリブレーション処理に必要な機能部を備えるようにしても良い。
In addition, when accurate projection conversion parameters cannot be calculated by calibration using visible light due to the influence of the shape of the screen area 200 or other light irradiated on the screen area 200, calibration using infrared light is performed. May be performed.
In the present embodiment, the computer terminal 400 includes each function unit. However, a dedicated computer device may include a function unit necessary for drawing processing and calibration processing.

以上説明したように、本実施形態によれば、収差歪み等により歪んだ撮像画像を複数に分割して、分割画像のそれぞれについて射影変換パラメーターを算出し、算出した射影変換パラメーターにより撮像画像の射影変換を行なうようにしたので、撮像画像全体で一つの射影変化パラメーターを用いて射影変換を行なうことに比べて、射影変換の精度を上げることが可能となる。これにより、スクリーン領域200に投影された画像に対する発光ペン210の座標位置を、より正確に投影画像に反映することができる。このため、ユーザーは、意図した箇所への発光ペン210による書き込みをより正確に行なうことができ、円滑にプレゼンテーションを行なうことが可能となる。一方、プレゼンテーションの視聴者にとっても、よりストレスなく理解し易いプレゼンテーションを視聴することが可能となる。   As described above, according to the present embodiment, a captured image distorted due to aberration distortion or the like is divided into a plurality of parts, a projection conversion parameter is calculated for each of the divided images, and a projection of the captured image is calculated using the calculated projection conversion parameter. Since the conversion is performed, it is possible to improve the accuracy of the projective conversion as compared to performing the projective conversion using one projection change parameter for the entire captured image. Thereby, the coordinate position of the light emitting pen 210 with respect to the image projected on the screen area 200 can be more accurately reflected in the projected image. For this reason, the user can more accurately perform writing with the light-emitting pen 210 to the intended place, and can perform a presentation smoothly. On the other hand, presentation viewers can view presentations that are easier to understand without stress.

また、本実施形態では、カメラ300に対して可視光フィルタを設置することにより赤外光のみを撮像し、可視光フィルタを外すことにより可視光を撮像するようにしたので、可視光撮像用のカメラと赤外光撮像用のカメラとの2台のカメラを設置する必要がなく、より簡易に電子情報ボードシステム1を構成することが可能となる。また、カメラ300は可視光を撮像することができるため、スクリーン領域200の定められた箇所にて発光ペン210を発光させるなどによるキャリブレーションを行なう必要がなく、自動的なキャリブレーションが可能である。また、スクリーン領域200のスナップショットを撮影し、保存することも可能である。この場合、スクリーン領域200がホワイトボードなどである場合には、インクペンによってホワイトボードに書き込んだ情報をも、撮像して記憶することができる。   In the present embodiment, only the infrared light is imaged by installing a visible light filter with respect to the camera 300, and the visible light is imaged by removing the visible light filter. It is not necessary to install two cameras, a camera and a camera for infrared light imaging, and the electronic information board system 1 can be configured more easily. Further, since the camera 300 can capture visible light, it is not necessary to perform calibration by causing the light-emitting pen 210 to emit light at a predetermined position of the screen area 200, and automatic calibration is possible. . It is also possible to take a snapshot of the screen area 200 and save it. In this case, when the screen area 200 is a whiteboard or the like, the information written on the whiteboard by the ink pen can be captured and stored.

なお、本発明における処理部の機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによりキャリブレーションを行ってもよい。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューターシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピューターシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   The program for realizing the function of the processing unit in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed for calibration. May be. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible disk, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” is a volatile memory (RAM) inside a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

1 電子情報ボードシステム
100 プロジェクター
200 スクリーン領域
210 発光ペン
300 カメラ
400 コンピューター端末
410 表示部
420 表示制御部
430 キャリブレーション画像記憶部
440 画像受信部
450 画面分割部
460 射影変換パラメーター算出部
470 射影変換パラメーター記憶部
480 射影変換部
490 描画処理部
495 オーバーレイ処理部
DESCRIPTION OF SYMBOLS 1 Electronic information board system 100 Projector 200 Screen area 210 Light-emitting pen 300 Camera 400 Computer terminal 410 Display part 420 Display control part 430 Calibration image memory | storage part 440 Image receiving part 450 Screen division part 460 Projection conversion parameter calculation part 470 Projection conversion parameter memory | storage Unit 480 projection conversion unit 490 drawing processing unit 495 overlay processing unit

Claims (4)

定められた投影画像を投影するプロジェクターと、前記プロジェクターによって前記投影画像が投影された領域を撮像して撮像画像を生成するカメラと、前記カメラによって生成された前記撮像画像を受信するコンピューター端末とを備えた電子情報ボードシステムであって、
前記プロジェクターは、
前記領域内における座標位置を示す指標が含まれるキャリブレーション画像を投影し、
前記カメラは、
前記プロジェクターによって前記キャリブレーション画像が投影された領域を撮像して前記撮像画像を生成し、
前記コンピューター端末は、
前記カメラによって生成された前記撮像画像を、複数の画像に分割する画像分割部と、
前記画像分割部によって分割された複数の前記画像のそれぞれについて、当該画像に含まれる前記指標に基づいて前記撮像画像を前記投影画像に射影変換するための射影変換パラメーターを算出する射影変換パラメーター算出部と、
前記射影変換パラメーター算出部によって算出された前記射影変換パラメーターに基づいて、前記カメラによって撮像された前記撮像画像を前記投影画像に射影変換する射影変換部と、
を備えることを特徴とする電子情報ボードシステム。
A projector that projects a predetermined projection image; a camera that captures an area in which the projection image is projected by the projector to generate a captured image; and a computer terminal that receives the captured image generated by the camera. An electronic information board system comprising:
The projector is
Projecting a calibration image including an index indicating the coordinate position in the region,
The camera
Imaging the area where the calibration image is projected by the projector to generate the captured image;
The computer terminal is
An image dividing unit that divides the captured image generated by the camera into a plurality of images;
For each of the plurality of images divided by the image dividing unit, a projective conversion parameter calculating unit that calculates a projective conversion parameter for projectively converting the captured image to the projected image based on the index included in the image. When,
A projective conversion unit for projectively converting the captured image captured by the camera into the projected image based on the projective conversion parameter calculated by the projective conversion parameter calculating unit;
An electronic information board system comprising:
前記カメラは可視光を撮像し、
前記射影変換パラメーター算出部は、前記画像内における前記指標の座標位置を算出し、算出した当該座標位置に基づいて前記射影変換パラメーターを算出する
ことを特徴とする請求項1に記載の電子情報ボードシステム。
The camera captures visible light;
The electronic information board according to claim 1, wherein the projective transformation parameter calculation unit calculates a coordinate position of the index in the image, and calculates the projective transformation parameter based on the calculated coordinate position. system.
投影する画像内における座標位置を示す指標が含まれるキャリブレーション画像を投影するプロジェクターと、前記プロジェクターによって前記キャリブレーション画像が投影された領域を撮像して撮像画像を生成するカメラと、前記カメラによって生成された前記撮像画像を受信するコンピューター端末とを備えた電子情報ボードシステムにおける前記コンピューター端末であって、
前記カメラによって生成された前記撮像画像を、複数の画像に分割する画像分割部と、
前記画像分割部によって分割された複数の前記画像のそれぞれについて、当該画像に含まれる前記指標に基づいて前記撮像画像を前記投影画像に射影変換するための射影変換パラメーターを算出する射影変換パラメーター算出部と、
前記射影変換パラメーター算出部によって算出された前記射影変換パラメーターに基づいて、前記カメラによって撮像された前記撮像画像を前記投影画像に射影変換する射影変換部と、
を備えることを特徴とするコンピューター端末。
A projector that projects a calibration image including an index indicating a coordinate position in the image to be projected, a camera that captures an area where the calibration image is projected by the projector and generates a captured image, and a camera that generates the captured image A computer terminal in an electronic information board system comprising a computer terminal for receiving the captured image,
An image dividing unit that divides the captured image generated by the camera into a plurality of images;
For each of the plurality of images divided by the image dividing unit, a projective conversion parameter calculating unit that calculates a projective conversion parameter for projectively converting the captured image to the projected image based on the index included in the image. When,
A projective conversion unit for projectively converting the captured image captured by the camera into the projected image based on the projective conversion parameter calculated by the projective conversion parameter calculating unit;
A computer terminal comprising:
定められた投影画像を投影するプロジェクターと、前記プロジェクターによって投影された領域を撮像して撮像画像を生成するカメラと、前記カメラによって生成された前記撮像画像を受信するコンピューター端末とを備えた電子情報ボードシステムのキャリブレーション方法であって、
前記プロジェクターが、
前記領域内における座標位置を示す指標が含まれるキャリブレーション画像を投影するステップと、
前記カメラが、
前記プロジェクターによって前記キャリブレーション画像が投影された領域を撮像して前記撮像画像を生成するステップと、
前記コンピューター端末の、
画像分割部が、前記カメラによって生成された前記撮像画像を、複数の画像に分割するステップと、
射影変換パラメーター算出部が、前記画像分割部によって分割された複数の前記画像のそれぞれについて、当該画像に含まれる前記指標に基づいて前記撮像画像を前記投影画像に射影変換するための射影変換パラメーターを算出するステップと、
射影変換部が、前記射影変換パラメーター算出部によって算出された前記射影変換パラメーターに基づいて、前記カメラによって撮像された前記撮像画像を前記投影画像に射影変換するステップと、
を備えることを特徴とするキャリブレーション方法。
Electronic information comprising: a projector that projects a predetermined projection image; a camera that captures an area projected by the projector to generate a captured image; and a computer terminal that receives the captured image generated by the camera A board system calibration method comprising:
The projector is
Projecting a calibration image including an index indicating a coordinate position in the region;
The camera is
Imaging the area where the calibration image is projected by the projector to generate the captured image;
Of the computer terminal,
An image dividing unit dividing the captured image generated by the camera into a plurality of images;
A projective transformation parameter calculating unit calculates a projective transformation parameter for projectively transforming the captured image into the projected image based on the index included in the image for each of the plurality of images divided by the image dividing unit. A calculating step;
A projective transformation unit, based on the projective transformation parameter calculated by the projective transformation parameter calculating unit, projectively transforms the captured image captured by the camera into the projected image;
A calibration method comprising:
JP2009125642A 2009-05-25 2009-05-25 Electronic information board system, computer terminal, and calibration method Withdrawn JP2010273289A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009125642A JP2010273289A (en) 2009-05-25 2009-05-25 Electronic information board system, computer terminal, and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009125642A JP2010273289A (en) 2009-05-25 2009-05-25 Electronic information board system, computer terminal, and calibration method

Publications (1)

Publication Number Publication Date
JP2010273289A true JP2010273289A (en) 2010-12-02

Family

ID=43420924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009125642A Withdrawn JP2010273289A (en) 2009-05-25 2009-05-25 Electronic information board system, computer terminal, and calibration method

Country Status (1)

Country Link
JP (1) JP2010273289A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173447A (en) * 2011-02-21 2012-09-10 Seiko Epson Corp Interactive system, position information conversion method, and projector
JP2012230302A (en) * 2011-04-27 2012-11-22 I-Chips Technology Inc Image generation device, projection type image display device, image display system, image generation method and computer program
JP2013187764A (en) * 2012-03-08 2013-09-19 Seiko Epson Corp Image processing device, image processing method and projector
KR101346373B1 (en) * 2012-06-25 2013-12-31 주식회사 아하정보통신 Method of performing auto focus calibration of camera lens for electro board
WO2015198529A1 (en) * 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 Projection system
EP3018901A4 (en) * 2013-07-05 2016-07-13 Panasonic Ip Man Co Ltd Projection system
CN112584112A (en) * 2020-12-02 2021-03-30 深圳市当智科技有限公司 Projection method and system based on size correction and readable storage medium
JP2021051318A (en) * 2020-12-03 2021-04-01 パナソニックIpマネジメント株式会社 Image projection system and image projection method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173447A (en) * 2011-02-21 2012-09-10 Seiko Epson Corp Interactive system, position information conversion method, and projector
JP2012230302A (en) * 2011-04-27 2012-11-22 I-Chips Technology Inc Image generation device, projection type image display device, image display system, image generation method and computer program
JP2013187764A (en) * 2012-03-08 2013-09-19 Seiko Epson Corp Image processing device, image processing method and projector
KR101346373B1 (en) * 2012-06-25 2013-12-31 주식회사 아하정보통신 Method of performing auto focus calibration of camera lens for electro board
EP3018901A4 (en) * 2013-07-05 2016-07-13 Panasonic Ip Man Co Ltd Projection system
WO2015198529A1 (en) * 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 Projection system
CN112584112A (en) * 2020-12-02 2021-03-30 深圳市当智科技有限公司 Projection method and system based on size correction and readable storage medium
CN112584112B (en) * 2020-12-02 2023-10-03 深圳市当智科技有限公司 Projection method, system and readable storage medium based on size correction
JP2021051318A (en) * 2020-12-03 2021-04-01 パナソニックIpマネジメント株式会社 Image projection system and image projection method

Similar Documents

Publication Publication Date Title
JP2010273289A (en) Electronic information board system, computer terminal, and calibration method
JP5428600B2 (en) Projector, image projection system, and image projection method
JP6135239B2 (en) Image processing apparatus, image processing program, and image processing method
JP4820285B2 (en) Automatic alignment touch system and method
JP2007141199A (en) Handheld computer cursor controlling device, computer device for controlling cursor using handheld computer cursor controlling device and method, and computer readable medium
JP5652596B2 (en) Projector, program, information storage medium, and image projection method
JP2008033049A (en) Object specifying device
US8149215B2 (en) Cursor control method applied to presentation system and computer readable storage medium
US20160062486A1 (en) Mobile device and method of projecting image by using the mobile device
KR20140000436A (en) Electronic board system using infrared camera
JP2011013396A (en) Projector, image projection system and image projection method
JP2010272078A (en) System, and control unit of electronic information board, and cursor control method
WO2018042582A1 (en) Projection type picture display apparatus and projected picture adjustment method
JP5828671B2 (en) Information processing apparatus and information processing method
CN116033131B (en) Image correction method, device, electronic equipment and readable storage medium
JP5152317B2 (en) Presentation control apparatus and program
KR100917615B1 (en) Method and apparatus for detecting location of laser beam with minimized error using mono-camera
JP4502896B2 (en) Projection display
JP4434381B2 (en) Coordinate input device
JP5664725B2 (en) Projector, image projection system, and image projection method
JP6065533B2 (en) Electronic signage apparatus and operation method
JP2015053734A (en) Projector, image projection system, and image projection method
JP6617061B2 (en) Work support program, work support method, information processing apparatus, and work support system
JP2017125764A (en) Object detection apparatus and image display device including the same
KR20120009955A (en) Pointer tracking system and method thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120807