JP2014057237A - Computer input system, coordinate conversion device and program - Google Patents

Computer input system, coordinate conversion device and program Download PDF

Info

Publication number
JP2014057237A
JP2014057237A JP2012201328A JP2012201328A JP2014057237A JP 2014057237 A JP2014057237 A JP 2014057237A JP 2012201328 A JP2012201328 A JP 2012201328A JP 2012201328 A JP2012201328 A JP 2012201328A JP 2014057237 A JP2014057237 A JP 2014057237A
Authority
JP
Japan
Prior art keywords
projection
input
parameter
function
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012201328A
Other languages
Japanese (ja)
Inventor
Takaaki Fukushima
孝明 福嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012201328A priority Critical patent/JP2014057237A/en
Publication of JP2014057237A publication Critical patent/JP2014057237A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To eliminate calibration work for a user even if setting of a projection apparatus is changed after calibration.SOLUTION: A computer 61 includes: a measuring function 61e for inputting a detection position of a measuring point, which is inputted from a position detector 4 during photographing of a measurement video; an initial projection parameter input function 61f for inputting an initial projection parameter from a projection device 3; a projection parameter re-inputting function for inputting a second projection parameter from the projection device 3 when the projection parameter of the projection device 3 is changed; a calibration function for calculating coordinate conversion parameters A and B for coordinate conversion from a position of the measuring point of a video coordinate system, a detection position of the measuring point of a detection coordinate system, the initial projection parameter and the second projection parameter; and a coordinate conversion function 61c for converting a coordinate system of the detection position inputted from the position detector 4 by using the parameters A and B from the detection coordinate system to the video coordinate system.

Description

本発明は、コンピュータ入力システム、座標変換装置及びプログラムに関する。   The present invention relates to a computer input system, a coordinate conversion device, and a program.

コンピュータで作成した資料を投影装置によってスクリーンに投影し、発表者がスクリーン上の任意の位置を指示棒、レーザーポインタ又はインタラクティブペン等で指し示しながら説明を行うことが広く行われている。また、指示棒、レーザーポインタ又はインタラクティブペン等をポインティングデバイスのように利用し、位置入力・方向入力を行えるようなシステムも開発されている。具体的には、光学式或いは超音波式の位置検出装置がスクリーンの周縁部に設けられ、スクリーン上のインタラクティブペンが接触する位置が位置検出装置によって検出され、その検出位置が位置検出装置からコンピュータに入力される(特許文献1参照)。これによりグラフィカルユーザーインターフェースがコンピュータに実現され、映像中のカーソルを移動させたり、映像中の所定のボタンをクリックしたり、映像中に線等を描画したりすることができる。グラフィカルユーザーインターフェース機能を有したコンピュータは座標系を設定して座標演算を行う。従って、位置検出装置によって位置が検出される際の座標系と、コンピュータの座標演算上の座標系が存在し、これらの座標系を正確に対応付けるためにユーザーがキャリブレーション作業を行う必要がある(特許文献1参照)。   It is widely practiced that a material created by a computer is projected on a screen by a projection device, and a presenter gives an explanation while pointing an arbitrary position on the screen with a pointer, a laser pointer, an interactive pen, or the like. In addition, a system has been developed that allows a position input / direction input by using a pointing stick, a laser pointer, an interactive pen, or the like like a pointing device. Specifically, an optical or ultrasonic position detection device is provided at the peripheral edge of the screen, the position where the interactive pen on the screen contacts is detected by the position detection device, and the detected position is detected from the position detection device to the computer. (See Patent Document 1). As a result, a graphical user interface is realized on the computer, and a cursor in the video can be moved, a predetermined button in the video can be clicked, and a line or the like can be drawn in the video. A computer having a graphical user interface function sets a coordinate system and performs coordinate calculation. Therefore, there are a coordinate system used when the position is detected by the position detection device and a coordinate system used for computer coordinate calculation, and the user needs to perform calibration work in order to accurately associate these coordinate systems ( Patent Document 1).

特開2011−126225号公報JP 2011-126225 A

ところで、ユーザーがキャリブレーション作業を行った後に、投影装置のズーム型投影レンズの焦点距離を変更したり、投影装置によって投影される映像の解像度を変更したりすることがある。そうすると、位置検出装置の座標系とコンピュータの座標系との対応付けの関係が崩れてしまう。そのため、ユーザーがキャリブレーション作業を再度行う必要がある。   By the way, after the user performs the calibration work, the focal length of the zoom type projection lens of the projection apparatus may be changed, or the resolution of the image projected by the projection apparatus may be changed. If it does so, the correlation of the coordinate system of a position detection apparatus and the coordinate system of a computer will collapse. Therefore, it is necessary for the user to perform the calibration work again.

そこで、本発明が解決しようとする課題は、キャリブレーション後に投影装置の設定が変更された場合でも、ユーザーがキャリブレーション作業を行わなくても済むようにすることである。   Therefore, the problem to be solved by the present invention is to make it unnecessary for the user to perform calibration work even when the setting of the projection apparatus is changed after calibration.

以上の課題を解決するために、本発明に係る入力コンピュータ入力システムは、映像信号を出力するコンピュータと、前記コンピュータと接続されて前記映像信号に従った映像を映し出す投影装置により映像が投影されるスクリーン上のユーザーの指示位置を前記スクリーンに沿った検出座標系で表すように検出し、その検出位置を前記コンピュータに出力する位置検出装置と、を備え、前記コンピュータが、前記映像に沿った映像座標系で位置が表された測定点を含む測定用映像を生成し、その測定用映像の信号を前記投影装置に出力する測定用映像生成機能と、前記位置検出装置から入力した前記測定点の検出位置を入力して記憶する測定機能と、前記投影装置から初期投影パラメータを入力して記憶する初期投影パラメータ入力機能と、前記投影装置の投影パラメータが前記初期投影パラメータから第二投影パラメータに変更された場合に前記投影装置から前記第二投影パラメータを入力する投影パラメータ再入力機能と、前記映像座標系で表された前記測定点の位置、前記測定機能により記憶した前記測定点の検出位置、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータ及び前記投影パラメータ再入力機能により入力した前記第二投影パラメータから座標変換用のパラメータを演算するキャリブレーション機能と、前記キャリブレーション機能により演算された前記座標変換用のパラメータを利用して前記位置検出装置から入力した検出位置の座標系を前記検出座標系から前記映像座標系に変換する座標変換機能と、を有する。   In order to solve the above problems, an input computer input system according to the present invention projects a video by a computer that outputs a video signal and a projection device that is connected to the computer and displays a video according to the video signal. A position detection device that detects a user's designated position on the screen so as to be represented by a detection coordinate system along the screen, and outputs the detected position to the computer. A measurement image generation function that generates a measurement image including a measurement point whose position is represented in a coordinate system, and outputs a signal of the measurement image to the projection device; and the measurement point input from the position detection device A measurement function for inputting and storing a detection position, and an initial projection parameter input function for inputting and storing an initial projection parameter from the projection apparatus; A projection parameter re-input function for inputting the second projection parameter from the projection device when the projection parameter of the projection device is changed from the initial projection parameter to the second projection parameter, and the image coordinate system. For coordinate conversion from the position of the measurement point, the detection position of the measurement point stored by the measurement function, the initial projection parameter stored by the initial projection parameter input function, and the second projection parameter input by the projection parameter re-input function A calibration function for calculating a parameter of the image, and a coordinate system of a detection position input from the position detection device using the parameter for coordinate conversion calculated by the calibration function from the detection coordinate system to the video coordinate system And a coordinate conversion function for converting to.

本発明に係る座標変換装置は、投影装置によって映像が投影されるスクリーン上のユーザーの指示位置を前記スクリーンに沿った検出座標系で表すように検出する位置検出装置からその検出位置を入力するとともに、映像信号を前記投影装置に出力するコンピュータを備え、前記コンピュータが、前記映像に沿った映像座標系で位置が表された測定点を含む測定用映像を生成し、その測定用映像の信号を前記投影装置に出力する測定用映像生成機能と、前記位置検出装置から入力した前記測定点の検出位置を入力して記憶する測定機能と、前記投影装置から初期投影パラメータを入力して記憶する初期投影パラメータ入力機能と、前記投影装置の投影パラメータが前記初期投影パラメータから第二投影パラメータに変更された場合に前記投影装置から前記第二投影パラメータを入力する投影パラメータ再入力機能と、前記映像座標系で表された前記測定点の位置、前記測定機能により記憶した前記測定点の検出位置、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータ及び前記投影パラメータ再入力機能により入力した前記第二投影パラメータから座標変換用のパラメータを演算するキャリブレーション機能と、前記キャリブレーション機能により演算された前記座標変換用のパラメータを利用して前記位置検出装置から入力した検出位置の座標系を前記検出座標系から前記映像座標系に変換する座標変換機能と、を有する。   The coordinate conversion device according to the present invention inputs the detection position from a position detection device that detects the user's designated position on the screen on which the image is projected by the projection device so as to be represented by a detection coordinate system along the screen. A computer for outputting a video signal to the projection device, wherein the computer generates a measurement video including a measurement point whose position is represented in a video coordinate system along the video, and outputs the measurement video signal. Measurement video generation function to be output to the projection apparatus, measurement function to input and store the detection position of the measurement point input from the position detection apparatus, and initial stage to input and store initial projection parameters from the projection apparatus Projection parameter input function and the projection when the projection parameter of the projection device is changed from the initial projection parameter to the second projection parameter. A projection parameter re-input function for inputting the second projection parameter from a position; a position of the measurement point represented in the video coordinate system; a detection position of the measurement point stored by the measurement function; and an initial projection parameter input function A calibration function for calculating a parameter for coordinate conversion from the initial projection parameter stored by the above and the second projection parameter input by the projection parameter re-input function, and the parameter for coordinate conversion calculated by the calibration function And a coordinate conversion function for converting the coordinate system of the detection position input from the position detection device from the detection coordinate system to the video coordinate system.

本発明に係るプログラムは、投影装置によって映像が投影されるスクリーン上のユーザーの指示位置を前記スクリーンに沿った検出座標系で表すように検出する位置検出装置からその検出位置を入力するとともに、映像信号を投影装置に出力するコンピュータに、前記映像に沿った映像座標系で位置が表された測定点を含む測定用映像を生成し、その測定用映像の信号を前記投影装置に出力する測定用映像生成機能と、前記位置検出装置から入力した前記測定点の検出位置を入力して記憶する測定機能と、前記投影装置から初期投影パラメータを入力して記憶する初期投影パラメータ入力機能と、前記投影装置の投影パラメータが前記初期投影パラメータから第二投影パラメータに変更された場合に前記投影装置から前記第二投影パラメータを入力する投影パラメータ再入力機能と、前記映像座標系で表された前記測定点の位置、前記測定機能により記憶した前記測定点の検出位置、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータ及び前記投影パラメータ再入力機能により入力した前記第二投影パラメータから座標変換用のパラメータを演算するキャリブレーション機能と、前記キャリブレーション機能により演算された前記座標変換用のパラメータを利用して前記位置検出装置から入力した検出位置の座標系を前記検出座標系から前記映像座標系に変換する座標変換機能と、を実現させるためのプログラムである。   A program according to the present invention inputs a detection position from a position detection device that detects a user's designated position on a screen on which a video is projected by the projection device so as to be represented by a detection coordinate system along the screen, and A computer for outputting a signal to the projection device generates a measurement image including a measurement point whose position is represented in the image coordinate system along the image, and outputs a signal of the measurement image to the projection device. An image generation function, a measurement function for inputting and storing the detection position of the measurement point input from the position detection device, an initial projection parameter input function for inputting and storing an initial projection parameter from the projection device, and the projection When the projection parameter of the apparatus is changed from the initial projection parameter to the second projection parameter, the second projection parameter from the projection apparatus A projection parameter re-input function to be input; the position of the measurement point represented in the video coordinate system; the detection position of the measurement point stored by the measurement function; the initial projection parameter stored by the initial projection parameter input function; A calibration function for calculating a parameter for coordinate conversion from the second projection parameter input by the projection parameter re-input function, and the position detection device using the parameter for coordinate conversion calculated by the calibration function And a coordinate conversion function for converting the coordinate system of the detection position input from the detection coordinate system to the video coordinate system.

本発明によれば、投影装置からコンピュータに入力された初期投影パラメータ及び第二投影パラメータを利用して、位置検出装置による検出位置が検出座標系から映像座標系に変換されるので、投影装置の設定が変更された場合でも、ユーザーがキャリブレーション作業を行わなくても済む。   According to the present invention, the detection position by the position detection device is converted from the detection coordinate system to the video coordinate system using the initial projection parameter and the second projection parameter input to the computer from the projection device. Even if the setting is changed, the user does not need to perform calibration work.

コンピュータ入力システムの使用状態を示す斜視図である。It is a perspective view which shows the use condition of a computer input system. コンピュータ入力システムのブロック図である。It is a block diagram of a computer input system. 測定用映像を示した図面である。It is drawing which showed the image | video for a measurement.

以下に、本発明を実施するための形態について、図面を用いて説明する。但し、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されている。そのため、本発明の技術的範囲を以下の実施形態及び図示例に限定するものではない。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated using drawing. However, the embodiments described below are given various technically preferable limitations for carrying out the present invention. Therefore, the technical scope of the present invention is not limited to the following embodiments and illustrated examples.

図1は、コンピュータ入力システム1の使用状態を示す斜視図である。このコンピュータ入力システム1は、投影装置3を利用したインタラクティブホワイトボードシステム(電子黒板システム)に適用したものである。また、このコンピュータ入力システム1は、座標変換装置6を利用して検出位置の座標変換(座標キャリブレーション)を行う座標変換システムである。   FIG. 1 is a perspective view showing a use state of the computer input system 1. This computer input system 1 is applied to an interactive whiteboard system (electronic blackboard system) using a projection device 3. The computer input system 1 is a coordinate conversion system that performs coordinate conversion (coordinate calibration) of a detection position using the coordinate conversion device 6.

コンピュータ入力システム1は、スクリーン2、投影装置3、位置検出装置(デジタイザ)4、指示ペン5及び座標変換装置6を備える。   The computer input system 1 includes a screen 2, a projection device 3, a position detection device (digitizer) 4, an instruction pen 5, and a coordinate conversion device 6.

スクリーン2は壁、幕、板その他それらに類するものである。例えば、投影幕(プロジェクタスクリーン)、ホワイトボード、白壁又はテーブル等をスクリーン2に利用することができる。   The screen 2 is a wall, curtain, board or the like. For example, a projection screen (projector screen), a white board, a white wall, a table, or the like can be used for the screen 2.

座標変換装置6はノート型パソコン、デスクトップ型パソコン又はタブレット型パソコンその他のパーソナルコンピュータである。座標変換装置6は各種の演算処理により映像(画面)を生成し、その映像に従った映像信号を投影装置3に出力する。座標変換装置6は映像の生成に際して各種の座標演算を行い、座標演算に際して直交座標系を設定する。つまり、映像の横方向に沿ったx座標が座標変換装置6によって設定され、映像の縦方向に沿ったy座標が座標変換装置6によって設定される。以下、映像上の位置を表す直交座標系を映像座標系という。   The coordinate transformation device 6 is a notebook personal computer, desktop personal computer, tablet personal computer or other personal computer. The coordinate conversion device 6 generates a video (screen) by various arithmetic processes, and outputs a video signal according to the video to the projection device 3. The coordinate conversion device 6 performs various coordinate operations when generating an image, and sets an orthogonal coordinate system when performing coordinate operations. That is, the x coordinate along the horizontal direction of the video is set by the coordinate conversion device 6, and the y coordinate along the vertical direction of the video is set by the coordinate conversion device 6. Hereinafter, an orthogonal coordinate system representing a position on an image is referred to as an image coordinate system.

投影装置3は所謂データプロジェクターである。つまり、座標変換装置6によって出力された映像信号が映像伝送ケーブル7によって投影装置3に伝送され、投影装置3がその映像信号に従った映像をスクリーン2に投影する。   The projection device 3 is a so-called data projector. That is, the video signal output by the coordinate conversion device 6 is transmitted to the projection device 3 by the video transmission cable 7, and the projection device 3 projects an image according to the video signal onto the screen 2.

投影装置3と座標変換装置6が通信ケーブル(例えば、USBケーブル)8によって接続されており、投影装置3の投影状況を表すデータ(以下、投影パラメータという。)が投影装置3から通信ケーブル8を介して座標変換装置6に転送される。投影パラメータとしては、スローレシオ、横方向スケールパラメータ及び縦方向スケールパラメータがある。スローレシオとは、投影距離の短縮率を表し、一般的には投影距離をスクリーン横幅で除した値をいう。縦方向スケールパラメータとは、出力映像の縦方向の解像度を入力映像の縦方向の解像度で除した値をいう。横方向スケールパラメータとは、出力映像の横方向の解像度を入力映像の横方向の解像度で除した値をいう。入力映像とは、座標変換装置6から投影装置3に入力される映像信号の映像をいい、出力映像とは、投影装置3によって投影される映像をいう。また、解像度とは、映像中の画素の密度をいうのではなく、映像の画素数をいう。つまり、映像の縦方向の解像度とは映像の縦方向の画素数をいい、映像の横方向の解像度とは映像の横方向の画素数をいい、映像の解像度とは映像の総画素数(映像の縦方向の画素数×横方向の画素数)をいう。   The projection device 3 and the coordinate conversion device 6 are connected by a communication cable (for example, a USB cable) 8, and data representing the projection status of the projection device 3 (hereinafter referred to as projection parameters) is transmitted from the projection device 3 to the communication cable 8. And transferred to the coordinate conversion device 6. Projection parameters include a slow ratio, a horizontal scale parameter, and a vertical scale parameter. The slow ratio represents a reduction rate of the projection distance, and generally refers to a value obtained by dividing the projection distance by the screen width. The vertical scale parameter is a value obtained by dividing the vertical resolution of the output video by the vertical resolution of the input video. The horizontal direction scale parameter is a value obtained by dividing the horizontal resolution of the output video by the horizontal resolution of the input video. The input video refers to the video of the video signal input from the coordinate conversion device 6 to the projection device 3, and the output video refers to the video projected by the projection device 3. Also, the resolution does not mean the density of pixels in the video, but the number of pixels in the video. In other words, the vertical resolution of the video refers to the number of pixels in the vertical direction of the video, the horizontal resolution of the video refers to the number of pixels in the horizontal direction of the video, and the resolution of the video refers to the total number of pixels of the video (video The number of vertical pixels × the number of horizontal pixels).

位置検出装置4はスクリーン2に設けられている。位置検出装置4は、スクリーン2上における指示ペン5の位置を検出するものである。位置検出装置4による指示ペン5の位置検出方式はどのようなものでもよい。例えば、位置検出装置4がスクリーン2の周縁部に配列された複数の投光素子及び受光素子等を有し、これら投光素子がスクリーン2に沿って光を発し、投光素子から発した光(可視光帯域外の光が望ましい。)がこれら受光素子によってそれぞれ受光され、指示ペン5によって光が遮光されるとその位置が受光素子によって検出される。或いは、位置検出装置4がスクリーン2に正対する電子カメラ(例えば、赤外線電子カメラ)等を有し、指示ペン5を含むスクリーン2が電子カメラによって撮像され、その撮像画像中の指示ペン5の像の位置が画像処理技術によって検出されることによって、指示ペン5の位置が検出される。或いは、位置検出装置4がスクリーン2の周縁部に設けられた複数の電子カメラ(例えば、赤外線電子カメラ等)を有し、指示ペン5をこれら電子カメラによって撮像され、これら撮像画像から三角法的に指示ペン5の位置が検出される。或いは、位置検出装置4がスクリーン2の周縁部に配置された二以上の超音波検出器からなり、指示ペン5に超音波発振器が内蔵され、指示ペン5から発した超音波がこれら超音波検出器によって検出され、これら超音波検出器に超音波が到達するまでの時間差から三角法的に指示ペン5の位置が検出される。或いは、位置検出装置4がスクリーン2に貼着された感圧式シートであり、指示ペン5が感圧式シートに接触すると、その位置が検出される。   The position detection device 4 is provided on the screen 2. The position detection device 4 detects the position of the pointing pen 5 on the screen 2. Any method for detecting the position of the pointing pen 5 by the position detection device 4 may be used. For example, the position detection device 4 includes a plurality of light projecting elements and light receiving elements arranged on the peripheral edge of the screen 2, and these light projecting elements emit light along the screen 2 and light emitted from the light projecting elements. (Preferably, light outside the visible light band is received) by these light receiving elements, and when the light is blocked by the pointing pen 5, the position is detected by the light receiving elements. Alternatively, the position detection device 4 has an electronic camera (for example, an infrared electronic camera) or the like directly facing the screen 2, and the screen 2 including the pointing pen 5 is imaged by the electronic camera, and an image of the pointing pen 5 in the captured image. Is detected by an image processing technique, so that the position of the pointing pen 5 is detected. Alternatively, the position detection device 4 has a plurality of electronic cameras (for example, infrared electronic cameras) provided on the peripheral edge of the screen 2, the pointing pen 5 is imaged by these electronic cameras, and triangulation is performed from these captured images. The position of the pointing pen 5 is detected. Alternatively, the position detection device 4 includes two or more ultrasonic detectors arranged at the peripheral edge of the screen 2, an ultrasonic oscillator is built in the pointing pen 5, and ultrasonic waves emitted from the pointing pen 5 are detected by these ultrasonic waves. The position of the pointing pen 5 is detected trigonometrically from the time difference until the ultrasonic waves reach the ultrasonic detectors. Alternatively, when the position detection device 4 is a pressure-sensitive sheet attached to the screen 2 and the pointing pen 5 contacts the pressure-sensitive sheet, the position is detected.

ユーザーが指示ペン5の先端をスクリーン2に当接させることによって投影映像中の或る位置(当接位置)を指し示すと、その位置が位置検出装置4によって検出され、その検出位置が位置検出装置4によって座標変換装置6に入力される。これにより、ユーザーが投影映像中のカーソルの移動や各種の位置入力を行うことができる。位置検出装置4から座標変換装置6への検出位置の伝送は通信ケーブル(例えば、USBケーブル)9又は無線によって行われる。位置検出装置4によって検出された検出位置は直交座標系で表されたものである。つまり、スクリーン2の横方向に沿ってX座標が定められ、スクリーン2の縦方向に沿ってY座標が定められ、位置検出装置4によって検出された検出位置がX座標及びY座標で表される。位置検出装置4によって検出された検出位置を表す直交座標系を検出座標系という。   When the user indicates a certain position (contact position) in the projected image by bringing the tip of the pointing pen 5 into contact with the screen 2, the position is detected by the position detection device 4, and the detected position is detected by the position detection device. 4 is input to the coordinate conversion device 6. Thus, the user can move the cursor in the projected video and input various positions. Transmission of the detection position from the position detection device 4 to the coordinate conversion device 6 is performed by a communication cable (for example, USB cable) 9 or wirelessly. The detection position detected by the position detection device 4 is represented by an orthogonal coordinate system. That is, the X coordinate is determined along the horizontal direction of the screen 2, the Y coordinate is determined along the vertical direction of the screen 2, and the detection position detected by the position detection device 4 is expressed by the X coordinate and the Y coordinate. . An orthogonal coordinate system representing the detection position detected by the position detection device 4 is referred to as a detection coordinate system.

指示ペン5には、マウスのクリックボタンに相当する押しボタンが設けられている。つまり、ユーザーが指示ペン5の押しボタンを押すと、その旨の信号(以下、クリック信号という。)が指示ペン5によって座標変換装置6に無線又は有線で送信される。これにより、ユーザーが各種のコマンド(ページ切替コマンド、ウィンドウ切替コマンド、クリックコマンド、選択コマンド、決定コマンド、ドラッグコマンド、ドロップコマンド、映像拡大コマンド、映像縮小コマンド等)を入力することができる。   The instruction pen 5 is provided with a push button corresponding to a mouse click button. That is, when the user presses the push button of the pointing pen 5, a signal to that effect (hereinafter referred to as a click signal) is transmitted to the coordinate conversion device 6 by the pointing pen 5 wirelessly or by wire. Thereby, the user can input various commands (page switching command, window switching command, click command, selection command, determination command, drag command, drop command, video enlargement command, video reduction command, etc.).

図2は、コンピュータ入力システム1のブロック図である。図2に示すように、投影装置3は、映像入力端子30、映像信号処理部31、表示コントローラ32、表示素子33、光照射装置34、投影レンズ35、レンズ駆動部36、操作部37及び制御部38等を備える。   FIG. 2 is a block diagram of the computer input system 1. As shown in FIG. 2, the projection device 3 includes a video input terminal 30, a video signal processing unit 31, a display controller 32, a display element 33, a light irradiation device 34, a projection lens 35, a lens driving unit 36, an operation unit 37, and a control. Part 38 and the like.

操作部37は複数のスイッチ(押しボタン)等からなる。操作部37は、ユーザーによって操作されることによって、操作内容に応じた信号を制御部38に出力する。例えば、ユーザーが操作部37を操作すると、投影レンズ35の焦点距離が変更されたり、投影映像のアスペクト比(表示素子33の表示映像のアスペクト比)が変更されたりする。   The operation unit 37 includes a plurality of switches (push buttons). The operation unit 37 outputs a signal corresponding to the operation content to the control unit 38 when operated by the user. For example, when the user operates the operation unit 37, the focal length of the projection lens 35 is changed, or the aspect ratio of the projected image (the aspect ratio of the display image of the display element 33) is changed.

座標変換装置6のコンピュータ61の映像出力端子が映像伝送ケーブル7を介して映像入力端子30に接続され、コンピュータ61によって出力された映像信号が映像入力端子30に入力される。なお、映像信号が無線によって座標変換装置6から投影装置3へ送信されてもよい。   The video output terminal of the computer 61 of the coordinate transformation device 6 is connected to the video input terminal 30 via the video transmission cable 7, and the video signal output by the computer 61 is input to the video input terminal 30. Note that the video signal may be transmitted from the coordinate conversion device 6 to the projection device 3 wirelessly.

映像信号処理部31は、映像入力端子30によって入力された映像信号に対して各種の信号処理を行う。例えば、映像信号処理部31は、座標変換装置6のコンピュータ61から入力した映像信号のスケーリングを行って、映像信号の解像度を増減する。映像信号処理部31によって変換される前の映像信号の解像度を入力解像度といい、映像信号処理部31によって変換された後の映像信号の解像度を出力解像度という。入力解像度は、座標変換装置6から投影装置3に入力される入力映像の解像度に等しく、出力映像とは、投影装置3によって投影される出力映像の解像度に等しい。   The video signal processing unit 31 performs various types of signal processing on the video signal input from the video input terminal 30. For example, the video signal processing unit 31 performs scaling of the video signal input from the computer 61 of the coordinate conversion device 6 to increase or decrease the resolution of the video signal. The resolution of the video signal before being converted by the video signal processing unit 31 is referred to as input resolution, and the resolution of the video signal after being converted by the video signal processing unit 31 is referred to as output resolution. The input resolution is equal to the resolution of the input video input from the coordinate conversion device 6 to the projection device 3, and the output video is equal to the resolution of the output video projected by the projection device 3.

表示コントローラ32は、映像信号処理部31から入力した映像信号に基づいて表示素子33を駆動する。表示コントローラ32が映像信号処理部31から入力した映像信号に従って表示素子33の画素毎にPWM制御又はPNM制御等をすることで、表示素子33に照射される光が画素によって画素毎に変調される。これにより、表示素子33によって映像(画面)が形成される。   The display controller 32 drives the display element 33 based on the video signal input from the video signal processing unit 31. The display controller 32 performs PWM control, PNM control, or the like for each pixel of the display element 33 according to the video signal input from the video signal processing unit 31, so that light emitted to the display element 33 is modulated pixel by pixel. . Thereby, an image (screen) is formed by the display element 33.

表示素子33は、二次元アレイ状に配列された複数の画素等を有するDMD(デジタル・マイクロミラー・デバイス)、透過型LCDパネル(液晶表示パネル)又は反射型LCDパネルである。表示素子33はDMDである場合には、表示素子33の画素が可動マイクロミラーであり、表示素子33がLCDパネルである場合には、表示素子33の画素が液晶シャッター素子である。   The display element 33 is a DMD (digital micromirror device), a transmissive LCD panel (liquid crystal display panel), or a reflective LCD panel having a plurality of pixels arranged in a two-dimensional array. When the display element 33 is a DMD, the pixel of the display element 33 is a movable micromirror, and when the display element 33 is an LCD panel, the pixel of the display element 33 is a liquid crystal shutter element.

表示コントローラ32は光照射装置34を制御する。光照射装置34は、表示素子33に向けて可視光を照射するものである。具体的には、光照射装置34は、時分割方式又は色分離方式のものである。   The display controller 32 controls the light irradiation device 34. The light irradiation device 34 emits visible light toward the display element 33. Specifically, the light irradiation device 34 is of a time division method or a color separation method.

光照射装置34が色分離方式である場合、光照射装置34が白色光源及び色分離器等を有し、白色光源から発した白色光が色分離器によって複数色(例えば、赤色、緑色、青色)に分離される。この場合、表示素子33が色毎にあり、複数色の光が表示素子33にそれぞれ照射され、各表示素子33を透過又は反射した光が合成される。   When the light irradiation device 34 is a color separation method, the light irradiation device 34 has a white light source, a color separator, and the like, and white light emitted from the white light source is output in a plurality of colors (for example, red, green, blue). ). In this case, the display element 33 is provided for each color, light of a plurality of colors is irradiated to the display element 33, and light transmitted or reflected by the display elements 33 is synthesized.

光照射装置34が時分割方式である場合、光照射装置34が互いに異なる色の可視光(例えば、赤色光、緑色光、青色光)を順次繰り返して表示素子33に照射し、その繰り返しの1周期が1フレームの期間に相当する。光照射装置34が時分割方式である場合、光照射装置34は、カラーフィルタ方式又はカラー光源方式のものとなる。光照射装置34がカラーフィルタ方式である場合、光照射装置34がカラーフィルタ、スピンドルモータ及び白色光源等を有し、カラーフィルタがスピンドルモータによって回転され、白色光源から発した白色光が回転中のカラーフィルタを通過することによって、白色光が各色(赤色、緑色、青色)に順次繰り替えし変換される。光照射装置34がカラー光源方式である場合、光照射装置34が互いに異なる色の複数の光源(例えば、赤色光源、緑色光源、青色光源)を有し、これらの光源が順次繰り返し点灯する。なお、光源とは、半導体発光素子(例えば、レーザーダイオード、発光ダイオード)又はランプ(例えば、ハロゲンランプ、キセノンランプ、メタルハライド、水銀ランプ、放電灯)であるか、半導体発光素子又はランプに蛍光体を組み合わせたものをいう。   When the light irradiation device 34 is a time division system, the light irradiation device 34 sequentially irradiates the display element 33 with visible light of different colors (for example, red light, green light, and blue light) one after another. The period corresponds to a period of one frame. When the light irradiation device 34 is a time division method, the light irradiation device 34 is a color filter method or a color light source method. When the light irradiation device 34 is a color filter system, the light irradiation device 34 includes a color filter, a spindle motor, a white light source, and the like. The color filter is rotated by the spindle motor, and white light emitted from the white light source is rotating. By passing through the color filter, the white light is sequentially converted into each color (red, green, blue) and converted. When the light irradiation device 34 is a color light source system, the light irradiation device 34 has a plurality of light sources having different colors (for example, a red light source, a green light source, and a blue light source), and these light sources are sequentially turned on repeatedly. The light source is a semiconductor light emitting element (for example, a laser diode, a light emitting diode) or a lamp (for example, a halogen lamp, a xenon lamp, a metal halide, a mercury lamp, a discharge lamp), or a phosphor is added to the semiconductor light emitting element or the lamp. A combination.

投影レンズ35は、表示素子33によって形成された映像(画面)を投影画面としてスクリーン2に投影する。投影レンズ35はヘリコイド機構等によって光軸に沿って移動可能に設けられ、投影レンズ35を光軸に沿って移動させることによって投影レンズ35のピントを合わせることができる。また、投影レンズ35はズームレンズであり、投影レンズ35がレンズ駆動部36によって駆動されることによって、投影レンズ35の焦点距離が調整される。   The projection lens 35 projects the video (screen) formed by the display element 33 onto the screen 2 as a projection screen. The projection lens 35 is provided so as to be movable along the optical axis by a helicoid mechanism or the like, and the projection lens 35 can be focused by moving the projection lens 35 along the optical axis. The projection lens 35 is a zoom lens, and the focal length of the projection lens 35 is adjusted by driving the projection lens 35 by the lens driving unit 36.

制御部38は、CPU及び記憶装置等を有するマイコンである。その記憶装置に格納されたプログラムに従った各種の機能が制御部38に実現され、映像信号処理部31、表示コントローラ32及びレンズ駆動部36が制御部38によって統合的に制御される。プログラムによって実現される制御部38の機能の一例を以下に説明する。   The control unit 38 is a microcomputer having a CPU and a storage device. Various functions according to the program stored in the storage device are realized in the control unit 38, and the video signal processing unit 31, the display controller 32, and the lens driving unit 36 are integrally controlled by the control unit 38. An example of the function of the control unit 38 realized by the program will be described below.

制御部38は、映像信号処理部31に映像信号の信号処理を行わせる。その際、制御部38は、映像信号処理部31から横方向スケールパラメータ及び縦方向スケールパラメータを取得する。つまり、制御部38は、映像信号処理部31から出力される映像信号の横方向の解像度を、映像信号処理部31に入力される映像信号の横方向の解像度で除した値(横方向スケールパラメータ)を映像信号処理部31から取得する。更に、制御部38は、映像信号処理部31から出力される映像信号の縦方向の解像度を、映像信号処理部31に入力される映像信号の縦方向の解像度で除した値(縦方向スケールパラメータ)を映像信号処理部31から取得する。そして、制御部38は、取得した横方向スケールパラメータ及び縦方向スケールパラメータを記憶する。なお、制御部38は、映像信号処理部31の入力解像度及び出力解像度を取得し、それら入力解像度及び出力解像度からら横方向スケールパラメータ及び縦方向スケールパラメータを算出してもよい。   The control unit 38 causes the video signal processing unit 31 to perform signal processing of the video signal. At that time, the control unit 38 acquires the horizontal scale parameter and the vertical scale parameter from the video signal processing unit 31. That is, the control unit 38 divides the horizontal resolution of the video signal output from the video signal processing unit 31 by the horizontal resolution of the video signal input to the video signal processing unit 31 (horizontal scale parameter). ) Is acquired from the video signal processing unit 31. Further, the control unit 38 divides the vertical resolution of the video signal output from the video signal processing unit 31 by the vertical resolution of the video signal input to the video signal processing unit 31 (vertical scale parameter). ) Is acquired from the video signal processing unit 31. And the control part 38 memorize | stores the acquired horizontal direction scale parameter and vertical direction scale parameter. The control unit 38 may acquire the input resolution and the output resolution of the video signal processing unit 31 and calculate the horizontal scale parameter and the vertical scale parameter from the input resolution and the output resolution.

映像信号処理部31によって変換された映像信号のアスペクト比は常に一定であるわけではなく、映像信号処理部31が映像信号のアスペクト比を変更可能である。つまり、制御部38が出力解像度を設定し、映像信号処理部31が映像入力端子30を介して座標変換装置6から入力した映像信号をその設定解像度の映像信号にスケーリングする。その際、制御部38は、映像信号処理部31から横方向スケールパラメータ及び縦方向スケールパラメータを取得する。   The aspect ratio of the video signal converted by the video signal processing unit 31 is not always constant, and the video signal processing unit 31 can change the aspect ratio of the video signal. That is, the control unit 38 sets the output resolution, and the video signal processing unit 31 scales the video signal input from the coordinate conversion device 6 via the video input terminal 30 to the video signal having the set resolution. At that time, the control unit 38 acquires the horizontal scale parameter and the vertical scale parameter from the video signal processing unit 31.

制御部38がレンズ駆動部36を制御すると、投影レンズ35がレンズ駆動部36によって駆動される。投影レンズ35が駆動されると、投影レンズ35の焦点距離が変更される。   When the control unit 38 controls the lens driving unit 36, the projection lens 35 is driven by the lens driving unit 36. When the projection lens 35 is driven, the focal length of the projection lens 35 is changed.

制御部38は、レンズ駆動部36を通じて投影レンズ35の焦点距離を取得する。制御部38は検出した焦点距離を記憶する。スローレシオは投影レンズ35の焦点距離の関数であり、投影レンズ35の焦点距離からスローレシオが一義的に決まる。つまり、制御部38が投影レンズ35の焦点距離をスローレシオに換算する機能を有し、制御部38が投影レンズ35の焦点距離を取得することはスローレシオを取得することに相当する。   The control unit 38 acquires the focal length of the projection lens 35 through the lens driving unit 36. The control unit 38 stores the detected focal length. The slow ratio is a function of the focal length of the projection lens 35, and the slow ratio is uniquely determined from the focal length of the projection lens 35. That is, the control unit 38 has a function of converting the focal length of the projection lens 35 into a slow ratio, and the acquisition of the focal length of the projection lens 35 by the control unit 38 corresponds to the acquisition of the slow ratio.

座標変換装置6はコンピュータ61、記憶媒体62、ディスプレイ63及び入力装置64を有する。   The coordinate transformation device 6 includes a computer 61, a storage medium 62, a display 63 and an input device 64.

コンピュータ61はCPU、メモリ、GPU、VRAM、ASIC、バス、入出力インターフェース及びディスク読取装置等を有する。記憶媒体62は、コンピュータ61にとってアクセス可能なものである。記憶媒体62は、ハードディスクドライブ、不揮発性メモリ、ROMその他の記憶装置である。   The computer 61 has a CPU, memory, GPU, VRAM, ASIC, bus, input / output interface, disk reader, and the like. The storage medium 62 is accessible to the computer 61. The storage medium 62 is a hard disk drive, non-volatile memory, ROM, or other storage device.

記憶媒体62には、プログラム62aが格納されている。プログラム62aは位置検出装置4及び指示ペン5用のデバイスドライバである。プログラム62aはコンピュータ61に検出位置入力機能61a、クリック信号入力機能61b、座標変換機能61c、測定用映像生成機能61d、測定機能61e、初期投影パラメータ入力機能61f、初期キャリブレーション機能61g、投影パラメータ再入力機能61h及び再キャリブレーション機能61iを実現させるものである。以下、これらの機能61a〜61iについて説明する。   The storage medium 62 stores a program 62a. The program 62 a is a device driver for the position detection device 4 and the pointing pen 5. The program 62a sends a detection position input function 61a, a click signal input function 61b, a coordinate conversion function 61c, a measurement image generation function 61d, a measurement function 61e, an initial projection parameter input function 61f, an initial calibration function 61g, a projection parameter re-transmission to the computer 61. The input function 61h and the recalibration function 61i are realized. Hereinafter, these functions 61a to 61i will be described.

・検出位置入力機能61a
コンピュータ61は、位置検出装置4によって出力された検出位置を入力する。上述したように、位置検出装置4からコンピュータ61に入力される検出位置は検出座標系で表されたものであり、位置検出装置4からコンピュータ61に入力される検出位置を(X,Y)と表す。
・ Detection position input function 61a
The computer 61 inputs the detection position output by the position detection device 4. As described above, the detection position input from the position detection device 4 to the computer 61 is expressed in the detection coordinate system, and the detection position input from the position detection device 4 to the computer 61 is (X, Y). Represent.

・クリック信号入力機能61b
コンピュータ61は、指示ペン5によって出力されたクリック信号を入力する。
・ Click signal input function 61b
The computer 61 inputs the click signal output by the pointing pen 5.

・座標変換機能61c
コンピュータ61は、検出位置入力機能61aによって入力した検出位置(X,Y)の座標系を検出座標系から映像座標系に変換する。具体的には、コンピュータ61は、下記式(1)に基づき、検出位置(X,Y)を映像座標系の座標(x,y)に変換する。
・ Coordinate conversion function 61c
The computer 61 converts the coordinate system of the detection position (X, Y) input by the detection position input function 61a from the detection coordinate system to the video coordinate system. Specifically, the computer 61 converts the detection position (X, Y) into coordinates (x, y) in the video coordinate system based on the following formula (1).

Figure 2014057237
Figure 2014057237

A,Bは座標変換用のパラメータであり、Aは2行2列の行列であり、Bは2行1列の行列である。行列A,Bの要素a11,a22,b1,b2は後述の初期キャリブレーション機能61g及び再キャリブレーション機能61iによって求められたものである。なお、初期キャリブレーション機能61g及び再キャリブレーション機能61iによるキャリブレーションが行われていなければ、要素a11,a22,b1,b2がデフォルト値である。   A and B are parameters for coordinate conversion, A is a matrix with 2 rows and 2 columns, and B is a matrix with 2 rows and 1 column. Elements a11, a22, b1, and b2 of the matrices A and B are obtained by an initial calibration function 61g and a recalibration function 61i described later. Note that, if calibration by the initial calibration function 61g and the recalibration function 61i is not performed, the elements a11, a22, b1, and b2 are default values.

そして、コンピュータ61は、座標変換後の位置(x、y)を他のソフトウェア、アプリケーション及びオペレーティングシステム等に利用する。これにより、ユーザーが投影映像中のカーソルの移動や各種の位置入力を行うことができる。   The computer 61 uses the position (x, y) after the coordinate conversion for other software, applications, operating systems, and the like. Thus, the user can move the cursor in the projected video and input various positions.

・測定用映像生成機能61d
コンピュータ61は図3に示すような測定用映像を生成し、その測定用映像の映像信号を投影装置3に出力する。具体的には、コンピュータ61は、映像座標系に測定点P1〜P4を設定し、それら測定点P1〜P4が含まれた測定用映像を生成し、その測定用映像の映像信号を投影装置3に出力する。そうすると、投影装置3によってスクリーン2に投影された映像に測定点P1〜P4が表示される。
・ Measurement video generation function 61d
The computer 61 generates a measurement video as shown in FIG. 3 and outputs a video signal of the measurement video to the projection device 3. Specifically, the computer 61 sets the measurement points P1 to P4 in the video coordinate system, generates a measurement video including the measurement points P1 to P4, and outputs the video signal of the measurement video to the projection device 3. Output to. Then, the measurement points P1 to P4 are displayed on the image projected on the screen 2 by the projection device 3.

測定点P1の座標(x0,y0)、測定点P2の座標(x0,y1)、測定点P3の座標(x1,y0)及び測定点P4の座標(x1,y1)は映像座標系で表されたものである。また、測定点P1の座標(x0,y0)、測定点P2の座標(x0,y1)、測定点P3の座標(x1,y0)及び測定点P4の座標(x1,y1)は予めプログラム62aに組み込まれている。   The coordinates (x0, y0) of the measurement point P1, the coordinates (x0, y1) of the measurement point P2, the coordinates (x1, y0) of the measurement point P3, and the coordinates (x1, y1) of the measurement point P4 are represented in the video coordinate system. It is a thing. The coordinates (x0, y0) of the measurement point P1, the coordinates (x0, y1) of the measurement point P2, the coordinates (x1, y0) of the measurement point P3, and the coordinates (x1, y1) of the measurement point P4 are previously stored in the program 62a. It has been incorporated.

ユーザーが入力装置64を操作することによってキャリブレーションコマンドを入力した場合や、位置検出装置4がコンピュータ61に接続された場合に、この測定用映像生成機能61dが実現される。   When the user inputs a calibration command by operating the input device 64, or when the position detection device 4 is connected to the computer 61, the measurement video generation function 61d is realized.

なお、測定点P1〜P4が同時に表示されるのではなく、測定点P1〜P4が順次表示されてもよい。   Note that the measurement points P1 to P4 may not be displayed at the same time but the measurement points P1 to P4 may be sequentially displayed.

・測定機能61e
測定用映像生成機能61dによって測定用映像がスクリーン2に投影されている時に、スクリーン2に表示された測定点P1にユーザーが指示ペン5を当てて指示ペン5の押しボタンを押す。そうすると、コンピュータ61は、指示ペン5からクリック信号を入力し(クリック信号入力機能61bの説明参照)、クリック信号を入力した時に検出位置入力機能61aによって位置検出装置4から入力した検出位置(X0,Y0)を座標(x0,y0)に対応付けて記憶する。その検出位置(X0,Y0)は測定点P1の位置を検出座標系で表したものである。
Measurement function 61e
When the measurement video is projected on the screen 2 by the measurement video generation function 61d, the user places the indication pen 5 on the measurement point P1 displayed on the screen 2 and presses the push button of the indication pen 5. Then, the computer 61 inputs a click signal from the pointing pen 5 (refer to the description of the click signal input function 61b), and when the click signal is input, the detection position (X 0, X) input from the position detection device 4 by the detection position input function 61a. Y0) is stored in association with the coordinates (x0, y0). The detection position (X0, Y0) represents the position of the measurement point P1 in the detection coordinate system.

同様にして、ユーザーが測定点P2に指示ペン5を当てて指示ペン5の押しボタンを押した場合には、コンピュータ61がその時に位置検出装置4から入力した測定点P2の検出位置(X0,Y1)を座標(x0,y1)に対応付けて記憶し、ユーザーが測定点P3に指示ペン5を当てて指示ペン5の押しボタンを押した場合には、コンピュータ61がその時に位置検出装置4から入力した測定点P3の検出位置(X1,Y0)を座標(x1,y0)に対応付けて記憶し、ユーザーが測定点P4に指示ペン5を当てて指示ペン5の押しボタンを押した場合には、コンピュータ61がその時に位置検出装置4から入力した測定点P4の検出位置(X1,Y1)を座標(x1,y1)に対応付けて記憶する。   Similarly, when the user places the pointing pen 5 on the measurement point P2 and presses the push button of the pointing pen 5, the computer 61 detects the detection position (X0, Y1) is stored in association with the coordinates (x0, y1), and when the user places the pointing pen 5 on the measurement point P3 and presses the push button of the pointing pen 5, the computer 61 at that time detects the position detecting device 4 The detection position (X1, Y0) of the measurement point P3 input from is stored in association with the coordinates (x1, y0), and the user places the indication pen 5 on the measurement point P4 and presses the push button of the indication pen 5 The computer 61 stores the detection position (X1, Y1) of the measurement point P4 input from the position detection device 4 at that time in association with the coordinates (x1, y1).

なお、測定用映像がスクリーン2に投影されている際に、ユーザーが指示ペン5を用いずに手、指示棒又はレーザーポインタ等を利用して、スクリーン2上の測定点P1〜P4を指し示してもよい。手、指示棒又はレーザーポインタによって指し示す位置が位置検出装置4によって検出される。ユーザーが手、指示棒又はレーザーポインタによって測定点P1〜P4を指し示している際に、ユーザーが指示ペン5の押しボタンを押すか、入力装置64の特定のキー(例えば、リターンキー)を押したら、コンピュータ61がその時に検出位置入力機能61aによって位置検出装置4から入力した検出位置を記憶する。その検出位置は測定点P1、測定点P2、測定点P3又は測定点P4の位置を検出座標系で表したものである。   When the measurement image is projected on the screen 2, the user points to the measurement points P <b> 1 to P <b> 4 on the screen 2 by using a hand, a pointer, a laser pointer, or the like without using the pointing pen 5. Also good. The position indicated by the hand, the pointing bar or the laser pointer is detected by the position detection device 4. When the user points to the measurement points P1 to P4 with a hand, an indicator bar or a laser pointer, the user presses the push button of the indicator pen 5 or presses a specific key (for example, a return key) of the input device 64 The computer 61 stores the detection position input from the position detection device 4 by the detection position input function 61a at that time. The detection position is the position of the measurement point P1, the measurement point P2, the measurement point P3, or the measurement point P4 expressed in the detection coordinate system.

・初期投影パラメータ入力機能61f
測定用映像が投影されている際にユーザーが測定点P1、測定点P2、測定点P3又は測定点P4に指示ペン5を当てて指示ペン5の押しボタンを押すことによって、コンピュータ61が指示ペン5からクリック信号を入力する(測定機能61e及びクリック信号入力機能61bの説明参照)。そうすると、コンピュータ61が投影装置3の制御部38に投影パラメータ出力指令を出し、その指令を受けた制御部38が映像信号処理部31から横方向スケールパラメータ及び縦方向スケールパラメータを取得する。更に、制御部38がレンズ駆動部36を通じてスローレシオを取得する。そして、制御部38が横方向スケールパラメータ、縦方向スケールパラメータ及びスローレシオを座標変換装置6のコンピュータ61に転送する。コンピュータ61は、制御部38によって出力された横方向スケールパラメータ、縦方向スケールパラメータ及びスローレシオを入力して記憶する。以下、初期投影パラメータ入力機能61fによって入力した横方向スケールパラメータ、縦方向スケールパラメータ及びスローレシオをそれぞれ初期横方向スケールパラメータSPx0、初期縦方向スケールパラメータSPy0及び初期スローレシオTR0という。
-Initial projection parameter input function 61f
When the measurement image is projected, the user places the indication pen 5 on the measurement point P1, the measurement point P2, the measurement point P3, or the measurement point P4 and presses the push button of the indication pen 5, whereby the computer 61 is instructed. 5 receives a click signal (refer to the description of the measurement function 61e and the click signal input function 61b). Then, the computer 61 issues a projection parameter output command to the control unit 38 of the projection device 3, and the control unit 38 that receives the command acquires the horizontal scale parameter and the vertical scale parameter from the video signal processing unit 31. Further, the control unit 38 acquires the slow ratio through the lens driving unit 36. Then, the control unit 38 transfers the horizontal scale parameter, the vertical scale parameter, and the slow ratio to the computer 61 of the coordinate conversion device 6. The computer 61 inputs and stores the horizontal scale parameter, vertical scale parameter, and slow ratio output by the control unit 38. Hereinafter, the horizontal scale parameter, the vertical scale parameter, and the slow ratio input by the initial projection parameter input function 61f are referred to as an initial horizontal scale parameter SPx0, an initial vertical scale parameter SPy0, and an initial slow ratio TR0, respectively.

・初期キャリブレーション機能61g
コンピュータ61は、次式(2)〜(5)のように、測定点P1の座標(x0,y0)及び検出位置(X0,Y0)、測定点P2の検出位置(X0,Y1)及び座標(x0,y1)、測定点P3の検出位置(X1,Y0)及び座標(x1,y0)並びに測定点P4の検出位置(X1,Y1)及び座標(x1,y1)から行列A,Bの要素a11,a22,b1,b2を求める。
Initial calibration function 61g
The computer 61 uses the coordinates (x0, y0) and the detection position (X0, Y0) of the measurement point P1, the detection position (X0, Y1) and the coordinates of the measurement point P2 as shown in the following equations (2) to (5). x0, y1), the detection position (X1, Y0) and coordinates (x1, y0) of the measurement point P3, and the detection position (X1, Y1) and coordinates (x1, y1) of the measurement point P4, the elements a11 of the matrices A and B , A22, b1, b2.

Figure 2014057237
Figure 2014057237

そして、コンピュータ61は、求めた行列A,Bの要素a11,a22,b1,b2を座標変換機能61cに反映させる。これにより座標系のキャリブレーションが行われ、検出座標系と映像座標系を正確に対応付けることができる。   Then, the computer 61 reflects the elements a11, a22, b1, and b2 of the obtained matrices A and B on the coordinate conversion function 61c. Thereby, the calibration of the coordinate system is performed, and the detection coordinate system and the video coordinate system can be accurately associated with each other.

・投影パラメータ再入力機能61h
初期キャリブレーション機能61gによりキャリブレーションが行われた後、コンピュータ61が投影装置3の制御部38を監視しながら待機する。この際、ユーザーが操作部37を操作して、制御部38がその操作内容に従ってレンズ駆動部36を制御することによって、投影レンズ35の焦点距離(スローレシオ)が変更される。これにより、スクリーン2に投影される映像のサイズが変更される。また、ユーザーが操作部37を操作して、制御部38がその操作内容に従って映像信号処理部31の出力解像度を変更する。これにより、スクリーン2に投影される映像の解像度が変更される。なお、スクリーン2に投影される映像の解像度が変更されることで、アスペクト比も変更されることもあれば、アスペクト比が変更されないこともある。
・ Projection parameter re-input function 61h
After the calibration is performed by the initial calibration function 61g, the computer 61 stands by while monitoring the control unit 38 of the projection apparatus 3. At this time, the focal length (slow ratio) of the projection lens 35 is changed by the user operating the operation unit 37 and the control unit 38 controlling the lens driving unit 36 according to the operation content. Thereby, the size of the image projected on the screen 2 is changed. In addition, the user operates the operation unit 37, and the control unit 38 changes the output resolution of the video signal processing unit 31 according to the operation content. Thereby, the resolution of the image projected on the screen 2 is changed. Note that the aspect ratio may be changed or the aspect ratio may not be changed by changing the resolution of the image projected on the screen 2.

投影レンズ35の焦点距離若しくは映像信号処理部31の出力解像度又はこれらの両方が変更されたら、制御部38が映像信号処理部31から横方向スケールパラメータ及び縦方向スケールパラメータを取得する。更に、制御部38がレンズ駆動部36を通じてスローレシオを取得する。そして、制御部38が横方向スケールパラメータ、縦方向スケールパラメータ及びスローレシオを座標変換装置6のコンピュータ61に転送する。コンピュータ61は、制御部38によって出力された横方向スケールパラメータ、縦方向スケールパラメータ及びスローレシオを入力して記憶する。以下、投影パラメータ再入力機能61hによって入力した横方向スケールパラメータ、縦方向スケールパラメータ及びスローレシオをそれぞれ第二横方向スケールパラメータSPxn、第二縦方向スケールパラメータSPyn及び第二スローレシオTRnという。   When the focal length of the projection lens 35 and / or the output resolution of the video signal processing unit 31 are changed, the control unit 38 acquires the horizontal scale parameter and the vertical scale parameter from the video signal processing unit 31. Further, the control unit 38 acquires the slow ratio through the lens driving unit 36. Then, the control unit 38 transfers the horizontal scale parameter, the vertical scale parameter, and the slow ratio to the computer 61 of the coordinate conversion device 6. The computer 61 inputs and stores the horizontal scale parameter, vertical scale parameter, and slow ratio output by the control unit 38. Hereinafter, the horizontal scale parameter, the vertical scale parameter, and the slow ratio input by the projection parameter re-input function 61h are referred to as a second horizontal scale parameter SPxn, a second vertical scale parameter SPyn, and a second slow ratio TRn, respectively.

なお、例えば次のような状況(1)〜(2)で、上述のようにユーザーが操作部37を操作することによって映像信号処理部31の出力解像度が変更されると、スクリーン2に投影される映像のアスペクト比を適切にすることができる。また、次のような状況(3)〜(4)で、上述のようにユーザーが操作部37を操作することによって映像信号処理部31の出力解像度が変更されると、スクリーン2に投影される映像の解像度を適切にすることができる。また、次のような状況(5)〜(6)で、上述のようにユーザーが操作部37を操作することによって投影レンズ35の焦点距離(スローレシオ)が変更されると、スクリーン2に投影される映像のサイズを適切にすることができる。   For example, in the following situations (1) to (2), when the output resolution of the video signal processing unit 31 is changed by the user operating the operation unit 37 as described above, the image is projected on the screen 2. The aspect ratio of the recorded video can be made appropriate. In the following situations (3) to (4), when the output resolution of the video signal processing unit 31 is changed by the user operating the operation unit 37 as described above, the image is projected onto the screen 2. The video resolution can be made appropriate. In the following situations (5) to (6), when the focal length (slow ratio) of the projection lens 35 is changed by the user operating the operation unit 37 as described above, the projection is performed on the screen 2. The size of the image to be played can be made appropriate.

(1)座標変換装置6によって表示される映像データ(例えば、ファイル)が変更されて、変更後の映像データのアスペクト比と変更前の映像データのアスペクト比が異なっている場合 (1) When video data (for example, a file) displayed by the coordinate conversion device 6 is changed and the aspect ratio of the video data after the change is different from the aspect ratio of the video data before the change

(2)映像信号処理部31の出力解像度を変更することによってアスペクト比を変更した方が、スクリーン2に投影される映像が見やすい場合 (2) When the image projected on the screen 2 is easier to see when the aspect ratio is changed by changing the output resolution of the video signal processing unit 31

(3)座標変換装置6の映像信号の解像度が変更された場合(映像信号処理部31の入力解像度が変更された場合) (3) When the resolution of the video signal of the coordinate conversion device 6 is changed (when the input resolution of the video signal processing unit 31 is changed)

(4)座標演算装置6がデジタルズーム処理をして、表示領域の一部を拡大するような映像信号を生成した場合 (4) When the coordinate calculation device 6 performs a digital zoom process and generates a video signal that enlarges a part of the display area.

(5)映像信号処理部31の出力解像度が変更されて、スクリーン2に投影される映像のスケーリングの設定変更に伴って、投影レンズ35の焦点距離(スローレシオ)の変更が必要になった場合 (5) When the output resolution of the video signal processing unit 31 is changed, and the focal length (slow ratio) of the projection lens 35 needs to be changed along with the scaling setting change of the video projected on the screen 2

(6)投影装置3の設置時に投影レンズ35の焦点距離が適切ではなく、スクリーン2に投影される映像の大きさとスクリーン2の大きさが極端に異なる場合 (6) When the focal length of the projection lens 35 is not appropriate when the projection device 3 is installed, and the size of the image projected on the screen 2 and the size of the screen 2 are extremely different

・再キャリブレーション機能61i
コンピュータ61は、投影パラメータ再入力機能61hにより投影パラメータを入力したら行列A,Bの要素a11,a22,b1,b2を求める。具体的には、コンピュータ61は、次式(6)〜(9)のように、測定点P1の座標(x0,y0)及び検出位置(X0,Y0)、測定点P2の座標(x0,y1)及び検出位置(X0,Y1)、測定点P3の座標(x1,y0)及び検出位置(X1,Y0)、測定点P4の座標(x1,y1)及び検出位置(X1,Y1)、初期横方向スケールパラメータSPx0、初期縦方向スケールパラメータSPy0、初期スローレシオTR0、第二横方向スケールパラメータSPxn、第二縦方向スケールパラメータSPyn並びに第二スローレシオTRnから行列A,Bの要素a11,a22,b1,b2を求める。
・ Recalibration function 61i
The computer 61 obtains the elements a11, a22, b1, and b2 of the matrices A and B when the projection parameters are input by the projection parameter re-input function 61h. Specifically, the computer 61 uses the coordinates (x0, y0) and the detection position (X0, Y0) of the measurement point P1, and the coordinates (x0, y1) of the measurement point P2 as in the following equations (6) to (9). ) And detection position (X0, Y1), coordinates (x1, y0) and detection position (X1, Y0) of measurement point P3, coordinates (x1, y1) and detection position (X1, Y1) of measurement point P4, initial horizontal The elements a11, a22, b1 of the matrices A, B from the direction scale parameter SPx0, the initial vertical scale parameter SPy0, the initial slow ratio TR0, the second horizontal scale parameter SPxn, the second vertical scale parameter SPyn, and the second slow ratio TRn , B2.

Figure 2014057237
Figure 2014057237

そして、コンピュータ61は、求めた行列A,Bの要素a11,a22,b1,b2を座標変換機能61cに反映させる。これにより、投影映像のサイズや解像度が変更された後でも座標系のキャリブレーションが行われ、検出座標系と映像座標系を正確に対応付けることができる。例えば、投影装置3の設置時に最適な投影倍率で投影されていない状態のままで、ユーザーが初期キャリブレーションの作業(測定機能61eの説明参照)を終わらせてしまい、その後に、光学的ズーム(投影レンズ35の焦点距離変更)やデジタルズーム(出力解像度の変更)を行って最適な投影倍率になるようにしたとしても、ユーザーが再度キャリブレーション作業をしなくても済む。よって、コンピュータ入力システム1の利便性が向上する。   Then, the computer 61 reflects the elements a11, a22, b1, and b2 of the obtained matrices A and B on the coordinate conversion function 61c. Thereby, even after the size and resolution of the projected image are changed, the coordinate system is calibrated, and the detected coordinate system and the image coordinate system can be accurately associated with each other. For example, the user finishes the initial calibration operation (see the description of the measurement function 61e) while the projection device 3 is not projected at the optimal projection magnification, and then the optical zoom ( Even if the focal length of the projection lens 35 is changed) or digital zoom (change of output resolution) is performed to achieve the optimum projection magnification, the user does not have to perform calibration again. Therefore, the convenience of the computer input system 1 is improved.

〔変形例〕
以下、幾つかの変形例について説明する。以下に説明する変形例は、変更個所を除いて上述した実施形態と同様である。
[Modification]
Hereinafter, some modified examples will be described. The modifications described below are the same as those in the above-described embodiment except for the changes.

(1) 上述の実施の形態では、コンピュータ61が初期投影パラメータ入力機能61fにより入力して記憶する初期投影パラメータが初期横方向スケールパラメータSPx0、初期縦方向スケールパラメータSPy0及び初期スローレシオTR0であり、コンピュータ61が投影パラメータ再入力機能61hにより入力して記憶する第二投影パラメータが第二横方向スケールパラメータSPxn、第二縦方向スケールパラメータSPyn及び第二スローレシオTRnであった。それに対して、コンピュータ61が初期投影パラメータ入力機能61fにより入力して記憶する初期投影パラメータが初期スローレシオTR0であり、コンピュータ61が投影パラメータ再入力機能61hにより入力して記憶する第二投影パラメータが第二スローレシオTRnであってもよい。 (1) In the above-described embodiment, the initial projection parameters that the computer 61 inputs and stores using the initial projection parameter input function 61f are the initial horizontal scale parameter SPx0, the initial vertical scale parameter SPy0, and the initial slow ratio TR0. The second projection parameters input and stored by the computer 61 using the projection parameter re-input function 61h were the second horizontal scale parameter SPxn, the second vertical scale parameter SPyn, and the second slow ratio TRn. In contrast, the initial projection parameter that the computer 61 inputs and stores using the initial projection parameter input function 61f is the initial slow ratio TR0, and the second projection parameter that the computer 61 inputs and stores using the projection parameter re-input function 61h. The second slow ratio TRn may be used.

この場合、投影レンズ35の焦点距離(スローレシオ)が変更された場合に、投影装置3の制御部38が第二スローレシオTRnをコンピュータ61に出力する。また、コンピュータ61は、その再キャリブレーション機能61iによって、次式(10)〜(13)のように、測定点P1の座標(x0,y0)及び検出位置(X0,Y0)、測定点P2の座標(x0,y1)及び検出位置(X0,Y1)、測定点P3の座標(x1,y0)及び検出位置(X1,Y0)、測定点P4の座標(x1,y1)及び検出位置(X1,Y1)、初期スローレシオTR0並びに第二スローレシオTRnから行列A,Bの要素a11,a22,b1,b2を求める。   In this case, when the focal length (slow ratio) of the projection lens 35 is changed, the control unit 38 of the projection device 3 outputs the second slow ratio TRn to the computer 61. Further, the computer 61 uses the recalibration function 61i to set the coordinates (x0, y0), the detection position (X0, Y0), and the measurement point P2 of the measurement point P1, as in the following equations (10) to (13). Coordinates (x0, y1) and detection position (X0, Y1), coordinates (x1, y0) and detection position (X1, Y0) of measurement point P3, coordinates (x1, y1) and detection position (X1, Y0) of measurement point P4 Y1), the elements a11, a22, b1, and b2 of the matrices A and B are obtained from the initial slow ratio TR0 and the second slow ratio TRn.

Figure 2014057237
Figure 2014057237

(2) コンピュータ61が初期投影パラメータ入力機能61fにより入力して記憶する初期投影パラメータが初期横方向スケールパラメータSPx0及び初期縦方向スケールパラメータSPy0であり、コンピュータ61が投影パラメータ再入力機能61hにより入力して記憶する第二投影パラメータが第二横方向スケールパラメータSPxn及び第二縦方向スケールパラメータSPynであってもよい。 (2) The initial projection parameters input and stored by the computer 61 using the initial projection parameter input function 61f are the initial horizontal scale parameter SPx0 and the initial vertical scale parameter SPy0. The computer 61 inputs the projection parameter reinput function 61h. The second projection parameters stored in this manner may be the second horizontal scale parameter SPxn and the second vertical scale parameter SPyn.

この場合、映像信号処理部31の出力解像度が変更された場合に、投影装置3の制御部38が第二横方向スケールパラメータSPxn及び第二縦方向スケールパラメータSPynをコンピュータ61に出力する。また、コンピュータ61は、その再キャリブレーション機能61iによって、次式(14)〜(17)のように、測定点P1の座標(x0,y0)及び検出位置(X0,Y0)、測定点P2の座標(x0,y1)及び検出位置(X0,Y1)、測定点P3の座標(x1,y0)及び検出位置(X1,Y0)、測定点P4の座標(x1,y1)及び検出位置(X1,Y1)、第二横方向スケールパラメータSPxn並びに第二縦方向スケールパラメータSPynから行列A,Bの要素a11,a22,b1,b2を求める。   In this case, when the output resolution of the video signal processing unit 31 is changed, the control unit 38 of the projection device 3 outputs the second horizontal scale parameter SPxn and the second vertical scale parameter SPyn to the computer 61. In addition, the computer 61 uses the recalibration function 61i so that the coordinates (x0, y0), the detection position (X0, Y0), and the measurement point P2 of the measurement point P1 are represented by the following equations (14) to (17). Coordinates (x0, y1) and detection position (X0, Y1), coordinates (x1, y0) and detection position (X1, Y0) of measurement point P3, coordinates (x1, y1) and detection position (X1, Y0) of measurement point P4 Y1), the elements a11, a22, b1, and b2 of the matrices A and B are obtained from the second horizontal scale parameter SPxn and the second vertical scale parameter SPyn.

Figure 2014057237
Figure 2014057237

以上に本発明の実施形態及びその変形例について説明したが、本発明の技術的範囲は上述の実施の形態又は変形例に限定するものではなく、本発明の趣旨・要旨を逸脱しない範囲で上述の実施の形態から変更した実施形態も本発明の技術的範囲に属する。更に、本発明の技術的範囲は特許請求の範囲の記載に基づいて定められるものであり、特許請求の範囲の記載から本発明の本質とは関係のない変更を加えた均等な範囲も本発明の技術的範囲に含まれる。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
映像信号を出力するコンピュータと、
前記コンピュータと接続されて前記映像信号に従った映像を映し出す投影装置により映像が投影されるスクリーン上のユーザーの指示位置を前記スクリーンに沿った検出座標系で表すように検出し、その検出位置を前記コンピュータに出力する位置検出装置と、を備え、
前記コンピュータが、
前記映像に沿った映像座標系で位置が表された測定点を含む測定用映像を生成し、その測定用映像の信号を前記投影装置に出力する測定用映像生成機能と、
前記位置検出装置から入力した前記測定点の検出位置を入力して記憶する測定機能と、
前記投影装置から初期投影パラメータを入力して記憶する初期投影パラメータ入力機能と、
前記投影装置の投影パラメータが前記初期投影パラメータから第二投影パラメータに変更された場合に前記投影装置から前記第二投影パラメータを入力する投影パラメータ再入力機能と、
前記映像座標系で表された前記測定点の位置、前記測定機能により記憶した前記測定点の検出位置、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータ及び前記投影パラメータ再入力機能により入力した前記第二投影パラメータから座標変換用のパラメータを演算するキャリブレーション機能と、
前記キャリブレーション機能により演算された前記座標変換用のパラメータを利用して前記位置検出装置から入力した検出位置の座標系を前記検出座標系から前記映像座標系に変換する座標変換機能と、を有する、
ことを特徴とするコンピュータ入力システム。
<請求項2>
前記投影装置の投影パラメータがスローレシオである、
ことを特徴とする請求項1に記載のコンピュータ入力システム。
<請求項3>
前記測定点の数が4であり、前記映像座標系におけるこれら測定点の位置をそれぞれ(x0,y0)、(x0,y1)、(x1,y0)及び(x1,y1)とし、前記測定機能によって記憶したこれら測定点の検出位置をそれぞれ(X0,Y0)、(X0,Y1)、(X1,Y0)及び(X1,Y1)とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしてのスローレシオをTR0とし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしてのスローレシオをTRnとし、前記キャリブレーション機能により算出される前記座標変換用のパラメータをA,Bとすると、前記座標変換機能は前記位置検出装置から入力した検出位置の座標系を以下の式(1)に従って前記検出座標系から前記映像座標系に変換する、
ことを特徴とする請求項2に記載のコンピュータ入力システム。

Figure 2014057237
但し、(X,Y)は前記位置検出装置によって検出された検出位置を前記検出座標系で表したものであり、(x,y)は前記位置検出装置によって検出された検出位置を前記映像座標系で表したものである。
<請求項4>
前記投影装置の投影パラメータが、前記投影装置によって投影される映像の横方向の解像度を前記投影装置に入力される映像の横方向の解像度で除して得られる横方向スケールパラメータ及び前記投影装置によって投影される映像の縦方向の解像度を前記投影装置に入力される映像の縦方向の解像度で除して得られる縦方向スケールパラメータである、
ことを特徴とする請求項1に記載のコンピュータ入力システム。
<請求項5>
前記測定点の数が4であり、前記映像座標系におけるこれら測定点の位置をそれぞれ(x0,y0)、(x0,y1)、(x1,y0)及び(x1,y1)とし、前記測定機能によって記憶したこれら測定点の検出位置をそれぞれ(X0,Y0)、(X0,Y1)、(X1,Y0)及び(X1,Y1)とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしての横方向スケールパラメータをSPx0とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしての縦方向スケールパラメータをSPy0とし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしての横方向スケールパラメータをSPxnとし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしての縦方向スケールパラメータをSPynとし、前記キャリブレーション機能により算出される前記座標変換用のパラメータをA,Bとすると、前記座標変換機能は前記位置検出装置から入力した検出位置の座標系を以下の式(1)に従って前記検出座標系から前記映像座標系に変換する、
ことを特徴とする請求項4に記載のコンピュータ入力システム。
Figure 2014057237
但し、(X,Y)は前記位置検出装置によって検出された検出位置を前記検出座標系で表したものであり、(x,y)は前記位置検出装置によって検出された検出位置を前記映像座標系で表したものである。
<請求項6>
前記投影装置の投影パラメータが、前記投影装置によって投影される映像の横方向の解像度を前記投影装置に入力される映像の横方向の解像度で除して得られる横方向スケールパラメータ、前記投影装置によって投影される映像の縦方向の解像度を前記投影装置に入力される映像の縦方向の解像度で除して得られる縦方向スケールパラメータ及びスローレシオである、
ことを特徴とする請求項1に記載のコンピュータ入力システム。
<請求項7>
前記測定点の数が4であり、前記映像座標系におけるこれら測定点の位置をそれぞれ(x0,y0)、(x0,y1)、(x1,y0)及び(x1,y1)とし、前記測定機能によって記憶したこれら測定点の検出位置をそれぞれ(X0,Y0)、(X0,Y1)、(X1,Y0)及び(X1,Y1)とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしての横方向スケールパラメータをSPx0とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしての縦方向スケールパラメータをSPy0とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしてのスローレシオをTR0とし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしての横方向スケールパラメータをSPxnとし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしての縦方向スケールパラメータをSPynとし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしてのスローレシオをTRnとし、前記キャリブレーション機能により算出されるパラメータをA,Bとすると、前記座標変換機能は前記位置検出装置から入力した検出位置の座標系を以下の式(1)に従って前記検出座標系から前記映像座標系に変換する、
ことを特徴とする請求項6に記載のコンピュータ入力システム。
Figure 2014057237
但し、(X,Y)は前記位置検出装置によって検出された検出位置を前記検出座標系で表したものであり、(x,y)は前記位置検出装置によって検出された検出位置を前記映像座標系で表したものである。
<請求項8>
投影装置によって映像が投影されるスクリーン上のユーザーの指示位置を前記スクリーンに沿った検出座標系で表すように検出する位置検出装置からその検出位置を入力するとともに、映像信号を前記投影装置に出力するコンピュータを備え、
前記コンピュータが、
前記映像に沿った映像座標系で位置が表された測定点を含む測定用映像を生成し、その測定用映像の信号を前記投影装置に出力する測定用映像生成機能と、
前記位置検出装置から入力した前記測定点の検出位置を入力して記憶する測定機能と、
前記投影装置から初期投影パラメータを入力して記憶する初期投影パラメータ入力機能と、
前記投影装置の投影パラメータが前記初期投影パラメータから第二投影パラメータに変更された場合に前記投影装置から前記第二投影パラメータを入力する投影パラメータ再入力機能と、
前記映像座標系で表された前記測定点の位置、前記測定機能により記憶した前記測定点の検出位置、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータ及び前記投影パラメータ再入力機能により入力した前記第二投影パラメータから座標変換用のパラメータを演算するキャリブレーション機能と、
前記キャリブレーション機能により演算された前記座標変換用のパラメータを利用して前記位置検出装置から入力した検出位置の座標系を前記検出座標系から前記映像座標系に変換する座標変換機能と、を有する、
ことを特徴とする座標変換装置。
<請求項9>
投影装置によって映像が投影されるスクリーン上のユーザーの指示位置を前記スクリーンに沿った検出座標系で表すように検出する位置検出装置からその検出位置を入力するとともに、映像信号を投影装置に出力するコンピュータに、
前記映像に沿った映像座標系で位置が表された測定点を含む測定用映像を生成し、その測定用映像の信号を前記投影装置に出力する測定用映像生成機能と、
前記位置検出装置から入力した前記測定点の検出位置を入力して記憶する測定機能と、
前記投影装置から初期投影パラメータを入力して記憶する初期投影パラメータ入力機能と、
前記投影装置の投影パラメータが前記初期投影パラメータから第二投影パラメータに変更された場合に前記投影装置から前記第二投影パラメータを入力する投影パラメータ再入力機能と、
前記映像座標系で表された前記測定点の位置、前記測定機能により記憶した前記測定点の検出位置、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータ及び前記投影パラメータ再入力機能により入力した前記第二投影パラメータから座標変換用のパラメータを演算するキャリブレーション機能と、
前記キャリブレーション機能により演算された前記座標変換用のパラメータを利用して前記位置検出装置から入力した検出位置の座標系を前記検出座標系から前記映像座標系に変換する座標変換機能と、
を実現させるためのプログラム。 Although the embodiment of the present invention and the modification thereof have been described above, the technical scope of the present invention is not limited to the above-described embodiment or modification, and is described above without departing from the spirit and the gist of the present invention. Embodiments modified from these embodiments also belong to the technical scope of the present invention. Further, the technical scope of the present invention is determined based on the description of the scope of claims, and equivalent scopes obtained by modifying the scope of the claims and not related to the essence of the present invention are also included in the present invention. Is included in the technical scope.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
A computer that outputs video signals;
A projection device connected to the computer and displaying a video according to the video signal detects a user's designated position on the screen on which the video is projected so as to be represented by a detection coordinate system along the screen, and the detection position is detected. A position detection device that outputs to the computer,
The computer is
A measurement image generation function for generating a measurement image including a measurement point whose position is represented in an image coordinate system along the image, and outputting a signal of the measurement image to the projection device;
A measurement function for inputting and storing the detection position of the measurement point input from the position detection device;
An initial projection parameter input function for inputting and storing an initial projection parameter from the projection device;
A projection parameter re-input function for inputting the second projection parameter from the projection device when the projection parameter of the projection device is changed from the initial projection parameter to the second projection parameter;
The position of the measurement point represented in the video coordinate system, the detection position of the measurement point stored by the measurement function, the initial projection parameter stored by the initial projection parameter input function, and the input by the projection parameter re-input function A calibration function for calculating parameters for coordinate transformation from the second projection parameters;
A coordinate conversion function for converting the coordinate system of the detection position input from the position detection device from the detection coordinate system to the video coordinate system using the coordinate conversion parameters calculated by the calibration function; ,
A computer input system.
<Claim 2>
The projection parameter of the projection device is a slow ratio,
The computer input system according to claim 1.
<Claim 3>
The number of measurement points is 4, and the positions of these measurement points in the video coordinate system are (x0, y0), (x0, y1), (x1, y0) and (x1, y1), respectively, and the measurement function (X0, Y0), (X0, Y1), (X1, Y0), and (X1, Y1) are stored as the initial projection parameters stored by the initial projection parameter input function. Is set to TR0, the slow ratio as the second projection parameter input by the projection parameter re-input function is set to TRn, and the coordinate conversion parameters calculated by the calibration function are set to A and B. The coordinate conversion function converts the coordinate system of the detection position input from the position detection device from the detection coordinate system to the video coordinate system according to the following equation (1):
The computer input system according to claim 2.
Figure 2014057237
However, (X, Y) represents the detection position detected by the position detection device in the detection coordinate system, and (x, y) represents the detection position detected by the position detection device as the video coordinates. It is expressed in a system.
<Claim 4>
The projection parameter of the projection device includes a lateral scale parameter obtained by dividing a lateral resolution of an image projected by the projection device by a lateral resolution of an image input to the projection device, and the projection device. The vertical scale parameter obtained by dividing the vertical resolution of the projected video by the vertical resolution of the video input to the projection device.
The computer input system according to claim 1.
<Claim 5>
The number of measurement points is 4, and the positions of these measurement points in the video coordinate system are (x0, y0), (x0, y1), (x1, y0) and (x1, y1), respectively, and the measurement function (X0, Y0), (X0, Y1), (X1, Y0), and (X1, Y1) are stored as the initial projection parameters stored by the initial projection parameter input function. SPx0 as the horizontal scale parameter, and SPy0 as the vertical scale parameter as the initial projection parameter stored by the initial projection parameter input function, and the horizontal direction as the second projection parameter input by the projection parameter re-input function The scale parameter is SPxn, and the vertical scale parameter as the second projection parameter input by the projection parameter re-input function is used. If the parameter is SPyn and the parameters for coordinate conversion calculated by the calibration function are A and B, the coordinate conversion function uses the coordinate system of the detection position input from the position detection device as the following equation (1): Converting from the detected coordinate system to the video coordinate system according to
The computer input system according to claim 4.
Figure 2014057237
However, (X, Y) represents the detection position detected by the position detection device in the detection coordinate system, and (x, y) represents the detection position detected by the position detection device as the video coordinates. It is expressed in a system.
<Claim 6>
The projection parameter of the projection device is a lateral scale parameter obtained by dividing the horizontal resolution of the image projected by the projection device by the lateral resolution of the image input to the projection device, and the projection device A vertical scale parameter and a slow ratio obtained by dividing the vertical resolution of the projected video by the vertical resolution of the video input to the projector;
The computer input system according to claim 1.
<Claim 7>
The number of measurement points is 4, and the positions of these measurement points in the video coordinate system are (x0, y0), (x0, y1), (x1, y0) and (x1, y1), respectively, and the measurement function (X0, Y0), (X0, Y1), (X1, Y0), and (X1, Y1) are stored as the initial projection parameters stored by the initial projection parameter input function. The horizontal scale parameter is SPx0, the vertical scale parameter as the initial projection parameter stored by the initial projection parameter input function is SPy0, and the slow ratio as the initial projection parameter stored by the initial projection parameter input function is TR0, and the horizontal scale parameter as the second projection parameter input by the projection parameter re-input function is S Pxn, the vertical scale parameter as the second projection parameter input by the projection parameter re-input function is SPyn, the slow ratio as the second projection parameter input by the projection parameter re-input function is TRn, Assuming that the parameters calculated by the calibration function are A and B, the coordinate conversion function changes the coordinate system of the detection position input from the position detection device from the detection coordinate system to the video coordinate system according to the following equation (1). Convert,
The computer input system according to claim 6.
Figure 2014057237
However, (X, Y) represents the detection position detected by the position detection device in the detection coordinate system, and (x, y) represents the detection position detected by the position detection device as the video coordinates. It is expressed in a system.
<Claim 8>
The detection position is input from the position detection device that detects the user's designated position on the screen on which the image is projected by the projection device so as to be represented by the detection coordinate system along the screen, and the video signal is output to the projection device. Equipped with a computer
The computer is
A measurement image generation function for generating a measurement image including a measurement point whose position is represented in an image coordinate system along the image, and outputting a signal of the measurement image to the projection device;
A measurement function for inputting and storing the detection position of the measurement point input from the position detection device;
An initial projection parameter input function for inputting and storing an initial projection parameter from the projection device;
A projection parameter re-input function for inputting the second projection parameter from the projection device when the projection parameter of the projection device is changed from the initial projection parameter to the second projection parameter;
The position of the measurement point represented in the video coordinate system, the detection position of the measurement point stored by the measurement function, the initial projection parameter stored by the initial projection parameter input function, and the input by the projection parameter re-input function A calibration function for calculating parameters for coordinate transformation from the second projection parameters;
A coordinate conversion function for converting the coordinate system of the detection position input from the position detection device from the detection coordinate system to the video coordinate system using the coordinate conversion parameters calculated by the calibration function; ,
A coordinate conversion device characterized by that.
<Claim 9>
The detection position is input from the position detection device that detects the user's designated position on the screen on which the image is projected by the projection device so as to be represented by the detection coordinate system along the screen, and the video signal is output to the projection device. On the computer,
A measurement image generation function for generating a measurement image including a measurement point whose position is represented in an image coordinate system along the image, and outputting a signal of the measurement image to the projection device;
A measurement function for inputting and storing the detection position of the measurement point input from the position detection device;
An initial projection parameter input function for inputting and storing an initial projection parameter from the projection device;
A projection parameter re-input function for inputting the second projection parameter from the projection device when the projection parameter of the projection device is changed from the initial projection parameter to the second projection parameter;
The position of the measurement point represented in the video coordinate system, the detection position of the measurement point stored by the measurement function, the initial projection parameter stored by the initial projection parameter input function, and the input by the projection parameter re-input function A calibration function for calculating parameters for coordinate transformation from the second projection parameters;
A coordinate conversion function for converting the coordinate system of the detection position input from the position detection device using the parameter for coordinate conversion calculated by the calibration function from the detection coordinate system to the video coordinate system;
A program to realize

1 コンピュータ入力システム
2 スクリーン
3 投影装置
4 位置検出装置
6 座標変換装置
61 コンピュータ
61a 検出位置入力機能
61b クリック信号入力機能
61c 座標変換機能
61d 測定用映像生成機能
61e 測定機能
61f 初期キャリブレーション機能
61g 初期投影パラメータ入力機能
61h 投影パラメータ再入力機能
61i 再キャリブレーション機能
62 記憶媒体
62a プログラム
DESCRIPTION OF SYMBOLS 1 Computer input system 2 Screen 3 Projection apparatus 4 Position detection apparatus 6 Coordinate conversion apparatus 61 Computer 61a Detection position input function 61b Click signal input function 61c Coordinate conversion function 61d Measurement image generation function 61e Measurement function 61f Initial calibration function 61g Initial projection Parameter input function 61h Projection parameter re-input function 61i Re-calibration function 62 Storage medium 62a Program

Claims (9)

映像信号を出力するコンピュータと、
前記コンピュータと接続されて前記映像信号に従った映像を映し出す投影装置により映像が投影されるスクリーン上のユーザーの指示位置を前記スクリーンに沿った検出座標系で表すように検出し、その検出位置を前記コンピュータに出力する位置検出装置と、を備え、
前記コンピュータが、
前記映像に沿った映像座標系で位置が表された測定点を含む測定用映像を生成し、その測定用映像の信号を前記投影装置に出力する測定用映像生成機能と、
前記位置検出装置から入力した前記測定点の検出位置を入力して記憶する測定機能と、
前記投影装置から初期投影パラメータを入力して記憶する初期投影パラメータ入力機能と、
前記投影装置の投影パラメータが前記初期投影パラメータから第二投影パラメータに変更された場合に前記投影装置から前記第二投影パラメータを入力する投影パラメータ再入力機能と、
前記映像座標系で表された前記測定点の位置、前記測定機能により記憶した前記測定点の検出位置、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータ及び前記投影パラメータ再入力機能により入力した前記第二投影パラメータから座標変換用のパラメータを演算するキャリブレーション機能と、
前記キャリブレーション機能により演算された前記座標変換用のパラメータを利用して前記位置検出装置から入力した検出位置の座標系を前記検出座標系から前記映像座標系に変換する座標変換機能と、を有する、
ことを特徴とするコンピュータ入力システム。
A computer that outputs video signals;
A projection device connected to the computer and displaying a video according to the video signal detects a user's designated position on the screen on which the video is projected so as to be represented by a detection coordinate system along the screen, and the detection position is detected. A position detection device that outputs to the computer,
The computer is
A measurement image generation function for generating a measurement image including a measurement point whose position is represented in an image coordinate system along the image, and outputting a signal of the measurement image to the projection device;
A measurement function for inputting and storing the detection position of the measurement point input from the position detection device;
An initial projection parameter input function for inputting and storing an initial projection parameter from the projection device;
A projection parameter re-input function for inputting the second projection parameter from the projection device when the projection parameter of the projection device is changed from the initial projection parameter to the second projection parameter;
The position of the measurement point represented in the video coordinate system, the detection position of the measurement point stored by the measurement function, the initial projection parameter stored by the initial projection parameter input function, and the input by the projection parameter re-input function A calibration function for calculating parameters for coordinate transformation from the second projection parameters;
A coordinate conversion function for converting the coordinate system of the detection position input from the position detection device from the detection coordinate system to the video coordinate system using the coordinate conversion parameters calculated by the calibration function; ,
A computer input system.
前記投影装置の投影パラメータがスローレシオである、
ことを特徴とする請求項1に記載のコンピュータ入力システム。
The projection parameter of the projection device is a slow ratio,
The computer input system according to claim 1.
前記測定点の数が4であり、前記映像座標系におけるこれら測定点の位置をそれぞれ(x0,y0)、(x0,y1)、(x1,y0)及び(x1,y1)とし、前記測定機能によって記憶したこれら測定点の検出位置をそれぞれ(X0,Y0)、(X0,Y1)、(X1,Y0)及び(X1,Y1)とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしてのスローレシオをTR0とし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしてのスローレシオをTRnとし、前記キャリブレーション機能により算出される前記座標変換用のパラメータをA,Bとすると、前記座標変換機能は前記位置検出装置から入力した検出位置の座標系を以下の式(1)に従って前記検出座標系から前記映像座標系に変換する、
ことを特徴とする請求項2に記載のコンピュータ入力システム。
Figure 2014057237
但し、(X,Y)は前記位置検出装置によって検出された検出位置を前記検出座標系で表したものであり、(x,y)は前記位置検出装置によって検出された検出位置を前記映像座標系で表したものである。
The number of measurement points is 4, and the positions of these measurement points in the video coordinate system are (x0, y0), (x0, y1), (x1, y0) and (x1, y1), respectively, and the measurement function (X0, Y0), (X0, Y1), (X1, Y0), and (X1, Y1) are stored as the initial projection parameters stored by the initial projection parameter input function. Is set to TR0, the slow ratio as the second projection parameter input by the projection parameter re-input function is set to TRn, and the coordinate conversion parameters calculated by the calibration function are set to A and B. The coordinate conversion function converts the coordinate system of the detection position input from the position detection device from the detection coordinate system to the video coordinate system according to the following equation (1):
The computer input system according to claim 2.
Figure 2014057237
However, (X, Y) represents the detection position detected by the position detection device in the detection coordinate system, and (x, y) represents the detection position detected by the position detection device as the video coordinates. It is expressed in a system.
前記投影装置の投影パラメータが、前記投影装置によって投影される映像の横方向の解像度を前記投影装置に入力される映像の横方向の解像度で除して得られる横方向スケールパラメータ及び前記投影装置によって投影される映像の縦方向の解像度を前記投影装置に入力される映像の縦方向の解像度で除して得られる縦方向スケールパラメータである、
ことを特徴とする請求項1に記載のコンピュータ入力システム。
The projection parameter of the projection device includes a lateral scale parameter obtained by dividing a lateral resolution of an image projected by the projection device by a lateral resolution of an image input to the projection device, and the projection device. The vertical scale parameter obtained by dividing the vertical resolution of the projected video by the vertical resolution of the video input to the projection device.
The computer input system according to claim 1.
前記測定点の数が4であり、前記映像座標系におけるこれら測定点の位置をそれぞれ(x0,y0)、(x0,y1)、(x1,y0)及び(x1,y1)とし、前記測定機能によって記憶したこれら測定点の検出位置をそれぞれ(X0,Y0)、(X0,Y1)、(X1,Y0)及び(X1,Y1)とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしての横方向スケールパラメータをSPx0とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしての縦方向スケールパラメータをSPy0とし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしての横方向スケールパラメータをSPxnとし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしての縦方向スケールパラメータをSPynとし、前記キャリブレーション機能により算出される前記座標変換用のパラメータをA,Bとすると、前記座標変換機能は前記位置検出装置から入力した検出位置の座標系を以下の式(1)に従って前記検出座標系から前記映像座標系に変換する、
ことを特徴とする請求項4に記載のコンピュータ入力システム。
Figure 2014057237
但し、(X,Y)は前記位置検出装置によって検出された検出位置を前記検出座標系で表したものであり、(x,y)は前記位置検出装置によって検出された検出位置を前記映像座標系で表したものである。
The number of measurement points is 4, and the positions of these measurement points in the video coordinate system are (x0, y0), (x0, y1), (x1, y0) and (x1, y1), respectively, and the measurement function (X0, Y0), (X0, Y1), (X1, Y0), and (X1, Y1) are stored as the initial projection parameters stored by the initial projection parameter input function. SPx0 as the horizontal scale parameter, and SPy0 as the vertical scale parameter as the initial projection parameter stored by the initial projection parameter input function, and the horizontal direction as the second projection parameter input by the projection parameter re-input function The scale parameter is SPxn, and the vertical scale parameter as the second projection parameter input by the projection parameter re-input function is used. If the parameter is SPyn and the parameters for coordinate conversion calculated by the calibration function are A and B, the coordinate conversion function uses the coordinate system of the detection position input from the position detection device as the following equation (1): Converting from the detected coordinate system to the video coordinate system according to
The computer input system according to claim 4.
Figure 2014057237
However, (X, Y) represents the detection position detected by the position detection device in the detection coordinate system, and (x, y) represents the detection position detected by the position detection device as the video coordinates. It is expressed in a system.
前記投影装置の投影パラメータが、前記投影装置によって投影される映像の横方向の解像度を前記投影装置に入力される映像の横方向の解像度で除して得られる横方向スケールパラメータ、前記投影装置によって投影される映像の縦方向の解像度を前記投影装置に入力される映像の縦方向の解像度で除して得られる縦方向スケールパラメータ及びスローレシオである、
ことを特徴とする請求項1に記載のコンピュータ入力システム。
The projection parameter of the projection device is a lateral scale parameter obtained by dividing the horizontal resolution of the image projected by the projection device by the lateral resolution of the image input to the projection device, and the projection device A vertical scale parameter and a slow ratio obtained by dividing the vertical resolution of the projected video by the vertical resolution of the video input to the projector;
The computer input system according to claim 1.
前記測定点の数が4であり、前記映像座標系におけるこれら測定点の位置をそれぞれ(x0,y0)、(x0,y1)、(x1,y0)及び(x1,y1)とし、前記測定機能によって記憶したこれら測定点の検出位置をそれぞれ(X0,Y0)、(X0,Y1)、(X1,Y0)及び(X1,Y1)とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしての横方向スケールパラメータをSPx0とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしての縦方向スケールパラメータをSPy0とし、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータとしてのスローレシオをTR0とし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしての横方向スケールパラメータをSPxnとし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしての縦方向スケールパラメータをSPynとし、前記投影パラメータ再入力機能により入力した前記第二投影パラメータとしてのスローレシオをTRnとし、前記キャリブレーション機能により算出されるパラメータをA,Bとすると、前記座標変換機能は前記位置検出装置から入力した検出位置の座標系を以下の式(1)に従って前記検出座標系から前記映像座標系に変換する、
ことを特徴とする請求項6に記載のコンピュータ入力システム。
Figure 2014057237
但し、(X,Y)は前記位置検出装置によって検出された検出位置を前記検出座標系で表したものであり、(x,y)は前記位置検出装置によって検出された検出位置を前記映像座標系で表したものである。
The number of measurement points is 4, and the positions of these measurement points in the video coordinate system are (x0, y0), (x0, y1), (x1, y0) and (x1, y1), respectively, and the measurement function (X0, Y0), (X0, Y1), (X1, Y0), and (X1, Y1) are stored as the initial projection parameters stored by the initial projection parameter input function. The horizontal scale parameter is SPx0, the vertical scale parameter as the initial projection parameter stored by the initial projection parameter input function is SPy0, and the slow ratio as the initial projection parameter stored by the initial projection parameter input function is TR0, and the horizontal scale parameter as the second projection parameter input by the projection parameter re-input function is S Pxn, the vertical scale parameter as the second projection parameter input by the projection parameter re-input function is SPyn, the slow ratio as the second projection parameter input by the projection parameter re-input function is TRn, Assuming that the parameters calculated by the calibration function are A and B, the coordinate conversion function changes the coordinate system of the detection position input from the position detection device from the detection coordinate system to the video coordinate system according to the following equation (1). Convert,
The computer input system according to claim 6.
Figure 2014057237
However, (X, Y) represents the detection position detected by the position detection device in the detection coordinate system, and (x, y) represents the detection position detected by the position detection device as the video coordinates. It is expressed in a system.
投影装置によって映像が投影されるスクリーン上のユーザーの指示位置を前記スクリーンに沿った検出座標系で表すように検出する位置検出装置からその検出位置を入力するとともに、映像信号を前記投影装置に出力するコンピュータを備え、
前記コンピュータが、
前記映像に沿った映像座標系で位置が表された測定点を含む測定用映像を生成し、その測定用映像の信号を前記投影装置に出力する測定用映像生成機能と、
前記位置検出装置から入力した前記測定点の検出位置を入力して記憶する測定機能と、
前記投影装置から初期投影パラメータを入力して記憶する初期投影パラメータ入力機能と、
前記投影装置の投影パラメータが前記初期投影パラメータから第二投影パラメータに変更された場合に前記投影装置から前記第二投影パラメータを入力する投影パラメータ再入力機能と、
前記映像座標系で表された前記測定点の位置、前記測定機能により記憶した前記測定点の検出位置、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータ及び前記投影パラメータ再入力機能により入力した前記第二投影パラメータから座標変換用のパラメータを演算するキャリブレーション機能と、
前記キャリブレーション機能により演算された前記座標変換用のパラメータを利用して前記位置検出装置から入力した検出位置の座標系を前記検出座標系から前記映像座標系に変換する座標変換機能と、を有する、
ことを特徴とする座標変換装置。
The detection position is input from the position detection device that detects the user's designated position on the screen on which the image is projected by the projection device so as to be represented by the detection coordinate system along the screen, and the video signal is output to the projection device. Equipped with a computer
The computer is
A measurement image generation function for generating a measurement image including a measurement point whose position is represented in an image coordinate system along the image, and outputting a signal of the measurement image to the projection device;
A measurement function for inputting and storing the detection position of the measurement point input from the position detection device;
An initial projection parameter input function for inputting and storing an initial projection parameter from the projection device;
A projection parameter re-input function for inputting the second projection parameter from the projection device when the projection parameter of the projection device is changed from the initial projection parameter to the second projection parameter;
The position of the measurement point represented in the video coordinate system, the detection position of the measurement point stored by the measurement function, the initial projection parameter stored by the initial projection parameter input function, and the input by the projection parameter re-input function A calibration function for calculating parameters for coordinate transformation from the second projection parameters;
A coordinate conversion function for converting the coordinate system of the detection position input from the position detection device from the detection coordinate system to the video coordinate system using the coordinate conversion parameters calculated by the calibration function; ,
A coordinate conversion device characterized by that.
投影装置によって映像が投影されるスクリーン上のユーザーの指示位置を前記スクリーンに沿った検出座標系で表すように検出する位置検出装置からその検出位置を入力するとともに、映像信号を投影装置に出力するコンピュータに、
前記映像に沿った映像座標系で位置が表された測定点を含む測定用映像を生成し、その測定用映像の信号を前記投影装置に出力する測定用映像生成機能と、
前記位置検出装置から入力した前記測定点の検出位置を入力して記憶する測定機能と、
前記投影装置から初期投影パラメータを入力して記憶する初期投影パラメータ入力機能と、
前記投影装置の投影パラメータが前記初期投影パラメータから第二投影パラメータに変更された場合に前記投影装置から前記第二投影パラメータを入力する投影パラメータ再入力機能と、
前記映像座標系で表された前記測定点の位置、前記測定機能により記憶した前記測定点の検出位置、前記初期投影パラメータ入力機能により記憶した前記初期投影パラメータ及び前記投影パラメータ再入力機能により入力した前記第二投影パラメータから座標変換用のパラメータを演算するキャリブレーション機能と、
前記キャリブレーション機能により演算された前記座標変換用のパラメータを利用して前記位置検出装置から入力した検出位置の座標系を前記検出座標系から前記映像座標系に変換する座標変換機能と、
を実現させるためのプログラム。
The detection position is input from the position detection device that detects the user's designated position on the screen on which the image is projected by the projection device so as to be represented by the detection coordinate system along the screen, and the video signal is output to the projection device. On the computer,
A measurement image generation function for generating a measurement image including a measurement point whose position is represented in an image coordinate system along the image, and outputting a signal of the measurement image to the projection device;
A measurement function for inputting and storing the detection position of the measurement point input from the position detection device;
An initial projection parameter input function for inputting and storing an initial projection parameter from the projection device;
A projection parameter re-input function for inputting the second projection parameter from the projection device when the projection parameter of the projection device is changed from the initial projection parameter to the second projection parameter;
The position of the measurement point represented in the video coordinate system, the detection position of the measurement point stored by the measurement function, the initial projection parameter stored by the initial projection parameter input function, and the input by the projection parameter re-input function A calibration function for calculating parameters for coordinate transformation from the second projection parameters;
A coordinate conversion function for converting the coordinate system of the detection position input from the position detection device using the parameter for coordinate conversion calculated by the calibration function from the detection coordinate system to the video coordinate system;
A program to realize
JP2012201328A 2012-09-13 2012-09-13 Computer input system, coordinate conversion device and program Pending JP2014057237A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012201328A JP2014057237A (en) 2012-09-13 2012-09-13 Computer input system, coordinate conversion device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012201328A JP2014057237A (en) 2012-09-13 2012-09-13 Computer input system, coordinate conversion device and program

Publications (1)

Publication Number Publication Date
JP2014057237A true JP2014057237A (en) 2014-03-27

Family

ID=50614181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012201328A Pending JP2014057237A (en) 2012-09-13 2012-09-13 Computer input system, coordinate conversion device and program

Country Status (1)

Country Link
JP (1) JP2014057237A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105867055A (en) * 2016-06-17 2016-08-17 京东方科技集团股份有限公司 Projection parameter adjusting method, projection parameter adjusting device and projection equipment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105867055A (en) * 2016-06-17 2016-08-17 京东方科技集团股份有限公司 Projection parameter adjusting method, projection parameter adjusting device and projection equipment
CN105867055B (en) * 2016-06-17 2017-10-17 京东方科技集团股份有限公司 Projective parameter method of adjustment, device and projector equipment
US10481472B2 (en) 2016-06-17 2019-11-19 Boe Technology Group Co., Ltd. Method and device for projection parameter adjustment and projection apparatus

Similar Documents

Publication Publication Date Title
US20170229099A1 (en) Display apparatus and method for controlling display apparatus
US9830023B2 (en) Image display apparatus and method of controlling image display apparatus
US10416813B2 (en) Display system, display device, information processing device, and information processing method
US9406280B2 (en) Image display device, image display system, and method of controlling image display device
JP2011013396A (en) Projector, image projection system and image projection method
JP2017182109A (en) Display system, information processing device, projector, and information processing method
JP2008233462A (en) Projector and projection method for projector
JP5152317B2 (en) Presentation control apparatus and program
US20150279336A1 (en) Bidirectional display method and bidirectional display device
EP2512140A2 (en) Method and display apparatus for calculating coordinates of a light beam
JP6323035B2 (en) Display device and display method
JP2014057237A (en) Computer input system, coordinate conversion device and program
JP6349886B2 (en) Image projection apparatus, control method for image projection apparatus, and control program for image projection apparatus
JP5742379B2 (en) Projection system and projection method
JP5664725B2 (en) Projector, image projection system, and image projection method
JP2018136364A (en) Display system, method for controlling display system, indication body, and display
JP2020191045A (en) Indicator, display system, and operation method
JP2015053734A (en) Projector, image projection system, and image projection method
JP6891866B2 (en) Display device, display device control method and display system
JP6194605B2 (en) Projector, projection system, and projector control method
WO2016139902A1 (en) Display device and display control method
JP7135721B2 (en) Display device and display method
JP2013182462A (en) Indicated position display control device, program, and indicated position display control method
JP6300053B2 (en) Projector device and projector system
JP2006202107A (en) Image display device and image display method