JP2014182468A - Projector, projection system, and control method of projector - Google Patents

Projector, projection system, and control method of projector Download PDF

Info

Publication number
JP2014182468A
JP2014182468A JP2013055164A JP2013055164A JP2014182468A JP 2014182468 A JP2014182468 A JP 2014182468A JP 2013055164 A JP2013055164 A JP 2013055164A JP 2013055164 A JP2013055164 A JP 2013055164A JP 2014182468 A JP2014182468 A JP 2014182468A
Authority
JP
Japan
Prior art keywords
image
coordinate data
unit
coordinates
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013055164A
Other languages
Japanese (ja)
Other versions
JP6194605B2 (en
Inventor
Koichiro Ota
浩一郎 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013055164A priority Critical patent/JP6194605B2/en
Priority to US14/180,715 priority patent/US9406280B2/en
Publication of JP2014182468A publication Critical patent/JP2014182468A/en
Application granted granted Critical
Publication of JP6194605B2 publication Critical patent/JP6194605B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make a projector project an image in which an image according to coordinates input from an electronic apparatus having a touch panel and coordinates input from an indication body is drawn on an input image .SOLUTION: A projector 1 includes: a projection part 104 configured to project an image indicated by a video signal; a coordinate data acquisition part 108 configured to acquire first coordinate data indicating coordinates of a point on a first image indicated by the video signal from a tablet terminal 4 having a touch panel 44; a coordinate data generation part 106 configured to acquire second coordinate data indicating coordinates of a point indicated through an indication body 3 by a user, on a projection surface on which the first image is projected; an integration part 110 configured to generate third coordinate data integrating the first coordinate data and the second coordinate data; an image data acquisition part 112 configured to acquire image data indicating a second image in which an image according to the third coordinate data is drawn on the first image; and an image data output part 114 configured to output the image data to the tablet terminal 4.

Description

本発明は、プロジェクター、投射システム、及びプロジェクターの制御方法に関する。   The present invention relates to a projector, a projection system, and a projector control method.

ワイヤレス接続を利用して、携帯電話などの端末装置からプロジェクターに画像を送信する技術が知られている。特許文献1には、携帯型端末が、ワイヤレス接続されたプロジェクターに投射データを送信することが記載されている。特許文献2には、ワイヤレス接続が可能なサーバーを介することにより、携帯型端末の画像をスクリーンに見やすく投射することが記載されている。また、画像が投射された投射面上でユーザーがペン型の指示体を用いて擬似的に筆記を行うことができるインタラクティブな投射システムが知られている。   A technique for transmitting an image from a terminal device such as a mobile phone to a projector using a wireless connection is known. Patent Document 1 describes that a portable terminal transmits projection data to a wirelessly connected projector. Patent Document 2 describes that an image of a portable terminal is projected on a screen in an easy-to-view manner via a server capable of wireless connection. There is also known an interactive projection system in which a user can perform pseudo writing using a pen-shaped indicator on a projection surface on which an image is projected.

特開2003−198870号公報JP 2003-198870 A 特開2009−98384号公報JP 2009-98384 A

上記のシステムでは、携帯型端末を利用して投射面上に描画を行うことはできなかった。本発明は、タッチパネルを有する電子機器から入力された座標および指示体から入力された座標に応じた画が入力画像上に描かれた画像を、プロジェクターに投射させることを目的の一つとする。   In the above system, it was not possible to draw on the projection surface using a portable terminal. An object of the present invention is to cause a projector to project an image in which an image corresponding to coordinates input from an electronic device having a touch panel and coordinates input from an indicator is drawn on an input image.

上述の課題を解決するため、本発明は、映像信号が示す画像を投射する投射部と、タッチパネルを有する電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する第1座標データ取得部と、前記投射部により前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する第2座標データ取得部と、前記第1座標データ取得部により取得された第1の座標データと、前記第2座標データ取得部により取得された第2の座標データとが統合された第3の座標データを生成する統合部と、前記第1の画像上に、前記統合部により生成された第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する画像データ取得部と、前記画像データ取得部により取得された画像データを前記電子機器に出力する画像データ出力部と、前記第2の画像を示す映像信号を前記投射部に出力する出力部とを有するプロジェクターを提供する。このプロジェクターによれば、電子機器から入力された座標および指示体から入力された座標に応じた画が第1の画像上に描かれた第2の画像が投射される。   In order to solve the above-described problem, the present invention provides a first unit that indicates coordinates of a point on a first image indicated by the video signal from an electronic device having a projection unit that projects an image indicated by the video signal and a touch panel. A first coordinate data acquisition unit for acquiring coordinate data; and second coordinate data indicating the coordinates of a point designated by a user with an indicator on the projection surface on which the first image is projected by the projection unit. A third coordinate data acquisition unit, a first coordinate data acquired by the first coordinate data acquisition unit, and a second coordinate data acquired by the second coordinate data acquisition unit are integrated. An integration unit that generates coordinate data, and image data that acquires image data indicating a second image in which an image corresponding to the third coordinate data generated by the integration unit is drawn on the first image An acquisition unit; and And an image data output unit for outputting image data acquired by the acquisition unit to the electronic device, to provide a projector and an output unit for outputting an image signal to the projection portion indicating the second image. According to this projector, a second image in which an image corresponding to the coordinates input from the electronic device and the coordinates input from the indicator is drawn on the first image is projected.

別の好ましい態様において、前記第3の座標データは、前記第1の座標データが示す座標および前記第2の座標データが示す座標のうち、選択された一方の座標を示すことを特徴とする。このプロジェクターによれば、電子機器から入力された座標に応じた画が第1の画像上に描かれる場合と、指示体から入力された座標に応じた画が第1の画像上に描かれる場合とが切り替わる。   In another preferred aspect, the third coordinate data indicates one selected coordinate among the coordinates indicated by the first coordinate data and the coordinates indicated by the second coordinate data. According to this projector, when an image according to the coordinates input from the electronic device is drawn on the first image, and when an image according to the coordinates input from the indicator is drawn on the first image. And switch.

また、別の好ましい態様において、前記第3の座標データは、互いに異なる識別子により区別された、前記第1の座標データが示す座標および前記第2の座標データが示す座標を示すことを特徴とする。このプロジェクターによれば、電子機器から入力された座標に応じた画と、指示体から入力された座標に応じた画とが第1の画像上に一度に描かれる。   In another preferred aspect, the third coordinate data indicates the coordinates indicated by the first coordinate data and the coordinates indicated by the second coordinate data, which are distinguished by different identifiers. . According to this projector, an image corresponding to the coordinates input from the electronic device and an image corresponding to the coordinates input from the indicator are drawn on the first image at a time.

また、別の好ましい態様において、前記第1の座標データが示す座標の識別子と前記第2の座標データが示す座標の識別子とは、異なる入力デバイスに対応することを特徴とする。このプロジェクターによれば、電子機器から入力された座標に応じた画と、指示体から入力された座標に応じた画とが異なる入力デバイスにより描かれる。   In another preferred aspect, the coordinate identifier indicated by the first coordinate data and the coordinate identifier indicated by the second coordinate data correspond to different input devices. According to this projector, the image corresponding to the coordinates input from the electronic device and the image corresponding to the coordinates input from the indicator are drawn by different input devices.

また、別の好ましい態様において、前記統合部により生成された第3の座標データを、前記映像信号の入力源である外部装置に出力する座標データ出力部を有し、前記画像データ取得部は、前記外部装置から前記画像データを取得することを特徴とする。このプロジェクターによれば、電子機器から入力された座標および指示体から入力された座標に応じた画が、外部装置において描かれる。   Moreover, in another preferable aspect, the image data acquisition unit includes a coordinate data output unit that outputs the third coordinate data generated by the integration unit to an external device that is an input source of the video signal. The image data is acquired from the external device. According to this projector, an image corresponding to the coordinates input from the electronic device and the coordinates input from the indicator is drawn on the external device.

また、別の好ましい態様において、前記第3の座標データに応じた画を描く描画部と、前記第1の画像と、前記描画部により描かれた画とを合成し、前記画像データを生成する合成部とを有し、前記画像データ取得部は、前記合成部から前記画像データを取得することを特徴とする。このプロジェクターによれば、電子機器から入力された座標および指示体から入力された座標に応じた画が、外部装置を介さずに描かれる。   In another preferable aspect, the image data is generated by combining the drawing unit that draws an image according to the third coordinate data, the first image, and the image drawn by the drawing unit. A synthesizing unit, and the image data acquiring unit acquires the image data from the synthesizing unit. According to this projector, an image corresponding to the coordinates input from the electronic device and the coordinates input from the indicator is drawn without using an external device.

また、本発明は、プロジェクターと電子機器とを有し、前記プロジェクターは、映像信号が示す画像を投射する投射部と、前記電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する第1座標データ取得部と、前記投射部により前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する第2座標データ取得部と、前記第1座標データ取得部により取得された第1の座標データと、前記第2座標データ取得部により取得された第2の座標データとが統合された第3の座標データを生成する統合部と、前記第1の画像上に、前記統合部により生成された第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する画像データ取得部と、前記画像データ取得部により取得された画像データを前記電子機器に出力する画像データ出力部と、前記第2の画像を示す映像信号を前記投射部に出力する出力部とを有し、前記電子機器は、タッチパネルと、前記タッチパネル上でユーザーが指示した点の座標を、第1の画像上の点の座標に変換し、前記第1の座標データを生成する座標変換部と、前記座標変換部により生成された第1の座標データを、前記プロジェクターに出力する座標データ出力部と、前記プロジェクターから出力された画像データが示す前記第2の画像を、前記タッチパネルに表示させる表示制御部とを有する投射システムを提供する。この投射システムによれば、電子機器から入力された座標および指示体から入力された座標に応じた画が第1の画像上に描かれた第2の画像が投射される。   According to another aspect of the invention, there is provided a projector and an electronic device, the projector projecting an image indicated by the video signal, and coordinates of a point on the first image indicated by the video signal from the electronic device. A first coordinate data acquisition unit for acquiring first coordinate data indicating a second coordinate indicating a point indicated by a user on the projection surface on which the first image is projected by the projection unit; A second coordinate data acquisition unit that acquires coordinate data, the first coordinate data acquired by the first coordinate data acquisition unit, and the second coordinate data acquired by the second coordinate data acquisition unit are integrated. An integration unit that generates the generated third coordinate data, and image data indicating a second image in which an image corresponding to the third coordinate data generated by the integration unit is drawn on the first image To get image data An image data output unit that outputs the image data acquired by the image data acquisition unit to the electronic device, and an output unit that outputs a video signal indicating the second image to the projection unit, The electronic device includes a touch panel, a coordinate conversion unit that converts the coordinates of a point designated by a user on the touch panel into the coordinates of a point on a first image, and generates the first coordinate data. A coordinate data output unit that outputs the first coordinate data generated by the conversion unit to the projector, and a display control unit that causes the touch panel to display the second image indicated by the image data output from the projector; A projection system is provided. According to this projection system, a second image in which an image corresponding to the coordinates input from the electronic device and the coordinates input from the indicator is drawn on the first image is projected.

また、本発明は、映像信号が示す画像を投射部が投射する工程と、タッチパネルを有する電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する工程と、前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する工程と、前記第1の座標データと、前記第2の座標データとが統合された第3の座標データを生成する工程と、前記第1の画像上に、前記第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する工程と、前記画像データを前記電子機器に出力する工程と、前記第2の画像を示す映像信号を前記投射部に出力する工程とを有するプロジェクターの制御方法を提供する。このプロジェクターの制御方法によれば、電子機器から入力された座標および指示体から入力された座標に応じた画が第1の画像上に描かれた第2の画像が投射される。   According to the present invention, the projection unit projects the image indicated by the video signal, and first coordinate data indicating the coordinates of the point on the first image indicated by the video signal is obtained from an electronic device having a touch panel. A step of obtaining second coordinate data indicating coordinates of a point designated by a user on the projection surface on which the first image is projected, the first coordinate data, and the first A step of generating third coordinate data in which two coordinate data are integrated, and image data indicating a second image in which an image corresponding to the third coordinate data is drawn on the first image. And a step of outputting the image data to the electronic device, and a step of outputting a video signal indicating the second image to the projection unit. According to this projector control method, a second image in which an image corresponding to the coordinates input from the electronic device and the coordinates input from the indicator is drawn on the first image is projected.

投射システムPS1の全体構成を示す図。The figure which shows the whole structure of projection system PS1. 投射システムPS1の機能的構成を示すブロック図。The block diagram which shows the functional structure of projection system PS1. プロジェクターのハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of a projector. PCのハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of PC. 指示体のハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of a pointer. タブレット端末のハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of a tablet terminal. 投射システムPS1における処理を示すシーケンスチャート。The sequence chart which shows the process in projection system PS1. リサイズ処理を示すフローチャート。The flowchart which shows a resizing process. 投射システムPS2の全体構成を示す図。The figure which shows the whole structure of projection system PS2. 投射システムPS2の機能的構成を示すブロック図。The block diagram which shows the functional structure of projection system PS2. 投射システムPS2における処理を示すシーケンスチャート。The sequence chart which shows the process in projection system PS2.

(実施形態1)
図1は、本発明の第1実施形態に係る投射システムPS1の全体構成を示す図である。投射システムPS1は、プロジェクター1、パーソナルコンピューター2、指示体3、タブレット端末4、コントローラーRC、およびスクリーンSCを有する。プロジェクター1は、映像信号により示される画像(以下、「入力画像」という)をスクリーンSCに投射する装置である。プロジェクター1は、フロントプロジェクション型の短焦点のプロジェクターであり、スクリーンSCに比較的近い位置に配置される。図1の例では、プロジェクター1は、スクリーンSCの上部に配置されている。パーソナルコンピューター2(以下、「PC2」という)は、映像信号をプロジェクター1に出力する。PC2は、画像信号ケーブルおよびUSB(Universal Serial Bus)ケーブルによりプロジェクター1と有線接続されている。PC2は、プロジェクター1に対する映像信号の入力源となる外部装置の一例である。指示体3は、プロジェクター1から投射される画像(以下、「投射画像」という)に対してユーザーが電子的に手書きの文字や画像を書き込む際に筆記具として用いられるペン型または棒形状の操作デバイスである。プロジェクター1は、スクリーンSC上における指示体3の位置を継続的に特定する機能を備える。タブレット端末4は、入力画像に対してユーザーがスクリーンSCと離れた位置から電子的に手書きの文字や画像を書き込む際に用いられる電子機器である。ユーザーが、タブレット端末4のタッチパネル44を操作すると、PC2において、当該操作に応じた画が入力画像上に描かれる。タブレット端末4は、Wi−Fi(Wireless Fidelity:登録商標)などの無線LAN(Local Area Network)を介してプロジェクター1と接続されている。コントローラーRCは、赤外線通信等の無線でプロジェクター1を制御するための装置、いわゆるリモートコントローラーである。スクリーンSCは、投射画像を映し出す平面である。
(Embodiment 1)
FIG. 1 is a diagram showing an overall configuration of a projection system PS1 according to the first embodiment of the present invention. The projection system PS1 includes a projector 1, a personal computer 2, an indicator 3, a tablet terminal 4, a controller RC, and a screen SC. The projector 1 is a device that projects an image (hereinafter referred to as “input image”) indicated by a video signal onto a screen SC. The projector 1 is a front projection type short-focus projector, and is disposed at a position relatively close to the screen SC. In the example of FIG. 1, the projector 1 is disposed on the upper part of the screen SC. The personal computer 2 (hereinafter referred to as “PC2”) outputs a video signal to the projector 1. The PC 2 is wired to the projector 1 via an image signal cable and a USB (Universal Serial Bus) cable. The PC 2 is an example of an external device that is an input source of a video signal to the projector 1. The indicator 3 is a pen-type or bar-shaped operation device used as a writing instrument when a user electronically writes handwritten characters or images on an image projected from the projector 1 (hereinafter referred to as “projected image”). It is. The projector 1 has a function of continuously specifying the position of the indicator 3 on the screen SC. The tablet terminal 4 is an electronic device used when a user writes handwritten characters and images electronically from a position away from the screen SC with respect to an input image. When the user operates the touch panel 44 of the tablet terminal 4, an image corresponding to the operation is drawn on the input image on the PC 2. The tablet terminal 4 is connected to the projector 1 via a wireless LAN (Local Area Network) such as Wi-Fi (Wireless Fidelity: registered trademark). The controller RC is a device for controlling the projector 1 wirelessly such as infrared communication, a so-called remote controller. The screen SC is a plane that displays a projected image.

図2は、投射システムPS1の機能的構成を示すブロック図である。指示体3は、圧力検出部301と発光部302とを有する。圧力検出部301は、ユーザーによる筆記動作に伴い指示体3の先端がスクリーンSCに押し付けられたことを検出する。発光部302は、指示体3の先端がスクリーンSCに押し付けられたことが圧力検出部301により検出されると光を出力する。   FIG. 2 is a block diagram showing a functional configuration of the projection system PS1. The indicator 3 includes a pressure detection unit 301 and a light emitting unit 302. The pressure detector 301 detects that the tip of the indicator 3 is pressed against the screen SC in accordance with the writing operation by the user. The light emitting unit 302 outputs light when the pressure detecting unit 301 detects that the tip of the indicator 3 is pressed against the screen SC.

プロジェクター1は、映像信号取得部101と、画像調整部102と、画像処理部103と、投射部104と、撮像部105と、座標データ生成部106と、座標変換部107と、座標データ取得部108と、座標変換部109と、統合部110と、座標データ出力部111と、画像データ取得部112と、画像圧縮部113と、画像データ出力部114とを有する。映像信号取得部101は、PC2により出力された映像信号を取得する。画像調整部102は、入力画像のサイズ(解像度)を投射部104に応じたサイズに変更(リサイズ)する。以下では、入力画像のサイズを変更する処理を「リサイズ処理」と表現する。画像処理部103は、リサイズされた入力画像(以下、「リサイズ画像」という)に対して、所定の画像処理を施す。画像処理部103は、画像処理が施されたリサイズ画像を投射部104に出力する。画像処理部103は、映像信号を投射部104に出力する出力部の一例である。投射部104は、画像処理が施されたリサイズ画像を、投射画像としてスクリーンSCに投射する。   The projector 1 includes a video signal acquisition unit 101, an image adjustment unit 102, an image processing unit 103, a projection unit 104, an imaging unit 105, a coordinate data generation unit 106, a coordinate conversion unit 107, and a coordinate data acquisition unit. 108, a coordinate conversion unit 109, an integration unit 110, a coordinate data output unit 111, an image data acquisition unit 112, an image compression unit 113, and an image data output unit 114. The video signal acquisition unit 101 acquires the video signal output from the PC 2. The image adjustment unit 102 changes (resizes) the size (resolution) of the input image to a size corresponding to the projection unit 104. Hereinafter, the process of changing the size of the input image is expressed as “resizing process”. The image processing unit 103 performs predetermined image processing on the resized input image (hereinafter referred to as “resized image”). The image processing unit 103 outputs the resized image subjected to the image processing to the projection unit 104. The image processing unit 103 is an example of an output unit that outputs a video signal to the projection unit 104. The projection unit 104 projects the resized image that has been subjected to image processing onto the screen SC as a projection image.

撮像部105は、スクリーンSCを撮像し、投射画像および指示体3から出力された光を示す画像データを生成する。座標データ生成部106(第2座標データ取得部の一例)は、撮像部105により生成された画像データに基づいて、投射画像上でユーザーが指示体3により指示した点の座標を示す座標データ(以下、「ペン入力データ」という)を生成する。ペン入力データは、本発明における第2の座標データの一例である。座標変換部107は、座標データ生成部106により生成されたペン入力データにより示される座標の座標系を、入力画像の座標系に変換する。   The imaging unit 105 captures the screen SC and generates image data indicating the projection image and the light output from the indicator 3. A coordinate data generation unit 106 (an example of a second coordinate data acquisition unit), based on the image data generated by the imaging unit 105, shows coordinate data indicating the coordinates of a point indicated by the indicator 3 on the projection image by the user. (Hereinafter referred to as “pen input data”). The pen input data is an example of second coordinate data in the present invention. The coordinate conversion unit 107 converts the coordinate system of the coordinates indicated by the pen input data generated by the coordinate data generation unit 106 into the coordinate system of the input image.

座標データ取得部108(第1座標データ取得部の一例)は、タブレット端末4からリサイズ画像上の点の座標を示す座標データ(以下、「タッチ入力データ」という)を取得する。タッチ入力データは、本発明における第1の座標データの一例である。座標変換部109は、座標データ取得部108により取得されたタッチ入力データにより示される座標の座標系を、入力画像の座標系に変換する。統合部110は、座標データ生成部106により生成されたペン入力データと、座標データ取得部108により取得されたタッチ入力データとが統合された座標データ(以下、「統合座標データ」という)を生成する。「統合」とは、複数のポインティングデバイス(この例では指示体3およびタブレット端末4)から入力された座標を、この座標を用いる要素(この例では描画部203)が解読可能な形式に変換することをいう。すなわち、この例で、座標データの統合は、ペン入力データにより示される座標とタッチ入力データにより示される座標とを一の座標データに反映させるために行われる。統合座標データは、本発明における第3の座標データの一例である。座標データ出力部111は、統合部110により生成された統合座標データを、PC2に出力する。   The coordinate data acquisition unit 108 (an example of a first coordinate data acquisition unit) acquires coordinate data (hereinafter referred to as “touch input data”) indicating the coordinates of a point on the resized image from the tablet terminal 4. The touch input data is an example of first coordinate data in the present invention. The coordinate conversion unit 109 converts the coordinate system of the coordinates indicated by the touch input data acquired by the coordinate data acquisition unit 108 into the coordinate system of the input image. The integration unit 110 generates coordinate data (hereinafter referred to as “integrated coordinate data”) in which the pen input data generated by the coordinate data generation unit 106 and the touch input data acquired by the coordinate data acquisition unit 108 are integrated. To do. “Integration” means that coordinates input from a plurality of pointing devices (in this example, the indicator 3 and the tablet terminal 4) are converted into a format that can be decoded by an element using the coordinates (in this example, the drawing unit 203). That means. That is, in this example, the coordinate data is integrated in order to reflect the coordinates indicated by the pen input data and the coordinates indicated by the touch input data in one coordinate data. The integrated coordinate data is an example of third coordinate data in the present invention. The coordinate data output unit 111 outputs the integrated coordinate data generated by the integration unit 110 to the PC 2.

画像データ取得部112は、画像調整部102からリサイズ画像を示す画像データを取得する。以下では、説明の便宜上、入力画像のうち統合座標データに応じた画が描かれていないものを「一次画像」といい、一次画像上に統合座標データに応じた画が描かれたものを「二次画像」という。画像データ取得部112が取得する画像データは、一次画像または二次画像のリサイズ画像を示す。画像圧縮部113は、画像データ取得部112により取得された画像データを圧縮する。画像データ出力部114は、画像圧縮部113により圧縮された画像データをタブレット端末4に出力する。   The image data acquisition unit 112 acquires image data indicating a resized image from the image adjustment unit 102. Hereinafter, for convenience of explanation, an input image in which an image corresponding to the integrated coordinate data is not drawn is referred to as a “primary image”, and an image in which an image corresponding to the integrated coordinate data is drawn on the primary image is referred to as “ It is called “secondary image”. The image data acquired by the image data acquisition unit 112 indicates a resized image of a primary image or a secondary image. The image compression unit 113 compresses the image data acquired by the image data acquisition unit 112. The image data output unit 114 outputs the image data compressed by the image compression unit 113 to the tablet terminal 4.

PC2は、映像信号出力部201と、座標データ取得部202と、描画部203とを有する。映像信号出力部201は、映像信号をプロジェクター1に出力する。座標データ取得部202は、プロジェクター1により出力された統合座標データを取得する。描画部203は、一次画像上に、座標データ取得部202により取得された統合座標データに応じた画を描き、二次画像を生成する。   The PC 2 includes a video signal output unit 201, a coordinate data acquisition unit 202, and a drawing unit 203. The video signal output unit 201 outputs a video signal to the projector 1. The coordinate data acquisition unit 202 acquires integrated coordinate data output from the projector 1. The drawing unit 203 draws an image corresponding to the integrated coordinate data acquired by the coordinate data acquisition unit 202 on the primary image, and generates a secondary image.

タブレット端末4は、座標変換部401と、座標データ出力部402と、画像データ取得部403と、表示制御部404とを有する。座標変換部401は、タッチパネル44上でユーザーが指示した点の座標を、リサイズ画像上の点の座標に変換し、当該座標を示すタッチ入力データを生成する。座標データ出力部402は、座標変換部401により生成されたタッチ入力データを、プロジェクター1に出力する。画像データ取得部403は、プロジェクター1により出力された画像データを取得する。表示制御部404は、画像データ取得部403により取得された画像データが示すリサイズ画像に応じた画像をタッチパネル44に表示する。   The tablet terminal 4 includes a coordinate conversion unit 401, a coordinate data output unit 402, an image data acquisition unit 403, and a display control unit 404. The coordinate conversion unit 401 converts the coordinates of the point designated by the user on the touch panel 44 into the coordinates of the point on the resized image, and generates touch input data indicating the coordinates. The coordinate data output unit 402 outputs the touch input data generated by the coordinate conversion unit 401 to the projector 1. The image data acquisition unit 403 acquires image data output from the projector 1. The display control unit 404 displays an image corresponding to the resized image indicated by the image data acquired by the image data acquisition unit 403 on the touch panel 44.

図3は、プロジェクター1のハードウェア構成を示すブロック図である。プロジェクター1は、CPU(Central Processing Unit)10と、ROM(Read Only Memory)11と、RAM(Random Access Memory)12と、IF(インターフェース)部13と、画像処理回路14と、投射ユニット15と、イメージセンサー16と、受光部17と、操作パネル18と、入力処理部19とを有する。CPU10は、制御プログラム11Aを実行することによりプロジェクター1の各部を制御する制御装置である。ROM11は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。ROM11は、CPU10が実行する制御プログラム11Aを記憶する。RAM12は、データを記憶する揮発性の記憶装置である。RAM12は、フレームメモリー12aおよび12bを有する。フレームメモリー12aは、リサイズ画像の1フレーム分を記憶する領域である。フレームメモリー12bは、1フレーム分の投射画像を記憶する領域である。   FIG. 3 is a block diagram illustrating a hardware configuration of the projector 1. The projector 1 includes a central processing unit (CPU) 10, a read only memory (ROM) 11, a random access memory (RAM) 12, an IF (interface) unit 13, an image processing circuit 14, a projection unit 15, The image sensor 16, the light receiving unit 17, the operation panel 18, and the input processing unit 19 are included. The CPU 10 is a control device that controls each unit of the projector 1 by executing the control program 11A. The ROM 11 is a non-volatile storage device that stores various programs and data. The ROM 11 stores a control program 11A executed by the CPU 10. The RAM 12 is a volatile storage device that stores data. The RAM 12 includes frame memories 12a and 12b. The frame memory 12a is an area for storing one frame of the resized image. The frame memory 12b is an area for storing a projection image for one frame.

IF部13は、PC2およびタブレット端末4などの外部装置と通信を行なう。IF部13は、外部装置と接続するための各種端子(例えば、VGA端子、USB端子、有線または無線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子など)を備える。本実施形態において、IF部13は、VGA端子およびUSB端子を介してPC2と通信を行なう。具体的には、IF部13は、VGA端子を介してPC2から映像信号を取得し、USB端子を介してPC2に統合座標データを出力する。IF部13は、PC2から取得した映像信号から、垂直・水平の同期信号を抽出する。IF部13は、また、無線LANインターフェースを介してタブレット端末4と通信を行なう。画像処理回路14は、入力画像にリサイズ処理および所定の画像処理を施す。画像処理回路14は、リサイズ画像をフレームメモリー12aに、画像処理後のリサイズ画像(すなわち投射画像)をフレームメモリー12bに書き込む。   The IF unit 13 communicates with external devices such as the PC 2 and the tablet terminal 4. The IF unit 13 has various terminals (for example, a VGA terminal, a USB terminal, a wired or wireless LAN interface, an S terminal, an RCA terminal, an HDMI (High-Definition Multimedia Interface: registered trademark) terminal) for connecting to an external device. Prepare. In the present embodiment, the IF unit 13 communicates with the PC 2 via a VGA terminal and a USB terminal. Specifically, the IF unit 13 acquires a video signal from the PC 2 via the VGA terminal, and outputs integrated coordinate data to the PC 2 via the USB terminal. The IF unit 13 extracts vertical and horizontal synchronization signals from the video signal acquired from the PC 2. The IF unit 13 also communicates with the tablet terminal 4 via a wireless LAN interface. The image processing circuit 14 performs resizing processing and predetermined image processing on the input image. The image processing circuit 14 writes the resized image in the frame memory 12a and the resized image after image processing (that is, the projection image) in the frame memory 12b.

投射ユニット15は、光源151と、液晶パネル152と、光学系153と、光源駆動回路154と、パネル駆動回路155と、光学系駆動回路156とを有する。光源151は、高圧水銀ランプ、ハロゲンランプ、若しくはメタルハライドランプなどのランプ、又はLED(Light Emitting Diode)若しくはレーザーダイオードなどの発光体を有し、液晶パネル152に光を照射する。液晶パネル152は、光源151から照射された光を画像データに応じて変調する光変調装置である。この例で液晶パネル152は、マトリクス状に配置された複数の画素を有する。液晶パネル152は、例えば、XGA(eXtended Graphics Array)の解像度を有し、1024×768個の画素により構成される表示領域を有する。この例で、液晶パネル152は透過型の液晶パネルであり、各画素の透過率が画像データに応じて制御される。プロジェクター1は、RGBの三原色に対応した3枚の液晶パネル152を有する。光源151からの光はRGBの3色の色光に分離され、各色光は対応する液晶パネル152に入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等によって合成され、光学系153に射出される。光学系153は、液晶パネル152により画像光へと変調された光を拡大してスクリーンSCに投射するレンズ、投射する画像の拡大・縮小及び焦点の調整を行うズームレンズ、ズームの度合いを調整するズーム調整用のモーター、フォーカスの調整を行うフォーカス調整用のモーター等を有する。光源駆動回路154は、CPU10の制御に従って光源151を駆動する。パネル駆動回路155は、CPU10から出力された画像データに応じて液晶パネル152を駆動する。光学系駆動回路156は、CPU10の制御に従って光学系153が有する各モーターを駆動する。   The projection unit 15 includes a light source 151, a liquid crystal panel 152, an optical system 153, a light source drive circuit 154, a panel drive circuit 155, and an optical system drive circuit 156. The light source 151 includes a lamp such as a high-pressure mercury lamp, a halogen lamp, or a metal halide lamp, or a light emitter such as an LED (Light Emitting Diode) or a laser diode, and irradiates the liquid crystal panel 152 with light. The liquid crystal panel 152 is a light modulation device that modulates light emitted from the light source 151 in accordance with image data. In this example, the liquid crystal panel 152 has a plurality of pixels arranged in a matrix. The liquid crystal panel 152 has, for example, an XGA (eXtended Graphics Array) resolution and a display area configured by 1024 × 768 pixels. In this example, the liquid crystal panel 152 is a transmissive liquid crystal panel, and the transmittance of each pixel is controlled according to image data. The projector 1 includes three liquid crystal panels 152 corresponding to the three primary colors RGB. The light from the light source 151 is separated into three color lights of RGB, and each color light enters the corresponding liquid crystal panel 152. The color light modulated by passing through each liquid crystal panel is synthesized by a cross dichroic prism or the like and emitted to the optical system 153. The optical system 153 enlarges the light modulated into the image light by the liquid crystal panel 152 and projects it onto the screen SC, a zoom lens that enlarges / reduces the projected image, and adjusts the focus, and adjusts the degree of zooming. It has a zoom adjustment motor, a focus adjustment motor for adjusting the focus, and the like. The light source driving circuit 154 drives the light source 151 according to the control of the CPU 10. The panel drive circuit 155 drives the liquid crystal panel 152 according to the image data output from the CPU 10. The optical system driving circuit 156 drives each motor included in the optical system 153 according to the control of the CPU 10.

イメージセンサー16は、スクリーンSCを撮像し画像データを生成する固体撮像素子群である。イメージセンサー16は、例えば、CMOSイメージセンサーまたはCCDイメージセンサーなどにより構成される。プロジェクター1は、複数のイメージセンサー16(イメージセンサー群)を有しており、これらのイメージセンサー16は、投射ユニット15が投射画像を投射可能な最大範囲を含む画角でスクリーンSCを撮像する。受光部17は、コントローラーRCから送信される赤外線信号を受光し、受光した赤外線信号をデコードして入力処理部19に出力する。操作パネル18は、プロジェクター1の電源のオン/オフまたは各種操作を行うためのボタンおよびスイッチを有する。入力処理部19は、コントローラーRCまたは操作パネル18による操作内容を示す情報を生成し、CPU10に出力する。   The image sensor 16 is a solid-state imaging element group that images the screen SC and generates image data. The image sensor 16 is configured by, for example, a CMOS image sensor or a CCD image sensor. The projector 1 includes a plurality of image sensors 16 (image sensor group), and these image sensors 16 capture the screen SC at an angle of view including a maximum range in which the projection unit 15 can project a projection image. The light receiving unit 17 receives the infrared signal transmitted from the controller RC, decodes the received infrared signal, and outputs the decoded infrared signal to the input processing unit 19. The operation panel 18 has buttons and switches for turning on / off the projector 1 or performing various operations. The input processing unit 19 generates information indicating the operation content by the controller RC or the operation panel 18 and outputs the information to the CPU 10.

プロジェクター1において、プログラムを実行しているCPU10は、座標データ生成部106、座標変換部107、座標変換部109、統合部110、画像データ取得部112、および画像圧縮部113の一例である。プログラムを実行しているCPU10により制御されているIF部13は、映像信号取得部101、座標データ取得部108、座標データ出力部111、および画像データ出力部114の一例である。プログラムを実行しているCPU10により制御されている画像処理回路14は、画像調整部102および画像処理部103の一例である。プログラムを実行しているCPU10により制御されている投射ユニット15は、投射部104の一例である。プログラムを実行しているCPU10により制御されているイメージセンサー16は、撮像部105の一例である。   In the projector 1, the CPU 10 executing the program is an example of the coordinate data generation unit 106, the coordinate conversion unit 107, the coordinate conversion unit 109, the integration unit 110, the image data acquisition unit 112, and the image compression unit 113. The IF unit 13 controlled by the CPU 10 executing the program is an example of the video signal acquisition unit 101, the coordinate data acquisition unit 108, the coordinate data output unit 111, and the image data output unit 114. The image processing circuit 14 controlled by the CPU 10 executing the program is an example of the image adjustment unit 102 and the image processing unit 103. The projection unit 15 that is controlled by the CPU 10 that is executing the program is an example of the projection unit 104. The image sensor 16 controlled by the CPU 10 executing the program is an example of the imaging unit 105.

図4は、PC2のハードウェア構成を示すブロック図である。PC2は、CPU20と、ROM21と、RAM22と、IF部23と、表示部24と、入力部25とを有する。CPU20は、プログラムを実行することによりPC2の各部を制御する制御装置である。ROM21は、各種のプログラム及びデータを記憶した不揮発性の記憶装置である。RAM22は、データを記憶する揮発性の記憶装置である。IF部23は、プロジェクター1などの外部装置と通信を行なう。IF部23は、外部装置と接続するための各種端子を備える。表示部24は、液晶ディスプレイまたは有機EL(Electroluminescence)ディスプレイなどの表示装置を有する。入力部25は、ユーザーによる入力を受け付ける入力デバイスであり、キーボード、マウス、タッチパッド、および各種ボタン等を備える。PC2において、プログラムを実行しているCPU20は、描画部203の一例である。プログラムを実行しているCPU20により制御されているIF部23は、映像信号出力部201および座標データ取得部202の一例である。   FIG. 4 is a block diagram illustrating a hardware configuration of the PC 2. The PC 2 includes a CPU 20, a ROM 21, a RAM 22, an IF unit 23, a display unit 24, and an input unit 25. The CPU 20 is a control device that controls each part of the PC 2 by executing a program. The ROM 21 is a nonvolatile storage device that stores various programs and data. The RAM 22 is a volatile storage device that stores data. The IF unit 23 communicates with an external device such as the projector 1. The IF unit 23 includes various terminals for connecting to an external device. The display unit 24 includes a display device such as a liquid crystal display or an organic EL (Electroluminescence) display. The input unit 25 is an input device that accepts input from a user, and includes a keyboard, a mouse, a touch pad, various buttons, and the like. In the PC 2, the CPU 20 executing the program is an example of the drawing unit 203. The IF unit 23 controlled by the CPU 20 executing the program is an example of the video signal output unit 201 and the coordinate data acquisition unit 202.

図5は、指示体3のハードウェア構成を示すブロック図である。指示体3は、制御部30と、圧力センサー31と、LED(Light Emitting Diode)32とを有する。制御部30は、指示体3の各部の動作を制御する制御装置である。圧力センサー31は、指示体3の先端に設けられ、指示体3の先端への圧力を検出する。LED32は、指示体3に固有の波長の光を出力する。指示体3において、制御部30により制御されている圧力センサー31は、圧力検出部301の一例である。制御部30により制御されているLED32は、発光部302の一例である。   FIG. 5 is a block diagram showing a hardware configuration of the indicator 3. The indicator 3 includes a control unit 30, a pressure sensor 31, and an LED (Light Emitting Diode) 32. The control unit 30 is a control device that controls the operation of each unit of the indicator 3. The pressure sensor 31 is provided at the tip of the indicator 3 and detects the pressure applied to the tip of the indicator 3. The LED 32 outputs light having a wavelength unique to the indicator 3. In the indicator 3, the pressure sensor 31 controlled by the control unit 30 is an example of the pressure detection unit 301. The LED 32 controlled by the control unit 30 is an example of the light emitting unit 302.

図6は、タブレット端末4のハードウェア構成を示すブロック図である。タブレット端末4は、CPU40と、ROM41と、RAM42と、IF部43と、タッチパネル44とを有する。CPU40は、プログラムを実行することによりタブレット端末4の各部を制御する制御装置である。ROM41は、各種のプログラム及びデータを記憶した不揮発性の記憶装置である。RAM42は、データを記憶する揮発性の記憶装置である。IF部43は、プロジェクター1などの外部装置と通信を行なう。IF部43は、プロジェクター1と接続するための無線LANインターフェースを備える。タッチパネル44は、液晶ディスプレイなどの表示面上に座標を感知するパネルが重ねて設けられた入力装置である。タッチパネル44には、例えば、光学式、抵抗膜方式、静電容量式、または超音波式のタッチパネルが用いられる。タブレット端末4において、プログラムを実行しているCPU40は、座標変換部401および表示制御部404の一例である。プログラムを実行しているCPU40により制御されているIF部43は、座標データ出力部402および画像データ取得部403の一例である。   FIG. 6 is a block diagram illustrating a hardware configuration of the tablet terminal 4. The tablet terminal 4 includes a CPU 40, a ROM 41, a RAM 42, an IF unit 43, and a touch panel 44. The CPU 40 is a control device that controls each part of the tablet terminal 4 by executing a program. The ROM 41 is a nonvolatile storage device that stores various programs and data. The RAM 42 is a volatile storage device that stores data. The IF unit 43 communicates with an external device such as the projector 1. The IF unit 43 includes a wireless LAN interface for connecting to the projector 1. The touch panel 44 is an input device in which a panel for sensing coordinates is superimposed on a display surface such as a liquid crystal display. As the touch panel 44, for example, an optical, resistive film, capacitance type, or ultrasonic type touch panel is used. In the tablet terminal 4, the CPU 40 executing the program is an example of the coordinate conversion unit 401 and the display control unit 404. The IF unit 43 controlled by the CPU 40 executing the program is an example of the coordinate data output unit 402 and the image data acquisition unit 403.

図7は、投射システムPS1において実行される処理を示すシーケンスチャートである。この例で、PC2においては、入力画像(ここでは、表示部24に表示されている画像)上に画を描くための描画プログラムが実行されている。このような状況の下で、入力画像(および投射画像)上に描画を行いたい場合、PC2の入力部25(例えばマウスなど)を操作する方法と、指示体3を用いて筆記動作を行う方法とがある。しかし、PC2の入力部25を操作する方法では、プロジェクター1とPC2とが有線接続されているため、プロジェクター1と離れた場所から描画を行うには距離的な制約が生じる。また、指示体3を用いて筆記動作を行う方法では、スクリーンSCに投射された投射画像に直接触れる必要があるため、スクリーンSCから離れた場所から描画を行うことができない。投射システムPS1は、タブレット端末4を、PC2を操作するためのポインティングデバイスとして機能させ、描画を行う際の距離的な制約を抑制する。図7に示す処理は、例えば、PC2がプロジェクター1に映像信号(ここでは、一次画像を示す映像信号)を出力したことを契機として開始される。なお、以下では、指示体3を用いた筆記動作と、タブレット端末4の操作とが、異なるユーザーによって共に行われる場合を例に説明する。   FIG. 7 is a sequence chart showing processing executed in the projection system PS1. In this example, the PC 2 executes a drawing program for drawing an image on an input image (here, an image displayed on the display unit 24). Under these circumstances, when drawing on an input image (and a projection image) is desired, a method of operating the input unit 25 (for example, a mouse) of the PC 2 and a method of performing a writing operation using the indicator 3 There is. However, in the method of operating the input unit 25 of the PC 2, since the projector 1 and the PC 2 are connected by wire, there is a distance limitation when drawing from a place away from the projector 1. Further, in the method of performing the writing operation using the indicator 3, it is necessary to directly touch the projection image projected on the screen SC, so that drawing cannot be performed from a place away from the screen SC. The projection system PS1 causes the tablet terminal 4 to function as a pointing device for operating the PC 2 and suppresses distance restrictions when performing drawing. The process illustrated in FIG. 7 is started when the PC 2 outputs a video signal (here, a video signal indicating a primary image) to the projector 1, for example. In the following, a case where the writing operation using the indicator 3 and the operation of the tablet terminal 4 are performed together by different users will be described as an example.

ステップSA1において、プロジェクター1のCPU10は、PC2から映像信号を取得する。ステップSA2において、CPU10は、入力画像に対してリサイズ処理を行う。CPU10は、リサイズ処理により、入力画像のサイズを液晶パネル152に応じたサイズに変更する。   In step SA1, the CPU 10 of the projector 1 acquires a video signal from the PC 2. In step SA2, the CPU 10 performs a resizing process on the input image. The CPU 10 changes the size of the input image to a size corresponding to the liquid crystal panel 152 by resizing processing.

図8は、リサイズ処理の具体的な処理内容を示すフローチャートである。以下では、入力画像のサイズが液晶パネル152のサイズよりも大きい場合(入力画像を縮小する場合)を例に説明する。ステップSA201において、CPU10は、入力画像のサイズを取得する。ここでいう画像のサイズとは、画像の縦方向と横方向のそれぞれの画素数である。映像信号には、入力画像のサイズを示す信号が含まれており、CPU10は、当該信号に基づいて入力画像のサイズを取得する。CPU10は、取得した入力画像のサイズをRAM12に記憶する。ステップSA202において、CPU10は、液晶パネル152のサイズを取得する。具体的には、CPU10は、ROM11に記憶された、液晶パネル152の解像度を示す情報を読み出して、液晶パネル152のサイズを取得する。   FIG. 8 is a flowchart showing specific processing contents of the resizing processing. Hereinafter, a case where the size of the input image is larger than the size of the liquid crystal panel 152 (when the input image is reduced) will be described as an example. In step SA201, the CPU 10 acquires the size of the input image. The image size referred to here is the number of pixels in the vertical and horizontal directions of the image. The video signal includes a signal indicating the size of the input image, and the CPU 10 acquires the size of the input image based on the signal. The CPU 10 stores the acquired size of the input image in the RAM 12. In step SA202, the CPU 10 acquires the size of the liquid crystal panel 152. Specifically, the CPU 10 reads information indicating the resolution of the liquid crystal panel 152 stored in the ROM 11 and acquires the size of the liquid crystal panel 152.

ステップSA203において、CPU10は、入力画像のアスペクト比と液晶パネル152のアスペクト比とが等しいか否かを判断する。具体的には、CPU10は、入力画像のサイズおよび液晶パネル152のサイズに基づいて、入力画像のアスペクト比および液晶パネル152のアスペクト比をそれぞれ算出し、これらのアスペクト比を比較する。入力画像のアスペクト比と液晶パネル152のアスペクト比とが等しくないと判断された場合(ステップSA203:NO)、CPU10は、処理をステップSA204に移行する。入力画像のアスペクト比と液晶パネル152のアスペクト比とが等しいと判断された場合(ステップSA203:YES)、CPU10は、処理をステップSA205に移行する。例えば、入力画像のサイズが横1280×縦800である場合、入力画像のアスペクト比は16:10である。また、液晶パネル152のサイズが横1024×縦768である場合、液晶パネル152のアスペクト比は4:3である。したがって、この場合、入力画像のアスペクト比と液晶パネル152のアスペクト比とは等しくないと判断される。   In step SA203, the CPU 10 determines whether or not the aspect ratio of the input image is equal to the aspect ratio of the liquid crystal panel 152. Specifically, the CPU 10 calculates the aspect ratio of the input image and the aspect ratio of the liquid crystal panel 152 based on the size of the input image and the size of the liquid crystal panel 152, and compares these aspect ratios. When it is determined that the aspect ratio of the input image and the aspect ratio of the liquid crystal panel 152 are not equal (step SA203: NO), the CPU 10 shifts the processing to step SA204. When it is determined that the aspect ratio of the input image is equal to the aspect ratio of the liquid crystal panel 152 (step SA203: YES), the CPU 10 shifts the processing to step SA205. For example, when the size of the input image is 1280 × 800, the aspect ratio of the input image is 16:10. When the size of the liquid crystal panel 152 is horizontal 1024 × vertical 768, the aspect ratio of the liquid crystal panel 152 is 4: 3. Therefore, in this case, it is determined that the aspect ratio of the input image and the aspect ratio of the liquid crystal panel 152 are not equal.

ステップSA204において、CPU10は、オフセット値αを算出する。オフセット値とは、リサイズ処理において、入力画像から一律に除かれる画素の横方向の数を示す値である。CPU10は、RAM12から入力画像のサイズおよび液晶パネル152のサイズを読み出して、例えば、以下の式(1)によりオフセット値αを算出する。

Figure 2014182468
(L1:入力画像の横方向の画素数、L2:入力画像の縦方向の画素数、L3:液晶パネル152の横方向の画素数、L4:液晶パネル152の縦方向の画素数)
CPU10は、算出されたオフセット値αを、RAM12に記憶する。上述のサイズの例では、L1=1280、L2=800、L3=1024、L4=768であり、オフセット値α=214となる。 In step SA204, the CPU 10 calculates an offset value α. The offset value is a value indicating the number of pixels in the horizontal direction that are uniformly removed from the input image in the resizing process. The CPU 10 reads the size of the input image and the size of the liquid crystal panel 152 from the RAM 12, and calculates the offset value α by the following equation (1), for example.
Figure 2014182468
(L1: number of pixels in the horizontal direction of the input image, L2: number of pixels in the vertical direction of the input image, L3: number of pixels in the horizontal direction of the liquid crystal panel 152, L4: number of pixels in the vertical direction of the liquid crystal panel 152)
The CPU 10 stores the calculated offset value α in the RAM 12. In the above example of size, L1 = 1280, L2 = 800, L3 = 1024, L4 = 768, and the offset value α = 214.

ステップSA205において、CPU10は、オフセット値αを考慮した入力画像のサイズ(以下、「オフセット後の入力画像」という)と液晶パネル152のサイズとが等しいか否かを判断する。具体的には、CPU10は、入力画像のサイズとオフセット値αとをRAM12からそれぞれ読み出して、入力画像の横方向の画素数からオフセット値αを減算することにより、オフセット後の入力画像のサイズを算出する。そして、CPU10は、液晶パネル152のサイズをROM11から読み出して、オフセット後の入力画像のサイズと液晶パネル152のサイズとを比較する。オフセット後の入力画像のサイズと液晶パネル152のサイズとが等しくないと判断された場合(ステップSA205:NO)、CPU10は、処理をステップSA206に移行する。オフセット後の入力画像のサイズと液晶パネル152のサイズとが等しいと判断された場合(ステップSA205:YES)、CPU10は、処理をステップSA207に移行する。上述のサイズの例では、オフセット後の入力画像のサイズは、横1066×縦800であり、投射画像のサイズは、横1024×縦768である。したがって、オフセット後の入力画像のサイズと液晶パネル152のサイズとは等しくないと判断される。   In step SA205, the CPU 10 determines whether or not the size of the input image considering the offset value α (hereinafter referred to as “input image after offset”) is equal to the size of the liquid crystal panel 152. Specifically, the CPU 10 reads the size of the input image and the offset value α from the RAM 12, and subtracts the offset value α from the number of pixels in the horizontal direction of the input image, thereby reducing the size of the input image after the offset. calculate. Then, the CPU 10 reads the size of the liquid crystal panel 152 from the ROM 11 and compares the size of the input image after the offset with the size of the liquid crystal panel 152. When it is determined that the size of the input image after the offset and the size of the liquid crystal panel 152 are not equal (step SA205: NO), the CPU 10 shifts the processing to step SA206. If it is determined that the size of the input image after the offset and the size of the liquid crystal panel 152 are equal (step SA205: YES), the CPU 10 shifts the processing to step SA207. In the example of the size described above, the size of the input image after the offset is 1066 × 800 in the horizontal direction, and the size of the projection image is 1024 × 768 in the vertical direction. Therefore, it is determined that the size of the input image after the offset and the size of the liquid crystal panel 152 are not equal.

ステップSA206において、CPU10は、変換係数βを算出する。変換係数とは、入力画像のサイズと液晶パネル152のサイズとの比を示す値である。CPU10は、RAM12から入力画像のサイズおよび投射画像のサイズを読み出して、例えば、以下の式(2)により変換係数βを算出する。

Figure 2014182468
CPU10は、算出された変換係数βを、RAM12に記憶する。上述の例では、L2=800、L4=768であり、変換係数β=0.96となる。なお、変換係数βは、オフセット値αを用いて以下の式(3)により算出されてもよい。
Figure 2014182468
In step SA206, the CPU 10 calculates a conversion coefficient β. The conversion coefficient is a value indicating a ratio between the size of the input image and the size of the liquid crystal panel 152. The CPU 10 reads the size of the input image and the size of the projection image from the RAM 12, and calculates the conversion coefficient β by the following equation (2), for example.
Figure 2014182468
The CPU 10 stores the calculated conversion coefficient β in the RAM 12. In the above example, L2 = 800, L4 = 768, and the conversion coefficient β = 0.96. Note that the conversion coefficient β may be calculated by the following equation (3) using the offset value α.
Figure 2014182468

ステップSA207において、CPU10は、オフセット値αと変換係数βとを用いて入力画像をリサイズする。具体的には、CPU10は、以下の式(4)により、入力画像における各画素の座標(x,y)を、座標(X,Y)に変換する。なお、「x」および「X」は、画像の横方向における座標を表し、「y」および「Y」は、画像の縦方向における座標を表す。

Figure 2014182468
CPU10は、リサイズ画像を示す画像データをフレームメモリー12aに書き込む。 In step SA207, the CPU 10 resizes the input image using the offset value α and the conversion coefficient β. Specifically, the CPU 10 converts the coordinates (x, y) of each pixel in the input image into coordinates (X, Y) by the following equation (4). “X” and “X” represent coordinates in the horizontal direction of the image, and “y” and “Y” represent coordinates in the vertical direction of the image.
Figure 2014182468
The CPU 10 writes image data indicating the resized image in the frame memory 12a.

再び図7を参照する。ステップSA3において、CPU10は、リサイズ画像を示す画像データを圧縮する。具体的には、CPU10は、フレームメモリー12aから画像データを読み出すことにより画像データを取得し、当該画像データを、無線LANの周波数帯域に対応させるために圧縮する。CPU10は、画像データを、例えばJPEG(Joint Photographic Experts Group)方式により圧縮する。画像データの圧縮は、例えば、数フレームごと、または決められた時間ごとに行われる。CPU10は、圧縮後の画像データをRAM12に記憶する。ステップSA4において、CPU10は、RAM12から圧縮後の画像データを読み出して、当該画像データをタブレット端末4に出力する。   Refer to FIG. 7 again. In step SA3, the CPU 10 compresses image data indicating the resized image. Specifically, the CPU 10 acquires image data by reading the image data from the frame memory 12a, and compresses the image data so as to correspond to the frequency band of the wireless LAN. The CPU 10 compresses the image data by, for example, JPEG (Joint Photographic Experts Group) method. The compression of the image data is performed, for example, every few frames or every predetermined time. The CPU 10 stores the compressed image data in the RAM 12. In step SA4, the CPU 10 reads the compressed image data from the RAM 12, and outputs the image data to the tablet terminal 4.

ステップSA5において、CPU10は、リサイズ画像に対して画像処理を施す。具体的には、CPU10は、フレームメモリー12aから画像データを読み出して、リサイズ画像に対して所定の画像処理(例えば、OSD(On Screen Display)画像を重畳する処理、キーストーン補正処理、フレームレート変換処理、またはオーバードライブ処理など)を施す。CPU10は、画像処理後のリサイズ画像(投射画像)を示す画像データをフレームメモリー12bに書き込む。ステップSA6において、CPU10は、フレームメモリー12bに記憶された画像データに応じて、液晶パネル152を駆動する。具体的には、CPU10は、フレームメモリー12bから画像データを読み出して、パネル駆動回路155に出力する。   In step SA5, the CPU 10 performs image processing on the resized image. Specifically, the CPU 10 reads out image data from the frame memory 12a and performs predetermined image processing (for example, processing for superimposing an OSD (On Screen Display) image on the resized image, keystone correction processing, frame rate conversion). Process or overdrive process). The CPU 10 writes image data indicating the resized image (projected image) after the image processing in the frame memory 12b. In step SA6, the CPU 10 drives the liquid crystal panel 152 according to the image data stored in the frame memory 12b. Specifically, the CPU 10 reads out image data from the frame memory 12 b and outputs it to the panel drive circuit 155.

ステップSA7において、CPU10は、スクリーンSCに投射された投射画像上で、指示体3を用いた筆記動作が行われたことを検出する。具体的には、CPU10は、イメージセンサー16を制御して、所定の時間間隔(例えば、0.1秒毎)で撮像を行っている。CPU10は、撮像された画像を示す画像データを解析し、指示体3から出力された光を検出することにより筆記動作を検出する。ステップSA8において、CPU10は、ペン入力データを生成する。具体的には、CPU10は、撮像された画像における光の位置に基づいて、指示体3により指示された点の投射画像上における座標を算出する。CPU10は、生成したペン入力データをRAM12に記憶する。ステップSA8の処理は、筆記動作が検出される度に行われ、複数のペン入力データが順次生成される。   In step SA7, the CPU 10 detects that the writing operation using the indicator 3 has been performed on the projected image projected on the screen SC. Specifically, the CPU 10 controls the image sensor 16 to perform imaging at a predetermined time interval (for example, every 0.1 second). The CPU 10 analyzes the image data indicating the captured image and detects the writing operation by detecting the light output from the indicator 3. In step SA8, the CPU 10 generates pen input data. Specifically, the CPU 10 calculates the coordinates on the projected image of the point indicated by the indicator 3 based on the position of light in the captured image. The CPU 10 stores the generated pen input data in the RAM 12. The process of step SA8 is performed every time a writing operation is detected, and a plurality of pen input data are sequentially generated.

ステップSA9において、CPU10は、ペン入力データに対して座標変換処理を行う。座標変換処理とは、座標データにより示される座標の座標系を、入力画像の座標系に変換することをいう。ここでは、CPU10は、ペン入力データにより示される投射画像の座標の座標系を、リサイズ処理がされる前の(元の)入力画像の座標系に変換する。具体的な処理は、以下の通りである。まず、CPU10は、ペン入力データにより示される投射画像上の座標を、リサイズ画像上の座標に変換する。投射画像上の座標と、リサイズ画像上の座標との変換は、ステップSA5において行われる画像処理の内容に応じて決まる式を用いて行われる。例えば、ステップSA5において、リサイズ画像に対してキーストーン補正処理が行われる場合には、CPU10は、このキーストーン補正処理の逆変換をする処理を行い、投射画像上の座標を、リサイズ画像上の座標に変換する。次に、CPU10は、変換後のリサイズ画像上の座標を、元の入力画像における座標に変換する。リサイズ画像上の座標(Xi,Yi)と、元の入力画像上の座標(xi,yi)との変換は、RAM12に記憶されたオフセット値αと変換係数βとを用いて、以下の式(5)により行われる。

Figure 2014182468
CPU10は、変換後の座標(xi,yi)をRAM12に記憶する。 In step SA9, the CPU 10 performs a coordinate conversion process on the pen input data. The coordinate conversion process refers to converting the coordinate system of the coordinates indicated by the coordinate data into the coordinate system of the input image. Here, the CPU 10 converts the coordinate system of the coordinates of the projection image indicated by the pen input data into the coordinate system of the (original) input image before the resizing process. Specific processing is as follows. First, the CPU 10 converts coordinates on the projection image indicated by the pen input data into coordinates on the resized image. The conversion between the coordinates on the projection image and the coordinates on the resized image is performed using an expression determined according to the contents of the image processing performed in step SA5. For example, when the keystone correction process is performed on the resized image in step SA5, the CPU 10 performs a process of performing an inverse conversion of the keystone correction process, and the coordinates on the projection image are converted to the coordinates on the resized image. Convert to coordinates. Next, the CPU 10 converts the coordinates on the resized image after conversion into the coordinates in the original input image. Conversion between the coordinates (Xi, Yi) on the resized image and the coordinates (xi, yi) on the original input image uses the offset value α and the conversion coefficient β stored in the RAM 12 and the following equation ( 5).
Figure 2014182468
The CPU 10 stores the converted coordinates (xi, yi) in the RAM 12.

ステップSA10において、タブレット端末4のCPU40は、プロジェクター1から取得した画像データにより示されるリサイズ画像に応じた画像を、タッチパネル44に表示する。具体的には、CPU40は、画像データにより示されるリサイズ画像のサイズをタッチパネル44に応じたサイズに変更し、サイズが変更されたリサイズ画像をタッチパネル44に表示する。ステップSA10の処理により、タッチパネル44には、投射画像に対応する画像が表示される。ステップSA11において、CPU40は、タッチ入力データを生成する。具体的には、CPU40は、タッチパネル44上でユーザーが指示した点の物理的な座標を、画像データにより示されるリサイズ画像上の点の座標に変換する。ステップSA11の処理は、タッチパネル44が、ユーザーによる操作を検出したことを契機として行われる。タッチパネル44上の物理的な座標とリサイズ画像上の点の座標との変換は、予め定められた式を用いて行われる。CPU40は、生成したタッチ入力データをRAM42に記憶する。ステップSA12において、CPU40は、RAM42からタッチ入力データを読み出して、プロジェクター1に出力する。なお、ステップSA11およびステップSA12の処理は、タッチパネル44が、ユーザーによる操作を検出する度に行われ、複数のタッチ入力データが順次プロジェクター1に出力される。   In step SA 10, the CPU 40 of the tablet terminal 4 displays an image corresponding to the resized image indicated by the image data acquired from the projector 1 on the touch panel 44. Specifically, the CPU 40 changes the size of the resized image indicated by the image data to a size corresponding to the touch panel 44 and displays the resized image whose size has been changed on the touch panel 44. By the process of step SA10, an image corresponding to the projection image is displayed on the touch panel 44. In step SA11, the CPU 40 generates touch input data. Specifically, the CPU 40 converts the physical coordinates of the point designated by the user on the touch panel 44 into the coordinates of the point on the resized image indicated by the image data. The process of step SA11 is performed when the touch panel 44 detects an operation by the user. The conversion between the physical coordinates on the touch panel 44 and the coordinates of the points on the resized image is performed using a predetermined formula. The CPU 40 stores the generated touch input data in the RAM 42. In step SA <b> 12, the CPU 40 reads touch input data from the RAM 42 and outputs it to the projector 1. Note that the processes in steps SA11 and SA12 are performed each time the touch panel 44 detects an operation by the user, and a plurality of touch input data are sequentially output to the projector 1.

ステップSA13において、プロジェクター1のCPU10は、タブレット端末4から取得したタッチ入力データに対して座標変換処理を行う。ここでは、CPU10は、タッチ入力データにより示される、リサイズ画像の座標の座標系を、元の入力画像の座標系に変換する。具体的には、CPU10は、上述の式(5)により、タッチ入力データにより示されるリサイズ画像上の座標(Xi,Yi)を、元の入力画像における座標(xi,yi)に変換する。例えば、上述のサイズの例において、タッチ入力データにより示される座標(Xi,Yi)が(275,480)である場合、元の入力画像における座標(xi,yi)は(500,500)となる。CPU10は、変換後の座標(xi,yi)をRAM12に記憶する。なお、ペン入力データに対する座標変換処理(ステップSA9)により得られた座標(xi,yi)(以下、「ペン入力座標」という)と、タッチ入力データに対する座標変換処理(ステップSA13)により得られた座標(xi,yi)(以下、「タッチ入力座標」という)とは、互いに異なる識別子により区別された状態で、RAM12に記憶される。すなわち、ペン入力データに基づくペン入力座標とタッチ入力データに基づくタッチ入力座標とは、互いに異なる識別子により区別される。   In step SA <b> 13, the CPU 10 of the projector 1 performs coordinate conversion processing on the touch input data acquired from the tablet terminal 4. Here, the CPU 10 converts the coordinate system of the coordinates of the resized image indicated by the touch input data into the coordinate system of the original input image. Specifically, the CPU 10 converts the coordinates (Xi, Yi) on the resized image indicated by the touch input data into the coordinates (xi, yi) in the original input image by the above formula (5). For example, in the above example of size, when the coordinates (Xi, Yi) indicated by the touch input data are (275, 480), the coordinates (xi, yi) in the original input image are (500, 500). . The CPU 10 stores the converted coordinates (xi, yi) in the RAM 12. The coordinates (xi, yi) obtained by the coordinate conversion process (step SA9) for the pen input data (hereinafter referred to as “pen input coordinates”) and the coordinate conversion process (step SA13) for the touch input data. Coordinates (xi, yi) (hereinafter referred to as “touch input coordinates”) are stored in the RAM 12 in a state distinguished from each other by different identifiers. That is, the pen input coordinates based on the pen input data and the touch input coordinates based on the touch input data are distinguished by different identifiers.

ステップSA14において、CPU10は、ペン入力データとタッチ入力データとを統合し、統合座標データを生成する。ペン入力データとタッチ入力データとの統合は、例えば、ペン入力座標およびタッチ入力座標のうち、一方の座標が選択されることにより行われる。CPU10は、指示体3を用いた一連の筆記動作とタッチパネル44の一連の操作とのうち先に開始された一方により得られた座標を選択する。ここで、指示体3を用いた一連の筆記動作とは、ユーザーが指示体3の先端をスクリーンSCに押し付けてから離すまでの動作、または、これらの動作の複数の集合であって、ユーザーが指示体3の先端をスクリーンSCから離している時間が所定の時間よりも短い動作をいう。タッチパネル44の一連の操作とは、ユーザーがタッチパネル44に触れてから離すまでの動作、または、これらの動作の複数の集合であって、ユーザーがタッチパネル44に触れていない時間が所定の時間よりも短い動作をいう。指示体3からの入力およびタッチパネル44からの入力がいずれも無い状態で指示体3を用いた一連の筆記動作またはタッチパネル44の一連の操作の一方が開始されると、当該一方が終了するまでは、当該一方により得られた座標が選択される。指示体3からの入力が無い状態とは、ユーザーが指示体3の先端をスクリーンSCから離している時間が所定の時間以上となった状態をいう。タッチパネル44からの入力が無い状態とは、ユーザーがタッチパネル44に触れていない時間が所定の時間以上となった状態をいう。図7に示す例では、指示体3を用いた一連の筆記動作は、タッチパネル44の一連の操作よりも先に開始されており、CPU10は、ペン入力座標を選択する。CPU10は、生成された統合座標データをRAM12に記憶する。ステップSA15において、CPU10は、RAM12から統合座標データを読み出して、PC2に出力する。   In step SA14, the CPU 10 integrates the pen input data and the touch input data to generate integrated coordinate data. The integration of the pen input data and the touch input data is performed, for example, by selecting one of the pen input coordinates and the touch input coordinates. The CPU 10 selects the coordinates obtained by one of the series of writing operations using the indicator 3 and the series of operations on the touch panel 44 started first. Here, a series of writing operations using the indicator 3 is an operation from when the user presses the tip of the indicator 3 against the screen SC until it is released, or a plurality of these operations. An operation in which the time during which the tip of the indicator 3 is separated from the screen SC is shorter than a predetermined time. A series of operations on the touch panel 44 is an operation from when the user touches the touch panel 44 until it is released, or a set of these operations, and a time when the user does not touch the touch panel 44 is longer than a predetermined time. A short action. When one of a series of writing operations using the indicator 3 or a series of operations on the touch panel 44 is started in a state where there is no input from the indicator 3 and no input from the touch panel 44, until one of the series ends. , The coordinates obtained by the one are selected. The state in which there is no input from the indicator 3 refers to a state in which the time during which the user separates the tip of the indicator 3 from the screen SC is longer than a predetermined time. The state where there is no input from the touch panel 44 refers to a state where the user has not touched the touch panel 44 for a predetermined time or more. In the example illustrated in FIG. 7, a series of writing operations using the indicator 3 is started before a series of operations on the touch panel 44, and the CPU 10 selects pen input coordinates. The CPU 10 stores the generated integrated coordinate data in the RAM 12. In step SA15, the CPU 10 reads the integrated coordinate data from the RAM 12 and outputs it to the PC 2.

ステップSA16において、PC2のCPU20は、一次画像上に、プロジェクター1から取得した統合座標データに応じた画を描く。具体的には、CPU20は、統合座標データにより示される座標(xi,yi)(以下、「統合座標」という)の複数を補間することにより、スクリーンSC上(投射面上)でユーザーが指示体3により指示した点、またはタッチパネル44上でユーザーが指示した点の軌跡に応じた画(以下、「軌跡画像」という)を描く。CPU20は、プロジェクター1から順次出力される統合座標が取得された順序をRAM22に記憶しており、この順序に従って複数の統合座標を補間して結んだ画像を軌跡画像とする。統合座標が取得された順序は、CPU20が、プロジェクター1から統合座標データを取得したときに、統合座標とともにRAM22に記憶される。そして、CPU20は、軌跡画像と一次画像とを合成し二次画像を生成する。CPU20は、二次画像を示す画像データをRAM22に記憶する。ステップSA17において、CPU20は、RAM22から二次画像を示す画像データを読み出して、当該画像データを示す映像信号をプロジェクター1に出力する。   In step SA16, the CPU 20 of the PC 2 draws an image according to the integrated coordinate data acquired from the projector 1 on the primary image. Specifically, the CPU 20 interpolates a plurality of coordinates (xi, yi) (hereinafter referred to as “integrated coordinates”) indicated by the integrated coordinate data, whereby the user designates the indicator on the screen SC (on the projection surface). An image (hereinafter referred to as “trajectory image”) corresponding to the point designated by 3 or the locus of the point designated by the user on the touch panel 44 is drawn. The CPU 20 stores the order in which the integrated coordinates sequentially output from the projector 1 are acquired in the RAM 22, and uses an image formed by interpolating a plurality of integrated coordinates in accordance with this order as a trajectory image. The order in which the integrated coordinates are acquired is stored in the RAM 22 together with the integrated coordinates when the CPU 20 acquires the integrated coordinate data from the projector 1. Then, the CPU 20 combines the trajectory image and the primary image to generate a secondary image. The CPU 20 stores image data indicating the secondary image in the RAM 22. In step SA <b> 17, the CPU 20 reads image data indicating a secondary image from the RAM 22, and outputs a video signal indicating the image data to the projector 1.

ステップSA18からステップSA22において、プロジェクター1のCPU10は、二次画像に対して、ステップSA2からSA6と同様の処理を行う。ステップSA22の処理により、スクリーンSCには二次画像に基づく投射画像が投射される。ステップSA23において、タブレット端末4のCPU40は、ステップSA10と同様の処理により、二次画像のリサイズ画像に応じた画像をタッチパネル44に表示する。以上の処理により、タブレット端末4を、PC2を操作するためのポインティングデバイスとして機能させることができる。これにより、入力画像(および投射画像)には、指示体3を用いた筆記動作またはタッチパネル44の操作に応じた画が描かれる。したがって、入力画像上に描画を行いたい場合に、ユーザーが、指示体3を用いて筆記動作を行う方法と、タッチパネル44を操作する方法とを適宜選択することが可能になる。タッチパネル44を操作する方法によれば、スクリーンSCから離れた場所からでも描画を行うことができるため、描画を行う際の距離的な制約を抑制できる。投射システムPS1の利用例としては、学校の教室で、教師がスクリーンSC上で筆記動作を行って入力画像に描画し、生徒がスクリーンSCから離れたところでタブレット端末4を操作して入力画像に描画することが考えられる。   In steps SA18 to SA22, the CPU 10 of the projector 1 performs the same processing as in steps SA2 to SA6 on the secondary image. By the process of step SA22, a projection image based on the secondary image is projected onto the screen SC. In step SA23, the CPU 40 of the tablet terminal 4 displays an image corresponding to the resized image of the secondary image on the touch panel 44 by the same processing as in step SA10. Through the above processing, the tablet terminal 4 can function as a pointing device for operating the PC 2. Thereby, an image corresponding to the writing operation using the indicator 3 or the operation of the touch panel 44 is drawn on the input image (and the projection image). Therefore, when drawing on the input image, the user can appropriately select a method for performing a writing operation using the indicator 3 and a method for operating the touch panel 44. According to the method of operating the touch panel 44, since drawing can be performed even from a place away from the screen SC, it is possible to suppress distance limitations when performing drawing. As an example of the use of the projection system PS1, in a school classroom, a teacher performs a writing operation on the screen SC and draws it on an input image, and a student operates the tablet terminal 4 at a distance from the screen SC to draw on the input image. It is possible to do.

(実施形態2)
図9は、本発明の第2実施形態に係る投射システムPS2の全体構成を示す図である。以下では、投射システムPS2について、投射システムPS1と異なる部分を中心に説明する。投射システムPS2は、上述のPC2に代えて、DVDプレーヤー5などのAV機器が映像信号源として用いられる。DVDプレーヤー5は、映像信号をプロジェクター1に出力する。DVDプレーヤー5は、ケーブルによりプロジェクター1のHDMI端子と有線接続されている。投射システムPS2において、プロジェクター1は、入力画像上に画を描くための描画プログラムを実行する。タブレット端末4は、プロジェクター1が描画プログラムを実行している場合において、プロジェクター1を操作するためのポインティングデバイスとして機能する。ユーザーがタッチパネル44を操作すると、プロジェクター1において、当該操作に応じた画が入力画像上に描かれる。
(Embodiment 2)
FIG. 9 is a diagram showing an overall configuration of a projection system PS2 according to the second embodiment of the present invention. Hereinafter, the projection system PS2 will be described with a focus on the differences from the projection system PS1. In the projection system PS2, an AV device such as a DVD player 5 is used as a video signal source instead of the above-described PC2. The DVD player 5 outputs a video signal to the projector 1. The DVD player 5 is wired to the HDMI terminal of the projector 1 via a cable. In the projection system PS2, the projector 1 executes a drawing program for drawing an image on the input image. The tablet terminal 4 functions as a pointing device for operating the projector 1 when the projector 1 is executing a drawing program. When the user operates the touch panel 44, the projector 1 draws an image corresponding to the operation on the input image.

図10は、投射システムPS2の機能的構成を示すブロック図である。プロジェクター1は、図2に示した座標変換部109および座標データ出力部111に代えて、描画部115および画像データ合成部116を有する。描画部115は、統合部110により生成された統合座標データに応じた画を描く。画像データ合成部116は、描画部115により描かれた画と、一次画像のリサイズ画像とを合成し二次画像を示す画像データを生成する。画像処理部103は、画像データ合成部116により生成された画像データが示す二次画像に対して、所定の画像処理を施す。画像処理部103は、画像処理が施された二次画像を投射部104に出力する。画像データ取得部112は、画像データ合成部116により生成された画像データを取得する。なお、投射システムPS2において、座標変換部107は、座標データ生成部106により生成されたペン入力データにより示される座標の座標系を、リサイズ画像の座標系に変換する。実施形態2に係るプロジェクター1において、プログラムを実行しているCPU10は、座標データ生成部106、座標変換部107、統合部110、画像データ取得部112、画像圧縮部113、描画部115、および画像データ合成部116の一例である。   FIG. 10 is a block diagram showing a functional configuration of the projection system PS2. The projector 1 includes a drawing unit 115 and an image data combining unit 116 instead of the coordinate conversion unit 109 and the coordinate data output unit 111 illustrated in FIG. The drawing unit 115 draws an image corresponding to the integrated coordinate data generated by the integration unit 110. The image data synthesis unit 116 synthesizes the image drawn by the drawing unit 115 and the resized image of the primary image, and generates image data indicating the secondary image. The image processing unit 103 performs predetermined image processing on the secondary image indicated by the image data generated by the image data combining unit 116. The image processing unit 103 outputs the secondary image on which the image processing has been performed to the projection unit 104. The image data acquisition unit 112 acquires the image data generated by the image data synthesis unit 116. In the projection system PS2, the coordinate conversion unit 107 converts the coordinate system of the coordinates indicated by the pen input data generated by the coordinate data generation unit 106 into the coordinate system of the resized image. In the projector 1 according to the second embodiment, the CPU 10 executing the program includes a coordinate data generation unit 106, a coordinate conversion unit 107, an integration unit 110, an image data acquisition unit 112, an image compression unit 113, a drawing unit 115, and an image. It is an example of the data composition unit.

図11は、投射システムPS2において実行される処理を示すシーケンスチャートである。以下の処理は、例えば、DVDプレーヤー5がプロジェクター1に映像信号(ここでは、一次画像を示す映像信号)を出力している状態で、プロジェクター1に描画プログラムを実行させるための指示が入力されたことを契機として開始される。描画プログラムを実行させるための指示は、ユーザーがコントローラーRCを操作することにより入力される。   FIG. 11 is a sequence chart showing processing executed in the projection system PS2. In the following processing, for example, an instruction for causing the projector 1 to execute a drawing program is input in a state where the DVD player 5 outputs a video signal (here, a video signal indicating a primary image) to the projector 1. It starts with this. An instruction for executing the drawing program is input by the user operating the controller RC.

ステップSB1において、プロジェクター1のCPU10は、DVDプレーヤー5から映像信号を取得する。ステップSB2からステップSB8において、CPU10は、ステップSA2からステップSA8と同様の処理を行う。   In step SB 1, the CPU 10 of the projector 1 acquires a video signal from the DVD player 5. In steps SB2 to SB8, the CPU 10 performs the same processing as in steps SA2 to SA8.

ステップSB9において、CPU10は、ペン入力データにより示される投射画像上の座標を、リサイズ画像上の座標に変換する。投射画像上の座標と、リサイズ画像上の座標との変換は、ステップSB5において行われる画像処理の内容に応じて決まる式を用いて行われる。CPU10は、変換後のリサイズ画像上の座標(Xi,Yi)をRAM12に記憶する。   In step SB9, the CPU 10 converts coordinates on the projection image indicated by the pen input data into coordinates on the resized image. The conversion between the coordinates on the projection image and the coordinates on the resized image is performed using an expression determined according to the contents of the image processing performed in step SB5. The CPU 10 stores the coordinates (Xi, Yi) on the resized image after conversion in the RAM 12.

ステップSB10からステップSB12において、タブレット端末4のCPU40は、ステップSA10からステップSA12と同様の処理を行う。ステップSB13において、プロジェクター1のCPU10は、ペン入力データとタッチ入力データとを統合し、統合座標データを生成する。なお、ステップSB13において統合されるペン入力データとタッチ入力データとは、いずれもリサイズ画像上の座標(Xi,Yi)を示しており、統合座標データにより示される統合座標も、リサイズ画像上の座標(Xi,Yi)を示す。ステップSB14において、CPU10は、統合座標データに応じた画を描く。具体的には、CPU10は、複数の統合座標(Xi,Yi)を補間することにより、軌跡画像を描く。CPU10は、軌跡画像をRAM12に記憶する。ステップSB15において、CPU10は、軌跡画像と、一次画像のリサイズ画像とを合成し二次画像を生成する。具体的には、CPU10は、フレームメモリー12aから一次画像のリサイズ画像を、RAM12から軌跡画像をそれぞれ読み出して、リサイズ画像上に軌跡画像を合成(オーバーレイ)する。CPU10は、生成された二次画像を示す画像データをフレームメモリー12aに書き込む。   In steps SB10 to SB12, the CPU 40 of the tablet terminal 4 performs the same processing as in steps SA10 to SA12. In step SB13, the CPU 10 of the projector 1 integrates the pen input data and the touch input data, and generates integrated coordinate data. Note that the pen input data and the touch input data integrated in step SB13 both indicate coordinates (Xi, Yi) on the resized image, and the integrated coordinates indicated by the integrated coordinate data are also coordinates on the resized image. (Xi, Yi) is shown. In step SB14, the CPU 10 draws an image corresponding to the integrated coordinate data. Specifically, the CPU 10 draws a trajectory image by interpolating a plurality of integrated coordinates (Xi, Yi). The CPU 10 stores the trajectory image in the RAM 12. In step SB15, the CPU 10 combines the trajectory image and the resized image of the primary image to generate a secondary image. Specifically, the CPU 10 reads the resized image of the primary image from the frame memory 12a and the trajectory image from the RAM 12, and synthesizes (overlays) the trajectory image on the resized image. The CPU 10 writes image data indicating the generated secondary image in the frame memory 12a.

ステップSB16からステップSB19において、CPU10は、二次画像に対して、ステップSB3からステップSB6と同様の処理を行う。以上の処理により、タブレット端末4を、プロジェクター1を操作するためのポインティングデバイスとして機能させることができる。これにより、入力画像(および投射画像)には、指示体3を用いた筆記動作またはタッチパネル44の操作に応じた画が描かれる。タッチパネル44を操作する方法によれば、スクリーンSCから離れた場所からでも描画を行うことができるため、描画を行う際の距離的な制約を抑制できる。   In Step SB16 to Step SB19, the CPU 10 performs the same processing as Step SB3 to Step SB6 on the secondary image. Through the above processing, the tablet terminal 4 can function as a pointing device for operating the projector 1. Thereby, an image corresponding to the writing operation using the indicator 3 or the operation of the touch panel 44 is drawn on the input image (and the projection image). According to the method of operating the touch panel 44, since drawing can be performed even from a place away from the screen SC, it is possible to suppress distance limitations when performing drawing.

<変形例>
本発明は、上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下で説明する変形例のうち、2つ以上のものが組み合わされて用いられても良い。
<Modification>
The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Of the modifications described below, two or more may be used in combination.

(1)変形例1
上述の実施形態では、統合座標データが、ペン入力座標(またはペン入力データが示す座標、以下同様)とタッチ入力座標(またはタッチ入力データが示す座標、以下同様)のうち、一方の座標を示す例を説明した。この点、統合座標データは、ペン入力座標とタッチ入力座標の両方の座標を示してもよい。この場合、ペン入力座標とタッチ入力座標とは、互いに異なる識別子により区別されて、RAM12に記憶される。そして、この場合、互いに区別された、ペン入力座標を識別する識別子とタッチ入力座標を識別する識別子とは、外部装置(またはプロジェクター1)の異なる入力デバイスに対応していてもよい。例えば、PC2が、上述のハードウェア構成に加えて、入力デバイスとしてのタッチパネルを有しており、ペン入力座標を識別する識別子がPC2のマウスに、タッチ入力座標を識別する識別子がこのタッチパネルにそれぞれ対応していてもよい。この例によれば、ユーザーが指示体3を用いて筆記動作を行うとPC2のマウスの操作に応じた描画が行われ、ユーザーがタッチパネル44を操作するとPC2のタッチパネルの操作に応じた描画が行われる。
(1) Modification 1
In the above-described embodiment, the integrated coordinate data indicates one of the pen input coordinates (or the coordinates indicated by the pen input data, the same applies hereinafter) and the touch input coordinates (or the coordinates indicated by the touch input data, the same applies hereinafter). An example was explained. This point, the integrated coordinate data, may indicate the coordinates of both the pen input coordinates and the touch input coordinates. In this case, the pen input coordinates and the touch input coordinates are distinguished from each other by different identifiers and stored in the RAM 12. In this case, the identifier for identifying pen input coordinates and the identifier for identifying touch input coordinates, which are distinguished from each other, may correspond to different input devices of the external device (or projector 1). For example, in addition to the hardware configuration described above, the PC 2 has a touch panel as an input device. An identifier for identifying pen input coordinates is provided on the mouse of the PC 2, and an identifier for identifying touch input coordinates is provided on the touch panel. It may correspond. According to this example, when the user performs a writing operation using the indicator 3, drawing is performed according to the mouse operation of the PC 2, and when the user operates the touch panel 44, drawing according to the operation of the touch panel of the PC 2 is performed. Is called.

(2)変形例2
投射システムにおいて行われる処理は、実施形態で説明した処理に限らない。例えば、画像データの圧縮が、1フレームごとに行われてもよい。
また、上述の実施形態では、画像処理が施される前の画像データがフレームメモリー12aから読み出され、タブレット端末4に出力される例を説明した。この点、画像処理が行われた後の画像データがフレームメモリー12bから読み出され、読み出された画像データに対して所定の処理が行われた画像データがタブレット端末4に出力されてもよい。例えば、リサイズ画像に対してキーストーン補正処理が行われる場合には、CPU10は、キーストーン補正処理後の画像データに、このキーストーン補正処理の逆変換をする処理を行い、逆変換がされた画像データをタブレット端末4に出力してもよい。なお、この場合には、プロジェクター1のRAM12は、必ずしも2枚のフレームメモリーを有していなくてもよい。
(2) Modification 2
The process performed in the projection system is not limited to the process described in the embodiment. For example, compression of image data may be performed for each frame.
In the above-described embodiment, an example in which image data before image processing is read from the frame memory 12a and output to the tablet terminal 4 has been described. In this regard, the image data after the image processing is performed may be read from the frame memory 12b, and the image data obtained by performing a predetermined process on the read image data may be output to the tablet terminal 4. . For example, when the keystone correction process is performed on the resized image, the CPU 10 performs a process of performing reverse conversion of the keystone correction process on the image data after the keystone correction process, and the reverse conversion is performed. The image data may be output to the tablet terminal 4. In this case, the RAM 12 of the projector 1 does not necessarily have two frame memories.

また、上述の実施形態では、指示体3を用いた筆記動作がタッチパネル44の操作よりも前に行われた場合の処理例を示したが、いうまでもなく、タッチパネル44の操作が指示体3を用いた筆記動作よりも前に行われてもよい。この場合、ステップSA7乃至ステップSA9(ステップSB7乃至ステップSB9)に示した処理は、ステップSA11およびステップSA12(ステップSB11およびステップSB12)に示した処理よりも後に行われる。
さらに、上述の実施形態では、一次画像上に統合座標データに応じた画が描かれる例を説明したが、二次画像上に統合座標データに応じた画がさらに描かれてもよい。
Further, in the above-described embodiment, the processing example in the case where the writing operation using the indicator 3 is performed before the operation of the touch panel 44 has been described, but it goes without saying that the operation of the touch panel 44 is the indicator 3. It may be performed before the writing operation using. In this case, the processes shown in steps SA7 to SA9 (steps SB7 to SB9) are performed after the processes shown in steps SA11 and SA12 (steps SB11 and SB12).
Furthermore, in the above-described embodiment, an example in which an image corresponding to the integrated coordinate data is drawn on the primary image has been described. However, an image corresponding to the integrated coordinate data may be further drawn on the secondary image.

(3)変形例3
上述の実施形態では、リサイズ処理において、1フレームごとにオフセット値αおよび変換係数βが算出される例を説明した。この点、プロジェクター1に映像信号が継続して入力されている間は、一度算出されたオフセット値αおよび変換係数βと同じ値を用いて入力画像がリサイズされてもよい。この場合、CPU10は、一度算出されたオフセット値αおよび変換係数βを、映像信号が入力されている間、RAM12に記憶しておき、これらの値を用いて複数の入力画像をリサイズする。
(3) Modification 3
In the above-described embodiment, the example in which the offset value α and the conversion coefficient β are calculated for each frame in the resizing process has been described. In this regard, while the video signal is continuously input to the projector 1, the input image may be resized using the same value as the offset value α and the conversion coefficient β calculated once. In this case, the CPU 10 stores the offset value α and the conversion coefficient β calculated once in the RAM 12 while the video signal is being input, and resizes a plurality of input images using these values.

(4)変形例4
リサイズ処理および座標変換処理について示した上述の式(1)乃至(5)はあくまで一例であり、これらの式とは異なる式により、リサイズ処理または座標変換処理が行われてもよい。例えば、上述の実施形態では、オフセット値が、入力画像から一律に除かれる画素の横方向の数を示す値である場合について説明したが、オフセット値は、入力画像から一律に除かれる画素の縦方向の数を示す値であってもよい。この場合、オフセット値は、式(1)とは異なる式により算出される。また、上述の実施形態では、リサイズ処理において入力画像が縮小される例を説明したが、リサイズ処理において入力画像が拡大されてもよい。
(4) Modification 4
The above-described formulas (1) to (5) shown for the resizing process and the coordinate conversion process are merely examples, and the resizing process or the coordinate conversion process may be performed by a formula different from these formulas. For example, in the above-described embodiment, the case has been described in which the offset value is a value indicating the number of pixels in the horizontal direction that are uniformly removed from the input image. It may be a value indicating the number of directions. In this case, the offset value is calculated by an expression different from Expression (1). In the above-described embodiment, the example in which the input image is reduced in the resizing process has been described. However, the input image may be enlarged in the resizing process.

(5)変形例5
投射システムの構成は、実施形態に記載された構成に限らない。例えば、実施形態1においては、プロジェクター1のIF部13が、USB端子を介してPC2に座標データを出力する例を説明したが、IF部13は無線LANインターフェースを介して座標データを出力してもよい。別の例で、複数台のタブレット端末4または複数本の指示体3が投射システムにおいて用いられてもよい。この場合、複数台のタブレット端末4から得られたタッチ入力座標の各々、または複数本の指示体3から得られたペン入力座標の各々は、互いに異なる識別子により区別されていてもよい。この例によれば、ユーザーがあるタッチパネル44を操作した場合と、他のタッチパネル44を操作した場合とで、外部装置(またはプロジェクター1)の異なる入力デバイスに対応する描画が行われる。さらに別の例で、DVDプレーヤー5に代えて、ビデオプレーヤーが用いられてもよい。
(5) Modification 5
The configuration of the projection system is not limited to the configuration described in the embodiment. For example, in the first embodiment, an example in which the IF unit 13 of the projector 1 outputs coordinate data to the PC 2 via the USB terminal has been described. However, the IF unit 13 outputs coordinate data via the wireless LAN interface. Also good. As another example, a plurality of tablet terminals 4 or a plurality of indicators 3 may be used in the projection system. In this case, each of the touch input coordinates obtained from the plurality of tablet terminals 4 or each of the pen input coordinates obtained from the plurality of indicators 3 may be distinguished by different identifiers. According to this example, drawing corresponding to different input devices of the external apparatus (or projector 1) is performed when the user operates a touch panel 44 and when another user operates the touch panel 44. In still another example, a video player may be used instead of the DVD player 5.

(6)変形例6
プロジェクター1の機能的構成は、図2または図10に示した構成に限らない。例えば、プロジェクター1は、図2および図10に示した機能的構成の両方を有していてもよい。この場合、プロジェクター1は、映像信号の入力源がPC2(すなわち描画プログラムを実行する外部装置)である場合には図7に示した処理を行い、映像信号の入力源がDVDプレーヤー5(すなわち描画プログラムを実行しない外部装置)である場合には図11に示した処理を行う。別の例で、撮像部105および座標データ生成部106は、プロジェクター1の外部構成であってもよい。この場合、プロジェクター1は、座標データ生成部106により生成されたペン入力データを取得する座標データ取得部を有する。
(6) Modification 6
The functional configuration of the projector 1 is not limited to the configuration shown in FIG. 2 or FIG. For example, the projector 1 may have both of the functional configurations shown in FIGS. In this case, the projector 1 performs the processing shown in FIG. 7 when the video signal input source is the PC 2 (that is, an external device that executes the rendering program), and the video signal input source is the DVD player 5 (that is, the rendering). In the case of an external device that does not execute the program, the processing shown in FIG. 11 is performed. In another example, the imaging unit 105 and the coordinate data generation unit 106 may be an external configuration of the projector 1. In this case, the projector 1 includes a coordinate data acquisition unit that acquires pen input data generated by the coordinate data generation unit 106.

(7)変形例7
投射システムにおいて用いられる各種機器のハードウェア構成は、図3乃至図6に示した構成に限らない。投射システムにおいて用いられる各種機器は、図7、図8、および図11に示した各ステップの処理を実行できれば、どのようなハードウェア構成であってもよい。例えば、上述の実施形態では、プロジェクター1が3枚の液晶パネル152を有する例を説明したが、プロジェクター1は、1枚の液晶パネル152とカラーホイールを組み合わせた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のDMDとカラーホイールを組み合わせた方式等により構成されていてもよい。
(7) Modification 7
The hardware configuration of various devices used in the projection system is not limited to the configuration shown in FIGS. The various devices used in the projection system may have any hardware configuration as long as the processing of each step shown in FIGS. 7, 8, and 11 can be executed. For example, in the above-described embodiment, an example in which the projector 1 includes the three liquid crystal panels 152 has been described. However, the projector 1 is a method in which one liquid crystal panel 152 and a color wheel are combined, and three digital mirror devices ( (DMD), a single DMD and a color wheel, or the like.

1…プロジェクター、2…パーソナルコンピューター、3…指示体、4…タブレット端末、101…映像信号取得部、102…画像調整部、103…画像処理部、104…投射部、105…撮像部、106…座標データ生成部、107…座標変換部、108…座標データ取得部、109…座標変換部、110…統合部、111…座標データ出力部、112…画像データ取得部、113…画像圧縮部、114…画像データ出力部、115…描画部、116…画像データ合成部、201…映像信号出力部、202…座標データ取得部、203…描画部、301…圧力検出部、302…発光部、401…座標変換部、402…座標データ出力部、403…画像データ取得部、404…表示制御部、10…CPU、11…ROM、12…RAM、13…IF部、14…画像処理回路、15…投射ユニット、16…イメージセンサー、17…受光部、18…操作パネル、19…入力処理部、151…光源、152…液晶パネル、153…光学系、154…光源駆動回路、155…パネル駆動回路、156…光学系駆動回路、20…CPU、21…ROM、22…RAM、23…IF部、24…表示部、25…入力部、30…制御部、31…圧力センサー、32…LED、40…CPU、41…ROM、42…RAM、43…IF部、44…タッチパネル。   DESCRIPTION OF SYMBOLS 1 ... Projector, 2 ... Personal computer, 3 ... Indicator, 4 ... Tablet terminal, 101 ... Video signal acquisition part, 102 ... Image adjustment part, 103 ... Image processing part, 104 ... Projection part, 105 ... Imaging part, 106 ... Coordinate data generation unit 107 ... Coordinate conversion unit 108 108 Coordinate data acquisition unit 109 ... Coordinate conversion unit 110 ... Integration unit 111 ... Coordinate data output unit 112 ... Image data acquisition unit 113 ... Image compression unit 114 ... Image data output unit, 115 ... Drawing unit, 116 ... Image data synthesis unit, 201 ... Video signal output unit, 202 ... Coordinate data acquisition unit, 203 ... Drawing unit, 301 ... Pressure detection unit, 302 ... Light emission unit, 401 ... Coordinate conversion unit, 402 ... Coordinate data output unit, 403 ... Image data acquisition unit, 404 ... Display control unit, 10 ... CPU, 11 ... ROM, 12 ... RAM, 13 IF unit, 14 ... image processing circuit, 15 ... projection unit, 16 ... image sensor, 17 ... light receiving unit, 18 ... operation panel, 19 ... input processing unit, 151 ... light source, 152 ... liquid crystal panel, 153 ... optical system, 154 ... light source drive circuit, 155 ... panel drive circuit, 156 ... optical system drive circuit, 20 ... CPU, 21 ... ROM, 22 ... RAM, 23 ... IF unit, 24 ... display unit, 25 ... input unit, 30 ... control unit, 31 ... Pressure sensor, 32 ... LED, 40 ... CPU, 41 ... ROM, 42 ... RAM, 43 ... IF unit, 44 ... Touch panel.

Claims (8)

映像信号が示す画像を投射する投射部と、
タッチパネルを有する電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する第1座標データ取得部と、
前記投射部により前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する第2座標データ取得部と、
前記第1座標データ取得部により取得された第1の座標データと、前記第2座標データ取得部により取得された第2の座標データとが統合された第3の座標データを生成する統合部と、
前記第1の画像上に、前記統合部により生成された第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する画像データ取得部と、
前記画像データ取得部により取得された画像データを前記電子機器に出力する画像データ出力部と、
前記第2の画像を示す映像信号を前記投射部に出力する出力部と
を有するプロジェクター。
A projection unit that projects an image indicated by the video signal;
A first coordinate data acquisition unit that acquires first coordinate data indicating coordinates of a point on a first image indicated by the video signal from an electronic device having a touch panel;
A second coordinate data acquisition unit for acquiring second coordinate data indicating coordinates of a point designated by a user on the projection surface on which the first image is projected by the projection unit;
An integration unit for generating third coordinate data in which the first coordinate data acquired by the first coordinate data acquisition unit and the second coordinate data acquired by the second coordinate data acquisition unit are integrated; ,
An image data acquisition unit that acquires image data indicating a second image in which an image corresponding to the third coordinate data generated by the integration unit is drawn on the first image;
An image data output unit that outputs the image data acquired by the image data acquisition unit to the electronic device;
An output unit that outputs a video signal indicating the second image to the projection unit.
前記第3の座標データは、前記第1の座標データが示す座標および前記第2の座標データが示す座標のうち、選択された一方の座標を示す
ことを特徴とする請求項1に記載のプロジェクター。
2. The projector according to claim 1, wherein the third coordinate data indicates one of coordinates selected from the coordinates indicated by the first coordinate data and the coordinates indicated by the second coordinate data. .
前記第3の座標データは、互いに異なる識別子により区別された、前記第1の座標データが示す座標および前記第2の座標データが示す座標を示す
ことを特徴とする請求項1に記載のプロジェクター。
The projector according to claim 1, wherein the third coordinate data indicates a coordinate indicated by the first coordinate data and a coordinate indicated by the second coordinate data, which are distinguished by different identifiers.
前記第1の座標データが示す座標の識別子と前記第2の座標データが示す座標の識別子とは、異なる入力デバイスに対応する
ことを特徴とする請求項3に記載のプロジェクター。
The projector according to claim 3, wherein the coordinate identifier indicated by the first coordinate data and the coordinate identifier indicated by the second coordinate data correspond to different input devices.
前記統合部により生成された第3の座標データを、前記映像信号の入力源である外部装置に出力する座標データ出力部を有し、
前記画像データ取得部は、前記外部装置から前記画像データを取得する
ことを特徴とする請求項1乃至4のいずれか1項に記載のプロジェクター。
A coordinate data output unit that outputs the third coordinate data generated by the integration unit to an external device that is an input source of the video signal;
The projector according to claim 1, wherein the image data acquisition unit acquires the image data from the external device.
前記第3の座標データに応じた画を描く描画部と、
前記第1の画像と、前記描画部により描かれた画とを合成し、前記画像データを生成する合成部とを有し、
前記画像データ取得部は、前記合成部から前記画像データを取得する
ことを特徴とする請求項1乃至4のいずれか1項に記載のプロジェクター。
A drawing unit for drawing an image according to the third coordinate data;
A synthesis unit that synthesizes the first image and the image drawn by the drawing unit and generates the image data;
The projector according to claim 1, wherein the image data acquisition unit acquires the image data from the synthesis unit.
プロジェクターと電子機器とを有し、
前記プロジェクターは、
映像信号が示す画像を投射する投射部と、
前記電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する第1座標データ取得部と、
前記投射部により前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する第2座標データ取得部と、
前記第1座標データ取得部により取得された第1の座標データと、前記第2座標データ取得部により取得された第2の座標データとが統合された第3の座標データを生成する統合部と、
前記第1の画像上に、前記統合部により生成された第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する画像データ取得部と、
前記画像データ取得部により取得された画像データを前記電子機器に出力する画像データ出力部と、
前記第2の画像を示す映像信号を前記投射部に出力する出力部と
を有し、
前記電子機器は、
タッチパネルと、
前記タッチパネル上でユーザーが指示した点の座標を、第1の画像上の点の座標に変換し、前記第1の座標データを生成する座標変換部と、
前記座標変換部により生成された第1の座標データを、前記プロジェクターに出力する座標データ出力部と、
前記プロジェクターから出力された画像データが示す前記第2の画像を、前記タッチパネルに表示させる表示制御部と
を有する投射システム。
A projector and an electronic device,
The projector is
A projection unit that projects an image indicated by the video signal;
A first coordinate data acquisition unit that acquires, from the electronic device, first coordinate data indicating the coordinates of a point on the first image indicated by the video signal;
A second coordinate data acquisition unit for acquiring second coordinate data indicating coordinates of a point designated by a user on the projection surface on which the first image is projected by the projection unit;
An integration unit for generating third coordinate data in which the first coordinate data acquired by the first coordinate data acquisition unit and the second coordinate data acquired by the second coordinate data acquisition unit are integrated; ,
An image data acquisition unit that acquires image data indicating a second image in which an image corresponding to the third coordinate data generated by the integration unit is drawn on the first image;
An image data output unit that outputs the image data acquired by the image data acquisition unit to the electronic device;
An output unit that outputs a video signal indicating the second image to the projection unit;
The electronic device is
A touch panel;
A coordinate conversion unit that converts the coordinates of the point designated by the user on the touch panel into the coordinates of the point on the first image, and generates the first coordinate data;
A coordinate data output unit that outputs the first coordinate data generated by the coordinate conversion unit to the projector;
A projection control system comprising: a display control unit configured to display the second image indicated by the image data output from the projector on the touch panel.
映像信号が示す画像を投射部が投射する工程と、
タッチパネルを有する電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する工程と、
前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する工程と、
前記第1の座標データと、前記第2の座標データとが統合された第3の座標データを生成する工程と、
前記第1の画像上に、前記第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する工程と、
前記画像データを前記電子機器に出力する工程と、
前記第2の画像を示す映像信号を前記投射部に出力する工程と
を有するプロジェクターの制御方法。
A step in which the projection unit projects an image indicated by the video signal;
Obtaining, from an electronic device having a touch panel, first coordinate data indicating the coordinates of a point on a first image indicated by the video signal;
Obtaining second coordinate data indicating the coordinates of a point designated by the user on the projection surface on which the first image is projected;
Generating third coordinate data in which the first coordinate data and the second coordinate data are integrated;
Obtaining image data indicating a second image in which an image corresponding to the third coordinate data is drawn on the first image;
Outputting the image data to the electronic device;
And a step of outputting a video signal indicating the second image to the projection unit.
JP2013055164A 2013-03-18 2013-03-18 Projector, projection system, and projector control method Expired - Fee Related JP6194605B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013055164A JP6194605B2 (en) 2013-03-18 2013-03-18 Projector, projection system, and projector control method
US14/180,715 US9406280B2 (en) 2013-03-18 2014-02-14 Image display device, image display system, and method of controlling image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013055164A JP6194605B2 (en) 2013-03-18 2013-03-18 Projector, projection system, and projector control method

Publications (2)

Publication Number Publication Date
JP2014182468A true JP2014182468A (en) 2014-09-29
JP6194605B2 JP6194605B2 (en) 2017-09-13

Family

ID=51701150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013055164A Expired - Fee Related JP6194605B2 (en) 2013-03-18 2013-03-18 Projector, projection system, and projector control method

Country Status (1)

Country Link
JP (1) JP6194605B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159543A1 (en) * 2014-04-18 2015-10-22 セイコーエプソン株式会社 Display system, display device, and display control method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324462A (en) * 1999-05-07 2000-11-24 Seiko Epson Corp Meeting system and information storage medium
JP2011199450A (en) * 2010-03-18 2011-10-06 Konica Minolta Business Technologies Inc Conference system, information processing apparatus, display method, and display program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324462A (en) * 1999-05-07 2000-11-24 Seiko Epson Corp Meeting system and information storage medium
JP2011199450A (en) * 2010-03-18 2011-10-06 Konica Minolta Business Technologies Inc Conference system, information processing apparatus, display method, and display program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159543A1 (en) * 2014-04-18 2015-10-22 セイコーエプソン株式会社 Display system, display device, and display control method

Also Published As

Publication number Publication date
JP6194605B2 (en) 2017-09-13

Similar Documents

Publication Publication Date Title
JP6244627B2 (en) Image display device, projector, and control method of image display device
US9406280B2 (en) Image display device, image display system, and method of controlling image display device
CN106851234B (en) Projector and control method of projector
US9830023B2 (en) Image display apparatus and method of controlling image display apparatus
JP4770197B2 (en) Presentation control apparatus and program
JP2012108479A (en) Projection type display device and control method thereof
JP2018036540A (en) Display device, and method for controlling display device
JP2018036471A (en) Display device, display system, and method for controlling display device
JP5152317B2 (en) Presentation control apparatus and program
JP6194605B2 (en) Projector, projection system, and projector control method
JP2018022013A (en) Display device, display system, and method for controlling display device
JP6766716B2 (en) Information processing equipment, image display program, image display method and display system
JP6728849B2 (en) Display device and display device control method
JP6323035B2 (en) Display device and display method
JP6232721B2 (en) Projector, projection system, and projector control method
JP2009276507A (en) Projection type display device, control method and control program for projection type display device
JP2018132769A (en) Image display device, and control method of image display device
JP2018054912A (en) Projection-type display device and method for controlling the same
JP7195816B2 (en) PROJECTION DEVICE, PROJECTION DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5899993B2 (en) Image display device, image display system, and control method of image display device
JP2018136364A (en) Display system, method for controlling display system, indication body, and display
JP2017169086A (en) Display device, control method for display device, and program
JP2009193025A (en) Image display device and highlighting method
JP2018078475A (en) Control program, control method, and control device
JP2017198779A (en) Projection type display device and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170731

R150 Certificate of patent or registration of utility model

Ref document number: 6194605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees