JP2014182468A - Projector, projection system, and control method of projector - Google Patents
Projector, projection system, and control method of projector Download PDFInfo
- Publication number
- JP2014182468A JP2014182468A JP2013055164A JP2013055164A JP2014182468A JP 2014182468 A JP2014182468 A JP 2014182468A JP 2013055164 A JP2013055164 A JP 2013055164A JP 2013055164 A JP2013055164 A JP 2013055164A JP 2014182468 A JP2014182468 A JP 2014182468A
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinate data
- unit
- coordinates
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、プロジェクター、投射システム、及びプロジェクターの制御方法に関する。 The present invention relates to a projector, a projection system, and a projector control method.
ワイヤレス接続を利用して、携帯電話などの端末装置からプロジェクターに画像を送信する技術が知られている。特許文献1には、携帯型端末が、ワイヤレス接続されたプロジェクターに投射データを送信することが記載されている。特許文献2には、ワイヤレス接続が可能なサーバーを介することにより、携帯型端末の画像をスクリーンに見やすく投射することが記載されている。また、画像が投射された投射面上でユーザーがペン型の指示体を用いて擬似的に筆記を行うことができるインタラクティブな投射システムが知られている。
A technique for transmitting an image from a terminal device such as a mobile phone to a projector using a wireless connection is known.
上記のシステムでは、携帯型端末を利用して投射面上に描画を行うことはできなかった。本発明は、タッチパネルを有する電子機器から入力された座標および指示体から入力された座標に応じた画が入力画像上に描かれた画像を、プロジェクターに投射させることを目的の一つとする。 In the above system, it was not possible to draw on the projection surface using a portable terminal. An object of the present invention is to cause a projector to project an image in which an image corresponding to coordinates input from an electronic device having a touch panel and coordinates input from an indicator is drawn on an input image.
上述の課題を解決するため、本発明は、映像信号が示す画像を投射する投射部と、タッチパネルを有する電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する第1座標データ取得部と、前記投射部により前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する第2座標データ取得部と、前記第1座標データ取得部により取得された第1の座標データと、前記第2座標データ取得部により取得された第2の座標データとが統合された第3の座標データを生成する統合部と、前記第1の画像上に、前記統合部により生成された第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する画像データ取得部と、前記画像データ取得部により取得された画像データを前記電子機器に出力する画像データ出力部と、前記第2の画像を示す映像信号を前記投射部に出力する出力部とを有するプロジェクターを提供する。このプロジェクターによれば、電子機器から入力された座標および指示体から入力された座標に応じた画が第1の画像上に描かれた第2の画像が投射される。 In order to solve the above-described problem, the present invention provides a first unit that indicates coordinates of a point on a first image indicated by the video signal from an electronic device having a projection unit that projects an image indicated by the video signal and a touch panel. A first coordinate data acquisition unit for acquiring coordinate data; and second coordinate data indicating the coordinates of a point designated by a user with an indicator on the projection surface on which the first image is projected by the projection unit. A third coordinate data acquisition unit, a first coordinate data acquired by the first coordinate data acquisition unit, and a second coordinate data acquired by the second coordinate data acquisition unit are integrated. An integration unit that generates coordinate data, and image data that acquires image data indicating a second image in which an image corresponding to the third coordinate data generated by the integration unit is drawn on the first image An acquisition unit; and And an image data output unit for outputting image data acquired by the acquisition unit to the electronic device, to provide a projector and an output unit for outputting an image signal to the projection portion indicating the second image. According to this projector, a second image in which an image corresponding to the coordinates input from the electronic device and the coordinates input from the indicator is drawn on the first image is projected.
別の好ましい態様において、前記第3の座標データは、前記第1の座標データが示す座標および前記第2の座標データが示す座標のうち、選択された一方の座標を示すことを特徴とする。このプロジェクターによれば、電子機器から入力された座標に応じた画が第1の画像上に描かれる場合と、指示体から入力された座標に応じた画が第1の画像上に描かれる場合とが切り替わる。 In another preferred aspect, the third coordinate data indicates one selected coordinate among the coordinates indicated by the first coordinate data and the coordinates indicated by the second coordinate data. According to this projector, when an image according to the coordinates input from the electronic device is drawn on the first image, and when an image according to the coordinates input from the indicator is drawn on the first image. And switch.
また、別の好ましい態様において、前記第3の座標データは、互いに異なる識別子により区別された、前記第1の座標データが示す座標および前記第2の座標データが示す座標を示すことを特徴とする。このプロジェクターによれば、電子機器から入力された座標に応じた画と、指示体から入力された座標に応じた画とが第1の画像上に一度に描かれる。 In another preferred aspect, the third coordinate data indicates the coordinates indicated by the first coordinate data and the coordinates indicated by the second coordinate data, which are distinguished by different identifiers. . According to this projector, an image corresponding to the coordinates input from the electronic device and an image corresponding to the coordinates input from the indicator are drawn on the first image at a time.
また、別の好ましい態様において、前記第1の座標データが示す座標の識別子と前記第2の座標データが示す座標の識別子とは、異なる入力デバイスに対応することを特徴とする。このプロジェクターによれば、電子機器から入力された座標に応じた画と、指示体から入力された座標に応じた画とが異なる入力デバイスにより描かれる。 In another preferred aspect, the coordinate identifier indicated by the first coordinate data and the coordinate identifier indicated by the second coordinate data correspond to different input devices. According to this projector, the image corresponding to the coordinates input from the electronic device and the image corresponding to the coordinates input from the indicator are drawn by different input devices.
また、別の好ましい態様において、前記統合部により生成された第3の座標データを、前記映像信号の入力源である外部装置に出力する座標データ出力部を有し、前記画像データ取得部は、前記外部装置から前記画像データを取得することを特徴とする。このプロジェクターによれば、電子機器から入力された座標および指示体から入力された座標に応じた画が、外部装置において描かれる。 Moreover, in another preferable aspect, the image data acquisition unit includes a coordinate data output unit that outputs the third coordinate data generated by the integration unit to an external device that is an input source of the video signal. The image data is acquired from the external device. According to this projector, an image corresponding to the coordinates input from the electronic device and the coordinates input from the indicator is drawn on the external device.
また、別の好ましい態様において、前記第3の座標データに応じた画を描く描画部と、前記第1の画像と、前記描画部により描かれた画とを合成し、前記画像データを生成する合成部とを有し、前記画像データ取得部は、前記合成部から前記画像データを取得することを特徴とする。このプロジェクターによれば、電子機器から入力された座標および指示体から入力された座標に応じた画が、外部装置を介さずに描かれる。 In another preferable aspect, the image data is generated by combining the drawing unit that draws an image according to the third coordinate data, the first image, and the image drawn by the drawing unit. A synthesizing unit, and the image data acquiring unit acquires the image data from the synthesizing unit. According to this projector, an image corresponding to the coordinates input from the electronic device and the coordinates input from the indicator is drawn without using an external device.
また、本発明は、プロジェクターと電子機器とを有し、前記プロジェクターは、映像信号が示す画像を投射する投射部と、前記電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する第1座標データ取得部と、前記投射部により前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する第2座標データ取得部と、前記第1座標データ取得部により取得された第1の座標データと、前記第2座標データ取得部により取得された第2の座標データとが統合された第3の座標データを生成する統合部と、前記第1の画像上に、前記統合部により生成された第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する画像データ取得部と、前記画像データ取得部により取得された画像データを前記電子機器に出力する画像データ出力部と、前記第2の画像を示す映像信号を前記投射部に出力する出力部とを有し、前記電子機器は、タッチパネルと、前記タッチパネル上でユーザーが指示した点の座標を、第1の画像上の点の座標に変換し、前記第1の座標データを生成する座標変換部と、前記座標変換部により生成された第1の座標データを、前記プロジェクターに出力する座標データ出力部と、前記プロジェクターから出力された画像データが示す前記第2の画像を、前記タッチパネルに表示させる表示制御部とを有する投射システムを提供する。この投射システムによれば、電子機器から入力された座標および指示体から入力された座標に応じた画が第1の画像上に描かれた第2の画像が投射される。 According to another aspect of the invention, there is provided a projector and an electronic device, the projector projecting an image indicated by the video signal, and coordinates of a point on the first image indicated by the video signal from the electronic device. A first coordinate data acquisition unit for acquiring first coordinate data indicating a second coordinate indicating a point indicated by a user on the projection surface on which the first image is projected by the projection unit; A second coordinate data acquisition unit that acquires coordinate data, the first coordinate data acquired by the first coordinate data acquisition unit, and the second coordinate data acquired by the second coordinate data acquisition unit are integrated. An integration unit that generates the generated third coordinate data, and image data indicating a second image in which an image corresponding to the third coordinate data generated by the integration unit is drawn on the first image To get image data An image data output unit that outputs the image data acquired by the image data acquisition unit to the electronic device, and an output unit that outputs a video signal indicating the second image to the projection unit, The electronic device includes a touch panel, a coordinate conversion unit that converts the coordinates of a point designated by a user on the touch panel into the coordinates of a point on a first image, and generates the first coordinate data. A coordinate data output unit that outputs the first coordinate data generated by the conversion unit to the projector, and a display control unit that causes the touch panel to display the second image indicated by the image data output from the projector; A projection system is provided. According to this projection system, a second image in which an image corresponding to the coordinates input from the electronic device and the coordinates input from the indicator is drawn on the first image is projected.
また、本発明は、映像信号が示す画像を投射部が投射する工程と、タッチパネルを有する電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する工程と、前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する工程と、前記第1の座標データと、前記第2の座標データとが統合された第3の座標データを生成する工程と、前記第1の画像上に、前記第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する工程と、前記画像データを前記電子機器に出力する工程と、前記第2の画像を示す映像信号を前記投射部に出力する工程とを有するプロジェクターの制御方法を提供する。このプロジェクターの制御方法によれば、電子機器から入力された座標および指示体から入力された座標に応じた画が第1の画像上に描かれた第2の画像が投射される。 According to the present invention, the projection unit projects the image indicated by the video signal, and first coordinate data indicating the coordinates of the point on the first image indicated by the video signal is obtained from an electronic device having a touch panel. A step of obtaining second coordinate data indicating coordinates of a point designated by a user on the projection surface on which the first image is projected, the first coordinate data, and the first A step of generating third coordinate data in which two coordinate data are integrated, and image data indicating a second image in which an image corresponding to the third coordinate data is drawn on the first image. And a step of outputting the image data to the electronic device, and a step of outputting a video signal indicating the second image to the projection unit. According to this projector control method, a second image in which an image corresponding to the coordinates input from the electronic device and the coordinates input from the indicator is drawn on the first image is projected.
(実施形態1)
図1は、本発明の第1実施形態に係る投射システムPS1の全体構成を示す図である。投射システムPS1は、プロジェクター1、パーソナルコンピューター2、指示体3、タブレット端末4、コントローラーRC、およびスクリーンSCを有する。プロジェクター1は、映像信号により示される画像(以下、「入力画像」という)をスクリーンSCに投射する装置である。プロジェクター1は、フロントプロジェクション型の短焦点のプロジェクターであり、スクリーンSCに比較的近い位置に配置される。図1の例では、プロジェクター1は、スクリーンSCの上部に配置されている。パーソナルコンピューター2(以下、「PC2」という)は、映像信号をプロジェクター1に出力する。PC2は、画像信号ケーブルおよびUSB(Universal Serial Bus)ケーブルによりプロジェクター1と有線接続されている。PC2は、プロジェクター1に対する映像信号の入力源となる外部装置の一例である。指示体3は、プロジェクター1から投射される画像(以下、「投射画像」という)に対してユーザーが電子的に手書きの文字や画像を書き込む際に筆記具として用いられるペン型または棒形状の操作デバイスである。プロジェクター1は、スクリーンSC上における指示体3の位置を継続的に特定する機能を備える。タブレット端末4は、入力画像に対してユーザーがスクリーンSCと離れた位置から電子的に手書きの文字や画像を書き込む際に用いられる電子機器である。ユーザーが、タブレット端末4のタッチパネル44を操作すると、PC2において、当該操作に応じた画が入力画像上に描かれる。タブレット端末4は、Wi−Fi(Wireless Fidelity:登録商標)などの無線LAN(Local Area Network)を介してプロジェクター1と接続されている。コントローラーRCは、赤外線通信等の無線でプロジェクター1を制御するための装置、いわゆるリモートコントローラーである。スクリーンSCは、投射画像を映し出す平面である。
(Embodiment 1)
FIG. 1 is a diagram showing an overall configuration of a projection system PS1 according to the first embodiment of the present invention. The projection system PS1 includes a
図2は、投射システムPS1の機能的構成を示すブロック図である。指示体3は、圧力検出部301と発光部302とを有する。圧力検出部301は、ユーザーによる筆記動作に伴い指示体3の先端がスクリーンSCに押し付けられたことを検出する。発光部302は、指示体3の先端がスクリーンSCに押し付けられたことが圧力検出部301により検出されると光を出力する。
FIG. 2 is a block diagram showing a functional configuration of the projection system PS1. The indicator 3 includes a
プロジェクター1は、映像信号取得部101と、画像調整部102と、画像処理部103と、投射部104と、撮像部105と、座標データ生成部106と、座標変換部107と、座標データ取得部108と、座標変換部109と、統合部110と、座標データ出力部111と、画像データ取得部112と、画像圧縮部113と、画像データ出力部114とを有する。映像信号取得部101は、PC2により出力された映像信号を取得する。画像調整部102は、入力画像のサイズ(解像度)を投射部104に応じたサイズに変更(リサイズ)する。以下では、入力画像のサイズを変更する処理を「リサイズ処理」と表現する。画像処理部103は、リサイズされた入力画像(以下、「リサイズ画像」という)に対して、所定の画像処理を施す。画像処理部103は、画像処理が施されたリサイズ画像を投射部104に出力する。画像処理部103は、映像信号を投射部104に出力する出力部の一例である。投射部104は、画像処理が施されたリサイズ画像を、投射画像としてスクリーンSCに投射する。
The
撮像部105は、スクリーンSCを撮像し、投射画像および指示体3から出力された光を示す画像データを生成する。座標データ生成部106(第2座標データ取得部の一例)は、撮像部105により生成された画像データに基づいて、投射画像上でユーザーが指示体3により指示した点の座標を示す座標データ(以下、「ペン入力データ」という)を生成する。ペン入力データは、本発明における第2の座標データの一例である。座標変換部107は、座標データ生成部106により生成されたペン入力データにより示される座標の座標系を、入力画像の座標系に変換する。
The
座標データ取得部108(第1座標データ取得部の一例)は、タブレット端末4からリサイズ画像上の点の座標を示す座標データ(以下、「タッチ入力データ」という)を取得する。タッチ入力データは、本発明における第1の座標データの一例である。座標変換部109は、座標データ取得部108により取得されたタッチ入力データにより示される座標の座標系を、入力画像の座標系に変換する。統合部110は、座標データ生成部106により生成されたペン入力データと、座標データ取得部108により取得されたタッチ入力データとが統合された座標データ(以下、「統合座標データ」という)を生成する。「統合」とは、複数のポインティングデバイス(この例では指示体3およびタブレット端末4)から入力された座標を、この座標を用いる要素(この例では描画部203)が解読可能な形式に変換することをいう。すなわち、この例で、座標データの統合は、ペン入力データにより示される座標とタッチ入力データにより示される座標とを一の座標データに反映させるために行われる。統合座標データは、本発明における第3の座標データの一例である。座標データ出力部111は、統合部110により生成された統合座標データを、PC2に出力する。
The coordinate data acquisition unit 108 (an example of a first coordinate data acquisition unit) acquires coordinate data (hereinafter referred to as “touch input data”) indicating the coordinates of a point on the resized image from the
画像データ取得部112は、画像調整部102からリサイズ画像を示す画像データを取得する。以下では、説明の便宜上、入力画像のうち統合座標データに応じた画が描かれていないものを「一次画像」といい、一次画像上に統合座標データに応じた画が描かれたものを「二次画像」という。画像データ取得部112が取得する画像データは、一次画像または二次画像のリサイズ画像を示す。画像圧縮部113は、画像データ取得部112により取得された画像データを圧縮する。画像データ出力部114は、画像圧縮部113により圧縮された画像データをタブレット端末4に出力する。
The image
PC2は、映像信号出力部201と、座標データ取得部202と、描画部203とを有する。映像信号出力部201は、映像信号をプロジェクター1に出力する。座標データ取得部202は、プロジェクター1により出力された統合座標データを取得する。描画部203は、一次画像上に、座標データ取得部202により取得された統合座標データに応じた画を描き、二次画像を生成する。
The
タブレット端末4は、座標変換部401と、座標データ出力部402と、画像データ取得部403と、表示制御部404とを有する。座標変換部401は、タッチパネル44上でユーザーが指示した点の座標を、リサイズ画像上の点の座標に変換し、当該座標を示すタッチ入力データを生成する。座標データ出力部402は、座標変換部401により生成されたタッチ入力データを、プロジェクター1に出力する。画像データ取得部403は、プロジェクター1により出力された画像データを取得する。表示制御部404は、画像データ取得部403により取得された画像データが示すリサイズ画像に応じた画像をタッチパネル44に表示する。
The
図3は、プロジェクター1のハードウェア構成を示すブロック図である。プロジェクター1は、CPU(Central Processing Unit)10と、ROM(Read Only Memory)11と、RAM(Random Access Memory)12と、IF(インターフェース)部13と、画像処理回路14と、投射ユニット15と、イメージセンサー16と、受光部17と、操作パネル18と、入力処理部19とを有する。CPU10は、制御プログラム11Aを実行することによりプロジェクター1の各部を制御する制御装置である。ROM11は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。ROM11は、CPU10が実行する制御プログラム11Aを記憶する。RAM12は、データを記憶する揮発性の記憶装置である。RAM12は、フレームメモリー12aおよび12bを有する。フレームメモリー12aは、リサイズ画像の1フレーム分を記憶する領域である。フレームメモリー12bは、1フレーム分の投射画像を記憶する領域である。
FIG. 3 is a block diagram illustrating a hardware configuration of the
IF部13は、PC2およびタブレット端末4などの外部装置と通信を行なう。IF部13は、外部装置と接続するための各種端子(例えば、VGA端子、USB端子、有線または無線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子など)を備える。本実施形態において、IF部13は、VGA端子およびUSB端子を介してPC2と通信を行なう。具体的には、IF部13は、VGA端子を介してPC2から映像信号を取得し、USB端子を介してPC2に統合座標データを出力する。IF部13は、PC2から取得した映像信号から、垂直・水平の同期信号を抽出する。IF部13は、また、無線LANインターフェースを介してタブレット端末4と通信を行なう。画像処理回路14は、入力画像にリサイズ処理および所定の画像処理を施す。画像処理回路14は、リサイズ画像をフレームメモリー12aに、画像処理後のリサイズ画像(すなわち投射画像)をフレームメモリー12bに書き込む。
The
投射ユニット15は、光源151と、液晶パネル152と、光学系153と、光源駆動回路154と、パネル駆動回路155と、光学系駆動回路156とを有する。光源151は、高圧水銀ランプ、ハロゲンランプ、若しくはメタルハライドランプなどのランプ、又はLED(Light Emitting Diode)若しくはレーザーダイオードなどの発光体を有し、液晶パネル152に光を照射する。液晶パネル152は、光源151から照射された光を画像データに応じて変調する光変調装置である。この例で液晶パネル152は、マトリクス状に配置された複数の画素を有する。液晶パネル152は、例えば、XGA(eXtended Graphics Array)の解像度を有し、1024×768個の画素により構成される表示領域を有する。この例で、液晶パネル152は透過型の液晶パネルであり、各画素の透過率が画像データに応じて制御される。プロジェクター1は、RGBの三原色に対応した3枚の液晶パネル152を有する。光源151からの光はRGBの3色の色光に分離され、各色光は対応する液晶パネル152に入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等によって合成され、光学系153に射出される。光学系153は、液晶パネル152により画像光へと変調された光を拡大してスクリーンSCに投射するレンズ、投射する画像の拡大・縮小及び焦点の調整を行うズームレンズ、ズームの度合いを調整するズーム調整用のモーター、フォーカスの調整を行うフォーカス調整用のモーター等を有する。光源駆動回路154は、CPU10の制御に従って光源151を駆動する。パネル駆動回路155は、CPU10から出力された画像データに応じて液晶パネル152を駆動する。光学系駆動回路156は、CPU10の制御に従って光学系153が有する各モーターを駆動する。
The
イメージセンサー16は、スクリーンSCを撮像し画像データを生成する固体撮像素子群である。イメージセンサー16は、例えば、CMOSイメージセンサーまたはCCDイメージセンサーなどにより構成される。プロジェクター1は、複数のイメージセンサー16(イメージセンサー群)を有しており、これらのイメージセンサー16は、投射ユニット15が投射画像を投射可能な最大範囲を含む画角でスクリーンSCを撮像する。受光部17は、コントローラーRCから送信される赤外線信号を受光し、受光した赤外線信号をデコードして入力処理部19に出力する。操作パネル18は、プロジェクター1の電源のオン/オフまたは各種操作を行うためのボタンおよびスイッチを有する。入力処理部19は、コントローラーRCまたは操作パネル18による操作内容を示す情報を生成し、CPU10に出力する。
The
プロジェクター1において、プログラムを実行しているCPU10は、座標データ生成部106、座標変換部107、座標変換部109、統合部110、画像データ取得部112、および画像圧縮部113の一例である。プログラムを実行しているCPU10により制御されているIF部13は、映像信号取得部101、座標データ取得部108、座標データ出力部111、および画像データ出力部114の一例である。プログラムを実行しているCPU10により制御されている画像処理回路14は、画像調整部102および画像処理部103の一例である。プログラムを実行しているCPU10により制御されている投射ユニット15は、投射部104の一例である。プログラムを実行しているCPU10により制御されているイメージセンサー16は、撮像部105の一例である。
In the
図4は、PC2のハードウェア構成を示すブロック図である。PC2は、CPU20と、ROM21と、RAM22と、IF部23と、表示部24と、入力部25とを有する。CPU20は、プログラムを実行することによりPC2の各部を制御する制御装置である。ROM21は、各種のプログラム及びデータを記憶した不揮発性の記憶装置である。RAM22は、データを記憶する揮発性の記憶装置である。IF部23は、プロジェクター1などの外部装置と通信を行なう。IF部23は、外部装置と接続するための各種端子を備える。表示部24は、液晶ディスプレイまたは有機EL(Electroluminescence)ディスプレイなどの表示装置を有する。入力部25は、ユーザーによる入力を受け付ける入力デバイスであり、キーボード、マウス、タッチパッド、および各種ボタン等を備える。PC2において、プログラムを実行しているCPU20は、描画部203の一例である。プログラムを実行しているCPU20により制御されているIF部23は、映像信号出力部201および座標データ取得部202の一例である。
FIG. 4 is a block diagram illustrating a hardware configuration of the
図5は、指示体3のハードウェア構成を示すブロック図である。指示体3は、制御部30と、圧力センサー31と、LED(Light Emitting Diode)32とを有する。制御部30は、指示体3の各部の動作を制御する制御装置である。圧力センサー31は、指示体3の先端に設けられ、指示体3の先端への圧力を検出する。LED32は、指示体3に固有の波長の光を出力する。指示体3において、制御部30により制御されている圧力センサー31は、圧力検出部301の一例である。制御部30により制御されているLED32は、発光部302の一例である。
FIG. 5 is a block diagram showing a hardware configuration of the indicator 3. The indicator 3 includes a
図6は、タブレット端末4のハードウェア構成を示すブロック図である。タブレット端末4は、CPU40と、ROM41と、RAM42と、IF部43と、タッチパネル44とを有する。CPU40は、プログラムを実行することによりタブレット端末4の各部を制御する制御装置である。ROM41は、各種のプログラム及びデータを記憶した不揮発性の記憶装置である。RAM42は、データを記憶する揮発性の記憶装置である。IF部43は、プロジェクター1などの外部装置と通信を行なう。IF部43は、プロジェクター1と接続するための無線LANインターフェースを備える。タッチパネル44は、液晶ディスプレイなどの表示面上に座標を感知するパネルが重ねて設けられた入力装置である。タッチパネル44には、例えば、光学式、抵抗膜方式、静電容量式、または超音波式のタッチパネルが用いられる。タブレット端末4において、プログラムを実行しているCPU40は、座標変換部401および表示制御部404の一例である。プログラムを実行しているCPU40により制御されているIF部43は、座標データ出力部402および画像データ取得部403の一例である。
FIG. 6 is a block diagram illustrating a hardware configuration of the
図7は、投射システムPS1において実行される処理を示すシーケンスチャートである。この例で、PC2においては、入力画像(ここでは、表示部24に表示されている画像)上に画を描くための描画プログラムが実行されている。このような状況の下で、入力画像(および投射画像)上に描画を行いたい場合、PC2の入力部25(例えばマウスなど)を操作する方法と、指示体3を用いて筆記動作を行う方法とがある。しかし、PC2の入力部25を操作する方法では、プロジェクター1とPC2とが有線接続されているため、プロジェクター1と離れた場所から描画を行うには距離的な制約が生じる。また、指示体3を用いて筆記動作を行う方法では、スクリーンSCに投射された投射画像に直接触れる必要があるため、スクリーンSCから離れた場所から描画を行うことができない。投射システムPS1は、タブレット端末4を、PC2を操作するためのポインティングデバイスとして機能させ、描画を行う際の距離的な制約を抑制する。図7に示す処理は、例えば、PC2がプロジェクター1に映像信号(ここでは、一次画像を示す映像信号)を出力したことを契機として開始される。なお、以下では、指示体3を用いた筆記動作と、タブレット端末4の操作とが、異なるユーザーによって共に行われる場合を例に説明する。
FIG. 7 is a sequence chart showing processing executed in the projection system PS1. In this example, the
ステップSA1において、プロジェクター1のCPU10は、PC2から映像信号を取得する。ステップSA2において、CPU10は、入力画像に対してリサイズ処理を行う。CPU10は、リサイズ処理により、入力画像のサイズを液晶パネル152に応じたサイズに変更する。
In step SA1, the CPU 10 of the
図8は、リサイズ処理の具体的な処理内容を示すフローチャートである。以下では、入力画像のサイズが液晶パネル152のサイズよりも大きい場合(入力画像を縮小する場合)を例に説明する。ステップSA201において、CPU10は、入力画像のサイズを取得する。ここでいう画像のサイズとは、画像の縦方向と横方向のそれぞれの画素数である。映像信号には、入力画像のサイズを示す信号が含まれており、CPU10は、当該信号に基づいて入力画像のサイズを取得する。CPU10は、取得した入力画像のサイズをRAM12に記憶する。ステップSA202において、CPU10は、液晶パネル152のサイズを取得する。具体的には、CPU10は、ROM11に記憶された、液晶パネル152の解像度を示す情報を読み出して、液晶パネル152のサイズを取得する。
FIG. 8 is a flowchart showing specific processing contents of the resizing processing. Hereinafter, a case where the size of the input image is larger than the size of the liquid crystal panel 152 (when the input image is reduced) will be described as an example. In step SA201, the CPU 10 acquires the size of the input image. The image size referred to here is the number of pixels in the vertical and horizontal directions of the image. The video signal includes a signal indicating the size of the input image, and the CPU 10 acquires the size of the input image based on the signal. The CPU 10 stores the acquired size of the input image in the
ステップSA203において、CPU10は、入力画像のアスペクト比と液晶パネル152のアスペクト比とが等しいか否かを判断する。具体的には、CPU10は、入力画像のサイズおよび液晶パネル152のサイズに基づいて、入力画像のアスペクト比および液晶パネル152のアスペクト比をそれぞれ算出し、これらのアスペクト比を比較する。入力画像のアスペクト比と液晶パネル152のアスペクト比とが等しくないと判断された場合(ステップSA203:NO)、CPU10は、処理をステップSA204に移行する。入力画像のアスペクト比と液晶パネル152のアスペクト比とが等しいと判断された場合(ステップSA203:YES)、CPU10は、処理をステップSA205に移行する。例えば、入力画像のサイズが横1280×縦800である場合、入力画像のアスペクト比は16:10である。また、液晶パネル152のサイズが横1024×縦768である場合、液晶パネル152のアスペクト比は4:3である。したがって、この場合、入力画像のアスペクト比と液晶パネル152のアスペクト比とは等しくないと判断される。
In step SA203, the CPU 10 determines whether or not the aspect ratio of the input image is equal to the aspect ratio of the
ステップSA204において、CPU10は、オフセット値αを算出する。オフセット値とは、リサイズ処理において、入力画像から一律に除かれる画素の横方向の数を示す値である。CPU10は、RAM12から入力画像のサイズおよび液晶パネル152のサイズを読み出して、例えば、以下の式(1)によりオフセット値αを算出する。
CPU10は、算出されたオフセット値αを、RAM12に記憶する。上述のサイズの例では、L1=1280、L2=800、L3=1024、L4=768であり、オフセット値α=214となる。
In step SA204, the CPU 10 calculates an offset value α. The offset value is a value indicating the number of pixels in the horizontal direction that are uniformly removed from the input image in the resizing process. The CPU 10 reads the size of the input image and the size of the
The CPU 10 stores the calculated offset value α in the
ステップSA205において、CPU10は、オフセット値αを考慮した入力画像のサイズ(以下、「オフセット後の入力画像」という)と液晶パネル152のサイズとが等しいか否かを判断する。具体的には、CPU10は、入力画像のサイズとオフセット値αとをRAM12からそれぞれ読み出して、入力画像の横方向の画素数からオフセット値αを減算することにより、オフセット後の入力画像のサイズを算出する。そして、CPU10は、液晶パネル152のサイズをROM11から読み出して、オフセット後の入力画像のサイズと液晶パネル152のサイズとを比較する。オフセット後の入力画像のサイズと液晶パネル152のサイズとが等しくないと判断された場合(ステップSA205:NO)、CPU10は、処理をステップSA206に移行する。オフセット後の入力画像のサイズと液晶パネル152のサイズとが等しいと判断された場合(ステップSA205:YES)、CPU10は、処理をステップSA207に移行する。上述のサイズの例では、オフセット後の入力画像のサイズは、横1066×縦800であり、投射画像のサイズは、横1024×縦768である。したがって、オフセット後の入力画像のサイズと液晶パネル152のサイズとは等しくないと判断される。
In step SA205, the CPU 10 determines whether or not the size of the input image considering the offset value α (hereinafter referred to as “input image after offset”) is equal to the size of the
ステップSA206において、CPU10は、変換係数βを算出する。変換係数とは、入力画像のサイズと液晶パネル152のサイズとの比を示す値である。CPU10は、RAM12から入力画像のサイズおよび投射画像のサイズを読み出して、例えば、以下の式(2)により変換係数βを算出する。
ステップSA207において、CPU10は、オフセット値αと変換係数βとを用いて入力画像をリサイズする。具体的には、CPU10は、以下の式(4)により、入力画像における各画素の座標(x,y)を、座標(X,Y)に変換する。なお、「x」および「X」は、画像の横方向における座標を表し、「y」および「Y」は、画像の縦方向における座標を表す。
再び図7を参照する。ステップSA3において、CPU10は、リサイズ画像を示す画像データを圧縮する。具体的には、CPU10は、フレームメモリー12aから画像データを読み出すことにより画像データを取得し、当該画像データを、無線LANの周波数帯域に対応させるために圧縮する。CPU10は、画像データを、例えばJPEG(Joint Photographic Experts Group)方式により圧縮する。画像データの圧縮は、例えば、数フレームごと、または決められた時間ごとに行われる。CPU10は、圧縮後の画像データをRAM12に記憶する。ステップSA4において、CPU10は、RAM12から圧縮後の画像データを読み出して、当該画像データをタブレット端末4に出力する。
Refer to FIG. 7 again. In step SA3, the CPU 10 compresses image data indicating the resized image. Specifically, the CPU 10 acquires image data by reading the image data from the frame memory 12a, and compresses the image data so as to correspond to the frequency band of the wireless LAN. The CPU 10 compresses the image data by, for example, JPEG (Joint Photographic Experts Group) method. The compression of the image data is performed, for example, every few frames or every predetermined time. The CPU 10 stores the compressed image data in the
ステップSA5において、CPU10は、リサイズ画像に対して画像処理を施す。具体的には、CPU10は、フレームメモリー12aから画像データを読み出して、リサイズ画像に対して所定の画像処理(例えば、OSD(On Screen Display)画像を重畳する処理、キーストーン補正処理、フレームレート変換処理、またはオーバードライブ処理など)を施す。CPU10は、画像処理後のリサイズ画像(投射画像)を示す画像データをフレームメモリー12bに書き込む。ステップSA6において、CPU10は、フレームメモリー12bに記憶された画像データに応じて、液晶パネル152を駆動する。具体的には、CPU10は、フレームメモリー12bから画像データを読み出して、パネル駆動回路155に出力する。
In step SA5, the CPU 10 performs image processing on the resized image. Specifically, the CPU 10 reads out image data from the frame memory 12a and performs predetermined image processing (for example, processing for superimposing an OSD (On Screen Display) image on the resized image, keystone correction processing, frame rate conversion). Process or overdrive process). The CPU 10 writes image data indicating the resized image (projected image) after the image processing in the
ステップSA7において、CPU10は、スクリーンSCに投射された投射画像上で、指示体3を用いた筆記動作が行われたことを検出する。具体的には、CPU10は、イメージセンサー16を制御して、所定の時間間隔(例えば、0.1秒毎)で撮像を行っている。CPU10は、撮像された画像を示す画像データを解析し、指示体3から出力された光を検出することにより筆記動作を検出する。ステップSA8において、CPU10は、ペン入力データを生成する。具体的には、CPU10は、撮像された画像における光の位置に基づいて、指示体3により指示された点の投射画像上における座標を算出する。CPU10は、生成したペン入力データをRAM12に記憶する。ステップSA8の処理は、筆記動作が検出される度に行われ、複数のペン入力データが順次生成される。
In step SA7, the CPU 10 detects that the writing operation using the indicator 3 has been performed on the projected image projected on the screen SC. Specifically, the CPU 10 controls the
ステップSA9において、CPU10は、ペン入力データに対して座標変換処理を行う。座標変換処理とは、座標データにより示される座標の座標系を、入力画像の座標系に変換することをいう。ここでは、CPU10は、ペン入力データにより示される投射画像の座標の座標系を、リサイズ処理がされる前の(元の)入力画像の座標系に変換する。具体的な処理は、以下の通りである。まず、CPU10は、ペン入力データにより示される投射画像上の座標を、リサイズ画像上の座標に変換する。投射画像上の座標と、リサイズ画像上の座標との変換は、ステップSA5において行われる画像処理の内容に応じて決まる式を用いて行われる。例えば、ステップSA5において、リサイズ画像に対してキーストーン補正処理が行われる場合には、CPU10は、このキーストーン補正処理の逆変換をする処理を行い、投射画像上の座標を、リサイズ画像上の座標に変換する。次に、CPU10は、変換後のリサイズ画像上の座標を、元の入力画像における座標に変換する。リサイズ画像上の座標(Xi,Yi)と、元の入力画像上の座標(xi,yi)との変換は、RAM12に記憶されたオフセット値αと変換係数βとを用いて、以下の式(5)により行われる。
ステップSA10において、タブレット端末4のCPU40は、プロジェクター1から取得した画像データにより示されるリサイズ画像に応じた画像を、タッチパネル44に表示する。具体的には、CPU40は、画像データにより示されるリサイズ画像のサイズをタッチパネル44に応じたサイズに変更し、サイズが変更されたリサイズ画像をタッチパネル44に表示する。ステップSA10の処理により、タッチパネル44には、投射画像に対応する画像が表示される。ステップSA11において、CPU40は、タッチ入力データを生成する。具体的には、CPU40は、タッチパネル44上でユーザーが指示した点の物理的な座標を、画像データにより示されるリサイズ画像上の点の座標に変換する。ステップSA11の処理は、タッチパネル44が、ユーザーによる操作を検出したことを契機として行われる。タッチパネル44上の物理的な座標とリサイズ画像上の点の座標との変換は、予め定められた式を用いて行われる。CPU40は、生成したタッチ入力データをRAM42に記憶する。ステップSA12において、CPU40は、RAM42からタッチ入力データを読み出して、プロジェクター1に出力する。なお、ステップSA11およびステップSA12の処理は、タッチパネル44が、ユーザーによる操作を検出する度に行われ、複数のタッチ入力データが順次プロジェクター1に出力される。
In step SA 10, the
ステップSA13において、プロジェクター1のCPU10は、タブレット端末4から取得したタッチ入力データに対して座標変換処理を行う。ここでは、CPU10は、タッチ入力データにより示される、リサイズ画像の座標の座標系を、元の入力画像の座標系に変換する。具体的には、CPU10は、上述の式(5)により、タッチ入力データにより示されるリサイズ画像上の座標(Xi,Yi)を、元の入力画像における座標(xi,yi)に変換する。例えば、上述のサイズの例において、タッチ入力データにより示される座標(Xi,Yi)が(275,480)である場合、元の入力画像における座標(xi,yi)は(500,500)となる。CPU10は、変換後の座標(xi,yi)をRAM12に記憶する。なお、ペン入力データに対する座標変換処理(ステップSA9)により得られた座標(xi,yi)(以下、「ペン入力座標」という)と、タッチ入力データに対する座標変換処理(ステップSA13)により得られた座標(xi,yi)(以下、「タッチ入力座標」という)とは、互いに異なる識別子により区別された状態で、RAM12に記憶される。すなわち、ペン入力データに基づくペン入力座標とタッチ入力データに基づくタッチ入力座標とは、互いに異なる識別子により区別される。
In step SA <b> 13, the CPU 10 of the
ステップSA14において、CPU10は、ペン入力データとタッチ入力データとを統合し、統合座標データを生成する。ペン入力データとタッチ入力データとの統合は、例えば、ペン入力座標およびタッチ入力座標のうち、一方の座標が選択されることにより行われる。CPU10は、指示体3を用いた一連の筆記動作とタッチパネル44の一連の操作とのうち先に開始された一方により得られた座標を選択する。ここで、指示体3を用いた一連の筆記動作とは、ユーザーが指示体3の先端をスクリーンSCに押し付けてから離すまでの動作、または、これらの動作の複数の集合であって、ユーザーが指示体3の先端をスクリーンSCから離している時間が所定の時間よりも短い動作をいう。タッチパネル44の一連の操作とは、ユーザーがタッチパネル44に触れてから離すまでの動作、または、これらの動作の複数の集合であって、ユーザーがタッチパネル44に触れていない時間が所定の時間よりも短い動作をいう。指示体3からの入力およびタッチパネル44からの入力がいずれも無い状態で指示体3を用いた一連の筆記動作またはタッチパネル44の一連の操作の一方が開始されると、当該一方が終了するまでは、当該一方により得られた座標が選択される。指示体3からの入力が無い状態とは、ユーザーが指示体3の先端をスクリーンSCから離している時間が所定の時間以上となった状態をいう。タッチパネル44からの入力が無い状態とは、ユーザーがタッチパネル44に触れていない時間が所定の時間以上となった状態をいう。図7に示す例では、指示体3を用いた一連の筆記動作は、タッチパネル44の一連の操作よりも先に開始されており、CPU10は、ペン入力座標を選択する。CPU10は、生成された統合座標データをRAM12に記憶する。ステップSA15において、CPU10は、RAM12から統合座標データを読み出して、PC2に出力する。
In step SA14, the CPU 10 integrates the pen input data and the touch input data to generate integrated coordinate data. The integration of the pen input data and the touch input data is performed, for example, by selecting one of the pen input coordinates and the touch input coordinates. The CPU 10 selects the coordinates obtained by one of the series of writing operations using the indicator 3 and the series of operations on the
ステップSA16において、PC2のCPU20は、一次画像上に、プロジェクター1から取得した統合座標データに応じた画を描く。具体的には、CPU20は、統合座標データにより示される座標(xi,yi)(以下、「統合座標」という)の複数を補間することにより、スクリーンSC上(投射面上)でユーザーが指示体3により指示した点、またはタッチパネル44上でユーザーが指示した点の軌跡に応じた画(以下、「軌跡画像」という)を描く。CPU20は、プロジェクター1から順次出力される統合座標が取得された順序をRAM22に記憶しており、この順序に従って複数の統合座標を補間して結んだ画像を軌跡画像とする。統合座標が取得された順序は、CPU20が、プロジェクター1から統合座標データを取得したときに、統合座標とともにRAM22に記憶される。そして、CPU20は、軌跡画像と一次画像とを合成し二次画像を生成する。CPU20は、二次画像を示す画像データをRAM22に記憶する。ステップSA17において、CPU20は、RAM22から二次画像を示す画像データを読み出して、当該画像データを示す映像信号をプロジェクター1に出力する。
In step SA16, the
ステップSA18からステップSA22において、プロジェクター1のCPU10は、二次画像に対して、ステップSA2からSA6と同様の処理を行う。ステップSA22の処理により、スクリーンSCには二次画像に基づく投射画像が投射される。ステップSA23において、タブレット端末4のCPU40は、ステップSA10と同様の処理により、二次画像のリサイズ画像に応じた画像をタッチパネル44に表示する。以上の処理により、タブレット端末4を、PC2を操作するためのポインティングデバイスとして機能させることができる。これにより、入力画像(および投射画像)には、指示体3を用いた筆記動作またはタッチパネル44の操作に応じた画が描かれる。したがって、入力画像上に描画を行いたい場合に、ユーザーが、指示体3を用いて筆記動作を行う方法と、タッチパネル44を操作する方法とを適宜選択することが可能になる。タッチパネル44を操作する方法によれば、スクリーンSCから離れた場所からでも描画を行うことができるため、描画を行う際の距離的な制約を抑制できる。投射システムPS1の利用例としては、学校の教室で、教師がスクリーンSC上で筆記動作を行って入力画像に描画し、生徒がスクリーンSCから離れたところでタブレット端末4を操作して入力画像に描画することが考えられる。
In steps SA18 to SA22, the CPU 10 of the
(実施形態2)
図9は、本発明の第2実施形態に係る投射システムPS2の全体構成を示す図である。以下では、投射システムPS2について、投射システムPS1と異なる部分を中心に説明する。投射システムPS2は、上述のPC2に代えて、DVDプレーヤー5などのAV機器が映像信号源として用いられる。DVDプレーヤー5は、映像信号をプロジェクター1に出力する。DVDプレーヤー5は、ケーブルによりプロジェクター1のHDMI端子と有線接続されている。投射システムPS2において、プロジェクター1は、入力画像上に画を描くための描画プログラムを実行する。タブレット端末4は、プロジェクター1が描画プログラムを実行している場合において、プロジェクター1を操作するためのポインティングデバイスとして機能する。ユーザーがタッチパネル44を操作すると、プロジェクター1において、当該操作に応じた画が入力画像上に描かれる。
(Embodiment 2)
FIG. 9 is a diagram showing an overall configuration of a projection system PS2 according to the second embodiment of the present invention. Hereinafter, the projection system PS2 will be described with a focus on the differences from the projection system PS1. In the projection system PS2, an AV device such as a
図10は、投射システムPS2の機能的構成を示すブロック図である。プロジェクター1は、図2に示した座標変換部109および座標データ出力部111に代えて、描画部115および画像データ合成部116を有する。描画部115は、統合部110により生成された統合座標データに応じた画を描く。画像データ合成部116は、描画部115により描かれた画と、一次画像のリサイズ画像とを合成し二次画像を示す画像データを生成する。画像処理部103は、画像データ合成部116により生成された画像データが示す二次画像に対して、所定の画像処理を施す。画像処理部103は、画像処理が施された二次画像を投射部104に出力する。画像データ取得部112は、画像データ合成部116により生成された画像データを取得する。なお、投射システムPS2において、座標変換部107は、座標データ生成部106により生成されたペン入力データにより示される座標の座標系を、リサイズ画像の座標系に変換する。実施形態2に係るプロジェクター1において、プログラムを実行しているCPU10は、座標データ生成部106、座標変換部107、統合部110、画像データ取得部112、画像圧縮部113、描画部115、および画像データ合成部116の一例である。
FIG. 10 is a block diagram showing a functional configuration of the projection system PS2. The
図11は、投射システムPS2において実行される処理を示すシーケンスチャートである。以下の処理は、例えば、DVDプレーヤー5がプロジェクター1に映像信号(ここでは、一次画像を示す映像信号)を出力している状態で、プロジェクター1に描画プログラムを実行させるための指示が入力されたことを契機として開始される。描画プログラムを実行させるための指示は、ユーザーがコントローラーRCを操作することにより入力される。
FIG. 11 is a sequence chart showing processing executed in the projection system PS2. In the following processing, for example, an instruction for causing the
ステップSB1において、プロジェクター1のCPU10は、DVDプレーヤー5から映像信号を取得する。ステップSB2からステップSB8において、CPU10は、ステップSA2からステップSA8と同様の処理を行う。
In
ステップSB9において、CPU10は、ペン入力データにより示される投射画像上の座標を、リサイズ画像上の座標に変換する。投射画像上の座標と、リサイズ画像上の座標との変換は、ステップSB5において行われる画像処理の内容に応じて決まる式を用いて行われる。CPU10は、変換後のリサイズ画像上の座標(Xi,Yi)をRAM12に記憶する。
In step SB9, the CPU 10 converts coordinates on the projection image indicated by the pen input data into coordinates on the resized image. The conversion between the coordinates on the projection image and the coordinates on the resized image is performed using an expression determined according to the contents of the image processing performed in step SB5. The CPU 10 stores the coordinates (Xi, Yi) on the resized image after conversion in the
ステップSB10からステップSB12において、タブレット端末4のCPU40は、ステップSA10からステップSA12と同様の処理を行う。ステップSB13において、プロジェクター1のCPU10は、ペン入力データとタッチ入力データとを統合し、統合座標データを生成する。なお、ステップSB13において統合されるペン入力データとタッチ入力データとは、いずれもリサイズ画像上の座標(Xi,Yi)を示しており、統合座標データにより示される統合座標も、リサイズ画像上の座標(Xi,Yi)を示す。ステップSB14において、CPU10は、統合座標データに応じた画を描く。具体的には、CPU10は、複数の統合座標(Xi,Yi)を補間することにより、軌跡画像を描く。CPU10は、軌跡画像をRAM12に記憶する。ステップSB15において、CPU10は、軌跡画像と、一次画像のリサイズ画像とを合成し二次画像を生成する。具体的には、CPU10は、フレームメモリー12aから一次画像のリサイズ画像を、RAM12から軌跡画像をそれぞれ読み出して、リサイズ画像上に軌跡画像を合成(オーバーレイ)する。CPU10は、生成された二次画像を示す画像データをフレームメモリー12aに書き込む。
In steps SB10 to SB12, the
ステップSB16からステップSB19において、CPU10は、二次画像に対して、ステップSB3からステップSB6と同様の処理を行う。以上の処理により、タブレット端末4を、プロジェクター1を操作するためのポインティングデバイスとして機能させることができる。これにより、入力画像(および投射画像)には、指示体3を用いた筆記動作またはタッチパネル44の操作に応じた画が描かれる。タッチパネル44を操作する方法によれば、スクリーンSCから離れた場所からでも描画を行うことができるため、描画を行う際の距離的な制約を抑制できる。
In Step SB16 to Step SB19, the CPU 10 performs the same processing as Step SB3 to Step SB6 on the secondary image. Through the above processing, the
<変形例>
本発明は、上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下で説明する変形例のうち、2つ以上のものが組み合わされて用いられても良い。
<Modification>
The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Of the modifications described below, two or more may be used in combination.
(1)変形例1
上述の実施形態では、統合座標データが、ペン入力座標(またはペン入力データが示す座標、以下同様)とタッチ入力座標(またはタッチ入力データが示す座標、以下同様)のうち、一方の座標を示す例を説明した。この点、統合座標データは、ペン入力座標とタッチ入力座標の両方の座標を示してもよい。この場合、ペン入力座標とタッチ入力座標とは、互いに異なる識別子により区別されて、RAM12に記憶される。そして、この場合、互いに区別された、ペン入力座標を識別する識別子とタッチ入力座標を識別する識別子とは、外部装置(またはプロジェクター1)の異なる入力デバイスに対応していてもよい。例えば、PC2が、上述のハードウェア構成に加えて、入力デバイスとしてのタッチパネルを有しており、ペン入力座標を識別する識別子がPC2のマウスに、タッチ入力座標を識別する識別子がこのタッチパネルにそれぞれ対応していてもよい。この例によれば、ユーザーが指示体3を用いて筆記動作を行うとPC2のマウスの操作に応じた描画が行われ、ユーザーがタッチパネル44を操作するとPC2のタッチパネルの操作に応じた描画が行われる。
(1)
In the above-described embodiment, the integrated coordinate data indicates one of the pen input coordinates (or the coordinates indicated by the pen input data, the same applies hereinafter) and the touch input coordinates (or the coordinates indicated by the touch input data, the same applies hereinafter). An example was explained. This point, the integrated coordinate data, may indicate the coordinates of both the pen input coordinates and the touch input coordinates. In this case, the pen input coordinates and the touch input coordinates are distinguished from each other by different identifiers and stored in the
(2)変形例2
投射システムにおいて行われる処理は、実施形態で説明した処理に限らない。例えば、画像データの圧縮が、1フレームごとに行われてもよい。
また、上述の実施形態では、画像処理が施される前の画像データがフレームメモリー12aから読み出され、タブレット端末4に出力される例を説明した。この点、画像処理が行われた後の画像データがフレームメモリー12bから読み出され、読み出された画像データに対して所定の処理が行われた画像データがタブレット端末4に出力されてもよい。例えば、リサイズ画像に対してキーストーン補正処理が行われる場合には、CPU10は、キーストーン補正処理後の画像データに、このキーストーン補正処理の逆変換をする処理を行い、逆変換がされた画像データをタブレット端末4に出力してもよい。なお、この場合には、プロジェクター1のRAM12は、必ずしも2枚のフレームメモリーを有していなくてもよい。
(2)
The process performed in the projection system is not limited to the process described in the embodiment. For example, compression of image data may be performed for each frame.
In the above-described embodiment, an example in which image data before image processing is read from the frame memory 12a and output to the
また、上述の実施形態では、指示体3を用いた筆記動作がタッチパネル44の操作よりも前に行われた場合の処理例を示したが、いうまでもなく、タッチパネル44の操作が指示体3を用いた筆記動作よりも前に行われてもよい。この場合、ステップSA7乃至ステップSA9(ステップSB7乃至ステップSB9)に示した処理は、ステップSA11およびステップSA12(ステップSB11およびステップSB12)に示した処理よりも後に行われる。
さらに、上述の実施形態では、一次画像上に統合座標データに応じた画が描かれる例を説明したが、二次画像上に統合座標データに応じた画がさらに描かれてもよい。
Further, in the above-described embodiment, the processing example in the case where the writing operation using the indicator 3 is performed before the operation of the
Furthermore, in the above-described embodiment, an example in which an image corresponding to the integrated coordinate data is drawn on the primary image has been described. However, an image corresponding to the integrated coordinate data may be further drawn on the secondary image.
(3)変形例3
上述の実施形態では、リサイズ処理において、1フレームごとにオフセット値αおよび変換係数βが算出される例を説明した。この点、プロジェクター1に映像信号が継続して入力されている間は、一度算出されたオフセット値αおよび変換係数βと同じ値を用いて入力画像がリサイズされてもよい。この場合、CPU10は、一度算出されたオフセット値αおよび変換係数βを、映像信号が入力されている間、RAM12に記憶しておき、これらの値を用いて複数の入力画像をリサイズする。
(3) Modification 3
In the above-described embodiment, the example in which the offset value α and the conversion coefficient β are calculated for each frame in the resizing process has been described. In this regard, while the video signal is continuously input to the
(4)変形例4
リサイズ処理および座標変換処理について示した上述の式(1)乃至(5)はあくまで一例であり、これらの式とは異なる式により、リサイズ処理または座標変換処理が行われてもよい。例えば、上述の実施形態では、オフセット値が、入力画像から一律に除かれる画素の横方向の数を示す値である場合について説明したが、オフセット値は、入力画像から一律に除かれる画素の縦方向の数を示す値であってもよい。この場合、オフセット値は、式(1)とは異なる式により算出される。また、上述の実施形態では、リサイズ処理において入力画像が縮小される例を説明したが、リサイズ処理において入力画像が拡大されてもよい。
(4)
The above-described formulas (1) to (5) shown for the resizing process and the coordinate conversion process are merely examples, and the resizing process or the coordinate conversion process may be performed by a formula different from these formulas. For example, in the above-described embodiment, the case has been described in which the offset value is a value indicating the number of pixels in the horizontal direction that are uniformly removed from the input image. It may be a value indicating the number of directions. In this case, the offset value is calculated by an expression different from Expression (1). In the above-described embodiment, the example in which the input image is reduced in the resizing process has been described. However, the input image may be enlarged in the resizing process.
(5)変形例5
投射システムの構成は、実施形態に記載された構成に限らない。例えば、実施形態1においては、プロジェクター1のIF部13が、USB端子を介してPC2に座標データを出力する例を説明したが、IF部13は無線LANインターフェースを介して座標データを出力してもよい。別の例で、複数台のタブレット端末4または複数本の指示体3が投射システムにおいて用いられてもよい。この場合、複数台のタブレット端末4から得られたタッチ入力座標の各々、または複数本の指示体3から得られたペン入力座標の各々は、互いに異なる識別子により区別されていてもよい。この例によれば、ユーザーがあるタッチパネル44を操作した場合と、他のタッチパネル44を操作した場合とで、外部装置(またはプロジェクター1)の異なる入力デバイスに対応する描画が行われる。さらに別の例で、DVDプレーヤー5に代えて、ビデオプレーヤーが用いられてもよい。
(5)
The configuration of the projection system is not limited to the configuration described in the embodiment. For example, in the first embodiment, an example in which the
(6)変形例6
プロジェクター1の機能的構成は、図2または図10に示した構成に限らない。例えば、プロジェクター1は、図2および図10に示した機能的構成の両方を有していてもよい。この場合、プロジェクター1は、映像信号の入力源がPC2(すなわち描画プログラムを実行する外部装置)である場合には図7に示した処理を行い、映像信号の入力源がDVDプレーヤー5(すなわち描画プログラムを実行しない外部装置)である場合には図11に示した処理を行う。別の例で、撮像部105および座標データ生成部106は、プロジェクター1の外部構成であってもよい。この場合、プロジェクター1は、座標データ生成部106により生成されたペン入力データを取得する座標データ取得部を有する。
(6) Modification 6
The functional configuration of the
(7)変形例7
投射システムにおいて用いられる各種機器のハードウェア構成は、図3乃至図6に示した構成に限らない。投射システムにおいて用いられる各種機器は、図7、図8、および図11に示した各ステップの処理を実行できれば、どのようなハードウェア構成であってもよい。例えば、上述の実施形態では、プロジェクター1が3枚の液晶パネル152を有する例を説明したが、プロジェクター1は、1枚の液晶パネル152とカラーホイールを組み合わせた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のDMDとカラーホイールを組み合わせた方式等により構成されていてもよい。
(7) Modification 7
The hardware configuration of various devices used in the projection system is not limited to the configuration shown in FIGS. The various devices used in the projection system may have any hardware configuration as long as the processing of each step shown in FIGS. 7, 8, and 11 can be executed. For example, in the above-described embodiment, an example in which the
1…プロジェクター、2…パーソナルコンピューター、3…指示体、4…タブレット端末、101…映像信号取得部、102…画像調整部、103…画像処理部、104…投射部、105…撮像部、106…座標データ生成部、107…座標変換部、108…座標データ取得部、109…座標変換部、110…統合部、111…座標データ出力部、112…画像データ取得部、113…画像圧縮部、114…画像データ出力部、115…描画部、116…画像データ合成部、201…映像信号出力部、202…座標データ取得部、203…描画部、301…圧力検出部、302…発光部、401…座標変換部、402…座標データ出力部、403…画像データ取得部、404…表示制御部、10…CPU、11…ROM、12…RAM、13…IF部、14…画像処理回路、15…投射ユニット、16…イメージセンサー、17…受光部、18…操作パネル、19…入力処理部、151…光源、152…液晶パネル、153…光学系、154…光源駆動回路、155…パネル駆動回路、156…光学系駆動回路、20…CPU、21…ROM、22…RAM、23…IF部、24…表示部、25…入力部、30…制御部、31…圧力センサー、32…LED、40…CPU、41…ROM、42…RAM、43…IF部、44…タッチパネル。
DESCRIPTION OF
Claims (8)
タッチパネルを有する電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する第1座標データ取得部と、
前記投射部により前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する第2座標データ取得部と、
前記第1座標データ取得部により取得された第1の座標データと、前記第2座標データ取得部により取得された第2の座標データとが統合された第3の座標データを生成する統合部と、
前記第1の画像上に、前記統合部により生成された第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する画像データ取得部と、
前記画像データ取得部により取得された画像データを前記電子機器に出力する画像データ出力部と、
前記第2の画像を示す映像信号を前記投射部に出力する出力部と
を有するプロジェクター。 A projection unit that projects an image indicated by the video signal;
A first coordinate data acquisition unit that acquires first coordinate data indicating coordinates of a point on a first image indicated by the video signal from an electronic device having a touch panel;
A second coordinate data acquisition unit for acquiring second coordinate data indicating coordinates of a point designated by a user on the projection surface on which the first image is projected by the projection unit;
An integration unit for generating third coordinate data in which the first coordinate data acquired by the first coordinate data acquisition unit and the second coordinate data acquired by the second coordinate data acquisition unit are integrated; ,
An image data acquisition unit that acquires image data indicating a second image in which an image corresponding to the third coordinate data generated by the integration unit is drawn on the first image;
An image data output unit that outputs the image data acquired by the image data acquisition unit to the electronic device;
An output unit that outputs a video signal indicating the second image to the projection unit.
ことを特徴とする請求項1に記載のプロジェクター。 2. The projector according to claim 1, wherein the third coordinate data indicates one of coordinates selected from the coordinates indicated by the first coordinate data and the coordinates indicated by the second coordinate data. .
ことを特徴とする請求項1に記載のプロジェクター。 The projector according to claim 1, wherein the third coordinate data indicates a coordinate indicated by the first coordinate data and a coordinate indicated by the second coordinate data, which are distinguished by different identifiers.
ことを特徴とする請求項3に記載のプロジェクター。 The projector according to claim 3, wherein the coordinate identifier indicated by the first coordinate data and the coordinate identifier indicated by the second coordinate data correspond to different input devices.
前記画像データ取得部は、前記外部装置から前記画像データを取得する
ことを特徴とする請求項1乃至4のいずれか1項に記載のプロジェクター。 A coordinate data output unit that outputs the third coordinate data generated by the integration unit to an external device that is an input source of the video signal;
The projector according to claim 1, wherein the image data acquisition unit acquires the image data from the external device.
前記第1の画像と、前記描画部により描かれた画とを合成し、前記画像データを生成する合成部とを有し、
前記画像データ取得部は、前記合成部から前記画像データを取得する
ことを特徴とする請求項1乃至4のいずれか1項に記載のプロジェクター。 A drawing unit for drawing an image according to the third coordinate data;
A synthesis unit that synthesizes the first image and the image drawn by the drawing unit and generates the image data;
The projector according to claim 1, wherein the image data acquisition unit acquires the image data from the synthesis unit.
前記プロジェクターは、
映像信号が示す画像を投射する投射部と、
前記電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する第1座標データ取得部と、
前記投射部により前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する第2座標データ取得部と、
前記第1座標データ取得部により取得された第1の座標データと、前記第2座標データ取得部により取得された第2の座標データとが統合された第3の座標データを生成する統合部と、
前記第1の画像上に、前記統合部により生成された第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する画像データ取得部と、
前記画像データ取得部により取得された画像データを前記電子機器に出力する画像データ出力部と、
前記第2の画像を示す映像信号を前記投射部に出力する出力部と
を有し、
前記電子機器は、
タッチパネルと、
前記タッチパネル上でユーザーが指示した点の座標を、第1の画像上の点の座標に変換し、前記第1の座標データを生成する座標変換部と、
前記座標変換部により生成された第1の座標データを、前記プロジェクターに出力する座標データ出力部と、
前記プロジェクターから出力された画像データが示す前記第2の画像を、前記タッチパネルに表示させる表示制御部と
を有する投射システム。 A projector and an electronic device,
The projector is
A projection unit that projects an image indicated by the video signal;
A first coordinate data acquisition unit that acquires, from the electronic device, first coordinate data indicating the coordinates of a point on the first image indicated by the video signal;
A second coordinate data acquisition unit for acquiring second coordinate data indicating coordinates of a point designated by a user on the projection surface on which the first image is projected by the projection unit;
An integration unit for generating third coordinate data in which the first coordinate data acquired by the first coordinate data acquisition unit and the second coordinate data acquired by the second coordinate data acquisition unit are integrated; ,
An image data acquisition unit that acquires image data indicating a second image in which an image corresponding to the third coordinate data generated by the integration unit is drawn on the first image;
An image data output unit that outputs the image data acquired by the image data acquisition unit to the electronic device;
An output unit that outputs a video signal indicating the second image to the projection unit;
The electronic device is
A touch panel;
A coordinate conversion unit that converts the coordinates of the point designated by the user on the touch panel into the coordinates of the point on the first image, and generates the first coordinate data;
A coordinate data output unit that outputs the first coordinate data generated by the coordinate conversion unit to the projector;
A projection control system comprising: a display control unit configured to display the second image indicated by the image data output from the projector on the touch panel.
タッチパネルを有する電子機器から、前記映像信号が示す第1の画像上の点の座標を示す第1の座標データを取得する工程と、
前記第1の画像が投射された投射面上でユーザーが指示体により指示した点の座標を示す第2の座標データを取得する工程と、
前記第1の座標データと、前記第2の座標データとが統合された第3の座標データを生成する工程と、
前記第1の画像上に、前記第3の座標データに応じた画が描かれた第2の画像を示す画像データを取得する工程と、
前記画像データを前記電子機器に出力する工程と、
前記第2の画像を示す映像信号を前記投射部に出力する工程と
を有するプロジェクターの制御方法。 A step in which the projection unit projects an image indicated by the video signal;
Obtaining, from an electronic device having a touch panel, first coordinate data indicating the coordinates of a point on a first image indicated by the video signal;
Obtaining second coordinate data indicating the coordinates of a point designated by the user on the projection surface on which the first image is projected;
Generating third coordinate data in which the first coordinate data and the second coordinate data are integrated;
Obtaining image data indicating a second image in which an image corresponding to the third coordinate data is drawn on the first image;
Outputting the image data to the electronic device;
And a step of outputting a video signal indicating the second image to the projection unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013055164A JP6194605B2 (en) | 2013-03-18 | 2013-03-18 | Projector, projection system, and projector control method |
US14/180,715 US9406280B2 (en) | 2013-03-18 | 2014-02-14 | Image display device, image display system, and method of controlling image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013055164A JP6194605B2 (en) | 2013-03-18 | 2013-03-18 | Projector, projection system, and projector control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014182468A true JP2014182468A (en) | 2014-09-29 |
JP6194605B2 JP6194605B2 (en) | 2017-09-13 |
Family
ID=51701150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013055164A Expired - Fee Related JP6194605B2 (en) | 2013-03-18 | 2013-03-18 | Projector, projection system, and projector control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6194605B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015159543A1 (en) * | 2014-04-18 | 2015-10-22 | セイコーエプソン株式会社 | Display system, display device, and display control method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000324462A (en) * | 1999-05-07 | 2000-11-24 | Seiko Epson Corp | Meeting system and information storage medium |
JP2011199450A (en) * | 2010-03-18 | 2011-10-06 | Konica Minolta Business Technologies Inc | Conference system, information processing apparatus, display method, and display program |
-
2013
- 2013-03-18 JP JP2013055164A patent/JP6194605B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000324462A (en) * | 1999-05-07 | 2000-11-24 | Seiko Epson Corp | Meeting system and information storage medium |
JP2011199450A (en) * | 2010-03-18 | 2011-10-06 | Konica Minolta Business Technologies Inc | Conference system, information processing apparatus, display method, and display program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015159543A1 (en) * | 2014-04-18 | 2015-10-22 | セイコーエプソン株式会社 | Display system, display device, and display control method |
Also Published As
Publication number | Publication date |
---|---|
JP6194605B2 (en) | 2017-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6244627B2 (en) | Image display device, projector, and control method of image display device | |
US9406280B2 (en) | Image display device, image display system, and method of controlling image display device | |
CN106851234B (en) | Projector and control method of projector | |
US9830023B2 (en) | Image display apparatus and method of controlling image display apparatus | |
JP4770197B2 (en) | Presentation control apparatus and program | |
JP2012108479A (en) | Projection type display device and control method thereof | |
JP2018036540A (en) | Display device, and method for controlling display device | |
JP2018036471A (en) | Display device, display system, and method for controlling display device | |
JP5152317B2 (en) | Presentation control apparatus and program | |
JP6194605B2 (en) | Projector, projection system, and projector control method | |
JP2018022013A (en) | Display device, display system, and method for controlling display device | |
JP6766716B2 (en) | Information processing equipment, image display program, image display method and display system | |
JP6728849B2 (en) | Display device and display device control method | |
JP6323035B2 (en) | Display device and display method | |
JP6232721B2 (en) | Projector, projection system, and projector control method | |
JP2009276507A (en) | Projection type display device, control method and control program for projection type display device | |
JP2018132769A (en) | Image display device, and control method of image display device | |
JP2018054912A (en) | Projection-type display device and method for controlling the same | |
JP7195816B2 (en) | PROJECTION DEVICE, PROJECTION DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP5899993B2 (en) | Image display device, image display system, and control method of image display device | |
JP2018136364A (en) | Display system, method for controlling display system, indication body, and display | |
JP2017169086A (en) | Display device, control method for display device, and program | |
JP2009193025A (en) | Image display device and highlighting method | |
JP2018078475A (en) | Control program, control method, and control device | |
JP2017198779A (en) | Projection type display device and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6194605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |