JP2015220732A - Display system, terminal device, and program - Google Patents

Display system, terminal device, and program Download PDF

Info

Publication number
JP2015220732A
JP2015220732A JP2014105425A JP2014105425A JP2015220732A JP 2015220732 A JP2015220732 A JP 2015220732A JP 2014105425 A JP2014105425 A JP 2014105425A JP 2014105425 A JP2014105425 A JP 2014105425A JP 2015220732 A JP2015220732 A JP 2015220732A
Authority
JP
Japan
Prior art keywords
terminal device
display
image
unit
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014105425A
Other languages
Japanese (ja)
Other versions
JP6547240B2 (en
Inventor
達弘 蓮
Tatsuhiro Hasu
達弘 蓮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014105425A priority Critical patent/JP6547240B2/en
Publication of JP2015220732A publication Critical patent/JP2015220732A/en
Application granted granted Critical
Publication of JP6547240B2 publication Critical patent/JP6547240B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operability by enabling even a user who does not know setting or the like to easily operate a device separate from a display device, in the case of varying a display image by operating the separate device.SOLUTION: A display system 1 comprises a projector 100 and a terminal device 10. The terminal device 10 displays an orientation guide image 210 indicating an association between at least the positions or the orientations of the terminal device 10 and the projector 100. The terminal device 10 detects at least the position or the orientation of the terminal device 10, and the projector 100 deforms a projected image 201 in response to the variation in the position or the orientation of the terminal device 10.

Description

本発明は、表示システム、端末装置、および、プログラムに関する。   The present invention relates to a display system, a terminal device, and a program.

従来、プロジェクター等の表示装置が表示する画像の表示状態を、プロジェクターとは別体の装置によって制御するシステムが知られている(例えば、特許文献1、2参照)。特許文献1では、プロジェクターのリモコンを傾ける操作を行った場合に、リモコンの傾き角度に応じてプロジェクターが画像を補正する。特許文献2では、携帯機器が出力する画像をプロジェクターがスクリーンに表示する構成において、携帯機器の傾きに基づき、プロジェクターが、スクリーンにおいて画像を傾かせる。   2. Description of the Related Art Conventionally, a system that controls the display state of an image displayed by a display device such as a projector by using a device separate from the projector is known (see, for example, Patent Documents 1 and 2). In Patent Document 1, when an operation of tilting the projector remote control is performed, the projector corrects the image according to the tilt angle of the remote control. In Patent Document 2, in a configuration in which a projector displays an image output from a mobile device on a screen, the projector tilts the image on the screen based on the tilt of the mobile device.

特開2008−40367号公報JP 2008-40367 A 特開2013−146049号公報JP 2013-146049 A

上記従来の構成では、表示される画像が所望の状態になるように、ユーザーがリモコンや携帯機器等の装置を傾ける操作を行う必要がある。この構成では、装置の傾き方と画像の変化との対応関係をユーザーが予め知っている必要がある。仮に、この対応関係を知らないユーザーが操作を行う場合は、装置を傾ける操作を行って知識を得る必要があった。
本発明は、上述した事情に鑑みてなされたものであり、表示装置とは別体の装置を操作して表示画像を変化させる場合に、設定等を知らないユーザーであっても容易に操作できるようにして、操作性の向上を図ることを目的とする。
In the above conventional configuration, the user needs to perform an operation of tilting a device such as a remote controller or a portable device so that a displayed image is in a desired state. In this configuration, the user needs to know in advance the correspondence between the inclination of the apparatus and the image change. If a user who does not know the correspondence relationship performs an operation, it is necessary to obtain knowledge by performing an operation of tilting the apparatus.
The present invention has been made in view of the above-described circumstances, and can be easily operated even by a user who does not know settings or the like when operating a device separate from the display device to change the display image. Thus, it aims at improving the operativity.

上記目的を達成するために、本発明は、表示装置及び端末装置を備える表示システムであって、前記端末装置は、前記端末装置の位置と前記表示装置の位置との対応付け、および、前記端末装置の向きと前記表示装置の向きとの対応付けのうち、少なくともいずれかを示す画像を表示する表示画面と、前記端末装置の位置および向きの少なくともいずれかを検出する検出部と、を備え、前記表示装置は、画像を表示する表示部と、前記端末装置の位置または向きの変化に応じて、前記表示部が表示する画像を変形させる画像処理部と、を備えることを特徴とする。
本発明によれば、設定等を知らないユーザーであっても、携帯型の端末装置を操作することによって、表示画像を所望の状態に変形させることができ、操作性の向上を図ることができる。
In order to achieve the above object, the present invention is a display system comprising a display device and a terminal device, wherein the terminal device associates the position of the terminal device with the position of the display device, and the terminal A display screen that displays an image indicating at least one of the association between the orientation of the device and the orientation of the display device, and a detection unit that detects at least one of the position and orientation of the terminal device, The display device includes a display unit that displays an image, and an image processing unit that deforms an image displayed by the display unit in accordance with a change in the position or orientation of the terminal device.
According to the present invention, even a user who does not know the setting or the like can change the display image to a desired state by operating the portable terminal device, thereby improving the operability. .

ここで、前記端末装置は、前記端末装置の位置を検出する前記検出部を備え、前記端末装置の位置と前記表示装置の位置との対応付けを示す画像を前記表示画面に表示し、前記表示装置は、前記端末装置の位置の変化に応じて、前記表示部が表示する画像を変形させてもよい。また、前記端末装置は、前記端末装置の向きを検出する前記検出部を備え、前記端末装置の向きと前記表示装置の向きとの対応付けを示す画像を前記表示画面に表示し、前記表示装置は、前記端末装置の向きの変化に応じて、前記表示部が表示する画像を変形させてもよい。   Here, the terminal device includes the detection unit that detects the position of the terminal device, displays an image indicating the correspondence between the position of the terminal device and the position of the display device on the display screen, and displays the display The device may deform the image displayed by the display unit in accordance with a change in the position of the terminal device. In addition, the terminal device includes the detection unit that detects an orientation of the terminal device, displays an image indicating an association between the orientation of the terminal device and the orientation of the display device on the display screen, and the display device May deform the image displayed by the display unit in accordance with a change in the orientation of the terminal device.

本発明は、上記表示システムにおいて、前記端末装置は、前記検出部の検出結果を、前記表示装置の位置または向きの変化に変換し、変換結果を送信部によって前記表示装置に送信する制御部と、を備え、前記表示装置が備える前記画像処理部は、前記端末装置から送信される変換結果に従って前記表示部が表示する画像を変形させること、を特徴とする。
本発明によれば、端末装置により検出された端末装置の位置または向きが、表示装置の位置または向きに変換されて、表示装置に送信される。このため、表示装置が表示画像を変化させる処理の負荷を軽減し、処理の効率化を図ることができる。
According to the present invention, in the display system, the terminal device converts a detection result of the detection unit into a change in a position or orientation of the display device, and transmits the conversion result to the display device by a transmission unit; The image processing unit included in the display device deforms an image displayed on the display unit according to a conversion result transmitted from the terminal device.
According to the present invention, the position or orientation of the terminal device detected by the terminal device is converted into the position or orientation of the display device and transmitted to the display device. For this reason, it is possible to reduce the processing load for the display device to change the display image and to improve the processing efficiency.

本発明は、上記表示システムにおいて、前記端末装置は、前記検出部の検出開始または検出終了を、前記表示画面の表示によって報知すること、を特徴とする。
本発明によれば、端末装置を操作するユーザーに対して、検出の開始あるいは終了を通知することができ、より一層、操作性を高めることができる。
The present invention is characterized in that, in the display system, the terminal device notifies the detection start or detection end of the detection unit by displaying the display screen.
According to the present invention, it is possible to notify the user who operates the terminal device of the start or end of detection, and the operability can be further improved.

本発明は、上記表示システムにおいて、前記表示装置は、投射対象に画像光を投射する前記表示部を備えるプロジェクターであり、前記プロジェクターの光軸方向と前記端末装置が備える前記表示画面の長手方向とが重なるように、前記端末装置の向きと前記表示部の向きとが対応付けられたこと、を特徴とする。
本発明によれば、端末装置の位置または方向が変化した場合に、表示画面の長手方向がプロジェクターの光軸に対応するように、画像が変化するので、ユーザーが直感的に操作を行うことができる。
In the display system according to the aspect of the invention, the display device is a projector including the display unit that projects image light onto a projection target, and an optical axis direction of the projector and a longitudinal direction of the display screen included in the terminal device The direction of the terminal device and the direction of the display unit are associated with each other so that they overlap each other.
According to the present invention, when the position or direction of the terminal device changes, the image changes so that the longitudinal direction of the display screen corresponds to the optical axis of the projector. it can.

本発明は、上記表示システムにおいて、前記表示装置が備える前記画像処理部は、前記端末装置の位置または向きの変化を、前記表示部の位置または向きの変化とみなして、前記表示部が投射する画像の台形歪み補正、表示倍率の変更及びフォーカス調整の少なくともいずれかを実行すること、を特徴とする。
本発明によれば、プロジェクターが投射する画像の台形歪み補正、表示倍率の変更、フォーカス調整に関する操作を、端末装置を用いて容易に行うことができる。
In the display system according to the aspect of the invention, the image processing unit included in the display device regards a change in the position or orientation of the terminal device as a change in the position or orientation of the display unit, and the display unit projects the change. It is characterized in that at least one of image trapezoidal distortion correction, display magnification change, and focus adjustment is executed.
ADVANTAGE OF THE INVENTION According to this invention, operation regarding the trapezoid distortion correction of the image which a projector projects, the change of a display magnification, and a focus adjustment can be performed easily using a terminal device.

本発明は、上記表示システムにおいて、前記端末装置が備える前記検出部は、前記表示画面の長手方向に略直交する第2の方向または第3の方向に平行な軸を中心とした前記端末装置の回転量を検出し、前記表示装置が備える前記画像処理部は、前記端末装置で検出された前記端末装置の回転量に基づいて、前記表示部が投射する画像の台形歪み補正を実行すること、を特徴とする。
本発明によれば、端末装置を、表示画面の長手方向に略直交する方向を軸として回転させることにより、プロジェクターが投射する画像の台形歪み補正が実行される。このため、端末装置の操作方法を増やして多機能化を図ることができ、操作性を向上させることができる。
In the display system according to the aspect of the invention, the detection unit included in the terminal device may include a second direction that is substantially orthogonal to a longitudinal direction of the display screen, or an axis parallel to the third direction. Detecting an amount of rotation, and the image processing unit included in the display device performs trapezoidal distortion correction of an image projected by the display unit based on the amount of rotation of the terminal device detected by the terminal device; It is characterized by.
According to the present invention, the keystone distortion correction of the image projected by the projector is executed by rotating the terminal device about the direction substantially orthogonal to the longitudinal direction of the display screen. For this reason, the operation method of a terminal device can be increased and multifunctionality can be achieved, and operativity can be improved.

本発明は、上記表示システムにおいて、前記端末装置が備える前記検出部は、前記端末装置の前記長手方向における移動を検出し、前記表示装置が備える前記画像処理部は、前記端末装置で検出された前記端末装置の移動に対応して、前記表示部が投射する画像の表示倍率の変更を実行すること、を特徴とする。
本発明によれば、端末装置を、表示画面の長手方向に移動させる操作により、画像の表示倍率を変更させることができ、表示倍率に係る操作を直感的に行うことができる。
In the display system according to the aspect of the invention, the detection unit included in the terminal device detects movement of the terminal device in the longitudinal direction, and the image processing unit included in the display device is detected by the terminal device. The display magnification of the image projected by the display unit is changed corresponding to the movement of the terminal device.
According to the present invention, the display magnification of an image can be changed by an operation of moving the terminal device in the longitudinal direction of the display screen, and an operation related to the display magnification can be intuitively performed.

また、上記目的を達成するために、本発明は、端末装置であって、外部の表示装置に情報を送信する送信部と、前記端末装置の位置と前記表示装置の位置との対応付け、および、前記端末装置の向きと前記表示装置との対応付けのうち、少なくともいずれかを示す画像を表示する表示画面と、前記端末装置の位置および向きの少なくともいずれかを検出する検出部と、前記検出部で検出した前記端末装置の位置または向きの変化に基づき、前記表示装置の位置または向きの変化を示す情報を生成して前記送信部により送信させる制御部と、を備えることを特徴とする。
本発明によれば、設定等を知らないユーザーであっても、携帯型の端末装置を操作することによって、表示画像を所望の状態に変形させることができ、操作性の向上を図ることができる。
In order to achieve the above object, the present invention provides a terminal device, a transmission unit that transmits information to an external display device, an association between the position of the terminal device and the position of the display device, and A display screen that displays an image showing at least one of the orientation of the terminal device and the display device, a detection unit that detects at least one of the position and orientation of the terminal device, and the detection A control unit that generates information indicating a change in the position or orientation of the display device based on a change in the position or orientation of the terminal device detected by the transmission unit and transmits the information by the transmission unit.
According to the present invention, even a user who does not know the setting or the like can change the display image to a desired state by operating the portable terminal device, thereby improving the operability. .

また、上記目的を達成するために、本発明は、端末装置を制御するコンピューターにより実行可能なプログラムであって、前記コンピューターにより、前記端末装置の位置と外部の表示装置の位置との対応付け、および、前記端末装置の向きと前記表示装置との対応付けのうち、少なくともいずれかを示す画像を表示画面に表示しと、前記端末装置の位置および向きの少なくともいずれかを検出した場合に、検出した前記端末装置の位置または向きの変化に基づき、前記表示装置の位置または向きの変化を示す情報を生成して前記表示装置に送信すること、を特徴とする。
本発明によれば、設定等を知らないユーザーであっても、携帯型の端末装置を操作することによって、表示画像を所望の状態に変形させることができ、操作性の向上を図ることができる。
In order to achieve the above object, the present invention is a program that can be executed by a computer that controls a terminal device, wherein the computer associates the position of the terminal device with the position of an external display device, And detecting when displaying an image indicating at least one of the correspondence between the orientation of the terminal device and the display device on a display screen and detecting at least one of the position and orientation of the terminal device Based on the change in the position or orientation of the terminal device, information indicating the change in the position or orientation of the display device is generated and transmitted to the display device.
According to the present invention, even a user who does not know the setting or the like can change the display image to a desired state by operating the portable terminal device, thereby improving the operability. .

本発明によれば、設定等を知らないユーザーであっても、携帯型の端末装置を操作することによって、表示画像を所望の状態に変形させることができ、操作性の向上を図ることができる。   According to the present invention, even a user who does not know the setting or the like can change the display image to a desired state by operating the portable terminal device, thereby improving the operability. .

表示システムの概略構成を示す図である。It is a figure which shows schematic structure of a display system. 端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of a terminal device. プロジェクターの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of a projector. プロジェクター及び端末装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a projector and a terminal device. 端末装置に表示される画像の例を示す図である。It is a figure which shows the example of the image displayed on a terminal device. プロジェクターにより実行される補正処理および変形処理を説明する図である。It is a figure explaining the correction process and deformation | transformation process which are performed by a projector.

以下、添付図面を参照して本発明の実施形態について説明する。
図1に、本実施形態の表示システム1の概略構成を示す。本実施形態の表示システム1は、入力装置としての端末装置10と、表示装置としてのプロジェクター100とを備える。
端末装置10とプロジェクター100とは、無線通信方式によって各種データを送受信可能に接続される。この無線通信方式には、例えば無線LAN(Local Area Network)、Bluetooth(登録商標)、UWB(Ultra Wide Band)、赤外線通信等の近距離無線通信方式や、携帯電話回線を利用した無線通信方式を採用できる。プロジェクター100は、複数の端末装置10に接続して、これらの端末装置10と通信できる。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
FIG. 1 shows a schematic configuration of a display system 1 of the present embodiment. The display system 1 of this embodiment includes a terminal device 10 as an input device and a projector 100 as a display device.
The terminal device 10 and the projector 100 are connected so as to be able to transmit and receive various data by a wireless communication method. As this wireless communication system, for example, a short-range wireless communication system such as a wireless local area network (LAN), Bluetooth (registered trademark), UWB (Ultra Wide Band), infrared communication, or a wireless communication system using a mobile phone line is used. Can be adopted. The projector 100 is connected to a plurality of terminal devices 10 and can communicate with these terminal devices 10.

端末装置10は、ユーザーが手に持って操作する小型の装置であり、例えば、スマートフォン等の携帯電話、タブレット端末、PDA(Personal Digital Assistants)等の装置である。端末装置10は、平板状の端末装置本体11(本体)を有し、端末装置本体11の表面には表示パネル52(表示画面)が配置され、表示パネル52の表面にはユーザーの接触操作を検出するタッチスクリーン53(図2)が配置される。表示パネル52は、図1に示すように、端末装置本体11の最も広い面の一方において、ほぼ全面を覆うように配置される。また、本実施形態の表示パネル52は細長い矩形であり、ユーザーが長辺と短辺とを明らかに区別できる。また、端末装置10は、タッチスクリーン53の他の入力デバイスとして各種スイッチを備えてもよい。
プロジェクター100は、投射対象に画像光を投射して、投射対象の面に画像を形成する。プロジェクター100が画像を投射する投射対象は、平面であっても曲面や凹凸面であってもよいが、本実施形態では、平面で構成されるスクリーンSCに投射する例を示す。スクリーンSCは壁面等の固定された平面を利用してもよいし、吊り下げ式や立ち上げ式の幕状のスクリーンであってもよい。図1はプロジェクター100の設置状態を示す。プロジェクター100は、箱形のプロジェクター本体101(本体)を有し、プロジェクター本体101の一つの面には画像光を投射する投射開口部114が設けられる。投射開口部114は、プロジェクター本体101に内蔵される投射光学系113(図3)が光を放射する開口部である。
The terminal device 10 is a small device that a user holds and operates. For example, the terminal device 10 is a mobile phone such as a smartphone, a tablet terminal, or a PDA (Personal Digital Assistants). The terminal device 10 has a flat terminal device main body 11 (main body). A display panel 52 (display screen) is arranged on the surface of the terminal device main body 11, and a user touch operation is performed on the surface of the display panel 52. A touch screen 53 (FIG. 2) to be detected is arranged. As shown in FIG. 1, the display panel 52 is disposed so as to cover almost the entire surface on one of the widest surfaces of the terminal device body 11. Further, the display panel 52 of the present embodiment is an elongated rectangle, and the user can clearly distinguish the long side and the short side. Further, the terminal device 10 may include various switches as other input devices of the touch screen 53.
The projector 100 projects image light onto a projection target and forms an image on the projection target surface. The projection target on which the projector 100 projects an image may be a flat surface, a curved surface, or an uneven surface, but in the present embodiment, an example of projecting onto a screen SC configured with a flat surface is shown. The screen SC may use a fixed plane such as a wall surface, or may be a hanging or rising curtain screen. FIG. 1 shows the installation state of the projector 100. The projector 100 includes a box-shaped projector main body 101 (main body), and a projection opening 114 that projects image light is provided on one surface of the projector main body 101. The projection opening 114 is an opening through which the projection optical system 113 (FIG. 3) built in the projector main body 101 emits light.

本実施形態では、スクリーンSCは矩形形状であり、プロジェクター100はスクリーンSCの正面(前面)側に配置される。プロジェクター100は、矩形の画像(静止画像及び動画像を含む)の画像光を投射し、スクリーンSCには矩形の投射画像201が形成される。図1の設置状態では、プロジェクター100が、スクリーンSCの斜め上方から下向きに画像光を投射するので、スクリーンSCに形成される投射画像201は矩形ではなく、台形歪みを生じている。   In the present embodiment, the screen SC has a rectangular shape, and the projector 100 is disposed on the front (front) side of the screen SC. The projector 100 projects image light of a rectangular image (including a still image and a moving image), and a rectangular projection image 201 is formed on the screen SC. In the installed state of FIG. 1, the projector 100 projects image light from obliquely upward to the screen SC, so that the projected image 201 formed on the screen SC is not rectangular but has trapezoidal distortion.

表示システム1では、端末装置本体11の位置及び方向と、プロジェクター本体101の位置及び方向とが、後述するように対応付けられる。このため、表示システム1では、端末装置本体11及びプロジェクター本体101の各々について、位置及び方向の基準が定められる。
本実施形態では、一例として、端末装置本体11及びプロジェクター本体101について、3次元直交座標系を設定し、この座標系を基準として端末装置本体11及びプロジェクター本体101の位置及び方向に関する処理を行う。
In the display system 1, the position and direction of the terminal device body 11 and the position and direction of the projector body 101 are associated with each other as described later. For this reason, in the display system 1, the position and direction standards are determined for each of the terminal device body 11 and the projector body 101.
In the present embodiment, as an example, a three-dimensional orthogonal coordinate system is set for the terminal device main body 11 and the projector main body 101, and processing relating to the positions and directions of the terminal device main body 11 and the projector main body 101 is performed using this coordinate system as a reference.

端末装置本体11には、表示パネル52の長手方向の軸AX、軸AXに直交し、表示パネル52に平行な軸AY、及び、軸AXに直交し、表示パネル52に垂直な軸AZが設定される。また、軸AXを中心とした回転の方向をCX方向の回転とし、軸AYを中心とした回転の方向をCY方向の回転とし、軸AZを中心とした回転の方向をCZ方向の回転とする。軸AX、軸AY及び軸AZは一点で交差することが好ましく、この交点を座標系の原点とすることができる。原点の位置は、本実施形態では端末装置本体11の表面上とするが、端末装置本体11の中心であってもよい。
プロジェクター本体101には、投射開口部114から投射する画像光の光軸に重なる軸PX、軸PXに直交しプロジェクター本体101の設置面に平行な軸PY、及び、軸PXに直交しプロジェクター本体101の設置面に垂直な軸PZが設定される。また、軸PXを中心とした回転の方向をQX方向の回転とし、軸PYを中心とした回転の方向をQY方向の回転とし、軸PZを中心とした回転の方向をQZ方向の回転とする。軸PX、軸PY及び軸PZは一点で交差することが好ましく、この交点を座標系の原点とすることができる。原点の位置は、本実施形態ではプロジェクター本体101が投射する画像光の光軸上とする。プロジェクター本体101の中心や、プロジェクター本体101の上面に原点が位置してもよい。
The terminal device body 11 has an axis AX in the longitudinal direction of the display panel 52, an axis AY that is orthogonal to the axis AX, parallel to the display panel 52, and an axis AZ that is orthogonal to the axis AX and perpendicular to the display panel 52. Is done. The direction of rotation about the axis AX is the rotation in the CX direction, the direction of rotation about the axis AY is the rotation in the CY direction, and the direction of rotation about the axis AZ is the rotation in the CZ direction. . The axis AX, the axis AY, and the axis AZ preferably intersect at one point, and this intersection can be the origin of the coordinate system. Although the position of the origin is on the surface of the terminal device main body 11 in this embodiment, it may be the center of the terminal device main body 11.
The projector main body 101 includes an axis PX that overlaps the optical axis of the image light projected from the projection opening 114, an axis PY that is orthogonal to the axis PX and parallel to the installation surface of the projector main body 101, and an axis PX that is orthogonal to the axis PX. An axis PZ perpendicular to the installation surface is set. Further, the direction of rotation about the axis PX is the rotation in the QX direction, the direction of rotation about the axis PY is the rotation in the QY direction, and the direction of rotation about the axis PZ is the rotation in the QZ direction. . The axis PX, the axis PY, and the axis PZ preferably intersect at one point, and this intersection can be the origin of the coordinate system. In this embodiment, the position of the origin is on the optical axis of the image light projected by the projector main body 101. The origin may be located at the center of the projector main body 101 or the upper surface of the projector main body 101.

表示システム1は、端末装置本体11とプロジェクター本体101について、位置および方向の少なくともいずれかに対する処理を実行する。位置のみ、或いは方向のみについて、処理を行う構成とすることが可能である。本実施形態では、一例として、端末装置本体11及びプロジェクター本体101の位置と、方向との両方について処理を行う場合を説明する。   The display system 1 executes processing for at least one of the position and the direction for the terminal device body 11 and the projector body 101. It is possible to adopt a configuration in which processing is performed for only the position or only the direction. In the present embodiment, as an example, a case will be described in which processing is performed for both the position and direction of the terminal device main body 11 and the projector main body 101.

図2は、端末装置10の構成を示すブロック図である。
端末装置10は、端末装置10の各部を制御する制御部20を備える。制御部20は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備え、ROMに記憶した基本制御プログラムをCPUにより実行して、端末装置10を制御する。また、制御部20は、記憶部30に記憶されたアプリケーションプログラム31を実行することにより、後述する表示制御部21、動作検出部23(制御部)、通信制御部22として機能する(以下、これらを機能ブロックと呼ぶ)。
FIG. 2 is a block diagram illustrating a configuration of the terminal device 10.
The terminal device 10 includes a control unit 20 that controls each unit of the terminal device 10. The control unit 20 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like (not shown), and controls the terminal device 10 by executing a basic control program stored in the ROM by the CPU. To do. The control unit 20 also functions as a display control unit 21, an operation detection unit 23 (control unit), and a communication control unit 22 (to be described later) by executing the application program 31 stored in the storage unit 30 (hereinafter referred to as these). Is called a functional block).

端末装置10は、記憶部30を備える。記憶部30は、フラッシュメモリー、EEPROM(Electronically Erasable and Programmable Read Only Memory)等の不揮発性の記憶装置であり、制御部20に接続される。記憶部30は、アプリケーションプログラム31を含む各種プログラムや、プロジェクター100から受信した画像データ32等を記憶する。また、記憶部30は、方向設定データ33を記憶する。方向設定データ33は、端末装置本体11(図1)の位置及び方向と、プロジェクター本体101(図1)の位置及び方向と、を対応付けるデータである。方向設定データ33は、後述する角速度センサー61または加速度センサー62により検出される端末装置本体11の方向や位置の変化を、プロジェクター本体101の方向や位置の変化に変換する場合に利用される。
例えば、方向設定データ33は、端末装置本体11の軸AX、AY、AZのそれぞれを、軸PX、PY、PZとみなすよう対応づける。この場合、端末装置本体11が軸AXに移動した場合、プロジェクター本体101が軸PX方向に移動したとみなされる。また、方向設定データ33は、端末装置本体11の位置及び方向の変化量を、プロジェクター本体101の位置及び変化量に変換する倍率を定めるデータを含んでもよい。
The terminal device 10 includes a storage unit 30. The storage unit 30 is a nonvolatile storage device such as a flash memory or an EEPROM (Electronically Erasable and Programmable Read Only Memory), and is connected to the control unit 20. The storage unit 30 stores various programs including the application program 31, image data 32 received from the projector 100, and the like. In addition, the storage unit 30 stores direction setting data 33. The direction setting data 33 is data that associates the position and direction of the terminal device main body 11 (FIG. 1) with the position and direction of the projector main body 101 (FIG. 1). The direction setting data 33 is used when a change in the direction or position of the terminal device body 11 detected by an angular velocity sensor 61 or an acceleration sensor 62 described later is converted into a change in the direction or position of the projector body 101.
For example, the direction setting data 33 associates the axes AX, AY, and AZ of the terminal device body 11 with each other as the axes PX, PY, and PZ. In this case, when the terminal apparatus body 11 moves to the axis AX, it is considered that the projector body 101 has moved in the direction of the axis PX. Further, the direction setting data 33 may include data for determining a magnification for converting the change amount of the position and direction of the terminal device main body 11 into the position and change amount of the projector main body 101.

端末装置10は、無線通信部40を備える。無線通信部40は、アンテナやRF(Radio Frequency)回路(不図示)等を備え、制御部20に接続される。無線通信部40は、制御部20によって制御され、プロジェクター100との間で上述した無線通信方式に準じて各種データを送受信する。無線通信部40は、通信制御部22とともに送信部として機能する。   The terminal device 10 includes a wireless communication unit 40. The wireless communication unit 40 includes an antenna, an RF (Radio Frequency) circuit (not shown), and the like, and is connected to the control unit 20. The wireless communication unit 40 is controlled by the control unit 20 and transmits / receives various data to / from the projector 100 according to the wireless communication method described above. The wireless communication unit 40 functions as a transmission unit together with the communication control unit 22.

端末装置10は、表示部51を備える。表示部51は、表示パネル52を備え、制御部20に接続している。表示部51は、制御部20から入力した画像データに基づいて、不図示の描画メモリーに表示パネル52の表示解像度に合わせたフレームを描画し、描画したフレームに基づき表示パネル52に画像を表示させる。   The terminal device 10 includes a display unit 51. The display unit 51 includes a display panel 52 and is connected to the control unit 20. The display unit 51 draws a frame according to the display resolution of the display panel 52 in a drawing memory (not shown) based on the image data input from the control unit 20, and causes the display panel 52 to display an image based on the drawn frame. .

端末装置10は、タッチスクリーン53と、スイッチ部54と、操作検出部55とを備える。タッチスクリーン53は、表示パネル52への接触操作を検出して、検出した操作位置を示す位置信号を操作検出部55に出力する。操作検出部55は、タッチスクリーン53から入力される位置信号に基づいて、タッチスクリーン53上の座標を示す座標情報を生成し、制御部20に出力する。
スイッチ部54は、タッチスクリーン53とは別に設けられたスイッチ等の各操作子を備え、これらのスイッチが操作された場合に操作信号を操作検出部55に出力する。操作検出部55は、スイッチ部54から入力された操作信号に基づいて、操作された操作子に対応する操作情報を生成して制御部20に出力する。
制御部20は、操作検出部55から入力した座標情報又は操作情報に基づいて、表示パネル52に対する接触操作、スイッチを含む各操作子の操作、及び端末装置10の本体を動かす操作を検出できる。
The terminal device 10 includes a touch screen 53, a switch unit 54, and an operation detection unit 55. The touch screen 53 detects a touch operation on the display panel 52 and outputs a position signal indicating the detected operation position to the operation detection unit 55. The operation detection unit 55 generates coordinate information indicating coordinates on the touch screen 53 based on the position signal input from the touch screen 53 and outputs the coordinate information to the control unit 20.
The switch unit 54 includes operation elements such as switches provided separately from the touch screen 53, and outputs an operation signal to the operation detection unit 55 when these switches are operated. The operation detection unit 55 generates operation information corresponding to the operated operator based on the operation signal input from the switch unit 54 and outputs the operation information to the control unit 20.
Based on the coordinate information or operation information input from the operation detection unit 55, the control unit 20 can detect a contact operation on the display panel 52, an operation of each operator including a switch, and an operation of moving the main body of the terminal device 10.

また、端末装置10は、角速度センサー61(検出部)及び加速度センサー62(検出部)を備える。角速度センサー61は、ジャイロセンサーとも呼ばれ、角速度を検出して検出信号を制御部20に出力する。角速度センサー61の仕様は特に限定されないが、端末装置本体11(図1)のCX方向、CY方向、CZ方向のそれぞれにおける角速度を検出できるものであれば好ましい。加速度センサー62は、加速度を検出して、検出信号を制御部20に出力する。加速度センサー62の仕様は特に限定されないが、端末装置本体11(図1)の軸AX、軸AY、軸AZ方向のそれぞれにおける加速度を検出できるものであれば好ましい。   The terminal device 10 includes an angular velocity sensor 61 (detection unit) and an acceleration sensor 62 (detection unit). The angular velocity sensor 61 is also called a gyro sensor, detects an angular velocity, and outputs a detection signal to the control unit 20. Although the specification of the angular velocity sensor 61 is not particularly limited, it is preferable if it can detect angular velocities in the CX direction, CY direction, and CZ direction of the terminal device body 11 (FIG. 1). The acceleration sensor 62 detects acceleration and outputs a detection signal to the control unit 20. Although the specification of the acceleration sensor 62 is not particularly limited, it is preferable that the acceleration sensor 62 can detect the acceleration in each of the axis AX, the axis AY, and the axis AZ directions of the terminal device body 11 (FIG. 1).

制御部20が備える表示制御部21は、表示部51を制御して、表示パネル52に各種画面を表示させる。表示制御部21は、記憶部30から画像データ32を読み出して、又は無線通信部40を介して受信した画像データを表示部51に出力する。表示部51は、入力した画像データに基づいて、不図示の描画メモリーに表示パネル52の表示解像度に合わせたフレームを描画し、描画したフレームに基づき表示パネル52を駆動する。   The display control unit 21 included in the control unit 20 controls the display unit 51 to display various screens on the display panel 52. The display control unit 21 reads the image data 32 from the storage unit 30 or outputs the image data received via the wireless communication unit 40 to the display unit 51. The display unit 51 draws a frame according to the display resolution of the display panel 52 in a drawing memory (not shown) based on the input image data, and drives the display panel 52 based on the drawn frame.

動作検出部23は、角速度センサー61、及び加速度センサー62から入力される検出信号に基づいて、端末装置本体11の位置及び方向の変化を検出して、変化の方向と変化量を算出する。例えば、動作検出部23は、端末装置本体11の位置または方向が変化した場合に、この変化を、軸AX、軸AY、軸AZのそれぞれの方向における位置変化、及び、CX方向、CY方向、CZ方向のそれぞれにおける回転に分離し、各軸の移動量および各方向の回転量を出力する。ここで、位置変化は、移動あるいは変位ともいえる。例えば、端末装置本体11が、図1に示す軸AXと軸AYとの間の方向に移動した場合、動作検出部23は、この移動を軸AX方向の移動と軸AY方向の移動とに分解して、各方向の移動量を算出する。回転についても同様である。従って、端末装置本体11の移動および回転を複数の方向の成分に分離して、移動量、回転量を算出する方法は、例えば幾何学的な演算処理など、周知の方法を利用すればよい。   The motion detection unit 23 detects a change in the position and direction of the terminal device body 11 based on detection signals input from the angular velocity sensor 61 and the acceleration sensor 62, and calculates the change direction and the change amount. For example, when the position or direction of the terminal device main body 11 changes, the motion detection unit 23 changes the position in each of the axes AX, AY, and AZ, and the CX direction, CY direction, Separated into rotation in each of the CZ directions, the amount of movement of each axis and the amount of rotation in each direction are output. Here, it can be said that the position change is a movement or a displacement. For example, when the terminal device body 11 moves in the direction between the axis AX and the axis AY shown in FIG. 1, the motion detection unit 23 disassembles this movement into movement in the axis AX direction and movement in the axis AY direction. Then, the amount of movement in each direction is calculated. The same applies to rotation. Therefore, as a method of calculating the movement amount and the rotation amount by separating the movement and rotation of the terminal device main body 11 into components in a plurality of directions, for example, a known method such as a geometric calculation process may be used.

さらに、動作検出部23は、端末装置本体11の各軸方向の移動量及び各軸回りの回転量を算出した場合に、方向設定データ33に基づいて、算出した量をプロジェクター本体101の移動量及び回転量に変換する。本実施形態では、方向設定データ33は、端末装置本体11の軸AX、AY、AZのそれぞれを、軸PX、PY、PZとみなすよう対応づける。従って、端末装置本体11の軸AX方向の移動は、プロジェクター本体101の軸PX方向への移動に変換される。また、方向設定データ33は移動量の変換に関するデータを含んでもよい。例えば、方向設定データ33が移動量及び回転量の倍率を含む場合、動作検出部23は、端末装置本体11の移動量、回転量を、方向設定データ33の倍率に従ってプロジェクター本体101の移動量、回転量に変換する。
動作検出部23は、変換により得たプロジェクター本体101の移動量および回転量を示す変位データを生成して、無線通信部40を介してプロジェクター100に送信する。
Further, when the movement detection unit 23 calculates the movement amount of each direction of the terminal device body 11 and the rotation amount about each axis, the movement detection unit 23 calculates the movement amount of the projector body 101 based on the direction setting data 33. And convert to rotation amount. In the present embodiment, the direction setting data 33 associates the axes AX, AY, and AZ of the terminal apparatus body 11 with each other as the axes PX, PY, and PZ. Therefore, the movement of the terminal apparatus body 11 in the axis AX direction is converted into the movement of the projector body 101 in the axis PX direction. In addition, the direction setting data 33 may include data related to conversion of the movement amount. For example, when the direction setting data 33 includes the magnification of the movement amount and the rotation amount, the motion detection unit 23 sets the movement amount and rotation amount of the terminal device body 11 according to the magnification of the direction setting data 33, Convert to rotation amount.
The motion detection unit 23 generates displacement data indicating the movement amount and rotation amount of the projector main body 101 obtained by the conversion, and transmits the displacement data to the projector 100 via the wireless communication unit 40.

動作検出部23が角速度センサー61及び加速度センサー62の検出信号と方向設定データ33とに基づいて、変位データを生成する処理は、常時行ってもよいが、アプリケーションプログラム31の機能として実装される。すなわち、制御部20を構成するCPUがアプリケーションプログラム31を実行すると、ソフトウェア的に動作検出部23の機能が実行可能となる。また、動作検出部23の機能の一部を、端末装置10のオペレーティングシステムが提供し、他の機能をアプリケーションプログラム31が提供してもよい。   The operation detection unit 23 may always perform the process of generating the displacement data based on the detection signals of the angular velocity sensor 61 and the acceleration sensor 62 and the direction setting data 33, but is implemented as a function of the application program 31. That is, when the CPU constituting the control unit 20 executes the application program 31, the function of the operation detection unit 23 can be executed in software. Further, a part of the function of the operation detection unit 23 may be provided by the operating system of the terminal device 10, and the other function may be provided by the application program 31.

通信制御部22は、無線通信部40を制御してプロジェクター100と無線通信を行う。通信制御部22は、プロジェクター100との通信を開始または終了する場合に、プロジェクター100が備える無線通信部156(図3)との間で接続確立のための処理を実行する。また、通信制御部22は、動作検出部23が生成した変位データ等の各種のデータを無線通信部40によりプロジェクター100に送信し、プロジェクター100から送信されて無線通信部40が受信したデータを制御部20に出力する。
例えば、方向設定データ33に相当するデータがプロジェクター100から送信され、このデータを無線通信部40により受信した場合、通信制御部22は、受信したデータを制御部20に出力する。制御部20は、通信制御部22から入力されるデータを解析して、方向設定データ33に対応するデータであると判定した場合に、データ形式の変換等を行って方向設定データ33として記憶部30に記憶させる。
The communication control unit 22 controls the wireless communication unit 40 to perform wireless communication with the projector 100. The communication control unit 22 executes processing for establishing a connection with the wireless communication unit 156 (FIG. 3) included in the projector 100 when communication with the projector 100 is started or ended. Further, the communication control unit 22 transmits various data such as displacement data generated by the motion detection unit 23 to the projector 100 by the wireless communication unit 40, and controls data transmitted from the projector 100 and received by the wireless communication unit 40. To the unit 20.
For example, when data corresponding to the direction setting data 33 is transmitted from the projector 100 and this data is received by the wireless communication unit 40, the communication control unit 22 outputs the received data to the control unit 20. When the control unit 20 analyzes the data input from the communication control unit 22 and determines that the data corresponds to the direction setting data 33, the control unit 20 performs data format conversion or the like to store the direction setting data 33 as the direction setting data 33. 30.

図3は、プロジェクター100の構成を示すブロック図である。
プロジェクター100は、インターフェイス部(以下、I/Fと略記する)124を備える。プロジェクター100は、I/F部124を介して画像供給装置に接続される。I/F部124には、例えば、デジタル映像信号が入力されるDVIインターフェイス、USBインターフェイス、LANインターフェイス等を用いることができる。また、I/F部124には、例えば、NTSC、PAL、SECAM等のコンポジット映像信号が入力されるS映像端子、コンポジット映像信号が入力されるRCA端子、コンポーネント映像信号が入力されるD端子等を用いることができる。さらに、I/F部124には、HDMI(登録商標)規格に準拠したHDMIコネクター等の汎用インターフェイスを用いることができる。また、I/F部124は、アナログ映像信号をデジタル画像データに変換するA/D変換回路を有し、VGA端子等のアナログ映像端子により画像供給装置に接続される構成としてもよい。なお、I/F部124は、有線通信によって画像信号の送受信を行ってもよく、無線通信によって画像信号の送受信を行ってもよい。
FIG. 3 is a block diagram illustrating a configuration of the projector 100.
The projector 100 includes an interface unit (hereinafter abbreviated as I / F) 124. The projector 100 is connected to the image supply device via the I / F unit 124. For the I / F unit 124, for example, a DVI interface, a USB interface, a LAN interface, or the like to which a digital video signal is input can be used. In addition, the I / F unit 124 includes, for example, an S video terminal to which a composite video signal such as NTSC, PAL, or SECAM is input, an RCA terminal to which a composite video signal is input, a D terminal to which a component video signal is input, or the like. Can be used. Furthermore, a general-purpose interface such as an HDMI connector conforming to the HDMI (registered trademark) standard can be used for the I / F unit 124. The I / F unit 124 may include an A / D conversion circuit that converts an analog video signal into digital image data, and may be configured to be connected to the image supply device through an analog video terminal such as a VGA terminal. Note that the I / F unit 124 may perform transmission / reception of image signals by wired communication or may perform transmission / reception of image signals by wireless communication.

プロジェクター100は、大きく分けて光学的な画像の形成を行う投射部110(表示部)と、この投射部110に入力される画像信号を電気的に処理する画像処理系とを備える。投射部110は、光源部111、液晶パネル112Aを備える光変調装置112及び投射光学系113を備える。   The projector 100 includes a projection unit 110 (display unit) that forms an optical image roughly and an image processing system that electrically processes an image signal input to the projection unit 110. The projection unit 110 includes a light source unit 111, a light modulation device 112 including a liquid crystal panel 112A, and a projection optical system 113.

光源部111は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、レーザー等からなる光源を備える。また、光源部111は、光源が発した光を光変調装置112に導くリフレクター及び補助リフレクターを備えていてもよい。また、光源部111は、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、又は光源が発した光の光量を光変調装置112に至る経路上で低減させる調光素子等を備えるものであってもよい。   The light source unit 111 includes a light source including a xenon lamp, an ultra-high pressure mercury lamp, an LED (Light Emitting Diode), a laser, and the like. The light source unit 111 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light modulation device 112. The light source unit 111 is a lens group (not shown) for enhancing the optical characteristics of the projection light, a polarizing plate, a light control element that reduces the amount of light emitted from the light source on the path to the light modulation device 112, or the like. May be provided.

光変調装置112は、例えば、透過型の液晶パネル112Aを備え、この液晶パネル112Aに後述する画像処理系からの信号を受けて画像を形成する。この場合、光変調装置112は、カラーの投影を行うため、RGBの三原色に対応した3枚の液晶パネル112Aを備え、光源部111からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネル112Aに入射する。各液晶パネル112Aを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系113に射出される。
なお、光変調装置112は、透過型の液晶パネル112Aを3枚用いた構成に限らず、例えば3枚の反射型の液晶パネルを用いることも可能である。また、光変調装置112は、1枚の液晶パネルとカラーホイールを組み合わせた方式、3枚のDMD(Digital Mirror Device)を用いた方式、1枚のDMDとカラーホイールを組み合わせた方式等により構成してもよい。ここで、光変調装置112として1枚のみの液晶パネル112A又はDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル112A及びDMD以外にも、光源が発した光を変調可能な構成であれば問題なく採用できる。
The light modulation device 112 includes, for example, a transmissive liquid crystal panel 112A, and forms an image on the liquid crystal panel 112A in response to a signal from an image processing system described later. In this case, the light modulation device 112 includes three liquid crystal panels 112A corresponding to the three primary colors of RGB in order to perform color projection, and the light from the light source unit 111 is separated into three color lights of RGB. Is incident on the corresponding liquid crystal panel 112A. The color light modulated by passing through each liquid crystal panel 112 </ b> A is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 113.
The light modulation device 112 is not limited to a configuration using three transmissive liquid crystal panels 112A, and for example, three reflective liquid crystal panels may be used. In addition, the light modulation device 112 is configured by a system using a single liquid crystal panel and a color wheel, a system using three DMDs (Digital Mirror Device), a system using a single DMD and a color wheel, and the like. May be. Here, when only one liquid crystal panel 112A or DMD is used as the light modulation device 112, a member corresponding to a composite optical system such as a cross dichroic prism is unnecessary. In addition to the liquid crystal panel 112A and the DMD, any configuration that can modulate the light emitted from the light source can be used without any problem.

投射光学系113は、光変調装置112で変調された入射光を、投射レンズを用いて投射開口部114(図1)から外に向けて放射し、スクリーンSC上に投射画像を結像させる。   The projection optical system 113 radiates the incident light modulated by the light modulation device 112 outward from the projection opening 114 (FIG. 1) using a projection lens, and forms a projection image on the screen SC.

投射部110には、制御部130の制御に従って投射光学系113が備える各モーターを駆動する投射光学系駆動部121、及び制御部130の制御に従って光源部111が備える光源を駆動する光源駆動部122が接続される。投射光学系駆動部121及び光源駆動部122は、バス105に接続される。   The projection unit 110 includes a projection optical system driving unit 121 that drives each motor included in the projection optical system 113 according to the control of the control unit 130, and a light source driving unit 122 that drives a light source included in the light source unit 111 according to the control of the control unit 130. Is connected. The projection optical system driving unit 121 and the light source driving unit 122 are connected to the bus 105.

プロジェクター100は、無線通信部156を備える。無線通信部156は、バス105に接続される。無線通信部156は、図示しないアンテナやRF(Radio Frequency)回路等を備え、制御部130の制御の下、端末装置10との間で無線通信規格に準拠して通信する。プロジェクター100と端末装置10とは、無線通信方式によって各種データを送受信可能に接続される。   The projector 100 includes a wireless communication unit 156. The wireless communication unit 156 is connected to the bus 105. The wireless communication unit 156 includes an antenna, an RF (Radio Frequency) circuit, and the like (not shown), and communicates with the terminal device 10 in accordance with a wireless communication standard under the control of the control unit 130. The projector 100 and the terminal device 10 are connected so as to be able to transmit and receive various data by a wireless communication method.

プロジェクター100の備える画像処理系は、プロジェクター100全体を統合的に制御する制御部130を中心に構成され、その他に、記憶部151、画像処理部125、光変調装置駆動部123、入力処理部153を備える。制御部130、記憶部151、入力処理部153、画像処理部125及び光変調装置駆動部123は、それぞれバス105に接続される。   The image processing system included in the projector 100 is configured around a control unit 130 that controls the entire projector 100 in an integrated manner, and in addition, a storage unit 151, an image processing unit 125, a light modulation device driving unit 123, and an input processing unit 153. Is provided. The control unit 130, the storage unit 151, the input processing unit 153, the image processing unit 125, and the light modulation device driving unit 123 are each connected to the bus 105.

制御部130は、図示しないCPU、ROM、RAM等を備え、ROMに記憶した基本制御プログラムをCPUにより実行して、プロジェクター100を制御する。また、制御部130は、記憶部151に記憶されたアプリケーションプログラム31を実行することにより、後述する投射制御部131、通信制御部132、補正制御部133として機能する(以下、これらを機能ブロックと呼ぶ)。補正制御部133は画像処理部125と協働して、本発明の画像処理部として機能する。   The control unit 130 includes a CPU, ROM, RAM, and the like (not shown), and controls the projector 100 by executing a basic control program stored in the ROM by the CPU. Further, the control unit 130 functions as a projection control unit 131, a communication control unit 132, and a correction control unit 133, which will be described later, by executing the application program 31 stored in the storage unit 151 (hereinafter, these are referred to as functional blocks). Call). The correction control unit 133 functions as an image processing unit of the present invention in cooperation with the image processing unit 125.

記憶部151は、フラッシュメモリー、EEPROM等の不揮発性のメモリーである。記憶部151は、プロジェクター100の制御に使用される制御プログラムや、画像データ等を記憶する。また、記憶部151は、方向設定データ161及び補正データ162を記憶する。方向設定データ161は、端末装置本体11(図1)とプロジェクター本体101(図1)との位置および方向を対応付けるデータである。方向設定データ161が示す対応付けは、例えば、リモコン(図示略)または操作パネル155の操作により入力され、或いは、初期値として予めプロジェクター100が記憶する。また、I/F部124に接続される図示しないコンピューター等により、方向設定データ161が入力されてもよい。補正データ162は、端末装置10から送信される変位データに基づいて、プロジェクター100が投射する投射画像201を補正するためのデータである。具体的には、補正データ162は、変位データから補正用のパラメーターを生成するためのテーブル、演算式、パラメーター等である。   The storage unit 151 is a non-volatile memory such as a flash memory or an EEPROM. The storage unit 151 stores a control program used for controlling the projector 100, image data, and the like. In addition, the storage unit 151 stores direction setting data 161 and correction data 162. The direction setting data 161 is data that associates the positions and directions of the terminal device main body 11 (FIG. 1) and the projector main body 101 (FIG. 1). The association indicated by the direction setting data 161 is input by operating a remote controller (not shown) or the operation panel 155, or is stored in advance by the projector 100 as an initial value. Further, the direction setting data 161 may be input by a computer (not shown) connected to the I / F unit 124. The correction data 162 is data for correcting the projection image 201 projected by the projector 100 based on the displacement data transmitted from the terminal device 10. Specifically, the correction data 162 is a table, an arithmetic expression, a parameter or the like for generating a correction parameter from the displacement data.

画像処理部125は、I/F部124から入力される画像データを、光変調装置112の液晶パネル112Aの仕様に適合した解像度のデータに変換する解像度変換処理等を実行する。画像処理部125は、光変調装置112により表示する表示用画像をフレームメモリー126に描画して、描画した表示用画像を光変調装置駆動部123に出力する。光変調装置駆動部123は、画像処理部125から入力した表示用画像に基づいて、光変調装置112を駆動する。これにより、光変調装置112の液晶パネル112Aに画像が描画され、描画された画像が、投射光学系113を介してスクリーンSC上に投射画像201として投射される。   The image processing unit 125 executes resolution conversion processing that converts the image data input from the I / F unit 124 into data having a resolution that conforms to the specifications of the liquid crystal panel 112A of the light modulation device 112. The image processing unit 125 draws a display image to be displayed by the light modulation device 112 in the frame memory 126 and outputs the drawn display image to the light modulation device driving unit 123. The light modulation device driving unit 123 drives the light modulation device 112 based on the display image input from the image processing unit 125. Thereby, an image is drawn on the liquid crystal panel 112 </ b> A of the light modulation device 112, and the drawn image is projected as a projected image 201 on the screen SC via the projection optical system 113.

また、画像処理部125は、フレームメモリー126に描画した画像を変形させることにより、投射画像201の台形歪みを補正する補正処理を実行する。補正処理では、いわゆる樽型歪み(糸巻き型歪み)を補正してもよい。補正処理は、プロジェクター100とスクリーンSCとの位置関係等に起因する投射画像201の歪みを補正して、スクリーンSC上の投射画像201を適切な形状にする処理である。また、画像処理部125は、画像の拡大、縮小、回転等の変形処理を実行する。画像処理部125は、方向設定データ33から入力されるパラメーターに従って、変形処理および補正処理を実行する。   Further, the image processing unit 125 executes a correction process for correcting the trapezoidal distortion of the projected image 201 by deforming the image drawn in the frame memory 126. In the correction process, so-called barrel distortion (pincushion distortion) may be corrected. The correction process is a process of correcting the distortion of the projection image 201 caused by the positional relationship between the projector 100 and the screen SC and making the projection image 201 on the screen SC an appropriate shape. The image processing unit 125 executes deformation processing such as image enlargement, reduction, and rotation. The image processing unit 125 executes deformation processing and correction processing according to the parameters input from the direction setting data 33.

プロジェクター100の本体には、ユーザーが操作を行うための各種スイッチ及びインジケーターランプを備える操作パネル155が配置される。操作パネル155は、入力処理部153に接続される。入力処理部153は、制御部130の制御に従い、プロジェクター100の動作状態や設定状態に応じて操作パネル155のインジケーターランプを適宜点灯或いは点滅させる。操作パネル155のスイッチが操作されると、操作されたスイッチに対応する操作信号が入力処理部153から制御部130に出力される。
また、プロジェクター100は、ユーザーが使用するリモコン(不図示)を有する。リモコンは各種のボタンを備えており、これらのボタンの操作に対応して赤外線信号を送信する。プロジェクター100の本体には、リモコンが発する赤外線信号を受光するリモコン受光部154が配置される。リモコン受光部154は、リモコンから受光した赤外線信号をデコードして、リモコンにおける操作内容を示す操作信号を生成し、制御部130に出力する。
In the main body of the projector 100, an operation panel 155 including various switches and indicator lamps for a user to operate is disposed. The operation panel 155 is connected to the input processing unit 153. The input processing unit 153 appropriately turns on or blinks the indicator lamp of the operation panel 155 according to the operation state or setting state of the projector 100 according to the control of the control unit 130. When a switch on the operation panel 155 is operated, an operation signal corresponding to the operated switch is output from the input processing unit 153 to the control unit 130.
Further, the projector 100 has a remote control (not shown) used by the user. The remote control includes various buttons, and transmits an infrared signal corresponding to the operation of these buttons. The main body of the projector 100 is provided with a remote control light receiving unit 154 that receives an infrared signal emitted from the remote control. The remote control light receiving unit 154 decodes the infrared signal received from the remote control, generates an operation signal indicating the operation content on the remote control, and outputs the operation signal to the control unit 130.

次に、制御部130の備える機能ブロックについて説明する。
投射制御部131は、画像処理部125を制御して、I/F部124を介して画像供給装置から供給された画像データに基づいてフレームメモリー126に画像を描画させる。また、投射制御部131は、光変調装置駆動部123を制御して、フレームメモリー126に描画された画像を光変調装置112の液晶パネル112Aに描画させる。光変調装置112の液晶パネル112Aに描画された画像が、投射光学系113を介してスクリーンSC上に投射画像201として投射される。
Next, functional blocks provided in the control unit 130 will be described.
The projection control unit 131 controls the image processing unit 125 to draw an image in the frame memory 126 based on the image data supplied from the image supply device via the I / F unit 124. In addition, the projection control unit 131 controls the light modulation device driving unit 123 to draw the image drawn in the frame memory 126 on the liquid crystal panel 112 </ b> A of the light modulation device 112. An image drawn on the liquid crystal panel 112 </ b> A of the light modulation device 112 is projected as a projection image 201 on the screen SC via the projection optical system 113.

通信制御部132は、無線通信部40を制御して端末装置10と無線通信を行う。通信制御部132は、端末装置10に接続されると、端末装置10から送信される変位データを受信する。ここで、端末装置10が変位データを送信すると、通信制御部132は、無線通信部156によって変位データを受信し、補正制御部133に渡す。
また、通信制御部132は、端末装置10から送信される要求に従って、記憶部151に記憶された方向設定データ161を、端末装置10に送信する。端末装置10では、方向設定データ161に基づき方向設定データ33(図2)が生成され、記憶部30(図2)に記憶される。
The communication control unit 132 controls the wireless communication unit 40 to perform wireless communication with the terminal device 10. When connected to the terminal device 10, the communication control unit 132 receives displacement data transmitted from the terminal device 10. Here, when the terminal device 10 transmits displacement data, the communication control unit 132 receives the displacement data by the wireless communication unit 156 and passes it to the correction control unit 133.
Further, the communication control unit 132 transmits the direction setting data 161 stored in the storage unit 151 to the terminal device 10 in accordance with a request transmitted from the terminal device 10. In the terminal device 10, the direction setting data 33 (FIG. 2) is generated based on the direction setting data 161 and stored in the storage unit 30 (FIG. 2).

補正制御部133は、通信制御部132から入力される変位データに基づいて、投射画像201に対して実行する処理を決定し、処理に要するパラメーターを、変位データと補正データ162とに基づいて生成する。本実施形態において、補正制御部133が決定する処理は、補正処理及び変形処理の少なくともいずれかである。変形処理に関するパラメーターは、例えば、拡大率、縮小率、回転方向と回転量であり、補正処理に関するパラメーターは、補正の前後における座標の対応付けを示すテーブルや演算式、及び、補正後の画像を構成する画素の画素値を求めるためのテーブル等である。変形処理は、画像の表示倍率の変更、すなわち画像の拡大および画像の縮小を含み、そのほかに、画像の回転を含む。
補正制御部133は、決定した処理を示す制御データとパラメーターとを画像処理部125に出力し、画像処理部125によって補正処理と変形処理とを実行させる。
The correction control unit 133 determines a process to be performed on the projection image 201 based on the displacement data input from the communication control unit 132 and generates parameters required for the process based on the displacement data and the correction data 162. To do. In the present embodiment, the process determined by the correction control unit 133 is at least one of a correction process and a deformation process. The parameters related to the deformation process are, for example, the enlargement ratio, the reduction ratio, the rotation direction and the rotation amount, and the parameters related to the correction process are a table and an arithmetic expression indicating the correspondence of coordinates before and after correction, and an image after correction. It is a table etc. for calculating a pixel value of a constituent pixel. The transformation process includes changing the display magnification of the image, that is, enlarging the image and reducing the image, and additionally includes rotating the image.
The correction control unit 133 outputs control data and parameters indicating the determined processing to the image processing unit 125, and causes the image processing unit 125 to perform correction processing and deformation processing.

図4は、プロジェクター100及び端末装置の処理手順を示すフローチャートである。図4(a)はプロジェクター100の動作を示し、(b)は端末装置10の動作を示す。
プロジェクター100は、外部の画像供給装置からI/F部124に入力される画像データに基づいて、投射部110によってスクリーンSCに画像を投射する(ステップS11)。ステップS11では、投射制御部131の制御により画像処理部125が画像を描画して画像信号を光変調装置駆動部123に出力する処理を行い、光源駆動部122が光源部111を点灯させ、光変調装置駆動部123が液晶パネル112Aに画像を描画する。
FIG. 4 is a flowchart illustrating a processing procedure of the projector 100 and the terminal device. FIG. 4A shows the operation of the projector 100, and FIG. 4B shows the operation of the terminal device 10.
The projector 100 projects an image on the screen SC by the projection unit 110 based on the image data input from the external image supply device to the I / F unit 124 (step S11). In step S11, the image processing unit 125 performs a process of drawing an image and outputting an image signal to the light modulation device driving unit 123 under the control of the projection control unit 131, and the light source driving unit 122 turns on the light source unit 111 to emit light. The modulator driving unit 123 draws an image on the liquid crystal panel 112A.

端末装置10では、ユーザーがタッチスクリーン53にタッチ操作を行うことにより、アプリケーションプログラム31が実行される(ステップS21)。アプリケーションプログラム31の機能によって、端末装置10が備える無線通信部40は、プロジェクター100の無線通信部156に対して接続要求を送信し(ステップS22)、相互に所定のネゴシエーションを行う(ステップS12、S22)。これにより、端末装置10とプロジェクター100との間の無線通信の接続が確立される。   In the terminal device 10, the application program 31 is executed when the user performs a touch operation on the touch screen 53 (step S21). By the function of the application program 31, the wireless communication unit 40 included in the terminal device 10 transmits a connection request to the wireless communication unit 156 of the projector 100 (step S22) and performs a predetermined negotiation with each other (steps S12 and S22). ). Thereby, the wireless communication connection between the terminal device 10 and the projector 100 is established.

次いで、動作検出部23は、表示パネル52に開始画面を表示する。この開始画面は、端末装置本体11の位置や方向を変化させる操作、すなわち端末装置本体11を動かす操作によって投射画像201を制御する機能を開始する画面である。
図5は、端末装置10の表示パネル52に表示される画像の例を示す図であり、(a)は開始画面の例を示し、(b)は処理実行中に表示される画面を示し、(c)は終了通知画面を示す。
Next, the operation detection unit 23 displays a start screen on the display panel 52. This start screen is a screen for starting a function of controlling the projection image 201 by an operation for changing the position and direction of the terminal device body 11, that is, an operation for moving the terminal device body 11.
FIG. 5 is a diagram illustrating an example of an image displayed on the display panel 52 of the terminal device 10, where (a) illustrates an example of a start screen, (b) illustrates a screen displayed during processing execution, (C) shows an end notification screen.

図5(a)に示すように、ステップS23で表示される開始画面には、方向案内画像210が表示される。方向案内画像210は、プロジェクター本体101の形状を模した画像となっている。また、方向案内画像210におけるプロジェクター本体101の向きは、方向設定データ33で設定された対応付けに一致する。図1を参照して説明したように、本実施形態では、端末装置本体11の軸AX、AY、AZがプロジェクター本体101の軸PX、PY、PZに重なるように対応付けられる。表示パネル52は、軸AX及び軸AYに平行な平面に相当する。このため、方向案内画像210は、表示パネル52において、軸AXに軸PXが重なり、軸AYに軸PYが重なった状態を示す画像となっている。   As shown in FIG. 5A, the direction guidance image 210 is displayed on the start screen displayed in step S23. The direction guidance image 210 is an image imitating the shape of the projector main body 101. Further, the orientation of the projector main body 101 in the direction guide image 210 matches the association set in the direction setting data 33. As described with reference to FIG. 1, in the present embodiment, the axes AX, AY, and AZ of the terminal device body 11 are associated with each other so as to overlap the axes PX, PY, and PZ of the projector body 101. The display panel 52 corresponds to a plane parallel to the axis AX and the axis AY. Therefore, the direction guide image 210 is an image showing a state in which the axis PX overlaps the axis AX and the axis PY overlaps the axis AY on the display panel 52.

また、図5(a)の開始画面には開始ボタン215が配置される。開始ボタン215は、端末装置本体11の移動による画像の補正、変形の処理の開始を指示するボタンである。   In addition, a start button 215 is arranged on the start screen of FIG. The start button 215 is a button for instructing start of image correction / deformation processing by moving the terminal apparatus body 11.

図4(b)のステップS23で開始画面を表示した後、動作検出部23は、開始ボタン215の操作があるまで待機し(ステップS24;No)、開始ボタン215が操作されたことを検出すると(ステップS24;Yes)、処理を開始する。
このとき、表示パネル52に表示される画像は、図5(b)に示すように切り替わる。図5(b)の表示では開始ボタン215が消え、変わって終了ボタン216が配置される。終了ボタン216は処理の終了を指示するボタンである。また、この図5(b)の画面においても方向案内画像210が引き続き表示される。
After displaying the start screen in step S23 of FIG. 4B, the motion detection unit 23 waits until the start button 215 is operated (step S24; No), and detects that the start button 215 is operated. (Step S24; Yes), processing is started.
At this time, the image displayed on the display panel 52 is switched as shown in FIG. In the display of FIG. 5B, the start button 215 disappears, and the end button 216 is arranged instead. An end button 216 is a button for instructing the end of the process. Further, the direction guide image 210 is continuously displayed on the screen of FIG.

処理を開始した動作検出部23は、角速度センサー61及び加速度センサー62の検出信号に基づいて、端末装置本体11の初期位置を検出する(ステップS24)。この初期位置は、端末装置本体11の位置及び方向の基準となる位置である。動作検出部23は、加速度センサー62の検出値に基づいて、水平に対するAX−AY平面の角度を求めることが可能であるし、例えば端末装置10が方角を検出する地磁気センサーを具備する場合には軸AXの方角を検出できる。
次いで、動作検出部23は、角速度センサー61及び加速度センサー62の検出信号に基づいて、端末装置本体11の位置及び方向について、初期位置に対する変化を検出する(ステップS26)。動作検出部23は、検出した変化に基づき変位データを生成して、通信制御部22によってプロジェクター100に送信させる(ステップS27)。
The motion detection unit 23 that has started the process detects the initial position of the terminal device body 11 based on the detection signals of the angular velocity sensor 61 and the acceleration sensor 62 (step S24). This initial position is a position that serves as a reference for the position and direction of the terminal apparatus body 11. The motion detection unit 23 can obtain the angle of the AX-AY plane with respect to the horizontal based on the detection value of the acceleration sensor 62. For example, when the terminal device 10 includes a geomagnetic sensor that detects the direction. The direction of the axis AX can be detected.
Next, the motion detection unit 23 detects changes in the position and direction of the terminal apparatus body 11 with respect to the initial position based on detection signals from the angular velocity sensor 61 and the acceleration sensor 62 (step S26). The motion detection unit 23 generates displacement data based on the detected change, and causes the communication control unit 22 to transmit the displacement data to the projector 100 (step S27).

通信制御部132は、端末装置10から送信された変位データを無線通信部156により受信すると(ステップS13)、受信した変位データを補正制御部133に渡す。
補正制御部133は、記憶部151に記憶された補正データ162を参照し、変位データに基づいて、処理内容を決定し、パラメーターを生成する(ステップS14)。そして、補正制御部133は処理内容を示す制御データとパラメーターとを画像処理部125に出力して、画像処理部125に処理を実行させる(ステップS15)。
When the wireless communication unit 156 receives the displacement data transmitted from the terminal device 10 (step S13), the communication control unit 132 passes the received displacement data to the correction control unit 133.
The correction control unit 133 refers to the correction data 162 stored in the storage unit 151, determines the processing content based on the displacement data, and generates a parameter (step S14). Then, the correction control unit 133 outputs control data indicating parameters of processing and parameters to the image processing unit 125, and causes the image processing unit 125 to execute processing (step S15).

図6は、画像処理部125により実行される画像処理の具体例を示す図である。
図6(a)は適正な形状の投射画像201を示し、適正な投射状態においてはスクリーンSC上の投射画像201は矩形となる。これに対し、スクリーンSCの上方からプロジェクター100が投射する場合、すなわちプロジェクター100が投射する画像光が水平面に対して傾いている場合、図6(b)のように投射画像201が台形に歪む。
FIG. 6 is a diagram illustrating a specific example of image processing executed by the image processing unit 125.
FIG. 6A shows a projection image 201 having a proper shape. In a proper projection state, the projection image 201 on the screen SC is rectangular. On the other hand, when the projector 100 projects from above the screen SC, that is, when the image light projected by the projector 100 is tilted with respect to the horizontal plane, the projected image 201 is distorted into a trapezoid as shown in FIG.

表示システム1では、端末装置本体11を動かす操作を行った場合に、この操作を、プロジェクター本体101を動かす操作に変換し、プロジェクター本体101が動いた場合に相当する画像処理を行う。
図6(b)のような台形歪みを補正する場合、端末装置本体11を軸AY回り(CY方向)に回転させて、軸AXを上向きにする操作が行われる。動作検出部23は、端末装置本体11のCY方向の回転を、プロジェクター本体101のQY方向の回転に変換する。図6(b)ではプロジェクター100の画像光が下向きになっているから、これを上向きにすれば、台形歪みが収まる。端末装置本体11を上向きに回転させる動作が、プロジェクター本体101の画像光を上向きにする動作に変換されて、変位データとしてプロジェクター100に送信される。
In the display system 1, when an operation for moving the terminal device body 11 is performed, the operation is converted into an operation for moving the projector body 101, and image processing corresponding to the case where the projector body 101 moves is performed.
When correcting the trapezoidal distortion as shown in FIG. 6B, the terminal device main body 11 is rotated around the axis AY (CY direction), and the operation to make the axis AX upward is performed. The motion detection unit 23 converts the rotation of the terminal device body 11 in the CY direction into the rotation of the projector body 101 in the QY direction. In FIG. 6B, since the image light of the projector 100 is downward, trapezoidal distortion can be reduced by making it upward. The operation of rotating the terminal device body 11 upward is converted into an operation of turning the image light of the projector body 101 upward, and is transmitted to the projector 100 as displacement data.

また、表示システム1では、端末装置本体11の軸がプロジェクター本体101の軸に重なるだけでなく、端末装置本体11の長手方向の一端と、プロジェクター本体101の前端(投射開口部114側)とが対応付けられる。さらに、表示パネル52と、プロジェクター本体101の上面とが対応付けられる。この対応付けは方向設定データ33、161により設定されていて、この対応付けに従って方向案内画像210が表示される。従って、端末装置本体11が軸AY回りに回転した場合に、プロジェクター本体101の画像光が上向きになるのか下向きになるのかは速やかに特定される。   In the display system 1, not only the axis of the terminal device body 11 overlaps the axis of the projector body 101, but also one end in the longitudinal direction of the terminal device body 11 and the front end (projection opening 114 side) of the projector body 101. It is associated. Further, the display panel 52 and the upper surface of the projector main body 101 are associated with each other. This association is set by the direction setting data 33 and 161, and the direction guide image 210 is displayed according to this association. Therefore, when the terminal device main body 11 rotates about the axis AY, it is promptly specified whether the image light of the projector main body 101 is directed upward or downward.

本実施形態では、プロジェクター本体101を実際に回転させることはない。補正制御部133は、プロジェクター本体101の回転を示す変位データが端末装置10から送信された場合、プロジェクター本体101を回転させた場合と同様に投射画像201を変形させる。従って、図6(b)の台形歪みを有する画像は、図6(a)のように適切な形状に補正される。   In the present embodiment, the projector main body 101 is not actually rotated. When displacement data indicating rotation of the projector main body 101 is transmitted from the terminal device 10, the correction control unit 133 deforms the projection image 201 in the same manner as when the projector main body 101 is rotated. Therefore, the image having the trapezoidal distortion in FIG. 6B is corrected to an appropriate shape as shown in FIG.

この場合、ユーザーは、プロジェクター本体101が下向きになっているために台形歪みを生じていることを視認して、プロジェクター本体101を上向きにするように、端末装置本体11を操作する。端末装置本体11を実際にどの方向に動かすかは、方向案内画像210を見れば簡単に理解できる。このため、直感的に端末装置本体11を動かすことで、投射画像201の歪みを補正できる。例えば、誤って逆方向に端末装置本体11を動かして、歪みが拡大する等の不具合を防止でき、操作性を向上できる。   In this case, the user visually recognizes that a trapezoidal distortion has occurred because the projector main body 101 faces downward, and operates the terminal device main body 11 so that the projector main body 101 faces upward. The direction in which the terminal device body 11 is actually moved can be easily understood by looking at the direction guide image 210. For this reason, the distortion of the projected image 201 can be corrected by moving the terminal device body 11 intuitively. For example, the terminal device main body 11 is erroneously moved in the reverse direction to prevent a problem such as an increase in distortion, and the operability can be improved.

図6(c)は、プロジェクター100が投射する画像光がスクリーンSCに対して水平方向に傾いている場合の投射画像201の例を示す。この例では、スクリーンSCに向かって右側からプロジェクター100が投射する。プロジェクター本体101を動かすことで図6(c)の台形歪みを解消する場合には、プロジェクター本体101を、軸PZ回り(QZ方向)に回転させればよい。そこで、ユーザーは、端末装置本体11を、軸AZ回り(CZ方向)に回転させる。これにより、端末装置本体11の回転に応じて、プロジェクター本体101の回転を示す変位データが端末装置10からプロジェクター100に送信され、補正制御部133が画像の台形補正を行う。   FIG. 6C shows an example of the projected image 201 when the image light projected by the projector 100 is inclined in the horizontal direction with respect to the screen SC. In this example, the projector 100 projects from the right side toward the screen SC. When the trapezoidal distortion shown in FIG. 6C is eliminated by moving the projector main body 101, the projector main body 101 may be rotated around the axis PZ (QZ direction). Therefore, the user rotates the terminal device body 11 around the axis AZ (CZ direction). Thereby, according to the rotation of the terminal device main body 11, displacement data indicating the rotation of the projector main body 101 is transmitted from the terminal device 10 to the projector 100, and the correction control unit 133 corrects the keystone of the image.

画像処理部125が台形歪みを補正するためには画像の変形(幾何補正)に関するテーブル、演算式、パラメーターを必要とするが、これらは補正データ162と変位データとに基づいて補正制御部133が生成する。
このように、端末装置本体11を動かすことで、あたかもプロジェクター本体101を動かすように投射画像201を変形させて、台形歪みを補正できる。また、図6(b)と(c)の台形歪みだけでなく、上下方向の傾きと左右方向の傾きとが複合した台形歪みに対しても、端末装置本体11を動かすことで補正できる。
In order for the image processing unit 125 to correct the trapezoidal distortion, a table, an arithmetic expression, and a parameter relating to image deformation (geometric correction) are required, which are corrected by the correction control unit 133 based on the correction data 162 and the displacement data. Generate.
Thus, by moving the terminal device main body 11, the projection image 201 can be deformed so as to move the projector main body 101, and the trapezoidal distortion can be corrected. Further, not only the trapezoidal distortion shown in FIGS. 6B and 6C but also the trapezoidal distortion in which the vertical and horizontal inclinations are combined can be corrected by moving the terminal device body 11.

補正制御部133及び画像処理部125が実行する画像の変形は台形歪みを補正する補正処理に限定されず、拡大、縮小、回転等の変形処理が可能である。
図6(d)には投射画像201を回転させる変形処理を示し、(e)には投射画像201を拡大、縮小する変形処理を示す。
端末装置本体11を、軸AX回り(CX方向)に回転させると、動作検出部23は、プロジェクター本体101を光軸回りに回転させた場合に相当する変位データを生成する。補正制御部133は、画像処理部125によって画像を回転させ、例えば図(d)に符号Eで示すように、投射画像201を回転させることができる。この場合も、端末装置本体11を動かすことで、プロジェクター本体101が動いたように投射画像201が変形される。
Image deformation performed by the correction control unit 133 and the image processing unit 125 is not limited to correction processing for correcting trapezoidal distortion, and deformation processing such as enlargement, reduction, and rotation is possible.
FIG. 6D shows a deformation process for rotating the projection image 201, and FIG. 6E shows a deformation process for enlarging and reducing the projection image 201.
When the terminal device body 11 is rotated about the axis AX (CX direction), the motion detection unit 23 generates displacement data corresponding to the case where the projector body 101 is rotated about the optical axis. The correction control unit 133 can rotate the image by the image processing unit 125 and rotate the projection image 201 as indicated by a symbol E in FIG. Also in this case, by moving the terminal device body 11, the projection image 201 is deformed as if the projector body 101 was moved.

また、端末装置本体11を軸AXに沿って移動させる操作が行われると、プロジェクター本体101が光軸に沿って移動するように、投射画像201が変形される。プロジェクター本体101が光軸に沿って移動した場合、スクリーンSCに近づくように移動すれば投射画像201は小さくなり、スクリーンSCから離れるように移動すれば投射画像201は大きくなる。補正制御部133は、変位データに基づいて、画像処理部125によって画像を拡大または縮小させ、これにより投射画像201は、例えば図6(e)に符号Fで示すように拡大され、或いは符号Gで示すように縮小される。ここで、端末装置本体11の移動が軸AXに沿った移動だけであれば、投射画像201は、中心を動かさずに拡大、縮小される。端末装置本体11が、軸AY方向や軸AZ方向にも移動した場合には、この軸AY方向や軸AZ方向の移動量に対応して、投射画像201の中心が移動される。   Further, when an operation for moving the terminal device main body 11 along the axis AX is performed, the projection image 201 is deformed so that the projector main body 101 moves along the optical axis. When the projector main body 101 moves along the optical axis, the projected image 201 becomes smaller if it moves closer to the screen SC, and the projected image 201 becomes larger if it moves away from the screen SC. Based on the displacement data, the correction control unit 133 causes the image processing unit 125 to enlarge or reduce the image, and thereby the projection image 201 is enlarged as indicated by a symbol F in FIG. Reduced as shown in. Here, if the movement of the terminal device main body 11 is only the movement along the axis AX, the projection image 201 is enlarged or reduced without moving the center. When the terminal apparatus main body 11 moves also in the axis AY direction or the axis AZ direction, the center of the projection image 201 is moved corresponding to the movement amount in the axis AY direction or the axis AZ direction.

図4の説明に戻る。動作検出部23は、変位データをプロジェクター100に送信した後、表示パネル52に表示された終了ボタン216が操作されたか否かを判別する(ステップS28)。終了ボタン216が操作されていない場合は(ステップS28;No)、ステップS26に戻って端末装置本体11の位置、方向の変化を検出する。ステップS26の処理を最初に行う場合は、ステップS25で検出した初期位置を基準として端末装置本体11の位置、方向の変化を検出したが、2回目以後は、前回のステップS26で検出した端末装置本体11の位置及び方向を基準とする。   Returning to the description of FIG. After transmitting the displacement data to the projector 100, the motion detection unit 23 determines whether or not the end button 216 displayed on the display panel 52 has been operated (step S28). When the end button 216 is not operated (step S28; No), the process returns to step S26 to detect a change in the position and direction of the terminal device body 11. When the process of step S26 is performed for the first time, a change in the position and direction of the terminal device body 11 is detected with reference to the initial position detected in step S25. However, after the second time, the terminal device detected in the previous step S26 is detected. The position and direction of the main body 11 are used as a reference.

終了ボタン216が操作された場合、動作検出部23は、通信制御部22によってプロジェクター100に終了を通知する(ステップS29)。
一方、補正制御部133は、端末装置10から終了が通知されたか否かを判定し(ステップS16)、終了が通知されない間は(ステップS16;No)、ステップS13に戻って変位データの受信を待機する。通信制御部132が終了の通知の制御データを受信し、終了が通知された場合(ステップS16;Yes)、通信制御部132と通信制御部22とが、無線通信部156と無線通信部40とを制御して通信終了の処理をする(ステップS17,S30)。
When the end button 216 is operated, the motion detection unit 23 notifies the projector 100 of the end by the communication control unit 22 (step S29).
On the other hand, the correction control unit 133 determines whether or not the end is notified from the terminal device 10 (step S16), and returns to step S13 to receive the displacement data while the end is not notified (step S16; No). stand by. When the communication control unit 132 receives the control data of the end notification and is notified of the end (step S16; Yes), the communication control unit 132 and the communication control unit 22 are connected to the wireless communication unit 156 and the wireless communication unit 40. To terminate the communication (steps S17 and S30).

その後、補正制御部133は、変形した画像の状態を確定する(ステップS18)。これにより、液晶パネル112Aに形成される画像の形状が固定され、投射画像201の形状は補正処理、変形処理がされた後の形状を維持する。
また、端末装置10では、アプリケーションプログラム31の実行が終了される(ステップS31)。
Thereafter, the correction control unit 133 determines the state of the deformed image (step S18). Thereby, the shape of the image formed on the liquid crystal panel 112A is fixed, and the shape of the projected image 201 is maintained after the correction process and the deformation process.
Moreover, in the terminal device 10, execution of the application program 31 is complete | finished (step S31).

端末装置10において、終了ボタン216が操作された場合(ステップS28;Yes)、表示パネル52に表示される画面が、図5(c)の終了通知画面に切り替えられる。この終了通知画面には終了通知画像217が表示され、端末装置本体11を動かす操作の終了を、ユーザーに通知する。   In the terminal device 10, when the end button 216 is operated (step S28; Yes), the screen displayed on the display panel 52 is switched to the end notification screen in FIG. An end notification image 217 is displayed on the end notification screen to notify the user of the end of the operation of moving the terminal device body 11.

また、上記実施形態において、補正制御部133は、補正データ162を参照し、変位データに基づいて、投射光学系駆動部121を駆動することにより、投射光学系113のフォーカス調整を実行してもよい。例えば、端末装置本体11を軸AX回り、軸AY回り、或いは軸AZ回りに回転させる操作に対応する変位データをもとに、投射光学系113のフォーカスを移動させて調整を行う。この場合、端末装置本体11を動かす操作によりフォーカス調整を行うことができる。   Further, in the above embodiment, the correction control unit 133 refers to the correction data 162 and drives the projection optical system drive unit 121 based on the displacement data, thereby executing the focus adjustment of the projection optical system 113. Good. For example, adjustment is performed by moving the focus of the projection optical system 113 based on displacement data corresponding to an operation of rotating the terminal apparatus body 11 about the axis AX, the axis AY, or the axis AZ. In this case, focus adjustment can be performed by an operation of moving the terminal device body 11.

以上、説明したように、本実施形態に係る表示システム1は、プロジェクター100と、端末装置10と、を備える。端末装置10は、端末装置10の位置および向きの少なくともいずれかを検出する検出部としての角速度センサー61及び加速度センサー62を備える。端末装置10は、端末装置10の位置とプロジェクター100の位置との対応付け、および、端末装置10の向きとプロジェクター100の向きとの対応付けのうち、少なくともいずれかを示す方向案内画像210を表示する。プロジェクター100は、端末装置10の位置または向きの変化に応じて、投射部110が投射する投射画像201を変形させる。このため、端末装置本体11とプロジェクター本体101の対応付け等の設定を知らないユーザーであっても、端末装置10を操作することによって、投射画像201を所望の状態に変形させることができ、操作性の向上を図ることができる。
ここで、端末装置10では、端末装置本体11の位置と投射部110の位置との対応付け、および、端末装置本体11の向きと投射部110の向きとの対応付けのうち、少なくともいずれかが予め設定されてもよい。端末装置10は、設定された対応付けを示す方向案内画像210を端末装置10の表示パネル52に表示してもよい。また、端末装置10は、端末装置本体11の位置および向きの少なくともいずれかを検出し、プロジェクター100により、端末装置本体11の位置または向きの変化を、投射部110の位置または向きの変化とみなして、投射画像201を変形させてもよい。
As described above, the display system 1 according to this embodiment includes the projector 100 and the terminal device 10. The terminal device 10 includes an angular velocity sensor 61 and an acceleration sensor 62 as a detection unit that detects at least one of the position and orientation of the terminal device 10. The terminal device 10 displays a direction guidance image 210 indicating at least one of the association between the position of the terminal device 10 and the position of the projector 100 and the association between the orientation of the terminal device 10 and the orientation of the projector 100. To do. The projector 100 deforms the projection image 201 projected by the projection unit 110 according to a change in the position or orientation of the terminal device 10. For this reason, even a user who does not know the setting such as the association between the terminal device main body 11 and the projector main body 101 can change the projection image 201 into a desired state by operating the terminal device 10. It is possible to improve the performance.
Here, in the terminal device 10, at least one of the association between the position of the terminal device body 11 and the position of the projection unit 110 and the association between the direction of the terminal device body 11 and the direction of the projection unit 110 is at least one of them. It may be set in advance. The terminal device 10 may display the direction guidance image 210 indicating the set association on the display panel 52 of the terminal device 10. Further, the terminal device 10 detects at least one of the position and orientation of the terminal device body 11, and the projector 100 regards a change in the position or orientation of the terminal device body 11 as a change in the position or orientation of the projection unit 110. Thus, the projected image 201 may be deformed.

また、端末装置10の動作検出部23は、角速度センサー61、加速度センサー62の検出結果を、プロジェクター本体101の位置または向きの変化に変換し、変換結果である変位データを無線通信部40によってプロジェクター100に送信する。プロジェクター100は、端末装置10から送信される変位データに従って投射画像201を変形させる補正制御部133を備える。このため、端末装置10により検出された端末装置本体11の位置または向きが、プロジェクター本体101の位置または向きに変換されて、プロジェクター100に送信される。このため、プロジェクター100が投射画像201を変化させる処理の負荷を軽減し、処理の効率化を図ることができる。   Further, the motion detection unit 23 of the terminal device 10 converts the detection results of the angular velocity sensor 61 and the acceleration sensor 62 into a change in the position or orientation of the projector main body 101, and the displacement data that is the conversion result is projected by the wireless communication unit 40. To 100. The projector 100 includes a correction control unit 133 that deforms the projection image 201 according to the displacement data transmitted from the terminal device 10. For this reason, the position or orientation of the terminal device body 11 detected by the terminal device 10 is converted into the position or orientation of the projector body 101 and transmitted to the projector 100. For this reason, it is possible to reduce the processing load for the projector 100 to change the projected image 201 and to improve the processing efficiency.

また、端末装置10は、角速度センサー61、加速度センサー62の検出開始または検出終了を、表示パネル52に開始ボタン215や終了通知画像217を表示することによって報知する。このため、端末装置10を操作するユーザーに対して、検出の開始あるいは終了を通知することができ、より一層、操作性を高めることができる。   Further, the terminal device 10 notifies the start or end of detection of the angular velocity sensor 61 and the acceleration sensor 62 by displaying a start button 215 and an end notification image 217 on the display panel 52. For this reason, the user who operates the terminal device 10 can be notified of the start or end of detection, and the operability can be further improved.

また、プロジェクター100は、投射対象に画像光を投射する投射部110を備え、プロジェクター100の光軸方向と端末装置10が備える表示パネル52の長手方向とが重なるように、端末装置本体11の向きと投射部110の向きとが対応付けられる。このため、端末装置10の位置または方向が変化した場合に、表示パネル52の長手方向がプロジェクター100の光軸に対応するように、投射画像201が変化するので、ユーザーが直感的に操作を行うことができる。   In addition, the projector 100 includes a projection unit 110 that projects image light onto a projection target, and the orientation of the terminal device body 11 is such that the optical axis direction of the projector 100 and the longitudinal direction of the display panel 52 provided in the terminal device 10 overlap. And the direction of the projection unit 110 are associated with each other. For this reason, when the position or direction of the terminal device 10 changes, the projection image 201 changes so that the longitudinal direction of the display panel 52 corresponds to the optical axis of the projector 100, so the user performs an intuitive operation. be able to.

プロジェクター100は、端末装置本体11の位置または向きの変化を、投射部110の位置または向きの変化とみなして、投射部110が投射する画像の台形歪み補正、表示倍率の変更、フォーカス調整の少なくともいずれかを実行する。このため、プロジェクターが投射する画像の台形歪み補正、表示倍率の変更すなわち拡大、縮小、及び、フォーカス調整に関する操作を、端末装置10を用いて容易に行うことができる。   The projector 100 regards a change in the position or orientation of the terminal device body 11 as a change in the position or orientation of the projection unit 110, and corrects at least trapezoidal distortion correction of the image projected by the projection unit 110, changes in display magnification, and focus adjustment. Do one. For this reason, operations related to trapezoidal distortion correction of the image projected by the projector, display magnification change, that is, enlargement / reduction, and focus adjustment can be easily performed using the terminal device 10.

端末装置10は、表示パネル52の長手方向に略直交する軸AY方向または軸AZ方向に平行な軸を中心とした端末装置本体11の回転量を検出する。プロジェクター100は、端末装置10で検出された端末装置本体11の回転量に基づいて、投射画像201の台形歪み補正を実行する。このため、端末装置本体11を、表示パネル52の長手方向に略直交する方向を軸として回転させることにより、投射画像201の台形歪み補正が実行される。このため、端末装置10の操作方法を増やして多機能化を図ることができ、操作性を向上させることができる。
また、端末装置10は、端末装置本体11の軸AX方向における移動を検出し、プロジェクター100は、端末装置10で検出された端末装置10の移動に対応して、投射部110が投射する画像を拡大または縮小する。このため、端末装置10を、表示パネル52の長手方向に移動させる操作により、画像の表示倍率を変更させることができ、表示倍率に係る操作を直感的に行うことができる。
The terminal device 10 detects the amount of rotation of the terminal device body 11 around an axis AY direction substantially orthogonal to the longitudinal direction of the display panel 52 or an axis parallel to the axis AZ direction. The projector 100 executes trapezoidal distortion correction of the projection image 201 based on the rotation amount of the terminal device body 11 detected by the terminal device 10. For this reason, the keystone distortion correction of the projected image 201 is performed by rotating the terminal device body 11 about the direction substantially orthogonal to the longitudinal direction of the display panel 52 as an axis. For this reason, the operation method of the terminal device 10 can be increased and multifunctionality can be achieved, and operability can be improved.
Further, the terminal device 10 detects the movement of the terminal device body 11 in the axis AX direction, and the projector 100 corresponds to the movement of the terminal device 10 detected by the terminal device 10 and displays an image projected by the projection unit 110. Zoom in or out. For this reason, the display magnification of an image can be changed by the operation of moving the terminal device 10 in the longitudinal direction of the display panel 52, and the operation related to the display magnification can be intuitively performed.

なお、上述した実施形態は、本発明の好適な実施形態の一例を示すものであり、本発明の実施態様はこれに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。例えば、上記実施形態では、端末装置本体11の軸AX、AY、AZがプロジェクター本体101の軸PX、PY、PZに重なるように、対応付けがされた例を説明した。本発明はこれに限定されるものではなく、端末装置本体11の軸AX、AY、AZのそれぞれと、プロジェクター本体101の軸PX、PY、PZのそれぞれとが、平行になるように、対応付けがされれば、上記実施形態と同様の効果が得られる。また、動作検出部23が検出する端末装置本体11の位置または方向、或いはこれらの変化は、軸AX、AY、AZを基準とした方法に限定されない。端末装置本体11に対して極座標を設定し、この極座標に基づく位置または方向の変化を検出してもよく、端末装置本体11の立体的な変位を特定できる方法であれば本発明を適用可能である。プロジェクター本体101の位置または方向を特定する方法についても同様である。   The above-described embodiment shows an example of a preferred embodiment of the present invention, and the embodiment of the present invention is not limited to this, and various modifications are possible within the scope of the present invention. Variations are possible. For example, in the above-described embodiment, the example in which the association is performed so that the axes AX, AY, and AZ of the terminal device body 11 overlap the axes PX, PY, and PZ of the projector body 101 has been described. The present invention is not limited to this, and the axes AX, AY, and AZ of the terminal apparatus main body 11 and the axes PX, PY, and PZ of the projector main body 101 are associated with each other in parallel. If this is done, the same effect as in the above embodiment can be obtained. Further, the position or direction of the terminal device main body 11 detected by the motion detection unit 23 or the change thereof is not limited to the method based on the axes AX, AY, and AZ. Polar coordinates may be set for the terminal device main body 11 and a change in position or direction based on the polar coordinates may be detected. The present invention can be applied to any method that can identify the three-dimensional displacement of the terminal device main body 11. is there. The same applies to the method of specifying the position or direction of the projector main body 101.

また、上記実施形態では、端末装置本体11の位置及び方向の検出を開始する際に、表示パネル52に開始ボタン215を表示して、開始を指示する操作を可能とするとともに、開始の報知をする例を示したが、本発明はこれに限定されない。すなわち、ステップS23で、開始ボタン215に代えて、検出の開始を報知する画像を表示し、開始を指示する操作なしに検出を開始してもよい。この場合も、ユーザーに対して検出開始を知らせることが可能である。   Further, in the above embodiment, when the detection of the position and direction of the terminal device body 11 is started, the start button 215 is displayed on the display panel 52 to enable an operation for instructing the start, and the start notification is given. However, the present invention is not limited to this. That is, in step S23, instead of the start button 215, an image for informing the start of detection may be displayed, and detection may be started without an operation for instructing the start. Also in this case, it is possible to notify the user of detection start.

また、例えば、上記実施形態では、スクリーンSCの前方から投射するフロントプロジェクション型のプロジェクター100を表示装置の一例として示したが、本発明はこれに限定されない。例えば、スクリーンSCの背面側から投射するリアプロジェクション(背面投射)型のプロジェクターを表示装置として採用できる。また、液晶表示パネルに画像を表示する液晶モニターまたは液晶テレビを表示装置として採用してもよい。PDP(プラズマディスプレイパネル)、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を表示装置として用いてもよい。また、OLED(Organic light-emitting diode)、OEL(Organic Electro Luminescence)ディスプレイ等と呼ばれる有機EL表示パネルに画像を表示するモニター装置またはテレビ受像機等の自発光型の表示装置を採用してもよい。これらの表示装置を備える構成において本発明を適用した場合も、上記実施形態と同様に、有用な効果が得られる。   For example, in the above embodiment, the front projection type projector 100 that projects from the front of the screen SC is shown as an example of the display device, but the present invention is not limited to this. For example, a rear projection (rear projection) type projector that projects from the back side of the screen SC can be employed as the display device. Further, a liquid crystal monitor or a liquid crystal television that displays an image on a liquid crystal display panel may be employed as the display device. A PDP (plasma display panel), CRT (cathode ray tube) display, SED (Surface-conduction Electron-emitter Display), or the like may be used as a display device. A self-luminous display device such as a monitor device or a television receiver that displays an image on an organic EL display panel called an OLED (Organic light-emitting diode) or an OEL (Organic Electro Luminescence) display may be employed. . When the present invention is applied to a configuration including these display devices, a useful effect can be obtained as in the above embodiment.

また、本発明の入力装置は、上記実施形態では、端末装置として、平板状の端末装置本体11を有し、ユーザーが手に持って操作する携帯型の端末装置10を例に挙げて説明したが、本発明はこれに限定されない。すなわち、上記実施形態の端末装置10は、ユーザーが手指を接触させて操作が可能なタッチスクリーン53と表示パネル52とを備えることで、直感的な操作が可能であり、高い操作性を有するという利点がある。その一方で、表示画面を備える装置であれば本発明を適用可能であり、例えば携帯型ゲーム機、音楽や映像を再生する携帯型再生装置等を用いることができる。   Moreover, the input device of the present invention has been described by taking the portable terminal device 10 as an example of the terminal device body 11 which is a flat terminal device body 11 that the user holds and operates as a terminal device. However, the present invention is not limited to this. That is, the terminal device 10 according to the above-described embodiment includes the touch screen 53 and the display panel 52 that can be operated by a user touching a finger, thereby enabling intuitive operation and high operability. There are advantages. On the other hand, the present invention can be applied to any device provided with a display screen. For example, a portable game machine, a portable reproduction device that reproduces music and video, and the like can be used.

また、図2及び図3に示した各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、表示システム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。   Moreover, each function part shown in FIG.2 and FIG.3 shows a functional structure, and a specific mounting form is not restrict | limited in particular. That is, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to adopt a configuration in which the functions of a plurality of function units are realized by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software. In addition, specific detailed configurations of other parts of the display system 1 can be arbitrarily changed without departing from the spirit of the present invention.

1…表示システム、10…端末装置、11…端末装置本体(本体)、20…制御部、21…表示制御部、22…通信制御部(送信部)、23…動作検出部(制御部)、30…記憶部、31…アプリケーションプログラム、33…方向設定データ、40…無線通信部(送信部)、51…表示部、52…表示パネル(表示画面)、53…タッチスクリーン、55…操作検出部、61…角速度センサー(検出部)、62…加速度センサー(検出部)、100…プロジェクター(表示装置)、101…プロジェクター本体(本体)、110…投射部(表示部)、111…光源部、112…光変調装置、112A…液晶パネル、113…投射光学系、114…投射開口部、121…投射光学系駆動部、122…光源駆動部、123…光変調装置駆動部、124…I/F部、125…画像処理部、126…フレームメモリー、130…制御部、131…投射制御部、132…通信制御部、133…補正制御部(画像処理部)、151…記憶部、156…無線通信部、161…方向設定データ、162…補正データ、201…投射画像、210…方向案内画像、215…開始ボタン、216…終了ボタン、217…終了通知画像、AX、AY、AZ…軸、PX、PY、PZ…軸、SC…スクリーン。   DESCRIPTION OF SYMBOLS 1 ... Display system, 10 ... Terminal device, 11 ... Terminal apparatus main body (main body), 20 ... Control part, 21 ... Display control part, 22 ... Communication control part (transmission part), 23 ... Operation | movement detection part (control part), DESCRIPTION OF SYMBOLS 30 ... Memory | storage part, 31 ... Application program, 33 ... Direction setting data, 40 ... Wireless communication part (transmission part), 51 ... Display part, 52 ... Display panel (display screen), 53 ... Touch screen, 55 ... Operation detection part , 61 ... Angular velocity sensor (detection unit), 62 ... Acceleration sensor (detection unit), 100 ... Projector (display device), 101 ... Projector body (main body), 110 ... Projection unit (display unit), 111 ... Light source unit, 112 DESCRIPTION OF SYMBOLS ... Light modulation apparatus, 112A ... Liquid crystal panel, 113 ... Projection optical system, 114 ... Projection opening part, 121 ... Projection optical system drive part, 122 ... Light source drive part, 123 ... Light modulation apparatus drive part, 24 ... I / F unit, 125 ... image processing unit, 126 ... frame memory, 130 ... control unit, 131 ... projection control unit, 132 ... communication control unit, 133 ... correction control unit (image processing unit), 151 ... storage unit 156: Wireless communication unit 161: Direction setting data 162 ... Correction data 201 ... Projection image 210 ... Direction guidance image 215 ... Start button 216 ... End button 217 ... End notification image AX, AY, AZ ... Axis, PX, PY, PZ ... Axis, SC ... Screen.

Claims (9)

表示装置及び端末装置を備える表示システムであって、
前記端末装置は、
前記端末装置の位置と前記表示装置の位置との対応付け、および、前記端末装置の向きと前記表示装置の向きとの対応付けのうち、少なくともいずれかを示す画像を表示する表示画面と、
前記端末装置の位置および向きの少なくともいずれかを検出する検出部と、を備え、
前記表示装置は、
画像を表示する表示部と、
前記端末装置の位置または向きの変化に応じて、前記表示部が表示する画像を変形させる画像処理部と、を備えること
を特徴とする表示システム。
A display system comprising a display device and a terminal device,
The terminal device
A display screen for displaying an image indicating at least one of the association between the position of the terminal device and the position of the display device, and the association between the orientation of the terminal device and the orientation of the display device;
A detection unit that detects at least one of the position and orientation of the terminal device,
The display device
A display for displaying an image;
A display system comprising: an image processing unit that deforms an image displayed by the display unit in accordance with a change in position or orientation of the terminal device.
前記端末装置は、前記検出部の検出結果を、前記表示装置の位置または向きの変化に変換し、変換結果を送信部によって前記表示装置に送信する制御部を備え、
前記表示装置が備える前記画像処理部は、前記端末装置から送信される変換結果に従って前記表示部が表示する画像を変形させること、
を特徴とする請求項1記載の表示システム。
The terminal device includes a control unit that converts the detection result of the detection unit into a change in the position or orientation of the display device, and transmits the conversion result to the display device by a transmission unit,
The image processing unit included in the display device deforms an image displayed by the display unit according to a conversion result transmitted from the terminal device;
The display system according to claim 1.
前記端末装置は、前記検出部の検出開始または検出終了を、前記表示画面の表示によって報知すること、を特徴とする請求項1または2記載の表示システム。   The display system according to claim 1, wherein the terminal device notifies the detection start or the detection end of the detection unit by displaying the display screen. 前記表示装置は、投射対象に画像光を投射する前記表示部を備えるプロジェクターであり、
前記プロジェクターの光軸方向と前記端末装置が備える前記表示画面の長手方向とが重なるように、前記端末装置の向きと前記表示部の向きとが対応付けられたこと、
を特徴とする請求項1から3のいずれかに記載の表示システム。
The display device is a projector including the display unit that projects image light onto a projection target;
The orientation of the terminal device and the orientation of the display unit are associated with each other so that the optical axis direction of the projector and the longitudinal direction of the display screen included in the terminal device overlap.
The display system according to claim 1, wherein:
前記表示装置が備える前記画像処理部は、前記端末装置の位置または向きの変化を、前記表示部の位置または向きの変化とみなして、前記表示部が投射する画像の台形歪み補正、表示倍率の変更及びフォーカス調整の少なくともいずれかを実行すること、を特徴とする請求項4記載の表示システム。   The image processing unit included in the display device regards a change in the position or orientation of the terminal device as a change in the position or orientation of the display unit, and corrects the trapezoidal distortion of the image projected by the display unit, and the display magnification. The display system according to claim 4, wherein at least one of change and focus adjustment is executed. 前記端末装置が備える前記検出部は、前記表示画面の長手方向に略直交する第2の方向または第3の方向に平行な軸を中心とした前記端末装置の回転量を検出し、
前記表示装置が備える前記画像処理部は、前記端末装置で検出された前記端末装置の回転量に基づいて、前記表示部が投射する画像の台形歪み補正を実行すること、を特徴とする請求項5記載の表示システム。
The detection unit included in the terminal device detects a rotation amount of the terminal device around an axis parallel to a second direction or a third direction substantially orthogonal to the longitudinal direction of the display screen,
The image processing unit included in the display device performs trapezoidal distortion correction of an image projected by the display unit based on a rotation amount of the terminal device detected by the terminal device. 5. The display system according to 5.
前記端末装置が備える前記検出部は、前記端末装置の前記長手方向における移動を検出し、前記表示装置が備える前記画像処理部は、前記端末装置で検出された前記端末装置の移動に対応して、前記表示部が投射する画像の表示倍率の変更を実行すること、を特徴とする請求項4から6のいずれかに記載の表示システム。   The detection unit included in the terminal device detects the movement of the terminal device in the longitudinal direction, and the image processing unit included in the display device corresponds to the movement of the terminal device detected by the terminal device. The display system according to claim 4, wherein the display magnification of an image projected by the display unit is changed. 端末装置であって、
外部の表示装置に情報を送信する送信部と、
前記端末装置の位置と前記表示装置の位置との対応付け、および、前記端末装置の向きと前記表示装置との対応付けのうち、少なくともいずれかを示す画像を表示する表示画面と、
前記端末装置の位置および向きの少なくともいずれかを検出する検出部と、
前記検出部で検出した前記端末装置の位置または向きの変化に基づき、前記表示装置の位置または向きの変化を示す情報を生成して前記送信部により送信させる制御部と、
を備えることを特徴とする端末装置。
A terminal device,
A transmission unit for transmitting information to an external display device;
A display screen for displaying an image indicating at least one of the association between the position of the terminal device and the position of the display device, and the association between the orientation of the terminal device and the display device;
A detection unit for detecting at least one of the position and orientation of the terminal device;
A control unit that generates information indicating a change in the position or orientation of the display device based on the change in the position or orientation of the terminal device detected by the detection unit, and transmits the information by the transmission unit;
A terminal device comprising:
端末装置を制御するコンピューターにより実行可能なプログラムであって、
前記コンピューターにより、
前記端末装置の位置と外部の表示装置の位置との対応付け、および、前記端末装置の向きと前記表示装置との対応付けのうち、少なくともいずれかを示す画像を表示画面に表示しと、
前記端末装置の位置および向きの少なくともいずれかを検出した場合に、検出した前記端末装置の位置または向きの変化に基づき、前記表示装置の位置または向きの変化を示す情報を生成して前記表示装置に送信すること、
を特徴とするプログラム。
A program executable by a computer controlling the terminal device,
By the computer
Displaying on the display screen an image indicating at least one of the association between the position of the terminal device and the position of the external display device, and the association between the orientation of the terminal device and the display device;
When at least one of the position and orientation of the terminal device is detected, information indicating a change in the position or orientation of the display device is generated based on the detected change in the position or orientation of the terminal device, and the display device Sending to
A program characterized by
JP2014105425A 2014-05-21 2014-05-21 Display system, terminal device, and program Active JP6547240B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014105425A JP6547240B2 (en) 2014-05-21 2014-05-21 Display system, terminal device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014105425A JP6547240B2 (en) 2014-05-21 2014-05-21 Display system, terminal device, and program

Publications (2)

Publication Number Publication Date
JP2015220732A true JP2015220732A (en) 2015-12-07
JP6547240B2 JP6547240B2 (en) 2019-07-24

Family

ID=54779758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014105425A Active JP6547240B2 (en) 2014-05-21 2014-05-21 Display system, terminal device, and program

Country Status (1)

Country Link
JP (1) JP6547240B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270238A (en) * 1999-03-16 2000-09-29 Sharp Corp Multi-screen display device
JP2008040367A (en) * 2006-08-10 2008-02-21 Funai Electric Co Ltd Projector, remote controller and projector system
JP2008129298A (en) * 2006-11-21 2008-06-05 Nippon Telegr & Teleph Corp <Ntt> Position-direction information display apparatus, position-direction information display method, and position-direction information display program implementing the method
JP2009182435A (en) * 2008-01-29 2009-08-13 Seiko Epson Corp Projection system, remote controller, projector, operation method of projection system, and program
JP2011096102A (en) * 2009-10-30 2011-05-12 Sony Ericsson Mobile Communications Ab Short range radio communication equipment, short range radio communication system, method and program for controlling short range radio communication equipment, and cellular phone terminal
JP2012079211A (en) * 2010-10-05 2012-04-19 Hitachi Ltd Display system and display method of stereoscopic image
JP2012203367A (en) * 2011-03-28 2012-10-22 Casio Comput Co Ltd Projection system, projection apparatus, projection method and program
JP2012213010A (en) * 2011-03-31 2012-11-01 Casio Comput Co Ltd Input device, input control method and program
JP2013251787A (en) * 2012-06-01 2013-12-12 Nintendo Co Ltd Information processing program, information processing device, information processing system and panoramic moving image display method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270238A (en) * 1999-03-16 2000-09-29 Sharp Corp Multi-screen display device
JP2008040367A (en) * 2006-08-10 2008-02-21 Funai Electric Co Ltd Projector, remote controller and projector system
JP2008129298A (en) * 2006-11-21 2008-06-05 Nippon Telegr & Teleph Corp <Ntt> Position-direction information display apparatus, position-direction information display method, and position-direction information display program implementing the method
JP2009182435A (en) * 2008-01-29 2009-08-13 Seiko Epson Corp Projection system, remote controller, projector, operation method of projection system, and program
JP2011096102A (en) * 2009-10-30 2011-05-12 Sony Ericsson Mobile Communications Ab Short range radio communication equipment, short range radio communication system, method and program for controlling short range radio communication equipment, and cellular phone terminal
JP2012079211A (en) * 2010-10-05 2012-04-19 Hitachi Ltd Display system and display method of stereoscopic image
JP2012203367A (en) * 2011-03-28 2012-10-22 Casio Comput Co Ltd Projection system, projection apparatus, projection method and program
JP2012213010A (en) * 2011-03-31 2012-11-01 Casio Comput Co Ltd Input device, input control method and program
JP2013251787A (en) * 2012-06-01 2013-12-12 Nintendo Co Ltd Information processing program, information processing device, information processing system and panoramic moving image display method

Also Published As

Publication number Publication date
JP6547240B2 (en) 2019-07-24

Similar Documents

Publication Publication Date Title
JP6064319B2 (en) Projector and projector control method
JP5849560B2 (en) Display device, projector, and display method
US9494846B2 (en) Projection display device for setting a projection range based on a location specified by an electronic pen and method of controlling the same
JP6631181B2 (en) Image projection system, projector, and method of controlling image projection system
JP6364899B2 (en) Projector, projector control method, and program
US10025400B2 (en) Display device and display control method
US20170024031A1 (en) Display system, display device, and display control method
US10431131B2 (en) Projector and control method for projector
WO2016157803A1 (en) Display device, display device control method, document camera and document camera control method
JP6064321B2 (en) Display device and display control method
US20160283087A1 (en) Display apparatus, display system, control method for display apparatus, and computer program
JP2013246285A (en) Display device, display control method and display system
JP6269801B2 (en) Projector and projector control method
JP6409312B2 (en) Display system, display device, and display control method
JP6296144B2 (en) Display device and display control method
JP6657795B2 (en) Display system, terminal device, and display system control method
JP2019041250A (en) Display device and control method of display device
JP6547240B2 (en) Display system, terminal device, and program
JP6098153B2 (en) Display device and control method of display device
JP6471414B2 (en) Display system, display device, and display method
JP2012242927A (en) Mobile terminal device, control method for mobile terminal device, and program
JP6056447B2 (en) Display device and control method of display device
JP2013195659A (en) Display device and display control method
JP2017199059A (en) Image supply device, method for controlling image supply device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R150 Certificate of patent or registration of utility model

Ref document number: 6547240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150