JP2016186693A - Display device and control method for display device - Google Patents

Display device and control method for display device Download PDF

Info

Publication number
JP2016186693A
JP2016186693A JP2015065936A JP2015065936A JP2016186693A JP 2016186693 A JP2016186693 A JP 2016186693A JP 2015065936 A JP2015065936 A JP 2015065936A JP 2015065936 A JP2015065936 A JP 2015065936A JP 2016186693 A JP2016186693 A JP 2016186693A
Authority
JP
Japan
Prior art keywords
indicator
unit
information
operator
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015065936A
Other languages
Japanese (ja)
Inventor
俊樹 藤森
Toshiki Fujimori
俊樹 藤森
康弘 本田
Yasuhiro Honda
康弘 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015065936A priority Critical patent/JP2016186693A/en
Publication of JP2016186693A publication Critical patent/JP2016186693A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect the operation for a plurality of regions of a plurality of devices in accordance with the setting of the operated device.SOLUTION: A display device includes: a projection unit 20 that displays an image on a screen SC; a position calculation unit 232 that detects the position of the operation for the screen SC performed by an indication body 70; an identification unit 233 that acquires the identification information of the indication body 70 whose operation has been detected by the position calculation unit 232; a storage unit 202 that stores the setting information in which an operation region set as a region on the screen SC where the operation by the indication body 70 is possible, the operation executable by the indication body 70, and the identification information for identifying the indication body 70 are co-related with each other; and a control unit 201 that determines whether the operation is valid or not on the basis of the position of the operation detected by the position calculation unit 232, the identification information of the indication body 70 acquired by the identification unit 233, and the setting information stored in the storage unit 202.SELECTED DRAWING: Figure 2

Description

本発明は、表示装置、及び、表示装置の制御方法に関する。   The present invention relates to a display device and a display device control method.

従来、ペン型のデバイス等を用いて手書きの操作を行うことにより、入力を行うことが可能な装置が知られている(例えば、特許文献1及び2参照)。
特許文献1の情報データ操作機能処理装置は、タッチパネルに接触したタッチペンから送信されるペンIDを受信して、受信したペンIDに対応付けられた機能制限情報に従って、制限されていない機能に対応する操作を処理する。
特許文献2の電子情報表示装置は、電子ペンによる操作を受け付けた場合に、受け付けた操作が行われた領域が、操作を受け付けた電子ペンに割り当てられた領域であるか否かを判定する。そして、電子ペンによる操作を受け付けた領域が割り当てられた領域又は共通の領域である場合には、受け付けた電子ペンによる操作を有効にする。
2. Description of the Related Art Conventionally, an apparatus capable of performing input by performing a handwriting operation using a pen-type device or the like is known (see, for example, Patent Documents 1 and 2).
The information data operation function processing device of Patent Document 1 receives a pen ID transmitted from a touch pen that has touched the touch panel, and corresponds to an unrestricted function according to function restriction information associated with the received pen ID. Process the operation.
When the electronic information display device of Patent Document 2 receives an operation with the electronic pen, the electronic information display device determines whether the area where the received operation is performed is an area assigned to the electronic pen that has received the operation. Then, when the area where the operation with the electronic pen is accepted is an assigned area or a common area, the operation with the accepted electronic pen is validated.

特開平11−65766号公報JP-A-11-65766 特開2000−222133号公報JP 2000-222133 A

複数のデバイスを用いて同時に操作を行う場合、デバイスによる操作内容が干渉し、他者の操作に影響を与える可能性があった。このためデバイスごとに操作を実行可能な領域や、実行可能な操作を設定したいという要望があった。
本発明は、上記事情に鑑みてなされたものであり、複数のデバイスによる複数の領域に対する操作を、操作されたデバイスの設定に従って検出できるようにすることを目的とする。
When operations are performed simultaneously using a plurality of devices, the operation contents of the devices may interfere with each other and affect the operations of others. For this reason, there has been a demand for setting an area in which an operation can be performed for each device and an executable operation.
The present invention has been made in view of the above circumstances, and an object of the present invention is to make it possible to detect operations on a plurality of areas by a plurality of devices according to settings of the operated devices.

上記目的を達成するために、本発明の表示装置は、表示面に画像を表示する表示部と、指示体により行われる前記表示面に対する操作の位置を検出する検出部と、前記検出部により操作が検出された前記指示体の識別情報を取得する取得部と、前記表示面において前記指示体による操作が可能な領域として設定された操作領域と、前記指示体により実行可能な操作と、前記指示体を識別する識別情報と、を対応付けた設定情報を記憶する記憶部と、前記検出部が検出した操作の位置と、前記取得部が取得した前記指示体の識別情報と、前記記憶部に記憶された前記設定情報とに基づいて、前記操作が有効な操作であるか否かを判定する判定部と、前記判定部により有効であると判定された前記操作に対応する処理を実行する制御部とを備える。
本発明によれば、検出した操作の位置と、取得した指示体の識別情報とに基づいて、操作が有効な操作であるか否かを判定するので、複数のデバイスによる複数の領域に対する操作を、操作されたデバイスの設定に従って検出できる。
In order to achieve the above object, a display device according to the present invention includes a display unit that displays an image on a display surface, a detection unit that detects a position of an operation on the display surface performed by an indicator, and an operation performed by the detection unit. An acquisition unit that acquires identification information of the indicator in which the indicator is detected, an operation area set as an area that can be operated by the indicator on the display surface, an operation that can be performed by the indicator, and the instruction A storage unit that stores setting information in which identification information for identifying a body is associated; a position of an operation detected by the detection unit; an identification information of the indicator acquired by the acquisition unit; A determination unit that determines whether or not the operation is an effective operation based on the stored setting information, and a control that executes a process corresponding to the operation that is determined to be effective by the determination unit With department
According to the present invention, it is determined whether or not the operation is an effective operation based on the detected position of the operation and the acquired identification information of the indicator. , Can be detected according to the settings of the operated device.

また、本発明は、上記表示装置において、前記検出部により操作が検出された前記指示体を操作する操作者を識別する操作者識別部を備え、前記記憶部は、前記操作者識別部が識別するそれぞれの前記操作者に対し、実行可能な操作を対応付けた操作者権限情報を記憶し、前記判定部は、前記検出部により前記指示体の操作の位置が検出された場合に、前記操作者識別部の識別結果と、前記操作者権限情報とに基づき、前記検出部が検出した前記操作が有効な操作であるか否かを判定する。
本発明によれば、操作領域に対する操作権限を有する操作者の操作を有効と判定して処理することができる。
The display device may further include an operator identification unit that identifies an operator who operates the indicator whose operation is detected by the detection unit, and the storage unit is identified by the operator identification unit. The operator authority information associated with the executable operations is stored for each of the operators, and the determination unit detects the operation when the position of the operation of the indicator is detected by the detection unit. Based on the identification result of the operator identification unit and the operator authority information, it is determined whether or not the operation detected by the detection unit is an effective operation.
According to the present invention, it is possible to determine that the operation of an operator having the operation authority for the operation area is valid and process it.

また、本発明は、上記表示装置において、前記判定部は、前記記憶部に記憶された前記設定情報に基づき有効な操作でないと判定される前記操作であっても、前記操作者権限情報に基づき有効な操作であると判定される前記操作は、有効と判定する。
本発明によれば、操作領域に対する操作権限を有する操作者の操作を有効と判定して処理することができる。
In the display device according to the aspect of the invention, the determination unit may be based on the operator authority information even if the operation is determined not to be an effective operation based on the setting information stored in the storage unit. The operation determined to be an effective operation is determined to be effective.
According to the present invention, it is possible to determine that the operation of an operator having the operation authority for the operation area is valid and process it.

また、本発明は、上記表示装置において、前記操作者識別部は、前記指示体から送信される操作者識別情報を受信することにより、前記操作者を識別する。
本発明によれば、操作者を容易に識別することができる。
Further, according to the present invention, in the display device, the operator identifying unit identifies the operator by receiving operator identification information transmitted from the indicator.
According to the present invention, an operator can be easily identified.

また、本発明は、上記表示装置において、前記指示体は、前記操作者が所持するデバイスからデバイス情報を取得し、取得したデバイス情報を、前記操作者識別情報として前記表示装置に送信する。
本発明によれば、デバイス情報が登録されたデバイスを操作者が所持することで、操作者の権限を設定することができるので、権限の設定が容易になる。
In the display device according to the present invention, the indicator acquires device information from a device possessed by the operator, and transmits the acquired device information as the operator identification information to the display device.
According to the present invention, since the operator's authority can be set by the operator having the device in which the device information is registered, the authority can be easily set.

本発明の表示装置の制御方法は、画像が表示された表示面に対して、指示体により行われる操作の位置を検出し、検出した前記操作を行った前記指示体の識別情報を取得し、取得した前記指示体の識別情報と、前記表示面において前記指示体による操作が可能な領域として設定された操作領域と、前記操作領域において前記指示体により実行可能な操作とが設定された設定情報と、検出した前記操作の位置と、に基づいて、前記操作が有効な操作であるか否かを判定し、前記操作が有効であると判定した場合に、前記操作に対応する処理を実行する。
本発明によれば、検出した操作の位置と、取得した指示体の識別情報とに基づいて、操作が有効な操作であるか否かを判定するので、複数のデバイスによる複数の領域に対する操作を、操作されたデバイスの設定に従って検出できる。
The control method of the display device of the present invention detects the position of the operation performed by the indicator on the display surface on which the image is displayed, acquires the identification information of the indicator that has performed the detected operation, Setting information in which the obtained identification information of the indicator, an operation area set as an area that can be operated by the indicator on the display surface, and an operation that can be executed by the indicator in the operation area are set And whether or not the operation is an effective operation based on the detected position of the operation, and when it is determined that the operation is effective, a process corresponding to the operation is executed. .
According to the present invention, it is determined whether or not the operation is an effective operation based on the detected position of the operation and the acquired identification information of the indicator. , Can be detected according to the settings of the operated device.

表示システムの概略構成図。1 is a schematic configuration diagram of a display system. 表示システムの各装置の構成を示すブロック図。The block diagram which shows the structure of each apparatus of a display system. 登録指示体情報を登録したテーブルの構成を示す図。The figure which shows the structure of the table which registered registration indicator information. 操作者権限情報を登録したテーブルの構成を示す図。The figure which shows the structure of the table which registered operator authority information. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した実施形態の表示システム1の概略構成を示す図である。
表示システム1は、複数のプロジェクター2(表示装置)を備えて構成される。表示システム1が備えるプロジェクター2の数について何ら制限はなく、1台のみであってもよいし、3台以上であってもよいが、ここでは2台のプロジェクター2を並べて設置した例を説明する。2台のプロジェクター2はスクリーンSCの上方に設置され、下向きに画像を投写する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a schematic configuration of a display system 1 according to an embodiment to which the present invention is applied.
The display system 1 includes a plurality of projectors 2 (display devices). There is no limitation on the number of projectors 2 provided in the display system 1, and there may be only one projector or three or more projectors. Here, an example in which two projectors 2 are installed side by side will be described. . The two projectors 2 are installed above the screen SC and project an image downward.

以下の説明では、2台のプロジェクターのそれぞれを、プロジェクター2a、2bと表記し、プロジェクター2a、2bを総称してプロジェクター2と表記する。プロジェクター2a、2bは、それぞれ独立して画像をスクリーンSC(表示面)に投写する。例えば、プロジェクター2aの電源をオンにして画像を投写させる間、プロジェクター2bの電源がオフであってもよい。   In the following description, each of the two projectors is referred to as projectors 2a and 2b, and the projectors 2a and 2b are collectively referred to as projector 2. The projectors 2a and 2b independently project images onto the screen SC (display surface). For example, the projector 2b may be turned off while the projector 2a is turned on to project an image.

プロジェクター2a、2bは図1に示すように、一つのスクリーンSCに対して並べて配置される。プロジェクター2aはスクリーンSCの投写領域24aに投写画像25aを投写(表示)し、プロジェクター2bは投写領域24bに投写画像25bを投写(表示)する。スクリーンSCは投写領域24a、24bに対し横長であり、投写領域24a、24bは横並びに配置される。また、投写領域24aと投写領域24bとの境界24cは、図1に示すように接しているか近接しており、或いは一部が重畳していてもよい。また、投写画像25aは投写領域24aの内部であれば位置及びサイズは制限されず、投写画像25bは投写領域24bの内部であれば位置及びサイズの制限はない。   The projectors 2a and 2b are arranged side by side with respect to one screen SC as shown in FIG. The projector 2a projects (displays) the projection image 25a on the projection area 24a of the screen SC, and the projector 2b projects (displays) the projection image 25b on the projection area 24b. The screen SC is horizontally long with respect to the projection areas 24a and 24b, and the projection areas 24a and 24b are arranged side by side. Further, a boundary 24c between the projection area 24a and the projection area 24b may be in contact with or close to each other as shown in FIG. 1, or a part thereof may overlap. Further, the position and size of the projection image 25a are not limited as long as they are inside the projection area 24a, and the position and size of the projection image 25b are not limited as long as they are inside the projection area 24b.

表示システム1においては、指示体70によって位置を指示する操作を行うことができる。指示体70は、例えば、棒状の軸部を有するペン型のデバイスであり、プロジェクター2a、2bを操作する操作者(ユーザー)が手に持って使用する。プロジェクター2aは、投写領域24aの内部において、指示体70の先端で指し示された位置を、操作位置として検出する。また、プロジェクター2bは、投写領域24bの内部において、指示体70の先端で指し示された位置を、操作位置として検出する。表示システム1では、複数の指示体70を使用可能であり、本実施形態では、3つの指示体70a、70b、70cを使用する例を説明する。以下の説明では、3つの指示体70のそれぞれを指示体70a、70b、70cと表記し、これらを総称して指示体70と表記する。   In the display system 1, an operation for instructing a position by the indicator 70 can be performed. The indicator 70 is, for example, a pen-type device having a rod-shaped shaft portion, and is used by an operator (user) operating the projectors 2a and 2b. The projector 2a detects the position pointed at the tip of the indicator 70 as the operation position within the projection area 24a. Further, the projector 2b detects the position pointed to by the tip of the indicator 70 as the operation position in the projection area 24b. In the display system 1, a plurality of indicators 70 can be used. In the present embodiment, an example in which three indicators 70a, 70b, and 70c are used will be described. In the following description, each of the three indicators 70 is referred to as indicators 70a, 70b, and 70c, and these are collectively referred to as indicators 70.

表示システム1において使用される指示体は、指示体70に限定されず、指示棒(図示略)等の棒状の指示体であってもよいし、操作者の手や指を指示体として検出することもできる。この場合、指示体は、操作者毎に識別可能であることが望ましい。すなわち、後述するように可視光で撮像された撮像画像において識別可能なように、色彩、或いは表面の模様等が異なることが望ましく、例えば、操作者の指を指示体とする場合には、操作者の指に色や模様を有する指輪やキャップ状の治具を装着すればよい。   The indicator used in the display system 1 is not limited to the indicator 70, and may be a rod-like indicator such as an indicator rod (not shown), or the operator's hand or finger is detected as the indicator. You can also. In this case, it is desirable that the indicator can be identified for each operator. That is, it is desirable that the color or the surface pattern is different so that it can be identified in a captured image captured with visible light as described later. For example, when an operator's finger is used as an indicator, A ring having a color or a pattern or a cap-shaped jig may be attached to a person's finger.

プロジェクター2a、2bはいずれも、指示体70の操作位置に対応して描画を行う描画機能、及び指示体70の操作位置に基づいてGUI(Graphical User Interface)操作を行うポインター機能を有する。図1は、プロジェクター2aが描画機能を実行し、プロジェクター2bがポインター機能を実行する状態を例示する。プロジェクター2aの描画機能により、投写領域24aには、指示体70の操作の軌跡に沿って、直線、曲線、或いは円や矩形等の図形が描画され、投写画像25aとして表示される。また、プロジェクター2bのポインター機能により、投写領域24bには、指示体70の操作位置にポインターPが表示され、GUI操作における操作用画像としてのメニューバーMが表示される。   Each of the projectors 2 a and 2 b has a drawing function for drawing corresponding to the operation position of the indicator 70 and a pointer function for performing a GUI (Graphical User Interface) operation based on the operation position of the indicator 70. FIG. 1 illustrates a state in which the projector 2a executes a drawing function and the projector 2b executes a pointer function. By the drawing function of the projector 2a, a straight line, a curved line, or a figure such as a circle or a rectangle is drawn in the projection area 24a along the locus of the operation of the indicator 70, and is displayed as a projected image 25a. Further, by the pointer function of the projector 2b, the pointer P is displayed at the operation position of the indicator 70 in the projection area 24b, and the menu bar M as an operation image for GUI operation is displayed.

指示体70a、70b、70cは、プロジェクター2a、2bのそれぞれが各指示体を識別可能な構成となっている。例えば、プロジェクター2が、可視光により撮像した撮像画像に基づいて、指示体70a、70b、70cのそれぞれを識別する場合、指示体70a、70b、70cは、形状、色彩、或いは表面の模様等が異なる仕様とされる。また、例えば、プロジェクター2が指示体70a、70b、70cのそれぞれと無線通信を行って、指示体70a、70b、70cを識別する場合、指示体70a、70b、70cは固有の識別情報をプロジェクター2に送信する。本実施形態では、後述するように、プロジェクター2a、2bのそれぞれが可視光により撮像を行い、撮像画像に基づいて指示体70を検出し、検出した指示体70a、70b、70cを識別する。
また、表示システム1では、指示体70a、70b、70cのそれぞれを識別する識別情報が定義される。この識別情報は、指示体70a、70b、70cのそれぞれに直接、付されていてもよい。例えば、指示体70a、70b、70cに識別情報をコード化したバーコードや二次元コードを付し、撮像画像に基づきプロジェクター2が識別情報を取得できる構成であってもよい。また、指示体70a、70b、70cがプロジェクター2a、2bと通信を行う場合、指示体70a、70b、70cがプロジェクター2a、2bに対して識別情報を送信する構成とすることができる。
The indicators 70a, 70b, and 70c are configured such that each of the projectors 2a and 2b can identify each indicator. For example, when the projector 2 identifies each of the indicators 70a, 70b, and 70c based on a captured image captured by visible light, the indicators 70a, 70b, and 70c have shapes, colors, or surface patterns. Different specifications. Further, for example, when the projector 2 performs wireless communication with each of the indicators 70a, 70b, and 70c to identify the indicators 70a, 70b, and 70c, the indicators 70a, 70b, and 70c give unique identification information to the projector 2. Send to. In the present embodiment, as will be described later, each of the projectors 2a and 2b performs imaging with visible light, detects the indicator 70 based on the captured image, and identifies the detected indicators 70a, 70b, and 70c.
In the display system 1, identification information for identifying each of the indicators 70a, 70b, and 70c is defined. This identification information may be directly attached to each of the indicators 70a, 70b, and 70c. For example, the indicator 70a, 70b, or 70c may be provided with a barcode or two-dimensional code obtained by encoding the identification information, and the projector 2 may acquire the identification information based on the captured image. When the indicators 70a, 70b, and 70c communicate with the projectors 2a and 2b, the indicators 70a, 70b, and 70c can transmit identification information to the projectors 2a and 2b.

本実施形態では、プロジェクター2a、2bのそれぞれが、指示体70a、70b、70cの識別情報を予め記憶する。プロジェクター2a、2bは、撮像画像に基づき指示体70a、70b、70cを識別した場合に、指示体70a、70b、70cに対応する識別情報を特定できる。また、指示体70aの識別情報(ID)を「001」、指示体70bの識別情報を「002」、指示体70cの識別情報を「003」とする。   In the present embodiment, each of the projectors 2a and 2b stores in advance identification information of the indicators 70a, 70b, and 70c. When the projectors 2a and 2b identify the indicators 70a, 70b, and 70c based on the captured images, the projectors 2a and 2b can specify identification information corresponding to the indicators 70a, 70b, and 70c. The identification information (ID) of the indicator 70a is “001”, the identification information of the indicator 70b is “002”, and the identification information of the indicator 70c is “003”.

図2は、表示システム1を構成する各装置のブロック図であり、プロジェクター2a、2bの機能ブロックを示す。なお、以下では、プロジェクター2aとプロジェクター2bとはほぼ同一の構成を備えているため、以下では、プロジェクター2aの構成を代表して説明する。   FIG. 2 is a block diagram of each device constituting the display system 1, and shows functional blocks of the projectors 2a and 2b. In the following, since the projector 2a and the projector 2b have almost the same configuration, the configuration of the projector 2a will be described as a representative.

プロジェクター2aは、外部の画像供給装置(図示略)に接続される画像入力部205を備える。画像入力部205は、ケーブルを接続するコネクター及びインターフェース回路(いずれも図示略)、或いは、無線通信インターフェース(図示略)を備え、画像供給装置が出力する画像データを受信する。
画像入力部205は、例えば、Ethernet(登録商標)、IEEE1394、USB等のデータ通信インターフェースであってもよい。また、MHL(登録商標)、HDMI(登録商標)、DisplayPort(商標)等の画像データ用のインターフェースであってもよい。また、無線LANやBluetooth(登録商標)等の無線通信インターフェースを備えていてもよい。
画像入力部205は、画像供給装置(図示略)から入力されるデジタル画像データを画像処理部206に出力する。
The projector 2a includes an image input unit 205 connected to an external image supply device (not shown). The image input unit 205 includes a connector for connecting a cable and an interface circuit (both not shown) or a wireless communication interface (not shown), and receives image data output from the image supply device.
The image input unit 205 may be a data communication interface such as Ethernet (registered trademark), IEEE 1394, USB, or the like. Further, an interface for image data such as MHL (registered trademark), HDMI (registered trademark), and DisplayPort (trademark) may be used. Further, a wireless communication interface such as a wireless LAN or Bluetooth (registered trademark) may be provided.
The image input unit 205 outputs digital image data input from an image supply device (not shown) to the image processing unit 206.

プロジェクター2aは、光学的な画像の形成を行う投写部20を備える。投写部20は、光源21、光変調装置22及び投写光学系23を有する。光源21は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、或いはレーザー光源等からなる光源を備える。また、光源21は、光源が発した光を光変調装置22に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、投写光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光の光量を光変調装置22に至る経路上で低減させる調光素子等を備えてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源21が発する光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投写光学系23に射出される。
The projector 2a includes a projection unit 20 that forms an optical image. The projection unit 20 includes a light source 21, a light modulation device 22, and a projection optical system 23. The light source 21 includes a light source composed of a xenon lamp, an ultra high pressure mercury lamp, an LED (Light Emitting Diode), a laser light source, or the like. Further, the light source 21 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light modulation device 22. Furthermore, a lens group (not shown) for enhancing the optical characteristics of the projection light, a polarizing plate, or a light control element for reducing the amount of light emitted from the light source on the path to the light modulation device 22 may be provided. .
The light modulation device 22 includes, for example, three transmissive liquid crystal panels corresponding to the three primary colors of RGB, and generates image light by modulating light transmitted through the liquid crystal panel. The light emitted from the light source 21 is separated into three color lights of RGB, and each color light enters each corresponding liquid crystal panel. The color light modulated by passing through each liquid crystal panel is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 23.

投写光学系23は、光変調装置22により変調された画像光をスクリーンSC方向へ投写して、スクリーンSC上に結像させるレンズ群を備える。また、投写光学系23は、スクリーンSCの投写画像の拡大・縮小及び焦点の調整を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。   The projection optical system 23 includes a lens group that projects the image light modulated by the light modulation device 22 in the direction of the screen SC and forms an image on the screen SC. Further, the projection optical system 23 may include a zoom mechanism for enlarging / reducing the projected image on the screen SC and adjusting the focus, and a focus adjusting mechanism for adjusting the focus.

投写部20は、制御部201の制御に従って光源21を点灯及び消灯する光源駆動部207、及び制御部201の制御に従って光変調装置22を動作させる光変調装置駆動部208に接続する。光源駆動部207は光源21の光量を調整する機能を備えてもよい。   The projection unit 20 is connected to a light source driving unit 207 that turns on and off the light source 21 under the control of the control unit 201 and a light modulation device driving unit 208 that operates the light modulation device 22 according to the control of the control unit 201. The light source driving unit 207 may have a function of adjusting the light amount of the light source 21.

プロジェクター2aは、投写部20が投写する画像を処理する画像処理系を備える。この画像処理系は、制御部201、記憶部202、入力検出部204、画像入力部205、画像処理部206、光源駆動部207、光変調装置駆動部208、画像合成部213、無線通信部209及び通信部211を含む。画像処理系を構成する各部はバス210により相互にデータ通信可能に接続される。また、画像合成部213にはフレームメモリー214が接続される。フレームメモリー214及びその他のデータ処理部を画像処理系に含めてもよい。   The projector 2a includes an image processing system that processes an image projected by the projection unit 20. The image processing system includes a control unit 201, a storage unit 202, an input detection unit 204, an image input unit 205, an image processing unit 206, a light source driving unit 207, a light modulation device driving unit 208, an image composition unit 213, and a wireless communication unit 209. And a communication unit 211. Each unit constituting the image processing system is connected to each other via a bus 210 so that data communication is possible. In addition, a frame memory 214 is connected to the image composition unit 213. The frame memory 214 and other data processing units may be included in the image processing system.

プロジェクター2は、無線通信部209を備える。無線通信部209は、アンテナ(図示略)やRF(Radio Frequency)回路等を備え、制御部201の制御の下、指示体70や外部の装置との間で無線通信を実行する。無線通信部209は、例えば無線LAN(Local Area Network)や、Bluetooth(登録商標)等の無線通信を実行する。
指示体70は、操作者を識別する識別情報(以下、操作者識別情報という)をプロジェクター2に送信する。この場合、操作者は、無線通信インターフェースを有するデバイス(図示略)を所持し、このデバイスと指示体70とが、例えば無線LANやBluetooth等の無線通信を実行する。この種のデバイスとしては、携帯型電話機、スマートフォン、PDA(Personal Digital Assistant)、タブレット型コンピューター等が挙げられるが、腕時計型の身体装着型(ウェアラブル)デバイス等であってもよく、より小型の無線通信装置であってもよい。この例では、操作者が所持するデバイスから出力される信号を指示体70が検出した場合に、指示体70は、デバイスから取得したデバイス情報を、操作者識別情報としてプロジェクター2に送信する。
The projector 2 includes a wireless communication unit 209. The wireless communication unit 209 includes an antenna (not shown), an RF (Radio Frequency) circuit, and the like, and performs wireless communication with the indicator 70 and an external device under the control of the control unit 201. The wireless communication unit 209 performs wireless communication such as a wireless local area network (LAN) or Bluetooth (registered trademark).
The indicator 70 transmits identification information for identifying the operator (hereinafter referred to as operator identification information) to the projector 2. In this case, the operator possesses a device (not shown) having a wireless communication interface, and the device and the indicator 70 execute wireless communication such as a wireless LAN or Bluetooth. Examples of this type of device include a mobile phone, a smartphone, a PDA (Personal Digital Assistant), a tablet computer, and the like, but it may be a wristwatch-type body-mounted (wearable) device or the like, and a smaller wireless device. It may be a communication device. In this example, when the indicator 70 detects a signal output from a device held by the operator, the indicator 70 transmits device information acquired from the device to the projector 2 as operator identification information.

プロジェクター2aは、通信部211を有する。通信部211は、データ通信を行うインターフェースであり、本実施形態では通信回線3に接続する。通信部211は、制御部201の制御に従い、通信回線3を介してプロジェクター2bとの間で各種データを送受信する。本実施形態では、通信部211は、通信回線3を構成するケーブル(図示略)を接続する有線インターフェースである。通信部211は、無線LANやBluetooth等の無線通信を実行する無線通信インターフェースであってもよい。この場合、通信回線3は、一部又は全部が無線通信回線で構成される。   The projector 2a has a communication unit 211. The communication unit 211 is an interface for performing data communication, and is connected to the communication line 3 in this embodiment. The communication unit 211 transmits / receives various data to / from the projector 2b via the communication line 3 according to the control of the control unit 201. In the present embodiment, the communication unit 211 is a wired interface that connects a cable (not shown) constituting the communication line 3. The communication unit 211 may be a wireless communication interface that performs wireless communication such as a wireless LAN or Bluetooth. In this case, part or all of the communication line 3 is constituted by a wireless communication line.

プロジェクター2aは、指示体70a、70b、70cによる操作及び操作位置を検出する位置検出部203を備える。位置検出部203は、撮像部231、位置算出部232、及び識別部233を備える。   The projector 2a includes a position detection unit 203 that detects an operation by the indicators 70a, 70b, and 70c and an operation position. The position detection unit 203 includes an imaging unit 231, a position calculation unit 232, and an identification unit 233.

撮像部231は、スクリーンSCを撮像するデジタルカメラであり、撮像画像データを生成する。撮像部231の撮像範囲すなわち画角は、スクリーンSCの全体又はスクリーンSCを含む範囲であることが好ましく、少なくとも投写領域24a(図1)を含む。
撮像部231は、可視光による撮像を行うものに限定されず、赤外光を撮像するカメラであってもよい。この場合、指示体70a、70b、70cは、赤外光で撮像した場合に識別可能な差異を有していればよい。例えば、赤外光を発する発光部(図示略)を有し、この発光部の発光の形状や点滅パターン等が指示体70a、70b、70cで異なる構成とすることができる。
The imaging unit 231 is a digital camera that images the screen SC, and generates captured image data. The imaging range, that is, the angle of view of the imaging unit 231 is preferably the entire screen SC or a range including the screen SC, and includes at least the projection region 24a (FIG. 1).
The imaging unit 231 is not limited to the one that performs imaging with visible light, and may be a camera that captures infrared light. In this case, the indicators 70a, 70b, and 70c only need to have a identifiable difference when imaged with infrared light. For example, a light emitting unit (not shown) that emits infrared light may be provided, and the light emitting shape, blinking pattern, and the like of the light emitting unit may be different between the indicators 70a, 70b, and 70c.

位置算出部232は、指示体70a、70b又は70cの操作で指示される操作位置を検出する。位置算出部232は、撮像部231の撮像画像を解析して、撮像画像から指示体70a、70b、70cの画像を検出する。撮像画像に指示体70a、70b、70cのいずれかの画像が含まれる場合、位置算出部232は、検出した指示体70の先端の位置を操作位置として検出する。位置算出部232は、操作位置を、投写領域24aにおける座標で表すデータとして制御部201に出力する。   The position calculation unit 232 detects the operation position indicated by the operation of the indicator 70a, 70b, or 70c. The position calculation unit 232 analyzes the captured image of the imaging unit 231 and detects the images of the indicators 70a, 70b, and 70c from the captured image. When the captured image includes any one of the indicators 70a, 70b, and 70c, the position calculation unit 232 detects the detected position of the tip of the indicator 70 as the operation position. The position calculation unit 232 outputs the operation position to the control unit 201 as data representing coordinates in the projection area 24a.

識別部233は、指示体70a、70b、70cを識別する。識別部233は、位置算出部232が検出する操作位置を指示した指示体が、指示体70a、70b、70cのいずれであるかを識別し、識別結果を制御部201に出力する。
本実施形態では、識別部233が、撮像部231の撮像画像データを解析して、撮像画像から指示体70a、70b、70cの画像を検出する。上述のように、指示体70a、70b、70cは、可視光による撮像画像において識別可能なように、外観が異なるので、識別部233は撮像画像に基づき識別を行える。
The identification unit 233 identifies the indicators 70a, 70b, and 70c. The identification unit 233 identifies which of the indicators 70 a, 70 b, and 70 c is the indicator that has designated the operation position detected by the position calculation unit 232, and outputs the identification result to the control unit 201.
In the present embodiment, the identification unit 233 analyzes the captured image data of the imaging unit 231 and detects the images of the indicators 70a, 70b, and 70c from the captured image. As described above, since the indicators 70a, 70b, and 70c have different appearances so that they can be identified in a captured image by visible light, the identification unit 233 can perform identification based on the captured image.

プロジェクター2aは、撮像画像における指示体70a、70b、70cの画像の特徴と、指示体70a、70b、70cのそれぞれの識別情報とを対応付ける情報を、対応情報225として記憶部202に記憶する。識別部233は、撮像画像から指示体70の画像を検出した後、対応情報225に基づき、識別情報(図1の001、002、003)を取得する。   The projector 2a stores information associating the characteristics of the images of the indicators 70a, 70b, and 70c in the captured image with the identification information of the indicators 70a, 70b, and 70c as the correspondence information 225 in the storage unit 202. After detecting the image of the indicator 70 from the captured image, the identification unit 233 acquires identification information (001, 002, 003 in FIG. 1) based on the correspondence information 225.

制御部201は、CPU、ROM、RAM(いずれも図示略)等を備え、ROM又は記憶部202に記憶した制御プログラムを実行して、プロジェクター2aの各部を制御する。制御部201は、投写制御部221、操作取得部222、描画処理部223及び認証処理部224を有する。
記憶部202は、フラッシュメモリー、EEPROM等の書き換え可能な不揮発性のメモリーである。記憶部202は、プロジェクター2の動作を制御するための制御プログラムや、プロジェクター2aの動作条件等を規定する各種設定データ等を記憶する。記憶部202には、対応情報225、描画オブジェクト226、登録指示体情報227、操作者権限情報228、非登録指示体情報229が保存される。描画オブジェクト226については後述する。
The control unit 201 includes a CPU, a ROM, a RAM (all not shown) and the like, executes a control program stored in the ROM or the storage unit 202, and controls each unit of the projector 2a. The control unit 201 includes a projection control unit 221, an operation acquisition unit 222, a drawing processing unit 223, and an authentication processing unit 224.
The storage unit 202 is a rewritable nonvolatile memory such as a flash memory or an EEPROM. The storage unit 202 stores a control program for controlling the operation of the projector 2, various setting data for defining the operation conditions of the projector 2a, and the like. In the storage unit 202, correspondence information 225, a drawing object 226, registration indicator information 227, operator authority information 228, and non-registration indicator information 229 are stored. The drawing object 226 will be described later.

図3は、登録指示体情報227を登録したテーブルの構成を示す。
登録指示体情報227は、プロジェクター2aの投写領域24aに対する操作を許可された指示体70を識別する識別情報と、この識別情報の指示体70が許可された操作の種類とを対応付けた情報である。登録指示体情報227を登録したテーブルには、指示体70の識別情報に、操作種類と、可否設定とが対応付けて登録される。
操作種類には、属性変更、消去と描画の切り替え、メニューバーMの操作、モード切り替え、消去プロテクト等が含まれる。
属性変更とは、指示体70により文字等を描画する場合に、文字の色、太さ、形等の属性の変更を許可するか否かを示す情報である。消去と描画の切り替えは、投写領域24aへの描画と、描画された文字等の消去との切り替えを許可するか否かの情報である。メニューバーMの操作は、指示体70によるメニューバーMの操作を許可するか否かの情報である。モード切り替えは、PCモードとインタラクティブモードとの切り替えを許可するか否かの情報である。PCモードでは、プロジェクター2aは、接続したパーソナルコンピューター(図示略)から入力される画像をスクリーンSCに投写する動作を実行し、指示体70の操作を検出しても投写領域24aへの描画は行わない。また、インタラクティブモードでは、プロジェクター2aは、パーソナルコンピューター(図示略)から入力される画像をスクリーンSCに投写する動作を実行し、指示体70の操作を検出して投写領域24aへの描画を行う。消去プロテクトは、投写領域24aに描画された文字や図形の消去を制限するモードである。
プロジェクター2bの記憶部202には、登録指示体情報227が登録される。この登録指示体情報227には、プロジェクター2bの投写領域24bに対する操作を許可された指示体70の情報が登録される。
FIG. 3 shows a configuration of a table in which the registration indicator information 227 is registered.
The registered indicator information 227 is information in which identification information for identifying the indicator 70 that is permitted to operate the projection area 24a of the projector 2a is associated with the type of operation that is permitted for the indicator 70 of the identification information. is there. In the table in which the registration indicator information 227 is registered, the operation type and the availability setting are registered in association with the identification information of the indicator 70.
The operation types include attribute change, erasure / drawing switching, menu bar M operation, mode switching, erasure protection, and the like.
The attribute change is information indicating whether or not the change of attributes such as the color, thickness, and shape of the character is permitted when the character 70 is drawn by the indicator 70. Switching between erasing and drawing is information indicating whether or not switching between drawing on the projection area 24a and erasing of drawn characters and the like is permitted. The operation of the menu bar M is information indicating whether or not the operation of the menu bar M by the indicator 70 is permitted. The mode switching is information indicating whether or not switching between the PC mode and the interactive mode is permitted. In the PC mode, the projector 2a performs an operation of projecting an image input from a connected personal computer (not shown) onto the screen SC, and drawing in the projection area 24a is performed even if the operation of the indicator 70 is detected. Absent. In the interactive mode, the projector 2a performs an operation of projecting an image input from a personal computer (not shown) on the screen SC, detects an operation of the indicator 70, and performs drawing on the projection area 24a. The erasure protection is a mode that restricts erasure of characters and figures drawn in the projection area 24a.
Registration indicator information 227 is registered in the storage unit 202 of the projector 2b. In the registered indicator information 227, information of the indicator 70 that is permitted to operate the projection area 24b of the projector 2b is registered.

図4は、操作者権限情報228を登録したテーブルの構成を示す図である。
操作者権限情報228は、指示体70を操作する操作者の権限を設定した情報である。すなわち、指示体70から送信されるデバイス情報である。
なお、操作者を識別する識別情報をデバイス情報とは別に設定して、識別情報と、デバイス情報との対応を記憶部202に記憶しておくことも可能である。
操作者権限情報228を登録したテーブルには、操作者を識別する操作者識別情報に、操作種類と、可否設定とが対応付けて登録される。操作種類及び可否設定は、登録指示体情報227と同一であるため説明を省略する。
FIG. 4 is a diagram showing a configuration of a table in which the operator authority information 228 is registered.
The operator authority information 228 is information in which the authority of the operator who operates the indicator 70 is set. That is, it is device information transmitted from the indicator 70.
Note that identification information for identifying the operator may be set separately from the device information, and the correspondence between the identification information and the device information may be stored in the storage unit 202.
In the table in which the operator authority information 228 is registered, the operation type and the availability setting are registered in association with the operator identification information for identifying the operator. Since the operation type and availability setting are the same as the registration indicator information 227, the description thereof is omitted.

登録指示体情報227と操作者権限情報228とでは、操作者権限情報228が優先される。例えば、登録指示体情報227によりメニューバーMの操作を制限された指示体70を、操作者権限情報228によりメニューバーMの操作を許可された操作者が操作する場合、指示体70によるメニューバーMの操作が許可される。また、操作者権限情報228がプロジェクター2a又は2bに登録された操作者であれば、登録指示体情報227が登録されていない指示体70を用いても、プロジェクター2a又は2bの投写領域24a又は2bに描画することができる。
また、操作者権限情報228のプロジェクター2a又は2bへの登録がない操作者が、指示体70を使用する場合、指示体70がプロジェクター2a又は2bに登録されている必要がある。
In the registration indicator information 227 and the operator authority information 228, the operator authority information 228 has priority. For example, when an operator who is permitted to operate the menu bar M by the operator authority information 228 operates the indicator 70 whose operation of the menu bar M is restricted by the registered indicator information 227, the menu bar by the indicator 70 is displayed. M operations are allowed. Further, if the operator authority information 228 is an operator registered in the projector 2a or 2b, the projection area 24a or 2b of the projector 2a or 2b can be used even if the indicator 70 in which the registration indicator information 227 is not registered is used. Can be drawn.
When an operator who does not register the operator authority information 228 in the projector 2a or 2b uses the indicator 70, the indicator 70 needs to be registered in the projector 2a or 2b.

また、操作者権限情報228を、プロジェクター2aと、プロジェクター2bとの両方に登録することで、例えば、プロジェクター2aの投写領域24aでは操作が制限された指示体70であっても、操作者権限情報228により許可された操作を指示体70により行うことができる。
例えば、プロジェクター2a,2bを学校等で使用する場合に、先生の操作権限を設定した操作者権限情報228をプロジェクター2a及びプロジェクター2bに登録しておくことで、先生は、任意の指示体70を使用して、プロジェクター2aの投写領域24aと、プロジェクター2bの投写領域24bとに描画を行うことができる。
また、生徒に指示体70を渡して、プロジェクター2aの投写領域24aに描画させる場合、描画させたい投写領域24aに対応するプロジェクター2aに登録指示体情報227が登録された指示体70を該当の生徒に手渡せばよい。
例えば、生徒Aに投写領域24aに問題の答えを記載させ、生徒Bに投写領域24bに問題の答えを記載させる場合には、生徒Aに、プロジェクター2aに登録指示体情報227が登録された指示体70を手渡し、生徒Bに、プロジェクター2bに登録指示体情報227が登録された指示体70を手渡す。
生徒Aに手渡された指示体70は、登録指示体情報227がプロジェクター2aにだけ登録されているので、プロジェクター2bの投写領域24bには描画することができない。また、生徒Bに手渡された指示体70は、登録指示体情報227がプロジェクター2bにだけ登録されているので、プロジェクター2aの投写領域24aには描画することができない。
Further, by registering the operator authority information 228 in both the projector 2a and the projector 2b, for example, even if the indicator 70 is restricted in operation in the projection area 24a of the projector 2a, the operator authority information The operation permitted by 228 can be performed by the indicator 70.
For example, when the projectors 2a and 2b are used in a school or the like, by registering the operator authority information 228 in which the teacher's operation authority is set in the projector 2a and the projector 2b, the teacher can select an arbitrary indicator 70. It can be used to draw on the projection area 24a of the projector 2a and the projection area 24b of the projector 2b.
In addition, when handing the indicator 70 to a student and drawing it in the projection area 24a of the projector 2a, the indicator 70 in which the registered indicator information 227 is registered in the projector 2a corresponding to the projection area 24a to be drawn is assigned to the corresponding student. Hand it over to
For example, in a case where the student A is to write the answer to the problem in the projection area 24a and the student B is to write the answer to the problem in the projection area 24b, the instruction to which the registration indicator information 227 is registered in the projector 2a is given to the student A. The body 70 is handed over, and the student 70 is handed over the pointer 70 in which the registered pointer information 227 is registered in the projector 2b.
The indicator 70 handed to the student A cannot be drawn in the projection area 24b of the projector 2b because the registered indicator information 227 is registered only in the projector 2a. The indicator 70 handed to the student B cannot be drawn in the projection area 24a of the projector 2a because the registered indicator information 227 is registered only in the projector 2b.

非登録指示体情報229は、登録指示体情報227がプロジェクター2a又は2bに登録されていない指示体70による操作であって、操作者権限情報228が登録されていない操作者が操作を行った場合について設定した情報である。操作者権限情報228が登録されていない操作者が、登録指示体情報227が登録されていない指示体70により操作を行った場合、プロジェクター2a又は2bは、非登録指示体情報229に従って、検出した指示体70の操作を処理する。   Non-registered indicator information 229 is an operation performed by an indicator 70 whose registered indicator information 227 is not registered in the projector 2a or 2b, and an operator who does not register the operator authority information 228 performs an operation. Information set for. When an operator whose operator authority information 228 is not registered performs an operation with the indicator 70 whose registered indicator information 227 is not registered, the projector 2a or 2b detects according to the unregistered indicator information 229. The operation of the indicator 70 is processed.

非登録指示体情報229には、描画設定、描画属性及び消去設定の情報が含まれる。
描画設定は、例えば、登録指示体情報227がプロジェクター2aに登録されていない指示体70を使用して、操作者権限情報228がプロジェクター2aに登録されていない操作者が投写領域24aに描画を行った場合に、この描画をプロジェクター2aで処理するか否かの設定である。描画設定が「描画許可」に設定された場合、操作者権限情報228がプロジェクター2aに登録されていない操作者による、登録指示体情報227がプロジェクター2aに登録されていない指示体70を使用した操作であっても、投写領域24aへの描画が可能になる。
描画属性は、描画設定が「描画許可」に設定された場合の描画の属性を設定した情報である。例えば、登録指示体情報227が登録された指示体70による操作とは、異なる色、異なる線種、異なる線の太さで描画して、意図的に属性を変更することで、描画を行った操作者の区別を付けることができる。
The unregistered indicator information 229 includes information on drawing settings, drawing attributes, and erasure settings.
For example, the drawing setting is performed by using an indicator 70 whose registration indicator information 227 is not registered in the projector 2a, and an operator whose operator authority information 228 is not registered in the projector 2a performs drawing in the projection area 24a. This is a setting for whether or not this drawing is processed by the projector 2a. When the drawing setting is set to “permitted drawing”, an operation using the indicator 70 whose registration indicator information 227 is not registered in the projector 2a is performed by an operator whose operator authority information 228 is not registered in the projector 2a. Even so, drawing in the projection area 24a becomes possible.
The drawing attribute is information in which a drawing attribute when the drawing setting is set to “drawing permission” is set. For example, the operation by the indicator 70 in which the registered indicator information 227 is registered is drawn by drawing with a different color, a different line type, a different line thickness, and intentionally changing the attribute. The operator can be distinguished.

入力検出部204は、入力デバイスとして機能するリモコン(図示略)、及びプロジェクター2aの操作パネルによる操作を検出する。入力検出部204は、リモコンの操作又は操作パネルの操作を検出すると、検出した操作内容を示す操作データを生成し、制御部201に出力する。
上述した対応情報225、登録指示体情報227、操作者権限情報228及び非登録指示体情報229は、操作者が、リモコン又は操作パネルを操作して設定を変更することもできるし、新たな設定を追加するともできる。
The input detection unit 204 detects an operation by a remote controller (not shown) functioning as an input device and an operation panel of the projector 2a. When the input detection unit 204 detects a remote control operation or an operation panel operation, the input detection unit 204 generates operation data indicating the detected operation content and outputs the operation data to the control unit 201.
The above-described correspondence information 225, registration indicator information 227, operator authority information 228, and non-registration indicator information 229 can be changed by the operator by operating the remote controller or the operation panel. Can also be added.

画像処理部206は、制御部201の制御に従って、画像入力部205から入力される画像データを処理し、処理した画像データを画像合成部213に出力する。画像処理部206が実行する処理は、例えば、解像度変換(スケーリング)処理又はリサイズ処理、歪み補正等の形状補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部206は、制御部201により指定された処理を実行し、必要に応じて、制御部201から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。   The image processing unit 206 processes the image data input from the image input unit 205 under the control of the control unit 201, and outputs the processed image data to the image composition unit 213. The processing executed by the image processing unit 206 includes, for example, resolution conversion (scaling) processing or resizing processing, shape correction processing such as distortion correction, digital zoom processing, color tone correction processing, and luminance correction processing. The image processing unit 206 executes processing designated by the control unit 201 and performs processing using parameters input from the control unit 201 as necessary. Of course, it is also possible to execute a combination of a plurality of processes.

画像合成部213は、画像処理部206が出力する処理後の画像データをフレームメモリー214に展開する。また、画像合成部213は、制御部201が生成する画像データを取得して、フレームメモリー214に展開する。ここで、画像合成部213は、画像処理部206が出力する画像データと、制御部201が生成する画像データとを、フレームメモリー214で合成する。画像合成部213は、合成した画像データをフレームメモリー214から読み出して、表示画像データを光変調装置駆動部208に出力する。   The image composition unit 213 develops the processed image data output from the image processing unit 206 in the frame memory 214. Further, the image composition unit 213 acquires the image data generated by the control unit 201 and develops it in the frame memory 214. Here, the image synthesis unit 213 synthesizes the image data output from the image processing unit 206 and the image data generated by the control unit 201 in the frame memory 214. The image composition unit 213 reads the synthesized image data from the frame memory 214 and outputs the display image data to the light modulation device driving unit 208.

光変調装置駆動部208は、光変調装置22の液晶パネルに接続する。光変調装置駆動部208は、画像合成部213が入力する表示画像データに基づき、R、G、Bの画像信号を生成し、画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。   The light modulation device driving unit 208 is connected to the liquid crystal panel of the light modulation device 22. The light modulation device driving unit 208 generates R, G, and B image signals based on the display image data input by the image synthesis unit 213, drives the liquid crystal panel based on the image signal, and outputs an image to each liquid crystal panel. draw.

投写制御部221は、プロジェクター2aの各部を制御して、スクリーンSCへの画像の投写を実行する。投写制御部221は、画像処理部206を制御して、入力画像データに対する処理を実行する。投写制御部221は、画像処理部206が実行する処理に必要なパラメーターを、記憶部202から読み出して画像処理部206に出力してもよい。
投写制御部221は、画像合成部213を制御して、画像を合成する処理を実行し、光変調装置駆動部208を制御して光変調装置22の液晶パネルに画像を描画する。また、投写制御部221は、光源駆動部207を制御して、光源21を点灯し、光源21の輝度を調整する。これにより、光源21が発光し、光変調装置22が変調する画像光が投写光学系23を通してスクリーンSCに投写される。
The projection control unit 221 controls each part of the projector 2a and executes projection of an image onto the screen SC. The projection control unit 221 controls the image processing unit 206 to execute processing on the input image data. The projection control unit 221 may read parameters necessary for processing executed by the image processing unit 206 from the storage unit 202 and output the parameters to the image processing unit 206.
The projection control unit 221 controls the image synthesizing unit 213 to execute an image synthesizing process, and controls the light modulation device driving unit 208 to draw an image on the liquid crystal panel of the light modulation device 22. Further, the projection control unit 221 controls the light source driving unit 207 to turn on the light source 21 and adjust the luminance of the light source 21. As a result, the light source 21 emits light and the image light modulated by the light modulator 22 is projected onto the screen SC through the projection optical system 23.

操作取得部222は、位置検出部203が検出する操作位置と、操作位置について識別部233が識別した識別結果とを取得する。位置検出部203が検出する操作位置は、投写領域24a(図1)における座標として出力される。このため、操作取得部222は、位置検出部203が出力する座標を、描画処理部223が描画を行うための座標に変換する処理を行う。本実施形態では、描画処理部223は、フレームメモリー214に展開される画像データを生成する。このため、操作取得部222は、位置検出部203が出力する座標を、フレームメモリー214における座標に変換する。   The operation acquisition unit 222 acquires the operation position detected by the position detection unit 203 and the identification result identified by the identification unit 233 for the operation position. The operation position detected by the position detection unit 203 is output as coordinates in the projection area 24a (FIG. 1). For this reason, the operation acquisition unit 222 performs processing for converting the coordinates output from the position detection unit 203 into coordinates for the drawing processing unit 223 to perform drawing. In the present embodiment, the drawing processing unit 223 generates image data developed in the frame memory 214. Therefore, the operation acquisition unit 222 converts the coordinates output from the position detection unit 203 into coordinates in the frame memory 214.

描画処理部223は、位置検出部203が検出した操作位置、又は操作位置の軌跡に合わせて記号や図形を描画する処理を行う。描画処理部223が描画する記号や図形を、描画オブジェクトと呼ぶ。描画処理部223は、フレームメモリー214に展開される画像データのサイズに合わせて、描画オブジェクトを生成する。描画処理部223が生成する描画オブジェクトのデータは画像処理部206に出力され、画像処理部206は描画オブジェクトをフレームメモリー214に展開する。また、画像合成部213は、例えば画像入力部205の入力画像をフレームメモリー214に展開した後、描画処理部223が生成する描画オブジェクトを、フレームメモリー214で重畳して展開し、合成することも可能である。また、描画処理部223が生成する描画オブジェクトは、描画オブジェクト226として記憶部202に記憶してもよい。   The drawing processing unit 223 performs a process of drawing a symbol or a figure in accordance with the operation position detected by the position detection unit 203 or the locus of the operation position. Symbols and figures drawn by the drawing processing unit 223 are called drawing objects. The drawing processing unit 223 generates a drawing object in accordance with the size of the image data developed in the frame memory 214. The drawing object data generated by the drawing processing unit 223 is output to the image processing unit 206, and the image processing unit 206 develops the drawing object in the frame memory 214. In addition, the image composition unit 213 may develop, for example, an input image of the image input unit 205 in the frame memory 214 and then superimpose and develop the drawing object generated by the drawing processing unit 223 in the frame memory 214. Is possible. Further, the drawing object generated by the drawing processing unit 223 may be stored in the storage unit 202 as the drawing object 226.

また、操作取得部222は、位置検出部203が検出した操作位置に対応して、上述したポインター機能を実行する。操作取得部222は、指示体70の操作により、メニューバーM(図1)のボタンに重なる位置が指示された場合、操作位置に重なるボタンに割り当てられた機能を実行する。メニューバーMに配置されるボタンは上述の通りである。
メニューバーMの描画実行を指示するボタンの操作によって、プロジェクター2aは描画モードを実行する。描画モードでは、描画処理部223が、位置算出部232が検出した操作位置に対応して描画を行う。また、メニューバーMの描画以外のボタンが操作された場合、操作取得部222が、ボタン操作と、ボタン操作後に位置算出部232が検出する操作位置とに基づき、対応する処理を実行する。
Further, the operation acquisition unit 222 executes the pointer function described above corresponding to the operation position detected by the position detection unit 203. When the position that overlaps the button of the menu bar M (FIG. 1) is instructed by the operation of the indicator 70, the operation acquisition unit 222 executes the function assigned to the button that overlaps the operation position. The buttons arranged on the menu bar M are as described above.
The projector 2a executes the drawing mode by operating the button for instructing the drawing execution of the menu bar M. In the drawing mode, the drawing processing unit 223 performs drawing corresponding to the operation position detected by the position calculation unit 232. When a button other than the drawing on the menu bar M is operated, the operation acquisition unit 222 executes a corresponding process based on the button operation and the operation position detected by the position calculation unit 232 after the button operation.

認証処理部224は、識別部233が出力する指示体70の識別情報に基づき、位置算出部232が検出した操作を行った指示体70が、プロジェクター2aに対応する指示体70であるか否かを判定する。
プロジェクター2aには、プロジェクター2aに対応する指示体70として、1又は複数の指示体70を登録できる。プロジェクター2aは、登録された指示体70の識別情報を、対応情報225に含めて記憶部202に記憶する。
認証処理部224は、識別部233が出力する識別情報が対応情報225に含まれるか否かに基づき、識別部233が検出した指示体70がプロジェクター2aに対応するか否かを判定する。
また、認証処理部224は、位置算出部232が検出した操作が、登録指示体情報227に登録された、操作を許可された操作であるか否かを判定する。
また、認証処理部224は、指示体70から送信される操作者識別情報を無線通信部209で受信したか否かを判定する。
認証処理部224は、無線通信部209で操作者識別情報を受信した場合、操作者権限情報228を参照して、受信した操作者識別情報の示す操作者の権限を認識する。
Based on the identification information of the indicator 70 output from the identification unit 233, the authentication processing unit 224 determines whether the indicator 70 that has performed the operation detected by the position calculation unit 232 is the indicator 70 corresponding to the projector 2a. Determine.
One or more indicators 70 can be registered in the projector 2a as the indicators 70 corresponding to the projector 2a. The projector 2 a includes the registered identification information of the indicator 70 in the correspondence information 225 and stores it in the storage unit 202.
The authentication processing unit 224 determines whether or not the indicator 70 detected by the identification unit 233 corresponds to the projector 2a based on whether or not the identification information output from the identification unit 233 is included in the correspondence information 225.
Further, the authentication processing unit 224 determines whether the operation detected by the position calculation unit 232 is an operation that is registered in the registration indicator information 227 and is permitted to be operated.
Further, the authentication processing unit 224 determines whether or not the operator identification information transmitted from the indicator 70 is received by the wireless communication unit 209.
When the wireless communication unit 209 receives the operator identification information, the authentication processing unit 224 refers to the operator authority information 228 and recognizes the operator authority indicated by the received operator identification information.

投写制御部221は、認証処理部224の判定結果に基づき、描画処理部223が生成する描画オブジェクトをスクリーンSCに投写するか否かを判定する。投写制御部221は、位置算出部232が検出した操作を行った指示体70について、認証処理部224により、プロジェクター2aに対応しないと判定された場合、描画オブジェクトを投写しないと判定する。また、投写制御部221は、位置算出部232が検出した操作を行った指示体70について、認証処理部224により、プロジェクター2aに対応すると判定された場合、描画オブジェクトを投写すると判定する。
描画オブジェクトを投写しないと判定した場合、投写制御部221は、画像処理部206が描画オブジェクトを展開する処理を制限する。また、投写制御部221は、描画オブジェクトを投写すると判定した場合、画像処理部206に、描画オブジェクトを展開する処理を実行させる。
Based on the determination result of the authentication processing unit 224, the projection control unit 221 determines whether or not to project the drawing object generated by the drawing processing unit 223 on the screen SC. The projection control unit 221 determines that the drawing object is not projected when the authentication processing unit 224 determines that the indicator 70 that has performed the operation detected by the position calculation unit 232 is not compatible with the projector 2a. The projection control unit 221 determines that the drawing object is projected when the authentication processing unit 224 determines that the indicator 70 that has performed the operation detected by the position calculation unit 232 corresponds to the projector 2a.
When it is determined that the drawing object is not projected, the projection control unit 221 restricts the processing for the image processing unit 206 to expand the drawing object. If the projection control unit 221 determines to project a drawing object, the projection control unit 221 causes the image processing unit 206 to execute a process of developing the drawing object.

図5は、プロジェクター2の第1の動作を示すフローチャートである。図5に示す動作は、プロジェクター2a、2bのどちらもそれぞれ実行可能である。また、図5の動作で検出する対象の指示体70は、指示体70a、70b、70cのどれでもよい。ここでは、プロジェクター2aが指示体70aの操作を検出する例を説明する。後述する図6についても同様である。   FIG. 5 is a flowchart showing a first operation of the projector 2. The operation shown in FIG. 5 can be executed by both the projectors 2a and 2b. Further, the indicator 70 to be detected by the operation of FIG. 5 may be any of the indicators 70a, 70b, and 70c. Here, an example in which the projector 2a detects an operation of the indicator 70a will be described. The same applies to FIG. 6 described later.

プロジェクター2aの制御部201は、位置検出部203が描画操作、ポインターの操作等の操作イベントを検出すると(ステップS1/YES)、識別部233により指示体70の識別を実行させて識別情報を取得する(ステップS2)。
制御部201は、取得した識別情報と対応情報225とに基づき、プロジェクター2aに対応する指示体70として登録されている指示体であるか否かを判定する(ステップS3)。
指示体70として登録された指示体である場合(ステップS3/YES)、制御部201は、取得した識別情報に対応する指示体70の登録指示体情報227を取得する(ステップS4)。そして、制御部201は、ステップS1で取得した操作イベントが示す操作が、許可された操作であるか否かを登録指示体情報227に基づいて判定する(ステップS6)。また、指示体70として登録された指示体ではない場合(ステップS3/NO)、制御部201は、非登録指示体情報229を取得する(ステップS5)。そして、制御部201は、ステップS1で取得した操作イベントが示す操作が、プロジェクター2aに登録されていない指示体70による操作が許可された操作であるか否かを非登録指示体情報229に基づいて判定る(ステップS6)。
When the position detection unit 203 detects an operation event such as a drawing operation or a pointer operation (step S1 / YES), the control unit 201 of the projector 2a causes the identification unit 233 to identify the indicator 70 and acquire identification information. (Step S2).
Based on the acquired identification information and correspondence information 225, the control unit 201 determines whether or not the indicator is registered as the indicator 70 corresponding to the projector 2a (step S3).
When it is the indicator registered as the indicator 70 (step S3 / YES), the control part 201 acquires the registration indicator information 227 of the indicator 70 corresponding to the acquired identification information (step S4). Then, the control unit 201 determines based on the registration indicator information 227 whether or not the operation indicated by the operation event acquired in step S1 is a permitted operation (step S6). When the indicator is not registered as the indicator 70 (step S3 / NO), the control unit 201 acquires the non-registered indicator information 229 (step S5). Based on the non-registered indicator information 229, the control unit 201 determines whether the operation indicated by the operation event acquired in step S1 is an operation permitted by the indicator 70 that is not registered in the projector 2a. (Step S6).

操作イベントが示す操作が、許可されていない操作である場合(ステップS6/NO)、制御部201は、ステップS1で検出した操作イベントに対応する処理を終了する(ステップS7)。また、操作イベントが示す操作が、許可された操作であった場合(ステップS6/YES)、制御部201は、ステップS1で取得した操作イベントの操作種別が描画又は消去であるか否かを判定する(ステップS8)。操作種別が描画又は消去である場合(ステップS8/YES)、制御部201は、操作イベントの操作位置を取得し(ステップS9)、取得した操作位置が投写領域24a内であるか否かを判定する(ステップS10)。   When the operation indicated by the operation event is an operation that is not permitted (step S6 / NO), the control unit 201 ends the process corresponding to the operation event detected in step S1 (step S7). If the operation indicated by the operation event is a permitted operation (step S6 / YES), the control unit 201 determines whether the operation type of the operation event acquired in step S1 is drawing or erasing. (Step S8). When the operation type is drawing or erasing (step S8 / YES), the control unit 201 acquires the operation position of the operation event (step S9), and determines whether or not the acquired operation position is within the projection area 24a. (Step S10).

操作位置が投写領域24a内であり(ステップS10/YES)、操作イベントが描画である場合、制御部201は、操作位置に基づいて描画オブジェクトを生成し、投写部20により表示させ(ステップS11)、本処理を終了する。また、制御部201は、操作位置が投写領域24a内であり(ステップS10/YES)、操作イベントが消去である場合、操作位置に基づいて描画オブジェクトを消去して、描画オブジェクトが消去された画像を投写部20により表示させる(ステップS11)。
また、操作イベントが描画又は消去ではないと判定する場合(ステップS8/NO)、制御部201は、ポインター操作であると判定し、位置算出部232が検出した操作位置を取得する(ステップS12)。制御部201は、取得した操作位置に基づきポインターPを表示し、或いは表示中のポインターPの位置を移動させる処理を行う(ステップS13)。さらに、制御部201は、移動後のポインターPの位置がメニューバーMのボタンの位置に重なる場合には、重なったボタンを判定する(ステップS14)。制御部201は、判定したボタンに対応する処理を実行し(ステップS15)、本処理を終了する。
When the operation position is within the projection area 24a (step S10 / YES) and the operation event is drawing, the control unit 201 generates a drawing object based on the operation position and causes the projection unit 20 to display the drawing object (step S11). This process is terminated. Further, when the operation position is within the projection area 24a (step S10 / YES) and the operation event is erasure, the control unit 201 erases the drawing object based on the operation position, and the image in which the drawing object is erased. Is displayed by the projection unit 20 (step S11).
When it is determined that the operation event is not drawing or erasing (step S8 / NO), the control unit 201 determines that the operation is a pointer operation, and acquires the operation position detected by the position calculation unit 232 (step S12). . The control unit 201 displays the pointer P based on the acquired operation position, or performs a process of moving the position of the pointer P being displayed (step S13). Further, when the position of the pointer P after movement overlaps the position of the button on the menu bar M, the control unit 201 determines the overlapped button (step S14). The control unit 201 executes processing corresponding to the determined button (step S15), and ends this processing.

図6は、プロジェクター2の第2の動作を示すフローチャートである。
プロジェクター2aの制御部201は、位置検出部203が描画操作、ポインターの操作等の操作イベントを検出すると(ステップS21/YES)、無線通信部209により操作者識別情報を取得しているか否かを判定する(ステップS22)。指示体70は、操作者が所持するデバイスから出力される信号を検出した場合に、デバイスから取得したデバイス情報を、操作者識別情報としてプロジェクター2に送信する。
操作者識別情報を取得している場合(ステップS22/YES)、制御部201は、取得した操作者識別情報に対応する操作者権限情報228を取得する。そして、制御部201は、ステップS1で取得した操作イベントが示す操作が、許可された操作であるか否かを操作者権限情報228に基づいて判定する(ステップS28)。以後、制御部201は、図5に示すステップS6以降の動作と同様の動作を実行する。また、制御部201は、操作者識別情報を取得することができなかった場合(ステップS22/NO)、識別部233により指示体70の識別を実行させて識別情報を取得する(ステップS24)。以後、制御部201は、図5に示すステップS3以降の動作と同様の動作を実行する。
FIG. 6 is a flowchart showing the second operation of the projector 2.
When the position detection unit 203 detects an operation event such as a drawing operation or a pointer operation (step S21 / YES), the control unit 201 of the projector 2a determines whether or not operator identification information is acquired by the wireless communication unit 209. Determination is made (step S22). When the indicator 70 detects a signal output from the device possessed by the operator, the indicator 70 transmits the device information acquired from the device to the projector 2 as the operator identification information.
When the operator identification information is acquired (step S22 / YES), the control unit 201 acquires the operator authority information 228 corresponding to the acquired operator identification information. Then, the control unit 201 determines whether or not the operation indicated by the operation event acquired in step S1 is a permitted operation based on the operator authority information 228 (step S28). Thereafter, the control unit 201 performs the same operation as the operation after step S6 shown in FIG. Further, when the operator identification information cannot be acquired (step S22 / NO), the control unit 201 causes the identification unit 233 to identify the indicator 70 and acquire the identification information (step S24). Thereafter, the control unit 201 performs the same operation as the operation after step S3 shown in FIG.

以上説明したように本実施形態のプロジェクター2は、投写部20、位置算出部232、識別部233、記憶部202、制御部201を備える。
投写部20は、スクリーンSCに画像を表示する。位置算出部232は、指示体70により行われるスクリーンSCに対する操作の位置を検出する。識別部233は、位置算出部232により操作が検出された指示体70の識別情報を取得する。記憶部202は、スクリーンSCにおいて指示体70による操作が可能な領域として設定された操作領域と、指示体70により実行可能な操作と、指示体70を識別する識別情報と、を対応付けた設定情報を記憶する。制御部201は、位置算出部232が検出した操作の位置と、識別部233が取得した指示体70の識別情報と、記憶部202に記憶された設定情報とに基づいて、操作が有効な操作であるか否かを判定する。また、制御部201は、有効であると判定された操作に対応する処理を実行する。従って、検出した操作の位置と、取得した指示体70の識別情報とに基づいて、操作が有効な操作であるか否かを判定するので、複数のデバイスによる複数の領域に対する操作を、操作されたデバイスの設定に従って検出できる。
As described above, the projector 2 according to this embodiment includes the projection unit 20, the position calculation unit 232, the identification unit 233, the storage unit 202, and the control unit 201.
The projection unit 20 displays an image on the screen SC. The position calculator 232 detects the position of the operation on the screen SC performed by the indicator 70. The identification unit 233 acquires identification information of the indicator 70 whose operation is detected by the position calculation unit 232. The storage unit 202 is a setting in which an operation area set as an area that can be operated by the indicator 70 on the screen SC, an operation that can be executed by the indicator 70, and identification information that identifies the indicator 70 are associated with each other. Store information. The control unit 201 performs an operation with an effective operation based on the position of the operation detected by the position calculation unit 232, the identification information of the indicator 70 acquired by the identification unit 233, and the setting information stored in the storage unit 202. It is determined whether or not. In addition, the control unit 201 executes processing corresponding to the operation determined to be valid. Therefore, since it is determined whether or not the operation is an effective operation based on the detected position of the operation and the acquired identification information of the indicator 70, an operation on a plurality of regions by a plurality of devices is operated. Can be detected according to the device settings.

また、制御部201は、位置算出部232により操作が検出された指示体70を操作する操作者を識別する。記憶部202は、識別されたそれぞれの操作者に対し、実行可能な操作を対応付けた操作者権限情報228を記憶する。制御部201は、位置算出部232により指示体70の操作の位置が検出された場合に、操作者の識別結果と、操作者権限情報228とに基づき、位置算出部232が検出した操作が有効な操作であるか否かを判定する。また、記憶部202に記憶された設定情報に基づき有効な操作でないと判定される操作であっても、操作者権限情報228に基づき有効な操作であると判定される操作は、有効と判定する。従って、操作領域に対する操作権限を有する操作者の操作を有効と判定して処理することができる。   Further, the control unit 201 identifies an operator who operates the indicator 70 whose operation is detected by the position calculation unit 232. The storage unit 202 stores operator authority information 228 in which an executable operation is associated with each identified operator. When the position calculation unit 232 detects the operation position of the indicator 70, the control unit 201 determines that the operation detected by the position calculation unit 232 is effective based on the operator identification result and the operator authority information 228. It is determined whether or not the operation is incorrect. Even if the operation is determined not to be an effective operation based on the setting information stored in the storage unit 202, the operation determined to be an effective operation based on the operator authority information 228 is determined to be effective. . Therefore, it is possible to determine that the operation of the operator having the operation authority for the operation area is valid and process it.

また、制御部201は、指示体70から送信される操作者識別情報に基づいて、操作者を識別する。また、指示体70は、操作者の所持するデバイスからデバイス情報を取得し、取得したデバイス情報をプロジェクター2に送信する。従って、操作者を容易に識別することができる。   Further, the control unit 201 identifies the operator based on the operator identification information transmitted from the indicator 70. In addition, the indicator 70 acquires device information from a device owned by the operator, and transmits the acquired device information to the projector 2. Therefore, the operator can be easily identified.

なお、上述した各実施形態は、本発明の好適な実施形態を示すものであり、本発明を限定するものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。例えば、プロジェクター2a、2bのそれぞれが位置検出部203を内蔵する構成を例に挙げて説明したが、本発明はこれに限定されず、位置検出部203がプロジェクター2に外部接続される構成であってもよい。例えば、位置検出部203の機能を有する位置検出装置を、プロジェクター2a、2bのそれぞれに接続して使用してもよい。   Each embodiment mentioned above shows a suitable embodiment of the present invention, does not limit the present invention, and various modifications are possible within the range which does not deviate from the gist of the present invention. For example, the projectors 2a and 2b have been described by taking the configuration in which the position detection unit 203 is built in as an example. However, the present invention is not limited to this, and the position detection unit 203 is externally connected to the projector 2. May be. For example, a position detection device having the function of the position detection unit 203 may be connected to each of the projectors 2a and 2b.

また、上記各実施形態では、プロジェクター2a、2bが、スクリーンSCの前面側から画像光を投写するよう設置された例について説明したが、プロジェクター2a、2bはスクリーンSCの背面側から投写を行ってもよい。或いは、床面と平行又は斜めに設置される投写面に対し、投写面の側方から投写を行う構成であってもよい。また、プロジェクター2aの投写領域24aと、プロジェクター2bの投写領域24bとが近接している場合に、本発明を適用することで上記の効果が得られる。従って、投写領域24a、24bの配置は横並びに限定されない。また、プロジェクター2aとプロジェクター2bとが同じスクリーンSCに投写する構成に限られない。   In each of the above embodiments, the projectors 2a and 2b have been described so as to project image light from the front side of the screen SC. However, the projectors 2a and 2b perform projection from the back side of the screen SC. Also good. Or the structure which projects from the side of a projection surface with respect to the projection surface installed parallel or diagonally with a floor surface may be sufficient. Further, when the projection area 24a of the projector 2a and the projection area 24b of the projector 2b are close to each other, the above effect can be obtained by applying the present invention. Therefore, the arrangement of the projection areas 24a and 24b is not limited side by side. The projector 2a and the projector 2b are not limited to the configuration that projects onto the same screen SC.

また、図2に示した表示システム1の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。その他、表示システム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。   Moreover, each function part of the display system 1 shown in FIG. 2 shows the functional structure implement | achieved by cooperation with hardware and software, Comprising: A specific mounting form is not restrict | limited in particular. Therefore, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to realize a function of a plurality of function units by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software. In addition, specific detailed configurations of other parts of the display system 1 can be arbitrarily changed without departing from the spirit of the present invention.

1…表示システム、2、2a、2b…プロジェクター、3…通信回線、20…投写部、24a、24b…投写領域、25a、25b…投写画像、70、70a、70b、70c…指示体、201…制御部、202…記憶部、203…位置検出部、205…画像入力部、206…画像処理部、209…無線通信部、211…通信部、213…画像合成部、214…フレームメモリー、221…投写制御部(制御部)、222…操作取得部、223…描画処理部(制御部)、224…認証処理部(判定部、操作者識別部)、225…対応情報(設定情報)、226…描画オブジェクト、227…登録指示体情報(設定情報)、228…操作者権限情報、229…非登録指示体情報、231…撮像部、232…位置算出部(検出部)、233…識別部(取得部)、M…メニューバー、SC…スクリーン(表示面)。   DESCRIPTION OF SYMBOLS 1 ... Display system 2, 2a, 2b ... Projector, 3 ... Communication line, 20 ... Projection part, 24a, 24b ... Projection area, 25a, 25b ... Projected image, 70, 70a, 70b, 70c ... Indicator, 201 ... Control unit 202 ... Storage unit 203 ... Position detection unit 205 ... Image input unit 206 ... Image processing unit 209 ... Wireless communication unit 211 ... Communication unit 213 ... Image composition unit 214 ... Frame memory, 221 ... Projection control unit (control unit), 222 ... operation acquisition unit, 223 ... drawing processing unit (control unit), 224 ... authentication processing unit (determination unit, operator identification unit), 225 ... correspondence information (setting information), 226 ... Drawing object, 227 ... registered indicator information (setting information), 228 ... operator authority information, 229 ... non-registered indicator information, 231 ... imaging unit, 232 ... position calculator (detector), 233 ... identification (Acquisition unit), M ... menu bar, SC ... screen (display surface).

Claims (6)

表示面に画像を表示する表示部と、
指示体により行われる前記表示面に対する操作の位置を検出する検出部と、
前記検出部により操作が検出された前記指示体の識別情報を取得する取得部と、
前記表示面において前記指示体による操作が可能な領域として設定された操作領域と、前記指示体により実行可能な操作と、前記指示体を識別する識別情報と、を対応付けた設定情報を記憶する記憶部と、
前記検出部が検出した操作の位置と、前記取得部が取得した前記指示体の識別情報と、前記記憶部に記憶された前記設定情報とに基づいて、前記操作が有効な操作であるか否かを判定する判定部と、
前記判定部により有効であると判定された前記操作に対応する処理を実行する制御部と、
を備えることを特徴とする表示装置。
A display unit for displaying an image on the display surface;
A detection unit for detecting a position of an operation on the display surface performed by an indicator;
An acquisition unit for acquiring identification information of the indicator whose operation is detected by the detection unit;
Setting information in which an operation area set as an area that can be operated by the indicator on the display surface, an operation that can be executed by the indicator, and identification information that identifies the indicator is stored. A storage unit;
Whether the operation is an effective operation based on the position of the operation detected by the detection unit, the identification information of the indicator acquired by the acquisition unit, and the setting information stored in the storage unit A determination unit for determining whether or not
A control unit that executes processing corresponding to the operation determined to be effective by the determination unit;
A display device comprising:
前記検出部により操作が検出された前記指示体を操作する操作者を識別する操作者識別部を備え、
前記記憶部は、前記操作者識別部が識別するそれぞれの前記操作者に対し、実行可能な操作を対応付けた操作者権限情報を記憶し、
前記判定部は、前記検出部により前記指示体の操作の位置が検出された場合に、前記操作者識別部の識別結果と、前記操作者権限情報とに基づき、前記検出部が検出した前記操作が有効な操作であるか否かを判定することを特徴とする請求項1記載の表示装置。
An operator identification unit for identifying an operator who operates the indicator whose operation is detected by the detection unit;
The storage unit stores operator authority information in which executable operations are associated with each of the operators identified by the operator identification unit,
The determination unit detects the operation detected by the detection unit based on the identification result of the operator identification unit and the operator authority information when the position of the operation of the indicator is detected by the detection unit. The display device according to claim 1, wherein it is determined whether or not the operation is an effective operation.
前記判定部は、前記記憶部に記憶された前記設定情報に基づき有効な操作でないと判定される前記操作であっても、前記操作者権限情報に基づき有効な操作であると判定される前記操作は、有効と判定すること、
を特徴とする請求項2記載の表示装置。
Even if the operation is determined not to be an effective operation based on the setting information stored in the storage unit, the operation is determined to be an effective operation based on the operator authority information. Is determined to be valid,
The display device according to claim 2.
前記操作者識別部は、前記指示体から送信される操作者識別情報を受信することにより、前記操作者を識別すること、を特徴とする請求項2または3に記載の表示装置。   The display device according to claim 2, wherein the operator identification unit identifies the operator by receiving operator identification information transmitted from the indicator. 前記指示体は、前記操作者が所持するデバイスからデバイス情報を取得し、取得したデバイス情報を、前記操作者識別情報として前記表示装置に送信すること、を特徴とする請求項4記載の表示装置。   The display device according to claim 4, wherein the indicator acquires device information from a device possessed by the operator, and transmits the acquired device information to the display device as the operator identification information. . 画像が表示された表示面に対して、指示体により行われる操作の位置を検出し、
検出した前記操作を行った前記指示体の識別情報を取得し、
取得した前記指示体の識別情報と、前記表示面において前記指示体による操作が可能な領域として設定された操作領域と、前記操作領域において前記指示体により実行可能な操作とが設定された設定情報と、検出した前記操作の位置と、に基づいて、前記操作が有効な操作であるか否かを判定し、
前記操作が有効であると判定した場合に、前記操作に対応する処理を実行する、
ことを特徴とする表示装置の制御方法。
Detect the position of the operation performed by the indicator on the display surface where the image is displayed,
Obtaining identification information of the indicator that has performed the detected operation;
Setting information in which the obtained identification information of the indicator, an operation area set as an area that can be operated by the indicator on the display surface, and an operation that can be executed by the indicator in the operation area are set And whether or not the operation is an effective operation based on the detected position of the operation,
When it is determined that the operation is valid, a process corresponding to the operation is executed.
A control method for a display device.
JP2015065936A 2015-03-27 2015-03-27 Display device and control method for display device Withdrawn JP2016186693A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015065936A JP2016186693A (en) 2015-03-27 2015-03-27 Display device and control method for display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015065936A JP2016186693A (en) 2015-03-27 2015-03-27 Display device and control method for display device

Publications (1)

Publication Number Publication Date
JP2016186693A true JP2016186693A (en) 2016-10-27

Family

ID=57203663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015065936A Withdrawn JP2016186693A (en) 2015-03-27 2015-03-27 Display device and control method for display device

Country Status (1)

Country Link
JP (1) JP2016186693A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113093935A (en) * 2019-12-23 2021-07-09 精工爱普生株式会社 Display device control method and display device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165766A (en) * 1997-08-11 1999-03-09 Kokusai Electric Co Ltd Information data operating function processor and touch pen
JP2000222133A (en) * 1999-01-28 2000-08-11 Canon Inc Electronic information display device, display control method therefor and storage medium
JP2003099184A (en) * 2001-09-25 2003-04-04 Sharp Corp Information system and information processor and input pen to be used for the same system
JP2009053956A (en) * 2007-08-27 2009-03-12 Sharp Corp Electronic board system
JP2009070155A (en) * 2007-09-13 2009-04-02 Sharp Corp Display system
JP2011054096A (en) * 2009-09-04 2011-03-17 Canon Inc Information processing apparatus
WO2011086600A1 (en) * 2010-01-15 2011-07-21 パイオニア株式会社 Information-processing device and method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165766A (en) * 1997-08-11 1999-03-09 Kokusai Electric Co Ltd Information data operating function processor and touch pen
JP2000222133A (en) * 1999-01-28 2000-08-11 Canon Inc Electronic information display device, display control method therefor and storage medium
JP2003099184A (en) * 2001-09-25 2003-04-04 Sharp Corp Information system and information processor and input pen to be used for the same system
JP2009053956A (en) * 2007-08-27 2009-03-12 Sharp Corp Electronic board system
JP2009070155A (en) * 2007-09-13 2009-04-02 Sharp Corp Display system
JP2011054096A (en) * 2009-09-04 2011-03-17 Canon Inc Information processing apparatus
WO2011086600A1 (en) * 2010-01-15 2011-07-21 パイオニア株式会社 Information-processing device and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113093935A (en) * 2019-12-23 2021-07-09 精工爱普生株式会社 Display device control method and display device
CN113093935B (en) * 2019-12-23 2023-07-28 精工爱普生株式会社 Display device control method and display device

Similar Documents

Publication Publication Date Title
US9176599B2 (en) Display device, display system, and data supply method for display device
US9992466B2 (en) Projector with calibration using a plurality of images
US8806074B2 (en) Display device, projector, display system, and method of switching device
KR101811794B1 (en) Position detection device, position detection system, and position detection method
US20150145766A1 (en) Image display apparatus and method of controlling image display apparatus
CN103279313A (en) Display device and display control method
US20170103687A1 (en) Projector and control method for projector
US10416813B2 (en) Display system, display device, information processing device, and information processing method
JP6770502B2 (en) Communication devices, display devices, their control methods, programs and display systems
JP2018036471A (en) Display device, display system, and method for controlling display device
EP2916201A1 (en) Position detecting device and position detecting method
US20190295499A1 (en) Display device, display system, and method of controlling display device
US20150279336A1 (en) Bidirectional display method and bidirectional display device
JP6569259B2 (en) POSITION DETECTION DEVICE, DISPLAY DEVICE, POSITION DETECTION METHOD, AND DISPLAY METHOD
TWI645395B (en) Two-way display method and two-way display device
JP2016186693A (en) Display device and control method for display device
JP6439398B2 (en) Projector and projector control method
JP2019117322A (en) Projection type display unit, method of controlling the same, and program
JP2006054824A (en) Projection image display device
JP5899993B2 (en) Image display device, image display system, and control method of image display device
US20170090707A1 (en) Interactive display method and interactive display device
JP2016164704A (en) Image display device and image display system
JP2011203328A (en) Projector, projector system, and image projection method
JP2016181866A (en) Projector and control method of projector
JP2016184268A (en) Display device, display system, and control method for display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180302

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181109

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20190121