JP5472569B2 - Projection system - Google Patents

Projection system Download PDF

Info

Publication number
JP5472569B2
JP5472569B2 JP2008317802A JP2008317802A JP5472569B2 JP 5472569 B2 JP5472569 B2 JP 5472569B2 JP 2008317802 A JP2008317802 A JP 2008317802A JP 2008317802 A JP2008317802 A JP 2008317802A JP 5472569 B2 JP5472569 B2 JP 5472569B2
Authority
JP
Japan
Prior art keywords
information
image
unit
projector
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008317802A
Other languages
Japanese (ja)
Other versions
JP2010139899A (en
JP2010139899A5 (en
Inventor
浩幸 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008317802A priority Critical patent/JP5472569B2/en
Publication of JP2010139899A publication Critical patent/JP2010139899A/en
Publication of JP2010139899A5 publication Critical patent/JP2010139899A5/en
Application granted granted Critical
Publication of JP5472569B2 publication Critical patent/JP5472569B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、投写システムおよびプロジェクタに関する。 The present invention relates to a projection system and a projector.

ユーザーは、プロジェクターを用いて画像を投写している状況で画像の拡大等を行うためには、リモコン(リモートコントローラー)を用いたボタン操作によってOSD(On Screen Display)画像を投写しなければならなかった。しかし、プロジェクターの場合、1つの画像を多数の聴衆が観察しており、このような状況でプレゼンテーション画像とは異なるOSD画像を投写することは、情報の視認性を低下させる上、プレゼンテーションを中断することになるため、好ましくない。   A user must project an OSD (On Screen Display) image by operating a button using a remote controller (remote controller) in order to enlarge the image while projecting an image using a projector. It was. However, in the case of a projector, a large number of audiences are observing one image, and projecting an OSD image different from the presentation image in such a situation lowers the visibility of information and interrupts the presentation. This is not preferable.

また、例えば、特開2008−15402号公報では、携帯電話またはPC(P ersonal Computer)とプロジェクターを用いた投写システムで、投写されている画像の拡大または縮小を行うためにプロジェクターの操作部やリモコンを用いることが記載されている。
特開2008−15402号公報
Further, for example, in Japanese Patent Application Laid-Open No. 2008-15402, in a projection system using a mobile phone or a PC (Personal Computer) and a projector, an operation unit of a projector or a remote controller is used to enlarge or reduce a projected image. Is described.
JP 2008-15402 A

しかし、PCや携帯電話を操作している状況で画像の拡大等を行うためには、ユーザーは、PCに接続されたマウスや携帯電話とリモコンを持ち替えて操作する必要があり、操作が煩雑となる。   However, in order to perform image enlargement or the like while operating a PC or a mobile phone, the user needs to move the mouse or mobile phone connected to the PC and the remote control to operate it, and the operation is complicated. Become.

本発明の目的は、端末装置とプロジェクターとが通信可能な状態で、プレゼンテーションを中断することなく、端末装置での操作によってプロジェクターを制御する場合の操作性を向上させることが可能な投写システムおよびプロジェクタを提供することにある。 An object of the present invention is to provide a projection system and a projector capable of improving the operability when the projector is controlled by an operation on the terminal device without interrupting the presentation in a state where the terminal device and the projector can communicate with each other. Is to provide

上記課題を解決するため、本発明に係る投写システムは、少なくとも1台の端末装置と、プロジェクターとを含む投写システムにおいて、前記端末装置は、操作情報を生成する操作部と、前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、前記指示位置情報を前記プロジェクターへ向け送信する端末側通信部と、を含み、前記プロジェクターは、前記指示位置情報を受信する投写側通信部と、前記指示位置情報に基づき、前記指示位置を示す画像を生成する投写側画像生成部と、前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、前記操作情報がジェスチャーを示すものでない場合、前記指示位置を示す画像を生成する投写側画像生成部と、前記画像を投写する投写部と、を含むことを特徴とする。   In order to solve the above problems, a projection system according to the present invention is a projection system including at least one terminal device and a projector, wherein the terminal device is based on an operation unit that generates operation information and the operation information. An instruction position information generation unit that generates instruction position information indicating an instruction position; and a terminal side communication unit that transmits the instruction position information to the projector, wherein the projector receives the instruction position information. Determining whether the operation information indicates a gesture based on the side communication unit, a projection-side image generation unit that generates an image indicating the indicated position based on the indicated position information, and the indicated position information A gesture determination unit; a control unit that performs control in accordance with the gesture when the operation information indicates a gesture; If the operation information does not indicate the gesture, it characterized in that it comprises a projection-side image generating unit that generates an image indicating the instruction position, and a projection unit that projects the image.

また、本発明に係るプロジェクターは、少なくとも1台の端末装置から操作情報に基づく指示位置を示す指示位置情報を受信する投写側通信部と、前記指示位置情報に基づき、前記指示位置を示す画像を生成する投写側画像生成部と、前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、前記操作情報がジェスチャーを示すものでない場合、前記指示位置を示す画像を生成する投写側画像生成部と、前記画像を投写する投写部と、を含み、前記投写側通信部は、前記端末装置を、前記操作情報に基づき、前記指示位置情報を生成する指示位置情報生成部として機能させるためのプログラムを前記端末装置へ向け送信することを特徴とする。   In addition, a projector according to the present invention includes a projection-side communication unit that receives instruction position information indicating an instruction position based on operation information from at least one terminal device, and an image indicating the instruction position based on the instruction position information. A projection-side image generation unit to be generated; a gesture determination unit that determines whether the operation information indicates a gesture based on the designated position information; and the gesture information when the operation information indicates a gesture A control unit that performs control according to the above, a projection-side image generation unit that generates an image indicating the indicated position when the operation information does not indicate a gesture, and a projection unit that projects the image, The projection-side communication unit causes the terminal device to function as an instruction position information generation unit that generates the instruction position information based on the operation information. Characterized by the program transmission towards the terminal.

また、本発明に係るプログラムは、投写側通信部を含むプロジェクターの有するコンピューターを、少なくとも1台の端末装置から操作情報に基づく指示位置を示す指示位置情報を前記投写側通信部に受信させる投写側通信制御部と、前記指示位置情報に基づき、前記指示位置を示す画像を生成する投写側画像生成部と、前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、前記操作情報がジェスチャーを示すものでない場合、前記指示位置を示す画像を生成する投写側画像生成部として機能させ、前記投写側通信制御部は、前記端末装置を、前記操作情報に基づき、前記指示位置情報を生成する指示位置情報生成部として機能させるためのプログラムを前記端末装置へ向け前記投写側通信制御部に送信させることを特徴とする。   According to another aspect of the present invention, there is provided a program for causing a computer having a projector including a projection-side communication unit to cause the projection-side communication unit to receive instruction position information indicating an instruction position based on operation information from at least one terminal device. A communication control unit, a projection-side image generation unit that generates an image indicating the indicated position based on the indicated position information, and a determination as to whether or not the operation information indicates a gesture based on the indicated position information A gesture determination unit; a control unit that performs control according to the gesture when the operation information indicates a gesture; and a projection that generates an image indicating the indicated position when the operation information does not indicate a gesture. The projection-side communication control unit causes the terminal device to operate based on the operation information. A program to function as instruction position information generation unit that generates indicates positional information, characterized in that to transmit to the projection-side communication control section toward the terminal device.

また、本発明に係る情報記憶媒体は、投写側通信部を含むプロジェクターの有するコンピューターにより読み取り可能なプログラムを記憶した情報記憶媒体であって、上記プログラムを記憶したことを特徴とする。   An information storage medium according to the present invention is an information storage medium storing a program readable by a computer of a projector including a projection-side communication unit, and stores the program.

本発明によれば、投写システム等は、端末装置からの指示位置情報に基づき、指示位置を示す画像を生成するとともに、ジェスチャーに応じた制御を行うことができるため、端末装置とプロジェクターとが通信可能な状態で、プレゼンテーションを中断することなく、端末装置での操作によってプロジェクターを制御する場合の操作性を向上させることができる。   According to the present invention, the projection system and the like can generate an image indicating the designated position based on the designated position information from the terminal device, and can perform control according to the gesture, so that the terminal device and the projector communicate with each other. In a possible state, it is possible to improve the operability when the projector is controlled by an operation on the terminal device without interrupting the presentation.

また、本発明によれば、端末装置は、プログラムを自動的にダウンロードすることによって指示位置情報生成部として機能することができるため、ユーザーは、複雑な操作を行うことなく、プロジェクターの制御等を行うことができる。   Further, according to the present invention, since the terminal device can function as the indicated position information generation unit by automatically downloading the program, the user can control the projector without performing complicated operations. It can be carried out.

また、本発明に係る投写システムは、少なくとも1台の端末装置と、プロジェクターとを含む投写システムにおいて、前記端末装置は、操作情報を生成する操作部と、前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を示す制御情報を生成する制御情報生成部と、前記制御情報および前記指示位置情報を前記プロジェクターへ向け送信する端末側通信部と、を含み、前記プロジェクターは、前記制御情報および前記指示位置情報を受信する投写側通信部と、前記指示位置情報に基づき、前記指示位置を示す画像を生成する投写側画像生成部と、前記制御情報に基づき、前記ジェスチャーに応じた制御を行う制御部と、前記画像を投写する投写部と、を含むことを特徴とする。   In the projection system according to the present invention, in the projection system including at least one terminal device and a projector, the terminal device indicates an instruction position based on an operation unit that generates operation information and the operation information. An instruction position information generation unit that generates instruction position information, a gesture determination unit that determines whether the operation information indicates a gesture based on the instruction position information, and the operation information indicates a gesture A control information generation unit that generates control information indicating control according to the gesture, and a terminal-side communication unit that transmits the control information and the indicated position information to the projector. A projection-side communication unit that receives control information and the indicated position information; and the indicated position based on the indicated position information. A projection-side image generating unit that generates an image indicating, based on the control information, and a control unit which performs control in accordance with the gesture, characterized in that it comprises a and a projection unit that projects the image.

また、本発明に係るプロジェクターは、少なくとも1台の端末装置からジェスチャーに応じた制御を示す制御情報および指示位置を示す指示位置情報を受信する投写側通信部と、前記指示位置情報に基づき、前記指示位置を示す画像を生成する投写側画像生成部と、前記制御情報に基づき、前記ジェスチャーに応じた制御を行う制御部と、前記画像を投写する投写部と、を含み、前記投写側通信部は、前記端末装置を、操作情報に基づき、前記指示位置情報を生成する指示位置情報生成部と、前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を示す前記制御情報を生成する制御情報生成部として機能させるためのプログラムを前記端末装置へ向け送信することを特徴とする。   Further, the projector according to the present invention is based on the projection-side communication unit that receives control information indicating control according to a gesture and instruction position information indicating the instruction position from at least one terminal device, and based on the instruction position information, A projection-side image generation unit configured to generate an image indicating a designated position; a control unit configured to perform control according to the gesture based on the control information; and a projection unit configured to project the image. A gesture determination that determines whether the operation information indicates a gesture based on the instruction position information, and an instruction position information generation unit that generates the instruction position information based on the operation information. And control information generation that generates the control information indicating control according to the gesture when the operation information indicates a gesture The program for functioning as and transmitting toward the terminal device.

また、本発明に係るプログラムは、投写側通信部を含むプロジェクターの有するコンピューターを、少なくとも1台の端末装置からジェスチャーに応じた制御を示す制御情報および指示位置を示す指示位置情報を前記投写側通信部に受信させる投写側通信制御部と、前記指示位置情報に基づき、前記指示位置を示す画像を生成する投写側画像生成部と、前記制御情報に基づき、前記ジェスチャーに応じた制御を行う制御部として機能させ、前記投写側通信制御部は、前記端末装置を、操作情報に基づき、前記指示位置情報を生成する指示位置情報生成部と、前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を示す前記制御情報を生成する制御情報生成部として機能させるためのプログラムを前記端末装置へ向け前記投写側通信部に送信させることを特徴とする。   In addition, the program according to the present invention provides a computer having a projector including a projection-side communication unit that receives control information indicating control according to a gesture and instruction position information indicating an instruction position from at least one terminal device. A projection-side communication control unit to be received by a unit, a projection-side image generation unit that generates an image indicating the designated position based on the designated position information, and a control unit that performs control according to the gesture based on the control information The projection-side communication control unit causes the terminal device to generate a pointing position information generation unit that generates the pointing position information based on the operation information, and the operation information indicates a gesture based on the pointing position information. A gesture determination unit that determines whether the object is a thing, and if the operation information indicates a gesture, the gesture Characterized in that to transmit the program to function as the control information generating unit for generating the control information indicating control according to catcher over to the projection-side communication section toward the terminal device.

また、本発明に係る情報記憶媒体は、投写側通信部を含むプロジェクターの有するコンピューターにより読み取り可能なプログラムを記憶した情報記憶媒体であって、上記プログラムを記憶したことを特徴とする。   An information storage medium according to the present invention is an information storage medium storing a program readable by a computer of a projector including a projection-side communication unit, and stores the program.

本発明によれば、投写システムは、端末装置からの指示位置情報に基づいて指示位置を示す画像を生成するとともに、端末装置からの制御情報に基づいてジェスチャーに応じた制御を行うことができるため、端末装置とプロジェクターとが通信可能な状態で、プレゼンテーションを中断することなく、端末装置での操作によってプロジェクターを制御する場合の操作性を向上させることができる。   According to the present invention, the projection system can generate an image indicating the designated position based on the designated position information from the terminal device, and can perform control corresponding to the gesture based on the control information from the terminal device. In the state where the terminal device and the projector can communicate with each other, the operability when the projector is controlled by the operation on the terminal device can be improved without interrupting the presentation.

また、本発明によれば、端末装置は、プログラムを自動的にダウンロードすることによって指示位置情報生成部等として機能することができるため、ユーザーは、複雑な操作を行うことなく、プロジェクターの制御等を行うことができる。   Further, according to the present invention, since the terminal device can function as an indicated position information generation unit or the like by automatically downloading the program, the user can control the projector without performing complicated operations. It can be performed.

また、前記プロジェクターは、前記指示位置を示すウェブ画像を生成するためのウェブ画像情報を生成するウェブ画像情報生成部を含み、前記端末装置は、前記ウェブ画像情報に基づき、前記ウェブ画像を生成する端末側画像生成部と、前記ウェブ画像を表示する表示部と、を含み、前記投写側通信部は、前記ウェブ画像情報を前記端末装置へ向け送信し、前記端末側通信部は、前記ウェブ画像情報を受信してもよい。   In addition, the projector includes a web image information generation unit that generates web image information for generating a web image indicating the indicated position, and the terminal device generates the web image based on the web image information. A terminal-side image generation unit; and a display unit that displays the web image. The projection-side communication unit transmits the web image information to the terminal device, and the terminal-side communication unit includes the web image. Information may be received.

これによれば、端末装置は、指示位置を示すウェブ画像を表示することができるため、例えば、他の端末装置における操作によって指示位置が更新されたウェブ画像も表示することができる。   According to this, since the terminal device can display a web image indicating the designated position, for example, a web image in which the designated position is updated by an operation in another terminal device can also be displayed.

また、前記端末側通信部は、前記プロジェクターへの接続要求を示す接続要求情報を、前記プロジェクターへ向け送信し、前記投写側通信部は、前記接続要求情報に基づき、前記ウェブ画像情報の送信先の前記端末装置を決定してもよい。   The terminal side communication unit transmits connection request information indicating a connection request to the projector to the projector, and the projection side communication unit transmits the web image information transmission destination based on the connection request information. The terminal device may be determined.

これによれば、プロジェクター等は、あらかじめ端末装置を特定することなく、接続要求情報に応じてウェブ画像情報の送信先の端末装置を決定することができるため、より柔軟に情報を送受信することができる。   According to this, since a projector etc. can determine the terminal device of the transmission destination of web image information according to connection request information, without specifying a terminal device beforehand, information can be transmitted and received more flexibly. it can.

以下、本発明をプロジェクターに適用した実施例について、図面を参照しつつ説明する。なお、以下に示す実施例は、特許請求の範囲に記載された発明の内容を何ら限定するものではない。また、以下の実施例に示す構成のすべてが、特許請求の範囲に記載された発明の解決手段として必須であるとは限らない。   Embodiments in which the present invention is applied to a projector will be described below with reference to the drawings. In addition, the Example shown below does not limit the content of the invention described in the claim at all. In addition, all the configurations shown in the following embodiments are not necessarily essential as means for solving the invention described in the claims.

(第1の実施例)
図1は、第1の実施例における投写状況を示す図である。投写システムは、プロジェクター100と、端末装置の一種であるPC200を含んで構成されている。プロジェクター100は、PC200−1〜200−3と無線で接続されており、スクリーン10に画像20を投写する。また、各PC200は、プロジェクター100からウェブ画像情報を受信することにより、画像20と同様の画像を表示する。
(First embodiment)
FIG. 1 is a diagram showing a projection situation in the first embodiment. The projection system includes a projector 100 and a PC 200 that is a type of terminal device. The projector 100 is wirelessly connected to the PCs 200-1 to 200-3 and projects an image 20 on the screen 10. Each PC 200 displays the same image as the image 20 by receiving the web image information from the projector 100.

ユーザーは、ノート型のPC200のタッチパッド(トラックパッドともいう。)を用いて画像20における指示位置を示すカーソルの移動やプロジェクター100の電源オフといった種々の制御を行う。   The user uses the touch pad (also referred to as a track pad) of the notebook PC 200 to perform various controls such as moving the cursor indicating the indicated position in the image 20 and turning off the projector 100.

次に、このような機能を有するプロジェクター100とPC200の機能ブロックについて説明する。図2は、第1の実施例におけるプロジェクター100とPC200の機能ブロック図である。   Next, functional blocks of the projector 100 and the PC 200 having such functions will be described. FIG. 2 is a functional block diagram of the projector 100 and the PC 200 in the first embodiment.

プロジェクター100は、PC200との通信を行う投写側通信部110と、ウェブ画像情報等を生成するウェブ画像情報生成部120と、指示位置情報に基づき、操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部130と、画像データ142、ジェスチャー判定データ144等を記憶する記憶部140を含んで構成されている。   The projector 100 determines whether or not the operation information indicates a gesture based on the projection position communication unit 110 that performs communication with the PC 200, the web image information generation unit 120 that generates web image information and the like, and the indicated position information. It includes a gesture determination unit 130 for determination, and a storage unit 140 for storing image data 142, gesture determination data 144, and the like.

なお、ジェスチャー判定データ144の項目としては、例えば、操作情報の生成元の装置種別を示す「種別」、ジェスチャーの操作内容および操作領域を示す「ジェスチャー内容」、当該ジェスチャーによる制御内容を示す「制御内容」等が該当する。   The items of the gesture determination data 144 include, for example, “type” indicating the device type from which the operation information is generated, “gesture content” indicating the operation content and operation area of the gesture, and “control” indicating the control content by the gesture. “Content” etc.

また、プロジェクター100は、操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部170と、操作情報がジェスチャーを示すものでない場合、指示位置情報に基づき、指示位置を示す画像20を生成する投写側画像生成部160と、画像20を投写する投写部190を含んで構成されている。   In addition, when the operation information indicates a gesture, the projector 100 indicates the instruction position based on the instruction position information based on the control unit 170 that performs control according to the gesture, and when the operation information does not indicate the gesture. A projection-side image generation unit 160 that generates the image 20 and a projection unit 190 that projects the image 20 are included.

また、PC200は、プロジェクター100との通信を行う端末側通信部210と、ユーザーの操作に応じて操作情報を生成する操作部270と、操作情報に基づき、指示位置情報を生成する指示位置情報生成部220と、ウェブ画像情報に基づき、ウェブ画像を生成する端末側画像生成部260と、ウェブ画像を表示する表示部290を含んで構成されている。   The PC 200 also includes a terminal-side communication unit 210 that communicates with the projector 100, an operation unit 270 that generates operation information according to a user operation, and instruction position information generation that generates instruction position information based on the operation information. The unit 220 includes a terminal-side image generation unit 260 that generates a web image based on the web image information, and a display unit 290 that displays the web image.

なお、プロジェクター100は、これらの各部の機能を、以下のハードウェアを用いて実装してもよい。例えば、プロジェクター100は、投写側通信部110は無線LANユニット等、ジェスチャー判定部130、制御部170はCPU等、記憶部140はRAM等、投写側画像生成部160は画像処理回路等、投写部190はランプ、液晶パネル、液晶駆動回路、レンズ等を用いて実装してもよい。   Note that the projector 100 may implement the functions of these units using the following hardware. For example, the projector 100 includes a projection-side communication unit 110 such as a wireless LAN unit, a gesture determination unit 130, a control unit 170 such as a CPU, a storage unit 140 such as a RAM, a projection-side image generation unit 160 such as an image processing circuit, and a projection unit. 190 may be mounted using a lamp, a liquid crystal panel, a liquid crystal driving circuit, a lens, or the like.

また、プロジェクター100は、ジェスチャー判定部130等の機能を情報記憶媒体500に記憶されたプログラムを読み取って実装してもよい。このような情報記憶媒体500としては、例えば、CD−ROM、DVD−ROM、ROM、RAM、HDD等を適用できる。   Further, the projector 100 may implement the functions such as the gesture determination unit 130 by reading a program stored in the information storage medium 500. As such an information storage medium 500, for example, a CD-ROM, DVD-ROM, ROM, RAM, HDD, or the like can be applied.

また、PC200は、これらの各部の機能を、以下のハードウェアを用いて実装してもよい。例えば、PC200は、操作部270はタッチパッド、マウス等、端末側通信部210は無線LANユニット等、指示位置情報生成部220はCPU等、端末側画像生成部260は画像処理回路等、表示部290は液晶パネル、液晶駆動回路等を用いて実装してもよい。   In addition, the PC 200 may implement the functions of these units using the following hardware. For example, the PC 200 includes an operation unit 270 such as a touch pad and a mouse, a terminal-side communication unit 210 includes a wireless LAN unit, a pointing position information generation unit 220 includes a CPU, a terminal-side image generation unit 260 includes an image processing circuit, a display unit, and the like. 290 may be mounted using a liquid crystal panel, a liquid crystal driving circuit, or the like.

次に、これらの各部を用いた画像の投写手順について説明する。図3は、第1の実施例におけるPC200での処理手順を示すフローチャートである。また、図4は、第1の実施例におけるプロジェクター100での処理手順を示すフローチャートである。   Next, an image projection procedure using these units will be described. FIG. 3 is a flowchart showing a processing procedure in the PC 200 in the first embodiment. FIG. 4 is a flowchart showing a processing procedure in the projector 100 in the first embodiment.

ユーザーは、例えば、PC200のブラウザーを起動してアドレス欄に「http://192.169.100.1/」とプロジェクター100のIPアドレスを入力してPC200をプロジェクター100に接続する。端末側通信部210は、当該入力に応じてプロジェクター100へ向け送信要求情報を送信する(ステップS1)。   For example, the user starts the browser of the PC 200, inputs “http://192.169.100.1/” and the IP address of the projector 100 in the address field, and connects the PC 200 to the projector 100. The terminal-side communication unit 210 transmits transmission request information to the projector 100 in response to the input (Step S1).

投写側通信部110は、当該送信要求情報を受信する。ウェブ画像情報生成部120は、送信要求があったかどうかを判定する(ステップP1)。送信要求があった場合、ウェブ画像情報生成部120は、ブラウザーでウェブ画像を表示することが可能なHTML形式のウェブ画像情報を生成し、投写側通信部110は、当該ウェブ画像情報を、送信要求情報の送信元のPC200へ向け送信する(ステップP2)。   The projection-side communication unit 110 receives the transmission request information. The web image information generation unit 120 determines whether there is a transmission request (step P1). When there is a transmission request, the web image information generation unit 120 generates HTML format web image information capable of displaying a web image by a browser, and the projection-side communication unit 110 transmits the web image information. The request information is transmitted to the transmission source PC 200 (step P2).

なお、投写側通信部110は、送信要求情報に基づいてウェブ画像情報の送信先のPC200のIPアドレス等を把握してもよい。また、初回のウェブ画像情報は、例えば、PC200を指示位置情報生成部220として機能させるためのプログラム(具体的には、例えば、プレゼンテーションソフトウェアをブラウザーで実行するプログラム、クライアントサーバー非同期通信プログラム等)を含んでもよい。   Note that the projection-side communication unit 110 may grasp the IP address of the PC 200 that is the transmission destination of the web image information based on the transmission request information. The first web image information is, for example, a program for causing the PC 200 to function as the indicated position information generation unit 220 (specifically, for example, a program for executing presentation software in a browser, a client server asynchronous communication program, or the like). May be included.

端末側通信部210は、プロジェクター100からのウェブ画像情報を受信する(ステップS2)。端末側画像生成部260は、ウェブ画像情報に基づき、ブラウザーによって表示可能なウェブ画像を生成し、表示部290はウェブ画像を表示する(ステップS3)。なお、PC200−1〜200−3が上述したステップS1〜S3を実行することにより、各PC200で同一のウェブ画像を表示することができる。   The terminal side communication unit 210 receives web image information from the projector 100 (step S2). The terminal-side image generation unit 260 generates a web image that can be displayed by the browser based on the web image information, and the display unit 290 displays the web image (step S3). In addition, the same web image can be displayed in each PC200 by performing step S1-S3 which PC200-1 to 200-3 mentioned above.

ユーザーは、PC200のタッチパッドを操作して画像20における指示位置を示すカーソルの移動等を行う。指示位置情報生成部220は、操作部270からの情報に基づき、操作があったかどうかを判定する(ステップS4)。操作があった場合、指示位置情報生成部220は、操作部270からの操作情報に基づき、指示位置を示す指示位置情報を生成する(ステップS5)。   The user operates the touch pad of the PC 200 to move the cursor indicating the designated position in the image 20. The designated position information generation unit 220 determines whether there is an operation based on information from the operation unit 270 (step S4). When there is an operation, the designated position information generation unit 220 generates designated position information indicating the designated position based on the operation information from the operation unit 270 (step S5).

なお、例えば、ユーザーが、タッチパッドに指先を押しつけた際の操作情報は、クリックイベントが発生したこと、タッチパッドにおける押圧位置等を示す情報になる。また、例えば、ユーザーが、タッチパッドに指先を押しつけたまま指先を移動させた際の操作情報は、ドラッグ状態であること、タッチパッドにおける押圧位置等を示す情報になる。また、例えば、ユーザーが、タッチパッドから指先を離した際の操作情報は、ドラッグ解除イベントが発生したこと、ドラッグ解除直前の押圧位置等を示す情報になる。   For example, the operation information when the user presses the fingertip against the touch pad is information indicating that a click event has occurred, a pressing position on the touch pad, and the like. Further, for example, the operation information when the user moves the fingertip while pressing the fingertip against the touchpad is information indicating that the user is in a drag state, a pressed position on the touchpad, or the like. Further, for example, the operation information when the user releases the fingertip from the touch pad is information indicating that a drag release event has occurred, a pressing position immediately before the drag release, and the like.

また、指示位置情報は、例えば、装置種別がタッチパッドであること、イベント、タッチパッドにおける押圧位置等を示す情報になる。例えば、タッチパッドに指先を押しつけた際の指示位置情報は、装置種別がタッチパッドであること、クリックイベントが発生したこと、タッチパッドにおける押圧位置(機種に応じて共通座標に座標変換したもの)等を示す情報になる。   In addition, the indication position information is, for example, information indicating that the device type is a touch pad, an event, a pressed position on the touch pad, and the like. For example, the indicated position information when the fingertip is pressed against the touchpad is that the device type is a touchpad, that a click event has occurred, the pressed position on the touchpad (coordinate converted to common coordinates depending on the model) It becomes the information which shows etc.

端末側通信部210は、指示位置情報生成部220からの指示位置情報をプロジェクター100へ向け送信する(ステップS6)。   The terminal-side communication unit 210 transmits the designated position information from the designated position information generation unit 220 to the projector 100 (step S6).

ジェスチャー判定部130は、投写側通信部110によって指示位置情報が受信されたかどうかを判定する(ステップP3)。なお、送信要求がなかった場合や指示位置情報が受信されなかった場合、投写側画像生成部160は、画像データ142(あらかじめ記憶された画像データであってもよいし、DVDプレーヤー等からの画像信号等であってもよい。)に基づき、画像20を生成する(ステップP4)。   The gesture determination unit 130 determines whether or not the designated position information has been received by the projection-side communication unit 110 (step P3). Note that when there is no transmission request or when the designated position information is not received, the projection-side image generation unit 160 displays the image data 142 (image data stored in advance or an image from a DVD player or the like). The image 20 is generated based on the signal or the like (step P4).

指示位置情報が受信された場合、ジェスチャー判定部130は、指示位置情報と、ジェスチャー判定データ144に基づき、操作情報がジェスチャーを示すものであるかどうかを判定する(ステップP5)。例えば、ジェスチャー判定部130は、指示位置情報で示される装置種別と一致する「種別」をジェスチャー判定データ144から検索し、指示位置情報で示される操作内容と一致する「ジェスチャー内容」を当該種別が該当するジェスチャー判定データ144から検索する。   When the instruction position information is received, the gesture determination unit 130 determines whether the operation information indicates a gesture based on the instruction position information and the gesture determination data 144 (step P5). For example, the gesture determination unit 130 searches the gesture determination data 144 for a “type” that matches the device type indicated by the indicated position information, and the type of gesture information that matches the operation content indicated by the indicated position information is A search is performed from the corresponding gesture determination data 144.

操作情報がジェスチャーを示すものである場合、制御部170は、当該ジェスチャーに応じた制御を行う(ステップP6)。一方、操作情報がジェスチャーを示すものでない場合、投写側画像生成部160は、指示位置情報に基づき、指示位置の軌跡を示す画像20を生成する(ステップP7)。投写部190は、画像20を投写する(ステップP8)。   When the operation information indicates a gesture, the control unit 170 performs control according to the gesture (step P6). On the other hand, when the operation information does not indicate a gesture, the projection-side image generation unit 160 generates the image 20 indicating the locus of the designated position based on the designated position information (Step P7). The projection unit 190 projects the image 20 (step P8).

図5は、第1の実施例における軌跡400を含む画像300を示す図である。また、図6は、第1の実施例における他の軌跡401を含む画像301を示す図である。また、図7は、第1の実施例におけるハイライト420を含む画像302を示す図である。   FIG. 5 is a diagram illustrating an image 300 including the trajectory 400 in the first embodiment. FIG. 6 is a diagram illustrating an image 301 including another locus 401 in the first embodiment. FIG. 7 is a diagram showing an image 302 including the highlight 420 in the first embodiment.

例えば、投写側画像生成部160は、指示位置の変化に応じて現在の指示位置を示すカーソル410とカーソル410の軌跡400を示す画像300を生成する。また、図6に示すように、文字の部分がL字状の軌跡401で囲まれる場合、ドラッグ状態が解除された時点でジェスチャーとして判定され、投写側画像生成部160は、制御部170からの制御情報と、画像データ142に基づき、画像302にハイライト420を付加する。これにより、図7に示すように、軌跡401で囲まれた部分がハイライト420(例えば、文字の背景に蛍光色の矩形を配置等)になる。   For example, the projection-side image generation unit 160 generates the cursor 410 indicating the current specified position and the image 300 indicating the locus 400 of the cursor 410 according to the change of the specified position. Also, as shown in FIG. 6, when the character portion is surrounded by an L-shaped trajectory 401, it is determined as a gesture when the drag state is released, and the projection-side image generation unit 160 receives a signal from the control unit 170. A highlight 420 is added to the image 302 based on the control information and the image data 142. As a result, as shown in FIG. 7, a portion surrounded by the locus 401 becomes a highlight 420 (for example, a fluorescent color rectangle is placed on the background of a character).

なお、端末側通信部210は、一定時間(例えば、0.5秒、1秒等)ごとに送信要求情報を送信し、ウェブ画像情報を受信してもよい。これにより、各PC200は、カーソル410、軌跡400、ハイライト420等の表示される画像300〜302をほぼリアルタイムに表示することができる。   Note that the terminal-side communication unit 210 may transmit transmission request information and receive web image information at regular time intervals (for example, 0.5 seconds, 1 second, etc.). Accordingly, each PC 200 can display the displayed images 300 to 302 such as the cursor 410, the trajectory 400, and the highlight 420 in almost real time.

プロジェクター100およびPC200は終了操作等によって処理を終了すべきかどうかを判定し(ステップS7、P9)、処理を終了すべき場合は処理を終了し、処理を終了すべきでない場合は処理を続行する。   The projector 100 and the PC 200 determine whether or not the process should be terminated by an end operation or the like (steps S7 and P9). If the process is to be terminated, the process is terminated. If the process is not to be terminated, the process is continued.

以上のように、本実施例によれば、プロジェクター100は、PC200からの指示位置情報に基づき、指示位置を示す画像300、301を生成するとともに、ジェスチャーに応じた制御を行うことができるため、ユーザーは、プレゼンテーションを中断することなく、PC200での操作によってプロジェクター100を容易に制御することができる。   As described above, according to the present embodiment, the projector 100 can generate the images 300 and 301 indicating the designated position based on the designated position information from the PC 200 and can perform control according to the gesture. The user can easily control the projector 100 by an operation on the PC 200 without interrupting the presentation.

また、本実施例によれば、ユーザーは、PC200を操作する際に、プレゼンテーションモードと制御モードとを切り替えることなく、指示位置の表示や種々の制御を行うことができる。   Further, according to the present embodiment, when the user operates the PC 200, the user can display the designated position and perform various controls without switching between the presentation mode and the control mode.

また、本実施例によれば、PC200は、プログラムを自動的にダウンロードすることによって指示位置情報生成部220として機能することもできるため、ユーザーは、複雑な操作を行うことなく、プロジェクター100の制御等を行うことができる。   In addition, according to the present embodiment, the PC 200 can also function as the designated position information generation unit 220 by automatically downloading a program, so that the user can control the projector 100 without performing complicated operations. Etc. can be performed.

また、本実施例によれば、PC200は、他のPC200における操作によって指示位置が更新されたウェブ画像を表示することができる。これにより、ユーザーは、他のPC200が遠隔地に配置されている場合であっても、他のユーザーに指示位置等を示すことができ、遠隔制御も行いやすい。   Further, according to this embodiment, the PC 200 can display a web image in which the designated position is updated by an operation in another PC 200. Thereby, even when the other PC 200 is located at a remote place, the user can indicate the designated position to the other user and can easily perform remote control.

また、本実施例によれば、プロジェクター100は、あらかじめPC200を特定することなく、接続要求情報に応じてウェブ画像情報の送信先のPC200を決定することができるため、より柔軟に情報を送受信することができる。   Further, according to the present embodiment, the projector 100 can determine the PC 200 that is the transmission destination of the web image information according to the connection request information without specifying the PC 200 in advance, so that information can be transmitted and received more flexibly. be able to.

また、本実施例によれば、プロジェクター100は、画像データ142、ジェスチャー判定データ144を用いることにより、種々の制御や装飾に対応することができるとともに、これらのデータを更新することにより、仕様の拡張、変更等にも柔軟に対応することができる。   Further, according to the present embodiment, the projector 100 can cope with various controls and decorations by using the image data 142 and the gesture determination data 144, and by updating these data, It is possible to flexibly cope with expansion and change.

(第2の実施例)
第1の実施例では、複数のPC200−1〜200−3がプロジェクター100と接続されていたが、プロジェクター100と1台のPCが接続される投写システムであってもよい。また、第1の実施例ではプロジェクター100のジェスチャー判定部130がジェスチャーの判定を行ったが、PC200がジェスチャーを判定してもよい。
(Second embodiment)
In the first embodiment, a plurality of PCs 200-1 to 200-3 are connected to the projector 100, but a projection system in which the projector 100 and one PC are connected may be used. In the first embodiment, the gesture determination unit 130 of the projector 100 determines the gesture, but the PC 200 may determine the gesture.

図8は、第2の実施例における投写状況を示す図である。プロジェクター101は、端末装置の一種であるPC201と無線で接続されており、スクリーン10に画像20を投写する。PC201は、プロジェクター101からのウェブ画像情報に基づき、画像20と同様の画像を表示する。   FIG. 8 is a diagram showing a projection situation in the second embodiment. The projector 101 is wirelessly connected to a PC 201 that is a type of terminal device, and projects an image 20 on the screen 10. The PC 201 displays an image similar to the image 20 based on the web image information from the projector 101.

図9は、第2の実施例におけるプロジェクター101とPC201の機能ブロック図である。プロジェクター101は、プロジェクター100とほぼ同様の構成であるが、ジェスチャー判定部130、ジェスチャー判定データ144を有しておらず、制御部171がPC201からの制御情報に基づいて制御を行う点でプロジェクター100と相違している。なお、プロジェクター101は、情報記憶媒体501からプログラムを読み取って制御部171等として機能してもよい。   FIG. 9 is a functional block diagram of the projector 101 and the PC 201 in the second embodiment. The projector 101 has substantially the same configuration as the projector 100, but does not include the gesture determination unit 130 and the gesture determination data 144, and the projector 100 performs control based on control information from the PC 201. Is different. The projector 101 may function as the control unit 171 by reading a program from the information storage medium 501.

また、PC201は、PC200とほぼ同様の構成であるが、ジェスチャー判定部230と、ジェスチャー判定データ244を記憶する記憶部240と、制御情報生成部280を有し、指示位置情報生成部221がジェスチャー判定部230に指示位置情報を出力する点でPC200と相違している。   The PC 201 has substantially the same configuration as the PC 200, but includes a gesture determination unit 230, a storage unit 240 that stores gesture determination data 244, and a control information generation unit 280. This is different from the PC 200 in that the designated position information is output to the determination unit 230.

指示位置情報生成部221は、操作部270からの操作情報に基づき、指示位置情報を生成する。ジェスチャー判定部230は、指示位置情報と、ジェスチャー判定データ244に基づき、操作情報がジェスチャーを示すものであるかどうかを判定する。   The designated position information generation unit 221 generates designated position information based on the operation information from the operation unit 270. The gesture determination unit 230 determines whether the operation information indicates a gesture based on the designated position information and the gesture determination data 244.

制御情報生成部280は、操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御内容を示す制御情報を生成し、端末側通信部210は、当該制御情報をプロジェクター100へ向け送信する。一方、操作情報がジェスチャーを示すものでない場合、端末側通信部210は、指示位置情報をプロジェクター100へ向け送信する。   When the operation information indicates a gesture, the control information generation unit 280 generates control information indicating the control content corresponding to the gesture, and the terminal-side communication unit 210 transmits the control information to the projector 100. . On the other hand, if the operation information does not indicate a gesture, the terminal-side communication unit 210 transmits the designated position information to the projector 100.

投写側通信部110は、制御情報および指示位置情報を受信するとともに、ウェブ画像情報をPC201へ向け送信する。制御部171は、制御情報に基づき、ジェスチャーに応じた制御を行う。投写側画像生成部160は、指示位置情報と、画像データ142に基づき、カーソル410等を示す画像を生成し、投写部190は、当該画像を投写する。   The projection-side communication unit 110 receives control information and designated position information and transmits web image information to the PC 201. The control unit 171 performs control according to the gesture based on the control information. The projection-side image generation unit 160 generates an image indicating the cursor 410 and the like based on the designated position information and the image data 142, and the projection unit 190 projects the image.

以上のように、本実施例によっても、プロジェクター101は、第1の実施例と同様の作用効果を奏する。   As described above, according to this embodiment as well, the projector 101 has the same operational effects as those of the first embodiment.

なお、投写側通信部110は、PC201から初回の送信要求があった場合に指示位置情報生成部221、ジェスチャー判定部230、制御情報生成部280として機能させるためのプログラムを含むウェブ画像情報をPC201へ向け送信してもよい。   Note that the projection-side communication unit 110 receives web image information including a program for causing the PC 201 to function as the designated position information generation unit 221, the gesture determination unit 230, and the control information generation unit 280 when the first transmission request is received from the PC 201. You may send it to.

これによれば、PC201は、プログラムを自動的にダウンロードすることによって指示位置情報生成部221、ジェスチャー判定部230、制御情報生成部280として機能することができるため、ユーザーは、複雑な操作を行うことなく、プロジェクター101の制御等を行うことができる。   According to this, since the PC 201 can function as the designated position information generation unit 221, the gesture determination unit 230, and the control information generation unit 280 by automatically downloading the program, the user performs a complicated operation. The projector 101 can be controlled without any problem.

(その他の実施例)
なお、本発明の適用は上述した実施例に限定されず、種々の変形が可能である。例えば、制御内容はハイライト420の付加には限定されず、例えば、画像の拡大、画像の縮小、画像の回転、次の画像の表示、前の画像の表示、データの保存、データの読み取り、画像情報の供給装置の変更(いわゆるソース切替)、文字列の追加(コメントの付加)、軌跡400、401の消去、プロジェクター100、101の電源オンまたは電源オフ等であってもよい。ユーザーは、これらの制御を行う場合であっても、PC200、201のタッチパッドだけを操作すればよいため、中断することなくプレゼンテーションを行うことができる。
(Other examples)
In addition, application of this invention is not limited to the Example mentioned above, A various deformation | transformation is possible. For example, the control content is not limited to the addition of the highlight 420, for example, image enlargement, image reduction, image rotation, display of the next image, display of the previous image, storage of data, reading of data, The image information supply device may be changed (so-called source switching), a character string may be added (comment added), the traces 400 and 401 may be deleted, and the projectors 100 and 101 may be powered on or off. Even in the case of performing these controls, the user only has to operate the touchpads of the PCs 200 and 201, and thus can make a presentation without interruption.

また、指示位置を示す画像は、軌跡400、401やカーソル410を示す画像には限定されず、例えば、指示位置を反転させて示す画像、指示位置を点滅させて示す画像、指示位置をハイライト表示して示す画像等であってもよい。   The image indicating the designated position is not limited to the image showing the trajectories 400 and 401 or the cursor 410. For example, the image showing the designated position inverted, the image showing the designated position blinking, and the designated position highlighted. It may be an image displayed and displayed.

また、制御対象はプロジェクター100、101には限定されず、PC200、201は、プロジェクター100、101以外の装置を制御してもよい。例えば、プロジェクター100、101とDVDプレーヤー等がHDMIケーブルで接続されている場合、PC200、201は、プロジェクター100、101にCEC(Consumer Electronics Control)制御信号をDVDプレーヤー等に出力させてDVDプレーヤー等の再生、停止等を制御させることにより、DVDプレーヤー等を遠隔制御してもよい。   Further, the control target is not limited to the projectors 100 and 101, and the PCs 200 and 201 may control devices other than the projectors 100 and 101. For example, when the projectors 100 and 101 are connected to a DVD player or the like with an HDMI cable, the PCs 200 and 201 cause the projectors 100 and 101 to output a CEC (Consumer Electronics Control) control signal to the DVD player or the like, and the like. A DVD player or the like may be remotely controlled by controlling playback, stop, and the like.

また、操作情報を生成する装置は、タッチパッドには限定されず、例えば、ペンタブレット、液晶ペンタブレット、トラックボール、マウス等でもよい。また、操作情報の生成装置が1種類である場合、上述した種別の通知、共通座標への変換等は行われなくてもよい。また、操作部270および指示位置情報生成部220、221は一体化されてもよく、例えば、指示位置情報生成部がペンタブレット等から操作情報を入力して指示位置情報を生成してもよい。   Further, the device that generates the operation information is not limited to the touch pad, and may be a pen tablet, a liquid crystal pen tablet, a trackball, a mouse, or the like. Further, when there is only one type of operation information generation device, the above-described type notification, conversion to common coordinates, and the like may not be performed. The operation unit 270 and the designated position information generation units 220 and 221 may be integrated. For example, the designated position information generation unit may input the operation information from a pen tablet or the like and generate the designated position information.

また、プロジェクター100、101の用途は会議等には限定されず、例えば、壁面ディスプレイ、テレビ放送等であってもよい。また、プロジェクター100、101は、液晶プロジェクター(透過型、LCOS等の反射型)には限定されず、例えば、DMD(Digital Micromirror Device)を用いたプロジェクター等であってもよい。なお、DMDは米国テキサス・インスツルメンツ社の商標である。   Further, the use of the projectors 100 and 101 is not limited to a meeting or the like, and may be, for example, a wall display or a television broadcast. Further, the projectors 100 and 101 are not limited to liquid crystal projectors (transmission type, reflection type such as LCOS), and may be, for example, a projector using DMD (Digital Micromirror Device). DMD is a trademark of Texas Instruments Incorporated.

また、端末装置は、ノート型のPC200、201には限定されず、例えば、デスクトップ型のPC、携帯電話、ゲーム装置等であってもよい。また、端末側画像生成部260、制御情報生成部280、ウェブ画像情報生成部120は必須ではなく、端末装置は指示位置情報の送信のみを行い、ユーザーは、プロジェクター100によって表示される画像20によって指示位置の確認を行ってもよい。   Further, the terminal device is not limited to the notebook PCs 200 and 201, and may be, for example, a desktop PC, a mobile phone, a game device, or the like. Further, the terminal-side image generation unit 260, the control information generation unit 280, and the web image information generation unit 120 are not essential, the terminal device only transmits the indicated position information, and the user uses the image 20 displayed by the projector 100. The indicated position may be confirmed.

また、プロジェクター100、101とPC200、201との通信路は、無線の通信路には限定されず、有線の通信路であってもよく、無線の通信路と有線の通信路が混在してもよい。   Further, the communication path between the projectors 100 and 101 and the PCs 200 and 201 is not limited to a wireless communication path, and may be a wired communication path, or a combination of a wireless communication path and a wired communication path. Good.

第1の実施例における投写状況を示す図である。It is a figure which shows the projection condition in a 1st Example. 第1の実施例におけるプロジェクターとPCの機能ブロック図である。It is a functional block diagram of the projector and PC in a 1st Example. 第1の実施例におけるPCでの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in PC in a 1st Example. 第1の実施例におけるプロジェクターでの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the projector in a 1st Example. 第1の実施例における軌跡を含む画像を示す図である。It is a figure which shows the image containing the locus | trajectory in 1st Example. 第1の実施例における他の軌跡を含む画像を示す図である。It is a figure which shows the image containing the other locus | trajectory in a 1st Example. 第1の実施例におけるハイライトを含む画像を示す図である。It is a figure which shows the image containing the highlight in a 1st Example. 第2の実施例における投写状況を示す図である。It is a figure which shows the projection condition in a 2nd Example. 第2の実施例におけるプロジェクターとPCの機能ブロック図である。It is a functional block diagram of the projector and PC in a 2nd Example.

符号の説明Explanation of symbols

100、101 プロジェクター、110 投写側通信部、120 ウェブ画像情報生成部、130、230 ジェスチャー判定部、140、240 記憶部、142 画像データ、144、244 ジェスチャー判定データ、160 投写側画像生成部、170、171 制御部、190 投写部、200、201 PC(端末装置)、210 端末側通信部、220、221 指示位置情報生成部、260 端末側画像生成部、290 表示部、300〜302 画像、400、401 軌跡、410 カーソル、420 ハイライト、500、501 情報記憶媒体   100, 101 Projector, 110 Projection side communication unit, 120 Web image information generation unit, 130, 230 Gesture determination unit, 140, 240 Storage unit, 142 Image data, 144, 244 Gesture determination data, 160 Projection side image generation unit, 170 , 171 Control unit, 190 Projection unit, 200, 201 PC (terminal device), 210 Terminal side communication unit, 220, 221 Pointed position information generation unit, 260 Terminal side image generation unit, 290 Display unit, 300-302 image, 400 , 401 locus, 410 cursor, 420 highlight, 500, 501 information storage medium

Claims (2)

少なくとも1台の端末装置と、プロジェクターとを含む投写システムにおいて、
前記端末装置は、
操作情報を生成する操作部と、
前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、
前記指示位置情報を前記プロジェクターへ向け送信する端末側通信部と、
を含み、
前記プロジェクターは、
前記指示位置情報を受信する投写側通信部と、
前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、
前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、
前記操作情報がジェスチャーを示すものでない場合、前記指示位置情報に基づき、前記指示位置を示す画像を生成する投写側画像生成部と、
前記画像を投写する投写部と、
前記指示位置を示す画像を含むウェブ画像を生成するためのウェブ画像情報を生成するウェブ画像情報生成部と、
を含
前記端末装置は、
前記ウェブ画像情報に基づき、前記ウェブ画像を生成する端末側画像生成部と、
前記ウェブ画像を表示する表示部と、
を含み、
前記投写側通信部は、前記ウェブ画像情報を前記端末装置へ向け送信し、
前記端末側通信部は、前記ウェブ画像情報を受信する、
投写システム。
In a projection system including at least one terminal device and a projector,
The terminal device
An operation unit for generating operation information;
Based on the operation information, an instruction position information generation unit that generates instruction position information indicating an instruction position;
A terminal-side communication unit that transmits the indicated position information to the projector;
Including
The projector is
A projection-side communication unit that receives the indicated position information;
A gesture determination unit that determines whether the operation information indicates a gesture based on the indicated position information;
When the operation information indicates a gesture, a control unit that performs control according to the gesture;
When the operation information does not indicate a gesture, a projection-side image generation unit that generates an image indicating the designated position based on the designated position information ;
A projection unit for projecting the image;
A web image information generating unit for generating web image information for generating a web image including an image indicating the indicated position;
Only including,
The terminal device
A terminal-side image generation unit that generates the web image based on the web image information;
A display unit for displaying the web image;
Including
The projection-side communication unit transmits the web image information to the terminal device,
The terminal-side communication unit receives the web image information;
Projection system.
請求項に記載の投写システムにおいて、
前記端末側通信部は、前記プロジェクターへの接続要求を示す接続要求情報を、前記プロジェクターへ向け送信し、
前記投写側通信部は、前記接続要求情報に基づき、前記ウェブ画像情報の送信先の前記端末装置を決定する、
投写システム。
The projection system according to claim 1 ,
The terminal side communication unit transmits connection request information indicating a connection request to the projector to the projector,
The projection-side communication unit determines the terminal device to which the web image information is transmitted based on the connection request information.
Projection system.
JP2008317802A 2008-12-15 2008-12-15 Projection system Active JP5472569B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008317802A JP5472569B2 (en) 2008-12-15 2008-12-15 Projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008317802A JP5472569B2 (en) 2008-12-15 2008-12-15 Projection system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014020125A Division JP2014134803A (en) 2014-02-05 2014-02-05 Projector

Publications (3)

Publication Number Publication Date
JP2010139899A JP2010139899A (en) 2010-06-24
JP2010139899A5 JP2010139899A5 (en) 2011-12-22
JP5472569B2 true JP5472569B2 (en) 2014-04-16

Family

ID=42350073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008317802A Active JP5472569B2 (en) 2008-12-15 2008-12-15 Projection system

Country Status (1)

Country Link
JP (1) JP5472569B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6008076B2 (en) * 2011-10-13 2016-10-19 セイコーエプソン株式会社 Projector and image drawing method
JP6051828B2 (en) * 2012-12-10 2016-12-27 セイコーエプソン株式会社 Display device and control method of display device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006128A (en) * 2001-06-19 2003-01-10 Matsushita Electric Ind Co Ltd Projection type video display system
JP2004287160A (en) * 2003-03-24 2004-10-14 Seiko Epson Corp Image display system, projector, image display method, projector control method, image display program, and projector control program
JP3959075B2 (en) * 2004-06-07 2007-08-15 富士通株式会社 Other terminal operation device
JP2006099468A (en) * 2004-09-29 2006-04-13 Toshiba Corp Gesture input device, method, and program
JP2006139222A (en) * 2004-11-15 2006-06-01 Seiko Epson Corp Remote controller and image display system
JP2008140182A (en) * 2006-12-01 2008-06-19 Sharp Corp Input device, transmission/reception system, input processing method and control program

Also Published As

Publication number Publication date
JP2010139899A (en) 2010-06-24

Similar Documents

Publication Publication Date Title
US9035971B2 (en) Image display apparatus, image display method, and of image display program
KR101493603B1 (en) Display terminal device connectable to external display device and method therefor
JP2014052930A (en) Display device and control method of display device
WO2011120419A1 (en) Electronic device and input method
WO2014036974A1 (en) Terminal device, and method and system for display in one screen
US20120030595A1 (en) Information storage medium, terminal apparatus, and image generation method
JP2012032933A (en) Program, information storage medium, terminal device, display system, and image generation method
JP2010139686A (en) Projector, program, and information storage medium
JP2013073595A (en) Touch panel type electronic equipment and its projector display system
JP2012032508A (en) Display device, display system, and display method
JP4508570B2 (en) Remote control system and information processing apparatus
JP2018004681A (en) Display device and method for controlling display device
US9307210B2 (en) Image output apparatus, method, and medium
JP5472569B2 (en) Projection system
JP2010182134A (en) Remote control system, control terminal device, and selection status display alternation method
TW201211859A (en) Laser light spot trajectory tracking event triggering method, system and computer program product thereof
JP6289038B2 (en) Display control apparatus, method and program
JP2014134803A (en) Projector
US10397531B2 (en) Projector, display device, and display method
JP2012194324A (en) Image display device, terminal device, image display system, and image display method
JP5944000B2 (en) Image display system, information terminal, information terminal control method and control program
KR20040016058A (en) Pointing system including mouse function
JP2010145596A (en) Projector, program, and information storage medium
JP5511023B2 (en) Video display system and method
JP5413605B2 (en) Program, information storage medium, terminal device, display system, and image generation method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140121

R150 Certificate of patent or registration of utility model

Ref document number: 5472569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350