JP2012181721A - Position input device, projector, control method for projector, and display system - Google Patents

Position input device, projector, control method for projector, and display system Download PDF

Info

Publication number
JP2012181721A
JP2012181721A JP2011044786A JP2011044786A JP2012181721A JP 2012181721 A JP2012181721 A JP 2012181721A JP 2011044786 A JP2011044786 A JP 2011044786A JP 2011044786 A JP2011044786 A JP 2011044786A JP 2012181721 A JP2012181721 A JP 2012181721A
Authority
JP
Japan
Prior art keywords
image
indicator
projector
screen
projection surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011044786A
Other languages
Japanese (ja)
Inventor
Tomonori Kumagai
友則 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011044786A priority Critical patent/JP2012181721A/en
Publication of JP2012181721A publication Critical patent/JP2012181721A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

PROBLEM TO BE SOLVED: To more accurately specify an indicated position when an operation for indicating, with an indicator, a position on a projection surface on which an image is being projected by a projector is performed.SOLUTION: A projector 11 acquires an original image and a captured image obtained by capturing an image projected on a screen SC by a projector 11 based on the original image, detects an image of an indicator 12 for indicating a position on the screen SC and an image of a shadow of the indicator 12 from the captured image based on the acquired original image, and specifies the indication position indicated by the indicator 12 and an indication state based on a relative position of the image of the indicator 12 and the image of the shadow of the indicator 12 that are detected.

Description

本発明は、指示された位置を検出する位置入力装置、プロジェクター、プロジェクターの制御方法、及び、表示システムに関する。   The present invention relates to a position input device that detects an instructed position, a projector, a projector control method, and a display system.

従来、プロジェクターが画像を投射している投射面上の位置が指示された場合に、指示位置を検出する装置が知られている(例えば、特許文献1参照)。特許文献1記載の装置は、投射中の投射面において差し棒等の指示体により位置が指示された場合に、投射面を正面から撮影した撮影画像から指示体の先端の位置を検出して、指示位置を特定する。   2. Description of the Related Art Conventionally, there has been known an apparatus that detects an indicated position when a position on a projection surface on which an image is projected by a projector is designated (see, for example, Patent Document 1). The apparatus described in Patent Document 1 detects the position of the tip of the indicator from a photographed image obtained by photographing the projection surface from the front when the position is instructed by an indicator such as a stick on the projection surface during projection, The indicated position is specified.

特開特開2000−200149号公報Japanese Patent Laid-Open No. 2000-200169

ところで、投射面を撮影した撮影画像には差し棒等の指示体の全体が写ることも多く、指示体を操作する人が指し示している場所が、指示体のどの部分の位置であるかを特定することは容易ではない。この問題を解決するため、特許文献1記載の装置は、撮影画像から先端を検出することで指示位置を特定している。しかしながら、指示体として、指等の鋭い先端を持たない物が使用された場合には、撮影画像から先端を検出することが難しくなってしまう。また、このような物を指示体として用いた場合、指示された位置が先端の位置とは限らない。
本発明は、上述した事情に鑑みてなされたものであり、プロジェクターにより画像が投射されている投射面上の位置を指示体によって指示する操作が行われた場合に、指示された位置をより正確に特定することを目的とする。
By the way, the whole image of the indicator such as a stick is often shown in the photographed image of the projection surface, and the position of the indicator pointed by the person operating the indicator is specified. It is not easy to do. In order to solve this problem, the apparatus described in Patent Literature 1 specifies the indicated position by detecting the tip from the captured image. However, when an object having no sharp tip such as a finger is used as the indicator, it is difficult to detect the tip from the captured image. Further, when such an object is used as an indicator, the indicated position is not necessarily the tip position.
The present invention has been made in view of the above-described circumstances, and when an operation for indicating a position on a projection surface on which an image is projected by a projector is performed with an indicator, the indicated position is more accurately detected. The purpose is to specify.

上記課題を解決するため、本発明は、原画像と、前記原画像に基づいてプロジェクターが投射面に投射した画像を撮影した撮影画像とを取得する画像取得手段と、前記画像取得手段により取得した前記原画像をもとに、前記投射面上の位置を指示する指示体の画像と前記指示体の影の画像とを撮影画像から検出する指示体画像検出手段と、前記指示体画像検出手段により検出した前記指示体の画像と前記指示体の影の画像との相対位置に基づき、前記指示体が指示する指示位置および指示状態を特定する指示状態判別手段とを備えることを特徴とする。
本発明によれば、投射面上の位置を指示する指示体の画像と指示体の影の画像とを検出することにより、指示された位置とともに、例えば指示体が投射面に接しているか否か等の指示状態を特定できる。これにより、指示体の形状に関わらず、指示された位置を正確に特定できる。また、指示体を操作する人の意図をより的確に反映して指示された位置を特定できる。
In order to solve the above problems, the present invention acquires an original image and an image acquisition unit that acquires a captured image obtained by capturing an image projected by a projector on a projection surface based on the original image, and the image acquisition unit acquires the original image. Based on the original image, an indicator image detecting means for detecting an image of a pointer indicating a position on the projection surface and a shadow image of the indicator from a photographed image, and the indicator image detecting means And an instruction state determination unit that specifies an instruction position and an instruction state indicated by the indicator based on a relative position between the detected image of the indicator and a shadow image of the indicator.
According to the present invention, by detecting the image of the indicator that indicates the position on the projection surface and the shadow image of the indicator, for example, whether the indicator is in contact with the projection surface along with the indicated position. Etc. can be specified. Thereby, the instructed position can be accurately specified regardless of the shape of the indicator. In addition, it is possible to more accurately reflect the intention of the person who operates the indicator and to specify the indicated position.

また、本発明は、上記位置入力装置において、前記指示状態判別手段は、前記指示体画像検出手段により検出した前記指示体の画像と前記指示体の影の画像との距離に基づいて、前記指示体が前記投射面に接したか否かを判別することを特徴とする。
本発明によれば、指示体が投射面に接したか否かを判別することで、指示体の形状に関わらず、指示された位置を正確に特定できる。
Further, according to the present invention, in the position input device, the indication state determination unit is configured to determine the indication based on a distance between the indicator image detected by the indicator image detection unit and a shadow image of the indicator. It is determined whether or not a body is in contact with the projection surface.
According to the present invention, by determining whether or not the indicator is in contact with the projection surface, it is possible to accurately specify the indicated position regardless of the shape of the indicator.

また、本発明は、上記位置入力装置において、前記画像取得手段は、前記投射面の正面以外の方向から撮影された撮影画像を取得することを特徴とする。
ここで、正面とは、投射面の前面側において、投射面に正対する位置から投射面を向いた方向を指し、正面以外の方向とは、上記の正面を除く、投射面の上方、下方、左方向、右方向、及び、これらの間の斜め方向を含む。言い換えれば、正面以外の方向とは、撮影画像を撮影する撮影手段がレンズを有する場合、このレンズの軸線が投射面に対して垂直にならない方向を指している。
本発明によれば、投射面の正面以外の方向から撮影した撮影画像を用いて指示体が指示した位置を特定するので、投射面の正面に撮影装置等を設置する必要がなく、画像を投射するプロジェクターの設置が容易になるという利点がある。さらに、正面から撮影する場合のように投射面の前に立っている操作者の影に指示体が隠れてしまうことがないので、確実に指示体の位置を検出できる。
In the position input device according to the present invention, the image acquisition unit acquires a captured image captured from a direction other than the front of the projection surface.
Here, the front refers to the direction facing the projection surface from the position facing the projection surface on the front surface side of the projection surface, and the directions other than the front include the above, below the projection surface, excluding the front surface, It includes the left direction, the right direction, and the diagonal direction between them. In other words, the direction other than the front refers to a direction in which the axis of the lens is not perpendicular to the projection plane when the photographing means for photographing a photographed image has a lens.
According to the present invention, the position pointed to by the indicator is specified using a photographed image photographed from a direction other than the front of the projection surface, so that it is not necessary to install a photographing device or the like on the front of the projection surface, and the image is projected. There is an advantage that it is easy to install the projector. Furthermore, since the indicator is not hidden behind the shadow of the operator standing in front of the projection surface as in the case of shooting from the front, the position of the indicator can be reliably detected.

また、本発明は、上記位置入力装置において、前記指示体には前記指示体画像検出手段が識別可能な所定のパターンが付され、前記指示体画像検出手段は、前記画像取得手段により取得された撮影画像から前記所定のパターンを検出することを特徴とする。
本発明によれば、撮影画像において指示体を容易に検出でき、指示体の影との区別が容易になることから指示体の影の画像を検出することも容易になるため、指示された位置を特定する処理の高速化を図ることができる。
According to the present invention, in the position input device, the indicator is provided with a predetermined pattern that can be identified by the indicator image detection means, and the indicator image detection means is acquired by the image acquisition means. The predetermined pattern is detected from a captured image.
According to the present invention, the indicator can be easily detected in the photographed image, and since it becomes easy to distinguish the indicator from the shadow of the indicator, it is also easy to detect the shadow of the indicator. Can be speeded up.

また、上記課題を解決するため、本発明は、プロジェクターであって、原画像にもお付いて投射面に画像を投射する投射手段と、前記投射手段が前記投射面に投射した画像を撮影する撮影手段と、前記原画像と、前記原画像に基づいて当該プロジェクターが投射した画像を前記撮影手段が撮影した撮影画像とを取得する画像取得手段と、前記画像取得手段により取得した前記原画像をもとに、前記投射面上の位置を指示する指示体の画像と前記指示体の影の画像とを撮影画像から検出する指示体画像検出手段と、前記指示体画像検出手段により検出した前記指示体の画像と前記指示体の影の画像との相対位置に基づき、前記指示体が指示する指示位置および指示状態を特定する指示状態判別手段とを備えることを特徴とする。
本発明によれば、プロジェクターが、投射面上の位置を指示する指示体の画像と指示体の影の画像とを検出することで、指示された位置とともに、例えば指示体が投射面に接しているか否か等の指示状態を特定できる。これにより、画像を投射するプロジェクターを用いて、指示体の形状に関わらず、指示された位置を正確に特定できる。また、指示体を操作する人の意図をより的確に反映して指示された位置を特定できる。
In order to solve the above problems, the present invention is a projector, which is attached to an original image and projects an image onto a projection surface, and images the image projected by the projection unit onto the projection surface. An image acquisition unit that acquires a photographing unit, an original image, and a captured image obtained by photographing the image projected by the projector based on the original image, and the original image acquired by the image acquisition unit. An indicator image detecting means for detecting an image of a pointer indicating a position on the projection surface and a shadow image of the indicator from a photographed image, and the indication detected by the indicator image detecting means An indication state determination unit that specifies an indication position and an indication state indicated by the indicator based on a relative position between a body image and a shadow image of the indicator is provided.
According to the present invention, the projector detects the image of the indicator that indicates the position on the projection surface and the shadow image of the indicator, so that, for example, the indicator contacts the projection surface together with the indicated position. An instruction state such as whether or not there is can be specified. Accordingly, the instructed position can be accurately specified using the projector that projects an image regardless of the shape of the indicator. In addition, it is possible to more accurately reflect the intention of the person who operates the indicator and to specify the indicated position.

また、上記課題を解決するため、本発明は、原画像に基づいて投射面に画像を投射し、前記原画像に基づいて前記投射面に投射した画像を撮影して撮影画像を取得し、前記原画像をもとに、前記投射面上の位置を指示する指示体の画像と前記指示体の影の画像とを前記撮影画像から検出し、検出した前記指示体の画像と前記指示体の影の画像との相対位置に基づき、前記指示体が指示する指示位置および指示状態を特定することを特徴とする。
本発明によれば、プロジェクターが、投射面上の位置を指示する指示体の画像と指示体の影の画像とを検出することで、指示された位置とともに、例えば指示体が投射面に接しているか否か等の指示状態を特定できる。これにより、画像を投射するプロジェクターを用いて、指示体の形状に関わらず、指示された位置を正確に特定できる。また、指示体を操作する人の意図をより的確に反映して指示された位置を特定できる。
In order to solve the above problem, the present invention projects an image on a projection surface based on an original image, captures an image projected on the projection surface based on the original image, acquires a captured image, Based on the original image, an image of a pointer indicating the position on the projection surface and a shadow image of the pointer are detected from the captured image, and the detected image of the pointer and the shadow of the pointer are detected. The pointing position and the pointing state pointed to by the pointer are specified based on the relative position to the image.
According to the present invention, the projector detects the image of the indicator that indicates the position on the projection surface and the shadow image of the indicator, so that, for example, the indicator contacts the projection surface together with the indicated position. An instruction state such as whether or not there is can be specified. Accordingly, the instructed position can be accurately specified using the projector that projects an image regardless of the shape of the indicator. In addition, it is possible to more accurately reflect the intention of the person who operates the indicator and to specify the indicated position.

また、上記課題を解決するため、本発明は、投射面に画像を投射するプロジェクターと、前記投射面を撮影する撮影装置とを備えて構成される表示システムであって、原画像と、前記原画像に基づいて前記プロジェクターが前記投射面に投射した画像を前記撮影装置が撮影して取得された撮影画像とを取得する画像取得手段とを取得する画像取得手段と、前記画像取得手段により取得した前記原画像をもとに、前記投射面上の位置を指示する指示体の画像と前記指示体の影の画像とを前記撮影画像から検出する指示体画像検出手段と、前記指示体画像検出手段により検出した前記指示体の画像と前記指示体の影の画像との相対位置に基づき、前記指示体が指示する指示位置および指示状態を特定する指示状態判別手段とを備えることを特徴とする。
本発明によれば、投射面上の位置を指示する指示体の画像と指示体の影の画像とを検出することで、指示された位置とともに、例えば指示体が投射面に接しているか否か等の指示状態を特定できる。これにより、指示体の形状に関わらず、指示された位置を正確に特定できる。また、指示体を操作する人の意図をより的確に反映して指示された位置を特定できる。
In order to solve the above problems, the present invention provides a display system including a projector that projects an image on a projection surface and a photographing device that photographs the projection surface, the original image and the original image An image acquisition unit that acquires an image acquired by the imaging device capturing an image projected by the projector on the projection surface based on an image, and an image acquisition unit acquired by the image acquisition unit Based on the original image, an indicator image detecting means for detecting an image of a pointer indicating a position on the projection surface and a shadow image of the indicator from the photographed image, and the indicator image detecting means And an instruction state determination means for specifying an instruction position and an instruction state indicated by the indicator based on a relative position between the image of the indicator detected by the step and a shadow image of the indicator. That.
According to the present invention, by detecting the image of the indicator that indicates the position on the projection surface and the shadow image of the indicator, for example, whether the indicator is in contact with the projection surface along with the indicated position. Etc. can be specified. Thereby, the instructed position can be accurately specified regardless of the shape of the indicator. In addition, it is possible to more accurately reflect the intention of the person who operates the indicator and to specify the indicated position.

本発明によれば、指示体により投射面上の位置を指示する操作が行われた場合に、指示体の形状に関わらず、指示体を操作する人の意図をより的確に反映して、指示された位置を特定できる。   According to the present invention, when an operation for indicating the position on the projection surface is performed by the indicator, the intention of the person who operates the indicator is more accurately reflected regardless of the shape of the indicator. Can be identified.

本発明の第1の実施形態に係る表示システムの構成を示す図である。It is a figure which shows the structure of the display system which concerns on the 1st Embodiment of this invention. プロジェクターを天面側から見た斜視図である。It is the perspective view which looked at the projector from the top | upper surface side. 表示システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a display system. プロジェクターの撮像装置が撮影した撮影画像の一例を示す図である。It is a figure which shows an example of the picked-up image image | photographed with the imaging device of the projector. 指示体による指示位置と指示状態を検出した場合の撮影画像の例を示す図であり、(A)は指示体をスクリーンから離した場合の撮影画像を示し、(B)は指示体をスクリーンに接触させた場合の撮影画像を示し、(C)は指示体をスクリーンに接触させたまま移動させた場合の撮影画像を示す。It is a figure which shows the example of the picked-up image at the time of detecting the instruction | indication position and instruction | indication state by a pointer, (A) shows a picked-up image when a pointer is separated from a screen, (B) shows a pointer on a screen. A photographed image in the case of contact is shown, and (C) shows a photographed image in a case where the indicator is moved while being in contact with the screen. プロジェクターの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a projector. キャリブレーションの例を示す図であり、(A)はキャリブレーションにおける指示体の操作を示し、(B)はキャリブレーションの実行中に投射されるパターンを示す。It is a figure which shows the example of a calibration, (A) shows operation of the indicator in calibration, (B) shows the pattern projected during execution of calibration. 本発明の第2の実施形態に係る表示システムの構成を示す図である。It is a figure which shows the structure of the display system which concerns on the 2nd Embodiment of this invention.

[第1の実施形態]
以下、図面を参照して本発明を適用した実施形態について説明する。
図1は、第1の実施形態に係るプロジェクター11を用いた表示システム10の構成を示す図である。図中の一部を円内に拡大して示す。
本実施形態に係るプロジェクター11は、画像出力装置としてのPC(Personal Computer)13に有線または無線接続され、PC13から受信される画像情報に応じた画像を投射面としてのスクリーンSC上に投射する。プロジェクター11は、PC13から受信した画像情報に応じた画像が静止画像であっても動画像であっても投射できる。プロジェクター11は、図1に示すように、主に、プロジェクター11内から投射光が射出される第1開口部25B等が設けられた側面部(後述する天面部2A)を下方に向けた状態で使用されるものであり、本実施形態では、スクリーンSCが形成される壁面に取り付けられたアーム14に、当該側面部とは反対側の側面部(後述する底面部2B)が固定されて使用される。スクリーンSCは壁面に固定された平板に限らず、壁面自体をスクリーンSCとして使用することも可能である。
[First Embodiment]
Embodiments to which the present invention is applied will be described below with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of a display system 10 using a projector 11 according to the first embodiment. A part of the figure is enlarged and shown in a circle.
The projector 11 according to the present embodiment is wired or wirelessly connected to a PC (Personal Computer) 13 as an image output device, and projects an image corresponding to image information received from the PC 13 onto a screen SC as a projection surface. The projector 11 can project whether the image corresponding to the image information received from the PC 13 is a still image or a moving image. As shown in FIG. 1, the projector 11 is mainly in a state in which a side surface portion (a top surface portion 2 </ b> A to be described later) provided with a first opening 25 </ b> B through which projection light is emitted from the projector 11 is directed downward. In this embodiment, the arm 14 attached to the wall surface on which the screen SC is formed is used by fixing a side surface portion (a bottom surface portion 2B described later) opposite to the side surface portion. The The screen SC is not limited to a flat plate fixed to the wall surface, and the wall surface itself can be used as the screen SC.

プロジェクター11は、PC13から受信した画像情報に応じた画像を投射する。またプロジェクター11は、スクリーンSC上で指示体12により位置を指示する位置入力操作が行われた場合に、指示体12により指示された位置を特定して、指示体12により指示された位置に関する位置情報をPC13に送信する。PC13は、プロジェクター11から受信した位置情報に基づき、位置入力操作で指示された位置を特定し、この位置に投射画像に重ねて描画を行って新たな投射画像を作成する等の処理を行って、位置入力操作の内容を投射画像に反映させる。このように、表示システム10は、スクリーンSCに画像を投射するとともに、このスクリーンSCにおいて指示体12による位置入力操作を受け付けて、位置入力操作を投射画像に反映させる、インタラクティブホワイトボードシステムとして機能する。具体的には、PC13は、プレゼンテーションの資料等の画像に、指示体12の指示位置の軌跡を示す線を重畳した画像を生成し、生成した画像の画像情報をプロジェクター11に送信する。これにより、スクリーンSC上で指示体12の軌跡を示す線が反映された画像が、プロジェクター11により投射される。   The projector 11 projects an image corresponding to the image information received from the PC 13. In addition, when a position input operation for designating a position with the indicator 12 is performed on the screen SC, the projector 11 identifies the position designated by the indicator 12 and relates to the position designated by the indicator 12. Information is transmitted to the PC 13. Based on the position information received from the projector 11, the PC 13 specifies a position instructed by the position input operation, and performs processing such as creating a new projection image by drawing the projected image on the position. The content of the position input operation is reflected on the projected image. In this way, the display system 10 functions as an interactive whiteboard system that projects an image on the screen SC and receives a position input operation by the indicator 12 on the screen SC and reflects the position input operation on the projected image. . Specifically, the PC 13 generates an image in which a line indicating the locus of the indication position of the indicator 12 is superimposed on an image of a presentation material or the like, and transmits image information of the generated image to the projector 11. As a result, the projector 11 projects an image in which a line indicating the locus of the indicator 12 is reflected on the screen SC.

また、プロジェクター11は、画像を投射する投射光学系33(図2)、及びスクリーンSCを撮影する撮像装置5(図3)を内蔵している。プロジェクター11の天面部2Aには、プロジェクター11内の投射光学系33からスクリーンSCに投射光を射出するための第1開口部25Bが配置され、天面部2Aから斜め下方のスクリーンSCに向けて投射画像が投射される。この天面部2Aには、撮像装置5の撮像光学系51(図2)が配置されており、撮像装置5は、投射光学系33が投射画像を投射するのとほぼ同じ方向から、スクリーンSCを撮影する。
プロジェクター11は、撮像装置5によって撮影した撮影画像に基づいて、指示体12による位置入力操作で指示された位置を特定する。
The projector 11 includes a projection optical system 33 (FIG. 2) that projects an image and an imaging device 5 (FIG. 3) that captures the screen SC. The top surface 2A of the projector 11 is provided with a first opening 25B for emitting projection light from the projection optical system 33 in the projector 11 to the screen SC, and projects from the top surface 2A toward the screen SC obliquely below. An image is projected. An imaging optical system 51 (FIG. 2) of the imaging device 5 is disposed on the top surface portion 2A. The imaging device 5 displays the screen SC from almost the same direction as the projection optical system 33 projects a projection image. Take a picture.
The projector 11 specifies the position instructed by the position input operation by the indicator 12 based on the captured image captured by the imaging device 5.

本実施形態では、指示体12は、図1の円内に拡大して示すように、操作者(プレゼンター)の手指であるが、この手指にキャップ形状のマーカー12Aが装着される。マーカー12Aには、撮影画像のデータから画像を検出しやすくするため、所定の模様(パターン)が付されている。マーカー12Aのパターンは、撮像装置5の撮影画像から画像処理技術により検出可能であればよく、スクリーンSC上の投射画像、壁、或いは床などの背景と区別できることが好ましい。具体的には、濃色の所定形状の枠を配し、この枠内に文字、記号或いは図形等を配したパターンが挙げられる。図1の例では、典型的な一例として、いわゆるARマーカーと同様の黒色の正方形の枠内に文字を配したパターンが挙げられる。また、マーカー12Aのパターンとしては、他に、濃淡の二色を組み合わせた市松模様、格子柄(Checkerboard pattern)、その他の幾何学模様等を用いてもよい。
プロジェクター11は、撮像装置5の撮影画像からマーカー12Aを検出し、このマーカー12Aが装着された指先が指し示す位置を、指示入力の位置として認識する。撮影画像から操作者の指そのものを検出する場合に比べ、検出に要する画像処理の負荷が軽く、高い確率で検出に成功するという利点がある。これらのパターンは、マーカー12Aの側面全体に描かれていてもよいし、マーカー12Aの上を向く面にのみ描かれていてもよい。
In the present embodiment, the indicator 12 is a finger of an operator (presenter) as shown enlarged in the circle of FIG. 1, and a cap-shaped marker 12A is attached to the finger. The marker 12 </ b> A is provided with a predetermined pattern (pattern) so that an image can be easily detected from the captured image data. The pattern of the marker 12A only needs to be detectable from an image captured by the imaging device 5 using an image processing technique, and is preferably distinguishable from a projected image on the screen SC, a background such as a wall, or a floor. Specifically, there is a pattern in which a dark-colored frame having a predetermined shape is arranged and characters, symbols, figures, or the like are arranged in the frame. In the example of FIG. 1, a typical example is a pattern in which characters are arranged in a black square frame similar to a so-called AR marker. In addition, as the pattern of the marker 12A, a checkered pattern, a checkerboard pattern, a geometric pattern, or the like, which is a combination of two shades of light and shade, may be used.
The projector 11 detects the marker 12A from the photographed image of the imaging device 5, and recognizes the position indicated by the fingertip on which the marker 12A is attached as the instruction input position. Compared to the case where the operator's finger itself is detected from the photographed image, there is an advantage that the load of image processing required for detection is light and the detection is successful with high probability. These patterns may be drawn on the entire side surface of the marker 12A, or may be drawn only on the surface facing the marker 12A.

図2は、本実施形態に係るプロジェクター11を天面部2A側から見た斜視図である。
プロジェクター11は、図1を参照して説明したように、下方を向く面から画像を前面側(スクリーンSCに対向する側)斜め下方に向けて投射する。プロジェクター11は、図2に示すように、全体略直方体形状を有する合成樹脂製の外装筐体2に、各部を収容して構成される。外装筐体2の各面を、互いに対向する一対の側面部である天面部2A、底面部2B、左右の両側面を構成する側面部2C、2D、スクリーンSCに近接する側の側面部である前面部2F、及び、スクリーンSCから遠い側面部である背面部2Eとする。外装筐体2は、プロジェクター11の装置本体を収容する筐体本体21に、カバー部材22が取り付けられた構成を有し、天面部2A、底面部2B及び側面部2Dの一部は、カバー部材22により形成される。筐体本体21の側面部2Cには、スリット状の開口部21Cが形成されている。開口部21Cの内側には、図示しないエアフィルター及び吸気ファンが設けられ、当該吸気ファンが、開口部21C及びエアフィルターを介して外装筐体2内に、装置本体を冷却するための冷却空気を導入する。側面部2Cの反対側の側面部2Dには、開口部21Cから導入された空気を排出する排気ファン(図示略)が取り付けられた排気口(図示略)が形成される。
FIG. 2 is a perspective view of the projector 11 according to the present embodiment as viewed from the top surface 2A side.
As described with reference to FIG. 1, the projector 11 projects the image from the surface facing downward toward the front side (side facing the screen SC) obliquely downward. As shown in FIG. 2, the projector 11 is configured by housing each part in an outer casing 2 made of synthetic resin having an overall substantially rectangular parallelepiped shape. Each surface of the exterior casing 2 is a pair of side surfaces facing each other, a top surface portion 2A, a bottom surface portion 2B, side surface portions 2C and 2D constituting left and right side surfaces, and a side surface portion on the side close to the screen SC. The front part 2F and the back part 2E which is a side part far from the screen SC are used. The exterior casing 2 has a configuration in which a cover member 22 is attached to a casing main body 21 that houses the apparatus main body of the projector 11, and a part of the top surface portion 2A, the bottom surface portion 2B, and the side surface portion 2D is a cover member. 22. A slit-shaped opening 21 </ b> C is formed in the side surface 2 </ b> C of the housing body 21. An air filter and an intake fan (not shown) are provided inside the opening 21C, and the intake fan supplies cooling air for cooling the apparatus main body into the exterior housing 2 via the opening 21C and the air filter. Introduce. An exhaust port (not shown) to which an exhaust fan (not shown) for discharging the air introduced from the opening 21C is attached is formed on the side surface portion 2D opposite to the side surface portion 2C.

プロジェクター11は、図1に示したように天面部2Aを下方に向けて設置される。図2に示すように、天面部2Aの端には操作パネル23が配置されている。また、天面部2Aには、前後方向(前面部2Fから背面部2Eに向かう方向)の略中心位置よりも背面側に、第1傾斜面21A及び第2傾斜面21Bからなる断面V字状の凹部が形成される。
一方の第1傾斜面21Aは、プロジェクター11の設置状態においてスクリーンSC側を向く面であり、背面側の斜め下方に向けて窪む凹部25Aが形成されている。凹部25Aの底は第1開口部25Bが形成される。第1開口部25Bは透光性のカバーによって覆われており、このカバーの奥には、画像を投射する投射光学系33などが配置されている。また、第1傾斜面21Aには撮像光学系51が配置される第2開口部25、及び、リモコン受光部4が配置される第3開口部25Dが形成され、これらの開口部はいずれもスクリーンSC側を向いている。第2開口部25Cは可視光を含む領域を透過するカバーによって覆われており、このカバーの奥には撮像装置5の撮像光学系51が配置されている。なお、撮像光学系51を構成するレンズが第2開口部25Cのカバーを兼ねていてもよい。第3開口部25Dは赤外光を透過するカバーによって覆われており、このカバーの奥には、スクリーンSCの前に立つ操作者が操作するリモコン(図示省略)からの赤外線信号を受光する受光素子(図示略)を有するリモコン受光部4が配置されている。
As shown in FIG. 1, the projector 11 is installed with the top surface portion 2A facing downward. As shown in FIG. 2, an operation panel 23 is disposed at the end of the top surface 2A. In addition, the top surface portion 2A has a V-shaped cross section composed of the first inclined surface 21A and the second inclined surface 21B on the back side with respect to the substantially center position in the front-rear direction (direction from the front surface portion 2F to the back surface portion 2E). A recess is formed.
One first inclined surface 21 </ b> A is a surface facing the screen SC in the installed state of the projector 11, and is formed with a recess 25 </ b> A that is recessed obliquely downward on the back side. A first opening 25B is formed at the bottom of the recess 25A. The first opening 25B is covered with a translucent cover, and a projection optical system 33 for projecting an image is disposed behind the cover. The first inclined surface 21A is formed with a second opening 25 in which the imaging optical system 51 is disposed, and a third opening 25D in which the remote control light receiving unit 4 is disposed, both of which are screens. It faces the SC side. The second opening 25C is covered with a cover that transmits an area including visible light, and the imaging optical system 51 of the imaging device 5 is disposed behind the cover. In addition, the lens which comprises the imaging optical system 51 may serve as the cover of 2nd opening part 25C. The third opening 25D is covered with a cover that transmits infrared light, and at the back of the cover is a light reception unit that receives an infrared signal from a remote controller (not shown) operated by an operator standing in front of the screen SC. A remote control light receiving unit 4 having an element (not shown) is arranged.

第2傾斜面21Bは、第1傾斜面21Aに連接し、背面部2Eから前面部2Fに向かうに従って、図2における上方(底面部2Bから離間する方向)に傾斜している。
操作パネル23は、背面側の端部から第1傾斜面21Aに至るまでの範囲内で、かつ、凹部25A側とは反対側(側面部2D側)に設けられている。この操作パネル23には、プロジェクター11を操作するための複数のキーが配設されている。
The second inclined surface 21B is connected to the first inclined surface 21A and is inclined upward (in a direction away from the bottom surface portion 2B) in FIG. 2 from the back surface portion 2E toward the front surface portion 2F.
The operation panel 23 is provided in the range from the end on the back side to the first inclined surface 21A and on the side opposite to the concave portion 25A side (side surface portion 2D side). The operation panel 23 is provided with a plurality of keys for operating the projector 11.

また、図1に示すように、プロジェクター11は底面部2Bが上を向くように設置され、底面部2Bには、アーム14に連結される金具類を取り付け可能な取付部が適所に複数設けられている。底面部2Bには、PC13等の外部の装置に繋がる通信ケーブルやプロジェクター11の電源ケーブル等が接続されるケーブル接続部(図示略)が設けられる。これらのケーブルはアーム14内を挿通し、表示システム10が設置された室の天井や壁面内部に配線される。   Further, as shown in FIG. 1, the projector 11 is installed so that the bottom surface portion 2B faces upward, and the bottom surface portion 2B is provided with a plurality of attachment portions to which metal parts connected to the arm 14 can be attached. ing. The bottom surface portion 2B is provided with a cable connection portion (not shown) to which a communication cable connected to an external device such as the PC 13 or a power cable of the projector 11 is connected. These cables are inserted through the arm 14 and wired to the ceiling or wall surface of the room where the display system 10 is installed.

図3は、プロジェクター11の機能的構成を示すブロック図である。
プロジェクター11は、PC13やビデオ再生装置、DVD再生装置等の外部の装置に接続されるI/F(インターフェイス)部101を備えている。例えば、I/F部101は、USBインターフェイス、有線または無線LANインターフェイス、アナログ映像信号が入力されるVGA端子、デジタル映像信号が入力されるDVI(Digital Visual Interface)、NTSC、PAL、SECAM等のコンポジット映像信号が入力されるS映像端子、コンポジット映像信号が入力されるRCA端子、コンポーネント映像信号が入力されるD端子、HDMI(登録商標)規格に準拠したHDMIコネクター等を備えている。
プロジェクター11は、I/F部101のLANインターフェイスまたはUSBインターフェイスを介してPC13に接続される。
FIG. 3 is a block diagram illustrating a functional configuration of the projector 11.
The projector 11 includes an I / F (interface) unit 101 connected to an external device such as a PC 13, a video playback device, or a DVD playback device. For example, the I / F unit 101 includes a USB interface, a wired or wireless LAN interface, a VGA terminal to which an analog video signal is input, a DVI (Digital Visual Interface) to which a digital video signal is input, NTSC, PAL, SECAM, and other composites. An S video terminal to which a video signal is input, an RCA terminal to which a composite video signal is input, a D terminal to which a component video signal is input, an HDMI connector conforming to the HDMI (registered trademark) standard, and the like are provided.
The projector 11 is connected to the PC 13 via the LAN interface or USB interface of the I / F unit 101.

プロジェクター11は、大きく分けて光学的な画像の形成を行う光学系と映像信号を電気的に処理する画像処理系とからなる。光学系は、照明光学系31、光変調装置である液晶パネル32、及び投射光学系33から構成されている。照明光学系31は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)等からなる光源を備えている。また、照明光学系31は、光源が発した光を液晶パネル32に導くリフレクター及び補助リフレクターを備えていてもよく、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光の光量を液晶パネル32に至る経路上で低減させる調光素子等を備えたものであってもよい。
液晶パネル32は、後述する画像処理系からの信号を受けて、パネル面に画像を形成する。液晶パネル32は、カラーの投影を行うため、RGBの三原色に対応した3枚の液晶パネルからなる。そのため、照明光学系31からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系33に射出される。
The projector 11 is roughly divided into an optical system that forms an optical image and an image processing system that electrically processes a video signal. The optical system includes an illumination optical system 31, a liquid crystal panel 32 that is a light modulation device, and a projection optical system 33. The illumination optical system 31 includes a light source including a xenon lamp, an ultra high pressure mercury lamp, an LED (Light Emitting Diode), and the like. The illumination optical system 31 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the liquid crystal panel 32, and a lens group (not shown), a polarizing plate, A light control element or the like that reduces the amount of light emitted from the light source on the path to the liquid crystal panel 32 may be provided.
The liquid crystal panel 32 receives a signal from an image processing system, which will be described later, and forms an image on the panel surface. The liquid crystal panel 32 includes three liquid crystal panels corresponding to the three primary colors of RGB in order to perform color projection. Therefore, the light from the illumination optical system 31 is separated into three color lights of RGB, and each color light enters each corresponding liquid crystal panel. The color light modulated by passing through each liquid crystal panel is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 33.

投射光学系33は、投射する画像の拡大・縮小および焦点の調整を行うズームレンズ、ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調整用モーター、投射光をスクリーンSCに向ける凹面鏡等を備えている。投射光学系33は、液晶パネル32で変調された入射光を、レンズ群を通してズーム調整及びフォーカス調整し、このレンズ群を通った光を凹面鏡によりスクリーンSC方向へ導き、スクリーンSC上に結像させる。この光学系には、制御部103の制御に従って投射光学系33が備える各モーターを駆動する投射光学系駆動部121、及び、制御部103の制御に従って照明光学系31が備える光源を駆動する光源駆動部117が接続されている。なお、投射光学系33の具体的構成は上記の例に限定されず、例えば凹面鏡を含むミラーを用いない構成により、液晶パネル32で変調された光をレンズによってスクリーンSCに投射し、結像させることも可能である。   The projection optical system 33 is a zoom lens that enlarges / reduces the projected image and adjusts the focus, a zoom adjustment motor that adjusts the degree of zoom, a focus adjustment motor that adjusts the focus, and directs the projection light toward the screen SC. A concave mirror is provided. The projection optical system 33 zooms and adjusts the incident light modulated by the liquid crystal panel 32 through a lens group, guides the light passing through the lens group toward the screen SC with a concave mirror, and forms an image on the screen SC. . The optical system includes a projection optical system driving unit 121 that drives each motor included in the projection optical system 33 according to the control of the control unit 103, and a light source drive that drives a light source included in the illumination optical system 31 according to the control of the control unit 103. The unit 117 is connected. The specific configuration of the projection optical system 33 is not limited to the above example. For example, the light modulated by the liquid crystal panel 32 is projected onto the screen SC by a lens to form an image by using a configuration that does not use a mirror including a concave mirror. It is also possible.

一方、画像処理系は、プロジェクター11全体を統合的に制御する制御部103を中心に構成され、制御部103が処理するデータや制御部103が実行するプログラムを記憶した記憶部105、操作パネル23及びリモコン受光部4を介した操作を検出する入力処理部123、I/F部101を介して入力された入力映像を処理する表示制御部107、画像処理部113、表示制御部107から出力される映像信号に基づいて液晶パネル32を駆動して描画を行う光変調装置駆動部119を備えている。   On the other hand, the image processing system is configured around a control unit 103 that controls the entire projector 11 in an integrated manner, and includes a storage unit 105 that stores data processed by the control unit 103 and a program executed by the control unit 103, and an operation panel 23. And an input processing unit 123 that detects an operation through the remote control light receiving unit 4, a display control unit 107 that processes an input video input through the I / F unit 101, an image processing unit 113, and a display control unit 107. A light modulator driving unit 119 that performs drawing by driving the liquid crystal panel 32 based on the video signal.

制御部103は、記憶部105に記憶された制御プログラムを読み出して実行することにより、プロジェクター11の各部を制御する。制御部103は、入力処理部123から入力される操作信号に基づいて、操作者が行った操作の内容を検出し、この操作に応じて表示制御部107、投射光学系駆動部121及び光源駆動部117を制御して、スクリーンSCに映像を投射させる。   The control unit 103 controls each unit of the projector 11 by reading and executing the control program stored in the storage unit 105. The control unit 103 detects the content of the operation performed by the operator based on the operation signal input from the input processing unit 123, and in accordance with this operation, the display control unit 107, the projection optical system driving unit 121, and the light source driving The unit 117 is controlled to project an image on the screen SC.

上述のように、プロジェクター11の外装筐体2には、各種スイッチ及びインジケーターランプを備えた操作パネル23(図2)が配置されている。操作パネル23は入力処理部123に接続されており、入力処理部123は、制御部103の制御に従い、プロジェクター11の動作状態や設定状態に応じて操作パネル23のインジケーターランプを適宜点灯或いは点滅させる。この操作パネル23のスイッチが操作されると、操作されたスイッチに対応する操作信号が入力処理部123から制御部103に出力される。
また、プロジェクター11は、操作者が使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を、リモコン受光部4によって受光する。リモコン受光部4は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作信号を生成し、制御部103に出力する。
As described above, the outer casing 2 of the projector 11 is provided with the operation panel 23 (FIG. 2) provided with various switches and indicator lamps. The operation panel 23 is connected to the input processing unit 123, and the input processing unit 123 lights or blinks the indicator lamp of the operation panel 23 as appropriate according to the operation state and setting state of the projector 11 according to the control of the control unit 103. . When the switch of the operation panel 23 is operated, an operation signal corresponding to the operated switch is output from the input processing unit 123 to the control unit 103.
Further, the projector 11 receives an infrared signal transmitted in response to a button operation by a remote controller (not shown) used by the operator by the remote controller light receiving unit 4. The remote control light receiving unit 4 decodes the infrared signal received from the remote control, generates an operation signal indicating the operation content of the remote control, and outputs the operation signal to the control unit 103.

I/F部101には表示制御部107が接続される。表示制御部107には、フレームメモリー115を有する画像処理部113が接続されている。画像処理部113は、I/F部101を介して入力される入力映像をフレームメモリー115に展開し、アナログ/デジタル変換、インターレース/プログレッシブ変換、解像度変換等の各種変換処理を適宜実行し、予め設定されたフォーマットの映像信号を生成して表示制御部107に出力する。表示制御部107は、画像処理部113により処理された映像信号を光変調装置駆動部119に出力し、液晶パネル32に表示させる。表示制御部107がI/F部101を介して取得する画像、及び、表示制御部107がフレームメモリー115に展開して描画する画像は、原画像に相当する。   A display control unit 107 is connected to the I / F unit 101. An image processing unit 113 having a frame memory 115 is connected to the display control unit 107. The image processing unit 113 develops the input video input via the I / F unit 101 in the frame memory 115, appropriately executes various conversion processes such as analog / digital conversion, interlace / progressive conversion, resolution conversion, and the like. A video signal in the set format is generated and output to the display control unit 107. The display control unit 107 outputs the video signal processed by the image processing unit 113 to the light modulation device driving unit 119 and displays it on the liquid crystal panel 32. An image acquired by the display control unit 107 via the I / F unit 101 and an image developed and drawn in the frame memory 115 by the display control unit 107 correspond to an original image.

また、プロジェクター11は、第1傾斜面21A(図2)からスクリーンSCを撮影する撮像装置5を備えている。撮像装置5は、第1傾斜面21Aに配設された撮像光学系51と、撮像光学系51を利用して撮影を実行し、撮影画像を出力する撮像素子及び出力回路を備えた撮像部52とを備える。撮像装置5は、制御部103の制御に従ってスクリーンSCを撮影し、特にプロジェクター11がスクリーンSCに投射画像を投射している間に撮影を実行して、撮影画像のデータを制御部103に出力する。   Further, the projector 11 includes an imaging device 5 that captures the screen SC from the first inclined surface 21A (FIG. 2). The imaging device 5 includes an imaging optical system 51 disposed on the first inclined surface 21A, an imaging unit 52 that includes the imaging device and an output circuit that performs imaging using the imaging optical system 51 and outputs a captured image. With. The imaging device 5 captures the screen SC in accordance with the control of the control unit 103, and particularly performs capturing while the projector 11 projects a projection image on the screen SC, and outputs captured image data to the control unit 103. .

制御部103は、撮像装置5から入力される撮影画像のデータから、指示体12の画像を検出して、指示体12によって指示された位置を特定する。この処理において、制御部103は、フレームメモリー115に展開した後に光変調装置駆動部119に出力した投射画像のデータと、撮像装置5が撮影した撮影画像のデータとの差分を検出し、撮影画像から投射画像の成分を除く。PC13から受信し、投射する画像が動画像の場合には、撮影時に投射されていたフレームのデータをフレームメモリー115から取得することになる。この場合、撮影タイミングと投射中のフレームの切換タイミングとを制御部103が制御する。
さらに、プロジェクター11は、予め記憶部105にマーカー12Aのパターンを指示体パターン105Aとして記憶しており、制御部103は、撮影画像から、指示体パターン105Aと類似または一致するパターンを検出する。これにより、より速やかに、指示体12の画像を検出できる。
The control unit 103 detects the image of the indicator 12 from the captured image data input from the imaging device 5 and specifies the position indicated by the indicator 12. In this processing, the control unit 103 detects the difference between the projection image data that is developed in the frame memory 115 and then output to the light modulation device driving unit 119, and the captured image data captured by the imaging device 5, and the captured image is detected. The component of the projected image is removed from If the image received and projected from the PC 13 is a moving image, the frame data projected at the time of shooting is acquired from the frame memory 115. In this case, the control unit 103 controls the shooting timing and the switching timing of the frame being projected.
Furthermore, the projector 11 stores the pattern of the marker 12A in advance in the storage unit 105 as the indicator pattern 105A, and the control unit 103 detects a pattern similar or coincident with the indicator pattern 105A from the photographed image. Thereby, the image of the indicator 12 can be detected more quickly.

図4は、撮像装置5が撮影した撮影画像の一例を示す図である。
この撮影画像200には、プロジェクター11がスクリーンSCに投射した投射画像の上に、指示体である操作者の手の画像210と、スクリーンSC上の手の影の画像211とが写っている。制御部103は、撮影画像200のデータを、フレームメモリー115に展開した後に光変調装置駆動部119に出力した投射画像のデータと比較して、その差分を求め、この差分から手の画像210と手の影の画像211とを抽出する。
FIG. 4 is a diagram illustrating an example of a captured image captured by the imaging device 5.
The photographed image 200 includes an image 210 of an operator's hand as an indicator and an image 211 of a hand shadow on the screen SC on the projection image projected by the projector 11 on the screen SC. The control unit 103 compares the data of the photographed image 200 with the data of the projection image output to the light modulation device driving unit 119 after being developed in the frame memory 115, and obtains the difference. A hand shadow image 211 is extracted.

ところで、操作者がスクリーンSCの前にいると、操作者の意図の有無に関わらず操作者の手指が撮影画像に写り込む。このため、手の画像の位置が、操作者が意図した位置とは限らない。また、手の角度と撮影した方向との関係によっては手の画像が予想できない形状になることがあり、例えば指先を特定することができず、手の画像のどの位置を検出すべきか断定しにくい場合がある。
そこで、プロジェクター11は、撮影画像から手の画像と、手の影の画像とを抽出し、これらの間の距離を求める。例えば撮影画像において手の画像と手の影の画像との距離がゼロまたはほぼゼロに近い値であれば、その位置で手がスクリーンSCに接していることになる。手がスクリーンSCに接しているのは、操作者が意図して指示した位置といえる。このように、制御部103は、撮影画像から手の画像と、手の影の画像とを抽出し、これらの間の距離を求めることで、指示状態としてスクリーンSCに接しているか否かを特定できる。従って、操作者の意図を正確に反映して、指示位置を正確に特定できる。また、撮影方向と手の角度によっては手の画像の形状が不鮮鋭になることがあるが、このような場合も、手の画像のうち影の画像に最も近い位置を、指示位置として特定できる。換言すれば、手の影の画像を用いて指示位置を特定することができる。
By the way, when the operator is in front of the screen SC, the operator's fingers are reflected in the captured image regardless of the intention of the operator. For this reason, the position of the hand image is not necessarily the position intended by the operator. Also, depending on the relationship between the angle of the hand and the shooting direction, the hand image may have an unpredictable shape. For example, the fingertip cannot be specified and it is difficult to determine which position of the hand image should be detected. There is a case.
Therefore, the projector 11 extracts a hand image and a hand shadow image from the captured image, and obtains a distance between them. For example, if the distance between the hand image and the hand shadow image in the captured image is zero or a value close to zero, the hand is in contact with the screen SC at that position. It can be said that the hand is in contact with the screen SC is the position that the operator intends to instruct. In this way, the control unit 103 extracts the hand image and the hand shadow image from the photographed image, and determines whether or not the screen SC is touched as the instruction state by obtaining the distance between them. it can. Therefore, it is possible to accurately specify the indicated position while accurately reflecting the operator's intention. Also, depending on the shooting direction and the hand angle, the shape of the hand image may be unsharp, but in such a case as well, the position closest to the shadow image in the hand image can be specified as the designated position. . In other words, the pointing position can be specified using the shadow image of the hand.

さらに、プロジェクター11では、スクリーンSCに向けて投射部3により投射画像を投射する位置とほぼ同じ位置から撮像装置5が撮影するので、より速やかに、撮影画像から手の画像と手の影の画像とを抽出できる。
撮像装置5は、水平面に対して垂直な平面であるスクリーンSCを上方から撮影するので、図4に示すように、撮影画像200のスクリーンSCは、上方が幅広く、下方が狭くなるように歪んで写っている。
プロジェクター11がスクリーンSCに投射する画像も同様に、スクリーンSC上で上方が狭く下方が広くなるように歪むことになる。しかしながら、プロジェクター11はスクリーンSCに対して斜めに投射することを前提としているため、投射光学系33が、上記の歪みを生じないように設計されている。このため、液晶パネル32に矩形の画像が描画された場合に、投射光学系33を経る間に画像が適切に変形され、スクリーンSCで矩形の投射画像が結像する。このため、表示制御部107が、スクリーンSC上におけるいわゆる台形歪みを補正する画像処理を必要としない。なお、表示制御部107の機能により、スクリーンSC上の投射画像の台形歪みを補正するように、投射しようとする原画像の上方を幅広く下方を狭くする処理を行ってもよい。
Further, in the projector 11, the imaging device 5 captures images from substantially the same position as the projection unit 3 projects the projection image toward the screen SC. Therefore, the image of the hand and the shadow of the hand are quickly captured from the captured image. And can be extracted.
Since the imaging device 5 captures the screen SC that is a plane perpendicular to the horizontal plane from above, the screen SC of the captured image 200 is distorted so that the upper side is wide and the lower side is narrow, as shown in FIG. It is reflected.
Similarly, the image projected by the projector 11 on the screen SC is distorted so that the upper side is narrow and the lower side is wide on the screen SC. However, since the projector 11 is assumed to project obliquely with respect to the screen SC, the projection optical system 33 is designed so as not to cause the above-described distortion. For this reason, when a rectangular image is drawn on the liquid crystal panel 32, the image is appropriately deformed through the projection optical system 33, and a rectangular projection image is formed on the screen SC. For this reason, the display control unit 107 does not need image processing for correcting so-called trapezoidal distortion on the screen SC. Note that the function of the display control unit 107 may perform a process of widening the upper part of the original image to be projected and narrowing the lower part so as to correct the trapezoidal distortion of the projected image on the screen SC.

つまり、プロジェクター11の投射画像が矩形であるのに対し、撮像装置5の撮影画像に写る投射画像は台形歪みにより変形している。プロジェクター11は、台形歪みの影響を排除するため撮影画像を変形させ、矩形の投射画像が含まれる画像にし、この画像を液晶パネル32に描画された画像と比較して差分を求める。これにより、撮影画像と投射画像との差分を比較的簡単な処理によって検出し、撮影画像200から投射画像の部分を除去できる。これにより、速やかに手の画像及び手の影の画像とを抽出できる。   That is, while the projection image of the projector 11 is rectangular, the projection image that appears in the captured image of the imaging device 5 is deformed due to trapezoidal distortion. The projector 11 deforms the captured image to eliminate the influence of the trapezoidal distortion, makes an image including a rectangular projection image, and compares the image with an image drawn on the liquid crystal panel 32 to obtain a difference. Thereby, the difference between the captured image and the projected image can be detected by a relatively simple process, and the portion of the projected image can be removed from the captured image 200. Thereby, the image of a hand and the image of a hand shadow can be extracted quickly.

なお、撮影方向がスクリーンSCの正面以外の方向である場合(例えば、スクリーンSCの下方や左右の側方からスクリーンSCを撮影する場合)は、撮影画像にはスクリーンSCを上方から撮影した場合とほぼ同様の歪みが生じる。ここで、投射方向と撮影方向とが一致しない場合には、撮影画像の歪みに合わせて投射画像を変形させてから、或いは投射画像の台形歪み補正の状態に合わせて撮影画像を変形させてから、その差分を求めれば、上記の場合と同様に、比較的簡単な処理で速やかに手の画像と手の影の画像とを抽出できる。
さらに、スクリーンSCの正面でなく、例えば下方や左右を含む側方から撮影することで、正面から撮影する場合のように投射面の前に立っている操作者の影に指示体が隠れてしまうことがなく、確実に指示体の位置を検出できる。
When the shooting direction is a direction other than the front of the screen SC (for example, when shooting the screen SC from the lower side of the screen SC or from the left and right sides), the shot image is shot from above. Almost the same distortion occurs. Here, if the projection direction and the shooting direction do not match, after changing the projection image according to the distortion of the shot image, or after changing the shot image according to the trapezoidal distortion correction state of the projection image If the difference is obtained, the hand image and the shadow image of the hand can be quickly extracted by a relatively simple process as in the above case.
Furthermore, by shooting from the side including the lower side and the left and right sides instead of the front side of the screen SC, the indicator is hidden in the shadow of the operator standing in front of the projection surface as in the case of shooting from the front side. And the position of the indicator can be reliably detected.

図5は、指示体12による指示位置と、指示状態すなわちスクリーンSCへの接触の有無を検出した場合の動作例として、指示体12を移動する操作に応じて移動の軌跡を描画する動作を示す。同図(A)は指示体12の移動中に指示体12をスクリーンSCから離した場合の撮影画像であり、(B)は再び指示体12をスクリーンSCに接触させた場合の撮影画像であり、(C)は指示体12をスクリーンSCに接触させたまま移動させた場合の撮影画像である。
プロジェクター11は、制御部103の制御によって、予め設定された周期で撮像装置5によりスクリーンSCを撮影し、撮影画像のデータと、撮影時に投射していた投射画像のデータとをもとに指示体12の位置を検出し、指示体12がスクリーンSCに接しているか否かを判別する。そして上記の処理を行う毎に、指示体12の位置と、指示体12がスクリーンSCに接しているか否かを示す指示状態とを示す情報をPC13に送信する。
FIG. 5 shows an operation of drawing a locus of movement according to an operation of moving the indicator 12 as an example of operation when the indication position by the indicator 12 and the indication state, that is, presence or absence of contact with the screen SC are detected. . (A) is a photographed image when the indicator 12 is separated from the screen SC while the indicator 12 is moving, and (B) is a photographed image when the indicator 12 is brought into contact with the screen SC again. (C) is a photographed image when the indicator 12 is moved while being in contact with the screen SC.
The projector 11 shoots the screen SC by the imaging device 5 at a preset cycle under the control of the control unit 103, and indicates the indicator based on the data of the photographic image and the data of the projection image projected at the time of photographing. 12 is detected, and it is determined whether or not the indicator 12 is in contact with the screen SC. Each time the above processing is performed, information indicating the position of the indicator 12 and an indication state indicating whether or not the indicator 12 is in contact with the screen SC is transmitted to the PC 13.

PC13は、プロジェクター11から周期的に送信される情報を受信して、指示体12の位置入力操作に応答した描画等の動作を行う。図5(A)に示す撮影画像201には、手の画像210と手の影の画像211とが接する点の移動の軌跡が、曲線251として描画された様子が写っている。位置Bで指示体12がスクリーンSCから離れると、手の画像210が手の影の画像211から離れるので、プロジェクター11により指示状態の変化が検出される。PC13は、プロジェクター11から受信した情報により指示体12がスクリーンSCから離れたことを検知すると、移動の軌跡の描画をやめる。
図5(B)に示す撮影画像202には、指示体12がスクリーンSCに接した状態が写っている。曲線251は指示体12がスクリーンSCから離れたことで途切れているが、この曲線251から離れた位置Cで指示体12がスクリーンSCに接すると、そこから指示体12が移動する軌跡に沿って曲線252が描画される。
図5(C)に示す撮影画像203は、指示体12が図5(B)の位置Cから位置Dまで、スクリーンSCに接して移動した場合の撮影画像である。この間の指示体12の移動の軌跡に沿って曲線252が描画されている。本実施形態では、曲線251、252はPC13がプロジェクター11に送信する画像情報に合成するもので、プロジェクター11が曲線251、252を描画する処理は行わない。
表示システム10の機能は、図5(A)、(B)に示す軌跡の描画の他に、例えば、投射画像として操作用のアイコン等を投射し、このアイコンの表示位置に対する指示体12の接触操作が行われると、アイコンに対応づけられた動作を実行する例が挙げられる。この場合のアイコンの表示(投射)、アイコンの表示位置と指示体12の位置との対応の判別、アイコンに対応する動作の実行は、PC13により行われる。
The PC 13 receives information periodically transmitted from the projector 11 and performs operations such as drawing in response to the position input operation of the indicator 12. The photographed image 201 shown in FIG. 5A shows a state where the locus of movement of the point where the hand image 210 and the shadow image 211 of the hand touch is drawn as a curve 251. When the indicator 12 moves away from the screen SC at the position B, the hand image 210 moves away from the shadow image 211 of the hand, so that the projector 11 detects a change in the pointing state. When the PC 13 detects that the indicator 12 has left the screen SC based on the information received from the projector 11, the PC 13 stops drawing the movement locus.
A photographed image 202 shown in FIG. 5B shows a state where the indicator 12 is in contact with the screen SC. The curve 251 is interrupted when the indicator 12 is separated from the screen SC. However, when the indicator 12 comes into contact with the screen SC at a position C away from the curve 251, the indicator 12 moves along a trajectory from which the indicator 12 moves. A curve 252 is drawn.
A photographed image 203 shown in FIG. 5C is a photographed image when the indicator 12 moves in contact with the screen SC from position C to position D in FIG. A curve 252 is drawn along the locus of movement of the indicator 12 during this time. In the present embodiment, the curves 251 and 252 are combined with image information transmitted from the PC 13 to the projector 11, and the projector 11 does not perform the process of drawing the curves 251 and 252.
The function of the display system 10 is that, for example, an operation icon or the like is projected as a projected image in addition to the locus drawing shown in FIGS. 5A and 5B, and the indicator 12 touches the display position of the icon. An example of executing an operation associated with an icon when an operation is performed is given. In this case, the PC 13 performs icon display (projection), determination of the correspondence between the icon display position and the position of the indicator 12, and execution of the operation corresponding to the icon.

図6は、プロジェクター11の動作を示すフローチャートであり、指示体12の位置を検出する動作を示す。この図6に示す動作の実行時、制御部103は、画像取得手段、指示体画像検出手段、及び、指示状態判別手段として機能し、プロジェクター11は位置入力装置として機能する。
プロジェクター11の制御部103は、リモコン(図示略)や操作パネル23の操作に従って、指示体12による位置入力を検出する位置入力モードを開始する(ステップS11)。制御部103は、位置入力モードを開始する際に、まず、キャリブレーションを実行する(ステップS12)。ここで、キャリブレーションの様子について説明する。
FIG. 6 is a flowchart showing the operation of the projector 11 and shows the operation of detecting the position of the indicator 12. When the operation shown in FIG. 6 is executed, the control unit 103 functions as an image acquisition unit, a pointer image detection unit, and an instruction state determination unit, and the projector 11 functions as a position input device.
The control unit 103 of the projector 11 starts a position input mode for detecting position input by the indicator 12 in accordance with an operation on a remote controller (not shown) or the operation panel 23 (step S11). When starting the position input mode, the control unit 103 first executes calibration (step S12). Here, the state of calibration will be described.

図7はプロジェクター11により実行されるキャリブレーションの例を示す図であり、(A)はキャリブレーションにおける指示体の操作を示し、(B)はキャリブレーションの実行中に投射されるパターンを示す。なお、図7(B)中の矢印はキャリブレーション中のパターン(○)の移動の様子を示すものであり、この矢印はパターンに含まれない。
このキャリブレーションは、プロジェクター11が検出する指示体12の位置を、スクリーンSC上の実際の指示体12の指示位置に合わせて校正する動作である。キャリブレーションの実行中には、校正用パターン205がスクリーンSCに投射される。図7(A)の例の校正用パターン205は記号○であり、指示体12として自分の手を使う操作者は、スクリーンSC上の記号○に指(指示体12)の先端を重ねてスクリーンSCに接触する。プロジェクター11は、撮像装置5により撮影を行い、その撮影画像から指示体12の画像と指示体12の影の画像とを抽出して、指示体12が指し示す記号○の位置を検出する。そして、撮影画像から検出した記号○の位置を、投射画像における記号○の位置と整合させることで、校正を実行する。プロジェクター11は、撮影画像において指示体12の画像と指示体12の影の画像とが離れている場合には校正を中断してもよい。
FIG. 7 is a diagram illustrating an example of calibration executed by the projector 11, (A) shows the operation of the indicator in the calibration, and (B) shows a pattern projected during the execution of calibration. Note that the arrow in FIG. 7B indicates the movement of the pattern (◯) during calibration, and this arrow is not included in the pattern.
This calibration is an operation for calibrating the position of the indicator 12 detected by the projector 11 to match the indicated position of the actual indicator 12 on the screen SC. During the execution of calibration, the calibration pattern 205 is projected onto the screen SC. The calibration pattern 205 in the example of FIG. 7A is a symbol ◯, and an operator who uses his / her hand as the indicator 12 puts the tip of the finger (indicator 12) on the symbol ◯ on the screen SC. Touch the SC. The projector 11 shoots with the imaging device 5, extracts the image of the indicator 12 and the shadow image of the indicator 12 from the captured image, and detects the position of the symbol ◯ indicated by the indicator 12. Then, calibration is executed by aligning the position of the symbol ◯ detected from the captured image with the position of the symbol ◯ in the projection image. The projector 11 may interrupt the calibration when the image of the indicator 12 and the shadow image of the indicator 12 are separated from each other in the captured image.

キャリブレーションは、位置入力操作の操作領域内に含まれる多くの位置で行うことが好ましい。このため、図7(B)に示すように、プロジェクター11は、スクリーンSC上で校正用パターン205(記号○)を順次移動させながら投射し、各々の校正用パターン205の位置を指示体12によって指示させ、指示位置を検出し、校正を行う。図7(B)の例では校正用パターン205をスクリーンSCの左上隅から表示しているが、スクリーンSCの右下隅まで、全体において上記動作を実行すると、キャリブレーションが完了する。このキャリブレーションを行うことで、撮影画像に基づく位置検出の精度を高めることができる。   The calibration is preferably performed at many positions included in the operation area of the position input operation. For this reason, as shown in FIG. 7B, the projector 11 projects the calibration patterns 205 (symbols ◯) while sequentially moving them on the screen SC, and the position of each calibration pattern 205 is indicated by the indicator 12. Instruct, detect the indicated position, and calibrate. In the example of FIG. 7B, the calibration pattern 205 is displayed from the upper left corner of the screen SC, but the calibration is completed when the above operation is executed to the lower right corner of the screen SC as a whole. By performing this calibration, the accuracy of position detection based on the captured image can be increased.

キャリブレーションの実行後、制御部103は、撮像装置5を制御してスクリーンSCを撮影させて、撮影画像を取得する(ステップS13)。上述したように、制御部103が取得した撮影画像は上方からスクリーンSCを撮影した画像であり、スクリーンSCや投射画像は台形に歪んで写っている。このため、制御部103は、撮影画像に写っているスクリーンSCや投射画像の形状が、表示制御部107により描画された投射用の画像と同じ形状(矩形)になるように、撮影画像を補正する(ステップS14)。
次いで、制御部103は、撮影時にスクリーンSCに投射されていた投射画像のデータを表示制御部107から取得し、取得した投射画像のデータと補正後の撮影画像のデータとの差分を抽出する(ステップS15)。制御部103は、抽出した差分の画像を構成する各画素の輝度データに基づき、指示体12の影の画像を抽出する(ステップS16)。すなわち、輝度データがしきい値より低い画素を指示体12の影の画像を構成する画素として抽出する。このしきい値は、予め記憶部105に記憶していてもよいし、ステップS13で取得した撮影画像のデータから算出したしきい値であってもよい。
さらに、制御部103は、撮影画像と投射画像との差分の画像から、指示体12の画像を抽出する(ステップS17)。指示体12としての手指にマーカー12Aが装着されている場合、制御部103は、記憶部105に予め記憶している指示体パターン105Aを読み出し、この指示体パターン105Aと一致または類似するパターンを差分画像で検出する。
After executing the calibration, the control unit 103 controls the imaging device 5 to capture the screen SC and obtain a captured image (step S13). As described above, the captured image acquired by the control unit 103 is an image obtained by capturing the screen SC from above, and the screen SC and the projected image are distorted into a trapezoid. For this reason, the control unit 103 corrects the captured image so that the shape of the screen SC or the projected image shown in the captured image is the same shape (rectangle) as the projection image drawn by the display control unit 107. (Step S14).
Next, the control unit 103 acquires the projection image data projected on the screen SC at the time of shooting from the display control unit 107 and extracts the difference between the acquired projection image data and the corrected shot image data ( Step S15). The control unit 103 extracts a shadow image of the indicator 12 based on the luminance data of each pixel constituting the extracted difference image (step S16). That is, pixels whose luminance data is lower than the threshold value are extracted as pixels constituting the shadow image of the indicator 12. This threshold value may be stored in advance in the storage unit 105, or may be a threshold value calculated from the captured image data acquired in step S13.
Further, the control unit 103 extracts the image of the indicator 12 from the difference image between the captured image and the projected image (step S17). When the marker 12A is attached to the finger as the indicator 12, the control unit 103 reads the indicator pattern 105A stored in advance in the storage unit 105, and makes a difference between patterns that match or are similar to the indicator pattern 105A. Detect with images.

制御部103は、ステップS16で抽出した指示体12の影の画像と、ステップS17で抽出した指示体12の画像とが最も接近している位置(最接近点)を検出し(ステップS18)、この最接近点における指示体12の画像と指示体12の影の画像との距離が、予め設定された距離以下であるか否かを判別する(ステップS19)。この距離は、指示体12の画像の端点および指示体12の影の画像の端点の座標位置から求めてもよいし、各端点間の画素数で求めてもよい。
指示体12の画像と指示体12の影の画像との距離が設定値以下である場合(ステップS19;Yes)、制御部103は、指示体12がスクリーンSCに接触した接触操作と判定し(ステップS20)、指示体12の画像における最接近点の位置と、指示状態すなわち接触操作であることを示す情報をPC13に送信し(ステップS21)、位置入力モードを終了するか否かを判別する(ステップS22)。位置入力モードを継続する場合はステップS13に戻る。
The control unit 103 detects the position (the closest point) at which the shadow image of the indicator 12 extracted in step S16 and the image of the indicator 12 extracted in step S17 are closest (step S18). It is determined whether or not the distance between the image of the indicator 12 and the shadow image of the indicator 12 at the closest point is equal to or less than a preset distance (step S19). This distance may be obtained from the coordinate position of the end point of the indicator 12 image and the end point of the indicator 12 shadow image, or may be obtained from the number of pixels between the end points.
When the distance between the image of the indicator 12 and the shadow image of the indicator 12 is equal to or less than the set value (step S19; Yes), the control unit 103 determines that the indicator 12 is a contact operation in contact with the screen SC ( In step S20), the position of the closest point in the image of the indicator 12 and information indicating the instruction state, that is, the contact operation are transmitted to the PC 13 (step S21), and it is determined whether or not to end the position input mode. (Step S22). When continuing the position input mode, the process returns to step S13.

一方、指示体12の画像と指示体12の影の画像との距離が設定値より大きい場合(ステップS19;No)、制御部103は、指示体12がスクリーンSCに接触していない非接触操作と判定し(ステップS23)、指示体12の画像における最接近点の位置と、指示状態すなわち非接触操作であることを示す情報をPC13に送信し(ステップS24)、ステップS22に移行する。   On the other hand, when the distance between the image of the indicator 12 and the shadow image of the indicator 12 is larger than the set value (step S19; No), the control unit 103 does not contact the screen SC with the non-contact operation. (Step S23), the position of the closest point in the image of the indicator 12 and the information indicating the indication state, that is, the non-contact operation are transmitted to the PC 13 (Step S24), and the process proceeds to Step S22.

以上のように、本発明を適用した実施形態に係る表示システム10は、プロジェクター11の制御部103が、I/F部101より入力された画像情報に基づき表示制御部107が取得した画像(原画像)と、プロジェクター11がスクリーンSCに投射した画像を撮影した撮影画像とを取得し、取得した原画像をもとに、スクリーンSC上の位置を指示する指示体12の画像と指示体12の影の画像とを撮影画像から検出し、検出した指示体12の画像と指示体12の影の画像との相対位置に基づき、指示体12が指示する指示位置および指示状態を特定するので、指示体12により指示された位置とともに、例えば指示体12がスクリーンSCに接しているか否か等の指示状態を特定できる。これにより、指示体12の形状に関わらず、指示された位置を正確に特定できる。また、指示体12を操作する人の意図をより的確に反映して指示された位置を特定できる。
また、プロジェクター11は、撮影画像から検出された指示体12の画像と指示体12の影の画像との距離に基づいて、指示体12がスクリーンSCに接したか否かを判別するので、指示体12の形状に関わらず、指示された位置を正確に特定できる。
As described above, in the display system 10 according to the embodiment to which the present invention is applied, the control unit 103 of the projector 11 acquires an image (original image) acquired by the display control unit 107 based on the image information input from the I / F unit 101. Image) and a captured image obtained by photographing the image projected on the screen SC by the projector 11, and based on the acquired original image, the image of the indicator 12 indicating the position on the screen SC and the indicator 12 Since the shadow image is detected from the photographed image, the indication position and the indication state indicated by the indicator 12 are specified based on the relative position between the detected image of the indicator 12 and the shadow image of the indicator 12. Along with the position indicated by the body 12, it is possible to specify an instruction state such as whether or not the indicator 12 is in contact with the screen SC. Thereby, regardless of the shape of the indicator 12, the indicated position can be accurately specified. In addition, it is possible to more accurately reflect the intention of the person who operates the indicator 12 and specify the indicated position.
Further, the projector 11 determines whether or not the indicator 12 is in contact with the screen SC based on the distance between the image of the indicator 12 detected from the captured image and the shadow image of the indicator 12. Regardless of the shape of the body 12, the indicated position can be accurately specified.

また、プロジェクター11は、スクリーンSCの上方から撮像装置5により撮影された撮影画像を取得して、指示体12の指示位置及び指示状態を判別するので、スクリーンSCの正面に撮影装置等を設置する必要がなく、画像を投射するプロジェクターの設置が容易になるという利点がある。この効果は、スクリーンSCの上方に限らず、スクリーンSCの正面を除く他の方向(例えば、上下左右及び斜め方向を含む)から撮影する場合であっても同様である。言い換えれば、撮像装置5のレンズの軸線がスクリーンSCに対して垂直になる方向(正面)でなければ、どの方向から撮影しても同様の効果が得られる。なお、スクリーンSCが不透明であってスクリーンSCの背面から指示体12を撮影できない場合には、撮影方向は、スクリーンSCの前面側において、スクリーンSCの正面を除く方向、と定義される。
また、撮像装置5がプロジェクター11とは別体であり、この撮像装置5の撮影画像が有線または無線の通信路を介して制御部103に入力される構成としても同様の効果が得られる。この場合、撮像装置5は、正面以外の方向からスクリーンSCを撮影するように配置すればよい。
Further, the projector 11 obtains a photographed image photographed by the imaging device 5 from above the screen SC and discriminates the designated position and the designated state of the indicator 12, so that a photographing device or the like is installed in front of the screen SC. There is no need, and there is an advantage that it is easy to install a projector that projects an image. This effect is not limited to the upper side of the screen SC, but is the same even when shooting from other directions (including, for example, up / down / left / right and diagonal directions) except the front of the screen SC. In other words, the same effect can be obtained from any direction as long as the axis of the lens of the imaging device 5 is not in a direction (front) that is perpendicular to the screen SC. When the screen SC is opaque and the indicator 12 cannot be photographed from the back surface of the screen SC, the photographing direction is defined as a direction excluding the front surface of the screen SC on the front surface side of the screen SC.
Further, the same effect can be obtained when the imaging device 5 is separate from the projector 11 and the captured image of the imaging device 5 is input to the control unit 103 via a wired or wireless communication path. In this case, the imaging device 5 may be arranged so as to capture the screen SC from a direction other than the front.

表示システム10では、制御部103が識別可能な指示体パターン105Aが付されたマーカー12Aを指示体12として用いることが可能であり、このマーカー12Aを用いた場合、撮影画像から指示体パターン105Aを検出することで指示体12の画像を容易に検出できる。また、指示体12の画像と指示体12の影との区別が容易になることから指示体12の影の画像を検出することも容易になる。これにより、指示位置を特定する処理の高速化を図ることができる。   In the display system 10, the marker 12 </ b> A with the indicator pattern 105 </ b> A that can be identified by the control unit 103 can be used as the indicator 12. When this marker 12 </ b> A is used, the indicator pattern 105 </ b> A is extracted from the captured image. By detecting, the image of the indicator 12 can be easily detected. Further, since it becomes easy to distinguish the image of the indicator 12 from the shadow of the indicator 12, it is also easy to detect the shadow image of the indicator 12. As a result, it is possible to speed up the process of specifying the designated position.

なお、指示体12として、マーカー12Aを装着しないで位置入力操作を行うことも可能である。
この場合、制御部103は、撮影画像と投射画像との差分の画像から、指示体12としての手指の画像と、手指の影の画像とを抽出する。手指の影の画像は上記の実施形態と同様に輝度のしきい値を用いて検出可能である。これに対し、手指の画像は、例えば、手指の形状として考え得る形状のデータを予め複数記憶しておき、この記憶した形状と近い画像を撮影画像から検出する方法や、手指の色の基準データを記憶しておき、この色に近似する色を撮影画像から検出する方法がある。この場合の手指の色は、予め記憶した色に限らず、撮影画像を構成する各画素の色を統計的に処理して、手指の色の基準データを決定してもよい。
In addition, it is also possible to perform a position input operation without attaching the marker 12A as the indicator 12.
In this case, the control unit 103 extracts a finger image as the indicator 12 and a shadow image of the finger from the difference image between the captured image and the projection image. The shadow image of the finger can be detected using the threshold value of luminance as in the above embodiment. On the other hand, the image of a finger stores, for example, a plurality of shape data that can be considered as the shape of a finger in advance, and a method of detecting an image close to the stored shape from a captured image, or finger color reference data Is stored, and a color similar to this color is detected from the photographed image. The color of the finger in this case is not limited to the color stored in advance, and the reference data of the color of the finger may be determined by statistically processing the color of each pixel constituting the captured image.

また、上記実施形態では、プロジェクター11がスクリーンSCの上方から投射可能なものであり、スクリーンSCへの画像の投射を行う機能と、スクリーンSCを撮影する機能とを有する構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、プロジェクターとは別体の撮影装置を用いる構成とすることも可能である。   In the above-described embodiment, the projector 11 can project from above the screen SC, and a configuration having a function of projecting an image on the screen SC and a function of photographing the screen SC will be described as an example. However, the present invention is not limited to this, and a configuration using an imaging device separate from the projector may be employed.

[第2の実施形態]
図8は、本発明を適用した第2の実施形態に係る表示システム10Aの構成を示す図である。
表示システム10Aは、壁面に設けられたスクリーンSCに対して、下方から画像を投射するプロジェクター11Aを備え、PC13がプロジェクター11Aに送信する静止画像または動画像を投射するシステムである。プロジェクター11AはスクリーンSCの正面の床に台座を介して載置され、スクリーンSCの位置にあわせて所定のあおり角で上向きに投射光を投射する。
PC13は上記第1の実施形態と同様に構成され、また、プロジェクター11Aは、プロジェクター11(図3)のうち撮像装置5を除く各部を備えて構成される。上記第1の実施形態と同様に構成される構成部については図示及び説明を省略する。
[Second Embodiment]
FIG. 8 is a diagram showing a configuration of a display system 10A according to the second embodiment to which the present invention is applied.
The display system 10A is a system that includes a projector 11A that projects an image from below on a screen SC provided on a wall surface, and projects a still image or a moving image that the PC 13 transmits to the projector 11A. The projector 11A is placed on the floor in front of the screen SC via a pedestal, and projects projection light upward at a predetermined tilt angle in accordance with the position of the screen SC.
The PC 13 is configured in the same manner as in the first embodiment, and the projector 11A is configured to include each part of the projector 11 (FIG. 3) except for the imaging device 5. The illustration and description of the components configured in the same manner as in the first embodiment are omitted.

表示システム10Aは、また、スクリーンSCの上方に、アーム14を介して取り付けられた撮像装置5Aを備えている。撮像装置5Aは、第1の実施形態のプロジェクター11が備える撮像装置5と同様に、撮像光学系51及び撮像部52を備え、撮像部52は、有線又は無線の通信路により、プロジェクター11Aの制御部103またはPC13に接続される。
撮像装置5Aは、プロジェクター11Aの制御部103またはPC13から送信される制御情報に従って、スクリーンSCを上方から撮影する。そして、撮像装置5Aは、撮影画像のデータを、プロジェクター11Aに、或いはPC13を介してプロジェクター11Aに送信する。
The display system 10A also includes an imaging device 5A attached via an arm 14 above the screen SC. The imaging device 5A includes an imaging optical system 51 and an imaging unit 52, like the imaging device 5 included in the projector 11 of the first embodiment, and the imaging unit 52 controls the projector 11A through a wired or wireless communication path. Connected to the unit 103 or the PC 13.
The imaging device 5A captures the screen SC from above according to control information transmitted from the control unit 103 or the PC 13 of the projector 11A. Then, the imaging device 5A transmits captured image data to the projector 11A or to the projector 11A via the PC 13.

表示システム10Aは、位置入力モードを実行可能であり、この位置入力モードではスクリーンSC上で指示された位置を特定する。すなわち、スクリーンSCの前に立つ操作者が、指示体12としての自分の手指をスクリーンSC上で移動させ、特定の位置を指し示した場合に、手指により指し示された位置の座標を検出し、その座標で手指がスクリーンSCに接触しているか否かを判別する。
プロジェクター11Aは、位置入力モードにおいて撮像装置5Aにより周期的に撮影を実行させ、撮影画像のデータを取得するとともに、撮影時にスクリーンSCに投射していた投射画像のデータを、内蔵するフレームメモリー115から取得する。そして、撮影画像と投射画像とを元に、上記第1の実施形態(図6)と同様の処理を行って、指示体12による指示位置と指示状態とを判別する。
The display system 10A can execute the position input mode, and in this position input mode, the position designated on the screen SC is specified. That is, when an operator standing in front of the screen SC moves his / her finger as the indicator 12 on the screen SC and points to a specific position, the coordinates of the position pointed to by the finger are detected. It is determined whether or not the finger is in contact with the screen SC at the coordinates.
In the position input mode, the projector 11A causes the imaging device 5A to periodically perform shooting to acquire shot image data, and the projection image data projected on the screen SC at the time of shooting from the built-in frame memory 115. get. Then, based on the photographed image and the projected image, the same processing as in the first embodiment (FIG. 6) is performed to determine the indication position and the indication state by the indicator 12.

本第2の実施形態では、プロジェクター11Aと撮像装置5Aとが別体として構成されているが、上記第1の実施形態と同様の効果がある。また、スクリーンSCの下方からプロジェクター11Aで画像を投射し、指示体12と、投射光による指示体12の影とを撮像装置5Aにより上方から撮影する。つまり、撮影方向と投射方向とが異なる構成とすれば、投射方向に依らず撮影方向を選択できるので、指示体12がスクリーンSCに接しているか否かを検出するために最適な条件の環境を実現できる。このため、指示体12による指示状態を正確に、かつ速やかに判定できる。また、表示システム10Aは、比較的軽量の撮像装置5Aを壁面に固定する一方、スクリーンSCの正面に設置され、正面から投射するタイプのプロジェクターを流用できるので、容易に低コストで実現できるという利点がある。
また、本第2の実施形態の構成において、撮像装置5Aの位置はスクリーンSCの上方に限定されず、スクリーンSCの左右の側方から撮影するものであってもよい。
In the second embodiment, the projector 11 </ b> A and the imaging device 5 </ b> A are configured as separate bodies, but there are the same effects as in the first embodiment. Further, an image is projected from the lower side of the screen SC by the projector 11A, and the indicator 12 and the shadow of the indicator 12 by the projected light are photographed from above by the imaging device 5A. In other words, if the shooting direction and the projection direction are different, the shooting direction can be selected regardless of the projection direction. Therefore, an environment having an optimal condition for detecting whether or not the indicator 12 is in contact with the screen SC can be selected. realizable. For this reason, the indication state by the indicator 12 can be determined accurately and promptly. In addition, the display system 10A fixes the relatively light-weight imaging device 5A to the wall surface, and is installed on the front surface of the screen SC and can be diverted from a type of projector that projects from the front surface. Therefore, the display system 10A can be easily realized at low cost. There is.
In the configuration of the second embodiment, the position of the imaging device 5A is not limited to the upper side of the screen SC, and may be taken from the left and right sides of the screen SC.

なお、上述した各実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、上記実施形態とは異なる態様として本発明を適用することも可能である。例えば、上記実施形態においては、プロジェクター11、11Aが指示体12により指示された位置を検出し、指示状態を判定し、その結果を示す情報をPC13に送信する構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、プロジェクター11が投射した投射画像と撮像装置5、5Aが撮影した撮影画像のデータをPC13が取得し、解析し、PC13が指示位置と指示状態とを特定する構成としてもよい。
また、上記実施形態では、制御部103が撮像装置5の撮影画像と投射画像とを比較して差分を抽出する処理に先だって、撮影画像の形状が投射画像の形状と適合するように補正する構成について説明したが、本発明はこれに限定されるものではなく、撮影画像を補正せずに表示制御部107から取得した画像を撮影画像の歪みの状態に合わせて補正してもよい。
Each of the above-described embodiments is merely an example of a specific mode to which the present invention is applied, and the present invention is not limited thereto. The present invention can be applied as a mode different from the above-described embodiment. For example, in the above embodiment, the projector 11, 11 </ b> A has been described by taking as an example a configuration in which the position indicated by the indicator 12 is detected, the indication state is determined, and information indicating the result is transmitted to the PC 13. The present invention is not limited to this, and the PC 13 acquires and analyzes the projection image projected by the projector 11 and the captured image data captured by the imaging devices 5 and 5A. It is good also as a structure which specifies.
In the above-described embodiment, the control unit 103 compares the captured image of the imaging device 5 with the projected image and extracts the difference, and corrects the captured image so that the shape of the captured image matches the shape of the projected image. However, the present invention is not limited to this, and the image acquired from the display control unit 107 may be corrected according to the distortion state of the captured image without correcting the captured image.

また、上記実施形態では、光源が発した光を変調する光変調装置として、RGBの各色に対応した3枚の透過型または反射型の液晶パネル32を用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、例えば、1枚の液晶パネルとカラーホイールを組み合わせた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。ここで、光変調装置として1枚のみの液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な光変調装置であれば問題なく採用できる。   In the above embodiment, the light modulation device that modulates the light emitted from the light source has been described by taking as an example a configuration using three transmissive or reflective liquid crystal panels 32 corresponding to each color of RGB. However, the present invention is not limited to this, for example, a system using one liquid crystal panel and a color wheel, a system using three digital mirror devices (DMD), a single digital mirror device and a color. You may comprise by the DMD system etc. which combined the wheel. Here, when only one liquid crystal panel or DMD is used as the light modulation device, a member corresponding to a combining optical system such as a cross dichroic prism is unnecessary. In addition to the liquid crystal panel and DMD, any light modulation device capable of modulating light emitted from the light source can be employed without any problem.

また、上記実施形態では、指示体12が操作者の手指である構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、スクリーンSC上で位置を指示することができる任意の部材を指示体12として使用することができる。例えば、スクリーンSCの任意の位置を指示することができる指示棒等を指示体12として使用しても良い。   In the above embodiment, the configuration in which the indicator 12 is the operator's finger has been described as an example. However, the present invention is not limited to this, and the position can be indicated on the screen SC. Any member can be used as the indicator 12. For example, an indicator bar or the like that can indicate an arbitrary position on the screen SC may be used as the indicator 12.

さらに、上記実施形態では、複数の入力ソースからI/F部101に入力される入力画像を表示制御部107によって選択し、画像処理部113によって処理する構成として説明したが、本発明はこれに限定されるものではなく、この一連の処理を、プロジェクター11に外部接続されたPC13等の画像供給装置が実行する構成としてもよい。この場合の画像供給装置は、プロジェクター11が備える制御部103、記憶部105、表示制御部107及び画像処理部113の機能を備えるものとすることができる。また、本発明は、このような装置が実行するプログラムとして実現することも可能である。これらの構成では、プロジェクター11は、上記画像供給装置から入力される画像をスクリーンSCに投射するものであればよい。また、上記実施形態では、PC13が、プロジェクター11に画像情報を出力する構成としたが、プロジェクター11が内蔵する画像データを用いて画像を投射してもよい。さらに、上記実施形態では、プロジェクター11が指示体12の指示位置に関する位置情報をPC13に送信し、PC13が、指示された位置に投射画像に重ねて描画を行って新たな投射用の原画像を作成する等の処理を行って、位置入力操作の内容を投射画像に反映させる構成としたが、この一連の処理をプロジェクター11のみで行ってもよい。すなわち、プロジェクター11が、指示体12の指示位置に基づいて新たな画像を生成して投射してもよい。   Further, in the above embodiment, the description has been given of the configuration in which the input control image is selected by the display control unit 107 and processed by the image processing unit 113 from a plurality of input sources. The configuration is not limited, and the series of processes may be executed by an image supply apparatus such as the PC 13 externally connected to the projector 11. In this case, the image supply apparatus can include the functions of the control unit 103, the storage unit 105, the display control unit 107, and the image processing unit 113 included in the projector 11. The present invention can also be realized as a program executed by such an apparatus. In these configurations, the projector 11 only needs to project an image input from the image supply device onto the screen SC. In the above-described embodiment, the PC 13 is configured to output image information to the projector 11, but an image may be projected using image data built in the projector 11. Further, in the above-described embodiment, the projector 11 transmits position information related to the indicated position of the indicator 12 to the PC 13, and the PC 13 performs drawing on the projected image so as to superimpose a new original image for projection. Although the processing such as creation is performed to reflect the contents of the position input operation on the projection image, this series of processing may be performed only by the projector 11. That is, the projector 11 may generate and project a new image based on the indication position of the indicator 12.

また、図3に示したプロジェクター11の各機能部は、プロジェクター11の機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。その他、プロジェクター11及び表示システム10の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。   Further, each functional unit of the projector 11 illustrated in FIG. 3 indicates a functional configuration of the projector 11, and a specific mounting form is not particularly limited. That is, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to adopt a configuration in which the functions of a plurality of function units are realized by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software. In addition, specific detailed configurations of other parts of the projector 11 and the display system 10 can be arbitrarily changed without departing from the gist of the present invention.

3…投射部、5…撮像装置(撮影手段)、5A…撮像装置、10、10A…表示システム、11、11A…プロジェクター(位置入力装置)、12…指示体、12A…マーカー、13…PC、32…液晶パネル、33…投射光学系、51…撮像光学系、52…撮像部、103…制御部(画像取得手段、指示体画像検出手段、及び、指示状態判別手段)、105…記憶部、105A…指示体パターン、115…フレームメモリー、200、201、202…撮影画像、205…校正用パターン、SC…スクリーン(投射面)。   DESCRIPTION OF SYMBOLS 3 ... Projection part, 5 ... Imaging device (imaging means), 5A ... Imaging device, 10, 10A ... Display system, 11, 11A ... Projector (position input device), 12 ... Indicator, 12A ... Marker, 13 ... PC, 32 ... Liquid crystal panel, 33 ... Projection optical system, 51 ... Imaging optical system, 52 ... Imaging unit, 103 ... Control unit (image acquisition means, indicator image detection means, and instruction state determination means), 105 ... Storage unit, 105A ... indicator pattern, 115 ... frame memory, 200, 201, 202 ... photographed image, 205 ... calibration pattern, SC ... screen (projection surface).

Claims (7)

原画像と、前記原画像に基づいてプロジェクターが投射面に投射した画像を撮影して取得された撮影画像とを取得する画像取得手段と、
前記画像取得手段により取得した前記原画像をもとに、前記投射面上の位置を指示する指示体の画像と前記指示体の影の画像とを前記撮影画像から検出する指示体画像検出手段と、
前記指示体画像検出手段により検出した前記指示体の画像と前記指示体の影の画像との相対位置に基づき、前記指示体が指示する指示位置および指示状態を特定する指示状態判別手段と、
を備えることを特徴とする位置入力装置。
Image acquisition means for acquiring an original image and a captured image acquired by capturing an image projected on a projection surface by a projector based on the original image;
Based on the original image acquired by the image acquisition means, an indicator image detection means for detecting an image of a pointer indicating the position on the projection surface and a shadow image of the pointer from the captured image; ,
Based on the relative position between the image of the indicator detected by the indicator image detection means and the shadow image of the indicator, an instruction state determination means for specifying an instruction position and an instruction state indicated by the indicator;
A position input device comprising:
前記指示状態判別手段は、前記指示体画像検出手段により検出した前記指示体の画像と前記指示体の影の画像との距離に基づいて、前記指示体が前記投射面に接したか否かを判別することを特徴とする請求項1記載の位置入力装置。   The indication state determination unit determines whether the indicator is in contact with the projection surface based on a distance between the indicator image detected by the indicator image detection unit and a shadow image of the indicator. The position input device according to claim 1, wherein the position input device is discriminated. 前記画像取得手段は、前記投射面の正面以外の方向から撮影された撮影画像を取得することを特徴とする請求項1または2記載の位置入力装置。   The position input device according to claim 1, wherein the image acquisition unit acquires a captured image captured from a direction other than the front surface of the projection surface. 前記指示体には前記指示体画像検出手段が識別可能な所定のパターンが付され、前記指示体画像検出手段は、前記画像取得手段により取得された撮影画像から前記所定のパターンを検出することを特徴とする請求項1から3のいずれかに記載の位置入力装置。   A predetermined pattern that can be identified by the pointer image detection unit is attached to the pointer, and the pointer image detection unit detects the predetermined pattern from the captured image acquired by the image acquisition unit. The position input device according to claim 1, wherein the position input device is characterized by the following. プロジェクターであって、
原画像に基づいて投射面に画像を投射する投射手段と、
前記投射手段が前記投射面に投射した画像を撮影する撮影手段と、
前記原画像と、前記原画像に基づいて当該プロジェクターが投射した画像を前記撮影手段が撮影した撮影画像とを取得する画像取得手段と、
前記画像取得手段により取得した前記原画像をもとに、前記投射面上の位置を指示する指示体の画像と前記指示体の影の画像とを前記撮影画像から検出する指示体画像検出手段と、
前記指示体画像検出手段により検出した前記指示体の画像と前記指示体の影の画像との相対位置に基づき、前記指示体が指示する指示位置および指示状態を特定する指示状態判別手段と、
を備えることを特徴とするプロジェクター。
A projector,
Projection means for projecting an image on the projection surface based on the original image;
A photographing means for photographing an image projected by the projection means on the projection surface;
Image acquisition means for acquiring the original image, and a captured image obtained by capturing the image projected by the projector based on the original image;
Based on the original image acquired by the image acquisition means, an indicator image detection means for detecting an image of a pointer indicating the position on the projection surface and a shadow image of the pointer from the captured image; ,
Based on the relative position between the image of the indicator detected by the indicator image detection means and the shadow image of the indicator, an instruction state determination means for specifying an instruction position and an instruction state indicated by the indicator;
A projector comprising:
原画像に基づいて投射面に画像を投射し、
前記原画像に基づいて前記投射面に投射した画像を撮影して撮影画像を取得し、
前記原画像をもとに、前記投射面上の位置を指示する指示体の画像と前記指示体の影の画像とを前記撮影画像から検出し、
検出した前記指示体の画像と前記指示体の影の画像との相対位置に基づき、前記指示体が指示する指示位置および指示状態を特定すること、
を特徴とするプロジェクターの制御方法。
Project an image on the projection surface based on the original image,
Taking an image projected on the projection surface based on the original image to obtain a captured image,
Based on the original image, an image of a pointer that indicates a position on the projection surface and a shadow image of the pointer are detected from the captured image;
Specifying an indication position and an indication state indicated by the indicator based on a relative position between the detected indicator image and a shadow image of the indicator;
A projector control method characterized by the above.
投射面に画像を投射するプロジェクターと、前記投射面を撮影する撮影装置とを備えて構成される表示システムであって、
原画像と、前記原画像に基づいて前記プロジェクターが前記投射面に投射した画像を前記撮影装置が撮影して取得された撮影画像とを取得する画像取得手段と、
前記画像取得手段により取得した前記原画像をもとに、前記投射面上の位置を指示する指示体の画像と前記指示体の影の画像とを前記撮影画像から検出する指示体画像検出手段と、
前記指示体画像検出手段により検出した前記指示体の画像と前記指示体の影の画像との相対位置に基づき、前記指示体が指示する指示位置および指示状態を特定する指示状態判別手段と、
を備えることを特徴とする表示システム。
A display system configured to include a projector that projects an image on a projection surface and a photographing device that photographs the projection surface,
Image acquisition means for acquiring an original image and a captured image acquired by the imaging device capturing an image projected on the projection surface by the projector based on the original image;
Based on the original image acquired by the image acquisition means, an indicator image detection means for detecting an image of a pointer indicating the position on the projection surface and a shadow image of the pointer from the captured image; ,
Based on the relative position between the image of the indicator detected by the indicator image detection means and the shadow image of the indicator, an instruction state determination means for specifying an instruction position and an instruction state indicated by the indicator;
A display system comprising:
JP2011044786A 2011-03-02 2011-03-02 Position input device, projector, control method for projector, and display system Withdrawn JP2012181721A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011044786A JP2012181721A (en) 2011-03-02 2011-03-02 Position input device, projector, control method for projector, and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011044786A JP2012181721A (en) 2011-03-02 2011-03-02 Position input device, projector, control method for projector, and display system

Publications (1)

Publication Number Publication Date
JP2012181721A true JP2012181721A (en) 2012-09-20

Family

ID=47012860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011044786A Withdrawn JP2012181721A (en) 2011-03-02 2011-03-02 Position input device, projector, control method for projector, and display system

Country Status (1)

Country Link
JP (1) JP2012181721A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014069018A1 (en) * 2012-11-05 2014-05-08 Kabushiki Kaisha Toshiba Electronic device and information processing method
JP2014206634A (en) * 2013-04-12 2014-10-30 船井電機株式会社 Electronic apparatus
JP2015159524A (en) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 Projector, display device, and control method of projector
US11061494B2 (en) 2018-03-26 2021-07-13 Seiko Epson Corporation Electronic pen, display system, and method for controlling electronic pen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09512656A (en) * 1994-06-15 1997-12-16 テグリティ・インコーポレイテッド Interactive video display system
JP2008117083A (en) * 2006-11-01 2008-05-22 Sharp Corp Coordinate indicating device, electronic equipment, coordinate indicating method, coordinate indicating program, and recording medium with the program recorded thereon
JP2010112990A (en) * 2008-11-04 2010-05-20 Nikon Corp Projector

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09512656A (en) * 1994-06-15 1997-12-16 テグリティ・インコーポレイテッド Interactive video display system
JP2008117083A (en) * 2006-11-01 2008-05-22 Sharp Corp Coordinate indicating device, electronic equipment, coordinate indicating method, coordinate indicating program, and recording medium with the program recorded thereon
JP2010112990A (en) * 2008-11-04 2010-05-20 Nikon Corp Projector

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014069018A1 (en) * 2012-11-05 2014-05-08 Kabushiki Kaisha Toshiba Electronic device and information processing method
JP2014092715A (en) * 2012-11-05 2014-05-19 Toshiba Corp Electronic equipment, information processing method, and program
JP2014206634A (en) * 2013-04-12 2014-10-30 船井電機株式会社 Electronic apparatus
JP2015159524A (en) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 Projector, display device, and control method of projector
US11061494B2 (en) 2018-03-26 2021-07-13 Seiko Epson Corporation Electronic pen, display system, and method for controlling electronic pen

Similar Documents

Publication Publication Date Title
JP6064319B2 (en) Projector and projector control method
US9016872B2 (en) Projector and method for projecting image from projector
JP6398248B2 (en) Position detection system and method for controlling position detection system
JP6417690B2 (en) Projector, display device, and projector control method
JP6343910B2 (en) Projector and projector control method
JP6349838B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
US10431131B2 (en) Projector and control method for projector
JP6326895B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2013134661A (en) Display device, projector, and display system
JP2013064917A (en) Display device, projector, and display method
JP2013140533A (en) Display device, projector, display system, and method of switching device
JP6330292B2 (en) Projector and projector control method
JP5970700B2 (en) Projector, projector control method, program, and projection system
JP6562124B2 (en) Position detection system and method for controlling position detection system
JP2015158885A (en) Position detection device, projector, position detection system, and control method of position detection device
EP2916201B1 (en) Position detecting device and position detecting method
JP2012194424A (en) Projector and control method for projector
JP2012181721A (en) Position input device, projector, control method for projector, and display system
JP6269801B2 (en) Projector and projector control method
JP6273671B2 (en) Projector, display system, and projector control method
JP6569259B2 (en) POSITION DETECTION DEVICE, DISPLAY DEVICE, POSITION DETECTION METHOD, AND DISPLAY METHOD
US10474020B2 (en) Display apparatus and method for controlling display apparatus to display an image with an orientation based on a user&#39;s position
JP2018054880A (en) Display device, information processing device, and information processing method
JP6291912B2 (en) Position detection apparatus and position detection method
JP6291911B2 (en) Position detection apparatus and position detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140916

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20141111