JP2008287142A - Image projector - Google Patents

Image projector Download PDF

Info

Publication number
JP2008287142A
JP2008287142A JP2007133879A JP2007133879A JP2008287142A JP 2008287142 A JP2008287142 A JP 2008287142A JP 2007133879 A JP2007133879 A JP 2007133879A JP 2007133879 A JP2007133879 A JP 2007133879A JP 2008287142 A JP2008287142 A JP 2008287142A
Authority
JP
Japan
Prior art keywords
image
gesture
projection
light
control signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007133879A
Other languages
Japanese (ja)
Inventor
Hiromasa Takahashi
宏征 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2007133879A priority Critical patent/JP2008287142A/en
Publication of JP2008287142A publication Critical patent/JP2008287142A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image projector in which reduction in the visibility of an image projected onto a projection surface is prevented and further, the detection sensitivity of the gesture of an operator can be improved by making it possible to detect the gesture of the operator made in a predetermined direction different from the projection direction of image light, thereby detecting the gesture of the operator, even when the interval between a projector and the projection surface is small. <P>SOLUTION: The image projector 1 for modulating light from a light source into the image light by an optical modulation element, to project the image light through an image forming optical system and display the image on the projection surface 20, is configured to include a gesture detecting means 13 which can detect the gesture JS of the operator OP made in the predetermined direction different from the projection direction D1 of the image light, a detection range setting means for setting a range where the gesture can be detected by the gesture detecting means 13 and a control signal producing means which produces a control signal, based on gesture information as the result of the detection by the gesture detecting means 13. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、スクリーン等の投影面に映像光を投影して画像表示を行う、例えば、プロジェクターなどの画像投影装置に関し、特に、操作者のジェスチャを検出して所定の動作制御を行う画像投影装置に関する。   The present invention relates to an image projection apparatus such as a projector that projects image light onto a projection surface such as a screen, and more particularly to an image projection apparatus that detects a gesture of an operator and performs predetermined operation control. About.

従来のプロジェクターには、CCD(charge-coupled device)などの撮像手段によって、投影面上における操作者のジェスチャ又は光ポインタのポインティング光等を検出し、この検出結果に基づいてプロジェクタの動作制御を行うものがあった。   In a conventional projector, an operator's gesture on the projection surface or pointing light of an optical pointer on the projection surface is detected by an imaging unit such as a CCD (charge-coupled device), and operation control of the projector is performed based on the detection result. There was a thing.

例えば、特開2005−141151号(特許文献1参照)では、投影面を撮像する撮像手段と、この撮像手段が撮像した画像を認識する画像認識手段と、プロジェクタの各種機能を設定可能とするための機能設定情報を生成可能な投影画像生成手段とを備えたプロジェクタが提案されている。   For example, in Japanese Patent Application Laid-Open No. 2005-141151 (see Patent Document 1), an imaging unit that images a projection plane, an image recognition unit that recognizes an image captured by the imaging unit, and various functions of the projector can be set. There has been proposed a projector provided with projection image generation means capable of generating the function setting information.

上記構成からなるプロジェクタでは、投影面上に投影された機能設定情報に操作者が手をかざすといったジェスチャを撮像手段で撮像し、このジェスチャを画像認識手段で判別することにより、プロジェクタの機能設定を行っていた。   In the projector having the above-described configuration, the function setting information of the projector is set by capturing an image of a gesture such as an operator holding a hand over the function setting information projected on the projection plane, and determining the gesture by the image recognition unit. I was going.

また、特開2005−148560号(特許文献2参照)では、映像光をスクリーンに投影して画像を表示する投影手段と、ポインティング光を投光してスクリーン上の投影画像にポイント像を重合表示させる光ポインタと、スクリーンを撮像する撮像手段と、撮像手段が撮像した投影画像からポイント像を抽出し、スクリーン上のポインティング位置を検出する検出手段と、ポインティング位置に基づいて、スクリーン上の画像にポイント強調像を重合表示させる処理手段とを備えたプロジェクタが提案されている。   In Japanese Patent Application Laid-Open No. 2005-148560 (see Patent Document 2), a projection unit that projects image light onto a screen and displays an image, and a point image is superimposed on the projected image on the screen by projecting pointing light. An optical pointer to be picked up, an image pickup means for picking up an image on the screen, a detection means for extracting a point image from a projected image picked up by the image pickup means and detecting a pointing position on the screen, and an image on the screen based on the pointing position. There has been proposed a projector provided with processing means for superimposing and displaying a point-emphasized image.

上記構成からなるプロジェクタでは、スクリーン上の投影画像にポイント強調像を重合表示させることができるので、投影画像の一部を強調するために光スポットを同じ位置で何度も回転走査させる必要がなくなり、説明者の負担軽減を図ることができる。
特開2005−141151号公報 特開2005−148560号公報
In the projector having the above configuration, a point-enhanced image can be superimposed on the projected image on the screen, so that it is not necessary to rotate and scan the light spot at the same position many times in order to emphasize a part of the projected image. The burden on the explainer can be reduced.
Japanese Patent Laid-Open No. 2005-141151 JP 2005-148560 A

ところが、上述した特許文献1のプロジェクタは、スクリーンなどの投影面の手前で行われる操作者のジェスチャを撮像手段で検出する構成となっていたので、投影面への近接投影が可能なプロジェクタのように、プロジェクタと投影面との間隔が狭くて人が入ることができないような場合には、操作者のジェスチャを検出することができないという問題があった。   However, the above-described projector disclosed in Patent Document 1 is configured to detect an operator's gesture performed in front of a projection surface such as a screen by an imaging unit, and thus is a projector capable of proximity projection on the projection surface. In addition, when the distance between the projector and the projection surface is too small for a person to enter, there is a problem that the gesture of the operator cannot be detected.

また、上述した特許文献1のプロジェクタのように、操作者が投影面に手をかざすといったジェスチャを行うと、投影面に投影された画像の一部が操作者の手で影になってしまい投影画像の視認性を低下させるという問題もあった。   In addition, as in the projector of Patent Document 1 described above, when the operator performs a gesture such as holding the hand over the projection surface, a part of the image projected on the projection surface becomes a shadow by the operator's hand. There was also a problem of reducing the visibility of the image.

さらに、上述した特許文献1及び2のいずれのプロジェクタも、撮像手段で投影面を撮像する構成となっていたので、常に撮像手段の視野に明るい投影画像が入ってしまい、撮像手段の感度が低下してしまうという問題もあった。   Furthermore, since both projectors of Patent Documents 1 and 2 described above are configured to image the projection plane with the imaging unit, a bright projected image always enters the field of view of the imaging unit, and the sensitivity of the imaging unit is reduced. There was also the problem of doing.

本発明は上記問題点に鑑みてなされたものであり、映像光の投影方向とは異なる所定方向において行われた操作者のジェスチャを検出可能とし、プロジェクタと投影面との間隔が狭い場合でも操作者のジェスチャを検出することができ、投影面に投影された画像の視認性を低下させることなく、さらに、操作者のジェスチャの検出感度を向上させることができる画像投影装置の提供を目的とする。   The present invention has been made in view of the above problems, and can detect an operator's gesture performed in a predetermined direction different from the projection direction of image light, and can operate even when the distance between the projector and the projection surface is narrow. An object of the present invention is to provide an image projection apparatus that can detect a user's gesture and can further improve the detection sensitivity of the operator's gesture without reducing the visibility of the image projected on the projection plane. .

上記目的を達成するために、本発明の画像投影装置は、光源からの光を光変調素子により映像光に変調し、結像光学系を介して前記映像光を投影し、投影面に画像表示を行う画像投影装置であって、前記映像光の投影方向とは異なる所定方向において行われた操作者のジェスチャを検出することが可能なジェスチャ検出手段と、前記ジェスチャ検出手段によるジェスチャの検出可能範囲を定めるための検出範囲設定手段と、前記ジェスチャ検出手段の検出結果であるジェスチャ情報に基づいて制御信号を生成する制御信号生成手段とを備えた構成としてある。   In order to achieve the above object, an image projection apparatus of the present invention modulates light from a light source into image light by a light modulation element, projects the image light through an imaging optical system, and displays an image on a projection surface. An image projection apparatus that performs gesture detection means capable of detecting an operator's gesture performed in a predetermined direction different from the projection direction of the video light, and a gesture detectable range by the gesture detection means Detection range setting means for determining the control signal, and control signal generation means for generating a control signal based on gesture information which is a detection result of the gesture detection means.

このような構成によれば、ジェスチャ検出手段が、映像光の投影方向とは異なる所定方向において行われた操作者のジェスチャを検出するので、画像投影装置と投影面との間隔が狭い場合でも操作者のジェスチャを検出することが可能となる。また、操作者のジェスチャが映像光の投影方向とは異なる所定方向において行われるので、投影面に投影された画像が操作者の手で影になることがなく、投影画像の視認性を低下させることもない。さらに、ジェスチャの検出可能範囲内に投影面が含まれないようにすれば、ジェスチャ検出手段の視野から明るい投影画像を排除することができ、ジェスチャ検出手段の感度を向上させることが可能となる。   According to such a configuration, since the gesture detection unit detects the operator's gesture performed in a predetermined direction different from the projection direction of the image light, the operation can be performed even when the distance between the image projection device and the projection surface is narrow. It is possible to detect a person's gesture. Further, since the operator's gesture is performed in a predetermined direction different from the projection direction of the image light, the image projected on the projection surface is not shadowed by the operator's hand, and the visibility of the projected image is reduced. There is nothing. Further, if the projection plane is not included in the gesture detectable range, a bright projection image can be excluded from the visual field of the gesture detection unit, and the sensitivity of the gesture detection unit can be improved.

ここで、「ジェスチャ検出手段」には、操作者の身振り、手振り、しぐさを検出可能な手段が広く含まれ、例えば、CCDなどの撮像素子又は反射センサ、レンズ、A/D変換器等により構成される。また、ジェスチャが行われる「映像光の投影方向とは異なる所定方向」とは、映像光の投影方向以外の方向が広く含まれ、例えば、映像光の投影方向を「前方向」とした場合の「左右方向」、「後方向」又は「上下方向」が該当する。   Here, the “gesture detection means” includes a wide range of means capable of detecting an operator's gesture, hand gesture, and gesture, and includes, for example, an imaging element such as a CCD or a reflection sensor, a lens, an A / D converter, and the like. Is done. In addition, the “predetermined direction different from the projection direction of the image light” in which the gesture is performed includes a wide range of directions other than the projection direction of the image light. For example, when the projection direction of the image light is set to the “front direction” “Left-right direction”, “rear direction” or “up-down direction” corresponds to this.

「検出範囲設定手段」には、ジェスチャ検出手段によるジェスチャの検出可能範囲を確定する種々の手段が広く含まれ、例えば、ジェスチャ検出手段がCCDなどの撮像素子の場合には、この撮像素子の表面に像を結ばせるための結像レンズが該当し、また、ジェスチャ検出手段が反射センサの場合には、投光素子及び受光素子の焦点を合わせる焦点レンズが該当する。   The “detection range setting means” includes a wide variety of means for determining a detectable range of gestures by the gesture detection means. For example, when the gesture detection means is an image sensor such as a CCD, the surface of the image sensor When the gesture detection means is a reflection sensor, a focusing lens for focusing the light projecting element and the light receiving element is applicable.

「制御信号生成手段」は、ジェスチャ検出手段が検出したジェスチャ情報を受信して、このジェスチャ情報に対応する制御信号を生成する。この制御信号は、画像投影装置の内部又は外部の制御部によって受信され、この制御部が、受信した制御信号に基づいて画像投影装置の所定の動作制御を実行する。また、制御信号生成手段によって生成される「制御信号」には、画像投影装置に所定の動作制御を実行させるための信号が広く含まれ、画像表示の所定操作に関する信号と、画像表示以外の所定操作に関する信号とが含まれる。   The “control signal generator” receives the gesture information detected by the gesture detector and generates a control signal corresponding to the gesture information. The control signal is received by an internal or external control unit of the image projection apparatus, and the control unit executes predetermined operation control of the image projection apparatus based on the received control signal. In addition, the “control signal” generated by the control signal generation unit widely includes signals for causing the image projection apparatus to perform predetermined operation control, and includes signals related to predetermined operations for image display and predetermined other than image display. Operation-related signals.

好ましくは、上述した本発明の画像投影装置において、前記ジェスチャ検出手段におけるジェスチャの検出可能な所定方向を、前記映像光の投影方向と交差する方向としてもよい。   Preferably, in the above-described image projection apparatus of the present invention, the predetermined direction in which the gesture detection unit can detect the gesture may be a direction intersecting with the projection direction of the video light.

このような構成によれば、ジェスチャ検出手段が、映像光の投影方向と交差する方向において行われた操作者のジェスチャを検出するので、画像投影装置と投影面との間隔が狭い場合でも操作者のジェスチャを検出することが可能となる。例えば、映像光の投影方向を「前方向」とした場合、ジェスチャ検出手段は、画像投影装置の「左右方向」又は「上下方向」において行われた操作者のジェスチャを検出することができ、ジェスチャ検出手段の検出可能範囲と投影面の干渉、及び操作者と投影面の干渉を防止することができる。この結果、ジェスチャ検出手段の感度が向上し、また、投影画像の視認性を低下させることもなくなる。   According to such a configuration, since the gesture detection unit detects the operator's gesture performed in a direction intersecting the projection direction of the image light, the operator can be performed even when the distance between the image projection device and the projection surface is narrow. This gesture can be detected. For example, when the projection direction of the image light is “front direction”, the gesture detection unit can detect the gesture of the operator performed in the “left-right direction” or “up-down direction” of the image projection apparatus. Interference between the detectable range of the detection means and the projection plane, and interference between the operator and the projection plane can be prevented. As a result, the sensitivity of the gesture detection means is improved and the visibility of the projected image is not lowered.

なお、「映像光の投影方向と交差する方向」には、「左右方向」又は「上下方向」といった直交方向に限らず、映像光の投影方向と傾斜角をもって交差するあらゆる方向が含まれる。   The “direction intersecting with the projection direction of the image light” includes not only an orthogonal direction such as “left-right direction” or “vertical direction” but also any direction that intersects with the projection direction of the image light with an inclination angle.

好ましくは、上述した本発明の画像投影装置において、前記ジェスチャ検出手段によるジェスチャの検出可能範囲が、前記投影面に表示される画像の少なくとも一側端部近傍に位置するようにしてもよい。   Preferably, in the above-described image projecting device of the present invention, a gesture detectable range by the gesture detecting unit may be positioned in the vicinity of at least one side edge of the image displayed on the projection plane.

このような構成によれば、画像投影装置が近接プロジェクタである場合でも、投影画像の左右いずれかの一側端部近傍で行われる操作者のジェスチャを検出して、画像投影装置に所定の動作制御を実行させることができる。これにより、操作者は、投影画像の近傍で説明を行いつつ、簡単なジェスチャで画像投影装置をスムーズに操作することができる。   According to such a configuration, even when the image projection apparatus is a proximity projector, an operator's gesture performed near one of the left and right side edges of the projection image is detected, and a predetermined operation is performed on the image projection apparatus. Control can be executed. Thus, the operator can smoothly operate the image projection apparatus with a simple gesture while explaining in the vicinity of the projection image.

好ましくは、上述した本発明の画像投影装置において、前記ジェスチャ検出手段におけるジェスチャの検出可能な所定方向を、前記投影面の反対側の方向にしてもよい。   Preferably, in the image projection apparatus of the present invention described above, the predetermined direction in which the gesture detection unit can detect the gesture may be a direction opposite to the projection plane.

このような構成とした場合も、画像投影装置と投影面との間隔に関係なく操作者のジェスチャを検出することができる。また、投影面に投影された画像が操作者の手で影になることがなく、投影画像の視認性を低下させることもない。さらに、ジェスチャの検出可能範囲内に投影面が含まれることもないので、ジェスチャ検出手段の視野から明るい投影画像を排除することができ、ジェスチャ検出手段の感度を向上させることが可能となる。   Even in such a configuration, an operator's gesture can be detected regardless of the distance between the image projection apparatus and the projection plane. Further, the image projected on the projection plane is not shaded by the operator's hand, and the visibility of the projected image is not reduced. Furthermore, since the projection plane is not included in the detectable range of the gesture, a bright projection image can be excluded from the visual field of the gesture detection unit, and the sensitivity of the gesture detection unit can be improved.

好ましくは、上述した本発明の画像投影装置において、前記ジェスチャ検出手段によるジェスチャの検出可能範囲を、前記映像光の投影距離に応じて変動させ、又は前記映像光の投影距離にかかわらず一定とした構成としてもよい。   Preferably, in the above-described image projection apparatus of the present invention, the detectable range of the gesture by the gesture detection unit is varied according to the projection distance of the image light, or constant regardless of the projection distance of the image light. It is good also as a structure.

ジェスチャ検出手段によるジェスチャの検出可能範囲を映像光の投影距離に応じて変動させる構成を採用した場合は、画像投影装置と投影面との間隔にかかわらず、ジェスチャの検出可能範囲を常に投影画像の端部近傍に位置させることができる。   When the configuration in which the gesture detection range by the gesture detection means is changed according to the projection distance of the image light is adopted, the gesture detection range is always set to the projected image regardless of the interval between the image projection device and the projection plane. It can be located near the end.

一方、画像投影装置が近接プロジェクタである場合は、画像投影装置と投影面との間隔の変動範囲が狭い(例えば、40cm程度)ため、ジェスチャ検出手段によるジェスチャの検出可能範囲を映像光の投影距離にかかわらず一定としても、ジェスチャの検出可能範囲を常に投影画像の端部近傍に位置させることができる。   On the other hand, when the image projection apparatus is a proximity projector, since the variation range of the distance between the image projection apparatus and the projection surface is narrow (for example, about 40 cm), the range in which the gesture detection unit can detect the gesture is the projection distance of the image light. Regardless of the case, the gesture detectable range can always be positioned near the end of the projected image.

上記のいずれの構成を採用した場合でも、操作者は、投影画像の近傍で説明を行いつつ、簡単なジェスチャで画像投影装置をスムーズに操作することができる。   Regardless of which of the above configurations is employed, the operator can smoothly operate the image projection apparatus with a simple gesture while explaining in the vicinity of the projection image.

好ましくは、上述した本発明の画像投影装置において、前記ジェスチャ検出手段が、被写体を撮像する撮像素子を含み、前記検出可能範囲内において行われたジェスチャを撮像することにより検出する構成としてもよい。   Preferably, in the image projection apparatus of the present invention described above, the gesture detection unit may include an imaging element that images a subject, and may be detected by imaging a gesture performed within the detectable range.

このような構成によれば、撮像素子で操作者のジェスチャを画像情報として検出することができ、検出結果であるジェスチャ情報にそれぞれ割り当てた種々の動作制御を実行させることができる。特に、撮像素子の画像情報に基づいて操作者のジェスチャの態様(例えば、操作者が手の指を何本立てたか)を判別することが可能となり、様々なジェスチャに基づく複雑な動作制御が可能となる。   According to such a configuration, the operator's gesture can be detected as image information by the image sensor, and various operation controls respectively assigned to the gesture information as the detection result can be executed. In particular, it is possible to determine the mode of the gesture of the operator (for example, how many fingers of the hand are raised by the operator) based on the image information of the image sensor, and it is possible to perform complex motion control based on various gestures. Become.

好ましくは、上述した本発明の画像投影装置において、前記ジェスチャ検出手段が、反射光を検出する反射センサを含み、前記検出可能範囲内において行われたジェスチャを前記反射光により検出するようにしてもよい。   Preferably, in the image projection device of the present invention described above, the gesture detection unit includes a reflection sensor that detects reflected light, and detects the gesture performed within the detectable range by the reflected light. Good.

このような構成によれば、操作者のジェスチャを反射センサで検出することができ、検出結果であるジェスチャ情報にそれぞれ割り当てた種々の動作制御を実行させることができる。例えば、所定時間内における反射センサのジェスチャの検出回数に基づいて、対応する所定の動作制御を実行させることが可能である。また、反射センサは、LED(light-emitting diode)などの投光素子から出射された光の反射光をフォトセンサで受光するといった簡単な構成であるから、ジェスチャ検出手段の構成の簡単化を図ることもできる。   According to such a configuration, the gesture of the operator can be detected by the reflection sensor, and various operation controls respectively assigned to the gesture information that is the detection result can be executed. For example, it is possible to execute a corresponding predetermined operation control based on the number of times the reflection sensor gesture is detected within a predetermined time. Further, since the reflection sensor has a simple configuration in which reflected light of light emitted from a light projecting element such as an LED (light-emitting diode) is received by the photosensor, the configuration of the gesture detection unit is simplified. You can also

好ましくは、上述した本発明の画像投影装置において、前記制御信号生成手段からの制御信号に基づいて、前記画像表示の所定操作に関する制御処理を実行する画像操作制御手段を備えた構成としてもよい。   Preferably, the image projection apparatus of the present invention described above may include an image operation control unit that executes a control process related to a predetermined operation of the image display based on a control signal from the control signal generation unit.

このような構成によれば、操作者は、ジェスチャ検出手段の検出可能範囲内において、あらかじめ定められた所定のジェスチャを行うことにより、例えば、投影画像の画質調整、スライド送り等の所定操作を容易に行うことが可能となる。   According to such a configuration, the operator can easily perform a predetermined operation such as image quality adjustment of a projected image, slide feed, etc. by performing a predetermined gesture within a detectable range of the gesture detection unit. Can be performed.

好ましくは、上述した本発明の画像投影装置において、前記画像投影装置に有線又は無線により接続された外部端末装置に、前記制御信号生成手段からの制御信号に基づいて、前記画像表示の所定操作に関する制御処理を実行する画像操作制御手段を含めた構成としてもよい。   Preferably, in the above-described image projection device of the present invention, an external terminal device connected to the image projection device by wire or wirelessly relates to a predetermined operation of the image display based on a control signal from the control signal generation means. It is good also as a structure including the image operation control means which performs control processing.

このような構成によれば、例えば、パーソナルコンピュータなどの外部端末装置の制御部を画像操作制御手段として利用し、画像表示の所定操作に関するより高度な動作制御を実行させることが可能となるとともに、画像投影装置において画像表示の所定操作に関する制御処理を行う必要がなくなり、制御系の簡略化を図ることができる。   According to such a configuration, for example, a control unit of an external terminal device such as a personal computer can be used as an image operation control unit, and more advanced operation control regarding a predetermined operation of image display can be executed. It is not necessary to perform control processing related to a predetermined operation for image display in the image projection apparatus, and the control system can be simplified.

本発明の画像投影装置によれば、ジェスチャ検出手段が、映像光の投影方向とは異なる所定方向において行われた操作者のジェスチャを検出するので、画像投影装置と投影面との間隔が狭い場合でも操作者のジェスチャを検出することが可能となる。   According to the image projection apparatus of the present invention, since the gesture detection unit detects the operator's gesture performed in a predetermined direction different from the projection direction of the image light, the distance between the image projection apparatus and the projection surface is small. However, it becomes possible to detect an operator's gesture.

また、操作者のジェスチャが映像光の投影方向とは異なる所定方向において行われるので、投影面に投影された画像が操作者の手で影になることがなく、投影画像の視認性を低下させることもない。   Further, since the operator's gesture is performed in a predetermined direction different from the projection direction of the image light, the image projected on the projection surface is not shadowed by the operator's hand, and the visibility of the projected image is reduced. There is nothing.

さらに、ジェスチャの検出可能範囲内に投影面が含まれないようにすれば、ジェスチャ検出手段の視野から明るい投影画像を排除することができ、ジェスチャ検出手段の感度を向上させることが可能となる。   Further, if the projection plane is not included in the gesture detectable range, a bright projection image can be excluded from the visual field of the gesture detection unit, and the sensitivity of the gesture detection unit can be improved.

[第1実施形態]
以下、本発明の第1実施形態に係る画像投影装置について、図1〜図9を参照しつつ説明する。
[First Embodiment]
Hereinafter, an image projection apparatus according to a first embodiment of the present invention will be described with reference to FIGS.

<画像投影装置の概要>
図1は本発明の第1実施形態に係る画像投影装置の全体を示す斜視図である。図2は本画像投影装置の使用状態を示す斜視図である。
<Outline of image projector>
FIG. 1 is a perspective view showing the entire image projection apparatus according to the first embodiment of the present invention. FIG. 2 is a perspective view showing a usage state of the image projection apparatus.

図1及び図2において、1は本実施形態に係る画像投影装置(プロジェクタ)であり、筐体10の正面10Aには、投影レンズ11が配設してある。図6及び図8を用いて後に詳述するが、本画像投影装置1は、筐体10の内部において、光源からの光を光変調素子により映像光に変調し、この映像光を投影レンズ11からスクリーン(投影面)20へ拡大投影して画像表示を行う構成となっている。また、以下の説明において、投影レンズ11から映像光が投影される方向(図2の白抜き矢印参照)を、映像光の投影方向D1という。   1 and 2, reference numeral 1 denotes an image projection apparatus (projector) according to the present embodiment, and a projection lens 11 is disposed on the front surface 10 </ b> A of the housing 10. As will be described in detail later with reference to FIGS. 6 and 8, the image projection apparatus 1 modulates light from a light source into image light by a light modulation element inside the housing 10, and this image light is projected to the projection lens 11. The screen is enlarged and projected onto a screen (projection surface) 20 to display an image. In the following description, the direction in which the image light is projected from the projection lens 11 (see the white arrow in FIG. 2) is referred to as the image light projection direction D1.

筐体10の上面10Bには、画像投影装置1を手動操作するための制御パネル12が設けてある。この制御パネル12には、例えば、図示しないメニューボタン、上下左右の方向キー及び決定キー等が含まれている。操作者OPは、例えば、スクリーン20に投影されたメニュー画面を見ながら制御パネル12を手動操作して、投影画像の調整や設定、投影画像のスライド送り等を行うことができる。   A control panel 12 for manually operating the image projector 1 is provided on the upper surface 10B of the housing 10. The control panel 12 includes, for example, a menu button (not shown), up / down / left / right direction keys, and an enter key. For example, the operator OP can manually operate the control panel 12 while viewing the menu screen projected on the screen 20 to adjust and set the projection image, slide the projection image, and the like.

筐体10の背面10Dには、外部機器接続用のインターフェイス14が設けてあり、このインターフェイス14を介して、パーソナルコンピュータ30、DVDプレーヤー、デジタルカメラ、ビデオゲーム機などの映像ソースを接続可能となっている。インターフェース14には、例えば、HDMI(High-Definition Multimedia Interface)端子、ミニD−sub15ピン端子、D4端子、コンポーネント端子、コンポジット端子、S映像端子などの各種端子が含まれている。   An interface 14 for connecting an external device is provided on the rear surface 10D of the housing 10, and a video source such as a personal computer 30, a DVD player, a digital camera, or a video game machine can be connected via the interface 14. ing. The interface 14 includes various terminals such as a high-definition multimedia interface (HDMI) terminal, a mini D-sub 15-pin terminal, a D4 terminal, a component terminal, a composite terminal, and an S video terminal.

<ジェスチャ検出手段>
ここで、本実施形態の画像投影装置1には、画像投影装置1を操作する手段として、上述した制御パネル12のほかにジェスチャ検出手段13が設けてある。図2に示すように、このジェスチャ検出手段13は、操作者OPのジェスチャJS(例えば、手を下げる)を検出して、所定のジェスチャ情報を送信する構成となっている。本実施形態では、ジェスチャ検出手段13を筐体10の一側面10Cに配設してあり、そのジェスチャの検出方向D2(図3(b),図4(b)の白抜き矢印参照)が、映像光の投影方向D1と異なる方向となるようにしてある。
<Gesture detection means>
Here, the image projection apparatus 1 of the present embodiment is provided with a gesture detection means 13 in addition to the control panel 12 described above as means for operating the image projection apparatus 1. As shown in FIG. 2, the gesture detection unit 13 is configured to detect a gesture JS (for example, lowering the hand) of the operator OP and transmit predetermined gesture information. In this embodiment, the gesture detection means 13 is disposed on one side surface 10C of the housing 10, and the gesture detection direction D2 (see the white arrow in FIGS. 3B and 4B) The direction is different from the projection direction D1 of the image light.

このジェスチャ検出手段13について、図3及び図4を参照しつつ詳述する。図3〜図5は本画像投影装置に設けたジェスチャ検出手段の概略図であり、図3(a),(b)はCCDを用いた場合の構成を示し、図4(a),(b)及び図5(a),(b)は反射センサを用いた場合の構成を示す。   The gesture detection means 13 will be described in detail with reference to FIGS. 3 to 5 are schematic views of the gesture detection means provided in the image projection apparatus. FIGS. 3A and 3B show the configuration when a CCD is used, and FIGS. ) And FIGS. 5A and 5B show a configuration in the case of using a reflection sensor.

図3(a)において、ジェスチャ検出手段13は、例えば、撮像素子であるCCD131と、このCCDの表面に像を結ばせる結像レンズ(検出範囲設定手段)132とを備えた構成とすることができる。図3(b)に示すように、CCD131は、結像レンズ132のフォーカス範囲R1において行われた操作者OPのジェスチャJSを連続的に撮像し、画像情報としてのジェスチャ情報を送信する。   In FIG. 3A, the gesture detection unit 13 includes, for example, a CCD 131 that is an image sensor and an imaging lens (detection range setting unit) 132 that forms an image on the surface of the CCD. it can. As shown in FIG. 3B, the CCD 131 continuously captures the gesture JS of the operator OP performed in the focus range R1 of the imaging lens 132, and transmits gesture information as image information.

このジェスチャ情報は、後述する制御信号生成手段103(図6及び図8参照)に受信され、この制御信号生成手段103は、時系列で得られる画像情報の変化に基づいてジェスチャを判別し、所定の画像制御信号を生成する。また、制御信号生成手段103によってCCD131から受信した画像情報の輪郭抽出(微分)処理を行うことで、画像情報からフォーカスの合っていない部分を削除し、ジェスチャの判別精度を向上させることも可能である。   This gesture information is received by a control signal generation unit 103 (see FIGS. 6 and 8) described later. The control signal generation unit 103 discriminates a gesture based on a change in image information obtained in time series, and determines the predetermined information. The image control signal is generated. Further, by performing contour extraction (differentiation) processing of the image information received from the CCD 131 by the control signal generation means 103, it is possible to delete the out-of-focus portion from the image information and improve the gesture discrimination accuracy. is there.

このように、ジェスチャ検出手段13としてCCD131を用いた場合は、撮像素子で操作者のジェスチャを画像情報として検出することができ、検出結果であるジェスチャ情報にそれぞれ割り当てた種々の動作制御を実行させることができる。特に、撮像素子によって操作者のジェスチャの態様(例えば、操作者が手の指を何本立てたか)を判別することが可能となり、様々なジェスチャに基づく複雑な動作制御が可能となる。   As described above, when the CCD 131 is used as the gesture detecting means 13, the operator's gesture can be detected as image information by the image sensor, and various operation controls respectively assigned to the gesture information as the detection result are executed. be able to. In particular, it is possible to determine the mode of the gesture of the operator (for example, how many fingers of the hand are raised by the operator) by the imaging element, and it is possible to perform complex motion control based on various gestures.

一方、ジェスチャ検出手段13は、上述したCCD131に限らず、図4(a)に示すような反射センサ133を複数用いた構成としてもよい。各反射センサ133は、図4(b)に示すように、投光素子であるLED133aと、受光素子であるフォトセンサ133bと、これらLED133a及びフォトセンサ133bによるジェスチャの検出範囲を設定するための焦点レンズ(検出範囲設定手段)134を組み合わせた構成となっている。   On the other hand, the gesture detection means 13 is not limited to the CCD 131 described above, and may be configured to use a plurality of reflection sensors 133 as shown in FIG. As shown in FIG. 4B, each reflection sensor 133 has an LED 133a as a light projecting element, a photo sensor 133b as a light receiving element, and a focus for setting a detection range of a gesture by the LED 133a and the photo sensor 133b. The lens (detection range setting means) 134 is combined.

このような反射センサ133では、ジェスチャJSの検出方向D2に各焦点レンズ134のフォーカス範囲R2を設定してあり、このフォーカス範囲R2内に存在する物体(例えば、操作者OPの手)にLED133aの投光を反射させ、反射光をフォトセンサ133bで受光することによって物体を検出する。これにより、反射センサ133は、フォーカス範囲R2内で行われたジェスチャJSを検出し(図5(a)参照)、フォーカス範囲R2外で行われたジェスチャJSを検出しない(図5(b)参照)ようになっている。   In such a reflection sensor 133, the focus range R2 of each focal lens 134 is set in the detection direction D2 of the gesture JS, and the LED 133a is placed on an object (for example, the hand of the operator OP) existing in the focus range R2. An object is detected by reflecting the projected light and receiving the reflected light by the photosensor 133b. Thereby, the reflection sensor 133 detects the gesture JS performed within the focus range R2 (see FIG. 5A), and does not detect the gesture JS performed outside the focus range R2 (see FIG. 5B). )

<画像投影装置の回路構成>
図6は、本画像投影装置の第1実施例に係る回路構成を示すブロック図であり、本画像投影装置に画像操作制御手段を内蔵した回路構成となっている。図7は、図6の回路構成におけるジェスチャ検出手段を用いた画像投影処理の流れを示すフローチャートである。
<Circuit Configuration of Image Projection Device>
FIG. 6 is a block diagram showing a circuit configuration according to the first embodiment of the image projection apparatus, and the image projection apparatus has a circuit configuration in which image operation control means is built in. FIG. 7 is a flowchart showing the flow of image projection processing using the gesture detection means in the circuit configuration of FIG.

また、図8は、本画像投影装置の第2実施例に係る回路構成を示すブロック図であり、本画像投影装置に外部接続したパーソナルコンピュータを画像操作制御手段として利用した回路構成となっている。図9は、図8の回路構成におけるジェスチャ検出手段を用いた画像投影処理の流れを示すフローチャートである。   FIG. 8 is a block diagram showing a circuit configuration according to the second embodiment of the image projection apparatus. The circuit configuration uses a personal computer externally connected to the image projection apparatus as image operation control means. . FIG. 9 is a flowchart showing the flow of image projection processing using the gesture detection means in the circuit configuration of FIG.

以下、図6〜図9を参照しつつ、本画像投影装置の第1及び第2実施例に係る回路構成、及びそのジェスチャ検出手段を用いた画像投影処理について説明する。なお、上述した制御パネル12及びジェスチャ検出手段13については、同一の符号を付して詳細な説明は省略する。   Hereinafter, the circuit configuration according to the first and second embodiments of the image projecting apparatus and the image projecting process using the gesture detecting unit will be described with reference to FIGS. In addition, about the control panel 12 and the gesture detection means 13 which were mentioned above, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

<<第1実施例の回路構成>>
まず、第1実施例として、画像投影装置に画像操作制御手段を内蔵した場合の回路構成について、図6を参照しつつ説明する。同図において、本画像投影装置1の構成要素は、画像表示に関する制御・操作系手段(概ね入出力バス101の上側に図示された構成要素)と、スクリーンに画像を投影するための画像処理・光学系手段(概ね入出力バス101の下側に図示された構成要素)とに分けることができる。
<< Circuit Configuration of First Embodiment >>
First, as a first embodiment, a circuit configuration when an image operation control means is built in an image projection apparatus will be described with reference to FIG. In the figure, the components of the image projection apparatus 1 are control / operation system means (components generally shown above the input / output bus 101) related to image display, and image processing / projection for projecting an image on a screen. It can be divided into optical system means (generally shown components below the input / output bus 101).

本画像投影装置1の制御・操作系手段には、CPU102、制御信号生成手段103、画像操作制御手段104、上述した制御パネル12及びジェスチャ検出手段13が含まれている。なお、インターフェース回路105は、本画像投影装置1に種々の外部機器40を電気的に接続するためのものであり、この外部機器40との間で制御信号や映像信号の送受信を行う点で、制御・操作系と画像処理系の両方に関わるものである。   The control / operation system means of the image projection apparatus 1 includes a CPU 102, a control signal generation means 103, an image operation control means 104, the control panel 12 and the gesture detection means 13 described above. Note that the interface circuit 105 is for electrically connecting various external devices 40 to the image projection apparatus 1, and transmits and receives control signals and video signals to and from the external device 40. It relates to both the control / operation system and the image processing system.

CPU102は、入出力バス101を介して制御パネル12、ジェスチャ検出手段13、画像操作制御手段104、インターフェース回路105、後述する画像処理回路112及び光源制御回路121と接続してあり、これら構成要素との間で信号の送受信を行い、本画像投影装置1の全般的な制御及び操作に関する処理を実行させる。例えば、CPU102は、本画像投影装置1の電源投入後にプログラムされた所定の起動処理を実行し、また、起動処理の終了後、制御パネル12又は画像操作制御手段104からの操作信号に基づいて、投影画像の調整や設定、投影画像のスライド送り等の制御処理を実行させる。   The CPU 102 is connected to the control panel 12, the gesture detection unit 13, the image operation control unit 104, the interface circuit 105, an image processing circuit 112 and a light source control circuit 121, which will be described later, via the input / output bus 101. , And performs processing related to general control and operation of the image projection apparatus 1. For example, the CPU 102 executes a predetermined activation process programmed after turning on the power of the image projection apparatus 1, and after the activation process ends, based on an operation signal from the control panel 12 or the image operation control means 104. Control processing such as adjustment and setting of the projection image and slide feed of the projection image is executed.

制御信号生成手段103は、ジェスチャ検出手段13の検出結果であるジェスチャ情報を受信し、このジェスチャ情報に対応する画像制御信号を生成する。例えば、ジェスチャ検出装置13をCCD131(図3参照)により構成した場合、制御信号生成手段103は、画像情報であるジェスチャ情報に基づいて、ジェスチャの態様(例えば、操作者が手の指を何本立てたか)を判別し、このジェスチャの態様に対応する画像制御信号を生成する。一方、ジェスチャ検出装置13を反射センサ133(図4参照)により構成した場合、制御信号生成手段103は、ジェスチャ情報である反射センサ133からの検出信号の有無、又は所定時間内における検出信号の受信回数などに基づいて、このジェスチャ情報に対応する画像制御信号を生成する。このようにして制御信号生成手段103が生成した画像制御信号は、次に説明する画像操作制御手段104に送信される。   The control signal generation unit 103 receives the gesture information that is the detection result of the gesture detection unit 13 and generates an image control signal corresponding to the gesture information. For example, when the gesture detection device 13 is configured by the CCD 131 (see FIG. 3), the control signal generation unit 103 sets the gesture mode (for example, how many fingers of the hand are raised by the operator based on the gesture information which is image information). And an image control signal corresponding to this gesture mode is generated. On the other hand, when the gesture detection device 13 includes the reflection sensor 133 (see FIG. 4), the control signal generation unit 103 receives the detection signal from the reflection sensor 133, which is gesture information, or the detection signal within a predetermined time. An image control signal corresponding to the gesture information is generated based on the number of times. The image control signal generated by the control signal generation unit 103 in this way is transmitted to the image operation control unit 104 described below.

画像操作制御手段104は、入出力バス101に接続してあり、制御信号生成手段103から受信した画像制御信号に基づいて制御信号を送信し、CPU102に画像表示の所定操作に関する制御処理を実行させる。   The image operation control unit 104 is connected to the input / output bus 101, transmits a control signal based on the image control signal received from the control signal generation unit 103, and causes the CPU 102 to execute a control process related to a predetermined operation of image display. .

なお、本実施形態では、CPU102が、上述した制御パネル12又は画像操作制御手段104からの信号に基づいて、後述する画像処理回路112、光源制御回路121などを全般的に動作制御する構成としたが、これに限定されるものではない。例えば、これら画像処理回路112、光源制御回路121などがサブCPUを備え、CPU102を介さずに直接、制御パネル12又は画像操作制御手段104からの信号を受信して動作制御を実行するようにしてもよい。   In the present embodiment, the CPU 102 generally controls the operation of an image processing circuit 112, a light source control circuit 121, and the like, which will be described later, based on the signal from the control panel 12 or the image operation control unit 104 described above. However, the present invention is not limited to this. For example, the image processing circuit 112, the light source control circuit 121, and the like include a sub CPU, and directly receive a signal from the control panel 12 or the image operation control means 104 without using the CPU 102 to execute operation control. Also good.

また、本実施形態では、制御信号生成手段103及び画像操作制御手段104をCPU102と別個に設けた構成としたが、これら制御信号生成手段103及び画像操作制御手段104の機能をCPU102の制御処理に含めた構成としてもよい。   In this embodiment, the control signal generation unit 103 and the image operation control unit 104 are provided separately from the CPU 102. However, the functions of the control signal generation unit 103 and the image operation control unit 104 are used for the control processing of the CPU 102. It is good also as a structure including.

一方、本画像投影装置1の画像処理・光学系手段には、映像信号入力手段111、画像処理回路112、光変調素子ドライブ回路113、光変調素子114、光源制御回路121、光源122、照明光学系123及び結像光学系124が含まれている。   On the other hand, the image processing / optical system means of the image projection apparatus 1 includes a video signal input means 111, an image processing circuit 112, a light modulation element drive circuit 113, a light modulation element 114, a light source control circuit 121, a light source 122, and illumination optics. A system 123 and an imaging optical system 124 are included.

映像信号入力手段111は、入出力バス101を介して外部機器40などの映像ソースから送信された映像信号を入力し、この映像信号を画像処理回路112に出力する。画像処理回路112は、映像信号入力手段111を介して入力された映像信号に対して、例えば、A/D変換、I/P(Interlace/Progressive)変換、スケーリング処理、ガンマ補正、ノイズリダクション等の画像処理を行い、入力された映像信号を後述する光変調素子114に適合させて光変調素子ドライブ回路113に出力する。   The video signal input unit 111 inputs a video signal transmitted from a video source such as the external device 40 via the input / output bus 101 and outputs the video signal to the image processing circuit 112. The image processing circuit 112 performs, for example, A / D conversion, I / P (Interlace / Progressive) conversion, scaling processing, gamma correction, noise reduction, and the like on the video signal input via the video signal input unit 111. Image processing is performed, and the input video signal is adapted to a light modulation element 114 described later and output to the light modulation element drive circuit 113.

光変調ドライブ回路113は、画像処理回路112によって画像処理された映像信号を光変調素子114に出力し、この光変調素子114を駆動させる。光変調素子114は、例えば、R,G,Bの各色に対応する3つのLCD(Liquid Crystal Display)からなり、後述する照明光学系123によってR,G,Bの各色に分離された光源122からの光を、光変調ドライブ回路113から入力した映像信号によって、各色に応じた映像光に変調する。R,G,Bの各色の映像光は、例えば、図示しないダイクロックプリズムにより合成され、後述する結像光学系124に入射される。   The light modulation drive circuit 113 outputs the video signal image-processed by the image processing circuit 112 to the light modulation element 114 and drives the light modulation element 114. The light modulation element 114 includes, for example, three LCDs (Liquid Crystal Displays) corresponding to R, G, and B colors. The light modulation element 114 includes a light source 122 that is separated into R, G, and B colors by an illumination optical system 123 described later. Is modulated into video light corresponding to each color by the video signal input from the light modulation drive circuit 113. For example, R, G, and B image lights are combined by a dichroic prism (not shown) and incident on an imaging optical system 124 described later.

光源制御回路121は、入出力バス101に接続してあり、CPU102から送信された信号に基づいて光源122に供給される電流を変化させ、光源122の明るさを制御する。光源122としては、例えば、超高圧水銀ランプを用いることができる。   The light source control circuit 121 is connected to the input / output bus 101, and controls the brightness of the light source 122 by changing the current supplied to the light source 122 based on the signal transmitted from the CPU 102. As the light source 122, for example, an ultra-high pressure mercury lamp can be used.

照明光学系123には、光源122から出射された光の配光分布を均一化するためのインテグレーターレンズ、光源122から出射された光に含まれるP波成分をS波成分に変換して高輝度化するための偏光変換素子、光源122から出射された光をR,G,Bの各色に分離するためのダイクロックミラーなどが含まれる。   The illumination optical system 123 has an integrator lens for making the light distribution of the light emitted from the light source 122 uniform, and converts the P wave component contained in the light emitted from the light source 122 into an S wave component to increase the luminance. And a dichroic mirror for separating the light emitted from the light source 122 into R, G, and B colors.

結像光学系124は、上述した投影レンズ11を含む複数のレンズを主体に構成してある。結像光学系124を構成する複数のレンズは、スクリーン20に対して直角な光軸を有し、この光軸に沿って一列に並んで配置してある。このような結像光学系124は、光変調素子114から入射した映像光をスクリーン20に拡大投影し、スクリーン20上に投影画像を結像させる。   The imaging optical system 124 mainly includes a plurality of lenses including the projection lens 11 described above. The plurality of lenses constituting the imaging optical system 124 have an optical axis perpendicular to the screen 20, and are arranged in a line along the optical axis. Such an imaging optical system 124 enlarges and projects the image light incident from the light modulation element 114 onto the screen 20 and forms a projection image on the screen 20.

次いで、図7を参照しつつ、上述した図6の回路構成におけるジェスチャ検出手段を用いた画像投影処理について説明する。なお、以下の説明におけるジェスチャ検出手段は、図3(a),(b)に示すようなCCDを用いた構成とする。   Next, image projection processing using the gesture detection means in the circuit configuration of FIG. 6 described above will be described with reference to FIG. Note that the gesture detection means in the following description is configured using a CCD as shown in FIGS.

図7のステップS1において、ジェスチャ検出手段13は、常時、ジェスチャの検出方向D2のフォーカス範囲R2を撮像し(図3(b)参照)、その画像情報(操作者のジェスチャを撮像した場合は「ジェスチャ情報」)を制御信号生成手段103に送信する。上述したように、本実施形態では、ジェスチャ検出手段13を筐体11の一側面10Cに設けてあるので(図2参照)、ジェスチャの検出方向D2が、映像光の投影方向D1とほぼ直交する方向となっており、ジェスチャ検出手段13のCCD131の視界にスクリーン20が干渉しないようになっている。   In step S1 of FIG. 7, the gesture detection means 13 always images the focus range R2 in the gesture detection direction D2 (see FIG. 3B), and when the image information (the operator's gesture is imaged, “ Gesture information ") is transmitted to the control signal generating means 103. As described above, in this embodiment, since the gesture detection means 13 is provided on one side surface 10C of the housing 11 (see FIG. 2), the gesture detection direction D2 is substantially orthogonal to the image light projection direction D1. The screen 20 does not interfere with the field of view of the CCD 131 of the gesture detection means 13.

次いで、ステップS2に進み、制御信号生成手段103が、ジェスチャ検出手段13から受信した画像情報に基づいて、操作者のジェスチャを検出したか否かを判断する。ジェスチャの検出方法として、例えば、制御信号生成手段103は、ジェスチャ検出手段13から時系列に送信される画像情報の変化に基づいてジェスチャの有無を判別することができ、さらに、撮像されたジェスチャの画像を画像解析することにより、どのような態様のジェスチャが行われたかを判別することができる。   Next, the process proceeds to step S <b> 2, and the control signal generation unit 103 determines based on the image information received from the gesture detection unit 13 whether an operator gesture has been detected. As a gesture detection method, for example, the control signal generation unit 103 can determine the presence / absence of a gesture based on a change in image information transmitted in time series from the gesture detection unit 13, and can further determine the presence of the captured gesture. By analyzing the image, it is possible to determine what kind of gesture has been performed.

例えば、何も撮像されていない画像情報を受信した後、操作者の手が撮像された画像情報を受信した場合、制御信号生成手段103は、これら画像情報の変化に基づいてジェスチャが行われたと判別することができる。また、この例示において、制御信号生成手段103は、撮像された操作者の手の部分を画像解析して、例えば、指を何本立てているかなどのジェスチャの態様を判別することもできる。一方、何も撮像されていない画像情報を連続して受信した場合、制御信号生成手段103は、これら画像情報に変化がないことに基づいて、ジェスチャが行われていないと判別することができる。   For example, when receiving image information in which an operator's hand is captured after receiving image information in which nothing is captured, the control signal generation unit 103 assumes that a gesture has been performed based on the change in the image information. Can be determined. In this example, the control signal generation unit 103 can also analyze the image of the captured hand portion of the operator to determine a gesture mode such as how many fingers are held. On the other hand, when image information in which nothing is captured is continuously received, the control signal generation unit 103 can determine that no gesture is performed based on the fact that there is no change in the image information.

ステップS2において、制御信号生成手段103がジェスチャを検出していないと判別した場合(NO)は、ステップS3,S4を省略して本画像投影処理を終了し、再びステップS1以下の処理を繰り返す。一方、制御信号生成手段103がジェスチャを検出したと判別した場合(YES)は、ステップS3に進み、制御信号生成手段103が、検出したジェスチャに対応する所定の画像制御信号を生成する。   If it is determined in step S2 that the control signal generation unit 103 has not detected a gesture (NO), steps S3 and S4 are omitted, the main image projection process is terminated, and the processes in step S1 and subsequent steps are repeated again. On the other hand, if it is determined that the control signal generation unit 103 has detected a gesture (YES), the process proceeds to step S3, and the control signal generation unit 103 generates a predetermined image control signal corresponding to the detected gesture.

ステップS3において、制御信号生成手段103は、何らかのジェスチャを検出したこと、又は検出したジェスチャの態様に応じて、あらかじめ割り当てられた所定の画像制御信号を生成する。例えば、何らかのジェスチャを検出したことに対応して、投影画像を1枚だけスライド送りさせる画像制御信号を生成し、あるいは、操作者が指を1本立てている場合は1枚、指を2本立てている場合は2枚の投影画像をスライド送りさせる画像制御信号を生成する。制御信号生成手段103が生成した所定の画像制御信号は、画像操作制御手段104に送信される。   In step S <b> 3, the control signal generation unit 103 generates a predetermined image control signal assigned in advance according to the detection of some gesture or the detected gesture mode. For example, in response to detection of some kind of gesture, an image control signal for sliding the projection image by one sheet is generated, or when the operator stands one finger, one finger and two fingers are raised. If so, an image control signal for slidingly feeding the two projected images is generated. The predetermined image control signal generated by the control signal generation unit 103 is transmitted to the image operation control unit 104.

なお、本実施例では、制御信号生成手段103が画像制御信号を生成する場合について例示したが、これに限らず、制御信号生成手段103により生成される信号には、本画像投影装置1に所定の動作制御を実行させるための制御信号が広く含まれ、上述したスライド送りなどの画像表示の所定操作に関する画像制御信号のみならず、例えば、図示しない内蔵スピーカーの音量調整などの画像表示以外の所定操作に関する制御信号も含まれる。   In the present embodiment, the case where the control signal generating unit 103 generates the image control signal is illustrated. However, the present invention is not limited to this, and the signal generated by the control signal generating unit 103 is not predetermined in the image projecting apparatus 1. Control signals for executing the operation control are widely included, and not only the image control signal related to the predetermined operation of the image display such as the slide feed described above but also the predetermined other than the image display such as the volume adjustment of the built-in speaker (not shown). Control signals relating to operation are also included.

次いで、ステップS4に進み、画像操作制御手段104が、制御信号生成手段103から受信した画像制御信号に基づいて、CPU102に所定の制御信号を送信し、投影画像の所定操作に関する動作制御を実行させる。例えば、画像制御信号を受信したCPU102は、入出力バス101及びインターフェース回路105を介して、外部機器40に制御信号を送信し、投影画像を所定枚数だけスライド送りさせる動作制御を実行させる。その後、本画像投影処理を終了し、再びステップS1以下の処理を繰り返す。   In step S4, the image operation control unit 104 transmits a predetermined control signal to the CPU 102 based on the image control signal received from the control signal generation unit 103, and executes operation control related to the predetermined operation of the projection image. . For example, the CPU 102 that has received the image control signal transmits a control signal to the external device 40 via the input / output bus 101 and the interface circuit 105, and executes operation control for sliding a predetermined number of projected images. Thereafter, the main image projection process is terminated, and the processes after step S1 are repeated again.

<<第2実施例の回路構成>>
次に、第2実施例として、外部接続したパーソナルコンピュータを画像操作制御手段として利用した場合の回路構成、及びジェスチャ検出手段を用いた画像投影処理について、図8及び図9を参照しつつ説明する。なお、図8及び図9において、上述した第1実施例と同一箇所については、同一の符号を付して詳細な説明は省略する。
<< Circuit Configuration of Second Embodiment >>
Next, as a second embodiment, a circuit configuration when an externally connected personal computer is used as an image operation control unit and an image projection process using a gesture detection unit will be described with reference to FIGS. . 8 and 9, the same parts as those of the first embodiment described above are denoted by the same reference numerals and detailed description thereof is omitted.

上述した第1実施例では、本画像投影装置1に画像操作制御手段104を内蔵した回路構成としたが(図6参照)、図8に示す本実施例の画像投影装置1では、インターフェイス14を介して接続されたパーソナルコンピュータ30の制御部を画像操作制御手段31として利用する回路構成としてある。すなわち、パーソナルコンピュータ30に、あらかじめ本画像投影装置1のドライバソフトをインストールし、このパーソナルコンピュータ30のOS(Operating System)に本画像投影装置1を認識させて動作制御が可能な状態としてある。   In the first embodiment described above, the circuit configuration in which the image operation control means 104 is built in the image projection apparatus 1 (see FIG. 6) is used. However, in the image projection apparatus 1 of the present embodiment shown in FIG. The circuit configuration is such that the control unit of the personal computer 30 connected thereto is used as the image operation control means 31. That is, the driver software of the image projection apparatus 1 is installed in the personal computer 30 in advance, and the OS (Operating System) of the personal computer 30 recognizes the image projection apparatus 1 so that the operation can be controlled.

このような回路構成では、制御信号生成手段103が、ジェスチャ検出手段13から受信したジェスチャ情報に基づいて所定の画像制御信号を生成し(図9のステップS3参照)、この画像制御信号を、入出力バス101及びインターフェース回路105を介してパーソナルコンピュータ30に送信する(図9のステップS14参照)。   In such a circuit configuration, the control signal generation unit 103 generates a predetermined image control signal based on the gesture information received from the gesture detection unit 13 (see step S3 in FIG. 9), and inputs this image control signal. The data is transmitted to the personal computer 30 via the output bus 101 and the interface circuit 105 (see step S14 in FIG. 9).

すると、パーソナルコンピュータ30の画像操作制御手段31は、制御信号生成手段103からの画像制御信号に基づいて所定の制御信号を送信し、本画像投影装置1に投影画像の所定操作に関する動作制御を実行させる。すなわち、画像操作制御手段31が送信した制御信号は、インターフェース回路105及び入出力バス101を介して、本画像投影装置1のCPU102に送信され、CPU102に投影画像の所定操作に関する動作制御を実行させる(図9のステップS15参照)。   Then, the image operation control means 31 of the personal computer 30 transmits a predetermined control signal based on the image control signal from the control signal generation means 103, and executes operation control related to the predetermined operation of the projection image to the image projection apparatus 1. Let That is, the control signal transmitted by the image operation control unit 31 is transmitted to the CPU 102 of the image projection apparatus 1 via the interface circuit 105 and the input / output bus 101, and causes the CPU 102 to perform operation control related to a predetermined operation of the projection image. (See step S15 in FIG. 9).

<第1実施形態の作用効果>
以上説明したように、本発明の第1実施形態に係る画像投影装置1によれば、ジェスチャ検出手段13が、映像光の投影方向D1とは異なる方向D2において行われた操作者のジェスチャを検出するので、画像投影装置1とスクリーン20との間隔が狭い場合でも操作者のジェスチャを検出することが可能となる。また、操作者のジェスチャが映像光の投影方向D1とは異なる方向D2において行われるので、スクリーン20に投影された画像が操作者の手で影になることがなく、投影画像の視認性を低下させることもない。さらに、ジェスチャの検出可能範囲R1又はR2内にスクリーン20が含まれないようにすれば、ジェスチャ検出手段13の視野から明るい投影画像を排除することができ、ジェスチャ検出手段13の感度を向上させることが可能となる。
<Operational effects of the first embodiment>
As described above, according to the image projection apparatus 1 according to the first embodiment of the present invention, the gesture detection unit 13 detects the gesture of the operator performed in the direction D2 different from the projection direction D1 of the video light. Therefore, even when the distance between the image projection device 1 and the screen 20 is narrow, it is possible to detect the operator's gesture. Further, since the operator's gesture is performed in the direction D2 different from the projection direction D1 of the image light, the image projected on the screen 20 is not shadowed by the operator's hand, and the visibility of the projected image is reduced. I will not let you. Further, if the screen 20 is not included in the gesture detectable range R1 or R2, a bright projected image can be excluded from the field of view of the gesture detection unit 13, and the sensitivity of the gesture detection unit 13 is improved. Is possible.

また、ジェスチャ検出手段13としてCCD131を用いた構成とした場合は、操作者のジェスチャを画像情報として検出することができ、検出結果であるジェスチャ情報にそれぞれ割り当てた種々の動作制御を実行させることができる。特に、CCD131の画像情報に基づいて操作者のジェスチャの態様(例えば、操作者が手の指を何本立てたか)を判別することが可能となり、様々なジェスチャに基づく複雑な動作制御が可能となる。   Further, when the CCD 131 is used as the gesture detecting means 13, the operator's gesture can be detected as image information, and various operation controls respectively assigned to the gesture information as the detection result can be executed. it can. In particular, it is possible to determine the mode of the gesture of the operator (for example, how many fingers of the hand are raised by the operator) based on the image information of the CCD 131, and complex operation control based on various gestures is possible. .

さらに、ジェスチャ検出手段13として反射センサ133を用いた構成とした場合は、反射センサ133の検出結果であるジェスチャ情報にそれぞれ割り当てた種々の動作制御を実行させることができ、また、反射センサ133は、LED133aから出射された光の反射光をフォトセンサ113bで受光するといった簡単な構成であるから、ジェスチャ検出手段13の構成の簡単化を図ることもできる。   Further, when the reflection sensor 133 is used as the gesture detection unit 13, various operation controls respectively assigned to the gesture information that is the detection result of the reflection sensor 133 can be executed. Since the reflected light of the light emitted from the LED 133a is received by the photosensor 113b, the configuration of the gesture detection means 13 can be simplified.

[第2実施形態]
以下、本発明の第2実施形態に係る画像投影装置について、図10〜図15を参照しつつ説明する。本実施形態の画像投影装置では、ジェスチャ検出手段によるジェスチャの検出可能範囲を、映像光の投影距離に応じて変動させることにより、ジェスチャの検出可能範囲が常にスクリーンの端部近傍に位置する構成としてある。
[Second Embodiment]
Hereinafter, an image projection apparatus according to a second embodiment of the present invention will be described with reference to FIGS. In the image projection apparatus according to the present embodiment, the gesture detectable range by the gesture detection unit is changed according to the projection distance of the image light so that the gesture detectable range is always located near the edge of the screen. is there.

<画像投影装置の回路構成>
図10及び図11は、いずれも本画像投影装置の第2実施形態に係る画像統制装置の回路構成を示すブロック図であり、図10は本画像投影装置に画像操作制御手段を内蔵した回路構成、図11は本画像投影装置に外部接続したパーソナルコンピュータを画像操作制御手段として利用した回路構成を示す。なお、これら図面において、上述した第1実施形態と同一箇所については、同一の符号を付して詳細な説明は省略する。
<Circuit Configuration of Image Projection Device>
10 and 11 are block diagrams showing the circuit configuration of the image control apparatus according to the second embodiment of the image projection apparatus. FIG. 10 shows the circuit configuration in which the image operation control means is built in the image projection apparatus. FIG. 11 shows a circuit configuration using a personal computer externally connected to the image projection apparatus as image operation control means. In these drawings, the same portions as those in the first embodiment described above are denoted by the same reference numerals, and detailed description thereof is omitted.

図10において、本実施形態の画像投影装置1は、フォーカス検出手段125、モータドライバ回路106、モータ107、及びジェスチャ検出手段13に設けられたレンズ駆動手段135を備えた構成となっている。   In FIG. 10, the image projection apparatus 1 according to the present embodiment includes a focus detection unit 125, a motor driver circuit 106, a motor 107, and a lens drive unit 135 provided in the gesture detection unit 13.

フォーカス検出手段125は、画像投影装置1の設置位置の変動に伴う投影レンズ11のフォーカス距離を検出する。このフォーカス検出手段125として、例えば、スクリーン20に赤外線又は超音波などを照射し、その反射波が戻るまでの時間や照射角度により距離を検出するアクティブ方式のセンサを用いることができる。また、スクリーン20に投影したフォーカスパターンをCCDなどの撮像素子で撮像して測距を行うパッシブ方式のセンサを用いてもよい。   The focus detection unit 125 detects the focus distance of the projection lens 11 that accompanies a change in the installation position of the image projection apparatus 1. As the focus detection means 125, for example, an active sensor that irradiates the screen 20 with infrared rays or ultrasonic waves and detects the distance based on the time until the reflected wave returns and the irradiation angle can be used. Alternatively, a passive sensor that measures the distance by imaging the focus pattern projected on the screen 20 with an image sensor such as a CCD may be used.

モータドライバ回路106は、フォーカス検出手段125の検出結果に基づいて、モータ107を駆動させる。レンズ駆動手段135は、モータ107の駆動力を受けて、ジェスチャ検出手段13の結像レンズ132又は焦点レンズ134(図3〜図5参照)を前後移動させるギヤ等の機械的手段である。このレンズ駆動手段135は、結像レンズ132又は焦点レンズ134を前後移動させることにより、ジェスチャ検出手段13のフォーカス範囲(ジェスチャの検出可能範囲)R1又はR2を変動させる。   The motor driver circuit 106 drives the motor 107 based on the detection result of the focus detection unit 125. The lens driving unit 135 is a mechanical unit such as a gear that receives the driving force of the motor 107 and moves the imaging lens 132 or the focus lens 134 (see FIGS. 3 to 5) of the gesture detection unit 13 back and forth. The lens driving unit 135 moves the imaging lens 132 or the focal lens 134 back and forth to change the focus range (gesture detectable range) R1 or R2 of the gesture detection unit 13.

このレンズ駆動手段135は、例えば、回転自在なレンズ鏡筒の外周面にギヤを設けた構成とすることができる。このレンズ鏡筒に結像レンズ132又は焦点レンズ134を収納し、このレンズ鏡筒のギヤを、モータ107の駆動軸に取り付けた他のギヤと噛合させることにより、結像レンズ132又は焦点レンズ134を前後移動させることができる。   The lens driving unit 135 can be configured, for example, by providing a gear on the outer peripheral surface of a rotatable lens barrel. The imaging lens 132 or the focusing lens 134 is housed in the lens barrel, and the imaging lens 132 or the focusing lens 134 is engaged by engaging the gear of the lens barrel with another gear attached to the drive shaft of the motor 107. Can be moved back and forth.

なお、上述した第1実施形態と同様、画像操作制御手段104を画像投影装置1に内蔵した回路構成としてもよく(図10参照)、また、本画像投影装置1に外部接続したパーソナルコンピュータ30の制御部を画像操作制御手段31として利用した回路構成としてもよい(図11参照)。   As in the first embodiment described above, the image operation control means 104 may be a circuit configuration built in the image projection apparatus 1 (see FIG. 10), and the personal computer 30 externally connected to the image projection apparatus 1 may be used. A circuit configuration using the control unit as the image operation control means 31 may be used (see FIG. 11).

<ジェスチャの検出可能範囲の変動制御>
次いで、上記構成からなる本画像投影装置1におけるジェスチャの検出可能範囲の変動制御について、図12〜15を参照しつつ説明する。なお、以下の説明におけるジェスチャ検出手段は、図3(a),(b)に示すようなCCDを用いた構成とする。
<Control of fluctuation of gesture detectable range>
Next, variation control of the gesture detectable range in the image projection apparatus 1 having the above configuration will be described with reference to FIGS. Note that the gesture detection means in the following description is configured using a CCD as shown in FIGS.

図12及び図13は、上記図10及び図11の各回路構成におけるジェスチャ検出手段を用いた画像投影処理の流れを示すフローチャートである。また、図14(a),(b)はジェスチャの検出可能範囲を映像光の投影距離に応じて変動させた場合の説明図である。   12 and 13 are flowcharts showing the flow of image projection processing using the gesture detection means in the circuit configurations of FIGS. 10 and 11 described above. FIGS. 14A and 14B are explanatory diagrams when the detectable range of the gesture is changed according to the projection distance of the image light.

まず、本画像投影装置1に画像操作制御手段104を内蔵した回路構成(図10参照)の場合における画像投影処理について、図12及び図14(a),(b)を参照しつつ説明する。   First, image projection processing in the case of a circuit configuration (see FIG. 10) in which the image operation control means 104 is built in the image projection apparatus 1 will be described with reference to FIGS. 12, 14A, and 14B.

例えば、図14(a)に示すように、本画像投影装置1をスクリーン20に近接配置すると、図12のステップS21において、フォーカス検出手段125が投影レンズ11のフォーカス距離を検出する。   For example, as shown in FIG. 14A, when the image projection apparatus 1 is disposed close to the screen 20, the focus detection unit 125 detects the focus distance of the projection lens 11 in step S21 of FIG.

次いで、ステップS22に進み、フォーカス検出手段125の検出結果に基づいて、モータドライバ回路106がモータ107を駆動させ、ジェスチャ検出手段13に内蔵された結像レンズ132を前後移動させる。これにより、ジェスチャ検出手段13のフォーカス範囲(ジェスチャの検出可能範囲)R1がスクリーン20に投影されている画像の端部近傍に形成される。   Next, the process proceeds to step S22, where the motor driver circuit 106 drives the motor 107 based on the detection result of the focus detection means 125, and moves the imaging lens 132 built in the gesture detection means 13 back and forth. As a result, the focus range (gesture detectable range) R1 of the gesture detection unit 13 is formed in the vicinity of the end of the image projected on the screen 20.

次いで、ステップS23に進み、ジェスチャ検出手段13のCCD131が、ジェスチャの検出方向D2のフォーカス範囲R1を撮像し、画像情報(操作者のジェスチャを撮像した場合は「ジェスチャ情報」)を制御信号生成手段103に送信する。   Next, the process proceeds to step S23, where the CCD 131 of the gesture detection means 13 images the focus range R1 in the gesture detection direction D2, and the image information (“gesture information” when the operator's gesture is imaged) is control signal generation means. 103.

次いで、ステップS24に進み、制御信号生成手段103が、ジェスチャ検出手段13から受信した画像情報に基づいて、操作者のジェスチャを検出したか否かを判断する。制御信号生成手段103がジェスチャを検出していないと判別した場合(NO)は、ステップS25,S26を省略して本画像投影処理を終了し、再びステップS21以下の処理を繰り返す。   Next, the process proceeds to step S <b> 24, where the control signal generation unit 103 determines based on the image information received from the gesture detection unit 13 whether an operator gesture has been detected. If it is determined that the control signal generation unit 103 has not detected a gesture (NO), steps S25 and S26 are omitted, the image projection processing is terminated, and the processing from step S21 is repeated again.

一方、ステップS24において、制御信号生成手段103がジェスチャを検出したと判別した場合(YES)は、ステップS25に進み、制御信号生成手段103が、検出したジェスチャに対応する所定の画像制御信号を生成する。   On the other hand, if it is determined in step S24 that the control signal generation unit 103 has detected a gesture (YES), the process proceeds to step S25, where the control signal generation unit 103 generates a predetermined image control signal corresponding to the detected gesture. To do.

次いで、ステップS26に進み、画像操作制御手段104が、制御信号生成手段103から受信した画像制御信号に基づいて、CPU102に所定の制御信号を送信し、投影画像の所定操作(例えば、スライド送りなど)に関する動作制御を実行させる。   In step S26, the image operation control unit 104 transmits a predetermined control signal to the CPU 102 on the basis of the image control signal received from the control signal generation unit 103, and performs a predetermined operation (for example, slide feed or the like) on the projection image. ) Is executed.

その後、本画像投影処理を終了し、再びステップS21以下の処理を繰り返す。但し、図14(a)に示す画像投影装置1を移動させていない場合は、ステップS21において、フォーカス検出手段125によって検出される投影レンズ11のフォーカス距離が同一であるから、ステップS22におけるジェスチャ検出手段13のフォーカス範囲R1の調整は行われない。   Thereafter, the main image projection process is terminated, and the processes after step S21 are repeated again. However, when the image projection apparatus 1 shown in FIG. 14A is not moved, the focus distance of the projection lens 11 detected by the focus detection means 125 is the same in step S21, so that the gesture detection in step S22 is performed. The focus range R1 of the means 13 is not adjusted.

ここで、図14(b)に示すように、画像投影装置1をスクリーン20から離れた位置に移動させると、ステップS21において、フォーカス検出手段125によって検出される投影レンズ11のフォーカス距離が変更され、次のステップS22において、ジェスチャ検出手段13のフォーカス範囲(ジェスチャの検出可能範囲)R1が変動される。本実施形態では、投影レンズ11のフォーカス距離に比例してフォーカス範囲R1を拡縮させることにより、このフォーカス範囲R1が、常にスクリーン20の投影画像端部近傍に位置するようにしてある。これにより、操作者はプロジェクタ1の横側に立ってジェスチャによる画像操作を行うが、投影画像が拡大されても、これに伴い、投影画像を遮らない位置である投影画像端部まで移動して、引き続きジェスチャによる画像操作を行うことができる。   Here, as shown in FIG. 14B, when the image projection apparatus 1 is moved to a position away from the screen 20, the focus distance of the projection lens 11 detected by the focus detection means 125 is changed in step S21. In the next step S22, the focus range (gesture detectable range) R1 of the gesture detection means 13 is changed. In the present embodiment, the focus range R1 is always enlarged and contracted in proportion to the focus distance of the projection lens 11, so that the focus range R1 is always located near the projected image end of the screen 20. Thereby, the operator stands on the side of the projector 1 and performs the image operation by the gesture. However, even when the projection image is enlarged, the operator moves to the end of the projection image where the projection image is not blocked. Then, it is possible to perform the image manipulation by the gesture.

なお、上述したジェスチャ検出手段13のフォーカス範囲(ジェスチャの検出可能範囲)R1の変動制御は、本画像投影装置1に外部接続したパーソナルコンピュータ30の制御部を画像操作制御手段31として利用した回路構成(図11参照)の場合も同様である(図13のステップS21〜S22参照)。   The above-described variation control of the focus range (gesture detectable range) R1 of the gesture detection unit 13 is a circuit configuration in which the control unit of the personal computer 30 externally connected to the image projection apparatus 1 is used as the image operation control unit 31. The same applies to (see FIG. 11) (see steps S21 to S22 in FIG. 13).

図11に示す回路構成とした場合は、制御信号生成手段103が、ジェスチャ検出手段13から受信したジェスチャ情報に基づいて所定の画像制御信号を生成し(図13のステップS25参照)、この画像制御信号を、入出力バス101及びインターフェース回路105を介してパーソナルコンピュータ30に送信する(図13のステップS36参照)。   In the case of the circuit configuration shown in FIG. 11, the control signal generation unit 103 generates a predetermined image control signal based on the gesture information received from the gesture detection unit 13 (see step S25 in FIG. 13). The signal is transmitted to the personal computer 30 via the input / output bus 101 and the interface circuit 105 (see step S36 in FIG. 13).

すると、パーソナルコンピュータ30の画像操作制御手段31が、制御信号生成手段103からの画像制御信号に基づいて所定の制御信号を送信し、本画像投影装置1のCPU102に投影画像の所定操作(例えば、スライド送りなど)に関する動作制御を実行させる(図9のステップS15参照)。   Then, the image operation control unit 31 of the personal computer 30 transmits a predetermined control signal based on the image control signal from the control signal generation unit 103, and performs a predetermined operation (for example, a projection image) to the CPU 102 of the image projection apparatus 1. Operation control relating to slide feed or the like is executed (see step S15 in FIG. 9).

<第2実施形態の作用効果>
以上説明したように、本発明の第2実施形態に係る画像投影装置1によれば、ジェスチャ検出手段13によるジェスチャの検出可能範囲(フォーカス範囲)R1又はR2を映像光の投影距離に応じて変動させることが可能となり、画像投影装置1とスクリーン20との間隔にかかわらず、ジェスチャの検出可能範囲R1又はR2を、常にスクリーン20の端部近傍に位置させることができる。これにより、操作者は、投影画像の近傍で説明を行いつつ、簡単なジェスチャで画像投影装置1をスムーズに操作することが可能となる。
<Effects of Second Embodiment>
As described above, according to the image projecting apparatus 1 according to the second embodiment of the present invention, the detectable range (focus range) R1 or R2 of the gesture by the gesture detection unit 13 varies according to the projection distance of the image light. Regardless of the distance between the image projection apparatus 1 and the screen 20, the gesture detectable range R <b> 1 or R <b> 2 can always be positioned near the end of the screen 20. Thus, the operator can smoothly operate the image projection apparatus 1 with a simple gesture while explaining in the vicinity of the projection image.

[その他の変更]
なお、本発明の画像投影装置は、上述した第1及び第2実施形態に限定されるものではない。例えば、上述した第1及び第2実施形態では、いずれも画像投影装置1の筐体10における一側面10C(図1参照)又は両側部(図14(a),(b)参照)に、ジェスチャ検出手段13を配設した構成としたが、映像光の投影方向D1と異なる方向において行われた操作者のジェスチャを検出することが可能であれば、筐体10における一側面10C又は両側面以外の面(例えば、図2に示す背面10D、上面10B、又は画像投影装置1が天吊り式ならば下面)に、ジェスチャ検出手段13を配設した構成としてもよい。
[Other changes]
Note that the image projection apparatus of the present invention is not limited to the first and second embodiments described above. For example, in the first and second embodiments described above, a gesture is provided on one side surface 10C (see FIG. 1) or both side portions (see FIGS. 14A and 14B) of the housing 10 of the image projection apparatus 1. Although the detection means 13 is arranged, if it is possible to detect the gesture of the operator performed in a direction different from the projection direction D1 of the image light, one side 10C or other than both sides of the housing 10 is possible. The gesture detection means 13 may be arranged on the back surface (for example, the back surface 10D, the top surface 10B shown in FIG. 2 or the bottom surface if the image projection apparatus 1 is a ceiling type).

また、上述した第2実施形態では、ジェスチャの検出可能範囲R1又はR2を映像光の投影距離に応じて変動させる構成としたが、画像投影装置1が近接プロジェクタである場合は、一般に、画像投影装置1とスクリーン20との間隔の変動範囲が狭いため、図15(a),(b)に示すように、ジェスチャの検出可能範囲R1又はR2を映像光の投影距離にかかわらず一定としても、ジェスチャの検出可能範囲R1又はR2を常にスクリーン20の端部近傍に位置させることができる。   In the second embodiment described above, the gesture detectable range R1 or R2 is changed according to the projection distance of the image light. However, when the image projection apparatus 1 is a proximity projector, generally, image projection is performed. Since the fluctuation range of the distance between the apparatus 1 and the screen 20 is narrow, as shown in FIGS. 15A and 15B, even if the detectable range R1 or R2 of the gesture is constant regardless of the projection distance of the image light, The detectable range R1 or R2 of the gesture can always be positioned near the end of the screen 20.

本発明の第1実施形態に係る画像投影装置の全体を示す斜視図である。1 is a perspective view showing an entire image projection apparatus according to a first embodiment of the present invention. 本画像投影装置の使用状態を示す斜視図である。It is a perspective view which shows the use condition of this image projector. 本画像投影装置に設けたジェスチャ検出手段の概略図であり、同図(a),(b)はCCDを用いた場合の構成を示す。It is the schematic of the gesture detection means provided in this image projector, The figure (a), (b) shows the structure at the time of using CCD. 同じく本画像投影装置に設けたジェスチャ検出手段の概略図であり、同図(a),(b)は反射センサを用いた場合の構成を示す。Similarly, it is a schematic diagram of a gesture detection means provided in the image projection apparatus, and FIGS. 7A and 7B show a configuration when a reflection sensor is used. 同図(a),(b)は上記反射センサによるジェスチャの検出動作を示す概略図である。FIGS. 9A and 9B are schematic diagrams showing a gesture detection operation by the reflection sensor. 本画像投影装置の第1実施例に係る回路構成を示すブロック図であり、本画像投影装置に画像操作制御手段を内蔵した回路構成となっている。1 is a block diagram showing a circuit configuration according to a first embodiment of the present image projection apparatus, and has a circuit configuration in which image operation control means is built in the image projection apparatus. 図6の回路構成におけるジェスチャ検出手段を用いた画像投影処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image projection process using the gesture detection means in the circuit structure of FIG. 本画像投影装置の第2実施例に係る回路構成を示すブロック図であり、本画像投影装置に外部接続したパーソナルコンピュータを画像操作制御手段として利用した回路構成となっている。It is a block diagram which shows the circuit structure which concerns on 2nd Example of this image projector, and is a circuit structure using the personal computer externally connected to this image projector as an image operation control means. 図8の回路構成におけるジェスチャ検出手段を用いた画像投影処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image projection process using the gesture detection means in the circuit structure of FIG. 本画像投影装置の第2実施形態に係る画像統制装置の回路構成を示すブロック図であり、本画像投影装置に画像操作制御手段を内蔵した回路構成を示す。It is a block diagram which shows the circuit structure of the image control apparatus which concerns on 2nd Embodiment of this image projector, and shows the circuit structure which incorporated the image operation control means in this image projector. 、同じく、本画像投影装置の第2実施形態に係る画像統制装置の回路構成を示すブロック図であり、本画像投影装置に外部接続したパーソナルコンピュータを画像操作制御手段として利用した回路構成を示す。Similarly, it is a block diagram showing a circuit configuration of an image control device according to the second embodiment of the image projection device, and shows a circuit configuration using a personal computer externally connected to the image projection device as image operation control means. 図10の回路構成におけるジェスチャ検出手段を用いた画像投影処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image projection process using the gesture detection means in the circuit structure of FIG. 図11の回路構成におけるジェスチャ検出手段を用いた画像投影処理の流れを示すフローチャートである。12 is a flowchart showing a flow of image projection processing using gesture detection means in the circuit configuration of FIG. 同図(a),(b)はジェスチャの検出可能範囲を映像光の投影距離に応じて変動させた場合の説明図である。FIGS. 7A and 7B are explanatory diagrams when the detectable range of the gesture is changed according to the projection distance of the image light. 同図(a),(b)はジェスチャの検出可能範囲を映像光の投影距離にかかわらず一定とした場合の説明図である。FIGS. 7A and 7B are explanatory diagrams when the gesture detectable range is constant regardless of the projection distance of the image light.

符号の説明Explanation of symbols

1 画像投影装置
10 筐体
10A 正面
10B 上面
10C 一側面
10D 背面
11 投影レンズ
12 制御パネル
13 ジェスチャ検出手段
131 CCD(結像素子)
132 結像レンズ(検出範囲設定手段)
R1,R2 フォーカス範囲(ジェスチャの検出可能範囲)
133 反射センサ
133a LED(投光素子)
133b フォトセンサ(受光素子)
134 焦点レンズ134(検出範囲設定手段)
135 レンズ駆動手段
14 インターフェース
101 入出力バス
102 CPU
103 制御信号生成手段
104 画像操作制御手段
105 インターフェイス回路
106 モータドライバ回路
107 モータ
111 映像信号入力手段
112 画像処理回路
113 光変調素子ドライブ回路
114 光変調素子
121 光源制御回路
122 光源
123 照明光学系
124 結像光学系
125 フォーカス検出手段
20 スクリーン(投影面)
30 パーソナルコンピュータ(映像ソース)
31 画像操作制御手段31
40 外部機器(映像ソース)
DESCRIPTION OF SYMBOLS 1 Image projector 10 Case 10A Front surface 10B Upper surface 10C One side surface 10D Rear surface 11 Projection lens 12 Control panel 13 Gesture detection means 131 CCD (imaging element)
132 Imaging lens (detection range setting means)
R1, R2 Focus range (gesture detectable range)
133 Reflection sensor 133a LED (light emitting element)
133b Photosensor (light receiving element)
134 Focus lens 134 (detection range setting means)
135 Lens Driving Unit 14 Interface 101 Input / Output Bus 102 CPU
DESCRIPTION OF SYMBOLS 103 Control signal production | generation means 104 Image operation control means 105 Interface circuit 106 Motor driver circuit 107 Motor 111 Image signal input means 112 Image processing circuit 113 Light modulation element drive circuit 114 Light modulation element 121 Light source control circuit 122 Light source 123 Illumination optical system 124 Connection Image optical system 125 Focus detection means 20 Screen (projection surface)
30 Personal computer (video source)
31 Image operation control means 31
40 External equipment (video source)

Claims (9)

光源からの光を光変調素子により映像光に変調し、結像光学系を介して前記映像光を投影し、投影面に画像表示を行う画像投影装置であって、
前記映像光の投影方向とは異なる所定方向において行われた操作者のジェスチャを検出することが可能なジェスチャ検出手段と、
前記ジェスチャ検出手段によるジェスチャの検出可能範囲を定めるための検出範囲設定手段と、
前記ジェスチャ検出手段の検出結果であるジェスチャ情報に基づいて制御信号を生成する制御信号生成手段とを備えたことを特徴とする画像投影装置。
An image projection apparatus that modulates light from a light source into image light by a light modulation element, projects the image light through an imaging optical system, and displays an image on a projection surface,
Gesture detecting means capable of detecting an operator gesture performed in a predetermined direction different from the projection direction of the image light;
Detection range setting means for determining a detectable range of gestures by the gesture detection means;
An image projection apparatus comprising: control signal generation means for generating a control signal based on gesture information which is a detection result of the gesture detection means.
前記ジェスチャ検出手段におけるジェスチャの検出可能な所定方向が、前記映像光の投影方向と交差する方向であることを特徴とする請求項1記載の画像投影装置。   The image projection apparatus according to claim 1, wherein a predetermined direction in which the gesture detection unit can detect a gesture is a direction intersecting with the projection direction of the image light. 前記ジェスチャ検出手段によるジェスチャの検出可能範囲が、前記投影面に表示される画像の少なくとも一側端部近傍に位置することを特徴とする請求項1又は2記載の画像投影装置。   The image projection apparatus according to claim 1, wherein a gesture detectable range of the gesture detection unit is located in the vicinity of at least one side edge of an image displayed on the projection plane. 前記ジェスチャ検出手段におけるジェスチャの検出可能な所定方向が、前記投影面の反対側の方向であることを特徴とする請求項1記載の画像投影装置。   The image projection apparatus according to claim 1, wherein the predetermined direction in which the gesture detection unit can detect the gesture is a direction opposite to the projection plane. 前記ジェスチャ検出手段によるジェスチャの検出可能範囲を、前記映像光の投影距離に応じて変動させ、又は前記映像光の投影距離にかかわらず一定としたことを特徴とする請求項1〜4いずれか記載の画像投影装置。   The range in which a gesture can be detected by the gesture detection unit is changed in accordance with the projection distance of the image light, or constant regardless of the projection distance of the image light. Image projector. 前記ジェスチャ検出手段が、被写体を撮像する撮像素子を含み、前記検出可能範囲内において行われたジェスチャを撮像することにより検出することを特徴とする請求項1〜5いずれか記載の画像投影装置。   The image projection device according to claim 1, wherein the gesture detection unit includes an image pickup device that picks up an image of a subject, and detects the gesture performed within the detectable range by picking up an image. 前記ジェスチャ検出手段が、反射光を検出する反射センサを含み、前記検出可能範囲内において行われたジェスチャを前記反射光により検出することを特徴とする請求項1〜5いずれか記載の画像投影装置。   The image projection device according to claim 1, wherein the gesture detection unit includes a reflection sensor that detects reflected light, and detects a gesture performed within the detectable range by the reflected light. . 前記制御信号生成手段からの制御信号に基づいて、前記画像表示の所定操作に関する制御処理を実行する画像操作制御手段を備えたことを特徴とする請求項1〜7いずれか記載の画像投影装置。 The image projection apparatus according to claim 1, further comprising an image operation control unit that executes a control process related to a predetermined operation of the image display based on a control signal from the control signal generation unit. 前記画像投影装置に有線又は無線により接続された外部端末装置に、前記制御信号生成手段からの制御信号に基づいて、前記画像表示の所定操作に関する制御処理を実行する画像操作制御手段を含めたことを特徴とする請求項1〜7いずれか記載の画像投影装置。   The external terminal device connected to the image projection device by wire or wireless includes an image operation control means for executing a control process related to a predetermined operation of the image display based on a control signal from the control signal generation means. The image projection apparatus according to claim 1, wherein:
JP2007133879A 2007-05-21 2007-05-21 Image projector Withdrawn JP2008287142A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007133879A JP2008287142A (en) 2007-05-21 2007-05-21 Image projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007133879A JP2008287142A (en) 2007-05-21 2007-05-21 Image projector

Publications (1)

Publication Number Publication Date
JP2008287142A true JP2008287142A (en) 2008-11-27

Family

ID=40146890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007133879A Withdrawn JP2008287142A (en) 2007-05-21 2007-05-21 Image projector

Country Status (1)

Country Link
JP (1) JP2008287142A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206726A (en) * 2008-02-27 2009-09-10 Sanyo Electric Co Ltd Projection video display device
WO2011024915A1 (en) * 2009-08-27 2011-03-03 京セラ株式会社 Electronic device
JP2011064777A (en) * 2009-09-15 2011-03-31 Konica Minolta Business Technologies Inc Image projection system, image projection method and image projection program
JP2012027532A (en) * 2010-07-20 2012-02-09 Canon Inc Information processor and information processing method
JP2012098401A (en) * 2010-10-29 2012-05-24 Sony Corp Projection device, projection method and program
JP2012191568A (en) * 2011-03-14 2012-10-04 Ricoh Co Ltd Image projection apparatus, function setting method, and function setting program
US8773669B2 (en) 2012-07-17 2014-07-08 Kabushiki Kaisha Toshiba Optical device
JP2015007986A (en) * 2014-07-25 2015-01-15 京セラ株式会社 Electronic apparatus, program for controlling electronic apparatus, and method for controlling electronic apparatus
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
WO2015045125A1 (en) * 2013-09-27 2015-04-02 日立マクセル株式会社 Video projection device
CN104683720A (en) * 2013-11-28 2015-06-03 联想(北京)有限公司 Electronic equipment and control method
US9400562B2 (en) 2013-01-16 2016-07-26 Ricoh Company, Ltd. Image projection device, image projection system, and control method
WO2018154954A1 (en) * 2017-02-24 2018-08-30 ソニーモバイルコミュニケーションズ株式会社 Information processing device, information processing method, and program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206726A (en) * 2008-02-27 2009-09-10 Sanyo Electric Co Ltd Projection video display device
WO2011024915A1 (en) * 2009-08-27 2011-03-03 京セラ株式会社 Electronic device
JP2011049897A (en) * 2009-08-27 2011-03-10 Kyocera Corp Electronic device
US8941768B2 (en) 2009-08-27 2015-01-27 Kyocera Corporation Electronic device control system having image displaying function and image capturing function
JP2011064777A (en) * 2009-09-15 2011-03-31 Konica Minolta Business Technologies Inc Image projection system, image projection method and image projection program
US8427507B2 (en) 2009-09-15 2013-04-23 Konica Minolta Business Technologies, Inc. Image projection system able to emphasize or cancel objects drawn on a surface
JP2012027532A (en) * 2010-07-20 2012-02-09 Canon Inc Information processor and information processing method
US8896740B2 (en) 2010-10-29 2014-11-25 Sony Corporation Projection device, projection method, and program
JP2012098401A (en) * 2010-10-29 2012-05-24 Sony Corp Projection device, projection method and program
JP2012191568A (en) * 2011-03-14 2012-10-04 Ricoh Co Ltd Image projection apparatus, function setting method, and function setting program
US8773669B2 (en) 2012-07-17 2014-07-08 Kabushiki Kaisha Toshiba Optical device
US9400562B2 (en) 2013-01-16 2016-07-26 Ricoh Company, Ltd. Image projection device, image projection system, and control method
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
WO2015045125A1 (en) * 2013-09-27 2015-04-02 日立マクセル株式会社 Video projection device
CN105247414A (en) * 2013-09-27 2016-01-13 日立麦克赛尔株式会社 Video projection device
JPWO2015045125A1 (en) * 2013-09-27 2017-03-02 日立マクセル株式会社 Video projection device
CN105247414B (en) * 2013-09-27 2017-07-18 日立麦克赛尔株式会社 Image projection apparatus
US9942529B2 (en) 2013-09-27 2018-04-10 Hitachi Maxell, Ltd. Image projection device
CN104683720A (en) * 2013-11-28 2015-06-03 联想(北京)有限公司 Electronic equipment and control method
CN104683720B (en) * 2013-11-28 2019-12-03 联想(北京)有限公司 A kind of electronic equipment and control method
JP2015007986A (en) * 2014-07-25 2015-01-15 京セラ株式会社 Electronic apparatus, program for controlling electronic apparatus, and method for controlling electronic apparatus
WO2018154954A1 (en) * 2017-02-24 2018-08-30 ソニーモバイルコミュニケーションズ株式会社 Information processing device, information processing method, and program
CN110168474A (en) * 2017-02-24 2019-08-23 索尼移动通信株式会社 Information processing equipment, information processing method and program
JPWO2018154954A1 (en) * 2017-02-24 2019-12-26 ソニーモバイルコミュニケーションズ株式会社 Information processing apparatus, information processing method, and program
US10976648B2 (en) 2017-02-24 2021-04-13 Sony Mobile Communications Inc. Information processing apparatus, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2008287142A (en) Image projector
US10431131B2 (en) Projector and control method for projector
JP6307852B2 (en) Image display device and method for controlling image display device
JP6343910B2 (en) Projector and projector control method
JP2012108479A (en) Projection type display device and control method thereof
JP2010244484A (en) Image display device, image display method and image display program
US11188170B2 (en) Image display apparatus and method for controlling the same
CN109307973B (en) Projector and control method of projector
US10015457B2 (en) Projector and control method with a starting reference position in a lower part of a target image
US11282422B2 (en) Display device, and method of controlling display device
US20170277358A1 (en) Display system, display device, information processing device, and information processing method
US10466574B2 (en) Image projection apparatus
JP2013182061A (en) Projection system
US20120218294A1 (en) Projection-type image display apparatus
WO2016157804A1 (en) Projector and projector control method
JP2008287624A (en) System and method for processing image, image processor, and program
JP2008146463A (en) Position detection apparatus
US11470292B2 (en) Projection image adjusting method and projection apparatus
JP2018054880A (en) Display device, information processing device, and information processing method
JP5250980B2 (en) Projector and image correction method for the projector
JP2018159835A (en) Projection device
JP6427888B2 (en) Image display system, image display apparatus, and image display method
JP5924577B2 (en) Position detection device
JP6642032B2 (en) Projector and projector control method
JP2018025665A (en) Display unit, display system, control device, display method, and display program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100803