JP2004348078A - Projection video display device - Google Patents

Projection video display device Download PDF

Info

Publication number
JP2004348078A
JP2004348078A JP2003148016A JP2003148016A JP2004348078A JP 2004348078 A JP2004348078 A JP 2004348078A JP 2003148016 A JP2003148016 A JP 2003148016A JP 2003148016 A JP2003148016 A JP 2003148016A JP 2004348078 A JP2004348078 A JP 2004348078A
Authority
JP
Japan
Prior art keywords
projection
display element
screen surface
display device
video display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003148016A
Other languages
Japanese (ja)
Inventor
Fumio Haruna
史雄 春名
Tomoo Kobori
智生 小堀
Atsushi Shigeta
敦 繁田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003148016A priority Critical patent/JP2004348078A/en
Publication of JP2004348078A publication Critical patent/JP2004348078A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Liquid Crystal (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Projection Apparatus (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology of a projection video display device which prevents projected light powerful to a person etc., from entering the eyes and avoids giving an unpleasant impression to a viewer. <P>SOLUTION: A video display element is driven in the state of dividing an area to a plurality of areas and the person or the like entering the inside of the projection area of a screen surface is detected by at least any among a plurality of detecting means. Replacement of data is discretely performed by each of the plurality of areas of the video display element based on the detected information and the display state of the screen surface position is changed in correspondence to the position of the person or the like. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、液晶プロジェクタ等の投射型映像表示装置に係り、特に投射光の明るさを制御する技術に関する。
【0002】
【従来の技術】
従来、前方のスクリーン面に光を投射する液晶プロジェクタ等の投射型映像表示装置においては、スクリーン面までの投射光路内に説明者等が進入し、投射側に顔を向けた場合には、強力な光が眼中に入る結果、視覚系にダメージを与える危険性があるが、これに対しては、注意喚起表示を施す等により対応している。
また、本発明に関連した従来技術であって特許文献に記載された技術としては、例えば、特開2000−19636号公報(特許文献1)、特開2000−305481号公報(特許文献2)及び特開2001−75170号公報(特許文献3)に記載されたものがある。特開2000−19636号公報には、投射領域内に人等の物体があるとき、超音波センサにより該物体を検出し、投射面の全体につき明るさを暗くする投射型表示装置の構成が記載され、特開2000−305481号公報には、投射型表示装置内に設けた撮像手段でディスプレイ領域を撮像し、人物が位置するディスプレイ領域の映像光の明るさを制御する構成が記載され、特開2001−75170号公報には、投影光の通過する投影空間領域の外部に、該投影空間領域の外縁に沿う局所的な空間を検出対象領域とした複数の検出装置を備え、該検出装置により該検出対象領域内の物体を検出したとき、発光源であるランプユニットの電源をオフして投影を停止させる構成が記載されている。
【0003】
【特許文献1】
特開2000−19636号公報
【特許文献2】
特開2000−305481号公報
【特許文献3】
特開2001−75170号公報
【0004】
【発明が解決しようとする課題】
上記従来技術のうち、危険性を示す表示を設ける場合は、該表示が見落とされてしまう場合も多い。また、特許文献のうち特開2000−19636号公報や特開2001−75170号公報に記載の技術では、例えば人物等が投射面(スクリーン面)の端部に少し入り込んだ場合であっても画像全体の光強度を減少させてしまうため、視聴者に対しては不快な印象を与えるおそれが高い。また、特開2000−305481号公報記載の技術では、高価な撮像素子を必要とし、回路構成も複雑になると考えられる。
本発明の課題点は、上記従来技術の状況に鑑み、投射型映像表示装置において、低コストかつ簡易な構成下で、スクリーン面への投射領域内に入り込んだ人物等の位置に応じスクリーン面の明るさ等の状態を部分的に変えられるようにし、人物等に対し強力な投射光が眼に入らないようにできるとともに、視聴者に対しても不快な印象を与えないようにすることである。
本発明の目的は、かかる課題点を解決できる技術の提供にある。
【0005】
【課題を解決するための手段】
上記課題点を解決するために、本発明では、基本的に、投射型映像表示装置として、上記映像表示素子を該素子上の領域を複数の領域に分けた状態で駆動し、スクリーン面の領域内に入った人または物を、異なる位置の複数の検知手段の少なくともいずれかで検知し、該検知情報に基づき上記映像表示素子の上記複数の領域毎に別個にデータの置換えを行い、該人または物の位置に対応したスクリーン面位置の表示状態を変化させる構成とする。上記データは、特定均一色データ、黒色データ、輝度レベルを低減した映像信号に基づくデータなどである
【0006】
【発明の実施の形態】
以下、本発明の実施例につき、図面を用いて説明する。
図1〜図5は、本発明の第1の実施例の説明図である。図1は、本発明の第1の実施例としての投射型映像表示装置の構成例図、図2は、図1の装置の動作信号のタイミング説明図、図3は、図1の装置の制御動作の手順の説明図、図4は、図1の装置の投射画像例を示す図、図5は、本発明の投射型映像表示装置における他の投射画像例を示す図である。
図1において、1aは、本発明の第1の実施例としての投射型映像表示装置、2はスクリーン、3aは制御手段としてのCPU、4は表示素子駆動手段としての信号処理部、5は光源側からの光を光学的に処理する光学部、6、7は、スクリーン2の光投射面(以下、スクリーン面という)の領域内に入った人または物を検知する検知手段としての複数の超音波センサ、10、11は、超音波センサ6、7の駆動と検知信号の処理などを行うセンサ駆動処理部である。投射型映像表示装置1aは、上記複数の超音波センサ6、7、センサ駆動処理部10、11、CPU3a、信号処理部4及び光学部5を備えて構成される。センサ駆動処理部10、11はそれぞれ互いに同様の構成を有し、40kHz発生部101、第1増幅部102、第2増幅部103、パルス生成部104を備えて構成される。
光学部5は、照明光学系51、映像表示素子52及び投射レンズ53を備えて構成され、照明光学系51は、ランプ511、リフレクタ512、コンデンサレンズ513から成る。超音波センサ6、7は、本第1の実施例では、投射型映像表示装置1a内においてスクリーン面と対向する水平方向の複数箇所すなわち投射レンズ53をはさむ左右の位置に配され、投射光路の最外郭に沿って超音波を発生させるようになっている。該超音波センサ6、7は、それぞれが送受信兼用型構成を有し、センサ40kHzのパルスが入力されると超音波を発生するとともに、超音波を受信するようになっている。40kHzパルスの発生は40kHz発生部101で行う。信号処理部4は、映像信号に基づき映像表示素子52を、該素子52上の領域を複数の領域に分けた状態で駆動するようになっている。制御手段としてのCPU3aは、センサ駆動処理部10、11側から入力される超音波センサ6、7の検知情報(検知信号)に基づき信号処理部4を制御して、映像表示素子52の複数の領域毎にデータを、特定均一色データ、黒色データ、輝度レベルを低減した映像信号に基づくデータ(明るさを低くした映像データ)などのデータへの置換えを行わせるようになっている。該CPU3aで用いる制御用データや制御用プログラムはメモリ(図示なし)に記憶されるものとする。また、映像表示素子52としては、例えば透過型液晶パネルを用いる。
【0007】
上記構成において、ランプ511とリフレクタ512から成る光源ユニットから出射された光は、コンデンサレンズ513によりコリメートされ映像表示素子52に照射される。該映像表示素子52に照射された光は、信号処理部4を介して該映像表示素子52に入力される映像信号に基づき光変調され、該映像信号に対応した映像光として出射される。該映像光はプリズム等(図示なし)により色合成された後、投射レンズ53から、色合成された光学像の映像光としてスクリーン2に拡大投射される。スクリーン面の領域に例えば人が入った場合には、超音波センサ6、7のいずれか一方または両方がこれを検知し、センサ駆動処理部10、11で処理された検知信号がCPU3aに入力される。CPU3aは、該検知信号に基づき信号処理部4を制御して、映像表示素子52の複数の領域のうち該進入した人の位置のスクリーン面に対応した領域のデータを、予め設定してある特定均一色データ、黒色データ、輝度レベルを低減した映像信号に基づくデータ(明るさを低くした映像データ)などへ置換えさせる。
【0008】
図2は、図1の構成における超音波センサ6、7及びセンサ駆動処理部10、11の動作信号のタイミングを説明する図である。
センサ駆動処理部10、11では、40kHz発生部101において40kHzのパルスを例えば20Hz間隔で間欠発振させる(波形▲1▼)。該状態でのパルス発生は、ロジックICまたプログラマブルロジックデバイス(以下、PLDという)などのデバイスを用いて行うとする。該発生された40kHzのパルスは、第1増幅部102で増幅されて振幅を数十Vpp以上にされた後、超音波センサ6、7に入力される。該第1増幅部102は、例えば高耐圧トランジスタやトランスで構成される。超音波センサ6、7は、上記入力された40kHzパルスにより超音波を発生する。発生した超音波はスクリーン2側の所定の方向に発信される。該超音波はスクリーン2で反射して、超音波センサ6、7にて受信される。超音波センサ6、7は、受信した超音波に基づき40kHzのパルスを発生して出力する。該超音波センサ6、7で発生する40kHzのパルスは、センサ駆動処理部10、11内の第2増幅器103で増幅される(波形▲2▼、波形▲3▼)。波形▲2▼は超音波センサ6(左センサ)からの40kHzパルスの増幅波形、波形▲3▼は超音波センサ7(右センサ)からの40kHzパルスの増幅波形である。波形▲2▼、波形▲3▼ともそれぞれ、波形▲1▼に対し、発信後反射されて戻るまでの時間分遅れた位置に発生する。超音波センサ6(左センサ)からの40kHzパルスはスクリーン2で反射して再び超音波センサ6(左センサ)に戻り、超音波センサ7(右センサ)からの40kHzパルスはスクリーン2のスクリーン面の投射領域内にいる人物8で反射して再び超音波センサ7(右センサ)に戻るものとする。超音波センサ7(右センサ)から人物8までの距離は、超音波センサ6(左センサ)からスクリーン2までの距離よりも短い。このため、波形▲3▼は波形▲2▼よりも、波形▲1▼に対する遅れ時間が少ない位置に発生する。センサ駆動処理部10、11内のパルス生成部104では、波形▲1▼と波形▲2▼、または、波形▲1▼と波形▲3▼を取り込み、波形▲4▼または波形▲5▼のように超音波の発生から受信までの期間のみLowレベルとなるパルスを発生させる。該パルス生成部104はPLDのような回路で構成可能である。該波形▲4▼または波形▲5▼のパルスは、CPU3aに入力される。CPU3aでは、該パルスに基づき演算を行い、信号処理部4を制御する。
【0009】
図3は図1の構成におけるCPU3aによる制御動作手順の説明図である。図4は、該制御動作による投射画像例を示す図である。
図3において、
(1)まず、投射型映像表示装置1aとスクリーン2の間に人物8が割り込まない(進入しない)状態(初期状態)における受信波の遅延時間を測定する(ステップS30)。受信波の遅延時間測定方法は、CPU3aのカウンタ機能を用いて、図2の波形▲4▼、▲5▼で示されるパルスのLowレベルの時間を測定する。CPU3aはLowレベルの期間のカウント数を計測し、該カウント数を時間に変換する。例えば1カウントが0.1×10−6sであれば、カウント数に10−6sを乗じて遅延時間を算出する。カウント機能のないCPU3aの場合は、例えばパルス生成部104でカウントを行い、パルスのLowレベル期間のカウント数をCPU3aに送るようにする。
(2)次に、通常状態において超音波センサ6の受信波遅延時間を測定し、初期状態より遅延時間が短いか否かを判別する(ステップS31)。
(3)同様に,超音波センサ7の受信波遅延時間を測定し、初期状態より遅延時間が短いか否かを判別する(ステップS32、ステップS33)。
(4)上記ステップS31〜ステップS33の結果の組み合せにより、4つの状態に遷移する。例えば、超音波センサ6、7両方の遅延時間が短くなった場合は、人物8がスクリーン中央に位置すると判断し、スクリーン面全体の光強度を減少させるよう信号処理部4を制御する(ステップS34)。例えばスクリーン面の全面を黒にマスクするよう信号処理部4へ命令する。
(5)超音波センサ6のみ遅延時間が短くなった場合は、人物8はスクリーン左側(超音波センサ6側)に位置すると判断し、図4に示すようにスクリーン面の左半分(超音波センサ6側)の光強度を減少させるよう信号処理部4を制御する(ステップS35)。
(6)超音波センサ7のみ遅延時間が短くなった場合は、人物8はスクリーン右側(超音波センサ7側)に位置すると判断し、スクリーン面の右半分(超音波センサ7側)の光強度を減少させるよう信号処理部4を制御する(ステップS36)。
(7)超音波センサ6、7両方の遅延時間が変化しなかった場合は、スクリーン全面の黒マスクを停止するよう信号処理部4を制御する(ステップS37)。
【0010】
これらステップS31〜ステップS37の一連の制御を繰り返すことにより、人物8が割り込んだ側のスクリーン面の光強度を減少させることができる。
上記では超音波センサを2個用いた場合につき説明したが、超音波センサは3個以上用いてもよい。例えば図5のように画面を4つに分割して制御するようにし、それぞれに対応して4個の超音波センサを配置させる構成としてもよい。該構成とした場合も、投射型映像表示装置の基本構成及び動作は、上記図1〜図4の場合と同様である。
【0011】
上記第1の実施例によれば、低コストかつ簡易な構成下で、スクリーン面の投射領域内に入り込んだ人物等の位置に応じスクリーン面の明るさ等の画面状態を部分的に変えられるため、該人物等は強力な光が眼中に入ることもないし、また視聴者に対して不快な印象を与えるおそれもなくせる。
【0012】
図6、図7は本発明の第2の実施例の説明図である。本第2の実施例では、人または物を検知する検知手段として赤外線センサを用いる。図6は、本発明の第2の実施例としての投射型映像表示装置の構成例図、図7は赤外線距離センサの説明図である。
図6において、1bは、本発明の第2の実施例としての投射型映像表示装置、61、71は検知手段としての赤外線距離センサ、3bは制御手段としてのCPUである。その他上記図1の構成要素と同じものには図1の場合と同じ符号を付しその説明を省略する。赤外線距離センサ61、71としては、例えば図7に示す構成のPSD(Position Sensitive Detector)型赤外線距離センサを用いる。図7において、610は赤外発光ダイオード、611は位置検出素子(PSD)、612、613はレンズである。赤外線距離センサ61(赤外線距離センサ71も同じ)内において、赤外発光ダイオード610からレンズ613を通して出射された光は、物体8で反射し、反射光がレンズ612を通して位置検出素子(PSD)611に入射する。位置検出素子611は、例えばPIN型フォトダイオードで構成され、反射光の当たる位置に依存して出力電圧値が変化する。これによって、赤外線が反射される位置までの距離を計測する。
【0013】
図6の構成において、赤外線距離センサ61、71は、投射型映像表示装置1bとスクリーン2との間に人物8が割り込まない状態(初期状態)におけるスクリーン2までの距離を測定し、アナログ電圧値に変換する。CPU3bは該アナログ電圧値を取り込み、内部のAD変換部により該アナログ電圧値をデジタル値に変換して記憶する。CPU3b内にAD変換部がない場合は、外部にAD変換部を設ければよい。以降の動作は上記図3の場合とほぼ同様の手順で行われるとする。CPU3bは、赤外線距離センサ61、71からの距離情報がスクリーン2までの距離より短くなった場合には、人物8は投射型映像表示装置1bとスクリーン2との間にいると判断し、スクリーン面上の対応する領域の光強度を減少させるよう信号処理部4を制御する。
【0014】
上記第2の実施例によっても、上記第1の実施例と同様、低コストかつ簡易な構成下で、スクリーン面の投射領域内に入り込んだ人物等の位置に応じスクリーン面の明るさ等の画面状態を部分的に変えられるため、該人物等は強力な光が眼中に入ることもないし、また視聴者に対して不快な印象を与えるおそれもなくせる。特に、赤外線距離センサ61、71からの距離情報を直接取得できるため、装置構成を一層簡略化することができる。
【0015】
なお、上記各実施例では、検知手段からの検知信号に基づき信号処理部4を制御して、映像表示素子52の複数の領域のうち進入した人などの位置のスクリーン面に対応した領域のデータを置換えて、スクリーン面を水平方向に分割した状態で表示状態を変化させる構成としたが、本発明はこれには限定されず、例えば、スクリーン面を垂直方向に分割した状態で表示状態を変化させる構成としてもよいし、または、スクリーン面を水平方向と垂直方向の両方に分割した状態で表示状態を変化させる構成としてもよい。また、検知手段も、超音波センサや赤外線距離センサに限定されず、例えばレーザセンサなどの距離センサや、人物の発する赤外線を感知する焦電型赤外線センサなどであってもよい。
【0016】
【発明の効果】
本発明によれば、投射型映像表示装置において、スクリーン面の投射領域内に入り込んだ人物等の位置に応じスクリーン面の明るさ等の画面状態を部分的に変えられ、該人物等に対し強力な投射光が眼に入らないようにできるとともに、視聴者に対しても不快な印象を与えないようにすることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施例としての投射型映像表示装置の構成例図である。
【図2】図1の装置における検知動作のタイミング説明図である。
【図3】図1の装置における制御動作手順の説明図である。
【図4】図1の装置の投射画像例を示す図である。
【図5】本発明の投射型映像表示装置における他の投射画像例を示す図である。
【図6】本発明の第2の実施例としての投射型映像表示装置の構成例図である。
【図7】図6の装置における赤外線距離センサの説明図である。
【符号の説明】
1a、1b…投射型映像表示装置、 2…スクリーン、 3a、3b…CPU、 4…信号処理部、 5…光学部、 6、7…超音波センサ、 10、11…センサ駆動処理部、 101…40kHz発生部、 102…第1増幅部、 103…第2増幅部、 104…パルス生成部、 51…照明光学系、 52…映像表示素子、 53…投射レンズ、 511…ランプ、 512…リフレクタ、
513…コンデンサレンズ、 61、71…赤外線距離センサ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a projection display apparatus such as a liquid crystal projector, and more particularly to a technique for controlling the brightness of projection light.
[0002]
[Prior art]
Conventionally, in a projection-type image display device such as a liquid crystal projector that projects light on a front screen surface, when an explainer enters a projection optical path to the screen surface and turns his / her face toward the projection side, a strong There is a danger of damaging the visual system as a result of the light entering the eye, but this is dealt with by giving a warning display or the like.
Examples of the prior art related to the present invention and described in Patent Literature include JP-A-2000-19636 (Patent Document 1), JP-A-2000-305481 (Patent Document 2), and There is one described in JP-A-2001-75170 (Patent Document 3). Japanese Patent Application Laid-Open No. 2000-19636 describes a configuration of a projection display device that detects an object such as a person in a projection area by an ultrasonic sensor and reduces the brightness of the entire projection surface. Japanese Patent Laying-Open No. 2000-305481 describes a configuration in which an image of a display area is imaged by an imaging unit provided in a projection display device, and the brightness of image light in the display area where a person is located is described. Japanese Unexamined Patent Application Publication No. 2001-75170 discloses that a plurality of detection devices are provided outside a projection space region through which projection light passes, and a local space along an outer edge of the projection space region is set as a detection target region. A configuration is described in which when an object in the detection target area is detected, the power of a lamp unit serving as a light emission source is turned off to stop projection.
[0003]
[Patent Document 1]
JP 2000-19636 [Patent Document 2]
JP 2000-305481 A [Patent Document 3]
JP 2001-75170 A
[Problems to be solved by the invention]
Of the above-described conventional techniques, when a display indicating danger is provided, the display is often overlooked. Further, among the patent documents, in the technology described in JP-A-2000-19636 and JP-A-2001-75170, for example, even when a person or the like slightly enters an end portion of a projection surface (screen surface), an image is displayed. Since the overall light intensity is reduced, the viewer is likely to give an unpleasant impression. Further, the technique described in Japanese Patent Application Laid-Open No. 2000-305481 requires an expensive image pickup device, and the circuit configuration is considered to be complicated.
The problem of the present invention is that, in view of the state of the prior art described above, in a projection type video display device, under a low-cost and simple configuration, the screen surface is adjusted according to the position of a person or the like entering the projection area on the screen surface. The purpose is to make it possible to partially change the state of brightness etc., to prevent powerful projection light from entering eyes, etc., and not to give an unpleasant impression to viewers. .
An object of the present invention is to provide a technique capable of solving such a problem.
[0005]
[Means for Solving the Problems]
In order to solve the above problems, in the present invention, basically, as a projection type image display device, the image display element is driven in a state where an area on the element is divided into a plurality of areas, and an area on a screen surface is A person or object entering the inside is detected by at least one of a plurality of detection means at different positions, and data is separately replaced for each of the plurality of regions of the video display element based on the detection information. Alternatively, the display state of the screen surface position corresponding to the position of an object is changed. The data is specific uniform color data, black data, data based on a video signal with a reduced luminance level, and the like.
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
1 to 5 are explanatory diagrams of a first embodiment of the present invention. FIG. 1 is a diagram showing an example of the configuration of a projection type video display device according to a first embodiment of the present invention. FIG. 2 is a timing chart for explaining operation signals of the device shown in FIG. 1, and FIG. FIG. 4 is a diagram illustrating an example of a projection image of the apparatus in FIG. 1, and FIG. 5 is a diagram illustrating another example of a projection image in the projection display apparatus of the present invention.
In FIG. 1, reference numeral 1a denotes a projection type video display device as a first embodiment of the present invention, 2 denotes a screen, 3a denotes a CPU as control means, 4 denotes a signal processing unit as display element driving means, and 5 denotes a light source. The optical units 6, 7 for optically processing light from the side are provided with a plurality of ultra-thin detecting means for detecting a person or an object entering an area of a light projection surface (hereinafter, referred to as a screen surface) of the screen 2. The sound wave sensors 10, 11 are sensor drive processing units that drive the ultrasonic sensors 6, 7 and process detection signals. The projection display apparatus 1a includes the plurality of ultrasonic sensors 6, 7, the sensor drive processing units 10, 11, the CPU 3a, the signal processing unit 4, and the optical unit 5. Each of the sensor drive processing units 10 and 11 has the same configuration as each other, and includes a 40 kHz generation unit 101, a first amplification unit 102, a second amplification unit 103, and a pulse generation unit 104.
The optical unit 5 includes an illumination optical system 51, an image display element 52, and a projection lens 53. The illumination optical system 51 includes a lamp 511, a reflector 512, and a condenser lens 513. In the first embodiment, the ultrasonic sensors 6 and 7 are disposed at a plurality of horizontal positions facing the screen surface, that is, right and left positions sandwiching the projection lens 53 in the projection display apparatus 1a. Ultrasonic waves are generated along the outermost contour. Each of the ultrasonic sensors 6 and 7 has a transmission / reception type configuration. When a pulse of 40 kHz is input, the ultrasonic sensors 6 and 7 generate ultrasonic waves and receive the ultrasonic waves. The generation of the 40 kHz pulse is performed by the 40 kHz generation unit 101. The signal processing section 4 drives the video display element 52 based on the video signal in a state where the area on the element 52 is divided into a plurality of areas. The CPU 3 a as a control unit controls the signal processing unit 4 based on detection information (detection signals) of the ultrasonic sensors 6 and 7 input from the sensor drive processing units 10 and 11, and controls a plurality of the video display elements 52. For each area, the data is replaced with data such as specific uniform color data, black data, and data based on a video signal with reduced luminance level (video data with reduced brightness). The control data and control program used by the CPU 3a are stored in a memory (not shown). As the image display element 52, for example, a transmission type liquid crystal panel is used.
[0007]
In the above configuration, the light emitted from the light source unit including the lamp 511 and the reflector 512 is collimated by the condenser lens 513 and applied to the image display element 52. The light applied to the video display element 52 is light-modulated based on the video signal input to the video display element 52 via the signal processing unit 4, and emitted as video light corresponding to the video signal. The image light is color-combined by a prism or the like (not shown), and then enlarged and projected from the projection lens 53 onto the screen 2 as image light of the color-combined optical image. For example, when a person enters the area of the screen surface, one or both of the ultrasonic sensors 6 and 7 detect this, and a detection signal processed by the sensor drive processing units 10 and 11 is input to the CPU 3a. You. The CPU 3a controls the signal processing unit 4 based on the detection signal to specify data of an area corresponding to the screen surface at the position of the intruder among a plurality of areas of the video display element 52, in a predetermined manner. It is replaced with uniform color data, black data, data based on a video signal with a reduced luminance level (video data with reduced brightness), and the like.
[0008]
FIG. 2 is a diagram illustrating timings of operation signals of the ultrasonic sensors 6, 7 and the sensor drive processing units 10, 11 in the configuration of FIG.
In the sensor drive processing units 10 and 11, the 40 kHz pulse is intermittently oscillated in the 40 kHz generation unit 101 at intervals of, for example, 20 Hz (waveform (1)). Pulse generation in this state is performed using a device such as a logic IC or a programmable logic device (hereinafter, referred to as a PLD). The generated 40 kHz pulse is amplified by the first amplifier 102 to have an amplitude of several tens Vpp or more, and is then input to the ultrasonic sensors 6 and 7. The first amplifying unit 102 includes, for example, a high-voltage transistor or a transformer. The ultrasonic sensors 6 and 7 generate ultrasonic waves based on the input 40 kHz pulse. The generated ultrasonic waves are transmitted in a predetermined direction on the screen 2 side. The ultrasonic waves are reflected by the screen 2 and received by the ultrasonic sensors 6 and 7. The ultrasonic sensors 6 and 7 generate and output a 40 kHz pulse based on the received ultrasonic waves. The 40 kHz pulses generated by the ultrasonic sensors 6 and 7 are amplified by the second amplifier 103 in the sensor drive processing units 10 and 11 (waveforms 2 and 3). The waveform (2) is an amplified waveform of a 40 kHz pulse from the ultrasonic sensor 6 (left sensor), and the waveform (3) is an amplified waveform of a 40 kHz pulse from the ultrasonic sensor 7 (right sensor). Both the waveforms (2) and (3) are generated at positions delayed from the waveform (1) by the time from the transmission to the reflection and return. The 40 kHz pulse from the ultrasonic sensor 6 (left sensor) is reflected on the screen 2 and returns to the ultrasonic sensor 6 (left sensor) again. The 40 kHz pulse from the ultrasonic sensor 7 (right sensor) is reflected on the screen surface of the screen 2. It is assumed that the light is reflected by the person 8 in the projection area and returns to the ultrasonic sensor 7 (right sensor) again. The distance from the ultrasonic sensor 7 (right sensor) to the person 8 is shorter than the distance from the ultrasonic sensor 6 (left sensor) to the screen 2. Therefore, the waveform (3) occurs at a position where the delay time with respect to the waveform (1) is shorter than that of the waveform (2). The pulse generation unit 104 in the sensor drive processing units 10 and 11 takes in the waveform (1) and the waveform (2) or the waveform (1) and the waveform (3), and obtains the waveform (4) or the waveform (5). A pulse having a low level is generated only during the period from the generation of ultrasonic waves to the reception thereof. The pulse generator 104 can be configured by a circuit such as a PLD. The pulse of the waveform (4) or the waveform (5) is input to the CPU 3a. The CPU 3a performs an operation based on the pulse and controls the signal processing unit 4.
[0009]
FIG. 3 is an explanatory diagram of a control operation procedure by the CPU 3a in the configuration of FIG. FIG. 4 is a diagram showing an example of a projection image by the control operation.
In FIG.
(1) First, the delay time of a received wave in a state where the person 8 is not interrupted (entered) between the projection display apparatus 1a and the screen 2 (initial state) is measured (step S30). In the method of measuring the delay time of the received wave, the Low level time of the pulse indicated by the waveforms (4) and (5) in FIG. 2 is measured using the counter function of the CPU 3a. The CPU 3a measures the count number during the Low level period, and converts the count number into time. For example, if one count is 0.1 × 10 −6 s, the delay time is calculated by multiplying the count number by 10 −6 s. In the case of the CPU 3a without the counting function, for example, the pulse is generated by the pulse generation unit 104, and the count number of the low level period of the pulse is sent to the CPU 3a.
(2) Next, the reception wave delay time of the ultrasonic sensor 6 is measured in the normal state, and it is determined whether or not the delay time is shorter than the initial state (step S31).
(3) Similarly, the reception wave delay time of the ultrasonic sensor 7 is measured, and it is determined whether the delay time is shorter than the initial state (steps S32 and S33).
(4) The state transits to four states according to the combination of the results of steps S31 to S33. For example, when the delay time of both the ultrasonic sensors 6 and 7 is shortened, it is determined that the person 8 is located at the center of the screen, and the signal processing unit 4 is controlled to reduce the light intensity on the entire screen surface (step S34). ). For example, it instructs the signal processing unit 4 to mask the entire screen surface with black.
(5) If only the ultrasonic sensor 6 has a shorter delay time, it is determined that the person 8 is located on the left side of the screen (the ultrasonic sensor 6 side), and as shown in FIG. The signal processing unit 4 is controlled so as to reduce the light intensity on the (6) side (step S35).
(6) When only the ultrasonic sensor 7 has a shorter delay time, it is determined that the person 8 is located on the right side of the screen (the ultrasonic sensor 7 side), and the light intensity of the right half of the screen surface (the ultrasonic sensor 7 side) is determined. Is controlled so as to reduce (step S36).
(7) If the delay times of both the ultrasonic sensors 6 and 7 have not changed, the signal processing unit 4 is controlled to stop the black mask on the entire screen (step S37).
[0010]
By repeating the series of controls in steps S31 to S37, the light intensity on the screen surface on the side where the person 8 has interrupted can be reduced.
Although the case where two ultrasonic sensors are used has been described above, three or more ultrasonic sensors may be used. For example, as shown in FIG. 5, the screen may be divided into four parts for control, and four ultrasonic sensors may be arranged corresponding to the respective parts. Even in the case of this configuration, the basic configuration and operation of the projection display apparatus are the same as those in FIGS.
[0011]
According to the first embodiment, the screen state such as the brightness of the screen surface can be partially changed according to the position of a person or the like entering the projection area of the screen surface under a low-cost and simple configuration. The person or the like does not have strong light entering his eyes, and does not give a viewer an unpleasant impression.
[0012]
FIGS. 6 and 7 are explanatory diagrams of a second embodiment of the present invention. In the second embodiment, an infrared sensor is used as detecting means for detecting a person or an object. FIG. 6 is a structural example diagram of a projection type video display device as a second embodiment of the present invention, and FIG. 7 is an explanatory diagram of an infrared distance sensor.
In FIG. 6, reference numeral 1b denotes a projection type image display apparatus as a second embodiment of the present invention, 61 and 71 denote infrared distance sensors as detecting means, and 3b denotes a CPU as control means. Other components that are the same as those in FIG. 1 are denoted by the same reference numerals as in FIG. 1 and description thereof is omitted. As the infrared distance sensors 61 and 71, for example, a PSD (Position Sensitive Detector) type infrared distance sensor having a configuration shown in FIG. 7 is used. In FIG. 7, reference numeral 610 denotes an infrared light emitting diode, 611 denotes a position detecting element (PSD), and 612 and 613 denote lenses. In the infrared distance sensor 61 (the same applies to the infrared distance sensor 71), light emitted from the infrared light emitting diode 610 through the lens 613 is reflected by the object 8, and the reflected light is transmitted to the position detection element (PSD) 611 through the lens 612. Incident. The position detection element 611 is formed of, for example, a PIN photodiode, and the output voltage value changes depending on the position where the reflected light is applied. Thereby, the distance to the position where the infrared rays are reflected is measured.
[0013]
In the configuration shown in FIG. 6, the infrared distance sensors 61 and 71 measure the distance to the screen 2 in a state where the person 8 is not interrupted between the projection display apparatus 1b and the screen 2 (initial state). Convert to The CPU 3b takes in the analog voltage value, converts the analog voltage value into a digital value by an internal AD converter, and stores the digital value. If there is no AD converter in the CPU 3b, an AD converter may be provided outside. Subsequent operations are performed in substantially the same procedure as in the case of FIG. When the distance information from the infrared distance sensors 61 and 71 is shorter than the distance to the screen 2, the CPU 3b determines that the person 8 is between the projection-type image display device 1b and the screen 2, and determines that the person 8 is on the screen. The signal processing unit 4 is controlled so as to reduce the light intensity in the corresponding area above.
[0014]
According to the second embodiment, similarly to the first embodiment, the screen such as the brightness of the screen surface is changed according to the position of a person or the like entering the projection area of the screen surface under a low-cost and simple configuration. Since the state can be partially changed, the person or the like can be prevented from entering strong light into his eyes and not giving a viewer an unpleasant impression. In particular, since the distance information from the infrared distance sensors 61 and 71 can be directly obtained, the device configuration can be further simplified.
[0015]
In each of the above-described embodiments, the signal processing unit 4 is controlled based on the detection signal from the detection unit, and the data of the area corresponding to the screen surface of the position of the person or the like among the plurality of areas of the video display element 52 is determined. Was replaced to change the display state in a state in which the screen surface was divided in the horizontal direction.However, the present invention is not limited to this.For example, the display state is changed in a state in which the screen surface is divided in the vertical direction. The display state may be changed in a state where the screen surface is divided into both the horizontal direction and the vertical direction. Further, the detection means is not limited to the ultrasonic sensor or the infrared distance sensor, but may be a distance sensor such as a laser sensor, or a pyroelectric infrared sensor that detects infrared rays emitted by a person.
[0016]
【The invention's effect】
According to the present invention, in the projection type video display device, the screen state such as the brightness of the screen surface can be partially changed in accordance with the position of the person or the like entering the projection area of the screen surface, and the power of the person or the like can be increased. In addition, it is possible to prevent undesired projection light from entering the eyes and to give an unpleasant impression to the viewer.
[Brief description of the drawings]
FIG. 1 is a configuration example diagram of a projection type video display device as a first embodiment of the present invention.
FIG. 2 is an explanatory timing chart of a detection operation in the apparatus of FIG. 1;
FIG. 3 is an explanatory diagram of a control operation procedure in the device of FIG. 1;
FIG. 4 is a diagram showing an example of a projection image of the apparatus of FIG. 1;
FIG. 5 is a diagram showing another example of a projected image in the projection display apparatus of the present invention.
FIG. 6 is a configuration example diagram of a projection display apparatus as a second embodiment of the present invention.
FIG. 7 is an explanatory diagram of an infrared distance sensor in the device of FIG.
[Explanation of symbols]
1a, 1b: Projection type video display device, 2: Screen, 3a, 3b: CPU, 4: Signal processing unit, 5: Optical unit, 6, 7: Ultrasonic sensor, 10, 11: Sensor drive processing unit, 101 ... 40 kHz generation unit, 102: first amplification unit, 103: second amplification unit, 104: pulse generation unit, 51: illumination optical system, 52: video display element, 53: projection lens, 511: lamp, 512: reflector,
513: condenser lens, 61, 71 ... infrared distance sensor.

Claims (6)

光源側からの光を映像表示素子に照射し映像信号に応じた光学像を形成してスクリーン面に拡大投射し映像表示する投射型映像表示装置であって、
映像信号に基づき上記映像表示素子を、該素子上の領域を複数の領域に分けた状態で駆動する表示素子駆動手段と、
上記スクリーン面と対向する複数箇所に配され、該スクリーン面の領域内に入った人または物を検知する複数の検知手段と、
上記各検知手段の検知情報に基づき上記表示素子駆動手段を制御し、上記映像表示素子の複数の領域毎にデータの置換えを行わせる制御手段と、
を備え、上記複数の検知手段の少なくともいずれかが人または物を検知したとき、上記制御手段は、上記映像表示素子上の該検知した検知手段に対応する領域のデータの置換えを行わせるように上記表示素子駆動手段を制御し、該人または物の位置に対応したスクリーン面位置の表示状態を変化させる構成としたことを特徴とする投射型映像表示装置。
A projection-type image display device that irradiates light from a light source side to an image display element, forms an optical image according to an image signal, and performs enlarged projection on a screen surface to display an image,
Display element driving means for driving the image display element based on an image signal in a state where an area on the element is divided into a plurality of areas,
A plurality of detection means arranged at a plurality of locations facing the screen surface, for detecting a person or an object that has entered the area of the screen surface,
A control unit that controls the display element driving unit based on the detection information of each of the detection units, and performs data replacement for each of a plurality of regions of the video display element;
When at least one of the plurality of detecting means detects a person or an object, the control means causes the data of an area corresponding to the detected detecting means on the video display element to be replaced. A projection type video display device, wherein the display element driving means is controlled to change a display state of a screen surface position corresponding to the position of the person or the object.
上記検知手段の数は、上記映像表示素子上で分割される領域の数と等しくされる請求項1に記載の投射型映像表示装置。2. The projection type video display device according to claim 1, wherein the number of said detection means is made equal to the number of regions divided on said video display element. 上記映像表示素子上で複数に分割される領域は、上記スクリーン面上で水平方向または垂直方向に複数に分割された領域を形成する請求項1に記載の投射型映像表示装置。The projection-type image display device according to claim 1, wherein the plurality of regions divided on the image display element form regions divided in a horizontal direction or a vertical direction on the screen surface. 上記映像表示素子の複数の領域毎に置換えられるデータは、特定均一色データ、黒色データ、輝度レベルを低減した映像信号に基づくデータのいずれかである請求項1に記載の投射型映像表示装置。2. The projection type video display device according to claim 1, wherein the data replaced for each of the plurality of regions of the video display element is any one of specific uniform color data, black data, and data based on a video signal with a reduced luminance level. 上記検知手段は、超音波または光を上記スクリーン面に照射し、該スクリーン面から反射した超音波または光を受信する構成である請求項1に記載の投射型映像表示装置。2. The projection type image display device according to claim 1, wherein said detecting means is configured to irradiate ultrasonic waves or light to said screen surface and receive ultrasonic waves or light reflected from said screen surface. 上記検知手段は、焦電型赤外線センサで構成される請求項1に記載の投射型映像表示装置。2. The projection type image display device according to claim 1, wherein said detection means comprises a pyroelectric infrared sensor.
JP2003148016A 2003-05-26 2003-05-26 Projection video display device Pending JP2004348078A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003148016A JP2004348078A (en) 2003-05-26 2003-05-26 Projection video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003148016A JP2004348078A (en) 2003-05-26 2003-05-26 Projection video display device

Publications (1)

Publication Number Publication Date
JP2004348078A true JP2004348078A (en) 2004-12-09

Family

ID=33534377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003148016A Pending JP2004348078A (en) 2003-05-26 2003-05-26 Projection video display device

Country Status (1)

Country Link
JP (1) JP2004348078A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2417849A (en) * 2004-08-09 2006-03-08 Sanyo Electric Co Changing projected video based on person detection
JP2006091121A (en) * 2004-09-21 2006-04-06 Sanyo Electric Co Ltd Projection video display
JP2006189467A (en) * 2004-12-28 2006-07-20 Nisca Corp Light quantity control device and projector apparatus using the same
JP2007206488A (en) * 2006-02-03 2007-08-16 Seiko Npc Corp Projection type display device
WO2007102339A1 (en) * 2006-02-28 2007-09-13 Brother Kogyo Kabushiki Kaisha Video image display device
JP2007235470A (en) * 2006-02-28 2007-09-13 Brother Ind Ltd Graphic display device
JP2007322791A (en) * 2006-06-01 2007-12-13 Necディスプレイソリューションズ株式会社 Projector apparatus with automatic focusing function, and automatic focusing method
JP2009031334A (en) * 2007-07-24 2009-02-12 Sharp Corp Projector and projection method for projector
CN100592199C (en) * 2006-11-10 2010-02-24 鸿富锦精密工业(深圳)有限公司 Automatic focus projector and automatic focus method thereof
DE102008060110A1 (en) * 2008-12-03 2010-06-10 Sennheiser Electronic Gmbh & Co. Kg Projection apparatus for projecting video signal to projection surface, has projection unit for generating broadcasting light signal based on video input signal

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2417849B (en) * 2004-08-09 2010-05-26 Sanyo Electric Co Projection type video display apparatus
GB2417849A (en) * 2004-08-09 2006-03-08 Sanyo Electric Co Changing projected video based on person detection
US7325933B2 (en) 2004-08-09 2008-02-05 Sanyo Electric Co., Ltd Projection type video display apparatus
JP2006091121A (en) * 2004-09-21 2006-04-06 Sanyo Electric Co Ltd Projection video display
JP2006189467A (en) * 2004-12-28 2006-07-20 Nisca Corp Light quantity control device and projector apparatus using the same
JP2007206488A (en) * 2006-02-03 2007-08-16 Seiko Npc Corp Projection type display device
WO2007102339A1 (en) * 2006-02-28 2007-09-13 Brother Kogyo Kabushiki Kaisha Video image display device
JP2007235470A (en) * 2006-02-28 2007-09-13 Brother Ind Ltd Graphic display device
US8246172B2 (en) 2006-02-28 2012-08-21 Brother Kogyo Kabushiki Kaisha Image display device
JP4730136B2 (en) * 2006-02-28 2011-07-20 ブラザー工業株式会社 Video display device
JP2007322791A (en) * 2006-06-01 2007-12-13 Necディスプレイソリューションズ株式会社 Projector apparatus with automatic focusing function, and automatic focusing method
CN100592199C (en) * 2006-11-10 2010-02-24 鸿富锦精密工业(深圳)有限公司 Automatic focus projector and automatic focus method thereof
JP2009031334A (en) * 2007-07-24 2009-02-12 Sharp Corp Projector and projection method for projector
DE102008060110A1 (en) * 2008-12-03 2010-06-10 Sennheiser Electronic Gmbh & Co. Kg Projection apparatus for projecting video signal to projection surface, has projection unit for generating broadcasting light signal based on video input signal

Similar Documents

Publication Publication Date Title
US6575581B2 (en) Image projection method and image projector
JP6784295B2 (en) Distance measurement system, distance measurement method and program
JP5258168B2 (en) Eye detection system
US6742901B2 (en) Imaging prevention method and system
JPWO2011046035A1 (en) Image projection apparatus, image projection method, distance measurement apparatus, and distance measurement method
JP2006319950A (en) Image display device
JP2007526453A (en) Single chip red, green, blue, distance (RGB-Z) sensor
US7960677B2 (en) Projection apparatus and distance measurement method wherein the distance is acquired during a period of predetermined color components being emitted (As amended)
TW407430B (en) Low impure light night vision system light source control method and the apparatus thereof
JP5408746B2 (en) Projection display device and light amount adjustment method
US12003898B2 (en) Projector and projection method
JP2004348078A (en) Projection video display device
JP2007086266A (en) Optical unit and image display
TW200417249A (en) Measurement system for evaluating moving image quality of displays
JPH07261072A (en) Automatic focusing projector
JP2000019636A (en) Projection type display device and method for controlling projection type display device
JP2009086371A (en) Image display device
JP2000019637A (en) Projection type display device
JP5349365B2 (en) Image projection device and image display device
JP2011257644A (en) Projector
JP2005165140A (en) Projector, automatic focusing system for projector and automatic focusing method for projector
JP4433762B2 (en) Projection apparatus and video projection method
JP2010243346A (en) Measurement device, measurement method, measurement program, and display system
JP3905696B2 (en) 3D image input device
JP2001028766A (en) Three-dimensional image detector