JP2004070298A - Image projector and image projecting method - Google Patents

Image projector and image projecting method Download PDF

Info

Publication number
JP2004070298A
JP2004070298A JP2003164117A JP2003164117A JP2004070298A JP 2004070298 A JP2004070298 A JP 2004070298A JP 2003164117 A JP2003164117 A JP 2003164117A JP 2003164117 A JP2003164117 A JP 2003164117A JP 2004070298 A JP2004070298 A JP 2004070298A
Authority
JP
Japan
Prior art keywords
intrusion
area
light
detection
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003164117A
Other languages
Japanese (ja)
Other versions
JP4366631B2 (en
Inventor
Yutaka Sugawara
菅原 豊
Naoya Eguchi
江口 直哉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003164117A priority Critical patent/JP4366631B2/en
Publication of JP2004070298A publication Critical patent/JP2004070298A/en
Application granted granted Critical
Publication of JP4366631B2 publication Critical patent/JP4366631B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image projector for projecting an image onto a screen in which safety is enhanced for a human body or the like intruding into the projection range without complicating the the arrangement. <P>SOLUTION: A monitoring region is defined on the outside of the projecting region 3 of a screen 2, a detection wave, e.g. infrared ray, is emitted from a detection wave source 1c of the image projector 1, and reflection wave from the monitoring region is detected by a reflection wave detecting means 1d, e.g. a CCD sensor. A human body or an obstacle intruding into a monitoring space surrounded by a detection wave 4 between the body section of the image projector 1 and the screen 2 is monitored and when intrusion is detected, intensity of an irradiating light directed toward the projecting region 3 is reduced or the irradiating light is interrupted depending on the situation or extent of intrusion. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、高強度の光源を用いて構成される画像投射装置及び画像投射方法において安全対策を充分に講じるための技術に関する。
【0002】
【従来の技術】
大画面表示が可能な画像表示装置として、投射型のプロジェクタ装置が知られており、観察者は、光源からの光をスクリーン上に投射することによって映し出される映像を見ることができる。
【0003】
これまでプロジェクタ装置の光源として高輝度の投射管が用いられてきたが、明るさや色再現性等の改善、映像信号による変調のし易さ等を目的として、赤(R)、緑(G)、青(B)のレーザ光源を用いたプロジェクションシステムが提案されている。
【0004】
ところで、レーザ光を用いる場合には、その安全性の確保が重要課題とされ、例えば、視聴者が不用意にレーザ光の投射領域に侵入した場合の対策を充分に講じる必要がある。つまり、レーザ光が眼に直接に入った場合の危険性が指摘されており、その安全対策として、レーザ光の投射領域に人等が侵入したことを検知して、レーザ光の投射を遮断する機能をもった各種装置が提案されている(例えば、特許文献1乃至3参照。)。
【0005】
【特許文献1】
特開平4−111585号公報
【特許文献2】
特表平11−501419号公報
【特許文献3】
特開2001−249399号公報
【0006】
【発明が解決しようとする課題】
ところで、従来の装置では、安全対策を講じることに伴う問題、例えば、装置の構成が複雑化したり装置の大型化等に支障を来す等の問題がある。
【0007】
つまり、人体の安全性が重視される装置では、そのための安全機構が必須とされるが、該機構の付設によって投射光学系等が複雑化したり、あるいは装置コストの著しい上昇をもたらす等の不都合が生じた場合には、普及等を妨げる原因となる虞がある。また、安全機構の動作遅れは許されず、侵入検出には迅速性が要求される。
【0008】
そこで、本発明は、スクリーン上に画像を投射して表示する機能を備えた画像投射装置において、照射光の投射範囲に人体等が侵入する場合の安全性を向上させるとともに、そのために構成の複雑化等を伴わないようにすることを課題とする。
【0009】
【課題を解決するための手段】
本発明に係る画像投射装置は、上記した課題を解決するために、装置本体部のうちスクリーンとの対向面又はスクリーンに設けられた検出波源と、該検出波源からスクリーン上の投射領域の外側に離れて位置する監視領域に検出波が出射された後、該監視領域で反射された反射波を検出する反射波検出手段とを備え、該反射波検出手段による検出レベルを所定の閾値又は基準範囲と比較した結果に基づき、上記検出波によって包囲される監視空間内への侵入について検知するように構成したものである。
【0010】
また、本発明に係る画像投射方法は、画像投射装置から距離をおいて位置するスクリーン上の投射領域に対して、その外側に離れて位置する監視領域を規定するとともに、該監視領域に対して画像投射装置の前面に設けられた検出波源から検出波を出射して、該監視領域からの反射波を検出することによって該検出波によって包囲された監視空間への侵入について検出し、投射領域に向けて照射される光を、侵入の状態に応じて遮断し又は該光の強度を低下させる。
【0011】
従って、これらの発明によれば、スクリーンに対向する検出波源を設けるとともに、検出波源から出射されて監視領域で反射した反射波を検出することによって、監視空間内への侵入を簡易な構成で検知することができる。そして、該監視空間への侵入が検出された場合には、投射領域への照射光を遮断したり、光強度を低下させることで、人体が危険に曝されないように防止することができる。
【0012】
【発明の実施の形態】
本発明は、画像投射装置において、照射光(レーザ光等)の投射領域に障害物が侵入したときに直ちに光を遮断したり光強度を低下させることで、安全性を保証することを目的とする。
【0013】
図1は、本発明に係る画像投射装置の基本構成例を概略的に示したものであり、レーザ光源を用いた装置の一例(レーザプロジェクタ装置等)を示している。
【0014】
画像投射装置1は、装置本体部から一定の距離をもって位置されたスクリーン2上の投射領域3への投射によって画像表示を行うための光源1aと、投射レンズを含む投射部1bを備えている。例えば、レーザ光源(RGBの各色レーザ光源)と光モジュレータ(変調手段)を備え、レーザ光を用いてスクリーン2上に画像を投射する機能を有する構成が知られている。尚、光モジュレータは、RGBの各色レーザ光を画像信号に応じて変調する変調器及び光学系を備えており、レーザ光は画像信号に応じて変調され、例えば、光走査手段を構成するガルバノミラー等によって走査(スイープ)が行われる。また、光モジュレータは、各色レーザ光をスクリーン2上に投射するために、対物レンズを含む投射光学系を備えており、光走査手段によってスイープされた各色レーザ光が、該投射光学系を介してスクリーン2に照射される。尚、本発明の適用においては、照明光を映像信号で変調してスクリーン上に投射させる形式のプロジェクタ装置に限らず、各種構成形態のプロジェクタ装置に適用することができる。
【0015】
尚、光源1aとしては、光強度や輝度の高い放電灯や発光管等を用いた構成も挙げられるが、特に、レーザ光源を用いた構成形態では、投射管等を用いた場合に比較して、明るさや色再現性の点で優れた特性をもち、また映像信号の変調が容易である。但し、前記したようにレーザ光源を用いる場合には、投射部1bからスクリーン上の投射領域3に向かう照射光通過領域内への人体等の侵入に対して、安全対策を講じる必要がある(例えば、レーザ光の遮断又は光強度を低下させる等。)。
【0016】
図1において、スクリーン2上に実線で示す矩形枠「LA」がレーザ光の投射領域3の外形枠を示しており、該領域内に画像が投影されて表示される。
【0017】
画像投射装置1においては、例えば、レーザ光の投射領域3に向かう照射範囲に視聴者が不用意に侵入した場合でも人体に危害を与えない(レーザ光が眼に直接入らないようにする等)ための安全機構が設けられており、設定領域(監視空間)への侵入検出において検出波を利用し、該検出波の反射波を検出する。そして、人等が当該領域に侵入したことが検知された場合に、投射領域3への照射光を遮断し又は該照射光の強度を充分に低下させる(人の眼に影響を及ぼさないように防止する。)。
【0018】
検出波を用いた侵入検出手段については、検出波源1c及び反射波検出手段1dを備えている。
【0019】
検出波源1cは、装置本体部のうちスクリーン2に対向する前面又はスクリーン上に設けられており、例えば、赤外光や赤外線の発光源として、発光ダイオード(LED)等の安全な光源を用いることができる(赤外光が視聴者の眼に入っても安全上の問題がない。)。
【0020】
検出波源1cから発した検出波(図1の2点鎖線4を参照。)は、スクリーン2に向けて照射される。図1において、スクリーン2上に破線で示す矩形枠IRが検出波の投射領域を示している。本例では、レーザ光の投射領域3の外側に位置して該領域よりも一回り大きくされた4辺形の領域である。尚、検出波の投射領域(矩形枠IR)の方がレーザ光の投射領域3よりもサイズ(画角)が大きく設定されている理由は、投射領域3に視聴者等が侵入する前にそのことを検知する必要性のためである。
【0021】
反射波検出手段1dは、スクリーンからの検出波の反射波を検出するために設けられている。つまり、検出波源1cから投射領域3の外側に離れて位置する所定領域(図2の監視領域6を参照。)に検出波が出射された後、該領域で反射された反射波を検出する。例えば、検出波として赤外光や赤外線を用いる場合に、その反射波センサとして、撮像素子(CCD型やCMOS型イメージセンサ等)が挙げられる。
【0022】
尚、検出波源1cや反射波検出手段1dは、スクリーン2に対向する面(装置本体部の前面)に設けられた投射部1bの周囲に配置されている。本例に示すように、反射波検出手段1dが投射部1bの近傍に位置され、それらを取り囲むようにして検出波源1cを配置させた構成にすると、装置の小型化やコンパクト化に有利である。また、反射波検出手段1dを投射部1bに近い場所に設けることによって、誤検出等の発生確率を低減することが可能である(例えば、反射波検出手段1dが投射部1bから離れ過ぎている場合には、投射に無関係な検出が行われてしまい、侵入検知がこれに反応すると不必要に安全機構が作動する虞が生じる。)。この他、検出波に変調をかける等の方法を用いることにより、検出精度を高め、あるいは誤検出を防止することができる。
【0023】
図2は、スクリーン2上において、レーザ光の投射領域3、検出波の投射領域5(破線の範囲で示す。)、監視領域6の関係を例示したものである。
【0024】
監視領域6は、投射領域5にほぼ対応した位置に設定されているが、該監視領域6の幅は投射領域5よりも狭くされている。本例では、監視領域6が、長方形枠(4辺形)の各辺にそれぞれ対応した、所定幅の4領域6A〜6Dから構成されているが、これに限らず、少なくとも1辺以上の監視領域を用いた各種形態での実施が可能である。
【0025】
図2に示す各領域6A〜6Dのうち、領域6Aが4辺形の左辺部、領域6Bが4辺形の上辺部、領域6Cが4辺形の右辺部、領域6Dが4辺形の下辺部をそれぞれ構成している。そして、各構成領域については、該領域にそれぞれ対応して、反射波検出手段1dによって検出される範囲(検出範囲)に係る取得データに基いて監視される。例えば、赤外光又は赤外線の反射波センサや撮像素子等を用いる場合において、各構成領域の検出画像を構成する画素データを用いた処理によって侵入監視が行われる。
【0026】
尚、投射領域3の外形枠LAから監視領域6までの距離(図3の「W」参照)に関しては、人体の動作等から想定される侵入速度及び人体や障害物の侵入が検知されてからレーザ光が遮断され又は減光されるまでの所要時間との関係等に基いて決定される(つまり、この距離が短かすぎると、侵入検知後のレーザ光遮断又は減光が間に合わなくなってしまう虞が生じるので、距離(間隔)設定を適切に行う必要がある。)。
【0027】
監視領域6については、例えば、下記に示す形態が挙げられる。
【0028】
(a)スクリーンのうち反射率の高い範囲に設定する形態
(b)スクリーン周縁部の反射率の低い範囲に反射部材(再帰反射シート等)を設ける形態。
【0029】
形態(a)では、投射領域3がスクリーン2のうち反射率の高い範囲に位置された状態で画像投射が行われ、通常、その最大サイズ(白地部分の大きさ)よりも、やや小さい範囲とされることを考慮し、投射領域3の外周に各領域6A〜6Dの位置を設定する。つまり、スクリーン2において反射率の高い範囲をそのまま利用することができる反面、監視領域6の存在が投射領域3の画サイズに影響して、表示範囲がやや狭くなる。
【0030】
そこで、形態(b)では、スクリーン周縁部(黒地部分等)に再帰反射シート等を貼り付け、この部分を監視領域として利用することで、スクリーンいっぱいに画像表示を行うことが可能となる。
【0031】
監視領域6については、画像投射装置1からスクリーン2までの距離の測定値及び投射レンズのF値に基いて投射領域3よりも大きいサイズ及び位置に設定する。その際には、いきなり光強度の高い照射光を投射領域3に当てるのではなく、初めに眼にとって十分安全な明るさの照射光を投射領域3に投射して、その画角を観測することで、監視領域6の大きさ及び位置の設定を行うことが好ましい。
【0032】
図3は、検出波の強度分布について模式的に示したものであり、該強度分布を示すグラフ曲線7については、矢印Lで示す方向において検出波の強度を表し、これに直交する方向がスクリーン2上での位置を示している。
【0033】
検出波は、投射領域3の外形からその外側に「W」で示す間隔をおいた位置に向けて照射されるが、監視領域6の幅(6A乃至6Dの幅)よりもやや広い範囲において所定レベル以上のほぼ一定な強度を示し、該範囲よりもスクリーン2の内側又は外側にいくにつれて強度が次第に減少する分布をもっている。つまり、投射領域5の幅に比して監視領域6の幅が大き過ぎると、検出波強度の低い裾野部が監視領域6にかかってしまうために、強度が不安定化したり、検出に必要なS/N(信号対ノイズ)比が十分に得られない等の問題が起きる。そこで、監視領域6の幅については、スクリーン2に対向する方向から見た場合に、検出波の投射領域5内であって、検出波の強度が所定レベル以上とされたほぼ一定のレベル範囲(平坦域)内に収まるように設定することが好ましい。
【0034】
次に、監視処理について説明する。
【0035】
上記反射波検出手段1dによって監視領域6の各領域6A乃至6Dを監視し、侵入検出に係る判断処理を行う場合の原理は、以下の通りである。
【0036】
監視領域の各構成領域については、例えば、反射波検出手段1dによる検出画像として監視される。一例として、ある監視領域6Bの大きさが、これに対応する検出画像において、「幅2画素×長さ600画素=合計1200画素」の画サイズに相当し、各画素データについては、所定の階調表現に従って反射波の強度を示すものとする。つまり、検出波はスクリーン2上の投射領域5に照射されて該スクリーンで反射し、その反射波の強度が監視領域の検出画像を構成する各画素のデータとして認識される。例えば、スクリーン2からの反射波の強度が、256階調の精度をもって検出される場合に、画素データに基く反射波強度の基準範囲を予め設定しておき、実際の反射波強度がこの基準範囲内に入っているか否かを調べることで、侵入検出の判断が可能である。基準範囲を仮に70〜120に規定した場合において、実際の反射波強度が基準範囲に満たない場合(0〜69)や、基準範囲を超える場合(121〜255)には、そのデータを示した画素において検出波が遮られたこと、又は逆に明る過ぎることが認識される。
【0037】
上記監視領域に係る1200画素のうち、予め決められた画素数(例えば、6画素)以上について、上記基準範囲との比較結果から反射波強度が許容されないと判断されて、強度低下や強度上昇が認められた場合には、人体や障害物の侵入があったものと判定される。尚、各画素データに基く反射波強度の検出値の変化については、人体や障害物の侵入によって検出波が遮られたり、検出波を直接反射することによって引き起こされる。反射波検出手段1dによる検出レベルを、所定の閾値又は基準範囲と比較するとともに、その比較結果に基づいて、検出波によって包囲される監視空間内への侵入について検知することができる。尚、この「検知」には、人体や物体に係る存在の有無は勿論、その大きさあるいは移動方向等の検出も含まれる。
【0038】
以上のように、検出画像全体ではなく、監視領域に相当する画像の一部についてレベル比較により検出を行うことが有効であり、複雑で時間のかかる画像処理は不要である。
【0039】
このような監視システムによって人等の侵入が検知された場合には、安全機構が働く。即ち、反射波検出手段1dは、監視領域6(6A〜6D)に関してスクリーン2からの反射波を検出する。反射波検出手段1dは、スクリーン2からの反射波強度を監視領域6の各画素データによって測定し、例えば、人体や障害物の侵入によって反射された検出波強度が、そのような侵入がない場合にスクリーン又は反射部材(再帰反射シート等)からの反射波強度と異なることを検出する。そして、いずれかの監視領域について強度の低下や上昇を含む異常が検出された場合に照射光(レーザ光等)が遮断され又は減光される。その機構については、例えば、下記に示す構成形態が挙げられる。
【0040】
・光源1aの出射光を、メカニカルシャッター等の遮断機構で遮光する形態
・光変調手段の駆動制御、例えば、光変調素子の駆動をオフ状態(暗状態)にする等の形態
・光源1aへの電源供給を停止し又は該供給電力を低下させる形態
・上記形態の組み合わせ。
【0041】
図4は、画像投射装置1に関する安全対策の一例について説明するためのフローチャート図であり、本アルゴリズムに従えば、レーザ光の投射について安全性が確認されるまでの間、人の眼に十分安全な強さのレーザ光での投射を行うことで、該レーザ光の投射範囲に人が不用意に侵入した場合の事故を未然に防止することができる。
【0042】
処理ステップは以下の通りである。
【0043】
(S1)装置のスイッチを投入して動作を開始する
(S2)眼にとって十分に安全な強度をもってレーザ光を照射する
(S3)安全機構について設定状態を確認し、再設定を要する場合には(S4)に進み、設定に問題がなければ(S5)に進む
(S4)各種調整及び確認処理を行った後、(S3)に戻る
(S5)装置の使用者又は管理者が安全性を確認した上で、スイッチを投入して安全機構を働かせる
(S6)規定の明るさをもってレーザ光を照射する。この状態で上記したように人体や障害物の侵入が検出された場合には、該レーザ光が遮断されるか又は減光によって(S2)と同様に安全なレベルまでレーザ光の強度が低下する。
【0044】
尚、上記(S4)の調整や確認の事項については、例えば、下記に示す通りである。
【0045】
・投射距離の自動調整及び確認
・投射距離及び画角に基く監視領域の設定
・検出波のスクリーンへの照射及び距離に応じた検出波出力や照射位置等の自動調整
・スクリーンからの反射波強度の確認及び必要に応じたスクリーンのセッティング変更等。
【0046】
本例のように、検出波によって包囲される監視空間への侵入、特に人体の侵入が検出されないことを確認するまでの間は、照射光の強度を人体に危険のないレベルまで低下させた上で画像投射を行い、安全性が充分に確認された後で、照射光の強度を規定レベルまで上昇させるように制御を行うことが望ましい。そして、画像投射装置1において監視空間への人体や障害物の侵入がないことを確認した後、念のためにユーザ(装置のオペレータ)が投射領域3に人体や障害物の侵入がないことを確認した上で、専用のスイッチを投入することで初めて照射光の投射出力を上げるようにすると、さらに安全性を高めることが可能である。
【0047】
尚、上記(S2)乃至(S4)については手動又は自動で行うことができるが、ユーザの利便性の観点からは自動化が好ましい。また、前回の調整や設定状態を、その時の条件(投射画角や投射距離等)とともに装置内の記憶手段に記憶させておき、次回の装置起動時には、前回の記憶情報を現状から得られる情報と照合することが好ましい。例えば、照合結果が許容される場合(つまり、前回の状態と大差ない場合)には、上記(S2)から(S5)に進むが、照合結果から状況が大きく変化している場合には、調整や設定を最初からやり直すように構成する。
【0048】
次に、侵入検出及び危険防止の機能をもつプロジェクタ装置の一例について、図5乃至図20を用いて説明する。尚、投影光線(レーザ光)の通過領域に人間が侵入したことを検出して、人間の眼に光線が入射されることを防止する形態や危険のない程度に光線の強度を低減する形態への適用が可能である。
【0049】
図5はプロジェクタ装置本体部及びスクリーンを示す斜視図であり、プロジェクタ装置は、その装置本体部1Aと、その上に載置されたCCD型イメージセンサ等の撮像手段100を備えている(上記反射波検出手段1dに相当する。)。
【0050】
そして、プロジェクタ装置の前方にはスクリーン40が配置されていて、その表面において映像の投影領域42が規定されるとともに、該領域の周縁域44には、矩形状をした監視領域46が規定されている。尚、本例では、監視領域46が、4辺形の各辺にそれぞれ相当する監視領域46A〜46Dから構成されている。
【0051】
図6は装置本体部1Aの正面図であり、投影レンズ32、撮像手段100、赤外線照射手段120(120A〜120D)を示している。
【0052】
装置本体部1Aの前面中央には投影レンズ32が位置され、該投影レンズ32からスクリーン40上の投影領域42に映像が投射される(投影レンズ32は焦点距離の調整が可能である。)。
【0053】
装置本体部1Aにおける前面の周縁部には、赤外線照射手段120が位置されており、本例では、赤外線を照射する4つの赤外線照射部120A〜120Dを有する。つまり、これらの赤外線照射部は、上記監視領域46を構成する監視領域46A〜46Dのそれぞれに対して、所定波長(例えば、λ=880nm)の赤外線を照射する。
【0054】
図7は赤外線照射部の1つ(120A)を例示したものであり、(A)図が正面図、(B)図が1個の発光素子を示す側面図であり、(C)図及び(D)図は赤外線照射角度の説明図である。
【0055】
各赤外線照射部120A〜120Dはいずれも同様の構成を有しており、(A)図に示すように、長手方向に沿って複数個の発光素子(例えば、赤外線を放射する11個の発光ダイオード)を配列したものが、長手方向に直交する方向(図の上下方向)において2段配置されている。
【0056】
各発光ダイオードには、(B)図に示すように、その前面に補正レンズ「LNS」が設けられている。そして、本例では、(C)図に示すように、該補正レンズの光軸を含む垂直面内において光軸方向を基準とする発散角度(仰角)が2°とされ、また、(D)図に示すように、水平面内において光軸方向を基準とする発散角度が34°とされて、各赤外線照射部のそれぞれに対応した監視領域(例えば、46A)に向けて赤外光を照射する。
【0057】
尚、各赤外線照射部に用いられる発光素子の数について同じである必要はなく、例えば、4辺形の長辺に位置する赤外線照射部120A、120Cに比べて4辺形の短辺に位置する赤外線照射部120B、120Dは使用素子数が少なくても良い。
【0058】
また、各赤外線照射部については、スクリーン40に向けた照射角度を手動又は自動で調整することができるようにするためのチルト機構が設けられている。つまり、本体部1Aからスクリーン40までの投射距離や両者の位置関係が常に固定されたものではないため、赤外線照射部120A〜120Dの照射方向や範囲等を調整したり、投影レンズ32の焦点距離等を調整できるように構成することが好ましい。プロジェクタ装置は種々の状況で利用される場合が多いので、例えば、投射距離が3mであって投影レンズ32とスクリーン40の投影領域42とが水平な位置関係にある場合や、投射距離が5mであって投影レンズ32から投影領域42に上向きに投影画像が照射される場合等、各種状況が挙げられる(投影レンズ32について向きや焦点距離の調整が可能であるとともに、赤外線照射部120A〜120Dのチルト(傾動)を可能とし、投影レンズ32のズーミング等に応じて各赤外線照射部のチルト角度を調整できるようにすることが好ましい。)。
【0059】
例えば、投射距離に応じて、手動又は自動で、図7(C)に上向きの矢印「U」又は下向きの矢印「D」に示すように調整可能である。
【0060】
図8は赤外線照射部に係る照射方向及び照射幅について説明するための図であり、赤外線照射部120Aを例にして、垂直面に直交する側方からみた様子を示している。
【0061】
垂直方向及び水平方向の発散角度や赤外線照射幅については、本体部1Aとスクリーン40との距離に応じて調整や設定を行うことができる。例えば、(A)図のように、赤外線照射部120Aからの光線(赤外光線)がほぼ平行光線とされて監視領域46Aに対して照射される光路設定や、(B)図に示すように、赤外線照射部120Aからの照射光線が接近して交差した後で、互いに離れるように進行する光路設定等が挙げられる。
【0062】
各赤外線照射部によってスクリーンの周縁域44に照射される赤外線の強度分布については、図3に説明した通りである。つまり、図3のグラフ曲線7が赤外線の強度を表しており、その強度ピークの範囲(平坦部)に対応するスクリーン40上の範囲内に、監視領域46が位置されている。例えば、距離「W」の値は10cmであり、また、各監視領域46A〜46Dの幅は全て同じとし、又は必要に応じてそれらの幅を個別に変えることも可能である。
【0063】
撮像手段100は、監視領域46を含むスクリーン40を撮像するが、撮像手段100の前面には、プロジェクタ装置の通常動作時に赤外成分のみ透過させるフィルタが設けられ、監視領域46を含む範囲から反射される赤外線を検出する(但し、後述する調整段階では該フィルタを取り外す必要がある。)。
【0064】
撮像手段100で検出される赤外線映像(フィルタを透過した赤外線による検出画像)は、後述する侵入検出及び危険防止制御部110によって信号処理される。
【0065】
図9はプロジェクションシステムの構成例を示すブロック図であり、光変調部10、光調整部20、光投射部30、スクリーン40、電源系統50、信号処理部60、撮像手段100、侵入検出及び危険防止制御部110、赤外線照射手段120、給電装置130を備えている。
【0066】
給電装置130は赤外線照射部120A〜120Dに給電を行うものであり、侵入検出及び危険防止制御部110からの指令を受けて、各赤外線照射部に供給する電力を変化させることができる。それにより、各赤外線照射部を構成する上記発光素子群の出力レベルについて調整及び設定が可能である。尚、侵入検出及び危険防止制御部110は侵入検出手段を構成しており、例えば、コンピュータ(メモリや表示装置等を含む)や、専用回路等を用いて構成されている。
【0067】
光変調部10は、光源部12、照明光生成部14、空間変調光生成部16を有する。
【0068】
光源部12は、緑色レーザダイオードLD(G)、青色レーザダイオードLD(B)、赤色レーザダイオードLD(R)を有し、各レーザダイオードは電源系統50の電源装置52から給電を受けて、各色のレーザビームを出射する。
【0069】
尚、電源系統50については、光源部12に対してレーザを駆動する電圧及び電流を出力する電源装置52と、レギュレータ54とを有しており、レギュレータ54によって電源装置52の出力レベルを調整できるように構成されている(出力調整については、侵入検出及び危険防止制御部110の指令に応じて電源装置52から光源部12に出力される電流等を、ゼロから最大許容値までの範囲に亘って任意に調整することができる。)。
【0070】
照明光生成部14は、光源部12から出射されたRGB各色のレーザビームを受け入れ、平行な照明光をそれぞれ生成するために設けられており、緑色照明光学部LG(G)、青色照明光学部LG(B)、赤色照明光学部LG(R)を有する。
【0071】
空間変調光生成部16は光変調手段を備え、本例ではグレーティング・ライト・バルブ(GLV:Grating Light Valve)と呼ばれる1次元光変調素子が用いられている。該素子は光のオン/オフ制御が電気的に可能な位相回折格子を用いて構成される(ディジタル画像表示に使用される。)。
【0072】
照明光生成部14からの各色光に対して、緑色用GLV(G)、青色用GLV(B)、赤色用GLV(R)がそれぞれ設けられており、空間変調光生成部16はさらにコンバイナ「MX」を有している。各色のGLVには、信号処理部60で処理される映像信号(VIDEO)に応じた変調用の駆動信号がドライバ回路64からそれぞれ供給され、照明光生成部14からの光が映像信号VIDEOに応じて変調されて出力される。
【0073】
コンバイナ「MX」は、各色GLVによる光を合成する手段(画像合成手段)であり、その出力光は後段の光調整部20に出射される。
【0074】
光調整部20は、オフナーリレー光学系22、ディフューザ光学系24を有し、空間変調光生成部16からの画像光について調整する。
【0075】
光調整部20の後段に位置する光投射部30は、投影レンズ32と、スキャナ34を有し、スクリーン上への画像の光投射手段を構成する。光投射部30の前方には投影用のスクリーン40が配置されて、ガルバノミラー等の偏向手段を備えたスキャナ34によって映像信号VIDEOに応じた画像がスクリーン40に投影される。尚、本例では、投影レンズ32の後段にスキャナ34が配置された形態を示しているが、両者の位置関係を逆にした形態(スキャン後に拡大投影する形態)等、各種形態での実施が可能である。
【0076】
信号処理部60は、映像信号処理部62、ドライバ回路64、全体制御部66、スキャナ制御部68を有する。
【0077】
映像信号処理部62には、図示しない映像ソース機器(コンピュータや記録再生装置等)からの映像信号VIDEOが入力され、ドライバ回路64を介して空間変調光生成部16の各GLVを制御して照明光(レーザ光)を変調する信号を生成するために信号処理が行われる。そして、ドライバ回路64は映像信号処理部62の出力信号を受けて駆動信号を各色GLVにそれぞれ送出して各素子を駆動する。
【0078】
スキャナ制御部68はスキャナ34についての回転制御を行うために設けられており、全体制御部66の制御下に置かれている。尚、全体制御部66は、例えば、ドライバ回路64からの信号に応じてスキャナ制御部68に指令を出したり、映像信号処理全般及び投射制御等を統括する。
【0079】
図10は侵入検出及び危険防止制御部110における処理の一例を示すフローチャート図であり、処理ステップS1〜S6は下記の通りである。
【0080】
(S1)装置起動
(S2)クラス1の光照射及び位置調整
(S3)クラス3Rのレベル調整
(S4)通過確認試験
(S5)調整終了
(S6)通常監視状態の設定。
【0081】
尚、(S1)乃至(S5)が初期調整に関するものであり、(S6)については初期調整後に装置を起動して使用する場合に設定される。また、(S2)、(S3)はいずれもレーザ光の照射調整に関するステップを示し、(S2)の「クラス1」の照射レベルでは、眼にとって充分に安全な強度まで低下した状態とされる。また、(S3)の「クラス3R」の照射レベルは、プロジェクタ装置の通常動作において使用される強度である(レーザ安全規格は「JIS C 6802」参照)。
【0082】
次に、図11を用いて上記S1乃至S6について説明する。尚、図11は横軸に時間をとり、縦軸にレーザ光の照射レベルをとってその時間的変化の経緯を例示したものであり、各時刻t1〜t4及び時間T1、T2の意味は下記の通りである。
【0083】
・「t1」=装置の電源スイッチをオンにした時点
・「t2」=クラス1からクラス3Rへの上昇開始時点
・「t3」=監視空間に人体や障害物が侵入を始めた時点
・「t4」=クラス3Rへの上昇開始時点
・「T1」=APRの動作時間
・「T2」=人体や障害物の監視空間への侵入時間(T2>T1)
図中の「APR」(Auto Power Reduction)は人体等の侵入検知時にレーザパワーのレベルを低減させる安全機構を意味し、「ON」が該機構の作動状態、「OFF」が該機構の作動後におけるレーザ光の遮断解除を意味する。
【0084】
先ず、上記ステップS1では、時点t1においてオペレータがプロジェクタ装置の電源スイッチ140(図9参照)を操作して該スイッチをオン状態とし、プロジェクタ装置の起動が指示される。これにより、プロジェクタ装置の各部に給電が行われる。尚、映像信号処理部62に映像信号VIDEOが供給されない状態では、映像がない状態で照明のみが行われる(但し、この状態で投影レンズ32から光が投影領域42を常に正しく投影しているわけではないことに注意を要する。)。
【0085】
次ステップS2では、レーザ光の照射レベル(パワー)がクラス1に上昇する。つまり、時点t1において、侵入検出及び危険防止制御部110に、電源スイッチ140がオンであることを示す信号が入力されると、光源部12に対する電力制御が行われて、クラス1のパワーをもつレーザ光が照射される。そして、スクリーン上での位置調整が行われる。
【0086】
プロジェクタ装置の装置本体部1Aとスクリーン40を設置した直後の状態では、赤外線照射部120A〜120Dから監視領域46A〜46Dに向けて照射された赤外線が予定された位置を正しく照射しているとは限らない。
【0087】
そこで、各赤外線照射部の指向性や、投射距離の調整の他、必要に応じて、投影レンズ32の焦点距離調整等が手段又は自動で行われる。例えば、スクリーン40内の投影領域42に該当する範囲に、投影レンズ32からの光が照射されるように、装置本体部1Aの向きや投影レンズ32の焦点距離等を調整する。そして、スクリーン40における投影領域42の位置が確定した後で、各赤外線照射部120A〜120Dからスクリーン上への照射範囲と、各監視領域46A〜46Dとがそれぞれ対応する位置関係をもつように両者の位置合わせを行う。
【0088】
尚、投射距離や表示位置、画サイズ等の調整、赤外線照射範囲と監視領域との間の位置合わせ等については、撮像手段100を使って、スクリーン40への投影レンズ32からの投射光及び各赤外線照射部を構成する発光ダイオードの投射光に関してそれらの反射光として撮像し、その撮像信号を侵入検出及び危険防止制御部110に入力するとともに、ここで信号処理を行うことにより画像表示で確認できるように構成する(投影領域42の調整等においては、撮像手段100に設けられた赤外線透過フィルタ(可視光カットフィルタ)は非装着状態とする。)。
【0089】
また、赤外発光パワーについて十分な安全性を保証することが必要である。
【0090】
図12は赤外LEDのパワーと距離との関係を例示したグラフ図である。
【0091】
「JIS C6802」に規定される、直接眼露光に対する角膜におけるMPE(Maximum Permissible Exposure)は、波長λ=880nm、照射時間t=3×10−4秒(0.3ms)のとき、0.733mW/cmであり、本例においても、この基準を満足するように設計している。例えば、スクリーンサイズが80インチであって、投射距離が2.35mである場合に、監視領域46における赤外光のパワーは約0.15mW/cmであり、監視領域46における赤外線照射幅は5cmである。別例としては、スクリーンサイズが180インチで投射距離が6.53mの場合、監視領域46における赤外光のパワーは約0.054mW/cmであり、監視領域46における赤外線照射幅は5cmである。
【0092】
図13は、赤外線照射部120A〜120Dによる各投射領域と、監視領域46A〜46Dとの位置関係の調整及び確認処理について説明するための図である。本例では、投影レンズ32から投射された投影領域42への位置調整終了後に、侵入検出及び危険防止制御部110のメモリに記憶された撮像手段100の撮像結果を図示しない表示装置に表示させて、赤外線照射部120A〜120Dから監視領域46A〜46Dへの照射状態を確認する場合を例示している。
【0093】
(A)図は投影領域42が設定された直後の初期状態を示しており、投影領域42の周囲には、赤外線照射部120A〜120Dの投射範囲46a〜46d(破線で示す。)が、投影領域42の外縁から距離d1=30cm、距離d2=20cm、距離d3=20cm、距離d4=40cmをもってそれぞれ離れていることが数値で表示されている。
【0094】
撮像手段100はスクリーン40に照射された赤外線照射部120A〜120Dの光の反射について赤外透過フィルタを通して撮像する。例えば、監視領域幅が5cmとされて、その幅方向がいずれも6画素分のデータに相当し、図示した監視領域46の長手方向における各領域46A、46Cの長さが200画素分のデータ、また、領域46B、46Dの長さが114画素分のデータに相当する。そして、各画素データについては、例えば、256階調のデータとして表わされる。
【0095】
侵入検出及び危険防止制御部110は、撮像手段100から入力した撮像データを信号処理して、投射範囲46a〜46dに係る画素データを閾値、例えば、50で2値化して、50以上の画素データを論理値「1」、49未満の画素データを論理値「0」として区別し、投影領域42の部分と投射範囲46a〜46dを表示画面に表示させる。その際、投影領域42と投影部46a〜46dとの間隔を計算して距離d1〜d4として表示する。
【0096】
本例では上記W値が10cmとされており、よって、距離d1〜d4が全て10cm程度になるように、赤外線照射部120A〜120Dのチルト角度を調整する。
【0097】
(B)図は、投影領域42の上下周縁から10cmだけ離れた領域46A、46Cに、赤外線照射部120A、120Cからの光が投射される状態に調整されたことを示している。また、(C)図は、投影領域42の左右周縁から10cmだけ離れた領域46B、46Dに、赤外線照射部120B、120Dからの光が投射される状態に調整されたことを示している。
【0098】
尚、W=10cmという値はあくまで一例であり、ズーミングによる画角変化等に応じて赤外光や赤外線の投射範囲及び監視領域の位置設定を適切に行う必要があることは勿論である。
【0099】
(C)図の状態で位置調整が自動又は手動で行われた後、その確認を終えると、次ステップS3に進んで、クラス3Rでのレーザパワーの調整処理に進む。尚、このとき、撮像手段100には赤外線透過フィルタが装着されている。
【0100】
電源装置52から光源部12への供給電力を増加させていくことで、t2の時点でクラス1であったレーザパワーがクラス3Rまで上昇する。尚、時刻t2では上記APRが動作するように設定して安全機構の機能を有効化する必要がある。
【0101】
各監視領域46A〜46Dに係る反射光(赤外光)は撮像手段100によって受光される。侵入検出及び危険防止制御部110は、撮像手段100が撮像した反射光の検出レベルを画素データから取得して、そのレベルを基準範囲と比較して許容範囲内であるか否かを調べる。例えば、各画素データが256階調で表されるとした場合において、該データを閾値との比較によって2値化する。該閾値以上の画素データが論理値「1」に相当し、該閾値未満の画素データを論理値「0」に相当するものとして区別し、赤外光について正当に監視領域46A〜46Dが照射されていることを確認することが必要である。
【0102】
尚、実験によれば、各種の反射面に対する撮像素子(CCD型イメージセンサ)の検出レベルは下記表1で示した値であった。上記の閾値は、スクリーン40に使用する材質に応じて決定することが好ましく、例えば、スクリーン40の材質が、白色のマットのスクリーン、白い紙等の場合に、55程度に設定すれば、侵入検出対象の1つである日本人の肌との識別が可能である。
【0103】
【表1】

Figure 2004070298
【0104】
次ステップS4では、赤外線照射部120A〜120Dから各監視領域46A〜46Dに向けてそれぞれ投射される赤外光の通過範囲(角錐台状の検出範囲)への障害物の通過確認試験を行う。つまり、オペレータは、赤外光によって包囲された上記検出範囲に障害物を出し入れして、監視領域46A〜46Dに関する撮像手段100の検出画像データに基いて検出信号レベルの低下又は上昇が検出されるか否かを確認することでテストする。
【0105】
図11の時刻t3では赤外光で包囲される監視空間内に障害物の侵入が開始された状況を示しており、このことが検知されると、APRが作動してレーザパワーが急激に低下して、時間T1(<T2)以内でパワーがゼロとなる。つまり、障害物がレーザ光の投射範囲に入るまでに要する侵入時間T2よりも短い時間でレーザ出力がクラス1以下のレベルまで低減される。
【0106】
この試験方法には種々の形態が挙げられるが、例えば、各監視領域について検出範囲の外側から、人の手指や光沢のある黒色定規等の物体を出し入れして、上記検出信号レベルの低下等をチェックする。
【0107】
侵入検出及び危険防止制御部110は、この通過試験において、障害物が上記検出範囲に侵入したときは警報音を出すように制御を行う(図示しない警報装置に対して出力信号が送出される。)。これによってオペレータは正常に障害の検出が行われたことを聴覚で確認できる。また、侵入検出及び危険防止制御部110は、必要に応じて、図示しない表示装置に対して、障害物に該当する部分を赤色等で区別して表示させることもできる(障害物が検出されない監視領域については、その検出画像を、例えば、白色で表示する。)。そして、侵入検出及び危険防止制御部110はこのときのデータをメモリに記憶しておくこともできる。
【0108】
このような試験は、監視領域46A〜46Dについて行う(但し、障害物の侵入や通過を想定する必要性のないことが事前に明らかな場合には、該当する監視領域は当然に試験対象から除外される。)。
【0109】
尚、この試験期間中、投影レンズ32から投影領域42への投影は不要であるから、侵入検出及び危険防止制御部110は、レギュレータ54を駆動して電源装置52から光源部12に給電される電力を非常に低いレベルに低下させるか、又は電源装置52から光源部12への給電を停止させることが望ましい。
【0110】
通過試験が完了すると次ステップS5に進み、上記した一連の調整作業が終了する。尚、S2乃至S4の順序や回数等は適宜に変更可能である。
【0111】
上記調整及び確認が終了したら、オペレータは図示しない操作入力手段(操作スイッチ等)を使って、侵入検出及び危険防止制御部110に対してその旨を指示する。
【0112】
上記通過試験の間、電源装置52から光源部12への給電を停止したり、あるいは非常に少ない電力供給状態とするときは、侵入者が、投影レンズ32と投射領域42を結んだ範囲に入っても障害はないので、オペレータが上記調整終了の指示を出した場合に、侵入検出及び危険防止制御部110は給電装置130から赤外線照射手段120への給電を停止させることができる。
【0113】
他方、侵入者が上記検出範囲に侵入することに対して警告を発するため、電源装置52から光源部12への給電状態に係わりなく、電源スイッチ140がオン状態である限り、侵入検出及び危険防止制御部110が給電装置130から赤外線照射手段120への給電を継続させることで、上記警報を常に出力可能な状態にしておくこともできる。
【0114】
最終ステップS6では、通常監視状態に設定される。
【0115】
例えば、図示しない映像ソース機器からの映像信号VIDEOが映像信号処理部62に入力されて、プロジェクタ装置の投影動作が開始すると、ドライバ回路64は空間変調光生成部16に映像信号VIDEOに応じた駆動信号を出力し、全体制御部66がスキャナ制御部68を介してスキャナ34を制御する。
【0116】
侵入検出及び危険防止制御部110には、全体制御部66から通常の投影動作が開始したことを示す情報が送られ、上記検出範囲に相当する領域(以下、「侵入禁止領域」という。)に人や障害物等が侵入したか否かを常時検出する。
【0117】
この検出方法については、上記ステップS4で説明した方法と同様であるが、侵入者の保護のためには、侵入検出及び危険防止制御部110によって侵入禁止領域内に侵入者等を検出したときに、下記の手段を講じることが好ましい。
【0118】
・投影レンズ32からスクリーン40に向かう照射光のレベルが侵入者の肉眼に障害を与えない程度のレベルになるまで低下するように、レギュレータ54を制御して電源装置52から光源部12に供給される電力を低下させること。
【0119】
・状況次第では、電源装置52から光源部12に供給される電力を遮断すること。
【0120】
それらの結果、投影レンズ32からスクリーン40に向かう照射光が暗くなるか又は皆無となる。また、このとき、侵入検出及び危険防止制御部110は警告音又は警報メッセージ等を出力することができる。
【0121】
侵入検出及び危険防止制御部110による危険防止処理については、侵入禁止領域に侵入物が侵入するときの状態に応じて異なる。
【0122】
例えば、各監視領域46A〜46Dに係るW値を10cmとして、侵入速度が2m/s(メートル毎秒)の場合に、線状侵入物の侵入時間は0.05秒であり、また、侵入速度がその半分(1m/s)の場合には、線状の侵入物の侵入時間は0.10秒である。人間の場合にはその幅が線状物体より広いから、侵入時間が0.05〜0.1秒よりの数倍〜10数倍程度長くなる。
【0123】
また、各赤外線照射部と各監視領域を繋いてできる面(侵入禁止領域の境界)に沿って人間が移動しているときは、侵入禁止領域に入り続けた状態になる。各監視領域の長手方向における長さを2mと仮定した場合、侵入速度が2m/sのときには、約1秒間侵入禁止領域に侵入していることになる。
【0124】
他方、撮像手段100により撮像された画像データにはノイズの混入が避けられず、侵入者が瞬間的にかつ部分的に侵入禁止領域に侵入したとの誤判断が下される可能性がある(このような場合は過敏な判断処理を行う必要がない。)。
【0125】
そこで、侵入継続時間と侵入領域の大きさとの乗算結果に応じて段階的な防止処理を行うことが好ましい。
【0126】
ここにいう「侵入継続時間」とは、侵入禁止領域への侵入状態が継続している時間を意味する。また、「侵入領域の大きさ」とは、撮像手段100で検出した各監視領域46A〜46Dに係る反射光レベルが所定の基準範囲を逸脱している合においてその部分の面積(例えば、閾値以下のデータをもつ画素数に相当する。)等をいう。
【0127】
下記表2は、継続侵入時間と侵入領域の大きさ(侵入部分の面積等)との積によって規定される「侵入状態指示値」と、これに応じて侵入検出及び危険防止制御部110により行われる処理内容を例示したものである。
【0128】
【表2】
Figure 2004070298
【0129】
本例では、侵入状態指示値に応じた4段階(光源部に係るパワー低減や給電停止)の処理が行われ、侵入検出及び危険防止制御部110は、レギュレータ54を介して電源装置52の電力レベルを変化させて光源部12の出力を調整して、侵入禁止領域への侵入者の眼等に悪影響を及ぼさないように防止する。尚、侵入状況に応じた、侵入検出及び危険防止制御部110の処理については、上記の例に限定されず、種々の処理方法が可能であり、例えば、侵入継続時間だけで判断する方法又は侵入領域の大きさ(侵入面積)だけで判断する方法、あるいは、さらに別の要因を考慮して判断する方法等が挙げられる。
【0130】
上記の処理によって、人間が侵入禁止領域に侵入した場合に、人体への障害を及ぼさないように防止することができ、特に、事情が分からない幼児等が侵入禁止領域に入り込んだ場合でも充分な安全対策が講じられる。
【0131】
次に、上記構成の変形態様について説明する。
【0132】
赤外線照射手段120を構成する各赤外線照射部120A〜120Dについて、それらの傾動角(チルト角度)の調整を自動化することが好ましく、モータ等の駆動源及びチルト機構を各赤外線照射部に設けることでそれらの姿勢制御によって照射方向制御を行うことができる。
【0133】
また、上記形態においては、図10に示すステップS5の調整終了後に通常監視処理に移行する例を述べたが、既に調整作業が終了した状態のプロジェクタ装置を使用するときは、電源スイッチ140をオン状態にしたときに、直ちにステップS6の通常監視状態から開始することもできる。その場合、例えば、ステップS5において調整作業が完了したことを示すためのフラグ(調整終了フラグ)を用意し、これを所定値(例えば、「1」)に設定して、侵入検出及び危険防止制御部110のメモリ内に記憶させておけば良い。
【0134】
ステップS6の通常監視状態においては、各赤外線照射部120A〜120Dからスクリーン40の各監視領域46A〜46Dに赤外線を連続的に照射するものとしたが、これに限らず、侵入禁止領域への侵入者の検出が可能な時間間隔をもって赤外線照射を行っても良い(例えば、監視領域46への赤外線照射を数ミリ秒間隔で断続的に行うこともできる。)。
【0135】
また、上記形態では、監視領域46A〜46Dの全てについて赤外線照射手段120から赤外線を照射する場合について述べたが、例えば、領域46Aの位置が高く、普通人の身長範囲を考えると侵入の可能性がない場合には、あえて該領域の赤外線照射を行う必要はない。
【0136】
上記の説明では、スクリーン上の投射領域42の外側に位置する監視領域46を設け、侵入禁止領域への侵入について監視するシステムを想定したが、該監視領域の外側にさらに別の監視領域を設定し、監視空間の多重化(2重化、3重化等)によって監視体制を強化することが可能であり、以下ではそのような実施態様について説明する。
【0137】
図14はプロジェクションシステムの構成例を示した構成図であり、基本的な要素については図9と同様であり(よって、機能的に同じ要素には既に付した符号を用いて重複説明を回避する。)、相違点だけを箇条書きで下記に示す。
【0138】
・監視領域については2重とされ、内側の領域(第1監視空間又は第1監視ゾーン)を第1警報処理部70が担当し、外側の領域(第2監視空間又は第2監視ゾーン)を第2警報処理部80が担当すること及び各監視空間への侵入についてそれぞれ検出するとともに、侵入の状態や状況に応じて警報処理を行うこと。
【0139】
・第1警報処理部70が第1検出手段72と第1警報手段74を有しており、第1検出手段72によって人体等の侵入が検出されると、第1警報手段74が警報を出力し、レーザ光の強度を変化させる(低下又はゼロ)こと。
【0140】
・第2警報処理部80が第2検出手段82と第2警報手段84を有しており、第2検出手段82によって人体等の侵入が検出されると、第2警報手段84が警報を出力すること。
【0141】
図15は、プロジェクタ装置の本体部1Bとスクリーン40との位置関係を示す概略図であり、(A)図は投影光の状態を示す斜視図、(B)図は投影方向に直交する方向(側方)からみた場合の断面図である。
【0142】
本体部1Bの光投射部30からスクリーン40に投影される映像は、光投射部30のスキャナ34により走査が行われ、スクリーン上の投影領域42に投影される。
【0143】
光投射部30から投影領域42に投影される光(映像光)の通過領域42Sを、以下では「映像光通過空間領域」と呼ぶことにする。
【0144】
また、上記第1監視空間(又はゾーン)については、下記の領域から構成されるものとする。
【0145】
・「第1監視領域」=投影領域42の外周に位置する監視領域(前記した監視領域46と同様であり、図にはその幅を誇張して示す。)
・「第1空間監視領域」=上記映像光通過空間領域42Sの外側(外周)に位置する空間領域(光投射部30から出力される映像光の周囲に位置する空間領域46S)。
【0146】
同様に、上記第2監視空間(又はゾーン)については、下記の領域から構成されるものとする。
【0147】
・「第2監視領域」=第1監視領域46の外周又は第1監視領域46を含む外部領域90((A)図に破線で示す領域)
・「第2空間監視領域」=第1空間監視領域46Sの外周又は第1空間監視領域46Sを含む空間領域90S((B)図参照)。
【0148】
第1警報処理部70において(図14参照)、第1検出手段72は第1空間監視領域46Sへの人体や物体の侵入、あるいは、これらが継続的に存在することを検出する。そして、第1警報手段74は、第1検出手段72からの検出情報に基いて警報を出力するとともに、光源部12への電力供給について制御する。
【0149】
また、第2警報処理部80において、第2検出手段82は、第2空間監視領域90Sへの人体又は物体の侵入、あるいはこれらが継続的に存在することを検出する。そして、第2警報手段84は、第2検出手段82からの検出情報に基いて警報を出力する。
【0150】
図16は警報処理の一例を示したフローチャート図であり、下記ステップに従って処理が行われる。
【0151】
(S11)正常投影動作
(S12)第2検出手段による侵入検出
(S13)第2警報手段による警報処理
(S14)第1検出手段による侵入検出
(S15)第1警報手段による警報処理。
【0152】
先ず、ステップS11では、図14の電源装置52からの規定電圧をもって光源部12が駆動され、映像信号VIDEOに応じて空間変調光生成部16で変調された映像光が光投射部30からスクリーン40上の投影領域42に投影される。
【0153】
そして、ステップS12に進み、第2検出手段82によって第2空間監視領域90Sに人体等が侵入したか否かについて検出される。つまり、人体等の侵入や存在が検出された場合に、ステップS13に進み、第2警報手段84によって警報処理が行われる。該警報処理としては、例えば、「危険ですから投影領域から離れて下さい」といった内容の音声メッセージを出力する(視聴者が投影領域42を注視していない状態でも該メッセージを耳で聞けるので、視聴者は事前に危険を察知することができる。)。これにより侵入者に回避行動が促される。尚、この音声メッセージに加えて、又は音声メッセージとは別に、第2警報手段84から全体制御部66に第2警報信号を出力することにより、全体制御部66が映像信号処理部62において映像信号VIDEOに警告メッセージ信号や警告図形信号を重畳させた上でドライバ回路64に出力し、空間変調光生成部16を経由して、投影領域42に映像表示を行っても良い(これにより、視聴者が投影領域42上の警告表示や上記音声メッセージにより、事前に危険を察知することができる。)。
【0154】
このような警報にも係わらず、侵入等が継続された場合には、次ステップS14において、第1検出手段72によって、第1空間監視領域46Sへの侵入が検出される。つまり、人体等の侵入又は該領域46Sにおける人体等の存在を検出すると、ステップS15に進んで第1警報手段74が第1警報処理を行う。例えば、第1警報手段74は、レギュレータ54を介して電源装置52の出力電圧を遮断状態にして、光源部12からレーザビームを出射させない状態にする。これにより、視聴者の眼が保護される。好ましくは、「危険ですから装置を停止します。」といった内容の音声メッセージを出力する(プロジェクタ装置の停止理由が視聴者に理解される。)。
【0155】
尚、第1警報手段74がレギュレータ54を介して、電源装置52の出力を下げて、安全なレベルまでレーザ光の強度を低下させることにより、視聴者の眼が保護されるようにしても良い。その際、「目に危険ですから暗くします。」といった内容の音声メッセージを出力することにより、投影光の低下理由を視聴者が理解できるように配慮することが好ましい。
【0156】
また、第1警報手段74が動作したとき、第1警報信号を全体制御部66に出力し、全体制御部66は必要に応じて、映像信号VIDEOを出力する外部装置に対して映像信号VIDEOの出力停止を要求し、プロジェクタ装置による投影を停止させることができる。
【0157】
第1警報手段74が動作した後におけるプロジェクタ装置の再起動については、オペレータの操作によりレギュレータ54をリセットすることで行うことができる。コンピュータ機器等の外部装置からの映像信号VIDEOの出力再開については、オペレータによってプロジェクタ装置が再起動されたときに全体制御部66が外部装置に対して映像信号を要求する。
【0158】
上記形態によれば、第2空間監視領域90Sへの侵入が検出され、さらに第1空間監視領域46Sへの侵入が検出されたときに、レーザ光を遮断し又はその光強度を低下させることにより、1段階の侵入検出に比べてプロジェクタ装置の稼働率を低下させずに安全対策を講じることができる。そして、第1空間監視領域46Sへの侵入前に、第2空間監視領域90Sに人体が侵入したことを検出して、事前警告を行えるので、侵入禁止領域に人体が誤って入り込まないよう未然に防止できる。
【0159】
好ましくは、第2警報手段84が動作した時点から、所定時間以内に第1検出手段72が第1空間監視領域46Sへの侵入を検出した場合に、第1警報手段74によって上記警報処理を行う。それにより、第1検出手段72の誤検出や誤動作、あるいは第1空間監視領域46Sの検出に係るノイズ成分の影響を低減させ、第1警報手段74が頻繁に動作してプロジェクタ装置の利用度が低下するといった不具合を防止できる。
【0160】
上記した第2警報処理部80の実施形態について、その第2検出手段82には下記に示す形態が挙げられる。
【0161】
(I)人体の発する放射エネルギーを検出する焦電センサ(警備装置等において人体の侵入を検出するために使用されている。)を用いる形態
(II)サーモグラフィ装置等に使用される熱感知センサを用いる形態。
【0162】
上記(I)については、例えば、下記の形態が挙げられる。
【0163】
(I−1)1つの焦電センサを用いた形態(図17参照)
(I−2)複数の焦電センサを組み合わせた形態(図18参照)。
【0164】
先ず、上記(I−1)では、例えば、図17に示すように、焦電センサの設置方法として、スクリーン40を含む第2監視領域90のほぼ全体を包囲する領域(図に太線の円形枠で示す。)への指向特性をもった1個の焦電センサを光投射部30の近傍に設けることができる。尚、誤動作やノイズ等に起因して、第2警報手段84の頻繁な動作が起きないようにするためには、焦電センサが所定時間以上継続して人体等を検出したときに(例えば、継続時間の判定用閾値を2秒間程度とする。)、第2警報手段84を動作させれば良い。
【0165】
第1検出手段72については前記したように撮像素子(CCDセンサ等)を用いることができるが、これを第2検出手段82と共用させた形態も勿論可能であり、その場合には、1個の焦電センサで、第1空間監視領域46Sへの侵入状態をも検出できる(該焦電センサが第1及び第2検出手段の役目を果たす。)。さらには、該焦電センサを用いて、映像光通過空間領域42Sに人体が侵入することも検出可能である。
【0166】
上記(I−2)では、例えば、比較的指向性の狭い焦電センサを複数個用いることができる。図18に示す複数の円形枠は各焦電センサによる検出領域を表しており、図の下方にはそれらの指向性分布について概略的に示している。本例では、7個の焦電センサを用いて、それぞれ第2空間監視領域90Sの下部、右側部、左側部を指向させるために、光投射部30の近傍に配置している。尚、第2空間監視領域90Sの上部に人間が接近することはありえないので、当該部分を指向する焦電センサを設ける必要はないものとしている。
【0167】
第2空間監視領域90Sの下部を担当する焦電センサについて、図には指向性の強度分布例を3つの波形で示しているが、指向性としてそれほど厳密な条件が要求される訳ではないので、第1空間監視領域46Sの外部、あるいは当該領域46Sを含む範囲を指向していれば良い。
【0168】
この場合も、誤動作やノイズ等による、第2警報手段84の頻繁な動作を回避するためには、各焦電センサが所定時間以上に亘って継続して人体を検出したときに第2警報手段84を動作させるように構成すれば良い。
【0169】
また、2個の焦電センサを組み合わせて用いること、例えば、2個の焦電センサを並べて1組にし、それらの検出信号の差を演算すると、差の符号(±)に応じて人体の移動方向を検出することができる。このような焦電センサ対を用いて、第2空間監視領域90Sの下部、右側部、左側部を指向させて配置して、差動型焦電センサとして用いることにより、第2空間監視領域90Sに侵入してくる人体を検出できる。
【0170】
次に、上記形態(II)について説明すると、熱感知センサを用いることにより、人体の温度(体温)を検出して温度に応じた表示や制御等を行うことができる。例えば、熱感知センサによって検出された温度が、人の体温範囲(34〜40度)内であるとき、人体が第2空間監視領域90Sにいることが判断されて、第2警報手段84が動作する。尚、熱感知センサの検出領域については、焦電センサの場合と同様に規定することができる。また、第1検出手段72との共用も可能であり、1個の熱感知センサを光投射部30の近傍に設け、第1検出手段72として第1空間監視領域46Sにいる人体を検出したり、さらには映像光通過空間領域42Sにいる人体の検出にも使用できる。
【0171】
この他、複数の熱感知センサを光投射部30の近傍に設けることにより、第2空間監視領域90Sを中心に人体の存在を検出することができる。
【0172】
次に、上記第1検出手段72について下記の構成形態を説明する。
【0173】
(i)超音波センサを用いた形態(図19参照)
(ii)光センサを用いた形態(図20参照)。
【0174】
先ず、形態(i)では、図19に円形枠で示すように、第1監視領域46及び第1空間監視領域46Sを検出領域として包含し、第2監視領域90および第2空間監視領域90Sを検出領域として含まない超音波センサを複数個(例えば、4個程度)用いる(各超音波センサを光投射部30の近傍に設ける。)。超音波センサは送受信部を備えており、圧電素子に電圧を印加することにより超音波を発生し、超音波を受信すると受信した超音波の振幅に応じた電気信号を出力する。人体等の侵入がない状態では光投射部30とスクリーン40との間に超音波を遮るものはないので、この場合には、超音波センサから超音波が出力されてスクリーン40の第1監視領域46を含むスクリーン40に向かって進み、スクリーン40上で反射された反射波が超音波センサに受信される。超音波センサと第1監視領域46との間や、第1空間監視領域46Sに超音波を遮る物体や人体が存在する場合には、反射波のレベルが低くなるか又は反射波が検出されないことにより判断される。
【0175】
上記形態(ii)では、例えば、図20に黒色太線の矩形枠で示すように、スクリーン40の第1監視領域46に沿って、複数の光センサや、ライン状センサ(1次元CCD)等の受光素子群を配置し、他方、プロジェクタ装置本体部の前面には、光投射部30の周囲から第1監視領域46に向かって光源部12からの照射光よりも充分レベルの低い光や赤外光等を出力する発光素子群(LED等)を設ける。これにより、該発光素子群と上記受光素子群との間に形成される光路を遮る物体や人体を検出することができる。あるいは、第1監視領域46に赤外光の発光素子群を配置して、それらが出射する光線をプロジェクタ装置本体部の光学センサで検出するといった構成形態が挙げられる。
【0176】
これらの形態以外にも、焦電センサや熱感知センサ等を使用したり、第2検出手段82と共用するといった、各種の実施形態が可能であることは勿論である。
【0177】
尚、上記の説明では、第1監視領域46が投影領域42の外周のスクリーン40内に規定された例を示したが、投影領域42の外部に位置していれば、スクリーン40の内部に位置しなくても良い。また、第2監視領域90をスクリーン40の外部に位置する例を上述したが、第2監視領域90を第1監視領域46とともにスクリーン40内に位置させることもできる。
【0178】
上記した構成により、例えば、下記に示す利点が得られる。
【0179】
・レーザ光の投射領域に人体や障害物が侵入するまでの間に、レーザ光を瞬時に遮断し又は減光することができるので、安全性が高い。
【0180】
・人体や障害物の侵入検知に用いられる検出波(赤外光や赤外線)については、視聴者に視認されず、従って、スクリーン上の投影画像に影響を及ぼして画質を低下させるといった不都合がない。また、検出波自体の影響による人体への危険もない。
【0181】
【発明の効果】
以上に記載したところから明らかなように、請求項1や請求項15に係る発明によれば、人体に対する安全性を保証するとともに、監視空間内への侵入検出を簡易に実現することが可能である。
【0182】
請求項2に係る発明によれば、装置の小型化に適している。
【0183】
請求項3や請求項16に係る発明によれば、検出精度を充分に確保するとともに、投射画像への影響がない。
【0184】
請求項4や請求項17に係る発明によれば、画像検出を確実に行うことができるとともに、スクリーン周縁の全範囲を監視する方法に比較して、監視領域の幅を必要最小限度で設定することができ、検知処理が簡単で迅速である。
【0185】
請求項5に係る発明によれば、照射光を規制して人体への影響を抑え、充分な安全対策を講じることができる。
【0186】
請求項6に係る発明によれば、光変調手段を備えた画像投射装置への適用において、安全性や信頼性の向上に有効である。
【0187】
請求項7や請求項9に係る発明によれば、出射光の遮光や変調停止により迅速な処理が可能である。
【0188】
請求項8に係る発明によれば、光源への供給電力を制御することにより、光強度を確実に規制することができる。
【0189】
請求項10に係る発明によれば、侵入状態の度合いに応じて詳細な光出力レベルの制御が可能であり、また、誤検出防止等に有効である。
【0190】
請求項11に係る発明によれば、侵入検知処理が容易であり、複雑な画像処理等を必要としない。
【0191】
請求項12に係る発明によれば、安全性が確認されるまで照射光の強度が抑制されるので、高い安全性を保証することができる。
【0192】
請求項13、請求項14、請求項18に係る発明によれば、多重の監視体制によって、安全対策の強化に有効である。
【図面の簡単な説明】
【図1】本発明に係る画像投射装置の基本構成例を示す概略図である。
【図2】スクリーン上における各投射領域、監視領域を例示した説明図である。
【図3】スクリーン周縁に照射される検出波の強度分布について説明するための図である。
【図4】画像投射装置における安全対策について説明するためのフローチャート図である。
【図5】画像投射装置の構成例について説明するための図であり、プロジェクタ装置とスクリーン部との配置例を示す図である。
【図6】図5に示すプロジェクタ装置の正面図である。
【図7】(A)〜(D)に赤外線照射手段の一例を図解した図である。
【図8】(A)、(B)に赤外線照射手段の照射例を示す図である。
【図9】プロジェクションシステムの構成例を示す図である。
【図10】侵入検出及び危険防止制御部の処理例を示すフローチャート図である。
【図11】レーザ光のパワーレベルについて時間経過の一例を示したグラフ図である。
【図12】赤外線強度と距離との関係を例示したグラフ図である。
【図13】検出波の投射範囲と監視領域との設定方法について、(A)〜(C)に従って説明するための図である。
【図14】プロジェクションシステムの構成について別例を示した図である。
【図15】図14に示すプロジェクタ装置とスクリーンとの位置関係を示した図である。
【図16】図14のプロジェクタ装置における警報動作を例示したフローチャート図である。
【図17】第2監視空間への侵入検出について、第2検出手段の検出領域を例示した説明図である。
【図18】第2検出手段について他の検出領域を例示した説明図である。
【図19】第1監視空間への侵入検出について、第1検出手段として超音波センサを用いた場合の検出領域を例示した説明図である。
【図20】第1検出手段の別例を示した説明図である。
【符号の説明】
1…画像投射装置、1a…光源、1b…投射部、1c…検出波源、1d…反射波検出手段、2…スクリーン、3…投射領域、6…監視領域、40…スクリーン、72…第1検出手段、74…第1警報手段、82…第2検出手段、84…第2警報手段[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for sufficiently taking safety measures in an image projection device and an image projection method configured using a high-intensity light source.
[0002]
[Prior art]
As an image display device capable of displaying a large screen, a projection type projector device is known, and an observer can see an image projected by projecting light from a light source onto a screen.
[0003]
Hitherto, a high-brightness projection tube has been used as a light source of the projector device. However, red (R), green (G) is used for the purpose of improving brightness and color reproducibility, and facilitating modulation by a video signal. And a projection system using a blue (B) laser light source.
[0004]
When laser light is used, it is important to ensure its safety. For example, it is necessary to take sufficient measures when a viewer inadvertently enters a laser light projection area. In other words, it has been pointed out that there is a danger when the laser light directly enters the eyes. As a safety measure, it is detected that a person or the like has entered the laser light projection area, and the projection of the laser light is shut off. Various devices having functions have been proposed (for example, see Patent Documents 1 to 3).
[0005]
[Patent Document 1]
JP-A-4-111585
[Patent Document 2]
Japanese Patent Publication No. Hei 11-501419
[Patent Document 3]
JP 2001-249399 A
[0006]
[Problems to be solved by the invention]
By the way, in the conventional apparatus, there are problems associated with taking safety measures, for example, a problem that the configuration of the apparatus is complicated or that the size of the apparatus is hindered.
[0007]
In other words, in a device in which the safety of the human body is important, a safety mechanism for that purpose is indispensable.However, the addition of this mechanism complicates the projection optical system and the like, or causes a significant increase in the cost of the device. If it occurs, there is a possibility that it may hinder its spread. In addition, the operation delay of the safety mechanism is not allowed, and promptness is required for intrusion detection.
[0008]
Accordingly, the present invention provides an image projection apparatus having a function of projecting and displaying an image on a screen, improving safety when a human body or the like enters a projection range of irradiation light, and, for that purpose, has a complicated configuration. It is an object of the present invention to avoid the occurrence of such problems.
[0009]
[Means for Solving the Problems]
The image projection device according to the present invention, in order to solve the above-described problem, a detection wave source provided on the surface or screen facing the screen in the device main body, and from the detection wave source to the outside of the projection area on the screen. And a reflected wave detecting means for detecting a reflected wave reflected by the monitoring area after the detection wave is emitted to a monitoring area located at a distance, wherein a detection level of the reflected wave detecting means is set to a predetermined threshold or a reference range. Based on the result of comparison with the above, it is configured to detect intrusion into the monitoring space surrounded by the detection wave.
[0010]
Further, the image projection method according to the present invention, with respect to the projection area on the screen located at a distance from the image projection device, while defining a monitoring area located outside the outside, and with respect to the monitoring area A detection wave is emitted from a detection wave source provided on a front surface of the image projection apparatus, and detection of a reflected wave from the monitoring area is performed to detect intrusion into a monitoring space surrounded by the detection wave, and to a projection area. The light radiated toward it is blocked or the intensity of the light is reduced depending on the state of penetration.
[0011]
Therefore, according to these inventions, the detection wave source facing the screen is provided, and the intrusion into the monitoring space is detected with a simple configuration by detecting the reflected wave emitted from the detection wave source and reflected by the monitoring area. can do. Then, when intrusion into the monitoring space is detected, it is possible to prevent the human body from being exposed to danger by blocking the irradiation light to the projection area or reducing the light intensity.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
An object of the present invention is to guarantee safety in an image projection apparatus by immediately blocking light or reducing light intensity when an obstacle enters a projection area of irradiation light (laser light or the like). I do.
[0013]
FIG. 1 schematically illustrates a basic configuration example of an image projection apparatus according to the present invention, and illustrates an example of an apparatus using a laser light source (eg, a laser projector apparatus).
[0014]
The image projection apparatus 1 includes a light source 1a for displaying an image by projecting onto a projection area 3 on a screen 2 located at a fixed distance from the apparatus main body, and a projection section 1b including a projection lens. For example, a configuration is known which includes a laser light source (a laser light source for each color of RGB) and a light modulator (modulation means), and has a function of projecting an image on the screen 2 using laser light. The optical modulator includes a modulator and an optical system for modulating each of the RGB laser beams according to an image signal. The laser beam is modulated according to the image signal. For example, a galvanomirror constituting an optical scanning unit is provided. Scanning (sweep) is performed by the above-described method. In addition, the light modulator includes a projection optical system including an objective lens for projecting each color laser beam on the screen 2, and each color laser beam swept by the optical scanning unit is transmitted through the projection optical system. The screen 2 is irradiated. The application of the present invention is not limited to a projector device that modulates illumination light with a video signal and projects it on a screen, but can be applied to projector devices having various configurations.
[0015]
In addition, as the light source 1a, a configuration using a discharge lamp, a light emitting tube, or the like having high light intensity or luminance can be cited. In particular, in the configuration using a laser light source, as compared with the case using a projection tube or the like. It has excellent characteristics in terms of brightness and color reproducibility, and it is easy to modulate a video signal. However, when the laser light source is used as described above, it is necessary to take safety measures against the intrusion of the human body or the like into the irradiation light passage area from the projection unit 1b toward the projection area 3 on the screen (for example, , Blocking laser light or reducing light intensity, etc.).
[0016]
In FIG. 1, a rectangular frame “LA” indicated by a solid line on the screen 2 indicates an outer frame of the laser light projection region 3, and an image is projected and displayed in the region.
[0017]
In the image projection device 1, for example, even if the viewer inadvertently enters the irradiation range of the laser beam toward the projection region 3, it does not harm the human body (eg, prevent the laser beam from directly entering the eyes). For detecting intrusion into a set area (monitoring space) using a detected wave and detecting a reflected wave of the detected wave. Then, when it is detected that a person or the like has entered the area, the irradiation light to the projection area 3 is blocked or the intensity of the irradiation light is sufficiently reduced (so as not to affect the human eyes. To prevent.).
[0018]
The intrusion detection means using the detection wave includes a detection wave source 1c and a reflected wave detection means 1d.
[0019]
The detection wave source 1c is provided on the front surface or the screen facing the screen 2 in the apparatus main body. For example, a safe light source such as a light emitting diode (LED) is used as an infrared light source or an infrared light source. (Even if infrared light enters the viewer's eyes, there is no safety problem.)
[0020]
A detection wave emitted from the detection wave source 1c (see a two-dot chain line 4 in FIG. 1) is emitted toward the screen 2. In FIG. 1, a rectangular frame IR indicated by a broken line on the screen 2 indicates a projection area of a detection wave. In this example, it is a quadrangular area located outside the laser light projection area 3 and slightly larger than the area. Note that the reason why the size (angle of view) of the detection wave projection area (rectangular frame IR) is set larger than that of the laser light projection area 3 is that a viewer or the like enters the projection area 3 before the viewer enters the projection area 3. This is because of the need to detect that.
[0021]
The reflected wave detecting means 1d is provided for detecting a reflected wave of the detected wave from the screen. That is, after the detection wave is emitted to a predetermined area (see the monitoring area 6 in FIG. 2) located outside the projection area 3 from the detection wave source 1c, the reflected wave reflected by the area is detected. For example, when infrared light or infrared light is used as the detection wave, an image pickup device (CCD type, CMOS type image sensor, or the like) may be used as the reflected wave sensor.
[0022]
Note that the detection wave source 1c and the reflected wave detection means 1d are arranged around a projection unit 1b provided on a surface facing the screen 2 (the front surface of the apparatus main body). As shown in this example, if the reflected wave detecting means 1d is located near the projection unit 1b and the detection wave source 1c is arranged so as to surround them, it is advantageous for miniaturization and downsizing of the device. . Further, by providing the reflected wave detecting means 1d at a location close to the projection unit 1b, it is possible to reduce the probability of occurrence of erroneous detection or the like (for example, the reflected wave detecting means 1d is too far from the projection unit 1b). In such a case, detection irrelevant to the projection is performed, and when the intrusion detection responds to this, there is a possibility that the safety mechanism may be activated unnecessarily.) In addition, by using a method such as modulating the detection wave, the detection accuracy can be increased or erroneous detection can be prevented.
[0023]
FIG. 2 illustrates the relationship between the projection area 3 of the laser beam, the projection area 5 of the detection wave (indicated by a broken line), and the monitoring area 6 on the screen 2.
[0024]
The monitoring area 6 is set at a position substantially corresponding to the projection area 5, but the width of the monitoring area 6 is narrower than the projection area 5. In this example, the monitoring area 6 is composed of four areas 6A to 6D having a predetermined width corresponding to the respective sides of the rectangular frame (quadrilateral). However, the present invention is not limited to this. Implementation in various forms using regions is possible.
[0025]
2, the area 6A is the left side of the quadrilateral, the area 6B is the upper side of the quadrilateral, the area 6C is the right side of the quadrilateral, and the area 6D is the lower side of the quadrilateral. Each part is constituted. Each of the constituent regions is monitored based on the acquired data relating to the range (detection range) detected by the reflected wave detecting means 1d, corresponding to each of the regions. For example, in a case where an infrared light or infrared reflected wave sensor, an image sensor, or the like is used, intrusion monitoring is performed by processing using pixel data forming a detection image of each component region.
[0026]
Regarding the distance from the outer frame LA of the projection area 3 to the monitoring area 6 (see “W” in FIG. 3), the invasion speed assumed from the motion of the human body and the intrusion of the human body and obstacles are detected. It is determined based on the relationship with the time required until the laser light is cut off or dimmed (that is, if this distance is too short, the laser light cutoff or dimming after intrusion detection will not be in time. There is a risk that the distance (interval) needs to be set appropriately.)
[0027]
The monitoring area 6 has, for example, the following forms.
[0028]
(A) A mode in which the screen is set to a high reflectance range
(B) A mode in which a reflective member (a retroreflective sheet or the like) is provided in a range where the reflectance of the peripheral portion of the screen is low.
[0029]
In the mode (a), image projection is performed in a state where the projection area 3 is located in a range having a high reflectance in the screen 2, and usually, a range slightly smaller than its maximum size (the size of a white background portion) is set. In consideration of this, the positions of the regions 6A to 6D are set on the outer periphery of the projection region 3. That is, while the range having a high reflectance on the screen 2 can be used as it is, the presence of the monitoring area 6 affects the image size of the projection area 3 and the display range is slightly narrowed.
[0030]
Therefore, in the embodiment (b), a retroreflective sheet or the like is attached to the peripheral portion of the screen (a black background portion or the like), and this portion is used as a monitoring area, so that an image can be displayed on the entire screen.
[0031]
The size and position of the monitoring area 6 are set to be larger than those of the projection area 3 based on the measured value of the distance from the image projection apparatus 1 to the screen 2 and the F value of the projection lens. In that case, instead of irradiating the irradiation light with high light intensity to the projection area 3 immediately, first irradiate the irradiation light with sufficient brightness for the eyes to the projection area 3 and observe the angle of view. Then, it is preferable to set the size and the position of the monitoring area 6.
[0032]
FIG. 3 schematically shows the intensity distribution of the detection wave. With respect to a graph curve 7 showing the intensity distribution, the intensity of the detection wave is shown in the direction indicated by the arrow L, and the direction orthogonal to this is the screen. 2 shows the position.
[0033]
The detection wave is emitted from the outer shape of the projection area 3 to a position spaced apart by “W” from the outer shape of the projection area 3, and a predetermined wave is set in a range slightly wider than the width of the monitoring area 6 (width of 6A to 6D). It shows a substantially constant intensity equal to or higher than the level, and has a distribution in which the intensity gradually decreases toward the inside or outside of the screen 2 from the range. In other words, if the width of the monitoring area 6 is too large compared to the width of the projection area 5, the foot of the detected wave having a low intensity will fall on the monitoring area 6, so that the intensity becomes unstable or necessary for detection. Problems such as insufficient S / N (signal to noise) ratio occur. Therefore, the width of the monitoring area 6 is within a substantially constant level range (in the projection area 5 of the detection wave, when the intensity of the detection wave is equal to or higher than a predetermined level, when viewed from the direction facing the screen 2). It is preferable to set so as to fall within the flat area.
[0034]
Next, the monitoring process will be described.
[0035]
The principle of monitoring each area 6A to 6D of the monitoring area 6 by the reflected wave detecting means 1d and performing a judgment process relating to intrusion detection is as follows.
[0036]
Each component area of the monitoring area is monitored, for example, as an image detected by the reflected wave detecting means 1d. As an example, the size of a certain monitoring area 6B corresponds to the image size of “2 pixels in width × 600 pixels in length = 1200 pixels in total” in the corresponding detection image, and each pixel data has a predetermined floor. It indicates the intensity of the reflected wave according to the tone expression. That is, the detection wave is applied to the projection area 5 on the screen 2 and reflected by the screen, and the intensity of the reflected wave is recognized as data of each pixel constituting the detection image of the monitoring area. For example, when the intensity of the reflected wave from the screen 2 is detected with an accuracy of 256 gradations, a reference range of the reflected wave intensity based on the pixel data is set in advance, and the actual reflected wave intensity is set in this reference range. It is possible to judge intrusion detection by examining whether or not it is inside. If the reference range is provisionally set to 70 to 120, the data is shown when the actual reflected wave intensity is less than the reference range (0 to 69) or exceeds the reference range (121 to 255). It is recognized that the detected wave is blocked at the pixel or, conversely, too bright.
[0037]
Of the 1200 pixels related to the monitoring area, for a predetermined number of pixels (for example, 6 pixels) or more, it is determined from the comparison result with the reference range that the reflected wave intensity is not allowed, and the intensity decrease or intensity increase When it is recognized, it is determined that a human body or an obstacle has entered. Note that a change in the detected value of the reflected wave intensity based on each pixel data is caused by the detection wave being interrupted by the intrusion of a human body or an obstacle or by directly reflecting the detection wave. The detection level of the reflected wave detection means 1d is compared with a predetermined threshold value or reference range, and based on the comparison result, intrusion into the monitoring space surrounded by the detection wave can be detected. The “detection” includes not only the presence or absence of a human body or an object, but also detection of the size or the moving direction.
[0038]
As described above, it is effective to detect not a whole detected image but a part of an image corresponding to a monitoring area by level comparison, and does not require complicated and time-consuming image processing.
[0039]
When such a monitoring system detects intrusion of a person or the like, a safety mechanism operates. That is, the reflected wave detecting means 1d detects a reflected wave from the screen 2 with respect to the monitoring area 6 (6A to 6D). The reflected wave detecting means 1d measures the intensity of the reflected wave from the screen 2 based on each pixel data in the monitoring area 6, and for example, when the detected wave intensity reflected by the intrusion of a human body or an obstacle has no such intrusion. It is detected that the intensity is different from the intensity of the reflected wave from the screen or the reflecting member (such as a retroreflective sheet). Then, when an abnormality including a decrease or increase in intensity is detected in any of the monitoring regions, the irradiation light (laser light or the like) is cut off or dimmed. Regarding the mechanism, for example, the following configuration forms can be given.
[0040]
A mode in which the light emitted from the light source 1a is blocked by a blocking mechanism such as a mechanical shutter.
Drive control of the light modulation means, for example, a form in which the drive of the light modulation element is turned off (dark state)
A form in which the power supply to the light source 1a is stopped or the supplied power is reduced
-Combinations of the above forms.
[0041]
FIG. 4 is a flowchart for explaining an example of a safety measure regarding the image projection apparatus 1. According to the present algorithm, until the safety of the laser beam projection is confirmed, it is sufficiently safe for human eyes. By performing projection with a laser beam having a high intensity, it is possible to prevent an accident when a person accidentally enters the projection range of the laser beam.
[0042]
The processing steps are as follows.
[0043]
(S1) Switch on the device and start operation
(S2) Irradiate laser light with sufficient intensity for eyes
(S3) The setting state of the safety mechanism is confirmed, and if resetting is required, proceed to (S4). If there is no problem with the setting, proceed to (S5).
(S4) After performing various adjustments and confirmation processing, return to (S3).
(S5) After the safety of the device is confirmed by the user or the administrator of the device, the switch is turned on to activate the safety mechanism.
(S6) Irradiate laser light with specified brightness. In this state, when the intrusion of a human body or an obstacle is detected as described above, the laser beam is cut off or the intensity of the laser beam is reduced to a safe level as in (S2) due to dimming. .
[0044]
The items of adjustment and confirmation in (S4) are, for example, as follows.
[0045]
・ Automatic adjustment and confirmation of projection distance
・ Setting of monitoring area based on projection distance and angle of view
・ Irradiation of detection wave to screen and automatic adjustment of detection wave output and irradiation position according to distance
-Check the reflected wave intensity from the screen and change the screen settings as necessary.
[0046]
As in this example, the intensity of the irradiation light is reduced to a level that is not dangerous to the human body until it is confirmed that no intrusion into the surveillance space surrounded by the detection wave, in particular, no human body has been detected. After the image projection is performed and the safety is sufficiently confirmed, it is desirable to perform control to increase the intensity of the irradiation light to a specified level. After confirming that no human body or obstacle enters the monitoring space in the image projection device 1, the user (operator of the device) confirms that no human body or obstacle enters the projection area 3 just in case. After confirming that the projection power of the irradiation light is increased for the first time by turning on a dedicated switch, it is possible to further enhance the safety.
[0047]
Note that the above (S2) to (S4) can be performed manually or automatically, but automation is preferable from the viewpoint of user convenience. Also, the previous adjustment and setting state are stored in a storage unit in the apparatus together with the conditions at that time (projection angle of view, projection distance, etc.), and when the apparatus is started next time, the previous storage information is obtained from the current state. It is preferable to collate with. For example, when the collation result is permitted (that is, when there is not much difference from the previous state), the process proceeds from (S2) to (S5). And configure the settings again from the beginning.
[0048]
Next, an example of a projector device having functions of intrusion detection and danger prevention will be described with reference to FIGS. It should be noted that, when a human enters the area where the projection light beam (laser light) passes, it is detected to prevent the light beam from being incident on the human eye or to reduce the intensity of the light beam to such an extent that there is no danger. Is applicable.
[0049]
FIG. 5 is a perspective view showing a projector device main body and a screen. The projector device includes the device main body 1A and an image pickup unit 100 such as a CCD image sensor mounted thereon (the reflection unit). This corresponds to the wave detecting means 1d.)
[0050]
A screen 40 is arranged in front of the projector device, and a projection area 42 of an image is defined on the surface thereof, and a rectangular monitoring area 46 is defined in a peripheral area 44 of the area. I have. In this example, the monitoring area 46 is composed of monitoring areas 46A to 46D corresponding to the respective sides of the quadrilateral.
[0051]
FIG. 6 is a front view of the apparatus main body 1A, and shows the projection lens 32, the imaging means 100, and the infrared irradiation means 120 (120A to 120D).
[0052]
A projection lens 32 is positioned at the center of the front surface of the apparatus body 1A, and an image is projected from the projection lens 32 onto a projection area 42 on a screen 40 (the projection lens 32 can adjust the focal length).
[0053]
An infrared irradiating means 120 is located on the peripheral edge of the front surface of the apparatus main body 1A, and has four infrared irradiating sections 120A to 120D for irradiating infrared rays in this example. That is, these infrared irradiators irradiate each of the monitoring areas 46A to 46D constituting the monitoring area 46 with infrared light having a predetermined wavelength (for example, λ = 880 nm).
[0054]
7A and 7B illustrate one of the infrared irradiation units (120A). FIG. 7A is a front view, FIG. 7B is a side view showing one light emitting element, FIG. FIG. D) is an explanatory diagram of the infrared irradiation angle.
[0055]
Each of the infrared irradiators 120A to 120D has the same configuration, and as shown in FIG. 1A, a plurality of light emitting elements (for example, 11 light emitting diodes emitting infrared light) are arranged along the longitudinal direction. ) Are arranged in two stages in a direction perpendicular to the longitudinal direction (vertical direction in the figure).
[0056]
Each light emitting diode is provided with a correction lens “LNS” on the front surface thereof, as shown in FIG. In this example, as shown in FIG. 7C, the divergence angle (elevation angle) with respect to the optical axis direction in the vertical plane including the optical axis of the correction lens is 2 °, and (D) As shown in the figure, the divergence angle with respect to the optical axis direction in the horizontal plane is set to 34 °, and the infrared light is irradiated toward the monitoring area (for example, 46A) corresponding to each of the infrared irradiation units. .
[0057]
It is not necessary that the number of light emitting elements used in each infrared irradiating unit is the same. For example, the number of light emitting elements is located on the shorter side of the quadrilateral compared to the infrared irradiating units 120A and 120C located on the longer side of the quadrilateral. The number of elements used in the infrared irradiation units 120B and 120D may be small.
[0058]
In addition, a tilt mechanism is provided for each infrared irradiation unit so that the irradiation angle toward the screen 40 can be adjusted manually or automatically. That is, since the projection distance from the main body 1A to the screen 40 and the positional relationship between the two are not always fixed, the irradiation direction and range of the infrared irradiation units 120A to 120D are adjusted, and the focal length of the projection lens 32 is adjusted. It is preferable to be configured so as to be able to adjust the like. Since the projector device is often used in various situations, for example, when the projection distance is 3 m and the projection lens 32 and the projection area 42 of the screen 40 are in a horizontal positional relationship, or when the projection distance is 5 m, There are various situations, such as when the projection image is projected upward from the projection lens 32 to the projection area 42 (the direction and the focal length of the projection lens 32 can be adjusted, and the infrared irradiation sections 120A to 120D can be adjusted). It is preferable that tilting (tilting) be possible so that the tilt angle of each infrared irradiation unit can be adjusted according to zooming or the like of the projection lens 32.)
[0059]
For example, it can be adjusted manually or automatically according to the projection distance as shown by an upward arrow “U” or a downward arrow “D” in FIG. 7C.
[0060]
FIG. 8 is a diagram for explaining an irradiation direction and an irradiation width of the infrared irradiation unit, and shows a state viewed from a side orthogonal to a vertical plane, using the infrared irradiation unit 120A as an example.
[0061]
The vertical and horizontal divergence angles and infrared irradiation width can be adjusted and set according to the distance between the main body 1A and the screen 40. For example, as shown in FIG. 7A, the light path (infrared light) from the infrared irradiation unit 120A is made almost parallel light and the optical path is set to be irradiated to the monitoring area 46A, or as shown in FIG. And an optical path setting in which the irradiation light beams from the infrared irradiation unit 120A approach and cross each other, and then travel away from each other.
[0062]
The intensity distribution of the infrared rays radiated to the peripheral area 44 of the screen by each infrared irradiating unit is as described in FIG. That is, the graph curve 7 in FIG. 3 represents the intensity of infrared rays, and the monitoring area 46 is located within the range on the screen 40 corresponding to the range of the intensity peak (flat portion). For example, the value of the distance “W” is 10 cm, and the width of each of the monitoring areas 46A to 46D may be the same, or the widths may be individually changed as needed.
[0063]
The imaging unit 100 captures an image of the screen 40 including the monitoring area 46. A filter that transmits only the infrared component during normal operation of the projector device is provided on the front surface of the imaging unit 100, and the filter reflects light from the area including the monitoring area 46. The detected infrared ray is detected (however, it is necessary to remove the filter in the adjustment step described later).
[0064]
The infrared image (detected image by the infrared light transmitted through the filter) detected by the imaging unit 100 is subjected to signal processing by the intrusion detection and danger prevention control unit 110 described later.
[0065]
FIG. 9 is a block diagram illustrating a configuration example of the projection system. The light modulation unit 10, the light adjustment unit 20, the light projection unit 30, the screen 40, the power supply system 50, the signal processing unit 60, the imaging unit 100, intrusion detection and danger A prevention control unit 110, an infrared irradiation unit 120, and a power supply device 130 are provided.
[0066]
The power supply device 130 supplies power to the infrared irradiation units 120A to 120D, and can change the power supplied to each infrared irradiation unit in response to a command from the intrusion detection and danger prevention control unit 110. Thereby, it is possible to adjust and set the output level of the light emitting element group constituting each infrared irradiation unit. The intrusion detection and danger prevention control unit 110 constitutes an intrusion detection unit, and is configured using, for example, a computer (including a memory and a display device), a dedicated circuit, and the like.
[0067]
The light modulation unit 10 includes a light source unit 12, an illumination light generation unit 14, and a spatially modulated light generation unit 16.
[0068]
The light source unit 12 includes a green laser diode LD (G), a blue laser diode LD (B), and a red laser diode LD (R). Out of the laser beam.
[0069]
The power supply system 50 includes a power supply device 52 that outputs a voltage and a current for driving a laser to the light source unit 12 and a regulator 54, and the output level of the power supply device 52 can be adjusted by the regulator 54. (As for the output adjustment, the current and the like output from the power supply device 52 to the light source unit 12 in response to the command of the intrusion detection and danger prevention control unit 110 range from zero to the maximum allowable value. Can be adjusted arbitrarily.)
[0070]
The illumination light generation unit 14 is provided to receive the laser beams of each color of RGB emitted from the light source unit 12 and generate parallel illumination light, respectively, and includes a green illumination optical unit LG (G) and a blue illumination optical unit. LG (B) and a red illumination optical unit LG (R).
[0071]
The spatially modulated light generating section 16 includes a light modulating means, and in this example, a one-dimensional light modulating element called a grating light valve (GLV: Grating Light Valve) is used. The element is configured using a phase diffraction grating capable of electrically controlling light on / off (used for digital image display).
[0072]
A GLV (G) for green, a GLV (B) for blue, and a GLV (R) for red are provided for each color light from the illumination light generation unit 14, and the spatial modulation light generation unit 16 further includes a combiner " MX ”. A drive signal for modulation corresponding to the video signal (VIDEO) processed by the signal processing unit 60 is supplied to the GLV of each color from the driver circuit 64, and the light from the illumination light generation unit 14 is supplied to the GLV according to the video signal VIDEO. Is modulated and output.
[0073]
The combiner “MX” is a unit (image combining unit) that combines the lights of the respective GLVs, and the output light is emitted to the light adjustment unit 20 at the subsequent stage.
[0074]
The light adjustment unit 20 includes an offner relay optical system 22 and a diffuser optical system 24, and adjusts image light from the spatially modulated light generation unit 16.
[0075]
The light projection unit 30 located downstream of the light adjustment unit 20 includes a projection lens 32 and a scanner 34, and constitutes a means for projecting an image on a screen. A projection screen 40 is disposed in front of the light projection unit 30, and an image corresponding to the video signal VIDEO is projected on the screen 40 by a scanner 34 having a deflection unit such as a galvanometer mirror. In this example, the scanner 34 is disposed at the subsequent stage of the projection lens 32. However, the embodiment can be implemented in various forms such as a form in which the positional relationship between the two is reversed (a form in which enlarged projection is performed after scanning). It is possible.
[0076]
The signal processing unit 60 includes a video signal processing unit 62, a driver circuit 64, an overall control unit 66, and a scanner control unit 68.
[0077]
The video signal processing unit 62 receives a video signal VIDEO from a video source device (such as a computer or a recording / reproducing device) (not shown) and controls each GLV of the spatially modulated light generation unit 16 via a driver circuit 64 to illuminate the video signal. Signal processing is performed to generate a signal that modulates light (laser light). Then, the driver circuit 64 receives the output signal of the video signal processing unit 62, sends a drive signal to each color GLV, and drives each element.
[0078]
The scanner control section 68 is provided for controlling the rotation of the scanner 34, and is under the control of the overall control section 66. The overall control unit 66 issues a command to the scanner control unit 68 in accordance with, for example, a signal from the driver circuit 64, and controls overall video signal processing and projection control.
[0079]
FIG. 10 is a flowchart illustrating an example of processing in the intrusion detection and danger prevention control unit 110. Processing steps S1 to S6 are as follows.
[0080]
(S1) Device startup
(S2) Class 1 light irradiation and position adjustment
(S3) Class 3R level adjustment
(S4) Passage confirmation test
(S5) Adjustment end
(S6) Normal monitoring state setting.
[0081]
Note that (S1) to (S5) relate to the initial adjustment, and (S6) is set when the apparatus is started up and used after the initial adjustment. Further, (S2) and (S3) both show steps related to the adjustment of the irradiation of the laser beam. At the “class 1” irradiation level of (S2), the intensity is reduced to a level that is sufficiently safe for the eyes. The irradiation level of “Class 3R” in (S3) is the intensity used in normal operation of the projector device (see “JIS C6802” for the laser safety standard).
[0082]
Next, S1 to S6 will be described with reference to FIG. Note that FIG. 11 illustrates the process of the temporal change by taking the time on the horizontal axis and the irradiation level of the laser beam on the vertical axis. The meaning of each of the times t1 to t4 and the times T1 and T2 is as follows. It is as follows.
[0083]
-"T1" = time when the power switch of the device is turned on
-"T2" = at the start of the rise from class 1 to class 3R
-"T3" = the point at which a human body or obstacle begins to enter the monitored space
・ "T4" = Start of climb to class 3R
"T1" = APR operation time
-"T2" = time of entry of the human body or obstacle into the monitored space (T2> T1)
“APR” (Auto Power Reduction) in the figure means a safety mechanism that reduces the level of laser power when an intrusion of a human body or the like is detected, “ON” indicates an operation state of the mechanism, and “OFF” indicates an operation state of the mechanism. Means that the laser beam is cut off.
[0084]
First, in step S1, at time t1, the operator operates the power switch 140 (see FIG. 9) of the projector device to turn on the switch, and the start of the projector device is instructed. Thus, power is supplied to each unit of the projector device. In a state where the video signal VIDEO is not supplied to the video signal processing unit 62, only illumination is performed in a state where there is no video (however, in this state, light from the projection lens 32 always projects the projection area 42 correctly). Note that this is not the case.)
[0085]
In the next step S2, the irradiation level (power) of the laser beam increases to class 1. That is, at time t1, when a signal indicating that the power switch 140 is turned on is input to the intrusion detection and danger prevention control unit 110, power control is performed on the light source unit 12 to have class 1 power. A laser beam is applied. Then, position adjustment on the screen is performed.
[0086]
Immediately after the apparatus main body 1A of the projector apparatus and the screen 40 are installed, it is said that the infrared rays radiated from the infrared irradiating sections 120A to 120D toward the monitoring areas 46A to 46D correctly irradiate a predetermined position. Not exclusively.
[0087]
Therefore, in addition to adjusting the directivity and the projection distance of each infrared irradiation unit, the focal length of the projection lens 32 is adjusted by means or automatically as necessary. For example, the direction of the apparatus main body 1A, the focal length of the projection lens 32, and the like are adjusted so that light from the projection lens 32 is irradiated to a range corresponding to the projection area 42 in the screen 40. Then, after the position of the projection area 42 on the screen 40 is determined, the irradiation range from each of the infrared irradiation units 120A to 120D onto the screen and each of the monitoring areas 46A to 46D have a corresponding positional relationship. Perform position adjustment.
[0088]
The adjustment of the projection distance, the display position, the image size, etc., the alignment between the infrared irradiation range and the monitoring area, and the like are performed by using the imaging unit 100 to project the projection light from the projection lens 32 onto The reflected light of the light emitted from the light emitting diode constituting the infrared irradiating unit is imaged as the reflected light, and the imaged signal is input to the intrusion detection and danger prevention control unit 110 and can be confirmed on the image display by performing the signal processing here. (In the adjustment of the projection area 42 and the like, the infrared transmission filter (visible light cut filter) provided in the imaging unit 100 is not mounted).
[0089]
In addition, it is necessary to ensure sufficient security for the infrared emission power.
[0090]
FIG. 12 is a graph illustrating the relationship between the power of an infrared LED and the distance.
[0091]
The MPE (Maximum Permissible Exposure) in the cornea for direct eye exposure specified in “JIS C6802” is a wavelength λ = 880 nm and an irradiation time t = 3 × 10 -4 0.733 mW / cm for seconds (0.3 ms) 2 In this example, too, the design is made to satisfy this criterion. For example, when the screen size is 80 inches and the projection distance is 2.35 m, the power of the infrared light in the monitoring area 46 is about 0.15 mW / cm. 2 And the infrared irradiation width in the monitoring area 46 is 5 cm. As another example, when the screen size is 180 inches and the projection distance is 6.53 m, the power of the infrared light in the monitoring area 46 is about 0.054 mW / cm. 2 And the infrared irradiation width in the monitoring area 46 is 5 cm.
[0092]
FIG. 13 is a diagram for explaining the adjustment and confirmation processing of the positional relationship between the projection regions by the infrared irradiation units 120A to 120D and the monitoring regions 46A to 46D. In this example, after the position adjustment to the projection area 42 projected from the projection lens 32 is completed, the imaging result of the imaging unit 100 stored in the memory of the intrusion detection and danger prevention control unit 110 is displayed on a display device (not shown). The case where the irradiation state from the infrared irradiation units 120A to 120D to the monitoring areas 46A to 46D is confirmed is illustrated.
[0093]
(A) shows the initial state immediately after the projection area 42 is set, and the projection ranges 46a to 46d (shown by broken lines) of the infrared irradiation units 120A to 120D are projected around the projection area 42. Numerical values indicate that they are separated from the outer edge of the area 42 by a distance d1 = 30 cm, a distance d2 = 20 cm, a distance d3 = 20 cm, and a distance d4 = 40 cm.
[0094]
The image pickup means 100 picks up an image of the reflection of the light emitted from the infrared irradiators 120A to 120D applied to the screen 40 through an infrared transmission filter. For example, the monitoring area width is set to 5 cm, and the width direction corresponds to data for 6 pixels, and the length of each area 46A and 46C in the longitudinal direction of the monitoring area 46 shown in the drawing is data for 200 pixels. The length of the areas 46B and 46D corresponds to data of 114 pixels. Each pixel data is represented, for example, as data of 256 gradations.
[0095]
The intrusion detection and danger prevention control unit 110 performs signal processing on the imaging data input from the imaging unit 100, binarizes the pixel data related to the projection ranges 46a to 46d with a threshold value, for example, 50, and converts the pixel data into 50 or more pixel data. Is distinguished as a logical value “1” and pixel data less than 49 as a logical value “0”, and the projection area 42 and the projection ranges 46 a to 46 d are displayed on the display screen. At this time, the distance between the projection area 42 and the projection units 46a to 46d is calculated and displayed as distances d1 to d4.
[0096]
In this example, the W value is set to 10 cm. Therefore, the tilt angles of the infrared irradiation units 120A to 120D are adjusted so that the distances d1 to d4 are all about 10 cm.
[0097]
(B) shows that the light from the infrared irradiators 120A and 120C is adjusted so as to be projected onto the areas 46A and 46C separated by 10 cm from the upper and lower peripheral edges of the projection area 42. FIG. 4C shows that the light from the infrared irradiators 120B and 120D is adjusted so as to be projected onto the regions 46B and 46D separated from the left and right peripheral edges of the projection region 42 by 10 cm.
[0098]
The value of W = 10 cm is merely an example, and it is needless to say that it is necessary to appropriately set the position of the infrared light or the projection range of the infrared light and the monitoring area according to the change in the angle of view due to zooming.
[0099]
(C) After the position adjustment is performed automatically or manually in the state shown in the figure, when the confirmation is completed, the process proceeds to the next step S3, and proceeds to the laser power adjustment process in the class 3R. At this time, an infrared transmission filter is mounted on the imaging means 100.
[0100]
By increasing the power supplied from the power supply device 52 to the light source unit 12, the laser power of class 1 at time t2 is increased to class 3R. At time t2, it is necessary to set the APR to operate so as to enable the function of the safety mechanism.
[0101]
The reflected light (infrared light) related to each of the monitoring areas 46A to 46D is received by the imaging unit 100. The intrusion detection and danger prevention control unit 110 acquires the detection level of the reflected light imaged by the imaging unit 100 from the pixel data, and compares the level with a reference range to determine whether the level is within an allowable range. For example, when each pixel data is represented by 256 gradations, the data is binarized by comparison with a threshold value. Pixel data that is equal to or greater than the threshold value corresponds to a logical value “1”, and pixel data that is less than the threshold value is identified as corresponding to a logical value “0”, and the monitoring areas 46A to 46D are properly irradiated with infrared light. It is necessary to make sure that
[0102]
According to the experiment, the detection levels of the image pickup device (CCD type image sensor) with respect to various reflecting surfaces were as shown in Table 1 below. The above threshold value is preferably determined according to the material used for the screen 40. For example, if the material of the screen 40 is set to about 55 when the material is a white mat screen, white paper, etc. It is possible to distinguish from one of the subjects, Japanese skin.
[0103]
[Table 1]
Figure 2004070298
[0104]
In the next step S4, a test is performed to check the passage of an obstacle into the passing range (a truncated pyramid-shaped detection range) of infrared light projected from the infrared irradiation units 120A to 120D toward the monitoring areas 46A to 46D. That is, the operator moves an obstacle into and out of the detection range surrounded by the infrared light, and a decrease or an increase in the detection signal level is detected based on the detection image data of the imaging unit 100 regarding the monitoring areas 46A to 46D. Test by checking whether or not.
[0105]
At time t3 in FIG. 11, a situation is shown in which an obstacle has begun to enter the monitoring space surrounded by the infrared light. When this is detected, the APR is activated and the laser power sharply decreases. Then, the power becomes zero within the time T1 (<T2). That is, the laser output is reduced to a class 1 or lower level in a time shorter than the intrusion time T2 required for the obstacle to enter the laser beam projection range.
[0106]
This test method may take various forms.For example, for each monitoring area, an object such as a human finger or a glossy black ruler may be taken in and out from the outside of the detection range to reduce the detection signal level and the like. To check.
[0107]
In the pass test, the intrusion detection and danger prevention control unit 110 performs control so as to emit an alarm sound when an obstacle enters the detection range (an output signal is sent to an alarm device (not shown)). ). As a result, the operator can visually confirm that the failure has been normally detected. Further, the intrusion detection and danger prevention control unit 110 can also display a portion corresponding to an obstacle in a display device (not shown) in red or the like as necessary (a monitoring area where no obstacle is detected). Is displayed in white, for example). Then, the intrusion detection and danger prevention control unit 110 can store the data at this time in a memory.
[0108]
Such a test is performed on the monitoring areas 46A to 46D (however, if it is clear in advance that there is no need to assume the entry or passage of an obstacle, the corresponding monitoring area is naturally excluded from the test target. Is done.)
[0109]
During the test period, since the projection from the projection lens 32 to the projection area 42 is unnecessary, the intrusion detection and danger prevention control unit 110 drives the regulator 54 to supply power from the power supply device 52 to the light source unit 12. It is desirable to reduce the power to a very low level or stop the power supply from the power supply device 52 to the light source unit 12.
[0110]
When the passing test is completed, the process proceeds to the next step S5, and the above-described series of adjustment work ends. The order and the number of steps S2 to S4 can be changed as appropriate.
[0111]
When the adjustment and confirmation are completed, the operator uses an operation input unit (such as an operation switch) (not shown) to instruct the intrusion detection and danger prevention control unit 110 to that effect.
[0112]
During the passage test, when the power supply from the power supply device 52 to the light source unit 12 is stopped or the power supply state is set to a very small amount, the intruder enters the range between the projection lens 32 and the projection area 42. Even if there is no obstacle, the intrusion detection and danger prevention control unit 110 can stop the power supply from the power supply device 130 to the infrared irradiation means 120 when the operator issues an instruction to end the adjustment.
[0113]
On the other hand, to issue a warning that an intruder has entered the detection range, regardless of the power supply state from the power supply device 52 to the light source unit 12, as long as the power switch 140 is on, detection of intrusion and prevention of danger. By causing the control unit 110 to continue supplying power from the power supply device 130 to the infrared irradiation unit 120, the alarm can be always output.
[0114]
In the final step S6, the normal monitoring state is set.
[0115]
For example, when the video signal VIDEO from a video source device (not shown) is input to the video signal processing unit 62 and the projection operation of the projector device starts, the driver circuit 64 causes the spatial modulation light generation unit 16 to drive the spatial modulation light generation unit 16 according to the video signal VIDEO. A signal is output, and the overall control unit 66 controls the scanner 34 via the scanner control unit 68.
[0116]
Information indicating that the normal projection operation has been started is sent from the overall control unit 66 to the intrusion detection and danger prevention control unit 110, and the intrusion detection and danger prevention control unit 110 sends the information to an area corresponding to the detection range (hereinafter, referred to as an “intrusion prohibition area”). It constantly detects whether a person or an obstacle has entered.
[0117]
This detection method is the same as the method described in step S4. However, in order to protect an intruder, when the intrusion detection and danger prevention control unit 110 detects an intruder or the like in an intrusion prohibited area, It is preferable to take the following measures.
[0118]
The regulator 54 is controlled to be supplied from the power supply device 52 to the light source unit 12 so that the level of the irradiation light from the projection lens 32 toward the screen 40 is reduced to a level that does not impair the naked eye of the intruder. To reduce power consumption.
[0119]
In some situations, shut off the power supplied from the power supply 52 to the light source 12.
[0120]
As a result, the illuminating light from the projection lens 32 toward the screen 40 is darkened or completely absent. At this time, the intrusion detection and danger prevention control unit 110 can output a warning sound or a warning message.
[0121]
The danger prevention processing performed by the intrusion detection and danger prevention control unit 110 differs depending on the state when an intruder enters the intrusion prohibited area.
[0122]
For example, assuming that the W value relating to each of the monitoring areas 46A to 46D is 10 cm and the penetration speed is 2 m / s (meters per second), the penetration time of the linear intruder is 0.05 second, and the penetration speed is In the case of half (1 m / s), the penetration time of a linear intruder is 0.10 seconds. In the case of a human, the width is wider than that of a linear object, so that the penetration time is several times to ten and several times longer than 0.05 to 0.1 seconds.
[0123]
Further, when a person is moving along a surface (boundary of the intrusion prohibition area) formed by connecting each infrared irradiation unit and each monitoring area, the state is kept in the intrusion prohibition area. Assuming that the length of each monitoring area in the longitudinal direction is 2 m, when the intrusion speed is 2 m / s, the intruder enters the intrusion prohibition area for about 1 second.
[0124]
On the other hand, noise is unavoidable in the image data captured by the image capturing means 100, and there is a possibility that an erroneous determination that an intruder has instantaneously and partially entered the intrusion prohibited area may be made ( In such a case, there is no need to perform sensitive judgment processing.)
[0125]
Therefore, it is preferable to perform stepwise prevention processing according to the result of multiplication of the intrusion duration and the size of the intrusion area.
[0126]
The “intrusion continuation time” here refers to a time during which the intrusion state into the intrusion prohibited area continues. In addition, the “size of the intrusion area” refers to the area of the portion (for example, the threshold value or less) when the reflected light level of each of the monitoring areas 46A to 46D detected by the imaging unit 100 deviates from a predetermined reference range. , Etc.).
[0127]
Table 2 below shows the “intrusion state indication value” defined by the product of the continuous intrusion time and the size of the intrusion area (such as the area of the intrusion part), and the intrusion detection and danger prevention control unit 110 performs the intrusion state instruction value accordingly. This is an example of the processing contents to be performed.
[0128]
[Table 2]
Figure 2004070298
[0129]
In this example, four stages of processing (power reduction and power supply stop related to the light source unit) according to the intrusion state instruction value are performed, and the intrusion detection and danger prevention control unit 110 controls the power of the power supply device 52 via the regulator 54. The output of the light source unit 12 is adjusted by changing the level to prevent an intruder's eyes or the like from entering the forbidden area from being adversely affected. The processing of the intrusion detection and danger prevention control unit 110 according to the intrusion situation is not limited to the above example, and various processing methods are possible. There is a method of making a determination based only on the size of the region (invasion area), or a method of making a determination by further considering other factors.
[0130]
With the above processing, when a human enters the intrusion prohibited area, it is possible to prevent the human body from being hindered. In particular, even when a child or the like who does not know the circumstances enters the intrusion prohibited area, it is sufficient. Safety measures are taken.
[0131]
Next, a modification of the above configuration will be described.
[0132]
It is preferable that the adjustment of the tilt angle (tilt angle) of each of the infrared irradiators 120A to 120D constituting the infrared irradiator 120 is automated, and a drive source such as a motor and a tilt mechanism are provided in each of the infrared irradiators. Irradiation direction control can be performed by these attitude controls.
[0133]
Further, in the above embodiment, the example has been described in which the process shifts to the normal monitoring process after the adjustment in step S5 shown in FIG. 10 is completed. However, when using the projector device in which the adjustment work has already been completed, the power switch 140 is turned on. When the state is set, it is also possible to immediately start from the normal monitoring state in step S6. In this case, for example, a flag (adjustment end flag) for indicating that the adjustment work has been completed in step S5 is prepared, and set to a predetermined value (for example, “1”) to perform intrusion detection and danger prevention control. What is necessary is just to store it in the memory of the part 110.
[0134]
In the normal monitoring state of step S6, each of the infrared irradiation units 120A to 120D continuously irradiates infrared rays to each of the monitoring areas 46A to 46D of the screen 40. However, the present invention is not limited to this. Irradiation may be performed at time intervals at which a person can be detected (for example, infrared irradiation to the monitoring area 46 may be performed intermittently at intervals of several milliseconds).
[0135]
Further, in the above-described embodiment, the case where infrared rays are radiated from the infrared irradiating means 120 to all of the monitoring areas 46A to 46D has been described. However, for example, the position of the area 46A is high, and the possibility of intrusion is considered in consideration of the height range of an ordinary person. When there is no infrared ray, there is no need to irradiate the area with infrared rays.
[0136]
In the above description, a monitoring area 46 is provided outside the projection area 42 on the screen, and a system for monitoring entry into the intrusion prohibited area is assumed. However, another monitoring area is set outside the monitoring area. However, it is possible to strengthen the monitoring system by multiplexing (duplicate, triple, etc.) the monitoring space, and such an embodiment will be described below.
[0137]
FIG. 14 is a configuration diagram showing a configuration example of a projection system. Basic elements are the same as those in FIG. 9 (therefore, redundant description is avoided by using the same reference numerals for functionally the same elements). )), Only the differences are listed below.
[0138]
The monitoring area is doubled, the first alarm processing unit 70 is in charge of the inner area (the first monitoring space or the first monitoring zone), and the outer area (the second monitoring space or the second monitoring zone). The second alarm processing unit 80 is responsible for detecting each intrusion into each monitoring space, and performing an alarm process according to the intrusion state and situation.
[0139]
The first alarm processing unit 70 has a first detection unit 72 and a first alarm unit 74, and when the first detection unit 72 detects intrusion of a human body or the like, the first alarm unit 74 outputs an alarm. And change (decrease or zero) the intensity of the laser beam.
[0140]
The second alarm processing unit 80 includes a second detection unit 82 and a second alarm unit 84. When the second detection unit 82 detects an intrusion of a human body or the like, the second alarm unit 84 outputs an alarm. To do.
[0141]
FIGS. 15A and 15B are schematic diagrams showing the positional relationship between the main body 1B of the projector device and the screen 40. FIG. 15A is a perspective view showing the state of projection light, and FIG. 2 is a cross-sectional view when viewed from the side.
[0142]
The image projected from the light projection unit 30 of the main unit 1B onto the screen 40 is scanned by the scanner 34 of the light projection unit 30 and projected on the projection area 42 on the screen.
[0143]
The passage area 42S of the light (image light) projected from the light projection unit 30 to the projection area 42 is hereinafter referred to as an “image light passage space area”.
[0144]
Further, the first monitoring space (or zone) includes the following areas.
[0145]
“First monitoring area” = a monitoring area located on the outer periphery of the projection area 42 (similar to the above-described monitoring area 46, and its width is exaggerated in the figure).
“First space monitoring area” = a space area located outside (outer periphery) of the image light passing space area 42S (a space area 46S located around the image light output from the light projection unit 30).
[0146]
Similarly, the second monitoring space (or zone) includes the following areas.
[0147]
"2nd monitoring area" = the outer periphery of the 1st monitoring area 46 or the external area 90 including the 1st monitoring area 46 (the area shown by the broken line in FIG. 7A).
"Second space monitoring area" = the outer periphery of the first space monitoring area 46S or the space area 90S including the first space monitoring area 46S (see FIG. (B)).
[0148]
In the first alarm processing unit 70 (see FIG. 14), the first detection means 72 detects the intrusion of a human body or an object into the first space monitoring area 46S, or the continuous presence thereof. Then, the first alarm unit 74 outputs an alarm based on the detection information from the first detection unit 72 and controls the power supply to the light source unit 12.
[0149]
Further, in the second alarm processing unit 80, the second detection unit 82 detects that a human body or an object has entered the second space monitoring area 90S, or that these are continuously present. Then, the second alarm unit 84 outputs an alarm based on the detection information from the second detection unit 82.
[0150]
FIG. 16 is a flowchart illustrating an example of the warning process, and the process is performed according to the following steps.
[0151]
(S11) Normal projection operation
(S12) Intrusion detection by the second detection means
(S13) Alarm processing by the second alarm unit
(S14) Intrusion detection by first detection means
(S15) Warning processing by the first warning means.
[0152]
First, in step S11, the light source unit 12 is driven by the specified voltage from the power supply device 52 in FIG. 14, and the image light modulated by the spatially modulated light generation unit 16 in accordance with the image signal VIDEO is transmitted from the light projection unit 30 to the screen 40. The image is projected on the upper projection area 42.
[0153]
Then, the process proceeds to step S12, where the second detection means 82 detects whether a human body or the like has entered the second space monitoring area 90S. That is, when intrusion or presence of a human body or the like is detected, the process proceeds to step S13, and the second alarm unit 84 performs an alarm process. As the alarm processing, for example, a voice message having a content such as "Please move away from the projection area because it is dangerous" is output (since the message can be heard by the ear even when the viewer is not watching the projection area 42, Can detect danger in advance.). This encourages the intruder to evade. By outputting a second alarm signal from the second alarm means 84 to the overall control unit 66 in addition to or separately from the audio message, the overall control unit 66 causes the video signal processing unit 62 to output a video signal. A warning message signal or a warning figure signal may be superimposed on the VIDEO and output to the driver circuit 64, and the image may be displayed on the projection area 42 via the spatially modulated light generation unit 16 (this allows the viewer The danger can be detected in advance by the warning display on the projection area 42 and the voice message.)
[0154]
If the intrusion or the like is continued despite such a warning, in the next step S14, the intrusion into the first space monitoring area 46S is detected by the first detection means 72. That is, when detecting the intrusion of a human body or the like or the presence of the human body or the like in the area 46S, the process proceeds to step S15, and the first alarm means 74 performs the first alarm process. For example, the first alarming unit 74 shuts off the output voltage of the power supply device 52 via the regulator 54 so that the laser beam is not emitted from the light source unit 12. This protects the viewer's eyes. Preferably, a voice message such as "Stop the device because it is dangerous" is output (a viewer understands the reason for stopping the projector device).
[0155]
The first alarm means 74 may reduce the output of the power supply device 52 via the regulator 54 to reduce the intensity of the laser beam to a safe level, thereby protecting the eyes of the viewer. . At this time, it is preferable to output a voice message such as "Dangerous to the eyes and darken it" so that the viewer can understand the reason for the decrease in the projection light.
[0156]
Further, when the first alarm means 74 operates, the first alarm signal is output to the overall control unit 66, and the overall control unit 66 outputs the video signal VIDEO to an external device that outputs the video signal VIDEO as necessary. It is possible to request the output stop and stop the projection by the projector device.
[0157]
Restarting of the projector device after the first alarm means 74 operates can be performed by resetting the regulator 54 by an operator's operation. For restarting the output of the video signal VIDEO from an external device such as a computer device, the overall control unit 66 requests a video signal from the external device when the operator restarts the projector device.
[0158]
According to the above embodiment, when the intrusion into the second space monitoring area 90S is detected and the intrusion into the first space monitoring area 46S is detected, the laser light is cut off or the light intensity is reduced. First, safety measures can be taken without lowering the operation rate of the projector device as compared with one-stage intrusion detection. Then, before entering the first space monitoring area 46S, it is possible to detect that a human body has entered the second space monitoring area 90S and to give a warning in advance, so that the human body is prevented from accidentally entering the intrusion prohibited area. Can be prevented.
[0159]
Preferably, when the first detection means 72 detects intrusion into the first space monitoring area 46S within a predetermined time from the time when the second alarm means 84 operates, the above-mentioned alarm processing is performed by the first alarm means 74. . Thereby, the erroneous detection or malfunction of the first detection means 72 or the influence of noise components related to the detection of the first space monitoring area 46S is reduced, and the first alarm means 74 operates frequently to reduce the usage of the projector device. Problems such as lowering can be prevented.
[0160]
Regarding the above-described embodiment of the second alarm processing section 80, the second detection means 82 may have the following forms.
[0161]
(I) A form using a pyroelectric sensor for detecting radiant energy emitted from a human body (used for detecting intrusion of a human body in a security device or the like).
(II) A form using a heat sensing sensor used in a thermographic device or the like.
[0162]
The above (I) includes, for example, the following forms.
[0163]
(I-1) Form using one pyroelectric sensor (see FIG. 17)
(I-2) An embodiment in which a plurality of pyroelectric sensors are combined (see FIG. 18).
[0164]
First, in the above (I-1), as shown in FIG. 17, for example, as shown in FIG. 17, as a method of installing the pyroelectric sensor, an area surrounding substantially the entire second monitoring area 90 including the screen 40 (a thick circular frame in the figure) One pyroelectric sensor having a directional characteristic can be provided in the vicinity of the light projection unit 30. In order to prevent the frequent operation of the second alarm means 84 from occurring due to malfunction, noise, or the like, when the pyroelectric sensor continuously detects a human body or the like for a predetermined time or longer (for example, The threshold value for determining the duration is about 2 seconds.), And the second alarm means 84 may be operated.
[0165]
As described above, an image sensor (CCD sensor or the like) can be used as the first detecting means 72, but a form in which this is shared with the second detecting means 82 is of course also possible. Can detect the state of intrusion into the first space monitoring area 46S (the pyroelectric sensor serves as first and second detection means). Further, it is possible to detect that a human body enters the image light passing space area 42S by using the pyroelectric sensor.
[0166]
In the above (I-2), for example, a plurality of pyroelectric sensors having relatively narrow directivity can be used. A plurality of circular frames shown in FIG. 18 represent detection areas by the respective pyroelectric sensors, and their directivity distributions are schematically shown below the figure. In this example, seven pyroelectric sensors are used and arranged near the light projection unit 30 so as to direct the lower part, the right part, and the left part of the second space monitoring area 90S, respectively. Since a person cannot approach the upper part of the second space monitoring area 90S, it is not necessary to provide a pyroelectric sensor pointing at the part.
[0167]
For the pyroelectric sensor in charge of the lower part of the second space monitoring area 90S, an example of the intensity distribution of directivity is shown by three waveforms in the figure, but not so strict conditions are required for directivity. It is only necessary that the point is directed to the outside of the first space monitoring area 46S or a range including the area 46S.
[0168]
Also in this case, in order to avoid frequent operation of the second alarm means 84 due to malfunction or noise, the second alarm means is used when each pyroelectric sensor continuously detects a human body for more than a predetermined time. 84 may be configured to operate.
[0169]
Further, when two pyroelectric sensors are used in combination, for example, two pyroelectric sensors are arranged side by side to calculate a difference between their detection signals, the movement of the human body is determined according to the sign (±) of the difference. The direction can be detected. By using such a pyroelectric sensor pair, the lower, right and left sides of the second space monitoring area 90S are oriented so as to be oriented and used as a differential pyroelectric sensor. Can detect a human body that invades the sea.
[0170]
Next, the mode (II) will be described. By using a heat sensor, the temperature (body temperature) of a human body can be detected, and display and control can be performed according to the temperature. For example, when the temperature detected by the heat sensor is within the human body temperature range (34 to 40 degrees), it is determined that the human body is in the second space monitoring area 90S, and the second alarm means 84 operates. I do. The detection area of the heat sensor can be defined in the same manner as the pyroelectric sensor. In addition, the heat detecting sensor 72 can be shared with the first detecting means 72. One heat sensing sensor is provided in the vicinity of the light projecting unit 30 to detect a human body in the first space monitoring area 46S as the first detecting means 72. Further, it can be used for detecting a human body in the image light passing space area 42S.
[0171]
In addition, by providing a plurality of heat sensing sensors near the light projection unit 30, the presence of a human body can be detected around the second space monitoring area 90S.
[0172]
Next, the following configuration of the first detecting means 72 will be described.
[0173]
(I) Form using ultrasonic sensor (see FIG. 19)
(Ii) Embodiment using an optical sensor (see FIG. 20).
[0174]
First, in the form (i), as shown by a circular frame in FIG. 19, the first monitoring region 46 and the first space monitoring region 46S are included as detection regions, and the second monitoring region 90 and the second space monitoring region 90S are included. A plurality (for example, about four) of ultrasonic sensors which are not included in the detection area are used (each ultrasonic sensor is provided near the light projection unit 30). The ultrasonic sensor includes a transmission / reception unit, generates an ultrasonic wave by applying a voltage to the piezoelectric element, and outputs an electric signal according to the amplitude of the received ultrasonic wave when the ultrasonic wave is received. In a state where there is no intrusion of a human body or the like, there is nothing that blocks the ultrasonic wave between the light projecting unit 30 and the screen 40. In this case, the ultrasonic wave is output from the ultrasonic sensor and the first monitoring area of the screen 40 is Proceeding toward the screen 40 including 46, the reflected wave reflected on the screen 40 is received by the ultrasonic sensor. When there is an object or a human body that blocks the ultrasonic wave between the ultrasonic sensor and the first monitoring area 46 or in the first space monitoring area 46S, the level of the reflected wave is reduced or the reflected wave is not detected. Is determined by
[0175]
In the above mode (ii), for example, as shown by a rectangular frame of a thick black line in FIG. 20, a plurality of optical sensors, linear sensors (one-dimensional CCD), and the like are arranged along the first monitoring area 46 of the screen 40. On the other hand, a light receiving element group is arranged. On the other hand, on the front surface of the projector device main body, light or infrared light having a level sufficiently lower than the irradiation light from the light source unit 12 toward the first monitoring area 46 from around the light projection unit 30. A light-emitting element group (eg, an LED) that outputs light or the like is provided. Thereby, an object or a human body that blocks an optical path formed between the light emitting element group and the light receiving element group can be detected. Alternatively, there is a configuration in which a group of infrared light emitting elements is arranged in the first monitoring area 46, and a light beam emitted from the group is detected by an optical sensor of the projector device main body.
[0176]
In addition to these modes, it is needless to say that various embodiments such as using a pyroelectric sensor or a heat sensing sensor, or sharing with the second detecting means 82 are possible.
[0177]
In the above description, an example in which the first monitoring area 46 is defined in the screen 40 on the outer periphery of the projection area 42 has been described, but if the first monitoring area 46 is located outside the projection area 42, the first monitoring area 46 may be located inside the screen 40. You don't have to. Although the example in which the second monitoring area 90 is located outside the screen 40 has been described above, the second monitoring area 90 may be located in the screen 40 together with the first monitoring area 46.
[0178]
With the above configuration, for example, the following advantages can be obtained.
[0179]
・ Because the laser light can be instantaneously cut off or dimmed before a human body or an obstacle enters the laser light projection area, the safety is high.
[0180]
A detection wave (infrared light or infrared light) used for detecting intrusion of a human body or an obstacle is not visually recognized by a viewer, and therefore, there is no inconvenience such as affecting a projected image on a screen and deteriorating image quality. . Further, there is no danger to the human body due to the influence of the detection wave itself.
[0181]
【The invention's effect】
As is apparent from the above description, according to the first and the fifteenth aspects of the present invention, it is possible to guarantee the safety of the human body and easily detect the intrusion into the monitoring space. is there.
[0182]
According to the invention according to claim 2, it is suitable for downsizing of the device.
[0183]
According to the invention according to claims 3 and 16, the detection accuracy is sufficiently ensured, and there is no influence on the projection image.
[0184]
According to the invention according to claims 4 and 17, image detection can be performed reliably, and the width of the monitoring area is set to the minimum necessary as compared with the method of monitoring the entire range of the screen periphery. And the detection process is simple and quick.
[0185]
According to the fifth aspect of the invention, it is possible to control the irradiation light to suppress the influence on the human body and to take a sufficient safety measure.
[0186]
According to the invention according to claim 6, when applied to an image projection apparatus provided with a light modulating means, it is effective to improve safety and reliability.
[0187]
According to the seventh and ninth aspects of the present invention, quick processing can be performed by blocking outgoing light and stopping modulation.
[0188]
According to the invention of claim 8, by controlling the power supplied to the light source, the light intensity can be reliably regulated.
[0189]
According to the tenth aspect, it is possible to control the light output level in detail according to the degree of the intrusion state, and it is effective for preventing erroneous detection.
[0190]
According to the eleventh aspect, the intrusion detection processing is easy and does not require complicated image processing or the like.
[0191]
According to the twelfth aspect, since the intensity of the irradiation light is suppressed until the safety is confirmed, high security can be guaranteed.
[0192]
According to the thirteenth, fourteenth, and eighteenth aspects of the present invention, a multiple monitoring system is effective in strengthening safety measures.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating a basic configuration example of an image projection apparatus according to the present invention.
FIG. 2 is an explanatory view exemplifying each projection area and monitoring area on a screen.
FIG. 3 is a diagram for describing an intensity distribution of a detection wave applied to the periphery of a screen.
FIG. 4 is a flowchart for explaining safety measures in the image projection apparatus.
FIG. 5 is a diagram for describing a configuration example of an image projection device, and is a diagram illustrating an example of arrangement of a projector device and a screen unit.
FIG. 6 is a front view of the projector device shown in FIG.
FIGS. 7A to 7D are diagrams illustrating an example of an infrared irradiation unit.
FIGS. 8A and 8B are diagrams showing an example of irradiation by infrared irradiation means.
FIG. 9 is a diagram illustrating a configuration example of a projection system.
FIG. 10 is a flowchart illustrating a processing example of an intrusion detection and danger prevention control unit.
FIG. 11 is a graph showing an example of a lapse of time with respect to a power level of a laser beam.
FIG. 12 is a graph illustrating the relationship between infrared intensity and distance.
FIG. 13 is a diagram for explaining a method of setting a projection range and a monitoring area of a detection wave according to (A) to (C).
FIG. 14 is a diagram showing another example of the configuration of the projection system.
15 is a diagram showing a positional relationship between the projector device shown in FIG. 14 and a screen.
FIG. 16 is a flowchart illustrating an alarm operation in the projector device of FIG. 14;
FIG. 17 is an explanatory diagram exemplifying a detection area of a second detection unit in detecting intrusion into a second monitoring space.
FIG. 18 is an explanatory view exemplifying another detection area in the second detection means.
FIG. 19 is an explanatory diagram exemplifying a detection area when an ultrasonic sensor is used as the first detection means for detecting intrusion into the first monitoring space.
FIG. 20 is an explanatory diagram showing another example of the first detection means.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image projection apparatus, 1a ... Light source, 1b ... Projection part, 1c ... Detection wave source, 1d ... Reflection wave detection means, 2 ... Screen, 3 ... Projection area, 6 ... Monitoring area, 40 ... Screen, 72 ... First detection Means 74 first alarm means 82 second detection means 84 second alarm means

Claims (18)

スクリーン上の投射領域への投射によって画像表示を行うための光源及び投射部と、該投射部から上記投射領域に向かう照射光の通過領域内への侵入に対する安全機構を備えた画像投射装置において、
装置本体部のうち上記スクリーンとの対向面又はスクリーンに設けられた検出波源と、
上記検出波源から上記投射領域の外側に離れて位置する監視領域に検出波が出射された後、該監視領域で反射された反射波を検出する反射波検出手段とを備え、
上記反射波検出手段による検出レベルを閾値又は基準範囲と比較した結果に基づき、上記検出波によって包囲される監視空間内への侵入について検知する
ことを特徴とする画像投射装置。
A light source and a projection unit for performing image display by projection to a projection area on a screen, and an image projection apparatus having a safety mechanism against intrusion of irradiation light from the projection unit toward the projection area into a passage area,
A detection wave source provided on the surface or screen facing the screen in the apparatus main body,
After a detection wave is emitted from the detection wave source to a monitoring region located outside the projection region, the detection wave includes reflected wave detection means for detecting a reflected wave reflected by the monitoring region,
An image projection apparatus for detecting intrusion into a monitoring space surrounded by the detection wave based on a result of comparing a detection level of the reflected wave detection means with a threshold or a reference range.
請求項1に記載の画像投射装置において、
上記検出波源又は上記反射波検出手段が、上記スクリーンとの対向面に設けられた上記投射部の周囲に配置されている
ことを特徴とする画像投射装置。
The image projection device according to claim 1,
An image projection apparatus, wherein the detection wave source or the reflected wave detection means is disposed around the projection unit provided on a surface facing the screen.
請求項1に記載の画像投射装置において、
上記検出波が赤外光又は赤外線である
ことを特徴とする画像投射装置。
The image projection device according to claim 1,
An image projection apparatus, wherein the detection wave is infrared light or infrared light.
請求項3に記載の画像投射装置において、
上記反射波検出手段が撮像素子を用いて構成され、該撮像素子による検出画像データをもとに上記監視領域が監視されるとともに、該監視領域の幅が、上記検出波源によってスクリーン上に投射される領域よりも狭くされている
ことを特徴とする画像投射装置。
The image projection device according to claim 3,
The reflected wave detection means is configured using an image sensor, and the monitoring area is monitored based on image data detected by the image sensor, and the width of the monitoring area is projected on a screen by the detection wave source. An image projecting device characterized in that the image projecting device is narrower than a region to be projected.
請求項1に記載の画像投射装置において、
上記監視空間内への侵入が検知された場合に、上記光源から上記投射領域への照射光が遮断され又は該照射光の強度が低減される
ことを特徴とする画像投射装置。
The image projection device according to claim 1,
An image projection apparatus, wherein when an intrusion into the monitoring space is detected, irradiation light from the light source to the projection area is blocked or the intensity of the irradiation light is reduced.
請求項1に記載の画像投射装置において、
上記光源の出射光を映像信号に応じて変調する光変調手段と、
上記光変調手段で変調された光を上記スクリーン上の投射領域に投射する光投射手段と、
上記監視空間への侵入について検出する侵入検出手段とを備え、
上記侵入検出手段によって上記監視空間への侵入が検出された場合に、侵入の状態に応じて、上記光源から上記投射領域への照射光が遮断され又は該照射光の強度が低減される
ことを特徴とする画像投射装置。
The image projection device according to claim 1,
Light modulation means for modulating the light emitted from the light source according to a video signal,
Light projection means for projecting the light modulated by the light modulation means to a projection area on the screen,
Intrusion detection means for detecting intrusion into the monitoring space,
When the intrusion into the monitoring space is detected by the intrusion detection means, the irradiation light from the light source to the projection area is blocked or the intensity of the irradiation light is reduced depending on the state of the intrusion. Characteristic image projection device.
請求項6に記載の画像投射装置において、
上記侵入検出手段によって上記監視空間への侵入が検出された場合に、上記光源の出射する光が遮光される
ことを特徴とする画像投射装置。
The image projection device according to claim 6,
When the intrusion detecting means detects intrusion into the monitoring space, the light emitted from the light source is blocked.
請求項6に記載の画像投射装置において、
上記侵入検出手段によって上記監視空間への侵入が検出された場合に、上記光源に供給される電力が低減されるか又ゼロに規定される
ことを特徴とする画像投射装置。
The image projection device according to claim 6,
An image projection apparatus, wherein when the intrusion into the monitoring space is detected by the intrusion detection means, the power supplied to the light source is reduced or set to zero.
請求項6に記載の画像投射装置において、
上記侵入検出手段によって上記監視空間への侵入が検出された場合に、上記光変調手段の駆動が停止される
ことを特徴とする画像投射装置。
The image projection device according to claim 6,
An image projection apparatus, wherein when the intrusion into the monitoring space is detected by the intrusion detection means, the driving of the light modulation means is stopped.
請求項8に記載した画像投射装置において、
上記監視空間への侵入の継続時間又は侵入部分の面積に応じて、上記光源に供給される電力が制御される
ことを特徴とする画像投射装置。
The image projection device according to claim 8,
An image projection device, wherein the power supplied to the light source is controlled in accordance with the duration of intrusion into the monitoring space or the area of the intruding portion.
請求項1に記載した画像投射装置において、
上記反射波検出手段が、上記スクリーンからの反射波強度を上記監視領域に係る各画素データによって測定し、上記監視空間への侵入の際に反射された検出波強度と、該侵入のない場合における上記監視領域からの反射強度とを比較し、両者が異なることにより侵入を検知する
ことを特徴とする画像投射装置。
The image projection device according to claim 1,
The reflected wave detection means measures the intensity of the reflected wave from the screen by each pixel data related to the monitoring area, and the intensity of the detected wave reflected when entering the monitoring space, and the case where there is no intrusion. An image projection apparatus, comprising: comparing an intensity of reflection from the monitoring area; and detecting an intrusion when the two are different from each other.
請求項1に記載した画像投射装置において、
上記監視空間への侵入が検出されないことが確認されるまでの間、上記照射光の強度が人体に安全なレベルまで低下されて画像の投射が行われ、該確認の後に照射光の強度が規定レベルまで上昇する
ことを特徴とする画像投射装置。
The image projection device according to claim 1,
Until it is confirmed that intrusion into the surveillance space is not detected, the intensity of the irradiation light is reduced to a level that is safe for the human body and an image is projected, and after the confirmation, the intensity of the irradiation light is regulated. An image projection device characterized by rising to a level.
請求項1に記載した画像投射装置において、
上記反射波検出手段として、上記監視空間の侵入について検出する第1検出手段と、
上記監視空間の外側領域を含む監視空間への侵入について検出する第2検出手段と、
上記第1検出手段により侵入が検出された場合に警報処理を行う第1警報手段と、
上記第2検出手段により侵入が検出された場合に警報処理を行う第2警報手段とを備えている
ことを特徴とする画像投射装置。
The image projection device according to claim 1,
First detection means for detecting intrusion of the monitoring space as the reflected wave detection means;
Second detection means for detecting intrusion into the surveillance space including the outside area of the surveillance space;
First alarm means for performing an alarm process when an intrusion is detected by the first detection means;
An image projection apparatus comprising: a second alarm unit that performs an alarm process when an intrusion is detected by the second detection unit.
請求項13に記載した画像投射装置において、
上記第1検出手段により侵入が検出された場合に、上記光源から上記投射領域への照射光が遮断されるか又は該照射光の強度が人体に危険のないレベルまで低減される
ことを特徴とする画像投射装置。
The image projection device according to claim 13,
When the intrusion is detected by the first detection means, the irradiation light from the light source to the projection area is blocked or the intensity of the irradiation light is reduced to a level that is not dangerous to a human body. Image projection device.
画像投射装置から距離をおいて位置するスクリーン上の投射領域に対して、その外側に離れて位置する監視領域を規定するとともに、該監視領域に対して画像投射装置の前面に設けられた検出波源から検出波を出射して、該監視領域からの反射波を検出することによって該検出波によって包囲された監視空間への侵入について検出し、
上記投射領域に向けて照射される光を、侵入の状態に応じて遮断し又は該光の強度を低下させる
ことを特徴とする画像投射方法。
For a projection area on a screen located at a distance from the image projection apparatus, a monitoring area located outside the projection area is defined, and a detection wave source provided on the front of the image projection apparatus with respect to the monitoring area Detecting intrusion into the surveillance space surrounded by the detection wave by emitting a detection wave from, and detecting a reflected wave from the monitoring area,
An image projection method, wherein the light emitted toward the projection area is blocked or the intensity of the light is reduced according to the state of intrusion.
請求項15に記載した画像投射方法において
上記検出波として赤外光又は赤外線を用いる
ことを特徴とする画像投射方法。
The image projection method according to claim 15, wherein infrared light or infrared light is used as the detection wave.
請求項16に記載した画像投射方法において
撮像素子により検出される画像データをもとに、上記検出波源によってスクリーン上に投射される領域よりも狭い幅の上記監視領域を監視する
ことを特徴とする画像投射方法。
17. The image projection method according to claim 16, wherein the monitoring area having a width smaller than an area projected on a screen by the detection wave source is monitored based on image data detected by an image sensor. Image projection method.
請求項15に記載した画像投射方法において
上記監視領域及び画像投射装置の前面から該監視領域への検出波の通過領域を含む第1監視空間及び該監視領域のさらに外側に設けられる第2監視空間を規定し、
各監視空間への侵入についてそれぞれ検出して、侵入の状態に応じて警報処理を行う
ことを特徴とする画像投射方法。
16. The image projection method according to claim 15, wherein the first monitoring space includes a region where a detection wave passes from the front surface of the monitoring region and the image projection device to the monitoring region, and a second monitoring space further provided outside the monitoring region. Stipulates,
An image projection method comprising: detecting intrusion into each monitoring space; and performing an alarm process according to a state of the intrusion.
JP2003164117A 2002-06-10 2003-06-09 Image projection apparatus and image projection method Expired - Fee Related JP4366631B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003164117A JP4366631B2 (en) 2002-06-10 2003-06-09 Image projection apparatus and image projection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002169238 2002-06-10
JP2003164117A JP4366631B2 (en) 2002-06-10 2003-06-09 Image projection apparatus and image projection method

Publications (2)

Publication Number Publication Date
JP2004070298A true JP2004070298A (en) 2004-03-04
JP4366631B2 JP4366631B2 (en) 2009-11-18

Family

ID=32032191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003164117A Expired - Fee Related JP4366631B2 (en) 2002-06-10 2003-06-09 Image projection apparatus and image projection method

Country Status (1)

Country Link
JP (1) JP4366631B2 (en)

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005067309A1 (en) * 2003-12-31 2005-07-21 Symbol Technologies, Inc. Method and apparatus for controllably reducing power delivered by a laser projection display
JP2006047910A (en) * 2004-08-09 2006-02-16 Sanyo Electric Co Ltd Projection type video display device
JP2006078761A (en) * 2004-09-09 2006-03-23 Casio Comput Co Ltd Projection apparatus, projection control method and program
JP2006098789A (en) * 2004-09-29 2006-04-13 Casio Comput Co Ltd Projecting apparatus, projecting method and program
JP2006178342A (en) * 2004-12-24 2006-07-06 Fuji Photo Film Co Ltd Projection-type image display
JP2006189467A (en) * 2004-12-28 2006-07-20 Nisca Corp Light quantity control device and projector apparatus using the same
JP2006276647A (en) * 2005-03-30 2006-10-12 Sanyo Electric Co Ltd Portable terminal
JP2006330447A (en) * 2005-05-27 2006-12-07 Mitsubishi Electric Corp Front projector
JP2007206488A (en) * 2006-02-03 2007-08-16 Seiko Npc Corp Projection type display device
JP2007233076A (en) * 2006-03-01 2007-09-13 Seiko Epson Corp Projection device and program
JP2007240864A (en) * 2006-03-08 2007-09-20 Sony Corp Display device
JP2007531017A (en) * 2004-03-26 2007-11-01 エヴァンス・アンド・サザーランド・コンピューター・コーポレーション Shuttering system for scanning projector
JP2007333595A (en) * 2006-06-15 2007-12-27 Yanmar Co Ltd Residual agricultural chemical detecting device
JP2009003281A (en) * 2007-06-22 2009-01-08 Ricoh Co Ltd Portable electronic equipment
JP2009003422A (en) * 2007-05-21 2009-01-08 Seiko Epson Corp Projector and control method of projector
JP2009122365A (en) * 2007-11-14 2009-06-04 Funai Electric Co Ltd Image display apparatus
JP2009122482A (en) * 2007-11-16 2009-06-04 Seiko Epson Corp Projector
JP2009244633A (en) * 2008-03-31 2009-10-22 Toshiba Corp Projection display apparatus and control method thereof
JP2010503886A (en) * 2006-09-14 2010-02-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Laser projector with warning light
JP2010161518A (en) * 2009-01-07 2010-07-22 Nikon Corp Camera
WO2010098376A1 (en) * 2009-02-25 2010-09-02 京セラ株式会社 Portable electronic device
WO2010098374A1 (en) * 2009-02-25 2010-09-02 京セラ株式会社 Portable electronic device
JP2010217756A (en) * 2009-03-18 2010-09-30 Nikon Corp Projector
JP2011043834A (en) * 2010-09-21 2011-03-03 Sanyo Electric Co Ltd Projection-type video display device
JP2011170097A (en) * 2010-02-18 2011-09-01 Mitsubishi Electric Corp Image projection device and image display apparatus
JP2011257644A (en) * 2010-06-10 2011-12-22 Casio Comput Co Ltd Projector
US8246172B2 (en) 2006-02-28 2012-08-21 Brother Kogyo Kabushiki Kaisha Image display device
JP2013105171A (en) * 2011-11-17 2013-05-30 Seiko Epson Corp Projector and control method of the same
JP2013109210A (en) * 2011-11-22 2013-06-06 Ricoh Co Ltd Projector device
WO2014092272A1 (en) * 2012-12-10 2014-06-19 주식회사 케이티 Robot having projection function and method for controlling projector of robot
JP2014174195A (en) * 2013-03-06 2014-09-22 Funai Electric Co Ltd Projector safety device, projector including the same, and projector safety control method
JP2014174194A (en) * 2013-03-06 2014-09-22 Funai Electric Co Ltd Projector safety device, projector including the same, and projector safety control method
JP2015158653A (en) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 Reflector, adjustment method, and position detector
JP2015159529A (en) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 Position detector and position detection method
WO2016018372A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. White flash generation from a light emitting diode (led) projector
JP2016024755A (en) * 2014-07-24 2016-02-08 三菱重工業株式会社 Safety confirmation device, light irradiation system, safety confirmation method, and safety confirmation program
JP2016106265A (en) * 2016-02-17 2016-06-16 セイコーエプソン株式会社 projector
JP2016106260A (en) * 2016-01-27 2016-06-16 セイコーエプソン株式会社 Projector and control method thereof
JP2016218315A (en) * 2015-05-22 2016-12-22 株式会社 オルタステクノロジー Projection device
JPWO2016002119A1 (en) * 2014-07-02 2017-04-27 ソニー株式会社 Image display device
WO2022022481A1 (en) * 2020-07-28 2022-02-03 青岛海信激光显示股份有限公司 Laser projection device and human eye protection method
CN114640831A (en) * 2020-12-15 2022-06-17 青岛海信激光显示股份有限公司 Laser projection equipment and prompting method thereof
CN117119160A (en) * 2023-10-24 2023-11-24 合肥联宝信息技术有限公司 Projection control method and device, electronic equipment and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013033206A (en) 2011-07-06 2013-02-14 Ricoh Co Ltd Projection display device, information processing device, projection display system, and program

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04111585A (en) * 1990-08-30 1992-04-13 Sony Corp Projection television receiver
JPH058556U (en) * 1991-07-18 1993-02-05 旭光学工業株式会社 Projector
JPH06347748A (en) * 1993-06-03 1994-12-22 Canon Inc Projector
JPH11501419A (en) * 1996-09-30 1999-02-02 エルディティ ゲーエムベーハー ウント シーオー.レーザー―ディスプレー―テクノロギー カーゲー Image display device
JP2000019636A (en) * 1998-07-03 2000-01-21 Seiko Epson Corp Projection type display device and method for controlling projection type display device
JP2000019637A (en) * 1998-07-03 2000-01-21 Seiko Epson Corp Projection type display device
JP2001075170A (en) * 1999-09-03 2001-03-23 Sony Corp Projection device and its safety device
JP2001249399A (en) * 1999-12-28 2001-09-14 Sony Corp Image-projecting method and apparatus
JP2002006397A (en) * 2000-06-22 2002-01-09 Sony Corp Image display device
JP2002196416A (en) * 2000-12-25 2002-07-12 Toshiba Corp Projection type image display system and projection type image display
JP2002196301A (en) * 2000-12-25 2002-07-12 Toshiba Corp Projection type picture display device and projection type picture display element
JP2002196415A (en) * 2000-12-25 2002-07-12 Toshiba Corp Projection type image display system and projection type image display

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04111585A (en) * 1990-08-30 1992-04-13 Sony Corp Projection television receiver
JPH058556U (en) * 1991-07-18 1993-02-05 旭光学工業株式会社 Projector
JPH06347748A (en) * 1993-06-03 1994-12-22 Canon Inc Projector
JPH11501419A (en) * 1996-09-30 1999-02-02 エルディティ ゲーエムベーハー ウント シーオー.レーザー―ディスプレー―テクノロギー カーゲー Image display device
JP2000019636A (en) * 1998-07-03 2000-01-21 Seiko Epson Corp Projection type display device and method for controlling projection type display device
JP2000019637A (en) * 1998-07-03 2000-01-21 Seiko Epson Corp Projection type display device
JP2001075170A (en) * 1999-09-03 2001-03-23 Sony Corp Projection device and its safety device
JP2001249399A (en) * 1999-12-28 2001-09-14 Sony Corp Image-projecting method and apparatus
JP2002006397A (en) * 2000-06-22 2002-01-09 Sony Corp Image display device
JP2002196416A (en) * 2000-12-25 2002-07-12 Toshiba Corp Projection type image display system and projection type image display
JP2002196301A (en) * 2000-12-25 2002-07-12 Toshiba Corp Projection type picture display device and projection type picture display element
JP2002196415A (en) * 2000-12-25 2002-07-12 Toshiba Corp Projection type image display system and projection type image display

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005067309A1 (en) * 2003-12-31 2005-07-21 Symbol Technologies, Inc. Method and apparatus for controllably reducing power delivered by a laser projection display
US7030353B2 (en) 2003-12-31 2006-04-18 Symbol Technologies,Inc. Method and apparatus for controllably reducing power delivered by a laser projection display
JP2007531017A (en) * 2004-03-26 2007-11-01 エヴァンス・アンド・サザーランド・コンピューター・コーポレーション Shuttering system for scanning projector
JP2006047910A (en) * 2004-08-09 2006-02-16 Sanyo Electric Co Ltd Projection type video display device
JP2006078761A (en) * 2004-09-09 2006-03-23 Casio Comput Co Ltd Projection apparatus, projection control method and program
JP2006098789A (en) * 2004-09-29 2006-04-13 Casio Comput Co Ltd Projecting apparatus, projecting method and program
JP2006178342A (en) * 2004-12-24 2006-07-06 Fuji Photo Film Co Ltd Projection-type image display
JP4504802B2 (en) * 2004-12-24 2010-07-14 富士フイルム株式会社 Projection type image display device
JP2006189467A (en) * 2004-12-28 2006-07-20 Nisca Corp Light quantity control device and projector apparatus using the same
JP2006276647A (en) * 2005-03-30 2006-10-12 Sanyo Electric Co Ltd Portable terminal
JP2006330447A (en) * 2005-05-27 2006-12-07 Mitsubishi Electric Corp Front projector
JP2007206488A (en) * 2006-02-03 2007-08-16 Seiko Npc Corp Projection type display device
US8246172B2 (en) 2006-02-28 2012-08-21 Brother Kogyo Kabushiki Kaisha Image display device
JP2007233076A (en) * 2006-03-01 2007-09-13 Seiko Epson Corp Projection device and program
JP2007240864A (en) * 2006-03-08 2007-09-20 Sony Corp Display device
JP2007333595A (en) * 2006-06-15 2007-12-27 Yanmar Co Ltd Residual agricultural chemical detecting device
JP2010503886A (en) * 2006-09-14 2010-02-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Laser projector with warning light
JP2009003422A (en) * 2007-05-21 2009-01-08 Seiko Epson Corp Projector and control method of projector
JP2009003281A (en) * 2007-06-22 2009-01-08 Ricoh Co Ltd Portable electronic equipment
JP2009122365A (en) * 2007-11-14 2009-06-04 Funai Electric Co Ltd Image display apparatus
JP2009122482A (en) * 2007-11-16 2009-06-04 Seiko Epson Corp Projector
JP2009244633A (en) * 2008-03-31 2009-10-22 Toshiba Corp Projection display apparatus and control method thereof
JP2010161518A (en) * 2009-01-07 2010-07-22 Nikon Corp Camera
JP2010226699A (en) * 2009-02-25 2010-10-07 Kyocera Corp Portable electronic equipment
US8833948B2 (en) 2009-02-25 2014-09-16 Kyocera Corporation Mobile electronic device
JP2010226683A (en) * 2009-02-25 2010-10-07 Kyocera Corp Portable electronic device
WO2010098374A1 (en) * 2009-02-25 2010-09-02 京セラ株式会社 Portable electronic device
WO2010098376A1 (en) * 2009-02-25 2010-09-02 京セラ株式会社 Portable electronic device
US8696142B2 (en) 2009-02-25 2014-04-15 Kyocera Corporation Mobile electronic device which includes a projector that projects an image on a projection area
JP2010217756A (en) * 2009-03-18 2010-09-30 Nikon Corp Projector
JP2011170097A (en) * 2010-02-18 2011-09-01 Mitsubishi Electric Corp Image projection device and image display apparatus
JP2011257644A (en) * 2010-06-10 2011-12-22 Casio Comput Co Ltd Projector
JP2011043834A (en) * 2010-09-21 2011-03-03 Sanyo Electric Co Ltd Projection-type video display device
JP2013105171A (en) * 2011-11-17 2013-05-30 Seiko Epson Corp Projector and control method of the same
JP2013109210A (en) * 2011-11-22 2013-06-06 Ricoh Co Ltd Projector device
KR101515179B1 (en) * 2012-12-10 2015-04-24 주식회사 케이티 Robot having projection function and method for controlling projector in robot
WO2014092272A1 (en) * 2012-12-10 2014-06-19 주식회사 케이티 Robot having projection function and method for controlling projector of robot
JP2014174194A (en) * 2013-03-06 2014-09-22 Funai Electric Co Ltd Projector safety device, projector including the same, and projector safety control method
JP2014174195A (en) * 2013-03-06 2014-09-22 Funai Electric Co Ltd Projector safety device, projector including the same, and projector safety control method
JP2015158653A (en) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 Reflector, adjustment method, and position detector
JP2015159529A (en) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 Position detector and position detection method
JPWO2016002119A1 (en) * 2014-07-02 2017-04-27 ソニー株式会社 Image display device
JP2016024755A (en) * 2014-07-24 2016-02-08 三菱重工業株式会社 Safety confirmation device, light irradiation system, safety confirmation method, and safety confirmation program
WO2016018372A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. White flash generation from a light emitting diode (led) projector
JP2016218315A (en) * 2015-05-22 2016-12-22 株式会社 オルタステクノロジー Projection device
JP2016106260A (en) * 2016-01-27 2016-06-16 セイコーエプソン株式会社 Projector and control method thereof
JP2016106265A (en) * 2016-02-17 2016-06-16 セイコーエプソン株式会社 projector
WO2022022481A1 (en) * 2020-07-28 2022-02-03 青岛海信激光显示股份有限公司 Laser projection device and human eye protection method
CN114640831A (en) * 2020-12-15 2022-06-17 青岛海信激光显示股份有限公司 Laser projection equipment and prompting method thereof
CN114640831B (en) * 2020-12-15 2024-03-26 青岛海信激光显示股份有限公司 Laser projection device and prompting method thereof
CN117119160A (en) * 2023-10-24 2023-11-24 合肥联宝信息技术有限公司 Projection control method and device, electronic equipment and storage medium
CN117119160B (en) * 2023-10-24 2024-02-06 合肥联宝信息技术有限公司 Projection control method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP4366631B2 (en) 2009-11-18

Similar Documents

Publication Publication Date Title
JP4366631B2 (en) Image projection apparatus and image projection method
KR100947147B1 (en) Image projector and image projecting method
JP4517601B2 (en) Projection type image display device
US6575581B2 (en) Image projection method and image projector
US7679579B2 (en) Projection type image display apparatus
US7201484B2 (en) Projector with foreign matter detecting means
US7980707B2 (en) Audience scanning laser display projector and associated methods
WO2007034875A1 (en) Image projection device
WO2009031094A1 (en) Laser scanning projection device with eye detection unit
JP2005352172A (en) Image projection device and its control method
JP2010243940A (en) Image display device
JP2005043868A (en) Image projection device and image projection method
JP2006330447A (en) Front projector
US20140034806A1 (en) Windshield display with obstruction detection
JP7440429B2 (en) Projector controller and related methods
JP2007086266A (en) Optical unit and image display
JP2009145846A (en) Projection type image display apparatus
JP4505718B2 (en) Image display device
JP2005309162A (en) Image projection device
JP4433762B2 (en) Projection apparatus and video projection method
JP7035989B2 (en) Display device, discrimination method and irradiation method
JP2005031267A (en) Picture projection device and picture projection method
JP2008249783A (en) Image display device and method, and screen
JP4513279B2 (en) Image display device
JP7010200B2 (en) Display device, discrimination method and irradiation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090416

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090730

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090812

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120904

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees