JP5214223B2 - プロジェクタ - Google Patents

プロジェクタ Download PDF

Info

Publication number
JP5214223B2
JP5214223B2 JP2007297021A JP2007297021A JP5214223B2 JP 5214223 B2 JP5214223 B2 JP 5214223B2 JP 2007297021 A JP2007297021 A JP 2007297021A JP 2007297021 A JP2007297021 A JP 2007297021A JP 5214223 B2 JP5214223 B2 JP 5214223B2
Authority
JP
Japan
Prior art keywords
light
image
projector
laser
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007297021A
Other languages
English (en)
Other versions
JP2009123006A (ja
Inventor
賢治 長島
篤彦 近岡
誠二 竹本
宏樹 松原
敦也 平野
宏 西垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2007297021A priority Critical patent/JP5214223B2/ja
Priority to US12/263,959 priority patent/US8123361B2/en
Priority to EP08019370.9A priority patent/EP2063347B1/en
Priority to CN2008101782674A priority patent/CN101435981B/zh
Publication of JP2009123006A publication Critical patent/JP2009123006A/ja
Application granted granted Critical
Publication of JP5214223B2 publication Critical patent/JP5214223B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen

Description

本発明はプロジェクタに関し、特に、レーザ光によって画像を投影するレーザプロジェクタに関する。
レーザ光によって画像を投影するプロジェクタとして、レーザプロジェクタが知られている。レーザプロジェクタなどのような、プロジェクタから離れた位置において画像を投影するプロジェクタを使用する場合には、使用者の位置から画像を投影するスクリーンまで到達する指し棒や、当該スクリーンまでレーザ照射を行うレーザポインタなどを用いることによって、使用者が所望するポイントを指し示していた。また、他の情報機器などから、当該プロジェクタに画像データを入力する場合には、他の情報機器が有するタッチパネルやマウスなどの入力装置を介して、使用者が所望するポイントを指し示していた。この他にも、使用者が所望するポイントに関する情報をプロジェクタに入力するための方法や構成が知られている。
たとえば、特開2000−305706号公報(特許文献1)には、デバイスの本体の外側にある入力エリアに一時的に出現する障害物を検出し、データ入力を決定する手段を有するデータ入力装置が開示されている。データ入力装置は、表面の入力エリアに映像を投影する手段を有する。バーチャル・キーボードは、当該装置の正面にまたは当該装置の折り畳み部分に在る表面上に投影される。レーザダイオードと回析オプティックスとを使用して表面上にバーチャル・キーボードの画像が生成され、赤外線送信装置と受信装置を用いて、バーチャル・キーボードの正確なエリア上にあるポインタまたは指の検出が行われる。
また、特開2000−66818号公報(特許文献2)には、情報処理装置にキー入力を行うためのキーボードターミナルが開示されている。キーボードターミナルは、複数のキーが仮想的に配列された仮想キーボードの各キーに向けてそれぞれ光を出射する第1及び第2の発光部と、第1及び第2の各発光部からの仮想キーの各キーに対応する位置に位置された物体での反射光を受光する受光部と、前記受光部で受光した信号に基づいて指Fが前記仮想キーポードのいずれのキーに対応する位置に位置しているかを検出し、かつ検出したキーに対応するキー入力を行うキー検出手段とを備える。仮想キーボードの各キーを押すべく指を移動位置したときに、当該指で反射された第1及び第2の発光部からの光を検出し、その検出した光が前記仮想キーボードのいずれのキーに相当するかを検出することで、仮想キーボードを用いてのキー入力を実現する。
また、特開2007−108507号公報(特許文献3)には、プロジェクタ装置から投射される光をハーフミラー等により分光し、この分光された光を使用者がプロジェクタ装置近傍に保持する子スクリーンに投影する手段と、前記子スクリーンに使用者操作を受け付けて使用者の操作入力をプロジェクタ装置を介してPC等に送信する手段とを備えるプロジェクタ装置が開示されている。
また、特開2006−295779号公報(特許文献4)には、投射型入力表示デバイス、投射型ディスプレイ表示デバイスと投射型入力表示デバイスで投射され第1の情報が表示される入力表示エリアに出現する障害物を検出する入力決定デバイスを有する第1の筐体と、第1の筐体と開閉可能に接続される第2の筐体とを備える携帯情報機器が開示されている。携帯情報機器は、投射型入力表示デバイスにより投射される第1の情報を表示する入力表示エリアと投射型ディスプレイ表示デバイスで投射された第2の情報を表示するディスプレイ表示エリアを、第1の筐体と第2の筐体との開閉角度により任意の位置に設定できる構成を有するものである。
また、特開2005−38422号公報(特許文献5)には、プロジェクタからある表面上に、使用者入力表示を投影するコンピュータ・デバイスが開示されている。また、コンピュータ・デバイスのプロジェクタからある表面上に、使用者出力表示が投影される。この使用者入力表示と使用者出力表示は、同一プロジェクタから投影できる。使用者入力表示と使用者出力表示は、別々の面に投影されてもよい。また、ミラー・システムを用いて、単一の投影画像が分割され方向付けが施される。
また、特開平8−76923号公報(特許文献6)には、表示面の表示領域に画像を表示し光源からの光がその表示面を透過するように配される透過型プロジェクタに表示一体型タブレットを用い、これに付属した入力ペン先端の座標位置を検出し、表示領域内に処理領域を設定しこの処理領域内を入力ペンでポインティングできるようにし、また光源からの光の一部を散乱させる散乱シートを前記処理領域の直下に配置し、この散乱シートによって光源からの光が処理領域で散乱されて操作者側位置からは処理領域が目視できるがスクリーン上にはその処理領域が表示されなくする投射表示装置が開示されている。
また、特開平8−328695号公報(特許文献7)には、表示切り替えキーによりディスプレイ画面表示と、投影表示の切り替えや同時表示を可能とした投影表示機能付き電子機器が開示されている。表示部を取外すことにより、表示部が邪魔とならず投影表示を表示することができる。
特開2000−305706号公報 特開2000−66818号公報 特開2007−108507号公報 特開2006−295779号公報 特開2005−38422号公報 特開平8−76923号公報 特開平8−328695号公報
しかしながら、上記の従来技術においては、使用者が所望するポイントを指し示すために、プロジェクタに複雑で高価なバーチャルタッチセンサを設けるか、プロジェクタとは別に他の装置すなわちレーザポインタや他の情報機器を準備する必要があった。
本発明は前記問題点を解決するためになされたものであって、本発明の主たる目的は、簡易なバーチャルタッチセンサを備えるプロジェクタを提供することである。
上記の課題を解決するために、この発明のある局面に従うプロジェクタは、入力される画像信号に応じてレーザ光を供給するレーザ光源と、レーザ光を走査する走査部と、走査されたレーザ光を第1の方向と第2の方向とに分割して出力するビームスプリッタと、外部障害物にて反射された第1の方向に投影された第1のレーザ光の反射光を受光する受光センサと、受光した反射光に基づいて、外部障害物の位置情報を算出する算出手段と、算出された位置情報に基づき、レーザ光源と走査部とを介して、第2の方向に投影された第2のレーザ光にて表わされる第2の画像中の外部障害物の位置に対応する位置にポインタを表示させる表示制御手段とを備える。
この発明の別の局面に従うプロジェクタは、入力される画像信号に応じてレーザ光を供給するレーザ光源と、レーザ光を走査する走査部と、走査されたレーザ光を第1の方向と第2の方向とに分割して出力するビームスプリッタと、外部障害物にて反射された第1の方向に投影された第1のレーザ光の反射光を受光する受光センサと、受光した反射光に基づいて、外部障害物の位置情報と、当該位置の経時変化情報とを算出する算出手段と、算出された位置情報と、経時変化情報とに基づいて、プロジェクタへの入力命令を生成する生成手段とを備える。
好ましくは、画像信号は、第1の画像信号と、第2の画像信号とを含み、ビームスプリッタは、走査されたレーザ光の光路の一部に配置されて、第1の画像信号に対応するレーザ光のみを第1の方向と第2の方向とに分割して出力する。
好ましくは、画像信号は、垂直同期信号を含み、受光センサは、受光される反射光の水平方向および垂直方向における受光位置を取得し、算出手段は、反射光の水平方向および垂直方向における受光位置と、反射光に対応する第1のレーザ光の垂直同期信号とに基づいて、位置情報を算出する。
好ましくは、画像信号は、垂直同期信号と水平同期信号を含み、受光センサは、受光される反射光の垂直方向における受光高さを取得し、算出手段は、反射光の垂直方向における受光高さと、反射光に対応する第1のレーザ光の垂直同期信号と水平同期信号とに基づいて、位置情報を算出する。
以上のように、この発明によれば、簡易なバーチャルタッチセンサを備えるプロジェクタが実現できる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[使用態様]
図1を参照して、本発明に係るプロジェクタの使用態様について説明する。図1は、プロジェクタの一態様であるレーザプロジェクタ100の設置された状態を表わす図である。プロジェクタ100は、たとえば携帯可能な大きさのモバイル型のプロジェクタであってもよいし、据付型のプロジェクタであってもよい。
プロジェクタ100は、たとえばテーブル120上に配置されて使用される。プロジェクタ100は、スクリーン130(たとえば垂直な壁など)に向けてプレゼンテーション用(表示用)の画像132Aを投影している。また、プロジェクタ100は、テーブル120の上面に対して、プロジェクタ100の使用者が参照できるように、プレゼンテーション用の画像132Aと同様の使用者が参照するための(入力用の)画像122Aを投影している。画像122Aの大きさは、通常は、画像132Aの大きさよりも小さい。
そして、本実施の形態に係るプロジェクタ100は、CCD(Charge Coupled Device)センサ110、あるいは集光レンズ(自由曲面レンズ111)および1次元CMOS(Complementary Metal Oxide Semiconductor)アレイセンサ112を備える。より詳細には、本実施の形態に係るプロジェクタは、使用者が参照するための(入力用の)画像122Aには、使用者が画像などの編集を行うための画像122Fも含まれている。
[ハードウェア構成]
次に、図2を参照して、プロジェクタ200の一例であるプロジェクタ100の具体的な構成について説明する。図2は、レーザプロジェクタ100のハードウェア構成を表わすブロック図である。
プロジェクタ100は、フロントエンド用FPGA(Field Programmable Gate Array)310と、デジタル信号プロセッサ320と、操作パネル330と、バックエンドブロック340と、SDRAM(Synchronous Dynamic Random Access Memory)344と、ビデオRAM345と、3波長レーザ光源350と、を含む。
フロントエンド用FPGA310は、データ/階調変換器314と、タイミングコントローラ311と、データコントローラ312と、ビットデータ変換器313とを含む。デジタル信号プロセッサ320は、ミラーサーボブロック321と、変換器322とを含む。
3波長レーザ光源350は、レーザ制御回路351,352,353と、緑色のLD(Laser Diode)361と、赤青LD362と、偏光ビームスプリッタ363と、検出器370と、ガルバノミラー372と、アクチュエータ373とを含む光学系である。本実施の形態に係る赤青LD362は、赤色のLDと青色のLDとが一体として構成されているが、別個に構成されているものでもよい。
操作パネル330は、プロジェクタ100の筐体の表面あるいは側面に設けられる。操作パネル330は、たとえば、操作内容を表示するディスプレイ装置(図示しない)と、プロジェクタ100に対する操作入力を受け付けるスイッチ(たとえばプラス・マイナスボタン)とを含む。操作パネル330は、操作を受け付けると、当該操作に応じた信号をバックエンドブロック340のCPU341に送出する。
プロジェクタ100の外部から与えられた画像信号は、ビデオインターフェイス342に入力される。また、ある局面において、プロジェクタ100は、外部インターフェイス343を備える。外部インターフェイス343は、たとえばSDカード380の装着を受け付ける。外部インターフェイス343は、SDカード380からデータを読み出し、そのデータは、SDRAM344あるいはビデオRAM345に格納される。
CPU341は、操作パネル330に対して与えられた操作入力に基づいて、ビデオインターフェイス342、外部インターフェイス343を介してプロジェクタ100に入力された信号に基づく映像の投影を制御する。より詳しくは、CPU341は、フロントエンド用FPGA310のタイミングコントローラ311と相互に通信することにより、ビデオRAM345に一時的に保持されている画像データに基づく映像の表示を制御する。
フロントエンド用FPGA310において、タイミングコントローラ311は、CPU341から送られる指令に基づいてデータコントローラ312を介してビデオRAM345に保持されているデータを読み出す。データコントローラ312は、その読み出したデータをビットデータ変換器313に送出する。ビットデータ変換器313は、タイミングコントローラ311からの命令に基づいて、そのデータをデータ/階調変換器314に送出する。ビットデータ変換器313は、外部から与えられた画像データを、レーザ発光によって投影するための形式に適合したデータに変換する。
データ/階調変換器314は、ビットデータ変換器313から出力されたデータを、G(green)、R(Red)、B(Blue)の3色として表示するための色の階調に変換し、変換後のデータを、レーザ制御回路351,352,353にそれぞれ送出する。
一方、タイミングコントローラ311は、デジタル信号プロセッサ320との間で二軸ガルバノミラー372の駆動を制御する。より具体的には、タイミングコントローラ311は、ミラーサーボブロック321に命令を送出して、アクチュエータ373を駆動する。アクチュエータ373は、その命令に従って、二軸ガルバノミラー372の位置および傾きを変更する。すなわち、タイミングコントローラ311は、ミラーサーボブロック321を介してアクチュエータ373に信号を送り、当該信号に基づいてアクチュエータ373がガルバノミラー372の方向を変更することによって、3波長レーザ光源350は3波長レーザ光を走査する。
また、変換器322は、タイミングコントローラ311から送られる信号に基づいて、CCDセンサ110(もしくは1次元CMOSアレイセンサ112)から送られる信号をA/D(Analog to Digital)変換し、変換後のデジタルデータをCPU341に送出する。たとえば、CCDセンサ110がその撮影可能な範囲にある被写体を撮影すると、その被写体の画像信号は、CPU341に送られる。CPU341は、CCDセンサ110によって撮影された画像を表示する設定が有効である場合には、そのデータに基づく画像を表示するようにタイミングコントローラ311に命令を送信する。
また、変換器322は、ミラーサーボブロック321から送られる信号を、CPU341に伝送する。たとえば、変換器322は、アクチュエータ373に対して与えられている命令と、アクチュエータ373の状態とを含む信号を生成し、その信号をCPU341に送出する。
レーザ制御回路351は、データ/階調変換器314から送られる信号に基づいて緑LD361の駆動を制御する。同様に、レーザ制御回路352,353は、データ/階調変換器314から送られる命令に従って、赤LDと青LDとのそれぞれを制御する。緑LD361、赤青LD362は、それぞれ当該制御に応じてレーザ光を発する。
偏光ビームスプリッタ363は、緑LD361から発せられるレーザ光の光路上に配置されている。偏光ビームスプリッタ363は、緑LD361を透過する。また、偏光ビームスプリッタ363は、赤青LD362を一部透過し、一部反射する。検出器370は、赤青LD362から発せられる各レーザ光の光路上に配置されている。偏光ビームスプリッタ363を透過した各レーザ光は、レンズ371を介して一定範囲に集められ、二軸ガルバノミラー372によって反射される。その反射光は、プロジェクタ100の外部に投影される。このとき、二軸ガルバノミラー372がアクチュエータ373の駆動によってその傾きを変更することによって、当該反射光が走査されながら3波長レーザ光源350から外部へ照射される。
図3を参照して、ガルバノミラー372にて反射された後の3波長レーザ光の光学系について説明する。図3は、ガルバノミラー372にて反射された後の3波長レーザ光の光学系を示すイメージ図である。3波長レーザ光源350のガルバノミラー372によって、走査されながら照射された3波長レーザ光は、コリメートレンズ381を通過して平行光となる。その後、3波長レーザ光は、空間光変調器382にて変調されて、ビームスプリッタ383へと照射される。
ビームスプリッタ383は、3波長レーザ光の光路上の一部に配置されている。これによって、3波長レーザ光のうちビームスプリッタ383に照射されたレーザのみが、ビームスプリッタ383にて反射(屈折)してスクリーン130方向へ投影される。3波長レーザ光のうちビームスプリッタ383が配置されていない光路上を通過するレーザは、ビームスプリッタ383にて反射(屈折)せずにテーブル120方向へ投影される。
つまり、ビームスプリッタ383は、空間光変調器382を透過したレーザの一部分のみを反射させることによって分割するように配置されている。当該レーザの一部分が、プレゼンテーション用の画像132Aを表示するためのレーザである。換言すれば、CPU341は、プレゼンテーション用の画像132Aとしてスクリーン130に照射したい領域のみがビームスプリッタ383にて反射されるように、フロントエンド用FPGA310や3波長レーザ光源350などを制御する。
そして、ビームスプリッタ383のスクリーン130方向の下流側には、3波長レーザ光を拡散してスクリーン130に照射するための拡大レンズ384が配置されている。一方、ビームスプリッタ383のテーブル120方向の下流側にも、3波長レーザ光を拡散してテーブル120に照射するための拡大レンズ385が配置されている。これによって、ビームスプリッタ382にて反射されることによって分割された、3波長レーザ光源350からのレーザの一部分が、拡大レンズ384を通過する。そして、3波長レーザ光源350からのレーザの一部分が、プロジェクタ100からスクリーン130へと射出される。
一方、ビームスプリッタ383を透過した3波長レーザ光は、ビームスプリッタ383を透過しなかった3波長レーザ光とともに、拡大レンズ385を通過して、図示しないミラーやレンズ(たとえば、図5および図7におけるレンズ386)を介してテーブル120などに照射される。ビームスプリッタ383を透過した3波長レーザ光と、ビームスプリッタ383を透過しなかった3波長レーザ光とは、使用者が参照するための画像122Aを表示するものである。そして、ビームスプリッタ383を透過した3波長レーザ光は、スクリーン130に投影される画像132Aと同様の画像を表示するものである。
一方、ビームスプリッタ383を透過しなかった3波長レーザ光は、スクリーン130に投影されるプレゼンテーション用の画像132Aには表れない画像を表示するものであって、使用者が画像などの編集を行うための専用画像122Fを表示するものとなる。使用者が参照するための専用画像122Fには、たとえば現在投影中の画像132Aに対応するコメントなどを入れておくことが可能である。これによって、画像132Aの表示中に使用者のみが専用画像122Fを参照することが可能になる。つまり、使用者が、画像132Aの表示中に話すべきコメントなどを覚えていなくても、スムーズにプレゼンテーションを進めることが可能になる。
[機能構成]
図4を参照して、本発明に係るプロジェクタ200の機能構成について説明する。図4は、プロジェクタ200が備える機能の構成を表わすブロック図である。プロジェクタ200は、レーザ光源(361,362)と、走査部(372)と、ビームスプリッタ383と、受光センサ(110,112)と、算出部(341−1)と、表示制御部(341−2)と、生成部(341−3)とを含む。
レーザ光源は、たとえば、緑色LD361と、赤青LD362と、から実現されるものであって、CPU341に入力される画像信号に応じてレーザ光を供給する。
走査部は、たとえば、ガルバノミラー372によって実現されるものであって、3波長レーザ光を走査してスクリーンへと照射する。
ビームスプリッタ383は、走査されたレーザ光を第1の方向と第2の方向とに分割して出力する。詳しくは、ビームスプリッタ383は走査されたレーザ光の光路の一部に配置されて、前記第1の画像信号に対応するレーザ光のみを前記第1の方向と第2の方向とに分割して出力する。
受光センサは、CCDセンサ110や1次元CMOSアレイセンサ112によって実現されるものであって、第1の方向に投影された第1のレーザ光Aのうち外部障害物10にて反射された反射光Bを受光する。詳しくは、受光センサは、たとえばCCDセンサ110によって実現されて、受光される反射光Bの水平方向および垂直方向における受光位置(受光方向)を取得する。もしくは、受光センサは、たとえば1次元CMOSアレイセンサ112によって実現されて、受光される反射光Bの垂直方向における受光高さ(受光方向の垂直成分)を取得する。
算出部341−1や表示制御部341−2や生成部341−3は、たとえばCPU341によってSDRAM344に記憶されている制御プログラムが読み出されて、CPU341によって当該プログラムが実行されることによって実現されるものである。
算出部341−1は、受光センサにて受光した反射光Bに基づいて、外部障害物10の位置情報を算出する。また、算出部341−1は、受光した反射光Bに基づいて、外部障害物10の位置情報と、当該位置の経時変化情報とを算出する。詳しくは、算出部341−1は、反射光Bの入射方向(入射ベクトル)と3波長レーザ光Aの出射方向(出射ベクトル)とから、当該方向(ベクトル)が交わる位置を算出し、当該位置に外部障害物10が存在することを把握する。そして、算出部341−1は、外部障害物10の最下端位置を算出して、当該最下端位置の時間的な変化(たとえば最下端位置の移動方向など)を把握する。
より詳しくは、算出部341−1は、CCDセンサ110から送られる反射光Bの水平方向および垂直方向における受光位置(受光方向)と、反射光Bに対応する第1のレーザ光の垂直同期信号とに基づいて、外部障害物10の位置情報を算出する。つまり、算出部341−1は、垂直同期信号を取得することによって出射光Aの高さを確定することができるので、反射光Bの経路(ベクトル)中の当該高さに該当する位置を、外部障害物10の表面として認識することができる。
もしくは、算出部341−1は、1次元CMOSアレイセンサ112から送られる反射光Bの垂直方向における受光高さ(受光方向の垂直成分)と、反射光Bに対応する第1のレーザ光の垂直同期信号と水平同期信号とに基づいて、外部障害物10の位置情報を算出する。つまり、算出部341−1は、垂直同期信号と水平同期信号とを取得することによて、出射光Aの方向を確定することができるので、出射光Aの経路(ベクトル)中の反射光Bの受光高さ(受光方向の垂直成分)に該当する位置を、外部障害物10の表面として認識することができる。
表示制御部341−2は、算出された位置情報に基づき、レーザ光源と走査部とを介して、第2の方向に投影された第2のレーザ光にて表わされる第2の画像中の外部障害物10の位置に対応する位置にポインタを表示させる。
生成部341−3は、算出された外部障害物10の(最下端の)位置情報と、外部障害物10の(最下端の)位置の経時変化情報とに基づいて、プロジェクタ(CPU342)への入力命令を生成する。たとえば、生成部341−3は、算出部341−1が算出した位置情報から、外部障害物10がテーブル120に照射されている専用画像122Fの一部に接触した後、外部障害物10が持ち上げられたことを認識する。そして、生成部341−1は、当該認識結果に基づいて、外部障害物10の当該動作に対応するコマンドを生成して、当該コマンドを他のアプリケーションなどに渡す。
[位置特定方法]
以下では、図2を参照しながら、本実施の形態に係るプロジェクタ100による障害物の位置特定処理について詳細に説明する。3波長レーザ光源350から照射されたレーザ光は、レーザ光自体が一画素分に相当するものである。アクチュエータ373とガルバノミラー372とが、当該レーザ光を水平方向および垂直方向へと高速にスキャニングすることによって(画面を走査することによって)、スクリーン130上およびテーブル120上に画像を形成している。
そして、プロジェクタ100の下部の後面には、CCDセンサ110が設けられている。当該CCDセンサ110は、受光した反射光Bに基づいて受光素子にて生成される信号を変換器322へと出力し、変換器322は当該信号をA/D変換してデジタル信号をCPU341へと出力する。これによって、プロジェクタ100は、使用者側の画像122A上に進入してきた外部障害物10、より詳細には、画像122Aを形成するための3波長レーザ光A(第1のレーザ光)の光路上に進入してきた外部障害物10を検知することが可能になる。
図5は、プロジェクタ100から照射されるレーザ光AやCCDセンサ110にて受光される反射光Bを示すイメージ図である。図6は、CCDセンサ110にて受光される反射光Bの受光画素を示すイメージ図である。図5および図6に示すように、たとえば、反射光Bを受光画素1aから受光画素1zにて受光したとする。このとき、CCDセンサ110が、スクリーン130に投影された画像132Aを形成するための3波長レーザ光と同期したセンシングを行うことによって、受光画素1aにて受光した反射光Bに対する3波長レーザ光Aが画像122Aのどの位置に対応するレーザ光であるのかを認識することができる。
このようにして、CPU341は、CCDセンサ110にて得られた反射光Bの受光位置(入射方向)と、当該反射光Bに対応する3波長レーザ光Aの照射方向とから、3波長レーザ光Aと反射光Bとの交点の3次元の位置情報を算出することができる。これによって、外部障害物10の最下点の、基準面(たとえばテーブル120)からの高さを算出することも可能である。そして、使用者が保持している外部障害物10が表示されている画像122Aにタッチしたのか、外部障害物10のペン先が空中に位置するのかを把握することも可能である。
CPU341が3波長レーザ光Aの水平同期信号も取得することができる場合には、外部障害物10の水平方向の位置も算出することができるため、CCDセンサ110は、1次元CMOSアレイセンサ112であってもよい。以下では、CPU341が水平同期信号を取得することによって、1次元CMOSアレイセンサ112から得られる信号に基づいて外部障害物10の位置と動き(経時変化)を算出する構成について説明する。
図7は、外部障害物が無い状態の入力インターフェイス部分としてのバーチャルタッチパネルの光学系外略図である。図7に示すように、レーザプロジェクタ100から操作者側のスクリーンには、プレゼンテーション用スクリーンと同様に、x方向及びy方向に3波長レーザ光Aが走査されて、一画像122Aが生成される。また、その操作者用のスクリーンに照射された各ピクセルは自由曲面レンズ111を介して、1次元CMOSアレイセンサ112によって受光される。
図8は、外部障害物が無い状態の1次元CMOSアレイセンサ112で受けた検出光のタイムシーケンスを示すイメージ図である。図8に示すように、x方向と(y+z)方向とで張られる面の一つが、水平方向(x軸方向)に一ライン走査した場合に取得されるデータを示している。このデータを順次読み込むことで、図8に示すように、CPU341は1次元CMOSアレイセンサ112を介して1フレーム分の画像データを取得する。図8においては、ドット表示された領域が、反射光Bがスクリーン像の検出データとして得られる範囲であって、当該1フレーム分の画像データが順次y方向のデータとして一ライン分ずつ得られる。
図9は、外部障害物が基準面に位置した状態における入力インターフェイス部分としてのバーチャルタッチパネルの光学系外略図である。すなわち、図9は、外部障害物10(ここでは棒状のペンなどとする。)を3波長レーザ光Aの投影光路上に挿入し、かつ外部障害物10が底面にタッチしている場合を示している。図9に示すように、外部障害物10によって、投影された像の一部分が、外部障害物10上で反射し、自由曲面レンズ111を介して1次元CMOSアレイセンサ112で受光される。この場合、1次元CMOSアレイセンサ112で受光されるイメージを示したのが図10となる。
図10は、外部障害物が基準面に位置した状態の1次元CMOSアレイセンサで受けた検出光のタイムシーケンスを示すイメージ図である。図10に示したように、y信号のスキャンがまだはじめ(図9における画像122Aの左側の部分)のときは、障害物10にレーザ光Aがあたり、1次元CMOSアレイセンサ112上では実際の位置(基準面すなわちテーブル120にて反射した場合)より上で受光されることとなる。そして順次y方向へとスキャンが進み、スキャン動作が棒(外部障害物10)の先端部分まで達したときに、障害物10のない場合と同じ位置で反射光Bが検出されることとなる。それ以降は、障害物10の影響をうけずに反射光Bが検出されるため、図7および図8における状態と同様の反射位置にて順次受光していく。
以上の構成により、外部障害物10がない場合の反射光Bの検出位置とを比較することで、外部障害物10がタッチした画像122A上のXY座標を得ることができる。
図11は、外部障害物10が持ち上げられた状態の入力インターフェイス部分としてのバーチャルタッチパネルの光学系外略図である。すなわち、図11は、外部障害物10を投影された3波長レーザ光Aの光路上に挿入し、かつ外部障害物10は基準面(テーブル120)にタッチしておらず、宙に浮いている場合を示している。この場合、1次元CMOSアレイセンサ112にてどのように受光されたかを示したものが図12となる。
図12は、外部障害物が持ち上げられた状態の1次元CMOSアレイセンサで受けた検出光のタイムシーケンスを示すイメージ図である。図12に示したように、図10と同様に、y信号のスキャンがまだスタート地点のときは、障害物10にレーザ光Aがあたり、1次元CMOSアレイセンサ112上では実際の位置(基準面すなわちテーブル120にて反射した場合)より上で受光されることとなる。しかし、この場合には、障害物10が画像122Aが表示されているテーブルから宙に浮いているために、障害物10がある場合の反射光Bの検出位置と、障害物10のない場合の反射光Bの検出位置との差異が、連続的に減少してあるy座標の位置で一致するようになるのではない。
つまり、あるy座標を有する位置において、反射光Bの検出位置は複数の画素を飛ばして、障害物10のない場合の検出位置に一致するようになる。すなわち、図10に示したように、障害物10がある場合の反射光Bの検出位置と、障害物10のない場合の反射光Bの検出位置との差異を順にトレースしていくとリニアに変化するのではなく、障害物10の先端位置において非線形になる(傾きが変化する)こととなる。以上のことから、このようなy軸の位置を検出した場合は、外部障害物10が画像122Aの投影箇所にタッチしていないことを認識することができる。
以上のように、スキャンする水平同期、垂直同期のタイミングをみながら、センサで取得する反射光Bの像を外部障害物10のない初期の場合と、現状とで比較していくことで、障害物10があるのか、また障害物10が投影面にタッチしているのかを認識することができる。
[経時変化情報取得処理]
図13は、上記のようにして認識した外部障害物10の位置に基づいて、当該外部障害物10の位置の経時変化情報取得処理の処理手順を示すフローチャートである。
CPU341は、常にCCDセンサ110(1次元CMOSアレイセンサ112)から変換器322を介して反射光Bのスキャニング結果を取得している。そして、1フレーム分のスキャンが終了する毎に、すなわち1フレーム分の画像122A,132Aの投影が完了する毎に(ステップ101にてYESの場合、以下ステップをSと略す。)、CPU341は外部障害物10の最下点の位置情報を算出する(S102)。
そして、当該最下点が基準面(たとえばテーブル120面)に達しているか否かを判断する(S103)。達している場合(S103にてYESの場合)、水平位置を算出する(S104)。CPU341は、当該水平位置を起動中のアプリケーションに渡し(S105)、当該フレームについての処理を終了する。達していない場合(S103にてNOの場合)、前フレームのスキャン時に最下点に達していたか否かの情報を記憶部(たとえばSDRAM344)から読み出して、前フレームのスキャン時に最下点に達していたか否かの判断を行う(S106)。
前フレームのスキャン時に最下点に達していた場合(S106にてYESの場合)、CPU341は外部障害物10によってタッチ操作が入力されたものと判断し、当該タッチ操作に対する命令を生成して起動中のアプリケーションに渡して(S107)、当該フレームについての処理を終了する。一方、前フレームのスキャン時に最下点に達していない場合(S106にてNOの場合)、当該フレームについての処理を終了する。
[アプリケーションへの利用態様]
以下では、CPU341が算出した外部障害物10の位置情報および位置の経時変化情報を、他のアプリケーションにおいて利用する方法について説明する。図14はビームをプリズムにより分割して、スリットを設ける事で操作者画面(専用画像122F)のみに操作用の画面を出力させた場合の具体的な設置例を示しており、たとえば画像編集アプリケーションの画面が表示されている状態を示すイメージ図である。図14に示すように、操作者側のスクリーン(テーブル120)には、プレゼンテーション用の投影画面(画像132B)と同等の画像122Fが投影され、かつその下部分には、いくつかの機能をもったアイコン(専用画像122F)が表示されているものとする。
図14は、外部障害物10によって画像122A(122F)の丸印のアイコンをタッチしたときの機能を示すイメージ図である。画像122Bの位置s1のように、障害物10によって画像122Bの基準面(テーブル120)をタッチすることで、プロジェクタ100がタッチ動作を認識して、画像編集アプリケーションがマーカーモードとなる。次に、画像122Bの位置s2からs3にかけてスクリーン上をなぞることで、図にしめすように、プレゼンテーション用スクリーンでは、特定のマーク(ここでは赤いサークル)が、操作者側のスクリーンのs2からs3の位置とおなじ位置の間を移動することとなる。なお、ここでは例として示さなかったが、マーカーモードで別途、マークの種類をアイコンで用意し選択することで、プレゼンスクリーン上のマーカーのデザインを変更することができる。
図15は、外部障害物10によって画像122Aのペンのアイコンをタッチしたときの機能を示すイメージ図である。位置t1のように、画像122A(122F)のペンのアイコン部分のスクリーン面をタッチすることで、ドローモードとなる。次に、画像122Cのt2からt3にかけてスクリーン上をなぞることで、図に示すように、プレゼンテーション用スクリーン130(画像132C)では、線画が描かれることとなる。なお、ここでは例として示さなかったが、ドローモードで別途、ペンの色・太さをアイコンで用意し選択することで、プレゼンスクリーン上でいろいろな種類の線画を描くことができる。
図16は、外部障害物10によって画像122Aの消しゴムのアイコン(位置u1)をタッチしたときの機能を示すイメージ図である。図16に示すように、消しゴムのアイコン部分のスクリーン面をタッチすることで、イレースモードとなる。次に操作者側のスクリーンを位置u2から位置u3にかけてジグザグになぞることで、図16に示すように、プレゼンテーション用のスクリーン130に投影される画像132Dでは、画像データの当該部分を消去することができる。なお、ここでは例として示さなかったが、イレースモードで別途、消しゴムの太さを変更するモードや、ドローモードで描いた線画のみを消すモードに切り替えることができる。
図17は、外部障害物10によって画像122A(122F)のズームのアイコンをタッチしたときの機能を示すイメージ図である。図17に示すように、画像122Eのズームのアイコン部分のスクリーン面をタッチすることで、具体的には外部障害物10によって画像122Eの位置v1をタッチすると、画像編集アプリケーションはズームモードに移行する。次に、画像122Eにおいて、位置v2と位置v3と順にタッチすることで、その2点を対角とした四角形の部分がズームアップされ、プレゼンテーション用のスクリーン130に当該ズームアップされた後の画像132Eが投影される。
また、図14から図17に示すように、専用画像122Fのアイコン列の右端にあるClearのアイコンをクリックすることで、編集途中のプレゼンテーション用のスクリーン130における画像132Aをリセットすることができる。
以上のように、画像122Aのみの画像にアイコン画像(専用画像122F)を含めることにより、リモコン等の入力インターフェイスを使うことなく、プロジェクタ100のみを用いて投影画面を編集することができる。
[変形例]
以下、本発明の実施の形態の変形例について説明する。図18は、本実施の形態の変形例を示すプロジェクタ600の側面斜視図である。図18に示すように、本変形例に係るプロジェクタ600は、3波長レーザ光Aとは別に赤外線によって障害物の位置を特定する点において、前述の実施の形態に係るプロジェクタ100と異なる。
具体的には、プロジェクタ600には、赤外線発光部601と、CCDセンサ602とを有する。そして、上記のプロジェクタ100と同様に、プロジェクタ600は、たとえばプレゼンテーション用のスクリーン130に所望の画像を投影し、当該画像をテーブル120上にも照射する。使用者は、テーブル120の画像122Aにおける、スクリーン130上において指し示したい位置に対応する位置に、使用者の指や、使用者が保持するペンを位置させることによって指示したい位置を指示する。
画像が投影されている間、プロジェクタ600の赤外線発光部601は赤外線を発光する。使用者の指やペンが、テーブル120の画像122Aに位置しているとき、赤外線が当該指やペンに照射される。そして、当該指やペンにて反射された赤外線が、CCDセンサ602にて受光される。受光された赤外線から得られる情報に基づいて、プロジェクタ600のCPUは指やペン等の障害物の位置を算出し、たとえばプレゼンテーション用のスクリーン130に特定のマーク(ポインタ)を表示する。
また、特定の方法、たとえば、画面上の特定位置をクリックしたり、リモコンによって命令を送信することによって認識モードを切り替えることで、テーブル120上に投影されている画像122Aに文字やイラストをバーチャルで書いた場合、プレゼンテーション用の画像132Aにオーバーレイで文字やイラストを表示する。そして、そのような画像は、プロジェクタ600に装着されたSDカードなどのメモリに多重した像として保存され、後で印刷することができるように構成してもよい。
このような構成により、レーザプロジェクタ100,600においては、使用者がスクリーン130付近に立つ必要がなくなり、スクリーン130上にイラストやマーク等を支持することができ、その結果使用者の目にレーザが誤入射することも防止することができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明に係るプロジェクタの一態様であるレーザプロジェクタの設置された状態を表わす図である。 レーザプロジェクタのハードウェア構成を表わすブロック図である。 ガルバノミラーにて反射された後の3波長レーザ光の光学系を示すイメージ図である。 プロジェクタが備える機能の構成を表わすブロック図である。 プロジェクタから照射されるレーザ光やCCDセンサにて受光される反射光を示すイメージ図である。 CCDセンサにて受光される反射光の受光画素を示すイメージ図である。 外部障害物が無い状態の入力インターフェイス部分としてのバーチャルタッチパネルの光学系外略図である。 外部障害物が無い状態の1次元CMOSアレイセンサで受けた検出光のタイムシーケンスを示すイメージ図である。 外部障害物が基準面に位置した状態の入力インターフェイス部分としてのバーチャルタッチパネルの光学系外略図である。 外部障害物が基準面に位置した状態の1次元CMOSアレイセンサで受けた検出光のタイムシーケンスを示すイメージ図である。 外部障害物が持ち上げられた状態の入力インターフェイス部分としてのバーチャルタッチパネルの光学系外略図である。 外部障害物が持ち上げられた状態の1次元CMOSアレイセンサで受けた検出光のタイムシーケンスを示すイメージ図である。 外部障害物の位置の経時変化情報取得処理の処理手順を示すフローチャートである。 外部障害物によって画像の丸印のアイコンをタッチしたときの機能を示すイメージ図である。 外部障害物によって画像のペンのアイコンをタッチしたときの機能を示すイメージ図である。 外部障害物によって画像の消しゴムのアイコンをタッチしたときの機能を示すイメージ図である。 外部障害物によって画像のズームのアイコンをタッチしたときの機能を示すイメージ図である。 本発明の実施の形態の変形例を示すレーザプロジェクタの側面斜視図である。
符号の説明
10 外部障害物、100 レーザプロジェクタ、110,602 CCDセンサ、112 1次元CMOSアレイセンサ、120 テーブル、130 スクリーン、200 プロジェクタ、311 タイミングコントローラ、312 データコントローラ、313 ビットデータ変換器、314 階調変換器、320 デジタル信号プロセッサ、321 ミラーサーボブロック、321 ミラーサーボブロック、322 変換器、330 操作パネル、340 バックエンドブロック、342 ビデオインターフェイス、343 外部インターフェイス、350 波長レーザ光源、351,352,353 レーザ制御回路、363 偏光ビームスプリッタ、370 検出器、372 ガルバノミラー、373 アクチュエータ、381 コリメートレンズ、382 空間光変調器、383 ビームスプリッタ、600 プロジェクタ、601 赤外線発光部。

Claims (4)

  1. 入力される画像信号に応じてレーザ光を供給するレーザ光源と、
    前記レーザ光を走査する走査部と、
    外部障害物にて反射された前記レーザ光の反射光を受光する受光センサと、
    受光した前記反射光に基づいて、外部障害物の位置情報を算出する算出手段とを備え、
    前記受光センサは、前記走査部によって走査されたレーザ光の光路とは異なる光路上に配置されており、
    前記走査されたレーザ光を第1の方向と第2の方向とに分割して出力するビームスプリッタをさらに備え、
    前記画像信号は、第1の画像信号と、第2の画像信号とを含み、
    前記ビームスプリッタは、前記走査されたレーザ光の光路の一部に配置されて、前記第1の画像信号に対応するレーザ光のみを前記第1の方向と第2の方向とに分割して出力する、プロジェクタ。
  2. プロジェクタであって、
    入力される画像信号に応じてレーザ光を供給するレーザ光源と、
    前記レーザ光を走査する走査部と、
    外部障害物にて反射された前記レーザ光の反射光を受光する受光センサと、
    受光した前記反射光に基づいて、外部障害物の位置情報と、当該位置の経時変化情報とを算出する算出手段と、
    算出された前記位置情報と前記経時変化情報とに基づいて、前記プロジェクタへの入力命令を生成する生成手段と
    前記走査されたレーザ光を第1の方向と第2の方向とに分割して出力するビームスプリッタとを備え、
    前記画像信号は、第1の画像信号と、第2の画像信号とを含み、
    前記ビームスプリッタは、前記走査されたレーザ光の光路の一部に配置されて、前記第1の画像信号に対応するレーザ光のみを前記第1の方向と第2の方向とに分割して出力する、プロジェクタ。
  3. 前記画像信号は、垂直同期信号を含み、
    前記受光センサは、受光される反射光の水平方向および垂直方向における受光位置を取得し、
    前記算出手段は、前記反射光の水平方向および垂直方向における受光位置と、前記反射光に対応する前記レーザ光の垂直同期信号とに基づいて、前記位置情報を算出する、請求項1または2に記載のプロジェクタ。
  4. 前記画像信号は、垂直同期信号と水平同期信号を含み、
    前記受光センサは、受光される反射光の垂直方向における受光高さを取得し、
    前記算出手段は、前記反射光の垂直方向における受光高さと、前記反射光に対応する前記レーザ光の垂直同期信号と水平同期信号とに基づいて、前記位置情報を算出する、請求項1または2に記載のプロジェクタ。
JP2007297021A 2007-11-15 2007-11-15 プロジェクタ Expired - Fee Related JP5214223B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007297021A JP5214223B2 (ja) 2007-11-15 2007-11-15 プロジェクタ
US12/263,959 US8123361B2 (en) 2007-11-15 2008-11-03 Dual-projection projector and method for projecting images on a plurality of planes
EP08019370.9A EP2063347B1 (en) 2007-11-15 2008-11-05 Projector and method for projecting images
CN2008101782674A CN101435981B (zh) 2007-11-15 2008-11-17 投影仪以及投影图像的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007297021A JP5214223B2 (ja) 2007-11-15 2007-11-15 プロジェクタ

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013034415A Division JP5494853B2 (ja) 2013-02-25 2013-02-25 プロジェクタ

Publications (2)

Publication Number Publication Date
JP2009123006A JP2009123006A (ja) 2009-06-04
JP5214223B2 true JP5214223B2 (ja) 2013-06-19

Family

ID=40427572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007297021A Expired - Fee Related JP5214223B2 (ja) 2007-11-15 2007-11-15 プロジェクタ

Country Status (4)

Country Link
US (1) US8123361B2 (ja)
EP (1) EP2063347B1 (ja)
JP (1) JP5214223B2 (ja)
CN (1) CN101435981B (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101548997B1 (ko) 2008-09-03 2015-09-01 엘지전자 주식회사 투사 표시 장치
US8269970B2 (en) * 2009-07-02 2012-09-18 Quality Vision International, Inc. Optical comparator with digital gage
JP5423222B2 (ja) * 2009-08-07 2014-02-19 ソニー株式会社 位置検出装置および位置検出方法
JP5556150B2 (ja) * 2009-11-30 2014-07-23 セイコーエプソン株式会社 プロジェクター及びその制御方法
JP5141701B2 (ja) * 2010-02-25 2013-02-13 株式会社ニコン プロジェクタ
TWI447508B (zh) * 2010-04-01 2014-08-01 Delta Electronics Inc 投影裝置以及用於判斷一光點於投影畫面之位置之定位方法
TW201137503A (en) * 2010-04-30 2011-11-01 Hon Hai Prec Ind Co Ltd Projector
CN101876870A (zh) * 2010-06-30 2010-11-03 中兴通讯股份有限公司 显示终端和操作显示画面的方法
JP5488306B2 (ja) * 2010-07-29 2014-05-14 船井電機株式会社 プロジェクタ
JP5510155B2 (ja) * 2010-07-29 2014-06-04 船井電機株式会社 プロジェクタ
JP2012053227A (ja) * 2010-08-31 2012-03-15 Sanyo Electric Co Ltd 投写型映像表示装置
JP5710929B2 (ja) * 2010-10-08 2015-04-30 船井電機株式会社 プロジェクタ
US20120113329A1 (en) * 2010-11-09 2012-05-10 Cheng Uei Precision Industry Co., Ltd. Laser projector
JP5609566B2 (ja) 2010-11-10 2014-10-22 船井電機株式会社 プロジェクタ
KR20120051831A (ko) 2010-11-15 2012-05-23 삼성전자주식회사 프로젝터 및 그 구동 방법
WO2012072124A1 (en) * 2010-12-01 2012-06-07 Lemoptix Sa A projection system
JP2013061598A (ja) * 2011-09-15 2013-04-04 Funai Electric Co Ltd プロジェクタおよびプロジェクタ機能を有する電子機器
US20130069912A1 (en) 2011-09-15 2013-03-21 Funai Electric Co., Ltd. Projector
JP5864177B2 (ja) 2011-09-15 2016-02-17 船井電機株式会社 プロジェクタおよびプロジェクタシステム
JP2013065061A (ja) 2011-09-15 2013-04-11 Funai Electric Co Ltd プロジェクタ
CN102340642A (zh) * 2011-10-08 2012-02-01 无锡艾德里安科技有限公司 多功能数码投影仪
CN103176592B (zh) 2011-12-22 2015-09-30 光宝科技股份有限公司 虚拟投影输入系统及其输入检测方法
US9105211B2 (en) * 2012-03-13 2015-08-11 Samsung Electronics Co., Ltd Portable projector and image projecting method thereof
TWI518553B (zh) * 2012-08-22 2016-01-21 光峰科技股份有限公司 具多模式之互動投影系統及其指示裝置與控制方法
CN103677227B (zh) * 2012-09-07 2016-10-05 光峰科技股份有限公司 互动投影系统及其指示装置与控制方法
JP5971053B2 (ja) * 2012-09-19 2016-08-17 船井電機株式会社 位置検出装置及び画像表示装置
JP2014123170A (ja) * 2012-12-20 2014-07-03 Funai Electric Co Ltd 位置判定装置及び位置判定方法
JP2014145813A (ja) * 2013-01-28 2014-08-14 Funai Electric Co Ltd プロジェクタ
JP6102330B2 (ja) * 2013-02-22 2017-03-29 船井電機株式会社 プロジェクタ
JP2014170149A (ja) * 2013-03-05 2014-09-18 Funai Electric Co Ltd プロジェクタ
CN104076949B (zh) * 2013-03-29 2017-05-24 华为技术有限公司 一种激光笔光束同步方法及相关设备、系统
JP6171502B2 (ja) * 2013-04-04 2017-08-02 船井電機株式会社 プロジェクタおよびプロジェクタ機能を有する電子機器
JP2014203323A (ja) * 2013-04-08 2014-10-27 船井電機株式会社 空間入力装置
JP2014206634A (ja) 2013-04-12 2014-10-30 船井電機株式会社 電子機器
JP6098386B2 (ja) * 2013-06-18 2017-03-22 船井電機株式会社 プロジェクタ
JP2015060296A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 空間座標特定装置
CN103543829A (zh) * 2013-10-25 2014-01-29 南京芒冠光电科技股份有限公司 一种可实现投影触摸的3d智能视频展台
CN103558950B (zh) * 2013-11-15 2016-08-17 深圳市大乘科技股份有限公司 一种虚拟键盘设备及其实现方法
JP5973087B2 (ja) * 2013-11-19 2016-08-23 日立マクセル株式会社 投射型映像表示装置
US10234952B2 (en) * 2014-07-18 2019-03-19 Maxim Integrated Products, Inc. Wearable device for using human body as input mechanism
WO2016018232A1 (en) * 2014-07-28 2016-02-04 Hewlett-Packard Development Company, L.P. Image background removal using multi-touch surface input
JP5932945B2 (ja) * 2014-11-05 2016-06-08 船井電機株式会社 プロジェクタ
JP5971368B2 (ja) * 2015-03-05 2016-08-17 船井電機株式会社 プロジェクタ
KR20160112143A (ko) 2015-03-18 2016-09-28 삼성전자주식회사 전자 장치 및 전자 장치에서의 디스플레이 패널의 화면 업데이트 방법
DE102016200590A1 (de) * 2016-01-19 2017-07-20 Robert Bosch Gmbh Beleuchtungsvorrichtung und Verfahren zum Überwachen einer Beleuchtungsvorrichtung
JP2017146927A (ja) * 2016-02-19 2017-08-24 ソニーモバイルコミュニケーションズ株式会社 制御装置、制御方法及びプログラム
JP6844159B2 (ja) * 2016-09-12 2021-03-17 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP6390736B2 (ja) * 2017-03-15 2018-09-19 船井電機株式会社 空間入力装置
JP6996114B2 (ja) * 2017-05-29 2022-01-17 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
KR102346031B1 (ko) * 2017-07-25 2022-01-03 삼성디스플레이 주식회사 표시 장치 및 이의 구동 방법
CN108071909B (zh) * 2017-12-07 2020-05-26 联想(北京)有限公司 触控交互装置
CN108281100B (zh) * 2018-01-16 2021-08-24 歌尔光学科技有限公司 激光投影仪控制方法、设备及激光投影仪
CN112716117B (zh) * 2020-12-28 2023-07-14 维沃移动通信有限公司 智能手环及其控制方法

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3800792A (en) * 1972-04-17 1974-04-02 Johnson & Johnson Laminated collagen film dressing
US4950699A (en) * 1988-01-11 1990-08-21 Genetic Laboratories, Inc. Wound dressing incorporating collagen in adhesive layer
US4956178A (en) * 1988-07-11 1990-09-11 Purdue Research Foundation Tissue graft composition
US4902508A (en) * 1988-07-11 1990-02-20 Purdue Research Foundation Tissue graft composition
US5281422A (en) * 1991-09-24 1994-01-25 Purdue Research Foundation Graft for promoting autogenous tissue growth
EP0694240A4 (en) * 1993-02-11 1996-06-26 Polycom Inc REMOTE INTERACTIVE PROJECTOR
US5542594A (en) * 1993-10-06 1996-08-06 United States Surgical Corporation Surgical stapling apparatus with biocompatible surgical fabric
US5503638A (en) * 1994-02-10 1996-04-02 Bio-Vascular, Inc. Soft tissue stapling buttress
US6475232B1 (en) * 1996-12-10 2002-11-05 Purdue Research Foundation Stent with reduced thrombogenicity
US6704210B1 (en) * 1994-05-20 2004-03-09 Medtronic, Inc. Bioprothesis film strip for surgical stapler and method of attaching the same
JPH0876923A (ja) 1994-09-06 1996-03-22 Sharp Corp 投射表示装置
US5554389A (en) * 1995-04-07 1996-09-10 Purdue Research Foundation Urinary bladder submucosa derived tissue graft
US5711969A (en) * 1995-04-07 1998-01-27 Purdue Research Foundation Large area submucosal tissue graft constructs
JPH08328695A (ja) 1995-06-06 1996-12-13 Hitachi Ltd 投影表示機能付き電子機器
EP0861048A4 (en) * 1995-07-03 2000-05-17 Dirk A Frater SYSTEM FOR FASTENING SUPPORT MATERIAL ON TISSUE CLASP DEVICES
US5702720A (en) * 1995-12-22 1997-12-30 Minnesota Mining And Manufacturing Company Transdermal device for the delivery of flurbiprofen
US5755791A (en) * 1996-04-05 1998-05-26 Purdue Research Foundation Perforated submucosal tissue graft constructs
DK0925077T3 (da) * 1996-08-23 2003-12-08 Cook Biotech Inc Fremgangsmåde til opnåelse af en oprenset collagen-baseret matrice fra submucosavæv
US5752965A (en) * 1996-10-21 1998-05-19 Bio-Vascular, Inc. Apparatus and method for producing a reinforced surgical fastener suture line
CA2267310C (en) * 1996-12-10 2012-09-18 Purdue Research Foundation Stomach submucosa derived tissue graft
US5993844A (en) * 1997-05-08 1999-11-30 Organogenesis, Inc. Chemical treatment, without detergents or enzymes, of tissue to form an acellular, collagenous matrix
US20020086423A1 (en) * 1997-09-09 2002-07-04 Toshiaki Takezawa Hydrogel thin film containing extracellular matrix components
US6099551A (en) * 1998-03-12 2000-08-08 Shelhigh, Inc. Pericardial strip and stapler assembly for dividing and sealing visceral tissues and method of use thereof
JP3327218B2 (ja) 1998-08-17 2002-09-24 日本電気株式会社 キーボードターミナル
TW464800B (en) * 1998-10-07 2001-11-21 Intel Corp A method for inputting data to an electronic device, an article comprising a medium for storing instructions, and an image processing system
US6544642B2 (en) * 1999-02-02 2003-04-08 The Procter & Gamble Company Disposable absorbent articles with improved adhesive for attachment to the skin to facilitate adhesion in oily conditions
FI990676A (fi) 1999-03-26 2000-09-27 Nokia Mobile Phones Ltd Syöttöjärjestely tiedon käsisyöttöä varten ja matkapuhelin
US6325810B1 (en) * 1999-06-30 2001-12-04 Ethicon, Inc. Foam buttress for stapling apparatus
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
US6503257B2 (en) * 2001-05-07 2003-01-07 Ethicon Endo-Surgery, Inc. Method for releasing buttress material attached to a surgical fastening device
JP4001487B2 (ja) * 2002-01-21 2007-10-31 フジノン株式会社 プレゼンテーションシステム
EP2404555B1 (en) * 2002-04-16 2017-03-15 Covidien LP Surgical stapler and method
US20040151218A1 (en) 2002-12-23 2004-08-05 Vlad Branzoi Systems and methods for tremor cancellation in pointers
TW594549B (en) * 2002-12-31 2004-06-21 Ind Tech Res Inst Device and method for generating virtual keyboard/display
US7173605B2 (en) * 2003-07-18 2007-02-06 International Business Machines Corporation Method and apparatus for providing projected user interface for computing device
JP4612853B2 (ja) * 2005-03-29 2011-01-12 キヤノン株式会社 指示位置認識装置及びそれを有する情報入力装置
JP2006295779A (ja) 2005-04-14 2006-10-26 Matsushita Electric Ind Co Ltd 携帯情報機器
JP2007108507A (ja) 2005-10-14 2007-04-26 Sekisui Chem Co Ltd プリズムシート及び光学シート
JP2007108570A (ja) * 2005-10-17 2007-04-26 Sharp Corp プロジェクタ装置
KR100765765B1 (ko) * 2005-11-15 2007-10-15 삼성전자주식회사 프로젝터/프로젝션 겸용 디스플레이 장치

Also Published As

Publication number Publication date
US8123361B2 (en) 2012-02-28
CN101435981A (zh) 2009-05-20
US20090128716A1 (en) 2009-05-21
EP2063347A1 (en) 2009-05-27
EP2063347B1 (en) 2015-04-15
CN101435981B (zh) 2012-06-20
JP2009123006A (ja) 2009-06-04

Similar Documents

Publication Publication Date Title
JP5214223B2 (ja) プロジェクタ
US7015894B2 (en) Information input and output system, method, storage medium, and carrier wave
JP4991079B2 (ja) テキストの所望部分を選択し捕捉するためのイメージ捕捉装置及び方法
US6829372B2 (en) Information-inputting device inputting contact point of object on recording surface as information
US7768505B2 (en) Indicated position recognizing apparatus and information input apparatus having same
CN104981757B (zh) 灵活的房间控制器
JP5710929B2 (ja) プロジェクタ
US20130070232A1 (en) Projector
US20030210229A1 (en) Presentation system, material presenting device, and photographing device for presentation
US7046838B1 (en) Three-dimensional data input method and apparatus
US20050264541A1 (en) Information input/output apparatus, information input/output control method, and computer product
JP5510155B2 (ja) プロジェクタ
JP2009245392A (ja) ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム
WO2008011361A2 (en) User interfacing
JP6858352B2 (ja) 画像投影装置
JP6314688B2 (ja) 入力装置
JP6501444B2 (ja) プロジェクション装置を備えた、とりわけ通信機器である電子機器、および、電子機器の動作方法
JP5494853B2 (ja) プロジェクタ
US20140152843A1 (en) Overhead camera and method for controlling overhead camera
JPH06242884A (ja) コンピュータ入力装置
JP2017004536A (ja) プロジェクタ
JP4167453B2 (ja) デジタイザおよび座標認識用シート
JP2011113191A (ja) 情報処理装置、情報処理システム
JP5971368B2 (ja) プロジェクタ
JPH06139017A (ja) Cad用画像形成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111019

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130227

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees