JP5494853B2 - projector - Google Patents
projector Download PDFInfo
- Publication number
- JP5494853B2 JP5494853B2 JP2013034415A JP2013034415A JP5494853B2 JP 5494853 B2 JP5494853 B2 JP 5494853B2 JP 2013034415 A JP2013034415 A JP 2013034415A JP 2013034415 A JP2013034415 A JP 2013034415A JP 5494853 B2 JP5494853 B2 JP 5494853B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- projector
- image
- reflected light
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Mechanical Optical Scanning Systems (AREA)
- Position Input By Displaying (AREA)
Description
本発明はプロジェクタに関し、特に、レーザ光によって画像を投影するレーザプロジェクタに関する。 The present invention relates to a projector, and more particularly, to a laser projector that projects an image with laser light.
レーザ光によって画像を投影するプロジェクタとして、レーザプロジェクタが知られている。レーザプロジェクタなどのような、プロジェクタから離れた位置において画像を投影するプロジェクタを使用する場合には、使用者の位置から画像を投影するスクリーンまで到達する指し棒や、当該スクリーンまでレーザ照射を行うレーザポインタなどを用いることによって、使用者が所望するポイントを指し示していた。また、他の情報機器などから、当該プロジェクタに画像データを入力する場合には、他の情報機器が有するタッチパネルやマウスなどの入力装置を介して、使用者が所望するポイントを指し示していた。この他にも、使用者が所望するポイントに関する情報をプロジェクタに入力するための方法や構成が知られている。 Laser projectors are known as projectors that project images with laser light. When using a projector that projects an image at a position away from the projector, such as a laser projector, a pointer that reaches the screen on which the image is projected from the position of the user, or a laser that performs laser irradiation on the screen By using a pointer or the like, the user has pointed to a desired point. In addition, when inputting image data from another information device or the like to the projector, the point desired by the user is indicated via an input device such as a touch panel or a mouse included in the other information device. In addition to this, there are known methods and configurations for inputting information related to points desired by the user to the projector.
たとえば、特開2000−305706号公報(特許文献1)には、デバイスの本体の外側にある入力エリアに一時的に出現する障害物を検出し、データ入力を決定する手段を有するデータ入力装置が開示されている。データ入力装置は、表面の入力エリアに映像を投影する手段を有する。バーチャル・キーボードは、当該装置の正面にまたは当該装置の折り畳み部分に在る表面上に投影される。レーザダイオードと回析オプティックスとを使用して表面上にバーチャル・キーボードの画像が生成され、赤外線送信装置と受信装置を用いて、バーチャル・キーボードの正確なエリア上にあるポインタまたは指の検出が行われる。 For example, Japanese Patent Laid-Open No. 2000-305706 (Patent Document 1) discloses a data input device having means for detecting an obstacle that temporarily appears in an input area outside the main body of the device and determining data input. It is disclosed. The data input device has means for projecting an image on the input area on the surface. The virtual keyboard is projected on the front of the device or on the surface that is in the folded part of the device. A virtual keyboard image is generated on the surface using laser diodes and diffraction optics, and an infrared transmitter and receiver are used to detect a pointer or finger on the exact area of the virtual keyboard. Done.
また、特開2000−66818号公報(特許文献2)には、情報処理装置にキー入力を行うためのキーボードターミナルが開示されている。キーボードターミナルは、複数のキーが仮想的に配列された仮想キーボードの各キーに向けてそれぞれ光を出射する第1及び第2の発光部と、第1及び第2の各発光部からの仮想キーの各キーに対応する位置に位置された物体での反射光を受光する受光部と、前記受光部で受光した信号に基づいて指Fが前記仮想キーポードのいずれのキーに対応する位置に位置しているかを検出し、かつ検出したキーに対応するキー入力を行うキー検出手段とを備える。仮想キーボードの各キーを押すべく指を移動位置したときに、当該指で反射された第1及び第2の発光部からの光を検出し、その検出した光が前記仮想キーボードのいずれのキーに相当するかを検出することで、仮想キーボードを用いてのキー入力を実現する。 Japanese Unexamined Patent Publication No. 2000-66818 (Patent Document 2) discloses a keyboard terminal for performing key input to an information processing apparatus. The keyboard terminal includes first and second light emitting units that emit light toward each key of the virtual keyboard in which a plurality of keys are virtually arranged, and virtual keys from the first and second light emitting units. A light receiving unit that receives reflected light from an object positioned at a position corresponding to each key of the key, and a finger F is positioned at a position corresponding to any key of the virtual keyboard based on a signal received by the light receiving unit. And key detecting means for performing key input corresponding to the detected key. When a finger is moved to press each key of the virtual keyboard, light from the first and second light emitting parts reflected by the finger is detected, and the detected light is applied to any key of the virtual keyboard. By detecting whether it corresponds, key input using a virtual keyboard is realized.
また、特開2007−108507号公報(特許文献3)には、プロジェクタ装置から投射される光をハーフミラー等により分光し、この分光された光を使用者がプロジェクタ装置近傍に保持する子スクリーンに投影する手段と、前記子スクリーンに使用者操作を受け付けて使用者の操作入力をプロジェクタ装置を介してPC等に送信する手段とを備えるプロジェクタ装置が開示されている。 Japanese Patent Laid-Open No. 2007-108507 (Patent Document 3) discloses a method in which light projected from a projector device is split by a half mirror or the like, and the split light is applied to a child screen held by a user in the vicinity of the projector device. A projector device is disclosed that includes means for projecting and means for receiving a user operation on the child screen and transmitting a user operation input to a PC or the like via the projector device.
また、特開2006−295779号公報(特許文献4)には、投射型入力表示デバイス、投射型ディスプレイ表示デバイスと投射型入力表示デバイスで投射され第1の情報が表示される入力表示エリアに出現する障害物を検出する入力決定デバイスを有する第1の筐体と、第1の筐体と開閉可能に接続される第2の筐体とを備える携帯情報機器が開示されている。携帯情報機器は、投射型入力表示デバイスにより投射される第1の情報を表示する入力表示エリアと投射型ディスプレイ表示デバイスで投射された第2の情報を表示するディスプレイ表示エリアを、第1の筐体と第2の筐体との開閉角度により任意の位置に設定できる構成を有するものである。 Japanese Patent Application Laid-Open No. 2006-29579 (Patent Document 4) appears in an input display area that is projected by a projection-type input display device, a projection-type display display device, and a projection-type input display device and displays first information. A portable information device including a first housing having an input determination device for detecting an obstacle to be opened and a second housing connected to the first housing so as to be opened and closed is disclosed. The portable information device includes an input display area for displaying first information projected by the projection type input display device and a display display area for displaying second information projected by the projection type display display device. It has the structure which can be set to arbitrary positions with the opening-and-closing angle of a body and a 2nd housing | casing.
また、特開2005−38422号公報(特許文献5)には、プロジェクタからある表面上に、使用者入力表示を投影するコンピュータ・デバイスが開示されている。また、コンピュータ・デバイスのプロジェクタからある表面上に、使用者出力表示が投影される。この使用者入力表示と使用者出力表示は、同一プロジェクタから投影できる。使用者入力表示と使用者出力表示は、別々の面に投影されてもよい。また、ミラー・システムを用いて、単一の投影画像が分割され方向付けが施される。 Japanese Patent Laying-Open No. 2005-38422 (Patent Document 5) discloses a computer device that projects a user input display on a surface from a projector. A user output display is projected onto a surface from the projector of the computer device. This user input display and user output display can be projected from the same projector. The user input display and the user output display may be projected on different surfaces. Also, a single projection image is divided and oriented using a mirror system.
また、特開平8−76923号公報(特許文献6)には、表示面の表示領域に画像を表示し光源からの光がその表示面を透過するように配される透過型プロジェクタに表示一体型タブレットを用い、これに付属した入力ペン先端の座標位置を検出し、表示領域内に処理領域を設定しこの処理領域内を入力ペンでポインティングできるようにし、また光源からの光の一部を散乱させる散乱シートを前記処理領域の直下に配置し、この散乱シートによって光源からの光が処理領域で散乱されて操作者側位置からは処理領域が目視できるがスクリーン上にはその処理領域が表示されなくする投射表示装置が開示されている。 Japanese Patent Laid-Open No. 8-76923 (Patent Document 6) discloses a display integrated type in a transmissive projector in which an image is displayed on a display area of a display surface and light from a light source is transmitted through the display surface. Use the tablet to detect the coordinate position of the tip of the input pen attached to it, set the processing area in the display area, enable the input pen to point in the processing area, and scatter part of the light from the light source The scattering sheet is arranged immediately below the processing area, and the light from the light source is scattered by the processing area by the scattering sheet so that the processing area can be seen from the operator side position, but the processing area is displayed on the screen. A projection display device to be eliminated is disclosed.
また、特開平8−328695号公報(特許文献7)には、表示切り替えキーによりディスプレイ画面表示と、投影表示の切り替えや同時表示を可能とした投影表示機能付き電子機器が開示されている。表示部を取外すことにより、表示部が邪魔とならず投影表示を表示することができる。
しかしながら、上記の従来技術においては、使用者が所望するポイントを指し示すために、プロジェクタに複雑で高価なバーチャルタッチセンサを設けるか、プロジェクタとは別に他の装置すなわちレーザポインタや他の情報機器を準備する必要があった。 However, in the above prior art, in order to indicate a point desired by the user, a complicated and expensive virtual touch sensor is provided in the projector, or another device, that is, a laser pointer or other information device is prepared separately from the projector. There was a need to do.
本発明は前記問題点を解決するためになされたものであって、本発明の主たる目的は、簡易なバーチャルタッチセンサを備えるプロジェクタを提供することである。 The present invention has been made to solve the above problems, and a main object of the present invention is to provide a projector including a simple virtual touch sensor.
上記の課題を解決するために、この発明の第1の局面に従うプロジェクタは、入力される画像信号に応じてレーザ光を供給するレーザ光源と、レーザ光を走査する走査部と、外部障害物にて反射されたレーザ光の反射光を受光する受光センサと、受光した反射光に基づいて、外部障害物の位置情報を算出する算出手段とを備え、画像信号は、垂直同期信号と水平同期信号とを含み、受光センサは、受光される反射光の垂直方向における受光高さを取得し、算出手段は、反射光の垂直方向における受光高さと、反射光に対応するレーザ光の垂直同期信号と水平同期信号とに基づいて、位置情報を算出する。 In order to solve the above-described problem, a projector according to a first aspect of the present invention provides a laser light source that supplies a laser beam according to an input image signal, a scanning unit that scans the laser beam, and an external obstacle. A light receiving sensor for receiving the reflected light of the reflected laser light, and a calculating means for calculating the position information of the external obstacle based on the received reflected light, and the image signal includes a vertical synchronizing signal and a horizontal synchronizing signal. And the light receiving sensor obtains the light receiving height in the vertical direction of the reflected light received, and the calculating means includes the light receiving height in the vertical direction of the reflected light and the vertical synchronization signal of the laser light corresponding to the reflected light. Position information is calculated based on the horizontal synchronization signal.
この発明の第2の局面に従うプロジェクタは、入力される画像信号に応じてレーザ光を供給するレーザ光源と、レーザ光を走査する走査部と、外部障害物にて反射されたレーザ光の反射光を受光する受光センサと、受光した反射光に基づいて、外部障害物の位置情報と、当該位置の経時変化情報とを算出する算出手段と、算出された位置情報と経時変化情報とに基づいて、プロジェクタへの入力命令を生成する生成手段とを備え、画像信号は、垂直同期信号と水平同期信号とを含み、受光センサは、受光される反射光の垂直方向における受光高さを取得し、算出手段は、反射光の垂直方向における受光高さと、反射光に対応するレーザ光の垂直同期信号と水平同期信号とに基づいて、位置情報を算出する。 A projector according to a second aspect of the present invention includes a laser light source that supplies laser light according to an input image signal, a scanning unit that scans the laser light, and reflected light of the laser light reflected by an external obstacle. Based on the received light sensor, the calculation means for calculating the position information of the external obstacle and the temporal change information of the position based on the received reflected light, and the calculated position information and the temporal change information The image signal includes a vertical synchronizing signal and a horizontal synchronizing signal, and the light receiving sensor obtains a light receiving height in the vertical direction of the received reflected light, and The calculation means calculates the position information based on the light reception height in the vertical direction of the reflected light and the vertical synchronization signal and horizontal synchronization signal of the laser light corresponding to the reflected light.
この発明の第3の局面に従うプロジェクタは、入力される画像信号に応じてレーザ光を供給するレーザ光源と、レーザ光を走査する走査部と、外部障害物にて反射されたレーザ光の反射光を受光する受光センサと、受光した反射光に基づいて、外部障害物の位置情報を算出する算出手段とを備え、画像信号は、垂直同期信号を含み、受光センサは、受光される反射光の水平方向および垂直方向における受光位置を取得し、算出手段は、反射光の水平方向および垂直方向における受光位置と、反射光に対応するレーザ光の垂直同期信号とに基づいて、前記位置情報を算出する。 A projector according to a third aspect of the present invention includes a laser light source that supplies laser light according to an input image signal, a scanning unit that scans the laser light, and reflected light of the laser light reflected by an external obstacle. And a calculating means for calculating the position information of the external obstacle based on the received reflected light, the image signal includes a vertical synchronization signal, and the light receiving sensor is configured to receive the received reflected light. The light receiving position in the horizontal direction and the vertical direction is acquired, and the calculation means calculates the position information based on the light receiving position in the horizontal direction and the vertical direction of the reflected light and the vertical synchronization signal of the laser light corresponding to the reflected light. To do.
この発明の第4の局面に従うプロジェクタは、入力される画像信号に応じてレーザ光を供給するレーザ光源と、レーザ光を走査する走査部と、外部障害物にて反射されたレーザ光の反射光を受光する受光センサと、受光した反射光に基づいて、外部障害物の位置情報と、当該位置の経時変化情報とを算出する算出手段と、算出された位置情報と経時変化情報とに基づいて、プロジェクタへの入力命令を生成する生成手段とを備え、画像信号は、垂直同期信号を含み、受光センサは、受光される反射光の水平方向および垂直方向における受光位置を取得し、算出手段は、反射光の水平方向および垂直方向における受光位置と、反射光に対応するレーザ光の垂直同期信号とに基づいて、位置情報を算出する。 A projector according to a fourth aspect of the present invention includes a laser light source that supplies laser light according to an input image signal, a scanning unit that scans the laser light, and reflected light of the laser light reflected by an external obstacle. Based on the received light sensor, the calculation means for calculating the position information of the external obstacle and the temporal change information of the position based on the received reflected light, and the calculated position information and the temporal change information A generation means for generating an input command to the projector, the image signal includes a vertical synchronization signal, the light receiving sensor obtains a light receiving position in the horizontal direction and the vertical direction of the received reflected light, and the calculating means includes The position information is calculated based on the light receiving position of the reflected light in the horizontal and vertical directions and the vertical synchronization signal of the laser light corresponding to the reflected light.
上記第1または第3の局面に従うプロジェクタにおいて、好ましくは、走査されたレーザ光を第1の方向と第2の方向とに分割して出力するビームスプリッタをさらに備え、画像信号は、第1の画像信号と、第2の画像信号とを含み、ビームスプリッタは、走査されたレーザ光の光路の一部に配置されて、第1の画像信号に対応するレーザ光のみを第1の方向と第2の方向とに分割して出力する。 In the projector according to the first or third aspect, preferably, the projector further includes a beam splitter that divides the scanned laser light into a first direction and a second direction and outputs the first laser beam. The beam splitter includes an image signal and a second image signal, and the beam splitter is arranged in a part of the optical path of the scanned laser beam, and only the laser beam corresponding to the first image signal is transmitted in the first direction and the first direction. The output is divided into two directions.
以上のように、この発明によれば、簡易なバーチャルタッチセンサを備えるプロジェクタが実現できる。 As described above, according to the present invention, a projector including a simple virtual touch sensor can be realized.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
[使用態様]
図1を参照して、本発明に係るプロジェクタの使用態様について説明する。図1は、プロジェクタの一態様であるレーザプロジェクタ100の設置された状態を表わす図である。プロジェクタ100は、たとえば携帯可能な大きさのモバイル型のプロジェクタであってもよいし、据付型のプロジェクタであってもよい。
[Usage]
With reference to FIG. 1, a usage mode of the projector according to the present invention will be described. FIG. 1 is a diagram illustrating a state in which a
プロジェクタ100は、たとえばテーブル120上に配置されて使用される。プロジェクタ100は、スクリーン130(たとえば垂直な壁など)に向けてプレゼンテーション用(表示用)の画像132Aを投影している。また、プロジェクタ100は、テーブル120の上面に対して、プロジェクタ100の使用者が参照できるように、プレゼンテーション用の画像132Aと同様の使用者が参照するための(入力用の)画像122Aを投影している。画像122Aの大きさは、通常は、画像132Aの大きさよりも小さい。
The
そして、本実施の形態に係るプロジェクタ100は、CCD(Charge Coupled Device)センサ110、あるいは集光レンズ(自由曲面レンズ111)および1次元CMOS(Complementary Metal Oxide Semiconductor)アレイセンサ112を備える。より詳細には、本実施の形態に係るプロジェクタは、使用者が参照するための(入力用の)画像122Aには、使用者が画像などの編集を行うための画像122Fも含まれている。
The
[ハードウェア構成]
次に、図2を参照して、プロジェクタ200の一例であるプロジェクタ100の具体的な構成について説明する。図2は、レーザプロジェクタ100のハードウェア構成を表わすブロック図である。
[Hardware configuration]
Next, a specific configuration of
プロジェクタ100は、フロントエンド用FPGA(Field Programmable Gate Array)310と、デジタル信号プロセッサ320と、操作パネル330と、バックエンドブロック340と、SDRAM(Synchronous Dynamic Random Access Memory)344と、ビデオRAM345と、3波長レーザ光源350と、を含む。
The
フロントエンド用FPGA310は、データ/階調変換器314と、タイミングコントローラ311と、データコントローラ312と、ビットデータ変換器313とを含む。デジタル信号プロセッサ320は、ミラーサーボブロック321と、変換器322とを含む。
The front-
3波長レーザ光源350は、レーザ制御回路351,352,353と、緑色のLD(Laser Diode)361と、赤青LD362と、偏光ビームスプリッタ363と、検出器370と、ガルバノミラー372と、アクチュエータ373とを含む光学系である。本実施の形態に係る赤青LD362は、赤色のLDと青色のLDとが一体として構成されているが、別個に構成されているものでもよい。
The three-wavelength
操作パネル330は、プロジェクタ100の筐体の表面あるいは側面に設けられる。操作パネル330は、たとえば、操作内容を表示するディスプレイ装置(図示しない)と、プロジェクタ100に対する操作入力を受け付けるスイッチ(たとえばプラス・マイナスボタン)とを含む。操作パネル330は、操作を受け付けると、当該操作に応じた信号をバックエンドブロック340のCPU341に送出する。
The
プロジェクタ100の外部から与えられた画像信号は、ビデオインターフェイス342に入力される。また、ある局面において、プロジェクタ100は、外部インターフェイス343を備える。外部インターフェイス343は、たとえばSDカード380の装着を受け付ける。外部インターフェイス343は、SDカード380からデータを読み出し、そのデータは、SDRAM344あるいはビデオRAM345に格納される。
An image signal given from the outside of the
CPU341は、操作パネル330に対して与えられた操作入力に基づいて、ビデオインターフェイス342、外部インターフェイス343を介してプロジェクタ100に入力された信号に基づく映像の投影を制御する。より詳しくは、CPU341は、フロントエンド用FPGA310のタイミングコントローラ311と相互に通信することにより、ビデオRAM345に一時的に保持されている画像データに基づく映像の表示を制御する。
The
フロントエンド用FPGA310において、タイミングコントローラ311は、CPU341から送られる指令に基づいてデータコントローラ312を介してビデオRAM345に保持されているデータを読み出す。データコントローラ312は、その読み出したデータをビットデータ変換器313に送出する。ビットデータ変換器313は、タイミングコントローラ311からの命令に基づいて、そのデータをデータ/階調変換器314に送出する。ビットデータ変換器313は、外部から与えられた画像データを、レーザ発光によって投影するための形式に適合したデータに変換する。
In the front-
データ/階調変換器314は、ビットデータ変換器313から出力されたデータを、G(green)、R(Red)、B(Blue)の3色として表示するための色の階調に変換し、変換後のデータを、レーザ制御回路351,352,353にそれぞれ送出する。
The data / gradation converter 314 converts the data output from the
一方、タイミングコントローラ311は、デジタル信号プロセッサ320との間で二軸ガルバノミラー372の駆動を制御する。より具体的には、タイミングコントローラ311は、ミラーサーボブロック321に命令を送出して、アクチュエータ373を駆動する。アクチュエータ373は、その命令に従って、二軸ガルバノミラー372の位置および傾きを変更する。すなわち、タイミングコントローラ311は、ミラーサーボブロック321を介してアクチュエータ373に信号を送り、当該信号に基づいてアクチュエータ373がガルバノミラー372の方向を変更することによって、3波長レーザ光源350は3波長レーザ光を走査する。
On the other hand, the
また、変換器322は、タイミングコントローラ311から送られる信号に基づいて、CCDセンサ110(もしくは1次元CMOSアレイセンサ112)から送られる信号をA/D(Analog to Digital)変換し、変換後のデジタルデータをCPU341に送出する。たとえば、CCDセンサ110がその撮影可能な範囲にある被写体を撮影すると、その被写体の画像信号は、CPU341に送られる。CPU341は、CCDセンサ110によって撮影された画像を表示する設定が有効である場合には、そのデータに基づく画像を表示するようにタイミングコントローラ311に命令を送信する。
The
また、変換器322は、ミラーサーボブロック321から送られる信号を、CPU341に伝送する。たとえば、変換器322は、アクチュエータ373に対して与えられている命令と、アクチュエータ373の状態とを含む信号を生成し、その信号をCPU341に送出する。
The
レーザ制御回路351は、データ/階調変換器314から送られる信号に基づいて緑LD361の駆動を制御する。同様に、レーザ制御回路352,353は、データ/階調変換器314から送られる命令に従って、赤LDと青LDとのそれぞれを制御する。緑LD361、赤青LD362は、それぞれ当該制御に応じてレーザ光を発する。
The
偏光ビームスプリッタ363は、緑LD361から発せられるレーザ光の光路上に配置されている。偏光ビームスプリッタ363は、緑LD361を透過する。また、偏光ビームスプリッタ363は、赤青LD362を一部透過し、一部反射する。検出器370は、赤青LD362から発せられる各レーザ光の光路上に配置されている。偏光ビームスプリッタ363を透過した各レーザ光は、レンズ371を介して一定範囲に集められ、二軸ガルバノミラー372によって反射される。その反射光は、プロジェクタ100の外部に投影される。このとき、二軸ガルバノミラー372がアクチュエータ373の駆動によってその傾きを変更することによって、当該反射光が走査されながら3波長レーザ光源350から外部へ照射される。
The
図3を参照して、ガルバノミラー372にて反射された後の3波長レーザ光の光学系について説明する。図3は、ガルバノミラー372にて反射された後の3波長レーザ光の光学系を示すイメージ図である。3波長レーザ光源350のガルバノミラー372によって、走査されながら照射された3波長レーザ光は、コリメートレンズ381を通過して平行光となる。その後、3波長レーザ光は、空間光変調器382にて変調されて、ビームスプリッタ383へと照射される。
With reference to FIG. 3, the optical system of the three-wavelength laser light after being reflected by the
ビームスプリッタ383は、3波長レーザ光の光路上の一部に配置されている。これによって、3波長レーザ光のうちビームスプリッタ383に照射されたレーザのみが、ビームスプリッタ383にて反射(屈折)してスクリーン130方向へ投影される。3波長レーザ光のうちビームスプリッタ383が配置されていない光路上を通過するレーザは、ビームスプリッタ383にて反射(屈折)せずにテーブル120方向へ投影される。
The
つまり、ビームスプリッタ383は、空間光変調器382を透過したレーザの一部分のみを反射させることによって分割するように配置されている。当該レーザの一部分が、プレゼンテーション用の画像132Aを表示するためのレーザである。換言すれば、CPU341は、プレゼンテーション用の画像132Aとしてスクリーン130に照射したい領域のみがビームスプリッタ383にて反射されるように、フロントエンド用FPGA310や3波長レーザ光源350などを制御する。
That is, the
そして、ビームスプリッタ383のスクリーン130方向の下流側には、3波長レーザ光を拡散してスクリーン130に照射するための拡大レンズ384が配置されている。一方、ビームスプリッタ383のテーブル120方向の下流側にも、3波長レーザ光を拡散してテーブル120に照射するための拡大レンズ385が配置されている。これによって、ビームスプリッタ382にて反射されることによって分割された、3波長レーザ光源350からのレーザの一部分が、拡大レンズ384を通過する。そして、3波長レーザ光源350からのレーザの一部分が、プロジェクタ100からスクリーン130へと射出される。
A magnifying
一方、ビームスプリッタ383を透過した3波長レーザ光は、ビームスプリッタ383を透過しなかった3波長レーザ光とともに、拡大レンズ385を通過して、図示しないミラーやレンズ(たとえば、図5および図7におけるレンズ386)を介してテーブル120などに照射される。ビームスプリッタ383を透過した3波長レーザ光と、ビームスプリッタ383を透過しなかった3波長レーザ光とは、使用者が参照するための画像122Aを表示するものである。そして、ビームスプリッタ383を透過した3波長レーザ光は、スクリーン130に投影される画像132Aと同様の画像を表示するものである。
On the other hand, the three-wavelength laser light that has passed through the
一方、ビームスプリッタ383を透過しなかった3波長レーザ光は、スクリーン130に投影されるプレゼンテーション用の画像132Aには表れない画像を表示するものであって、使用者が画像などの編集を行うための専用画像122Fを表示するものとなる。使用者が参照するための専用画像122Fには、たとえば現在投影中の画像132Aに対応するコメントなどを入れておくことが可能である。これによって、画像132Aの表示中に使用者のみが専用画像122Fを参照することが可能になる。つまり、使用者が、画像132Aの表示中に話すべきコメントなどを覚えていなくても、スムーズにプレゼンテーションを進めることが可能になる。
On the other hand, the three-wavelength laser light that has not passed through the
[機能構成]
図4を参照して、本発明に係るプロジェクタ200の機能構成について説明する。図4は、プロジェクタ200が備える機能の構成を表わすブロック図である。プロジェクタ200は、レーザ光源(361,362)と、走査部(372)と、ビームスプリッタ383と、受光センサ(110,112)と、算出部(341−1)と、表示制御部(341−2)と、生成部(341−3)とを含む。
[Function configuration]
With reference to FIG. 4, a functional configuration of projector 200 according to the present invention will be described. FIG. 4 is a block diagram illustrating a configuration of functions included in projector 200. The projector 200 includes a laser light source (361, 362), a scanning unit (372), a
レーザ光源は、たとえば、緑色LD361と、赤青LD362と、から実現されるものであって、CPU341に入力される画像信号に応じてレーザ光を供給する。
The laser light source is realized by, for example, a
走査部は、たとえば、ガルバノミラー372によって実現されるものであって、3波長レーザ光を走査してスクリーンへと照射する。
The scanning unit is realized by, for example, a
ビームスプリッタ383は、走査されたレーザ光を第1の方向と第2の方向とに分割して出力する。詳しくは、ビームスプリッタ383は走査されたレーザ光の光路の一部に配置されて、前記第1の画像信号に対応するレーザ光のみを前記第1の方向と第2の方向とに分割して出力する。
The
受光センサは、CCDセンサ110や1次元CMOSアレイセンサ112によって実現されるものであって、第1の方向に投影された第1のレーザ光Aのうち外部障害物10にて反射された反射光Bを受光する。詳しくは、受光センサは、たとえばCCDセンサ110によって実現されて、受光される反射光Bの水平方向および垂直方向における受光位置(受光方向)を取得する。もしくは、受光センサは、たとえば1次元CMOSアレイセンサ112によって実現されて、受光される反射光Bの垂直方向における受光高さ(受光方向の垂直成分)を取得する。
The light receiving sensor is realized by the
算出部341−1や表示制御部341−2や生成部341−3は、たとえばCPU341によってSDRAM344に記憶されている制御プログラムが読み出されて、CPU341によって当該プログラムが実行されることによって実現されるものである。
The calculation unit 341-1, the display control unit 341-2, and the generation unit 341-3 are realized by, for example, reading a control program stored in the
算出部341−1は、受光センサにて受光した反射光Bに基づいて、外部障害物10の位置情報を算出する。また、算出部341−1は、受光した反射光Bに基づいて、外部障害物10の位置情報と、当該位置の経時変化情報とを算出する。詳しくは、算出部341−1は、反射光Bの入射方向(入射ベクトル)と3波長レーザ光Aの出射方向(出射ベクトル)とから、当該方向(ベクトル)が交わる位置を算出し、当該位置に外部障害物10が存在することを把握する。そして、算出部341−1は、外部障害物10の最下端位置を算出して、当該最下端位置の時間的な変化(たとえば最下端位置の移動方向など)を把握する。
The calculation unit 341-1 calculates the position information of the
より詳しくは、算出部341−1は、CCDセンサ110から送られる反射光Bの水平方向および垂直方向における受光位置(受光方向)と、反射光Bに対応する第1のレーザ光の垂直同期信号とに基づいて、外部障害物10の位置情報を算出する。つまり、算出部341−1は、垂直同期信号を取得することによって出射光Aの高さを確定することができるので、反射光Bの経路(ベクトル)中の当該高さに該当する位置を、外部障害物10の表面として認識することができる。
More specifically, the calculation unit 341-1 receives the reflected light B transmitted from the
もしくは、算出部341−1は、1次元CMOSアレイセンサ112から送られる反射光Bの垂直方向における受光高さ(受光方向の垂直成分)と、反射光Bに対応する第1のレーザ光の垂直同期信号と水平同期信号とに基づいて、外部障害物10の位置情報を算出する。つまり、算出部341−1は、垂直同期信号と水平同期信号とを取得することによて、出射光Aの方向を確定することができるので、出射光Aの経路(ベクトル)中の反射光Bの受光高さ(受光方向の垂直成分)に該当する位置を、外部障害物10の表面として認識することができる。
Alternatively, the calculation unit 341-1 receives light in the vertical direction of the reflected light B transmitted from the one-dimensional CMOS array sensor 112 (vertical component in the light receiving direction) and the vertical of the first laser light corresponding to the reflected light B. Based on the synchronization signal and the horizontal synchronization signal, position information of the
表示制御部341−2は、算出された位置情報に基づき、レーザ光源と走査部とを介して、第2の方向に投影された第2のレーザ光にて表わされる第2の画像中の外部障害物10の位置に対応する位置にポインタを表示させる。
The display control unit 341-2 is based on the calculated position information, and externally in the second image represented by the second laser light projected in the second direction via the laser light source and the scanning unit. A pointer is displayed at a position corresponding to the position of the
生成部341−3は、算出された外部障害物10の(最下端の)位置情報と、外部障害物10の(最下端の)位置の経時変化情報とに基づいて、プロジェクタ(CPU342)への入力命令を生成する。たとえば、生成部341−3は、算出部341−1が算出した位置情報から、外部障害物10がテーブル120に照射されている専用画像122Fの一部に接触した後、外部障害物10が持ち上げられたことを認識する。そして、生成部341−1は、当該認識結果に基づいて、外部障害物10の当該動作に対応するコマンドを生成して、当該コマンドを他のアプリケーションなどに渡す。
The generation unit 341-3 supplies the projector (CPU 342) to the projector (CPU 342) based on the calculated position information of the external obstacle 10 (at the bottom end) and the time-dependent change information of the position of the external obstacle 10 (at the bottom end). Generate input instructions. For example, the generation unit 341-3 lifts the
[位置特定方法]
以下では、図2を参照しながら、本実施の形態に係るプロジェクタ100による障害物の位置特定処理について詳細に説明する。3波長レーザ光源350から照射されたレーザ光は、レーザ光自体が一画素分に相当するものである。アクチュエータ373とガルバノミラー372とが、当該レーザ光を水平方向および垂直方向へと高速にスキャニングすることによって(画面を走査することによって)、スクリーン130上およびテーブル120上に画像を形成している。
[Positioning method]
Hereinafter, the obstacle position specifying process by the
そして、プロジェクタ100の下部の後面には、CCDセンサ110が設けられている。当該CCDセンサ110は、受光した反射光Bに基づいて受光素子にて生成される信号を変換器322へと出力し、変換器322は当該信号をA/D変換してデジタル信号をCPU341へと出力する。これによって、プロジェクタ100は、使用者側の画像122A上に進入してきた外部障害物10、より詳細には、画像122Aを形成するための3波長レーザ光A(第1のレーザ光)の光路上に進入してきた外部障害物10を検知することが可能になる。
A
図5は、プロジェクタ100から照射されるレーザ光AやCCDセンサ110にて受光される反射光Bを示すイメージ図である。図6は、CCDセンサ110にて受光される反射光Bの受光画素を示すイメージ図である。図5および図6に示すように、たとえば、反射光Bを受光画素1aから受光画素1zにて受光したとする。このとき、CCDセンサ110が、スクリーン130に投影された画像132Aを形成するための3波長レーザ光と同期したセンシングを行うことによって、受光画素1aにて受光した反射光Bに対する3波長レーザ光Aが画像122Aのどの位置に対応するレーザ光であるのかを認識することができる。
FIG. 5 is an image diagram showing laser light A emitted from
このようにして、CPU341は、CCDセンサ110にて得られた反射光Bの受光位置(入射方向)と、当該反射光Bに対応する3波長レーザ光Aの照射方向とから、3波長レーザ光Aと反射光Bとの交点の3次元の位置情報を算出することができる。これによって、外部障害物10の最下点の、基準面(たとえばテーブル120)からの高さを算出することも可能である。そして、使用者が保持している外部障害物10が表示されている画像122Aにタッチしたのか、外部障害物10のペン先が空中に位置するのかを把握することも可能である。
In this way, the
CPU341が3波長レーザ光Aの水平同期信号も取得することができる場合には、外部障害物10の水平方向の位置も算出することができるため、CCDセンサ110は、1次元CMOSアレイセンサ112であってもよい。以下では、CPU341が水平同期信号を取得することによって、1次元CMOSアレイセンサ112から得られる信号に基づいて外部障害物10の位置と動き(経時変化)を算出する構成について説明する。
When the
図7は、外部障害物が無い状態の入力インターフェイス部分としてのバーチャルタッチパネルの光学系外略図である。図7に示すように、レーザプロジェクタ100から操作者側のスクリーンには、プレゼンテーション用スクリーンと同様に、x方向及びy方向に3波長レーザ光Aが走査されて、一画像122Aが生成される。また、その操作者用のスクリーンに照射された各ピクセルは自由曲面レンズ111を介して、1次元CMOSアレイセンサ112によって受光される。
FIG. 7 is a schematic diagram of an optical system of a virtual touch panel as an input interface portion in a state where there is no external obstacle. As shown in FIG. 7, the screen on the operator side from the
図8は、外部障害物が無い状態の1次元CMOSアレイセンサ112で受けた検出光のタイムシーケンスを示すイメージ図である。図8に示すように、x方向と(y+z)方向とで張られる面の一つが、水平方向(x軸方向)に一ライン走査した場合に取得されるデータを示している。このデータを順次読み込むことで、図8に示すように、CPU341は1次元CMOSアレイセンサ112を介して1フレーム分の画像データを取得する。図8においては、ドット表示された領域が、反射光Bがスクリーン像の検出データとして得られる範囲であって、当該1フレーム分の画像データが順次y方向のデータとして一ライン分ずつ得られる。
FIG. 8 is an image diagram showing a time sequence of detection light received by the one-dimensional
図9は、外部障害物が基準面に位置した状態における入力インターフェイス部分としてのバーチャルタッチパネルの光学系外略図である。すなわち、図9は、外部障害物10(ここでは棒状のペンなどとする。)を3波長レーザ光Aの投影光路上に挿入し、かつ外部障害物10が底面にタッチしている場合を示している。図9に示すように、外部障害物10によって、投影された像の一部分が、外部障害物10上で反射し、自由曲面レンズ111を介して1次元CMOSアレイセンサ112で受光される。この場合、1次元CMOSアレイセンサ112で受光されるイメージを示したのが図10となる。
FIG. 9 is a schematic diagram of the optical system of a virtual touch panel as an input interface portion in a state where an external obstacle is positioned on the reference plane. That is, FIG. 9 shows a case where the external obstacle 10 (here, a rod-shaped pen or the like) is inserted on the projection optical path of the three-wavelength laser light A and the
図10は、外部障害物が基準面に位置した状態の1次元CMOSアレイセンサで受けた検出光のタイムシーケンスを示すイメージ図である。図10に示したように、y信号のスキャンがまだはじめ(図9における画像122Aの左側の部分)のときは、障害物10にレーザ光Aがあたり、1次元CMOSアレイセンサ112上では実際の位置(基準面すなわちテーブル120にて反射した場合)より上で受光されることとなる。そして順次y方向へとスキャンが進み、スキャン動作が棒(外部障害物10)の先端部分まで達したときに、障害物10のない場合と同じ位置で反射光Bが検出されることとなる。それ以降は、障害物10の影響をうけずに反射光Bが検出されるため、図7および図8における状態と同様の反射位置にて順次受光していく。
FIG. 10 is an image diagram showing a time sequence of detection light received by the one-dimensional CMOS array sensor in a state where the external obstacle is positioned on the reference plane. As shown in FIG. 10, when the y signal scan is still in the beginning (the left portion of the
以上の構成により、外部障害物10がない場合の反射光Bの検出位置とを比較することで、外部障害物10がタッチした画像122A上のXY座標を得ることができる。
With the above configuration, the XY coordinates on the
図11は、外部障害物10が持ち上げられた状態の入力インターフェイス部分としてのバーチャルタッチパネルの光学系外略図である。すなわち、図11は、外部障害物10を投影された3波長レーザ光Aの光路上に挿入し、かつ外部障害物10は基準面(テーブル120)にタッチしておらず、宙に浮いている場合を示している。この場合、1次元CMOSアレイセンサ112にてどのように受光されたかを示したものが図12となる。
FIG. 11 is a schematic diagram of an optical system of a virtual touch panel as an input interface portion in a state where the
図12は、外部障害物が持ち上げられた状態の1次元CMOSアレイセンサで受けた検出光のタイムシーケンスを示すイメージ図である。図12に示したように、図10と同様に、y信号のスキャンがまだスタート地点のときは、障害物10にレーザ光Aがあたり、1次元CMOSアレイセンサ112上では実際の位置(基準面すなわちテーブル120にて反射した場合)より上で受光されることとなる。しかし、この場合には、障害物10が画像122Aが表示されているテーブルから宙に浮いているために、障害物10がある場合の反射光Bの検出位置と、障害物10のない場合の反射光Bの検出位置との差異が、連続的に減少してあるy座標の位置で一致するようになるのではない。
FIG. 12 is an image diagram showing a time sequence of detection light received by the one-dimensional CMOS array sensor in a state where the external obstacle is lifted. As shown in FIG. 12, as in FIG. 10, when the y signal scan is still at the start point, the laser beam A hits the
つまり、あるy座標を有する位置において、反射光Bの検出位置は複数の画素を飛ばして、障害物10のない場合の検出位置に一致するようになる。すなわち、図10に示したように、障害物10がある場合の反射光Bの検出位置と、障害物10のない場合の反射光Bの検出位置との差異を順にトレースしていくとリニアに変化するのではなく、障害物10の先端位置において非線形になる(傾きが変化する)こととなる。以上のことから、このようなy軸の位置を検出した場合は、外部障害物10が画像122Aの投影箇所にタッチしていないことを認識することができる。
In other words, at a position having a certain y coordinate, the detection position of the reflected light B coincides with the detection position when there is no
以上のように、スキャンする水平同期、垂直同期のタイミングをみながら、センサで取得する反射光Bの像を外部障害物10のない初期の場合と、現状とで比較していくことで、障害物10があるのか、また障害物10が投影面にタッチしているのかを認識することができる。
As described above, the image of the reflected light B acquired by the sensor is compared between the initial case where there is no
[経時変化情報取得処理]
図13は、上記のようにして認識した外部障害物10の位置に基づいて、当該外部障害物10の位置の経時変化情報取得処理の処理手順を示すフローチャートである。
[Aging information acquisition process]
FIG. 13 is a flowchart showing a processing procedure of the time-dependent change information acquisition processing of the position of the
CPU341は、常にCCDセンサ110(1次元CMOSアレイセンサ112)から変換器322を介して反射光Bのスキャニング結果を取得している。そして、1フレーム分のスキャンが終了する毎に、すなわち1フレーム分の画像122A,132Aの投影が完了する毎に(ステップ101にてYESの場合、以下ステップをSと略す。)、CPU341は外部障害物10の最下点の位置情報を算出する(S102)。
The
そして、当該最下点が基準面(たとえばテーブル120面)に達しているか否かを判断する(S103)。達している場合(S103にてYESの場合)、水平位置を算出する(S104)。CPU341は、当該水平位置を起動中のアプリケーションに渡し(S105)、当該フレームについての処理を終了する。達していない場合(S103にてNOの場合)、前フレームのスキャン時に最下点に達していたか否かの情報を記憶部(たとえばSDRAM344)から読み出して、前フレームのスキャン時に最下点に達していたか否かの判断を行う(S106)。
Then, it is determined whether or not the lowest point has reached a reference plane (for example, the table 120 plane) (S103). If it has been reached (YES in S103), the horizontal position is calculated (S104). The
前フレームのスキャン時に最下点に達していた場合(S106にてYESの場合)、CPU341は外部障害物10によってタッチ操作が入力されたものと判断し、当該タッチ操作に対する命令を生成して起動中のアプリケーションに渡して(S107)、当該フレームについての処理を終了する。一方、前フレームのスキャン時に最下点に達していない場合(S106にてNOの場合)、当該フレームについての処理を終了する。
If the lowest point has been reached during the scan of the previous frame (YES in S106), the
[アプリケーションへの利用態様]
以下では、CPU341が算出した外部障害物10の位置情報および位置の経時変化情報を、他のアプリケーションにおいて利用する方法について説明する。図14はビームをプリズムにより分割して、スリットを設ける事で操作者画面(専用画像122F)のみに操作用の画面を出力させた場合の具体的な設置例を示しており、たとえば画像編集アプリケーションの画面が表示されている状態を示すイメージ図である。図14に示すように、操作者側のスクリーン(テーブル120)には、プレゼンテーション用の投影画面(画像132B)と同等の画像122Fが投影され、かつその下部分には、いくつかの機能をもったアイコン(専用画像122F)が表示されているものとする。
[Usage mode for application]
Hereinafter, a method of using the position information of the
図14は、外部障害物10によって画像122A(122F)の丸印のアイコンをタッチしたときの機能を示すイメージ図である。画像122Bの位置s1のように、障害物10によって画像122Bの基準面(テーブル120)をタッチすることで、プロジェクタ100がタッチ動作を認識して、画像編集アプリケーションがマーカーモードとなる。次に、画像122Bの位置s2からs3にかけてスクリーン上をなぞることで、図にしめすように、プレゼンテーション用スクリーンでは、特定のマーク(ここでは赤いサークル)が、操作者側のスクリーンのs2からs3の位置とおなじ位置の間を移動することとなる。なお、ここでは例として示さなかったが、マーカーモードで別途、マークの種類をアイコンで用意し選択することで、プレゼンスクリーン上のマーカーのデザインを変更することができる。
FIG. 14 is an image diagram showing a function when the round icon of the
図15は、外部障害物10によって画像122Aのペンのアイコンをタッチしたときの機能を示すイメージ図である。位置t1のように、画像122A(122F)のペンのアイコン部分のスクリーン面をタッチすることで、ドローモードとなる。次に、画像122Cのt2からt3にかけてスクリーン上をなぞることで、図に示すように、プレゼンテーション用スクリーン130(画像132C)では、線画が描かれることとなる。なお、ここでは例として示さなかったが、ドローモードで別途、ペンの色・太さをアイコンで用意し選択することで、プレゼンスクリーン上でいろいろな種類の線画を描くことができる。
FIG. 15 is an image diagram showing a function when the pen icon of the
図16は、外部障害物10によって画像122Aの消しゴムのアイコン(位置u1)をタッチしたときの機能を示すイメージ図である。図16に示すように、消しゴムのアイコン部分のスクリーン面をタッチすることで、イレースモードとなる。次に操作者側のスクリーンを位置u2から位置u3にかけてジグザグになぞることで、図16に示すように、プレゼンテーション用のスクリーン130に投影される画像132Dでは、画像データの当該部分を消去することができる。なお、ここでは例として示さなかったが、イレースモードで別途、消しゴムの太さを変更するモードや、ドローモードで描いた線画のみを消すモードに切り替えることができる。
FIG. 16 is an image diagram showing a function when the eraser icon (position u1) of the
図17は、外部障害物10によって画像122A(122F)のズームのアイコンをタッチしたときの機能を示すイメージ図である。図17に示すように、画像122Eのズームのアイコン部分のスクリーン面をタッチすることで、具体的には外部障害物10によって画像122Eの位置v1をタッチすると、画像編集アプリケーションはズームモードに移行する。次に、画像122Eにおいて、位置v2と位置v3と順にタッチすることで、その2点を対角とした四角形の部分がズームアップされ、プレゼンテーション用のスクリーン130に当該ズームアップされた後の画像132Eが投影される。
FIG. 17 is an image diagram showing a function when the zoom icon of the
また、図14から図17に示すように、専用画像122Fのアイコン列の右端にあるClearのアイコンをクリックすることで、編集途中のプレゼンテーション用のスクリーン130における画像132Aをリセットすることができる。
As shown in FIGS. 14 to 17, by clicking the Clear icon at the right end of the icon row of the
以上のように、画像122Aのみの画像にアイコン画像(専用画像122F)を含めることにより、リモコン等の入力インターフェイスを使うことなく、プロジェクタ100のみを用いて投影画面を編集することができる。
As described above, by including the icon image (
[変形例]
以下、本発明の実施の形態の変形例について説明する。図18は、本実施の形態の変形例を示すプロジェクタ600の側面斜視図である。図18に示すように、本変形例に係るプロジェクタ600は、3波長レーザ光Aとは別に赤外線によって障害物の位置を特定する点において、前述の実施の形態に係るプロジェクタ100と異なる。
[Modification]
Hereinafter, modifications of the embodiment of the present invention will be described. FIG. 18 is a side perspective view of
具体的には、プロジェクタ600には、赤外線発光部601と、CCDセンサ602とを有する。そして、上記のプロジェクタ100と同様に、プロジェクタ600は、たとえばプレゼンテーション用のスクリーン130に所望の画像を投影し、当該画像をテーブル120上にも照射する。使用者は、テーブル120の画像122Aにおける、スクリーン130上において指し示したい位置に対応する位置に、使用者の指や、使用者が保持するペンを位置させることによって指示したい位置を指示する。
Specifically, the
画像が投影されている間、プロジェクタ600の赤外線発光部601は赤外線を発光する。使用者の指やペンが、テーブル120の画像122Aに位置しているとき、赤外線が当該指やペンに照射される。そして、当該指やペンにて反射された赤外線が、CCDセンサ602にて受光される。受光された赤外線から得られる情報に基づいて、プロジェクタ600のCPUは指やペン等の障害物の位置を算出し、たとえばプレゼンテーション用のスクリーン130に特定のマーク(ポインタ)を表示する。
While the image is projected, the infrared
また、特定の方法、たとえば、画面上の特定位置をクリックしたり、リモコンによって命令を送信することによって認識モードを切り替えることで、テーブル120上に投影されている画像122Aに文字やイラストをバーチャルで書いた場合、プレゼンテーション用の画像132Aにオーバーレイで文字やイラストを表示する。そして、そのような画像は、プロジェクタ600に装着されたSDカードなどのメモリに多重した像として保存され、後で印刷することができるように構成してもよい。
Also, characters and illustrations are virtually displayed on the
このような構成により、レーザプロジェクタ100,600においては、使用者がスクリーン130付近に立つ必要がなくなり、スクリーン130上にイラストやマーク等を支持することができ、その結果使用者の目にレーザが誤入射することも防止することができる。
With such a configuration, in the
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
10 外部障害物、100 レーザプロジェクタ、110,602 CCDセンサ、112 1次元CMOSアレイセンサ、120 テーブル、130 スクリーン、200 プロジェクタ、311 タイミングコントローラ、312 データコントローラ、313 ビットデータ変換器、314 階調変換器、320 デジタル信号プロセッサ、321 ミラーサーボブロック、321 ミラーサーボブロック、322 変換器、330 操作パネル、340 バックエンドブロック、342 ビデオインターフェイス、343 外部インターフェイス、350 波長レーザ光源、351,352,353 レーザ制御回路、363 偏光ビームスプリッタ、370 検出器、372 ガルバノミラー、373 アクチュエータ、381 コリメートレンズ、382 空間光変調器、383 ビームスプリッタ、600 プロジェクタ、601 赤外線発光部。 10 external obstacles, 100 laser projector, 110, 602 CCD sensor, 112 one-dimensional CMOS array sensor, 120 table, 130 screen, 200 projector, 311 timing controller, 312 data controller, 313 bit data converter, 314 gradation converter , 320 Digital signal processor, 321 mirror servo block, 321 mirror servo block, 322 converter, 330 operation panel, 340 back end block, 342 video interface, 343 external interface, 350 wavelength laser light source, 351, 352, 353 laser control circuit , 363 polarization beam splitter, 370 detector, 372 galvanometer mirror, 373 actuator, 381 collimating lens, 382 spatial light modulator, 383 beam splitter, 600 projector, 601 infrared light emitting unit.
Claims (5)
前記レーザ光を走査する走査部と、
外部障害物にて反射された前記レーザ光の反射光を受光する受光センサと、
受光した前記反射光に基づいて、外部障害物の位置情報を算出する算出手段とを備え、
前記画像信号は、垂直同期信号と水平同期信号とを含み、
前記受光センサは、受光される反射光の垂直方向における受光高さを取得し、
前記算出手段は、前記反射光の垂直方向における受光高さと、前記反射光に対応する前記レーザ光の垂直同期信号と水平同期信号とに基づいて、前記位置情報を算出する、プロジェクタ。 A laser light source for supplying laser light in accordance with an input image signal;
A scanning unit that scans the laser beam;
A light receiving sensor for receiving the reflected light of the laser beam reflected by an external obstacle;
Calculating means for calculating position information of an external obstacle based on the received reflected light;
The image signal includes a vertical synchronization signal and a horizontal synchronization signal,
The light receiving sensor obtains a light receiving height in a vertical direction of reflected light received;
The projector calculates the position information based on a light receiving height in a vertical direction of the reflected light, and a vertical synchronization signal and a horizontal synchronization signal of the laser light corresponding to the reflected light.
入力される画像信号に応じてレーザ光を供給するレーザ光源と、
前記レーザ光を走査する走査部と、
外部障害物にて反射された前記レーザ光の反射光を受光する受光センサと、
受光した前記反射光に基づいて、外部障害物の位置情報と、当該位置の経時変化情報とを算出する算出手段と、
算出された前記位置情報と前記経時変化情報とに基づいて、前記プロジェクタへの入力命令を生成する生成手段とを備え、
前記画像信号は、垂直同期信号と水平同期信号とを含み、
前記受光センサは、受光される反射光の垂直方向における受光高さを取得し、
前記算出手段は、前記反射光の垂直方向における受光高さと、前記反射光に対応する前記レーザ光の垂直同期信号と水平同期信号とに基づいて、前記位置情報を算出する、プロジェクタ。 A projector,
A laser light source for supplying laser light in accordance with an input image signal;
A scanning unit that scans the laser beam;
A light receiving sensor for receiving the reflected light of the laser beam reflected by an external obstacle;
Based on the received reflected light, the calculation means for calculating the position information of the external obstacle and the temporal change information of the position;
Generating means for generating an input command to the projector based on the calculated position information and the temporal change information;
The image signal includes a vertical synchronization signal and a horizontal synchronization signal,
The light receiving sensor obtains a light receiving height in a vertical direction of reflected light received;
The projector calculates the position information based on a light receiving height in a vertical direction of the reflected light, and a vertical synchronization signal and a horizontal synchronization signal of the laser light corresponding to the reflected light.
前記レーザ光を走査する走査部と、
外部障害物にて反射された前記レーザ光の反射光を受光する受光センサと、
受光した前記反射光に基づいて、外部障害物の位置情報を算出する算出手段とを備え、
前記画像信号は、垂直同期信号を含み、
前記受光センサは、受光される反射光の水平方向および垂直方向における受光位置を取得し、
前記算出手段は、前記反射光の水平方向および垂直方向における受光位置と、前記反射光に対応する前記レーザ光の垂直同期信号とに基づいて、前記位置情報を算出する、プロジェクタ。 A laser light source for supplying laser light in accordance with an input image signal;
A scanning unit that scans the laser beam;
A light receiving sensor for receiving the reflected light of the laser beam reflected by an external obstacle;
Calculating means for calculating position information of an external obstacle based on the received reflected light;
The image signal includes a vertical synchronization signal,
The light receiving sensor acquires a light receiving position in a horizontal direction and a vertical direction of reflected light received,
The projector calculates the position information based on a light receiving position in a horizontal direction and a vertical direction of the reflected light and a vertical synchronization signal of the laser light corresponding to the reflected light.
入力される画像信号に応じてレーザ光を供給するレーザ光源と、
前記レーザ光を走査する走査部と、
外部障害物にて反射された前記レーザ光の反射光を受光する受光センサと、
受光した前記反射光に基づいて、外部障害物の位置情報と、当該位置の経時変化情報とを算出する算出手段と、
算出された前記位置情報と前記経時変化情報とに基づいて、前記プロジェクタへの入力命令を生成する生成手段とを備え、
前記画像信号は、垂直同期信号を含み、
前記受光センサは、受光される反射光の水平方向および垂直方向における受光位置を取得し、
前記算出手段は、前記反射光の水平方向および垂直方向における受光位置と、前記反射光に対応する前記レーザ光の垂直同期信号とに基づいて、前記位置情報を算出する、プロジェクタ。 A projector,
A laser light source for supplying laser light in accordance with an input image signal;
A scanning unit that scans the laser beam;
A light receiving sensor for receiving the reflected light of the laser beam reflected by an external obstacle;
Based on the received reflected light, the calculation means for calculating the position information of the external obstacle and the temporal change information of the position;
Generating means for generating an input command to the projector based on the calculated position information and the temporal change information;
The image signal includes a vertical synchronization signal,
The light receiving sensor acquires a light receiving position in a horizontal direction and a vertical direction of reflected light received,
The projector calculates the position information based on a light receiving position in a horizontal direction and a vertical direction of the reflected light and a vertical synchronization signal of the laser light corresponding to the reflected light.
前記画像信号は、第1の画像信号と、第2の画像信号とを含み、
前記ビームスプリッタは、前記走査されたレーザ光の光路の一部に配置されて、前記第1の画像信号に対応するレーザ光のみを前記第1の方向と第2の方向とに分割して出力する、請求項1または3に記載のプロジェクタ。 A beam splitter that divides and outputs the scanned laser light in a first direction and a second direction;
The image signal includes a first image signal and a second image signal,
The beam splitter is disposed in a part of the optical path of the scanned laser beam, and outputs only the laser beam corresponding to the first image signal in the first direction and the second direction. The projector according to claim 1 or 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013034415A JP5494853B2 (en) | 2013-02-25 | 2013-02-25 | projector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013034415A JP5494853B2 (en) | 2013-02-25 | 2013-02-25 | projector |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007297021A Division JP5214223B2 (en) | 2007-11-15 | 2007-11-15 | projector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013178767A JP2013178767A (en) | 2013-09-09 |
JP5494853B2 true JP5494853B2 (en) | 2014-05-21 |
Family
ID=49270300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013034415A Expired - Fee Related JP5494853B2 (en) | 2013-02-25 | 2013-02-25 | projector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5494853B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW464800B (en) * | 1998-10-07 | 2001-11-21 | Intel Corp | A method for inputting data to an electronic device, an article comprising a medium for storing instructions, and an image processing system |
JP2003276399A (en) * | 2002-03-25 | 2003-09-30 | Matsushita Electric Ind Co Ltd | Position detecting method and device and electronic blackboard device |
JP4519624B2 (en) * | 2004-12-13 | 2010-08-04 | 富士通株式会社 | Computer |
JP4612853B2 (en) * | 2005-03-29 | 2011-01-12 | キヤノン株式会社 | Pointed position recognition device and information input device having the same |
-
2013
- 2013-02-25 JP JP2013034415A patent/JP5494853B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013178767A (en) | 2013-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5214223B2 (en) | projector | |
US7015894B2 (en) | Information input and output system, method, storage medium, and carrier wave | |
CN104981757B (en) | Flexible room controller | |
US6829372B2 (en) | Information-inputting device inputting contact point of object on recording surface as information | |
US7176881B2 (en) | Presentation system, material presenting device, and photographing device for presentation | |
JP4991079B2 (en) | Image capturing apparatus and method for selecting and capturing a desired portion of text | |
US7768505B2 (en) | Indicated position recognizing apparatus and information input apparatus having same | |
JP5710929B2 (en) | projector | |
JP5510155B2 (en) | projector | |
US20130070232A1 (en) | Projector | |
JPWO2018003861A1 (en) | Display device and control device | |
US20100123687A1 (en) | Information processing apparatus, information processing system, and computer readable medium | |
US8220936B2 (en) | Image projection apparatus with operation image generation based on distance to the projection surface, and method for controlling the same | |
JP6858352B2 (en) | Image projection device | |
JP6314688B2 (en) | Input device | |
JP5494853B2 (en) | projector | |
JP4712754B2 (en) | Information processing apparatus and information processing method | |
US20140152843A1 (en) | Overhead camera and method for controlling overhead camera | |
KR20170127842A (en) | Three dimensional scanner | |
JP2017125764A (en) | Object detection apparatus and image display device including the same | |
JPH06242884A (en) | Computer inputting device | |
JP2017004536A (en) | projector | |
JP2011113191A (en) | Information processing device and information processing system | |
JP5971368B2 (en) | projector | |
JP2018107489A (en) | Input/output device, information sharing method and information sharing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5494853 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |