JP2005181726A - Projector apparatus and method for adjusting projected image - Google Patents

Projector apparatus and method for adjusting projected image Download PDF

Info

Publication number
JP2005181726A
JP2005181726A JP2003422975A JP2003422975A JP2005181726A JP 2005181726 A JP2005181726 A JP 2005181726A JP 2003422975 A JP2003422975 A JP 2003422975A JP 2003422975 A JP2003422975 A JP 2003422975A JP 2005181726 A JP2005181726 A JP 2005181726A
Authority
JP
Japan
Prior art keywords
screen
image
edge
sensor
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003422975A
Other languages
Japanese (ja)
Inventor
Shiroshi Kanemitsu
史呂志 金光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Precision Inc
Original Assignee
Seiko Precision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Precision Inc filed Critical Seiko Precision Inc
Priority to JP2003422975A priority Critical patent/JP2005181726A/en
Publication of JP2005181726A publication Critical patent/JP2005181726A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projector apparatus capable of displaying an image over the display area of a screen with a simple configuration. <P>SOLUTION: The projector apparatus comprises a light receiving sensor 21 for receiving reflected light and outputting an electric signal corresponding to received light quantity, an operation part 22 for applying operation to an output from the light receiving sensor 21 and outputting sensor data and a control circuit 3 for controlling display by using the sensor data so that an image pattern is displayed over the display area of the screen. The control circuit 3 performs control for matching the end part 13 of the image pattern with the end part 11 of the screen 1 by comparing the position of a sensor which receives reflected light from the end part 11 of the screen 1 with the position of a sensor which receives reflected light from the end part 13 of the image pattern. Thereby an image can be displayed over the display area of the screen 1 with the simple configuration. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明はプロジェクタ装置に関し、特に画像をスクリーンの表示領域いっぱいに表示する機能(以下、オートズーム機能という)を備えたプロジェクタ装置およびこのプロジェクタ装置における投影画像調整方法に関する。   The present invention relates to a projector device, and more particularly to a projector device having a function of displaying an image in a full screen display area (hereinafter referred to as an auto zoom function) and a projected image adjustment method in the projector device.

オートズーム機能を備えたプロジェクタ装置が特許文献1に開示されている。特許文献1に開示のプロジェクタ装置は、プロジェクタ装置からスクリーンまでの距離を測定するアクティブ測距装置を備えており、この測距装置の発光素子を上下左右に移動させて、受光素子での信号入力レベルの変化を調べている。スクリーンとスクリーンの外では投射光の反射率が大きく変わるため、スクリーン端部を検出することができる。スクリーン端部を検出すると、発光素子を移動させた移動量と投射レンズの焦点距離情報とからスクリーンの大きさを演算して求めて、このスクリーンの大きさに基づいてオートズームを行っている。   A projector apparatus having an auto zoom function is disclosed in Patent Document 1. The projector device disclosed in Patent Document 1 includes an active distance measuring device that measures the distance from the projector device to the screen. The light emitting element of the distance measuring device is moved up, down, left, and right, and a signal is input to the light receiving element. Investigating changes in level. Since the reflectance of the projection light changes greatly between the screen and the screen, the edge of the screen can be detected. When the screen edge is detected, the screen size is calculated from the amount of movement of the light emitting element and the focal length information of the projection lens, and auto-zoom is performed based on the screen size.

特開平6−27431号公報JP-A-6-27431

しかしながら、発光素子を移動させるための駆動機構は、プロジェクタ装置には本来必要のない機構であり、このため装置構成が大きくなる、装置が高価になるなどの問題がある。   However, the drive mechanism for moving the light emitting element is a mechanism that is not originally required for the projector apparatus, and there is a problem that the apparatus configuration becomes large and the apparatus becomes expensive.

また、発光素子の移動量と投射レンズの焦点距離情報とからスクリーンの大きさを演算して求めなければならず、不要な演算処理が発生する。   Further, the size of the screen must be calculated from the movement amount of the light emitting element and the focal length information of the projection lens, and unnecessary calculation processing occurs.

本発明は上記事情に鑑みてなされたものであり、簡易な構成でオートズーム機能を実現することができるプロジェクタ装置および投影画像調整方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a projector device and a projection image adjustment method capable of realizing an auto zoom function with a simple configuration.

かかる目的を達成するために請求項1記載のプロジェクタ装置は、画像をスクリーンに拡大表示する画像投影手段と、複数の画素を有するセンサを備え受光量に応じたセンサデータを出力するセンサデータ出力手段と、前記スクリーン端部の反射光を受光した前記画素と、前記スクリーンに投影された前記画像の端部の反射光を受光した前記画素とを比較して、前記画像の端部を前記スクリーンの端部に合わせるように前記画像投影手段を制御する制御手段と、を有することを特徴としている。   In order to achieve the above object, the projector apparatus according to claim 1 includes an image projecting unit that enlarges and displays an image on a screen, and a sensor data output unit that includes a sensor having a plurality of pixels and outputs sensor data according to the amount of received light. And the pixel that has received the reflected light at the edge of the screen and the pixel that has received the reflected light at the edge of the image projected on the screen. And a control means for controlling the image projection means so as to match with the end portion.

請求項1記載の発明は、スクリーン端部の反射光を受光したセンサの画素と、スクリーンに投影された画像の端部の反射光を受光したセンサの画素とを比較して、画像の端部をスクリーンの端部に合わせるように画像投影手段を制御している。従って、簡単な構成でスクリーンの表示領域いっぱいに画像を表示させることができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。   According to the first aspect of the present invention, the pixel of the sensor that receives the reflected light at the edge of the screen is compared with the pixel of the sensor that receives the reflected light at the edge of the image projected on the screen. The image projecting means is controlled so that is aligned with the edge of the screen. Therefore, an image can be displayed in the entire display area of the screen with a simple configuration. In addition, since it is not necessary to calculate the screen size, the calculation process can be omitted.

請求項2記載のプロジェクタ装置は、請求項1記載のプロジェクタ装置において、前記制御手段は、前記センサの中央部から端部に向かって所定のしきい値と比較するセンサデータを選択し、最初に前記しきい値を超えたセンサデータを検出することで、前記スクリーンまたは前記パターン画像の端部の反射光を受光した前記画素を検出することを特徴としている。   According to a second aspect of the present invention, in the projector device according to the first aspect, the control means selects sensor data to be compared with a predetermined threshold value from the central portion toward the end portion of the sensor. By detecting sensor data that exceeds the threshold value, the pixel that has received reflected light at the edge of the screen or the pattern image is detected.

請求項2記載の発明は、所定のしきい値とセンサデータとの比較を、センサの中央部から端部に向けて行っている。センサの中央部は、スクリーンまたは画像の反射光、特に白色に対応する反射光を受光していることになるのでセンサデータの値が略一定となり、スクリーン端部および画像端部のセンサデータの判定が容易になる。   According to the second aspect of the present invention, the comparison between the predetermined threshold value and the sensor data is performed from the center to the end of the sensor. Since the central part of the sensor receives reflected light from the screen or image, particularly reflected light corresponding to white, the sensor data value is substantially constant, and the sensor data at the screen edge and the image edge are judged. Becomes easier.

請求項3記載のプロジェクタ装置は、請求項1又は2記載のプロジェクタ装置において、前記制御手段は、前記画像の端部が前記スクリーンの端部よりも外側にあると判定した場合には、前記画像を縮小する方向に前記画像投影手段を駆動して、前記画像を前記スクリーン内に納め、前記画像を拡大させながら前記画像の端部を前記スクリーンの端部に合わせることを特徴としている。   According to a third aspect of the present invention, in the projector device according to the first or second aspect, when the control means determines that the end of the image is outside the end of the screen, the image The image projecting means is driven in a direction to reduce the image, the image is stored in the screen, and the end of the image is aligned with the end of the screen while enlarging the image.

請求項3記載の発明は、画像の端部がスクリーンの端部よりも外側にあると判定した場合に、画像を縮小してスクリーン内に納め、画像を拡大させながら画像の端部をスクリーンの端部に合わせている。スクリーン外のセンサデータの値は、スクリーンの配置状況によって変わってしまうため、画像を縮小させる方向でスクリーンと画像の端部を合わせることは難しい。そこで、一端画像がスクリーンよりも小さく投影される状態に縮小しておき、画像を拡大させながらスクリーン端部に合わせることで、画像のサイズをスクリーンサイズに精度よく合わせることができる。   According to the third aspect of the present invention, when it is determined that the edge of the image is outside the edge of the screen, the image is reduced and stored in the screen, and the edge of the image is enlarged while the image is enlarged. Aligned with the edge. Since the value of sensor data outside the screen changes depending on the arrangement state of the screen, it is difficult to match the screen and the edge of the image in the direction of reducing the image. Therefore, the size of the image can be accurately adjusted to the screen size by reducing the size of the image so that the image is projected smaller than the screen and adjusting the image to the screen edge while enlarging the image.

請求項4記載のプロジェクタ装置は、請求項1から3のいずれか一項記載のプロジェクタ装置において、前記画像は、白色画像の端部が黒色になっていることを特徴としている。   A projector device according to a fourth aspect is the projector device according to any one of the first to third aspects, wherein an edge of a white image is black in the image.

請求項4記載の発明は、画像が白色画像の端部を黒色にした画像としている。従って、白色画像と端部の黒色画像とでセンサデータの値に差ができるため、画像の端部の判定が容易になる。   In the invention described in claim 4, the image is an image in which the edge of the white image is black. Accordingly, since the sensor data value can be different between the white image and the black image at the end, it is easy to determine the end of the image.

請求項5記載のプロジェクタ装置は、請求項1から4のいずれか一項記載のプロジェクタ装置において、前記スクリーンの端部は、黒色に形成されていることを特徴としている。   A projector device according to a fifth aspect is the projector device according to any one of the first to fourth aspects, wherein an end portion of the screen is formed in black.

請求項5記載の発明は、スクリーンの端部を黒色に形成している。従って、スクリーンの表示領域と端部とでセンサデータの値に差ができるため、スクリーン端部の判定が容易となる。   In the invention described in claim 5, the end of the screen is formed in black. Accordingly, since the sensor data value can be different between the display area and the edge of the screen, it is easy to determine the edge of the screen.

請求項6記載の投影画像調整方法は、スクリーンの反射光を複数の画素を有するセンサで受光して、反射光量に応じたセンサデータを出力する第1センサデータ出力工程と、前記センサからのセンサデータにより、前記スクリーン端部の反射光を受光した前記画素を特定するスクリーン端部位置特定工程と、前記スクリーンに画像を投影する画像投影工程と、前記画像のスクリーンでの反射光を前記センサで受光して、反射光量に応じたセンサデータを出力する第2センサデータ出力工程と、前記センサからのセンサデータにより、前記スクリーンに投影された前記画像の端部の反射光を受光した前記画素を特定する画像端部特定工程と、前記スクリーン端部の反射光を受光した前記画素と、前記スクリーンに投影された画像の端部の反射光を受光した前記画素とを比較して、前記画像の端部を前記スクリーンの端部に合わせる画像調整工程と、を有することを特徴としている。   The projected image adjustment method according to claim 6, wherein a reflected light of the screen is received by a sensor having a plurality of pixels, and a sensor data output step of outputting sensor data corresponding to the amount of reflected light, and a sensor from the sensor Based on the data, a screen end position specifying step for specifying the pixel that has received reflected light from the screen end portion, an image projecting step for projecting an image on the screen, and reflected light on the screen of the image by the sensor. A second sensor data output step for receiving sensor light and outputting sensor data corresponding to the amount of reflected light; and the pixel that has received reflected light at the edge of the image projected on the screen by sensor data from the sensor. The image edge specifying step for specifying, the pixel receiving the reflected light at the screen edge, and the reflected light at the edge of the image projected on the screen By comparing the pixel that has received, it is characterized by having an image adjustment step of bringing the end portion of the screen end of the image.

請求項6記載の発明は、スクリーン端部の反射光を受光したセンサの画素と、スクリーンに投影された画像の端部の反射光を受光したセンサの画素とを比較して、画像の端部をスクリーンの端部に合わせている。従って、簡単な手順でスクリーンの表示領域いっぱいに画像を表示させることができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。   The invention according to claim 6 compares the pixel of the sensor that has received the reflected light at the edge of the screen with the pixel of the sensor that has received the reflected light at the edge of the image projected on the screen. Is aligned with the edge of the screen. Therefore, an image can be displayed in the entire display area of the screen by a simple procedure. In addition, since it is not necessary to calculate the screen size, the calculation process can be omitted.

請求項7記載の投影画像調整方法は、請求項6記載の投影画像調整方法において、前記センサの中央部から端部に向かって所定のしきい値と比較するセンサデータを選択し、最初に前記しきい値を超えたセンサデータを検出することで、前記スクリーンまたは前記パターン画像の端部の反射光を受光した前記画素を検出することを特徴としている。   The projection image adjustment method according to claim 7 is the projection image adjustment method according to claim 6, wherein sensor data to be compared with a predetermined threshold value is selected from the center to the end of the sensor, By detecting sensor data that exceeds a threshold value, the pixel that has received reflected light at the edge of the screen or the pattern image is detected.

請求項7記載の発明は、所定のしきい値とセンサデータとの比較を、センサの中央部から端部に向けて行っている。センサの中央部は、スクリーンまたは画像の反射光、特に白色に対応する反射光を受光していることになるのでセンサデータの値が略一定となり、スクリーン端部および画像端部のセンサデータの判定が容易になる。   According to the seventh aspect of the present invention, the comparison between the predetermined threshold value and the sensor data is performed from the center to the end of the sensor. Since the central part of the sensor receives reflected light from the screen or image, particularly reflected light corresponding to white, the sensor data value is substantially constant, and the sensor data at the screen edge and the image edge are judged. Becomes easier.

請求項8記載の投影画像調整方法は、請求項6又は7記載の投影画像調整方法において、前記画像調整工程は、前記画像の端部が前記スクリーンの端部よりも外側にある場合には、前記画像を縮小して前記スクリーン内に納め、前記画像を拡大させながら前記画像の端部を前記スクリーンの端部に合わせることを特徴としている。   The projection image adjustment method according to claim 8 is the projection image adjustment method according to claim 6 or 7, wherein the image adjustment step is performed when the edge of the image is outside the edge of the screen. The image is reduced and stored in the screen, and the edge of the image is aligned with the edge of the screen while enlarging the image.

請求項8記載の発明は、画像の端部がスクリーンの端部よりも外側にあると判定した場合に、画像を縮小してスクリーン内に納め、画像を拡大させながら画像の端部をスクリーンの端部に合わせている。スクリーン外のセンサデータの値は、スクリーンの配置状況によって変わってしまうため、画像を縮小させる方向でスクリーンと画像の端部を合わせることは難しい。そこで、一端画像がスクリーンよりも小さく投影される状態に縮小しておき、画像を拡大させながらスクリーン端部に合わせることで、画像のサイズをスクリーンサイズに精度よく合わせることができる。   According to the eighth aspect of the present invention, when it is determined that the edge of the image is outside the edge of the screen, the image is reduced and stored in the screen. Aligned with the edge. Since the value of sensor data outside the screen changes depending on the arrangement state of the screen, it is difficult to match the screen and the edge of the image in the direction of reducing the image. Therefore, the size of the image can be accurately adjusted to the screen size by reducing the size of the image so that the image is projected smaller than the screen and adjusting the image to the screen edge while enlarging the image.

本発明は簡易な構成のプロジェクタ装置でスクリーンの表示領域いっぱいに画像を表示させることができる。   The present invention can display an image over the entire display area of a screen with a projector device having a simple configuration.

添付図面を参照しながら本発明の最良の実施例を説明する。   The best embodiment of the present invention will be described with reference to the accompanying drawings.

まず、図1を参照しながら本実施例のプロジェクタ装置の構成について説明する。図1に示されるように本実施例のプロジェクタ装置2は、投影レンズ光学系8によりスクリーン1上に投影された画像の反射光を受光して、投影画像の焦点位置を判定するためのコントラスト値を算出する自動焦点検出装置20と、プロジェクタ装置2からスクリーン1までの距離をスクリーン1の左右方向(水平方向)の複数ポイントで測距する第1パッシブ測距装置30と、同じくプロジェクタ装置2からスクリーン1までの距離をスクリーン1の上下方向(垂直方向)の複数ポイントで測距する第2パッシブ測距装置40と、図示しないパーソナルコンピュータ等の機器から画像を入力して、画像情報を出力する投影画像生成部5と、投影レンズ光学系8へ画像を出力する表示駆動部6と、表示駆動部6により出力された画像をスクリーン1上に投影する投影レンズ光学系8と、投影レンズ光学系8の焦点距離を変更するために、光軸に沿って投影レンズ光学系8を移動させるステッピングモータ等からなる光学系駆動部7と、プロジェクタ装置2の構成に必要なデータや命令を記憶したメモリ部4と、これら各部を制御する制御回路3とを有している。   First, the configuration of the projector apparatus according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the projector device 2 of the present embodiment receives the reflected light of the image projected on the screen 1 by the projection lens optical system 8 and determines the contrast value for determining the focal position of the projected image. An automatic focus detection device 20 that calculates the distance, a first passive distance measuring device 30 that measures the distance from the projector device 2 to the screen 1 at a plurality of points in the left-right direction (horizontal direction) of the screen 1, and the projector device 2 An image is input from a second passive distance measuring device 40 that measures the distance to the screen 1 at a plurality of points in the vertical direction (vertical direction) of the screen 1 and a device such as a personal computer (not shown) to output image information. The projection image generation unit 5, the display drive unit 6 that outputs an image to the projection lens optical system 8, and the image output by the display drive unit 6 are screened. An optical system drive unit 7 comprising a projection lens optical system 8 that projects onto the screen 1 and a stepping motor that moves the projection lens optical system 8 along the optical axis in order to change the focal length of the projection lens optical system 8 And a memory unit 4 that stores data and commands necessary for the configuration of the projector device 2, and a control circuit 3 that controls these units.

自動焦点検出装置20は、図1に示されるように投影レンズ光学系8によりスクリーン1上に投影された画像の反射光を受光する受光センサ21と、受光センサ21から出力される電気信号に演算を行い、受光量に応じたセンサデータと、画像のコントラストとを算出する演算部22とを有している。本実施例では、受光センサ21としてCCDラインセンサを適用している。   As shown in FIG. 1, the automatic focus detection device 20 receives a reflected light of an image projected on the screen 1 by the projection lens optical system 8 and calculates an electric signal output from the light receiving sensor 21. And a calculation unit 22 that calculates sensor data corresponding to the amount of received light and image contrast. In this embodiment, a CCD line sensor is applied as the light receiving sensor 21.

図2を参照しながら自動焦点検出装置20の演算部22について説明する。図2に示されるように演算部22は、受光センサ21から入力した電気信号から高周波成分を取り出す高域通過フィルタ(以下、HPFとも記載する)221と、高周波成分だけとなった輝度信号の振幅検波を行なう検波器222と、検波器222の検波出力をA/D変換し、ディジタルのセンサデータに変換するA/D変換器223と、A/D変換器223から出力されるディジタルのセンサデータを積分する積分器224と、を有している。A/D変換器223からはセンサデータが出力され、積分器224からは図3に示す画像信号のコントラストデータが出力される。   The calculation unit 22 of the automatic focus detection apparatus 20 will be described with reference to FIG. As shown in FIG. 2, the calculation unit 22 includes a high-pass filter (hereinafter also referred to as HPF) 221 that extracts a high-frequency component from the electrical signal input from the light receiving sensor 21, and the amplitude of the luminance signal that is only the high-frequency component. A detector 222 that performs detection, an A / D converter 223 that converts the detection output of the detector 222 into digital sensor data, and digital sensor data output from the A / D converter 223 And an integrator 224 for integrating. Sensor data is output from the A / D converter 223, and contrast data of the image signal shown in FIG. 3 is output from the integrator 224.

画像信号の高周波成分に現れるコントラストは、図3に示されるように、合焦位置でコントラストが最大となり、合焦位置から外れるに従ってコントラストが減少していくという特性を有している。この特性を利用して、投影レンズ光学系8により撮影される画像がスクリーン1上に像を結ぶ時の投影レンズ光学系8の位置(合焦位置)を求める(以下、この方法を山登りオートフォーカスと呼ぶ)。   As shown in FIG. 3, the contrast appearing in the high-frequency component of the image signal has a characteristic that the contrast becomes maximum at the in-focus position and decreases as the position deviates from the in-focus position. Using this characteristic, the position (focus position) of the projection lens optical system 8 when an image photographed by the projection lens optical system 8 forms an image on the screen 1 is obtained (hereinafter, this method is hill-climbed and autofocused). Called).

図4は、図1に示したプロジェクタ装置2を正面から見た構成を示した図である。プロジェクタ装置2の正面には投影レンズが設けられている。投影レンズは投影レンズ光学系(コンデンサレンズを含んでいてもよい)8に含まれ、投影レンズを介してスクリーン1上へ画像が投影される。   FIG. 4 is a diagram showing a configuration of projector device 2 shown in FIG. 1 as viewed from the front. A projection lens is provided in front of the projector device 2. The projection lens is included in a projection lens optical system (which may include a condenser lens) 8, and an image is projected onto the screen 1 through the projection lens.

図4に示されるように第1パッシブ測距装置30は、プロジェクタ装置2の正面を構成する平面上で、水平方向に基線長aだけ離間して配置された一対のレンズ31a及び31bを備えた撮像部31を有している。同様に第2パッシブ測距装置40は、図4に示されるようにプロジェクタ装置2の正面を構成する平面上で、垂直方向に基線長bだけ離間して配置された一対のレンズ41a及び41bを備えた撮像部41を有している。なお、本実施例では、図4に示されるように撮像部31の基線長aに平行する方向をプロジェクタ装置2の第1基準方向と呼ぶ。また、撮像部41の基線長bに平行する方向をプロジェクタ装置2の第2基準方向と呼ぶ。   As shown in FIG. 4, the first passive distance measuring device 30 includes a pair of lenses 31 a and 31 b that are spaced apart by a base line length a in the horizontal direction on the plane that forms the front of the projector device 2. An imaging unit 31 is provided. Similarly, the second passive distance measuring device 40 includes a pair of lenses 41a and 41b that are spaced apart by a base line length b in the vertical direction on the plane that forms the front of the projector device 2 as shown in FIG. It has an imaging unit 41 provided. In this embodiment, as shown in FIG. 4, the direction parallel to the base line length a of the imaging unit 31 is referred to as the first reference direction of the projector device 2. A direction parallel to the base line length b of the imaging unit 41 is referred to as a second reference direction of the projector device 2.

基線長aだけ離れた一対のレンズ31a,31bの下には、基線長cだけ離れた一対のラインセンサ31c,31dが設けられている。同様に基線長bだけ離れた一対のレンズ41a,41bの下には、基線長dだけ離れた一対のラインセンサ41c,41dが設けられている。図5(A)に示されるように基線長aだけ離間して配置されたレンズ31a,31b間の距離は、基線長cだけ離間して配置されたラインセンサ31c,31d間の距離よりも長くなっている。また、図示してないが、同様に基線長bだけ離間して配置されたレンズ41a,41b間の距離は、基線長dだけ離間して配置されたラインセンサ41c,41d間の距離よりも長くなっている。このため図5(B)に示されるように一対のレンズの各光軸が一対のラインセンサの各光軸よりも外側に位置するように配置されている。このように構成することで、図5(A)に示されるようにパッシブ測距装置の受光可能範囲を広くとることが可能となる。なお、図5(A)に点線で示すレンズが通常位置に配置されたレンズであり、このレンズの受光可能範囲が点線で示されている。また、実線で示すレンズが本実施例でのレンズ位置であり、このレンズの受光可能範囲が一点鎖線で示されている。   A pair of line sensors 31c and 31d separated by a base line length c are provided below the pair of lenses 31a and 31b separated by a base line length a. Similarly, a pair of line sensors 41c and 41d separated by a base line length d are provided below the pair of lenses 41a and 41b separated by a base line length b. As shown in FIG. 5A, the distance between the lenses 31a and 31b that are spaced apart by the baseline length a is longer than the distance between the line sensors 31c and 31d that are spaced apart by the baseline length c. It has become. Although not shown, the distance between the lenses 41a and 41b that are similarly spaced apart by the baseline length b is longer than the distance between the line sensors 41c and 41d that are spaced apart by the baseline length d. It has become. Therefore, as shown in FIG. 5B, the optical axes of the pair of lenses are arranged so as to be located outside the optical axes of the pair of line sensors. With this configuration, it is possible to widen the light receiving range of the passive distance measuring device as shown in FIG. Note that the lens indicated by the dotted line in FIG. 5A is a lens disposed at the normal position, and the light receiving range of this lens is indicated by the dotted line. A lens indicated by a solid line is a lens position in the present embodiment, and a light receivable range of the lens is indicated by a one-dot chain line.

図6を参照しながら撮像部31の構成について説明する。外部から入射した光を受光するレンズ31aの下には、焦点距離fだけ離間されてラインセンサ31cが配置され、またセンサ31bの下には、焦点距離fだけ離間されてラインセンサ31dが配置されている。これらのラインセンサ31c,31dは、直線状に配列された複数の光検出素子を有する一対のラインCCDまたはその他のライン型撮像素子からなる。なお、ラインセンサ31c,31dの構成については説明の便宜上後ほど詳述する。撮像部31は、レンズ31a及び31bを介してラインセンサ31c及び31d上に結像した画像について、図示しない出力部を介して画像の光量に応じた電気信号を直列的に出力する。なお、撮像部41についても撮像部31と同様に、レンズ41a,41bから焦点距離fだけ離間されてそれぞれラインセンサ41c,41dが配置されている。   The configuration of the imaging unit 31 will be described with reference to FIG. A line sensor 31c is disposed below the lens 31a that receives light incident from the outside and spaced apart by the focal length f, and a line sensor 31d is disposed below the sensor 31b and spaced apart by the focal length f. ing. These line sensors 31c and 31d are composed of a pair of line CCDs having a plurality of photodetecting elements arranged in a straight line or other line type image pickup elements. The configuration of the line sensors 31c and 31d will be described later in detail for convenience of explanation. For the image formed on the line sensors 31c and 31d via the lenses 31a and 31b, the imaging unit 31 serially outputs an electrical signal corresponding to the light amount of the image via an output unit (not shown). As with the imaging unit 31, the imaging unit 41 is also separated from the lenses 41a and 41b by a focal length f and line sensors 41c and 41d are arranged, respectively.

演算部32は、ラインセンサ31c,31dから出力される一対の画像信号のうちの少なくとも一方の画像信号を、所定のシフト範囲に渡って順次シフトさせながら相関値を演算する。演算部42も同様にラインセンサ41c,41dから出力される一対の画像信号のうちの少なくとも一方の画像信号を、所定のシフト範囲に渡って順次シフトさせながら相関値を演算し、この相関値に基づいてスクリーン1までの距離を演算する。   The calculation unit 32 calculates a correlation value while sequentially shifting at least one of the pair of image signals output from the line sensors 31c and 31d over a predetermined shift range. Similarly, the calculation unit 42 calculates a correlation value while sequentially shifting at least one of the pair of image signals output from the line sensors 41c and 41d over a predetermined shift range, and calculates the correlation value. Based on this, the distance to the screen 1 is calculated.

制御回路3は、第1パッシブ測距装置30の測距演算結果に基づき、プロジェクタ装置2の第1基準方向(水平方向)に対するスクリーン1の傾斜角度θ1(図7(A)参照)を算出する。同様に第2パッシブ測距装置40の測距演算結果に基づき、プロジェクタ装置2の第2基準方向(垂直方向)に対するスクリーン1の傾斜角度θ2(図7(B)参照)を算出する。   The control circuit 3 calculates the tilt angle θ1 (see FIG. 7A) of the screen 1 with respect to the first reference direction (horizontal direction) of the projector device 2 based on the distance measurement calculation result of the first passive distance measuring device 30. . Similarly, the inclination angle θ2 of the screen 1 with respect to the second reference direction (vertical direction) of the projector device 2 (see FIG. 7B) is calculated based on the distance measurement calculation result of the second passive distance measuring device 40.

投影画像生成部5は、外部のパソコン等の画像データ出力部から出力される画像データを入力し、入力した画像データを表示用データに変換して表示駆動部6に出力する。   The projection image generation unit 5 receives image data output from an image data output unit such as an external personal computer, converts the input image data into display data, and outputs the display data to the display drive unit 6.

表示駆動部6は、画像歪み補正部として機能し、制御回路3が算出した第1基準方向および第2基準方向に対する傾斜角に基づき、不図示の投影レンズとしてのコンデンサレンズを含む投影レンズ光学系8を調整して、投影画像の台形歪みを補正する。また、表示駆動部6は、不図示の投影レンズのピント調整を自動的に行うオートフォーカス手段として機能する。投影レンズ光学系8は、所定の映像光をスクリーン1上に投影する。   The display driving unit 6 functions as an image distortion correction unit, and includes a condenser lens optical system including a condenser lens (not shown) based on the tilt angles with respect to the first reference direction and the second reference direction calculated by the control circuit 3. 8 is adjusted to correct the trapezoidal distortion of the projected image. The display driving unit 6 functions as an autofocus unit that automatically adjusts the focus of a projection lens (not shown). The projection lens optical system 8 projects predetermined image light on the screen 1.

次に、図6を参照しながら、第1パッシブ測距装置(外光三角測距方式)30の動作原理を説明する。図6は、第1パッシブ測距装置30によりスクリーン1までの距離を測定する様子を示した図である。なお、第2パッシブ測距装置40の動作原理も第1パッシブ測距装置30と同様であるため説明を省略する。   Next, the operation principle of the first passive distance measuring device (external light triangular distance measuring method) 30 will be described with reference to FIG. FIG. 6 is a diagram showing how the first passive distance measuring device 30 measures the distance to the screen 1. The operation principle of the second passive distance measuring device 40 is the same as that of the first passive distance measuring device 30, and thus the description thereof is omitted.

図6(A)において、一対のレンズ31a及び31bが、プロジェクタ装置2の正面を構成する平面上に水平方向に延びた所定の基線長aだけ離間して配置されている。プロジェクタ装置2の正面を構成する平面の下には、これら一対のレンズ31a及び31bからそれらの焦点距離fだけそれぞれ離間され、基線長a方向に延びた一対のラインセンサ31c及び31dが配置されている。レンズ31a,31bの各光軸が一対のラインセンサ31c,31dの各光軸よりも外側に位置するように配置されている。このように構成することで、図5(A)に示されるようにパッシブ測距装置の受光可能範囲を広くとることが可能となる。これらラインセンサ31c及び31d上に、それぞれ対応するレンズ31a及び31bを介して距離測定(測距)対象のスクリーン1上のある位置の画像Tが結像される。図6(A)においては、スクリーン1上の測定位置Tが、異なる方向の光路A及びBを通って、それぞれのレンズ31a及び31bを介して、ラインセンサ31c及び31d上に結像されている。   6A, a pair of lenses 31a and 31b are arranged apart from each other by a predetermined baseline length a extending in the horizontal direction on a plane constituting the front surface of the projector device 2. A pair of line sensors 31c and 31d that are spaced apart from the pair of lenses 31a and 31b by their focal lengths f and extend in the direction of the baseline length a are disposed below the plane that forms the front surface of the projector device 2. Yes. The optical axes of the lenses 31a and 31b are arranged so as to be located outside the optical axes of the pair of line sensors 31c and 31d. With this configuration, it is possible to widen the light receiving range of the passive distance measuring device as shown in FIG. On these line sensors 31c and 31d, an image T at a certain position on the screen 1 for distance measurement (ranging) is formed via the corresponding lenses 31a and 31b. In FIG. 6A, the measurement position T on the screen 1 is imaged on the line sensors 31c and 31d through the optical paths A and B in different directions and through the respective lenses 31a and 31b. .

測定位置Tが無限遠の位置に存在すると仮定した場合、一対のレンズ31a及び31bから焦点距離fにあるラインセンサ31c及び31d上には、測定位置Tがレンズ31a及び31bのそれぞれの光軸31ax及び31bxと交差する基準位置31cx及び31dxに結像されることになる。ここで測定位置Tが無限遠位置からレンズ31aの光軸31ax上の方向Aに沿って近づき、図4(A)の位置、すなわち、レンズ31aからスクリーン1までの距離LCに達すると、測定位置Tはラインセンサ31c上においては、基準位置31cx上に結像されたままであるが、ラインセンサ31d上においては、レンズ31bにより基準位置31dxから位相差(ずれ量)αだけずれた位置に結像される。   Assuming that the measurement position T exists at an infinite position, the measurement position T is located on the line sensors 31c and 31d at the focal length f from the pair of lenses 31a and 31b, and the optical axes 31ax of the lenses 31a and 31b. And 31bx are imaged at reference positions 31cx and 31dx. Here, when the measurement position T approaches from the infinity position along the direction A on the optical axis 31ax of the lens 31a and reaches the position LC in FIG. 4A, that is, the distance LC from the lens 31a to the screen 1, the measurement position is reached. Although T is imaged on the reference position 31cx on the line sensor 31c, it is imaged on the line sensor 31d at a position shifted by a phase difference (deviation amount) α from the reference position 31dx by the lens 31b. Is done.

このとき、三角測距の原理から測定位置Tまでの距離LCは、LC=af/αで求められる。ここで、基線長aと焦点距離fは予め知られている既知の値であり、ラインセンサ31d上の基準位置31dxからの位相差(ずれ量)αを検出すれば、距離LCを測定できる。すなわち、スクリーン1までの距離を検出できる。これが外光三角測距のパッシブ型ラインセンサ測距装置の動作原理である。位相差(ずれ量)αの検出及びLC=af/αの演算は、図1に示す演算部32で実行される。   At this time, the distance LC from the principle of triangulation to the measurement position T is obtained by LC = af / α. Here, the base line length a and the focal length f are known values known in advance, and the distance LC can be measured by detecting the phase difference (shift amount) α from the reference position 31dx on the line sensor 31d. That is, the distance to the screen 1 can be detected. This is the operating principle of a passive line sensor distance measuring device for external light triangulation. The detection of the phase difference (deviation amount) α and the calculation of LC = af / α are executed by the calculation unit 32 shown in FIG.

ラインセンサ31dの基準位置31dxからの位相差(ずれ量)αの検出は、一対のラインセンサ31c及び31dから出力される一対の画像データ信号列IL及びIRからそれぞれ抽出した部分画像データ群iLm及びiRnについて、演算部32が相関演算を行なうことにより検出する。   Detection of the phase difference (shift amount) α from the reference position 31dx of the line sensor 31d is performed by detecting the partial image data group iLm extracted from the pair of image data signal sequences IL and IR output from the pair of line sensors 31c and 31d, respectively. iRn is detected by the calculation unit 32 performing a correlation calculation.

上記相関演算の概略を説明する。図6(B)に示すように、相関演算は、部分画像データ群iLm及びiRnを互いに重ねた時に最も一致度が高くなる領域を、重ね合わせる部分画像データ群iLm及びiRnをラインセンサ31c及び31d上で相対的にずらしながら検出していく演算である。図6(B)においては、一方のラインセンサ31cからの部分画像データ群iLmを基準位置31cxに位置を固定して、基準部として使用する。他方のラインセンサ31dからの部分画像データ群iRnは参照部として位置を一画素ずつずらして行き、基準部と最も一致度の高い部分画像データ群iRnを探す。最も一致度の高い部分画像データ群iRnを発生するラインセンサ31d上の位置とそのラインセンサ31dの基準位置31dxと間の間隔が位相差(ずれ量)αである。   An outline of the correlation calculation will be described. As shown in FIG. 6 (B), the correlation calculation is performed by using the line sensors 31c and 31d as the line sensors 31c and 31d. This is a calculation that is detected while relatively shifting. In FIG. 6B, the position of the partial image data group iLm from one line sensor 31c is fixed to the reference position 31cx and used as the reference portion. The partial image data group iRn from the other line sensor 31d is shifted one pixel at a time as a reference portion, and the partial image data group iRn having the highest degree of coincidence with the reference portion is searched. The interval between the position on the line sensor 31d that generates the partial image data group iRn having the highest degree of coincidence and the reference position 31dx of the line sensor 31d is the phase difference (deviation amount) α.

ラインセンサ31c及び31dの各々は、所定数の光検出素子(画素)を所定長の直線上に配列した一対のラインCCDで構成されているから、位相差(ずれ量)αは、部分画像データ群iRnの画像データ信号列IR内の画素位置と画素ピッチから容易に求めることができる。このようにして、レンズ31aの光軸31axと同じ方向Aにある測定位置Tまでの距離LCを、位相差(ずれ量)αを検出することにより測定できる。   Since each of the line sensors 31c and 31d is composed of a pair of line CCDs in which a predetermined number of photodetecting elements (pixels) are arranged on a straight line having a predetermined length, the phase difference (shift amount) α is the partial image data. It can be easily obtained from the pixel position and pixel pitch in the image data signal sequence IR of the group iRn. In this way, the distance LC to the measurement position T in the same direction A as the optical axis 31ax of the lens 31a can be measured by detecting the phase difference (deviation amount) α.

次に、ラインセンサの構成について図8を参照しながら説明する。図8には、一対のラインセンサ31c、31dにて、複数方向の距離を検出する際のラインセンサの構成が示されている。図8に示すように、ラインセンサ31c、31dを複数に分割し、測距方向に応じて基準位置を複数設定することにより、1つの測距装置で複数方向の距離を検出することができる。すなわち、一対のラインセンサ31c,31dで複数方向の測距を行う際には、図8に示したようにラインセンサ31c中に複数の測距方向(本例ではR(右)、C(中央)、L(左)とする)に基づく複数の基準位置に応じた複数の測距演算領域(31cR、31cC、31cL)を設ける。同様にラインセンサ31d中に複数の測距方向(R、C、L)に基づく複数の基準位置に応じた複数の測距演算領域(31dR、31dC、31dL)を設ける。そして、測距方向で対応する1対の測距演算領域(31cRと31dR、31cCと31dC、31cLと31dL)中の部分映像データを使用して基準位置からのずれ量を求めることができる。   Next, the configuration of the line sensor will be described with reference to FIG. FIG. 8 shows the configuration of a line sensor when a pair of line sensors 31c and 31d detect distances in a plurality of directions. As shown in FIG. 8, by dividing the line sensors 31c and 31d into a plurality and setting a plurality of reference positions according to the distance measuring direction, the distance in a plurality of directions can be detected by one distance measuring device. That is, when distance measurement in a plurality of directions is performed by the pair of line sensors 31c and 31d, a plurality of distance measurement directions (R (right), C (center in this example) are included in the line sensor 31c as shown in FIG. ), L (left)), a plurality of distance measurement calculation areas (31cR, 31cC, 31cL) corresponding to a plurality of reference positions are provided. Similarly, a plurality of ranging calculation areas (31dR, 31dC, 31dL) corresponding to a plurality of reference positions based on a plurality of ranging directions (R, C, L) are provided in the line sensor 31d. Then, the amount of deviation from the reference position can be obtained by using partial video data in a pair of distance measurement calculation areas (31cR and 31dR, 31cC and 31dC, 31cL and 31dL) corresponding to the distance measurement direction.

本実施例のプロジェクタ装置2は、スクリーン1の表示領域いっぱいに画像を投影するオートズーム機能を備えている。この機能を実現するための動作手順を図9に示すフローチャートを参照しながら説明する。まず、画像をスクリーン1に投影しない状態で、受光センサ21の出力を使用してスクリーン1端部の位置を検出し、記憶する(ステップS1)。図1に示す自動焦点検出装置20の受光センサ21から出力される電気信号に演算部22で演算を行いセンサデータを取り出す。受光センサ21は、スクリーン1の反射光を受光しているため、受光センサ21の各センサからはスクリーン1の反射光量に応じた電気信号が出力される。図10(A)に示されるようにスクリーン1は、画像を表示する表示領域10と、所定の幅に亘って黒色に形成された端部11とからなる。このため、スクリーン1の表示領域(白色)10と端部(黒色)11とでは反射光量に差を生じるので、対応するセンサデータにもかなりの差が生じる。センサデータの値をしきい値と比較していくことで、スクリーン1の端部11を検出することができる。具体的には、センサデータとしきい値との比較を、スクリーン中央部から端部に向けて行い、センサデータが最初にしきい値を超えた画素(以下、この画素を画素Sと呼ぶ)がスクリーン表示領域10と端部11との境界となる。なお、スクリーン端部の検出に使用するセンサデータは、ラインセンサ31c,31d,41c,41dのうちのいずれか一つのセンサ出力を使用するものであってもよいし、1対のラインセンサ31cと31d、またはラインセンサ41cと41dのセンサ出力を使用するものであってもよい。また、スクリーン端部の検出にラインセンサ31c,31d,41c,41dのうちのいずれか一つを用いた場合、1つのラインセンサでスクリーン1の水平方向または垂直方向の一端部だけを検出している場合と、両端部を検出している場合とが考えられる。このため、1つのラインセンサを使用してスクリーン端部の検出を行う場合には、このラインセンサの中央部に位置する画素の出力からしきい値との比較を始めるとよい。   The projector device 2 of this embodiment has an auto zoom function for projecting an image over the entire display area of the screen 1. The operation procedure for realizing this function will be described with reference to the flowchart shown in FIG. First, in a state where an image is not projected on the screen 1, the position of the end of the screen 1 is detected and stored using the output of the light receiving sensor 21 (step S1). The electric signal output from the light receiving sensor 21 of the automatic focus detection apparatus 20 shown in FIG. Since the light receiving sensor 21 receives the reflected light from the screen 1, an electrical signal corresponding to the amount of reflected light from the screen 1 is output from each sensor of the light receiving sensor 21. As shown in FIG. 10A, the screen 1 includes a display area 10 for displaying an image and an end portion 11 formed in black over a predetermined width. For this reason, there is a difference in the amount of reflected light between the display area (white) 10 and the end (black) 11 of the screen 1, so that a considerable difference also occurs in the corresponding sensor data. By comparing the value of the sensor data with the threshold value, the end 11 of the screen 1 can be detected. Specifically, the comparison between the sensor data and the threshold value is performed from the center of the screen toward the edge, and the pixel whose sensor data first exceeds the threshold value (hereinafter, this pixel is referred to as pixel S) is the screen. It becomes a boundary between the display area 10 and the end 11. The sensor data used for detecting the screen edge may use any one of the sensor outputs of the line sensors 31c, 31d, 41c, and 41d, or a pair of line sensors 31c. The sensor output of 31d or the line sensors 41c and 41d may be used. In addition, when any one of the line sensors 31c, 31d, 41c, and 41d is used for detecting the screen end, only one end of the screen 1 in the horizontal direction or the vertical direction is detected by one line sensor. And the case where both ends are detected. For this reason, when detecting the edge of the screen using one line sensor, it is preferable to start the comparison with the threshold value from the output of the pixel located at the center of the line sensor.

次に、投影画像の焦点がスクリーン1に合うように焦点合わせを行うオートフォーカス処理(ステップS2)、プロジェクタ装置2とスクリーン1との位置関係により生じる台形歪みを補正する台形歪み補正処理(ステップS3)などが行われるが、詳細な手順については後述する。なお、画像パターンの端部13をスクリーンの端部11に合わせる投影画像調整処理の前に、このオートフォーカス処理と台形歪み補正処理とを行っておくことで、画像パターンの端部13をスクリーンの端部11に精度よく合わせることができる。すなわち、オートズーム機能の精度を向上させることができる。また、スクリーン端部検出処理時(ステップS1)には、プロジェクタ装置2から画像パターンをスクリーン1に投影することはないので、投影レンズ光学系8に含まれる光源をONさせることがない。従って、オートフォーカス処理と台形歪み補正処理の前にスクリーン端部検出処理を行っておくことで、光源のON/OFFを切り替える手間を省くことができる。   Next, autofocus processing for performing focusing so that the projected image is focused on the screen 1 (step S2), and trapezoidal distortion correction processing for correcting trapezoidal distortion caused by the positional relationship between the projector device 2 and the screen 1 (step S3). ) Etc., but the detailed procedure will be described later. It should be noted that the autofocus process and the trapezoidal distortion correction process are performed before the projection image adjustment process for aligning the edge part 13 of the image pattern with the edge part 11 of the screen, so that the edge part 13 of the image pattern is moved to the screen. It can be adjusted to the end portion 11 with high accuracy. That is, the accuracy of the auto zoom function can be improved. Further, during the screen edge detection process (step S1), the image pattern is not projected from the projector device 2 onto the screen 1, so that the light source included in the projection lens optical system 8 is not turned on. Therefore, by performing the screen edge detection process before the autofocus process and the trapezoidal distortion correction process, it is possible to save the trouble of switching the light source ON / OFF.

次に、オートズーム用の画像パターンをスクリーン1に投影して、投影画像の調整処理を行う(ステップS4)。まず、オートズーム用の画像パターンをスクリーン1に投影してセンサデータを取り出し、画像パターンの端部の位置を検出する。オートズーム用の画像パターンは、白色の画像領域12と、黒色の端部13とからなる。図10(B)にはスクリーン1上に画像パターンが投影された状態が示されている。画像パターンは、画像パターンの中心とスクリーン1の中心とがほぼ一致するようにスクリーン1上に投影されているとよい。画像パターンの中心がスクリーン1の中心から大きくずれていると、投影画像の調整処理を行ってもスクリーン1から画像がはみ出る、スクリーンいっぱいに画像が投影されないなどの不具合が起きる可能性もある。受光センサ21から出力され、演算部22で演算して出力されるセンサデータには、スクリーン1の反射光と画像パターンの反射光とが含まれており、センサデータを所定のしきい値と比較することで、スクリーンの端部11と画像パターンの端部13とを検出することができる。すなわち、センサデータとしきい値との比較をスクリーン中央部から端部に向けて行い、センサデータが最初にしきい値を超えた画素(以後、この画素を画素Pと呼ぶ)を検出する。この画素がステップS1に検出してあった画素Sと同じ位置にある場合には、そこがスクリーン1の表示領域10と端部11との境界であると判定できる。また、検出した画素Pの位置が画素Sの位置と異なる場合(画素Sよりもスクリーン中央に近い場合)、そこが画像パターンの画像領域12と端部13との境界となる。なお、スクリーン端部11の検出の時と同様に、画像パターン端部13の検出に使用するラインセンサは、ラインセンサ31c,31d,41c,41dのうちのいずれか一つを使用するものであってもよいし、1対のラインセンサ31cと31d、またはラインセンサ41cと41dを使用するものであってもよい。また、画像パターン端部13の検出に1つのラインセンサを使用した場合、対象物の一端部を検出している場合と、両端部を検出している場合とが考えられる。このため、1つのラインセンサを使用して端部の検出を行う場合には、このラインセンサの中央に位置するセンサの出力からしきい値との比較を始めるとよい。   Next, an image pattern for auto-zoom is projected onto the screen 1 to perform projection image adjustment processing (step S4). First, an image pattern for auto-zoom is projected onto the screen 1 to extract sensor data, and the position of the end of the image pattern is detected. The image pattern for auto zooming includes a white image region 12 and a black end portion 13. FIG. 10B shows a state in which an image pattern is projected on the screen 1. The image pattern may be projected on the screen 1 so that the center of the image pattern and the center of the screen 1 substantially coincide. If the center of the image pattern is greatly deviated from the center of the screen 1, there is a possibility that the image protrudes from the screen 1 even if the adjustment processing of the projected image is performed, or that the image is not projected to the full screen. The sensor data output from the light receiving sensor 21 and calculated and output by the calculation unit 22 includes the reflected light of the screen 1 and the reflected light of the image pattern, and compares the sensor data with a predetermined threshold value. By doing so, the end 11 of the screen and the end 13 of the image pattern can be detected. That is, the sensor data is compared with the threshold value from the center of the screen toward the edge, and a pixel in which the sensor data first exceeds the threshold value (hereinafter, this pixel is referred to as pixel P) is detected. If this pixel is at the same position as the pixel S detected in step S1, it can be determined that this is the boundary between the display area 10 and the end 11 of the screen 1. Further, when the position of the detected pixel P is different from the position of the pixel S (when closer to the screen center than the pixel S), this is the boundary between the image region 12 and the end portion 13 of the image pattern. As in the case of detecting the screen edge 11, the line sensor used for detecting the image pattern edge 13 uses any one of the line sensors 31c, 31d, 41c, and 41d. Alternatively, a pair of line sensors 31c and 31d or line sensors 41c and 41d may be used. Moreover, when one line sensor is used for the detection of the image pattern edge part 13, the case where the one end part of the target object is detected, and the case where the both end parts are detected are considered. For this reason, when detecting an edge using one line sensor, it is good to start the comparison with the threshold value from the output of the sensor located at the center of the line sensor.

画素Pの位置が画素Sの位置と異なる場合、すなわち画像パターンの端部13を検出した場合、図10(B)に示すように画像パターンはスクリーンサイズよりも小さく投影されている。従って、画像パターンを拡大するように投影レンズ光学系8を駆動する(以下、画像パターンを拡大する方向への投影レンズ光学系8の駆動をワイド駆動と呼ぶ)。例えば、レンズ駆動手段としてステップモータを用いた場合、ワイド側に1ステップ駆動し、この位置のセンサデータを取り出して、スクリーン端部11(画素Sの位置)と画像パターン端部13(画素Pの位置)とを検出する。以後、この処理を画像パターンの端部13とスクリーン1の端部11とが一致するまで、すなわち、センサデータが最初にしきい値を超えた画素Pの位置が、スクリーン端部11の画素Sに一致するまで行う。   When the position of the pixel P is different from the position of the pixel S, that is, when the end 13 of the image pattern is detected, the image pattern is projected smaller than the screen size as shown in FIG. Therefore, the projection lens optical system 8 is driven so as to enlarge the image pattern (hereinafter, the drive of the projection lens optical system 8 in the direction of enlarging the image pattern is referred to as wide driving). For example, when a step motor is used as the lens driving means, one step is driven to the wide side, the sensor data at this position is taken out, and the screen edge 11 (position of the pixel S) and the image pattern edge 13 (pixel P Position). Thereafter, this process is repeated until the edge 13 of the image pattern and the edge 11 of the screen 1 coincide, that is, the position of the pixel P where the sensor data first exceeds the threshold value is the pixel S of the screen edge 11. Repeat until they match.

また、画素Pの位置が画素Sの位置と同じであった場合、すなわちスクリーン端部11を検出した場合、図10(C)に示すように画像パターンはスクリーンサイズよりも大きく投影されている。そこで、画像パターンを縮小するように投影レンズ光学系8を駆動し(以下、画像パターンを縮小する方向への投影レンズ光学系8の駆動をテレ側駆動と呼ぶ)、図10(B)に示すように画像パターンがスクリーンサイズよりも小さく投影される状態にする。例えば、テレ側に投影レンズ光学系8を1ステップ駆動し、この位置でのセンサデータを取り出して、スクリーン端部11と画像パターン端部13とを検出する。この処理を、画像パターン端部13がスクリーン端部11よりも中心側に来るまで、すなわち、画素Pの位置が、以前に検出してあった画素Sの位置よりも中心側に来るまで繰り返す。その後、ワイド側駆動を行って画像パターンの端部13とスクリーンの端部11とを一致させる。スクリーン外のセンサデータの値は、スクリーン1の配置状況によって変わってしまうため、画像パターンを縮小させる方向でスクリーン1と画像パターンの端部を合わせることは難しい。そこで、本実施例では一端画像パターンがスクリーンサイズよりも小さく投影される状態に縮小しておき、画像パターンを拡大させながらスクリーン端部11に画像パターンを合わせる。   Further, when the position of the pixel P is the same as the position of the pixel S, that is, when the screen edge 11 is detected, the image pattern is projected larger than the screen size as shown in FIG. Therefore, the projection lens optical system 8 is driven so as to reduce the image pattern (hereinafter, the driving of the projection lens optical system 8 in the direction of reducing the image pattern is referred to as tele-side driving), as shown in FIG. Thus, the image pattern is projected to be smaller than the screen size. For example, the projection lens optical system 8 is driven one step toward the tele side, sensor data at this position is taken out, and the screen end 11 and the image pattern end 13 are detected. This process is repeated until the image pattern end 13 is closer to the center than the screen end 11, that is, until the position of the pixel P is closer to the center than the position of the pixel S detected previously. Thereafter, wide side driving is performed to match the end 13 of the image pattern with the end 11 of the screen. Since the sensor data value outside the screen changes depending on the arrangement state of the screen 1, it is difficult to match the screen 1 and the edge of the image pattern in the direction of reducing the image pattern. Therefore, in this embodiment, the image pattern is reduced to a state in which the image pattern is projected smaller than the screen size, and the image pattern is adjusted to the screen edge 11 while enlarging the image pattern.

このように本実施例は、スクリーン端部11の反射光を受光したセンサの画素と、スクリーン1に投影された画像パターンの端部13からの反射光を受光したセンサの画素とを比較して、画像パターンの端部13をスクリーン1の端部11に合わせている。従って、簡単な構成のプロジェクタ装置でスクリーンの表示領域いっぱいに画像を表示させることができる。また、スクリーンサイズを演算する必要がないので、演算処理を省略できる。   Thus, the present embodiment compares the pixel of the sensor that has received the reflected light from the screen end 11 with the pixel of the sensor that has received the reflected light from the end 13 of the image pattern projected onto the screen 1. The edge 13 of the image pattern is aligned with the edge 11 of the screen 1. Accordingly, it is possible to display an image over the entire display area of the screen with a projector device having a simple configuration. In addition, since it is not necessary to calculate the screen size, the calculation process can be omitted.

また、所定のしきい値とセンサデータとの比較を、スクリーン1の中央部から端部に向けて、すなわちラインセンサの中央部から端部に向けて行っている。ラインセンサの中央部は、スクリーン1または画像パターンの反射光、特に白色に対応する反射光を受光しているのでセンサデータの値が略一定となっている。従って、白色と黒色とのセンサデータの差からスクリーン端部11および画像パターンの端部13のセンサデータの判定が容易になり、端部の検出を確実に行うことができる。また、スクリーンの端部11および画像パターンの端部13の検出を容易に、しかも確実にできるので、投影レンズ光学系8を現在の位置からテレ側に駆動すればよいのか、又はワイド側に駆動すればよいのかを容易に判断することができる。   Further, the comparison between the predetermined threshold value and the sensor data is performed from the center of the screen 1 toward the end, that is, from the center of the line sensor toward the end. Since the central part of the line sensor receives reflected light of the screen 1 or the image pattern, particularly reflected light corresponding to white, the value of the sensor data is substantially constant. Therefore, it becomes easy to determine the sensor data of the screen end 11 and the image pattern end 13 from the difference between the sensor data of white and black, and the end can be reliably detected. Further, since it is possible to easily and reliably detect the end 11 of the screen and the end 13 of the image pattern, the projection lens optical system 8 may be driven from the current position to the tele side, or driven to the wide side. It is possible to easily determine whether it should be done.

なお、プロジェクタ装置においては、投影画像のアスペクト比は一定であるため、画像パターンの端部とスクリーンの端部とを合わせる処理を水平方向と垂直方向のいずれか一方において行えば、他方も必然的に合わされることになる。   In the projector apparatus, since the aspect ratio of the projected image is constant, if the process of aligning the edge of the image pattern and the edge of the screen is performed in either the horizontal direction or the vertical direction, the other is inevitable. Will be matched.

また、本実施例ではスクリーンの端部11を黒色としているが、スクリーン1の背後に黒色の物体(例えば壁)があれば、スクリーン1全体を白色にしてもスクリーンの端部11を十分に検出することができる。   In this embodiment, the end 11 of the screen is black. However, if there is a black object (for example, a wall) behind the screen 1, the end 11 of the screen is sufficiently detected even if the entire screen 1 is white. can do.

次に上述した各処理の詳細な手順についてフローチャートを参照しながら説明する。まず、図11に示されたフローチャートを参照しながらスクリーン端部検出処理(図9に示すステップS1)の詳細を説明する。画像をスクリーン1に投影しない状態で、受光センサ21から出力される電気信号に演算部22で演算を行いセンサデータを取り出す(ステップS10)。受光センサ21は、スクリーン1の反射光を受光しているため、各センサの出力に演算を行うことでスクリーン1の反射光量に応じたセンサデータが出力される。なお、上述したようにスクリーン端部11の検出に使用するラインセンサは、ラインセンサ31c,31d,41c,41dのうちのいずれか一つを使用するものであってもよいし、1対のラインセンサ31cと31d、またはラインセンサ41cと41dを使用するものであってもよい。   Next, a detailed procedure of each process described above will be described with reference to a flowchart. First, the details of the screen edge detection process (step S1 shown in FIG. 9) will be described with reference to the flowchart shown in FIG. In a state where the image is not projected onto the screen 1, the electric signal output from the light receiving sensor 21 is calculated by the calculating unit 22 to extract sensor data (step S10). Since the light receiving sensor 21 receives the reflected light of the screen 1, sensor data corresponding to the amount of reflected light of the screen 1 is output by performing calculation on the output of each sensor. As described above, the line sensor used to detect the screen end 11 may use any one of the line sensors 31c, 31d, 41c, and 41d, or a pair of lines. Sensors 31c and 31d or line sensors 41c and 41d may be used.

制御回路3は、演算部22から出力されるセンサデータとしきい値との比較をスクリーン中央部から端部11の方向に向けて行う(ステップS11)。スクリーン中央部のセンサデータからしきい値との比較を初めて、比較対象を徐々にスクリーン端部11側のセンサデータに移動させる。しきい値よりも大きいセンサデータを検出すると(ステップS11/YES)、当該センサデータの画素番号を記憶する(以下の説明では、この画素番号をSとする)(ステップS12)。また、全画素についてしきい値との比較を行い、しきい値よりも大きいセンサデータを検出することができなかった場合には(ステップS13/YES)、プロジェクタ装置2の図示しない表示部にエラー表示を行う(ステップS14)。また、エラー表示を表示させて再度スクリーン端部の検出処理を行うものであってもよい。なお、1つのラインセンサを使用して端部の検出を行う場合には、このラインセンサの中央に位置するセンサの出力からしきい値との比較を始めるとよい。   The control circuit 3 compares the sensor data output from the calculation unit 22 with the threshold value from the center of the screen toward the end 11 (step S11). The comparison target is gradually moved to the sensor data on the screen end 11 side for the first time with comparison with the threshold value from the sensor data in the center of the screen. When sensor data larger than the threshold value is detected (step S11 / YES), the pixel number of the sensor data is stored (in the following description, this pixel number is S) (step S12). If all the pixels are compared with the threshold value and sensor data larger than the threshold value cannot be detected (step S13 / YES), an error is displayed on the display unit (not shown) of the projector device 2. Display is performed (step S14). Alternatively, an error display may be displayed and the screen edge detection process may be performed again. In the case where edge detection is performed using one line sensor, comparison with a threshold value may be started from the output of the sensor located at the center of the line sensor.

次に、図12に示されたフローチャートを参照しながらオートフォーカス(図9に示すステップS2)の動作手順を説明する。なお、ここでは山登りオートフォーカスについて説明するが、オートフォーカスは、山登りオートフォーカスに限定されるものではなく、他の方法を適用することができる。また、以下では、ステップモータを用いて投影レンズ光学系8を駆動する例を説明するが、他のモータ、例えばDCモータなどを用いることも可能である。この場合、DCモータへの通電時間によって投影レンズ光学系8の駆動量を制御する。まず、光学系駆動部7により投影レンズ光学系8が初期位置に駆動され、計測結果を記憶するメモリ部4の領域が初期化される(ステップS20)。初期化される情報としては、自動焦点検出装置20で算出されるコントラスト値(cont)と、算出されたコントラスト値の中で値が最大となるコントラスト値(Max_cont)と、初期位置からMax_cont位置までのステップ数の情報などが挙げられる。   Next, the operation procedure of autofocus (step S2 shown in FIG. 9) will be described with reference to the flowchart shown in FIG. Although hill-climbing autofocus is described here, autofocus is not limited to hill-climbing autofocus, and other methods can be applied. In the following, an example in which the projection lens optical system 8 is driven using a step motor will be described. However, other motors such as a DC motor may be used. In this case, the drive amount of the projection lens optical system 8 is controlled by the energization time of the DC motor. First, the projection lens optical system 8 is driven to the initial position by the optical system driving unit 7, and the area of the memory unit 4 for storing the measurement result is initialized (step S20). Information to be initialized includes a contrast value (cont) calculated by the automatic focus detection device 20, a contrast value (Max_cont) having the maximum value among the calculated contrast values, and from the initial position to the Max_cont position. Information on the number of steps.

次に、プロジェクタ装置2内に予め記憶されている、自動焦点調節に適したオートフォーカス用の画像パターンを投影レンズ光学系8によりスクリーン1上に投影する(ステップS21)。   Next, an image pattern for autofocus suitable for automatic focus adjustment stored in advance in the projector device 2 is projected onto the screen 1 by the projection lens optical system 8 (step S21).

次に、図3に示すようにステッピングモータ等の光学系駆動部7により投影レンズ光学系8を初期位置から一定速度で移動させる(繰り出し開始)。なお、初期位置とは、投影レンズ光学系8によって投影される画像のピントが合う位置(合焦位置)が無限遠となる投影レンズ光学系8の位置である。同時に受光センサ21がスクリーン1に投影された画像パターンの反射光を受光する(ステップS22)。受光センサ21は受光した反射光量に応じた電気信号を後段の演算部22に出力する(ステップS23)。受光センサ21からの電気信号は演算部22でフィルタ処理、A/D変換処理、積分処理などが施され(ステップS24)、画像のコントラスト値(cont)が算出される(ステップS25)。算出されたコントラスト値(cont)は、制御回路3に出力される。   Next, as shown in FIG. 3, the projection lens optical system 8 is moved from the initial position at a constant speed by the optical system driving unit 7 such as a stepping motor (start of feeding). The initial position is the position of the projection lens optical system 8 at which the position (focus position) where the image projected by the projection lens optical system 8 is focused is infinite. At the same time, the light receiving sensor 21 receives the reflected light of the image pattern projected on the screen 1 (step S22). The light receiving sensor 21 outputs an electrical signal corresponding to the amount of reflected light received to the subsequent calculation unit 22 (step S23). The electric signal from the light receiving sensor 21 is subjected to filter processing, A / D conversion processing, integration processing, and the like by the calculation unit 22 (step S24), and an image contrast value (cont) is calculated (step S25). The calculated contrast value (cont) is output to the control circuit 3.

制御回路3は、演算部22で算出されたコントラスト値(cont)が、最大のコントラスト値(Max_cont)よりも大きいか否かを判定する。最大のコントラスト値(Max_cont)とは、算出したコントラスト値よりも前に得られたコントラスト値の中で値が最大のものである。もし、算出したコントラスト値(cont)が最大コントラスト値(Max_cont)よりも大きければ(ステップS26/YES)、コントラスト値(cont)を最大コントラスト値(Max_cont)として入れ換え、この位置までのステップ数(初期位置を0として起算したもの)をメモリ部4に登録する(ステップS27)また、算出したコントラスト値が最大コントラスト値(Max_cont)よりも小さい場合には(ステップS26/NO)、このコントラスト値に対する処理を終了する。   The control circuit 3 determines whether or not the contrast value (cont) calculated by the calculation unit 22 is larger than the maximum contrast value (Max_cont). The maximum contrast value (Max_cont) is the maximum value among the contrast values obtained before the calculated contrast value. If the calculated contrast value (cont) is larger than the maximum contrast value (Max_cont) (step S26 / YES), the contrast value (cont) is replaced as the maximum contrast value (Max_cont), and the number of steps up to this position (initial value) (When the position is counted as 0) is registered in the memory unit 4 (step S27). If the calculated contrast value is smaller than the maximum contrast value (Max_cont) (step S26 / NO), processing for this contrast value is performed. Exit.

次に、制御回路3はステッピングモータを駆動するステップ数が、予め設定されたステップ数に達したかどうかを確認する(ステップS28)。投影レンズ光学系8を初期位置から最近位置まで駆動させるためのステップ数は予め決まっているため、現在の駆動ステップ数が、この最近位置までのステップ数に達したかどうかを判定する。達していなければ(ステップS28/NO)、受光センサ21で出力される反射光量に応じた電気信号からコントラスト値を算出し、最大コントラスト値(Max_cont)と比較する手順を繰り返す。なお、最近位置とは、投影レンズ光学系8がプロジェクタ装置2に最も近い位置にピントを合わせることができる投影レンズ光学系8の位置である。   Next, the control circuit 3 checks whether or not the number of steps for driving the stepping motor has reached a preset number of steps (step S28). Since the number of steps for driving the projection lens optical system 8 from the initial position to the nearest position is determined in advance, it is determined whether or not the current number of driving steps has reached the number of steps up to this nearest position. If not reached (step S28 / NO), the contrast value is calculated from the electrical signal corresponding to the amount of reflected light output from the light receiving sensor 21, and the procedure of comparing with the maximum contrast value (Max_cont) is repeated. The nearest position is a position of the projection lens optical system 8 at which the projection lens optical system 8 can focus on a position closest to the projector device 2.

現在の駆動ステップ数が、最近位置までのステップ数に達した場合には(ステップS28/YES)、コントラスト値の測定を終了し、検出したMax_cont位置へ投影レンズ光学系8を移動させる制御を行う(ステップS29)。このような手順を経ることで、投影される画像の焦点をスクリーンに合わせることができる。   When the current number of driving steps reaches the number of steps up to the nearest position (step S28 / YES), the measurement of the contrast value is terminated, and control is performed to move the projection lens optical system 8 to the detected Max_cont position. (Step S29). Through such a procedure, the projected image can be focused on the screen.

次に、図13に示されたフローチャートを参照しながら台形歪み補正(図9に示すステップS3)の手順を説明する。まず、投影レンズ光学系8によりスクリーン1上に位相差検出用の画像パターンを投影する(ステップS30)。第1パッシブ測距装置30、及び第2パッシブ測距装置40で位相差の検出が容易となるように、白と黒の縦縞の画像パターンが位相差検出用画像として使用される。スクリーン1上に投影された位相検出用画像の反射光を第1パッシブ測距装置30、および第2パッシブ測距装置40で受光して、プロジェクタ装置2からスクリーン1上の複数の測定位置までの距離を測距する(ステップS31)。位相差検出用画像の反射光をラインセンサ31c,31d,41c,41dでそれぞれ受光し、各ラインセンサの基準位置からのずれ量(位相差)を演算部32、42でそれぞれ検出して、測定対象(スクリーン1上の測定位置)までの距離を測定する。演算部32は、ラインセンサ31c,31dから出力される一対の画像データ信号列からそれぞれ抽出した部分画像データ群について相関演算を行い、ずれ量を検出する。演算部42についても同様に、ラインセンサ41c、41dから出力される画像データに対して相関演算を行い、ずれ量を検出する。第1パッシブ測距装置30、および第2パッシブ測距装置40によって測距された測距データは、制御回路3に送信される。   Next, the procedure of trapezoidal distortion correction (step S3 shown in FIG. 9) will be described with reference to the flowchart shown in FIG. First, an image pattern for phase difference detection is projected on the screen 1 by the projection lens optical system 8 (step S30). An image pattern of white and black vertical stripes is used as the phase difference detection image so that the phase difference can be easily detected by the first passive distance measuring device 30 and the second passive distance measuring device 40. The reflected light of the phase detection image projected on the screen 1 is received by the first passive distance measuring device 30 and the second passive distance measuring device 40, and the projector device 2 reaches the plurality of measurement positions on the screen 1. The distance is measured (step S31). Reflected light of the phase difference detection image is received by the line sensors 31c, 31d, 41c, and 41d, and deviations (phase differences) from the reference positions of the line sensors are detected by the calculation units 32 and 42, respectively. The distance to the object (measurement position on the screen 1) is measured. The calculation unit 32 performs a correlation calculation on the partial image data groups extracted from the pair of image data signal sequences output from the line sensors 31c and 31d, and detects the shift amount. Similarly, the calculation unit 42 performs a correlation calculation on the image data output from the line sensors 41c and 41d, and detects a deviation amount. The distance measurement data measured by the first passive distance measuring device 30 and the second passive distance measuring device 40 is transmitted to the control circuit 3.

次に、測距データを用いて角度演算を行う(ステップS32)。第1パッシブ測距装置30の測距データにより第1基準方向に対するスクリーン1の傾斜角度θ1(図7参照)を算出する方法を例に挙げて、角度演算について説明する。図14に示すように、第1パッシブ測距装置30の第1基準方向(プロジェクタ装置2の水平方向)に対するスクリーン1の傾斜角度をθ1とし、測距位置1Aに対して測距演算領域31cCを用いて測距演算された結果をLl、測距位置1Bに対して測距演算領域31cRを用いて測距演算された結果をL2、測距位置1Aと光軸Lとの距離をL1’、測距位置1Bと光軸Lとの距離をL2’とすると、傾斜角度θ1は、
tanθ1=(L2−L1)/(L1’+L2’)
で求められる。
Next, angle calculation is performed using distance measurement data (step S32). The angle calculation will be described by taking as an example a method of calculating the tilt angle θ1 (see FIG. 7) of the screen 1 with respect to the first reference direction from the distance measurement data of the first passive distance measuring device 30. As shown in FIG. 14, the inclination angle of the screen 1 with respect to the first reference direction (the horizontal direction of the projector device 2) of the first passive distance measuring device 30 is θ1, and the distance calculation calculation area 31cC is set for the distance measurement position 1A. The distance calculation result is L1, the distance calculation result for the distance measurement position 1B using the distance calculation area 31cR is L2, the distance between the distance measurement position 1A and the optical axis L is L1 ′, When the distance between the ranging position 1B and the optical axis L is L2 ′, the inclination angle θ1 is
tan θ1 = (L2−L1) / (L1 ′ + L2 ′)
Is required.

ここで、三角形の相似により、L1:L1’=f:P(1a−k)が成り立つ。これを展開すると、L1’=PL1(1a−k)/fとなる。ここで、1aは測距演算領域31cLに結像した測距位置1Aのコントラスト重心位置に相当する画素番号、kは光軸に相当するラインセンサの画素番号、Pはラインセンサの画素ピッチ、fは焦点距離である。同様に、L2’は、L2’=PL2(1b−k)/fで表わせる。ここで、1bは測距演算領域31cRに結像した測距位置1Bのコントラスト重心位置に相当する画素番号である。なお、P及びfは設計段階等で求められる定数であり、これらの値は制御回路3内に予め記憶しておく。なお、コントラスト重心位置の求め方については公知技術(例えば特開平8−75985号参照)であるため、本実施例では、その説明を省略する。また、第2パッシブ測距装置40の測距データに基づいて、第2基準方向に対するスクリーン1の傾斜角度θ2を算出する方法についても同様の方法を適用することができる。   Here, L1: L1 ′ = f: P (1a−k) holds due to the similarity of the triangles. When this is expanded, L1 '= PL1 (1a-k) / f. Here, 1a is the pixel number corresponding to the contrast centroid position of the distance measurement position 1A imaged in the distance calculation calculation area 31cL, k is the pixel number of the line sensor corresponding to the optical axis, P is the pixel pitch of the line sensor, f Is the focal length. Similarly, L2 'can be expressed by L2' = PL2 (1b-k) / f. Here, 1b is a pixel number corresponding to the contrast gravity center position of the distance measurement position 1B imaged in the distance measurement calculation area 31cR. P and f are constants obtained at the design stage or the like, and these values are stored in the control circuit 3 in advance. In addition, since the method for obtaining the contrast center-of-gravity position is a known technique (see, for example, JP-A-8-75985), the description thereof is omitted in this embodiment. A similar method can be applied to a method of calculating the inclination angle θ2 of the screen 1 with respect to the second reference direction based on the distance measurement data of the second passive distance measuring device 40.

傾斜角θ1、θ2が求まると、制御回路3は求めた傾斜角θ1、θ2を表示駆動部6に出力する。表示駆動部6は、制御回路3が算出した水平方向および垂直方向の傾斜角に基づきコンデンサレンズを含む投影レンズ光学系8を調整して投影画像の台形歪みを補正する(ステップS33)。また、投影画像生成部5において制御回路3が算出した水平方向および垂直方向の傾斜角度に基づき投影画像とは逆の台形歪みのある画像の表示データを生成し(キーストン補正)、投影画像の台形歪みを電気的に補正するようにしてもよい。   When the inclination angles θ1 and θ2 are obtained, the control circuit 3 outputs the obtained inclination angles θ1 and θ2 to the display driving unit 6. The display driver 6 adjusts the projection lens optical system 8 including the condenser lens based on the horizontal and vertical tilt angles calculated by the control circuit 3 to correct the trapezoidal distortion of the projected image (step S33). In addition, based on the horizontal and vertical tilt angles calculated by the control circuit 3 in the projection image generation unit 5, display data of an image having a trapezoidal distortion opposite to the projection image is generated (keystone correction), and the trapezoid of the projection image is generated. You may make it correct | amend distortion electrically.

次に、図15に示されたフローチャートを参照しながら投影画像調整処理(図9に示すステップS4)の詳細な動作手順を説明する。まず、オートズーム用の画像パターンをスクリーン1に投影する(ステップS40)。オートズーム用の画像パターンは、白色の画像領域12と黒色の端部13とからなる。スクリーン1に投影された画像パターンを図10(B)に示す。画像パターンは、画像パターンの中心とスクリーン1の中心とがほぼ一致するようにスクリーン1上に投影されているとよい。スクリーン1での反射光を自動焦点検出装置20の受光センサ21で受光する。受光センサ21からは反射光量に応じた電気信号が演算部22に送られる。演算部22は、入力した電気信号から高周波成分を高域通過フィルタ221で取り出し、検波器222で振幅検波を行い、検波器222の出力をA/D変換したセンサデータを制御回路3に出力する(ステップS41)。なお、上述したように端部の検出に使用するラインセンサは、ラインセンサ31c,31d,41c,41dのうちのいずれか一つを使用するものであってもよいし、1対のラインセンサ31cと31d、またはラインセンサ41cと41dを使用するものであってもよい。   Next, a detailed operation procedure of the projection image adjustment process (step S4 shown in FIG. 9) will be described with reference to the flowchart shown in FIG. First, an image pattern for auto zoom is projected onto the screen 1 (step S40). The image pattern for auto zooming includes a white image region 12 and a black end portion 13. An image pattern projected on the screen 1 is shown in FIG. The image pattern may be projected on the screen 1 so that the center of the image pattern and the center of the screen 1 substantially coincide. The light reflected by the screen 1 is received by the light receiving sensor 21 of the automatic focus detection device 20. An electrical signal corresponding to the amount of reflected light is sent from the light receiving sensor 21 to the calculation unit 22. The arithmetic unit 22 extracts a high frequency component from the input electric signal by the high-pass filter 221, performs amplitude detection by the detector 222, and outputs sensor data obtained by A / D converting the output of the detector 222 to the control circuit 3. (Step S41). As described above, the line sensor used for detecting the end portion may use any one of the line sensors 31c, 31d, 41c, and 41d, or a pair of line sensors 31c. 31d or line sensors 41c and 41d may be used.

演算部22で演算され取り出されたセンサデータには、スクリーン1の反射光と画像パターンの反射光とが含まれており、センサデータをしきい値と比較することで、スクリーンの端部11と画像パターンの端部13とを検出することができる。制御回路3は、センサデータとしきい値との比較をスクリーン中央部から端部に向けて行い、センサデータが最初にしきい値を超えた画素(以後、この画素を画素Pと呼ぶ)を検出する。この画素Pの画素番号をメモリ部4に記憶する。なお、スクリーン中央部から端部の方向へセンサデータとしきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS46/YES)、図示しない表示部にエラー表示を行う(ステップS47)。また、エラー表示を表示させた後に、再度画像パターンをスクリーン1に投影して、投影画像調整処理を行うものであってもよい。また、1つのラインセンサを使用して端部の検出を行う場合には、このラインセンサの中央に位置するセンサの出力からしきい値との比較を始めるとよい。   The sensor data calculated and extracted by the calculation unit 22 includes the reflected light of the screen 1 and the reflected light of the image pattern. By comparing the sensor data with the threshold value, the sensor data is compared with the edge 11 of the screen. The edge 13 of the image pattern can be detected. The control circuit 3 compares the sensor data with the threshold value from the center of the screen toward the edge, and detects a pixel whose sensor data first exceeds the threshold value (hereinafter, this pixel is referred to as a pixel P). . The pixel number of the pixel P is stored in the memory unit 4. In addition, even if the sensor data and the threshold value are compared in the direction from the center to the end of the screen, if sensor data having a value larger than the threshold value cannot be found in all pixels (step S46). / YES), an error is displayed on a display unit (not shown) (step S47). Further, after displaying the error display, the image pattern may be projected again on the screen 1 to perform the projected image adjustment processing. Further, in the case where edge detection is performed using one line sensor, comparison with a threshold value may be started from the output of the sensor located at the center of the line sensor.

センサデータの値が最初にしきい値を超えた画素Pを検出すると(ステップS42/YES)、制御回路3は、画素Pを、スクリーン端部検出処理で検出した画素Sと比較する(ステップS44)。画素Pの画素番号が画素Sの画素番号と同一であった場合には(ステップS44/YES)、そこがスクリーン1の表示領域10と端部11との境界であると判定できる(すなわち、画像パターンの端部は、図10(C)に示すスクリーンよりも外側にある状態となる)。また、検出した画素Pの画素番号が,画素Sの画素番号と異なる場合(すなわち、画素Pの位置が画素Sの位置よりもスクリーン中央部に近い場合)(ステップS44/NO)、そこが投影した画像パターンの画像領域12と端部13との境界であると判定することができる。   When the pixel P whose sensor data value first exceeds the threshold value is detected (step S42 / YES), the control circuit 3 compares the pixel P with the pixel S detected in the screen edge detection process (step S44). . If the pixel number of the pixel P is the same as the pixel number of the pixel S (step S44 / YES), it can be determined that this is the boundary between the display area 10 and the end 11 of the screen 1 (that is, the image The end of the pattern is outside the screen shown in FIG. 10C). Further, when the pixel number of the detected pixel P is different from the pixel number of the pixel S (that is, when the position of the pixel P is closer to the center of the screen than the position of the pixel S) (step S44 / NO), this is projected. It can be determined that this is the boundary between the image region 12 and the end 13 of the image pattern.

画素Pと画素Sの画素番号が一致しなかった場合には(ステップS44/NO)、図10(B)に示すように画素Pが画素Sよりも中央部よりにある(画像パターンの端部13がスクリーン端部11よりも内側にある)と判断できるので、投影レンズ光学系8をワイド側に駆動して、画素Pを画素Sに合わせる(画像パターンの端部13をスクリーンの端部11に合わせる)(ステップS45)。また、画素Pと画素Sの画素番号が一致した場合には(ステップ44/YES)、図10(C)に示すように投影した画像パターンはスクリーンサイズよりも大きく投影されている(スクリーン端部11よりも外側に画像パターンの端部13がある)ので、画像パターンを縮小し(ステップS48)、スクリーン端部11の画素Sよりも内側に画素Pが検出できるようにする。その後、ワイド側駆動を行って画像パターンを拡大させて画素Pを画素Sに合わせる(ステップS49)。   When the pixel numbers of the pixel P and the pixel S do not match (step S44 / NO), as shown in FIG. 10B, the pixel P is closer to the center than the pixel S (the end of the image pattern). 13 is located on the inner side of the screen end 11), the projection lens optical system 8 is driven to the wide side to align the pixel P with the pixel S (the image pattern end 13 is the screen end 11). (Step S45). If the pixel numbers of the pixel P and the pixel S match (step 44 / YES), the projected image pattern is projected larger than the screen size as shown in FIG. Therefore, the image pattern is reduced (step S48) so that the pixel P can be detected inside the pixel S at the screen end 11. Thereafter, wide-side driving is performed to enlarge the image pattern and align the pixel P with the pixel S (step S49).

次に、図16に示されたフローチャートを参照しながらワイド側駆動処理(図15のステップS45及びステップS49)の詳細手順を説明する。まず、投影レンズ光学系8をワイド側に1ステップ駆動する(ステップS50)。この位置で画像パターンをスクリーン1に投影し、スクリーン1からの反射光を受光センサ21で受光する。受光センサ21の出力を演算部22で演算しセンサデータを出力する(ステップS51)。制御回路3は、センサデータとしきい値との比較をスクリーン中央部からスクリーン端部に向けて行う(ステップS52)。スクリーン中央部のセンサデータからしきい値との比較を初めて、比較対象を徐々にスクリーン端部11側のセンサデータに変えていく。しきい値よりも大きいセンサデータを検出すると(ステップS52/YES)、当該センサデータの画素番号を記憶する(以下の説明では、この画素番号をPとする)(ステップS53)。なお、スクリーン中央部から端部の方向へセンサデータとしきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS55/YES)、図示しない表示部にエラー表示を行う(ステップS56)。   Next, a detailed procedure of the wide side driving process (step S45 and step S49 in FIG. 15) will be described with reference to the flowchart shown in FIG. First, the projection lens optical system 8 is driven one step to the wide side (step S50). The image pattern is projected onto the screen 1 at this position, and the reflected light from the screen 1 is received by the light receiving sensor 21. The calculation unit 22 calculates the output of the light receiving sensor 21 and outputs sensor data (step S51). The control circuit 3 compares the sensor data with the threshold value from the center of the screen toward the screen edge (step S52). For the first time, comparison is made with the threshold value from the sensor data at the center of the screen. When sensor data larger than the threshold value is detected (step S52 / YES), the pixel number of the sensor data is stored (in the following description, this pixel number is P) (step S53). Note that, even if the sensor data and the threshold value are compared in the direction from the center to the edge of the screen, if sensor data having a value larger than the threshold value cannot be found in all pixels (step S55). / YES), an error is displayed on a display unit (not shown) (step S56).

センサデータの値が最初にしきい値を超えた画素Pを検出すると(ステップS52/YES)、制御回路3は、画素Pを、スクリーン端部検出処理(ステップS1)で検出した画素Sと比較する(ステップS54)。画素Pの画素番号と画素Sの画素番号とが一致した場合(ステップS54/YES)、投影した画像パターンの端部13をスクリーンの端部11に一致させることができたので、この処理を終了する。画素Pの画素番号が、画素Sの画素番号に一致していなかった場合には、上述したステップS50〜ステップS53までの処理を繰り返し行い、画素Pの画素番号と画素Sの画素番号とを一致させる。   When the pixel P whose sensor data value first exceeds the threshold value is detected (step S52 / YES), the control circuit 3 compares the pixel P with the pixel S detected in the screen edge detection process (step S1). (Step S54). When the pixel number of the pixel P and the pixel number of the pixel S match (step S54 / YES), the end 13 of the projected image pattern can be matched with the end 11 of the screen, and thus this processing is finished. To do. If the pixel number of the pixel P does not match the pixel number of the pixel S, the processing from step S50 to step S53 described above is repeated to match the pixel number of the pixel P and the pixel number of the pixel S. Let

次に、図17に示されたフローチャートを参照しながらテレ側駆動処理(図15のステップS48)の詳細手順を説明する。まず、投影レンズ光学系8をテレ側に1ステップ駆動する(ステップS60)。この位置で画像パターンをスクリーン1に投影し、スクリーン1からの反射光を受光センサ21で受光する。受光センサ21の出力を演算部22で演算しセンサデータを出力する(ステップS61)。制御回路3は、センサデータとしきい値との比較をスクリーン中央部からスクリーン端部に向けて行う(ステップS62)。スクリーン中央部のセンサデータからしきい値との比較を初めて、比較対象を徐々にスクリーン端部11側のセンサデータに変えていく。しきい値よりも大きいセンサデータを検出すると(ステップS62/YES)、当該センサデータの画素番号を記憶する(以下の説明では、この画素番号をPとする)(ステップS63)。なお、スクリーン中央から端部の方向へセンサデータとしきい値との比較を行っても、全画素でしきい値よりも値の大きいセンサデータを見つけることができなかった場合には(ステップS65/YES)、図示しない表示部にエラー表示を行う(ステップS66)。   Next, the detailed procedure of the tele-side drive process (step S48 in FIG. 15) will be described with reference to the flowchart shown in FIG. First, the projection lens optical system 8 is driven one step to the tele side (step S60). The image pattern is projected onto the screen 1 at this position, and the reflected light from the screen 1 is received by the light receiving sensor 21. The calculation unit 22 calculates the output of the light receiving sensor 21 and outputs sensor data (step S61). The control circuit 3 compares the sensor data with the threshold value from the screen center toward the screen edge (step S62). For the first time, comparison is made with the threshold value from the sensor data at the center of the screen, and the comparison target is gradually changed to the sensor data at the screen end 11 side. When sensor data larger than the threshold value is detected (step S62 / YES), the pixel number of the sensor data is stored (in the following description, this pixel number is P) (step S63). If sensor data and threshold values are compared in the direction from the center of the screen to the edge, sensor data having a value larger than the threshold value cannot be found in all pixels (step S65 / YES), an error is displayed on a display unit (not shown) (step S66).

センサデータの値が最初にしきい値を超えた画素Pを検出すると(ステップS62/YES)、制御回路3は、画素Pを、スクリーン端部検出処理(ステップ1)で検出した画素Sと比較する(ステップS64)。画素Pの画素番号と画素Sの画素番号とが一致した場合(ステップS64/YES)、投影した画像パターンは未だにスクリーンサイズよりも大きく投影されていることになるので、上述したステップS60〜ステップS63までの処理を繰り返し行い、画素Pの画素番号が画素Sの画素番号と一致しないようにする。また、画素Pの画素番号と画素Sの画素番号とが一致しなかった場合には(ステップS64/NO)投影した画像パターンの端部13がスクリーンの端部11よりも内側に入ったと判定することができる。従って、上述したワイド側駆動処理を行って画像パターンを拡大表示させ、画像パターンの端部13をスクリーン1の端部11に合わせる。   When the pixel P whose sensor data value first exceeds the threshold value is detected (step S62 / YES), the control circuit 3 compares the pixel P with the pixel S detected in the screen edge detection process (step 1). (Step S64). If the pixel number of the pixel P and the pixel number of the pixel S match (step S64 / YES), the projected image pattern is still projected larger than the screen size, so the above-described steps S60 to S63 are performed. The above processes are repeated so that the pixel number of the pixel P does not match the pixel number of the pixel S. If the pixel number of the pixel P and the pixel number of the pixel S do not match (step S64 / NO), it is determined that the end 13 of the projected image pattern is inside the end 11 of the screen. be able to. Therefore, the above-described wide side driving process is performed to enlarge and display the image pattern, and the end 13 of the image pattern is aligned with the end 11 of the screen 1.

なお、上述した実施例は本発明の好適な実施例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

プロジェクタ装置2の構成を示す図である。2 is a diagram showing a configuration of a projector device 2. FIG. 自動焦点検出装置20の構成を示すブロック図である。2 is a block diagram showing a configuration of an automatic focus detection device 20. FIG. 山登りオートフォーカスを説明するための図である。It is a figure for demonstrating hill-climbing autofocus. プロジェクタ装置を正面から見た構成を示す図である。It is a figure which shows the structure which looked at the projector apparatus from the front. レンズ31a,31b,41a,41bとラインセンサ31c,31d,41c,41dとの位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of lens 31a, 31b, 41a, 41b and line sensor 31c, 31d, 41c, 41d. パッシブ測距装置によりスクリーンを測距する様子を示した図である。It is the figure which showed a mode that a screen distance-measures with a passive ranging device. (A)はスクリーン1の水平方向に対する傾斜角度を説明するための図であり、(B)はスクリーン1の垂直方向に対する傾斜角度を説明するための図である。(A) is a figure for demonstrating the inclination angle with respect to the horizontal direction of the screen 1, (B) is a figure for demonstrating the inclination angle with respect to the vertical direction of the screen 1. FIG. ラインセンサの構成を示す図である。It is a figure which shows the structure of a line sensor. オートズーム処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an auto zoom process. 受光センサ21の出力から取り出されるセンサデータを示す図であり、(A)はスクリーン1の反射光を受光した時のセンサデータを示し、(B)は画像パターンがスクリーンサイズよりも小さく投影されている場合のセンサデータを示し、(C)は画像パターンがスクリーンサイズよりも大きく投影されている場合のセンサデータを示す図である。It is a figure which shows the sensor data taken out from the output of the light receiving sensor 21, (A) shows the sensor data when the reflected light of the screen 1 is received, (B) shows that an image pattern is projected smaller than a screen size. (C) is a diagram showing the sensor data when the image pattern is projected larger than the screen size. スクリーン端部検出処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of a screen edge part detection process. オートフォーカスの詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of an autofocus. 台形歪み補正の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of trapezoid distortion correction. 傾斜角度の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of an inclination angle. 投影画像調整処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of a projection image adjustment process. ワイド側駆動処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of a wide side drive process. テレ側駆動処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of a tele side drive process.

符号の説明Explanation of symbols

1 スクリーン 2 プロジェクタ装置
3 制御回路 4 メモリ部
5 投影画像生成部 6 表示駆動部
7 光学系駆動部 8 投影レンズ光学系
20 自動焦点検出装置 21 受光センサ
22 演算部 30 第1パッシブ測距装置
31 撮像部 31a,31b レンズ
31c,31d ラインセンサ 32 演算部
40 第2パッシブ測距装置 41 撮像部
41a,41b レンズ 41c,41d ラインセンサ
42 演算部 221 HPF
222 検波器 223 A/D変換器
224 積分器
DESCRIPTION OF SYMBOLS 1 Screen 2 Projector apparatus 3 Control circuit 4 Memory part 5 Projection image generation part 6 Display drive part 7 Optical system drive part 8 Projection lens optical system 20 Automatic focus detection apparatus 21 Light receiving sensor 22 Calculation part 30 1st passive ranging device 31 Imaging Unit 31a, 31b Lens 31c, 31d Line sensor 32 Calculation unit 40 Second passive distance measuring device 41 Imaging unit 41a, 41b Lens 41c, 41d Line sensor 42 Calculation unit 221 HPF
222 Detector 223 A / D converter 224 Integrator

Claims (8)

画像をスクリーンに拡大表示する画像投影手段と、
複数の画素を有するセンサを備え、受光量に応じたセンサデータを出力するセンサデータ出力手段と、
前記スクリーン端部の反射光を受光した前記画素と、前記スクリーンに投影された前記画像の端部の反射光を受光した前記画素とを比較して、前記画像の端部を前記スクリーンの端部に合わせるように前記画像投影手段を制御する制御手段と、を有することを特徴とするプロジェクタ装置。
Image projection means for enlarging and displaying an image on a screen;
Sensor data output means comprising a sensor having a plurality of pixels and outputting sensor data according to the amount of received light;
The pixel receiving the reflected light at the screen edge is compared with the pixel receiving the reflected light at the edge of the image projected on the screen, and the edge of the image is compared with the edge of the screen. Control means for controlling the image projection means so as to match the projector.
前記制御手段は、前記センサの中央部から端部に向かって所定のしきい値と比較するセンサデータを選択し、最初に前記しきい値を超えたセンサデータを検出することで、前記スクリーンまたは前記画像の端部の反射光を受光したセンサの位置を検出することを特徴とする請求項1記載のプロジェクタ装置。 The control means selects sensor data to be compared with a predetermined threshold value from the central part toward the end part of the sensor, and first detects the sensor data exceeding the threshold value, whereby the screen or The projector device according to claim 1, wherein the position of a sensor that receives reflected light at an edge of the image is detected. 前記制御手段は、前記画像の端部が前記スクリーンの端部よりも外側にあると判定した場合には、前記画像を縮小する方向に前記画像投影手段を駆動して、前記画像を前記スクリーン内に納め、前記画像を拡大させながら前記画像の端部を前記スクリーンの端部に合わせることを特徴とする請求項1又は2記載のプロジェクタ装置。 When the control means determines that the edge of the image is outside the edge of the screen, the control means drives the image projection means in a direction to reduce the image, and the image is transferred to the inside of the screen. The projector apparatus according to claim 1, wherein an end portion of the image is aligned with an end portion of the screen while enlarging the image. 前記画像は、白色画像の端部が黒色になっていることを特徴とする請求項1から3のいずれか一項記載のプロジェクタ装置。 4. The projector device according to claim 1, wherein an edge of the white image is black in the image. 5. 前記スクリーンの端部は、黒色に形成されていることを特徴とする請求項1から4のいずれか一項記載のプロジェクタ装置。 The projector device according to claim 1, wherein an end portion of the screen is formed in black. スクリーンの反射光を複数の画素を有するセンサで受光して、反射光量に応じたセンサデータを出力する第1センサデータ出力工程と、
前記センサからのセンサデータにより、前記スクリーン端部の反射光を受光した前記画素を特定するスクリーン端部位置特定工程と、
前記スクリーンに画像を投影する画像投影工程と、
前記画像のスクリーンでの反射光を前記センサで受光して、反射光量に応じたセンサデータを出力する第2センサデータ出力工程と、
前記センサからのセンサデータにより、前記スクリーンに投影された前記画像の端部の反射光を受光した前記画素を特定する画像端部特定工程と、
前記スクリーン端部の反射光を受光した前記画素と、前記スクリーンに投影された画像の端部の反射光を受光した前記画素とを比較して、前記画像の端部を前記スクリーンの端部に合わせる画像調整工程と、を有することを特徴とする投影画像調整方法。
A first sensor data output step of receiving reflected light of the screen by a sensor having a plurality of pixels and outputting sensor data corresponding to the amount of reflected light;
A screen end position specifying step for specifying the pixel that has received the reflected light from the screen end by sensor data from the sensor;
An image projecting step of projecting an image on the screen;
A second sensor data output step of receiving reflected light on the screen of the image by the sensor and outputting sensor data according to the amount of reflected light;
An image edge specifying step for specifying the pixel that has received the reflected light at the edge of the image projected on the screen, based on sensor data from the sensor;
The pixel that has received the reflected light at the edge of the screen is compared with the pixel that has received the reflected light at the edge of the image projected on the screen, and the edge of the image is used as the edge of the screen. A projection image adjustment method comprising: an image adjustment step for matching.
前記センサの中央部から端部に向かって所定のしきい値と比較するセンサデータを選択し、最初に前記しきい値を超えたセンサデータを検出することで、前記スクリーンまたは前記画像の端部の反射光を受光した前記画素を検出することを特徴とする請求項6記載の投影画像調整方法。 By selecting sensor data to be compared with a predetermined threshold value from the center to the edge of the sensor, and detecting the sensor data exceeding the threshold first, the edge of the screen or the image The projection image adjustment method according to claim 6, wherein the pixel that receives the reflected light is detected. 前記画像調整工程は、前記画像の端部が前記スクリーンの端部よりも外側にある場合には、前記画像を縮小して前記スクリーン内に納め、前記画像を拡大させながら前記画像の端部を前記スクリーンの端部に合わせることを特徴とする請求項6又は7記載の投影画像調整方法。 In the image adjustment step, when the edge of the image is outside the edge of the screen, the image is reduced and stored in the screen, and the edge of the image is enlarged while enlarging the image. The projection image adjustment method according to claim 6, wherein the projection image adjustment method is adjusted to an end portion of the screen.
JP2003422975A 2003-12-19 2003-12-19 Projector apparatus and method for adjusting projected image Pending JP2005181726A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003422975A JP2005181726A (en) 2003-12-19 2003-12-19 Projector apparatus and method for adjusting projected image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003422975A JP2005181726A (en) 2003-12-19 2003-12-19 Projector apparatus and method for adjusting projected image

Publications (1)

Publication Number Publication Date
JP2005181726A true JP2005181726A (en) 2005-07-07

Family

ID=34783665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003422975A Pending JP2005181726A (en) 2003-12-19 2003-12-19 Projector apparatus and method for adjusting projected image

Country Status (1)

Country Link
JP (1) JP2005181726A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041152A (en) * 2005-08-01 2007-02-15 Matsushita Electric Works Ltd Arrangement grid creation system and hall using the same
WO2007135999A1 (en) * 2006-05-22 2007-11-29 Alps Electric Co., Ltd. Projection device
JP2008304943A (en) * 2008-09-08 2008-12-18 Seiko Epson Corp Light source driving method and projector
WO2013024705A1 (en) 2011-08-18 2013-02-21 Ricoh Company, Ltd. Projector and control method thereof
US9696613B2 (en) 2011-08-18 2017-07-04 Ricoh Company, Ltd. Image processing apparatus, projector and image processing method
US10908075B2 (en) 2010-11-11 2021-02-02 Sony Corporation Fluorescent spectrum correcting method and fluorescent spectrum measuring device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041152A (en) * 2005-08-01 2007-02-15 Matsushita Electric Works Ltd Arrangement grid creation system and hall using the same
WO2007135999A1 (en) * 2006-05-22 2007-11-29 Alps Electric Co., Ltd. Projection device
JP2008304943A (en) * 2008-09-08 2008-12-18 Seiko Epson Corp Light source driving method and projector
US10908075B2 (en) 2010-11-11 2021-02-02 Sony Corporation Fluorescent spectrum correcting method and fluorescent spectrum measuring device
US11454588B2 (en) 2010-11-11 2022-09-27 Sony Corporation Fluorescent spectrum correcting method and fluorescent spectrum measuring device
US11726031B2 (en) 2010-11-11 2023-08-15 Sony Group Corporation Fluorescent spectrum correcting method and fluorescent spectrum measuring device
WO2013024705A1 (en) 2011-08-18 2013-02-21 Ricoh Company, Ltd. Projector and control method thereof
US8953101B2 (en) 2011-08-18 2015-02-10 Ricoh Company, Ltd. Projector and control method thereof
US9696613B2 (en) 2011-08-18 2017-07-04 Ricoh Company, Ltd. Image processing apparatus, projector and image processing method

Similar Documents

Publication Publication Date Title
US6885819B2 (en) Camera, device for capturing object image, automatic focus adjusting system and method for adjusting automatic focus for the same
RU2456654C2 (en) Image capturing device, control method thereof and data medium
JP4963569B2 (en) Imaging system and lens unit
JP2003131121A (en) Device and method for automatic focus adjustment
JP2008287171A (en) Projection type image display device
JP2008309882A (en) Digital camera
US7796877B2 (en) Focus-controlling apparatus and photographing apparatus
JP2007264299A (en) Focus adjustment device
JP4045483B2 (en) Focus status detection device
US7570298B2 (en) Image-taking apparatus with first focus control such that in-focus position is searched for based on first signal and second focus control such that one of in-focus position and drive amount is determined based on second signal
EP1571477A2 (en) Focus detecting system
JP2005181726A (en) Projector apparatus and method for adjusting projected image
US20090237550A1 (en) Focus adjustment apparatus and image capturing apparatus
US20070058962A1 (en) Lens apparatus
JP2005249432A (en) Projector device and distance measuring method
JP2005234071A (en) Projector device and projection image adjustment method
JP2005049604A (en) Projector and focusing method for projector
JP2005143043A (en) Projector and focus detecting method
JP2005234350A (en) Projector device and focus adjusting method
JP2004361809A (en) Autofocus camera
JP3382321B2 (en) Optical equipment
JP2004347908A (en) Projector and automatic focusing method
WO2004104668A1 (en) Projector and image adjusting method
JP2005123725A (en) Projector and method for correcting trapezoidal distortion thereof
JP2004151608A (en) Autofocus system