JP2007235470A - Graphic display device - Google Patents

Graphic display device Download PDF

Info

Publication number
JP2007235470A
JP2007235470A JP2006054047A JP2006054047A JP2007235470A JP 2007235470 A JP2007235470 A JP 2007235470A JP 2006054047 A JP2006054047 A JP 2006054047A JP 2006054047 A JP2006054047 A JP 2006054047A JP 2007235470 A JP2007235470 A JP 2007235470A
Authority
JP
Japan
Prior art keywords
projection
area
divided
areas
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006054047A
Other languages
Japanese (ja)
Other versions
JP4730136B2 (en
Inventor
Katsuhiro Amano
勝博 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2006054047A priority Critical patent/JP4730136B2/en
Priority to EP07737407A priority patent/EP1990995B1/en
Priority to PCT/JP2007/053605 priority patent/WO2007102339A1/en
Priority to AT07737407T priority patent/ATE518366T1/en
Priority to US12/281,079 priority patent/US8246172B2/en
Publication of JP2007235470A publication Critical patent/JP2007235470A/en
Application granted granted Critical
Publication of JP4730136B2 publication Critical patent/JP4730136B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a graphic display device detecting a projection region proper for displaying a video and displaying the video in a detected projection region. <P>SOLUTION: The graphic display device displays the videos by projecting a light on projection surfaces in a projection area. The graphic display device has an aptitude-value arithmetic section 24 recognizing the projection area as the set of a plurality of divided regions and detecting aptitude values as the projection surfaces in each divided region, and a projection-region deciding section 26 selecting one or more of the divided regions B as the projection regions from a plurality of the divided regions B on the basis of the aptitude values. The graphic display device further has a video processor 27 controlling the projection light, so that the videos displayed on the projection surfaces are contained in one or more of the selected projection regions D. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、スクリーンなどの投射面に映像を表示するプロジェクタなどの映像表示装置に関する。   The present invention relates to an image display device such as a projector that displays an image on a projection surface such as a screen.

プロジェクタなどの映像表示装置は、たとえば、OHP、スライドなどの静止画像や動画などの映像をスクリーンなどの投射面に投影するためのものである。このようなプロジェクタを用いて投射面に映像を表示する場合に、投射面に凹凸があったり、投射面上あるいは投射光の光路途中に障害物があったりすると、投射した映像が歪んだり、投射面に障害物の影が投影されたりするといった不具合が生ずる。そこで、従来から、このような不具合の発生を防止する方法が種々提案されている。   A video display device such as a projector is for projecting a video such as a still image such as an OHP or a slide or a moving image onto a projection surface such as a screen. When displaying an image on the projection surface using such a projector, if the projection surface is uneven or there are obstacles on the projection surface or in the optical path of the projection light, the projected image may be distorted or projected. There is a problem that the shadow of an obstacle is projected on the surface. Therefore, various methods for preventing the occurrence of such problems have been proposed.

たとえば、従来のプロジェクタとしては、投射光がスクリーンに対して斜め方向であるか否かを検出するものがある。そして、斜め方向である場合には、斜め方向であることによって生じる台形状の歪みを自動的に補正するようになっている(特許文献1参照)。   For example, as a conventional projector, there is one that detects whether or not the projection light is oblique to the screen. And when it is an oblique direction, the trapezoid distortion which arises by being an oblique direction is correct | amended automatically (refer patent document 1).

また、赤外線等の検出波をスクリーンに向けて出射し、スクリーン側から返ってくる反射波を検出することで障害物の有無を検出する画像投射装置がある。そして、障害物を検出した場合には、その障害物が人間である場合を考慮して投射光の光量を低減したり、照射を中断したりするようになっている(特許文献2参照)。   There is also an image projection apparatus that detects the presence or absence of an obstacle by emitting a detection wave such as infrared rays toward a screen and detecting a reflected wave returning from the screen side. When an obstacle is detected, the amount of projection light is reduced or irradiation is interrupted in consideration of the case where the obstacle is a human being (see Patent Document 2).

ところが、いずれのプロジェクタや画像投射装置においても、スクリーン表面に部分的に存在する凹凸によって生ずる映像の歪みを防止できない。そして、前者のプロジェクタでは、投射光の光路途中に存在する障害物を検出することができず、したがって障害物の影が投影されることを防止できない。また、後者の画像投射装置では、光路途中の障害物を検出することはできるが、障害物を検出すると投射光量を低減し、あるいは投射を中断するので、画像が表示されなくなったり、光量不足で画像が見にくくなったりする。
特開平4−355740号公報 特開2004−70298号公報
However, any projector or image projection apparatus cannot prevent image distortion caused by unevenness partially existing on the screen surface. The former projector cannot detect an obstacle existing in the optical path of the projection light, and therefore cannot prevent the shadow of the obstacle from being projected. In the latter image projection apparatus, an obstacle in the optical path can be detected, but if an obstacle is detected, the amount of projected light is reduced or the projection is interrupted. It may be difficult to see the image.
JP-A-4-355740 JP 2004-70298 A

本発明は、このような問題点に鑑みてなされたものであり、映像の表示を行うために適した投射領域を検出し、検出した投射領域に映像を表示する映像表示装置を提供することを課題とする。   The present invention has been made in view of such problems, and provides a video display device that detects a projection area suitable for displaying a video and displays the video in the detected projection area. Let it be an issue.

上記課題を解決するため、本発明は、以下のような映像表示装置を提供する。   In order to solve the above problems, the present invention provides the following video display device.

請求項1に記載の発明は、投射エリア内の投射面に光を投射して映像を表示する映像表示装置であって、前記投射エリアを複数の分割領域の集合とし、各分割領域における投射面としての適性値を検出する適性値検出手段と、前記適性値に基づいて、前記複数の分割領域の中から1以上の分割領域を、投射領域として選択する領域選択手段と、前記投射面に表示する映像が選択した1以上の投射領域内に収まるように前記投射光を制御する投射制御手段と、を有する映像表示装置である。   The invention according to claim 1 is a video display device that displays light by projecting light onto a projection surface in a projection area, wherein the projection area is a set of a plurality of divided regions, and the projection surface in each divided region An aptitude value detecting means for detecting an aptitude value, an area selection means for selecting one or more divided areas as a projection area from the plurality of divided areas based on the aptitude value, and a display on the projection surface And a projection control means for controlling the projection light so that the image to be received falls within one or more selected projection areas.

請求項2に記載の発明は、請求項1に記載の映像表示装置であって、前記領域選択手段は、前記適性値に基づいて、前記複数の分割領域の中から1以上の分割領域を投射候補領域として決定し、前記投射候補領域の前記投射エリア内における位置および/または配置に基づいて、前記投射候補領域の中から1以上の投射候補領域を前記投射領域として選択するものである。   A second aspect of the present invention is the video display device according to the first aspect, wherein the area selection unit projects one or more divided areas from the plurality of divided areas based on the suitability value. It determines as a candidate area | region, Based on the position and / or arrangement | positioning in the said projection area of the said projection candidate area | region, one or more projection candidate area | regions are selected as said projection area | region from the said projection candidate area | region.

請求項3に記載の発明は、請求項1または請求項2に記載の映像表示装置であって、前記適性値検出手段は、前記各分割領域に向けて出射された電磁波または超音波の反射波に基づいて、前記電磁波または超音波の反射点の位置と、前記反射点を含む反射面の表面形状とのうちの少なくともいずれか一方を検出するものであり、少なくとも前記反射点の位置および/または前記反射面の表面形状に基づいて、対応する分割領域の適性値を検出するものである。   A third aspect of the present invention is the video display device according to the first or second aspect, wherein the suitability value detecting means is a reflected wave of an electromagnetic wave or an ultrasonic wave emitted toward each of the divided regions. Based on the above, at least one of the position of the reflection point of the electromagnetic wave or the ultrasonic wave and the surface shape of the reflection surface including the reflection point is detected, and at least the position of the reflection point and / or Based on the surface shape of the reflecting surface, the suitability value of the corresponding divided region is detected.

請求項4に記載の発明は、請求項3に記載の映像表示装置であって、前記適性値検出手段は、前記投射エリアを3つ以上の分割領域の集合として扱うと共に、少なくとも前記反射点の位置に基づいて前記適性値を検出するものであり、前記分割領域内にある1つ以上の反射点の位置に基づいて定められる位置を、対応する分割領域の評価用位置とすると共に3つ以上の分割領域を選択し、選択した3つ以上の分割領域の前記評価用位置が一平面上にある場合には、選択した前記3つ以上の分割領域について、前記投射候補領域として決定される適性値を検出するものである。   According to a fourth aspect of the present invention, in the video display device according to the third aspect, the aptitude value detecting means treats the projection area as a set of three or more divided areas, and at least the reflection points. The suitability value is detected based on a position, and a position determined based on the position of one or more reflection points in the divided area is set as an evaluation position for the corresponding divided area and three or more If the evaluation positions of the three or more selected divided areas are on one plane, the aptitude that is determined as the projection candidate area for the selected three or more divided areas The value is detected.

請求項5に記載の発明は、請求項4に記載の映像表示装置であって、前記適性値検出手段は、前記評価用位置として、前記分割領域内の1つの反射点の位置を用いるものであると共に、前記評価用位置に用いられる反射点に入射する前記電磁波または超音波の出射方向が同一平面上である分割領域の中から前記3つ以上の分割領域を選択するものであり、選択した3つ以上の分割領域の前記評価用位置に用いられる反射点の位置が一直線上にある場合には、選択した前記3つ以上の分割領域について、前記投射候補領域として決定される適性値を検出するものである。   According to a fifth aspect of the present invention, in the video display device according to the fourth aspect, the aptitude value detecting means uses a position of one reflection point in the divided area as the evaluation position. In addition, the three or more divided regions are selected from the divided regions in which the emission direction of the electromagnetic wave or the ultrasonic wave incident on the reflection point used for the evaluation position is on the same plane. When the positions of the reflection points used for the evaluation positions in three or more divided areas are on a straight line, aptitude values determined as the projection candidate areas are detected for the selected three or more divided areas. To do.

請求項6に記載の発明は、請求項1から請求項5のいずれか一項に記載の映像表示装置であって、前記適性値検出手段は、少なくとも前記各分割領域に向けて投射した白色光の反射光に基づいて対応する分割領域の色を検出するものであり、前記色に基づいて対応する分割領域の前記適性値を検出するものである。   A sixth aspect of the present invention is the video display device according to any one of the first to fifth aspects, wherein the aptitude value detecting means projects at least white light projected toward each of the divided regions. The color of the corresponding divided area is detected based on the reflected light, and the suitability value of the corresponding divided area is detected based on the color.

請求項7に記載の発明は、請求項1から請求項6のいずれか一項に記載の映像表示装置であって、前記適性値検出手段は、少なくとも前記各分割領域に向けて投射した白色光の反射光に基づいて対応する分割領域の輝度を検出するものであり、前記輝度に基づいて対応する分割領域の前記適性値を検出するものである。   A seventh aspect of the present invention is the video display device according to any one of the first to sixth aspects, wherein the aptitude value detecting means projects at least white light projected toward each of the divided regions. The brightness of the corresponding divided area is detected based on the reflected light, and the suitability value of the corresponding divided area is detected based on the brightness.

請求項8に記載の発明は、請求項2から請求項7のいずれか一項に記載の映像表示装置であって、前記領域選択手段は、前記投射候補領域の一つとして前記投射エリアの中央位置を含む分割領域が含まれている場合には、前記中央位置を含む分割領域を前記投射領域の1つとして選択するものである。   The invention according to an eighth aspect is the video display device according to any one of the second to seventh aspects, wherein the region selecting means is a center of the projection area as one of the projection candidate regions. When a divided area including a position is included, the divided area including the central position is selected as one of the projection areas.

請求項9に記載の発明は、請求項2から請求項8のいずれか一項に記載の映像表示装置であって、前記領域選択手段は、前記投射光の投射範囲の形状と相似する相似形のうち前記1以上の投射候補領域内に収まる最大のものを前記1以上の投射候補領域に重ねた場合に、前記相似形と重なる1以上の投射候補領域を前記投射領域として選択するものである。   A ninth aspect of the present invention is the video display device according to any one of the second to eighth aspects, wherein the region selecting unit is similar to the shape of the projection range of the projection light. When the largest one that falls within the one or more projection candidate areas is superimposed on the one or more projection candidate areas, one or more projection candidate areas that overlap the similar shape are selected as the projection areas. .

請求項1に記載の発明では、適性値検出手段によって、各分割領域における投射面としての適性値を検出し、この適性値に基づいて、複数の分割領域の中から1以上の分割領域を投射領域として領域選択手段で選択する。投射領域の投射面としての適性としては、分割領域における障害物の有無、投射面表面の凹凸、画像表示装置からの投射面までの距離、投射面の色など、種々のものを挙げることができる。適性値検出手段は、これらを検出して各分割領域の投射面としての適性値を求める。そして、投射面に表示しようとしている映像が、選択した1以上の投射領域内に収まるように、投射制御手段によって投射光を制御する。具体的にいえば、例えば、投射面上における投射範囲を拡大・縮小したり、投射領域の位置を移動させたりするようなことを行う。このように、本発明によれば、投射エリア内から投射面として適する領域を特定し、その領域に自動的に光を投射して映像を表示するので、投射面に投射された映像は見やすいものとなる。   According to the first aspect of the present invention, the aptitude value detection means detects the aptitude value as the projection surface in each divided area, and projects one or more divided areas from among the plurality of divided areas based on the aptitude value. The area is selected by the area selection means. As the suitability of the projection area as the projection surface, various things such as the presence or absence of an obstacle in the divided area, the projection surface unevenness, the distance from the image display device to the projection surface, and the color of the projection surface can be exemplified. . The aptitude value detecting means detects these to obtain aptitude values as projection surfaces of the respective divided areas. Then, the projection light is controlled by the projection control means so that the video image to be displayed on the projection surface falls within the selected one or more projection areas. More specifically, for example, the projection range on the projection surface is enlarged or reduced, or the position of the projection area is moved. As described above, according to the present invention, an area suitable as a projection surface is specified from within the projection area, and light is automatically projected onto the area to display an image, so that the image projected on the projection surface is easy to see. It becomes.

請求項2に記載の発明の領域選択手段では、まず各分割領域の投射面としての適性値に基づいて、複数の分割領域の中から1以上の分割領域を投射候補領域として決定する。そして、投射候補領域の前記投射エリア内における位置および/または配置に基づいて、投射候補領域の中から1以上の投射候補領域を投射領域として選択する。このように、本発明によれば、領域選択手段で投射領域を選択するときに、投射候補領域の位置や配置を考慮するので、実際に映像を表示する投射領域としてより適切な領域が選択される。したがって、映像はより見やすい状態で投射面に表示される。   In the area selection means according to the second aspect of the invention, first, one or more divided areas are determined as projection candidate areas from among a plurality of divided areas based on the suitability value as the projection surface of each divided area. And based on the position and / or arrangement | positioning in the said projection area of a projection candidate area | region, one or more projection candidate area | regions are selected from a projection candidate area | region as a projection area | region. As described above, according to the present invention, when the projection area is selected by the area selection unit, the position and arrangement of the projection candidate area are taken into consideration, so that a more appropriate area is selected as the projection area for actually displaying the video. The Therefore, the image is displayed on the projection surface in a more easily viewable state.

請求項3に記載の発明では、適性値検出手段により、まず、各分割領域に向けて出射された電磁波または超音波の反射波に基づいて、電磁波または超音波の反射点の位置と、反射点を含む反射面の表面形状のうちの少なくともいずれか一方を検出する。つまり、反射波を用いて反射点の位置や反射面の表面状態を検出する。反射点の位置がわかると、投射領域における投射面としての適性値のうち、例えば、投射面(または障害物)までの距離に関する値を検出できる。そして、別の投射領域の反射点の位置との位置関係に基づいて投射面の凹凸に関する値を検出できる。これらの適性は、投射領域における投射面としての適値として重要なものであるところ、本発明によれば、これらの適性に基づいて、投射領域を選択できるので、映像の投射に適した投射面を確実に選択できる。   In the invention according to claim 3, the position of the reflection point of the electromagnetic wave or the ultrasonic wave is first detected by the aptitude value detecting means based on the reflected wave of the electromagnetic wave or the ultrasonic wave emitted toward each divided region, and the reflection point. At least one of the surface shapes of the reflecting surface including is detected. That is, the position of the reflection point and the surface state of the reflection surface are detected using the reflected wave. If the position of the reflection point is known, for example, a value related to the distance to the projection surface (or obstacle) can be detected from the suitability values as the projection surface in the projection area. And the value regarding the unevenness | corrugation of a projection surface is detectable based on the positional relationship with the position of the reflective point of another projection area | region. These aptitudes are important as appropriate values as the projection surface in the projection area. According to the present invention, since the projection area can be selected based on these aptitudes, the projection plane is suitable for video projection. Can be selected reliably.

請求項4に記載の発明では、投射エリアを3つ以上の分割領域の集合として扱う。そして、適性値検出手段は、少なくとも前記反射点の位置に基づいて前記適性値を検出する。より具体的に説明すると、分割領域内にある1つ以上の反射点の位置に基づいて、その分割領域の評価用位置を定める。例えば、1つの反射点の位置を用いる場合はその反射点の位置が評価用位置となる。また、2つ以上の反射点の位置を用いる場合は、例えば、それらの反射点の位置の平均値を評価用位置として定める。そして、適性値検出手段は、評価用位置が定められた分割領域のうちから3つ以上の分割領域を選択し、選択した3つ以上の分割領域の評価用位置が一平面上にある場合には、選択した分割領域の投射面は凹凸がなく投射候補領域として適当であると判断して、各分割領域について、投射候補領域に決定されるような適性値を検出する。このように、本発明によれば、投射面の表面の凹凸が考慮された適性値が検出される。この適性値に基づけば、平面性に優れる投射面を有する分割領域を投射候補領域として特定できる。   In the invention according to claim 4, the projection area is handled as a set of three or more divided areas. The aptitude value detecting means detects the aptitude value based on at least the position of the reflection point. More specifically, based on the position of one or more reflection points in the divided area, the evaluation position of the divided area is determined. For example, when the position of one reflection point is used, the position of the reflection point becomes the evaluation position. Further, when using the positions of two or more reflection points, for example, an average value of the positions of the reflection points is determined as the evaluation position. Then, the aptitude value detecting means selects three or more divided areas from the divided areas for which the evaluation positions are determined, and the evaluation positions of the selected three or more divided areas are on one plane. Determines that the projection surface of the selected divided region has no unevenness and is suitable as a projection candidate region, and detects an appropriate value determined as the projection candidate region for each divided region. Thus, according to the present invention, the aptitude value in consideration of the unevenness of the surface of the projection surface is detected. Based on this suitability value, a divided area having a projection surface with excellent flatness can be specified as a projection candidate area.

請求項5に記載の発明では、適性値検出手段は、分割領域内の1つの反射点の位置を用いて評価用位置を定める。つまり、その反射点の位置が評価用位置である。そして、本発明の適性値検出手段は、3つ以上の分割領域を選択するとき、次のように分割領域を選択する。つまり、選択した各分割領域の評価用位置として用いられる反射点に入射する電磁波または超音波の反射波の出射方向に着目し、着目した反射波の出射方向が全て同一平面上にあるものの中から3つ以上の分割領域を選択する。そして、選択した3つ以上の分割領域の評価用位置に用いられる反射点の位置が一直線上にある場合には、選択した3つ以上の分割領域は投射候補領域として適当であり、各分割領域について、投射候補領域として決定される適性値を検出する。このように、本発明によれば、投射面の表面の凹凸が考慮された適性値が検出される。この適性値に基づけば、平面性に優れる投射面を有する分割領域を投射候補領域として特定できる。   In the invention described in claim 5, the aptitude value detecting means determines the evaluation position by using the position of one reflection point in the divided area. That is, the position of the reflection point is the evaluation position. Then, the aptitude value detecting means of the present invention selects the divided areas as follows when selecting three or more divided areas. That is, paying attention to the emission direction of the reflected wave of electromagnetic waves or ultrasonic waves incident on the reflection point used as the evaluation position for each selected divided area, and from among those where the emission directions of the reflected waves of interest are all on the same plane Three or more divided areas are selected. When the positions of the reflection points used for the evaluation positions of the three or more selected divided areas are on a straight line, the three or more selected divided areas are suitable as projection candidate areas, and each divided area , The aptitude value determined as the projection candidate area is detected. Thus, according to the present invention, the aptitude value in consideration of the unevenness of the surface of the projection surface is detected. Based on this suitability value, a divided area having a projection surface with excellent flatness can be specified as a projection candidate area.

請求項6に記載の発明では、適性値検出手段は、少なくとも前記各分割領域に向けて投射した白色光の反射光に基づいて、対応する分割領域の色を検出し、色に基づいて対応する分割領域の適性値を検出する。ここでいう色とは、色の三属性のうちの色相のことである。カラー画像投射時に画像本来の色を再現するためには、投射面としては、色成分を含む(有彩色の)面よりも白色などの無彩色に近い面の方が適しているということができる。色成分を含む色の投射面は、カラー画像を投射したときに色バランスが崩れるという点で好ましくない。そして、無彩色であるか否か、あるいは無彩色に近いか否かは、色相に基づいて判断できるものである。本発明によれば、色すなわち色相を考慮した適性値を検出できるので、投射面として適した色の投射面、例えばより白色などの無彩色に近い投射面を有する分割領域を投射領域として選択できる。   In the invention according to claim 6, the aptitude value detecting means detects the color of the corresponding divided area based on at least the reflected light of the white light projected toward each of the divided areas, and responds based on the color. The suitability value of the divided area is detected. The color here is a hue of the three attributes of color. In order to reproduce the original color of an image when projecting a color image, it can be said that a surface close to an achromatic color such as white is more suitable as a projection surface than a (chromatic) surface including a color component. . A color projection surface including color components is not preferable in that the color balance is lost when a color image is projected. Whether or not the color is achromatic or close to the achromatic color can be determined based on the hue. According to the present invention, it is possible to detect the suitability value in consideration of the color, that is, the hue, so that it is possible to select a projection surface of a color suitable as the projection surface, for example, a divided region having a projection surface close to an achromatic color such as white. .

請求項7に記載の発明によれば、適性値検出手段は、少なくとも各分割領域に向けて投射した白色光の反射光に基づいて、対応する分割領域の輝度を検出し、輝度に基づいて対応する分割領域の前記適性値を検出する。なお、ここでいう輝度とは、明暗を表すものであり、色の三属性のうちの明度のことである。画像の投射面としては、輝度の高い面すなわち光をより強く反射する(いわゆる白っぽい)面が適しているということができる。特に、プロジェクタは、通常のブラウン管ディスプレイや液晶ディスプレイなどの表示手段と比較して輝度が乏しため、より一層輝度の高い面が好ましい。そして、輝度が高いか否かは、明度に基づいて判断できるものである。本発明によれば、投射面の輝度を考慮した適性値を検出できるので、投射面として適した輝度の投射面を有する分割領域を投射候補領域として特定できる。   According to the seventh aspect of the present invention, the aptitude value detecting means detects the luminance of the corresponding divided region based on at least the reflected light of the white light projected toward each divided region, and responds based on the luminance. The suitability value of the divided area to be detected is detected. Note that the luminance here represents light and dark, and is the lightness of the three attributes of color. It can be said that a high-luminance surface, that is, a surface that reflects light more strongly (so-called whitish) is suitable as an image projection surface. In particular, the projector has a lower luminance as compared with a display means such as a normal cathode ray tube display or a liquid crystal display, and therefore, a surface with higher luminance is preferable. Whether or not the luminance is high can be determined based on the brightness. According to the present invention, an aptitude value in consideration of the brightness of the projection surface can be detected, so that a divided region having a projection surface with a brightness suitable as the projection surface can be specified as a projection candidate region.

請求項8に記載の発明では、領域選択手段は、投射候補領域の一つとして投射エリアの中央位置を含む分割領域が含まれている場合には、中央位置を含む分割領域を投射領域の1つとして選択する。つまり、投射エリア内の中央部に投射面として適した投射候補領域がある場合には、投射エリアの中央部に映像を投射する。投射エリア内の中央部に投射される映像は、投射レンズのうち光学的性能が最も優れたレンズ中央部を通過した投射光によって投射面に表示されたものである。このように、本発明によれば、より鮮明に映像を表示できる。また、投射エリアの中央部は、映像を見る者にとって見やすい位置であり、この点でも優れた領域であるということができる。   In the invention according to claim 8, when the divided region including the central position of the projection area is included as one of the projection candidate regions, the region selecting unit selects the divided region including the central position as one of the projected regions. Select as one. That is, when there is a projection candidate area suitable as a projection surface in the central part in the projection area, an image is projected on the central part of the projection area. The image projected on the central part in the projection area is displayed on the projection surface by the projection light that has passed through the central part of the lens having the best optical performance among the projection lenses. Thus, according to the present invention, a video can be displayed more clearly. In addition, the central portion of the projection area is an easy-to-see position for the person who sees the video, and it can be said that this is also an excellent region.

請求項9に記載の発明では、領域選択手段は、投射光の投射範囲の形状および1以上の投射候補領域の全ての位置を認識した上で、投射光の投射範囲の形状と相似する相似形であって、1以上の投射候補領域内(より具体的には投射候補領域内の投射面)に収まる最大の相似形を検出する。そして、検出した最大の相似形を、投射領域内に収まるように投射候補領域(投射候補領域内の投射面)に重ねたときに、この最大相似形と重なる1以上の投射候補領域を投射領域として選択する。このように、本発明によれば、可能な範囲で最大の映像を投射面に表示できる。   In the invention according to claim 9, the region selecting means recognizes the shape of the projection range of the projection light and all positions of the one or more projection candidate regions, and then resembles the shape of the projection range of the projection light. Then, the maximum similar shape that falls within one or more projection candidate areas (more specifically, the projection plane in the projection candidate area) is detected. Then, when the detected maximum similar shape is superimposed on the projection candidate region (projection surface in the projection candidate region) so as to be within the projection region, one or more projection candidate regions overlapping with the maximum similar shape are displayed in the projection region. Select as. Thus, according to the present invention, it is possible to display the maximum image on the projection plane as much as possible.

以下、本発明に係る映像表示装置の実施形態であるプロジェクタについて図面を用いて詳細に説明する。各図面に付した符号は、同一の機能を有するものは同一とした。   Hereinafter, a projector which is an embodiment of a video display device according to the present invention will be described in detail with reference to the drawings. The reference numerals used in the drawings are the same for those having the same function.

図1に示されるように、プロジェクタ10は、そのプロジェクタ本体内に備えられた光源ユニット12と、プロジェクタ本体11の前面に取り付けられた投射レンズ部13とを備えている。光源ユニット12は、映像を表示するための投射光L(図2参照)を投射する光源12aと、後述する映像処理部27からの信号に基づいて光源12aを制御する光源制御部12bとを備えている。そして、投射レンズ部13は、投射レンズ14を備えており、投射光Lは投射レンズ14によってスクリーンSなどに投射されるようになっている。   As shown in FIG. 1, the projector 10 includes a light source unit 12 provided in the projector main body, and a projection lens unit 13 attached to the front surface of the projector main body 11. The light source unit 12 includes a light source 12a that projects projection light L (see FIG. 2) for displaying an image, and a light source control unit 12b that controls the light source 12a based on a signal from a video processing unit 27 described later. ing. The projection lens unit 13 includes a projection lens 14, and the projection light L is projected onto the screen S or the like by the projection lens 14.

図2に示されるように、投射光Lによって映像を投射できるエリアの形状すなわち投射エリアAの形状は横長の長方形である。そして、この投射エリアAは、後述するコントローラ20(図4参照)によって、図3(A)に示されるように複数の分割領域Bの集合として認識される。具体的には、投射エリアAは上下4段、左右4列の、合計16区画の分割領域Bの集合として認識される。各分割領域Bの形状は、横長の長方形であり、投射エリアAの形状と相似形である。個々の分割領域Bを特定する場合は、分割領域Bの位置を示す添え字を付す。たとえば、「分割領域B21」は、プロジェクタ10の光源12aからスクリーンSに向かって左側から、第2列目で上から第1段目に位置する分割領域Bを示す。   As shown in FIG. 2, the shape of the area where the image can be projected by the projection light L, that is, the shape of the projection area A is a horizontally long rectangle. The projection area A is recognized as a set of a plurality of divided regions B as shown in FIG. 3A by a controller 20 (see FIG. 4) described later. More specifically, the projection area A is recognized as a set of divided areas B having a total of 16 sections, ie, upper and lower four stages and left and right four columns. The shape of each divided region B is a horizontally long rectangle, which is similar to the shape of the projection area A. When specifying each divided area B, a suffix indicating the position of the divided area B is added. For example, “divided area B21” indicates the divided area B located in the second row from the top in the second row from the left side toward the screen S from the light source 12a of the projector 10.

なお、投射エリアAとは、実際には、光源12aからの投射光Lが進行する空間のことであるが、ここでは、投射光Lの投射方向Xに直交している平面を設置したと仮定した場合に、当該平面に投射される投射光Lの投射範囲の形状を投射エリアAの形状としている(図2参照)。また、分割領域Bや後述する投射候補領域Cおよび投射領域Dも、光源12aからの投射光Lが進行する所定空間のことであるが、投射エリアAと同様、投射光Lの投射方向Xに直交している平面に投射された分割領域B等の各領域の形状を分割領域Bの形状としている。   The projection area A is actually a space in which the projection light L from the light source 12a travels. Here, it is assumed that a plane orthogonal to the projection direction X of the projection light L is installed. In this case, the shape of the projection range of the projection light L projected onto the plane is the shape of the projection area A (see FIG. 2). Further, the divided area B and the projection candidate area C and the projection area D, which will be described later, are also predetermined spaces in which the projection light L from the light source 12a travels, but in the projection direction X of the projection light L as in the projection area A. The shape of each region such as the divided region B projected onto the orthogonal plane is the shape of the divided region B.

また、図1に示されるように、プロジェクタ10は、投射レンズ部13に設けられたズームユニット15およびフォーカスユニット16と、プロジェクタ本体11内に設置された光量調節器17と、プロジェクタ本体11の前面に設置されたセンサユニット18と、プロジェクタ10のオンオフスイッチおよび電源ユニット(いずれも不図示)とを備えている。また、プロジェクタ10は、動作制御用のコントローラ20をプロジェクタ本体11内に備えている。なお、電源から各機器への電力供給用の配線などは省略した。   As shown in FIG. 1, the projector 10 includes a zoom unit 15 and a focus unit 16 provided in the projection lens unit 13, a light amount adjuster 17 installed in the projector body 11, and the front surface of the projector body 11. , A sensor unit 18, an on / off switch for the projector 10, and a power supply unit (both not shown). In addition, the projector 10 includes a controller 20 for operation control in the projector main body 11. Note that wiring for supplying power from the power source to each device was omitted.

ズームユニット15は、スクリーンSに投射する映像を拡大したり縮小したりするためのものであり、ズーム機構15aと当該ズーム機構15aを動作させるためのズーム用モータ15bとを備えている(図4参照)。また、フォーカスユニット16は、いわゆるヘリコイド機構を用いたフォーカス調整機構16aと、当該調整機構を動作させるフォーカス用モータ16bを備えている(図4参照)。これらのモータ15b,16bでズーム機構15aやフォーカス調整機構16aを動作させることで、投射レンズ14のズームやフォーカス調整を行う。なお、これらの機構は公知のものであり、その詳細な説明を省略した。   The zoom unit 15 is for enlarging or reducing the image projected on the screen S, and includes a zoom mechanism 15a and a zoom motor 15b for operating the zoom mechanism 15a (FIG. 4). reference). The focus unit 16 includes a focus adjustment mechanism 16a using a so-called helicoid mechanism and a focus motor 16b for operating the adjustment mechanism (see FIG. 4). By operating the zoom mechanism 15a and the focus adjustment mechanism 16a with these motors 15b and 16b, zoom and focus adjustment of the projection lens 14 are performed. Note that these mechanisms are known and detailed description thereof is omitted.

光量調節器17は、電圧可変式のものであり、光源12aに供給する電力の電圧を調整することで光量を調整するものである。これにより、スクリーンSに適切な明るさの映像を表示できる。なお、光量調節方法は、電圧可変式に限られず、絞りやフィルタを用いる方法など、種々の方法を用いることができる。   The light quantity adjuster 17 is of a variable voltage type and adjusts the light quantity by adjusting the voltage of the power supplied to the light source 12a. Thereby, an image with appropriate brightness can be displayed on the screen S. The light amount adjustment method is not limited to the voltage variable type, and various methods such as a method using a diaphragm or a filter can be used.

センサユニット18は、プロジェクタ10からの距離を測定する距離センサ19を複数備えている。具体的には、分割領域Bの数に等しい16個の距離センサ19を備えている。各距離センサ19は、プロジェクタ10の投射エリアA内に向けて赤外線(検出波)Irを出射する出射部19aと、赤外線Irの反射波を検出する反射波検出部19bとを備えている。また、センサユニット18は、検出した情報に基づいて赤外線Irの反射点Pr(図3(B)参照)までの距離を求める反射点距離演算部18a(図4参照)を備えている。   The sensor unit 18 includes a plurality of distance sensors 19 that measure the distance from the projector 10. Specifically, 16 distance sensors 19 equal to the number of divided areas B are provided. Each distance sensor 19 includes an emission unit 19a that emits infrared (detection wave) Ir toward the projection area A of the projector 10, and a reflected wave detection unit 19b that detects a reflected wave of the infrared Ir. Further, the sensor unit 18 includes a reflection point distance calculation unit 18a (see FIG. 4) that obtains a distance to the reflection point Pr of the infrared Ir based on the detected information (see FIG. 3B).

図3(A)に示されるように、各距離センサ19の出射部19aは、それぞれ、対応する分割領域Bの中央Bcに向けて赤外線Irを出射している。したがって、投射光Lの投射方向にスクリーンSがある場合、距離センサ19から出射された赤外線Irは、対応する分割領域Bの中央Bcの位置であってスクリーンSの表面において反射される。そして、赤外線Irの反射波(以下、反射赤外線)Rrが距離センサ19の反射波検出部19bで検出される。   As shown in FIG. 3 (A), the emitting portion 19a of each distance sensor 19 emits infrared Ir toward the center Bc of the corresponding divided region B. Therefore, when the screen S is in the projection direction of the projection light L, the infrared light Ir emitted from the distance sensor 19 is reflected on the surface of the screen S at the position of the center Bc of the corresponding divided region B. Then, the reflected wave (hereinafter referred to as reflected infrared ray) Rr of the infrared ray Ir is detected by the reflected wave detection unit 19b of the distance sensor 19.

なお、投射光Lを投射する投射レンズ14の位置と、赤外線Irを出射する距離センサ19の出射部19aの位置は異なる位置である。したがって、図3(B)に示されるように、赤外線Irの実際の反射点Prの位置が対応する分割領域Bの中央Bcの位置からずれることがある。ただし、投射レンズ14と距離センサ19との間の距離はプロジェクタ10から反射点Prまでの距離に比べて小さい距離であり、反射点Prの中央Bcからのズレは僅かである。そこで、ここでは、各距離センサ19の赤外線Irの出射方向は対応する分割領域Bの中央Bcの位置の方向と説明する。   Note that the position of the projection lens 14 that projects the projection light L and the position of the emitting portion 19a of the distance sensor 19 that emits the infrared light Ir are different positions. Therefore, as shown in FIG. 3B, the actual reflection point Pr of the infrared Ir may deviate from the position of the center Bc of the corresponding divided region B. However, the distance between the projection lens 14 and the distance sensor 19 is smaller than the distance from the projector 10 to the reflection point Pr, and the deviation of the reflection point Pr from the center Bc is slight. Therefore, here, the emission direction of the infrared Ir of each distance sensor 19 will be described as the direction of the position of the center Bc of the corresponding divided region B.

センサユニット18の反射点距離演算部18a(図4参照)は、各距離センサ19における赤外線Irの出射方向と、反射点Prからの反射赤外線Rrの入射方向とに基づいて、距離センサ19から反射点Prまでの距離を求める。また、反射点距離演算部18aは、求めた反射点Prまでの距離と、赤外線Irの出射方向および/または反射赤外線Rrの入射方向とに基づいて、距離センサ19の位置に対する各反射点Prの位置を求める。距離センサ19から反射点Prまでの距離と、距離センサ19に対する反射点Prの位置は、コントローラ20を介して、後述するメモリ20bの中央位置記憶部42に記憶させる。距離センサ19から反射点Prまでの距離は、赤外線Irの出射方向と反射点Prからの反射赤外線Rrの入射方向とが解れば、三角測量の原理などを用いることで求められるものであるので、ここでは求める方法についての説明を省略する。   The reflection point distance calculation unit 18a (see FIG. 4) of the sensor unit 18 reflects from the distance sensor 19 based on the emission direction of the infrared Ir at each distance sensor 19 and the incident direction of the reflected infrared ray Rr from the reflection point Pr. The distance to the point Pr is obtained. Further, the reflection point distance calculation unit 18a determines the reflection point Pr with respect to the position of the distance sensor 19 based on the obtained distance to the reflection point Pr and the emission direction of the infrared ray Ir and / or the incident direction of the reflection infrared ray Rr. Find the position. The distance from the distance sensor 19 to the reflection point Pr and the position of the reflection point Pr with respect to the distance sensor 19 are stored in the central position storage unit 42 of the memory 20b described later via the controller 20. The distance from the distance sensor 19 to the reflection point Pr can be obtained by using the principle of triangulation or the like if the emission direction of the infrared ray Ir and the incident direction of the reflection infrared ray Rr from the reflection point Pr are known. Here, a description of the method for obtaining is omitted.

なお、先に説明したが、図3(B)に示されるように、実際の反射点Prの位置は必ずしも分割領域Bの中央Bcに位置するとは限らない。したがって、実際の反射点Prの位置に対して補正を施してもよい。たとえば、反射点が分割領域Bの中央Bcに位置していたと仮定した場合の反射点位置を補正により求めることができるのであれば、補正によって求めた補正反射点位置を中央位置記憶部42に記憶させてもよい。   As described above, as shown in FIG. 3B, the actual position of the reflection point Pr is not necessarily located at the center Bc of the divided region B. Accordingly, the actual position of the reflection point Pr may be corrected. For example, if the reflection point position can be obtained by correction when it is assumed that the reflection point is located at the center Bc of the divided region B, the corrected reflection point position obtained by the correction is stored in the central position storage unit 42. You may let them.

次にコントローラ20について説明する。   Next, the controller 20 will be described.

図4に示されるように、コントローラ20は、各種の処理を行う演算処理部20aと、各種のデータが記憶されるメモリ20bを備えている。   As shown in FIG. 4, the controller 20 includes an arithmetic processing unit 20a that performs various processes and a memory 20b that stores various data.

演算処理部20aは、投射エリアAを複数の分割領域Bの集合として認識する分割領域認識部21と、距離センサ19で測定した反射点の位置に基づいて各分割領域Bの評価用位置Pe(図5等参照)を求める評価用位置演算部22と、各分割領域Bに存在する障害物Wや凹凸を検出する障害物検出部23と、各分割領域Bについて、投射面としての適性値Rを求める適性値演算部24と、分割領域Bの中から投射候補領域Cを決定する候補領域判断部25と、投射候補領域Cの中から投射領域Dを選択する投射領域判断部26と、選択された投射領域D内に映像を表示できるように映像処理を行う映像処理部27と、投射レンズ14のフォーカス用モータ16bの制御を行うフォーカス制御部28と、光源の光量調節器の制御を行う光量制御部29とを備えている。   The arithmetic processing unit 20a includes a divided region recognition unit 21 that recognizes the projection area A as a set of a plurality of divided regions B, and an evaluation position Pe () for each divided region B based on the position of the reflection point measured by the distance sensor 19. (See FIG. 5 etc.) Evaluation position calculation unit 22 for obtaining, obstacle detection unit 23 for detecting an obstacle W or unevenness existing in each divided region B, and aptitude value R as a projection plane for each divided region B An aptitude value calculation unit 24 for obtaining a projection area, a candidate area determination unit 25 for determining a projection candidate area C from the divided areas B, a projection area determination unit 26 for selecting the projection area D from the projection candidate areas C, and a selection The video processing unit 27 that performs video processing so that the video can be displayed in the projected area D, the focus control unit 28 that controls the focusing motor 16b of the projection lens 14, and the light amount controller of the light source are controlled. Light control And a part 29.

また、メモリ20bは、投射エリアAを複数の分割領域Bに区分する分割線についての情報が記憶された分割線記憶部41と、各距離センサ19で測定した反射点Prの位置が記憶される中央位置記憶部42と、各分割領域Bについて求められた評価用位置Peが記憶される評価用位置記憶部43と、各分割領域Bの評価用位置Peまでの距離Leが記憶される評価用距離記憶部44と、各分割領域Bに障害物Wや凹凸が存在するかに関する情報が記憶される障害物情報記憶部45と、各分割領域Bについて求められた適性値Rが記憶される適性値記憶部46と、各分割領域Bについて、投射候補領域Cとして決定されたか否かの情報が記憶される候補領域記憶部47と、各投射候補領域Cについて、投射領域Dとして選択されたか否かの情報が記憶される投射領域記憶部48と、演算処理部20aでの演算で用いられるデータやテーブルが記憶されている基礎情報記憶部49とを備えている。   Further, the memory 20b stores a dividing line storage unit 41 that stores information about dividing lines that divide the projection area A into a plurality of dividing areas B, and the position of the reflection point Pr measured by each distance sensor 19. The central position storage unit 42, the evaluation position storage unit 43 for storing the evaluation position Pe obtained for each divided region B, and the evaluation Le for storing the distance Le to the evaluation position Pe for each divided region B The distance storage unit 44, the obstacle information storage unit 45 that stores information about whether there are obstacles W or unevenness in each divided area B, and the aptitude value R that is obtained for each divided area B is stored. A value storage unit 46, a candidate region storage unit 47 that stores information on whether or not each divided region B has been determined as a projection candidate region C, and whether or not each projection candidate region C has been selected as a projection region D That feeling There is provided with a projection area storage unit 48 to be stored, and a basic information storage unit 49 for data and tables used in the calculation in the arithmetic processing unit 20a is stored.

コントローラ20は、分割領域認識部21において、先に説明したように、分割線記憶部41に記憶された分割情報に基づき、投射エリアAを複数の分割領域Bの集合として認識する。図3(A)に示されるように、投射エリアAは、上下4段、左右4列に分割されており、合計16区画の分割領域Bの集合として認識される。したがって、投射光Lの投射方向Xに直交している平面に、投射光Lを投射したとき、投射エリアAの上下方向に並ぶ分割領域Bの中央Bcの位置は一直線上に位置し、同様に、左右方向に並ぶ分割領域Bの中央Bcの位置も一直線上に位置する。なお、分割線記憶部41に記憶されている分割情報とは、たとえば、投射エリアAを分割する格子状の分割線の位置情報である。   As described above, the controller 20 recognizes the projection area A as a set of a plurality of divided regions B based on the division information stored in the dividing line storage unit 41 in the divided region recognition unit 21. As shown in FIG. 3 (A), the projection area A is divided into four columns on the upper and lower sides and four columns on the left and right sides, and is recognized as a set of divided regions B having a total of 16 sections. Therefore, when the projection light L is projected onto a plane orthogonal to the projection direction X of the projection light L, the position of the center Bc of the divided areas B aligned in the vertical direction of the projection area A is located on a straight line, similarly. The position of the center Bc of the divided areas B arranged in the left-right direction is also positioned on a straight line. The division information stored in the division line storage unit 41 is, for example, position information of a grid-like division line that divides the projection area A.

評価用位置演算部22は、各距離センサ19で測定された各分割領域Bの反射点Prの位置に基づいて、各分割領域Bの評価用位置Peを求めるものである。距離センサ19で測定した反射点Prの位置は、距離センサ19の位置に対する相対位置として中央位置記憶部42に記憶されている。記憶されている反射点Prの位置をそのまま評価用位置として用いてもよく、その場合、この評価用位置演算部22は必要ない。本実施形態では、評価用位置演算部22を用いて、各反射点Prの位置を、投射レンズ14の位置に対する相対位置として表されるように変換し、変換後の位置を各分割領域Bの評価用位置Peとしている。このように、各評価用位置Peを特定するための基準を共通にしておくと、その後の演算が容易である。なお、後述する距離センサ19の位置などの各種位置は、特に説明がなければ、投射レンズ14の位置に対する位置である。   The evaluation position calculation unit 22 calculates the evaluation position Pe of each divided region B based on the position of the reflection point Pr of each divided region B measured by each distance sensor 19. The position of the reflection point Pr measured by the distance sensor 19 is stored in the central position storage unit 42 as a relative position with respect to the position of the distance sensor 19. The stored position of the reflection point Pr may be used as it is as the evaluation position, and in this case, the evaluation position calculation unit 22 is not necessary. In the present embodiment, using the evaluation position calculation unit 22, the position of each reflection point Pr is converted so as to be expressed as a relative position with respect to the position of the projection lens 14, and the converted position is converted into each divided region B. The evaluation position Pe is used. In this way, if the reference for specifying each evaluation position Pe is made common, the subsequent calculation is easy. Note that various positions such as the position of the distance sensor 19 described later are positions relative to the position of the projection lens 14 unless otherwise specified.

評価用位置演算部22では、まず、演算対象の分割領域Bを選び、選んだ分割領域Bに対応する反射点Prの位置を中央位置記憶部42から読み取る。また、選んだ分割領域Bの反射点Prの位置を測定する距離センサ19の位置および投射レンズ14の位置を、メモリ20bの基礎情報記憶部49から読み取る。これらの位置に基づいて各分割領域Bの評価用位置Peを求める。そして、求めた評価用位置Peを、対応する分割領域Bの評価用位置Peとして評価用位置記憶部43に記憶させる。また、評価用位置演算部22では、投射レンズ14から各評価用位置Peまでの距離を求めている。そして、求めた距離を、対応する分割領域Bまでの評価用距離Leとして評価用距離記憶部44に記憶させる。このような処理を全ての分割領域Bについて行う。なお、反射点Prの位置と、距離センサ19の位置と、投射レンズ14の位置が解れば、評価用位置Peや評価用距離Leは、三角測量の原理などを用いることによって求められるものであるので、ここではその説明を省略する。   In the evaluation position calculation unit 22, first, the calculation target divided region B is selected, and the position of the reflection point Pr corresponding to the selected divided region B is read from the central position storage unit 42. Further, the position of the distance sensor 19 that measures the position of the reflection point Pr in the selected divided region B and the position of the projection lens 14 are read from the basic information storage unit 49 of the memory 20b. Based on these positions, an evaluation position Pe for each divided region B is obtained. Then, the obtained evaluation position Pe is stored in the evaluation position storage unit 43 as the evaluation position Pe of the corresponding divided region B. The evaluation position calculation unit 22 obtains the distance from the projection lens 14 to each evaluation position Pe. Then, the obtained distance is stored in the evaluation distance storage unit 44 as the evaluation distance Le to the corresponding divided region B. Such processing is performed for all the divided regions B. If the position of the reflection point Pr, the position of the distance sensor 19, and the position of the projection lens 14 are known, the evaluation position Pe and the evaluation distance Le can be obtained by using the principle of triangulation or the like. Therefore, the description is omitted here.

障害物検出部23は、各分割領域B内の障害物Wや凹凸を検出する処理を実行する(S03、図12参照)。   The obstacle detection unit 23 executes a process of detecting the obstacle W and the unevenness in each divided area B (S03, see FIG. 12).

図13のフローチャートに示されるように、障害物検出部23では、投射エリアAを複数の分割領域Bとして認識し(S03−1)、認識した分割領域Bから3つの分割領域Bを選択する(S03−2)。選択方法は種々考えられるが、本実施形態では、上下方向または左右方向に並んだ3つの分割領域Bを選択する。次に、選択した3つの分割領域Bの評価用位置Peを評価用位置記憶部43から読み取る(S03−3)。そして、読み取った3つの評価用位置Peが一直線上(すなわち一平面上)に位置するか否かを判断し(S03−4)、その判断結果を障害物情報記憶部45に記憶させる。その後、選択されていない分割領域Bがあるか否かを判断し(S03−5)、存在していれば、それらの中から3つの分割領域Bを選択するステップ(S03−2)に戻り、全ての分割領域Bについての評価が 完了(S03−5)するまで繰り返す。なお、全ての分割領域Bについての評価が完了するまでに、同じ分割領域Bが複数回選択することがあってもよいし、重複しないように選択できればそれでもよい。また、図13のフローチャートをはじめとする各フローチャートでは、検出や判断などの処理の流れを説明しており、記憶部に記憶させる処理などについては省略している。   As shown in the flowchart of FIG. 13, the obstacle detection unit 23 recognizes the projection area A as a plurality of divided areas B (S03-1), and selects three divided areas B from the recognized divided areas B ( S03-2). Although various selection methods are conceivable, in the present embodiment, three divided regions B arranged in the vertical direction or the horizontal direction are selected. Next, the evaluation positions Pe of the three selected divided areas B are read from the evaluation position storage unit 43 (S03-3). Then, it is determined whether or not the three evaluation positions Pe read are positioned on a straight line (that is, on a single plane) (S03-4), and the determination result is stored in the obstacle information storage unit 45. Thereafter, it is determined whether or not there is an unselected divided area B (S03-5), and if it exists, the process returns to the step of selecting three divided areas B from those (S03-2), It repeats until evaluation about all the divided areas B is completed (S03-5). Note that the same divided region B may be selected a plurality of times before the evaluation for all the divided regions B is completed, or may be selected as long as it can be selected so as not to overlap. Further, in each flowchart including the flowchart of FIG. 13, the flow of processing such as detection and determination is described, and the processing to be stored in the storage unit is omitted.

ところで、先に説明したように、投射光Lがその投射方向Xに直交する平面に投射されたとき、上下方向に並ぶ分割領域Bの中央Bcの位置あるいは左右方向に並ぶ分割領域Bの中央Bcの位置は一直線上に位置する。そして、本実施形態では、各分割領域Bの中央Bcに位置する反射点Prの位置を各分割領域Bの評価用位置Peとして用いている。したがって、投射光Lが投射されたスクリーンSが平面であれば3つの評価用位置Peは一直線上に位置し、障害物W(図5参照)や凹凸があれば一直線上に位置しない。この説明から解るように、3つの評価用位置Peが一直線上に位置するか否かの判断は、3つの評価用位置Peが投射方向Xに前後しているか否かを判断するものであるということができ、障害物や凹凸を検出する判断手法として適しているということができる。   By the way, as described above, when the projection light L is projected onto a plane orthogonal to the projection direction X, the position of the center Bc of the divided areas B arranged in the vertical direction or the center Bc of the divided areas B arranged in the left-right direction. The position of is located on a straight line. In this embodiment, the position of the reflection point Pr located at the center Bc of each divided region B is used as the evaluation position Pe for each divided region B. Therefore, if the screen S on which the projection light L is projected is a flat surface, the three evaluation positions Pe are positioned on a straight line, and if there are obstacles W (see FIG. 5) or unevenness, they are not positioned on a straight line. As will be understood from this description, the determination as to whether or not the three evaluation positions Pe are positioned on a straight line is to determine whether or not the three evaluation positions Pe are back and forth in the projection direction X. It can be said that it is suitable as a judgment method for detecting obstacles and irregularities.

3つの評価用位置Peが一直線上に位置するか否かの判断方法としては、種々の方法が考えられる。ここでは、投射エリアAの左から第1列目に位置する3つの分割領域B11,B12,B13(図3(A)参照)を選択した場合を例に挙げて基本的な判断方法を説明する。図5(A)に示されるように、例えば、真ん中に位置する分割領域B12の評価用位置Pe2の座標(x2,y2)は、次の式2に示されるように、対応する距離センサ19の位置から当該評価用位置Pe2までの距離L2と、当該評価用位置Pe2の方向と投射方向Xとのなす角度θ2とで特定される。そして、他の分割領域B11,B13の評価用位置Pe1,Pe3の座標も、同様に、次の式1,3によって特定される。   Various methods are conceivable as a method of determining whether or not the three evaluation positions Pe are positioned on a straight line. Here, a basic determination method will be described by taking as an example a case where three divided regions B11, B12, and B13 (see FIG. 3A) located in the first column from the left of the projection area A are selected. . As shown in FIG. 5A, for example, the coordinates (x2, y2) of the evaluation position Pe2 of the divided region B12 located in the middle are as follows: The distance L2 from the position to the evaluation position Pe2 and the angle θ2 formed by the direction of the evaluation position Pe2 and the projection direction X are specified. Similarly, the coordinates of the evaluation positions Pe1 and Pe3 of the other divided regions B11 and B13 are also specified by the following expressions 1 and 3.

Figure 2007235470
Figure 2007235470

このように特定される3つの評価用位置Pe1,Pe2,Pe3から2つを選び、選んだ2つを結ぶ直線上に残る1つが位置するか否かを判断する。これにより3つの評価用位置Peが同一直線上に位置するか否かを判断できる。例えば、図5(B)に示されるように、分割領域B12内に障害物Wがあれば、分割領域B12の評価用位置Pe2は、他の評価用位置Pe1,Pe3を結んで得られる線分よりも前方に位置すると判断されるので、3つの評価用位置Pe1,Pe2,Pe3は一直線上に位置しないと判断される。   Two of the three evaluation positions Pe1, Pe2 and Pe3 specified in this way are selected, and it is determined whether or not one remaining on the straight line connecting the two selected is located. Thus, it can be determined whether or not the three evaluation positions Pe are located on the same straight line. For example, as shown in FIG. 5B, if there is an obstacle W in the divided area B12, the evaluation position Pe2 of the divided area B12 is a line segment obtained by connecting the other evaluation positions Pe1 and Pe3. Therefore, it is determined that the three evaluation positions Pe1, Pe2, Pe3 are not located on a straight line.

本実施形態のプロジェクタ10では、次のような方法で判断する。図14のフローチャートに示されるように、まず、3つの評価用位置Pe1,Pe2,Pe3から選んだ2つを結んで得られる合計3本の線分の延在方向を求める(S03−4−1)。具体的には、図6に示されるように、3つの評価用位置Pe1,Pe2,Pe3のうちの両端に位置する評価用位置Pe1,Pe3を結んで得られる長線分FLと、真ん中に位置する評価用位置Pe2と残るいずれかの評価用位置Pe1,Pe3とを結んで得られる2本の短線分FS1,FS2を特定し、各線分FL,FS1,FS2の位置および延在方向を求める。次に、各線分FL,FS1,FS2の延びる方向と投射光Lの投射方向Xとの関係を判断する(S03−4−2,4,6,7)。本説明の例のように、上下方向に並ぶ3つの分割領域Bを選択した場合は、投射方向Xと直交する第1基準線Vと平行か否かを判断する。左右方向に並ぶ3つの分割領域を選択した場合は、投射方向Xと直交する第2基準線Hと平行であるか否かを判断する。なお、ここでは、第1基準線Vとして投射方向Xと直交する第1基準線を用い、第2基準線Hとして第2基準線を用いる状態を図示したが、基準線は必ずしも垂直や水平ではなくてもよい。   In the projector 10 of this embodiment, the determination is made by the following method. As shown in the flowchart of FIG. 14, first, the extending directions of a total of three line segments obtained by connecting two selected from the three evaluation positions Pe1, Pe2, Pe3 are obtained (S03-4-1). ). Specifically, as shown in FIG. 6, the long line segment FL obtained by connecting the evaluation positions Pe1, Pe3 located at both ends of the three evaluation positions Pe1, Pe2, Pe3 is located in the middle. Two short line segments FS1, FS2 obtained by connecting the evaluation position Pe2 and any remaining evaluation positions Pe1, Pe3 are specified, and the positions and extending directions of the line segments FL, FS1, FS2 are obtained. Next, the relationship between the extending direction of each line segment FL, FS1, FS2 and the projection direction X of the projection light L is determined (S03-4-2, 4, 6, 7). As in the example of this description, when three divided regions B arranged in the up-down direction are selected, it is determined whether or not they are parallel to the first reference line V orthogonal to the projection direction X. When three divided regions arranged in the left-right direction are selected, it is determined whether or not they are parallel to the second reference line H orthogonal to the projection direction X. Here, the first reference line orthogonal to the projection direction X is used as the first reference line V, and the second reference line is used as the second reference line H. However, the reference line is not necessarily vertical or horizontal. It does not have to be.

判断の結果、全ての線分FL,FS1,FS2が第1基準線Vと平行である場合(S03−4−2)、3つの評価用位置Pe1,Pe2,Pe3が一直線(一平面)上に位置するとの検出結果を得る。選択した分割領域Bに障害物や凹凸がないときにこのような結果になる。そして、検出結果を得ると、各評価用位置Pe1,Pe2,Pe3から第1基準線Vと平行な線分までの離間距離G(図6参照)を求め、障害物情報記憶部45記憶させる。ただし、全ての線分が第1基準線Vと平行である場合、各評価用位置Pe1,Pe2,Pe3から第1基準線Vと平行な線分までの離間距離Gは0であると求められ(S03−4−3)、これが障害物情報記憶部45に記憶される。   When all the line segments FL, FS1, and FS2 are parallel to the first reference line V as a result of the determination (S03-4-2), the three evaluation positions Pe1, Pe2, and Pe3 are on a straight line (one plane). The detection result of being located is obtained. Such a result is obtained when the selected divided region B has no obstacles or irregularities. When the detection result is obtained, a separation distance G (see FIG. 6) from each evaluation position Pe1, Pe2, Pe3 to a line segment parallel to the first reference line V is obtained and stored in the obstacle information storage unit 45. However, when all the line segments are parallel to the first reference line V, the separation distance G from each of the evaluation positions Pe1, Pe2, Pe3 to the line segment parallel to the first reference line V is determined to be zero. (S03-4-3), this is stored in the obstacle information storage unit 45.

また、長線分FLと一方の短線分FS1(FS2)は第1基準線Vと平行であるが、他方の短線分FS2(FS1)は第1基準線Vと平行でない場合(S03−3−4)、3つの評価用位置Pe1,Pe2,Pe3は一直線上に位置していないとの判断結果を得る。例えば、図6に示されるように、真ん中の分割領域B12に障害物Wがあるときこのような結果になる。この場合、評価用位置Pe1,Pe3についての離間距離Gは0である。そして、真ん中の評価用位置Pe2から第1基準線Vと平行な線分FLまでの離間距離Gが求められ(S03−4−5)、障害物情報記憶部45に記憶される。   Further, when the long line segment FL and one short line segment FS1 (FS2) are parallel to the first reference line V, the other short line segment FS2 (FS1) is not parallel to the first reference line V (S03-3-4). ) A determination result is obtained that the three evaluation positions Pe1, Pe2, Pe3 are not located on a straight line. For example, as shown in FIG. 6, this result is obtained when there is an obstacle W in the middle divided region B12. In this case, the separation distance G for the evaluation positions Pe1 and Pe3 is zero. Then, a separation distance G from the middle evaluation position Pe2 to the line segment FL parallel to the first reference line V is obtained (S03-4-5) and stored in the obstacle information storage unit 45.

また、長線分FLは第1基準線Vと平行であるが、2つの短線分FS1,FS2は第1基準線Vと平行でない場合(S03−4−6)、3つの評価用位置Pe1,Pe2,Pe3は一直線上に位置していないとの検出結果を得る。真ん中に位置する分割領域B12に障害物Wがあるときこのような結果になる(図6参照)。この場合、評価用位置Pe1,Pe3についての離間距離Gは0である。そして、真ん中の評価用位置Pe2から第1基準線Vと平行な線分FLまでの離間距離Gが求められ(S03−4−5)、障害物情報記憶部45に記憶される。ただし、一方の短線分が第1基準線Vと平行でなければ、通常は、他方の短線分も第1基準線Vと平行でない。したがって、一方の短線分が第1基準線Vと平行でない場合と、両方の短線分が第1基準線Vと平行でない場合とを区別することなく、いずれか一方の場合について判断するようにしてもよい。   When the long line segment FL is parallel to the first reference line V, but the two short line segments FS1 and FS2 are not parallel to the first reference line V (S03-4-6), the three evaluation positions Pe1, Pe2 , Pe3 is obtained as a detection result that it is not positioned on a straight line. Such a result is obtained when there is an obstacle W in the divided region B12 located in the middle (see FIG. 6). In this case, the separation distance G for the evaluation positions Pe1 and Pe3 is zero. Then, a separation distance G from the middle evaluation position Pe2 to the line segment FL parallel to the first reference line V is obtained (S03-4-5) and stored in the obstacle information storage unit 45. However, if one short line segment is not parallel to the first reference line V, the other short line segment is usually not parallel to the first reference line V. Therefore, it is possible to make a determination about one of the cases without distinguishing between the case where one short line segment is not parallel to the first reference line V and the case where both short line segments are not parallel to the first reference line V. Also good.

また、一方の短線分FS1(FS2)は第1基準線Vと平行であるが、他方の短線分FS2(FS1)と長線分FLは第1基準線Vと平行でない場合(S03−4−7)、3つの評価用位置Pe1,Pe2,Pe3は一直線上に位置していないとの判断結果を得る。例えば、分割領域B13に障害物または凹凸が存在し、短線分FS2が第1基準線Vと平行でない状態であるときこのような結果になる。この場合、評価用位置Pe1,Pe2についての離間距離Gは0である。そして、評価用位置Pe3から第1基準線Vと平行な線分FS1までの離間距離Gが求められ(S03−4−8)、障害物情報記憶部45に記憶される。   One short line segment FS1 (FS2) is parallel to the first reference line V, but the other short line segment FS2 (FS1) and the long line segment FL are not parallel to the first reference line V (S03-4-7). ) A determination result is obtained that the three evaluation positions Pe1, Pe2, Pe3 are not located on a straight line. For example, this is the case when there are obstacles or irregularities in the divided region B13 and the short line segment FS2 is not parallel to the first reference line V. In this case, the separation distance G for the evaluation positions Pe1, Pe2 is zero. Then, a separation distance G from the evaluation position Pe3 to the line segment FS1 parallel to the first reference line V is obtained (S03-4-8) and stored in the obstacle information storage unit 45.

また、全ての線分FL,FS1,FS2が第1基準線Vと平行でない場合、3つの評価用位置Pe1,Pe2,Pe3は一直線上に位置していないと検出結果を得る。例えば、全ての分割領域B11,B12,B13にまたがるような障害物や凹凸があるときこのような検出結果になる。この場合、全ての評価用位置Pe1,Pe2,Pe3について、第1基準線Vと平行な線分までの離間距離Gは測定不能であることが求められ(S03−4−9)、全ての評価用位置Pe1,Pe2,Pe3について測定不能であることが障害物情報記憶部45に記憶される。   If all the line segments FL, FS1, and FS2 are not parallel to the first reference line V, a detection result is obtained if the three evaluation positions Pe1, Pe2, and Pe3 are not located on a straight line. For example, such a detection result is obtained when there are obstacles or irregularities that extend over all the divided regions B11, B12, and B13. In this case, it is required that the separation distance G to the line segment parallel to the first reference line V is not measurable for all the evaluation positions Pe1, Pe2, Pe3 (S03-4-9). It is stored in the obstacle information storage unit 45 that the measuring positions Pe1, Pe2, Pe3 cannot be measured.

なお、3つの評価用位置Peが一直線上に位置するか否かの判断では、必要に応じて誤差を考慮する。誤差を考慮する方法としては、種々の方法が考えられる。たとえば、各線分FL,FS1,FS2と第1基準線Vなどの基準線とが平行か否かを判断するときに、判断基準に許容範囲を設ける方法を挙げることができる。具体的に説明すると、各線分FL,FS1,FS2と基準線とのなす角度が正確に0°でない場合であっても±15°であれば平行であると判断するというような方法である。   In determining whether or not the three evaluation positions Pe are on a straight line, an error is taken into consideration as necessary. Various methods can be considered as a method for considering the error. For example, when it is determined whether or not each line segment FL, FS1, FS2 and a reference line such as the first reference line V are parallel, a method of providing an allowable range for the determination reference can be given. More specifically, even if the angle formed by each line segment FL, FS1, FS2 and the reference line is not exactly 0 °, if it is ± 15 °, it is determined to be parallel.

適性値演算部24は、評価用距離記憶部44および障害物情報記憶部45の記憶データに基づいて、各分割領域Bの適性値Rを検出するものである。評価用距離記憶部44には、投射レンズ14から各評価用位置Peまでの距離(評価用距離)Leが記憶されている。そして、障害物情報記憶部45には、各分割領域Bの評価用位置Peについて、基準線V,H(図6参照)と平行な線分までの離間距離Gが記憶されている。離間距離Gを測定できなかった場合は、測定不能であることが記憶されている。   The aptitude value calculator 24 detects the aptitude value R of each divided region B based on the data stored in the evaluation distance storage unit 44 and the obstacle information storage unit 45. The evaluation distance storage unit 44 stores a distance (evaluation distance) Le from the projection lens 14 to each evaluation position Pe. The obstacle information storage unit 45 stores a separation distance G up to a line segment parallel to the reference lines V and H (see FIG. 6) for the evaluation position Pe of each divided region B. When the separation distance G cannot be measured, it is stored that measurement is impossible.

また、適性値演算部24では、適性値Rを求めるときに、メモリ20bの基礎情報記憶部49に記憶された評価用距離テーブルT1と、離間距離テーブルT2を用いる。評価用距離テーブルT1は、図7(A)に示されるようなものであり、各分割領域Bについて求めた評価用距離Leを適性値演算用の数値R1に換算するためのものである。なお、このテーブルT1において、「すこし離れている」は、投射距離が仕様投射距離の半分以上、仕様投射距離未満のことであり、「たくさん離れている」は、投射距離が仕様投射距離以上のことである。そして、離間距離テーブルT2は、図7(B)に示されるようなものであり、障害物情報記憶部45に記憶された離間距離Gを適性値Rに演算用の数値R2に換算するものためのものである。なお、このテーブルT2において、「すこし離れている」は、離間距離Gが5mm以上、20mm未満のことであり、「たくさん離れている」は、離間距離が20mm以上のことである。   The aptitude value calculation unit 24 uses the evaluation distance table T1 and the separation distance table T2 stored in the basic information storage unit 49 of the memory 20b when determining the aptitude value R. The evaluation distance table T1 is as shown in FIG. 7A, and is used for converting the evaluation distance Le obtained for each divided region B into a numerical value R1 for calculating an appropriate value. In this table T1, “Slightly separated” means that the projection distance is not less than half of the specified projection distance and less than the specified projection distance, and “Too much” means that the projection distance is not less than the specified projection distance. That is. The separation distance table T2 is as shown in FIG. 7B, and is used to convert the separation distance G stored in the obstacle information storage unit 45 into an appropriate value R to a numerical value R2 for calculation. belongs to. In this table T2, “slightly apart” means that the separation distance G is 5 mm or more and less than 20 mm, and “too much away” means that the separation distance is 20 mm or more.

図15のフローチャートに示されるように、適性値演算部24では、まず、適性値Rを算出する分割領域Bを選び、選んだ分割領域Bの評価用距離Leを評価用距離記憶部44から読み取る(S04−1)。そして、読み取った評価用距離Leを図7(A)に示される評価用距離テーブルT1に参照して適性値演算用の数値R1を求める(S04−2)。例えば、評価用距離Leが仕様投射距離以上であれば、この数値R1は2点になる。次に、障害物情報記憶部45から、対応する分割領域Bの評価用位置Peについての離間距離Gを読み取る(S04−3)。そして、読み取った離間距離Gを図7(B)に示される離間距離テーブルT2に参照して適性値演算用の数値R2を求める(S04−4)。たとえば、離間距離Gが10mmであれば、この数値R2は3点になる。そして、両数値R1,R2を合計して適性値Rを求める(S04−5)。この例であれば、適性値Rは5点になる。そして、求めた適性値Rを対応する分割領域Bの適性値として、適性値記憶部46に記憶させる。これを全分割領域Bについて行う(S04−6)。なお、図8は、全ての分割領域Bについて求めた適性値Rを各分割領域Bの位置に記載して示した具体例である。   As shown in the flowchart of FIG. 15, the aptitude value calculation unit 24 first selects a divided area B for calculating the aptitude value R, and reads the evaluation distance Le of the selected divided area B from the evaluation distance storage unit 44. (S04-1). Then, the read evaluation distance Le is referred to an evaluation distance table T1 shown in FIG. 7A to obtain a numerical value R1 for calculating an aptitude value (S04-2). For example, if the evaluation distance Le is equal to or greater than the specified projection distance, the numerical value R1 is two points. Next, the separation distance G for the evaluation position Pe of the corresponding divided region B is read from the obstacle information storage unit 45 (S04-3). Then, the read separation distance G is referred to a separation distance table T2 shown in FIG. 7B to obtain a numerical value R2 for calculating the aptitude value (S04-4). For example, if the separation distance G is 10 mm, the numerical value R2 is 3 points. Then, the numerical values R1 and R2 are summed to obtain the suitability value R (S04-5). In this example, the aptitude value R is 5 points. Then, the suitability value R is stored in the suitability value storage unit 46 as the suitability value of the corresponding divided region B. This is performed for all the divided areas B (S04-6). FIG. 8 is a specific example in which aptitude values R obtained for all the divided areas B are described at the positions of the divided areas B.

候補領域判断部25は、適性値記憶部46に記憶されている適性値Rに基づいて、全ての分割領域Bの中から投射候補領域Cを決定するものである。この決定では、分割領域Bが投射候補領域Cとして適するか否かの判断基準になる基準適性値Rcを用いる。この基準適性値Rcは、メモリ20bの基礎情報記憶部49に記憶されている。なお、本実施形態における基準適性値Rcは5点である。   The candidate area determination unit 25 determines the projection candidate area C from among all the divided areas B based on the aptitude value R stored in the aptitude value storage section 46. In this determination, a reference aptitude value Rc that is a criterion for determining whether or not the divided area B is suitable as the projection candidate area C is used. This reference aptitude value Rc is stored in the basic information storage unit 49 of the memory 20b. The reference suitability value Rc in this embodiment is 5 points.

候補領域判断部25では、まず、基礎情報記憶部から基準適性値Rcを読み取る。次に、1つの分割領域Bを選び、選んだ分割領域Bの適性値Rを適性値記憶部46から読み取る。そして、読み取った適性値Rが基準適性値Rc以上の値であるか否かを判断し、基準適性値Rc以上であれば、判断対象の分割領域Bは投射候補領域Cであると決定され、そのことが候補領域記憶部47に記憶される。他方、適性値Rが基準適性値Rc未満であれば、判断対象の分割領域Bは投射候補領域Cでないということが候補領域記憶部47に記憶される。このような処理を全ての分割領域Bについて行って、0個以上の投射候補領域Cを決定する。例えば、図8に示した例の場合、候補領域記憶部47には、点数(基準適性値Rcの数値)に丸印が付された複数の分割領域(5点の分割領域)Bについて、投射候補領域Cとして決定されていることが記憶されることになる。   The candidate area determination unit 25 first reads the reference aptitude value Rc from the basic information storage unit. Next, one divided area B is selected, and the aptitude value R of the selected divided area B is read from the aptitude value storage unit 46. Then, it is determined whether the read suitability value R is a value equal to or greater than the reference suitability value Rc. If the read suitability value R is equal to or greater than the reference suitability value Rc, the determination target divided region B is determined to be the projection candidate region C, This is stored in the candidate area storage unit 47. On the other hand, if the aptitude value R is less than the reference aptitude value Rc, it is stored in the candidate area storage unit 47 that the determination target divided area B is not the projection candidate area C. Such a process is performed for all the divided areas B, and zero or more projection candidate areas C are determined. For example, in the case of the example shown in FIG. 8, the candidate area storage unit 47 projects a plurality of divided areas (5-point divided areas) B in which the number of points (the numerical value of the reference aptitude value Rc) is circled. It is stored that it is determined as the candidate area C.

なお、基準適性値Rcに照らした結果、投射候補領域Cが全くないと決定された場合(投射候補領域Cが0個の場合)、本実施形態では、全ての分割領域Bを投射候補領域Cとする。投射候補領域Cが全くない場合、映像を投射しないという処理をしてもよいが、それでは映像を全く見ることができない。そこで、このような場合に、任意のまたは適当な1以上の分割領域Bを投射領域Dとして選択することが考えられる。本実施形態では、最終的に、投射エリアA全体が投射領域Dとして選択する。このようにすると、投射エリアA全体に映像が表示されることとなり、映像を見ることができる。   When it is determined that there is no projection candidate area C as a result of the reference aptitude value Rc (when there are zero projection candidate areas C), in this embodiment, all the divided areas B are designated as projection candidate areas C. And If there is no projection candidate area C at all, a process of not projecting an image may be performed, but this makes it impossible to see the image at all. Therefore, in such a case, it is conceivable to select any or appropriate one or more divided regions B as the projection region D. In the present embodiment, the entire projection area A is finally selected as the projection area D. If it does in this way, a picture will be displayed on the whole projection area A, and a picture can be seen.

投射領域判断部26は、投射候補領域Cの中から実際に映像を表示させる投射領域Dを選択するものである。ところで、実際に表示される映像は、拡大または縮小されて表示されるとしても、映像を表示できる最大範囲である投射エリアAの形状とアスペクト比は同じである。そこで、投射領域Dの選択方法は種々考えられるが、本実施形態では、次に説明するように、投射エリアAの形状と相似する相似形のうち投射候補領域Cからなる領域に収まる最大の相似形を、投射候補領域Cからなるエリアに重ねたときに、この最大の相似形と重なる投射候補領域Cを前記投射領域Dとして選択している。なお、投射エリアAの形状は、投射光Lの投射範囲の形状として、メモリ20bの基礎情報記憶部49に記憶されている。   The projection area determination unit 26 selects a projection area D for actually displaying an image from the projection candidate areas C. By the way, even if the actually displayed image is displayed enlarged or reduced, the shape and aspect ratio of the projection area A, which is the maximum range in which the image can be displayed, are the same. Therefore, various methods for selecting the projection area D can be considered. In the present embodiment, as will be described below, the maximum similarity that can be accommodated in the area composed of the projection candidate areas C among the similar shapes similar to the shape of the projection area A. When the shape is overlaid on the area composed of the projection candidate areas C, the projection candidate area C that overlaps with the maximum similar shape is selected as the projection area D. The shape of the projection area A is stored in the basic information storage unit 49 of the memory 20b as the shape of the projection range of the projection light L.

図16のフローチャートに示されるように、投射領域判断部26では、まず、投射候補領域Cでない分割領域(以下、非投射候補領域)UCがあるか否かを候補領域記憶部47から読み取る(S06−1)。そして、全ての分割領域Bが投射候補領域Cであれば(S06−2)、全投射候補領域Cを投射領域Dとして選択する(S06−3)。他方、非投射候補領域UCがある場合は、次のようにして、映像を表示する範囲の中心になる投射候補領域Cを検出する。これについて、図9および図10を参照しつつ説明する。   As shown in the flowchart of FIG. 16, the projection area determination unit 26 first reads from the candidate area storage unit 47 whether or not there is a divided area (hereinafter, non-projection candidate area) UC that is not the projection candidate area C (S06). -1). If all the divided areas B are the projection candidate areas C (S06-2), all the projection candidate areas C are selected as the projection areas D (S06-3). On the other hand, when there is a non-projection candidate area UC, the projection candidate area C that becomes the center of the range in which the video is displayed is detected as follows. This will be described with reference to FIG. 9 and FIG.

まず、全ての非投射候補領域UCについて、各非投射候補領域UCを中心とする図10(A)に示されるような第1除外領域E1を求める。そのために、まず、基礎情報記憶部49から第1除外候補領域Ed1の初期設定を読み込む(S06−4)。第1除外候補領域Ed1の形状は投射エリアAの形状と相似形であり、大きさは、投射エリアAの最外周に位置する分割領域Bが非投射候補領域UCであった場合であっても、投射エリアAの中心を覆うことができる大きさに設定されている。本実施形態では、図9(A)において斜線で示されるものであり、分割領域B11を取り囲む2層分の分割領域Bの範囲と一致する。   First, for all the non-projection candidate areas UC, a first exclusion area E1 as shown in FIG. 10A centering on each non-projection candidate area UC is obtained. For this purpose, first, the initial setting of the first exclusion candidate region Ed1 is read from the basic information storage unit 49 (S06-4). The shape of the first exclusion candidate region Ed1 is similar to the shape of the projection area A, and the size of the first exclusion candidate region Ed1 is the case where the divided region B located on the outermost periphery of the projection area A is the non-projection candidate region UC. The size is set so as to cover the center of the projection area A. In the present embodiment, it is indicated by hatching in FIG. 9A and coincides with the range of the divided region B for two layers surrounding the divided region B11.

また、第1除外領域E1を求めるのと合わせて、投射エリアAの外周縁から所定厚さ内側に広がる図10(B)に示されるような枠形状の第2除外領域E2を求める。そのために、まず、基礎情報記憶部49から第2除外候補領域Ed2の初期設定を読み込む(S06−4)。初期設定の第2除外候補領域Ed2の大きさは、本実施形態では、図9(B)に斜線で示される大きさである。投射エリアAの外周側2層分の分割領域Bの範囲と一致するということができるが、投射エリアAの全範囲を覆う大きさである。   In addition to obtaining the first exclusion area E1, a second exclusion area E2 having a frame shape as shown in FIG. 10B spreading from the outer periphery of the projection area A to a predetermined thickness inside is obtained. For this purpose, first, the initial setting of the second exclusion candidate region Ed2 is read from the basic information storage unit 49 (S06-4). In the present embodiment, the size of the second exclusion candidate region Ed2 that is initially set is the size indicated by hatching in FIG. 9B. Although it can be said that it coincides with the range of the divided area B for two layers on the outer peripheral side of the projection area A, the size covers the entire range of the projection area A.

次に、両除外候補領域Ed1,Ed2を投射エリアAに重ねて、いずれの領域Ed1,Ed2にも含まれない投射候補領域Cを検出する(S06−5)。そして、そのような投射候補領域Cが存在すれば、そのうちの1つを投射範囲の中心になるものとして検出する(S06−6)。説明の例では、図9(C)に示されるように、全分割領域Bはいずれかの領域Ed1,Ed2に含まれているので、そのような投射候補領域Cは存在していない。   Next, both exclusion candidate areas Ed1 and Ed2 are overlapped with the projection area A, and a projection candidate area C that is not included in any of the areas Ed1 and Ed2 is detected (S06-5). If such a projection candidate area C exists, one of them is detected as the center of the projection range (S06-6). In the example of description, as shown in FIG. 9C, since all the divided areas B are included in any one of the areas Ed1 and Ed2, such a projection candidate area C does not exist.

この場合、続けて、分割領域Bの分割線の交点Pxを対象として、映像を表示する範囲の中心になるものを検出する。より具体的に説明すると、交点Pxのうちでいずれの除外候補領域Ed1,Ed2にも含まれないものを検出する(S06−7)。そして、そのような交点Pxが存在すれば、そのうちの1つを投射領域Dの中心になるものとして検出する(S06−8)。しかし、説明の例ではこのような交点Pxも存在しない。   In this case, the center of the range where the video is displayed is subsequently detected with respect to the intersection Px of the dividing lines in the divided area B. More specifically, the intersection Px that is not included in any of the exclusion candidate areas Ed1 and Ed2 is detected (S06-7). If such an intersection Px exists, one of them is detected as the center of the projection area D (S06-8). However, in the example described, there is no such intersection point Px.

中心になる投射候補領域Cおよび交点Pxを検出できなかった場合は、今の処理で用いた除外候補領域Ed1,Ed2よりも、一段階小さい大きさの除外領域を用意して、これを除外候補領域Ed1,Ed2として読み込む(S06−9)。そして、第1除外候補領域Ed1が1つの分割領域Bの大きさでなく(S06−10)、または、第1除外候補領域Ed1が1つの分割領域Bの大きさであっても第2除外候補領域Ed2の大きさが0でなければ(S06−11)、新たに読み込んだ除外候補領域Ed1,Ed2を用いて、上記処理と同じ処理を行い、中心になる投射候補領域Cまたは交点Pxを検出する。このような処理を、中心になる投射候補領域Cまたは交点Pxを検出できるまで繰り返す(S06−5、7、9〜11)。   If the center projection candidate area C and the intersection point Px cannot be detected, an exclusion area that is one step smaller than the exclusion candidate areas Ed1 and Ed2 used in the current process is prepared, and is used as an exclusion candidate. Read as areas Ed1 and Ed2 (S06-9). Then, even if the first exclusion candidate region Ed1 is not the size of one divided region B (S06-10) or the first exclusion candidate region Ed1 is the size of one divided region B, the second exclusion candidate If the size of the region Ed2 is not 0 (S06-11), the newly read exclusion candidate regions Ed1 and Ed2 are used to perform the same processing as above to detect the projection candidate region C or the intersection point Px as the center. To do. Such a process is repeated until the projection candidate area C or the intersection Px as a center can be detected (S06-5, 7, 9 to 11).

説明の例では、一段階小さい大きさの第1除外候補領域Ed1として、図10(A)に斜線で示される領域を用意する。これは、分割領域B11を取り囲む1層分の分割領域Bの範囲である。なお、小さくする割合は適宜選択できるが、新たに用意した第1除外候補領域Ed1が投射エリアAの形状と相似形になるようにする。また、一段階小さい第2除外候補領域Ed2として、図10(B)に斜線で示される領域を用意する。これは、投射エリアAの外周側1層分の分割領域Bの範囲である。小さくする割合は適宜選択できるが、用意した第2除外候補領域Ed2は、これに取り囲まれる内側の領域の形成が投射エリアAの形状と相似形になるようにする。   In the example of description, an area indicated by hatching in FIG. 10A is prepared as the first exclusion candidate area Ed1 that is one step smaller in size. This is the range of the divided area B for one layer surrounding the divided area B11. Although the ratio to be reduced can be selected as appropriate, the newly prepared first exclusion candidate region Ed1 is made to be similar to the shape of the projection area A. In addition, as the second exclusion candidate area Ed2 that is one step smaller, an area indicated by hatching in FIG. 10B is prepared. This is the range of the divided area B for one layer on the outer peripheral side of the projection area A. Although the ratio to be reduced can be selected as appropriate, the prepared second exclusion candidate region Ed2 is configured so that the formation of the inner region surrounded by this is similar to the shape of the projection area A.

このようにして、必要に応じ、徐々に小さい除外候補領域Ed1,Ed2を用意する。そして、中心になる投射候補領域Cまたは交点Pxを検出する前に、第1除外候補領域Ed1の範囲が投射候補領域Cではない分割領域Bすなわち非投射候補領域UCのみになり(S06−10)、かつ第2除外候補領域Ed2の範囲が0になったときは(S06−11)、投射候補領域Cのいずれか1つを投射領域Dとして選択する(S06−12)。   In this way, gradually smaller exclusion candidate areas Ed1 and Ed2 are prepared as necessary. And before detecting the projection candidate area | region C or intersection Px used as the center, the range of the 1st exclusion candidate area | region Ed1 becomes only the division area B which is not the projection candidate area | region C, ie, the non-projection candidate area | region UC (S06-10). When the range of the second exclusion candidate area Ed2 becomes 0 (S06-11), any one of the projection candidate areas C is selected as the projection area D (S06-12).

図10(C)に示されるように、一段階小さい除外候補領域Ed1,Ed2を投射エリアAに重ねると、いずれの除外候補領域Ed1,Ed2にも含まれていない投射候補領域Cとして、3つの分割領域B23,B32,B33があるので(S06−5)、そのうちの1つを投射範囲の中心になるものとして選択する(S06−6)。この例では、分割領域B33を選択した。なお、いずれの除外候補領域Ed1,Ed2にも含まれていない交点Pxとは、例えば、図10(C)に示される交点Pxのことである。本説明の例では、投射範囲の中心になる投射候補領域Cを先に検出したので、交点Pxを検出する処理は行わない。   As shown in FIG. 10C, when the exclusion candidate areas Ed1 and Ed2 that are one step smaller are overlapped with the projection area A, three candidate projection areas C that are not included in any of the exclusion candidate areas Ed1 and Ed2 are displayed. Since there are divided regions B23, B32, and B33 (S06-5), one of them is selected as the center of the projection range (S06-6). In this example, the divided area B33 is selected. Note that the intersection point Px that is not included in any of the exclusion candidate regions Ed1 and Ed2 is, for example, the intersection point Px shown in FIG. In the example of this description, since the projection candidate area C that is the center of the projection range is detected first, the process of detecting the intersection point Px is not performed.

次に、選択した分割領域B33が中心に位置しており、投射エリアAの形状と相似形であり、しかも非投射候補領域UCと重ならないという条件で、最大の大きさの投射領域選択用領域Ddを検出する(S06−13)。本説明の例では、分割領域B11を取り囲む分割領域Bを何層まで増やすことができるかによって定めることができる。そして、図11において斜線で示される領域が投射領域選択用領域Ddとして検出される。   Next, the projection area selection area having the maximum size is provided on the condition that the selected divided area B33 is located at the center, is similar to the shape of the projection area A, and does not overlap the non-projection candidate area UC. Dd is detected (S06-13). In the example of this description, it can be determined by how many layers the divided area B surrounding the divided area B11 can be increased. Then, an area indicated by diagonal lines in FIG. 11 is detected as the projection area selection area Dd.

そして、この投射領域選択用領域Ddと重なる投射候補領域Cを投射領域Dとして選択し(S06−14)、選択された分割領域Bを投射領域Dであるとして投射領域記憶部48に記憶させる。図11に示される例では、9つの分割領域B22、B23、B24,B32、B33,B34,B42、B43,B44が投射領域Dとして投射領域記憶部48に記憶される。このように、本実施形態のプロジェクタ10では、候補領域判断部25および投射領域判断部26の全体が領域選択手段に該当すると考えることができる。   Then, the projection candidate area C overlapping the projection area selection area Dd is selected as the projection area D (S06-14), and the selected divided area B is stored in the projection area storage unit 48 as being the projection area D. In the example shown in FIG. 11, nine divided areas B22, B23, B24, B32, B33, B34, B42, B43, and B44 are stored in the projection area storage unit 48 as the projection area D. Thus, in the projector 10 of the present embodiment, it can be considered that the entire candidate area determination unit 25 and the projection area determination unit 26 correspond to the area selection unit.

なお、投射範囲の中心になるものとして、投射候補領域Cではなく、交点Pxを検出した場合も、同様の手順で投射領域Dが選択される。この場合、図16のフローチャートのステップ「S06−13」に対応するステップでは、検出された交点Pxの中から1つの交点Pxを選択し、選択した交点Pxを取り囲む分割領域Bを何層まで増やせるかを検討して、投射領域選択用領域Ddを検出する。そして、ステップ「S06−14」に対応するステップでは、投射領域選択用領域Ddと重なる投射候補領域Cを投射領域Dに選択して、そのことを投射領域記憶部48に記憶させる。なお、基本的なフローチャートは、図16のフローチャートと同様であるので、その説明を省略する。   Note that, when the intersection Px is detected instead of the projection candidate area C as the center of the projection range, the projection area D is selected in the same procedure. In this case, in the step corresponding to step “S06-13” in the flowchart of FIG. 16, one intersection point Px is selected from the detected intersection points Px, and the number of divided regions B surrounding the selected intersection point Px can be increased. The projection area selection area Dd is detected. In a step corresponding to step “S06-14”, the projection candidate area C that overlaps the projection area selection area Dd is selected as the projection area D, and this is stored in the projection area storage unit 48. Note that the basic flowchart is the same as the flowchart of FIG.

映像処理部27は、選択された投射領域Dからなる投射範囲に映像が表示されるように、映像の拡大・縮小率を求める映像サイズ制御部27aと、投射光Lの投射方向Xを求める投射方向制御部27bとからなるものである。そして、拡大・縮小率や投射方向Xを求めるために、まず投射領域記憶部48から投射領域Dとして選択された分割領域Bを読み取る。   The image processing unit 27 includes a video size control unit 27a that calculates an image enlargement / reduction ratio and a projection that calculates a projection direction X of the projection light L so that the image is displayed in a projection range including the selected projection area D. It consists of the direction control part 27b. Then, in order to obtain the enlargement / reduction ratio and the projection direction X, first, the divided region B selected as the projection region D from the projection region storage unit 48 is read.

映像サイズ制御部27aでは、読み取った投射領域Dから構成される投射範囲の大きさを求める。そして、求めた投射範囲の大きさと、投射エリアAの大きさとを比較して、投射する映像の拡大率あるいは縮小率を求め、求めた拡大・縮小率を基礎情報記憶部49に記憶ささせる。投射エリアA内であって映像が投射されない範囲には純黒の映像を表示させるように画像処理を行う。このようにすることで、映像に、その周囲から余分な光が入り込んでくることが防止され、表示した映像がより見やすくなる。なお、本実施例では、ここで求めた拡大率または縮小率は、投射レンズ部13のズームユニット15のズーム用モータ15bの制御に用いられる。   In the video size control unit 27a, the size of the projection range constituted by the read projection area D is obtained. Then, the size of the obtained projection range is compared with the size of the projection area A to obtain the enlargement rate or reduction rate of the projected image, and the obtained enlargement / reduction rate is stored in the basic information storage unit 49. Image processing is performed so that a pure black video is displayed in the area within the projection area A where no video is projected. In this way, it is possible to prevent extra light from entering the video from the surroundings, and the displayed video is easier to see. In this embodiment, the enlargement ratio or reduction ratio obtained here is used to control the zoom motor 15 b of the zoom unit 15 of the projection lens unit 13.

投射方向制御部27bでは、読み取った投射領域Dから構成される投射範囲の中心位置を求め、求めた中心位置に映像を投射する投射方向Xを求める。求めた投射方向Xは、光源ユニット12の光源制御部12bの制御に用いられる。   In the projection direction control unit 27b, the center position of the projection range constituted by the read projection area D is obtained, and the projection direction X for projecting an image at the obtained center position is obtained. The obtained projection direction X is used for control of the light source control unit 12b of the light source unit 12.

フォーカス制御部28は、投射レンズ14のフォーカスを制御するものである。フォーカス制御部28では、評価用距離記憶部44から投射領域Dの中心または中心付近に位置する分割領域Bの評価用距離Leを読み取ると共に、基礎情報記憶部49から拡大・縮小率を読み取る。そして、これらのデータに基づいて、スクリーンSに表示される映像が鮮明なものとなる投射レンズ14のポジションを求め、求めたポジションを基礎情報記憶部49に記憶させる。なお、求めたポジションはフォーカスユニット16の制御に用いられる。   The focus control unit 28 controls the focus of the projection lens 14. The focus control unit 28 reads the evaluation distance Le of the divided region B located at or near the center of the projection region D from the evaluation distance storage unit 44 and reads the enlargement / reduction ratio from the basic information storage unit 49. Then, based on these data, the position of the projection lens 14 at which the image displayed on the screen S is clear is obtained, and the obtained position is stored in the basic information storage unit 49. The obtained position is used for controlling the focus unit 16.

光量制御部29は、光源12aの光量を調節するものである。光量制御部29では、まず、投射領域Dのうち、実際に映像を表示する投射範囲の最も中心に近い分割領域Bの評価用距離Leを評価用距離記憶部44から読み取る。そして、この評価用距離Leに基づいて、スクリーンSに表示される映像が見やすい明るさになる光量を求め、求めた光量は基礎情報記憶部49に記憶させる。求めた光量は、光源12aの光量の制御に用いられる。なお、基礎情報記憶部49に記憶されている映像の拡大・縮小率をも考慮して光量を制御してもよい。   The light quantity control unit 29 adjusts the light quantity of the light source 12a. In the light quantity control unit 29, first, the evaluation distance Le of the divided region B closest to the center of the projection range in which an image is actually displayed in the projection region D is read from the evaluation distance storage unit 44. Then, based on the evaluation distance Le, a light amount that makes the image displayed on the screen S easy to see is obtained, and the obtained light amount is stored in the basic information storage unit 49. The obtained light quantity is used for controlling the light quantity of the light source 12a. The light amount may be controlled in consideration of the enlargement / reduction rate of the video stored in the basic information storage unit 49.

このようなプロジェクタ10でスクリーンSに映像を投射する場合の動作を、図12のフローチャートを参照しつつ説明する。   The operation when the projector 10 projects an image on the screen S will be described with reference to the flowchart of FIG.

プロジェクタ10の電源スイッチがオンされると、まず、図1などに示されるセンサユニット18の各距離センサ19によって、投射エリアA内の各分割領域Bの中央Bcの位置を測定する(S01)。   When the power switch of the projector 10 is turned on, first, the position of the center Bc of each divided area B in the projection area A is measured by each distance sensor 19 of the sensor unit 18 shown in FIG. 1 (S01).

各分割領域Bの中央Bcの位置を測定すると、図4に示されるコントローラ20の評価用位置演算部22で、各分割領域Bの評価用位置Peおよび評価用距離Leを求める(S02)。ここでは、各分割領域Bの中央Bcに向けて出射した距離検出用の赤外線センサIrによって中央Bcの位置(反射点位置)を測定し、測定した位置に基づいて、評価用位置Peおよび評価用距離Leを求める。この評価用位置Peおよび評価用距離Leは、投射レンズ14に対する位置および距離として表されるように変換されている。   When the position of the center Bc of each divided area B is measured, the evaluation position Pe and the evaluation distance Le of each divided area B are obtained by the evaluation position calculation unit 22 of the controller 20 shown in FIG. 4 (S02). Here, the position (reflection point position) of the center Bc is measured by the distance detecting infrared sensor Ir emitted toward the center Bc of each divided region B, and the evaluation position Pe and the evaluation position are measured based on the measured position. The distance Le is obtained. The evaluation position Pe and the evaluation distance Le are converted so as to be expressed as a position and a distance with respect to the projection lens 14.

評価用位置Peおよび評価用距離Leを求めると、次に、障害物検出部23で、各分割領域Bの評価用位置Peを用いて各分割領域Bの障害物Wや凹凸を検出する。概略的には、選択した3つの評価用位置Peが一直線上に位置するか否かの判断を行なうと共に、当該判断の際に求められる基準となる線分から各評価用位置Peまでの離間距離Gを求める(S03)。離間距離Gを求める手順は、図14のフローチャートで詳細に説明しているのでここでは詳細な説明を省略する。   When the evaluation position Pe and the evaluation distance Le are obtained, the obstacle detection unit 23 detects the obstacle W and the unevenness of each divided area B using the evaluation position Pe of each divided area B. Schematically, it is determined whether or not the three selected evaluation positions Pe are positioned on a straight line, and the separation distance G from each reference position Pe to the evaluation position Pe is determined in the determination. Is obtained (S03). Since the procedure for obtaining the separation distance G has been described in detail in the flowchart of FIG. 14, detailed description thereof will be omitted here.

全ての評価用位置Peについて離間距離Gを求めると、適性値演算部24で、離間距離Gおよび評価用距離Leを用いて、各分割領域Bの投射面としての適性値Rを求める(S04)。離間距離Gは、対応する分割領域B内に障害物があるか否かや、対応する分割領域Bに凹凸があるか否かを判断する数値として適している。また、評価用距離Leは、スクリーンSの位置がプロジェクタ10にとって適切な範囲内か否かを判断するための数値として適している。したがって、このような数値を用いることで、対応する分割領域Bについて、投射面としての適性値Rを的確に求めることができる。なお、適性値Rを求める手順は、図15に示されるフローチャートを用いて詳細に説明している。   When the separation distance G is obtained for all the evaluation positions Pe, the suitability value calculation unit 24 obtains the suitability value R as the projection surface of each divided region B using the separation distance G and the evaluation distance Le (S04). . The separation distance G is suitable as a numerical value for determining whether there is an obstacle in the corresponding divided area B and whether the corresponding divided area B has irregularities. The evaluation distance Le is suitable as a numerical value for determining whether or not the position of the screen S is within an appropriate range for the projector 10. Therefore, by using such a numerical value, it is possible to accurately determine the suitability value R as the projection plane for the corresponding divided region B. The procedure for obtaining the aptitude value R has been described in detail with reference to the flowchart shown in FIG.

各分割領域Bの適性値Rを求めると、次に、候補領域判断部25によって、適性値Rを用いて16区画ある分割領域Bの中から投射候補領域Cを決定する(S05)。具体的には、各分割領域Bの適性値Rと基準適性値Rcとを比較し、適性値Rが基準適性値Rc以上である分割領域Bを投射候補領域Cと決定する。   When the suitability value R of each divided region B is obtained, the candidate region determination unit 25 next determines the projection candidate region C from among the 16 divided regions B using the suitability value R (S05). Specifically, the aptitude value R of each divided area B and the reference aptitude value Rc are compared, and the divided area B whose aptitude value R is equal to or greater than the reference aptitude value Rc is determined as the projection candidate area C.

投射候補領域Cを決定すると、投射領域判断部26で、投射候補領域Cに決定された分割領域Bの中から、実際に映像を表示する投射領域Dを選択する(S06)。投射候補領域Cは、投射エリアAのうち投射面として適性を一応有する部分である。ただし、全ての投射候補領域Cが映像を表示する投射範囲に含まれるとは限らない。この点、本実施形態のプロジェクタ10では、投射候補領域Cの中から実際に映像を投射する投射領域Dを自動的に選択するので、障害物や凹凸がないエリアだけに、迅速かつ確実に映像を表示できる。なお、投射領域Dを選択する手順は、図16に示されるフローチャートを用いて詳細に説明している。   When the projection candidate area C is determined, the projection area determination unit 26 selects the projection area D that actually displays an image from the divided areas B determined as the projection candidate area C (S06). The projection candidate area C is a part of the projection area A that has suitability as a projection surface. However, not all projection candidate areas C are included in the projection range in which the video is displayed. In this regard, in the projector 10 of the present embodiment, the projection area D that actually projects the image is automatically selected from the projection candidate areas C, so that the image can be quickly and reliably only in an area without an obstacle or unevenness. Can be displayed. The procedure for selecting the projection area D has been described in detail with reference to the flowchart shown in FIG.

投射領域Dを選択すると、映像処理部27で、選択された投射領域Dから構成される投射範囲に表示対象の映像を表示できるように、映像処理を行う(S07)。具体的には、映像サイズ制御部27aによって、表示する映像を拡大・縮小するなどして変形し、また映像を投射範囲に表示できるように、投射方向制御部27bで、表示する映像の投射方向Xを決定する。これにより、選択した投射領域Dからなる投射範囲に、適切な大きさの映像を確実に表示できる。   When the projection area D is selected, the video processing unit 27 performs video processing so that the video to be displayed can be displayed in the projection range constituted by the selected projection area D (S07). Specifically, the projection direction control unit 27b changes the projection direction of the video to be displayed so that the video size control unit 27a deforms the displayed video by enlarging or reducing the display image and displays the video in the projection range. X is determined. Thereby, an image of an appropriate size can be reliably displayed in the projection range including the selected projection area D.

たとえば、図17(B)に示されるように、水平に広がるスクリーンSに向けてその上方に設置されたプロジェクタ10から映像を投射する場合、投射エリアAの左上隅にノートパソコンWpが置かれている場合を考える。このとき、分割領域B11の障害物WとしてノートパソコンWpを検出すれば、図11に斜線で示される分割領域Bが投射領域Dに選ばれることとなり、図17(B)に示されるような状態で、映像が表示される。そして、全ての分割領域Bが投射領域Dとして選択されている場合は、図17(A)に示されるように、投射エリアA全体に映像が表示される。また、投射エリア内に、ノートパソコンWpなどの障害物Wが複数ある場合は、図17(C)に示されるように、投射エリアAの一部に映像が表示される。   For example, as shown in FIG. 17B, when a video is projected from the projector 10 installed above the screen S that extends horizontally, a notebook personal computer Wp is placed in the upper left corner of the projection area A. Think if you are. At this time, if the notebook computer Wp is detected as the obstacle W in the divided area B11, the divided area B indicated by hatching in FIG. 11 is selected as the projection area D, and the state as shown in FIG. The video is displayed. When all the divided areas B are selected as the projection areas D, an image is displayed in the entire projection area A as shown in FIG. When there are a plurality of obstacles W such as a notebook computer Wp in the projection area, an image is displayed in a part of the projection area A as shown in FIG.

そして、スクリーンS上に鮮明な映像が表示されるように、フォーカス制御部28で投射レンズ14のフォーカスを調整する(S08)。また、スクリーンS上に見やすい明るさの映像が表示されるように、光量制御部29で光源12aからの光量を調整する(S09)。このような制御を行うことで、スクリーンS上の投射範囲に、鮮明で適切な明るさの映像を確実に表示できる。   Then, the focus control unit 28 adjusts the focus of the projection lens 14 so that a clear image is displayed on the screen S (S08). In addition, the light amount control unit 29 adjusts the light amount from the light source 12a so that an easily viewable image is displayed on the screen S (S09). By performing such control, a clear and appropriate brightness image can be reliably displayed in the projection range on the screen S.

以上のように、本実施形態のプロジェクタ10によれば、プロジェクタの投射エリアのうち、障害物Wや凹凸がなく投射面としての適正を有する範囲を検出できる。そして、投射面としての適正を有する範囲に向けて投射光Lを投射し、この投射範囲に映像を表示できる。障害物Wや凹凸がある領域に映像を表示すると、映像が歪んだ状態で表示されたり、映像の途中に段差が生じたりしてしまい、映像を正確に視認できないことがある。この点、本実施形態のプロジェクタ10によれば、障害物Wや凹凸がなく投射面として適した範囲に映像を表示できるので、映像に歪みや段差が生ずるようなことが防止され、見やすい映像を表示できる。   As described above, according to the projector 10 of the present embodiment, it is possible to detect a range having no obstacle W or unevenness and having an appropriate projection surface in the projection area of the projector. And the projection light L can be projected toward the range which has the appropriateness as a projection surface, and an image | video can be displayed on this projection range. When an image is displayed in an area with an obstacle W or unevenness, the image may be displayed in a distorted state or a step may be generated in the middle of the image, and the image may not be accurately recognized. In this respect, according to the projector 10 of the present embodiment, since the image can be displayed in a range suitable for the projection surface without the obstacle W or the unevenness, it is possible to prevent the image from being distorted or stepped and to display an easy-to-view image. Can be displayed.

なお、本実施形態のプロジェクタ10では、検出波として赤外線Irを用いたが、これに限られるものではなく、たとえばレーザ光や超音波などを用いることができる。   In the projector 10 of the present embodiment, infrared Ir is used as a detection wave, but the present invention is not limited to this, and for example, laser light or ultrasonic waves can be used.

また、上記実施形態のプロジェクタ10では、各分割領域Bの中央Bcの位置に向けて距離センサ19の距離検出用の赤外線Irを出射して、対応する分割領域Bの評価用位置Peを求めているが、評価用位置Peは、分割領域Bの中央Bcに関するものでなくてもよい。例えば、対応する分割領域B内の任意の位置について求めた評価用位置を用いてもよい。そして、上記実施形態では、位置測定箇所は各分割領域Bにつき中央Bcの1箇所だけであり、その1箇所に基づいて各分割領域Bの評価用位置Peを求めているが、評価用位置Peを求める方法はこれに限られるものではない。たとえば、各分割領域Bの複数個所の位置を測定し、測定した複数箇所の位置に基づいて、対応する分割領域Bの評価用位置Peを求めるようにしてもよいし、測定した複数位置の平均位置を評価用位置として用いるようなことを行ってもよい。   In the projector 10 of the above embodiment, the distance detection infrared ray Ir of the distance sensor 19 is emitted toward the position of the center Bc of each divided area B, and the evaluation position Pe of the corresponding divided area B is obtained. However, the evaluation position Pe may not be related to the center Bc of the divided region B. For example, an evaluation position obtained for an arbitrary position in the corresponding divided region B may be used. In the above embodiment, the position measurement location is only one in the center Bc for each divided region B, and the evaluation position Pe for each divided region B is obtained based on the one location. However, the method for obtaining the value is not limited to this. For example, the positions of a plurality of locations in each divided region B may be measured, and the evaluation position Pe of the corresponding divided region B may be obtained based on the measured positions of the plurality of locations. The position may be used as the evaluation position.

次に、本発明に係るプロジェクタの第2実施形態について説明する。   Next, a projector according to a second embodiment of the invention will be described.

第2実施形態の説明では、上記実施形態のプロジェクタ10と異なる構成を中心に説明することとし、共通の構成については同一の符号を付し、その説明を省略することとする。   In the description of the second embodiment, the description will focus on the configuration that is different from the projector 10 of the above-described embodiment, the same reference numerals are assigned to the common configurations, and the description thereof is omitted.

図18に示されるように、第2実施形態のプロジェクタ60は、投射エリアAの分割領域Bまでの距離を測定する手段として、CCDカメラ61a,61bを備えた撮像ユニット61を有しており、この点で上記実施形態と異なっている。そして、第2実施形態のプロジェクタ60は、後述するように、投射エリアA内の各分割領域Bの色を検出する色検出器62と、この色検出器62で検出した色に関するデータを記憶するための色記憶部81とを備えており、この点で上記実施形態と異なっている(図19参照)。   As shown in FIG. 18, the projector 60 of the second embodiment has an imaging unit 61 including CCD cameras 61 a and 61 b as means for measuring the distance to the divided area B of the projection area A, This is different from the above embodiment. The projector 60 of the second embodiment stores a color detector 62 that detects the color of each divided area B in the projection area A and data related to the color detected by the color detector 62, as will be described later. And a color storage unit 81 for this purpose, which is different from the above-described embodiment (see FIG. 19).

また、後述するように、本実施形態では、各分割領域Bの投射面としての適性値Rを求めるときに、色を考慮するようになっており、各分割領域Bの色を検出する色演算部71を備えている。そして、本実施形態では、適性値Rを求める方法が上記実施形態とは異なっており、コントローラ70は、上記実施形態とは異なる適性値演算部72を備えている。   Further, as will be described later, in this embodiment, the color is taken into consideration when obtaining the suitability value R as the projection surface of each divided region B, and the color calculation for detecting the color of each divided region B is performed. A portion 71 is provided. In this embodiment, the method for obtaining the aptitude value R is different from that in the above embodiment, and the controller 70 includes an aptitude value calculator 72 different from that in the above embodiment.

図18および図19に示されるように、撮像ユニット61は、右側CCDカメラ61aと、左側CCDカメラ61bと、撮像範囲の所定位置について位置や距離を演算する撮像点位置演算部61cとを備えている。   As shown in FIGS. 18 and 19, the imaging unit 61 includes a right CCD camera 61a, a left CCD camera 61b, and an imaging point position calculation unit 61c that calculates a position and a distance for a predetermined position in the imaging range. Yes.

右側CCDカメラ61aおよび左側CCDカメラ61bは、投射レンズ部13を挟んでその両側に位置するように設置されている。そして、両CCDカメラ61a,61bは、いずれも、スクリーンSなどの投射面がプロジェクタ60の投射適正距離の範囲内に設置されているとき、投射面上の投射エリアA全体を撮影できる向きに向けられている。投射適正距離は、通常、プロジェクタの光源の出力等に基づいて、プロジェクタごとに予め定められている。また、両CCDカメラ61a,61bで撮影された映像は、撮像点位置演算部61cに入力される。   The right CCD camera 61a and the left CCD camera 61b are installed on both sides of the projection lens unit 13 therebetween. Both the CCD cameras 61a and 61b are directed to the direction in which the entire projection area A on the projection surface can be photographed when the projection surface such as the screen S is installed within the range of the appropriate projection distance of the projector 60. It has been. The appropriate projection distance is usually predetermined for each projector based on the output of the light source of the projector. In addition, images taken by both the CCD cameras 61a and 61b are input to the imaging point position calculation unit 61c.

撮像点位置演算部61cは、視差映像に基づいて距離を検出する検出方法を用いて投射エリアA内の障害物Wや凹凸を検出するものである。この検出方法は、概略的には、異なる視点から被写体を見た場合に得られる複数の視差映像に基づいて視差映像間の視差を検出し、検出した視差に基づいて被写体の凹凸などの奥行きを検出する方法であり、映像処理や映像認識の分野において広く一般に知られた方法である。したがって詳細な説明については省略する。   The imaging point position calculation unit 61c detects an obstacle W or unevenness in the projection area A using a detection method that detects a distance based on the parallax image. In general, this detection method detects parallax between parallax images based on a plurality of parallax images obtained when the subject is viewed from different viewpoints, and the depth of the unevenness of the subject is determined based on the detected parallax. This is a detection method, and is a widely known method in the fields of video processing and video recognition. Therefore, detailed description is omitted.

撮像ユニット61では、まず、入力された2つの映像を視差映像として用いてマッチングを行い、視差映像間の視差量を検出する。具体的に説明すると、例えば右側CCDカメラ61aで撮影した映像上で、投射エリアA内の各分割領域Bの中央Bcの位置に対応する一方の特定点を求め、左側CCDカメラ61bで撮影した映像上で、一方の特定点に対応する他方の特定点を求める。このようにして相互に対応する両特定点を求めると、各分割領域Bの中央Bcの位置について、視差映像上の移動距離すなわち視差量を求める。   In the imaging unit 61, first, matching is performed using two input images as parallax images, and a parallax amount between the parallax images is detected. More specifically, for example, on a video photographed by the right CCD camera 61a, one specific point corresponding to the position of the center Bc of each divided area B in the projection area A is obtained, and a video photographed by the left CCD camera 61b. Above, the other specific point corresponding to one specific point is calculated | required. When both specific points corresponding to each other are obtained in this way, the movement distance on the parallax image, that is, the amount of parallax, is obtained for the position of the center Bc of each divided region B.

そして、求めた視差量に基づき、三角測量の原理を利用して、各分割領域Bの中央Bcの位置を求めると共に、各分割領域Bの中央Bc(図3(A)参照)と右側CCDカメラ61a(および/または左側CCDカメラ62a)との間の距離を求める。求められた位置および距離は、コントローラ70を介して、後述するメモリ70bの中央位置記憶部42に記憶される。   Based on the calculated parallax amount, the position of the center Bc of each divided region B is obtained using the principle of triangulation, and the center Bc (see FIG. 3A) of each divided region B and the right CCD camera. The distance to 61a (and / or the left CCD camera 62a) is obtained. The obtained position and distance are stored in the central position storage unit 42 of the memory 70b described later via the controller 70.

撮像ユニット61は、各分割領域Bの色を検出する色検出器62の一部を構成する。   The imaging unit 61 constitutes a part of a color detector 62 that detects the color of each divided region B.

色検出器62は、プロジェクタ60の光源12aと、投射エリアAを撮影するための右側CCDカメラ61aと、演算処理部70aに備わる色演算部71とからなるものである。   The color detector 62 includes a light source 12a of the projector 60, a right CCD camera 61a for photographing the projection area A, and a color calculation unit 71 provided in the calculation processing unit 70a.

光源12aは、投射エリアA内に向けて白色光を投射する手段として用いられる。そして、右側CCDカメラ61aは、白色光が投射された状態の各分割領域Bを撮影し、撮影した映像を色演算部71に入力する。なお、色検出器62を構成するCCDカメラとして左側CCDカメラ61bを用いてもよいし両CCDカメラ61a,61bを用いてもよい。   The light source 12a is used as means for projecting white light into the projection area A. The right CCD camera 61 a captures each divided area B in a state where white light is projected, and inputs the captured image to the color calculation unit 71. Note that the left CCD camera 61b may be used as the CCD camera constituting the color detector 62, or both the CCD cameras 61a and 61b may be used.

また、色演算部71は、右側CCDカメラ61aが出力する映像についての信号に基づいて各分割領域Bの色を求める。色には、明度、色相および彩度という三属性があり、この色演算部71では、これらのうちの明度Mと色相Nとを求める。そして、各分割領域Bについて求められた明度Mおよび色相Nは、メモリ70bの色記憶部81に記憶される。CCDカメラとしては種々のものを用いることができるが、本実施形態では、RGB信号を出力するものを用いた。したがって、色演算部71では、出力されたRGB信号に基づいて、明度Mおよび色相Nを求めている。明度Mや色相Nを求める方法としては、たとえばRGB参照テーブルを用いる方法など映像機器の分野では様々な周知の方法が存在するので、ここでは、その説明を省略する。なお、ここでは、明度Mを100(純白)から0(純黒)の間の数値で特定し、色相Nの色彩の度合いを100(無彩色)から0(いずれかの三原色そのものの色)の間の数値で特定した。そして、各分割領域Bについて求めた明度Mおよび色相Nをメモリ70bの色記憶部81に記憶させるようにした。   Further, the color calculation unit 71 obtains the color of each divided region B based on a signal regarding the video output from the right CCD camera 61a. The color has three attributes of lightness, hue, and saturation, and the color calculation unit 71 obtains lightness M and hue N of these. Then, the brightness M and the hue N obtained for each divided region B are stored in the color storage unit 81 of the memory 70b. Various types of CCD cameras can be used. In the present embodiment, those that output RGB signals are used. Therefore, the color calculation unit 71 obtains the lightness M and the hue N based on the output RGB signal. As a method for obtaining the lightness M and the hue N, there are various well-known methods in the field of video equipment, such as a method using an RGB reference table, and the description thereof is omitted here. Here, the lightness M is specified by a numerical value between 100 (pure white) and 0 (pure black), and the hue degree of the hue N is set from 100 (achromatic color) to 0 (the color of any of the three primary colors). It was specified by the numerical value between. Then, the lightness M and the hue N obtained for each divided region B are stored in the color storage unit 81 of the memory 70b.

なお、本実施形態は、色演算部71がコントローラ70に備えられた構成であるが、このような構成に限られない。例えば、色(相)信号および輝度信号を出力するCCDカメラなどの撮像手段を用いる場合であれば、コントローラ70の色演算部71は、簡易的に、色信号の強度により色相を求め輝度信号の強度で明度を求めてもよい。   In addition, although this embodiment is the structure by which the color calculating part 71 was provided in the controller 70, it is not restricted to such a structure. For example, when using an imaging unit such as a CCD camera that outputs a color (phase) signal and a luminance signal, the color calculation unit 71 of the controller 70 simply obtains the hue based on the intensity of the color signal and calculates the luminance signal. The brightness may be obtained by intensity.

適性値演算部72は、各分割領域Bの評価用位置Peについて求めた離間距離G、明度Mおよび色相Nに基づいて、各分割領域Bの適性値Rを求めるものである。   The aptitude value calculation unit 72 obtains the aptitude value R of each divided area B based on the separation distance G, brightness M, and hue N obtained for the evaluation position Pe of each divided area B.

図23のフローチャートに示されるように、適性値Rを求めるときは、対応する分割領域Bの離間距離Gを障害物情報記憶部45から読み取る(S15−1)。そして、離間距離テーブルT2(図7(B)参照)を基礎情報記憶部49から読み取り、読み取った離間距離Gを離間距離テーブルT2に参照して、適性値算出用の数値R2を求める(S15−1)。また、各分割領域Bの明度Mおよび色相Nを色記憶部81から読み取る(S15−3)。基礎情報記憶部49には、図20に示されるような色テーブルT3が記憶されており、適性値演算部72は、この色テーブルT3を読み取る。そして、読み取っていた明度Mおよび色相Nの各数値を掛け合わせて100で割った値をテーブルT3に参照して適性値演算用の数値R3を求める(S15−4)。そして、両数値R2,R3を合計して選んだ分割領域Bの適性値Rを求める(S15−5)。例えば、「たくさん離れている」が白色の面であるある場合、R2は2点であり、R3は5点であるので、適性値Rは7点になる。そして、求めた適性値Rを適性値記憶部46に記憶させる。このような処理を、全ての分割領域Bについて行う(S15−6)。なお、図21は、全ての分割領域Bについて求めた適性値Rを各分割領域Bのところに記載して示したものの具体例である。   As shown in the flowchart of FIG. 23, when the aptitude value R is obtained, the separation distance G of the corresponding divided region B is read from the obstacle information storage unit 45 (S15-1). Then, the separation distance table T2 (see FIG. 7B) is read from the basic information storage unit 49, and the read separation distance G is referred to the separation distance table T2 to obtain the numerical value R2 for calculating the aptitude value (S15- 1). Further, the lightness M and hue N of each divided area B are read from the color storage unit 81 (S15-3). The basic information storage unit 49 stores a color table T3 as shown in FIG. 20, and the aptitude value calculation unit 72 reads the color table T3. Then, the numerical value R3 for calculating the aptitude value is obtained by referring to the value obtained by multiplying the read values of brightness M and hue N and dividing by 100 with reference to the table T3 (S15-4). Then, the suitability value R of the divided area B selected by summing up both numerical values R2 and R3 is obtained (S15-5). For example, when “a lot of distance” is a white surface, since R2 is 2 points and R3 is 5 points, the aptitude value R is 7 points. Then, the obtained aptitude value R is stored in the aptitude value storage unit 46. Such processing is performed for all the divided regions B (S15-6). FIG. 21 is a specific example in which aptitude values R obtained for all the divided areas B are described at each divided area B.

このような異なる構成を有する第2実施形態のプロジェクタ60でスクリーンSに映像を投射する場合の動作を、図22のフローチャートを参照しつつ説明する。なお、図12と共通の処理については、説明を省略している。   The operation in the case where an image is projected onto the screen S by the projector 60 of the second embodiment having such a different configuration will be described with reference to the flowchart of FIG. Note that a description of processing common to FIG. 12 is omitted.

プロジェクタ10の電源スイッチがオンされると、撮像ユニット61の両CCDカメラ61a,61bによって投射エリアAを撮影し、撮影した映像に基づいて各分割領域Bの中央Bcの位置を測定する(S11)。測定された中央Bcの位置と、当該位置までの距離は、中央位置記憶部42に記憶される。   When the power switch of the projector 10 is turned on, the projection area A is photographed by both the CCD cameras 61a and 61b of the imaging unit 61, and the position of the center Bc of each divided area B is measured based on the photographed images (S11). . The measured position of the center Bc and the distance to the position are stored in the center position storage unit 42.

次に、図19に示されるコントローラ70の評価用位置演算部22において、中央位置記憶部42に記憶された位置を、投射レンズ14に対する位置で表される位置に変換し、変換により求めた位置を対応する分割領域Bの評価用位置Peとして(S12)、評価用位置記憶部43に記憶させる。なお、同時に評価用距離Leを求めて適当な記憶部に記憶させてもよい。   Next, in the position calculation unit 22 for evaluation of the controller 70 shown in FIG. 19, the position stored in the central position storage unit 42 is converted into a position represented by the position with respect to the projection lens 14, and the position obtained by the conversion Is stored in the evaluation position storage unit 43 as the evaluation position Pe of the corresponding divided region B (S12). At the same time, the evaluation distance Le may be obtained and stored in an appropriate storage unit.

評価用位置Peを求めると、次に、障害物検出部23で、各分割領域Bの評価用位置Peについて、基準となる線分からの離間距離Gを求める(S13)。離間距離Gは、対応する分割領域B内に障害物Wがあるか否か、また、対応する分割領域Bに凹凸があるか否かを判断する数値として適している。なお、離間距離Gを求める手順は、先の実施形態の説明で用いた図14に示されるフローチャートを用いて詳細に説明している。したがって、ここでは詳細な説明を省略する。   Once the evaluation position Pe is obtained, the obstacle detection unit 23 then obtains the separation distance G from the reference line segment for the evaluation position Pe of each divided region B (S13). The separation distance G is suitable as a numerical value for determining whether or not there is an obstacle W in the corresponding divided region B, and whether or not the corresponding divided region B is uneven. The procedure for obtaining the separation distance G has been described in detail using the flowchart shown in FIG. 14 used in the description of the previous embodiment. Therefore, detailed description is omitted here.

また、色演算部71で、各分割領域Bの明度Mおよび色相Nを求める(S14)。明度Mおよび色相Nは、スクリーンS表面が投射面として適しているか否かを判断する数値として適している。   Further, the color calculator 71 obtains the lightness M and hue N of each divided region B (S14). The lightness M and the hue N are suitable as numerical values for determining whether or not the surface of the screen S is suitable as a projection surface.

評価用位置Peの離間距離G、明度Mおよび色相Nを求めると、適性値演算部24で、まず、離間距離Gに基づいて適性値演算用の数値R2を求め、明度Mおよび色相Nに基づいて適性値演算用の数値R3を求める(S15)。そして、これらの数値R2,R3に基づいて、各分割領域Bの投射面としての適性値Rを求める。なお、適性値Rを求める手順は、図23のフローチャートを用いて説明したので、説明を省略する。   When the separation distance G, brightness M, and hue N of the evaluation position Pe are obtained, the suitability value calculation unit 24 first obtains a numerical value R2 for calculating the suitability value based on the separation distance G, and based on the brightness M and hue N. Then, a numerical value R3 for calculating the aptitude value is obtained (S15). Based on these numerical values R2 and R3, an aptitude value R as a projection surface of each divided region B is obtained. The procedure for obtaining the aptitude value R has been described with reference to the flowchart of FIG.

各分割領域Bの適性値Rを求めると、次に、候補領域判断部25で、適性値Rを用いて、16区画ある分割領域Bの中から投射候補領域Cを決定する(S16)。次に、投射領域判断部26で、投射候補領域Cに決定された分割領域Bの中から、実際に映像を表示する投射領域Dを選択する(S17)。そして、映像処理部27で、選択された投射領域Dからなる投射範囲に映像を表示できるように映像処理を行う(S18)。そして、スクリーンS上に鮮明な映像が表示されるように、フォーカス制御部28で投射レンズ14のフォーカスを調整し(S19)、スクリーンS上に見やすい明るさの映像が表示されるように、光量制御部29で光源12aからの光量を調整する(S20)。   When the suitability value R of each divided area B is obtained, the candidate area determination unit 25 next determines the projection candidate area C from among the 16 divided areas B using the suitability value R (S16). Next, the projection area determination unit 26 selects a projection area D that actually displays an image from the divided areas B determined as the projection candidate area C (S17). Then, the video processing unit 27 performs video processing so that the video can be displayed in the projection range including the selected projection area D (S18). Then, the focus control unit 28 adjusts the focus of the projection lens 14 so that a clear image is displayed on the screen S (S19), and the light quantity is displayed so that an easily viewable image is displayed on the screen S. The control unit 29 adjusts the amount of light from the light source 12a (S20).

このようにすることで、障害物Wや凹凸がなく投射面として適した領域に、歪みや段差のない見やすい映像を表示できる。各分割領域Bの適性値Rに基づいて、投射候補領域Cを決定した後、光量を調整するまでの処理(S16〜S20)は、第1実施形態のプロジェクタ10における処理と同じであるので、ここではその説明を省略する。   By doing so, it is possible to display an easy-to-view video without distortion or steps in an area that is free of obstacles W and unevenness and is suitable as a projection surface. Since the process (S16 to S20) from the determination of the projection candidate area C to the adjustment of the light amount based on the suitability value R of each divided area B is the same as the process in the projector 10 of the first embodiment, The description is omitted here.

なお、上記第2実施形態のプロジェクタ60では、撮像点位置演算部61cは撮像ユニットに備えられているが、例えば、コントローラ70に備えられていてもよい。そして、上記第2実施形態のプロジェクタ60では、視差量を求める方法として、いわゆるマッチング処理法を用いているが、この方法に限られず、たとえば対応点決定処理を必要としないハフ変換処理法など、種々の方法を用いることができる。   In the projector 60 of the second embodiment, the imaging point position calculation unit 61c is provided in the imaging unit, but may be provided in the controller 70, for example. In the projector 60 of the second embodiment, a so-called matching processing method is used as a method for obtaining the amount of parallax. However, the method is not limited to this method, and for example, a Hough transform processing method that does not require corresponding point determination processing, or the like. Various methods can be used.

また、以下の点については、上記2つの実施形態のプロジェクタ10,60のいずれにも適用することができる。   Further, the following points can be applied to any of the projectors 10 and 60 of the above-described two embodiments.

たとえば、上記実施形態では、投射エリアAの形状(図2、3参照)および分割領域Bの形状は横長の長方形であったが、このような形状に限られるものではなく、円形をはじめとする種々の形状を採用することができる。ただし、分割領域Bの形状については、投射エリアAの有効利用の観点から、投射エリアAの形状と相似形が好ましく、四角形特に長方形や正方形が好ましい。複数の分割領域Bの数は16区画であったが、その数に上限はなく必要に応じて適宜決定することができる。   For example, in the above-described embodiment, the shape of the projection area A (see FIGS. 2 and 3) and the shape of the divided region B are horizontally long rectangles. Various shapes can be employed. However, the shape of the divided region B is preferably similar to the shape of the projection area A from the viewpoint of effective use of the projection area A, and is preferably a quadrangle, particularly a rectangle or a square. The number of the plurality of divided regions B is 16 sections, but there is no upper limit to the number and can be appropriately determined as necessary.

そして、上記実施形態では、位置を測定した箇所の数は各分割領域Bにつき中央Bcの1箇所だけであり、その1箇所に基づいて各分割領域Bの評価用位置Peを求めているが、評価用位置Peを求める方法はこれに限られるものではない。たとえば、各分割領域Bの複数個所の位置を測定し、測定した複数箇所の位置に基づいて、対応する分割領域Bの評価用位置を求めるようにしてもよいし、測定した複数位置の平均位置を評価用位置Peとして用いるようなことを行ってもよい。   And in the said embodiment, although the number of the places which measured the position is only one place of the center Bc for each divided area B, the position Pe for evaluation of each divided area B is obtained based on that one place. The method for obtaining the evaluation position Pe is not limited to this. For example, the position of a plurality of locations in each divided region B may be measured, and the evaluation position of the corresponding divided region B may be obtained based on the measured positions of the plurality of locations. May be used as the evaluation position Pe.

第1実施形態では、分割領域Bの数と同数の距離センサ19を設け、各距離センサ19で対応する分割領域Bの中央Bcの位置(反射点位置)を測定しているが、このような構成に限られず、例えば、スキャニングによって多数の位置について距離測定できる距離センサを設け、これにより各分割領域Bの中央Bcの位置までの距離を測定するようにしてもよい。また、第2実施形態の場合は、視差量を求める位置の数を複数にしてもよい。そして、評価用位置Peは、投射レンズ14の位置を基準位置とする位置として表されるものであるが、基準位置は投射レンズ14の位置に限られず、例えば、光源12aの位置など種々の位置を用いることができる。   In the first embodiment, the same number of distance sensors 19 as the number of the divided areas B are provided, and the position (reflection point position) of the center Bc of the corresponding divided area B is measured by each distance sensor 19. For example, a distance sensor capable of measuring distances at a large number of positions by scanning may be provided, and thereby the distance to the position of the center Bc of each divided region B may be measured. In the case of the second embodiment, a plurality of positions for obtaining the parallax amount may be provided. The evaluation position Pe is expressed as a position where the position of the projection lens 14 is a reference position. However, the reference position is not limited to the position of the projection lens 14, and may be various positions such as the position of the light source 12a. Can be used.

また、上記実施形態の障害物検出部23では、先に説明したように、全ての線分FL,FS1,FS2が第1基準線Vと平行でないとき、3つの評価用位置Pe1,Pe2,Pe3について離間距離Gは測定不能であると判断している(図14、S03−3−9参照)。そして、測定不能の場合、図7(B)の離間距離テーブルT2に示されるように、適性値Rを算出するための数値R1は「1」と低くなっており、障害物Wや凹凸が存在する場合と同様に扱われている。例えば、スクリーンS全体の向きが投射方向Xと直交する状態になるようにスクリーンSを設置した後、障害物検出部23で障害物Wや凹凸を検出する装置では、測定不能であれば、選択した3つの分割領域Bの全てに障害物Wや凹凸が存在している可能性が高い。したがって、測定不能である場合と障害物Wや凹凸が存在する場合とを同様に扱うことができる。しかし、スクリーンSの設置状態を検出することなく障害物Wや凹凸を検出する場合は、スクリーンS全体が投射方向Xに対して傾いた状態である場合があることを考慮する必要がある。つまり、スクリーンS全体が投射方向Xに対して傾いている場合、仮に全ての線分FL,FS1,FS2が第1基準線Vと平行でない場合であっても、3つの評価用位置Pe1,Pe2,Pe3だけに着目すると一直線上に位置しているという場合があり得る。   In the obstacle detection unit 23 of the above embodiment, as described above, when all the line segments FL, FS1, FS2 are not parallel to the first reference line V, the three evaluation positions Pe1, Pe2, Pe3 It is determined that the separation distance G cannot be measured (see FIG. 14, S03-3-9). When measurement is impossible, the numerical value R1 for calculating the aptitude value R is as low as “1” as shown in the separation distance table T2 in FIG. It is treated in the same way as you do. For example, after the screen S is installed so that the orientation of the entire screen S is orthogonal to the projection direction X, the device that detects the obstacle W or the unevenness by the obstacle detection unit 23 is selected if measurement is impossible. There is a high possibility that obstacles W and irregularities exist in all of the three divided regions B. Therefore, the case where measurement is impossible and the case where the obstacle W and the unevenness | corrugation exist can be handled similarly. However, when detecting an obstacle W or unevenness without detecting the installation state of the screen S, it is necessary to consider that the entire screen S may be inclined with respect to the projection direction X. In other words, when the entire screen S is inclined with respect to the projection direction X, the three evaluation positions Pe1, Pe2 even if all the line segments FL, FS1, FS2 are not parallel to the first reference line V. , Pe3 alone may be located on a straight line.

したがって、スクリーンSの設置状態を検出することなく障害物検出部23で障害物Wや凹凸の有無を検出するときは、図24のフローチャートに示されるように、3つの評価用位置Pe1,Pe2,Pe3を選んで3本の線分FL,FS1,FS2の延在方向を特定する処理(S03−4−1)を行う前に、まず、スクリーンS全体の向きが投射方向Xに対して直交しているか否かを判断するスクリーン状態判断処理を行う(S03−4−A)。判断方法としては、種々の方法が考えられるが、例えば、投射エリアAの四隅の分割領域B11,B14,B41,B44の評価用位置Peに基づいてスクリーンS全体の向きを求める方法などを挙げることができる。   Therefore, when the obstacle detection unit 23 detects the presence or absence of the obstacle W or unevenness without detecting the installation state of the screen S, as shown in the flowchart of FIG. 24, the three evaluation positions Pe1, Pe2, Before selecting Pe3 and performing the process (S03-4-1) of specifying the extending direction of the three line segments FL, FS1, and FS2, first, the orientation of the entire screen S is orthogonal to the projection direction X. Screen state determination processing is performed to determine whether or not it is present (S03-4-A). Various methods are conceivable as the determination method. For example, a method for obtaining the orientation of the entire screen S based on the evaluation positions Pe of the divided areas B11, B14, B41, and B44 at the four corners of the projection area A can be cited. Can do.

判断の結果、スクリーンS全体が投射方向Xと直交していれば、先に説明したようにして、3つの評価用位置Peが一直線上に位置するか否か判断する(S03−4−1以降)。他方、スクリーンS全体が投射方向Xに対して直交していなければ、スクリーンS全体が投射方向Xに対して直交するように修正し(S03−4−B)、再びスクリーンSの状態を判断する(S03−4−A)。修正方法は、自動的であってもよいし、プロジェクタ設置作業の一環として設置者が行うようにしてもよい。このような修正を必要に応じて行うようになっていれば、スクリーンSの設置状態を問わないプロジェクタにおいても、上記障害物検出部23を用いることができる。   As a result of the determination, if the entire screen S is orthogonal to the projection direction X, it is determined whether or not the three evaluation positions Pe are positioned on a straight line as described above (S03-4-1 and thereafter). ). On the other hand, if the entire screen S is not orthogonal to the projection direction X, the entire screen S is corrected to be orthogonal to the projection direction X (S03-4-B), and the state of the screen S is determined again. (S03-4-A). The correction method may be automatic, or may be performed by the installer as part of the projector installation work. If such correction is performed as necessary, the obstacle detection unit 23 can be used even in a projector that does not matter whether the screen S is installed.

また、上記実施形態では、障害物WとスクリーンS上の凹凸の両方を同一の基準で検出しているが、それぞれ異なるものとして検出してもよい。障害物Wと凹凸は、適切な映像表示を妨げるものであるという点で共通しているが、映像に与える影響は異なる。したがって、適性値Rを求めるときに、それぞれ別の基準を用いることが考えられる。それぞれ異なるものとして検出する方法としては種々の方法が考えられるが、例えば、上記実施形態において、各分割領域Bの評価用位置Peについて求めた離間距離Gが20mm以上のときは障害物を検出したと判断し、20mm未満のときはスクリーンS上の凹凸を検出したと判断することが考えられる。また、このように、それぞれ異なるものとして検出すれば、重み付けをする場合にも、より適切な重み付けを行うことができるという利点がある。   Moreover, in the said embodiment, although both the obstruction W and the unevenness | corrugation on the screen S are detected on the same reference | standard, you may detect as each different. The obstacle W and the unevenness are common in that they prevent proper video display, but the influence on the video is different. Therefore, it is conceivable to use different criteria for determining the aptitude value R. Various methods can be considered as different detection methods. For example, in the above embodiment, an obstacle is detected when the separation distance G obtained for the evaluation position Pe of each divided region B is 20 mm or more. If it is less than 20 mm, it may be determined that irregularities on the screen S have been detected. In addition, if each is detected as being different, there is an advantage that more appropriate weighting can be performed even when weighting is performed.

上記実施形態では、求めた適性値演算用の数値R1,R2,R3をそのまま合計して適性値Rを求めているが、各適性の重要度に応じた重み付けを加えた数値を用いて適性値Rを求めるようにしてもよい。例えば、離間距離Gに基づいて求められる適性値演算用の数値R2に重み付けをするのであれば、求めた数値R2に重み係数を乗じた値を、実際に用いる適性値演算用の数値R2とする。これにより、より実用的な適性値を求めることができ、投射候補領域Cをより実用的な基準で決定することができる。   In the above embodiment, the suitability value R is obtained by adding the obtained suitability value numerical values R1, R2, and R3 as they are, but the suitability value is calculated using a value that is weighted according to the importance of each suitability. R may be obtained. For example, when the numerical value R2 for calculating the aptitude value obtained based on the separation distance G is weighted, a value obtained by multiplying the calculated numerical value R2 by a weighting coefficient is used as the numerical value R2 for calculating the aptitude value actually used. . Thereby, a more practical aptitude value can be obtained, and the projection candidate area C can be determined based on a more practical standard.

各分割領域Bの投射面としての適性値Rを求める方法であるが、上記2つの実施形態のプロジェクタ10,60で用いた方法に限られず、評価用距離Leに基づいて求めた適性値演算用の数値R1と、離間距離Gに基づいて求めた適性値演算用の数値R2と、明度に基づいて求めた適性値演算用の数値R3とに基づいて求める方法でもよい。この場合、3数値R1,R2,R3を求めるためのテーブルT1,T2,T3と、当該方法に対応した基準適性値Rcを用意する。   This is a method for calculating the aptitude value R as the projection surface of each divided area B, but is not limited to the method used in the projectors 10 and 60 of the above two embodiments, and for calculating the aptitude value obtained based on the evaluation distance Le. May be obtained based on the numerical value R1, the numerical value R2 for calculating the aptitude value calculated based on the separation distance G, and the numerical value R3 for calculating the aptitude value calculated based on the brightness. In this case, tables T1, T2, and T3 for obtaining three numerical values R1, R2, and R3, and a reference aptitude value Rc corresponding to the method are prepared.

上記実施形態では、投射候補領域Cから投射領域Dを選択するとき、実際に映像を表示する投射範囲ができるだけ広くなるように投射領域Dを選択したが、これ以外の選択基準を用いてもよい。たとえば、投射範囲ができるだけ投射エリアAの中心を含む範囲になるように、そして、中心を含まない場合でもできるだけ中心寄りになるように投射領域Dを選択するという選択基準を用いてもよい。広い投射範囲を確保できれば、より大きい映像を表示することで、より見やすい映像を表示できる。他方、投射範囲の位置ができるだけ投射エリアAの中央寄りになるように投射領域Dを選択するという選択基準を用いれば、投射レンズ部13の光学系の中心部を使って、映像を含む投射光Lを投射できる。光学系では、一般に中心部分ほど光学性能が優れているところ、光学系の中心部を遣って映像を含む投射光Lを投射できれば、より見やすい映像を表示できる。いずれの選択基準を採用してもよいし、両選択基準を採用しても良い。両選択基準を採用する場合、いずれの選択基準を優先させてもよい。   In the above embodiment, when the projection area D is selected from the projection candidate areas C, the projection area D is selected so that the projection range for actually displaying the video is as wide as possible. However, other selection criteria may be used. . For example, a selection criterion may be used in which the projection area D is selected so that the projection range is as much as possible including the center of the projection area A, and so as to be as close to the center as possible even when the center is not included. If a wide projection range can be secured, it is possible to display a larger image by displaying a larger image. On the other hand, if the selection criterion of selecting the projection region D so that the position of the projection range is as close to the center of the projection area A as possible is used, the projection light including the image is obtained by using the central portion of the optical system of the projection lens unit 13. L can be projected. In the optical system, the optical performance is generally better at the center portion. However, if the projection light L including the image can be projected through the center portion of the optical system, a more easily viewable image can be displayed. Either selection criterion may be adopted, or both selection criteria may be adopted. When both selection criteria are adopted, any selection criteria may be prioritized.

投射範囲ができるだけ投射エリアAの中心に位置するように投射領域Dを選択する方法としては、例えば次のような方法を挙げることができる。全ての分割領域Bが投射候補領域Cである場合は投射エリアA全体に映像を表示させればよいので、この方法は、投射候補領域Cでない分割領域Bが存在するときに用いられる。まず、投射候補領域Cのうちから投射エリアAの最も中心寄りに位置する投射候補領域Cを検出する。そして、この投射候補領域Cを含んでおり、投射エリアAの形状と相似形であり、しかも非投射候補領域UCと重ならないという条件で、最も大きいサイズの投射領域選択用領域Ddを検出する。そして、この投射領域選択用領域Ddと重なる投射候補領域Cを投射領域Dとして選択すればよい。   As a method for selecting the projection region D so that the projection range is located in the center of the projection area A as much as possible, for example, the following method can be cited. When all the divided areas B are the projection candidate areas C, it is only necessary to display an image in the entire projection area A. Therefore, this method is used when there is a divided area B that is not the projection candidate area C. First, the projection candidate area C located closest to the center of the projection area A is detected from the projection candidate areas C. The projection area selection area Dd having the largest size is detected on the condition that the projection candidate area C is included and is similar to the shape of the projection area A and does not overlap the non-projection candidate area UC. Then, the projection candidate area C that overlaps the projection area selection area Dd may be selected as the projection area D.

投射領域Dによって定められた投射範囲に映像が投射されるように投射光Lの投射方向を制御する方法としては、上記投射方向制御部27bを用いて行う方法に限られず、種々の方法を用いることができる。例えば、光源12aおよび投射レンズ部13を含むプロジェクタ10の投射レンズ部13の光学系を、投射方向Xを変更可能な状態でプロジェクタ本体11に設置すると共に、投射レンズ部13を移動させるアクチュエータなどの駆動手段を設置し、必要に応じアクチュエータなどの駆動手段を作動させて投射方向を変更するようにしてもよい。   The method of controlling the projection direction of the projection light L so that an image is projected in the projection range defined by the projection area D is not limited to the method performed using the projection direction control unit 27b, and various methods are used. be able to. For example, an optical system of the projection lens unit 13 of the projector 10 including the light source 12a and the projection lens unit 13 is installed in the projector main body 11 in a state where the projection direction X can be changed, and an actuator that moves the projection lens unit 13 or the like. A driving unit may be installed, and a driving unit such as an actuator may be operated as necessary to change the projection direction.

上記実施形態のプロジェクタ10,60は、可搬タイプであり、垂直に広がったスクリーンSなどの投射面に映像を表示させるものであるが、据付タイプのプロジェクタなど、可搬タイプ以外のタイプのプロジェクタであってもよい。   The projectors 10 and 60 of the above-described embodiment are portable types and display images on a projection surface such as a screen S that spreads vertically. However, projectors of a type other than the portable type, such as installation type projectors. It may be.

たとえば、図25に示されるように、机上Taに設置されて用いられるものであり、机上Taに水平に広がるスクリーンSに映像を表示するタイプのプロジェクタ90にも適用できる。また、このタイプのプロジェクタ90では、図25に示されるように、必要に応じて、スクリーンSが広がる方向と平行である方向に赤外線Irなどの検出波を出射するセンサ91を設置してスクリーンS上の障害物Wを検出するようにしてもよい。   For example, as shown in FIG. 25, the projector 90 is used by being installed on a desktop Ta, and can also be applied to a projector 90 that displays an image on a screen S that extends horizontally on the desktop Ta. In this type of projector 90, as shown in FIG. 25, a sensor 91 that emits a detection wave such as an infrared ray Ir is installed in a direction parallel to the direction in which the screen S spreads as necessary. The upper obstacle W may be detected.

図26(A)に示されるように、机上Taに設置するタイプのプロジェクタ90では、机上Ta上のスクリーンSに向けて光を投射する光源12aおよび投射レンズ14を備えたプロジェクタ本体11を台座92に対して垂直軸Vaを回転軸として回転できるように取り付けたり、水平軸Haを回転軸として回転できるように取り付けたりしてもよい。このように取り付けておけば、プロジェクタ90を机上Taに設置した後、プロジェクタ本体11を垂直軸Vaや水平軸Haを回転軸として回転させることで、よりよい投射面を容易に選択することができる。   As shown in FIG. 26A, in the projector 90 of the type installed on the desktop Ta, the projector main body 11 including the light source 12a for projecting light toward the screen S on the desktop Ta and the projection lens 14 is mounted on the pedestal 92. The vertical axis Va may be attached so as to be rotatable as a rotation axis, or the horizontal axis Ha may be attached so as to be rotatable as a rotation axis. If attached in this manner, after the projector 90 is installed on the desktop Ta, a better projection surface can be easily selected by rotating the projector body 11 about the vertical axis Va or the horizontal axis Ha as the rotation axis. .

図26(B)に示されるように、プロジェクタ本体11を台座92に対して上下動可能に取り付けてもよい。このように取り付けておけば、プロジェクタ90を机上Taに設置した後、プロジェクタ本体11を上下動させることでスクリーンSに投射される映像の範囲の大きさを容易に調整することができる。   As shown in FIG. 26B, the projector body 11 may be attached to the pedestal 92 so as to be movable up and down. If attached in this way, after the projector 90 is installed on the desktop Ta, the size of the range of the image projected on the screen S can be easily adjusted by moving the projector body 11 up and down.

図27に示されるように、天井から下方に延びる支持部材95によって吊り下げられた状態で設置されるタイプのプロジェクタ96があり、プロジェクタとしては、このタイプのものでもよい。図27のプロジェクタ96は、障害物Wや凹凸を検出ための手段として、下端用距離センサ96aと、中段用距離センサ96bと、上端用距離センサ96cとを備えるものである。そして、図27に示されるように、スクリーンS上の映像を、投射光Lを投射した側から見るタイプのスクリーンSに映像を投射するプロジェクタであってもよいし、スクリーンS上の映像を、投射光Lを投射した側とは反対側から見るタイプのスクリーンSに映像を投射するプロジェクタでもよい。   As shown in FIG. 27, there is a projector 96 of a type installed in a state of being suspended by a support member 95 extending downward from the ceiling, and this type of projector may be used. The projector 96 of FIG. 27 includes a lower end distance sensor 96a, a middle stage distance sensor 96b, and an upper end distance sensor 96c as means for detecting an obstacle W and unevenness. Then, as shown in FIG. 27, the image on the screen S may be a projector that projects the image on the screen S of the type that is viewed from the side on which the projection light L is projected. A projector that projects an image on a screen S of a type that is viewed from the side opposite to the side on which the projection light L is projected may be used.

本発明に係る第1実施形態の映像表示装置を示す斜視図である。1 is a perspective view showing a video display device according to a first embodiment of the present invention. 図1に示される映像表示装置の投射エリアを示す斜視図である。It is a perspective view which shows the projection area of the video display apparatus shown by FIG. (A)は、投射エリアの形状および分割領域を示す正面図であり、(B)は、分割領域の中央位置および反射点について説明する説明図である。(A) is a front view which shows the shape and division area of a projection area, (B) is explanatory drawing explaining the center position and reflection point of a division area. 図1に示される映像表示装置のコントローラの機能を説明する説明図である。It is explanatory drawing explaining the function of the controller of the video display apparatus shown by FIG. (A)(B)は、コントローラの演算処理部の障害物検出部の処理を説明するための説明図である。(A) (B) is explanatory drawing for demonstrating the process of the obstruction detection part of the arithmetic processing part of a controller. コントローラの演算処理部の障害物検出部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of the obstruction detection part of the arithmetic processing part of a controller. (A)は、適性値を求めるときに用いられる評価用距離テーブルを示す表であり、(B)は離間距離テーブルを示す表である。(A) is a table | surface which shows the distance table for evaluation used when calculating | requiring an aptitude value, (B) is a table | surface which shows a separation distance table. 第1実施形態について、各分割領域について求めた適性値の一例を示す説明図である。It is explanatory drawing which shows an example of the suitability value calculated | required about each division area about 1st Embodiment. (A)(B)(C)は、投射領域判断部の処理を説明するための説明図である。(A) (B) (C) is explanatory drawing for demonstrating the process of a projection area | region judgment part. (A)(B)(C)は、投射領域判断部の処理を説明するための説明図である。(A) (B) (C) is explanatory drawing for demonstrating the process of a projection area | region judgment part. 投射領域判断部の処理を説明するための説明図である。It is explanatory drawing for demonstrating the process of a projection area | region judgment part. 第1実施形態の映像表示装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the video display apparatus of 1st Embodiment. 障害物検出部の処理を示すフローチャート図である。It is a flowchart figure which shows the process of an obstruction detection part. 障害物検出部の処理のうちの一直線上に位置するか否かの処理を示すフローチャート図である。It is a flowchart figure which shows the process of whether it is located on one straight line among the processes of an obstruction detection part. 適性値演算部の処理を示すフローチャート図である。It is a flowchart figure which shows the process of an aptitude value calculating part. 投射領域判断部の処理を示すフローチャート図である。It is a flowchart figure which shows the process of a projection area | region judgment part. (A)(B)(C)は、具体的に表示した状態を説明するための説明図である。(A) (B) (C) is explanatory drawing for demonstrating the state specifically displayed. 本発明に係る第2実施形態の映像表示装置の概略を示す平面図である。It is a top view which shows the outline of the video display apparatus of 2nd Embodiment which concerns on this invention. 図18に示される映像表示装置のコントローラの機能を説明する説明図である。It is explanatory drawing explaining the function of the controller of the video display apparatus shown by FIG. 適性値を求めるときに用いられる明度テーブルを示す表である。It is a table | surface which shows the brightness table used when calculating | requiring an aptitude value. 第2実施形態について、各分割領域について求めた適性値の一例を示す説明図である。It is explanatory drawing which shows an example of the suitability value calculated | required about each division area about 2nd Embodiment. 第2実施形態の映像表示装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the video display apparatus of 2nd Embodiment. 適性値演算部の処理を示すフローチャート図である。It is a flowchart figure which shows the process of an aptitude value calculating part. 障害物検出部の処理のうちの一直線上に位置するか否かの処理を示すフローチャート図である。It is a flowchart figure which shows the process of whether it is located on one straight line among the processes of an obstruction detection part. 他の実施形態の映像表示装置を示す側面図である。It is a side view which shows the video display apparatus of other embodiment. さらに他の実施形態の映像表示装置を示す側面図である。It is a side view which shows the video display apparatus of other embodiment. さらに他の実施形態の映像表示装置を示す側面図である。It is a side view which shows the video display apparatus of other embodiment.

符号の説明Explanation of symbols

10 プロジェクタ
12 光源ユニット
11 プロジェクタ本体
14 投射レンズ
17 光量調節器
18 センサユニット
19 距離センサ
20 コントローラ
20a 演算処理部
20b メモリ
22 評価用位置演算部
23 障害物検出部
24 適性値演算部(適性値検出手段)
25 候補領域判断部(領域選択手段)
26 投射領域判断部(領域選択手段)
27 映像処理部(投射制御手段)
61撮像ユニット
61a,61b CCDカメラ
61c 撮像点位置演算部
62 色検出器
70 コントローラ
70a 演算処理部
70b メモリ
71 色演算部
72 適性値演算部
A 投射エリア
B 分割領域
C 投射候補領域
D 投射領域
L 投射光
M 明度M
Pe 評価用位置
R 適性値
S スクリーン
X 投射方向
W 障害物
DESCRIPTION OF SYMBOLS 10 Projector 12 Light source unit 11 Projector main body 14 Projection lens 17 Light quantity adjuster 18 Sensor unit 19 Distance sensor 20 Controller 20a Arithmetic processing part 20b Memory 22 Evaluation position calculating part 23 Obstacle detecting part 24 Aptitude value calculating part (Appropriate value detecting means )
25 Candidate area determination unit (area selection means)
26 Projection area determination unit (area selection means)
27 Video processing unit (projection control means)
61 imaging units 61a, 61b CCD camera 61c imaging point position calculation unit 62 color detector 70 controller 70a calculation processing unit 70b memory 71 color calculation unit 72 aptitude value calculation unit A projection area B divided area C projection candidate area D projection area L projection Light M Lightness M
Pe Evaluation position R Suitability value S Screen X Projection direction W Obstacle

Claims (9)

投射エリア内の投射面に光を投射して映像を表示する映像表示装置であって、
前記投射エリアを複数の分割領域の集合とし、各分割領域における投射面としての適性値を検出する適性値検出手段と、
前記適性値に基づいて、前記複数の分割領域の中から1以上の分割領域を、投射領域として選択する領域選択手段と、
前記投射面に表示する映像が選択した1以上の投射領域内に収まるように前記投射光を制御する投射制御手段と、を有する映像表示装置。
An image display device that projects light onto a projection surface in a projection area to display an image,
The projection area is a set of a plurality of divided areas, and aptitude value detecting means for detecting an aptitude value as a projection surface in each divided area;
Based on the suitability value, an area selection unit that selects one or more divided areas as a projection area from the plurality of divided areas;
A projection control unit configured to control the projection light so that an image to be displayed on the projection surface is within one or more selected projection areas;
前記領域選択手段は、前記適性値に基づいて、前記複数の分割領域の中から1以上の分割領域を投射候補領域として決定し、前記投射候補領域の前記投射エリア内における位置および/または配置に基づいて、前記投射候補領域の中から1以上の投射候補領域を前記投射領域として選択する請求項1に記載の映像表示装置。 The region selection means determines one or more divided regions as projection candidate regions from the plurality of divided regions based on the suitability value, and determines the position and / or arrangement of the projection candidate regions in the projection area. The video display device according to claim 1, wherein one or more projection candidate areas are selected as the projection area based on the projection candidate areas. 前記適性値検出手段は、前記各分割領域に向けて出射された電磁波または超音波の反射波に基づいて、前記電磁波または超音波の反射点の位置と、前記反射点を含む反射面の表面形状とのうちの少なくともいずれか一方を検出するものであり、
少なくとも前記反射点の位置および/または前記反射面の表面形状に基づいて、対応する分割領域の適性値を検出する請求項1または請求項2に記載の映像表示装置。
The aptitude value detecting means includes a position of a reflection point of the electromagnetic wave or ultrasonic wave and a surface shape of a reflection surface including the reflection point based on the reflected wave of the electromagnetic wave or ultrasonic wave emitted toward the divided regions. And detecting at least one of
The video display device according to claim 1, wherein an appropriate value of a corresponding divided region is detected based on at least a position of the reflection point and / or a surface shape of the reflection surface.
前記適性値検出手段は、前記投射エリアを3つ以上の分割領域の集合として扱うと共に、少なくとも前記反射点の位置に基づいて前記適性値を検出するものであり、
前記分割領域内にある1つ以上の反射点の位置に基づいて定められる位置を、対応する分割領域の評価用位置とすると共に3つ以上の分割領域を選択し、選択した3つ以上の分割領域の前記評価用位置が一平面上にある場合には、選択した前記3つ以上の分割領域について、前記投射候補領域として決定される適性値を検出する請求項3に記載の映像表示装置。
The aptitude value detecting means treats the projection area as a set of three or more divided areas and detects the aptitude value based on at least the position of the reflection point.
The position determined based on the position of one or more reflection points in the divided area is used as the evaluation position for the corresponding divided area, and three or more divided areas are selected, and the selected three or more divided areas are selected. The video display device according to claim 3, wherein when the evaluation position of the region is on one plane, an aptitude value determined as the projection candidate region is detected for the selected three or more divided regions.
前記適性値検出手段は、前記評価用位置として、前記分割領域内の1つの反射点の位置を用いるものであると共に、前記評価用位置に用いられる反射点に入射する前記電磁波または超音波の出射方向が同一平面上である分割領域の中から前記3つ以上の分割領域を選択するものであり、
選択した3つ以上の分割領域の前記評価用位置に用いられる反射点の位置が一直線上にある場合には、選択した前記3つ以上の分割領域について、前記投射候補領域として決定される適性値を検出する請求項4に記載の映像表示装置。
The aptitude value detecting means uses the position of one reflection point in the divided region as the evaluation position, and emits the electromagnetic wave or ultrasonic wave incident on the reflection point used in the evaluation position. The three or more divided areas are selected from divided areas whose directions are on the same plane,
When the position of the reflection point used for the evaluation position of the three or more selected divided areas is on a straight line, the aptitude value determined as the projection candidate area for the selected three or more divided areas The video display device according to claim 4, wherein the video display device is detected.
前記適性値検出手段は、少なくとも前記各分割領域に向けて投射した白色光の反射光に基づいて対応する分割領域の色を検出するものであり、
前記色に基づいて対応する分割領域の前記適性値を検出する請求項1から請求項5のいずれか一項に記載の映像表示装置。
The aptitude value detecting means detects the color of the corresponding divided area based on the reflected light of the white light projected toward at least each of the divided areas,
The video display device according to claim 1, wherein the suitability value of a corresponding divided region is detected based on the color.
前記適性値検出手段は、少なくとも前記各分割領域に向けて投射した白色光の反射光に基づいて対応する分割領域の輝度を検出するものであり、
前記輝度に基づいて対応する分割領域の前記適性値を検出する請求項1から請求項6のいずれか一項に記載の映像表示装置。
The aptitude value detecting means detects the luminance of the corresponding divided area based on the reflected light of the white light projected toward at least each of the divided areas,
The video display device according to claim 1, wherein the suitability value of a corresponding divided region is detected based on the luminance.
前記領域選択手段は、前記投射候補領域の一つとして前記投射エリアの中央位置を含む分割領域が含まれている場合には、前記中央位置を含む分割領域を前記投射領域の1つとして選択する請求項2から請求項7のいずれか一項に記載の映像表示装置。 The area selecting unit selects a divided area including the central position as one of the projection areas when a divided area including the central position of the projection area is included as one of the projection candidate areas. The video display device according to any one of claims 2 to 7. 前記領域選択手段は、前記投射光の投射範囲の形状と相似する相似形のうち前記1以上の投射候補領域内に収まる最大のものを前記1以上の投射候補領域に重ねた場合に、前記相似形と重なる1以上の投射候補領域を前記投射領域として選択する請求項2から請求項8のいずれか一項に記載の映像表示装置。 The region selection means, when the maximum one that fits in the one or more projection candidate regions among the similar shapes similar to the shape of the projection range of the projection light is superimposed on the one or more projection candidate regions, The video display apparatus according to any one of claims 2 to 8, wherein one or more projection candidate areas that overlap a shape are selected as the projection areas.
JP2006054047A 2006-02-28 2006-02-28 Video display device Expired - Fee Related JP4730136B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006054047A JP4730136B2 (en) 2006-02-28 2006-02-28 Video display device
EP07737407A EP1990995B1 (en) 2006-02-28 2007-02-27 Video image display device
PCT/JP2007/053605 WO2007102339A1 (en) 2006-02-28 2007-02-27 Video image display device
AT07737407T ATE518366T1 (en) 2006-02-28 2007-02-27 VIDEO IMAGE DISPLAY DEVICE
US12/281,079 US8246172B2 (en) 2006-02-28 2007-02-27 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006054047A JP4730136B2 (en) 2006-02-28 2006-02-28 Video display device

Publications (2)

Publication Number Publication Date
JP2007235470A true JP2007235470A (en) 2007-09-13
JP4730136B2 JP4730136B2 (en) 2011-07-20

Family

ID=38555607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006054047A Expired - Fee Related JP4730136B2 (en) 2006-02-28 2006-02-28 Video display device

Country Status (1)

Country Link
JP (1) JP4730136B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187002A (en) * 2008-01-11 2009-08-20 Nikon Corp Projector
JP2010072422A (en) * 2008-09-19 2010-04-02 Seiko Epson Corp Projector
JP2010072421A (en) * 2008-09-19 2010-04-02 Seiko Epson Corp Projector
JP2012234060A (en) * 2011-05-02 2012-11-29 Ricoh Co Ltd Image display device
WO2013099407A1 (en) * 2011-12-28 2013-07-04 株式会社ニコン Display device and projection device
JP2013137472A (en) * 2011-12-28 2013-07-11 Nikon Corp Projector
JP2013148868A (en) * 2011-12-21 2013-08-01 Ricoh Co Ltd Image projection device, image processing apparatus, image processing method, and program
JP2013152711A (en) * 2011-12-28 2013-08-08 Nikon Corp Projector and display device
US8807762B2 (en) 2008-01-11 2014-08-19 Nikon Corporation Projector
JP2014192808A (en) * 2013-03-28 2014-10-06 Ricoh Co Ltd Projection apparatus and program
JP2016039380A (en) * 2014-08-05 2016-03-22 シャープ株式会社 Headphone unit, a pair of headphone units, headphone device, and headphone system
WO2016052030A1 (en) * 2014-10-03 2016-04-07 ソニー株式会社 Projection-type display device
WO2016103969A1 (en) * 2014-12-25 2016-06-30 ソニー株式会社 Projection display device
WO2017141744A1 (en) * 2016-02-19 2017-08-24 ソニー株式会社 Display device
JP2019132939A (en) * 2018-01-30 2019-08-08 セイコーエプソン株式会社 Projector and method for controlling projector
JPWO2019107482A1 (en) * 2017-11-30 2019-12-12 富士フイルム株式会社 projector
JP2020020887A (en) * 2018-07-30 2020-02-06 日本電気通信システム株式会社 Information display device, method for displaying information, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048695A (en) * 2002-05-20 2004-02-12 Seiko Epson Corp Projection image display system, projector, program, information storage medium, and image projection method
JP2004348078A (en) * 2003-05-26 2004-12-09 Hitachi Ltd Projection video display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048695A (en) * 2002-05-20 2004-02-12 Seiko Epson Corp Projection image display system, projector, program, information storage medium, and image projection method
JP2004348078A (en) * 2003-05-26 2004-12-09 Hitachi Ltd Projection video display device

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187002A (en) * 2008-01-11 2009-08-20 Nikon Corp Projector
US8807762B2 (en) 2008-01-11 2014-08-19 Nikon Corporation Projector
JP2010072422A (en) * 2008-09-19 2010-04-02 Seiko Epson Corp Projector
JP2010072421A (en) * 2008-09-19 2010-04-02 Seiko Epson Corp Projector
JP2012234060A (en) * 2011-05-02 2012-11-29 Ricoh Co Ltd Image display device
JP2013148868A (en) * 2011-12-21 2013-08-01 Ricoh Co Ltd Image projection device, image processing apparatus, image processing method, and program
US10409386B2 (en) 2011-12-28 2019-09-10 Nikon Corporation Display device and projection device
US9927878B2 (en) 2011-12-28 2018-03-27 Nikon Corporation Display device and projection device
JP2013137472A (en) * 2011-12-28 2013-07-11 Nikon Corp Projector
WO2013099407A1 (en) * 2011-12-28 2013-07-04 株式会社ニコン Display device and projection device
CN104137173A (en) * 2011-12-28 2014-11-05 株式会社尼康 Display device and projection device
JP2018029339A (en) * 2011-12-28 2018-02-22 株式会社ニコン Display apparatus and electronic device
CN107610627A (en) * 2011-12-28 2018-01-19 株式会社尼康 Display device and projection arrangement
JP2013152711A (en) * 2011-12-28 2013-08-08 Nikon Corp Projector and display device
US11086405B2 (en) 2011-12-28 2021-08-10 Nikon Corporation Display device and projection device
JP2014192808A (en) * 2013-03-28 2014-10-06 Ricoh Co Ltd Projection apparatus and program
JP2016039380A (en) * 2014-08-05 2016-03-22 シャープ株式会社 Headphone unit, a pair of headphone units, headphone device, and headphone system
CN106796386A (en) * 2014-10-03 2017-05-31 索尼公司 Projection display device
JPWO2016052030A1 (en) * 2014-10-03 2017-08-31 ソニー株式会社 Projection display
WO2016052030A1 (en) * 2014-10-03 2016-04-07 ソニー株式会社 Projection-type display device
EP3203315A4 (en) * 2014-10-03 2018-05-02 Sony Corporation Projection-type display device
CN106796386B (en) * 2014-10-03 2021-07-13 索尼公司 Projection type display device
US10303306B2 (en) 2014-10-03 2019-05-28 Sony Corporation Projection display unit
WO2016103969A1 (en) * 2014-12-25 2016-06-30 ソニー株式会社 Projection display device
US10521054B2 (en) 2014-12-25 2019-12-31 Sony Corporation Projection display unit
JPWO2017141744A1 (en) * 2016-02-19 2018-12-13 ソニー株式会社 Display device
WO2017141744A1 (en) * 2016-02-19 2017-08-24 ソニー株式会社 Display device
JPWO2019107482A1 (en) * 2017-11-30 2019-12-12 富士フイルム株式会社 projector
JP2019132939A (en) * 2018-01-30 2019-08-08 セイコーエプソン株式会社 Projector and method for controlling projector
JP7069754B2 (en) 2018-01-30 2022-05-18 セイコーエプソン株式会社 Projector and projector control method
JP2020020887A (en) * 2018-07-30 2020-02-06 日本電気通信システム株式会社 Information display device, method for displaying information, and program
JP7239138B2 (en) 2018-07-30 2023-03-14 日本電気通信システム株式会社 INFORMATION DISPLAY DEVICE, INFORMATION DISPLAY METHOD AND PROGRAM

Also Published As

Publication number Publication date
JP4730136B2 (en) 2011-07-20

Similar Documents

Publication Publication Date Title
JP4730136B2 (en) Video display device
US8246172B2 (en) Image display device
US7237907B2 (en) Projection system that adjusts for keystoning
US7125122B2 (en) Projection system with corrective image transformation
JP5109803B2 (en) Image processing apparatus, image processing method, and image processing program
US9348212B2 (en) Image projection system and image projection method
JP5401940B2 (en) Projection optical system zoom ratio measurement method, projection image correction method using the zoom ratio measurement method, and projector for executing the correction method
JP3925521B2 (en) Keystone correction using part of the screen edge
JP3844076B2 (en) Image processing system, projector, program, information storage medium, and image processing method
EP1638345A1 (en) Method for calculating display characteristic correction data, program for calculating display characteristic correction data, and device for calculating display characteristic correction data
JP2000241874A (en) Method and device for automatically adjusting screen position for projector
US20090059182A1 (en) Beam projection apparatus and method with automatic image adjustment
JP2005347790A (en) Projector provided with trapezoidal distortion correction apparatus
JP2006018293A (en) Method for determining projector pixel correlated with laser point on display surface by means of pinhole projection
JP3996617B2 (en) Projector device with image distortion correction function
JP2007312026A (en) Moving body tracking photography and projection device
JP2005318652A (en) Projector with distortion correcting function
US10481363B2 (en) Projector and focus adjustment method
JP3926311B2 (en) Projector having tilt angle measuring device
JP2006214922A (en) Image processing system, projector, program, information storage medium, and image processing method
JP2010015127A (en) Information display apparatus
JP3730982B2 (en) projector
JP3382346B2 (en) Imaging device
JP3914938B2 (en) Projector keystone distortion correction device and projector including the keystone distortion correction device
JP4535769B2 (en) Projector with tilt angle measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110225

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees