JP2009271161A - Image projection device and image projection method - Google Patents

Image projection device and image projection method Download PDF

Info

Publication number
JP2009271161A
JP2009271161A JP2008119533A JP2008119533A JP2009271161A JP 2009271161 A JP2009271161 A JP 2009271161A JP 2008119533 A JP2008119533 A JP 2008119533A JP 2008119533 A JP2008119533 A JP 2008119533A JP 2009271161 A JP2009271161 A JP 2009271161A
Authority
JP
Japan
Prior art keywords
image
projection
focus position
projected
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008119533A
Other languages
Japanese (ja)
Inventor
Ryoichi Yoneyama
良一 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008119533A priority Critical patent/JP2009271161A/en
Publication of JP2009271161A publication Critical patent/JP2009271161A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve such a problem that a change of the actual position of an object reflected on an image cannot be felt by a projection image. <P>SOLUTION: This image projection device has an adjustment function for focusing position of an projected image and projects the projected image. The image projection device comprises an acquisition part which acquires the focusing position information accompanying the projected image, a setup part which sets up the focusing position of the projected image based on the focusing position information, and an adjustment part which adjusts the focusing position of the projected image to the set up focusing position using the adjustment function. In such a configuration, the focusing position of the projected image is set up based on the focusing position information accompanying the projected image. As a result, a viewer can check a spatial change of the focusing position of the projected image from the actual travel distance of a screen by moving the screen and reflecting the focused projected image onto the screen. That is, the viewer can feel the change of the spatial position of the object reflected on the projected image with the position of the screen. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像投射装置、および画像投射方法に関し、特に、投射画像の合焦位置の調節技術に関する。   The present invention relates to an image projecting apparatus and an image projecting method, and more particularly to a technique for adjusting a focus position of a projected image.

プロジェクタは、画像を所定の距離を隔てて設置されたスクリーンに投射する画像投射装置として使用される。そして、プロジェクタの使用時において、スクリーン上に投射される画像がボケないように、スクリーン上に画像を正しく合焦させる技術が、従来から多数提案されている(例えば、特許文献1、特許文献2)。   The projector is used as an image projection apparatus that projects an image onto a screen installed at a predetermined distance. In the past, many techniques have been proposed for correctly focusing an image on the screen so that the image projected on the screen is not blurred when the projector is used (for example, Patent Document 1 and Patent Document 2). ).

特開平6−3577号公報Japanese Patent Laid-Open No. 6-3777 特開平6−27431号公報JP-A-6-27431

ところで、デジタルカメラなどの撮影装置を用いて被写体を撮影した画像においては、撮影された被写体の位置が撮影装置から異なる距離に存在する場合が多々存在する。このように撮影された被写体までの距離が異なる画像をプロジェクタで投射画像として投射した場合、例えば特許文献1に開示された技術などを用いてスクリーン上で正しく焦点が合うように画像を投射するのが通常である。従って、投射画像がスクリーン上で正しく焦点が合うようにされていると、プロジェクタから投射した時の被写体の結像位置は、常にプロジェクタから所定の距離を隔てて設置されたスクリーンの位置に固定される。   By the way, in an image obtained by photographing a subject using a photographing device such as a digital camera, there are many cases where the position of the photographed subject exists at a different distance from the photographing device. When images taken at different distances to the subject are projected as projected images by the projector, the image is projected so that the image is correctly focused on the screen using, for example, the technique disclosed in Patent Document 1. Is normal. Therefore, if the projected image is correctly focused on the screen, the imaging position of the subject when projected from the projector is always fixed at the position of the screen installed at a predetermined distance from the projector. The

すると、撮像した被写体の位置が実際には投射画像の鑑賞者に対して近づいたり遠ざかっていたりしているにも関わらず、被写体は常にスクリーンの位置に留まっていることになる。このため、鑑賞者は、画像に写っている被写体について生じている実際の位置の変化を、投射画像によって体感することはできなかった。   Then, the subject always stays at the screen position even though the position of the captured subject is actually approaching or moving away from the viewer of the projected image. For this reason, the viewer cannot experience the actual position change that occurs in the subject in the image by the projected image.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]投射画像の合焦位置の調節機能を有し、前記投射画像を投射する画像投射装置であって、前記投射画像に附帯する合焦位置情報を取得する取得部と、前記合焦位置情報に基づいて前記投射画像の合焦位置を設定する設定部と、前記投射画像の合焦位置を、前記調節機能を用いて、前記設定された合焦位置に調節する調節部と、を備えたことを特徴とする。   Application Example 1 An image projection apparatus that has a function of adjusting a focus position of a projection image and projects the projection image, and an acquisition unit that acquires focus position information incidental to the projection image; A setting unit that sets a focus position of the projection image based on the focus position information; an adjustment unit that adjusts the focus position of the projection image to the set focus position using the adjustment function; It is provided with.

この構成によれば、投射画像の合焦位置を、投射画像に附帯する合焦位置情報に基づいて設定する。この結果、鑑賞者は、スクリーンを移動させて、合焦した投射画像をスクリーン上に写すことによって、スクリーンの実際の移動距離から、投射画像の合焦位置の空間的な変化を確かめることができる。つまり、鑑賞者は、投射画像に写っている被写体の空間的な位置の変化を、スクリーンの位置によって体感することができるのである。   According to this configuration, the focus position of the projection image is set based on the focus position information incidental to the projection image. As a result, the viewer can confirm the spatial change of the in-focus position of the projected image from the actual moving distance of the screen by moving the screen and projecting the focused projected image on the screen. . That is, the viewer can experience a change in the spatial position of the subject shown in the projected image by the position of the screen.

[適用例2]上記画像投射装置であって、前記投射画像は、撮像装置を用いて被写体を撮像した撮像画像であり、前記取得部は、前記被写体の前記撮影装置からの距離を特定する前記撮像画像の画像データを、前記合焦位置情報として取得することを特徴とする。   Application Example 2 In the image projection device, the projection image is a captured image obtained by capturing an image of a subject using an imaging device, and the acquisition unit specifies the distance of the subject from the imaging device. Image data of a captured image is acquired as the in-focus position information.

例えばExif(登録商標)などのように、撮影した時の被写体までの距離を含む撮影情報をメタデータとして保持するフォーマットで記録されたデータが、撮影画像の画像データに附帯されることがある。従って、投射画像が撮影画像である場合、このように被写体までの撮像距離を特定する距離データをメタデータとして記録することが可能である。そこで、投射画像の画像データが、被写体の距離データが記録された画像データであった場合、記録された距離データを画像データから読み出すことによって、投射画像における被写体までの撮影距離を取得することができる。この結果、取得された被写体までの撮影距離に応じて投影画像の合焦位置を設定することによって、鑑賞者は、画像に写っている被写体の位置の変化を投射画像によって体感することが可能となる。   For example, data recorded in a format that holds shooting information including the distance to the subject at the time of shooting as metadata, such as Exif (registered trademark), may be attached to the image data of the shot image. Therefore, when the projected image is a captured image, distance data that specifies the imaging distance to the subject can be recorded as metadata. Therefore, when the image data of the projection image is image data in which the distance data of the subject is recorded, the shooting distance to the subject in the projection image can be obtained by reading the recorded distance data from the image data. it can. As a result, by setting the in-focus position of the projection image according to the acquired shooting distance to the subject, the viewer can experience the change in the position of the subject in the image with the projection image. Become.

[適用例3]上記画像投射装置であって、前記投射画像は、撮像装置を用いて被写体を撮像した撮像画像であり、前記取得部は、前記撮像画像の画像データを用いて前記撮影画像に対する前記被写体の画像の大きさを示す画像比率を算出し、算出した前記画像比率を前記合焦位置情報として取得することを特徴とする。   Application Example 3 In the image projecting device, the projected image is a captured image obtained by capturing an image of a subject using an image capturing device, and the acquisition unit applies the captured image to the captured image using image data of the captured image. An image ratio indicating the size of the image of the subject is calculated, and the calculated image ratio is acquired as the in-focus position information.

原理的に、被写体が撮像装置に近づけば、撮影画像の画面全体の大きさに対して被写体の画像が大きくなり、逆に、被写体が撮像装置から遠くなれば、被写体の画像は小さくなる。そこで、画像データを用いて、撮影画像に対する被写体画像の大きさを示す画像比率(例えば面積比率)を算出すれば、算出した画像比率に基づいて、被写体までの撮影距離の変化を取得することができる。この結果、取得された被写体までの撮影距離の変化に応じて投影画像の合焦位置を調節することによって、鑑賞者は、画像に写っている被写体の位置の変化を投射画像によって体感することが可能となる。   In principle, when the subject is close to the imaging device, the subject image is larger than the entire screen size of the captured image. Conversely, when the subject is far from the imaging device, the subject image is small. Therefore, if an image ratio (for example, area ratio) indicating the size of the subject image with respect to the captured image is calculated using the image data, a change in the shooting distance to the subject can be acquired based on the calculated image ratio. it can. As a result, by adjusting the in-focus position of the projection image according to the change in the shooting distance to the acquired subject, the viewer can experience the change in the position of the subject in the image with the projection image. It becomes possible.

[適用例4]投射画像の合焦位置の調節機能を有する画像投射装置において、前記投射画像を投射する画像投射方法であって、前記投射画像に附帯する合焦位置情報を取得する工程と、前記合焦位置情報に基づいて前記投射画像の合焦位置を設定する工程と、前記投射画像の合焦位置を、前記調節機能を用いて、前記設定された合焦位置に調節する工程と、を備えたことを特徴とする。   Application Example 4 In an image projection apparatus having an adjustment function of a focus position of a projection image, an image projection method for projecting the projection image, the step of acquiring focus position information incidental to the projection image; A step of setting a focus position of the projection image based on the focus position information; a step of adjusting the focus position of the projection image to the set focus position using the adjustment function; It is provided with.

この方法によれば、投射画像の合焦位置を、投射画像に附帯する合焦位置情報に基づいて設定する。この結果、鑑賞者は、スクリーンを移動させて、スクリーン上に合焦した投射画像を写すことによって、スクリーンの実際の移動距離から、投射画像の合焦位置の空間的な変化を確かめることができる。つまり、鑑賞者は、投射画像に写っている被写体の空間的な位置の変化を、スクリーンの位置によって体感することができるのである。   According to this method, the in-focus position of the projection image is set based on the in-focus position information attached to the projection image. As a result, the viewer can confirm the spatial change of the in-focus position of the projected image from the actual moving distance of the screen by moving the screen and capturing the projected image focused on the screen. . That is, the viewer can experience a change in the spatial position of the subject shown in the projected image by the position of the screen.

以下、本発明を実施例に基づいて説明する。図1は、本発明を具現化した一実施例となる画像投射装置としてのプロジェクタ100の概要を説明する説明図である。   Hereinafter, the present invention will be described based on examples. FIG. 1 is an explanatory diagram for explaining an outline of a projector 100 as an image projection apparatus according to an embodiment embodying the present invention.

このプロジェクタ100は、画像をスクリーン91に投射するための光源としてのランプ20と、ランプ20からの出力光を制御する光変調素子としての液晶表示体(以下、LCD)30と、投射する画像の合焦位置を調節する所謂フォーカス調整機能を有し、LCD30に表示する画像を、投射画像としてスクリーン91上に拡大投射する投射レンズ80とを備えている。もとより、プロジェクタ100は、ランプ20からの出力光を分光し、各分光光を複数(例えば3枚)のLCD30によって光変調し、その後各光変調された分光を集光して投射する構成を採用することも可能である。   The projector 100 includes a lamp 20 as a light source for projecting an image on a screen 91, a liquid crystal display (hereinafter referred to as an LCD) 30 as a light modulation element that controls output light from the lamp 20, and an image to be projected. A projection lens 80 has a so-called focus adjustment function that adjusts the in-focus position, and enlarges and projects an image displayed on the LCD 30 onto the screen 91 as a projection image. Of course, the projector 100 adopts a configuration in which the output light from the lamp 20 is dispersed, each spectral light is modulated by a plurality of (for example, three) LCDs 30, and then each light-modulated spectrum is condensed and projected. It is also possible to do.

投射レンズ80は、投射レンズ80を構成する鏡筒部分(不図示)の回転によって、投射する画像の合焦位置を調節する所謂フォーカス調整機能を有している。鏡筒の回転はモータ40によって行われる。つまり、鏡筒部分に形成された歯車(不図示)と、モータ40によって回転する歯車41とが係合し、モータ40の回転(正回転、逆回転を含む)に従って回転する歯車41の回転によって、鏡筒が回転し、フォーカス調整が行われる。   The projection lens 80 has a so-called focus adjustment function that adjusts a focus position of an image to be projected by rotation of a lens barrel portion (not shown) constituting the projection lens 80. The lens barrel is rotated by the motor 40. That is, a gear (not shown) formed in the lens barrel portion is engaged with a gear 41 that is rotated by the motor 40, and the rotation of the gear 41 that rotates according to the rotation of the motor 40 (including normal rotation and reverse rotation). The lens barrel rotates and focus adjustment is performed.

プロジェクタ100には、ランプ20、LCD30、モータ40のそれぞれについて、ランプ20の点灯および消灯、LCD30への画像表示、モータ40の正逆回転をそれぞれ実行するためのランプ駆動部120、LCD駆動部130、モータ駆動部140が設けられている。   The projector 100 includes a lamp driving unit 120 and an LCD driving unit 130 for executing the lighting and extinguishing of the lamp 20, the image display on the LCD 30, and the forward / reverse rotation of the motor 40 for each of the lamp 20, the LCD 30 and the motor 40. A motor driving unit 140 is provided.

また、プロジェクタ100は、投射画像をプロジェクタ100での処理に適した画像データとして取り込む入力インターフェース(I/F)10と、取り込んだ画像データをLCD30に表示する表示用の画像データに加工処理をしたり、所定の画像データ領域を抽出したりする画像データ処理部150とを備えている。そして、この表示用画像データはLCD駆動部130を介してLCD30を駆動し、LCD30に投射画像を表示する。   In addition, the projector 100 processes the input image (I / F) 10 that captures the projected image as image data suitable for processing by the projector 100 and the image data for display that is displayed on the LCD 30. Or an image data processing unit 150 for extracting a predetermined image data area. The display image data drives the LCD 30 via the LCD driving unit 130 and displays a projection image on the LCD 30.

さらに、プロジェクタ100は、プロジェクタ全体の動作をコントロールするコントローラ110が備えられている。コントローラ110は、CPUやROM、RAM等のメモリを含むコンピュータで構成されている。そして、必要に応じてRAMにデータを保存したり読み出したりしながらROM内に格納されたプログラムに従って、上述したランプ駆動部120、LCD駆動部130、モータ駆動部140、画像データ処理部150をそれぞれ制御する。   Further, the projector 100 includes a controller 110 that controls the operation of the entire projector. The controller 110 is configured by a computer including a CPU, a ROM, a memory such as a RAM. The lamp driving unit 120, the LCD driving unit 130, the motor driving unit 140, and the image data processing unit 150 are each set according to a program stored in the ROM while saving or reading data in the RAM as necessary. Control.

特に、コントローラ110は、モータ駆動部140と画像データ処理部150とを制御して、取得部160、設定部170、調節部180として機能する。取得部160は、投射画像に附帯する投射画像の合焦位置に関する情報(以降「合焦位置情報」と呼ぶ)を、投射画像の画像データから取得する。設定部170は、取得された合焦位置情報に基づいて、投射画像の合焦位置を設定する。調節部180は、モータ40を駆動して、投射画像の合焦位置を、設定された合焦位置に調節する。こうして、コントローラ110は、投射画像の合焦位置の調節処理を実行するのである。   In particular, the controller 110 functions as an acquisition unit 160, a setting unit 170, and an adjustment unit 180 by controlling the motor driving unit 140 and the image data processing unit 150. The acquisition unit 160 acquires information on the focus position of the projection image attached to the projection image (hereinafter referred to as “focus position information”) from the image data of the projection image. The setting unit 170 sets the focus position of the projection image based on the acquired focus position information. The adjustment unit 180 drives the motor 40 to adjust the focus position of the projection image to the set focus position. In this way, the controller 110 executes the adjustment process of the in-focus position of the projection image.

なお、コントローラ110は、必要に応じて上記以外のプロジェクタ100に設けられた機能に関する処理を司ることは勿論である。例えば、ランプ20やLCD30に対する冷却機能、あるいは、前述した特許文献1または特許文献2に開示された技術、すなわちスクリーン上に投射された画像が正しく合焦しているか否かの判定機能などである。   Of course, the controller 110 governs processing related to functions provided in the projector 100 other than the above as necessary. For example, a cooling function for the lamp 20 and the LCD 30, or a technique disclosed in the above-described Patent Document 1 or Patent Document 2, that is, a function for determining whether or not an image projected on the screen is correctly focused. .

次に、プロジェクタ100が実施する投射画像の投射処理についての理解を容易にするために、コントローラ110が行う合焦位置の設定の様子を、図2および図3を用いて前もって説明する。図2は、2つの投射画像を撮影装置によって撮影する様子を説明するための模式図である。図3は、撮影された2つの投射画像について、その合焦位置を設定する様子を説明するための模式図である。   Next, in order to facilitate understanding of the projection processing of the projection image performed by the projector 100, the manner of setting the in-focus position performed by the controller 110 will be described in advance with reference to FIGS. FIG. 2 is a schematic diagram for explaining a situation where two projection images are captured by the imaging device. FIG. 3 is a schematic diagram for explaining how to set the in-focus position for two photographed projection images.

図2に示すように、本実施例では一例として、撮影装置としてのデジタルカメラ(以降単に「カメラ」)DCに対して回転して近づく野球ボール(以降単に「ボール」)BLを被写体として撮影する場合を想定した。そして、カメラDCが撮影した撮影画像を、プロジェクタ100から投射する投射画像とするものである。   As shown in FIG. 2, in this embodiment, as an example, a digital camera (hereinafter simply referred to as “camera”) DC serving as a photographing apparatus is rotated and approaches a baseball ball (hereinafter simply referred to as “ball”) BL as a subject. A case was assumed. The captured image captured by the camera DC is used as a projection image projected from the projector 100.

図示するように、投射画像TG1は、カメラDCまでの距離が距離FL1の位置に存在するボールBLを撮影したものである。また、2つ目の投射画像TG2は、カメラDCまでの距離が距離FL1よりも距離△FL分近い距離FL2の位置に存在するボールBLを撮影したものである。   As shown in the figure, the projection image TG1 is a photograph of a ball BL present at a distance FL1 to the camera DC. The second projection image TG2 is a photograph of the ball BL existing at a distance FL2 where the distance to the camera DC is closer to the distance FL1 than the distance FL1.

なお、カメラDCは、2つの投射画像TG1と投射画像TG2の撮影において、画角を変更しない、つまりズーミングを行わないで撮影するものとする。従って、被写体となるボールBLがカメラDCに近づくと、撮影画像の画面内におけるボールBLの画像は大きくなることから、投射画像TG1と投射画像TG2とにそれぞれ写っているボールBLの大きさは異なる。すなわち、図2の下側に示したように、投射画像TG2におけるボールBLの画像BL2の方が、投射画像TG1におけるボールBLの画像BL1よりも大きな画像となる。   The camera DC is assumed to shoot without changing the angle of view, that is, without performing zooming, in shooting the two projection images TG1 and TG2. Therefore, when the ball BL as the subject approaches the camera DC, the image of the ball BL in the screen of the photographed image increases, so that the sizes of the balls BL that are reflected in the projection image TG1 and the projection image TG2 are different. . That is, as shown in the lower side of FIG. 2, the image BL2 of the ball BL in the projection image TG2 is larger than the image BL1 of the ball BL in the projection image TG1.

次に、図3を参照して、2つの投射画像TG1と投射画像TG2とをプロジェクタ100から投射する際のそれぞれの合焦位置を、どのように設定するのかについて説明する。   Next, with reference to FIG. 3, how to set the respective in-focus positions when projecting the two projection images TG1 and TG2 from the projector 100 will be described.

図示するように、本実施例では、ボールBLがカメラDCに対して遠い方の位置にある投射画像TG1を、プロジェクタ100から距離L1離れたところに設置されたスクリーン91において合焦状態となるように投射する。このとき、スクリーン91上に写った投射画像TG1の画面の縦寸法は長さH1、その投射画像TG1に写っている画像BL1の大きさは、縦寸法(つまり直径)が長さh1であったとする。   As shown in the drawing, in this embodiment, the projection image TG1 in which the ball BL is farther from the camera DC is brought into focus on the screen 91 installed at a distance L1 from the projector 100. Project to. At this time, the vertical dimension of the projection image TG1 captured on the screen 91 is the length H1, and the vertical dimension (that is, the diameter) of the image BL1 reflected in the projection image TG1 is the length h1. To do.

次に、投射画像TG2を、仮にスクリーン91上に投射したとすると、投射された投射画像TG2における画像BL2は、図2において説明したように、投射画像TG1における画像BL1よりも大きな画像となる。従って、スクリーン91上に写った投射画像TG2の画面の縦寸法は投射画像TG1と同じ長さH1であるが、このとき、投射画像TG2における画像BL2のスクリーン91上での大きさは、画像BL1の縦寸法よりも大きく、ここでは長さh2であるものとする。   Next, assuming that the projection image TG2 is projected onto the screen 91, the image BL2 in the projected image TG2 is larger than the image BL1 in the projection image TG1 as described in FIG. Therefore, the vertical dimension of the projection image TG2 captured on the screen 91 is the same length H1 as the projection image TG1, but at this time, the size of the image BL2 in the projection image TG2 on the screen 91 is the image BL1. It is assumed that the length is larger than the vertical dimension, and here the length is h2.

前述したように、被写体であるボールBLの大きさは実際には変化せず同じ大きさである。そこで、画像BL2のスクリーン上での大きさが、画像BL1と同じ大きさとなる位置に、投射画像TG2の合焦位置を設定する。すなわち、本実施例では、図示するように、プロジェクタ100からの距離が、距離L1よりも距離△L短い距離L2離れた位置に、合焦位置を設定するのである。   As described above, the size of the ball BL as the subject does not actually change and is the same size. Therefore, the in-focus position of the projection image TG2 is set at a position where the size of the image BL2 on the screen is the same as that of the image BL1. That is, in this embodiment, as shown in the figure, the in-focus position is set at a position where the distance from the projector 100 is a distance L2 shorter than the distance L1 by a distance ΔL.

こうすれば、設定された合焦位置に例えばスクリーン92を設置すると、投射画像TG2は、設置したスクリーン92上に、画面の縦寸法が長さH1よりも短い長さH2の投射画像TG2aとして結像する。従って、投射画像TG2の画面の縦寸法が、投射画像TG2aとして長さH1から長さH2に短くなるのに伴って、画像BL2aの縦寸法が、画像BL1の縦寸法の長さh1と同じになるのである。   In this way, for example, when the screen 92 is installed at the set in-focus position, the projection image TG2 is formed on the installed screen 92 as a projection image TG2a having a vertical dimension H2 shorter than the length H1. Image. Therefore, as the vertical dimension of the screen of the projection image TG2 is shortened from the length H1 to the length H2 as the projection image TG2a, the vertical dimension of the image BL2a is the same as the length h1 of the vertical dimension of the image BL1. It becomes.

距離L2は、図3に示した模式図から容易に理解できるように、L2=(h1/h2)×L1で算出することができる。この結果、プロジェクタ100から投射される投射画像TG2の合焦位置にスクリーン92を設置したとき、スクリーン91とスクリーン92との間の距離は距離△L(=L1−L2)となり、この距離△Lによって、ボールBLの移動を実際に体感することができるのである。   The distance L2 can be calculated by L2 = (h1 / h2) × L1, as can be easily understood from the schematic diagram shown in FIG. As a result, when the screen 92 is installed at the in-focus position of the projection image TG2 projected from the projector 100, the distance between the screen 91 and the screen 92 is a distance ΔL (= L1-L2), and this distance ΔL Thus, the movement of the ball BL can be actually experienced.

それでは、プロジェクタ100が実施する投射画像の投射処理について、図4の処理フローチャートを用いて説明する。本実施例では、使用者がプロジェクタ100に備えられた入力手段(図示せず)を用いて処理の開始入力を行うことによって処理が開始されるものとする。   Then, the projection processing of the projection image which the projector 100 implements is demonstrated using the process flowchart of FIG. In the present embodiment, it is assumed that the process is started when the user inputs the start of the process using an input unit (not shown) provided in the projector 100.

ここでの処理が開始されると、まずステップS110にて投射画像の画像データを取得処理する。コントローラ110は、入力I/F10を介して、投射画像の画像データをメモリに記録格納する。本実施例では、上述した2つの投射画像TG1と投射画像TG2が記録格納されるものとする。なお、各投射画像TG1,TG2は、縦横それぞれ所定の画素数で構成される画像であり、各投射画像TG1,TG2の画像データは、各画素ごとにRGB各8ビットの階調値で表されたデータであるものとする。   When the processing here is started, first, image data of a projection image is acquired in step S110. The controller 110 records and stores the image data of the projected image in the memory via the input I / F 10. In the present embodiment, it is assumed that the two projection images TG1 and TG2 described above are recorded and stored. The projection images TG1 and TG2 are images each having a predetermined number of pixels in the vertical and horizontal directions, and the image data of the projection images TG1 and TG2 is expressed by RGB 8-bit gradation values for each pixel. Data.

次にステップS120にて、投射画像について合焦位置情報を取得処理する。本実施例では、格納された各投射画像TG1,TG2の画像データを用いて、各投射画像TG1,TG2の画面全体に対する被写体画像の大きさを示すデータを、合焦位置情報として取得する。ステップS120において行われる処理について、図5のフローチャートを用いて説明する。   Next, in step S120, focus position information is acquired for the projection image. In the present embodiment, using the stored image data of the projection images TG1 and TG2, data indicating the size of the subject image with respect to the entire screen of the projection images TG1 and TG2 is acquired as in-focus position information. The process performed in step S120 will be described using the flowchart of FIG.

まず、ステップS121にて、合焦位置の調節対象となる被写体を特定処理する。本実施例では、前述したように、各投射画像TG1,TG2において合焦位置の調節対象となる被写体はボールBLである。したがって、プロジェクタ100の使用者が、プロジェクタ100に備えられた入力手段(図示せず)を用いて、予めボールBLを示す各R(赤)、G(緑)、B(青)毎の所定の階調値を有する画像データを入力する。もとより、各投射画像TG1,TG2の画像データに、予め合焦位置の調節対象となる被写体であることを示す符号を付したラベリング処理が行われたデータの場合は、このラベリングされた画素を読み取ることによって、被写体(ボールBL)を特定するようにしてもよい。   First, in step S121, a subject to be adjusted in focus position is specified. In the present embodiment, as described above, the subject for which the focus position is adjusted in each of the projection images TG1 and TG2 is the ball BL. Therefore, the user of the projector 100 uses the input means (not shown) provided in the projector 100 to predetermine a predetermined value for each R (red), G (green), and B (blue) indicating the ball BL. Input image data having gradation values. Of course, in the case where the image data of each of the projection images TG1 and TG2 has been subjected to a labeling process in which a sign indicating that the subject is the subject of adjustment of the in-focus position, the labeled pixels are read. Thus, the subject (ball BL) may be specified.

次に、ステップS122にて、被写体に相当する投射画像の画像データを抽出処理する。本実施例では、投射画像において、各階調データがボールBLを示す各R、G、B毎の所定の階調値を有する画像データを、被写体に相当する画像データとして抽出する。   Next, in step S122, image data of the projection image corresponding to the subject is extracted. In this embodiment, image data having predetermined gradation values for each of R, G, and B, each gradation data indicating the ball BL, is extracted as image data corresponding to the subject in the projection image.

次に、ステップS123にて被写体の画像面積を算出処理する。コントローラ110は、被写体に相当する画像データを有する画素を計数し、計数した画素の総数を被写体の画像面積として算出する。   In step S123, the image area of the subject is calculated. The controller 110 counts pixels having image data corresponding to the subject, and calculates the total number of counted pixels as the image area of the subject.

次に、ステップS124にて、投射画像の画面面積に対する被写体の画像の面積比率を合焦位置情報として算出処理する。コントローラ110は、まず、投射画像を構成する縦横それぞれ所定の画素数を読み取り、投射画像全体の画素数を算出する。算出した画素数が、投射画像の全体の画面面積を表す。そして、ステップS123にて算出したボールBLの画像面積を用いて、各投射画像TG1,TG2の画面面積に対するボールBLの画像の面積比率を算出する。この算出した面積比率が合焦位置情報となる。   Next, in step S124, the area ratio of the subject image to the screen area of the projection image is calculated as in-focus position information. First, the controller 110 reads a predetermined number of pixels in the vertical and horizontal directions constituting the projection image, and calculates the number of pixels of the entire projection image. The calculated number of pixels represents the entire screen area of the projection image. Then, the area ratio of the image of the ball BL to the screen area of each of the projection images TG1 and TG2 is calculated using the image area of the ball BL calculated in step S123. This calculated area ratio becomes in-focus position information.

なお、本実施例では、プロジェクタ100に入力される投射画像について、投射画像を構成する縦横の画素数が異なる複数の投射画像が入力されることを想定して、投射画像の画面面積に対する被写体の画像の面積比率を算出処理することとしたが、入力される投射画像が総て同じ縦横の画素数を有する画像であった場合は、面積比率ではなく、被写体の大きさを表す一つの寸法(例えば縦寸法)であっても差し支えない。ちなみに、この面積比率や一つの寸法が、請求項記載の画像比率に相当する。   Note that in this embodiment, assuming that a plurality of projection images having different numbers of vertical and horizontal pixels constituting the projection image are input as projection images input to the projector 100, the subject to the screen area of the projection image is input. Although the area ratio of the image is calculated, if the input projection images are all images having the same number of vertical and horizontal pixels, one dimension (not the area ratio) representing the size of the subject ( For example, it may be a vertical dimension). Incidentally, this area ratio and one dimension correspond to the image ratio described in the claims.

再び図4に戻り、次に、ステップS130にて、合焦位置情報に基づいて合焦位置を設定処理する。本実施例では、ボールBLの画像の面積比率が小さい画像つまり投射画像TG1を、プロジェクタ100に対して所定の距離L1離れて設置されたスクリーン91(図3参照)に投射し、ボールBLの画像の面積比率が大きい画像つまり投射画像TG2を、スクリーン91よりもプロジェクタ100側に近づいた位置に投射する。   Returning to FIG. 4 again, in step S130, the focus position is set based on the focus position information. In this embodiment, an image with a small area ratio of the image of the ball BL, that is, a projection image TG1 is projected onto a screen 91 (see FIG. 3) installed at a predetermined distance L1 from the projector 100, and the image of the ball BL An image having a large area ratio, that is, a projection image TG2 is projected to a position closer to the projector 100 side than the screen 91.

ここで、本実施例では、スクリーン91は固定設置されているものとした。従って、プロジェクタ100からの距離がスクリーン91よりも後方においては、投射画像の合焦位置を確かめることができないことから、ボールBLの画像の面積比率が最も小さい画像をスクリーン91上に投射する投射画像TG1としたが、スクリーン91が固定設置されていない場合は、投射画像の投射順番は特にこれに限るものでないことは勿論である。   Here, in this embodiment, the screen 91 is fixedly installed. Therefore, when the distance from the projector 100 is behind the screen 91, the in-focus position of the projected image cannot be confirmed. Therefore, the projected image that projects the image with the smallest area ratio of the image of the ball BL onto the screen 91. Although TG1 is used, when the screen 91 is not fixedly installed, it is needless to say that the projection order of the projected images is not limited to this.

ここで、本実施例では、プロジェクタ100からスクリーン91までの距離L1は、予めコントローラ110内のメモリに格納されているものとする。従って、コントローラ110は、格納された距離L1を読み出し、ボールBLの画像の面積比率が小さい方の画像つまり投射画像TG1に対して、この距離L1を合焦位置として設定する。   Here, in this embodiment, it is assumed that the distance L1 from the projector 100 to the screen 91 is stored in the memory in the controller 110 in advance. Therefore, the controller 110 reads the stored distance L1, and sets this distance L1 as the in-focus position for the image with the smaller area ratio of the image of the ball BL, that is, the projection image TG1.

なお、プロジェクタ100がオートフォーカス機構を有している場合は、所定の画像をスクリーン91に投射して合焦位置を予め調べ、調べた合焦位置を距離L1として格納しておくこととしてもよい。   If the projector 100 has an autofocus mechanism, a predetermined image may be projected on the screen 91 to check the focus position in advance, and the determined focus position may be stored as the distance L1. .

続いて、コントローラ110は、他の画像すなわち投射画像TG2について、距離L1と、投射画像TG1と投射画像TG2におけるぞれぞれのボールBLの画像の面積比率と、を用いて、その合焦位置を算出して設定する。前述したように、図3において、プロジェクタ100から投射画像TG2の合焦位置までの距離L2は、それぞれのボールBLの画像の縦寸法の長さh1,h2を用いて算出できることを既に説明した。ここで、投射画像TG1と投射画像TG2の画面面積が同じでない場合も考慮すると、それぞれのボールBLの画像の縦寸法の長さh1,h2に替えて、それぞれのボールBLの画像の面積比率を用いればよいことは明らかである。従って、コントローラ110は、計算式「L2=(投射画像TG1におけるボールBLの画像の面積比率/投射画像TG2におけるボールBLの画像の面積比率)×L1」によって算出した距離L2を、投射画像TG2の合焦位置として設定する。   Subsequently, the controller 110 uses the distance L1 and the area ratio of the image of each ball BL in the projection image TG1 and the projection image TG2 for the other image, that is, the projection image TG2, to determine the in-focus position. Is calculated and set. As described above, in FIG. 3, it has already been described that the distance L2 from the projector 100 to the in-focus position of the projection image TG2 can be calculated using the lengths h1 and h2 of the vertical dimensions of the images of the respective balls BL. Here, considering the case where the screen areas of the projection image TG1 and the projection image TG2 are not the same, instead of the lengths h1 and h2 of the vertical dimensions of the images of the respective balls BL, the area ratio of the images of the respective balls BL is changed. Obviously, it should be used. Therefore, the controller 110 calculates the distance L2 calculated by the calculation formula “L2 = (area ratio of the image of the ball BL in the projection image TG1 / area ratio of the image of the ball BL in the projection image TG2) × L1” of the projection image TG2. Set as the in-focus position.

次に、ステップS140にて、投射画像を選択処理する。本実施例では、プロジェクタ100の使用者が、プロジェクタ100に設けられた図示しない入力手段を用いて、投射すべき投射画像を選択するものとする。従って、コントローラ110は、入力手段から入力された投射画像の選択データに応じて投射画像を選択する。なお、本実施例では、最初の投射画像として投射画像TG1が選択されるものとする。もとより、コントローラ110が、ボールBLの画像の面積比率が最も小さい画像を最初の投射画像として自動的に選択することとしてもよい。   Next, in step S140, a projection image is selected. In the present embodiment, it is assumed that the user of the projector 100 selects a projection image to be projected using an input unit (not shown) provided in the projector 100. Therefore, the controller 110 selects the projection image according to the selection data of the projection image input from the input unit. In this embodiment, it is assumed that the projection image TG1 is selected as the first projection image. Of course, the controller 110 may automatically select the image with the smallest area ratio of the image of the ball BL as the first projection image.

次に、ステップS150にて、投射画像の合焦位置を調節処理する。コントローラ110は、モータ駆動部140を制御してモータ40を駆動し、投射レンズ80を回転させて、まず、投射画像TG1に対して設定された合焦位置(距離L1)に調節する。   Next, in step S150, the focus position of the projection image is adjusted. The controller 110 controls the motor drive unit 140 to drive the motor 40 and rotate the projection lens 80 to first adjust the focus position (distance L1) set for the projection image TG1.

次に、ステップS160にて、投射画像を投射処理する。コントローラ110は、ランプ駆動部120を制御してランプ20を点灯し、LCD駆動部130を制御してLCD30に投射画像を表示することによって、まず投射画像TG1を投射する。   Next, in step S160, the projection image is projected. The controller 110 first projects the projection image TG1 by controlling the lamp driving unit 120 to turn on the lamp 20, and controlling the LCD driving unit 130 to display the projection image on the LCD 30.

次に、ステップS170にて、投射画像は総て投射したか否かを判定処理する。判定の結果、投射されていない投射画像が存在した場合は(NO)、ステップS140に戻って、次の投射画像TG2を選択し、ステップS140以降の処理を繰り返す。もとより、投射画像TG2では、コントローラ110は、モータ駆動部140を制御してモータ40を駆動し、投射レンズ80を回転させて、合焦位置を距離L2に調節して(ステップS150)、投射画像TG2を投射処理する(ステップS160)。   Next, in step S170, it is determined whether or not all the projected images have been projected. If there is a projection image that has not been projected as a result of the determination (NO), the process returns to step S140, the next projection image TG2 is selected, and the processes in and after step S140 are repeated. Of course, in the projection image TG2, the controller 110 controls the motor driving unit 140 to drive the motor 40, rotates the projection lens 80, and adjusts the in-focus position to the distance L2 (step S150). TG2 is projected (step S160).

本実施例では、投射画像TG2の投射で総ての投射画像が投射され(ステップS170:YES)、プロジェクタ100が実施する投射画像の投射処理が終了する。   In the present embodiment, all projection images are projected by the projection image TG2 (step S170: YES), and the projection image projection processing performed by the projector 100 ends.

さて、本実施例による投射画像の投射処理によれば、まず投射画像TG1によってスクリーン91上に投射されたボールBLの画像が、次に投射される投射画像TG2において、スクリーン91上から離れ、プロジェクタ100に近づいた位置において結像する。従って、投射画像の鑑賞者は、投射画像TG2の結像位置に、ボールBLの画像全体が結像可能な大きさを少なくとも有するスクリーンを設置することによって、結像したボールBLの画像をスクリーン上で観賞することができる。つまり、スクリーンの移動量によって、ボールBLの移動量を体感することができるのである。   Now, according to the projection processing of the projection image according to the present embodiment, the image of the ball BL projected on the screen 91 by the projection image TG1 is separated from the screen 91 in the projection image TG2 to be projected next, and the projector An image is formed at a position approaching 100. Therefore, the viewer of the projected image installs the image of the imaged ball BL on the screen by installing a screen having at least a size capable of forming the entire image of the ball BL at the image formation position of the projected image TG2. You can watch at. That is, the movement amount of the ball BL can be experienced by the movement amount of the screen.

以上、本発明の実施の形態について実施例を用いて説明したが、本発明はこうした実施例に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることは勿論である。以下、変形例を挙げて説明する。   The embodiments of the present invention have been described using the embodiments. However, the present invention is not limited to these embodiments, and can be implemented in various forms without departing from the spirit of the present invention. Of course. Hereinafter, a modification will be described.

(第1変形例)
上記実施例では、図4に示したフローチャートの処理ステップS120において、投射画像TG1(TG2)の画面面積に対する被写体であるボールBLの画像の面積比率を合焦位置情報として取得することとしたが、これに限るものでないことは勿論である。例えば、被写体であるボールBLの撮影装置からの距離を特定する撮像画像の画像データを、合焦位置情報として取得することとしてもよい。
(First modification)
In the above embodiment, in the processing step S120 of the flowchart shown in FIG. 4, the area ratio of the image of the ball BL as the subject to the screen area of the projection image TG1 (TG2) is acquired as the focus position information. Of course, it is not limited to this. For example, image data of a captured image that specifies the distance from the photographing device of the ball BL that is the subject may be acquired as the focus position information.

例えばExif(登録商標)などのように、撮影した時の被写体までの距離を含む付加情報をメタデータとして保持するフォーマットで記録されたデータが、撮影画像の画像データに附帯されることがある。従って、投射画像が撮影画像であった場合、このように被写体までの距離を特定する距離データをメタデータとして記録することが可能である。   For example, data recorded in a format that holds additional information including the distance to the subject at the time of shooting as metadata, such as Exif (registered trademark), may be attached to the image data of the shot image. Therefore, when the projected image is a captured image, distance data that specifies the distance to the subject can be recorded as metadata.

そこで、投射画像の画像データが、被写体までの距離データが記録された画像データであった場合、図4に示したフローチャートにおいて、ステップS120では、この距離データを合焦位置情報として取得処理する。具体的に、コントローラ110は、メタデータとして記録された距離データを画像データから読み出すことによって、距離データを投射画像についての合焦位置情報として取得する。   Therefore, when the image data of the projection image is image data in which the distance data to the subject is recorded, in the flowchart shown in FIG. 4, in the step S120, the distance data is acquired as in-focus position information. Specifically, the controller 110 reads the distance data recorded as metadata from the image data, thereby acquiring the distance data as in-focus position information about the projection image.

続いて、ステップS130にて、取得したこの距離データに基づいてプロジェクタ100から投射する投射画像の合焦位置を設定処理する。このとき本変形例では、距離データが示す値に対して、所定の係数を乗算した値を合焦位置として設定する。具体的には、図3に示したプロジェクタ100からスクリーン91までの距離L1が、図2に示したカメラDCからボールBLまでの距離FL1に相当することから、これらの比の値(=L1/FL1)を所定の係数として用いる。   Subsequently, in step S130, the focus position of the projection image projected from the projector 100 is set based on the acquired distance data. At this time, in this modification, a value obtained by multiplying the value indicated by the distance data by a predetermined coefficient is set as the in-focus position. Specifically, since the distance L1 from the projector 100 to the screen 91 shown in FIG. 3 corresponds to the distance FL1 from the camera DC to the ball BL shown in FIG. 2, the value of these ratios (= L1 / FL1) is used as a predetermined coefficient.

もとより、所定の係数の値を「1」とすれば、カメラDCから被写体までの撮影距離と、プロジェクタ100から投射画像の結像位置までの距離とが等しくなるので、投射画像の鑑賞者は、被写体の実際の移動距離を体感することができる。従って、スクリーンの設置位置に距離的な制約がない場合は、このように所定の係数の値を「1」として投射することが好ましい。こうすれば、例えば、図6に示したような活用が可能である。   Of course, if the value of the predetermined coefficient is “1”, the shooting distance from the camera DC to the subject is equal to the distance from the projector 100 to the imaging position of the projection image. You can experience the actual movement distance of the subject. Accordingly, when there is no distance restriction on the installation position of the screen, it is preferable to project the value of the predetermined coefficient as “1” in this way. In this way, for example, utilization as shown in FIG. 6 is possible.

図6は、プロジェクタ100から、建造物を撮影した撮影画像を投射する様子を示したものである。まず、建造物Aの壁面Awを被写体とした投射画像TG1を距離データに基づいて、図示しないスクリーン上に投射して、壁面Awを結像させる。続いて、建造物Bの壁面Bwを被写体とした投射画像TG2を、距離データに基づいて設定された合焦位置において、壁面Bwが結像するように投射する。鑑賞者は、スクリーンを移動したり、別のスクリーンを用意したりして、スクリーンに壁面Bwの画像を結像させる。このとき、スクリーン間の距離が、建造物Bの実際の奥行きを示すことになる。この結果、鑑賞者は、スクリーン間の距離によって、建造物Bの奥行きを体感することができるのである。   FIG. 6 shows a state in which a photographed image obtained by photographing a building is projected from the projector 100. First, the projection image TG1 in which the wall surface Aw of the building A is the subject is projected on a screen (not shown) based on the distance data to form the wall surface Aw. Subsequently, the projection image TG2 with the wall surface Bw of the building B as the subject is projected so that the wall surface Bw forms an image at the in-focus position set based on the distance data. The viewer moves the screen or prepares another screen to form an image of the wall surface Bw on the screen. At this time, the distance between the screens indicates the actual depth of the building B. As a result, the viewer can experience the depth of the building B depending on the distance between the screens.

なお、本変形例において、投射画像の画像データに距離データが附帯できる場合は、同一の画像であって異なる距離データが附帯された画像データを有する複数の投射画像を投射することとしてもよい。こうすれば、例えば、1つの被写体が存在する位置を空間的に確かめることができるので、投射画像の鑑賞者は、例えば、その被写体が存在すべき好ましい位置を体感することができる。   In addition, in this modification, when distance data can be attached to the image data of a projection image, it is good also as projecting the some projection image which has the image data which is the same image and different distance data. In this way, for example, the position where one subject is present can be confirmed spatially, so that the viewer of the projected image can experience a preferred position where the subject should be present, for example.

(第2変形例)
上記実施例では、2つの投射画像を投射するものとして説明したが、特にこれに限らず、2つ以上の複数の投射画像を投射することとしてもよいことは勿論である。一例として、投射画像が3つである場合の一例を、図7に示した。
(Second modification)
In the embodiment described above, two projected images are projected. However, the present invention is not limited to this. Of course, two or more projected images may be projected. As an example, an example in which there are three projection images is shown in FIG.

図7は、絵画の説明文を投射画像として投射する様子を示した説明図である。図示するように、各投射画像TG1,TG2,TG3は、それぞれの絵画A,B,Cの略正面位置において結像するように、プロジェクタ100からの距離がそれぞれ距離L1,L2,L3となる位置を合焦位置として設定され、プロジェクタ100から投射される。   FIG. 7 is an explanatory diagram showing a state in which an explanatory text of a picture is projected as a projection image. As shown in the drawing, the projection images TG1, TG2, and TG3 are positions at which the distances from the projector 100 are distances L1, L2, and L3, respectively, so that the images are formed at substantially front positions of the paintings A, B, and C, respectively. Is set as the in-focus position and projected from the projector 100.

従って、絵画の鑑賞者は、所定の順番(例えば、紹介したい絵画の順番)で投射される投射画像TG1〜TG3の結像位置を、自分の手や用意したスクリーンに投射される投射画像を写しながら移動することによって探すことになる。そして、移動の結果、各絵画A,B,Cの略正面位置において、投射された絵画の説明文を自分の手や用意したスクリーン上に結像させることができるので、各絵画A,B,Cの説明文をその絵画の略正面位置において読むことができるのである。   Accordingly, the viewer of the picture copies the projected image projected on his / her hand or prepared screen with the imaging positions of the projected images TG1 to TG3 projected in a predetermined order (for example, the order of the pictures to be introduced). Search by moving while. As a result of the movement, the explanatory text of the projected picture can be imaged on its own hand or a prepared screen at a substantially front position of each picture A, B, C. The explanation of C can be read at a position substantially in front of the painting.

(第3変形例)
上記実施例では、図4のステップS140において、プロジェクタ100の使用者が、投射すべき投射画像を選択するものとしたが、これに限るものでないことは勿論である。例えば、上記変形例2においても例示したように、予め定められた順番で自動的に投射することとしてもよい。あるいは、ランダムに投射することとしてもよい。こうすれば、例えば、図8に示したような活用が可能である。
(Third Modification)
In the above embodiment, the user of the projector 100 selects a projection image to be projected in step S140 of FIG. 4, but it is needless to say that the present invention is not limited to this. For example, as illustrated in Modification 2 above, it may be automatically projected in a predetermined order. Or it is good also as projecting at random. In this way, for example, utilization as shown in FIG. 8 is possible.

図8は、投射画像TG1と投射画像TG2における被写体としてのボールの画像BL1と画像BL2aを、野球グラブの形状を呈するスクリーンSRN上に結像させることによって、ボールをキャッチするゲームとして活用した様子を示す説明図である。そして、図8(a)は、投射画像をプロジェクタ100から水平方向に投射する場合、図8(b)は、投射画像をプロジェクタ100から垂直方向に投射する場合をそれぞれ示している。   FIG. 8 shows a state in which a ball image BL1 and an image BL2a as subjects in the projection image TG1 and the projection image TG2 are used as a game for catching a ball by forming an image on a screen SRN having a baseball glove shape. It is explanatory drawing shown. 8A shows a case where the projection image is projected from the projector 100 in the horizontal direction, and FIG. 8B shows a case where the projection image is projected from the projector 100 in the vertical direction.

ゲームプレーヤは、図8(a)であれば、野球グラブの形状を呈するスクリーンSRNを水平方向に移動し、プロジェクタ100からの距離L1の位置でボールの画像BL1を結像させることによってボールをキャッチする。次に、プロジェクタ100からの距離L2の位置でボールの画像BL2aを結像させることによってボールをキャッチする。図8(b)であれば、野球グラブの形状を呈するスクリーンSRNを垂直方向に移動して、ボールの合焦位置を探し、プロジェクタ100からの距離L1,L2のそれぞれの位置でボールの画像BL1,BL2aをスクリーンSRN上に結像させることによって捕球行為を楽しむことができる。この種の他の活用例としては、投射画像を蝶とし、スクリーンを網とすることもできる。   As shown in FIG. 8A, the game player moves the screen SRN in the shape of a baseball glove in the horizontal direction, and forms a ball image BL1 at a distance L1 from the projector 100 to catch the ball. To do. Next, the ball is caught by forming an image BL2a of the ball at a position at a distance L2 from the projector 100. In FIG. 8B, the screen SRN having the shape of a baseball glove is moved in the vertical direction to find the in-focus position of the ball, and the ball image BL1 at each of the distances L1 and L2 from the projector 100. , BL2a can be imaged on the screen SRN to enjoy the catching action. As another application example of this type, the projected image may be a butterfly and the screen may be a net.

なお、このとき、プロジェクタ100に、前述した特許文献1または特許文献2に開示された技術、すなわちスクリーン上に投射された画像が正しく合焦しているか否かの判定機能が搭載されている場合は、合焦したと判定された場合に次の投射画像を投射するようにすることが好ましい。こうすれば、ゲームプレーヤは、合焦したとの判定によって、捕球動作の正否を把握することができる。   At this time, the projector 100 is equipped with the technique disclosed in Patent Document 1 or Patent Document 2, that is, a function for determining whether or not the image projected on the screen is correctly focused. It is preferable to project the next projection image when it is determined that the in-focus state is obtained. In this way, the game player can grasp the correctness of the catching action by determining that the in-focus state has been achieved.

(第4変形例)
上記実施例では、画像投射装置としてLCD30を光変調素子として用いたプロジェクタ100を例示したが、このようなプロジェクタの他に、オーバーヘッドプロジェクタ(OHP)や、スライドプロジェクタを、画像投射装置として用いることも可能である。なお、このようなオーバーヘッドプロジェクタやスライドプロジェクタでは、投射画像は画像データで供給されず、シートやスライドによって供給されることから、このような投射画像を画像データに変換して処理することによって、上記実施例と同様な処理が可能となる。
(Fourth modification)
In the above-described embodiment, the projector 100 using the LCD 30 as the light modulation element is illustrated as the image projection apparatus. However, in addition to such a projector, an overhead projector (OHP) or a slide projector may be used as the image projection apparatus. Is possible. In such overhead projectors and slide projectors, the projection image is not supplied as image data, but is supplied as a sheet or slide. Processing similar to that in the embodiment can be performed.

本発明の一実施例となる画像投射装置としてのプロジェクタの概要を説明する説明図。BRIEF DESCRIPTION OF THE DRAWINGS Explanatory drawing explaining the outline | summary of the projector as an image projection apparatus used as one Example of this invention. 投射画像を撮影装置によって撮影する様子を説明するための模式図。The schematic diagram for demonstrating a mode that a projection image is image | photographed with an imaging device. 投射画像について、その合焦位置を設定する様子を説明するための模式図。The schematic diagram for demonstrating a mode that the focus position is set about a projection image. 本実施例のプロジェクタが実施する投射画像の投射処理のフローチャート。6 is a flowchart of projection processing of a projection image performed by the projector according to the present embodiment. 本実施例で、投射画像の合焦位置情報の取得処理を示すフローチャート。The flowchart which shows the acquisition process of the focus position information of a projection image in a present Example. プロジェクタから建造物を撮影した撮影画像を投射する様子を示す説明図。Explanatory drawing which shows a mode that the picked-up image which image | photographed the building is projected from a projector. 絵画の説明文を投射画像として投射する様子を示した説明図。Explanatory drawing which showed a mode that the explanatory note of a picture is projected as a projection image. 投射画像における被写体画像をスクリーン上に結像させるゲームとして活用した様子を示す説明図で、(a)は、投射画像を水平方向に投射する場合、(b)は、投射画像を垂直方向に投射する場合を示す。It is explanatory drawing which shows a mode that it utilized as a game which forms the to-be-photographed object image on a screen on a screen, (a) projects a projection image to a horizontal direction, (b) projects a projection image to a perpendicular direction Indicates when to do.

符号の説明Explanation of symbols

10…入力I/F、20…ランプ、30…LCD、40…モータ、41…歯車、80…投射レンズ、91…スクリーン、92…スクリーン、100…プロジェクタ、110…コントローラ、120…ランプ駆動部、130…LCD駆動部、140…モータ駆動部、150…画像データ処理部、160…取得部、170…設定部、180…調節部。   DESCRIPTION OF SYMBOLS 10 ... Input I / F, 20 ... Lamp, 30 ... LCD, 40 ... Motor, 41 ... Gear, 80 ... Projection lens, 91 ... Screen, 92 ... Screen, 100 ... Projector, 110 ... Controller, 120 ... Lamp drive part, DESCRIPTION OF SYMBOLS 130 ... LCD drive part, 140 ... Motor drive part, 150 ... Image data processing part, 160 ... Acquisition part, 170 ... Setting part, 180 ... Adjustment part.

Claims (4)

投射画像の合焦位置の調節機能を有し、前記投射画像を投射する画像投射装置であって、
前記投射画像に附帯する合焦位置情報を取得する取得部と、
前記合焦位置情報に基づいて前記投射画像の合焦位置を設定する設定部と、
前記投射画像の合焦位置を、前記調節機能を用いて、前記設定された合焦位置に調節する調節部と、
を備えたことを特徴とする画像投射装置。
An image projection apparatus that has a function of adjusting a focus position of a projection image and projects the projection image,
An acquisition unit for acquiring in-focus position information attached to the projection image;
A setting unit for setting a focus position of the projection image based on the focus position information;
An adjustment unit that adjusts the in-focus position of the projected image to the set in-focus position using the adjustment function;
An image projection apparatus comprising:
請求項1に記載の画像投射装置であって、
前記投射画像は、撮像装置を用いて被写体を撮像した撮像画像であり、
前記取得部は、前記被写体の前記撮影装置からの距離を特定する前記撮像画像の画像データを、前記合焦位置情報として取得することを特徴とする画像投射装置。
The image projection apparatus according to claim 1,
The projected image is a captured image obtained by imaging a subject using an imaging device,
The image projection device, wherein the acquisition unit acquires image data of the captured image that specifies a distance of the subject from the imaging device as the focus position information.
請求項1に記載の画像投射装置であって、
前記投射画像は、撮像装置を用いて被写体を撮像した撮像画像であり、
前記取得部は、前記撮像画像の画像データを用いて前記撮影画像に対する前記被写体の画像の大きさを示す画像比率を算出し、算出した前記画像比率を前記合焦位置情報として取得することを特徴とする画像投射装置。
The image projection apparatus according to claim 1,
The projected image is a captured image obtained by imaging a subject using an imaging device,
The acquisition unit calculates an image ratio indicating the size of the image of the subject with respect to the captured image using image data of the captured image, and acquires the calculated image ratio as the in-focus position information. An image projection apparatus.
投射画像の合焦位置の調節機能を有する画像投射装置において、前記投射画像を投射する画像投射方法であって、
前記投射画像に附帯する合焦位置情報を取得する工程と、
前記合焦位置情報に基づいて前記投射画像の合焦位置を設定する工程と、
前記投射画像の合焦位置を、前記調節機能を用いて、前記設定された合焦位置に調節する工程と、
を備えたことを特徴とする画像投射方法。
In an image projection apparatus having an adjustment function of a focus position of a projection image, an image projection method for projecting the projection image,
Obtaining focus position information incidental to the projected image;
Setting a focus position of the projection image based on the focus position information;
Adjusting the in-focus position of the projected image to the set in-focus position using the adjustment function;
An image projection method comprising:
JP2008119533A 2008-05-01 2008-05-01 Image projection device and image projection method Withdrawn JP2009271161A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008119533A JP2009271161A (en) 2008-05-01 2008-05-01 Image projection device and image projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008119533A JP2009271161A (en) 2008-05-01 2008-05-01 Image projection device and image projection method

Publications (1)

Publication Number Publication Date
JP2009271161A true JP2009271161A (en) 2009-11-19

Family

ID=41437792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008119533A Withdrawn JP2009271161A (en) 2008-05-01 2008-05-01 Image projection device and image projection method

Country Status (1)

Country Link
JP (1) JP2009271161A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017106959A (en) * 2015-12-07 2017-06-15 富士通株式会社 Projection device, projection method, and computer program for projection
WO2023040081A1 (en) * 2021-09-16 2023-03-23 广景视睿科技(深圳)有限公司 Method and apparatus for controlling projection device and projection device

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6488210A (en) * 1987-09-30 1989-04-03 Suzuki Motor Co Method for detecting distance between cars
JPH03236698A (en) * 1990-02-14 1991-10-22 Nissan Motor Co Ltd Picture generating device for both eye stereoscopic view
JPH0474088A (en) * 1990-07-14 1992-03-09 Tomohiko Hattori Pickup distance reproduction type stereoscopic television receiver
JPH05344541A (en) * 1992-06-09 1993-12-24 Mitsubishi Electric Corp Portable image pickup display device
JPH08219775A (en) * 1995-02-16 1996-08-30 Mitsubishi Heavy Ind Ltd Distance measuring device
JP2002268136A (en) * 2000-12-28 2002-09-18 Act Research Corp Stereoscopic 3d image display
JP2003075717A (en) * 2001-09-06 2003-03-12 Nikon Corp Distance detecting device
JP2005176226A (en) * 2003-12-15 2005-06-30 Olympus Corp Camera, projector system and projecting method thereof
JP2005189087A (en) * 2003-12-25 2005-07-14 Casio Comput Co Ltd Distance measurement equipment and program
JP2007108626A (en) * 2005-09-16 2007-04-26 Excellead Technology:Kk Stereoscopic image forming system
JP2007248822A (en) * 2006-03-16 2007-09-27 Seiko Epson Corp Image projection system and method
JP2007249132A (en) * 2006-03-20 2007-09-27 Casio Comput Co Ltd Imaging apparatus, automatic focusing method, and program
JP2009124681A (en) * 2007-10-22 2009-06-04 Seiko Epson Corp Projector and projection display method

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6488210A (en) * 1987-09-30 1989-04-03 Suzuki Motor Co Method for detecting distance between cars
JPH03236698A (en) * 1990-02-14 1991-10-22 Nissan Motor Co Ltd Picture generating device for both eye stereoscopic view
JPH0474088A (en) * 1990-07-14 1992-03-09 Tomohiko Hattori Pickup distance reproduction type stereoscopic television receiver
JPH05344541A (en) * 1992-06-09 1993-12-24 Mitsubishi Electric Corp Portable image pickup display device
JPH08219775A (en) * 1995-02-16 1996-08-30 Mitsubishi Heavy Ind Ltd Distance measuring device
JP2002268136A (en) * 2000-12-28 2002-09-18 Act Research Corp Stereoscopic 3d image display
JP2003075717A (en) * 2001-09-06 2003-03-12 Nikon Corp Distance detecting device
JP2005176226A (en) * 2003-12-15 2005-06-30 Olympus Corp Camera, projector system and projecting method thereof
JP2005189087A (en) * 2003-12-25 2005-07-14 Casio Comput Co Ltd Distance measurement equipment and program
JP2007108626A (en) * 2005-09-16 2007-04-26 Excellead Technology:Kk Stereoscopic image forming system
JP2007248822A (en) * 2006-03-16 2007-09-27 Seiko Epson Corp Image projection system and method
JP2007249132A (en) * 2006-03-20 2007-09-27 Casio Comput Co Ltd Imaging apparatus, automatic focusing method, and program
JP2009124681A (en) * 2007-10-22 2009-06-04 Seiko Epson Corp Projector and projection display method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017106959A (en) * 2015-12-07 2017-06-15 富士通株式会社 Projection device, projection method, and computer program for projection
WO2023040081A1 (en) * 2021-09-16 2023-03-23 广景视睿科技(深圳)有限公司 Method and apparatus for controlling projection device and projection device

Similar Documents

Publication Publication Date Title
JP4165540B2 (en) How to adjust the position of the projected image
JP5389697B2 (en) In-camera generation of high-quality composite panoramic images
JP5036599B2 (en) Imaging device
JP6555863B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP4978152B2 (en) Projector, program, and information storage medium
WO2012132204A1 (en) Imaging device, photographing guide displaying method for imaging device, and non-transitory computer readable medium
JP2005252657A (en) Electronic still camera
CN105516611A (en) An imaging device and a shooting method
JP2009081808A (en) Device, method and program for controlling photographing, and photographing apparatus
TWI398716B (en) Use the flash to assist in detecting focal lengths
JP4385383B2 (en) Programmable anti-aliasing system and method for a camera
JP2008098836A (en) Imaging apparatus and imaging method
JP2009271161A (en) Image projection device and image projection method
JP4645455B2 (en) Image projection apparatus, projection image correction method, and program
JP4661576B2 (en) How to adjust the position of the projected image
JP5822700B2 (en) Image capturing method, image capturing apparatus, and program
JP4016972B2 (en) Projector and projector control method
US7570830B2 (en) Test method for image sharpness
JP4368783B2 (en) Imaging device
JP2011186110A (en) Display position adjustment method, display position adjustment device, projector, and display system
WO2019065820A1 (en) Photography device, method of controlling same, and control program
JP5803129B2 (en) camera
JP2007264250A (en) Photographing device and program
JP4661651B2 (en) How to adjust the position of the projected image
JP2005109916A (en) Projector system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20130903