WO2013111375A1 - 光投射装置および被投射物の位置情報検出方法 - Google Patents

光投射装置および被投射物の位置情報検出方法 Download PDF

Info

Publication number
WO2013111375A1
WO2013111375A1 PCT/JP2012/073790 JP2012073790W WO2013111375A1 WO 2013111375 A1 WO2013111375 A1 WO 2013111375A1 JP 2012073790 W JP2012073790 W JP 2012073790W WO 2013111375 A1 WO2013111375 A1 WO 2013111375A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
projection
reflected light
image
optical signal
Prior art date
Application number
PCT/JP2012/073790
Other languages
English (en)
French (fr)
Inventor
典良 広井
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2013111375A1 publication Critical patent/WO2013111375A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • the present invention relates to an optical projection device and a method for detecting position information of a projection object.
  • a projector (light projection device) that projects an image onto an object to be projected is known.
  • Some of these optical projection apparatuses are equipped with a distance sensor for detecting position information of a projection object (see Patent Documents 1 to 3).
  • Patent Literature 1 visible light is projected from a scanning laser projector, and at the same time, infrared light that is invisible light is irradiated, and reflected light of the invisible light from the object to be measured is photographed with a camera.
  • An apparatus for detecting the position of an object to be measured is disclosed.
  • Patent Documents 2 and 3 disclose projectors that detect visible object position information using visible light.
  • Patent Document 1 invisible light such as infrared rays is used for detecting the position of the object to be measured. Therefore, a light source for projecting invisible light and a dedicated sensor for detecting reflected light of invisible light are provided. It is necessary and the device configuration is complicated. In addition, a projector using visible light needs a certain level of light intensity to detect an optical signal, but there is a problem that image quality deteriorates when the intensity of the optical signal is increased.
  • An object of the present invention is to provide an optical projection apparatus and a position information detection method for a projection object that can detect the position information of the projection object with a simple apparatus configuration and without reducing the quality of an image. It is in.
  • an optical projection apparatus of the present invention includes: A superimposing signal adding means for adding a visible light signal for detecting position information of the projecting object to an image projected on the projecting object, and the image to which the optical signal is added is projected; Projection means for projecting onto an object; Reflected light transmitting means for selectively transmitting the reflected light of the optical signal in the reflected light of the image to which the optical signal reflected by the projection object is added; Imaging means for acquiring reflected light of the optical signal transmitted through the reflected light transmitting means; Coordinate calculating means for calculating position information of the projection object using reflected light of the acquired optical signal.
  • the position information detection method of the projection object of the present invention is: Adding an optical signal of visible light for detecting position information of the projection object to an image projected on the projection object, and a superimposed signal adding step; A projection step of projecting the image to which the optical signal is added onto the projection object; A reflected light transmission step of selectively transmitting the reflected light of the optical signal in the reflected light of the image to which the optical signal reflected by the projection object is added; An imaging step of obtaining reflected light of the transmitted optical signal; A coordinate calculation step of calculating position information of the projection object using reflected light of the acquired optical signal.
  • an optical projection apparatus and a position information detection method for a projection object that can detect the position information of the projection object with a simple apparatus configuration without degrading the image quality.
  • FIG. 1 is a block diagram showing a configuration of an example (Embodiment 1) of an optical projection apparatus according to the present invention.
  • FIG. 2 is a block diagram showing the configuration of another example (Embodiment 2) of the optical projection apparatus of the present invention.
  • FIG. 3 is a diagram for explaining the principle of extracting measurement light from the reflected light reflected by the screen in the second embodiment.
  • FIG. 4 is a block diagram showing the configuration of still another example (Embodiment 3) of the optical projection apparatus of the present invention.
  • FIG. 5 is a diagram for explaining the principle of extracting measurement light from the reflected light reflected by the screen in the third embodiment.
  • FIG. 6 is a spectrum diagram illustrating the wavelength and intensity of light projected from the light projection apparatus according to the second embodiment.
  • FIG. 7 is a spectrum diagram illustrating the wavelength and intensity of the reflected light reflected by the screen in the second embodiment.
  • FIG. 8 is a spectrum diagram showing the spectral characteristics of the reflected light transmitting means in the light projection apparatus of the second embodiment.
  • FIG. 9 is a spectrum diagram illustrating the wavelength and intensity of light transmitted through the reflected light transmitting unit in the second embodiment.
  • FIG. 10 is a visibility curve showing the relationship between the light wavelength and human visibility.
  • FIG. 1 The block diagram of FIG. 1 shows the configuration of the light projection apparatus (projector) of this embodiment.
  • the light projection apparatus 100 of the present embodiment includes a projection unit 11, an imaging unit 152, a coordinate calculation unit 170, and a reflected light transmission unit 180 as main components.
  • the projection unit 11 includes a superimposed signal addition unit 120.
  • the superimposed signal adding means 120 is a means for adding a visible light signal for detecting position information of the projection object to an image (projection image) projected onto the projection object.
  • the superimposition signal adding means 120 is not particularly limited, and may be a conventionally known one.
  • the projection unit 11 is a unit that projects a projection image (projection image including an optical signal) to which the optical signal is added. Details will be described later.
  • Examples of the imaging means 152 include a CCD (Charge Coupled Device) camera, a CMOS (Complementary Metal Oxide Semiconductor) camera, and the like.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • the coordinate calculation means 170 may be, for example, a central processing means (CPU), a dedicated digital signal processor (DSP), a graphic processing unit (GPU), or a method combining these and software processing.
  • CPU central processing means
  • DSP dedicated digital signal processor
  • GPU graphic processing unit
  • a screen 200 is a projection object onto which an image is projected.
  • the projection object is not particularly limited, and includes, for example, a dedicated screen made of paper or cloth.
  • a wall or floor surface, a device wall surface or a desk surface, a human body or clothing parts, etc. can give.
  • the surface shape of the projection object is not particularly limited, and examples thereof include a flat surface.
  • an uneven surface, a surface having a curvature, a plurality of surfaces, a diffusion surface, a semi-transmissive surface Examples include a surface coated with a phosphor.
  • the reflected light transmitting means 180 selectively transmits the reflected light of the optical signal in the optical signal reflected by the screen 200 and the reflected light of the projection image. Details will be described later.
  • An example of the reflected light transmitting means 180 is an optical color filter.
  • the “optical signal” may be referred to as “measurement light”. The same applies to the following embodiments.
  • the superimposed signal adding unit 120 adds measurement light for detecting position information of the screen 200 to an image projected on the screen 200 (projected image).
  • the measurement light is visible light.
  • an image 35 (an image to which an optical signal is added) 35 containing measurement light is projected from the projection unit 11 toward the screen 200.
  • the image 35 is reflected by the screen 200.
  • the reflected light 36 from the screen 200 is selectively transmitted through the reflected light transmitting means 180 to become reflected light 37 of measurement light, and is imaged by the imaging means 152.
  • the captured image 38 is converted into coordinate data 40 by the coordinate calculation means 170.
  • the reflection point of the reflected light 36 from the screen 200 is shifted depending on the position of the unevenness of the screen 200, for example.
  • position information such as the position coordinates of the screen 200 can be measured.
  • a method of measuring the deviation of the measurement light at three points by shifting the projection position of the measurement light (ie, the position of the projection means 11) and the imaging means 152 Time of flight (TOF).
  • TOF Time of flight
  • a known distance measurement technique such as a method of detecting a shadow of measurement light. What method should be adopted as the position coordinate measurement may be appropriately selected according to the measurement distance, accuracy, device cost, etc. of the projection object.
  • the optical projection device 100 can detect the position information of the screen 200. As a result, it is possible to detect a positional deviation of the projected image due to the influence of unevenness of the screen 200, an angle change, etc., and for example, this positional deviation can be corrected.
  • the reflected light transmitting means 180 that uses the measurement light as visible light and selectively transmits the reflected light of the measurement light is used. For this reason, for example, a light source for projecting invisible light, a dedicated sensor for detecting reflected light of invisible light, and the like are unnecessary, and the light projection device is compared with the case of using invisible light such as infrared light as measurement light. A simple device configuration can be obtained.
  • the optical projection apparatus 100 since the optical projection apparatus 100 includes the reflected light transmitting means 180 that selectively transmits only the reflected light of the optical signal, the light intensity with sufficient intensity to acquire position information even if the intensity of the optical signal is weak. Can be obtained.
  • FIG. 2 shows the configuration of the light projection apparatus of this embodiment.
  • the light projection apparatus 100a of this embodiment includes a projection unit 11a, an imaging unit 152, a coordinate calculation unit 170, and a reflected light transmission unit 180 as main components.
  • the projection unit 11 a includes an image processing unit 110, a superimposed signal adding unit 120, a light source control unit 130, a light source module 140, and a head 150.
  • the imaging unit 152 is included in the head 150 of the projection unit 11a.
  • the light source module 140 includes an R (red) light source 141, a G (green) light source 142, a B (blue) light source 143, and an optical multiplexing unit 144 that combines light from these light sources.
  • the image processing means 110 is, for example, means for decomposing a moving image into still images for each frame.
  • the light source control unit 130 is a unit that generates a signal divided into three primary colors of RGB from the still image to which the measurement light is added.
  • the image processing means 110 and the light source control means 130 are not particularly limited, and conventionally known ones can be mentioned.
  • the R light source 141, the G light source 142, and the B light source 143 are not particularly limited, and conventionally known light sources can be used, and at least one of these light sources is preferably a light source having a narrow wavelength width.
  • the wavelength width of the light source is, for example, 100 nm or less, preferably 20 nm or less, and more preferably 3 nm or less.
  • Examples of the light source include various laser light sources such as a laser diode (LD); light sources such as a light emitting diode (LED) and a super luminescent diode (SLD); and a light source including an optical filter for extracting only a specific wavelength. It is done.
  • the optical multiplexing means 144 is not particularly limited, and may be a conventionally known one.
  • FIG. 1 the operation of the optical projector 100a will be described with reference to FIGS. 2 to 3 and 6 to 9.
  • the moving image 310 sent to the optical projection device 100a is decomposed into still images (still images 320) for each frame by the image processing means 110.
  • the image processing unit 110 distributes the still image 320 to the superimposed signal adding unit 120 and the coordinate calculating unit 170.
  • the superimposed signal adding unit 120 adds measurement light for detecting position information of the screen 200 to the still image 320 (superposed image 330). The measurement light is visible light.
  • the superimposed signal adding unit 120 distributes the superimposed image 330 to the light source control unit 130 and the coordinate calculation unit 170.
  • the light source control unit 130 generates a signal divided into three primary colors of RGB from the superimposed image 330.
  • the RGB combined light 340 is combined according to the divided signal.
  • the RGB combined light 340 is projected from the head 150 toward the screen 200 as an image 350 (an image to which an optical signal is added) including measurement light.
  • an image 350 including measurement light is originally composed of an image 310 and measurement light 331 for detecting position information of the screen 200 in advance.
  • this image 350 is projected onto the screen 200, the image 350 is reflected by the screen 200.
  • the background light 361 when the image 350 is not projected and the reflected light of the image 350 are combined into a reflected light 360 from the screen 200.
  • the reflected light 360 is imaged by the imaging means 152 by selectively transmitting the reflected light 370 of the measurement light by using the reflected light transmitting means 180.
  • the captured image 380 is converted into coordinate data 400 by the coordinate calculation means 170.
  • the image 350 projected on the screen 200 is based on light from the R light source 141, the G light source 142, and the B light source 143.
  • the optical spectrum of the image 350 has a plurality of narrow-band wavelengths as shown in FIG.
  • the background light 361 has a continuous spectrum.
  • the spectrum of the reflected light 360 of the image on the screen in which the reflected light of the image 350 and the background light 361 are combined is, for example, as shown in FIG.
  • the light wavelength part is projected.
  • the reflected light 360 passes through the reflected light transmitting means 180.
  • the reflected light transmitting means 180 when a filter having a characteristic of transmitting light having the wavelength of the B light source 143 as the measurement light as shown in FIG. 8 is used, the B light source 143 in the reflected light of the measurement light is used. Only light having a wavelength of is selectively transmitted. Therefore, for example, as shown in FIG. 9, the background light 361 (the spectrum of the curve indicated by the dotted line) and the reflected light of the light emitted from the R light source 141 and the G light source 142 (the spectrum of the straight line indicated by the dotted line) Removed. Then, only the reflected light of the measurement light, which is the light of the wavelength of the B light source 143 (straight line shown by a solid line), is imaged by the imaging unit 152.
  • the background light 361 the spectrum of the curve indicated by the dotted line
  • the reflected light of the light emitted from the R light source 141 and the G light source 142 the spectrum of the straight line indicated by the dotted line
  • the same effect as that obtained in the first embodiment can be obtained.
  • the imaging unit 152 is included in the head 150 of the projection unit 11a, for example, the optical projection device can be downsized.
  • the imaging unit 152 is included in the head 150 of the projection unit 11a, but the present invention is not limited to this example.
  • the imaging unit may be arranged at a location different from the projection unit in the optical projection apparatus.
  • the light projection apparatus of this embodiment is an example of a light projection apparatus that includes a mask image generation unit.
  • the block diagram of FIG. 4 shows the configuration of the optical projection apparatus of this embodiment.
  • the light projection apparatus 100b of this embodiment has the same configuration as the light projection apparatus of Embodiment 2 shown in FIG. 2 except that it further includes a mask image generation means 160.
  • the mask image generation means 160 include a dedicated digital signal processor (DSP), a graphic processing unit (GPU), or a method in which these are combined with software processing.
  • the image 350 including the measurement light is projected toward the screen 200 from the head 150 of the projection unit 11a in the same manner as in the second embodiment.
  • an image 350 including measurement light is originally composed of an image 310 and measurement light 331 for detecting position information of the screen 200 in advance.
  • this image 350 is projected onto the screen 200, the image 350 is reflected by the screen 200.
  • the background light 361 when the image 350 is not projected and the reflected light of the image 350 are combined into a reflected light 360 from the screen 200.
  • the reflected light 360 is imaged by the imaging means 152 by selectively transmitting the reflected light 370 of the measurement light by using the reflected light transmitting means 180.
  • the mask image generation unit 160 further removes the original image 310 from the captured image 380, and takes out an image 390 including only the position information of the screen 200.
  • the coordinate calculation means 170 converts the image 390 into coordinate data 400.
  • the principle of separating the background light 361 from the reflected light 360 from the screen 200 is the same as in the second embodiment.
  • the measurement light may originally contain the wavelength component of the image 310.
  • the components of the original image 310 can be removed by inputting the still image 320 to the mask image generating unit 160 and masking only the portion where the original image 310 exists by the mask image generating unit 160.
  • the positional deviation can be predicted by using the coordinate data 400 originally calculated from the measurement light 331 around the image 310, for example.
  • a method of masking the periphery of the original image in advance by utilizing the characteristic that the positional deviation is essentially small without performing the prediction of the positional deviation can be employed.
  • the removal of the original image may be performed by switching or combining the above-described methods according to, for example, the capability of the light projection apparatus, the position information detection (measurement) range, the projection object, and the like.
  • the optical projection apparatus is an example of an apparatus in which the optical signal (the measurement light) has a center wavelength in a wavelength band that deviates from the center of the visibility curve between the optical wavelength and the human.
  • the measurement light When the measurement light is recognized by the human eye, it may be perceived as degradation of the original image quality. For this reason, it is preferable that the measurement light is not easily recognized by human eyes. If the measurement light is difficult to be recognized by the human eye, it is possible to suppress degradation of the original image quality.
  • the center wavelength of the measurement light is particularly preferably in the range of 430 to 470 nm.
  • the light intensity of the measurement light is, for example, 1/10 or less, preferably 1/100 or less, of the maximum light intensity of the projector.
  • the wavelength width of the measurement light is preferably narrow. Even if the light having a wide wavelength width has a strong light intensity, the light intensity in each wavelength band is weak when viewed in a narrow wavelength band. On the other hand, for example, a laser emits high intensity light with a narrow wavelength width. Therefore, by using laser light as the measurement light and selectively transmitting the laser light reflected by the projection object by the reflected light transmitting means, the S / N ratio (Signal to Noise ratio) in the imaging means. ) Can be improved. Further, if the wavelength width of the measurement light is narrow, it is easy to calculate the position information of the projection object even if the light intensity is weak.
  • the wavelength width of the measurement light is, for example, 100 nm or less, preferably 20 nm or less, and more preferably 3 nm or less.
  • the measurement light is also light for displaying the original image.
  • the measurement light is preferably one of the three primary colors of light, more preferably blue light, which is one of the three primary colors.
  • the wavelength of the blue light is preferably 470 nm or less, and more preferably in the range of 430 to 470 nm.
  • the light source that emits the measurement light include the above-described light source, and preferably the B light source. Considering the suppression of image quality deterioration of the original image and the wavelength width, optimally, the measurement light is blue laser light and the light source is blue laser.
  • the reflected light 360 from the screen 200 passes through the reflected light transmitting means 180, light other than the reflected light of the measurement light is cut. Therefore, the light intensity of light other than the reflected light of the measurement light in the light that passes through the reflected light transmitting means 180 and reaches the imaging means 152 becomes very weak. For this reason, the measurement light can be detected by the imaging means 152 even if the light intensity is weak, but is hardly recognized by human eyes when combined with the characteristics of the aforementioned visibility curve.
  • the measurement light may be light that is difficult to be recognized by the human eye.
  • There is a method of shifting the degree for example, adjusting the amount of light of B light and G light).
  • the light projection apparatus of this embodiment is an example of an apparatus including a light intensity adjustment unit.
  • the light intensity of the reflected light of the measurement light may change partly or entirely depending on the state of the projection object, for example. Due to this change, for example, the light intensity of the reflected light of the measurement light may be lower than the imaging sensitivity of the imaging means. Therefore, if the light intensity adjusting means is used, it is possible to avoid the light intensity of the reflected light of the measurement light being lower than the imaging sensitivity of the imaging means. Specific examples are shown below.
  • the imaging unit 152 constantly observes the measurement light, and the coordinate calculation unit 170 calculates the position information (coordinates) of the screen 200. For this reason, the light intensity of the reflected light of the measurement light due to the change in the state of the screen 200 changes continuously.
  • the light intensity of the image 380 captured by the imaging unit 152 is measured by the light intensity adjusting unit (not shown in FIG. 4), and information on this light intensity is fed back to the superimposed signal adding unit 120. For example, when the light intensity approaches the lower limit that can be imaged by the imaging unit 152, the light intensity of the measurement light added by the superimposed signal adding unit 120 is increased (adjusted).
  • the light intensity of the measurement light can be maintained at an appropriate value while minimizing the deterioration of the image quality of the original image 310.
  • the light intensity adjusting means can always reduce the measurement light to near the lower limit that can be imaged by the imaging means, and the measurement light that is originally observed as noise of the image becomes inconspicuous, and the contrast is also reduced. Therefore, the image quality observed by humans can be improved.
  • the light intensity adjusting means include a central processing unit (CPU).
  • the light projection apparatus is an example of a case where the original image is projected onto the entire projection range.
  • the light projection device of the present invention it may be difficult to simply separate the measurement light when the image originally exists in the entire projection range. Therefore, if the measurement light is two or more lights having different center wavelengths and the reflected light transmitting means is configured to transmit the two or more measurement lights, even if the image originally extends over the entire projection range, Measurement light can be added. In this way, for example, the measurement light can be added to the original image by a method similar to embedding a digital watermark in the image.
  • Examples of the method of adding the measurement light include a method of shifting the chromaticity of each pixel but making the luminance constant, a method similar to moving image compression such as MPEG, and a method of converting the frequency component of the original image. These methods can be appropriately selected according to, for example, the capability of the light projection apparatus, the image resolution, and the like.
  • the two or more measurement lights are combined by the measurement light combining unit (optical signal combining unit), Using the reflected light of two or more measurement lights acquired by the imaging means, the coordinate calculation means calculates position information of the projection object.
  • the optical projection apparatus of the present invention can detect the position information of the projection object with a simple apparatus configuration and without deteriorating the image quality. Therefore, the light projection apparatus of the present invention can be applied to, for example, a laser projection system with a distance sensor, a projector with an image correction function, and the like.
  • the use of the optical projection apparatus of the present invention is not limited and can be applied to a wide range of fields.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Projection Apparatus (AREA)

Abstract

 簡易な装置構成で、かつ、画像の質を低下させることなく、被投射物の位置情報を検出可能な、光投射装置および被投射物の位置情報検出方法を提供する。 本発明の光投射装置(100)は、被投射物(200)に投射する画像に、被投射物(200)の位置情報を検出するための可視光の光信号を追加する、重畳信号追加手段(120)を有し、光信号が追加された画像35を被投射物(200)に投射する投射手段(11)と、被投射物(200)で反射された前記光信号が追加された画像の反射光における、前記光信号の反射光を選択的に透過させる反射光透過手段(180)と、反射光透過手段(180)を透過した前記光信号の反射光を取得する撮像手段(152)と、前記取得された光信号の反射光を用いて、被投射物(200)の位置情報を算出する座標算出手段(170)とを含む。

Description

光投射装置および被投射物の位置情報検出方法
 本発明は、光投射装置および被投射物の位置情報検出方法に関する。
 画像を被投射物に投射するプロジェクタ(光投射装置)が知られている。このような光投射装置には、被投射物の位置情報を検出するための距離センサが搭載されたものがある(特許文献1~3参照)。
 前記特許文献1には、走査型レーザプロジェクタから可視光を投射するのと同時に、不可視光である赤外光を照射し、被測定物からの前記不可視光の反射光をカメラで撮影することで、被測定物の位置を検出する装置が開示されている。また、前記特許文献2および3には、可視光を用いて被投射物の位置情報を検出するプロジェクタが開示されている。
特許第4612853号公報 国際公開第2009/142015号 特開2005-094599号公報
 しかしながら、前記特許文献1では、被測定物の位置検出に、赤外線等の不可視光を使用しているため、不可視光を投射する光源と、不可視光の反射光を検出するための専用センサとが必要となり、装置構成が複雑である。また、可視光を用いたプロジェクタでは、光信号を検出するために、ある程度の光強度が必要であるが、光信号の強度を強くすると、画像の質が低下するという問題がある。
 本発明の目的は、簡易な装置構成で、かつ、画像の質を低下させることなく、被投射物の位置情報を検出可能な、光投射装置および被投射物の位置情報検出方法を提供することにある。
 前記目的を達成するために、本発明の光投射装置は、
被投射物に投射する画像に、前記被投射物の位置情報を検出するための可視光の光信号を追加する、重畳信号追加手段を有し、前記光信号が追加された画像を前記被投射物に投射する投射手段と、
前記被投射物で反射された前記光信号が追加された画像の反射光における、前記光信号の反射光を選択的に透過させる反射光透過手段と、
前記反射光透過手段を透過した前記光信号の反射光を取得する撮像手段と、
前記取得された光信号の反射光を用いて、前記被投射物の位置情報を算出する座標算出手段とを含む。
 また、本発明の被投射物の位置情報検出方法は、
被投射物に投射する画像に、前記被投射物の位置情報を検出するための可視光の光信号を追加する、重畳信号追加工程と、
前記光信号が追加された画像を前記被投射物に投射する投射工程と、
前記被投射物で反射された前記光信号が追加された画像の反射光における、前記光信号の反射光を選択的に透過させる反射光透過工程と、
前記透過した光信号の反射光を取得する撮像工程と、
前記取得された光信号の反射光を用いて、前記被投射物の位置情報を算出する座標算出工程とを含む。
 本発明によれば、簡易な装置構成で、画像の質を低下させることなく、被投射物の位置情報を検出可能な、光投射装置および被投射物の位置情報検出方法を提供できる。
図1は、本発明の光投射装置の一例(実施形態1)の構成を示すブロック図である。 図2は、本発明の光投射装置のその他の例(実施形態2)の構成を示すブロック図である。 図3は、前記実施形態2において、スクリーンで反射された反射光から、測定光を取り出す原理を説明する図である。 図4は、本発明の光投射装置のさらにその他の例(実施形態3)の構成を示すブロック図である。 図5は、前記実施形態3において、スクリーンで反射された反射光から、測定光を取り出す原理を説明する図である。 図6は、前記実施形態2の光投射装置から投射される光の波長および強度を例示するスペクトル図である。 図7は、前記実施形態2において、スクリーンで反射された反射光の波長および強度を例示するスペクトル図である。 図8は、前記実施形態2の光投射装置における反射光透過手段の分光特性を示すスペクトル図である。 図9は、前記実施形態2において、反射光透過手段を透過した光の波長および強度を例示するスペクトル図である。 図10は、光波長と人間の視感度との関係を示す視感度曲線である。
 以下、本発明の光投射装置および被投射物の位置情報検出方法について、例をあげて詳細に説明する。ただし、本発明は、以下の実施形態に限定されない。なお、以下の図1から図10において、同一部分には、同一符号を付している。また、図面においては、説明の便宜上、各部の構造は適宜簡略化して示す場合があり、各部の寸法比等は、実際とは異なる場合がある。
(実施形態1)
 図1のブロック図に、本実施形態の光投射装置(プロジェクタ)の構成を示す。
 図1に示すように、本実施形態の光投射装置100は、投射手段11と、撮像手段152と、座標算出手段170と、反射光透過手段180とを主要な構成要素として含む。投射手段11は、重畳信号追加手段120を含む。
 重畳信号追加手段120は、被投射物に投射する画像(投射画像)に、前記被投射物の位置情報を検出するための可視光の光信号を追加する手段である。重畳信号追加手段120は、特に制限されず、従来公知のものがあげられる。投射手段11は、前記光信号が追加された投射画像(光信号を含む投射画像)を投射する手段である。詳細は、後述する。
 撮像手段152は、例えば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ等があげられる。
 座標算出手段170は、例えば、中央処理手段(CPU)、専用のデジタルシグナルプロセッサ(DSP)、グラフィックプロセッシングユニット(GPU)、またはこれらとソフトウェア処理とを組み合わせた方法等があげられる。
 図1において、スクリーン200は、画像が投射される被投射物である。前記被投射物は、特に制限されず、例えば、紙または布製の専用スクリーンがあげられ、この他にも、例えば、壁または床面、装置壁面または机の面、人体または衣服の各部位等があげられる。また、前記被投射物の表面形状は、特に制限されず、例えば、平坦面があげられ、この他にも、例えば、凹凸面、曲率を持つ面、複数の面、拡散面、半透過面、蛍光体が塗布された面等があげられる。
 反射光透過手段180は、スクリーン200で反射された前記光信号および前記投射画像の反射光における、前記光信号の反射光を選択的に透過させる。詳細は、後述する。反射光透過手段180は、例えば、光学カラーフィルタがあげられる。本実施形態において、前記「光信号」を、「測定光」ということがある。以下の実施形態においても同様とする。
 つぎに、光投射装置100の動作について、図1を参照して説明する。
 まず、重畳信号追加手段120は、スクリーン200に投射する画像(投射画像)に、スクリーン200の位置情報を検出するための測定光を追加する。前記測定光は、可視光である。そして、投射手段11から、測定光を含む画像(光信号が追加された画像)35が、スクリーン200に向けて投射される。この画像35がスクリーン200に投影されると、画像35は、スクリーン200で反射される。スクリーン200からの反射光36は、反射光透過手段180を選択的に透過して、測定光の反射光37となり、撮像手段152により撮像される。撮像された画像38から、座標算出手段170により、座標データ40に変換される。
 つぎに、スクリーン200の位置情報の測定原理について説明する。
 スクリーン200からの反射光36は、例えば、スクリーン200の凹凸等の位置に応じて反射点がズレている。このズレを利用して、スクリーン200の位置座標等の位置情報を測定できる。前記位置座標測定には、例えば、測定光の投射位置(すなわち、投射手段11の位置)と撮像手段152との位置をずらして前記測定光のズレを3点測量する方式、Time of flight(TOF)方式、測定光の影を検出する方式等の、既知の距離測定技術を採用できる。位置座標測定として、どの方式を採用するかは、例えば、被投射物の測定距離、精度、装置コスト等に応じて、適宜選択すればよい。
 以上のようにして、光投射装置100では、スクリーン200の位置情報を検出できる。この結果、スクリーン200の凹凸、角度変化等の影響による投射画像の位置ズレ等を検出でき、例えば、この位置ズレを補正できる。そして、光投射装置100では、測定光を可視光とし、前記測定光の反射光を選択的に透過する反射光透過手段180を使用する。このため、例えば、不可視光を投射する光源、不可視光の反射光を検出するための専用センサ等が不要であり、赤外線等の不可視光を測定光とする場合と比較して、光投射装置を簡易な装置構成とすることができる。また、光投射装置100は、光信号の反射光だけを選択的に透過させる反射光透過手段180を備えているため、光信号の強度が弱くても位置情報の取得に十分な強度の光強度を得られる。
(実施形態2)
 図2のブロック図に、本実施形態の光投射装置の構成を示す。
 図2に示すように、本実施形態の光投射装置100aは、投射手段11aと、撮像手段152と、座標算出手段170と、反射光透過手段180とを、主要な構成要素として含む。投射手段11aは、画像処理手段110と、重畳信号追加手段120と、光源制御手段130と、光源モジュール140と、ヘッド150とを含む。撮像手段152は、投射手段11aのヘッド150に含まれている。光源モジュール140は、R(赤色)光源141と、G(緑色)光源142と、B(青色)光源143と、これらの光源からの光を合波する光合波手段144とを含む。
 画像処理手段110は、例えば、動画をフレーム毎に静止画に分解する手段である。光源制御手段130は、例えば、前記測定光が追加された静止画から、RGBの3原色に分割した信号を生成する手段である。画像処理手段110および光源制御手段130は、特に制限されず、従来公知のものがあげられる。
 R光源141、G光源142およびB光源143は、特に制限されず、従来公知の光源を使用でき、これらの光源の少なくとも1つは、波長幅が狭い光源であることが好ましい。前記光源の波長幅は、例えば、100nm以下であり、好ましくは20nm以下であり、より好ましくは3nm以下である。前記光源は、例えば、レーザーダイオード(LD)等の各種レーザ光源;発光ダイオード(LED)、スーパールミネッセントダイオード(SLD)等の光源;特定波長のみを取り出すための光学フィルタを含む光源等があげられる。光合波手段144は、特に制限されず、従来公知のものがあげられる。
 つぎに、光投射装置100aの動作について、図2~3および6~9を参照して説明する。
 まず、光投射装置100aに送られてきた動画310を、画像処理手段110により、フレーム毎に静止画(静止画320)に分解する。画像処理手段110は、重畳信号追加手段120および座標算出手段170に、静止画320を分配する。重畳信号追加手段120は、スクリーン200の位置情報を検出するための測定光を、静止画320に追加する(重畳済画像330)。前記測定光は、可視光である。重畳信号追加手段120は、光源制御手段130および座標算出手段170に、重畳済画像330を分配する。光源制御手段130は、重畳済画像330から、RGBの3原色に分割した信号を生成する。そして、光源モジュール140において、前記分割信号に応じて、RGB合成光340が合成される。RGB合成光340は、ヘッド150から、測定光を含む画像(光信号が追加された画像)350として、スクリーン200に向けて投射される。
 図3に示すように、測定光を含む画像350は、本来画像310と、スクリーン200の位置情報を検出するための測定光331が予め合成されている。この画像350がスクリーン200に投影されると、画像350は、スクリーン200で反射される。このとき、画像350が投影されていない場合の背景光361と、画像350の反射光とが合成されて、スクリーン200からの反射光360となる。この反射光360は、反射光透過手段180を用いることで測定光の反射光370が選択的に透過して、撮像手段152により撮像される。撮像された画像380から、座標算出手段170により、座標データ400に変換される。
 つぎに、スクリーン200からの反射光360から背景光361を分離する原理について、さらに説明する。
 スクリーン200に投射された画像350は、R光源141、G光源142およびB光源143からの光を元にしている。例えば、これらの光源がレーザ光源である場合、図6に示すように、画像350の光スペクトルは、狭帯域の複数の波長となる。本実施形態では、例えば、前記測定光としてB光源143から出射される光を用いるとする。一方、背景光361は連続したスペクトルを有する。このため、画像350の反射光と背景光361とが合成されたスクリーン上の画像の反射光360のスペクトルは、例えば、図7に示すように、連続した曲線のスペクトルにおいて、前記レーザ光源からの光の波長の部分が飛び出した形状となる。この反射光360は、反射光透過手段180を透過する。ここで、反射光透過手段180として、図8に示すような、前記測定光であるB光源143の波長の光を透過する特性を有するフィルタを用いると、前記測定光の反射光におけるB光源143の波長の光のみが選択的に透過される。このため、例えば、図9に示すように、背景光361(点線で示す曲線のスペクトル)、ならびに、R光源141およびG光源142から出射された光の反射光(点線で示す直線のスペクトル)が除去される。そして、B光源143の波長の光(実線で示す直線のスペクトル)である前記測定光の反射光のみが撮像手段152で撮像される。
 以上のようにして、本実施形態の光投射装置100aでは、前記実施形態1において得られた効果と同様の効果が得られる。また、撮像手段152が投射手段11aのヘッド150に含まれているため、例えば、光投射装置の小型化が可能である。
 なお、本実施形態の光投射装置100aでは、撮像手段152は、投射手段11aのヘッド150に含まれているが、本発明は、この例には限定されない。前記撮像手段は、例えば、光投射装置における前記投射手段とは別の場所に配置されてもよい。
(実施形態3)
 本実施形態の光投射装置は、マスク画像生成手段を含む光投射装置の一例である。図4のブロック図に、本実施形態の光投射装置の構成を示す。図4に示すように、本実施形態の光投射装置100bは、さらに、マスク画像生成手段160を含むこと以外は、図2に示した前記実施形態2の光投射装置と同様の構成を有する。マスク画像生成手段160は、例えば、専用のデジタルシグナルプロセッサ(DSP)、グラフィックプロセッシングユニット(GPU)、またはこれらとソフトウェア処理とを組み合わせた方法等があげられる。
 つぎに、光投射装置100bの動作について、図4および5を参照して説明する。
 光投射装置100bでは、前記実施形態2と同様にして、投射手段11aのヘッド150から、測定光を含む画像350が、スクリーン200に向けて投射される。
 図5に示すように、測定光を含む画像350は、本来画像310と、スクリーン200の位置情報を検出するための測定光331とが予め合成されている。この画像350がスクリーン200に投影されると、画像350は、スクリーン200で反射される。このとき、画像350が投影されていない場合の背景光361と、画像350の反射光とが合成されて、スクリーン200からの反射光360となる。この反射光360は、反射光透過手段180を用いることで測定光の反射光370が選択的に透過して、撮像手段152により撮像される。撮像された画像380から、マスク画像生成手段160により、本来画像310をさらに除去して、スクリーン200の位置情報のみを含む画像390を取り出す。座標算出手段170により、この画像390から座標データ400に変換される。
 スクリーン200からの反射光360から背景光361を分離する原理は、前記実施形態2と同様である。
 図5に示したように、前記測定光には、本来画像310の波長成分が含まれる場合がある。この本来画像310の成分は、静止画320をマスク画像生成手段160に入力することにより、マスク画像生成手段160により、本来画像310が存在する部分のみマスクすることで、除去できる。本実施形態では、例えば、スクリーン200の凹凸、角度変化等の影響により、本来画像310の位置ズレが起こっていることを予測し、本来画像310の周辺を含めて除去している。前記位置ズレは、例えば、本来画像310周辺の測定光331から算出される座標データ400を用いることで予測可能である。なお、例えば、前記位置ズレの予測を行わず、前記位置ズレは本質的に小さいという特性を生かして、前記本来画像の周辺を予めマスクする方法等も採用できる。前記本来画像の除去は、例えば、光投射装置の能力、位置情報検出(測定)範囲、被投射物等に応じて、前述の方法を切り換える、もしくは組み合わせて行ってもよい。
(実施形態4)
 本実施形態の光投射装置は、前記光信号(前記測定光)が、光波長と人間との視感度曲線の中心から外れた波長帯に中心波長を有する装置の一例である。測定光が人間の目に認識されると、前記本来画像の画質の劣化と感じられてしまう場合がある。このため、前記測定光は、人間の目に認識しにくいことが好ましい。前記測定光が人間の目に認識しにくければ、前記本来画像の画質劣化を抑制できる。具体的には、図10に示す光波長と人間の視感度との関係を示す視感度曲線の中心から外れた波長帯に中心波長を有することが好ましい。前記測定光の中心波長は、430~470nmの範囲にあることが特に好ましい。また、前記測定光の光強度は、例えば、プロジェクタの持つ最大光強度の1/10以下であり、好ましくは1/100以下である。
 前記測定光の波長幅は、狭いことが好ましい。波長幅が広がっている光は、強い光強度を有していたとしても、狭い波長帯域に分けて見た場合には各波長帯域での光強度は弱い。これに対し、例えば、レーザは、波長幅が狭く高強度の光を放出する。したがって、前記測定光としてレーザ光を用い、前記被投射物で反射された前記レーザ光を前記反射光透過手段で選択的に透過することで、前記撮像手段におけるS/N比(Signal to Noise ratio)を向上させることができる。また、前記測定光の波長幅が狭ければ、光強度が弱くとも、前記被投射物の位置情報を算出しやすい。前記測定光の波長幅は、例えば、100nm以下であり、好ましくは20nm以下であり、より好ましくは3nm以下である。
 前記測定光は、前記本来画像を表示するための光でもある。このため、前記測定光は、光の3原色の1つであることが好ましく、より好ましくは3原色の1つである青色光である。前記青色光の波長は、470nm以下であることが好ましく、より好ましくは430~470nmの範囲である。前記測定光を出射する光源は、例えば、前述の光源があげられ、好ましくは前記B光源である。前記本来画像の画質劣化抑制および前記波長幅を考慮すると、最適には、前記測定光が青色レーザ光であり、前記光源が青色レーザである。
 つぎに、前記測定光の光強度について説明する。
 前記実施形態3で示したように、スクリーン200からの反射光360は、反射光透過手段180を透過する際に、前記測定光の反射光以外の光はカットされる。したがって、反射光透過手段180を透過して、撮像手段152に到達する光における、前記測定光の反射光以外の光の光強度は、非常に弱くなる。このため、前記測定光は、光強度が弱くても、撮像手段152で検出可能である一方、前述の視感度曲線の特性とあわせると、人間の目には殆ど認識されない。
 また、前記測定光を人間の目に認識しにくい光とする方法には、上記以外にも、例えば、投射画像の輝度を表示フレーム間で平均化させる方法、投射画像の輝度を一定にしつつ色度をずらす(例えば、B光とG光との光量を調整する)方法等がある。
(実施形態5)
 本実施形態の光投射装置は、光強度調整手段を含む装置の一例である。本発明の光投射装置では、前記測定光の反射光の光強度は、例えば、前記被投射物の状態により、一部または全部が変化する場合がある。この変化により、例えば、前記測定光の反射光の光強度が、前記撮像手段の撮像感度を下回る場合がある。そこで、前記光強度調整手段を使用すれば、前記測定光の反射光の光強度が、前記撮像手段の撮像感度を下回るのを回避できる。具体例を下記に示す。
 前記実施形態3に示したように、撮像手段152は、常時測定光を観察し、座標算出手段170は、スクリーン200の位置情報(座標)を算出している。このため、スクリーン200の状態の変化による前記測定光の反射光の光強度は、連続的に変化する。ここで、前記光強度調整手段(図4において図示せず)により、撮像手段152で撮像された画像380の光強度を測定し、この光強度の情報を、重畳信号追加手段120にフィードバックする。そして、例えば、光強度が撮像手段152で撮像できる下限に近づいた段階で、重畳信号追加手段120により追加される測定光の光強度を増加(調整)する。これにより、例えば、本来画像310の画質劣化を最小限に抑えつつ、前記測定光の光強度を適正値に維持できる。また、例えば、前記光強度調整手段により、前記測定光を常時、前記撮像手段で撮像できる下限近くまで下げることができ、本来画像のノイズとして観察される前記測定光が目立たなくなると共に、コントラスト低下も防げるため、人間に観察される画質を向上できる。前記光強度調整手段は、例えば、中央処理装置(CPU)等があげられる。
(実施形態6)
 本実施形態の光投射装置は、前記本来画像を投射範囲全体に投射する場合の一例である。本発明の光投射装置では、本来画像が投射範囲全体に存在する場合、前記測定光を単純に分離することが困難な場合がある。そこで、前記測定光を中心波長が異なる2つ以上の光とし、前記反射光透過手段を前記2つ以上の測定光を透過するように構成すれば、本来画像が投射範囲全体に広がる場合でも、測定光を追加できる。このようにすれば、例えば、画像に電子透かしを埋め込むのと同様の手法により、前記本来画像に前記測定光を追加できる。前記測定光の追加方法は、例えば、各ピクセルの色度はずらすが輝度を一定にする方法、MPEG等動画圧縮と同様の方法、元画像の周波数成分を変換させる方法等があげられる。これらの方法は、例えば、光投射装置の能力、画像解像度等に応じて、適宜選択できる。
 本実施形態の光投射装置では、より具体的には、例えば、前記重畳信号追加手段において、測定光合波手段(光信号合波手段)により、前記2つ以上の測定光を合波し、前記撮像手段で取得された2つ以上の測定光の反射光を用いて、前記座標算出手段により、前記被投射物の位置情報を算出する。
 以上のように、本発明の光投射装置は、簡易な装置構成で、かつ、画像の質を低下させることなく、被投射物の位置情報を検出できる。従って、本発明の光投射装置は、例えば、距離センサ付きレーザプロジェクションシステム、画像補正機能付きプロジェクタ等に適用できる。ただし、本発明の光投射装置の用途は限定されず、広い分野に適用可能である。
 以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
 この出願は、2012年1月24日に出願された日本出願特願2012-12286を基礎とする優先権を主張し、その開示の全てをここに取り込む。
11、11a 投射手段
100、100a、100b 光投射装置
110 画像処理手段
120 重畳信号追加手段
130 光源制御手段
140 光源モジュール
141 R光源
142 G光源
143 B光源
144 光合波手段
150 ヘッド
152 撮像手段
160 マスク画像生成手段
170 座標算出手段
180 反射光透過手段
200 スクリーン(被投射物)
310 動画(本来画像)
320 静止画
330 重畳済画像
331 測定光(光信号)
340 RGB合成光
35、350 測定光を含む画像(光信号が追加された画像)
36、360 スクリーン200からの反射光(光信号が追加された画像の反射光)
361 背景光
37、370 測定光の反射光(光信号の反射光)
38、380 撮像手段152で撮像された画像
390 位置情報のみを含む画像
40、400 座標データ

Claims (9)

  1. 被投射物に投射する画像に、前記被投射物の位置情報を検出するための可視光の光信号を追加する、重畳信号追加手段を有し、前記光信号が追加された画像を前記被投射物に投射する投射手段と、
    前記被投射物で反射された前記光信号が追加された画像の反射光における、前記光信号の反射光を選択的に透過させる反射光透過手段と、
    前記反射光透過手段を透過した前記光信号の反射光を取得する撮像手段と、
    前記取得された光信号の反射光を用いて、前記被投射物の位置情報を算出する座標算出手段とを含む、光投射装置。
  2. 前記光信号は、光波長と人間の視感度との関係を表す視感度曲線の中心から外れた波長帯に中心波長を有する、請求項1記載の光投射装置。
  3. 前記光信号の中心波長は、430~470nmの範囲にある、請求項1または2記載の光投射装置。
  4. 前記光信号の波長幅は、20nm以下である、請求項1から3のいずれか一項に記載の光投射装置。
  5. さらに、前記撮像手段で取得された反射光における前記光信号の反射光の光強度を測定し、前記重畳信号追加手段により追加される光信号の光強度を調整する光強度調整手段を含む、請求項1から4のいずれか一項に記載の光投射装置。
  6. 前記重畳信号追加手段は、さらに、中心波長が異なる2つ以上の前記光信号を合波する光信号合波手段を含み、
    前記反射光透過手段は、前記2つ以上の光信号の反射光を透過可能であり、
    前記座標算出手段は、前記取得された2つ以上の光信号の反射光を用いて、前記被投射物の位置情報を算出可能である、請求項1から5のいずれか一項に記載の光投射装置。
  7. さらに、前記撮像手段で取得された反射光から前記光信号の反射光以外を取り除くマスク画像生成手段を含む、請求項1から6のいずれか一項に記載の光投射装置。
  8. 前記撮像手段は、前記投射手段に含まれている、請求項1から7のいずれか一項に記載の光投射装置。
  9. 被投射物に投射する画像に、前記被投射物の位置情報を検出するための可視光の光信号を追加する、重畳信号追加工程と、
    前記光信号が追加された画像を前記被投射物に投射する投射工程と、
    前記被投射物で反射された前記光信号が追加された画像の反射光における、前記光信号の反射光を選択的に透過させる反射光透過工程と、
    前記透過した光信号の反射光を取得する撮像工程と、
    前記取得された光信号の反射光を用いて、前記被投射物の位置情報を算出する座標算出工程とを含む、前記被投射物の位置情報を検出する方法。
PCT/JP2012/073790 2012-01-24 2012-09-18 光投射装置および被投射物の位置情報検出方法 WO2013111375A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-012286 2012-01-24
JP2012012286 2012-01-24

Publications (1)

Publication Number Publication Date
WO2013111375A1 true WO2013111375A1 (ja) 2013-08-01

Family

ID=48873124

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/073790 WO2013111375A1 (ja) 2012-01-24 2012-09-18 光投射装置および被投射物の位置情報検出方法

Country Status (1)

Country Link
WO (1) WO2013111375A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051346A (ja) * 1999-08-05 2001-02-23 Nippon Telegr & Teleph Corp <Ntt> 自動画素位置調整装置
JP2007048135A (ja) * 2005-08-11 2007-02-22 Plus Vision Corp Dmdを使用した投影面上の座標位置の取得方法
JP2010136105A (ja) * 2008-12-04 2010-06-17 Seiko Epson Corp プロジェクタ、表示調整方法、表示調整プログラム及び記録媒体
JP2011017894A (ja) * 2009-07-09 2011-01-27 Seiko Epson Corp プロジェクター、画像投写システムおよび画像投写方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051346A (ja) * 1999-08-05 2001-02-23 Nippon Telegr & Teleph Corp <Ntt> 自動画素位置調整装置
JP2007048135A (ja) * 2005-08-11 2007-02-22 Plus Vision Corp Dmdを使用した投影面上の座標位置の取得方法
JP2010136105A (ja) * 2008-12-04 2010-06-17 Seiko Epson Corp プロジェクタ、表示調整方法、表示調整プログラム及び記録媒体
JP2011017894A (ja) * 2009-07-09 2011-01-27 Seiko Epson Corp プロジェクター、画像投写システムおよび画像投写方法

Similar Documents

Publication Publication Date Title
US10419693B2 (en) Imaging apparatus, endoscope apparatus, and microscope apparatus
US9753140B2 (en) Methods and apparatus for imaging in scattering environments
US20140118493A1 (en) Three-dimensional mapping and imaging
US8659698B2 (en) Compact 3D scanner with fixed pattern projector and dual band image sensor
WO2018031249A1 (en) Hybrid imaging sensor for structured light object capture
US20130278738A1 (en) Image processing apparatus and image processing method
US20110310014A1 (en) Image pickup apparatus and projection type image display apparatus
WO2009142299A1 (ja) 信号処理装置及び投写型映像表示装置
US20170150125A1 (en) Imaging apparatus and imaging method
US10721447B2 (en) Projection display and image correction method
JP6467516B2 (ja) 距離画像取得装置付きプロジェクタ装置及びプロジェクション方法
US9734592B2 (en) Medical image processing device and method for operating the same
JP2011176710A (ja) 撮像装置
WO2014122713A1 (ja) 情報取得装置および物体検出装置
JP6564025B2 (ja) 画像取得装置、および画像形成方法
US10574952B2 (en) Image projection apparatus, projection imaging system, and correction method
CN110574368B (zh) 固态摄像装置、摄像系统以及物体识别系统
WO2016084926A1 (ja) 撮像システム
WO2013111375A1 (ja) 光投射装置および被投射物の位置情報検出方法
JPWO2016174778A1 (ja) 撮像装置、画像処理装置および画像処理方法
WO2017090366A1 (ja) 内視鏡システムおよび撮影方法
JP2012008845A (ja) 画像処理装置
US11010895B2 (en) Processor for electronic endoscope and electronic endoscope system
JP2009222958A (ja) 色むら補正用データ生成装置、および色むら補正用データ生成方法
JP2006337715A (ja) 面順次画像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12866951

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12866951

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP