WO2015045125A1 - 映像投射装置 - Google Patents

映像投射装置 Download PDF

Info

Publication number
WO2015045125A1
WO2015045125A1 PCT/JP2013/076386 JP2013076386W WO2015045125A1 WO 2015045125 A1 WO2015045125 A1 WO 2015045125A1 JP 2013076386 W JP2013076386 W JP 2013076386W WO 2015045125 A1 WO2015045125 A1 WO 2015045125A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
projection device
light
detection element
video projection
Prior art date
Application number
PCT/JP2013/076386
Other languages
English (en)
French (fr)
Inventor
将史 山本
瀬尾 欣穂
平田 浩二
浦田 浩之
孝志 松原
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to PCT/JP2013/076386 priority Critical patent/WO2015045125A1/ja
Priority to EP13894422.8A priority patent/EP3051345B1/en
Priority to US14/892,700 priority patent/US9942529B2/en
Priority to JP2015538761A priority patent/JP6134804B2/ja
Priority to CN201380077050.3A priority patent/CN105247414B/zh
Publication of WO2015045125A1 publication Critical patent/WO2015045125A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Definitions

  • Patent Document 1 even when the projection range of the projector is changed, the human detection means is controlled so that the projection range and the detection range of the sensor for detecting a person are the same range. The person was detected for. However, since the detection range is wide and the sensitivity is low, it has been difficult to detect fine movements (hereinafter referred to as gestures) such as human gestures.
  • gestures fine movements
  • a function is developed to detect a gesture of an operator of the projection device and control the projection device itself or a display image corresponding to the gesture.
  • a gesture of an operator of the projection device
  • control such that when a certain gesture is detected, the power of the projection apparatus is turned off, or an image to be displayed is scrolled and frame-advanced.
  • the present invention employs, for example, the configurations described in the claims.
  • the present application includes a plurality of components that solve the above-described problems.
  • the present invention is a video projection device that projects light having video information and displays video, and generates light.
  • FIG. 1 is an overview of the projection apparatus of the first embodiment.
  • the configuration of the present embodiment includes a projection device 1, a detection element 2, a screen 10, and a projection device arrangement table 11.
  • the projection device 1 is arranged on the projection device arrangement table 11 and projects an image on the screen 10.
  • the detection element 2 detects a gesture in the detection range 2a.
  • the detection element 2 may have a light source for detecting a gesture, or may be a passive sensor without a light source.
  • FIG. 2A and 2B are first and second overview diagrams showing a projection state of the projection apparatus 1.
  • FIG. 2A is a diagram illustrating a case where an image is projected onto the screen 10 (hereinafter, when projecting on a wall surface)
  • FIG. 2B is a diagram illustrating a case where an image is projected onto the projection device placement table 11 (hereinafter, when projecting on a desk). It is a figure.
  • FIG. 2B since the projection is performed on the desk, it is assumed that the operator does not block the image, and the gesture is performed near the screen.
  • the detection range includes both operation ranges, the sensitivity decreases as the detection range becomes wider.
  • detection is performed including a range unnecessary for one projection state, there is a possibility of erroneous detection such as detecting a gesture of a person other than the operator. From the above, it can be seen that in order to achieve both sensitivity and detection of the required operation range, it is necessary to switch the detection range in accordance with the projection state.
  • the gesture detection unit 14 includes a detection signal calculation unit 3 and a detection range switching unit 5.
  • the detection signal calculation unit 3 includes a signal detection unit 3a, a gesture determination unit 3b, and an operation signal generation unit 3c.
  • the signal detection unit 3a detects a signal including the gesture information of the operator supplied from the detection element 2, and supplies the detected signal to the gesture determination unit 3b.
  • the gesture determination unit 3b performs signal processing for determining various gesture movements.
  • the operation signal generation unit 3c outputs an operation command signal corresponding to the output signal of the gesture determination unit 3b to an external device 6 such as a PC (Personal Computer) or a smartphone.
  • the external device 6 controls the video signal supplied to the projection device 1 according to the operation signal of the operation signal generation unit 3c.
  • the image projected on the screen 10 from the projection device 1 is controlled in accordance with the operation command signal generated based on the gesture by the operator. For example, according to the direction in which the operator moves his / her hand, an operation such as scrolling or frame-by-frame displaying is performed.
  • the external device 6 may be any device as long as it supplies a video signal to the projection device 1.
  • a card-like storage medium inserted into a card interface provided in the projection apparatus 1 may be used.
  • the projection unit 4 includes a video control unit 4a, a light source unit 4b, a light control unit 4c, and a projection mirror 4e.
  • the video control unit 4a outputs control signals to the light source unit 4b and the light control unit 4c according to the video signal supplied from the external device 6.
  • the light source unit 4b includes a light source that emits light such as a halogen lamp, an LED, and a laser, and adjusts the amount of light according to the output signal of the video control unit 4a. When the light source unit 4b includes three colors of R, G, and B, the light amount may be controlled independently according to the video signal.
  • the light control unit 4c has optical system components such as a mirror, a lens, a prism, and an imager (for example, a display device such as a liquid crystal panel), and is supplied from the external device 6 using light emitted from the light source unit 4b. An optical image based on the received image signal is generated.
  • the projection lens 4d enlarges the image output from the light control unit 4c.
  • the projection mirror 4e reflects the light radiated from the projection lens 4d and projects an image on the previous screen 10, for example.
  • the projection mirror 4e uses an aspherical mirror, and when projecting an image of the same size, the projection distance can be shortened compared to a general projection device.
  • the projection unit 4 using the projection mirror 4e has been shown, but other configurations may be used as long as the configuration can realize video projection as well as this configuration.
  • the projection lens 4d and the projection mirror 4e may be collectively referred to as a projection optical unit.
  • the configuration of the detection range switching unit 5 will be described, and in particular, the detection range switching unit and detection sensitivity setting will be described.
  • the projection state can be detected not only at the time of wall surface projection and desktop projection but also when the projection device 1 is disposed obliquely by using the above-described sensor.
  • the detection element 2 has a laser light source as a light source for gesture detection
  • the projection distance to the screen 10 is projected based on the time difference between the projected light and the reflected light by projecting the laser light source toward the screen 10. Measurement is possible.
  • a signal corresponding to the distance information detected by the detection element 2 is output from the signal detection unit 3a to the detection range switching signal generation unit 5a.
  • the detecting element 2 for example, a photodiode for detecting laser light or a pyroelectric sensor for detecting infrared rays generated by a human body is used. Depending on which one is used as the electromagnetic wave for detection, the sensor to be used changes as well as whether or not the detection element 2 has a light source.
  • the detection element control unit 5b controls the detection range 2a of the detection element 2 in accordance with the signal supplied from the detection range switching signal generation unit 5a.
  • FIG. 4 is a diagram showing a mechanism for adjusting the inclination of the detection element 2.
  • the detection element 2 is disposed on a turntable 12 included in the projection apparatus 1.
  • the turntable 12 controls the set angle of the detection element 2 according to the signal from the detection element control unit 5b. In this way, the position of the detection range 2a can be switched.
  • a movable lens may be provided on the detection element 2.
  • the movable lens adjusts the detection region 2a by changing the distance from the detection element 2 in accordance with the projection direction of the projection apparatus 1.
  • the detection element 2 is a pyroelectric sensor that detects a change in the intensity of electromagnetic waves such as infrared rays
  • the detection area can be enlarged or reduced by moving the position of the hole or Fresnel lens above the pyroelectric sensor. .
  • the detection range 2 ⁇ and the detection center angle ⁇ are determined by the gesture position Lg, the height hs of the detection element 2, and the operation region H.
  • the operation range H varies depending on the projection state of the projection unit 1. As described above, the operation range H is large during the wall surface projection, and the operation area H is small during the desktop projection.
  • the detection element 2 When a passive sensor (for example, a pyroelectric sensor) that does not have a light source for gesture detection is used as the detection element 2, in order to realize highly accurate gesture detection, the detection range is a desktop as described below. Alternatively, it is effective to set so as not to overlap the wall surface.
  • a passive sensor for example, a pyroelectric sensor
  • FIG. 7A and 7B are first and second diagrams showing a detection method when a passive sensor is used.
  • the detection amount of the pyroelectric sensor is determined by the ratio of the heat source occupying the detection range and the heat amount. In other words, the greater the proportion of gestures that occupy the detection range, the greater the detection amount.
  • FIG. 7A there is a region where a gesture cannot be performed when the detection range overlaps with the projection device arrangement table 11. For this reason, it becomes difficult to obtain a large detection amount.
  • a dead zone hg is provided at the lower side of the detection range as shown in FIG. 7B, and the detection range is narrowed and optimized so as to exclude regions where gestures cannot be performed. Thereby, a large detection amount can be obtained.
  • the sensitivity may be adjusted according to the user and environment. Considering the detection amount of the pyroelectric sensor, even if a gesture is performed under the same conditions, the detection amount differs because the temperature of the hand varies depending on the user. Even the same user has different detection amounts depending on the environmental temperature. Even when detection is performed using a laser, the detection amount varies depending on the reflectance of the user's hand. Therefore, the sensitivity may be improved by adjusting the detection region according to the user and the environment. When using a laser, the intensity of the laser may be increased, or the scanning range may be limited to partially improve the sensitivity.
  • FIG. 8 is a diagram showing a case where the image of the projection apparatus 1 is a multi-screen. Although three screens are shown in FIG. 8, one is a main screen and the other two are sub-screens. For example, when an operation is performed by gesturing an icon displayed on the sub screen while looking at the main screen, it is not necessary to set the main screen as a detection range, so the detection range is limited to only two sub screens. Since the detection range is narrowed, the detection amount of the detection element 2 is increased, and the detection sensitivity is increased. A difference in laser intensity and detection range may be provided between the sub-screens.
  • FIG. 10 is an overview diagram showing a configuration for realizing line scanning using a laser light source.
  • the line scan is realized by using a laser light source 7, a variable angle mirror 8, a light receiving element 9, and a cylindrical lens 13.
  • the light emitted from the laser light source 7 is reflected at an arbitrary angle by the angle variable mirror 8.
  • the light reflected by the variable angle mirror 8 enters the cylindrical lens 13 and becomes a line light source having a width in the Z direction.
  • the variable angle mirror 8 uses a mirror that scans only in the X direction shown in FIGS. 10, 11A, and 11B.
  • the detection element 2 using the laser according to the first embodiment uses a mirror that scans two-dimensionally, which increases the cost, but can detect information in three axial directions.
  • the one-dimensionally scanned mirror of the present embodiment detects only in the biaxial direction as compared with the first embodiment, but the cost is low.
  • the second embodiment shows a method of obtaining a function similar to that in the case of using a mirror that scans two-dimensionally by giving priority to cost by using the mirror 8 and the cylindrical lens 13 that scan one-dimensionally.
  • the detection sensitivity decreases as the distance from the upper portion to the end portion increases. That is, there is a possibility that sufficient sensitivity cannot be obtained even if a gesture is made at the end of the screen 10. Therefore, it is necessary to make the laser intensity constant regardless of the location so that the same sensitivity can be obtained regardless of the position on the screen 10.
  • the light intensity generated in the laser light source 7 may be adjusted depending on whether the light is irradiated directly on the detection element 2 or the edge. Good. Any other method may be used as long as the same function can be realized.
  • the laser light source 7 and the light receiving element 9 use an infrared wavelength region so that the light emitted from the projection apparatus 1 does not affect the detection of the gesture.
  • the infrared wavelength region By using the infrared wavelength region, highly sensitive detection can be performed even under external light.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

 高精度なジェスチャ検出を行う映像投射装置を提供する。映像投射装置(1)は、光学的に映像を投射する投射部(4)と、人のジェスチャを検出して検出結果に基づき投射映像を操作する信号を生成するジェスチャ検出部(14)を有する。ジェスチャ検出部(14)は、前記投射部(4)が光を投射する方向、及び/又は、前記映像投射装置(1)の設置状態に応じて、ジェスチャを検出する範囲(2a)を制御する。ジェスチャを検出するためのレーザ光源とフォトダイオードを有し、又は、赤外線を検出する焦電型センサを有する。

Description

映像投射装置
 本発明は映像投射装置に関する。
 本技術分野の背景技術として、下記の特許文献1がある。この公報の要約には、課題として、「投写映像内にいる人に不快感を感じさせないと共に、映像を見ている人に不快感を感じさせない投写型映像表示装置を提供すること」と記載され、解決手段として、該投射型映像表示装置が「人検知手段を特定の方向へ移動自在に駆動させることにより前記人検知手段の検知範囲を調整する駆動機構と、前記人検知手段が人の存在を検知した際、投射されている映像状態を変化させる制御手段と、を備える」と記載されている。
特開2011-43834号公報
 特許文献1では、プロジェクタの投射範囲を変化させた場合においても、該投射範囲と人を検出するセンサの検出範囲とを同じ範囲とするように人検知手段を制御しており、人の大きな動きを対象として人の検出を行っていた。しかし、検出範囲が広く感度が低いため、人の身振り手振りのような細かい動き(以下、ジェスチャと記す)の検知が困難であった。
 現在、例えば映像投射装置(以下、投射装置と略記することがある)において、投射装置の操作者のジェスチャを検知し、該ジェスチャに対応して投射装置自身、或いは表示画像を制御する機能が開発されている。例えば、あるジェスチャを検出すると投射装置の電源が切断され、或いは、表示する画像がスクロールされ、またコマ送りされるような制御が考えられる。
 しかしながら、ジェスチャは限られた狭い空間でのみ行われるため、ジェスチャ検出範囲を最適化して高精度なジェスチャ検出をすることが課題であった。
 上記課題を解決するため、本発明は例えば特許請求の範囲に記載の構成を採用する。
  本願は上記課題を解決する構成要素を複数含んでいるが、その一例を挙げるならば、本発明は映像情報を有する光を投射して映像を表示する映像投射装置であって、光を発生する光源部と、該光源部が発生した光を用いて前記映像情報に基づく光学的な映像を生成する光制御部と、該光制御部が生成した光を投射する投射光学部を有する投射部と、前記映像投射装置の操作者のジェスチャを検出するセンサを備える検出素子と、該検出素子が検出したジェスチャに基づき前記映像情報に係る映像信号を操作するための操作信号を生成する操作信号生成部を有するジェスチャ検出部を備えることを特徴としている。
 本発明によれば、ジェスチャ検出を高精度化した映像投射装置を実現できるという効果がある。
実施例1の投射装置の概観図。 投射装置の投射状態を示す第1の概観図。 投射装置の投射状態を示す第2の概観図。 投射装置の内部構成を示すブロック図。 検出素子の傾きを調整する機構を示す図。 レーザスキャンを用いた検出範囲調整方法を示す図。 机上投射時の検出範囲設定の例を示す図。 パッシブ型センサを用いた場合の検出方法を示す第1の図。 パッシブ型センサを用いた場合の検出方法を示す第2の図。 投射装置の映像がマルチ画面である場合を示した図。 TOF方式の原理を示した図。 レーザ光源を用いたラインスキャンを実現する構成を示す概観図。 +y軸方向から見た検出素子のレーザ照射範囲を示す第1の図。 +y軸方向から見た検出素子のレーザ照射範囲を示す第2の図。
 以下、本発明の実施例について図面を用いて説明する。
 本実施例では、投射装置及び人を検出する検出部の構成、投射方向によって異なる最適な検出範囲、及び最適な検出範囲に制御する検出範囲制御部に関し記載する。
 まず投射装置及び検出部の構成に関して説明する。
 図1は、実施例1の投射装置の概観図である。
 本実施例の構成は、投射装置1、検出素子2、スクリーン10、投射装置配置台11を有する。投射装置1は、投射装置配置台11上に配置されスクリーン10に映像を投射する。検出素子2は、検出範囲2aでのジェスチャを検出する。検出素子2は、ジェスチャを検出するための光源を有しても良いし、光源を有さないパッシブ型のセンサであっても良い。
 次に、投射方向に応じた検出範囲の最適化に関して説明する。
 図2A及び図2Bは、投射装置1の投射状態を示す第1及び第2の概観図である。図2Aは、スクリーン10へ映像を投射した場合(以下、壁面投射時)を示した図であり、図2Bは、投射装置配置台11に映像を投射した場合(以下、机上投射時)を示した図である。
 まず図2Aに関し説明する。図2Aではジェスチャを行う操作者(以下、操作者)がスクリーン10近くに位置し、スクリーン10に投射された画像を視る観察者がスクリーン10から離れた位置から観察する。操作者は投射画面を遮らないよう、投射部1の投射画面を避けて立つことが一般的である。そのため操作者と検出素子2の距離は遠くなる傾向にある。また、スクリーン10はユーザの使用環境によって変わり、例えば壁や何らかの物体をスクリーン10とする場合が想定される。そのため操作者は、心理的にスクリーン10から離れて位置しやすくなり、つまりは検出素子2から離れた位置でジェスチャを行うと想定される。
 次に図2Bに関し説明する。図2Bでは机上投射を行うため、操作者が映像を遮ることは少なく、画面近くに位置してジェスチャを行うことが想定される。
 上記理由から壁面投射時と机上投射時で必要な操作範囲が異なるため、検出素子2の検出範囲は両方の操作範囲を前提として規定する必要がある。
 しかし、両方の操作範囲を包含する検出範囲に規定すると、検出範囲が広くなる分感度が低くなる。また、一方の投射状態にとっては不要な範囲を含めて検出するため、操作者以外の者のジェスチャを検出するような誤検出が生じる可能性がある。以上から感度と必要な操作範囲の検出を両立するためには、投射状態に応じて検出範囲を切換える必要があることが分かる。
 ここでの投射状態は壁面、机上のみを例として挙げたが、投射方向、設置場所、投射装置1とスクリーン10との距離は様々である。例えば投射方向は机上、壁面に限らず天井も想定され、設置箇所は壁面や天井も想定される。このため、配置や投射状態に応じ最適な検出範囲2aを設定する必要がある。
 次に、最適な検出範囲に制御する検出範囲制御部について説明する。
 図3は、投射装置1の内部構成を示すブロック図である。
 投射装置1は、ジェスチャ検出部14と投射部4を有する。
 まずジェスチャ検出部14に関して説明する。ジェスチャ検出部14は、検出信号演算部3と検出範囲切替部5を有する。検出信号演算部3は信号検出部3a、ジェスチャ判定部3b、操作信号生成部3cを有する。検出信号演算部3では、信号検出部3aが検出素子2から供給された操作者のジェスチャ情報を含む信号を検出して、ジェスチャ判定部3bに供給する。次いで、ジェスチャ判定部3bが供給された信号に基づき、様々なジェスチャの動きを判別する信号処理を行う。さらに、操作信号生成部3cがジェスチャ判定部3bの出力信号に応じた操作指令信号を、PC(Personal Computer)、スマートフォンなどの外部機器6に出力する。外部機器6は、操作信号生成部3cの操作信号に応じて投射装置1に供給する映像信号を制御する。
 これにより、操作者によるジェスチャに基づいて生成された操作指令信号に応じ、投射装置1からスクリーン10に投射される映像が制御される。例えば、操作者が手を動かした方向に応じて、表示する画像をスクロール、或いはコマ送りするような動作を行う。なお、外部機器6は投射装置1に映像信号を供給する装置であれば、何であっても良い。例えば、投射装置1に備えられたカードインタフェースに挿入されるカード状の記憶媒体であっても良い。
 次に投射部4に関し説明する。投射部4は映像制御部4a、光源部4b、光制御部4c、投射ミラー4eを有する。映像制御部4aは外部機器6から供給された映像信号に応じ、光源部4b、光制御部4cに制御信号を出力する。光源部4bはハロゲンランプ、LED、レーザ等光を出射する光源を含み、映像制御部4aの出力信号に応じ光量を調整する。光源部4bがR、G、Bの3色を含む場合、映像信号に応じ各々独立して光量を制御してもよい。光制御部4cはミラー、レンズ、プリズム、イメージャ(例えば液晶パネルのような表示デバイス)等の光学系構成要素を有し、光源部4bから出射された光を用いて、外部機器6から供給された映像信号に基づく光学的な映像を生成する。投射レンズ4dは光制御部4cから出力された映像を拡大する。投射ミラー4eは投射レンズ4dから放射された光を反射し映像を、例えば先のスクリーン10に投射する。投射ミラー4eは非球面ミラーを用いており、同サイズの映像を投射する場合、一般的な投射装置と比較し投射距離を短くすることができる。本実施例では投射ミラー4eを用いた投射部4の一例を示したが、この構成だけでなく映像投射を実現できる構成であれば他の構成でもよい。なお、以下では投射レンズ4dと投射ミラー4eを併せて、投射光学部と呼ぶことがある。
 次に、検出範囲切換部5に関し説明する。
 ここでは検出範囲切換部5の構成を説明し、特に検出範囲の切替部、検出感度の設定に関し説明する。
 まず検出範囲切換部5の構成を説明する。
 検出範囲切換部5は、検出範囲切換信号生成部5aと検出素子制御部5bを有する。検出範囲切換信号生成部5aは投射装置1の状態を検出し、状態に応じた信号を出力する。検出範囲切換信号生成部5aは設置場所、スクリーン10までの投射距離などの投射状態(机上投射、壁面投射等)を検知するセンサを有する。センサには操作者が切替える機械的なスイッチや、投射装置1の傾きを検出するジャイロセンサ、投射装置配置台11との接触を検出するための圧力センサを用いてもよい。また照度センサを用いてもよい。壁面投射時もしくは机上投射時に、照度センサが投射装置配置台11側にくるよう配置すれば検出した光の照度から状態検出が可能である。また、操作者が電気的にリモコン等で検出範囲切換信号生成部5aに信号を送信し、投射装置1の状態を入力してもよい。
 なお投射状態は、壁面投射、机上投射時だけではなく、上記したセンサを使用することにより、投射装置1が斜めに配置された場合も検出可能である。また検出素子2がジェスチャ検出用の光源としてレーザ光源を有している場合は、これをスクリーン10に向けて投射することにより、投射光と反射光との時間差に基づいてスクリーン10までの投射距離測定が可能である。検出素子2で検出した距離情報に応じた信号は、信号検出部3aから検出範囲切替信号生成部5aに出力される。
 検出素子2は検出用の素子としては、例えばレーザ光を検出するためのフォトダイオード、或いは人体が発生する赤外線を検出するための焦電型センサをはじめとする素子が用いられる。検出用の電磁波として、いずれを用いるかに応じて、使用するセンサが変わることはもちろん、検出素子2が光源を有するか否かも変わる。
 検出素子制御部5bは検出範囲切換信号生成部5aから供給された信号に応じ検出素子2の検出範囲2aを制御する。
 次に検出範囲の切換部に関し説明する。
 図4は、検出素子2の傾きを調整する機構を示す図である。検出素子2は投射装置1が有する回転台12上に配置される。回転台12は検出素子制御部5bの信号に応じ検出素子2の設定角度を制御する。このようにして検出範囲2aの位置を切換えることが可能である。
 検出範囲2aの領域を拡大縮小するためには、検出素子2上に可動レンズを設けてもよい。可動レンズは投射装置1の投射方向に応じ、検出素子2との距離を変更し検出領域2aを調整する。検出素子2が、例えば赤外線を始めとする電磁波の強度の変化を検出する焦電型センサの場合、焦電型センサ上部のホールやフレネルレンズの位置を動かすことによっても、検出領域を拡大縮小できる。
 図5は、レーザスキャンを用いた検出範囲調整方法を示す図である。検出素子2はレーザ光源7、角度可変ミラー8、受光素子9を有する。検出素子制御部5bはレーザ光源7、角度可変ミラー8に制御信号を出力する。角度可変ミラー8は検出素子制御部5bの信号を受けその角度が設定角度を制御される。また図4で示したような回転台12上にレーザ光源7を設けることで、検出範囲2aの制御が可能なことは言うまでもない。
 次にジェスチャを行う際の検出範囲の設定に関し説明する。
 図6は、机上投射時の検出範囲設定の例を示す図であり、検出素子2の検出範囲(角度)2θ、投射装置1の法線方向と検出素子2の検出中心線がなす角度φ(以下、検出中心角度)、検出素子2からジェスチャ位置までの距離Lg、投射装置配置台11から検出素子2の鉛直方向距離hs、操作領域Hの関係を示している。検出範囲2θ、検出中心角度φと各パラメータの関係は次の(式1)(式2)で表される。

 2θ=Arc Tan ((H-hs)/Lg)+Arc Tan (hs/Lg) ・・・(式1)

 φ =(1/2)(Arc Tan ((H-hs)/Lg)-Arc Tan (hs/Lg)) (式2)

 上式が示すように、検出範囲2θ、検出中心角度φはジェスチャ位置Lg、検出素子2の高さhs、操作領域Hにより決定される。操作範囲Hは投射部1の投射状態により変わる。前述したが、壁面投射時は操作範囲Hが大きく机上投射時は操作領域Hが小さい。実使用環境を想定すると机上投射時の操作領域Hは数cm~10cm程度、壁面投射時は数cm~数10cmと想定される。ジェスチャ位置Lgは例えば投射装置1から最も離れた画面サイズ端部の距離としてもよい。また、検出素子2にレーザ光源を用いる場合、安全性を考慮し人の目に照射しない領域に操作範囲Hを設けてもよい。机上投射時、投射装置1の正面に人が座った際、目に照射しないよう、検出範囲2θ、検出中心角度φを設定してもよい。
 次に検出感度の設定に関して説明する。
 検出素子2に、ジェスチャ検出用の光源を有さないパッシブ型のセンサ(例えば焦電型センサ)を用いた場合、高精度なジェスチャ検出を実現するため、以下で述べるように、検出範囲が机上もしくは壁面と重ならないように設定することが有効である。
 図7A及び図7Bは、パッシブ型のセンサを用いた場合の検出方法を示す第1及び第2の図である。
 パッシブ型のセンサとして焦電型センサを例に挙げると、焦電型センサの検出量は、検出範囲を占める熱源の割合と熱量により決まる。つまり、ジェスチャが検出範囲を占める割合が大きければ検出量は大きくなる。一方、検出範囲が図7Aに示すように投射装置配置台11上に重なるとジェスチャができない領域が存在する。このため、大きな検出量を得ることが難しくなる。検出量を大きくするためには、図7Bのように検出範囲下側に不感帯hgを設けて、ジェスチャができない領域を除外するよう検出範囲を狭めて最適化する。これにより、大きな検出量を得ることができる。
 ユーザや環境によって感度を調整してもよい。焦電型センサの検出量を考えた場合、同じ条件でジェスチャした場合でも、ユーザによって手の温度が異なるため検出量が異なる。同じユーザでも環境温度によって検出量が異なる。またレーザによる検出を行う場合でもユーザの手の反射率によって検出量が異なる。そのためユーザや環境に応じ検出領域を調整し感度を向上させてもよい。レーザを使用する際はレーザの強度を強くする、もしくはスキャン範囲を限定し部分的に感度を向上させてもよい。
 図8は、投射装置1の映像がマルチ画面である場合を示した図である。図8では3つの画面を映しているが、一つはメイン画面、その他2つはサブ画面である。メイン画面を見ながら、サブ画面に表示された例えばアイコンに対しジェスチャをすることにより操作をする場合、メイン画面を検出範囲に設定する必要がないため、2つのサブ画面のみに検出範囲を絞る。検出範囲が絞れるため、検出素子2の検出量が大きくなり、検出感度が高くなる。サブ画面同士でもレーザ強度、検出範囲の差を設けてもよい。
 また、感度の調整に関してはユーザ側が設定してもよいし、投射装置1側にテストモードを用意し、ある条件での参照測定から感度調整を自動で行ってもよい。例えば、検出素子2が光源を有するセンサである場合、操作者の手の反射率に応じて検出する反射光の量が異なり、検出感度が変わる。テストモードにおいて、光源が所定の輝度の光を発生して反射光を検出し、反射光量に応じて操作者に適した光源の輝度を決めるようにしてもよい。
 本実施例では検出素子2にレーザ光源を用いて、ラインスキャンにより検出する方法に関して説明する。本実施例では、使用するTime-Of-Flight方式(以下、TOF方式)の原理、レーザ光源を用いたラインスキャンの構成を説明し、検出領域2の制御に関して説明する。
 まずTOF方式の原理に関して説明する。
 図9は、TOF方式の原理を示した図である。TOF方式はレーザ光源7の光の出射時間と、スクリーン10の反射光を受光素子9で受光する時間の差を用いる距離測定方式である。この時間差をt[s]とすると距離L[m]は光速3.0x108[m/s]から、(式3)で示すように表される。

 L[m] = 3.0 x 108 x t / 2 ・・・(式3)

 次にレーザを用いたラインスキャンの構成を説明する。
 図10は、レーザ光源を用いたラインスキャンを実現する構成を示す概観図である。ラインスキャンはレーザ光源7、角度可変ミラー8、受光素子9、シリンドリカルレンズ13を用いて実現される。
 まずレーザ光源7から出射された光は、角度可変ミラー8で任意の角度に反射される。角度可変ミラー8で反射された光は、シリンドリカルレンズ13に入射し、Z方向に幅をもつライン光源となる。このライン光源をX方向にスキャンすることでZ方向に拡がりをもち、かつX方向の動き検出が可能なラインスキャンを実現できる。
 角度可変ミラー8は、図10、図11A及び図11Bで示すX方向にのみスキャンするミラーを用いている。実施例1のレーザを用いた検出素子2では、2次元的にスキャンするミラーを用いているためコストが高くなるが、3軸方向の情報を検出可能である。一方、本実施例の1次元的にスキャンするミラーは、実施例1と比較し2軸方向のみの検出となるが、コストは安い。本実施例2は、1次元的にスキャンするミラー8とシリンドリカルレンズ13を用いることで、コストを優先ながら、2次元的にスキャンするミラーを用いる場合と同様な機能を得る方法を示している。
 次に検出領域2の制御に関して説明する。
 図11A及び図11Bは、+y軸方向から見た検出素子2のレーザ照射範囲を示す第1及び第2の図である。なお、XYZ軸は、先の図10で示されている。
 図11Aは、あるXZ平面上での、検出素子2直上と端部のレーザ照射範囲の違いを示した図である。直上部と端部のx座標をそれぞれx0(=0)、x+n及びx-nとする。図中の横方向に長い長方形は、その長辺の長さが照射範囲を、短辺の長さが光の強度を示す。x0では検出素子2からXZ平面までの距離が短いためレーザ照射範囲は狭い。一方x+n及びx-nでは検出素子2からXZ平面までの距離が長いためレーザ照射範囲は広い。そのため検出素子2の直上部と端部ではレーザ光の強度が異なるため、直上部から端部に離れるにつれ検出感度が低くなる。つまりスクリーン10の端部でジェスチャをしても十分な感度が得られない可能性がある。そこでスクリーン10のどの位置でジェスチャしても同等の感度を得られるよう、場所によらずレーザ強度を一定とする必要がある。
 図11Bは、光強度を一定とするため、レーザ照射範囲を一定に制御した例を示した図である。レーザ照射範囲を一定とするため検出素子2直上と端部でシリンドリカルレンズのレンズ面の曲率を変更する。検出素子2の直上は曲率を小さく、端部に離れるにつれ徐々に曲率を大きくする。またさらに光強度を均一にするためには端部のレーザ照射範囲を検出素子2の直上より小さくすることが有効である。端部ではレーザを斜めに照射しており、強度が一定でも受光素子9から見た見込み角が検出素子2の直上より小さくなる。そのため相対的に受光強度が小さくなり感度が低くなる。端部の照射範囲を小さくすることでスクリーン10のどの位置でジェスチャしても同等の感度を得ることができる。
 なお、ここではレーザ照射範囲で強度を調整する記載を行ったが、レーザ光源7において発生する光強度を、検出素子2の直上に照射するか端部に照射するかに応じて調整してもよい。同様の機能が実現できる方法であれば、他の方法でもよい。
 また投射装置1の出射光がジェスチャの検出に影響を及ぼさないよう、レーザ光源7、受光素子9は赤外波長域を用いることが好ましい。赤外波長域を用いることで、外光下でも高感度な検出を行うことができる。
 1:投射装置、2:検出素子、2a:検出範囲、3:検出信号演算部、3a:信号検出部、3b:ジェスチャ演算部、3c:操作信号生成部、4:投射部、4a:映像制御部、4b:光源部、4c:光学系、4d:イメージャ、4e:投射レンズ、4f:投射ミラー、5:検出範囲切換部、5a:検出範囲切換信号生成部、5b:検出素子制御部、6:外部機器、7:レーザ光源、8:角度可変ミラー、9:受光素子、10:スクリーン、11:投射装置配置台、12:回転台、13:シリンドリカルレンズ、14:ジェスチャ検出部。

Claims (15)

  1.  映像情報を有する光を投射して映像を表示する映像投射装置であって、
     光を発生する光源部と、該光源部が発生した光を用いて前記映像情報に基づく光学的な映像を生成する光制御部と、該光制御部が生成した光を投射する投射光学部を有する投射部と、
     前記映像投射装置の操作者のジェスチャを検出するセンサを備える検出素子と、該検出素子が検出したジェスチャに基づき前記映像情報に係る映像信号を操作するための操作信号を生成する操作信号生成部を有するジェスチャ検出部
     を備えることを特徴とする映像投射装置。
  2.  請求項1に記載の映像投射装置において、
     前記検出素子は、前記検出素子が前記ジェスチャを検出する範囲を制御する検出素子制御部を有し、該検出素子制御部は、前記投射部が光を投射する方向、及び/又は、前記映像投射装置の設置状態に応じて、前記検出素子が前記ジェスチャを検出する範囲を制御する
     ことを特徴とする映像投射装置。
  3.  請求項1に記載の映像投射装置において、
     前記検出素子は、前記ジェスチャを三次元的に検出する
     ことを特徴とする映像投射装置。
  4.  請求項3に記載の映像投射装置において、
     前記検出素子は、前記映像投射装置の操作者に照射するための光を発生する光源と、該光源が発生した光を反射して前記人に照射する設定角度が制御自在な角度可変ミラーを有する
     ことを特徴とする映像投射装置。
  5.  請求項4に記載の映像投射装置において、
     前記検出素子が有する光源は、レーザ光源である
     ことを特徴とする映像投射装置。
  6.  請求項4に記載の映像投射装置において、
     前記検出素子が有するセンサは、フォトダイオードである
     ことを特徴とする映像投射装置。
  7.  請求項2に記載の映像投射装置において、
     前記検出素子が有するセンサは、前記映像投射装置に係る人が発生する赤外線を検出する焦電型センサである
     ことを特徴とする映像投射装置。
  8.  請求項7に記載の映像投射装置において、
     前記検出素子は前記焦電型センサに前記赤外線を集光するフレネルレンズを有する
     ことを特徴とする映像投射装置。
  9.  請求項8に記載の映像投射装置において、
     前記検出素子制御部は、前記投射部が光を投射する方向、及び/又は、前記映像投射装置の設置状態に応じて、前記フレネルレンズと前記焦電型センサとの間の距離を制御する
     ことを特徴とする映像投射装置。
  10.  請求項4に記載の映像投射装置において、
     前記角度可変ミラーから供給された光を受け、特定の平面の方向に前記光の進行方向を拡げて前記人に照射するシリンドリカルレンズ
     を有することを特徴とする映像投射装置。
  11.  請求項10に記載の映像投射装置において、
     前記特定の平面の方向は、前記投射部が投射する光の投射方向である
     ことを特徴とする映像投射装置。
  12.  請求項11に記載の映像投射装置において、
     前記シリンドリカルレンズのレンズ面の曲率は、中央部から端部に向かって増加する
     ことを特徴とする映像投射装置。
  13.  請求項6に記載の映像投射装置において、
     前記検出素子は、前記光源から光を出射した時刻と、前記センサが前記光を検出した時刻との差に基づくTOF方式により距離を測定する
     ことを特徴とする映像投射装置。
  14.  請求項4に記載の映像投射装置において、
     前記投射部は、前記表示部に複数の映像に基づく光を異なる表示領域に投射し、
     前記検出素子は、前記複数の表示領域のいずれかにおいて前記ジェスチャを検出する
     ことを特徴とする映像投射装置。
  15.  請求項1に記載の映像投射装置において、
     前記ジェスチャ検出部は、前記投射部が光を投射する方向、及び/又は、前記映像投射装置の設置状態を検出するための検出器を有する
     ことを特徴とする映像投射装置。
PCT/JP2013/076386 2013-09-27 2013-09-27 映像投射装置 WO2015045125A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2013/076386 WO2015045125A1 (ja) 2013-09-27 2013-09-27 映像投射装置
EP13894422.8A EP3051345B1 (en) 2013-09-27 2013-09-27 Video projection device
US14/892,700 US9942529B2 (en) 2013-09-27 2013-09-27 Image projection device
JP2015538761A JP6134804B2 (ja) 2013-09-27 2013-09-27 映像投射装置
CN201380077050.3A CN105247414B (zh) 2013-09-27 2013-09-27 影像投射装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/076386 WO2015045125A1 (ja) 2013-09-27 2013-09-27 映像投射装置

Publications (1)

Publication Number Publication Date
WO2015045125A1 true WO2015045125A1 (ja) 2015-04-02

Family

ID=52742327

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/076386 WO2015045125A1 (ja) 2013-09-27 2013-09-27 映像投射装置

Country Status (5)

Country Link
US (1) US9942529B2 (ja)
EP (1) EP3051345B1 (ja)
JP (1) JP6134804B2 (ja)
CN (1) CN105247414B (ja)
WO (1) WO2015045125A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199267A1 (ja) * 2015-06-11 2016-12-15 日立マクセル株式会社 光測距装置及びその制御方法、及びそれを用いたジェスチャ検出装置
WO2017060943A1 (ja) * 2015-10-05 2017-04-13 日立マクセル株式会社 光測距装置及び映像投写装置
KR20170131044A (ko) * 2016-05-20 2017-11-29 이탁건 전자기기 및 그 동작 방법
WO2017212601A1 (ja) * 2016-06-09 2017-12-14 日立マクセル株式会社 光測距装置、及びこれを備えた映像投写装置
CN112687213A (zh) * 2020-12-28 2021-04-20 青岛海信激光显示股份有限公司 激光投影设备及其控制方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017146927A (ja) * 2016-02-19 2017-08-24 ソニーモバイルコミュニケーションズ株式会社 制御装置、制御方法及びプログラム
EP3588247B1 (en) * 2017-02-24 2023-07-12 Sony Group Corporation Information processing device, information processing method, and program
JP6712609B2 (ja) * 2018-02-28 2020-06-24 コイト電工株式会社 非接触入力装置
CN108595001A (zh) * 2018-04-20 2018-09-28 丝路视觉科技股份有限公司 投影控制方法、投影操控台及主机
CN109089091B (zh) * 2018-08-01 2020-07-24 联想(北京)有限公司 一种投影设备及其控制方法
US10649539B1 (en) * 2019-03-05 2020-05-12 Motorola Mobility Llc Hand temperature compensation
CN110347007B (zh) * 2019-05-05 2021-06-04 青岛小鸟看看科技有限公司 一种投影灯中激光器的校准方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146374A (ja) * 2006-12-11 2008-06-26 Seiko Epson Corp プロジェクタ
JP2008227883A (ja) * 2007-03-13 2008-09-25 Brother Ind Ltd プロジェクタ
JP2008287142A (ja) * 2007-05-21 2008-11-27 Brother Ind Ltd 画像投影装置
JP2009258569A (ja) * 2008-04-21 2009-11-05 Ricoh Co Ltd 電子機器
JP2010258623A (ja) * 2009-04-22 2010-11-11 Yamaha Corp 操作検出装置
JP2011043834A (ja) 2010-09-21 2011-03-03 Sanyo Electric Co Ltd 投写型映像表示装置
JP2011188008A (ja) * 2010-03-04 2011-09-22 Nec Corp プロジェクタシステム
JP2012032464A (ja) * 2010-07-29 2012-02-16 Funai Electric Co Ltd プロジェクタ
JP2012220419A (ja) * 2011-04-12 2012-11-12 Panasonic Corp 検知装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10242161A1 (de) * 2002-09-10 2004-03-11 Philips Intellectual Property & Standards Gmbh Drahtloses Projektionssystem
US7325933B2 (en) * 2004-08-09 2008-02-05 Sanyo Electric Co., Ltd Projection type video display apparatus
US8018579B1 (en) * 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
US9116037B2 (en) * 2006-10-13 2015-08-25 Fresnel Technologies, Inc. Passive infrared detector
WO2011013240A1 (ja) * 2009-07-31 2011-02-03 Necディスプレイソリューションズ株式会社 投射型表示装置及び光量調整方法
US8947349B1 (en) * 2010-03-02 2015-02-03 Rawles Llc Projecting content onto a display medium
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
US20120154595A1 (en) * 2010-12-17 2012-06-21 Sony Ericsson Mobile Communications Ab Integrated Camera-Projection Device
KR20130001762A (ko) * 2011-06-28 2013-01-07 삼성전자주식회사 영상 생성 장치 및 방법
US9109886B1 (en) * 2012-10-09 2015-08-18 Amazon Technologies, Inc. Time-of-flight of light calibration

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146374A (ja) * 2006-12-11 2008-06-26 Seiko Epson Corp プロジェクタ
JP2008227883A (ja) * 2007-03-13 2008-09-25 Brother Ind Ltd プロジェクタ
JP2008287142A (ja) * 2007-05-21 2008-11-27 Brother Ind Ltd 画像投影装置
JP2009258569A (ja) * 2008-04-21 2009-11-05 Ricoh Co Ltd 電子機器
JP2010258623A (ja) * 2009-04-22 2010-11-11 Yamaha Corp 操作検出装置
JP2011188008A (ja) * 2010-03-04 2011-09-22 Nec Corp プロジェクタシステム
JP2012032464A (ja) * 2010-07-29 2012-02-16 Funai Electric Co Ltd プロジェクタ
JP2011043834A (ja) 2010-09-21 2011-03-03 Sanyo Electric Co Ltd 投写型映像表示装置
JP2012220419A (ja) * 2011-04-12 2012-11-12 Panasonic Corp 検知装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199267A1 (ja) * 2015-06-11 2016-12-15 日立マクセル株式会社 光測距装置及びその制御方法、及びそれを用いたジェスチャ検出装置
WO2017060943A1 (ja) * 2015-10-05 2017-04-13 日立マクセル株式会社 光測距装置及び映像投写装置
KR20170131044A (ko) * 2016-05-20 2017-11-29 이탁건 전자기기 및 그 동작 방법
KR101976605B1 (ko) * 2016-05-20 2019-05-09 이탁건 전자기기 및 그 동작 방법
JP2019522860A (ja) * 2016-05-20 2019-08-15 コアダー カンパニー リミテッド 電子機器及びその動作方法
US11169640B2 (en) 2016-05-20 2021-11-09 Coredar Co., Ltd. Electronic device and operating method therefor
WO2017212601A1 (ja) * 2016-06-09 2017-12-14 日立マクセル株式会社 光測距装置、及びこれを備えた映像投写装置
CN112687213A (zh) * 2020-12-28 2021-04-20 青岛海信激光显示股份有限公司 激光投影设备及其控制方法
CN112687213B (zh) * 2020-12-28 2022-07-26 青岛海信激光显示股份有限公司 激光投影设备及其控制方法

Also Published As

Publication number Publication date
CN105247414B (zh) 2017-07-18
JP6134804B2 (ja) 2017-05-24
EP3051345B1 (en) 2019-12-18
CN105247414A (zh) 2016-01-13
US20160105653A1 (en) 2016-04-14
EP3051345A1 (en) 2016-08-03
US9942529B2 (en) 2018-04-10
EP3051345A4 (en) 2017-08-09
JPWO2015045125A1 (ja) 2017-03-02

Similar Documents

Publication Publication Date Title
JP6134804B2 (ja) 映像投射装置
JP6222830B2 (ja) 画像投射装置
US8690337B2 (en) Device and method for displaying an image on a VUI screen and also a main projection screen
US10194125B2 (en) Projection apparatus
US20160334939A1 (en) Interactive system
JP5974189B2 (ja) 投写型映像表示装置及び投写型映像表示方法
KR20080098374A (ko) 인터랙티브 디스플레이 조명 및 개체 검출 방법과 인터랙티브 디스플레이 시스템
JP2016520891A (ja) 表示システムおよび方法
JP2010244484A (ja) 画像表示装置、画像表示方法および画像表示プログラム
KR20150034016A (ko) 촉감 피드백을 제공하는 곡면 터치 디스플레이 장치 및 그 방법
JPWO2011111201A1 (ja) 画像位置調整装置
US20120218225A1 (en) Optical scanning type touch apparatus and operation method thereof
JP2016006447A (ja) 画像表示装置
WO2017141956A1 (ja) 空間表示装置
US20130003028A1 (en) Floating virtual real image display apparatus
JP6102751B2 (ja) インターフェース装置およびインターフェース装置の駆動方法
JP2018164251A (ja) 画像表示装置およびその制御方法
WO2017212601A1 (ja) 光測距装置、及びこれを備えた映像投写装置
US20120327130A1 (en) Floating virtual plasma display apparatus
JP2014170149A (ja) プロジェクタ
JP6106565B2 (ja) 映像投射装置
JP2014170136A (ja) プロジェクタおよびプロジェクタ機能を有する電子機器
KR20140100105A (ko) 프로젝터 장치 및 그 제어 방법
KR20210070799A (ko) 디스플레이 장치
WO2016056102A1 (ja) 映像投写装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13894422

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015538761

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14892700

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2013894422

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013894422

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE