JP2012108233A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2012108233A
JP2012108233A JP2010255742A JP2010255742A JP2012108233A JP 2012108233 A JP2012108233 A JP 2012108233A JP 2010255742 A JP2010255742 A JP 2010255742A JP 2010255742 A JP2010255742 A JP 2010255742A JP 2012108233 A JP2012108233 A JP 2012108233A
Authority
JP
Japan
Prior art keywords
light
light source
image
projection
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010255742A
Other languages
Japanese (ja)
Inventor
Akinobu Suga
彰信 菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010255742A priority Critical patent/JP2012108233A/en
Publication of JP2012108233A publication Critical patent/JP2012108233A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Projection Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic device allowing a user himself or herself to know a detected touch position.SOLUTION: The electronic device comprises: first light sources 201-203 radiating light of visible wavelength for projection; a light valve 204 modulating radiated light from the first light sources 201-203; a projection optical system 205 projecting an image produced by modulation light from the light valve 204; a second light source 12, differing from the first light sources 201-203, radiating light of visible wavelength approximately in parallel with a projection surface of the projection optical system 205; imaging means 11 acquiring a first image which corresponds to visible wavelength from the second light source 12 and includes a projection area by the projection optical system 205; detecting means 15 detecting changes among images based on the first images which are acquired by the imaging means 11 at predetermined intervals; and instructing means 15 instructing a predetermined process based on the detected position in the first image.

Description

本発明は、電子機器に関する。   The present invention relates to an electronic device.

プロジェクタで画像を投影し、投影画像を指などでタッチした位置を検出する技術が知られている(特許文献1参照)。   A technique is known in which an image is projected by a projector and a position where the projected image is touched with a finger or the like is detected (see Patent Document 1).

特開2009−258569号公報JP 2009-2558569 A

従来技術では、タッチ位置の検出光として非可視光を用いるので、ユーザーの指が検出光に触れてもユーザー自身にはわからないという問題があった。   In the prior art, since invisible light is used as the detection light for the touch position, there is a problem that even if the user's finger touches the detection light, the user himself / herself does not know.

本発明による電子機器は、投射用可視波長の光を発する第1光源と、第1光源からの照明光を変調するライトバルブと、ライトバルブからの変調光による像を投射する投射光学系と、第1光源と異なり、可視波長の光を投射光学系による投射面と略平行に発する第2光源と、第2光源による可視波長に対応する画像であって、投射光学系による投射領域を含む第1画像を取得する撮像手段と、撮像手段が所定間隔で取得する第1画像に基づいて画像間の変化を検出する検出手段と、第1画像における検出位置に基づいて所定の処理を指示する指示手段と、を備えることを特徴とする。   An electronic apparatus according to the present invention includes a first light source that emits light having a visible wavelength for projection, a light valve that modulates illumination light from the first light source, a projection optical system that projects an image of the modulated light from the light valve, Unlike the first light source, the second light source emits light having a visible wavelength substantially parallel to the projection surface by the projection optical system, and an image corresponding to the visible wavelength by the second light source, including a projection region by the projection optical system. An imaging unit that acquires one image, a detection unit that detects a change between images based on a first image that the imaging unit acquires at predetermined intervals, and an instruction that instructs a predetermined process based on a detection position in the first image And means.

本発明による電子機器では、検出されるタッチ位置がユーザ自身にも判るようにタッチ位置の検出が行える。   In the electronic device according to the present invention, the touch position can be detected so that the detected touch position can be recognized by the user.

本発明の一実施の形態によるプロジェクタの光学系の要部構成図である。It is a principal part block diagram of the optical system of the projector by one embodiment of this invention. プロジェクタの光学系(投射期間の状態)を詳細に説明する図である。It is a figure explaining the optical system (state of a projection period) of a projector in detail. 検出期間の状態を例示する図である。It is a figure which illustrates the state of a detection period. レーザー光源および発光ユニットの発光タイミングを説明する図である。It is a figure explaining the light emission timing of a laser light source and a light emission unit. 制御部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a control part performs. 変形例5におけるレーザー光源および発光ユニットの発光タイミングを説明する図である。It is a figure explaining the light emission timing of the laser light source in the modification 5, and the light emission unit. 変形例6おけるプロジェクタの光学系(投射期間の状態)の要部構成図である。It is a principal part block diagram of the optical system (state of a projection period) of the projector in the modification 6. 検出期間の状態を例示する図である。It is a figure which illustrates the state of a detection period.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態によるプロジェクタ1の光学系の要部構成図である。本実施形態では、プロジェクタ1が設置面を投射する。図1において、プロジェクタ1は、投射ユニット20と、制御部15と、可視カメラ11と、投光ユニット12と、反射ミラー30とを有する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram of a main part of an optical system of a projector 1 according to an embodiment of the present invention. In the present embodiment, the projector 1 projects the installation surface. In FIG. 1, the projector 1 includes a projection unit 20, a control unit 15, a visible camera 11, a light projecting unit 12, and a reflection mirror 30.

図2は、プロジェクタ1の光学系を詳細に説明する図である。図2において、投射ユニット20は、レーザー光源201、202、203と、反射型表示素子204と、投射光学系205とを含む。レーザー光源は、たとえば、赤色光を発する半導体レーザー(以下LD201と呼ぶ)と、緑色光を発するLD202と、青色光を発するLD203とを有し、3原色光源を構成する。レーザー光源201、202、203は、各色が時分割で発光することにより、反射型表示素子204を色順次に照明する。   FIG. 2 is a diagram for explaining the optical system of the projector 1 in detail. In FIG. 2, the projection unit 20 includes laser light sources 201, 202, 203, a reflective display element 204, and a projection optical system 205. The laser light source includes, for example, a semiconductor laser that emits red light (hereinafter referred to as LD 201), an LD 202 that emits green light, and an LD 203 that emits blue light, and constitutes a three-primary-color light source. The laser light sources 201, 202, and 203 illuminate the reflective display element 204 in color sequence by emitting each color in a time division manner.

反射型表示素子204は、たとえば、DMD(Digital Micromirror Device)によって構成される。DMDは、画素に対応する可動微小鏡面(マイクロミラー)を二次元に配列したものである。マイクロミラーに設けられる電極を駆動することにより、照明光を投射光学系へ向けて反射する状態と、照明光を内部の吸収体へ向けて反射する状態とを切替える。各マイクロミラーを個別に駆動することにより、表示画素ごとに照明光の反射を制御する。   The reflective display element 204 is configured by, for example, a DMD (Digital Micromirror Device). The DMD is a two-dimensional array of movable micromirror surfaces (micromirrors) corresponding to pixels. By driving an electrode provided on the micromirror, a state in which the illumination light is reflected toward the projection optical system and a state in which the illumination light is reflected toward the internal absorber are switched. By driving each micromirror individually, the reflection of illumination light is controlled for each display pixel.

一般に、DMDは照明光を外部へ反射する状態と、照明光を内部へ吸収する状態との2値制御であるが、これら2値状態を高速で切替え、反射状態と吸収状態との時間比率を制御するパルス幅変調(PWM)によって濃淡を表現する。上述したレーザー光源201、202、203によって色順次で照明することにより、1個の反射型表示素子204を用いてフルカラー像の投射を行う。投射光学系205を介して投射ユニット20から射出された投射光束は、反射ミラー30(図1)によって折り曲げられる。これにより、設置面(スクリーン)の投射領域上にフルカラー像が投射される。   In general, DMD is a binary control of a state in which illumination light is reflected to the outside and a state in which illumination light is absorbed to the inside. However, these binary states are switched at high speed, and the time ratio between the reflection state and the absorption state is changed. The shade is expressed by the pulse width modulation (PWM) to be controlled. By illuminating the laser light sources 201, 202, and 203 in color order, a full color image is projected using one reflective display element 204. The projection light beam emitted from the projection unit 20 via the projection optical system 205 is bent by the reflection mirror 30 (FIG. 1). Thereby, a full color image is projected on the projection area | region of a installation surface (screen).

投射ユニット20が投射する画像信号は、外部機器からプロジェクタ1の制御部15へ供給される。制御部15は、外部機器からの画像信号に基づいて反射型表示素子204を駆動するとともにレーザー光源201、202、203を発光させることにより、投射ユニット20に対する投射制御を行う。   The image signal projected by the projection unit 20 is supplied from the external device to the control unit 15 of the projector 1. The control unit 15 controls the projection unit 20 by driving the reflective display element 204 based on an image signal from an external device and causing the laser light sources 201, 202, and 203 to emit light.

本実施形態は、プロジェクタ1が投射したフルカラー像を指などでタッチする場合のタッチ位置検出に特徴を有するので、以降の説明はタッチ位置検出を中心に行う。   Since the present embodiment has a feature in touch position detection when a full color image projected by the projector 1 is touched with a finger or the like, the following description will be focused on touch position detection.

制御部15は、上記投射制御に加えて、可視カメラ11、および投光ユニット12に対する駆動制御を行う。可視カメラ11は、投射ユニット20による投射領域、すなわち投射されたフルカラー像を撮影する。制御部15は、可視カメラ11が撮影した画像を投射画像の画像信号として取得し、該画像に台形歪みが生じている場合には、台形歪みを解消するように上記反射型表示素子に表示させる画像を補正する。これにより、投射ユニット20から投射される画像に対して台形歪み補正が施される。また、制御部15は、可視カメラ11が撮影した画像を上記投射画像の画像信号として取得し、該画像の色補正が必要な場合には、過不足となる色成分の濃淡を個別に調節することにより、投射像の色補正を行う。たとえば、プロジェクタ1を机上に載置する場合には、机の色に起因して色補正が必要な場合がある。   The control unit 15 performs drive control on the visible camera 11 and the light projecting unit 12 in addition to the projection control. The visible camera 11 captures a projection area by the projection unit 20, that is, a projected full color image. The control unit 15 acquires an image captured by the visible camera 11 as an image signal of the projection image, and when the trapezoidal distortion occurs in the image, displays it on the reflective display element so as to eliminate the trapezoidal distortion. Correct the image. Thereby, trapezoidal distortion correction is performed on the image projected from the projection unit 20. In addition, the control unit 15 acquires an image captured by the visible camera 11 as an image signal of the projection image, and individually adjusts the density of the color component that is excessive or insufficient when color correction of the image is necessary. Thus, color correction of the projected image is performed. For example, when the projector 1 is placed on a desk, color correction may be necessary due to the color of the desk.

投光ユニット12は、可視光(たとえば赤色光)を発するLEDによって構成される。投光ユニット12は、制御部15からの指示に応じて設置面に平行な光束を発する。投光ユニット12からの赤色光は設置面を照射しないので、赤色光は投射ユニット20による投射像に影響を与えない。   The light projecting unit 12 is configured by an LED that emits visible light (for example, red light). The light projecting unit 12 emits a light beam parallel to the installation surface in response to an instruction from the control unit 15. Since the red light from the light projecting unit 12 does not irradiate the installation surface, the red light does not affect the projection image by the projection unit 20.

投光ユニット12は、上述したレーザー光源を構成するLD201、LD202、およびLD203の発光タイミングとタイミングをずらして発光する。図4は、LD201、LD202、LD203、および発光ユニット12のLEDの発光タイミングを説明する図である。図4において、横軸は時間を表し、縦軸は各光源のオン/オフ状態を表す。各光源は、オン状態で発光し、オフ状態で消灯する。図4によれば、投射する画像1フレームにつき青色のLD203、緑色のLD202、赤色のLD201が色順次に発光する(投射期間と呼ぶ)。そして、次フレームの投射のために青色のLD203を発光させる前に、投光ユニット12を発光させる(検出期間と呼ぶ)。   The light projecting unit 12 emits light by shifting the light emission timing of the LD 201, LD 202, and LD 203 constituting the laser light source described above. FIG. 4 is a diagram illustrating the light emission timing of the LEDs of the LD 201, LD 202, LD 203, and the light emitting unit 12. In FIG. 4, the horizontal axis represents time, and the vertical axis represents the on / off state of each light source. Each light source emits light in the on state and turns off in the off state. According to FIG. 4, the blue LD 203, the green LD 202, and the red LD 201 emit light sequentially in color for each frame of the image to be projected (referred to as a projection period). Then, before the blue LD 203 emits light for projection of the next frame, the light projecting unit 12 emits light (referred to as a detection period).

つまり、投射期間の中で青色のLD203、緑色のLD202、および赤色のLD201が所定時間(たとえば8msec)ずつ時分割発光する。そして、投射期間と投射期間とに挟まれた検出期間に、投光ユニット12の可視光LEDが所定時間(たとえば8msec)発光する。図1は、投射期間の状態を例示する図であり、図3は、検出期間の状態を例示する。ユーザーがフルカラー像によって示された所定の領域を指などでタッチする場合、図1の投射期間と図3の検出期間は交互に繰り返されているので、指先が投光ユニット12からの光束を遮り、可視光(本例では赤色光)が指先で拡散反射する。可視光の反射光の一部は、可視カメラ11へ向かって進行する。   That is, during the projection period, the blue LD 203, the green LD 202, and the red LD 201 emit light in a time-sharing manner for each predetermined time (for example, 8 msec). And in the detection period sandwiched between the projection period and the projection period, the visible light LED of the light projecting unit 12 emits light for a predetermined time (for example, 8 msec). FIG. 1 is a diagram illustrating the state of the projection period, and FIG. 3 illustrates the state of the detection period. When the user touches a predetermined area indicated by a full-color image with a finger or the like, the projection period of FIG. 1 and the detection period of FIG. 3 are alternately repeated, so that the fingertip blocks the light beam from the light projecting unit 12. Visible light (red light in this example) is diffusely reflected by the fingertip. Part of the reflected light of the visible light travels toward the visible camera 11.

図3に例示する検出期間において可視カメラ11に撮影を行わせることにより、指で反射した可視光(赤色光)を含む検出用画像を取得できる。制御部15は、可視カメラ11が撮影した画像を検出画像の画像信号として取得し、取得画像のうち赤色光が反射している位置座標(画面内において輝度が最も高い画素位置)を検出し、検出位置に基づいて所定の処理を行う。   By causing the visible camera 11 to perform imaging in the detection period illustrated in FIG. 3, it is possible to acquire a detection image including visible light (red light) reflected by the finger. The control unit 15 acquires an image captured by the visible camera 11 as an image signal of the detection image, detects a position coordinate (a pixel position having the highest luminance in the screen) where the red light is reflected in the acquired image, Predetermined processing is performed based on the detection position.

所定の処理の例として、たとえば、検出位置が撮影画面の左側領域に含まれる場合に投射ユニット20が投射する画像を1コマ前に戻す。反対に、検出位置が撮影画面の右側領域に含まれる場合には投射ユニット20が投射する画像を1コマ進める。   As an example of the predetermined process, for example, when the detection position is included in the left area of the shooting screen, the image projected by the projection unit 20 is returned to the previous frame. On the contrary, when the detection position is included in the right area of the shooting screen, the image projected by the projection unit 20 is advanced by one frame.

図5は、上記制御部15が実行する処理の流れを説明するフローチャートである。制御部15は、プロジェクタ1の電源オン操作が行われると図5に例示する処理を起動する。本実施形態では、起動後に初期チェック(第1撮像モードと呼ぶ)を行い、初期チェックが終了すると通常動作(第2撮像モードと呼ぶ)へ移行する。   FIG. 5 is a flowchart for explaining the flow of processing executed by the control unit 15. When the power on operation of the projector 1 is performed, the control unit 15 activates the process illustrated in FIG. In this embodiment, an initial check (referred to as a first imaging mode) is performed after startup, and when the initial check is completed, a transition is made to a normal operation (referred to as a second imaging mode).

第1撮像モードでは、上記投射期間に可視カメラ11が投射画像を撮影し、上記検出期間において可視カメラ11による撮影を省略する。これに対し、第2撮像モードでは、上記投射期間に可視カメラ11による撮影を省略し、上記検出期間において可視カメラ11が検出用画像を撮影する。   In the first imaging mode, the visible camera 11 captures a projection image during the projection period, and imaging by the visible camera 11 is omitted during the detection period. In contrast, in the second imaging mode, shooting by the visible camera 11 is omitted during the projection period, and the visible camera 11 captures a detection image during the detection period.

図5のステップS1において、制御部15は、投射ユニット20へ指示およびデータを送り、反射型表示素子に初期画像を表示させてステップS2へ進む。これにより、設置面である投射領域上に初期画像が投射される。初期画像は、たとえば、歪みチェックおよびホワイトバランスチェック用の公知のチェックパターンを用いる。   In step S1 of FIG. 5, the control unit 15 sends an instruction and data to the projection unit 20, displays an initial image on the reflective display element, and proceeds to step S2. Thereby, an initial image is projected on the projection area which is an installation surface. For example, a known check pattern for distortion check and white balance check is used as the initial image.

ステップS2において、制御部15は投射状態を取得する。具体的には、可視カメラ11へ指示を送り、投射ユニット20が投射する初期画像を上記投射期間に撮影させてステップS3へ進む。ステップS3において、制御部15は画像判定を行う。具体的には、可視カメラ11が撮影したチェックパターン画像を取得して歪みチェックを行うとともに、上記チェックパターン画像に基づいてホワイトバランスチェックを行う。制御部15は、チェックの結果を良判定した場合はステップS3を肯定判定してステップS4へ進む。制御部15は、チェックの結果を否判定した場合はステップS3を否定判定してステップS2へ戻る。ステップS2へ戻る場合は、上述した台形歪み補正および色補正(ホワイトバランス補正)を行ってから、再度初期画像を撮影させる。   In step S2, the control unit 15 acquires the projection state. Specifically, an instruction is sent to the visible camera 11, the initial image projected by the projection unit 20 is photographed during the projection period, and the process proceeds to step S3. In step S3, the control unit 15 performs image determination. Specifically, a check pattern image captured by the visible camera 11 is acquired to perform a distortion check, and a white balance check is performed based on the check pattern image. If the result of the check is good, the control unit 15 makes a positive determination in step S3 and proceeds to step S4. If the result of the check is negative, the control unit 15 makes a negative determination in step S3 and returns to step S2. When returning to step S2, after performing the above-mentioned trapezoidal distortion correction and color correction (white balance correction), the initial image is taken again.

なお、制御部15は、設置面である投射領域上に障害物が存在することに起因して可視カメラ11から取得した画像がチェックパターン画像と認識できない場合も、ステップS3を否定判定する。   Note that the control unit 15 also makes a negative determination in step S3 when the image acquired from the visible camera 11 cannot be recognized as a check pattern image due to the presence of an obstacle on the projection area that is the installation surface.

ステップS4において、制御部15は、第1撮像モードから第2撮像モードへ切替えてステップS5へ進む。具体的には、以降の投射期間における可視カメラ11の撮影を停止させ、以降の検出期間において可視カメラ11の撮影を開始させる。これにより、プロジェクタ1は通常動作へ移行する。   In step S4, the control unit 15 switches from the first imaging mode to the second imaging mode, and proceeds to step S5. Specifically, shooting of the visible camera 11 in the subsequent projection period is stopped, and shooting of the visible camera 11 is started in the subsequent detection period. Thereby, the projector 1 shifts to the normal operation.

通常動作では、投射ユニット20から画像を投射しながら、上記投射期間と投射期間とに挟まれた検出期間に投光ユニット12から可視光を発し、該検出期間において可視カメラ11で画像を取得する動作を繰り返す。本実施形態の制御部25は、投光ユニット12が発する色(赤色)の画像のフレーム間の変化の有無をチェックし、変化を検出した場合には上述したように取得画像に基づいてタッチ位置を検出する。   In normal operation, while projecting an image from the projection unit 20, visible light is emitted from the light projecting unit 12 during a detection period sandwiched between the projection period and the projection period, and an image is acquired by the visible camera 11 during the detection period. Repeat the operation. The control unit 25 according to the present embodiment checks whether there is a change between frames of the color (red) image emitted by the light projecting unit 12, and if a change is detected, the touch position is based on the acquired image as described above. Is detected.

ステップS5において、制御部15は投光ユニット12へ指示を送り、可視光(本例では赤色光)を発光させる。制御部15はさらに、投射ユニット20へ指示を送り、外部機器からプロジェクタ1へ供給される所定の画像を投射させる。なお、制御部15内の不揮発性メモリに記憶した画像を投射させてもよい。   In step S5, the control unit 15 sends an instruction to the light projecting unit 12 to emit visible light (red light in this example). The control unit 15 further sends an instruction to the projection unit 20 to project a predetermined image supplied from the external device to the projector 1. Note that an image stored in a nonvolatile memory in the control unit 15 may be projected.

制御部15は、ユーザーが投射領域を指などでタッチした場合、上述したように、タッチ位置に基づいて所定の処理を行う。投射領域がタッチされない場合は、所定画像の投射を継続する。   When the user touches the projection area with a finger or the like, the control unit 15 performs a predetermined process based on the touch position as described above. When the projection area is not touched, the projection of the predetermined image is continued.

ステップS6において、制御部15は、画像投射停止操作が行われるとステップS7へ進む。ステップS7において、制御部15は投射ユニット20へ指示を送り、画像の投射を終了させて図5による処理を終了する。   In step S6, when the image projection stop operation is performed, the control unit 15 proceeds to step S7. In step S7, the control unit 15 sends an instruction to the projection unit 20, ends the image projection, and ends the process shown in FIG.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)プロジェクタ1は、赤色、緑色、および青色の光を発するレーザー光源201、202、203と、レーザー光源201、202、203からの照明光を変調する反射型表示素子204と、反射型表示素子204からの変調光による像を投射する投射光学系205と、レーザー光源201、202、203と異なり、可視波長の光を投射光学系205による投射面と略平行に発する投光ユニット12と、投光ユニット12による可視波長に対応する画像であって、投射光学系205による投射領域を含む検出用画像を取得する可視カメラ11と、可視カメラ11が所定間隔で取得する検出用画像に基づいて画像間の変化を検出する制御部15と、検出用画像における検出位置に基づいて所定の処理を指示する制御部15と、を備えるようにしたので、検出されるタッチ位置がユーザ自身にも判るようにタッチ位置の検出が行える。
According to the embodiment described above, the following operational effects can be obtained.
(1) The projector 1 includes laser light sources 201, 202, and 203 that emit red, green, and blue light, a reflective display element 204 that modulates illumination light from the laser light sources 201, 202, and 203, and a reflective display. Unlike the projection optical system 205 that projects an image of modulated light from the element 204 and the laser light sources 201, 202, and 203, the light projecting unit 12 that emits light having a visible wavelength substantially parallel to the projection surface of the projection optical system 205; Based on an image corresponding to a visible wavelength by the light projecting unit 12 and acquiring a detection image including a projection area by the projection optical system 205, and a detection image acquired by the visible camera 11 at a predetermined interval. A control unit 15 that detects a change between images, and a control unit 15 that instructs a predetermined process based on a detection position in the detection image; Since the touch position detected can be performed to detect the touch position as can be seen in the user's own.

(2)上記プロジェクタ1において、レーザー光源201、202、203の非発光時に投光ユニット12が発光し、投光ユニット12の非発光時にレーザー光源201、202、203が発光するようにレーザー光源201、202、203および投光ユニット12を制御する制御部15をさらに備えるようにしたので、可視カメラ11として一般のデジタルカメラ用の撮像ユニットを用いることができ、適切に検出用画像を取得することもできる。 (2) In the projector 1, the laser light source 201 emits light when the laser light sources 201, 202, and 203 are not emitting light, and emits light when the light projecting unit 12 is not emitted. 202, 203 and the control unit 15 for controlling the light projecting unit 12 can be further provided, so that an imaging unit for a general digital camera can be used as the visible camera 11, and an image for detection can be appropriately acquired. You can also.

(3)上記(2)において、制御部15は、投光ユニット12が発光している状態で可視カメラ11が検出用画像を取得するようにレーザー光源201、202、203、投光ユニット12および可視カメラ11を制御するようにしたので、適切に検出用画像を取得することもできる。 (3) In the above (2), the control unit 15 causes the laser light sources 201, 202, 203, the light projecting unit 12, and the laser light source 201, 202, 203 so that the visible camera 11 acquires a detection image in a state where the light projecting unit 12 emits light. Since the visible camera 11 is controlled, a detection image can be appropriately acquired.

(4)上記(3)において、制御部15はさらに、レーザー光源201、202、203による可視波長に対応する画像であって、投射光学系205による投射領域を含む投射画像を取得するようにレーザー光源201、202、203、投光ユニット12および可視カメラ11を制御し、取得した投射画像に基づいて投射光学系205から投射される像を補正する制御部15をさらに備えるので、可視カメラ11をタッチ位置検出以外にも、投射像補正のために役立てることができる。 (4) In the above (3), the control unit 15 further performs laser processing so as to acquire an image corresponding to a visible wavelength by the laser light sources 201, 202, and 203 and including a projection area by the projection optical system 205. Since the light source 201, 202, 203, the light projecting unit 12, and the visible camera 11 are further controlled and the control unit 15 that corrects the image projected from the projection optical system 205 based on the acquired projection image is provided, the visible camera 11 is provided. Besides the touch position detection, it can be used for correcting the projected image.

(5)上記(1)〜(4)において、レーザー光源は互いに波長が異なる複数色の光源201、202、203を含み、制御部15は、複数色の光源201、202、203を時分割で発光させるとともに、複数色の光源201、202、203の全てが非発光時に投光ユニット12を発光させるようにしたので、適切に検出用画像を取得することができる。 (5) In the above (1) to (4), the laser light source includes light sources 201, 202, and 203 of different colors having different wavelengths, and the controller 15 time-divides the light sources 201, 202, and 203 of different colors. Since the light emitting unit 12 emits light and all the light sources 201, 202, and 203 of the plurality of colors emit light when no light is emitted, an image for detection can be acquired appropriately.

(6)上記(5)において、レーザー光源は赤色、緑色、および青色の光源を含むので、投射画像としてフルカラー像を得ることができる。 (6) In the above (5), since the laser light source includes red, green, and blue light sources, a full color image can be obtained as a projection image.

(変形例1)
投射ユニット20の光源として、レーザー光源の代わりにLED光源を用いる構成にしてもよい。また、投光ユニット12の可視光源として、LED光源の代わりにLD光源を用いる構成にしてもよい。
(Modification 1)
As a light source of the projection unit 20, an LED light source may be used instead of the laser light source. Further, as the visible light source of the light projecting unit 12, an LD light source may be used instead of the LED light source.

(変形例2)
投射領域のタッチ位置を検出するための投光ユニット12が発する光について、可視光であれば赤色光でなくてもよい。
(Modification 2)
About the light which the light projection unit 12 for detecting the touch position of a projection area | region emits visible light, it may not be red light.

(変形例3)
上記の説明では、投光ユニット12に連続発光させる例を説明したが、連続発光の代わりに点滅発光させるようにしてもよい。たとえば、上述したようにタッチ位置に基づいて投射ユニット20が投射する画像をコマ戻しまたはコマ送りさせる場合に、既に先頭コマを投射中であって前に戻せない場合や、既に最終コマを投射中であって次に送れない場合には、投光ユニット12から発する光を連続光から点滅光に切替える。ユーザーの指先で拡散反射される光が点滅光に変化することで、コマ戻しまたはコマ送り不能であることをユーザーに知らせることができる。なお、投光ユニット12に点滅光を発光させた場合でも、タッチ位置の検出は連続発光の場合と同様に行うことができる。
(Modification 3)
In the above description, the example in which the light projecting unit 12 continuously emits light has been described. However, instead of continuous light emission, blinking light emission may be performed. For example, as described above, when the image projected by the projection unit 20 based on the touch position is moved back or forward, the first frame is already being projected and cannot be returned to the front, or the last frame is already being projected. If the light cannot be sent next time, the light emitted from the light projecting unit 12 is switched from continuous light to blinking light. By changing the light diffusely reflected by the user's fingertip to blinking light, the user can be informed that frame return or frame advance is impossible. Even when the light projecting unit 12 emits flashing light, the touch position can be detected in the same manner as in the case of continuous light emission.

(変形例4)
プロジェクタ1の不図示の電源電池が消耗して残容量が所定値以下になった場合や、投射ユニット20における温度が所定温度を超えた場合に、投光ユニット12を点滅発光させるようにしてもよい。ユーザーの指先で拡散反射される光が点滅光に変化することで、電池残量の低下や機器内の温度上昇をユーザーに知らせることができる。
(Modification 4)
When the power source battery (not shown) of the projector 1 is exhausted and the remaining capacity becomes a predetermined value or less, or when the temperature in the projection unit 20 exceeds the predetermined temperature, the light projecting unit 12 may be caused to flash. Good. By changing the light diffusely reflected by the user's fingertip to blinking light, it is possible to notify the user of a decrease in the remaining battery level or an increase in the temperature in the device.

(変形例5)
投光ユニット12の発光タイミングを図4の場合と異ならせてもよい。上述したレーザー光源を構成するLD201、LD202、およびLD203がいずれも発光しない状態が存在する場合、この間に投光ユニット12を発光させてもよい。図6は、変形例5におけるLD201、LD202、LD203、および発光ユニット12のLEDの発光タイミングを説明する図である。図5において、横軸は時間を表し、縦軸は各光源のオン/オフ状態を表す。各光源は、オン状態で発光し、オフ状態で消灯する。
(Modification 5)
The light emission timing of the light projecting unit 12 may be different from that in FIG. When there is a state where none of the LD 201, LD 202, and LD 203 constituting the laser light source described above emits light, the light projecting unit 12 may emit light during this period. FIG. 6 is a diagram for explaining the light emission timing of the LEDs of the LD 201, LD 202, LD 203, and the light emitting unit 12 in the fifth modification. In FIG. 5, the horizontal axis represents time, and the vertical axis represents the on / off state of each light source. Each light source emits light in the on state and turns off in the off state.

図6によれば、投射する画像1フレームにつき青色のLD203、緑色のLD202、赤色のLD201がいずれも発光しない期間が3回存在する。そこで、この3回のうち少なくとも1回以上、投光ユニット12を発光させる。たとえば、1フレームを約16.67msec(60Hz)とする場合に、青色のLD203、緑色のLD202、および赤色のLD201が第1所定時間(たとえば1.11msec)の間隔を空けて第2所定時間(たとえば4.44msec)ずつ発光する。投光ユニット12は、この第1所定時間の間に可視光を発光する。変形例5では、投光ユニット12が可視光を発する第1所定時間が上記検出期間に相当する。   According to FIG. 6, there are three periods in which none of the blue LD 203, the green LD 202, and the red LD 201 emits light per image frame to be projected. Therefore, the light projecting unit 12 is caused to emit light at least once among these three times. For example, when one frame is set to about 16.67 msec (60 Hz), the blue LD 203, the green LD 202, and the red LD 201 are spaced apart from each other by a first predetermined time (eg, 1.11 msec) for a second predetermined time ( For example, 4.44 msec). The light projecting unit 12 emits visible light during the first predetermined time. In the modification 5, the 1st predetermined time when the light projection unit 12 emits visible light is equivalent to the said detection period.

(変形例6)
可視カメラ11を設置面に対して高い位置へ変更してもよい。図7および図8は、変形例6におけるプロジェクタ1Bの光学系の要部構成図である。図7は、上記投射期間に相当する状態を例示し、図8は、上記検出期間に相当する状態を例示する。
(Modification 6)
The visible camera 11 may be changed to a higher position with respect to the installation surface. 7 and 8 are main part configuration diagrams of the optical system of the projector 1B according to the sixth modification. FIG. 7 illustrates a state corresponding to the projection period, and FIG. 8 illustrates a state corresponding to the detection period.

図7、図8において、図1、図3と共通する部材には同一符号を記す。変形例6では、図1、図3の場合に比べて可視カメラ11が設置面から離れるので、投射領域を撮影する場合の撮影画角を小さく抑えられる。撮影画角が小さければ撮影光学系を小型化できるので、可視カメラ11の小型化、ひいてはプロジェクタ1Bの小型化につながる。   7 and 8, the same reference numerals are used for members common to those in FIGS. In the modified example 6, since the visible camera 11 is farther from the installation surface than in the case of FIGS. 1 and 3, the shooting angle of view when shooting the projection area can be kept small. If the photographic angle of view is small, the photographic optical system can be miniaturized, leading to miniaturization of the visible camera 11 and consequently miniaturization of the projector 1B.

プロジェクタ1を例に説明したが、カメラや携帯電話機、フォトフレームなどの電子機器にも本発明を適用できる。   Although the projector 1 has been described as an example, the present invention can also be applied to electronic devices such as a camera, a mobile phone, and a photo frame.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

1、1B…プロジェクタ
11…可視カメラ
12…投光ユニット
15…制御部
20…投射ユニット
30…反射ミラー
201、202、203…レーザー光源
204…反射型表示素子
205…投射光学系
DESCRIPTION OF SYMBOLS 1, 1B ... Projector 11 ... Visible camera 12 ... Projection unit 15 ... Control part 20 ... Projection unit 30 ... Reflection mirror 201, 202, 203 ... Laser light source 204 ... Reflective display element 205 ... Projection optical system

Claims (7)

投射用可視波長の光を発する第1光源と、
前記第1光源からの照明光を変調するライトバルブと、
前記ライトバルブからの変調光による像を投射する投射光学系と、
前記第1光源と異なり、可視波長の光を前記投射光学系による投射面と略平行に発する第2光源と、
前記第2光源による可視波長に対応する画像であって、前記投射光学系による投射領域を含む第1画像を取得する撮像手段と、
前記撮像手段が所定間隔で取得する前記第1画像に基づいて画像間の変化を検出する検出手段と、
前記第1画像における前記検出位置に基づいて所定の処理を指示する指示手段と、
を備えることを特徴とする電子機器。
A first light source that emits light of a visible wavelength for projection;
A light valve that modulates illumination light from the first light source;
A projection optical system for projecting an image of modulated light from the light valve;
Unlike the first light source, a second light source that emits light having a visible wavelength substantially parallel to a projection surface by the projection optical system;
An imaging unit that acquires an image corresponding to a visible wavelength by the second light source and includes a projection region by the projection optical system;
Detecting means for detecting a change between images based on the first image acquired by the imaging means at predetermined intervals;
Instruction means for instructing predetermined processing based on the detection position in the first image;
An electronic device comprising:
請求項1に記載の電子機器において、
前記第1光源の非発光時に前記第2光源が発光し、前記第2光源の非発光時に前記第1光源が発光するように前記第1光源および前記第2光源を制御する制御手段をさらに備えることを特徴とする電子機器。
The electronic device according to claim 1,
Control means for controlling the first light source and the second light source so that the second light source emits light when the first light source does not emit light and the first light source emits light when the second light source does not emit light. An electronic device characterized by that.
請求項2に記載の電子機器において、
前記制御手段は、前記第2光源が発光している状態で前記撮像手段が前記第1画像を取得するように前記第1光源、前記第2光源および前記撮像手段を制御することを特徴とする電子機器。
The electronic device according to claim 2,
The control unit controls the first light source, the second light source, and the imaging unit so that the imaging unit acquires the first image in a state where the second light source emits light. Electronics.
請求項3に記載の電子機器において、
前記制御手段はさらに、前記第1光源による可視波長に対応する画像であって、前記投射光学系による投射領域を含む第2画像を取得するように前記第1光源、前記第2光源および前記撮像手段を制御し、
前記第2画像に基づいて前記投射光学系から投射される像を補正する補正手段をさらに備えることを特徴とする電子機器。
The electronic device according to claim 3,
The control means further includes the first light source, the second light source, and the imaging so as to obtain an image corresponding to a visible wavelength by the first light source and including a projection region by the projection optical system. Control means,
An electronic apparatus, further comprising a correcting unit that corrects an image projected from the projection optical system based on the second image.
請求項1〜4のいずれか一項に記載の電子機器において、
前記第1光源は、互いに波長が異なる複数色の光源を含み、
前記制御手段は、前記複数色の光源を時分割で発光させるとともに、前記複数色の光源の全てが非発光時に前記第2光源を発光させることを特徴とする電子機器。
In the electronic device as described in any one of Claims 1-4,
The first light source includes a plurality of color light sources having different wavelengths.
The control device causes the light sources of the plurality of colors to emit light in a time-sharing manner, and causes the second light source to emit light when all of the light sources of the plurality of colors do not emit light.
請求項5に記載の電子機器において、
前記第1光源は、赤色、緑色、および青色の光源を含むことを特徴とする電子機器。
The electronic device according to claim 5,
The electronic device according to claim 1, wherein the first light source includes red, green, and blue light sources.
請求項2〜6に記載の電子機器において、
前記制御手段はさらに、電池残量および機器内の温度の少なくとも一方に応じて前記第2光源の発光態様を異ならせることを特徴とする電子機器。
The electronic device according to claim 2,
The electronic device is characterized in that the control means further varies the light emission mode of the second light source according to at least one of a remaining battery level and a temperature in the device.
JP2010255742A 2010-11-16 2010-11-16 Electronic device Pending JP2012108233A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010255742A JP2012108233A (en) 2010-11-16 2010-11-16 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010255742A JP2012108233A (en) 2010-11-16 2010-11-16 Electronic device

Publications (1)

Publication Number Publication Date
JP2012108233A true JP2012108233A (en) 2012-06-07

Family

ID=46493937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010255742A Pending JP2012108233A (en) 2010-11-16 2010-11-16 Electronic device

Country Status (1)

Country Link
JP (1) JP2012108233A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014119937A (en) * 2012-12-17 2014-06-30 Funai Electric Co Ltd Input device and image display device
EP2759916A2 (en) 2013-01-28 2014-07-30 Funai Electric Co., Ltd. Projector
EP2790404A2 (en) 2013-04-12 2014-10-15 Funai Electric Co., Ltd. Electronic device
EP2829955A2 (en) 2013-07-25 2015-01-28 Funai Electric Co., Ltd. Electronic device
JP5877914B1 (en) * 2015-02-14 2016-03-08 真人 田村 Mobile phone device with projector

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014119937A (en) * 2012-12-17 2014-06-30 Funai Electric Co Ltd Input device and image display device
EP2759916A2 (en) 2013-01-28 2014-07-30 Funai Electric Co., Ltd. Projector
US9335158B2 (en) 2013-01-28 2016-05-10 Funai Electric Co., Ltd. Projector and projector system
EP2790404A2 (en) 2013-04-12 2014-10-15 Funai Electric Co., Ltd. Electronic device
US9372074B2 (en) 2013-04-12 2016-06-21 Funai Electric Co., Ltd. Electronic device
US9581435B2 (en) 2013-04-12 2017-02-28 Funai Electric Co., Ltd. Electronic device
EP2829955A2 (en) 2013-07-25 2015-01-28 Funai Electric Co., Ltd. Electronic device
EP2829955A3 (en) * 2013-07-25 2015-02-25 Funai Electric Co., Ltd. Electronic device
JP5877914B1 (en) * 2015-02-14 2016-03-08 真人 田村 Mobile phone device with projector

Similar Documents

Publication Publication Date Title
US8665179B2 (en) Projection apparatus, projection method, and storage medium having program stored thereon
US7503659B2 (en) Multiple location illumination system and projection display system employing same
JP5834690B2 (en) Projection apparatus, projection control method, and program
WO2013136789A1 (en) Projector and control method for the projector
US10404956B2 (en) Head-up display emitting light of different colors from a plurality of light sources, and light source control method thereof
JP2015158887A (en) Position detection system, and control method of position detection system
JP2007052218A (en) Projector having imaging function
JP2012108233A (en) Electronic device
US20150131257A1 (en) Strobe device and imaging device equipped with srobe device
WO2006088039A1 (en) Illumination device for imaging and camera
JP6562124B2 (en) Position detection system and method for controlling position detection system
JP5644618B2 (en) projector
JP2008083538A (en) Projector
CN109557757B (en) Projection device and projection method
JP2006330177A (en) Display device and projector
JP2012108232A (en) Electronic device
JP2016057363A (en) Projection device
WO2016147236A1 (en) Illumination device
JP5125561B2 (en) Projection apparatus and projection control method
JP2013148620A (en) Display device
JP2008233487A (en) Light source controller
JP2005331705A (en) Projector including semiconductor light-emitting element in light source
EP3509056A1 (en) Projection-type display device
JP2019168545A (en) Projection controller, projector, projection control method, and program
JP2014126640A (en) Light source control device for vehicle, and image projection device for vehicle