JP2011043876A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2011043876A
JP2011043876A JP2009189855A JP2009189855A JP2011043876A JP 2011043876 A JP2011043876 A JP 2011043876A JP 2009189855 A JP2009189855 A JP 2009189855A JP 2009189855 A JP2009189855 A JP 2009189855A JP 2011043876 A JP2011043876 A JP 2011043876A
Authority
JP
Japan
Prior art keywords
image
light
projection
light spot
projection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009189855A
Other languages
Japanese (ja)
Inventor
Noriyuki Fujimura
憲之 藤村
Yukihiko Sato
幸彦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009189855A priority Critical patent/JP2011043876A/en
Publication of JP2011043876A publication Critical patent/JP2011043876A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display device allowing a user to operate a projection image by a simple operation method. <P>SOLUTION: The image display device includes: a projection means 20 for projecting an image to a projection object region 999; an image pickup means 30 for picking up the image of the projection object region 999, and for generating pickup image data; an infrared emission device 150 mounted on the finger of the user; a light spot information generation means for specifying the position of a light spot 950 emitted by the infrared emission device 150 on the projection object region 999 from the pickup image data, and for generating light spot position information; and an image operation means for analyzing the movement of the hand of the user on the projection object region 999 based on the light spot position information, and for moving an image 501 projected to the projection object region 999. Thus, it is possible for the user to operate the image 501 projected to the projection object region 999 by a simple operation to move the finger on which the infrared emission device 150 has been mounted on the projection object region 999. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ユーザが被投影領域に投影された画像を簡単に操作することができる画像表示装置に関する。   The present invention relates to an image display device that allows a user to easily operate an image projected on a projection area.

近年、打ち合わせの場において、プロジェクター等の画像表示装置で資料を大きく表示し、打ち合わせをすることが増えてきている。もし、打ち合わせの出席者が簡単な操作方法で前記投影画像を操作することができれば、打ち合わせはスムーズに進行する。   In recent years, in meetings, it has been increasing that materials are displayed large on an image display device such as a projector. If the attendee of the meeting can operate the projection image with a simple operation method, the meeting proceeds smoothly.

一方で、特許文献1に示されるように、被投影領域に投影された画像に、ユーザが光線銃から発光される光線を照射し、光線の被投影領域上の位置を認識して、ゲームの進行に反映させる仮想空間生成装置が提案されている。ところが、このような仮想空間生成装置は、ユーザが交線銃を握ってトリガーを引く等の操作をする必要があり、この技術を画像表示装置に適用することは、ユーザに煩雑な操作を強いることになる。   On the other hand, as shown in Patent Document 1, a user irradiates a light beam emitted from a light gun to an image projected on a projection area, recognizes the position of the light beam on the projection area, and A virtual space generation device that reflects the progress has been proposed. However, such a virtual space generation device requires a user to perform an operation such as holding a crossing gun and pulling a trigger, and applying this technique to an image display device imposes a complicated operation on the user. It will be.

特開2000−172445号公報JP 2000-172445 A

本発明は、上記問題を解決し、簡単な操作方法で、投影画像を操作することができる画像表示装置を提供することを目的とする。   An object of the present invention is to provide an image display apparatus that can solve the above-described problems and can operate a projection image with a simple operation method.

上記課題を解決するためになされた請求項1に記載の発明は、被投影領域に画像を投影する投影手段と、
前記被投影領域を撮像し、撮像画像データを生成する撮像手段と、
ユーザの手に装着される発光手段と、
前記撮像画像データから、前記発光手段により発光された光の前記被投影領域上の位置を特定し、光点位置情報を生成する光点情報生成手段と、
前記光点情報生成手段が生成した光点位置情報が記憶される記憶手段と、
前記記憶手段に記憶された光点位置情報に基づいて、被投影領域上のユーザの手の動きを解析し、被投影領域に投影された画像を操作する画像操作コマンドを生成する画像操作手段と、
を有することを特徴とする。
The invention according to claim 1, which has been made to solve the above-described problem, includes a projecting unit that projects an image on a projection area,
Imaging means for imaging the projection area and generating captured image data;
Light-emitting means worn on the user's hand;
A light spot information generating means for specifying a position on the projection area of the light emitted by the light emitting means from the captured image data, and generating light spot position information;
Storage means for storing light spot position information generated by the light spot information generating means;
Image operation means for analyzing the movement of the user's hand on the projection area based on the light spot position information stored in the storage means and generating an image operation command for operating the image projected on the projection area; ,
It is characterized by having.

請求項2に記載の発明は、請求項1に記載の発明において、撮像画像データから検出される光の強度が所定値以上である場合に、画像操作コマンドが生成されることを特徴とする。   The invention according to claim 2 is characterized in that, in the invention according to claim 1, an image operation command is generated when the intensity of light detected from the captured image data is equal to or greater than a predetermined value.

請求項3に記載の発明は、請求項2に記載の発明において、投影手段が投影する画像の領域内にあり、且つ、前記光の強度が所定値以上の場合に、
画像操作手段は、前記光の位置の移動に応じて画像の様態を変化させる画像操作コマンドを生成することを特徴とする。
Invention of Claim 3 exists in the area | region of the image which a projection means projects in invention of Claim 2, and when the intensity | strength of the said light is more than predetermined value,
The image operation means generates an image operation command for changing an image state according to the movement of the position of the light.

請求項4に記載の発明は、請求項3に記載の発明において、撮像画像データから検出される光の位置が、投影手段が投影する画像の領域内にあり、且つ、前記光の強度が所定値以上の場合に、
画像操作手段は、前記光の位置の移動に伴って画像を移動させる画像操作コマンドを生成することを特徴とする。
According to a fourth aspect of the present invention, in the third aspect of the present invention, the position of the light detected from the captured image data is within the area of the image projected by the projection means, and the intensity of the light is predetermined. If the value is greater than or equal to
The image operation means generates an image operation command for moving an image with the movement of the position of the light.

請求項5に記載の発明は、請求項1〜請求項4に記載の発明において、発光手段は、被投影領域に対して光を照射するように設けられ、
撮像手段は、前記発光手段により発光された光が被投影領域で反射した反射光を撮像し、
光点情報生成手段は、前記撮像手段が撮像した前記反射光を光点として認識して、光点位置情報を生成することを特徴とする。
The invention according to claim 5 is the invention according to claims 1 to 4, wherein the light emitting means is provided so as to irradiate the projection area with light,
The imaging means images reflected light reflected by the projection area by the light emitted by the light emitting means,
The light spot information generating means recognizes the reflected light imaged by the imaging means as a light spot and generates light spot position information.

請求項6に記載の発明は、請求項5に記載の発明において、発光手段は指先に装着され、指先方向に発散光を放射することを特徴とする。   The invention described in claim 6 is characterized in that, in the invention described in claim 5, the light emitting means is mounted on the fingertip and emits divergent light in the fingertip direction.

請求項7に記載の発明は、請求項1〜6に記載の発明において、投影手段は、被投影領域に対向して配置されていることを特徴とする。   A seventh aspect of the invention is characterized in that, in the inventions of the first to sixth aspects, the projection means is arranged to face the projection area.

請求項8に記載の発明は、請求項1〜請求項7に記載の発明において、発光手段は赤外線を発光し、撮像手段は前記発光手段が発光した赤外線を撮像する赤外線カメラであることを特徴とする。   The invention according to claim 8 is the invention according to any one of claims 1 to 7, wherein the light emitting means emits infrared rays, and the imaging means is an infrared camera that images the infrared rays emitted by the light emitting means. And

請求項1に記載の発明は、被投影領域に画像を投影する投影手段と、前記被投影領域を撮像し、撮像画像データを生成する撮像手段と、ユーザの手に装着される発光手段と、前記撮像画像データから、前記発光手段により発光された光の前記被投影領域上の位置を特定し、光点位置情報を生成する光点情報生成手段と、前記光点情報生成手段が生成した光点位置情報が記憶される記憶手段と、前記記憶手段に記憶された光点位置情報に基づいて、被投影領域上のユーザの手の動きを解析し、被投影領域に投影された画像を操作する画像操作コマンドを生成する画像操作手段とを有することを特徴とする。
これにより、ユーザが、発光手段が装着された手を、被投影領域上で動かすという簡単な操作により、被投影領域に投影された画像を操作することが可能となる。
The invention according to claim 1 is a projecting unit that projects an image on a projection area, an imaging unit that captures the projection area and generates captured image data, and a light emitting unit that is worn on a user's hand; The light spot information generating means for specifying the position on the projection area of the light emitted by the light emitting means from the captured image data and generating the light spot position information, and the light generated by the light spot information generating means Based on the storage means for storing the point position information and the light spot position information stored in the storage means, the movement of the user's hand on the projection area is analyzed, and the image projected on the projection area is operated. And image operation means for generating an image operation command to be performed.
Accordingly, the user can operate the image projected on the projection area by a simple operation of moving the hand on which the light emitting unit is mounted on the projection area.

請求項2に記載の発明は請求項1に記載の発明において、撮像画像データから検出される光の強度が所定値以上である場合に、画像操作コマンドが生成されることを特徴とする。
これにより、光点の強度が所定値より小さい場合には、画像操作コマンドが生成されないので、画像の誤操作の発生を防止することが可能となる。
The invention described in claim 2 is characterized in that, in the invention described in claim 1, an image operation command is generated when the intensity of light detected from captured image data is equal to or greater than a predetermined value.
As a result, when the intensity of the light spot is smaller than the predetermined value, an image operation command is not generated, so that it is possible to prevent an erroneous operation of the image.

請求項3に記載の発明は、請求項2に記載の発明において、投影手段が投影する画像の領域内にあり、且つ、前記光の強度が所定値以上の場合に、
画像操作手段は、前記光の位置の移動に応じて画像の様態を変化させる画像操作コマンドを生成することを特徴とする。
これにより、ユーザが指し示している画像のみが操作の対象となり、ユーザが操作する画像を容易に認識することが可能となり、直感的な操作感を提供することが可能となる。
Invention of Claim 3 exists in the area | region of the image which a projection means projects in invention of Claim 2, and when the intensity | strength of the said light is more than predetermined value,
The image operation means generates an image operation command for changing an image state according to the movement of the position of the light.
As a result, only the image pointed to by the user is the target of the operation, the image operated by the user can be easily recognized, and an intuitive operational feeling can be provided.

請求項4に記載の発明は、請求項3に記載の発明において、撮像画像データから検出される光の位置が、投影手段が投影する画像の領域内にあり、且つ、前記光の強度が所定値以上の場合に、画像操作手段は、前記光の位置の移動に伴って画像を移動させる画像操作コマンドを生成することを特徴とする。
これにより、ユーザが、発光手段が装着されている手を被投影領域に投影されている画像上に置いて、前記光の強度が所定値以上の状態で前記手を移動させるだけで、被投影領域に投影されている画像を移動させることができ、容易な操作で画像を移動させることが可能となる。
According to a fourth aspect of the present invention, in the third aspect of the present invention, the position of the light detected from the captured image data is within the area of the image projected by the projection means, and the intensity of the light is predetermined. When the value is equal to or greater than the value, the image operation means generates an image operation command for moving the image as the position of the light moves.
Accordingly, the user simply places the hand on which the light emitting means is mounted on the image projected on the projection area and moves the hand with the light intensity being equal to or higher than a predetermined value. The image projected on the area can be moved, and the image can be moved by an easy operation.

請求項5に記載の発明は、請求項1〜請求項4に記載の発明において、発光手段は、被投影領域に対して光を照射するように設けられ、撮像手段は、前記発光手段により発光された光が被投影領域で反射した反射光を撮像し、光点情報生成手段は、前記撮像手段が撮像した前記反射光を光点として認識して、光点位置情報を生成することを特徴とする。
これにより、ユーザが、発光手段が装着されている手を被投影領域から離すと、発光手段が発光する光が減衰して被投影領域に反射するので、ユーザが手を被投影領域から離したことを精度高く検出することができ、画像の誤操作を排除することが可能となる。
According to a fifth aspect of the present invention, in the first to fourth aspects of the present invention, the light emitting means is provided so as to irradiate the projection area with light, and the imaging means emits light by the light emitting means. The reflected light reflected by the projected area is imaged, and the light spot information generating means recognizes the reflected light imaged by the imaging means as a light spot and generates light spot position information. And
As a result, when the user removes the hand on which the light emitting means is attached from the projection area, the light emitted from the light emitting means is attenuated and reflected to the projection area, so the user releases the hand from the projection area. This can be detected with high accuracy, and erroneous operation of the image can be eliminated.

請求項6に記載の発明は、請求項5に記載の発明において、発光手段は指先に装着され、指先方向に発散光を放射することを特徴とする。
これにより、指を被投影領域から離すと、被投影領域状の光強度が急速に弱まるので、被投影領域からユーザの指が離間していることが確実に検知され、被投影領域から離間した位置で、ユーザが指を動かした場合の誤作動を排除することが可能となる。このため、指で被投影領域を触れた時のみ、画像を操作することができ、被投影領域に投影されている画像を、指で操作している操作感をユーザに与えることが可能となる。
The invention described in claim 6 is characterized in that, in the invention described in claim 5, the light emitting means is mounted on the fingertip and emits divergent light in the fingertip direction.
As a result, when the finger is moved away from the projection area, the light intensity of the projection area rapidly decreases, so that it is reliably detected that the user's finger is separated from the projection area, and is separated from the projection area. It is possible to eliminate a malfunction when the user moves the finger at the position. For this reason, the image can be manipulated only when the projection area is touched with a finger, and it is possible to give the user the feeling of operating the image projected on the projection area with the finger. .

請求項7に記載の発明は、請求項1〜5に記載の発明において、投影手段は、被投影領域に対向して配置されていることを特徴とする。
これにより、投影領域として特殊なスクリーンを使用することなく、通常の机や壁を被投影領域として使用することが可能となる。
A seventh aspect of the invention is characterized in that, in the inventions of the first to fifth aspects, the projection means is arranged to face the projection area.
As a result, it is possible to use a normal desk or wall as the projection area without using a special screen as the projection area.

請求項8に記載の発明は、請求項1〜請求項7に記載の発明において、発光手段は赤外線を発光し、撮像手段は前記発光手段が発光した赤外線を撮像する赤外線カメラであることを特徴とする。
これにより、可視光によるノイズを排除し、正確にユーザの手の動きを検出することが可能となる。
The invention according to claim 8 is the invention according to any one of claims 1 to 7, wherein the light emitting means emits infrared rays, and the imaging means is an infrared camera that images the infrared rays emitted by the light emitting means. And
As a result, noise caused by visible light can be eliminated and the movement of the user's hand can be accurately detected.

本発明の実施形態に係る、画像表示装置の概要図である。1 is a schematic diagram of an image display device according to an embodiment of the present invention. 赤外線発光装置の説明図である。It is explanatory drawing of an infrared rays light-emitting device. 画像の移動操作状態の説明図である。It is explanatory drawing of the movement operation state of an image. 画像表示装置のブロック図である。It is a block diagram of an image display apparatus. 画像表示装置のメイン処理のフロー図である。It is a flowchart of the main process of an image display apparatus. 光点位置情報の説明図である。It is explanatory drawing of light spot position information. 画像の拡大操作状態の説明図である。It is explanatory drawing of the expansion operation state of an image.

(本発明の画像表示装置の概要)
以下に図面を参照しつつ、本発明の好ましい実施の形態を示す。図1に示されるように、本発明の画像表示装置100は、制御部10、投影手段20、撮像手段30、赤外線発光装置150とから構成されている。
本実施形態では、投影手段20及び撮像手段30は、テーブルの板面等の被投影領域999と対向して配置されている。投影手段20は、制御手段10が出力する「画像信号」に基づいて、単一又は複数の画像501を被投影領域999に投影する装置である。撮像手段30は、被投影領域999を撮像する装置である。なお、ユーザの指には、被投影領域999に赤外線を照射する赤外線発光装置150が装着されている。撮像手段30は、赤外線発光装置150が被投影領域999に照射した光点950(反射光)を撮像する。制御部10は、撮像手段30が撮像した光点950の被投影領域999上の位置を特定し、光点950の位置情報に基づいてユーザの指の動きを認識して、画像501を移動させる装置である。
(Outline of the image display device of the present invention)
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. As shown in FIG. 1, the image display device 100 of the present invention includes a control unit 10, a projection unit 20, an imaging unit 30, and an infrared light emitting device 150.
In the present embodiment, the projection unit 20 and the imaging unit 30 are arranged to face a projection area 999 such as a plate surface of a table. The projection unit 20 is a device that projects a single image or a plurality of images 501 onto the projection area 999 based on the “image signal” output from the control unit 10. The imaging unit 30 is a device that images the projection area 999. Note that an infrared light emitting device 150 that irradiates the projection area 999 with infrared rays is attached to the user's finger. The imaging means 30 images the light spot 950 (reflected light) irradiated to the projection area 999 by the infrared light emitting device 150. The control unit 10 identifies the position of the light spot 950 captured by the imaging unit 30 on the projection area 999, recognizes the movement of the user's finger based on the position information of the light spot 950, and moves the image 501. Device.

図2に示されるように、赤外線発光装置150は、電源部150a、赤外線発光部150b、装着部150cとから構成されている。電源部150aは、一次電池や二次電池を収納し、これら電池から供給される電流を、赤外線発光部150bに供給する。赤外線発光部150bは、電源部150aから供給された電流によって、赤外線を発光する。本実施形態では、赤外線発光部150bは赤外線LEDである。図2に示されるように、赤外線発光部150bから発光される赤外線は、所定の角度θで拡散するようになっている。装着部150cは、指輪状であり、ユーザの指に装着されるようになっている。図2に示されるように、赤外線発光部150bは、指先方向に赤外線を発散放射するようになっている。   As shown in FIG. 2, the infrared light emitting device 150 includes a power supply unit 150a, an infrared light emitting unit 150b, and a mounting unit 150c. The power supply unit 150a houses a primary battery and a secondary battery, and supplies current supplied from these batteries to the infrared light emitting unit 150b. The infrared light emitting unit 150b emits infrared light by the current supplied from the power supply unit 150a. In the present embodiment, the infrared light emitting unit 150b is an infrared LED. As shown in FIG. 2, the infrared light emitted from the infrared light emitting unit 150b diffuses at a predetermined angle θ. The mounting portion 150c has a ring shape and is mounted on the user's finger. As shown in FIG. 2, the infrared light emitting unit 150b radiates and emits infrared light in the fingertip direction.

本発明では、図3に示されるように、被投影領域999に投影された画像501に対するドラッグ操作及びドロップ操作が可能である。具体的には、ユーザが、赤外線発光装置150が装着された指を被投影領域999に投影された画像501上に置いて、前記指が被投影領域999上に置かれた状態を維持したまま、前記指を目的の場所にまで移動させると(ドラッグ操作)、指の移動に伴って画像501が移動する。一方で、ユーザが目的の場所で前記指を被投影領域999から離すと(ドロップ操作)、ユーザが指を離した位置で前記画像501が表示されるようになっている。このように本発明の画像表示装置100は、被投影領域999に投影されている画像501を、ユーザが所謂「ドラッグ アンド ドロップ操作」することができるようになっている。なお、複数のユーザの指に赤外線発光装置150を装着し、複数のユーザが単一又は複数の画像501を操作することも可能である。   In the present invention, as shown in FIG. 3, a drag operation and a drop operation can be performed on an image 501 projected on the projection area 999. Specifically, the user places the finger with the infrared light emitting device 150 on the image 501 projected on the projection area 999 and maintains the state where the finger is placed on the projection area 999. When the finger is moved to a target location (drag operation), the image 501 moves as the finger moves. On the other hand, when the user releases the finger from the projection area 999 at a target location (drop operation), the image 501 is displayed at a position where the user releases the finger. As described above, the image display apparatus 100 according to the present invention enables the user to perform a so-called “drag and drop operation” on the image 501 projected on the projection area 999. Note that the infrared light emitting device 150 can be attached to the fingers of a plurality of users, and the plurality of users can operate a single image or a plurality of images 501.

本発明では、撮像手段30が被投影領域999で反射した赤外線(光点950)を撮像し、制御部10が前記光点950の被投影領域999上の位置を特定して「光点位置情報」を生成し、この「光点位置情報」の変化によって、ユーザの指の動きを認識し、投影手段20で投影される画像501の位置を移動させることにより、前記「ドラッグ操作」を実現している。前述したように、赤外線発光装置150から発光される赤外線は、所定の角度θで拡散するようになっている。このため、ユーザが指を被投影領域999から離すと、被投影領域999で反射される赤外線(光点950)の強度が弱くなるので、制御部10は撮像手段30で撮像される赤外線の強度が弱くなったことを認識して、ユーザの指が被投影領域999から離れたことを認識し、前記「ドロップ操作」が認識されるようになっている。以下に、本発明の画像表示装置100の具体的な構成について説明する。   In the present invention, the imaging means 30 captures the infrared ray (light spot 950) reflected by the projection area 999, and the control unit 10 specifies the position of the light spot 950 on the projection area 999 to obtain “light spot position information”. , And the movement of the image 501 projected by the projection unit 20 is moved by recognizing the movement of the user's finger based on the change in the “light spot position information”, thereby realizing the “drag operation”. ing. As described above, the infrared light emitted from the infrared light emitting device 150 is diffused at a predetermined angle θ. For this reason, when the user removes his / her finger from the projection area 999, the intensity of the infrared ray (light spot 950) reflected by the projection area 999 becomes weak. Is recognized, the user's finger is separated from the projection area 999, and the “drop operation” is recognized. Below, the specific structure of the image display apparatus 100 of this invention is demonstrated.

(画像表示装置のブロック図)
以下に図4を用いて、画像表示装置100のブロック図を説明する。制御部10は、CPU11、RAM12、ROM13、撮像画像コントローラ15、投影画像コントローラ17、VRAM18、入力部19を有していて、これらは相互にバス9で接続されている。なお、投影画像コントローラ17とVRAM18は相互に接続している。
(Block diagram of image display device)
Hereinafter, a block diagram of the image display apparatus 100 will be described with reference to FIG. The control unit 10 includes a CPU 11, a RAM 12, a ROM 13, a captured image controller 15, a projection image controller 17, a VRAM 18, and an input unit 19, which are connected to each other via a bus 9. The projection image controller 17 and the VRAM 18 are connected to each other.

CPU11は、RAM12、ROM13と協動して、各種演算、処理を行う。
RAM12は、CPU11で処理されるプログラムや、CPU11が処理するデータを、そのアドレス空間に一時的に記憶する。RAM12には、画像データ記憶領域12a、撮像画像データ記憶領域12b、光点情報記憶領域12c、画像操作コマンド記憶領域12dを有している。
画像データ記憶領域12aには、後述するように入力部19で取得された「画像データ」が記憶されるようになっている。
撮像画像データ記憶領域12bには、撮像手段30で撮像され、撮像画像コントローラ15で生成された「撮像画像データ」が記憶されるようになっている。
光点情報記憶領域12cには、光点情報生成手段13bが生成した「光点位置情報」が記憶されるようになっている。
画像操作コマンド記憶領域12dには、画像操作手段13cが生成した「画像操作コマンド」が記憶されるようになっている。
The CPU 11 performs various calculations and processes in cooperation with the RAM 12 and the ROM 13.
The RAM 12 temporarily stores a program processed by the CPU 11 and data processed by the CPU 11 in its address space. The RAM 12 includes an image data storage area 12a, a captured image data storage area 12b, a light spot information storage area 12c, and an image operation command storage area 12d.
As will be described later, “image data” acquired by the input unit 19 is stored in the image data storage area 12a.
In the captured image data storage area 12b, “captured image data” captured by the imaging unit 30 and generated by the captured image controller 15 is stored.
In the light spot information storage area 12c, “light spot position information” generated by the light spot information generating means 13b is stored.
The image operation command storage area 12d stores “image operation commands” generated by the image operation means 13c.

ROM13には、画像表示装置100を制御する各種プログラムが記憶されている。ROM13には、投影画像生成手段13a、光点情報生成手段13b、画像操作手段13c等のプログラムが記憶されている。当該各種プログラムが、CPU11で処理されることにより、画像表示装置100の各種機能を実現している。 なお、前記プログラムをASIC(Application Specific Integrated Circuit)として実現しても差し支えない。   Various programs for controlling the image display device 100 are stored in the ROM 13. The ROM 13 stores programs such as a projection image generation unit 13a, a light spot information generation unit 13b, and an image operation unit 13c. The various programs are processed by the CPU 11, thereby realizing various functions of the image display device 100. It should be noted that the program may be realized as an ASIC (Application Specific Integrated Circuit).

投影画像生成手段13aは、「描画命令」を投影画像コントローラ17に出力し、投影画像コントローラ17で「画像データ」から「投影画像データ」を生成させるプログラムである。   The projection image generation unit 13 a is a program that outputs a “drawing command” to the projection image controller 17 and causes the projection image controller 17 to generate “projection image data” from “image data”.

光点情報生成手段13bは、撮像手段30が撮像した「撮像画像データ」から、赤外線発光装置150により発光された光点950の被投影領域999上の位置を特定し、「光点位置情報」を生成するプログラムである。   The light spot information generation means 13b specifies the position on the projection area 999 of the light spot 950 emitted by the infrared light emitting device 150 from the “captured image data” captured by the imaging means 30, and “light spot position information”. Is a program that generates

画像操作手段13cは、「光点位置情報」に基づいて、被投影領域999上のユーザの手(指)の動きを解析し、被投影領域999に投影された画像501を操作する「画像操作コマンド」を生成するプログラムである。   The image operation means 13c analyzes the movement of the user's hand (finger) on the projection area 999 based on the “light spot position information”, and operates the image 501 projected on the projection area 999. It is a program that generates a “command”.

撮像画像コントローラ15は、A/Dコンバータ、DSP(Digital Signal Prosessor)を有している。A/Dコンバータは、後述する撮像手段30のイメージセンサーが出力する「信号電圧」を、「デジタル信号」に変換する。
DSPは、A/Dコンバータが生成したが生成した「デジタル信号」から、2次元のピクセルデータである「撮像画像データ」を生成する。生成された「撮像画像データ」は、撮像画像データ記憶領域12bに記憶される。
なお、「撮像画像データ」の各ピクセル(画素)は、被投影領域999上の位置情報である「ピクセル位置情報」及び、赤外線の強度(輝度)の情報である「赤外線強度情報」を有している。
The captured image controller 15 includes an A / D converter and a DSP (Digital Signal Processor). The A / D converter converts a “signal voltage” output from an image sensor of the imaging unit 30 described later into a “digital signal”.
The DSP generates “captured image data” that is two-dimensional pixel data from the “digital signal” generated by the A / D converter. The generated “captured image data” is stored in the captured image data storage area 12b.
Each pixel of the “captured image data” has “pixel position information” that is position information on the projection area 999 and “infrared intensity information” that is information on the intensity (luminance) of infrared rays. ing.

投影画像コントローラ17は、GPU(Graphics Processing Unit)等の画像処理回路を有している。投影画像コントローラ17は、投影画像生成手段13aから出力される「描画命令」に基づいて、画像データ記憶領域12aに記憶されている「画像データ」を画像処理して、「投影画像データ」を生成する。
VRAM18には、投影画像コントローラ17が生成した「投影画像データ」が記憶される。
投影画像コントローラ17は、VRAM18に記憶されている「投影画像データ」を「画像信号」として、投影手段20に出力する。
The projection image controller 17 has an image processing circuit such as a GPU (Graphics Processing Unit). The projection image controller 17 performs image processing on the “image data” stored in the image data storage area 12 a based on the “drawing command” output from the projection image generation unit 13 a to generate “projection image data”. To do.
The VRAM 18 stores “projection image data” generated by the projection image controller 17.
The projection image controller 17 outputs “projection image data” stored in the VRAM 18 as an “image signal” to the projection means 20.

入力部19は、「画像データ」を取得するものである。入力部19には、LAN(Local Area Networkの略)、USB(Unversal Serial Busの略)等のインターフェースや、SDメモリーカード等のメディアを読み取るメディアリーダ等が含まれる。「画像データ」が記憶されているパーソナルコンピュータやUSBメモリ等を入力部19に接続すると、入力部19が前記「画像データ」を取得して、当該「画像データ」がRAM12の画像データ記憶領域12aに記憶するようになっている。或いは、入力部19がLANやインターネットに接続している場合には、入力部19はLANやインターネットを介して「画像データ」を取得する。なお、ハードディスクやフラッシュメモリー等の補助記憶装置がバス9に接続され、入力部19が取得した「画像データ」を補助記憶装置に記憶させる構成であっても差し支えない。なお、入力部19で取得される「画像データ」には、写真等の画像ファイルや、表計算ソフト、ワードプロセッサソフト、プレゼンテーションソフト等の画像ファイルが含まれる。   The input unit 19 acquires “image data”. The input unit 19 includes an interface such as a LAN (abbreviation of Local Area Network) and USB (abbreviation of Universal Serial Bus), a media reader that reads media such as an SD memory card, and the like. When a personal computer, a USB memory, or the like in which “image data” is stored is connected to the input unit 19, the input unit 19 acquires the “image data”, and the “image data” is stored in the image data storage area 12 a of the RAM 12. To come to remember. Alternatively, when the input unit 19 is connected to a LAN or the Internet, the input unit 19 acquires “image data” via the LAN or the Internet. An auxiliary storage device such as a hard disk or a flash memory may be connected to the bus 9 and the “image data” acquired by the input unit 19 may be stored in the auxiliary storage device. The “image data” acquired by the input unit 19 includes image files such as photographs, and image files such as spreadsheet software, word processor software, and presentation software.

投影手段20は、ランプ駆動回路、ランプ、照明光学系、画像生成素子、結像光学系を有している。ランプ駆動回路は、ランプに電流を供給する回路である。ランプ駆動回路から電流が供給されたランプは拡散光を発光する。照明光学系は、ランプから発光された拡散光を集光し、均一な照明光にする。この照明光は画像生成素子に照射される。画像生成素子は、LCD(Liquid Clystal Display)やDMD(Digital Micromirror Device)であり、照射された照明光を各画素に階調表現して画像を生成する。結像光学系は多数のレンズから構成されていて、画像生成素子を透過した照明光を、被投影領域999に結像する。勿論、前記照明光の波長は、可視光領域である。   The projection unit 20 includes a lamp driving circuit, a lamp, an illumination optical system, an image generation element, and an imaging optical system. The lamp driving circuit is a circuit that supplies current to the lamp. The lamp supplied with current from the lamp driving circuit emits diffused light. The illumination optical system collects the diffused light emitted from the lamp and makes it uniform illumination light. This illumination light is applied to the image generating element. The image generation element is an LCD (Liquid Crystal Display) or a DMD (Digital Micromirror Device), and generates an image by expressing the irradiated illumination light in gradation on each pixel. The imaging optical system is composed of a large number of lenses, and images the illumination light that has passed through the image generating element on the projection area 999. Of course, the wavelength of the illumination light is in the visible light region.

撮像手段30は、被投影領域999を撮像する装置である。撮像装置30は、イメージセンサー及び結像光学系を有している。イメージセンサーは、2次元配列されたフォトダイオードを有している。各フォトダイオードは、入射光の強度を電荷に変換し、電荷を「信号電圧」として出力する。イメージセンサーには、CCD(Charge Coupled Device Image SenSor)やCMOS(Complementary Mwtal Oxide Semiconductor)が含まれる。結像光学系は、単一又は複数のレンズで構成され、入光した像を、イメージセンサー上で結像させるものである。本実施形態では、イメージセンサーは可視光から近赤外線の波長(0.3〜1.0μmの波長)の光を電荷に変換することができ、更に、撮像手段30は、赤外線カットフィルターを有さず、可視光及び赤外線による画像を撮像することができる所謂赤外線カメラである。なお、可視光によるノイズを除去するために、赤外線の波長の光(0.8〜1.0μmの波長)を透過し、可視光の波長の光(0.3〜0.8μmの波長)を遮断する可視光カットフィルターをイメージセンサーの前面に設けることが好ましい。
なお、近赤外線を確実に検出するために、HgCdTe(水銀カドミウムテルル)、InSb(インジウムアンチモン)、PtSi(プラチナシリコン)を用いたイメージセンサーを使用してもよい。この場合、赤外線発光部150bが発する赤外線の波長は、1.0μm以上とするのがよい。
The imaging unit 30 is a device that images the projection area 999. The imaging device 30 has an image sensor and an imaging optical system. The image sensor has photodiodes arranged two-dimensionally. Each photodiode converts the intensity of incident light into an electric charge, and outputs the electric charge as a “signal voltage”. The image sensor includes a charge coupled device image sensor (CCD) and a complementary metal oxide semiconductor (CMOS). The imaging optical system is composed of a single lens or a plurality of lenses, and forms an incident image on an image sensor. In the present embodiment, the image sensor can convert light from the visible light to the near-infrared wavelength (wavelength of 0.3 to 1.0 μm) into electric charges, and the imaging means 30 further includes an infrared cut filter. In other words, it is a so-called infrared camera capable of capturing an image using visible light and infrared light. In addition, in order to remove noise caused by visible light, light having an infrared wavelength (wavelength of 0.8 to 1.0 μm) is transmitted and light having a wavelength of visible light (wavelength of 0.3 to 0.8 μm) is transmitted. It is preferable to provide a visible light cut filter for blocking in front of the image sensor.
Note that an image sensor using HgCdTe (mercury cadmium tellurium), InSb (indium antimony), or PtSi (platinum silicon) may be used in order to reliably detect near infrared rays. In this case, the wavelength of infrared rays emitted from the infrared light emitting unit 150b is preferably 1.0 μm or more.

(フローの説明)
以下に、本発明のメイン処理のフローを説明する。画像表示装置100に電源が投入されると、S11「初期化」の処理に進む。
S11「初期化」の処理において、ROM13に記憶されている各種プログラムが起動する。S11の処理が終了すると、S12の処理に進む。
(Description of flow)
Below, the flow of the main process of this invention is demonstrated. When the image display apparatus 100 is powered on, the process proceeds to S11 “initialization”.
In the process of S11 “initialization”, various programs stored in the ROM 13 are activated. When the process of S11 ends, the process proceeds to S12.

S12「投影」の処理において、投影画像生成手段13aは、投影画像コントローラ17に「描画命令」を出力する。投影画像コントローラ17は、前記「描画命令」に基づき、画像データ記憶領域12aに記憶された「画像データ」から「投影画像データ」を生成し、VRAM18に記憶させる。投影画像コントローラ17は、VRAM18に記憶された「投影画像データ」を「画像信号」として投影手段20に出力し、投影手段20は被投影領域999に画像501を投影する。なお、前記「描画命令」には、画像501が投影される被投影領域999の上の領域位置を指定する命令が含まれる。また、投影画像コントローラ17は、投影画像生成手段13aが出力する「描画命令」により、複数の画像501を被投影領域999に投影させるための「投影画像データ」を生成することができる。
なお後述するように、投影画像生成手段13aは、投影画像コントローラ17に「描画命令」を出力する際に、画像操作コマンド記憶領域12dを参照し、当該記憶領域に「画像移動コマンド」が記憶されているか否かを確認し、「画像移動コマンド」が記憶されている場合には、当該「画像移動コマンド」に基づいて、被投影領域999に投影される画像501を移動させる「描画命令」を投影画像コントローラ17に出力する。
S12の処理が終了すると、S13「撮像」の処理に進む。
In the process of S <b> 12 “projection”, the projection image generation unit 13 a outputs a “drawing command” to the projection image controller 17. Based on the “drawing command”, the projection image controller 17 generates “projection image data” from the “image data” stored in the image data storage area 12 a and stores it in the VRAM 18. The projection image controller 17 outputs “projection image data” stored in the VRAM 18 as an “image signal” to the projection unit 20, and the projection unit 20 projects the image 501 onto the projection area 999. The “drawing command” includes a command for designating an area position on the projection area 999 on which the image 501 is projected. Further, the projection image controller 17 can generate “projection image data” for projecting a plurality of images 501 onto the projection area 999 by a “drawing command” output from the projection image generation unit 13 a.
As will be described later, the projection image generation unit 13a refers to the image operation command storage area 12d when outputting the “drawing command” to the projection image controller 17, and the “image movement command” is stored in the storage area. If an “image move command” is stored, a “draw command” for moving the image 501 projected on the projection area 999 is issued based on the “image move command”. Output to the projection image controller 17.
When the process of S12 is completed, the process proceeds to S13 “Imaging”.

S13「撮像」の処理において、光点情報生成手段13bは、撮像画像コントローラ15に「撮像命令」を出力し、撮像手段30による被投影領域999の撮像を開始させる。撮像手段30により撮像され、撮像画像コントローラ15によって生成された「撮像画像データ」は、撮像画像データ記憶領域12bに記憶される。一般に、人間にとって滑らかな動画であると認識されるフレームレートは、20〜25フレーム/秒とされている。従って、本実施形態では、40〜50ミリ秒でS12〜S18、S19、S20又はS12〜S25の処理が実行されて、メイン処理が1ループするので、40〜50ミリ秒毎に「撮像命令」が出力されて、「撮像画像データ」が生成されるようになっている。
S13の処理が終了すると、S14の処理に進む。
In the process of S <b> 13 “imaging”, the light spot information generation unit 13 b outputs an “imaging command” to the captured image controller 15 and starts imaging of the projection area 999 by the imaging unit 30. “Captured image data” captured by the imaging unit 30 and generated by the captured image controller 15 is stored in the captured image data storage area 12b. Generally, the frame rate recognized as a smooth moving image for human beings is set to 20 to 25 frames / second. Accordingly, in the present embodiment, the processing of S12 to S18, S19, S20 or S12 to S25 is executed in 40 to 50 milliseconds, and the main processing loops once, so that an “imaging command” is performed every 40 to 50 milliseconds. Is output and “captured image data” is generated.
When the process of S13 is completed, the process proceeds to S14.

S14「光点検出」の処理において、光点情報生成手段13bは、撮像画像データ記憶領域12bに記憶された「撮像画像データ」から、光点を検出する「光点検出処理」を実行する。具体的には、光点情報生成手段13bは、「撮像画像データ」の各ピクセルについて、赤外線の強度(輝度)の情報である「赤外線強度情報」を解析し、所定値以上の赤外線の強度のピクセルの集合を、光点950として検出する。
なお、ユーザが、赤外線発光装置150が装着された指を被投影領域999上に置いている状態では、赤外線LED150bと被投影領域999間の距離は近接している。そのため、赤外線LED150bから発光される赤外線は大きく減衰することなく被投影領域999で反射するので、被投影領域999で反射した赤外線は所定値以上の強度となり、光点950が検出される。一方で、ユーザが、赤外線発光装置150が装着された指を被投影領域999から離すと、赤外線LED150bと被投影領域999間の距離が離れる。そのため、赤外線LED150bから発光される赤外線は大きく減衰して被投影領域999で反射し、被投影領域999で反射した赤外線は所定値より小さい強度となり、光点950が検出されない。換言すれば、光点950が検出される基準となる赤外線の強度の所定値は、赤外線発光装置150が装着されたユーザの指が、被投影領域999上に置かれている場合に所定値以上となり、置かれていない場合に所定値未満となるように設定される。
なお、複数のユーザが、赤外線発光装置150が装着されている指を被投影領域999上に置いている場合には、複数の光点950が検出される。
S14の処理が終了すると、S15「光点有り?」の判断処理に進む。
In the process of S14 “light spot detection”, the light spot information generation unit 13b executes “light spot detection process” of detecting a light spot from “captured image data” stored in the captured image data storage area 12b. Specifically, the light spot information generating unit 13b analyzes “infrared intensity information”, which is information on the intensity (luminance) of infrared rays, for each pixel of the “captured image data”, and determines the intensity of infrared rays equal to or greater than a predetermined value. A set of pixels is detected as a light spot 950.
Note that when the user places a finger with the infrared light emitting device 150 on the projection area 999, the distance between the infrared LED 150b and the projection area 999 is close. Therefore, since the infrared light emitted from the infrared LED 150b is reflected by the projection area 999 without being greatly attenuated, the infrared light reflected by the projection area 999 has an intensity higher than a predetermined value, and the light spot 950 is detected. On the other hand, when the user removes the finger on which the infrared light emitting device 150 is attached from the projection area 999, the distance between the infrared LED 150b and the projection area 999 is increased. Therefore, the infrared light emitted from the infrared LED 150b is greatly attenuated and reflected by the projection region 999. The infrared light reflected by the projection region 999 has an intensity smaller than a predetermined value, and the light spot 950 is not detected. In other words, the predetermined value of the intensity of infrared rays that serves as a reference for detecting the light spot 950 is equal to or greater than the predetermined value when the user's finger with the infrared light emitting device 150 is placed on the projection area 999. It is set to be less than a predetermined value when it is not placed.
In addition, when a plurality of users place a finger on which the infrared light emitting device 150 is mounted on the projection area 999, a plurality of light spots 950 are detected.
When the processing of S14 is completed, the process proceeds to S15 “Is there a light spot?”

S15「光点有り?」の判断処理において、光点情報生成手段13bは、S14の処理において、光点950が検出されていたか否かを判断する。
光点情報生成手段13bが、S14の処理において、光点950が検出されていたと判断した場合には(S15の判断処理がYES)、S16の処理に進む。
一方で、光点情報生成手段13b?が、S14の処理において、光点950が検出されていなかった判断した場合に(S15の判断処理がNO)は、S25の判断処理に進む。
In the determination process of S15 “Is there a light spot?”, The light spot information generating unit 13b determines whether or not the light spot 950 has been detected in the process of S14.
If the light spot information generating unit 13b determines that the light spot 950 has been detected in the process of S14 (YES in S15), the process proceeds to S16.
On the other hand, the light spot information generating means 13b? However, when it is determined that the light spot 950 has not been detected in the process of S14 (NO in S15), the process proceeds to the determination process of S25.

S25「終了?」の判断処理において、ユーザが図示しない操作部を操作することにより、画像表示装置100を終了させることを選択した場合には(S25の判断処理がYES)、図5に示されるメインフローが終了する。一方で、ユーザが画像表示装置100を終了させることを選択しない場合には(S25の判断処理がNO)、S12の処理に進む。   In the determination process of S25 “End?”, When the user selects to end the image display device 100 by operating an operation unit (not shown) (YES in S25), the process is shown in FIG. The main flow ends. On the other hand, when the user does not select to end the image display apparatus 100 (NO in S25), the process proceeds to S12.

S16「光点位置情報記憶」の処理において、光点情報生成手段13bは、光点950の被投影領域999上の位置情報である、「光点位置情報」を生成し、光点情報記憶領域12cに記憶させる。なお、「光点位置情報」は、被投影領域999上の特定の点(0、0)(図1に示す)からの座標データである(X、Yの2次元の数値で表される)。所定時間をおいて「光点位置情報」が生成されるので、図6に示されるような「光点位置座標」の履歴として「光点位置情報」が光点情報記憶領域12cに順次記憶される。なお、S14の処理で複数の光点950が検出された場合には、図6に示されるように、複数の光点950の「光点位置情報」が光点情報記憶領域12cに記憶される。
なお、本実施形態では、光点情報生成手段13は、光点950として検出されたピクセルの集合の重心を、光点950の被投影領域999上の位置として、「光点位置情報」を生成する。S16の処理が終了すると、S17の処理に進む。
In the processing of S16 “light spot position information storage”, the light spot information generation means 13b generates “light spot position information” which is position information on the projection area 999 of the light spot 950, and the light spot information storage area 12c. The “light spot position information” is coordinate data from a specific point (0, 0) (shown in FIG. 1) on the projection area 999 (represented by two-dimensional numerical values of X and Y). . Since “light spot position information” is generated after a predetermined time, “light spot position information” is sequentially stored in the light spot information storage area 12c as a history of “light spot position coordinates” as shown in FIG. The When a plurality of light spots 950 are detected in the process of S14, as shown in FIG. 6, “light spot position information” of the plurality of light spots 950 is stored in the light spot information storage area 12c. .
In this embodiment, the light spot information generating unit 13 generates “light spot position information” using the center of gravity of the set of pixels detected as the light spot 950 as the position on the projection area 999 of the light spot 950. To do. When the process of S16 ends, the process proceeds to S17.

S17「光点位置差分算出」の処理において、画像操作手段13cは、光点情報記憶領域12cを参照して、今回記憶された「光点位置情報」と前回記憶された「光点位置情報」の差分値を算出する。図6に示される例では、1600msと1650msの差分で、下記のように「光点位置情報が」算出される。
dX=819−818=1[mm]、dY=341−342=−1[mm]
S17の処理が終了すると、S18の判断処理に進む。
In the processing of S <b> 17 “light spot position difference calculation”, the image operation means 13 c refers to the light spot information storage area 12 c and stores the “light spot position information” stored this time and the “light spot position information” stored last time. The difference value is calculated. In the example shown in FIG. 6, “light spot position information” is calculated with the difference between 1600 ms and 1650 ms as follows.
dX = 811-818 = 1 [mm], dY = 341-342 = −1 [mm]
When the process of S17 ends, the process proceeds to the determination process of S18.

S18「光点位置を投影画像は一致」の判断処理において、画像操作手段13cは、被投影領域999上に投影されている画像501上に光点950が有るか否かを判断する。具体的には、画像操作手段13cは、光点情報記憶領域12bに記憶されている最新の「光点位置情報」を参照することにより、光点950の被投影領域999上の座標が、被投影領域999上に投影されている投影画像501の領域の座標の範囲内にあるか否かを判断する。なお、投影手段20と被投影領域999との距離は一定であることから、画像操作手段13cは、被投影領域999上の画像501の領域の座標を認識している。
画像操作手段13cが、被投影領域999上に投影されている画像501上に光点950が有ると判断した場合には(S18の判断処理がYES)、S19の判断処理に進む。
一方で、画像操作手段13cが、被投影領域999上に投影されている画像501上に光点950が無いと判断した場合には(S18の判断処理がNO)、S12の処理に戻る。
In the determination processing of S18 “projection image coincides with light spot position”, the image operation means 13c determines whether or not the light spot 950 is present on the image 501 projected on the projection area 999. Specifically, the image operation means 13c refers to the latest “light spot position information” stored in the light spot information storage area 12b, so that the coordinates of the light spot 950 on the projection area 999 are changed. It is determined whether or not it is within the coordinate range of the area of the projection image 501 projected on the projection area 999. Since the distance between the projection unit 20 and the projection region 999 is constant, the image operation unit 13c recognizes the coordinates of the region of the image 501 on the projection region 999.
When the image operation means 13c determines that the light spot 950 is present on the image 501 projected on the projection area 999 (YES in S18), the process proceeds to S19.
On the other hand, when the image operation means 13c determines that there is no light spot 950 on the image 501 projected on the projection area 999 (NO in S18), the process returns to S12.

S19「光点が移動した?」の判断処理において、画像操作手段13cは、光点950が移動したか否かを判断する。
具体的には、画像操作手段13cが、S17の処理において算出した差分値が、XとYとの少なくとも一方において0でないと判断した場合には、画像操作手段13cは、光点950が移動したと判断し、(S19の判断処理がYES)、S20の処理に進む。
一方で、画像操作手段13cが、S17の処理において算出した差分値が、XとYとの両方において0であると判断した場合には、画像操作手段13cは、光点950が移動していないと判断し、(S19の判断処理がNO)、S12の処理に進む。
なお、S17の処理において算出した差分値が、所定値以上である場合には、同一ユーザの指の移動ではなく、あるユーザの「光点位置情報」と別のユーザの「光点位置情報」であると判断し、S20の処理に進むことなく、S12の処理に戻る。
In the determination processing of S19 “Is the light spot moved?”, The image operation means 13c determines whether or not the light spot 950 has moved.
Specifically, when the image operation unit 13c determines that the difference value calculated in the process of S17 is not 0 in at least one of X and Y, the image operation unit 13c moves the light spot 950. (Yes in S19), the process proceeds to S20.
On the other hand, when the image operation unit 13c determines that the difference value calculated in the process of S17 is 0 in both X and Y, the image operation unit 13c does not move the light spot 950. (The determination process in S19 is NO), the process proceeds to S12.
If the difference value calculated in the process of S17 is equal to or greater than a predetermined value, it is not the movement of the finger of the same user, but “light spot position information” of another user and “light spot position information” of another user. It returns to the process of S12, without proceeding to the process of S20.

S20「投影画像移動処理」において、画像操作手段13cは、「投影画像移動処理」を実行する。具体的には、画像操作手段13cは、S17の処理で算出された「光点位置情報」の差分値分の座標だけ、被投影領域999に投影されている画像501を移動させる「投影画像移動コマンド」を生成し、画像操作コマンド記憶領域12dに記憶させる。S20の処理が終了すると、S12の処理に戻る。   In S20 “projected image moving process”, the image operation means 13c executes “projected image moving process”. Specifically, the image operation means 13c moves the image 501 projected on the projection area 999 by the coordinates corresponding to the difference value of the “light spot position information” calculated in the process of S17. Command "is generated and stored in the image operation command storage area 12d. When the process of S20 ends, the process returns to S12.

なお、「投影画像移動コマンド」が画像操作コマンド記憶領域12dに記憶されている場合には、S12の処理において、投影画像生成手段13aは、前記「投影画像移動コマンド」に基づいて、被投影領域999に投影される画像501を移動させる「描画命令」を投影画像コントローラ17に出力する。このため、光点950の位置の移動に伴って、画像501が移動する。
なお、ユーザが、赤外線発光装置150が装着されている指を被投影領域999から離すと、前述したように、赤外線が減衰して被投影領域999に照射されるので、S14の処理において光点が検出されず、前述した「ドロップ操作」が検出されて(S15の判断処理がNOとなり、S25に進む)、被投影領域999に投影されている画像501が移動することなく、ユーザが指を離した位置で画像501が表示される。
When the “projection image movement command” is stored in the image operation command storage area 12d, the projection image generation unit 13a performs the projection area based on the “projection image movement command” in the process of S12. A “drawing command” for moving the image 501 projected on 999 is output to the projection image controller 17. For this reason, the image 501 moves with the movement of the position of the light spot 950.
Note that, when the user removes the finger on which the infrared light emitting device 150 is attached from the projection area 999, as described above, the infrared light is attenuated and irradiated to the projection area 999. Is detected, the above-described “drop operation” is detected (NO in S15, and the process proceeds to S25), and the user moves his / her finger without moving the image 501 projected on the projection area 999. The image 501 is displayed at the separated position.

このように、本発明の画像表示装置100は、被投影領域999に表示されている画像501上に、ユーザが、赤外線発光装置150が装着されている指を置き、この指を移動させるだけで、前記画像501を移動させる「ドラッグ アンド ドロップ操作」を行うことが可能であり、簡単な操作方法で、被投影領域999に投影されている投影画像501を移動させることが可能となった。
本実施形態では、赤外線カメラである撮像手段30で被投影領域999を撮像し、赤外線の被投影領域999での反射光を光点950として認識し、この光点950の位置情報に基づいてユーザの指の動きを認識することとしたので、被投影領域999上に投影された可視光である画像501上に赤外線である光点950が重なったとしても、可視光と赤外線とは波長が異なることから、確実に光点950を検出することができ、確実にユーザの指の動きを検出することが可能である。
As described above, in the image display device 100 of the present invention, the user simply places the finger on which the infrared light emitting device 150 is mounted on the image 501 displayed in the projection area 999 and moves the finger. Thus, it is possible to perform a “drag and drop operation” for moving the image 501, and it is possible to move the projection image 501 projected on the projection area 999 by a simple operation method.
In the present embodiment, the projection area 999 is imaged by the imaging means 30 that is an infrared camera, the reflected light from the infrared projection area 999 is recognized as the light spot 950, and the user is based on the position information of the light spot 950. Therefore, even if the light spot 950, which is infrared light, is superimposed on the image 501 that is visible light projected on the projection area 999, the wavelength of visible light is different from that of infrared light. Therefore, the light spot 950 can be reliably detected, and the movement of the user's finger can be reliably detected.

(総括)
本実施形態では、投影手段20は被投影領域999に対向して配置されているが、被投影領域999を半透明のスクリーンで構成し、当該スクリーンの背後に投影手段20を配置した所謂リアプロジェクション方式の画像表示装置として本発明を構成しても差し支えない。また、被投影領域999が半透明のスクリーンである場合には、前記スクリーンの背後に撮像手段30を配置して、前記スクリーンを撮像する構成にしても差し支えない。
(Summary)
In the present embodiment, the projection unit 20 is arranged to face the projection area 999. However, the projection area 999 is formed of a translucent screen, and the so-called rear projection in which the projection unit 20 is arranged behind the screen. The present invention may be configured as an image display device of the type. Further, when the projection area 999 is a translucent screen, the imaging means 30 may be disposed behind the screen to capture the screen.

以上の説明では、ユーザが被投影領域999上に投影されている画像501を移動させる実施形態について説明したが、図7に示されるように、画像501の隅を「ドラッグ アンド ドロップ」し、或いは、複数のユーザが画像501の対角線をマルチタッチすることにより、前記画像501の拡大を行う画像表示装置にも、本発明の技術的思想が適用可能なことは言うまでもない。また、画像501の縮小、画像501を閉じる操作等を行う画像表示装置にも、本発明の技術的思想が適用可能なことは言うまでもない。この場合には、画像操作手段13cは、光点情報記憶領域12cに記憶されている「光点位置情報」の履歴から、ユーザの指の動きを解析し、ユーザの指の動きに対応する「画像操作コマンド」を生成し、画像操作コマンド記憶領域12dに記憶させ、投影画像生成手段13aは、画像操作コマンド記憶領域12dに記憶されている「画像操作コマンド」に基づいて、「描画命令」を生成して、当該「描画命令」を投影画像コントローラ17に出力する。   In the above description, the embodiment in which the user moves the image 501 projected on the projection area 999 has been described. However, as illustrated in FIG. 7, the corner of the image 501 is “dragged and dropped”, or Needless to say, the technical idea of the present invention can also be applied to an image display apparatus that enlarges the image 501 by multi-touching diagonal lines of the image 501 by a plurality of users. Needless to say, the technical idea of the present invention can also be applied to an image display apparatus that performs operations such as reducing an image 501 and closing the image 501. In this case, the image operation means 13c analyzes the movement of the user's finger from the history of “light spot position information” stored in the light spot information storage area 12c, and corresponds to the movement of the user's finger. An image operation command ”is generated and stored in the image operation command storage area 12d, and the projection image generation means 13a generates a“ drawing command ”based on the“ image operation command ”stored in the image operation command storage area 12d. The “drawing command” is generated and output to the projection image controller 17.

以上説明した実施形態では、赤外線発光装置15をユーザの指に装着しているが、赤外線発光装置15をユーザの手に装着することにしても差し支えない。   In the embodiment described above, the infrared light emitting device 15 is attached to the user's finger, but the infrared light emitting device 15 may be attached to the user's hand.

以上説明した実施形態では、「撮像画像データ」、「光点位置情報」及び「画像操作コマンド」が記憶される記憶領域としてRAM12を使用しているが、前記記憶領域としてフラッシュメモリーやハードディスク等の補助記憶装置を使用しても差し支えない。   In the embodiment described above, the RAM 12 is used as a storage area for storing “captured image data”, “light spot position information”, and “image operation command”. However, the storage area may be a flash memory or a hard disk. An auxiliary storage device can be used.

以上説明した実施形態では、赤外線を発光する赤外線発光装置15及び撮像手段30として赤外線カメラを用いた実施形態について本発明を説明したが、可視光線を発光する発光装置を用い、この発光装置が発光する光点を、可視光を撮像する撮像手段30で撮像して、ユーザの指の動きを検出することとしても差し支えない。この場合には、撮像手段30には、可視光カットフィルターの代わりに赤外線カットフィルターが設けられていて、可視光を撮像するようになっている。   In the embodiment described above, the present invention has been described with respect to the embodiment using the infrared camera as the infrared light emitting device 15 that emits infrared light and the imaging unit 30, but this light emitting device emits light using a light emitting device that emits visible light. The light spot to be picked up may be picked up by the image pickup means 30 for picking up visible light to detect the movement of the user's finger. In this case, the imaging means 30 is provided with an infrared cut filter instead of the visible light cut filter so as to capture visible light.

以上、現時点において、もっとも、実践的であり、かつ好ましいと思われる実施形態に関連して本発明を説明したが、本発明は、本願明細書中に開示された実施形態に限定されるものではなく、請求の範囲および明細書全体から読み取れる発明の要旨あるいは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う画像表示装置もまた技術的範囲に包含されるものとして理解されなければならない。   Although the present invention has been described above in connection with the most practical and preferred embodiments at the present time, the present invention is not limited to the embodiments disclosed herein. However, the present invention can be appropriately changed without departing from the spirit or concept of the invention that can be read from the claims and the entire specification, and an image display device with such a change should also be understood as being included in the technical scope. I must.

9 バス
10 制御部
11 CPU
12 RAM
12a 画像データ記憶領域
12b 撮像画像データ記憶領域
12c 光点情報記憶領域
12d 画像操作コマンド記憶領域
13 ROM
13a 投影画像生成手段
13b 光点情報生成手段
13c 画像操作手段
15 撮像画像コントローラ
17 投影画像コントローラ
18 VRAM
19 入力部
20 投影手段
30 撮像手段
100 画像表示装置
150 赤外線発光装置
150a 電源部
150b 赤外線発光部
150c 装着部
501 投影画像
950 光点
999 被投影領域
9 Bus 10 Control unit 11 CPU
12 RAM
12a Image data storage area 12b Captured image data storage area 12c Light spot information storage area 12d Image operation command storage area 13 ROM
13a Projected image generating means 13b Light spot information generating means 13c Image operating means 15 Captured image controller 17 Projected image controller 18 VRAM
DESCRIPTION OF SYMBOLS 19 Input part 20 Projection means 30 Imaging means 100 Image display apparatus 150 Infrared light-emitting device 150a Power supply part 150b Infrared light-emitting part 150c Mounting part 501 Projected image 950 Light spot 999 Projection area

Claims (8)

被投影領域に画像を投影する投影手段と、
前記被投影領域を撮像し、撮像画像データを生成する撮像手段と、
ユーザの手に装着される発光手段と、
前記撮像画像データから、前記発光手段により発光された光の前記被投影領域上の位置を特定し、光点位置情報を生成する光点情報生成手段と、
前記光点情報生成手段が生成した光点位置情報が記憶される記憶手段と、
前記記憶手段に記憶された光点位置情報に基づいて、被投影領域上のユーザの手の動きを解析し、被投影領域に投影された画像を操作する画像操作コマンドを生成する画像操作手段と、
を有することを特徴とする画像表示装置。
Projecting means for projecting an image onto the projection area;
Imaging means for imaging the projection area and generating captured image data;
Light-emitting means worn on the user's hand;
A light spot information generating means for specifying a position on the projection area of the light emitted by the light emitting means from the captured image data, and generating light spot position information;
Storage means for storing light spot position information generated by the light spot information generating means;
Image operation means for analyzing the movement of the user's hand on the projection area based on the light spot position information stored in the storage means and generating an image operation command for operating the image projected on the projection area; ,
An image display device comprising:
画像操作手段はさらに、撮像画像データから検出される光の強度が所定値以上である場合に、画像操作コマンドを生成することを特徴とする請求項1に記載の画像表示装置。   The image display device according to claim 1, wherein the image operation unit further generates an image operation command when the intensity of light detected from the captured image data is equal to or greater than a predetermined value. 撮像画像データから検出される光の位置が、投影手段が投影する画像の領域内にあり、且つ、前記光の強度が所定値以上の場合に、
画像操作手段は、前記光の位置の移動に応じて画像の様態を変化させる画像操作コマンドを生成することを特徴とする請求項2に記載の画像表示装置。
When the position of the light detected from the captured image data is within the area of the image projected by the projection means, and the light intensity is a predetermined value or more,
The image display device according to claim 2, wherein the image operation unit generates an image operation command for changing an image state according to the movement of the position of the light.
撮像画像データから検出される光の位置が、投影手段が投影する画像の領域内にあり、且つ、前記光の強度が所定値以上の場合に、
画像操作手段は、前記光の位置の移動に伴って画像を移動させる画像操作コマンドを生成することを特徴とする請求項3に記載の画像表示装置。
When the position of the light detected from the captured image data is within the area of the image projected by the projection means, and the light intensity is a predetermined value or more,
The image display device according to claim 3, wherein the image operation unit generates an image operation command for moving an image in accordance with the movement of the position of the light.
発光手段は、被投影領域に対して光を照射するように設けられ、
撮像手段は、前記発光手段により発光された光が被投影領域で反射した反射光を撮像し、
光点情報生成手段は、前記撮像手段が撮像した前記反射光を光点として認識して、光点位置情報を生成することを特徴とする請求項1〜請求項4のいずれかに記載の画像表示装置。
The light emitting means is provided to irradiate the projection area with light,
The imaging means images reflected light reflected by the projection area by the light emitted by the light emitting means,
The image according to any one of claims 1 to 4, wherein the light spot information generating means recognizes the reflected light imaged by the imaging means as a light spot and generates light spot position information. Display device.
発光手段は指先に装着され、指先方向に発散光を放射することを特徴とする請求項5に記載の画像表示装置。   6. The image display device according to claim 5, wherein the light emitting means is attached to the fingertip and emits divergent light in the fingertip direction. 投影手段は、被投影領域に対向して配置されていることを特徴とする請求項1〜請求項6のいずれかに記載の画像表示装置。   The image display apparatus according to claim 1, wherein the projecting unit is arranged to face the projection area. 発光手段は赤外線を発光し、
撮像手段は前記発光手段が発光した赤外線を撮像する赤外線カメラであることを特徴とする請求項1〜請求項7のいずれかに記載の画像表示装置。
The light emitting means emits infrared rays,
The image display apparatus according to claim 1, wherein the imaging unit is an infrared camera that captures infrared rays emitted by the light emitting unit.
JP2009189855A 2009-08-19 2009-08-19 Image display device Withdrawn JP2011043876A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009189855A JP2011043876A (en) 2009-08-19 2009-08-19 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009189855A JP2011043876A (en) 2009-08-19 2009-08-19 Image display device

Publications (1)

Publication Number Publication Date
JP2011043876A true JP2011043876A (en) 2011-03-03

Family

ID=43831278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009189855A Withdrawn JP2011043876A (en) 2009-08-19 2009-08-19 Image display device

Country Status (1)

Country Link
JP (1) JP2011043876A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073199A (en) * 2011-09-29 2013-04-22 Casio Comput Co Ltd Projector device
CN103558909A (en) * 2013-10-10 2014-02-05 北京智谷睿拓技术服务有限公司 Interactive projection display method and interactive projection display system
JP2016001354A (en) * 2014-06-11 2016-01-07 パナソニックIpマネジメント株式会社 Projection area setting device, and work detection system using the projection area setting device
JP5973087B2 (en) * 2013-11-19 2016-08-23 日立マクセル株式会社 Projection-type image display device
JP2016186656A (en) * 2016-07-13 2016-10-27 日立マクセル株式会社 Projection type image display apparatus
US9867532B2 (en) 2013-07-31 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd System for detecting optical parameter of eye, and method for detecting optical parameter of eye
US9867756B2 (en) 2013-08-22 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Eyesight-protection imaging system and eyesight-protection imaging method
US10048750B2 (en) 2013-08-30 2018-08-14 Beijing Zhigu Rui Tuo Tech Co., Ltd Content projection system and content projection method
US10191276B2 (en) 2013-06-28 2019-01-29 Beijing Zhigu Rui Tuo Tech Co., Ltd Imaging adjustment device and imaging adjustment method
US10261345B2 (en) 2013-06-28 2019-04-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Imaging adjustment device and imaging adjustment method
US10395510B2 (en) 2013-08-30 2019-08-27 Beijing Zhigu Rui Tuo Tech Co., Ltd Reminding method and reminding device
US10481396B2 (en) 2013-06-28 2019-11-19 Beijing Zhigu Rui Tuo Tech Co., Ltd. Imaging device and imaging method
US10551638B2 (en) 2013-07-31 2020-02-04 Beijing Zhigu Rui Tuo Tech Co., Ltd. Imaging apparatus and imaging method
US10583068B2 (en) 2013-08-22 2020-03-10 Beijing Zhigu Rui Tuo Tech Co., Ltd Eyesight-protection imaging apparatus and eyesight-protection imaging method
CN113010133A (en) * 2021-04-08 2021-06-22 腾讯科技(深圳)有限公司 Data display method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073199A (en) * 2011-09-29 2013-04-22 Casio Comput Co Ltd Projector device
US10261345B2 (en) 2013-06-28 2019-04-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Imaging adjustment device and imaging adjustment method
US10481396B2 (en) 2013-06-28 2019-11-19 Beijing Zhigu Rui Tuo Tech Co., Ltd. Imaging device and imaging method
US10191276B2 (en) 2013-06-28 2019-01-29 Beijing Zhigu Rui Tuo Tech Co., Ltd Imaging adjustment device and imaging adjustment method
US10551638B2 (en) 2013-07-31 2020-02-04 Beijing Zhigu Rui Tuo Tech Co., Ltd. Imaging apparatus and imaging method
US9867532B2 (en) 2013-07-31 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd System for detecting optical parameter of eye, and method for detecting optical parameter of eye
US10583068B2 (en) 2013-08-22 2020-03-10 Beijing Zhigu Rui Tuo Tech Co., Ltd Eyesight-protection imaging apparatus and eyesight-protection imaging method
US9867756B2 (en) 2013-08-22 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Eyesight-protection imaging system and eyesight-protection imaging method
US10048750B2 (en) 2013-08-30 2018-08-14 Beijing Zhigu Rui Tuo Tech Co., Ltd Content projection system and content projection method
US10395510B2 (en) 2013-08-30 2019-08-27 Beijing Zhigu Rui Tuo Tech Co., Ltd Reminding method and reminding device
CN103558909A (en) * 2013-10-10 2014-02-05 北京智谷睿拓技术服务有限公司 Interactive projection display method and interactive projection display system
US9870050B2 (en) 2013-10-10 2018-01-16 Beijing Zhigu Rui Tuo Tech Co., Ltd Interactive projection display
US9927923B2 (en) 2013-11-19 2018-03-27 Hitachi Maxell, Ltd. Projection-type video display device
US10191594B2 (en) 2013-11-19 2019-01-29 Maxell, Ltd. Projection-type video display device
JP5973087B2 (en) * 2013-11-19 2016-08-23 日立マクセル株式会社 Projection-type image display device
JP2016001354A (en) * 2014-06-11 2016-01-07 パナソニックIpマネジメント株式会社 Projection area setting device, and work detection system using the projection area setting device
JP2016186656A (en) * 2016-07-13 2016-10-27 日立マクセル株式会社 Projection type image display apparatus
CN113010133A (en) * 2021-04-08 2021-06-22 腾讯科技(深圳)有限公司 Data display method
CN113010133B (en) * 2021-04-08 2023-04-07 腾讯科技(深圳)有限公司 Data display method

Similar Documents

Publication Publication Date Title
JP2011043876A (en) Image display device
US10659681B2 (en) Information processing apparatus, information processing method, and program
JP3640156B2 (en) Pointed position detection system and method, presentation system, and information storage medium
JP5680976B2 (en) Electronic blackboard system and program
WO2012124730A1 (en) Detection device, input device, projector, and electronic apparatus
JP6282758B2 (en) Projection-type image display device and image display method
JP6111706B2 (en) Position detection apparatus, adjustment method, and adjustment program
TWI706181B (en) Imaging devices having autofocus control
JP2012256000A (en) Projection video display device
EP1608157A2 (en) Method and system for reducing effects of undesired signals in an infrared imaging system
JP5258399B2 (en) Image projection apparatus and control method thereof
JP2011180712A (en) Projection type image display apparatus
JP5817149B2 (en) Projection device
JP2012185630A (en) Projection device
JP2009093634A (en) Method for displaying image of object placed on surface computer, surface computer and computer program
JP2012053584A (en) Information display system and program
JP2009070245A (en) Image projection display device, image projection display method, image projection display program and storage medium
JP6350175B2 (en) POSITION DETECTION DEVICE, PROJECTOR, AND POSITION DETECTION METHOD
US20120218294A1 (en) Projection-type image display apparatus
JP2011188023A (en) Information processing unit, method of processing information, and program
JP2012053603A (en) Information display system
JP5924577B2 (en) Position detection device
JP2005078291A (en) Image projecting and displaying device, pointing position detecting method, program and recording medium
JP2005339269A (en) Image display device
Kim et al. Multi-touch tabletop interface technique for HCI

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121106