JP2011043545A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2011043545A
JP2011043545A JP2009189853A JP2009189853A JP2011043545A JP 2011043545 A JP2011043545 A JP 2011043545A JP 2009189853 A JP2009189853 A JP 2009189853A JP 2009189853 A JP2009189853 A JP 2009189853A JP 2011043545 A JP2011043545 A JP 2011043545A
Authority
JP
Japan
Prior art keywords
image
projection
image data
entity
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009189853A
Other languages
Japanese (ja)
Inventor
Tomohiro Sato
知裕 佐藤
Noriyuki Fujimura
憲之 藤村
Masanori Oda
昌範 小田
Sakiko Kobayashi
佐紀子 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009189853A priority Critical patent/JP2011043545A/en
Publication of JP2011043545A publication Critical patent/JP2011043545A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display device which can make a user perceive that projected related image is related to a real substance. <P>SOLUTION: An imaging means 30 picks up a region 999 to be projected and acquires a related image 501 relating to a real image 801a on the basis of discrimination identification information 801b. A projection means 20 projects the related image 501 to a position superimposed on the real image 801a. The projection means 20 projects the related image 501 so that it may move gradually to the outside direction of the real image 801a, and standstill-projects the related image 501 at the region 999 to be projected of the outside of the real image 801a. The related image 501 is displayed as if it is generated from the real image 801a, the related image 501 is animation-displayed moving continuously from a first position to a second position, and it can be perceived by the user that the related image 501 is related to the real image 801a. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、実画像に関連する関連画像を実画像の近傍に投影する画像表示装置に関する。   The present invention relates to an image display device that projects a related image related to a real image in the vicinity of the real image.

従来、特許文献1に示されるように、印刷物等の実体物と関連する情報を同一視野内で同時に見ることができる情報表示装置が提案されている。このような情報表示装置は、実体物に設けられた識別情報発信源を読み取ることにより前記実体物を識別し、この実体物に関連する関連画像を検索して、当該関連画像を実体物の隣に投影する装置である。例えば、実体物が絵画である場合において、ユーザがこの絵画の情報を知りたい場合に、前記絵画の解説文を関連画像として絵画の隣に投影させることにより、ユーザが絵画を鑑賞しながら解説文を読むことができる。   Conventionally, as disclosed in Patent Document 1, an information display device that can simultaneously view information related to an entity such as a printed matter within the same field of view has been proposed. Such an information display device identifies the entity by reading an identification information transmission source provided on the entity, searches for a related image related to the entity, and locates the related image next to the entity. It is a device that projects to. For example, if the entity is a painting and the user wants to know information about this painting, the explanatory text of the painting is projected next to the painting as a related image, so that the user can appreciate the painting while viewing the painting. Can read.

しかしながら、実体物が多数有る場合には、実体物の隣に関連画像を投影するだけでは、投影された関連画像がどの実体物と関連しているかを、ユーザが認識し難いというという問題があった。   However, when there are a large number of entities, there is a problem that it is difficult for the user to recognize to which entity the projected related image is related only by projecting the related image next to the entity. It was.

特開2009―8905号公報JP 2009-8905 A

本発明は、上記問題を解決し、投影された関連画像が実体物と関連していることを、ユーザに知覚させることができる画像表示装置を提供する。   The present invention solves the above problems and provides an image display device that allows a user to perceive that a projected related image is related to an entity.

上記課題を解決するためになされた請求項1に記載の発明は、
表面に実画像が記載された実体物又は表面に実画像が表示される実体物が載置される被投影面と対向して配置され、前記被投影面に画像を投影する投影手段と、
被投影面を撮像する撮像手段と、
前記撮像手段により撮像された撮像画像から、前記実画像の被投影面上の位置を認識し、実画像位置情報を生成する実体物位置認識手段と、
前記実体物の識別情報を取得する識別情報取得手段と、
前記識別情報取得手段が取得した前記実体物の識別情報に基づいて、前記実画像と関連する関連画像が記憶された記憶手段から、前記実体物と対応する前記関連画像を取得する関連画像取得手段と、
前記実画像位置情報に基づいて、実画像上に重畳する位置である第1位置に前記関連画像が投影される第1投影画像データと、実画像の外側であって且つ実体物及び被投影面上の少なくとも一方の位置である第2位置に前記関連画像が投影される第2投影画像データとを生成する投影画像データ生成手段と、
前記第1投影画像データ及び前記第2投影画像データの何れか一方を画像信号として前記投影手段に出力した後に、他方を画像信号として前記投影手段に出力する画像信号生成手段と、
を有することを特徴とする。
The invention according to claim 1, which has been made to solve the above problems,
A projecting means that is arranged to face a projection surface on which an entity on which a real image is described or an entity on which a real image is displayed is placed, and projects an image on the projection surface;
An imaging means for imaging the projection surface;
Entity position recognition means for recognizing a position on the projection surface of the real image from the picked-up image picked up by the image pickup means, and generating real image position information;
Identification information acquisition means for acquiring identification information of the entity;
Based on the identification information of the entity acquired by the identification information acquisition unit, the related image acquisition unit acquires the related image corresponding to the entity from the storage unit storing the related image related to the real image. When,
Based on the real image position information, first projection image data in which the related image is projected onto a first position that is a position to be superimposed on the real image, and an entity and a projection surface that are outside the real image Projection image data generation means for generating second projection image data in which the related image is projected to a second position which is at least one of the positions above;
Image signal generating means for outputting one of the first projection image data and the second projection image data as an image signal to the projection means and then outputting the other as an image signal to the projection means;
It is characterized by having.

請求項2に記載の発明は、請求項1に記載の発明において、投影画像データ生成手段は、第1投影画像データが投影される第1位置と第2投影画像データが投影される第2位置との間を連続的に補完する位置である第3位置に、関連画像が投影される第3投影画像データを生成し、
画像信号生成手段はさらに、前記第1投影画像データ及び前記第2投影画像データの何れか一方を画像信号として前記投影手段に出力した後であって、且つ他方を画像信号として前記投影手段に出力する前に、前記第3投影画像データを画像信号として前記投影手段に出力することを特徴とする。
According to a second aspect of the present invention, in the first aspect of the present invention, the projection image data generating means includes a first position where the first projection image data is projected and a second position where the second projection image data is projected. Generating third projection image data in which a related image is projected at a third position that is a position that continuously complements
The image signal generation means further outputs one of the first projection image data and the second projection image data as an image signal to the projection means, and outputs the other as an image signal to the projection means. Before performing, the third projection image data is output as an image signal to the projection means.

請求項3に記載の発明は、請求項1又は請求項2に記載の発明において、投影画像データ生成手段は、実体物上と露出した被投影面とで、投影される関連画像の明度を異ならせることを特徴とする。   According to a third aspect of the present invention, in the invention according to the first or second aspect, the projection image data generating means is configured to change the brightness of the related image to be projected between the object and the exposed projection surface. It is characterized by making it.

請求項4に記載の発明は、請求項1又は請求項2に記載の発明において、投影画像データ生成手段は、実体物及び露出した被投影面の少なくとも一方の面上であって、明度が一定以上で且つコントラストが一定以下の領域に関連画像を投影させることを特徴とする。   According to a fourth aspect of the present invention, in the first or second aspect of the present invention, the projection image data generating means is on at least one of the entity and the exposed projection surface and has a constant brightness. The related image is projected onto an area having the above-described contrast and a certain level or less.

請求項5に記載の発明は、請求項1又は請求項2に記載の発明において、投影画像データ生成手段は、露出した被投影面上に関連画像を投影させることを特徴とする。   According to a fifth aspect of the present invention, in the first or second aspect of the present invention, the projection image data generating means projects a related image on the exposed projection surface.

請求項6に記載の発明は、請求項4又は請求項5に記載の発明において、投影画像データ生成手段は、関連画像が投影されるべき領域に関連画像を投影することができない場合には、関連画像を縮小して前記領域に投影させることを特徴とする。   The invention according to claim 6 is the invention according to claim 4 or claim 5, wherein the projection image data generation means cannot project the related image to the region where the related image is to be projected. The related image is reduced and projected onto the area.

請求項7に記載の発明は、請求項1〜請求項6に記載の発明において、
識別情報取得手段が取得した実体物の識別情報に基づいて、前記実体物と対応する関連画像が記憶手段に存在するか否かを判断する存在判断手段をさらに備え、
関連画像取得手段は、前記存在判断手段が、前記関連画像が記憶手段に存在すると判断した場合に、前記関連画像を前記記憶手段から取得することを特徴とする。
The invention according to claim 7 is the invention according to claims 1 to 6,
Based on the identification information of the entity acquired by the identification information acquisition unit, further comprising presence determination means for determining whether a related image corresponding to the entity exists in the storage unit;
The related image acquisition unit acquires the related image from the storage unit when the presence determination unit determines that the related image exists in the storage unit.

請求項1に記載の発明は、表面に実画像が記載された実体物又は表面に実画像が表示される実体物が載置される被投影面と対向して配置され、前記被投影面に画像を投影する投影手段と、被投影面を撮像する撮像手段と、前記撮像手段により撮像された撮像画像から、前記実画像の被投影面上の位置を認識し、実画像位置情報を生成する実体物位置認識手段と、前記実体物の識別情報を取得する識別情報取得手段と、前記識別情報取得手段が取得した前記実体物の識別情報に基づいて、前記実画像と関連する関連画像が記憶された記憶手段から、前記実体物と対応する前記関連画像を取得する関連画像取得手段と、前記実画像位置情報に基づいて、実画像上に重畳する位置である第1位置に前記関連画像が投影される第1投影画像データと、実画像の外側であって且つ実体物及び被投影面上の少なくとも一方の位置である第2位置に前記関連画像が投影される第2投影画像データとを生成する投影画像データ生成手段と、前記第1投影画像データ及び前記第2投影画像データの何れか一方を画像信号として前記投影手段に出力した後に、他方を画像信号として前記投影手段に出力する画像信号生成手段を有することを特徴とする。
これにより、関連画像が前記第2位置に投影される前に、関連画像が実画像上に重畳する位置に投影されるので、あたかも関連画像が実画像から生成されたような印象をユーザに与える。即ち、投影された関連画像が実体物と関連していることを、ユーザに知覚させることが可能となる。
或いは、第2位置に関連画像を投影した後に、実画像がある第1位置に関連画像が投影されるので、関連画像が実画像に関連があることを、ユーザに知覚させることが可能となる。
The invention according to claim 1 is disposed opposite to a projection surface on which an entity on which a real image is described on a surface or an entity on which a real image is displayed is placed, and is disposed on the projection surface. Recognizing the position of the real image on the projection surface from the projection unit for projecting the image, the imaging unit for imaging the projection surface, and the captured image captured by the imaging unit, and generating real image position information An entity position recognition unit, an identification information acquisition unit that acquires the identification information of the entity, and a related image associated with the actual image is stored based on the identification information of the entity acquired by the identification information acquisition unit. The related image is acquired at a first position that is a position to be superimposed on the actual image based on the actual image position information, and the related image acquisition unit that acquires the related image corresponding to the entity from the stored storage unit. First projected image data to be projected; Projection image data generating means for generating second projection image data in which the related image is projected to a second position which is outside the image and at least one position on the entity and the projection surface; Image signal generating means for outputting either one of the projection image data and the second projection image data as an image signal to the projection means and then outputting the other as an image signal to the projection means is provided.
Thereby, before the related image is projected onto the second position, the related image is projected at a position where the related image is superimposed on the real image, so that the user feels as if the related image is generated from the real image. . In other words, the user can perceive that the projected related image is related to the entity.
Alternatively, after the related image is projected to the second position, the related image is projected to the first position where the actual image is, so that the user can perceive that the related image is related to the actual image. .

請求項2に記載の発明は、請求項1に記載の発明において、投影画像データ生成手段は、第1投影画像データが投影される第1位置と第2投影画像データが投影される第2位置との間を連続的に補完する位置である第3位置に、関連画像が投影される第3投影画像データを生成し、画像信号生成手段はさらに、前記第1投影画像データ及び前記第2投影画像データの何れか一方を画像信号として前記投影手段に出力した後であって、且つ他方を画像信号として前記投影手段に出力する前に、前記第3投影画像データを画像信号として前記投影手段に出力することを特徴とする。
これにより、関連画像が第1位置から第2位置に連続的に移動しながら表示されるので、関連画像が実画像と関連している印象をユーザに強くに与え、より一層、投影された関連画像が実体物と関連していることを、ユーザに知覚させることが可能となる。
或いは、関連画像が第2位置から第1位置に連続的に移動しながら表示されるので、あたかも関連画像が実画像に収納されたかのような印象をユーザに与え、被投影領域に投影されている関連画像が実画像に関連があることを、ユーザに知覚させることが可能となる。
According to a second aspect of the present invention, in the first aspect of the present invention, the projection image data generating means includes a first position where the first projection image data is projected and a second position where the second projection image data is projected. Generating third projection image data on which the related image is projected at a third position, which is a position that continuously complements between the first projection image data and the second projection. After outputting one of the image data as an image signal to the projection unit and before outputting the other as an image signal to the projection unit, the third projection image data is output to the projection unit as an image signal. It is characterized by outputting.
Thereby, since the related image is displayed while continuously moving from the first position to the second position, the user is strongly given an impression that the related image is related to the actual image, and the projected related image is further projected. It is possible to make the user perceive that the image is related to the entity.
Alternatively, since the related image is displayed while continuously moving from the second position to the first position, the user is given an impression as if the related image is stored in the actual image, and is projected onto the projection area. The user can perceive that the related image is related to the actual image.

請求項3に記載の発明は、請求項1又は請求項2に記載の発明において、投影画像データ生成手段は、実体物上と露出した被投影面とで、投影される関連画像の明度を異ならせることを特徴とする。
これにより、実体物上で、明度を下げて関連画像を投影することにより、ユーザが実体物を視認することが容易となる。
或いは、実体物上で、明度を上げて関連画像を投影すると、実体物上で関連画像が強調されて表示されるので、ユーザが関連画像を視認し易くなる。
According to a third aspect of the present invention, in the invention according to the first or second aspect, the projection image data generating means is configured to change the brightness of the related image to be projected between the object and the exposed projection surface. It is characterized by making it.
Thereby, it becomes easy for a user to visually recognize an entity by projecting a related image at a reduced brightness on the entity.
Alternatively, when the related image is projected with the brightness increased on the entity, the related image is displayed in an emphasized manner on the entity, so that the user can easily view the related image.

請求項4に記載の発明は、請求項1又は請求項2に記載の発明において、投影画像データ生成手段は、実体物及び露出した被投影面の少なくとも一方の面上であって、明度が一定以上で且つコントラストが一定以下の領域に関連画像を投影させることを特徴とする。
これにより、被投影領域上に実体物等が多数載置されている場合であっても、前記実体物に対応する関連画像を投影することが可能となる。
According to a fourth aspect of the present invention, in the first or second aspect of the present invention, the projection image data generating means is on at least one of the entity and the exposed projection surface and has a constant brightness. The related image is projected onto an area having the above-described contrast and a certain level or less.
As a result, even when a large number of entities and the like are placed on the projection area, it is possible to project a related image corresponding to the entity.

請求項5に記載の発明は、請求項1又は請求項2に記載の発明において、投影画像データ生成手段は、露出した被投影面上に関連画像を投影させることを特徴とする。
これにより、関連画像が実体物に重なって投影されないので、ユーザが関連画像を鮮明に視認することが可能となる。
According to a fifth aspect of the present invention, in the first or second aspect of the present invention, the projection image data generating means projects a related image on the exposed projection surface.
As a result, the related image is not projected onto the entity, so that the user can clearly see the related image.

請求項6に記載の発明は、請求項4又は請求項5に記載の発明において、投影画像データ生成手段は、関連画像が投影されるべき領域に関連画像を投影することができない場合には、関連画像を縮小して前記領域に投影させることを特徴とする。
これにより、被投影領域上に実体物等が多数載置されて、関連画像を投影可能な領域が狭小であったとしても、前記実体物に対応する関連画像を投影することが可能となる。
The invention according to claim 6 is the invention according to claim 4 or claim 5, wherein the projection image data generation means cannot project the related image to the region where the related image is to be projected. The related image is reduced and projected onto the area.
As a result, even if a large number of entities and the like are placed on the projection area and the area where the related image can be projected is narrow, the related image corresponding to the entity can be projected.

請求項7に記載の発明は、請求項1〜請求項6に記載の発明において、
識別情報取得手段が取得した実体物の識別情報に基づいて、前記実体物と対応する関連画像が記憶手段に存在するか否かを判断する存在判断手段をさらに備え、
関連画像取得手段は、前記存在判断手段が、前記関連画像が記憶手段に存在すると判断した場合に、前記関連画像を前記記憶手段から取得することを特徴とする。
これにより、記憶手段に、識別情報と関連画像の関連を表した情報テーブルを記憶させ、前記存在判断手段は、識別情報取得手段が取得した実体物の識別情報が、情報テーブルに存在するか否かを判断して、実体物と対応する関連画像が記憶手段に存在するか否かを判断すると、実体物と対応する関連画像の検索を迅速、且つ、確実に行うことが可能となり、迅速に関連画像を取得することが可能となる。
The invention according to claim 7 is the invention according to claims 1 to 6,
Based on the identification information of the entity acquired by the identification information acquisition unit, further comprising presence determination means for determining whether a related image corresponding to the entity exists in the storage unit;
The related image acquisition unit acquires the related image from the storage unit when the presence determination unit determines that the related image exists in the storage unit.
Thus, an information table representing the relationship between the identification information and the related image is stored in the storage unit, and the existence determination unit determines whether the entity identification information acquired by the identification information acquisition unit exists in the information table. If it is determined whether or not the related image corresponding to the entity exists in the storage unit, it is possible to quickly and surely search for the related image corresponding to the entity and quickly It is possible to acquire related images.

本発明の実施形態に係る、画像表示装置の概要図である。1 is a schematic diagram of an image display device according to an embodiment of the present invention. 関連画像の投影状態の説明図である。It is explanatory drawing of the projection state of a related image. 画像表示装置のブロック図である。It is a block diagram of an image display apparatus. 情報テーブルの説明図である。It is explanatory drawing of an information table. メイン処理にフロー図である。(第1の実施形態)It is a flowchart in a main process. (First embodiment) 関連画像の投影状態の説明図である。(第2の実施形態)It is explanatory drawing of the projection state of a related image. (Second Embodiment) 関連画像の投影状態の説明図である。(第3の実施形態)It is explanatory drawing of the projection state of a related image. (Third embodiment) 関連画像の投影状態の説明図である。(第4の実施形態)It is explanatory drawing of the projection state of a related image. (Fourth embodiment)

(本発明の画像表示装置の概要)
以下に図面を参照しつつ、本発明の好ましい実施の形態を示す。図1に示されるように、本発明の画像表示装置100は、制御部10、投影手段20、撮像手段30とから構成されている。投影手段20及び撮像手段30は、テーブルの板面等の被投影領域999と対向して配置されている。投影手段20は、制御手段10が出力する「画像信号」に基づいて、関連画像501を被投影領域999に投影する装置である。撮像手段30は、被投影領域999を撮像する装置である。関連画像501とは、被投影領域999上に載置された、印刷物等の実体物801の表面に記載された実画像801aと関連する画像であり、例えば、実画像801aが絵画である場合には、関連画像501は前記絵画の解説文等である。実体物801には、二次元コードやバーコード等の識別情報801bが記載されている。
(Outline of the image display device of the present invention)
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. As shown in FIG. 1, the image display device 100 of the present invention includes a control unit 10, a projection unit 20, and an imaging unit 30. The projection unit 20 and the imaging unit 30 are disposed to face a projection area 999 such as a plate surface of a table. The projection unit 20 is a device that projects the related image 501 onto the projection area 999 based on the “image signal” output from the control unit 10. The imaging unit 30 is a device that images the projection area 999. The related image 501 is an image related to the real image 801a placed on the projection area 999 and described on the surface of the entity 801 such as a printed material. For example, when the real image 801a is a painting, The related image 501 is a commentary on the picture. In the entity 801, identification information 801b such as a two-dimensional code and a barcode is described.

本発明では、被投影領域999上に実体物801が載置されると(図2の(A)の状態)、撮像手段20が被投影領域999を撮像することにより、識別情報801bが制御装置10に読み込まれ、制御装置10は前記識別情報801bに基づいて、実画像801aと関連する関連画像501を、データベースである記憶手段200(図3に示す)から取得する。
そして、投影手段20は、実画像801a上に重畳する位置に(第1位置)、関連画像501が浮き上がって表示されるように投影する(図2の(B)の状態)。具体的には、関連画像501を実画像801a上で点滅表示することにより、あたかも関連画像501が実画像801aから浮き上がって生成されたような印象をユーザに与えるようになっている。
次に、投影手段20は、関連画像501が実画像801aの外側方向に徐々に移動するように、関連画像501を投影し(図2の(C)の状態)、更に関連画像501を実画像801aの外側の被投影領域999に(第2位置)に静止投影する(図2の(D)の状態)。
このように関連画像501が実画像801aから浮き上がって生成されたように表示され、関連画像501が前記第1位置から第2位置に連続的に移動しながらアニメーション表示されるので、関連画像501が実画像801aと関連している印象をユーザに強烈に与える。
In the present invention, when the entity 801 is placed on the projection area 999 (the state of FIG. 2A), the imaging unit 20 images the projection area 999, so that the identification information 801b is controlled by the control device. 10, based on the identification information 801 b, the control device 10 acquires a related image 501 related to the real image 801 a from the storage unit 200 (shown in FIG. 3) that is a database.
Then, the projecting means 20 projects the related image 501 so as to float and be displayed at the position superimposed on the real image 801a (first position) (state (B) in FIG. 2). Specifically, the related image 501 blinks on the real image 801a to give the user the impression that the related image 501 is generated from the real image 801a.
Next, the projecting means 20 projects the related image 501 so that the related image 501 gradually moves in the outward direction of the real image 801a (state (C) in FIG. 2), and further, the related image 501 is displayed as the real image. Still projection is performed on the second projection area 999 outside the area 801a (state (D) in FIG. 2).
In this way, the related image 501 is displayed as if it is generated from the actual image 801a, and the related image 501 is animated while continuously moving from the first position to the second position. The user is strongly given an impression related to the real image 801a.

(画像表示装置のブロック図)
以下に図3を用いて、画像表示装置100のブロック図を説明する。制御部10は、CPU11、RAM12、ROM13、撮像コントローラ15、投影画像コントローラ17、VRAM18、入力部19を有していて、これらは相互にバス9で接続されている。なお、投影画像コントローラ17とVRAM18は相互に接続している。
(Block diagram of image display device)
Hereinafter, a block diagram of the image display device 100 will be described with reference to FIG. The control unit 10 includes a CPU 11, a RAM 12, a ROM 13, an imaging controller 15, a projection image controller 17, a VRAM 18, and an input unit 19, which are connected to each other via a bus 9. The projection image controller 17 and the VRAM 18 are connected to each other.

CPU11は、RAM12、ROM13と協動して、各種演算、処理を行う。
RAM12は、CPU11で処理されるプログラムや、CPU11が処理するデータを、そのアドレス空間に一時的に記憶する。RAM12は、撮像画像データ記憶領域12a、実体物位置情報記憶領域12b、識別情報記憶領域12c、情報テーブル検索結果記憶領域12d、関連画像データ記憶領域12eを有している。
撮像画像データ記憶領域12aには、撮像手段30で撮像され、撮像コントローラ15で生成された「撮像画像データ」が記憶される。
実体物位置情報記憶領域12bには、後述する「実体物位置情報」及び「実画像位置情報」が記憶される。
識別情報記憶領域12cには、後述する「識別情報」が記憶される。
情報テーブル検索結果記憶領域12dには、記憶手段200の情報テーブル記憶領域200aから取得した「情報テーブル」が記憶される記憶される。
関連画像記憶領域12eには、後述するように入力部19で取得された「関連画像」が記憶される。
The CPU 11 performs various calculations and processes in cooperation with the RAM 12 and the ROM 13.
The RAM 12 temporarily stores a program processed by the CPU 11 and data processed by the CPU 11 in its address space. The RAM 12 includes a captured image data storage area 12a, an entity position information storage area 12b, an identification information storage area 12c, an information table search result storage area 12d, and a related image data storage area 12e.
In the captured image data storage area 12 a, “captured image data” captured by the imaging unit 30 and generated by the imaging controller 15 is stored.
In the entity position information storage area 12b, “entity position information” and “actual image position information” described later are stored.
The “identification information” described later is stored in the identification information storage area 12c.
The “information table” acquired from the information table storage area 200a of the storage means 200 is stored in the information table search result storage area 12d.
In the related image storage area 12e, “related images” acquired by the input unit 19 as described later are stored.

ROM13には、画像表示装置100を制御する各種プログラムが記憶されている。ROM13には、撮像制御プログラム13a、実体物位置認識プログラム13b、識別情報取得プログラム13c、情報テーブル検索プログラム13d、関連画像データ取得プログラム13e、投影画像データ生成プログラム13f等のプログラムが記憶されている。当該各種プログラムが、CPU11で処理されることにより、画像表示装置100の各種機能を実現している。なお、前記プログラムをASIC(Application Specific Integrated Circuit)として実現しても差し支えない。   Various programs for controlling the image display device 100 are stored in the ROM 13. The ROM 13 stores programs such as an imaging control program 13a, an entity position recognition program 13b, an identification information acquisition program 13c, an information table search program 13d, a related image data acquisition program 13e, and a projection image data generation program 13f. The various programs are processed by the CPU 11, thereby realizing various functions of the image display device 100. It should be noted that the program may be realized as an ASIC (Application Specific Integrated Circuit).

撮像制御プログラム13aは、撮像コントローラ15に「撮像制御信号」を出力して、撮像コントローラ15や撮像手段30を制御し、「撮像画像データ」を生成させる。生成された「撮像画像データ」は、撮像画像データ記憶領域12aに記憶される。   The imaging control program 13a outputs an “imaging control signal” to the imaging controller 15, controls the imaging controller 15 and the imaging means 30, and generates “captured image data”. The generated “captured image data” is stored in the captured image data storage area 12a.

実体物位置認識プログラム13bは、撮像画像データ記憶領域12aに記憶された「撮像画像データ」を解析することにより、被投影領域999上の実体物801の外縁位置を検出して、「実体物位置情報」を生成する。また、実体物位置認識プログラム13bは、前記「撮像画像データ」を解析することにより、被投影領域999上の実画像801aの外縁位置を検出し、「実画像位置情報」を生成する。前記生成された「実体物位置情報」及び「実画像位置情報」は、実体物位置情報記憶領域12bに記憶される。   The entity position recognition program 13b analyzes the “captured image data” stored in the captured image data storage area 12a, detects the outer edge position of the entity 801 on the projection area 999, Information ". Further, the entity position recognition program 13b analyzes the “captured image data” to detect the outer edge position of the actual image 801a on the projection area 999 and generates “actual image position information”. The generated “entity location information” and “real image location information” are stored in the entity location information storage area 12b.

識別情報取得プログラム13cは、撮像画像データ記憶領域12aに記憶された「撮像画像データ」を解析することにより、当該「撮像画像データ」から実体物801の「識別情報」を抽出する。抽出された「識別情報」は、識別情報記憶領域12cに記憶される。   The identification information acquisition program 13c extracts “identification information” of the entity 801 from the “captured image data” by analyzing the “captured image data” stored in the captured image data storage area 12a. The extracted “identification information” is stored in the identification information storage area 12c.

情報テーブル検索プログラム13dは、記憶手段200の情報テーブル記憶領域200aを参照することにより、識別情報記憶領域12bに記憶された「識別情報」に対応する「情報テーブル」を検索し、当該「情報テーブル」を取得して、情報テーブル検索結果記憶領域12dに記憶させる。なお、「情報テーブル」とは、図4に示されるように、識別情報801b、実画像801a及び関連画像501との関係を表したテーブルである。図4に示される実施形態では、「識別情報」は英数字であり、「実画像」は実画像801aの名称、「関連画像」は関連画像501のファイル名やURL(Uniform Resource Locator)が表されている。ある実画像801aの「識別情報」が判明している場合には、「情報テーブル」を参照すると、前記実画像801aに関連する関連画像501が判明する。   The information table search program 13d searches the “information table” corresponding to the “identification information” stored in the identification information storage area 12b by referring to the information table storage area 200a of the storage means 200, and the “information table” Is acquired and stored in the information table search result storage area 12d. Note that the “information table” is a table representing the relationship between the identification information 801b, the actual image 801a, and the related image 501, as shown in FIG. In the embodiment shown in FIG. 4, the “identification information” is alphanumeric, the “real image” is the name of the real image 801 a, and the “related image” is the file name or URL (Uniform Resource Locator) of the related image 501. Has been. When the “identification information” of a certain real image 801a is known, referring to the “information table”, the related image 501 related to the real image 801a is found.

関連画像データ取得プログラム13eは、情報テーブル検索結果記憶領域12dに記憶された「情報テーブル」を参照し、「識別情報」に対応する「関連画像データ」を、記憶手段200の関連画像データ記憶領域200bから「関連画像データ」を取得し、関連画像データ記憶領域12eに記憶させるプログラムである。   The related image data acquisition program 13e refers to the “information table” stored in the information table search result storage area 12d, and stores the “related image data” corresponding to the “identification information” in the related image data storage area of the storage unit 200. This is a program for acquiring “related image data” from 200b and storing it in the related image data storage area 12e.

投影画像データ生成プログラム13fは、実体物位置情報記憶領域12bに記憶された「実画像位置情報」に基づいて、実画像801a上に重畳する位置である第1位置に「関連画像データ」が投影される「第1投影画像データ」を生成させる「描画命令」を、投影画像コントローラ17に出力する。
また、投影画像データ生成プログラム13fは、実体物位置情報記憶領域12bに記憶された「実体物位置情報」に基づいて、実体物801の外側の近傍位置に「関連画像」が投影される「第2投影画像データ」を生成する「描画命令」を、投影画像コントローラ17に出力する。
Based on the “real image position information” stored in the entity position information storage area 12b, the projection image data generation program 13f projects “related image data” on the first position that is a position to be superimposed on the real image 801a. The “drawing command” for generating the “first projection image data” is output to the projection image controller 17.
Further, the projection image data generation program 13f projects the “related image” at a position near the outside of the entity 801 based on the “entity location information” stored in the entity location information storage area 12b. A “drawing command” for generating “2 projection image data” is output to the projection image controller 17.

撮像コントローラ15は、A/Dコンバータ、DSP(Digital Signal Prosessor)を有している。A/Dコンバータは、後述する撮像手段30のイメージセンサーが出力する「信号電圧」を、「デジタル信号」に変換する。
DSPは、A/Dコンバータが生成したが生成した「デジタル信号」から、2次元のピクセルデータである「撮像画像データ」を生成する。生成された「撮像画像データ」は、撮像画像データ記憶領域12dに記憶される。
The imaging controller 15 has an A / D converter and a DSP (Digital Signal Processor). The A / D converter converts a “signal voltage” output from an image sensor of the imaging unit 30 described later into a “digital signal”.
The DSP generates “captured image data” that is two-dimensional pixel data from the “digital signal” generated by the A / D converter. The generated “captured image data” is stored in the captured image data storage area 12d.

投影画像コントローラ17は、GPU(Graphics Processing Unit)等の画像処理回路を有している。投影画像コントローラ17は、投影画像データ生成手段13cから出力される「描画命令」に基づいて、関連画像記憶領域12aに記憶されている「関連画像データ」を画像処理して「投影画像データ」を生成し、VRAM18に記憶させる。投影画像コントローラ17は、外部出力インターフェースを有していて、VRAM18に記憶されている「投影画像データ」を「画像信号」として、投影手段20に出力する。   The projection image controller 17 has an image processing circuit such as a GPU (Graphics Processing Unit). The projection image controller 17 processes the “related image data” stored in the related image storage area 12 a based on the “drawing command” output from the projection image data generation unit 13 c to obtain “projection image data”. Generated and stored in the VRAM 18. The projection image controller 17 has an external output interface, and outputs “projection image data” stored in the VRAM 18 to the projection unit 20 as an “image signal”.

入力部19は、「関連画像データ」を取得するものである。入力部19には、LAN(Local Area Networkの略)のインターフェースが含まれる。入力部19には、LAN、WAN(Wide Area Networkの略)又はインターネットを介して、データベースとして機能する記憶手段200が接続されている。記憶手段200には、ハードディスクやフラッシュメモリーが含まれる。記憶手段200には、情報テーブル記憶領域200a、関連画像データ記憶領域200bを有している。
情報テーブル記憶領域200aには、「情報テーブル」が記憶されている。
関連画像記憶領域200bには、「関連画像データ」が記憶されている。
The input unit 19 acquires “related image data”. The input unit 19 includes a LAN (abbreviation for Local Area Network) interface. A storage unit 200 that functions as a database is connected to the input unit 19 via a LAN, a WAN (abbreviation for Wide Area Network), or the Internet. The storage means 200 includes a hard disk and a flash memory. The storage means 200 has an information table storage area 200a and a related image data storage area 200b.
An “information table” is stored in the information table storage area 200a.
In the related image storage area 200b, “related image data” is stored.

投影手段20は、ランプ駆動回路、ランプ、照明光学系、画像生成素子、結像光学系を有している。ランプ駆動回路は、ランプに電流を供給する回路である。ランプ駆動回路から電流が供給されたランプは拡散光を発光する。照明光学系は、ランプから発光された拡散光を集光し、均一な照明光にする。この照明光は画像生成素子に照射される。画像生成素子は、LCD(Liquid Clystal Display)やDMD(Digital Micromirror Device)であり、照射された照明光を各画素に階調表現して画像を生成する。結像光学系は多数のレンズから構成されていて、画像生成素子を透過した照明光を、被投影領域999に結像する。   The projection unit 20 includes a lamp driving circuit, a lamp, an illumination optical system, an image generation element, and an imaging optical system. The lamp driving circuit is a circuit that supplies current to the lamp. The lamp supplied with current from the lamp driving circuit emits diffused light. The illumination optical system collects the diffused light emitted from the lamp and makes it uniform illumination light. This illumination light is applied to the image generating element. The image generation element is an LCD (Liquid Crystal Display) or a DMD (Digital Micromirror Device), and generates an image by expressing the irradiated illumination light in gradation on each pixel. The imaging optical system is composed of a large number of lenses, and images the illumination light that has passed through the image generating element on the projection area 999.

撮像手段30は、被投影領域999を撮像する装置である。撮像装置30は、イメージセンサー及び結像光学系を有している。イメージセンサーは、2次元配列されたフォトダイオードを有している。各フォトダイオードは、光の強度を電荷に変換し、電荷を「信号電圧」として出力する。イメージセンサーには、CCD(Charge Coupled Device Image SenSor)やCMOS(Complementary Mwtal Oxide Semiconductor)が含まれる。結像光学系は、単一又は複数のレンズで構成され、入光した像を、イメージセンサー上で結像させるものである。   The imaging unit 30 is a device that images the projection area 999. The imaging device 30 has an image sensor and an imaging optical system. The image sensor has photodiodes arranged two-dimensionally. Each photodiode converts the light intensity into an electric charge, and outputs the electric charge as a “signal voltage”. The image sensor includes a charge coupled device image sensor (CCD) and a complementary metal oxide semiconductor (CMOS). The imaging optical system is composed of a single lens or a plurality of lenses, and forms an incident image on an image sensor.

(第1の実施形態のメインフローの説明)
以下に、第1の実施形態のメイン処理のフローを説明する。画像表示装置100に電源が投入されると、S11「初期化」の処理に進む。
S11「初期化」の処理において、ROM13に記憶されている各種プログラムが起動する。S11の処理が終了すると、S12の処理に進む。
(Description of the main flow of the first embodiment)
Below, the flow of the main process of 1st Embodiment is demonstrated. When the image display apparatus 100 is powered on, the process proceeds to S11 “initialization”.
In the process of S11 “initialization”, various programs stored in the ROM 13 are activated. When the process of S11 ends, the process proceeds to S12.

S12「撮像開始」の処理において、撮像制御プログラム13aは、撮像コントローラ15に「撮像制御信号」を出力して、撮像手段30での被投影領域999の撮像を開始させる。撮像コントローラ15は、「撮像画像データ」を生成する。生成された「撮像画像データ」は、撮像画像データ記憶領域12aに記憶される。なお、撮像制御プログラム13aは、所定期間(例えば数100ミリ秒)毎に、撮像手段30で被投影領域999を撮像する「撮像制御信号」を撮像コントローラ15に出力する。S12の処理が終了すると、S13の判断処理に進む。   In the process of S <b> 12 “start imaging”, the imaging control program 13 a outputs an “imaging control signal” to the imaging controller 15 to start imaging of the projection area 999 by the imaging unit 30. The imaging controller 15 generates “captured image data”. The generated “captured image data” is stored in the captured image data storage area 12a. The imaging control program 13a outputs an “imaging control signal” for imaging the projection area 999 by the imaging unit 30 to the imaging controller 15 every predetermined period (for example, several hundred milliseconds). When the process of S12 ends, the process proceeds to the determination process of S13.

S13「識別情報取得?」の判断処理において、識別情報取得プログラム13cは、撮像画像データ記憶領域12aに記憶された「撮像画像データ」を解析し、当該「撮像画像データ」に、実体物801の識別情報801bが有るか否かを判断する。識別情報取得プログラム13cが、「撮像画像データ」に識別情報801bが有ると判断した場合には(S13の判断処理がYES)、当該「識別情報」を識別情報記憶領域12cに記憶させて、S14の処理に進む。   In the determination processing of S13 “acquisition of identification information?”, The identification information acquisition program 13c analyzes “captured image data” stored in the captured image data storage area 12a, and stores the entity 801 in the “captured image data”. It is determined whether there is identification information 801b. If the identification information acquisition program 13c determines that the “captured image data” includes the identification information 801b (YES in S13), the “identification information” is stored in the identification information storage area 12c, and S14 Proceed to the process.

S14「情報テーブル検索」の処理において、情報テーブル検索プログラム13dは、記憶手段200の情報テーブル記憶領域200aに記憶されている「情報テーブル」を参照し、S13の処理で取得した「識別情報」を検索する。S14の処理が終了すると、S15の判断処理に進む。   In the process of S14 “information table search”, the information table search program 13d refers to the “information table” stored in the information table storage area 200a of the storage means 200, and uses the “identification information” acquired in the process of S13. Search for. When the process of S14 ends, the process proceeds to the determination process of S15.

S15「情報テーブルに識別情報存在?」の判断処理において、情報テーブル検索プログラム13dが、S13の処理で取得した「識別情報」がS14の処理で検索した「情報テーブル」に存在すると判断した場合には(S15の判断処理がYES)、前記「識別情報」及び、これに対応する「関連画像」のファイル名を関連付けして、情報テーブル検索結果記憶領域12dに記憶し、S16の処理に進む。
一方で、情報テーブル検索プログラム13dが、S13の処理で取得した「識別情報」がS14の処理で検索した「情報テーブル」に存在しないと判断した場合には(S15の判断処理がNO)、S13の判断処理に戻る。
In the determination process of S15 “identification information exists in information table?”, When the information table search program 13d determines that the “identification information” acquired in the process of S13 exists in the “information table” searched in the process of S14. (The determination process in S15 is YES), the “identification information” and the file name of the “related image” corresponding thereto are associated and stored in the information table search result storage area 12d, and the process proceeds to S16.
On the other hand, when the information table search program 13d determines that the “identification information” acquired in the process of S13 does not exist in the “information table” searched in the process of S14 (the determination process of S15 is NO), S13 Return to the determination process.

S16「関連画像データ取得」の処理において、関連画像データ取得プログラム13eは、情報テーブル検索結果記憶領域12dに記憶されている「情報テーブル」を参照し、S13の処理で検出された「識別情報」に対応する「関連画像データ」を記憶手段200の関連画像データ記憶領域200bから取得し、関連画像データ記憶領域12eに記憶させる。なお、「識別情報」に対応する「関連画像データ」がURLである場合には、関連画像データ取得プログラム13eは、インターネットを介して、当該URLのWEBページを取得する。S16の処理が終了すると、S17の処理に進む。   In the process of S16 “acquire related image data”, the related image data acquisition program 13e refers to the “information table” stored in the information table search result storage area 12d and “identification information” detected in the process of S13. Is acquired from the related image data storage area 200b of the storage unit 200 and stored in the related image data storage area 12e. If the “related image data” corresponding to the “identification information” is a URL, the related image data acquisition program 13e acquires the WEB page of the URL via the Internet. When the process of S16 ends, the process proceeds to S17.

S17「実体物の位置を検出」の処理において、実体物位置認識プログラム13bは、撮像画像データ記憶領域12aに記憶されている「撮像画像データ」を解析することにより、被投影領域999上の実体物801の外縁位置を検出して、「実体物位置情報」を生成する。具体的には、前記「撮像画像データ」を閾値処理やエッジ処理を行うことにより、実体物801の外縁被投影領域999との境界(実体物801の輪郭)を検出し、前記境界の被投影領域999上の位置座標を算出する。
同様に、実体物位置認識プログラム13bは、撮像画像データ記憶領域12aに記憶されている「撮像画像データ」を解析することにより、被投影領域999上の実画像801aの外縁位置座標を検出して、「実画像位置情報」を生成する。生成された「実体物位置情報」及び「実画像位置情報」は、実体物位置情報記憶領域12bに記憶される。S17の処理が終了すると、S18の処理に進む。
In the process of S17 “detecting the position of an entity”, the entity position recognition program 13b analyzes the “captured image data” stored in the captured image data storage area 12a to thereby identify the entity on the projection area 999. The outer edge position of the object 801 is detected to generate “entity position information”. Specifically, by performing threshold processing and edge processing on the “captured image data”, a boundary (outline of the entity 801) with the outer edge projection region 999 of the entity 801 is detected, and projection of the boundary is performed. The position coordinates on the area 999 are calculated.
Similarly, the entity position recognition program 13b detects the outer edge position coordinates of the actual image 801a on the projection area 999 by analyzing the “captured image data” stored in the captured image data storage area 12a. , “Real image position information” is generated. The generated “entity location information” and “real image location information” are stored in the entity location information storage area 12b. When the process of S17 ends, the process proceeds to S18.

S18「第1投影画像データ生成」の処理において、投影画像データ生成プログラム13fは、実体物位置情報記憶領域12bに記憶されている「実画像位置情報」を参照することにより、実画像801aの被投影領域999上の位置を認識し、実画像801a上に重畳する位置である第1位置に関連画像801aを投影する「第1投影画像データ」を生成する「描画命令」を、投影画像コントローラ17に出力する。投影画像データ生成プログラム13fは、関連画像データ記憶領域12eに記憶されている「関連画像データ」をVRAM18に記憶させる。投影画像データ生成プログラム13fは、前記「描画命令」に基づいて、VRAM18に記憶された「関連画像データ」を画像処理して「第1投影画像データ」を生成し、VRAM18に記憶させる。前記画像処理には、第1位置に関連画像801aが投影されるように「関連画像データ」を配置する処理が含まれる。なお、投影手段20と被投影領域999との距離は一定であるので、投影画像データ生成プログラム13fは、被投影領域999の座標位置を認識することができる。S18の処理が終了すると、S19の処理に進む。   In the process of S18 “first projection image data generation”, the projection image data generation program 13f refers to the “real image position information” stored in the entity position information storage area 12b, so that the target of the real image 801a is detected. The projection image controller 17 generates a “drawing command” for generating “first projection image data” for recognizing the position on the projection area 999 and projecting the related image 801 a on the first position that is superimposed on the real image 801 a. Output to. The projection image data generation program 13 f stores “related image data” stored in the related image data storage area 12 e in the VRAM 18. Based on the “drawing command”, the projection image data generation program 13 f performs image processing on the “related image data” stored in the VRAM 18 to generate “first projection image data”, and stores it in the VRAM 18. The image processing includes a process of arranging “related image data” so that the related image 801a is projected at the first position. Since the distance between the projection unit 20 and the projection area 999 is constant, the projection image data generation program 13f can recognize the coordinate position of the projection area 999. When the process of S18 is completed, the process proceeds to S19.

S19「第1投影画像データ投影」の処理において、投影画像コントローラ17の外部出力インターフェースは、VRAM18に記憶されている「第1投影画像データ」を「画像信号」として、投影手段20に出力する。前記「画像信号」が入力された投影手段20は、実画像801a上(第1位置)に関連画像501aを投影する(図2の(B)の状態)。S19の処理が終了すると、S20の判断処理に進む。
なお、S18の処理において、実画像801aと関連画像501とが関連していることをユーザに視覚的に認識させるために、投影画像データ生成プログラム13fは、関連画像501が実画像801a上で点滅表示されて、あたかも関連画像501が実画像801aから浮き上がって生成されたような「第1投影画像データ」を生成する「描画命令」を、投影画像コントローラ17に出力することが好ましい。
In the process of S19 “first projection image data projection”, the external output interface of the projection image controller 17 outputs the “first projection image data” stored in the VRAM 18 as the “image signal” to the projection unit 20. The projection unit 20 to which the “image signal” is input projects the related image 501a on the real image 801a (first position) (state shown in FIG. 2B). When the process of S19 ends, the process proceeds to the determination process of S20.
In the process of S18, in order to make the user visually recognize that the actual image 801a and the related image 501 are related, the projection image data generation program 13f causes the related image 501 to blink on the actual image 801a. It is preferable to output to the projection image controller 17 a “rendering command” that generates “first projection image data” that is displayed and appears as if the related image 501 is lifted from the actual image 801 a.

S20「識別情報が消滅?」の判断処理において、識別情報取得プログラム13cは801bが消滅したか否かを判断する。具体的には、識別情報取得プログラム13cは、撮像画像データ記憶領域12aに記憶された「撮像画像データ」を解析し、当該「撮像画像データ」に、実体物801の識別情報801bが有るか否かを判断する。
識別情報取得プログラム13cが、「撮像画像データ」に識別情報801bが無いと判断した場合には(S20の判断処理がYES)、S40の判断処理に進む。
一方で、識別情報取得プログラム13cが、「撮像画像データ」に識別情報801bがあると判断した場合には(S20の判断処理がNO)、S21の判断処理に進む。
なお、被投影領域999から実体物801が除去された場合には、識別情報801bが撮像されないので、「撮像画像データ」に識別情報801bが無いと判断されることとなる。
In the determination process of S20 “identification information disappears?”, The identification information acquisition program 13c determines whether or not 801b has disappeared. Specifically, the identification information acquisition program 13c analyzes “captured image data” stored in the captured image data storage area 12a, and whether the “captured image data” includes the identification information 801b of the entity 801. Determine whether.
When the identification information acquisition program 13c determines that there is no identification information 801b in the “captured image data” (YES in S20), the process proceeds to S40.
On the other hand, if the identification information acquisition program 13c determines that the “captured image data” includes the identification information 801b (NO in S20), the process proceeds to S21.
When the entity 801 is removed from the projection area 999, the identification information 801b is not captured, and therefore it is determined that the identification information 801b is not included in the “captured image data”.

S21「第1投影画像データ投影完了?」の判断処理において、投影画像生成プログラム13fは、「第1投影画像データ」の投影が完了したか否かを判断する。投影画像生成プログラム13fが、「第1投影画像データ」の投影が完了したと判断した場合には(S21の判断処理がYES)、S22の処理に進む。一方で、投影画像生成プログラム13fが、「第1投影画像データ」の投影が完了していないと判断した場合には(S21の判断処理がNO)、S17の処理に戻る。   In the determination process of S21 “first projection image data projection completed?”, The projection image generation program 13f determines whether or not the projection of “first projection image data” has been completed. If the projection image generation program 13f determines that the projection of the “first projection image data” has been completed (YES in S21), the process proceeds to S22. On the other hand, when the projection image generation program 13f determines that the projection of the “first projection image data” has not been completed (NO in S21), the process returns to S17.

S22「第3投影画像データ投影完了?」の処理において、投影画像生成プログラム13fは、「第3投影画像データ」の投影が完了したか否かを判断する。投影画像生成プログラム13fが、「第3投影画像データ」の投影が完了したと判断した場合には(S22の判断処理がYES)、S37の処理に進む。一方で、投影画像生成プログラム13fが、「第3投影画像データ」の投影が完了していないと判断した場合には(S22の判断処理がNO)、S27の処理に進む。   In the process of S22 “Projection of third projection image data?”, The projection image generation program 13f determines whether or not the projection of “third projection image data” has been completed. When the projection image generation program 13f determines that the projection of the “third projection image data” has been completed (YES in S22), the process proceeds to S37. On the other hand, when the projection image generation program 13f determines that the projection of the “third projection image data” has not been completed (NO in S22), the process proceeds to S27.

S27「実体物の位置を検出」の処理において、実体物位置認識プログラム13bは、撮像画像データ記憶領域12aに記憶されている「撮像画像データ」を解析することにより、被投影領域999上の実体物801及び実画像801aの外縁位置座標を検出して、「実体物位置情報」及び「実画像位置情報」を生成し、実体物位置情報記憶領域12bに記憶させる。S27の処理は、S17の処理と同様である。S27の処理が終了すると、S28の処理に進む。   In the process of S27 “detecting the position of the entity”, the entity position recognition program 13b analyzes the “captured image data” stored in the captured image data storage area 12a, thereby identifying the entity on the projection area 999. The outer edge position coordinates of the object 801 and the actual image 801a are detected, and “entity position information” and “actual image position information” are generated and stored in the entity position information storage area 12b. The process of S27 is the same as the process of S17. When the process of S27 ends, the process proceeds to S28.

S28「第3投影画像データ生成」の処理において、投影画像データ生成プログラム13fは、実体物位置情報記憶領域12bに記憶されている「実画像位置情報」及び「実体物位置情報」を参照することにより、実画像801a及び実体物801の被投影領域999上の位置を認識し、実画像801a上(第1位置)から実画像801aの外側の(第2位置)に、関連画像501が徐々に移動する「第3投影画像データ」を生成する「描画命令」を投影画像コントローラ17に出力する。具体的には、投影画像データ生成プログラム13fは、前記第1位置と前記第2位置の間を複数に等分する位置(第3位置)を算出する。そして、S28の処理が実行される度に、投影画像データ生成プログラム13fは、順次より前記第2位置に近い第3位置を決定し、当該第3位置に関連画像501を投影される「第3の投影画像データ」を生成する。なお、S22の判断処理において、投影画像生成プログラム13fが、「第3投影画像データ」の投影が完了したと判断するまで、S27〜S29の処理が繰り返され、関連画像501が前記第1位置から前記第2位置まで徐々に移動するようになっている。
或いは、投影画像データ生成プログラム13fは、実画像801a上(第1位置)から実画像801aの外側の(第2位置)に、関連画像501が徐々に移動する「第3投影画像データ」として、動画データを生成しても差し支えない。
投影画像データ生成プログラム13fは、前記「描画命令」に基づいて、VRAM18に記憶された「関連画像データ」を画像処理して「第3投影画像データ」を生成し、VRAM18に記憶させる。S28の処理が終了すると、S29の処理に進む。
In the process of S28 “third projection image data generation”, the projection image data generation program 13f refers to “actual image position information” and “substance position information” stored in the entity position information storage area 12b. Thus, the positions of the real image 801a and the entity 801 on the projection area 999 are recognized, and the related image 501 gradually moves from the real image 801a (first position) to the outside (second position) of the real image 801a. A “drawing command” for generating the “third projection image data” to be moved is output to the projection image controller 17. Specifically, the projection image data generation program 13f calculates a position (third position) that equally divides the first position and the second position into a plurality. Each time the process of S28 is executed, the projection image data generation program 13f sequentially determines a third position closer to the second position, and the related image 501 is projected onto the third position. Projection image data "is generated. In the determination process of S22, the process of S27 to S29 is repeated until the projection image generation program 13f determines that the projection of the “third projection image data” is completed, and the related image 501 is moved from the first position. It gradually moves to the second position.
Alternatively, the projection image data generation program 13f sets “third projection image data” in which the related image 501 gradually moves from the actual image 801a (first position) to the outside (second position) of the actual image 801a. You can create video data.
The projection image data generation program 13 f performs image processing on the “related image data” stored in the VRAM 18 based on the “drawing command”, generates “third projection image data”, and stores it in the VRAM 18. When the process of S28 ends, the process proceeds to S29.

S29「第3投影画像データ投影」の処理において、投影画像コントローラ17の外部出力インターフェースは、VRAM18に記憶されている「第3投影画像データ」を「画像信号」として、投影手段20に出力する。前記「画像信号」が入力された投影手段20は、関連画像501を、実画像801a上(第1位置)から実画像801aの外側の(第2位置)に、関連画像501が徐々に移動させて投影する(図2の(C)の状態)。
S29の処理が終了すると、S20の処理に進む。
In the process of S29 “third projection image data projection”, the external output interface of the projection image controller 17 outputs “third projection image data” stored in the VRAM 18 to the projection unit 20 as an “image signal”. The projection unit 20 to which the “image signal” is input causes the related image 501 to be gradually moved from the real image 801a (first position) to the outside (second position) of the real image 801a. And project (state (C) in FIG. 2).
When the process of S29 ends, the process proceeds to S20.

S37「実体物の位置を検出」の処理において、実体物位置認識プログラム13bは、撮像画像データ記憶領域12aに記憶されている「撮像画像データ」を解析することにより、被投影領域999上の実体物801及び実画像801aの外縁位置座標を検出して、「実体物位置情報」及び「実画像位置情報」を生成し、実体物位置情報記憶領域12bに記憶させる。S37の処理は、S17の処理と同様である。S37の処理が終了すると、S38の処理に進む。   In the process of S37 “detecting the position of the entity”, the entity position recognition program 13b analyzes the “captured image data” stored in the captured image data storage area 12a to thereby identify the entity on the projection area 999. The outer edge position coordinates of the object 801 and the actual image 801a are detected, and “entity position information” and “actual image position information” are generated and stored in the entity position information storage area 12b. The process of S37 is the same as the process of S17. When the process of S37 ends, the process proceeds to S38.

S38「第2投影画像データ生成」の処理において、投影画像データ生成プログラム13fは、実体物位置情報記憶領域12bに記憶されている「実画像位置情報」及び「実体物位置情報」を参照することにより、実画像801a及び実体物801の被投影領域999上の位置を認識し、実画像801aの外側の位置に(第2位置)に、関連画像501を静止投影する「第2投影画像データ」を生成する「描画命令」を投影画像コントローラ17に出力する。S38の処理が終了すると、S39の処理に進む。   In the process of S38 “second projection image data generation”, the projection image data generation program 13f refers to “actual image position information” and “substance position information” stored in the entity position information storage area 12b. Thus, the position of the real image 801a and the entity 801 on the projection area 999 is recognized, and the related image 501 is statically projected to the position outside the real image 801a (second position). Is output to the projection image controller 17. When the process of S38 ends, the process proceeds to S39.

S39「第2投影画像データ投影」の処理において、投影画像コントローラ17の外部出力インターフェースは、VRAM18に記憶されている「第2投影画像データ」を「画像信号」として、投影手段20に出力する。前記「画像信号」が入力された投影手段20は、関連画像501を、実画像801aの外側の(第2位置)に関連画像501を投影する(図2の(D)の状態)。S39の処理が終了すると、S20の処理に進む。
なお、図2に示される実施形態では、前記第2位置は、実体物801の外側の露出した被投影面999上である。このように、関連画像501を実体物801と重ならない位置に投影することにより、関連画像501が鮮明に表示される。また、関連画像501が実画像801と関連がある画像であることをユーザに認識させるために、関連画像501はこれと対応する実体物801の近傍に投影されるようになっている。
In the process of S39 “projection of second projection image data”, the external output interface of the projection image controller 17 outputs the “second projection image data” stored in the VRAM 18 to the projection unit 20 as an “image signal”. The projecting means 20 to which the “image signal” is input projects the related image 501 onto the second image of the actual image 801a (the second position) (state (D) in FIG. 2). When the process of S39 ends, the process proceeds to S20.
In the embodiment shown in FIG. 2, the second position is on the exposed projection surface 999 outside the entity 801. Thus, the related image 501 is clearly displayed by projecting the related image 501 to a position that does not overlap the entity 801. Further, in order for the user to recognize that the related image 501 is an image related to the real image 801, the related image 501 is projected in the vicinity of the corresponding entity 801.

S40「終了?」の判断処理において、ユーザが図示しない操作部を操作することにより、画像表示装置100を終了させることを選択した場合には、図5に示されるメインフローが終了する。一方で、ユーザが画像表示装置100を終了させることを選択しない場合には、S13の判断処理に戻る。   In the determination process of S40 “end?”, When the user selects to end the image display apparatus 100 by operating an operation unit (not shown), the main flow shown in FIG. 5 ends. On the other hand, when the user does not select to end the image display apparatus 100, the process returns to the determination process of S13.

以上説明したように、本実施形態では、S27〜S29の処理に示されるように、実画像801a上に重畳する第1位置と実画像801aの外側の第2位置との間を連続的に補完する位置である第3位置に、関連画像501が投影されて、関連画像501が前記第1位置から第2位置に連続的に移動しながらアニメーション表示されるので、関連画像501が実画像801aと関連している印象をユーザに与える。   As described above, in the present embodiment, as shown in the processing of S27 to S29, the gap between the first position superimposed on the real image 801a and the second position outside the real image 801a is continuously complemented. The related image 501 is projected to the third position, which is the position to be moved, and the related image 501 is animated while being continuously moved from the first position to the second position. Therefore, the related image 501 is the real image 801a. Give the user a relevant impression.

なお、関連画像501が被投影領域999に投影されて所定時間が経過した場合に、投影画像501が前記第2位置から前記第1位置に徐々に移動しながら被投影領域999に投影されるようにしても差し支えない。これにより、あたかも関連画像501が実画像801aに収納されたかのような印象をユーザに与え、被投影領域999に投影されている関連画像501が実画像801aに関連があることを、ユーザに知覚させることが可能となる。
このような制御は、図5に示されるフロー図において、S37〜S39処理が実行され(第2画像投影)、所定時間が経過した場合に、S27〜S29の処理が実行され(第3画像投影)、次に、S17〜S19の処理が実行される(第1画像投影)ことにより実現される。
When a predetermined time has elapsed since the related image 501 is projected onto the projection area 999, the projection image 501 is projected onto the projection area 999 while gradually moving from the second position to the first position. But it doesn't matter. This gives the user the impression that the related image 501 is stored in the real image 801a, and allows the user to perceive that the related image 501 projected on the projection area 999 is related to the real image 801a. It becomes possible.
Such control is performed in steps S37 to S39 in the flowchart shown in FIG. 5 (second image projection), and when a predetermined time has elapsed, steps S27 to S29 are performed (third image projection). Next, this is realized by executing the processing of S17 to S19 (first image projection).

(第2の実施形態)
第1の実施形態と異なる点について、第2の実施形態を説明する。第2の実施形態は実体物801上と、実体物801が載置されていない露出した被投影面999とで、投影される関連画像501の明度を異ならせる実施形態である。
図6に示される実施形態では、関連画像501が実画像801a上(第1位置)から実画像801aの外側方向へ所定距離移動すると、実体物801上に関連画像501が投影されないように、関連画像501の一部を切り欠いて、露出した被投影領域999上のみに投影させる(図6の(C)の状態)。或いは、関連画像501が第1位置から実画像801aの外側方向へ所定距離移動すると、実体物801上では関連画像501の明度を下げて、関連画像501を実体物801上及び被投影領域999上に投影する。
(Second Embodiment)
The second embodiment will be described with respect to differences from the first embodiment. The second embodiment is an embodiment in which the brightness of the projected related image 501 differs between the entity 801 and the exposed projection surface 999 on which the entity 801 is not placed.
In the embodiment shown in FIG. 6, when the related image 501 moves a predetermined distance from the real image 801a (first position) to the outside of the real image 801a, the related image 501 is not projected onto the entity 801. A part of the image 501 is cut out and projected only onto the exposed projection area 999 (state (C) in FIG. 6). Alternatively, when the related image 501 moves from the first position to the outside of the real image 801a by a predetermined distance, the brightness of the related image 501 is lowered on the entity 801, and the related image 501 is displayed on the entity 801 and the projection area 999. Project to.

第2の実施形態では、図5に示されるメインフローのS28の処理において、投影画像生成プログラム13fは、実体物位置情報記憶領域12bに記憶されている「実画像位置情報」及び「実体物位置情報」を参照することにより、実画像801a及び実体物801bの被投影領域999上の位置を認識し、関連画像501が実画像801a上(第1位置)から実画像801aの外側方向へ所定距離移動すると、実体物801上に関連画像501が投影されないように、関連画像501の一部を切り欠いて、露出した被投影領域999上のみに投影させる「第3投影画像データ」を生成する「描画命令」を投影画像コントローラ17に出力する。
或いは、影画像生成プログラム13fは、関連画像501が実画像801a上(第1位置)から実画像801aの外側方向へ所定距離移動すると、実体物801上では関連画像501の明度を下げて、関連画像501を実体物801上及び被投影領域999上に投影する「第3投影画像データ」を生成する「描画命令」を投影画像コントローラ17に出力する。
In the second embodiment, in the process of S28 of the main flow shown in FIG. 5, the projection image generation program 13f executes the “actual image position information” and “substance position” stored in the entity position information storage area 12b. By referring to the “information”, the positions of the real image 801a and the entity 801b on the projection area 999 are recognized, and the related image 501 is a predetermined distance from the real image 801a (first position) to the outside of the real image 801a. When moved, a part of the related image 501 is cut out so that the related image 501 is not projected on the entity 801, and “third projection image data” that is projected only on the exposed projection area 999 is generated. The “drawing command” is output to the projection image controller 17.
Alternatively, when the related image 501 moves a predetermined distance from the real image 801a (first position) to the outside of the real image 801a, the shadow image generation program 13f reduces the brightness of the related image 501 on the entity 801, A “drawing command” for generating “third projection image data” for projecting the image 501 onto the entity 801 and the projection area 999 is output to the projection image controller 17.

このように、第1位置から実画像801aの外側方向へ所定距離までは、関連画像501がアニメーション表示されるので、ユーザに関連画像501が実画像801aと関連のある画像であると認識させることができる。一方で、関連画像501が第1位置から実画像801aの外側方向へ所定距離移動すると、実体物801上では、関連画像501が投影されず、若しくは、明度を下げて関連画像501が投影される。従って、ユーザが実体物801上に記載されている説明文801c等を視認することが容易となる。
或いは、実体物801上では、関連画像501の明度を上げて、関連画像501を投影してもよく、この場合には、実体物801上で関連画像501が強調されて表示されるので、関連画像501の方が視認し易くなる。
In this way, since the related image 501 is animated from the first position to a predetermined distance in the outward direction of the real image 801a, the user is made to recognize that the related image 501 is an image related to the real image 801a. Can do. On the other hand, when the related image 501 moves from the first position to the outside of the real image 801a by a predetermined distance, the related image 501 is not projected on the entity 801, or the related image 501 is projected with reduced brightness. . Therefore, it becomes easy for the user to visually recognize the explanatory text 801c or the like described on the entity 801.
Alternatively, the brightness of the related image 501 may be increased on the entity 801 and the related image 501 may be projected. In this case, the related image 501 is displayed highlighted on the entity 801. The image 501 is easier to visually recognize.

(第3の実施形態)
第1の実施形態と異なる点について、第3の実施形態を説明する。第3の実施形態では、第2位置として、実体物801及び露出した被投影面999の少なくとも一方の面上であって、明度が一定以上で且つコントラストが一定以下の空白領域に、関連画像501を投影させる実施形態である。まず、被投影領域999に、既に、実体物801が載置され、これに関連する関連画像501が被投影領域999に投影されている。この状態において、更に、実体物802を被投影領域999に載置する(図7の(A)の状態)。実体物802が載置されると、実画像802a上(第1位置)に重畳して関連画像502が投影される(図7の(B)の状態)。この関連画像502が、移動しながら、明度が一定以上で且つコントラストが一定以下の空白領域(第2位置)に投影される(図7の(C)の状態)。図7の(C)に示されるように、空白領域は、前記条件を満たせば実体物と露出した被投影領域999に跨っていても差し支えない。
(Third embodiment)
The third embodiment will be described with respect to differences from the first embodiment. In the third embodiment, as the second position, the related image 501 is a blank area on at least one of the entity 801 and the exposed projection surface 999 that has a lightness of a certain level or more and a contrast of a certain level or less. Is an embodiment for projecting. First, the entity 801 is already placed in the projection area 999, and the related image 501 related thereto is projected on the projection area 999. In this state, the entity 802 is further placed on the projection area 999 (state (A) in FIG. 7). When the entity 802 is placed, the related image 502 is projected so as to be superimposed on the actual image 802a (first position) (the state shown in FIG. 7B). The related image 502 is projected onto a blank area (second position) having a lightness of a certain level or more and a contrast of a certain level or less while moving (state (C) in FIG. 7). As shown in FIG. 7C, the blank area may extend over the entity and the exposed projection area 999 as long as the above condition is satisfied.

第3の実施形態では、図5に示されるメインフローのS27、S37の処理において、実体物位置認識プログラム13bは、撮像画像データ記憶領域12aに記憶されている「撮像画像データ」を解析することにより、明度が一定以上で且つコントラストが一定以下の空白領域を検出する。そして、実体物位置認識プログラム13bは、前記空白領域の外縁の被投影面999上の位置座標を算出し、「空白領域位置情報」として、実体物位置情報記憶領域12bに記憶させる。   In the third embodiment, in the processes of S27 and S37 in the main flow shown in FIG. 5, the entity position recognition program 13b analyzes the “captured image data” stored in the captured image data storage area 12a. Thus, a blank area having a lightness of a certain level or more and a contrast of a certain level or less is detected. Then, the entity position recognition program 13b calculates the position coordinates on the projection surface 999 of the outer edge of the blank area, and stores it in the entity position information storage area 12b as “blank area position information”.

S28の処理において、投影画像生成プログラム13fは、実体物位置情報記憶領域12bに記憶されている「実画像位置情報」及び「空白領域位置情報」を参照することにより、実画像802a及び空白領域の被投影領域999上の位置を認識し、実画像802a上(第1位置)から空白領域(第2位置)に、関連画像502が徐々に移動する「第3投影画像データ」を生成する「描画命令」を投影画像コントローラ17に出力する。   In the process of S28, the projection image generation program 13f refers to the “real image position information” and “blank area position information” stored in the entity position information storage area 12b, thereby determining the real image 802a and the blank area. “Drawing” that recognizes the position on the projection area 999 and generates “third projection image data” in which the related image 502 gradually moves from the actual image 802a (first position) to the blank area (second position). Command ”is output to the projection image controller 17.

S38の処理において、投影画像生成プログラム13fは、実体物位置情報記憶領域12bに記憶されている「空白領域位置情報」を参照することにより、空白領域の被投影領域999上の位置を認識し、前記空白領域(第2位置)に、関連画像502を静止投影する「第2投影画像データ」を生成する「描画命令」を投影画像コントローラ17に出力する。   In the process of S38, the projection image generation program 13f recognizes the position of the blank area on the projection area 999 by referring to the “blank area position information” stored in the entity position information storage area 12b. A “drawing command” for generating “second projection image data” for still-projecting the related image 502 in the blank area (second position) is output to the projection image controller 17.

このように、第3の実施形態では、明度が一定以上で且つコントラストが一定以下の空白領域に、関連画像が投影される。従って、被投影領域999上に実体物等が多数載置されている場合であっても、前記実体物に対応する関連画像を投影することが可能となる。   As described above, in the third embodiment, the related image is projected onto a blank area where the brightness is equal to or higher than a certain level and the contrast is equal to or less than a certain level. Therefore, even when a large number of entities are placed on the projection area 999, it is possible to project related images corresponding to the entities.

(第4の実施形態)
第3の実施形態と異なる点について、第4の実施形態を説明する。第4の実施形態では、図8に示され得るように、空白領域に関連画像を投影することができない場合には、関連画像502を縮小して前記領域に投影させる実施形態である。
(Fourth embodiment)
The fourth embodiment will be described with respect to differences from the third embodiment. In the fourth embodiment, as shown in FIG. 8, when the related image cannot be projected onto the blank area, the related image 502 is reduced and projected onto the area.

第4の実施形態では、図5に示されるメインフローのS28の処理において、投影画像生成プログラム13fは、実体物位置情報記憶領域12bに記憶されている「実画像位置情報」及び「空白領域位置情報」を参照することにより、実画像802a及び空白領域の被投影領域999上の位置を認識し、空白領域に関連画像502を投影することができないと判断した場合には、実画像801a上(第1位置)から空白領域(第2位置)に、関連画像502が徐々に縮小表示されながら移動する「第3投影画像データ」を生成する「描画命令」を投影画像コントローラ17に出力する。   In the fourth embodiment, in the process of S28 of the main flow shown in FIG. 5, the projection image generation program 13f executes the “real image position information” and “blank area position” stored in the entity position information storage area 12b. By referring to the “information”, the positions of the real image 802a and the blank area on the projection area 999 are recognized, and if it is determined that the related image 502 cannot be projected onto the blank area, the real image 801a ( A “drawing command” for generating “third projection image data” that moves while the related image 502 is gradually reduced and displayed from the first position) to the blank area (second position) is output to the projection image controller 17.

S38の処理において、投影画像生成プログラム13fは、実体物位置情報記憶領域12bに記憶されている「空白領域位置情報」を参照することにより、空白領域の被投影領域999上の位置を認識し、関連画像502を空白領域に投影できる大きさに縮小させて、空白領域(第2位置)に、縮小した関連画像501を静止投影する「第2投影画像データ」を生成する「描画命令」を投影画像コントローラ17に出力する。   In the process of S38, the projection image generation program 13f recognizes the position of the blank area on the projection area 999 by referring to the “blank area position information” stored in the entity position information storage area 12b. The related image 502 is reduced to a size that can be projected onto a blank area, and a “drawing command” for generating “second projection image data” for statically projecting the reduced related image 501 onto the blank area (second position) is projected. Output to the image controller 17.

このように、第4の実施形態では、空白領域に関連画像502を投影することができない場合には、関連画像502を縮小して前記領域に投影させることにしたので、被投影領域999上に実体物等が多数載置され、空白領域が狭小であったとしても、前記実体物802aに対応する関連画像502を投影することが可能となる。   As described above, in the fourth embodiment, when the related image 502 cannot be projected onto the blank area, the related image 502 is reduced and projected onto the area. Even if a large number of entities and the like are placed and the blank area is narrow, the related image 502 corresponding to the entity 802a can be projected.

関連画像が投影されるべき領域に関連画像を投影することができない場合には、関連画像を縮小して前記領域に投影させるという技術的思想は、第1の実施形態にも適用可能なことは言うまでもない。   If the related image cannot be projected onto the region where the related image is to be projected, the technical idea that the related image is reduced and projected onto the region is applicable to the first embodiment. Needless to say.

(総括) (Summary)

以上の説明では、識別情報及び実画像が印刷された実体物の例について本発明を説明したが、PDA(Personal Digital Assistant)等の画像表示装置を有する実体物の前記画像表示装置に、識別情報及び実画像を表示させ、前記識別情報に基づいて、前記実画像と関連する関連画像を記憶手段200の関連画像データ記憶領域200bから取得して、前記関連画像を被投影領域999に投影する実施形態にも本発明の技術的思想を適用することができることは言うまでもない。   In the above description, the present invention has been described with respect to an example of an entity on which identification information and an actual image are printed. However, the identification information is included in the image display device of an entity having an image display device such as a PDA (Personal Digital Assistant). And a real image is displayed, a related image related to the real image is acquired from the related image data storage area 200b of the storage unit 200 based on the identification information, and the related image is projected onto the projection area 999. It goes without saying that the technical idea of the present invention can also be applied to the form.

以上説明した実施形態では、記憶手段200は画像表示装置100の外部にあり、LAN、WAN又はインターネットを介して入力部19に接続しているが、記憶手段200を画像表示装置100に内蔵することとしても差し支えない。   In the embodiment described above, the storage unit 200 is external to the image display device 100 and is connected to the input unit 19 via a LAN, WAN, or the Internet. However, the storage unit 200 is built in the image display device 100. It does not matter.

なお、撮像画像データ記憶領域12aに記憶されている「撮像画像データ」から実画像をキャプチャーし、このキャプチャーした実画像を関連画像として、投影することにしても差し支えない。   It should be noted that a real image may be captured from “captured image data” stored in the captured image data storage area 12a, and the captured real image may be projected as a related image.

以上、現時点において、もっとも、実践的であり、かつ好ましいと思われる実施形態に関連して本発明を説明したが、本発明は、本願明細書中に開示された実施形態に限定されるものではなく、請求の範囲および明細書全体から読み取れる発明の要旨あるいは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う画像表示装置もまた技術的範囲に包含されるものとして理解されなければならない。   Although the present invention has been described above in connection with the most practical and preferred embodiments at the present time, the present invention is not limited to the embodiments disclosed herein. However, the present invention can be appropriately changed without departing from the spirit or concept of the invention that can be read from the claims and the entire specification, and an image display device with such a change should also be understood as being included in the technical scope. I must.

9 バス
10 制御部
11 CPU
12 RAM
12a 撮像画像データ記憶領域
12b 実体物位置情報記憶領域
12c 識別情報記憶領域
12d 情報テーブル検索結果記憶領域
12e 関連画像データ記憶領域
13 ROM
13a 撮像制御プログラム
13b 実体物位置認識プログラム
13c 識別情報取得プログラム
13d 情報テーブル検索プログラム
13e 関連画像データ取得プログラム
13f 投影画像データ生成プログラム
15 撮像コントローラ
17 投影画像コントローラ
18 VRAM
19 入力部
20 投影手段
30 撮像手段
100 画像表示装置
200 記憶手段
200a 情報テーブル記憶領域
200b 関連画像データ記憶領域
801 実体物
801a 実画像
801b 識別情報
801c 説明文
802 実体物
802a 実画像
802b 識別情報
501 関連画像
502 関連画像
999 被投影領域
9 Bus 10 Control unit 11 CPU
12 RAM
12a Captured image data storage area 12b Entity position information storage area 12c Identification information storage area 12d Information table search result storage area 12e Related image data storage area 13 ROM
13a imaging control program 13b entity position recognition program 13c identification information acquisition program 13d information table retrieval program 13e related image data acquisition program 13f projection image data generation program 15 imaging controller 17 projection image controller 18 VRAM
DESCRIPTION OF SYMBOLS 19 Input part 20 Projection means 30 Imaging means 100 Image display apparatus 200 Storage means 200a Information table storage area 200b Related image data storage area 801 Entity 801a Real image 801b Identification information 801c Description 802 Entity 802a Real image 802b Identification information 501 Image 502 Related image 999 Projected area

Claims (7)

表面に実画像が記載された実体物又は表面に実画像が表示される実体物が載置される被投影面と対向して配置され、前記被投影面に画像を投影する投影手段と、
被投影面を撮像する撮像手段と、
前記撮像手段により撮像された撮像画像から、前記実画像の被投影面上の位置を認識し、実画像位置情報を生成する実体物位置認識手段と、
前記実体物の識別情報を取得する識別情報取得手段と、
前記識別情報取得手段が取得した前記実体物の識別情報に基づいて、前記実画像と関連する関連画像が記憶された記憶手段から、前記実体物と対応する前記関連画像を取得する関連画像取得手段と、
前記実画像位置情報に基づいて、実画像上に重畳する位置である第1位置に前記関連画像が投影される第1投影画像データと、実画像の外側であって且つ実体物及び被投影面上の少なくとも一方の位置である第2位置に前記関連画像が投影される第2投影画像データとを生成する投影画像データ生成手段と、
前記第1投影画像データ及び前記第2投影画像データの何れか一方を画像信号として前記投影手段に出力した後に、他方を画像信号として前記投影手段に出力する画像信号生成手段と、
を有することを特徴とする画像表示装置。
A projecting means that is arranged to face a projection surface on which an entity on which a real image is described or an entity on which a real image is displayed is placed, and projects an image on the projection surface;
An imaging means for imaging the projection surface;
Entity position recognition means for recognizing a position on the projection surface of the real image from the picked-up image picked up by the image pickup means, and generating real image position information;
Identification information acquisition means for acquiring identification information of the entity;
Based on the identification information of the entity acquired by the identification information acquisition unit, the related image acquisition unit acquires the related image corresponding to the entity from the storage unit storing the related image related to the real image. When,
Based on the real image position information, first projection image data in which the related image is projected onto a first position that is a position to be superimposed on the real image, and an entity and a projection surface that are outside the real image Projection image data generation means for generating second projection image data in which the related image is projected to a second position which is at least one of the positions above;
Image signal generating means for outputting one of the first projection image data and the second projection image data as an image signal to the projection means and then outputting the other as an image signal to the projection means;
An image display device comprising:
投影画像データ生成手段は、第1投影画像データが投影される第1位置と第2投影画像データが投影される第2位置との間を連続的に補完する位置である第3位置に、関連画像が投影される第3投影画像データを生成し、
画像信号生成手段はさらに、前記第1投影画像データ及び前記第2投影画像データの何れか一方を画像信号として前記投影手段に出力した後であって、且つ他方を画像信号として前記投影手段に出力する前に、前記第3投影画像データを画像信号として前記投影手段に出力することを特徴とする請求項1に記載の画像表示装置。
The projection image data generation means relates to the third position, which is a position that continuously complements between the first position where the first projection image data is projected and the second position where the second projection image data is projected. Generating third projection image data on which the image is projected;
The image signal generation means further outputs one of the first projection image data and the second projection image data as an image signal to the projection means, and outputs the other as an image signal to the projection means. The image display device according to claim 1, wherein the third projection image data is output to the projection unit as an image signal before performing.
投影画像データ生成手段は、実体物上と露出した被投影面とで、投影される関連画像の明度を異ならせることを特徴とする請求項1又は請求項2に記載の画像表示装置。   The image display device according to claim 1, wherein the projection image data generation unit makes the brightness of the related image to be projected different between the object and the exposed projection surface. 投影画像データ生成手段は、実体物及び露出した被投影面の少なくとも一方の面上であって、明度が一定以上で且つコントラストが一定以下の領域に関連画像を投影させることを特徴とする請求項1又は請求項2に記載の画像表示装置。   The projection image data generation means projects a related image on a region on at least one of an entity and an exposed projection surface, the brightness of which is greater than or equal to a certain level and the contrast is not greater than a certain level. The image display device according to claim 1 or 2. 投影画像データ生成手段は、露出した被投影面上に関連画像を投影させることを特徴とする請求項1又は請求項2に記載の画像表示装置。   The image display device according to claim 1, wherein the projection image data generation unit projects a related image on the exposed projection surface. 投影画像データ生成手段は、関連画像が投影されるべき領域に関連画像を投影することができない場合には、関連画像を縮小して前記領域に投影させることを特徴とする請求項4又は請求項5に記載の画像表示装置。   5. The projection image data generation means, when the related image cannot be projected onto the area where the related image is to be projected, reduces the related image and projects it onto the area. 5. The image display device according to 5. 識別情報取得手段が取得した実体物の識別情報に基づいて、前記実体物と対応する関連画像が記憶手段に存在するか否かを判断する存在判断手段をさらに備え、
関連画像取得手段は、前記存在判断手段が、前記関連画像が記憶手段に存在すると判断した場合に、前記関連画像を前記記憶手段から取得することを特徴とする請求項1〜請求項6のいずれかに記載の画像表示装置。
Based on the identification information of the entity acquired by the identification information acquisition unit, further comprising presence determination means for determining whether a related image corresponding to the entity exists in the storage unit;
7. The related image acquisition unit acquires the related image from the storage unit when the presence determination unit determines that the related image exists in the storage unit. An image display device according to claim 1.
JP2009189853A 2009-08-19 2009-08-19 Image display device Withdrawn JP2011043545A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009189853A JP2011043545A (en) 2009-08-19 2009-08-19 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009189853A JP2011043545A (en) 2009-08-19 2009-08-19 Image display device

Publications (1)

Publication Number Publication Date
JP2011043545A true JP2011043545A (en) 2011-03-03

Family

ID=43831040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009189853A Withdrawn JP2011043545A (en) 2009-08-19 2009-08-19 Image display device

Country Status (1)

Country Link
JP (1) JP2011043545A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110545A (en) * 2014-12-10 2016-06-20 カシオ計算機株式会社 Information output control device and program
JP2016110550A (en) * 2014-12-10 2016-06-20 カシオ計算機株式会社 Information output control device and program
JP2016110549A (en) * 2014-12-10 2016-06-20 カシオ計算機株式会社 Information display control device and program
CN105700803A (en) * 2014-12-10 2016-06-22 卡西欧计算机株式会社 Information output control device
US9405182B2 (en) 2013-01-23 2016-08-02 Fujitsu Limited Image processing device and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405182B2 (en) 2013-01-23 2016-08-02 Fujitsu Limited Image processing device and image processing method
JP2016110545A (en) * 2014-12-10 2016-06-20 カシオ計算機株式会社 Information output control device and program
JP2016110550A (en) * 2014-12-10 2016-06-20 カシオ計算機株式会社 Information output control device and program
JP2016110549A (en) * 2014-12-10 2016-06-20 カシオ計算機株式会社 Information display control device and program
CN105700803A (en) * 2014-12-10 2016-06-22 卡西欧计算机株式会社 Information output control device

Similar Documents

Publication Publication Date Title
US20190273908A1 (en) Methods Circuits Devices Assemblies Systems and Functionally Associated Computer Executable Code for Image Acquisition With Depth Estimation
TWI706181B (en) Imaging devices having autofocus control
JP2011043876A (en) Image display device
WO2011007746A1 (en) Fingertip-manipulation-type information providing system, interactive manipulation device, computer program, and storage medium
JP2005072888A (en) Image projection method and image projection device
JP2011188024A (en) Information processing unit, method of processing information, and program
JP2011043545A (en) Image display device
JP2010050757A (en) Information providing method and information providing system
JP5598033B2 (en) Information processing apparatus, information processing method, and program
JP2022107533A (en) Systems, methods and apparatuses for focus selection using image disparity
JP4501701B2 (en) Image capturing apparatus, image processing method for image capturing apparatus, and program
JP5018652B2 (en) Object presence determination device
JP6368593B2 (en) Image processing program, information processing system, and image processing method
JP2010152900A (en) Image processor and image processing program
JP2009005089A (en) Image identification and display apparatus and image identification and display method
JP2008281887A (en) Focusing detecting device, focusing detecting method and focusing detecting program
JP2006048328A (en) Apparatus and method for detecting face
JP6335809B2 (en) Stripe pattern image acquisition device, stripe pattern image acquisition method, three-dimensional position specifying device, three-dimensional position specifying method, and program
JP2014126943A (en) Image processing apparatus and method for performing image processing in order to detect object in image
JP2015126281A (en) Projector, information processing method, and program
JP5924577B2 (en) Position detection device
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6386837B2 (en) Image processing program, information processing system, information processing apparatus, and image processing method
CN111566439A (en) Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program
JP5471315B2 (en) Information provision system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121106