JP2010157035A - System, method, and program for displaying composite image - Google Patents

System, method, and program for displaying composite image Download PDF

Info

Publication number
JP2010157035A
JP2010157035A JP2008333848A JP2008333848A JP2010157035A JP 2010157035 A JP2010157035 A JP 2010157035A JP 2008333848 A JP2008333848 A JP 2008333848A JP 2008333848 A JP2008333848 A JP 2008333848A JP 2010157035 A JP2010157035 A JP 2010157035A
Authority
JP
Japan
Prior art keywords
image
information
recognition information
luminance
composite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008333848A
Other languages
Japanese (ja)
Other versions
JP5258549B2 (en
Inventor
Takakuni Michizeki
隆国 道関
Kazuma Kitamura
一真 北村
Kenichi Sakuma
健一 佐久間
Hiroshi Fukui
寛 福井
Takashi Sato
敬 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Shiseido Co Ltd
Original Assignee
Ritsumeikan Trust
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust, Shiseido Co Ltd filed Critical Ritsumeikan Trust
Priority to JP2008333848A priority Critical patent/JP5258549B2/en
Publication of JP2010157035A publication Critical patent/JP2010157035A/en
Application granted granted Critical
Publication of JP5258549B2 publication Critical patent/JP5258549B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide highly accurate images or services superior in the added value thereof. <P>SOLUTION: A system for displaying a composite image for compositing and displaying another image at a prescribed position of an captured image includes: an imaging means for capturing an image of an information providing medium with the prescribed information recorded thereon by a changing material whose luminance varies with a lapse of time after predetermined light irradiation; a recognition information analyzing means for analyzing recognition information and luminance information in prescribed shapes included in the image imaged by the imaging means; a three-dimensional position acquisition means for acquiring a three-dimensional position from the recognition information acquired by the recognition information analyzing means; an image information extracting means for extracting an image corresponding to the recognition information among previously accumulated multiple images to be composited using a three-dimensional coordinate acquired by the three-dimensional position acquisition means; and an image compositing means for three-dimensionally compositing the image to be composited extracted by the image information extracting means based on real space of the captured image to display a composite image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、合成画像表示システム、合成画像表示方法、及び合成画像表示プログラムに係り、特に付加価値性に優れた高精度な画像を提供するための合成画像表示システム、合成画像表示方法、及び合成画像表示プログラムに関する。   The present invention relates to a composite image display system, a composite image display method, and a composite image display program. In particular, the present invention relates to a composite image display system, a composite image display method, and a composite for providing a highly accurate image with excellent added value. The present invention relates to an image display program.

従来、例えば、模様等が描かれたカードを撮影し、撮影したカメラ映像から検出されるカードの種類や3次元位置情報に基づいて、楽器を制御するMIDI(Musical Instrument Digital Interface)信号を出力したり、映像を出力する技術が知られている(例えば、特許文献1参照。)。   Conventionally, for example, a card on which a pattern or the like is drawn is photographed, and a MIDI (Musical Instrument Digital Interface) signal for controlling a musical instrument is output based on the type of card and three-dimensional position information detected from the photographed camera image. In addition, a technique for outputting video is known (for example, see Patent Document 1).

また、撮影されるカードの情報だけでなくカード自体の速度情報を用いて映像を選択することで、カードの移動内容に対応する様々な映像を出力する技術が知られている(例えば、特許文献2参照。)。   In addition, there is known a technique for outputting various images corresponding to the movement contents of a card by selecting an image using not only the information of the card to be photographed but also the speed information of the card itself (for example, Patent Documents). 2).

また、カメラで紙媒体の図形を認識してパソコンのディスプレイ上に仮想図形を表示させる表示させる従来のシステムツール等が存在する(例えば、非特許文献1参照。)。   Further, there is a conventional system tool that recognizes a graphic on a paper medium with a camera and displays a virtual graphic on a display of a personal computer (for example, see Non-Patent Document 1).

更に、所定の画像パターンに対応する識別情報を有する対象画像を取得し、取得し前記対象画像の中から、識別情報を認識し、予め登録された複数の処理の中から認識された識別情報に対応する所定の処理を実行し、対象画像を所定の表示領域内に表示し、表示された対象画像内の所定の2個以上の位置の位置情報を取得し、取得された2個以上の位置の位置情報に基づく向き及び位置に、認識された識別情報に対応する画像を描画する画像処理技術が知られている(例えば、特許文献3参照。)
特開2002−32076号公報 特開2003−271928号公報 "http://www.hitl.washington.edu/artoolkit/"、「ARToolKit」 特開2000−82107号公報
Further, a target image having identification information corresponding to a predetermined image pattern is acquired, the identification information is recognized from the target image, and the identification information recognized from a plurality of pre-registered processes is obtained. The corresponding predetermined process is executed, the target image is displayed in the predetermined display area, the position information of two or more predetermined positions in the displayed target image is acquired, and the two or more acquired positions An image processing technique for drawing an image corresponding to recognized identification information in a direction and position based on the position information is known (see, for example, Patent Document 3).
JP 2002-32076 A Japanese Patent Laid-Open No. 2003-271928 "http://www.hit.washington.edu/arttoolkit/", "ARTToolKit" JP 2000-82107 A

しかしながら、上述した従来技術では、カード等を所定方向(平行や回転)に移動させることによって、合成される画像に動きを持たせて表示を行うことができるが、カード等を停止させたまま合成させる画像を変化させることができなかった。そのため、例えば予め制作された動画を合成する等の対応しかできず、カード種別毎にある特定の動作しかできなかったため、付加価値性に優れた高精度な画像や映像は提供されていなかった。   However, in the above-described prior art, by moving a card or the like in a predetermined direction (parallel or rotation), it is possible to display an image to be synthesized with a motion, but synthesis is performed with the card or the like stopped. The image to be changed could not be changed. For this reason, for example, it is only possible to synthesize a motion picture produced in advance, and only a specific operation can be performed for each card type. Therefore, highly accurate images and videos with excellent added value have not been provided.

また、上述した非特許文献1に示されている仮想図形表示システムでは、一旦、仮想図形が表示されると図形を変化させることは難しかった。すなわち、外部の環境変化に応じて図形を変化させることはできなかった。更に、従来技術では、表示させる画像は、識別情報を含むカード等の位置を基準に表示させるものであるため、表示の仕方に制限があり、例えば3次元映像等を表示させることはできなった。   Further, in the virtual graphic display system shown in Non-Patent Document 1 described above, once the virtual graphic is displayed, it is difficult to change the graphic. That is, the figure cannot be changed according to the external environmental change. Furthermore, in the prior art, since the image to be displayed is displayed based on the position of the card or the like including the identification information, there is a limitation in the display method, and for example, it is not possible to display a 3D video or the like. .

本発明は、上述した課題に鑑みてなされたものであって、付加価値性に優れた高精度な画像を提供するための合成画像表示システム、合成画像表示方法、及び合成画像表示プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides a composite image display system, a composite image display method, and a composite image display program for providing a highly accurate image with excellent added value. For the purpose.

上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above-described problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、撮影された画像の所定の位置に他の画像を合成して表示する合成画像表示システムにおいて、予め設定された光の照射後、時間の経過と共に輝度が変化する変化物により所定の情報が記された情報提供媒体を撮像する撮像手段と、前記撮像手段により撮影された画像中に含まれる所定形状からなる認識情報及び輝度情報を解析する認識情報解析手段と、前記認識情報解析手段により得られる認識情報から3次元位置を取得する3次元位置取得手段と、前記3次元位置取得手段により得られる3次元座標を用いて、予め蓄積された複数の合成対象画像のうち、前記認識情報に対応する画像を抽出する画像情報抽出手段と、前記画像情報抽出手段により抽出された合成対象画像を前記撮影画像の実空間を基準にして立体合成し、合成された画像を表示する画像合成手段とを有することを特徴とする。   According to the first aspect of the present invention, in a composite image display system that combines and displays another image at a predetermined position of a photographed image, the luminance changes over time after irradiation with a preset light. Imaging means for imaging an information providing medium in which predetermined information is recorded by a change object, recognition information analysis means for analyzing recognition information and luminance information having a predetermined shape included in an image captured by the imaging means, and A plurality of synthesis target images stored in advance using a three-dimensional position acquisition unit that acquires a three-dimensional position from recognition information obtained by the recognition information analysis unit, and a three-dimensional coordinate obtained by the three-dimensional position acquisition unit. Image information extraction means for extracting an image corresponding to the recognition information, and a synthesis target image extracted by the image information extraction means on the basis of the real space of the photographed image. And body synthesis, and having an image synthesis means for displaying the synthesized image.

請求項1記載の発明によれば、付加価値性に優れた高精度な画像又はサービスを提供することができる。   According to the first aspect of the present invention, it is possible to provide a highly accurate image or service with excellent added value.

請求項2に記載された発明は、前記認識情報解析手段は、予め設定される波長の紫外線光、赤外線光、及び可視光のうち、少なくとも1つの光源から照射された後の前記変化物の輝度情報を取得することを特徴とする。   The invention described in claim 2 is characterized in that the recognition information analyzing means is a luminance of the change object after being irradiated from at least one light source of ultraviolet light, infrared light, and visible light having a preset wavelength. It is characterized by acquiring information.

請求項2記載の発明によれば、予め設定される波長のライト等の光源の光を照射することにより、目的の画像をユーザに提供することができる。また、設定される波長を変えることで多種の合成画像を提供することができる。   According to the second aspect of the present invention, a target image can be provided to the user by irradiating light from a light source such as a light having a preset wavelength. Also, various composite images can be provided by changing the set wavelength.

請求項3に記載された発明は、前記画像情報抽出手段は、前記認識情報を印字したときの前記変化物の経時的な輝度情報の変化に伴い、所定時間毎における各輝度情報に対応する合成対象画像を順次抽出し、前記画像合成手段は、前記画像情報抽出手段により前記合成対象画像が抽出される毎に、前記撮影画像と前記合成対象画像との合成を行うことを特徴とする。   According to a third aspect of the present invention, the image information extracting unit is configured to combine the luminance information corresponding to each luminance information at a predetermined time according to a change in luminance information with time of the changed object when the recognition information is printed. The target image is sequentially extracted, and the image synthesis unit performs synthesis of the captured image and the synthesis target image every time the synthesis target image is extracted by the image information extraction unit.

請求項3記載の発明によれば、輝度情報が変化することで、他の合成対象画像が選択されて合成表示させることができる。これにより、動画等も提供することができる。   According to the third aspect of the present invention, when the luminance information is changed, another synthesis target image can be selected and synthesized and displayed. Thereby, a moving image etc. can also be provided.

請求項4に記載された発明は、前記変化物により前記情報提供媒体に記された認識情報の向きを解析する回転方向検出手段を有し、前記画像情報抽出手段は、前記認識情報解析手段により得られる輝度情報と、前記回転方向検出手段により得られる回転情報とに基づいて、合成する対象画像を抽出することを特徴とする。   According to a fourth aspect of the present invention, there is provided a rotation direction detecting means for analyzing a direction of recognition information written on the information providing medium by the change object, and the image information extracting means is provided by the recognition information analyzing means. A target image to be synthesized is extracted based on the obtained luminance information and the rotation information obtained by the rotation direction detecting means.

請求項4記載の発明によれば、情報提供媒体に対して表示するだけでなく、撮影された実空間上に3次元形状を合成させることができる。   According to the fourth aspect of the present invention, not only the information providing medium but also the three-dimensional shape can be synthesized on the photographed real space.

請求項5に記載された発明は、前記認識情報は、文字、図形、模様、画像及びバーコード情報のうち、少なくとも1つであることを特徴とする。   The invention described in claim 5 is characterized in that the recognition information is at least one of a character, a figure, a pattern, an image, and barcode information.

請求項5記載の発明によれば、1又は複数の認識情報を用いて、多種の付加価値の高いサービスを提供することができる。   According to the invention described in claim 5, it is possible to provide a variety of services with high added value using one or a plurality of pieces of recognition information.

請求項6に記載された発明は、前記画像合成手段は、前記撮影画像に含まれる前記情報提供媒体の位置、角度、向きのうち少なくとも1つを含む姿勢情報、及び前記輝度情報に基づいて、前記合成対象画像に対して、表示、非表示、大きさ、位置、方向を制御することを特徴とする。   According to a sixth aspect of the present invention, the image synthesizing means is based on posture information including at least one of a position, an angle, and a direction of the information providing medium included in the captured image, and the luminance information. Display, non-display, size, position, and direction are controlled for the synthesis target image.

請求項6記載の発明によれば、情報提供媒体の位置、角度、向きのうち少なくとも1つを含む姿勢情報を用いて、より多くの合成画像を提供することができ、より付加価値の高いサービスを提供することができる。   According to the sixth aspect of the present invention, it is possible to provide more composite images using posture information including at least one of the position, angle, and orientation of the information providing medium, and a service with higher added value. Can be provided.

請求項7に記載された発明は、前記光源は、再帰反射観察ライトであり、前記情報提供媒体は、再帰反射シートであることを特徴とする。   The invention described in claim 7 is characterized in that the light source is a retroreflective observation light, and the information providing medium is a retroreflective sheet.

請求項7記載の発明によれば、より高精度な情報を取得することができる。   According to the seventh aspect of the invention, more accurate information can be acquired.

請求項8に記載された発明は、撮影された画像の所定の位置に他の画像を合成して表示する合成画像表示方法において、予め設定された光の照射後、時間の経過と共に輝度が変化する変化物により所定の情報が記された情報提供媒体を撮像する撮像ステップと、前記撮像ステップにより撮影された画像中に含まれる所定形状からなる認識情報及び輝度情報を解析する認識情報解析ステップと、前記認識情報解析ステップにより得られる認識情報から3次元位置を取得する3次元位置取得ステップと、前記3次元位置取得ステップにより得られる3次元座標を用いて、予め蓄積された複数の合成対象画像のうち、前記認識情報に対応する画像を抽出する画像情報抽出ステップと、前記画像情報抽出ステップにより抽出された合成対象画像を前記撮影画像の実空間を基準にして立体合成し、合成された画像を表示する画像合成ステップとを有することを特徴とする。   The invention described in claim 8 is a composite image display method in which another image is combined and displayed at a predetermined position of a photographed image, and the luminance changes over time after irradiation with a preset light. An imaging step for imaging an information providing medium in which predetermined information is recorded by a change object, and a recognition information analysis step for analyzing recognition information and luminance information consisting of a predetermined shape included in the image captured by the imaging step; , A three-dimensional position acquisition step for acquiring a three-dimensional position from the recognition information obtained by the recognition information analysis step, and a plurality of synthesis target images stored in advance using the three-dimensional coordinates obtained by the three-dimensional position acquisition step. An image information extraction step for extracting an image corresponding to the recognition information, and a synthesis target image extracted by the image information extraction step. And three-dimensional synthesized on the basis of the real space of the shadow image, and having an image combining step of displaying the synthesized image.

請求項8記載の発明によれば、付加価値性に優れた高精度な画像又はサービスを提供することができる。   According to invention of Claim 8, the highly accurate image or service excellent in added value property can be provided.

請求項9に記載された発明は、前記認識情報解析ステップは、予め設定される波長の紫外線光、赤外線光、及び可視光のうち、少なくとも1つの光源から照射された後の前記変化物の輝度情報を取得することを特徴とする。   In the invention described in claim 9, in the recognition information analyzing step, the luminance of the change object after being irradiated from at least one light source of ultraviolet light, infrared light, and visible light having a preset wavelength. It is characterized by acquiring information.

請求項9記載の発明によれば、予め設定される波長のライト等の光源の光を照射することにより、目的の画像をユーザに提供することができる。また、設定される波長を変えることで多種の合成画像を提供することができる。   According to the ninth aspect of the present invention, a target image can be provided to the user by irradiating light from a light source such as a light having a preset wavelength. Also, various composite images can be provided by changing the set wavelength.

請求項10に記載された発明は、前記画像情報抽出ステップは、前記認識情報を印字したときの前記変化物の経時的な輝度情報の変化に伴い、所定時間毎における各輝度情報に対応する合成対象画像を順次抽出し、前記画像合成ステップは、前記画像情報抽出ステップにより前記合成対象画像が抽出される毎に、前記撮影画像と前記合成対象画像との合成を行うことを特徴とする。   According to a tenth aspect of the present invention, in the image information extraction step, the synthesis corresponding to each luminance information at a predetermined time is accompanied by a change in luminance information with time of the changed object when the recognition information is printed. A target image is sequentially extracted, and the image synthesis step combines the captured image and the synthesis target image each time the synthesis target image is extracted by the image information extraction step.

請求項10記載の発明によれば、輝度情報が変化することで、他の合成対象画像が選択されて合成表示させることができる。これにより、動画等も提供することができる。   According to the tenth aspect of the present invention, when the luminance information is changed, another synthesis target image can be selected and synthesized and displayed. Thereby, a moving image etc. can also be provided.

請求項11に記載された発明は、前記変化物により前記情報提供媒体に記された認識情報の向きを解析する回転方向検出ステップを有し、前記画像情報抽出ステップは、前記認識情報解析ステップにより得られる輝度情報と、前記回転方向検出ステップにより得られる回転情報とに基づいて、合成する対象画像を抽出することを特徴とする。   The invention described in claim 11 includes a rotation direction detecting step for analyzing a direction of recognition information written on the information providing medium by the change object, and the image information extracting step is performed by the recognition information analyzing step. A target image to be synthesized is extracted based on the obtained luminance information and the rotation information obtained by the rotation direction detection step.

請求項11記載の発明によれば、情報提供媒体に対して表示するだけでなく、撮影された実空間上に3次元形状を合成させることができる。   According to the eleventh aspect of the present invention, it is possible not only to display on the information providing medium but also to synthesize a three-dimensional shape on the photographed real space.

請求項12に記載された発明は、前記認識情報は、文字、図形、模様、画像及びバーコード情報のうち、少なくとも1つであることを特徴とする。   The invention described in claim 12 is characterized in that the recognition information is at least one of a character, a figure, a pattern, an image, and barcode information.

請求項12記載の発明によれば、1又は複数の認識情報を用いて、多種の付加価値の高いサービスを提供することができる。   According to the twelfth aspect of the present invention, it is possible to provide a variety of services with high added value using one or a plurality of pieces of recognition information.

請求項13に記載された発明は、前記画像合成ステップは、前記撮影画像に含まれる前記情報提供媒体の位置、角度、向きのうち少なくとも1つを含む姿勢情報、及び前記輝度情報に基づいて、前記合成対象画像に対して、表示、非表示、大きさ、位置、方向を制御することを特徴とする。   According to a thirteenth aspect of the present invention, the image synthesizing step is based on posture information including at least one of a position, an angle, and a direction of the information providing medium included in the captured image, and the luminance information. Display, non-display, size, position, and direction are controlled for the synthesis target image.

請求項13記載の発明によれば、情報提供媒体の位置、角度、向きのうち少なくとも1つを含む姿勢情報を用いて、より多くの合成画像を提供することができ、より付加価値の高いサービスを提供することができる。   According to the thirteenth aspect of the invention, it is possible to provide more composite images using posture information including at least one of the position, angle, and orientation of the information providing medium, and a service with higher added value. Can be provided.

請求項14に記載された発明は、前記光源は、再帰反射観察ライトであり、前記情報提供媒体は、再帰反射シートであることを特徴とする。   The invention described in claim 14 is characterized in that the light source is a retroreflection observation light, and the information providing medium is a retroreflection sheet.

請求項14記載の発明によれば、より高精度な情報を取得することができる。   According to the fourteenth aspect of the present invention, more accurate information can be acquired.

請求項15に記載された発明は、コンピュータに、請求項1乃至7の何れか1項に記載の合成画像表示システムの各手段に係る処理を実行させることを特徴とする合成画像表示プログラムである。   The invention described in claim 15 is a composite image display program that causes a computer to execute processing relating to each means of the composite image display system according to any one of claims 1 to 7. .

請求項15記載の発明によれば、付加価値性に優れた高精度な画像又はサービスを提供することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における合成画像表示処理を容易に実現することができる。   According to the invention of the fifteenth aspect, it is possible to provide a highly accurate image or service excellent in added value. Further, by installing the program, the composite image display process according to the present invention can be easily realized by a general-purpose personal computer or the like.

本発明によれば、付加価値性に優れた高精度な画像又はサービスを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the highly accurate image or service excellent in added value property can be provided.

<本発明の概要>
本発明は、例えばカメラ等の撮像手段及びそのカメラと接続されたPC(Personal Computer)や、カメラ付き携帯端末等を用いて、予め設定された光の照射後、時間の経過と共に輝度が変化する変化物により所定の情報が記された情報提供媒体(例えば、カード状の紙や樹脂シート等)を撮像し、撮影された画像に含まれる情報に対応する仮想図形等の画像(合成対象画像((静止画、動画、文字情報等を含む))を、撮影画像と合成してディスプレイ等の画面に表示する。なお、本発明では、仮想空間上の3次元情報を回転情報及び3次元座標に対応させて実空間画像に表示する仮想図形表示システムを提供する。
<Outline of the present invention>
The present invention uses, for example, an imaging means such as a camera and a PC (Personal Computer) connected to the camera, a mobile terminal with a camera, etc., and the luminance changes with the passage of time after irradiation with a preset light. An information providing medium (for example, card-like paper or resin sheet) on which predetermined information is recorded by a change object is imaged, and an image (composite target image (such as a synthesis target image) corresponding to information included in the captured image is captured. (Including still images, moving images, character information, etc.) are combined with the captured image and displayed on a screen such as a display, etc. In the present invention, the three-dimensional information in the virtual space is converted into rotation information and three-dimensional coordinates. Provided is a virtual graphic display system that displays a real space image in correspondence.

具体的には、少なくとも3点又は3点が特定できる模様(例えば、L文字等)を含む図形(例えば、2次元バーコード)からなる認識情報を撮影した画像から、その認識情報である図形の回転方向及び3次元座標を取得し、図形により得られる情報から選択された仮想空間上の3次元情報(図形、文字含む)を回転方向及び3次元座標に対応させて実空間画像に表示する。   Specifically, at least three points, or a graphic that is the recognition information from an image obtained by capturing recognition information that consists of a graphic (for example, a two-dimensional barcode) that includes a pattern (for example, an L character) that can specify three points. The rotation direction and three-dimensional coordinates are acquired, and the three-dimensional information (including graphics and characters) in the virtual space selected from the information obtained by the figure is displayed on the real space image in correspondence with the rotation direction and the three-dimensional coordinates.

なお、本発明では、情報提供媒体に情報を記すために用いられる変化物として、例えば外部刺激(紫外線光、赤外線光、可視光、熱)により発光、吸収する発光・吸収物質、或いは、環境により色変化を起す物質(再帰反射性物質等)を用いることができ、撮影された画像から情報提供媒体上の変化物の輝度情報を取得し、取得した輝度情報に対応する画像を予め蓄積された画像群から抽出し、抽出した画像と撮影画像とを合成して画面上に表示される。なお、本発明における輝度情報とは、発光(明るさ)だけを意味するものではなく、色相、明度、彩度等の色情報も含む。   In the present invention, the change used for writing information on the information providing medium is, for example, a light emitting / absorbing substance that emits or absorbs light by an external stimulus (ultraviolet light, infrared light, visible light, heat), or the environment. Substances that cause color changes (such as retroreflective substances) can be used, and luminance information of the change on the information providing medium is acquired from the captured image, and images corresponding to the acquired luminance information are stored in advance. Extracted from the image group, the extracted image and the captured image are combined and displayed on the screen. Note that the luminance information in the present invention does not mean only light emission (brightness) but also includes color information such as hue, brightness, and saturation.

具体的には説明すると本発明は、外部刺激として紫外線を用いる場合には、例えばPC側に紫外線を含むライト(光源)を情報提供媒体に照射することにより、発光物質が発光して図形を変化させることができる。また、時間の経過により輝度情報が変わる場合には、その輝度に対応して画像や映像、文字情報等を変化させることができる。また、PC側に紫外線センサーを搭載することにより、センサーからの検出信号を用いて取得した検出結果から仮想図形を変化させることができる。更に、本発明では、外部刺激として体温等の熱を用いて、情報提供媒体の発光物質に指で触れることにより、発光物質が発光して図形を変化させることもできる。   Specifically, in the present invention, when ultraviolet rays are used as an external stimulus, for example, by illuminating the information providing medium with a light (light source) containing ultraviolet rays on the PC side, the luminescent substance emits light and changes the figure. Can be made. Further, when the luminance information changes with the passage of time, the image, video, character information, etc. can be changed in accordance with the luminance. In addition, by mounting an ultraviolet sensor on the PC side, the virtual figure can be changed from the detection result obtained using the detection signal from the sensor. Furthermore, in the present invention, by using heat such as body temperature as an external stimulus and touching the luminescent material of the information providing medium with a finger, the luminescent material can emit light and change the figure.

以下に、本発明における合成画像表示システム、合成画像表示方法、及び合成画像表示プログラムを好適に実施した形態について、図面を用いて説明する。なお、以下の説明では、情報提供媒体として紙状のカードを用いて説明するが、本発明においてはこれに限定されるものではなく、例えば樹脂や金属等でもよく、形状もカードのように平面状だけでなく、例えば球や円筒のような湾曲形状又は凹凸形状を有していてもよい。   Hereinafter, embodiments in which a composite image display system, a composite image display method, and a composite image display program according to the present invention are suitably implemented will be described with reference to the drawings. In the following description, a paper card is used as the information providing medium. However, the present invention is not limited to this, and for example, resin or metal may be used, and the shape may be flat like a card. It may have not only a shape but also a curved shape such as a sphere or a cylinder or an uneven shape.

<合成画像表示システム:機能構成例>
ここで、本実施形態における合成画像表示システムの機構構成例について図を用いて説明する。
<Composite image display system: functional configuration example>
Here, an example of a mechanism configuration of the composite image display system in the present embodiment will be described with reference to the drawings.

図1は、本実施形態における合成画像表示システムの機構構成の一例を示す図である。図1に示す合成画像表示システム10は、撮像装置(撮像手段)11と、合成画像表示装置12と、携帯端末13と、画像管理データベース14と、合成画像表示装置12或いは携帯端末13、及び画像管理端末14とをデータの送受信可能な状態で接続される有線又は無線からなる通信ネットワーク15とを有するよう構成されている。なお、図1において、撮像装置11は、合成画像表示装置12内に一体となって形成されていてもよい。また、本実施形態における撮像装置11及び合成画像表示装置12の構成は、図1に示すように例えばカメラ機能付きの携帯端末13で置き換えることでもできる。   FIG. 1 is a diagram illustrating an example of a mechanism configuration of a composite image display system in the present embodiment. A composite image display system 10 shown in FIG. 1 includes an imaging device (imaging means) 11, a composite image display device 12, a mobile terminal 13, an image management database 14, a composite image display device 12 or a mobile terminal 13, and an image. It is configured to have a wired or wireless communication network 15 connected to the management terminal 14 in a state where data can be transmitted and received. In FIG. 1, the imaging device 11 may be integrally formed in the composite image display device 12. Further, the configurations of the imaging device 11 and the composite image display device 12 in the present embodiment can be replaced with, for example, a portable terminal 13 with a camera function as shown in FIG.

デジタルカメラ等の撮像装置11又は携帯端末13におけるカメラ機能(撮像手段)は、カード(情報提供媒体)20に印字された所定の認識情報21を含む画像を撮影する。なお、本実施形態において、認識情報21の一方又は両方は、本実施形態における予め設定された光の照射後、時間の経過と共に輝度が変化する変化物により印字されている。   A camera function (imaging means) in the imaging device 11 such as a digital camera or the portable terminal 13 captures an image including predetermined recognition information 21 printed on a card (information providing medium) 20. In the present embodiment, one or both of the recognition information 21 is printed by a change object whose luminance changes with the passage of time after irradiation with light set in advance in the present embodiment.

なお、認識情報21は、図1に示すようなQRコードに限定されず、例えばJANコードや、ITFコード、NW−7、CODE39、CODE128、UPC、PDF417、CODE49、Data Matrix、Maxi Code等のバーコードを用いることができ、更には、「あ」等の回転方向が分かる文字情報や模様、正方形や星型等の枠等であってもよい。つまり、少なくとも3点又は3点が特定できる模様(例えば、L文字等)を含む図形(例えば、2次元バーコード)であればよい。なお、認識情報21等の印字情報としては、例えば文字、図形、模様、画像及びバーコード情報のうち、少なくとも1つを用いることができる。また、印字情報として認識情報21を記しておくことで、輝度情報を取得する位置情報や、合成対象画像を撮影画像と合成する際、その合成位置や向き、大きさ等を調整することができる。   The recognition information 21 is not limited to the QR code as shown in FIG. 1, but for example, a JAN code, ITF code, NW-7, CODE39, CODE128, UPC, PDF417, CODE49, Data Matrix, Maxi Code, or the like. A code can be used, and further, character information or a pattern that indicates the rotation direction such as “A”, a frame such as a square or a star, and the like may be used. In other words, it may be a graphic (for example, a two-dimensional barcode) including at least three points or a pattern (for example, L characters) that can specify three points. As the print information such as the recognition information 21, for example, at least one of characters, figures, patterns, images, and barcode information can be used. Further, by writing the recognition information 21 as print information, the position information for obtaining luminance information, and the composition position, orientation, size, and the like can be adjusted when the composition target image is composed with the photographed image. .

これにより、1又は複数の印字情報を用いて、多種の付加価値の高いサービスを提供することができる。なお、本実施形態で適用される印字情報の詳細については、後述する。   As a result, various high value-added services can be provided using one or a plurality of print information. Details of the print information applied in this embodiment will be described later.

合成画像表示装置12は、撮像装置11から撮影された画像を解析し、画像に含まれる認識情報21の内容等から輝度情報や、文字情報、熱情報等を取得する。また、合成画像表示装置12は、取得した上述の各種情報に基づいて、合成対象画像を抽出し、抽出した画像を撮影画像に合成して、ディスプレイ等の画面上に表示する。   The composite image display device 12 analyzes the image taken from the imaging device 11 and acquires luminance information, character information, thermal information, and the like from the content of the recognition information 21 included in the image. Further, the synthesized image display device 12 extracts a synthesis target image based on the acquired various pieces of information, synthesizes the extracted image with a photographed image, and displays the synthesized image on a screen such as a display.

このとき、合成対象画像や、本実施形態により得られる合成画像表示処理を行うために必要なプログラム又は各種更新設定情報等は、合成画像表示装置12に予め蓄積されている画像群やデータ情報等から取得してもよく、また通信ネットワーク15を介して接続されるデータの送受信が可能な画像管理データベース14等から取得してもよい。更に、合成画像表示装置12から画像管理データベース14に撮影画像を送信し、画像管理データベース側で、抽出された合成対象画像と、撮影画像とを合成し、合成した画像を合成画像表示装置12や携帯端末13に送信することできる。   At this time, the synthesis target image, the program necessary for performing the synthesized image display processing obtained by the present embodiment, various update setting information, and the like are stored in advance in the synthesized image display device 12 as image groups, data information, and the like. May be acquired from the image management database 14 or the like capable of transmitting and receiving data connected via the communication network 15. Further, the captured image is transmitted from the composite image display device 12 to the image management database 14, and the extracted composition target image and the captured image are combined on the image management database side, and the combined image is combined with the composite image display device 12 or the like. It can be transmitted to the mobile terminal 13.

また、携帯端末13は、上述した撮像装置11と、合成画像表示装置12と同等の処理を行う。なお、携帯端末13は、画像管理データベース14と接続する場合には、予め設定さえる画像管理データベース14のアドレス情報に基づいて無線等により接続し、上述した輝度情報や、文字情報、熱情報等に基づいて上述した合成対象画像や、撮影画像も画像管理データベース14に送信してデータベース側で合成された合成画像を取得する。   In addition, the mobile terminal 13 performs processing equivalent to that of the imaging device 11 and the composite image display device 12 described above. When the portable terminal 13 is connected to the image management database 14, it is connected wirelessly based on the address information of the image management database 14 set in advance, and the above-described luminance information, character information, thermal information, etc. Based on this, the image to be synthesized and the photographed image are also sent to the image management database 14 to obtain a synthesized image synthesized on the database side.

画像管理データベース14は、合成画像表示装置12や携帯端末13からの問い合わせ情報(輝度情報、文字情報、熱情報)等に対して対象となる合成対象画像やその他の設定情報等の各種情報を合成画像表示装置12や携帯端末13に提供する。   The image management database 14 synthesizes various kinds of information such as a target image to be synthesized and other setting information with respect to inquiry information (luminance information, character information, thermal information) from the synthesized image display device 12 and the portable terminal 13. This is provided to the image display device 12 and the portable terminal 13.

なお、図1に示すように、本実施形態では、カメラの撮影方向に対して得られるカード状のカード20のx、y、z座標における位置(向き)情報を表すことができる。また、枠情報は、単なる太線のマーカーだけでなく、枠自体に文字や数字、図形、模様、顔の写真等も印字することができる。   As shown in FIG. 1, in the present embodiment, position (orientation) information in the x, y, and z coordinates of the card-like card 20 obtained with respect to the shooting direction of the camera can be represented. In addition, the frame information can be printed not only with a bold marker, but also with characters, numbers, figures, patterns, facial photographs, etc. on the frame itself.

つまり、図1に示すようにカード20の位置情報は、x座標がカメラに対して水平方向の位置を示し、y座標がカメラに対して垂直方向の位置を示し、z座標がカメラに対する距離を示している。また、姿勢情報は、上述のx軸、y軸、z軸の各軸に対する所定のカードの位置を基準とした回転の度合を示すものであり、カードそのものの姿勢を表すものである。これにより、ユーザがカードを動かした場合、カードを撮影したカメラからカード情報(カードの種類、3次元位置情報、姿勢情報)を取得する。   That is, as shown in FIG. 1, in the position information of the card 20, the x coordinate indicates the position in the horizontal direction with respect to the camera, the y coordinate indicates the position in the vertical direction with respect to the camera, and the z coordinate indicates the distance to the camera. Show. The posture information indicates the degree of rotation based on the position of a predetermined card with respect to the above-described x-axis, y-axis, and z-axis, and represents the posture of the card itself. Thus, when the user moves the card, card information (card type, three-dimensional position information, posture information) is acquired from the camera that has photographed the card.

したがって、これらの情報を読み取って解析することで、合成対象画像を多種の条件に応じて多数選択させることができ、これにより、付加価値の高いサービスを提供することができる。なお、カード20は、紙状に限定されず、樹脂性やアルミ等の金属性を有していてもよい。   Therefore, by reading and analyzing these pieces of information, it is possible to select a large number of compositing target images according to various conditions, thereby providing a service with high added value. In addition, the card | curd 20 is not limited to paper shape, You may have metallicity, such as resin property and aluminum.

更に、本実施形態では、カード20に対して予め設定される波長の紫外線光、赤外線光、及び可視光のうち、少なくとも1つの光源22から光を照射し、照射された後の変化物の輝度情報を取得することで、目的の画像をユーザに提供することができる。また、設定される波長を変えることで多種の合成画像を提供することができる。   Furthermore, in the present embodiment, the brightness of the change object after being irradiated with light from at least one light source 22 among ultraviolet light, infrared light, and visible light having a wavelength set in advance with respect to the card 20. By acquiring information, a target image can be provided to the user. Also, various composite images can be provided by changing the set wavelength.

<合成画像表示装置12:機能構成例>
次に、合成画像表示装置12の機能構成例について図を用いて説明する。なお、合成画像表示装置12の機能構成については、携帯端末13にて置き換えることもでき、また画像管理データベース14における各機能も具備することもできる。
<Composite Image Display Device 12: Functional Configuration Example>
Next, a functional configuration example of the composite image display device 12 will be described with reference to the drawings. Note that the functional configuration of the composite image display device 12 can be replaced by the portable terminal 13 and can also have each function in the image management database 14.

図2は、合成画像表示装置の機能構成の一例を示す図である。図2に示す合成画像表示装置12は、入力手段31と、出力手段32と、蓄積手段33と、撮影画像取得手段34と、認識情報解析手段35と、回転方向検出手段36と、3次元位置取得手段37と、画像情報抽出手段38と、画像合成手段39と、送受信手段40と、制御手段41とを有するよう構成されている。   FIG. 2 is a diagram illustrating an example of a functional configuration of the composite image display apparatus. 2 includes an input unit 31, an output unit 32, a storage unit 33, a captured image acquisition unit 34, a recognition information analysis unit 35, a rotation direction detection unit 36, and a three-dimensional position. The acquisition unit 37, the image information extraction unit 38, the image synthesis unit 39, the transmission / reception unit 40, and the control unit 41 are configured.

入力手段31は、ユーザ等からの撮影画像取得指示や、輝度情報取得指示、印字情報解析指示、熱情報取得指示、画像情報抽出指示、画像合成指示等の各種指示の開始/終了等の入力を受け付ける。なお、入力手段31は、例えばPCであればキーボードや、マウス等のポインティングデバイスからなり、携帯端末13であれば各操作ボタン群等からなる。また、入力手段31は、例えばデジタルカメラ等の撮像手段等により撮影されたカード20(情報提供媒体)の撮像部分を含む画像を入力する機能も有する。   The input means 31 inputs input such as start / end of various instructions such as a captured image acquisition instruction, luminance information acquisition instruction, print information analysis instruction, thermal information acquisition instruction, image information extraction instruction, and image composition instruction from a user or the like. Accept. For example, the input unit 31 includes a keyboard and a pointing device such as a mouse in the case of a PC, and each operation button group in the case of the mobile terminal 13. The input unit 31 also has a function of inputting an image including an imaging part of the card 20 (information providing medium) taken by an imaging unit such as a digital camera.

また、出力手段32は、入力手段31により入力された内容や、入力内容に基づいて実行された内容等の表示・出力を行う。なお、出力手段32は、ディスプレイやスピーカ等からなる。更に、出力手段32としてプリンタ等の機能を有していてもよく、その場合には、合成画像の表示結果や撮影画像、輝度情報、合成対象画像情報、印字情報、熱情報、合成画像等を表示する。更に出力手段32は、上述の各出力内容を紙等の印刷媒体に印刷して、ユーザ等に提供することもできる。   The output unit 32 displays / outputs the content input by the input unit 31 and the content executed based on the input content. Note that the output unit 32 includes a display, a speaker, and the like. Further, the output unit 32 may have a function such as a printer. In this case, the display result of the composite image, the captured image, the luminance information, the composite target image information, the print information, the thermal information, the composite image, etc. indicate. Further, the output means 32 can print each output content described above on a print medium such as paper and provide it to the user.

なお、入力手段31と出力手段32とは、例えばタッチパネル等のように一体型の入出力手段であってもよく、この場合にはユーザの指やペン型の入力装置等を用いて所定の位置をタッチして入力を行うことができる。   The input means 31 and the output means 32 may be integrated input / output means such as a touch panel, for example. In this case, a predetermined position using a user's finger or a pen-type input device is used. You can input by touching.

また、蓄積手段33は、撮影画像取得手段34により得られる撮影画像、認識情報解析手段35により得られる輝度情報、回転方向検出手段36により得られる印字情報、3次元位置取得手段37により得られる熱情報、画像情報抽出手段38により得られる画像情報、画像合成手段39により得られる合成画像等の各種データを蓄積する。   Further, the storage means 33 is a photographed image obtained by the photographed image acquisition means 34, luminance information obtained by the recognition information analysis means 35, print information obtained by the rotation direction detection means 36, and heat obtained by the three-dimensional position acquisition means 37. Various data such as information, image information obtained by the image information extraction means 38, and a composite image obtained by the image composition means 39 are stored.

また、蓄積手段33は、本実施形態において、撮影画像と合成を行う合成対象画像を、カード20等を撮影した画像から得られる変化物の輝度情報や印字情報と対応付けて蓄積する。また、蓄積手段33は、必要に応じて蓄積されている各種データを読み出すことができる。   Further, in the present embodiment, the storage unit 33 stores the composition target image to be combined with the photographed image in association with the luminance information and print information of the change object obtained from the image obtained by photographing the card 20 and the like. Further, the storage means 33 can read out various data stored as required.

撮影画像取得手段34は、カメラ等の撮像装置11により撮影されたカード20に含まれる画像を取得する。   The captured image acquisition unit 34 acquires an image included in the card 20 captured by the imaging device 11 such as a camera.

認識情報解析手段35は、撮像手段としての撮像装置11により撮影された撮影画像中に含まれる認識情報を解析する。なお、認識情報解析手段35は、例えば画像に含まれる上述した少なくとも3点又は3点が特定できる模様(例えば、L文字、正方形等)を含む図形(例えば、2次元バーコード)の座標を取得し、取得した認識情報を射影変換する。   The recognition information analysis unit 35 analyzes the recognition information included in the captured image captured by the imaging device 11 as the imaging unit. Note that the recognition information analysis unit 35 obtains the coordinates of a graphic (for example, a two-dimensional bar code) including at least three points or a pattern (for example, L letters, squares, etc.) that can be specified in the image. Then, projective conversion is performed on the acquired recognition information.

また、認識情報解析手段35は、予め設定される波長の紫外線光、赤外線光、及び可視光、再帰反射観察ライトのうち、少なくとも1つの光源から照射された後の変化物の輝度情報を取得する。これにより、予め設定される波長のライト(光源)の光を照射することにより、合成画像を変化させてユーザに提供することができる。なお、認識情報解析手段35は、座標から枠内に記される変化物の領域の平均輝度値を輝度情報とすることもできる。これにより、誤差の少ない輝度情報を取得することができる。   Moreover, the recognition information analysis means 35 acquires the luminance information of the changed object after being irradiated from at least one light source among ultraviolet light, infrared light, visible light, and retroreflective observation light having a preset wavelength. . Thereby, by irradiating light of a light (light source) having a preset wavelength, the composite image can be changed and provided to the user. Note that the recognition information analyzing unit 35 can also use the average luminance value of the region of the change object written in the frame from the coordinates as the luminance information. As a result, it is possible to acquire luminance information with less error.

更に、認識情報解析手段35は、変化物に対する基本輝度値を予め設定し、撮影画像から得られる変化物の輝度情報と基本輝度値との差分(変化)値を輝度情報として取得する。なお、基本輝度値は、例えば上述した光源からの光が照射していない状態で撮影された画像から得られる変化物の輝度情報を用いることができる。これにより、情報提供媒体を撮影する周りの環境に依存せずに合成画像を提供することができる。   Further, the recognition information analysis unit 35 presets a basic luminance value for the changing object, and acquires a difference (change) value between the luminance information of the changing object and the basic luminance value obtained from the captured image as the luminance information. As the basic luminance value, for example, luminance information of a change object obtained from an image captured in a state where light from the light source described above is not irradiated can be used. Accordingly, it is possible to provide a composite image without depending on the surrounding environment where the information providing medium is photographed.

回転方向検出手段36は、変化物により印字された認識情報の回転方向を検出する。つまり、回転方向検出手段36は、認識情報に含まれる3点の位置を基準に、ある基準方向に対する回転方法を検出する。   The rotation direction detection means 36 detects the rotation direction of the recognition information printed by the change object. That is, the rotation direction detection unit 36 detects a rotation method with respect to a certain reference direction based on the positions of the three points included in the recognition information.

具体的には、回転方向検出手段36は、例えば、OCR(Optical Character Reader)等の文字読み取りツール等を用いて文字解析を行うことができる。なお、印字情報としては、認識情報21であってもよく、文字や図形、文字、バーコード情報等を用いていてもよい。なお、印字される各種情報の具体例については後述する。   Specifically, the rotation direction detection means 36 can perform character analysis using a character reading tool such as OCR (Optical Character Reader). The print information may be the recognition information 21 or may use characters, figures, characters, barcode information, or the like. Specific examples of various information to be printed will be described later.

3次元位置取得手段37は、回転方向検出手段により検出された状態から3次元座標を算出する。具体的には、撮影された実空間の画像に対して、認識情報に含まれる3点の位置、方向、大きさ等により実空間上の位置を、撮影した画像を基準とした3次元情報として出力する。   The three-dimensional position acquisition unit 37 calculates three-dimensional coordinates from the state detected by the rotation direction detection unit. Specifically, for the captured real space image, the position in the real space according to the position, direction, size, etc. of the three points included in the recognition information is used as three-dimensional information with the captured image as a reference. Output.

画像情報抽出手段38は、認識情報解析手段35により得られる認識情報、回転方向検出手段により得られる回転方向、及び3次元位置取得手段37により得られる3次元座標の各情報のうち1又は複数の情報を用いて、合成する対象画像を少なくとも1つ抽出する。
なお、画像情報抽出手段38が抽出するものは、画像そのものに限定されず、文字や映像、模様、文字情報等でもよい。更に、画像情報抽出手段38は、抽出した情報に対して、実空間上にどのように表示するかを示す表示指示情報を表示する。なお、表示指示情報とは、具体的には表示される情報をどのように表示するかを示すものであり、どの位置に、どのような大きさで、どのタイミングでどの程度表示するか等の位置情報、書式情報、表示情報、時間情報等の各種情報を含んでいる。
The image information extraction unit 38 includes one or more of the information of the recognition information obtained by the recognition information analysis unit 35, the rotation direction obtained by the rotation direction detection unit, and the three-dimensional coordinate obtained by the three-dimensional position acquisition unit 37. Using the information, at least one target image to be synthesized is extracted.
Note that what is extracted by the image information extraction unit 38 is not limited to the image itself, but may be characters, video, patterns, character information, or the like. Further, the image information extraction unit 38 displays display instruction information indicating how to display the extracted information in the real space. Note that the display instruction information specifically indicates how to display the displayed information, such as which position, what size, how much is displayed, etc. Various information such as position information, format information, display information, and time information is included.

画像合成手段39は、画像情報抽出手段38により合成対象画像(静止画、動画、文字情報等を含む)が抽出される毎に、撮影画像と合成対象画像との合成を行う。具体的には、画像合成手段39は、画像情報抽出手段38により得られる各種情報に対して対応する時間に合わせて文字や画像、映像を表示する。   The image synthesizing unit 39 synthesizes the captured image and the synthesis target image every time the synthesis information image (including still images, moving images, character information, etc.) is extracted by the image information extraction unit 38. Specifically, the image composition unit 39 displays characters, images, and videos in accordance with the time corresponding to various information obtained by the image information extraction unit 38.

なお、画像合成手段39は、情報提供媒体の位置とは無関係に実際に撮影された実空間画像上に3次元表示として表示させることができる。つまり、画像合成手段39は、撮影される情報提供媒体の角度、位置に対応させて、仮想空間の3次元画像モデル等を表示する。   Note that the image composition means 39 can be displayed as a three-dimensional display on a real space image actually taken regardless of the position of the information providing medium. That is, the image synthesizing unit 39 displays a virtual space three-dimensional image model or the like corresponding to the angle and position of the information providing medium to be photographed.

このとき、画像合成手段39は、画像情報抽出手段38により複数の画像が得られた場合には、得られた複数の合成対象画像を全て合成してもよく、また撮影画像に対して1つの合成対象画像を時間の経過と共に順次変化させたり繰り返して表示させてもよい。   At this time, when a plurality of images are obtained by the image information extraction means 38, the image composition means 39 may synthesize all of the obtained plurality of composition target images, or one image for the photographed image. The compositing target image may be sequentially changed over time or repeatedly displayed.

また、上述した画像情報抽出手段38は、例えば所定時間の経過毎に変化物の経時的な輝度情報を取得し、その輝度情報の変化に伴い、経時的な各輝度情報に対応する合成対象画像を順次抽出することで、画像合成手段39は、合成対象画像が入力される毎に撮影画像に対して合成処理を行い、その合成画像を順次表示させることができる。これにより、情報提供媒体を移動させなくても画像を変化させることができ、動画等をユーザに提供することができる。   In addition, the image information extraction unit 38 described above acquires luminance information over time of a changed object, for example, every elapse of a predetermined time, and a synthesis target image corresponding to each luminance information over time as the luminance information changes. By sequentially extracting the images, the image composition means 39 can perform composition processing on the photographed image every time a composition target image is input, and can sequentially display the composition images. Accordingly, the image can be changed without moving the information providing medium, and a moving image or the like can be provided to the user.

送受信手段40は、上述した通信ネットワーク15等を用いて接続可能な外部装置(例えば、画像管理データベース14等)から所望する外部画像(撮影画像や合成対象画像等)や、本発明における合成画像表示処理を実現するための実行プログラム等を取得するためのインタフェースである。   The transmission / reception means 40 is configured to display a desired external image (such as a photographed image or a compositing target image) from an external device (for example, the image management database 14) that can be connected using the communication network 15 or the like, or a composite image display in the present invention It is an interface for acquiring an execution program or the like for realizing processing.

制御手段41は、合成画像表示装置12の各構成部全体の制御を行う。具体的には、制御手段41は、例えばユーザ等による入力手段31からの指示等に基づいて、撮影画像の取得や回転情報、輝度情報、印字情報、及び熱情報等の取得、合成対象画像の抽出、画像合成等の各処理の各制御等を行う。   The control means 41 controls the entire components of the composite image display device 12. Specifically, the control unit 41 acquires a captured image, acquires rotation information, luminance information, print information, thermal information, and the like based on an instruction from the input unit 31 by a user, for example, Each control of each process such as extraction and image composition is performed.

<認識情報21について>
ここで、本実施形態におけるカード20に記される認識情報21の具体例について図を用いて説明する。
<About recognition information 21>
Here, a specific example of the recognition information 21 written on the card 20 in the present embodiment will be described with reference to the drawings.

図3は、認識情報の具体例を示す図である。図3に示す認識情報は、少なくとも3点又は3点が特定できる模様(例えば、L文字等)を含む図形(例えば、2次元バーコード)からなる。例えば、図3(a)〜(i)に示すようにカード20に1種類以上の模様(線も模様の1種に含まれる。)を付与することにより、その模様に対応した合成画像を抽出することができる。   FIG. 3 is a diagram illustrating a specific example of recognition information. The recognition information shown in FIG. 3 is composed of a figure (for example, a two-dimensional barcode) including at least three points or a pattern (for example, an L character) that can specify three points. For example, as shown in FIGS. 3A to 3I, one or more types of patterns (lines are also included in one type of patterns) are given to the card 20 to extract a composite image corresponding to the patterns. can do.

例えば、図3(a)に示すように3つの点51でもよく、また図3(b)に示すように星型52でもよく、図3(c)のようにある所定の基準角度からの回転角度が認識できるような文字53でもよく、図3(d)に示すように、L字型の文字54の2つの端点の1つの角の点により得られる3点を用いて位置を認識してもよい。   For example, three points 51 may be used as shown in FIG. 3A, or a star 52 may be used as shown in FIG. 3B, and rotation from a predetermined reference angle as shown in FIG. A character 53 that can recognize an angle may be used. As shown in FIG. 3D, the position is recognized using three points obtained by one corner point of two end points of an L-shaped character 54. Also good.

更に、図3(e)に示すように、認識情報自体に文字情報や数字情報等を印字しておくことで、その文字情報等を読み取り、対応する合成対象画像を取得することができる。このとき、回転方向は、図3(e)に示すように、認識情報が形成するL字等により取得することができる。また、図3(f)に示すように、認識情報の一部又は全部に1次元バーコード55やQRコード等の2次元バーコード56を付与することで、より多くの情報を取得することができ、対応する多種の合成対象画像を取得することができる。   Furthermore, as shown in FIG. 3E, by printing character information, numerical information, etc. on the recognition information itself, it is possible to read the character information, etc., and obtain a corresponding composition target image. At this time, as shown in FIG. 3E, the rotation direction can be acquired by an L-shape formed by the recognition information. Further, as shown in FIG. 3F, more information can be acquired by adding a two-dimensional barcode 56 such as a one-dimensional barcode 55 or QR code to a part or all of the recognition information. It is possible to acquire a variety of corresponding compositing target images.

更に、図3(g)に示すようにQRコード57を印字してもよく、また図3(h)に示すDataMatrixコード58や、図3(i)に示す枠59の中に文字を入れてもよい。また、上述した図3(a)〜(i)は、1又は複数のカラーを用いて印字されていてもよい。これにより、認識情報や輝度情報の他に色情報を用いることでカード20から得られる情報量が増えるため、画像合成等における各種条件に容易に多数設定することができる。   Further, a QR code 57 may be printed as shown in FIG. 3 (g), and characters are put in the DataMatrix code 58 shown in FIG. 3 (h) or the frame 59 shown in FIG. 3 (i). Also good. 3A to 3I described above may be printed using one or a plurality of colors. Thereby, since the amount of information obtained from the card 20 is increased by using color information in addition to the recognition information and luminance information, a large number can be easily set for various conditions in image composition and the like.

また、カード20に対する光(紫外線光、赤外線光、可視光等)の照射の有無により得られる変化物の輝度情報の変化(差分)値により合成対象画像を変えて合成表示させるだけでなく、印字情報に基づいて更に多種の合成対象画像から対応する1又は複数の合成対象画像を抽出して撮影画像と合成して表示することで、より付加価値の高いサービスを提供することができる。   In addition to changing the composition target image according to the change (difference) value of the luminance information of the change object obtained by the presence or absence of irradiation of light (ultraviolet light, infrared light, visible light, etc.) to the card 20, printing is performed as well. By extracting one or a plurality of corresponding compositing target images from a variety of compositing target images based on the information, and combining them with the captured images and displaying them, a service with higher added value can be provided.

また、上述した印字情報は可視でも非可視でもよい。つまり、非可視にしておくことにより、認証等のセキュリティ情報として活用することができる。なお、本実施形態において、可視となる変化物としては、例えば日亜化学工業社の蛍光塗料として、CRT用蛍光体(ZnS:Ag,Al,ZnS:Cu,Al,Y2O2S:Eu)、ランプ用蛍光体((SrCaBaMg)5(PO4)3Cl:Eu,LaPO4:Ce,Tb,Y2O3:Eu,)、PDP用蛍光体(BaMgAl10O17:Eu,Zn2SiO4:Mn,(Y,Gd)BO3:Eu)、X線用蛍光体(CaWO4,Gd2O2S:Tb)、蓄光蛍光体(Sr4Al14O25:Eu,Dy)、丸岡教育用品の蛍光・夜光・UV絵の具をそのまま使う。   Further, the print information described above may be visible or invisible. That is, by making it invisible, it can be used as security information such as authentication. In the present embodiment, the visible change is, for example, a phosphor for CRT (ZnS: Ag, Al, ZnS: Cu, Al, Y2O2S: Eu) or a lamp as a fluorescent paint manufactured by Nichia Corporation. Phosphor ((SrCaBaMg) 5 (PO4) 3Cl: Eu, LaPO4: Ce, Tb, Y2O3: Eu,), PDP phosphor (BaMgAl10O17: Eu, Zn2SiO4: Mn, (Y, Gd) BO3: Eu), X The phosphors for lines (CaWO4, Gd2O2S: Tb), phosphorescent phosphors (Sr4Al14O25: Eu, Dy), and Maruoka Educational Fluorescent / Night / UV paints are used as they are.

また、ブラックライトカラー、アクアグロー、蛍光塗料スプレー、マジックルミノペイント、紫外線反射絵の具、サンライトマーカー等を用いることができる。   Further, black light color, aqua glow, fluorescent paint spray, magic lumino paint, ultraviolet reflection paint, sun light marker, etc. can be used.

更に、Honeywell社の蛍光顔料として、LUMILUX Long Afterglow−Pigments,LUMILUX Effect−Pigments,LUMILUX C Pigments,LUMILUX Z Pigments,LUMILUX R Pigments,等を用いることもできる。   Furthermore, LUMILUX Long After-Pigments, LUMLUUX Effect-Pigments, LUMLUUX C Pigments, LUMLUUX Z Pigments, LUMLUUX R Pigments, etc. can be used as fluorescent pigments from Honeywell.

また、根本特殊化学株式会社の夜光顔料として、N夜光(ルミノーバ)G−300,GLL−300,GSS,BG−300,BGL−300,V−300,B−300を用いることができ、また、化成オプトニクスのTrue−Blueシリーズの蛍光顔料、TASCO CO.,LTDのサーモクロミック顔料、東京リキッドカラー、朝日物産の示温ペイントサーマックスクリアライン等を用いることができる。更に、フルオレセイン、エオシン、ローダミンB、チオフラビン等の蛍光染料、紫外光で無色から橙に変化するアゾベンゼン、紫外光で無色から赤色になるジアリルエテンを用いることができる。更に、熱により色変化するN,N−ジエチルエチレンジアミン銅錯体(43℃以下赤紫、43℃以上濃紫)、溶媒によって色の変化するピリジニウムN−フェノキシドベタイン(メタノール:赤、エタノール:紫、イソブチルアルコール:青)、無色から塩基性で赤に変化するフェノールフタレイン。黄色から酸によって赤色に変わるキノンジイミン、更に、酸を添加すると青色に変化する材料を用いることができる。   Moreover, as a nocturnal pigment of Nemoto Special Chemical Co., Ltd., N nocturnal (luminova) G-300, GLL-300, GSS, BG-300, BGL-300, V-300, B-300 can be used. Kasei Optonics True-Blue series fluorescent pigments, TASCO CO. , LTD thermochromic pigments, Tokyo Liquid Color, Asahi Products' Thermo-Temperature Paint Thermax Clear Line, etc. can be used. Furthermore, fluorescent dyes such as fluorescein, eosin, rhodamine B, and thioflavine, azobenzene that changes from colorless to orange by ultraviolet light, and diallyl ethene that changes from colorless to red by ultraviolet light can be used. Furthermore, N, N-diethylethylenediamine copper complex (43 ° C. or less reddish purple, 43 ° C. or more dark purple) that changes color by heat, pyridinium N-phenoxide betaine (methanol: red, ethanol: purple, isobutyl alcohol) that changes color depending on the solvent : Blue), phenolphthalein that changes from colorless to basic and red. A quinone diimine that changes from yellow to red by an acid, and a material that turns blue when an acid is added can be used.

また、非可視の変化物としては、例えば角度によって色が変化する雲母チタン、ポリマー多層膜、再帰反射素材を用いることができる。また、見た目は分からないが、角度によって色が見えてもよく、これらの素材はカード20に用いることもできる。時間の経過と共に輝度情報が変化しにくい塗料を用いることができる。   Further, as the invisible change object, for example, titanium mica whose color changes according to an angle, a polymer multilayer film, or a retroreflective material can be used. Further, although the appearance is not known, the color may be visible depending on the angle, and these materials can also be used for the card 20. It is possible to use a paint whose luminance information hardly changes over time.

<再帰反射について>
なお、本発明においては、情報提供媒体として再帰反射シートを用いることにより、更に高精度な情報を読み取ることができる。以下にその内容について説明する。なお、実施例として、再帰反射シートである積層材料からの情報読み取り方法について説明する。
<About retroreflection>
In the present invention, more accurate information can be read by using a retroreflective sheet as the information providing medium. The contents will be described below. As an example, a method for reading information from a laminated material that is a retroreflective sheet will be described.

本発明にかかる情報読み取り方法は、情報提供媒体である積層材料に光を照射し、積層材料からの再帰反射光を観察することで、積層材料に記録された情報を読み取ることを特徴とする。この情報読み取り方法は、図1に説明する装置によって実施することができる。図1に示す合成画像表示システム10において、読み取り手段は、光源22(白色光源)と、撮像装置11である光検出手段(CCDカメラ)と、合成画像表示装置12等で構成される。   The information reading method according to the present invention is characterized in that information recorded on a laminated material is read by irradiating the laminated material as an information providing medium with light and observing retroreflected light from the laminated material. This information reading method can be implemented by the apparatus described in FIG. In the composite image display system 10 shown in FIG. 1, the reading unit includes a light source 22 (white light source), a light detection unit (CCD camera) that is the imaging device 11, a composite image display device 12, and the like.

白色の光源22から出射した光は、再帰反射シートからなるカード20へ向かう。カード20へ向かった光は、カード20に入射する。カード20からの再帰反射光は、CCDカメラへと向かい、そこで検出される。CCDカメラによって検出された検出信号は、図1に示すように合成画像表示装置12へ送られる。合成画像表示装置12では、この検出信号に基づいてカード20に記録した情報の解析を行う。   The light emitted from the white light source 22 travels to the card 20 made of a retroreflective sheet. Light directed toward the card 20 enters the card 20. The retroreflected light from the card 20 goes to the CCD camera and is detected there. The detection signal detected by the CCD camera is sent to the composite image display device 12 as shown in FIG. The composite image display device 12 analyzes the information recorded on the card 20 based on this detection signal.

なお、上述した本実施形態に係るカード20から情報を読み取るためには、光の照射方向と略同一方向から観察する必要がある。そのため、例えば光源22とカード20との間にハーフミラーを設けてもよい。これにより、CCDカメラは、ハーフミラーの面に対し、光源が配置された位置と反対側に設置することができ、ハーフミラーを用いることで光源22とCCDカメラとが位置的に干渉し合うことなく配置することができ、好適に再帰反射光を観測することができる。なお、本実施形態では、例えば、光源22の位置とCCDカメラの位置とを取り替えた構成としてもよい。   In addition, in order to read information from the card | curd 20 which concerns on this embodiment mentioned above, it is necessary to observe from the substantially the same direction as the irradiation direction of light. Therefore, for example, a half mirror may be provided between the light source 22 and the card 20. Accordingly, the CCD camera can be installed on the opposite side of the surface of the half mirror from the position where the light source is disposed, and the light source 22 and the CCD camera interfere with each other by using the half mirror. The retroreflected light can be preferably observed. In the present embodiment, for example, a configuration in which the position of the light source 22 and the position of the CCD camera are replaced may be employed.

以下に、本発明の具体的な実施例を説明するが、本発明は以下の構成に限定されるものではない。   Specific examples of the present invention will be described below, but the present invention is not limited to the following configurations.

<実施例1>
・透明樹脂
(株)セイコーアドバンス社製スクリーン印刷用インキSG−410(90部)、トルエン(10部)を混合し透明塗料を調製した。
・スクリーン印刷用版の作成
ナイロン製150メッシュスクリーンを用いて、10mm角のQR型2次元コード(14×14セル、コード情報:SHISEIDO)の版を作成した。
・再帰反射材
再帰反射材(微小球固定層+反射層)として、株式会社丸仁製オープン型再帰反射フィルム(LIGHT FORCETM LFU−1200、反射層:アルミニウム蒸着、ガラスビーズの直径:約40〜50μm、ビーズの埋没率:約50%)を用いた。
・情報コードの印刷方法
上記の再帰反射材の表面(透明微小球が露出した面)に、上記のスクリーン印刷用板を使用して、スクリーン印刷機で2次元コード(透明樹脂層)の厚さが約10μmになるように印刷した。印刷した2次元コードは外観上目視でほとんど認識できず、再帰反射材の意匠性を損なうことはなかった。
・コード情報の読み取り解析
図1に示した装置を用いて、上で作成した積層材料に対し、コード情報の読み取りを行った。ここで、光検出手段および情報コード解析手段として、CCDカメラ付コードリーダTHIR−3000LP((株)東研製))を用いた。コード情報の読み取り、解析を行った結果、実際にコード情報として記録されている「SHISEIDO」と読み取ることができた。
<Example 1>
-Transparent resin Co., Ltd. Seiko Advance Co., Ltd. screen printing ink SG-410 (90 parts) and toluene (10 parts) were mixed to prepare a transparent paint.
-Preparation of plate for screen printing Using a nylon 150 mesh screen, a plate of 10 mm square QR type two-dimensional code (14 x 14 cells, code information: SHISEIDO) was prepared.
-Retroreflective material Retroreflective material (microsphere fixed layer + reflective layer) Open type retroreflective film (LIGHT FORCETM LFU-1200, manufactured by Maruhito Co., Ltd., reflective layer: aluminum vapor deposition, diameter of glass beads: about 40-50 μm , The burial rate of beads: about 50%).
-Printing method of information code Using the screen printing plate on the surface of the retroreflective material (the surface where the transparent microspheres are exposed), the thickness of the two-dimensional code (transparent resin layer) with a screen printer Was printed to be about 10 μm. The printed two-dimensional code was hardly visually recognized in appearance, and the design of the retroreflective material was not impaired.
-Reading analysis of code information Using the apparatus shown in FIG. 1, the code information was read from the laminated material prepared above. Here, a CCD camera code reader THIR-3000LP (manufactured by Tohken Co., Ltd.)) was used as the light detection means and the information code analysis means. As a result of reading and analyzing the code information, it was possible to read “SHISEIDO” actually recorded as code information.

<合成画像表示システム10:ハードウェア構成>
ここで、上述した合成画像表示システム10においては、各機能をコンピュータに実行させることができる実行プログラム(合成画像表示プログラム)を生成し、例えば汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における合成画像表示処理等を実現することができる。
<Composite Image Display System 10: Hardware Configuration>
Here, in the composite image display system 10 described above, an execution program (composite image display program) capable of causing a computer to execute each function is generated, and the execution program is installed in, for example, a general-purpose personal computer or server. Thus, the composite image display process and the like in the present invention can be realized.

ここで、本実施形態における合成画像表示処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。図4は、本実施形態における合成画像表示処理が実現可能なハードウェア構成の一例を示す図である。   Here, a hardware configuration example of a computer capable of realizing the composite image display process in the present embodiment will be described with reference to the drawings. FIG. 4 is a diagram illustrating an example of a hardware configuration capable of realizing the composite image display process according to the present embodiment.

図4におけるコンピュータ本体には、入力装置61と、出力装置62と、ドライブ装置63と、補助記憶装置64と、メモリ装置65と、各種制御を行うCPU(Central Processing Unit)66と、ネットワーク接続装置67とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   4 includes an input device 61, an output device 62, a drive device 63, an auxiliary storage device 64, a memory device 65, a CPU (Central Processing Unit) 66 that performs various controls, and a network connection device. 67, which are connected to each other by a system bus B.

入力装置61は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザ等からのプログラムの実行等、各種操作信号を入力する。また、入力装置61は、カメラ等の撮像手段から撮影された情報提供媒体を含む画像を入力する入力ユニットを有している。   The input device 61 has a pointing device such as a keyboard and a mouse operated by a user or the like, and inputs various operation signals such as execution of a program from the user or the like. The input device 61 includes an input unit that inputs an image including an information providing medium photographed from an imaging unit such as a camera.

出力装置62は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU66が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。   The output device 62 has a display for displaying various windows and data necessary for operating the computer main body for performing processing according to the present invention, and displays the program execution progress, results, and the like by the control program of the CPU 66. can do.

なお、入力装置61と出力装置62とは、例えばタッチパネル等のように一体型の入出力手段であってもよく、この場合にはユーザの指やペン型の入力装置等を用いて所定の位置をタッチして入力を行うことができる。   The input device 61 and the output device 62 may be integrated input / output means such as a touch panel. In this case, a predetermined position using a user's finger or a pen-type input device is used. You can input by touching.

ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体68等により提供される。プログラムを記録した記録媒体68は、ドライブ装置63にセット可能であり、記録媒体68に含まれる実行プログラムが、記録媒体68からドライブ装置63を介して補助記憶装置64にインストールされる。   Here, the execution program installed in the computer main body in the present invention is provided by, for example, a portable recording medium 68 such as a USB (Universal Serial Bus) memory or a CD-ROM. The recording medium 68 on which the program is recorded can be set in the drive device 63, and the execution program included in the recording medium 68 is installed from the recording medium 68 to the auxiliary storage device 64 via the drive device 63.

補助記憶装置64は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。   The auxiliary storage device 64 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, and the like, and can perform input / output as necessary.

メモリ装置65は、CPU66により補助記憶装置64から読み出された実行プログラム等を格納する。なお、メモリ装置65は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。   The memory device 65 stores an execution program read from the auxiliary storage device 64 by the CPU 66. The memory device 65 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU66は、OS(Operating System)等の制御プログラム、及びメモリ装置65に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、合成画像表示における各処理を実現することができる。なお、プログラムの実行中に必要な各種情報等は、補助記憶装置64から取得することができ、また実行結果等を格納することもできる。   The CPU 66 controls processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory device 65. Thus, each process in the composite image display can be realized. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 64, and the execution result and the like can also be stored.

ネットワーク接続装置67は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。   The network connection device 67 obtains an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program or an execution in the present invention The program itself can be provided to other terminals.

上述したようなハードウェア構成により、本発明における合成画像表示処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における合成画像表示処理を容易に実現することができる。   With the hardware configuration as described above, the composite image display process according to the present invention can be executed. Further, by installing the program, the composite image display process according to the present invention can be easily realized by a general-purpose personal computer or the like.

<合成画像表示処理手順>
次に、本実施形態における合成画像表示処理手順について説明する。図5は、本実施形態における合成画像表示処理手順の一例を示すフローチャートである。
<Composite image display processing procedure>
Next, a synthetic image display processing procedure in the present embodiment will be described. FIG. 5 is a flowchart illustrating an example of a composite image display processing procedure in the present embodiment.

図5に示す合成画像表示処理は、まずカメラ等の撮像手段により撮影された情報提供媒体を含む画像を取得し(S01)、情報提供媒体を撮影した画像に含まれる認識情報を抽出する(S02)。ここで、認識情報が抽出されたか否かを判断し(S03)、認識情報が抽出されなかった場合(S03において、NO)、S01の処理に戻り、後続の処理を行う。   In the composite image display process shown in FIG. 5, first, an image including an information providing medium photographed by an imaging means such as a camera is acquired (S01), and recognition information included in the image photographed from the information providing medium is extracted (S02). ). Here, it is determined whether or not the recognition information has been extracted (S03). If the recognition information has not been extracted (NO in S03), the process returns to S01 and the subsequent process is performed.

また、S03の処理において、認識情報が抽出された場合(S03において、YES)、抽出された認識情報の図形に対して射影変換を行い(S04)、その認識情報が未解析であるか否かを判断する(S05)。ここで、未解析の場合(S05において、YES)、認識情報の解析を行う。また、S05の処理が終了後、或いはS05の処理において、認識情報が解析されている場合(S05において、NO)、その認識情報の回転方向を認識する(S07)。   If recognition information is extracted in the process of S03 (YES in S03), projective transformation is performed on the extracted recognition information figure (S04), and whether or not the recognition information is unanalyzed. Is determined (S05). Here, when unanalyzed (YES in S05), the recognition information is analyzed. If the recognition information is analyzed after the processing of S05 or in the processing of S05 (NO in S05), the rotation direction of the recognition information is recognized (S07).

また、回転情報、位置情報等から3次元座標を算出する(S08)。また、算出された結果に基づいて、合成画像のモデル表示を行う(S09)。更に、処理が終了するか否かを判断し(S10)、終了しない場合(S10において、NO)、S01に戻って後続の処理行う。また、処理を終了する場合(S10において、YES)、合成画像表示処理全体を終了する。   Also, three-dimensional coordinates are calculated from the rotation information, position information, etc. (S08). Further, based on the calculated result, a model display of the composite image is performed (S09). Further, it is determined whether or not the process is to be terminated (S10). If the process is not to be terminated (NO in S10), the process returns to S01 to perform the subsequent process. When the process is to be ended (YES in S10), the entire composite image display process is ended.

なお、上述の処理では、現時点での輝度情報(基本輝度値)を取得したり、例えば、枠内の所定色(例えば、緑色等)の平均輝度を取得し、その内容を保存しておき、その輝度情報又は輝度情報の変化や平均輝度に応じて表示するモデルを変更してもよい。   In the above-described processing, the current luminance information (basic luminance value) is acquired, for example, the average luminance of a predetermined color (for example, green) within the frame is acquired, and the content is stored. The model to be displayed may be changed according to the luminance information or the change in luminance information or the average luminance.

上述した処理により、付加価値性に優れた高精度な画像を提供することができる。なお、上述の処理において、入力される画像又は各処理により得られた画像は、蓄積手段33に入力することができる。また、各処理において、入力される画像や各処理の実行経過や実行結果、ユーザに入力手段31により指示を行われる場合等の処理を出力手段32等により取得するようにしてもよい。   By the processing described above, a highly accurate image with excellent added value can be provided. In the above-described processing, an input image or an image obtained by each processing can be input to the storage unit 33. Further, in each process, the output unit 32 or the like may be used to acquire an input image, an execution progress or result of each process, a case where an instruction is given to the user by the input unit 31, and the like.

<実施例2>
次に、実施例2として、本実施形態において表示される画像例について図を用いて説明する。図6は、本発明において表示される合成画像の一例を示す図である。
<Example 2>
Next, as Example 2, an example of an image displayed in the present embodiment will be described with reference to the drawings. FIG. 6 is a diagram showing an example of a composite image displayed in the present invention.

まず、図6(a)に示す例では、カード(情報提供媒体)70に枠71が印字されていた。このとき、最初に撮影される画像から得られる印字情報(枠、文字情報等)の輝度情報等を用いてデータベース等から取得した合成画像72−1,72−2が、枠71の座標情報に対応して画面に表示された。なお、図6(a)では、一例として植木鉢(合成画像)72−1と、その植木鉢(合成画像)72−1に植えられている苗(合成画像)72−2が表示された。   First, in the example shown in FIG. 6A, a frame 71 is printed on the card (information providing medium) 70. At this time, the composite images 72-1 and 72-2 acquired from the database or the like using the luminance information of the print information (frame, character information, etc.) obtained from the first photographed image is the coordinate information of the frame 71. Correspondingly displayed on the screen. In FIG. 6A, as an example, a flower pot (composite image) 72-1 and a seedling (composite image) 72-2 planted in the flower pot (composite image) 72-1 are displayed.

次に、図6(b)に示す部分に、夜光塗料(根本特殊化学(株)ルミノーバG−300)を印字しておいた。ここに、ブラックライト等の光源を照射することで、印字情報を印字した塗料の輝度情報が変化するため、図6(a)に示す苗(合成画像)72−2に変わって花(合成画像)72−3を表示させることができた。   Next, the luminous paint (Nemoto Special Chemicals Co., Ltd. Luminova G-300) was printed on the part shown in FIG.6 (b). Here, by irradiating a light source such as a black light, the luminance information of the paint on which the print information is printed changes, so that instead of the seedling (composite image) 72-2 shown in FIG. ) 72-3 could be displayed.

このように、本実施例では、輝度情報に対応して合成対象画像の種類を変えて合成表示させることで、多種の画像を表示させることができる。また、時間に応じて輝度が変化する塗料等を使い分けることにより、例えば、苗が成長して花が咲き、その後枯れていくような、動画等を提供することができる。また、本実施例では、画像や表示されている各画像の向きを枠の角の位置等により変えたりを、拡大、縮小表示等の表示方法を変更したり、対応する音声を表示させたりすることもできる。   As described above, in this embodiment, various types of images can be displayed by combining and displaying the type of the synthesis target image corresponding to the luminance information. In addition, by properly using a paint whose luminance changes with time, for example, a moving image in which a seedling grows, blooms, and then withers can be provided. In this embodiment, the orientation of the image and each displayed image is changed according to the position of the corner of the frame, the display method such as enlargement or reduction is changed, or the corresponding sound is displayed. You can also

また、図7は、本実施形態における認識情報に対応した3次元表示の一例を示す図である。本実施形態を適用することにより、例えば図7(a)に示すように、画面80上には、情報提供媒体20の上に立体形状の立方体81を合成表示し、更にその上に、認識情報に含まれる文字情報82を立体表示させることができた。また、図7(b)に示すように、画面80上には、撮影された画像の実空間上を基準にして、情報提供媒体20の認識情報から得られる文字情報82を3次元表示することができた。図7(b)の例では、画面80上に文字情報である「shiseido」の文字を撮影されている画面の幅に合わせて全体表示させることができた。更に、図7(c)に示すように、画面80上には、情報提供媒体20の上に表示される3次元形状83の表面に文字情報82を表示させることができた。なお、図7(c)の例では、画面80上に3次元形状83である地球の周りを文字情報82である「shiseido」の文字が回転して表示された。   Moreover, FIG. 7 is a figure which shows an example of the three-dimensional display corresponding to the recognition information in this embodiment. By applying this embodiment, for example, as shown in FIG. 7A, a three-dimensional cube 81 is synthesized and displayed on the information providing medium 20 on the screen 80, and the recognition information is further displayed thereon. The character information 82 included in can be displayed in 3D. Further, as shown in FIG. 7B, the character information 82 obtained from the recognition information of the information providing medium 20 is three-dimensionally displayed on the screen 80 on the basis of the real space of the photographed image. I was able to. In the example of FIG. 7B, the characters “shiseido” as character information can be displayed on the screen 80 in accordance with the width of the screen on which the image is taken. Further, as shown in FIG. 7C, the character information 82 can be displayed on the surface of the three-dimensional shape 83 displayed on the information providing medium 20 on the screen 80. In the example of FIG. 7C, the characters “shiseido” as the character information 82 are displayed on the screen 80 by rotating around the earth as the three-dimensional shape 83.

このように、本発明では、少なくとも3点又は3点が特定できる模様(例えば、L文字等)を含む図形(例えば、2次元バーコード)からなる認識情報を撮影した画像から、その認識情報である図形の回転方向及び3次元座標を取得し、図形により得られる情報から選択された仮想空間上の3次元情報(図形、文字含む)を回転方向及び3次元座標に対応させて実空間画像に、所定の色、大きさ、形状を任意の位置に自由に表示させることができる。   As described above, according to the present invention, at least three points or recognition information consisting of a figure (for example, a two-dimensional barcode) including a pattern (for example, an L character) that can specify three points is captured from the captured image. The rotation direction and three-dimensional coordinates of a certain figure are acquired, and the three-dimensional information (including figures and characters) in the virtual space selected from the information obtained by the figure is made to correspond to the rotation direction and the three-dimensional coordinates into a real space image. The predetermined color, size, and shape can be freely displayed at an arbitrary position.

<その他の実施形態>
ここで、上述の実施形態においては、カード等の情報提供媒体に印字された印字情報等の変化物(二次元バーコード等)を撮影し、撮影した画像から印字情報を解析することで、対応する合成画像を所定の位置に表示しているが、本発明においてはこの限りではなく、例えば情報提供媒体をディスプレイ等の表示装置とし、ディスプレイに表示されている上述した変化物を撮影した画像を取得し、取得した画像に含まれる変化物を解析することで、対応する立体画像を抽出し、撮影された画像にその画像を合成させた合成画像を表示させることができる。なお、この実施形態では、例えば映像表示やスライド表示等により画面に表示された変化物を時間の経過と共に容易に切り換えることができ、撮影側は画面に表示される変化物を含む画像を上述したように撮影することで、その変化物に対応する立体画像を合成して動画のように表示させることができる。
<Other embodiments>
Here, in the above-described embodiment, it is possible to capture a change object (two-dimensional barcode, etc.) such as print information printed on an information providing medium such as a card, and analyze the print information from the captured image. However, the present invention is not limited to this. For example, the information providing medium is a display device such as a display, and an image obtained by photographing the above-described change object displayed on the display is displayed. By acquiring and analyzing a change object included in the acquired image, it is possible to extract a corresponding stereoscopic image and display a combined image obtained by combining the captured image with the captured image. In this embodiment, for example, a change object displayed on the screen by, for example, video display or slide display can be easily switched over time, and the photographing side described above includes the image including the change object displayed on the screen. By shooting in this manner, a stereoscopic image corresponding to the changed object can be synthesized and displayed as a moving image.

更に、本実施形態では、上述したように情報提供媒体に印字や表示された情報を用いるだけでなく、例えば照明を照射して地面や壁等に投影された影を変化物とし、その影を二次元コード等の付加情報を持たせて投影し、その影を撮影して得られる画像から影を解析することで、対応する立体画像を抽出し、撮影された画像にその画像を合成させた合成画像を表示させることができる。また、影の濃さ等により抽出する画像を変化させてもよい。   Furthermore, in this embodiment, as described above, not only the information printed or displayed on the information providing medium is used, but also, for example, a shadow projected on the ground or a wall by illuminating is used as a change object, and the shadow is converted into a change object. Projecting with additional information such as a two-dimensional code, and analyzing the shadow from the image obtained by photographing the shadow, the corresponding stereoscopic image was extracted, and the image was synthesized with the photographed image A composite image can be displayed. Further, the image to be extracted may be changed depending on the shadow density or the like.

上述したように、本発明によれば、付加価値性に優れた高精度な画像又はサービスを提供することができる。また、予め設定される波長のライト等の光源の光を照射することにより、目的の画像をユーザに提供することができる。また、設定される波長を変えることで多種の合成画像を提供することができる。   As described above, according to the present invention, it is possible to provide a highly accurate image or service excellent in added value. Further, by irradiating light from a light source such as a light having a preset wavelength, a target image can be provided to the user. Also, various composite images can be provided by changing the set wavelength.

また、情報提供媒体を撮影する周りの環境に依存せずに合成画像を提供することができる。また、輝度情報が変化することで、他の合成対象画像が選択されて合成表示させることができる。これにより、動画等も提供することができる。また、情報提供媒体の位置、角度、向きのうち少なくとも1つを含む姿勢情報を用いて、より多くの合成画像を提供することができ、より付加価値の高いサービスを提供することができる。更に、熱情報を用いることにより、その時の環境等に応じたサービスを提供することができる。また、変化物が非可視であっても熱情報を用いることで、合成画像を提供することができる。   Further, it is possible to provide a composite image without depending on the surrounding environment where the information providing medium is photographed. Further, when the luminance information changes, another image to be combined can be selected and combined and displayed. Thereby, a moving image etc. can also be provided. In addition, more combined images can be provided using posture information including at least one of the position, angle, and orientation of the information providing medium, and a service with higher added value can be provided. Furthermore, by using the thermal information, it is possible to provide a service according to the environment at that time. Further, even if the change object is invisible, a composite image can be provided by using thermal information.

なお、上述の装置は、携帯端末等にも適用することができる。したがって、本発明を適用することで、例えば、ギフトカード等と組み合わせることにより、太陽にカードに当てると花が咲くようなカードサービスや、インターネット認証分野、食料品の鮮度解析等の食品検査分野、尿検査等色判断が必要な健康診断検査分野等にも適用することができる。   Note that the above-described apparatus can also be applied to a mobile terminal or the like. Therefore, by applying the present invention, for example, in combination with a gift card or the like, a card service in which a flower blooms when it hits the sun, an Internet authentication field, a food inspection field such as a food freshness analysis, It can also be applied to the field of health checkups that require color judgment such as urine tests.

つまり、本発明では、例えば情報提供媒体に紫外線や光源力(光の強さ)に反応する塗料材料等を塗布しておき、情報提供媒体を日光等の外光のあたる部分にセットし、これを撮影装置にて撮影し画像データを経時的に取得して、本システムに入力する。また、PCや携帯端末内の画像は、時間や天候によりリアルに変化する。これにより、外光が届かない地下や建物内部の部屋や、実際に離れている場所でも、その季節・気候等に適した画像を得ることができる。   In other words, in the present invention, for example, a coating material that reacts to ultraviolet light or light source power (light intensity) is applied to the information providing medium, and the information providing medium is set in a portion exposed to external light such as sunlight. Is captured by a photographing device, and image data is acquired over time and input to the system. In addition, the images in the PC and the mobile terminal change realistically according to time and weather. Thereby, it is possible to obtain an image suitable for the season, climate, etc. even in a basement or a room inside the building where outside light does not reach, or in a place that is actually far away.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

本実施形態における合成画像表示システムの機構構成の一例を示す図である。It is a figure which shows an example of the mechanism structure of the synthesized image display system in this embodiment. 合成画像表示装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a synthesized image display apparatus. 認識情報の具体例を示す図である。It is a figure which shows the specific example of recognition information. 本実施形態における合成画像表示処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the composite image display process in this embodiment. 本実施形態における合成画像表示処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the composite image display process sequence in this embodiment. 本発明において表示される合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image displayed in this invention. 本実施形態における認識情報に対応した3次元表示の一例を示す図である。It is a figure which shows an example of the three-dimensional display corresponding to the recognition information in this embodiment.

符号の説明Explanation of symbols

10 合成画像表示システム
11 撮像装置
12 合成画像表示装置
13 携帯端末
14 画像管理データベース
15 通信ネットワーク
20,70 カード(情報提供媒体)
21 認識情報
22 光源
31 入力手段
32 出力手段
33 蓄積手段
34 撮影画像取得手段
35 認識情報解析手段
36 回転方向検出手段
37 3次元位置取得手段
38 画像情報抽出手段
39 画像合成手段
40 送受信手段
41 制御手段
51 点
52 星型
53,54 文字
55 1次元バーコード
56 2次元バーコード
57 QRコード
58 DataMatrixコード
59 枠
61 入力装置
62 出力装置
63 ドライブ装置
64 補助記憶装置
65 メモリ装置
66 CPU
67 ネットワーク接続装置
72 合成画像
80 画面
81 立方体
82 文字情報
83 3次元形状
DESCRIPTION OF SYMBOLS 10 Composite image display system 11 Imaging device 12 Composite image display device 13 Portable terminal 14 Image management database 15 Communication network 20,70 Card (information provision medium)
DESCRIPTION OF SYMBOLS 21 Recognition information 22 Light source 31 Input means 32 Output means 33 Accumulation means 34 Captured image acquisition means 35 Recognition information analysis means 36 Rotation direction detection means 37 Three-dimensional position acquisition means 38 Image information extraction means 39 Image composition means 40 Transmission / reception means 41 Control means 51 points 52 Stars 53, 54 Characters 55 One-dimensional barcode 56 Two-dimensional barcode 57 QR code 58 DataMatrix code 59 Frame 61 Input device 62 Output device 63 Drive device 64 Auxiliary storage device 65 Memory device 66 CPU
67 Network connection device 72 Composite image 80 Screen 81 Cube 82 Character information 83 3D shape

Claims (15)

撮影された画像の所定の位置に他の画像を合成して表示する合成画像表示システムにおいて、
予め設定された光の照射後、時間の経過と共に輝度が変化する変化物により所定の情報が記された情報提供媒体を撮像する撮像手段と、
前記撮像手段により撮影された画像中に含まれる所定形状からなる認識情報及び輝度情報を解析する認識情報解析手段と、
前記認識情報解析手段により得られる認識情報から3次元位置を取得する3次元位置取得手段と、
前記3次元位置取得手段により得られる3次元座標を用いて、予め蓄積された複数の合成対象画像のうち、前記認識情報に対応する画像を抽出する画像情報抽出手段と、
前記画像情報抽出手段により抽出された合成対象画像を前記撮影画像の実空間を基準にして立体合成し、合成された画像を表示する画像合成手段とを有することを特徴とする合成画像表示システム。
In a composite image display system that combines and displays another image at a predetermined position of a photographed image,
Imaging means for imaging an information providing medium in which predetermined information is recorded by a change object whose luminance changes with the passage of time after irradiation of light set in advance;
Recognition information analysis means for analyzing recognition information and luminance information having a predetermined shape included in the image taken by the imaging means;
Three-dimensional position acquisition means for acquiring a three-dimensional position from the recognition information obtained by the recognition information analysis means;
Image information extraction means for extracting an image corresponding to the recognition information among a plurality of synthesis target images accumulated in advance using the three-dimensional coordinates obtained by the three-dimensional position acquisition means;
A composite image display system comprising: an image compositing means for three-dimensionally compositing the target image extracted by the image information extracting means with reference to the real space of the photographed image and displaying the composited image.
前記認識情報解析手段は、
予め設定される波長の紫外線光、赤外線光、及び可視光のうち、少なくとも1つの光源から照射された後の前記変化物の輝度情報を取得することを特徴とする請求項1に記載の合成画像表示システム。
The recognition information analyzing means includes
2. The composite image according to claim 1, wherein luminance information of the change object after being irradiated from at least one light source among ultraviolet light, infrared light, and visible light having a preset wavelength is acquired. Display system.
前記画像情報抽出手段は、前記認識情報を印字したときの前記変化物の経時的な輝度情報の変化に伴い、所定時間毎における各輝度情報に対応する合成対象画像を順次抽出し、
前記画像合成手段は、前記画像情報抽出手段により前記合成対象画像が抽出される毎に、前記撮影画像と前記合成対象画像との合成を行うことを特徴とする請求項1又は2に記載の合成画像表示システム。
The image information extraction means sequentially extracts a synthesis target image corresponding to each luminance information at a predetermined time according to a change in luminance information with time of the changed object when the recognition information is printed,
3. The composition according to claim 1, wherein the image synthesizing unit synthesizes the photographed image and the synthesis target image every time the synthesis target image is extracted by the image information extraction unit. Image display system.
前記変化物により前記情報提供媒体に記された認識情報の向きを解析する回転方向検出手段を有し、
前記画像情報抽出手段は、
前記認識情報解析手段により得られる輝度情報と、前記回転方向検出手段により得られる回転情報とに基づいて、合成する対象画像を抽出することを特徴とする請求項1乃至3の何れか1項に記載の合成画像表示システム。
Rotation direction detection means for analyzing the orientation of the recognition information written on the information providing medium by the change object,
The image information extraction means includes
4. The target image to be synthesized is extracted based on luminance information obtained by the recognition information analysis unit and rotation information obtained by the rotation direction detection unit. 5. The described composite image display system.
前記認識情報は、
文字、図形、模様、画像及びバーコード情報のうち、少なくとも1つであることを特徴とする請求項1乃至4の何れか1項に記載の合成画像表示システム。
The recognition information is
The composite image display system according to any one of claims 1 to 4, wherein the composite image display system is at least one of a character, a figure, a pattern, an image, and barcode information.
前記画像合成手段は、
前記撮影画像に含まれる前記情報提供媒体の位置、角度、向きのうち少なくとも1つを含む姿勢情報、及び前記輝度情報に基づいて、前記合成対象画像に対して、表示、非表示、大きさ、位置、方向を制御することを特徴とする請求項1乃至5の何れか1項に記載の合成画像表示システム。
The image composition means includes
Based on the posture information including at least one of the position, angle, and orientation of the information providing medium included in the captured image, and the luminance information, display, non-display, size, 6. The composite image display system according to claim 1, wherein the position and direction are controlled.
前記光源は、再帰反射観察ライトであり、前記情報提供媒体は、再帰反射シートであることを特徴とする請求項1乃至6の何れか1項に記載の合成画像表示システム。   The composite image display system according to claim 1, wherein the light source is a retroreflection observation light, and the information providing medium is a retroreflection sheet. 撮影された画像の所定の位置に他の画像を合成して表示する合成画像表示方法において、
予め設定された光の照射後、時間の経過と共に輝度が変化する変化物により所定の情報が記された情報提供媒体を撮像する撮像ステップと、
前記撮像ステップにより撮影された画像中に含まれる所定形状からなる認識情報及び輝度情報を解析する認識情報解析ステップと、
前記認識情報解析ステップにより得られる認識情報から3次元位置を取得する3次元位置取得ステップと、
前記3次元位置取得ステップにより得られる3次元座標を用いて、予め蓄積された複数の合成対象画像のうち、前記認識情報に対応する画像を抽出する画像情報抽出ステップと、
前記画像情報抽出ステップにより抽出された合成対象画像を前記撮影画像の実空間を基準にして立体合成し、合成された画像を表示する画像合成ステップとを有することを特徴とする合成画像表示方法。
In a combined image display method of combining and displaying another image at a predetermined position of a photographed image,
An imaging step of imaging an information providing medium in which predetermined information is recorded by a change object whose luminance changes with the passage of time after irradiation with light set in advance;
A recognition information analysis step for analyzing recognition information and luminance information having a predetermined shape included in the image captured by the imaging step;
A three-dimensional position acquisition step for acquiring a three-dimensional position from the recognition information obtained by the recognition information analysis step;
An image information extraction step for extracting an image corresponding to the recognition information among a plurality of synthesis target images stored in advance using the three-dimensional coordinates obtained by the three-dimensional position acquisition step;
A composite image display method comprising: an image composition step of three-dimensionally compositing the composition target image extracted in the image information extraction step with reference to a real space of the photographed image and displaying the composited image.
前記認識情報解析ステップは、
予め設定される波長の紫外線光、赤外線光、及び可視光のうち、少なくとも1つの光源から照射された後の前記変化物の輝度情報を取得することを特徴とする請求項8に記載の合成画像表示方法。
The recognition information analysis step includes
9. The composite image according to claim 8, wherein luminance information of the change object after being irradiated from at least one light source of ultraviolet light, infrared light, and visible light having a preset wavelength is acquired. Display method.
前記画像情報抽出ステップは、前記認識情報を印字したときの前記変化物の経時的な輝度情報の変化に伴い、所定時間毎における各輝度情報に対応する合成対象画像を順次抽出し、
前記画像合成ステップは、前記画像情報抽出ステップにより前記合成対象画像が抽出される毎に、前記撮影画像と前記合成対象画像との合成を行うことを特徴とする請求項8又は9に記載の合成画像表示方法。
The image information extraction step sequentially extracts a synthesis target image corresponding to each luminance information for each predetermined time according to a change in luminance information over time of the changed object when the recognition information is printed,
The composition according to claim 8 or 9, wherein the image composition step performs composition of the captured image and the composition target image every time the composition target image is extracted by the image information extraction step. Image display method.
前記変化物により前記情報提供媒体に記された認識情報の向きを解析する回転方向検出ステップを有し、
前記画像情報抽出ステップは、
前記認識情報解析ステップにより得られる輝度情報と、前記回転方向検出ステップにより得られる回転情報とに基づいて、合成する対象画像を抽出することを特徴とする請求項8乃至10の何れか1項に記載の合成画像表示方法。
A rotation direction detecting step of analyzing a direction of recognition information written on the information providing medium by the change object;
The image information extraction step includes:
The target image to be synthesized is extracted based on luminance information obtained by the recognition information analysis step and rotation information obtained by the rotation direction detection step. The composite image display method as described.
前記認識情報は、
文字、図形、模様、画像及びバーコード情報のうち、少なくとも1つであることを特徴とする請求項8乃至11の何れか1項に記載の合成画像表示方法。
The recognition information is
The composite image display method according to claim 8, wherein the composite image display method is at least one of a character, a figure, a pattern, an image, and barcode information.
前記画像合成ステップは、
前記撮影画像に含まれる前記情報提供媒体の位置、角度、向きのうち少なくとも1つを含む姿勢情報、及び前記輝度情報に基づいて、前記合成対象画像に対して、表示、非表示、大きさ、位置、方向を制御することを特徴とする請求項8乃至12の何れか1項に記載の合成画像表示方法。
The image composition step includes
Based on the posture information including at least one of the position, angle, and orientation of the information providing medium included in the captured image, and the luminance information, display, non-display, size, The composite image display method according to claim 8, wherein the position and direction are controlled.
前記光源は、再帰反射観察ライトであり、前記情報提供媒体は、再帰反射シートであることを特徴とする請求項8乃至13の何れか1項に記載の合成画像表示方法。   The composite image display method according to claim 8, wherein the light source is a retroreflection observation light, and the information providing medium is a retroreflection sheet. コンピュータに、請求項1乃至7の何れか1項に記載の合成画像表示システムの各手段に係る処理を実行させることを特徴とする合成画像表示プログラム。   A composite image display program for causing a computer to execute processing relating to each means of the composite image display system according to any one of claims 1 to 7.
JP2008333848A 2008-12-26 2008-12-26 Composite image display system, composite image display method, and composite image display program Expired - Fee Related JP5258549B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008333848A JP5258549B2 (en) 2008-12-26 2008-12-26 Composite image display system, composite image display method, and composite image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008333848A JP5258549B2 (en) 2008-12-26 2008-12-26 Composite image display system, composite image display method, and composite image display program

Publications (2)

Publication Number Publication Date
JP2010157035A true JP2010157035A (en) 2010-07-15
JP5258549B2 JP5258549B2 (en) 2013-08-07

Family

ID=42574943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008333848A Expired - Fee Related JP5258549B2 (en) 2008-12-26 2008-12-26 Composite image display system, composite image display method, and composite image display program

Country Status (1)

Country Link
JP (1) JP5258549B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101507536B1 (en) 2013-07-08 2015-04-07 한남대학교 산학협력단 System for object extraction and image synthesis using a infrared ray
JP2018116392A (en) * 2017-01-17 2018-07-26 京セラドキュメントソリューションズ株式会社 Image forming system
CN111783776A (en) * 2020-06-30 2020-10-16 平安国际智慧城市科技股份有限公司 Character recognition method and device based on real plate and computer equipment
CN112927176A (en) * 2021-01-29 2021-06-08 北京百度网讯科技有限公司 Image synthesis method, image synthesis device, electronic equipment and computer-readable storage medium
CN109801351B (en) * 2017-11-15 2023-04-14 阿里巴巴集团控股有限公司 Dynamic image generation method and processing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256876A (en) * 2002-03-04 2003-09-12 Sony Corp Device and method for displaying composite sense of reality, recording medium and computer program
JP2004062757A (en) * 2002-07-31 2004-02-26 Canon Inc Image processing method and method for estimating imaging part position and attitude
JP2006167449A (en) * 2004-12-01 2006-06-29 Acushnet Co Performance measurement system with quantum dots for object identification
JP2008146108A (en) * 2006-12-05 2008-06-26 Canon Inc Index, image processor and image processing method
JP2008224626A (en) * 2007-03-15 2008-09-25 Canon Inc Information processor, method for processing information, and calibration tool

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256876A (en) * 2002-03-04 2003-09-12 Sony Corp Device and method for displaying composite sense of reality, recording medium and computer program
JP2004062757A (en) * 2002-07-31 2004-02-26 Canon Inc Image processing method and method for estimating imaging part position and attitude
JP2006167449A (en) * 2004-12-01 2006-06-29 Acushnet Co Performance measurement system with quantum dots for object identification
JP2008146108A (en) * 2006-12-05 2008-06-26 Canon Inc Index, image processor and image processing method
JP2008224626A (en) * 2007-03-15 2008-09-25 Canon Inc Information processor, method for processing information, and calibration tool

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101507536B1 (en) 2013-07-08 2015-04-07 한남대학교 산학협력단 System for object extraction and image synthesis using a infrared ray
JP2018116392A (en) * 2017-01-17 2018-07-26 京セラドキュメントソリューションズ株式会社 Image forming system
US10489694B2 (en) 2017-01-17 2019-11-26 Kyocera Document Solutions Inc. Image forming systems
CN109801351B (en) * 2017-11-15 2023-04-14 阿里巴巴集团控股有限公司 Dynamic image generation method and processing device
CN111783776A (en) * 2020-06-30 2020-10-16 平安国际智慧城市科技股份有限公司 Character recognition method and device based on real plate and computer equipment
CN111783776B (en) * 2020-06-30 2022-09-09 平安国际智慧城市科技股份有限公司 Character recognition method and device based on real plate and computer equipment
CN112927176A (en) * 2021-01-29 2021-06-08 北京百度网讯科技有限公司 Image synthesis method, image synthesis device, electronic equipment and computer-readable storage medium
CN112927176B (en) * 2021-01-29 2024-03-12 北京百度网讯科技有限公司 Image synthesis method, image synthesis device, electronic equipment and computer readable storage medium

Also Published As

Publication number Publication date
JP5258549B2 (en) 2013-08-07

Similar Documents

Publication Publication Date Title
JP5258549B2 (en) Composite image display system, composite image display method, and composite image display program
JP4032776B2 (en) Mixed reality display apparatus and method, storage medium, and computer program
CN105074732B (en) Information code, information code generating method, information code reader and information code application system
KR100953606B1 (en) Image displaying apparatus, image displaying method, and command inputting method
US9547898B2 (en) Automated cytology/histology viewers and related methods
US8542094B2 (en) Apparatus and method for secure detection of an item and a method of securing access to information associated with the item
CA2669960C (en) Method and system for obtaining parameter for simulation in invisible code printing support system
ES2750536T3 (en) Data transmission using optical codes
CN105144198A (en) Systems and methods for note recognition
CN103649775B (en) For assessment of the system of identification marking, identification marking and uses thereof
US20070007349A1 (en) Information reader, object, information processing apparatus, information communicating system, information reading method, and program
US11610299B2 (en) Method and system for optical product authentication
KR20150138293A (en) Systems and methods for managing notes
WO2011046127A1 (en) Data collection system, portable terminal, seal, and data collection method
WO2014031107A1 (en) Orthogonal encoding for tags
CN110494899B (en) Luminescent security feature and method and apparatus for detecting same
CN107832760A (en) Trainable hand-held optical character recognition system and method
CN108351955A (en) Compact image-forming module with rangefinder
JP5258548B2 (en) Composite image display system, composite image display method, and composite image display program
CN108460444A (en) A kind of inverse thermochromic double exposure double-layer showing Quick Response Code and preparation method thereof
JP7225435B2 (en) System and method for object recognition using 3D mapping tools in computer vision applications
CN207780718U (en) Visual interactive device
Truccolo et al. Forensic applications of rare earths: Anticounterfeiting materials and latent fingerprint developers
JP2001319197A (en) Information medium, information detector, information medium writing device and its using method
CN106951894A (en) Hand-held Optical Character Recognition system and method can be trained

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20111201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees