JP2012216029A - Program, information storage medium, terminal, server, and marker display body - Google Patents

Program, information storage medium, terminal, server, and marker display body Download PDF

Info

Publication number
JP2012216029A
JP2012216029A JP2011080311A JP2011080311A JP2012216029A JP 2012216029 A JP2012216029 A JP 2012216029A JP 2011080311 A JP2011080311 A JP 2011080311A JP 2011080311 A JP2011080311 A JP 2011080311A JP 2012216029 A JP2012216029 A JP 2012216029A
Authority
JP
Japan
Prior art keywords
marker
rectangular area
color
markers
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011080311A
Other languages
Japanese (ja)
Inventor
Tomohiko Suemitsu
智彦 末光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2011080311A priority Critical patent/JP2012216029A/en
Publication of JP2012216029A publication Critical patent/JP2012216029A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a program, an information storage medium, a terminal, and a marker display body that are capable of reducing a processing load and more accurately detecting a marker.SOLUTION: A first rectangular area circumscribed to a first color area formed by plural pixels satisfying a first color condition and a second rectangular area circumscribed to a second color area formed by plural pixels satisfying a second color condition are extracted from a captured image, and it is determined that there is a marker in the case of a positional relationship in which either one of the first rectangular area and the second rectangular area includes the other.

Description

本発明は、プログラム、情報記憶媒体、端末、サーバ、及びマーカー表示体に関する。   The present invention relates to a program, an information storage medium, a terminal, a server, and a marker display.

従来から、所定のフォーマット情報に基づいて生成された2次元コードなどをカメラで撮像し、撮像画像からコードを認識する技術が存在する。しかし、従来技術は、直線成分検出処理や交差ラインの検出処理等が必要であり、この検出処理は非常に処理負荷が高い。また、特許文献1に記載されるようなカラーマークを検出する処理では、本来マークではない色も検出してしまうことがあり、マークを誤判定してしまうことがある。   Conventionally, there is a technique in which a two-dimensional code generated based on predetermined format information is captured by a camera and the code is recognized from the captured image. However, the prior art requires straight line component detection processing, intersection line detection processing, and the like, and this detection processing has a very high processing load. Further, in the process of detecting a color mark as described in Patent Document 1, a color that is not originally a mark may be detected, and the mark may be erroneously determined.

特開2002−269561号公報JP 2002-269561 A

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、処理負荷を軽減し、マーカーをより正確に検出することが可能なプログラム、情報記憶媒体、端末、サーバ及びマーカー表示体を提供することにある。   The present invention has been made in view of the problems as described above. The object of the present invention is to reduce a processing load and to detect a marker more accurately, an information storage medium, a terminal, It is to provide a server and a marker display.

(1)本発明は、撮像部によって撮像された撮像画像から、少なくとも一つのマーカーを検出する処理を行うプログラムであって、第1の色条件を満たす複数の画素によって形成される第1の色領域に外接する第1の矩形領域と、第2の色条件を満たす複数の画素によって形成される第2の色領域に外接する第2の矩形領域とを、前記撮像画像から抽出する処理を行う矩形領域抽出部と、第1の矩形領域と第2の矩形領域との位置関係に基づいて、前記マーカーがあるか否かを判定する処理を行うマーカー判定部として、コンピュータを機能させ、前記マーカー判定部が、第1の矩形領域、第2の矩形領域のうちいずれか一方が他方を内包する位置関係である場合に、前記マーカーがあると判定するプログラムに関する。また、本発明は、上記プログラムを記憶した情報記憶媒体、上記各部として構成する端末に関係する。   (1) The present invention is a program for performing processing for detecting at least one marker from a captured image captured by an imaging unit, and a first color formed by a plurality of pixels that satisfy the first color condition A process of extracting a first rectangular area circumscribing the area and a second rectangular area circumscribing the second color area formed by a plurality of pixels that satisfy the second color condition from the captured image is performed. The marker functions as a marker determination unit that performs a process of determining whether or not there is the marker based on the positional relationship between the rectangular region extraction unit and the first rectangular region and the second rectangular region, and the marker The present invention relates to a program for determining that the marker is present when one of the first rectangular area and the second rectangular area is in a positional relationship including the other. The present invention also relates to an information storage medium storing the program and a terminal configured as each unit.

本発明によれば、第1、第2の矩形領域を抽出し、第1、第2の矩形領域のうちいずれか一方が他方を内包する位置関係である場合に、マーカーがあると判定するので従来よりも処理負荷を軽減させて、マーカーを検出することができる。また、本発明によれば、第1、第2の色条件に基づいて矩形領域を抽出するので、濃淡や輝度値(白、黒、グレーなど)に基づいてマーカーを検出する場合に比べて、精度を上げてマーカーを検出することができる。さらに、本発明によれば、2つの色条件を用いてマーカーがあるか否かを判定するので、1つの色条件のみを判定する場合に比べて、精度よくマーカーを検出することができる。   According to the present invention, when the first and second rectangular areas are extracted and one of the first and second rectangular areas is in a positional relationship including the other, it is determined that there is a marker. The marker can be detected while reducing the processing load compared to the prior art. In addition, according to the present invention, since the rectangular area is extracted based on the first and second color conditions, compared to the case where the marker is detected based on the shading and the luminance value (white, black, gray, etc.), Markers can be detected with increased accuracy. Furthermore, according to the present invention, since it is determined whether or not there is a marker using two color conditions, it is possible to detect the marker with higher accuracy than in the case where only one color condition is determined.

(2)また、本発明のプログラム、情報記憶媒体及び端末は、前記マーカー判定部が、第1の矩形領域の中心位置と第2の矩形領域の中心位置との位置関係に基づいて、前記マーカーがあるか否かを判定する処理を行うようにしてもよい。本発明によれば、第1の矩形領域の中心位置と第2の矩形領域の中心位置との位置関係に基づいて、マーカーがあるか否かを判定するので、精度を上げてマーカーがあるか否かを判定することができる。   (2) Further, in the program, the information storage medium, and the terminal according to the present invention, the marker determination unit is configured so that the marker is based on a positional relationship between the center position of the first rectangular area and the center position of the second rectangular area. You may make it perform the process which determines whether there exists. According to the present invention, whether or not there is a marker is determined based on the positional relationship between the center position of the first rectangular area and the center position of the second rectangular area. It can be determined whether or not.

(3)また、本発明のプログラム、情報記憶媒体及び端末は、前記マーカー判定部が、第1の矩形領域の中心位置と第2の矩形領域の中心位置との距離が所定距離以内である場合に、前記マーカーがあると判定するようにしてもよい。本発明によれば、第1の矩形領域の中心位置と第2の矩形領域の中心位置との距離が所定距離以内である場合に、マーカーがあると判定するので、より正確にマーカーがあるか否かを判定することができる。   (3) In the program, the information storage medium, and the terminal according to the present invention, when the marker determination unit has a distance between the center position of the first rectangular area and the center position of the second rectangular area within a predetermined distance. In addition, it may be determined that there is the marker. According to the present invention, when the distance between the center position of the first rectangular area and the center position of the second rectangular area is within a predetermined distance, it is determined that there is a marker. It can be determined whether or not.

(4)また、本発明のプログラム、情報記憶媒体及び端末は、前記矩形領域抽出部が、画素の色値が、第1の色値を含む第1の色値域内である場合に前記第1の色条件を満たすと判断し、画素の色値が、第2の色値を含む第2の色値域内である場合に前記第2の色条件を満たすと判断するようにしてもよい。本発明によれば、第1、第2の矩形領域が抽出しやすくなる。   (4) In the program, the information storage medium, and the terminal according to the present invention, when the rectangular area extraction unit has a color value of a pixel within a first color value area including the first color value, If the color value of a pixel is within the second color value range including the second color value, it may be determined that the second color condition is satisfied. According to the present invention, the first and second rectangular regions can be easily extracted.

(5)また、本発明のプログラム、情報記憶媒体及び端末は、当該第1の色値と、当該第2の色値とは補色の関係にあるようにしてもよい。つまり、第1の色値と、第2の色値とは補色の関係にあれば、第1、第2の矩形領域が抽出しやすくなり、精度を上げてマーカーを検出することができる。   (5) In the program, the information storage medium, and the terminal of the present invention, the first color value and the second color value may be in a complementary color relationship. That is, if the first color value and the second color value have a complementary color relationship, the first and second rectangular regions can be easily extracted, and the marker can be detected with high accuracy.

(6)また、本発明のプログラム、情報記憶媒体及び端末は、前記マーカー判定部が、複数の前記マーカーがあるか否かを判定するようにしてもよい。   (6) In the program, the information storage medium, and the terminal of the present invention, the marker determination unit may determine whether there are a plurality of the markers.

(7)また、本発明のプログラム、情報記憶媒体及び端末は、前記マーカー判定部によって複数のマーカーがあると判定された場合に、複数のマーカーの位置関係に基づいて、前記撮像画像からコード情報を認識する処理を行うコード認識処理部として、コンピュータを機能させるようにしてもよい。本発明によれば、マーカー判定部によって複数のマーカーがあると判定された場合に、複数のマーカーの位置関係に基づいて、撮像画像からコード情報を認識する処理を行うことができる。   (7) The program, the information storage medium, and the terminal according to the present invention may be configured such that when the marker determination unit determines that there are a plurality of markers, the code information from the captured image is based on the positional relationship between the plurality of markers. The computer may be caused to function as a code recognition processing unit that performs processing for recognizing. According to the present invention, when the marker determination unit determines that there are a plurality of markers, it is possible to perform processing for recognizing code information from the captured image based on the positional relationship between the plurality of markers.

(8)また、本発明のプログラム、情報記憶媒体及び端末は、前記マーカー判定部が、第2の矩形領域が第1の矩形領域を内包する位置関係である場合に、第1のマーカーがあると判定する処理を行い、第1の矩形領域が第2の矩形領域を内包する位置関係である場合に、第2のマーカーがあると判定する処理を行い、前記コード認識処理部が、前記マーカー判定部によって1つの第1のマーカー及び2以上の所定数の第2のマーカーがあると判定された場合に、当該第1のマーカーと各第2のマーカーとの位置関係に基づいて、前記コード情報を認識する処理を行うようにしてもよい。   (8) In the program, the information storage medium, and the terminal according to the present invention, the marker determination unit has the first marker when the second rectangular area is in a positional relationship including the first rectangular area. When the first rectangular area has a positional relationship including the second rectangular area, the process for determining that there is a second marker is performed, and the code recognition processing unit When it is determined by the determination unit that there is one first marker and two or more predetermined number of second markers, the code is based on the positional relationship between the first marker and each second marker. Processing for recognizing information may be performed.

本発明によれば、マーカー判定部によって1つの第1のマーカー及び2以上の所定数の第2のマーカーがあると判定された場合に、第1のマーカーと各第2のマーカーとの位置関係に基づいて、コード情報を認識する処理を行うので、より正しい環境下で、コード情報を認識させるようにすることができる。   According to the present invention, when the marker determination unit determines that there is one first marker and two or more predetermined number of second markers, the positional relationship between the first marker and each second marker Therefore, the code information can be recognized in a more correct environment.

(9)また、本発明のプログラム、情報記憶媒体及び端末は、前記マーカー判定部によって複数のマーカーがあると判定された場合に、前記撮像画像と仮想画像とを合成して拡張現実画像を生成する処理を行う描画部として、コンピュータを更に機能させるようにしてもよい。本発明によれば、複数のマーカーが検出された場合に、拡張現実画像を生成することができる。   (9) The program, information storage medium, and terminal of the present invention generate an augmented reality image by synthesizing the captured image and the virtual image when the marker determination unit determines that there are a plurality of markers. The computer may further function as a drawing unit that performs the processing. According to the present invention, an augmented reality image can be generated when a plurality of markers are detected.

(10)また、本発明のプログラム、情報記憶媒体及び端末は、前記マーカー判定部が、第2の矩形領域が第1の矩形領域を内包する位置関係である場合に、第1のマーカーがあると判定する処理を行い、第1の矩形領域が第2の矩形領域を内包する位置関係である場合に、第2のマーカーがあると判定する処理を行い、前記描画部が、前記マーカー判定部によって1つの第1のマーカー及び2以上の所定数の第2のマーカーがあると判定された場合に、前記拡張現実画像を生成する処理を行うようにしてもよい。本発明によれば、マーカー判定部によって1つの第1のマーカー及び2以上の所定数の第2のマーカーがあると判定された場合に、拡張現実画像を生成する処理を行うので、より正しい環境下で、拡張現実画像を提供することができる。   (10) The program, the information storage medium, and the terminal of the present invention include the first marker when the marker determination unit has a positional relationship in which the second rectangular area includes the first rectangular area. When the first rectangular area is in a positional relationship including the second rectangular area, a process for determining that there is a second marker is performed, and the drawing unit performs the marker determination unit When it is determined that there is one first marker and two or more predetermined number of second markers, the process of generating the augmented reality image may be performed. According to the present invention, when the marker determination unit determines that there is one first marker and two or more predetermined number of second markers, the process of generating the augmented reality image is performed, so that a more correct environment Below, augmented reality images can be provided.

(11)また、本発明のプログラム、情報記憶媒体及び端末は、前記マーカー判定部によって複数のマーカーがあると判定された場合に、複数のマーカーの位置関係に基づいて、前記撮像画像からコード情報を認識する処理を行うコード認識処理部として、コンピュータを機能させ、前記描画部が、前記コード情報に基づいて仮想画像を生成する処理を行い、前記撮像画像と当該仮想画像とを合成して拡張現実画像を生成するようにしてもよい。本発明によれば、コード情報に基づいて仮想画像を生成する処理を行うので、コード情報に応じた仮想画像と撮像画像とを合成した拡張現実画像を生成することができる。   (11) Further, the program, the information storage medium, and the terminal according to the present invention provide code information from the captured image based on the positional relationship of the plurality of markers when the marker determination unit determines that there are a plurality of markers. The computer functions as a code recognition processing unit that performs processing for recognizing the image, and the drawing unit performs processing for generating a virtual image based on the code information, and combines the captured image and the virtual image for expansion. A real image may be generated. According to the present invention, since a process for generating a virtual image is performed based on code information, an augmented reality image in which a virtual image corresponding to the code information and a captured image are combined can be generated.

(12)本発明は、少なくとも一つのマーカーを検出する処理を行うサーバであって、ネットワークを介して端末から、撮像画像を受信する通信制御部と、第1の色条件を満たし隣接する複数の画素からなる第1の色領域に外接する第1の矩形領域と、第2の色条件を満たし隣接する複数の画素からなる第2の色領域に外接する第2の矩形領域とを、前記撮像画像から抽出する処理とを行う矩形領域抽出部と、第1の矩形領域と第2の矩形領域との位置関係に基づいて、前記マーカーがあるか否かを判定する処理を行うマーカー判定部とを含み、前記マーカー判定部が、第1の矩形領域、第2の矩形領域のうちいずれか一方が他方を内包する位置関係である場合に、前記マーカーがあると判定し、前記通信制御部が、前記端末に処理結果を送信するサーバに関する。   (12) The present invention is a server that performs processing for detecting at least one marker, and a communication control unit that receives a captured image from a terminal via a network, and a plurality of adjacent ones that satisfy the first color condition A first rectangular area circumscribing a first color area composed of pixels and a second rectangular area circumscribing a second color area composed of a plurality of adjacent pixels that satisfy the second color condition A rectangular area extracting unit that performs processing of extracting from an image, and a marker determining unit that performs processing of determining whether or not there is the marker based on a positional relationship between the first rectangular area and the second rectangular area; The marker determination unit determines that there is the marker when either one of the first rectangular region and the second rectangular region includes the other, and the communication control unit , Send the processing result to the terminal To about the server.

(13)本発明は、端末によって検出される複数のマーカーからなるマーカー表示体であって、同一の中心点をもち、径の長さが異なる2つの円によって構成されるマーカーを複数所定間隔をおいて配置し、前記複数のマーカーのうち1つのマーカーの内径の円を第1の色、外径の円のうち内径の円を除いた部分を第2の色で配色し、残りの各マーカーについては、内径の円を第2の色、外径の円のうち内径の円を除いた部分を第1の色に配色しているマーカー表示体に関する。   (13) The present invention is a marker display body composed of a plurality of markers detected by a terminal, wherein a plurality of markers having the same center point and composed of two circles having different diameters are arranged at predetermined intervals. The inner circle of one of the plurality of markers is colored in the first color, and the portion of the outer diameter circle except the inner circle is colored in the second color, and the remaining markers The present invention relates to a marker display body in which the inner circle is colored in the second color, and the portion of the outer diameter circle excluding the inner circle is colored in the first color.

本発明によれば、同一の中心点をもち、径の長さが異なる2つの円によって構成されるマーカーが配置され、そのマーカーは、内径の円を第1の色、外径の円のうち内径の円を除いた部分を第2の色で配色されているか、あるいは、内径の円を第2の色、外径の円のうち内径の円を除いた部分を第1の色に配色されている。したがって、いずれの方向からでも第1、第2の色を考慮したマーカーを検出させることが可能なマーカー表示体を提供できる。つまり、1色のマーカーよりも精度よく検出され得るマーカーを配置したマーカー表示体を提供できる。なお、マーカー表示体は、2次元の表示体でもよいし、3次元の表示体でもよい。   According to the present invention, a marker composed of two circles having the same center point and different diameter lengths is arranged, and the marker is an inner diameter circle of a first color and an outer diameter circle. The portion excluding the inner circle is colored in the second color, or the inner circle is colored in the second color, and the portion of the outer diameter circle except the inner circle is colored in the first color. ing. Therefore, it is possible to provide a marker display body capable of detecting a marker considering the first and second colors from any direction. That is, it is possible to provide a marker display body in which markers that can be detected with higher accuracy than one color marker are arranged. The marker display body may be a two-dimensional display body or a three-dimensional display body.

(14)また、本発明のマーカー表示体は、前記各マーカーにより取り囲まれる範囲内に、予め定められたコード情報を示したことを特徴とするマーカー表示体であってもよい。本発明によれば、端末によって複数のマーカーが検出された際に、コード情報を認識させるようなマーカー表示体を提供できる。   (14) Moreover, the marker display body of the present invention may be a marker display body characterized by showing predetermined code information within a range surrounded by the respective markers. According to the present invention, it is possible to provide a marker display body that recognizes code information when a plurality of markers are detected by a terminal.

(15)また、本発明のマーカー表示体は、前記第1の色は赤色、前記第2の色は緑色であることを特徴とするマーカー表示体であってもよい。本発明によれば、端末によって検出しやすいマーカーが配置されたマーカー表示体を提供できる。   (15) Moreover, the marker display body of the present invention may be a marker display body characterized in that the first color is red and the second color is green. ADVANTAGE OF THE INVENTION According to this invention, the marker display body by which the marker which is easy to detect with a terminal is arrange | positioned can be provided.

図1は、本実施形態の端末の機能ブロック図の一例。FIG. 1 is an example of a functional block diagram of a terminal according to the present embodiment. 図2(A)、(B)は、本実施形態の端末の一例。2A and 2B are examples of the terminal according to the present embodiment. 図3(A)、(B)は、本実施形態の端末の一例。3A and 3B are examples of the terminal according to the present embodiment. 図4は、マーカー表示体の一例。FIG. 4 is an example of a marker display. 図5(A)、(B)は、マーカーの説明図。5A and 5B are explanatory diagrams of markers. 図6(A)、(B)、(C)は、コード情報の説明図。6A, 6B, and 6C are explanatory diagrams of code information. 図7は、第1の矩形領域の説明図。FIG. 7 is an explanatory diagram of a first rectangular area. 図8は、第2の矩形領域の説明図。FIG. 8 is an explanatory diagram of a second rectangular area. 図9(A)は、矩形領域抽出処理のフローチャート図。FIG. 9A is a flowchart of rectangular area extraction processing. 図9(B)は、矩形領域抽出処理のフローチャート図。FIG. 9B is a flowchart of rectangular area extraction processing. 図9(C)は、矩形領域抽出処理のフローチャート図。FIG. 9C is a flowchart of rectangular area extraction processing. 図9(D)は、矩形領域抽出処理のフローチャート図。FIG. 9D is a flowchart of rectangular area extraction processing. 図10(A)〜(D)は、矩形領域抽出処理の説明図。10A to 10D are explanatory diagrams of rectangular area extraction processing. 図11(A)(B)(C)は、第1、第2の矩形領域の位置関係の説明図。11A, 11B, and 11C are explanatory views of the positional relationship between the first and second rectangular regions. 図12(A)(B)(C)は、第1、第2の矩形領域の位置関係の説明図。12A, 12B, and 12C are explanatory views of the positional relationship between the first and second rectangular regions. 図13は、マーカー表示体を撮像する状況の説明図。FIG. 13 is an explanatory diagram of a situation in which a marker display body is imaged. 図14(A)は、マーカー表示体を撮像した撮像画像から第1、第2の矩形領域を抽出する処理を説明するための説明図。FIG. 14A is an explanatory diagram for explaining processing for extracting first and second rectangular regions from a captured image obtained by capturing a marker display body. 図14(B)は、マーカー表示体を撮像した撮像画像から第1、第2の矩形領域を抽出する処理を説明するための説明図。FIG. 14B is an explanatory diagram for explaining processing for extracting the first and second rectangular regions from the captured image obtained by capturing the marker display body. 図14(C)は、マーカー表示体を撮像した撮像画像から第1、第2の矩形領域を抽出する処理を説明するための説明図。FIG. 14C is an explanatory diagram for explaining processing for extracting the first and second rectangular regions from the captured image obtained by capturing the marker display body. 図15(A)、(B)、(C)は、マーカーの位置関係に基づいてコード情報を認識する例を説明するための説明図。FIGS. 15A, 15 </ b> B, and 15 </ b> C are explanatory diagrams for explaining an example in which code information is recognized based on the positional relationship between markers. 図16(A)は、撮像画像の説明図。FIG. 16A is an explanatory diagram of a captured image. 図16(B)は、撮像画像と仮想画像とを合成して拡張現実画像を生成する例を説明するための説明図。FIG. 16B is an explanatory diagram for explaining an example in which an augmented reality image is generated by combining a captured image and a virtual image. 図16(C)は、拡張現実画像の説明図。FIG. 16C is an explanatory diagram of an augmented reality image. 図17は、本実施形態のフローチャート図。FIG. 17 is a flowchart of this embodiment. 図18(A)、(B)、(C)、(D)、(E)は、マーカー表示体の応用例。18A, 18B, 18C, 18D, and 18E are application examples of marker display bodies. 図19は、撮像画像と仮想画像とを合成して拡張現実画像を生成する例を説明するための説明図。FIG. 19 is an explanatory diagram for explaining an example in which an augmented reality image is generated by combining a captured image and a virtual image. 図20(A)(B)(C)は、隣接、重なり関係の説明図。20A, 20B, and 20C are explanatory diagrams of adjacent and overlapping relationships. 図21は、ネットワークシステムの説明図。FIG. 21 is an explanatory diagram of a network system.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の端末(コンピュータ、ゲーム装置、携帯電話、スマートフォン、携帯端末、携帯型ゲーム装置、画像生成装置)の機能ブロック図の例を示す。なお本実施形態の端末は図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of a terminal (a computer, a game device, a mobile phone, a smartphone, a mobile terminal, a portable game device, and an image generation device) of this embodiment. Note that the terminal of this embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

撮像部150は、物体から発した光をレンズなどの光学系によって撮像素子の受光平面に結像させ、その像の光による明暗を電荷の量に光電変換し、それを順次読み出して電気信号に変換する。そして、撮像部150は、RGB、YUV、HSVなどの色空間(フォーマット)で定義された色画像(入力画像)を、撮像画像記憶部173に出力する処理を行う。撮像部150は、所定の周期で(例えば、1/60秒毎に)撮像した色画像を撮像画像記憶部173に出力する処理を行う。つまり、逐次、色画像を撮像画像記憶部173に記憶させる処理を行う。   The imaging unit 150 forms an image of light emitted from an object on a light receiving plane of an imaging element by an optical system such as a lens, photoelectrically converts light and darkness of the image into an amount of electric charge, sequentially reads out the electric signal, and Convert. Then, the imaging unit 150 performs processing to output a color image (input image) defined in a color space (format) such as RGB, YUV, or HSV to the captured image storage unit 173. The imaging unit 150 performs a process of outputting a color image captured at a predetermined cycle (for example, every 1/60 seconds) to the captured image storage unit 173. That is, processing for sequentially storing color images in the captured image storage unit 173 is performed.

入力部160は、プレーヤ(操作者)からの入力情報を入力するための入力機器(コントローラ)であり、プレーヤの入力情報を処理部に出力する。本実施形態の入力部160は、プレーヤの入力情報(入力信号)を検出する検出部162を備える。入力部160は、例えば、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイなどがある。また、入力部160は、振動信号に基づいて振動させる処理を行う振動部を備えていてもよい。   The input unit 160 is an input device (controller) for inputting input information from the player (operator), and outputs the input information of the player to the processing unit. The input unit 160 of this embodiment includes a detection unit 162 that detects input information (input signal) of the player. The input unit 160 includes, for example, a lever, a button, a steering, a microphone, a touch panel display, and the like. The input unit 160 may include a vibration unit that performs a process of vibrating based on the vibration signal.

また、入力部160は、3軸の加速度を検出する加速度センサや、角速度を検出するジャイロセンサ、撮像部150を備えた入力機器でもよい。例えば、入力部160は、プレーヤが把持して動かすものであってもよいし、プレーヤが身につけて動かすものであってもよい。また、入力部160は、プレーヤが把持する刀型コントローラや銃型コントローラ、あるいはプレーヤが身につける(プレーヤが手に装着する)グローブ型コントローラなど実際の道具を模して作られた入力機器でもよい。また入力部160は、入力機器と一体化されている端末(携帯電話、携帯端末、携帯型ゲーム装置)なども含まれる。   The input unit 160 may be an input device including an acceleration sensor that detects triaxial acceleration, a gyro sensor that detects angular velocity, and the imaging unit 150. For example, the input unit 160 may be held and moved by the player, or may be worn by the player and moved. The input unit 160 may be an input device imitating an actual tool such as a sword-type controller or gun-type controller held by the player, or a glove-type controller worn by the player (attached to the hand of the player). Good. The input unit 160 also includes a terminal (a mobile phone, a mobile terminal, a portable game device) integrated with an input device.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は外部(例えば他の端末、サーバ)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, other terminals and servers), and the functions are realized by hardware such as various processors or communication ASICs, programs, and the like. it can.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信して端末を機能させる場合も本発明の範囲内に含む。   Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case where the terminal is functioned by receiving the program or data as described above is also included in the scope of the present invention.

処理部100(プロセッサ)は、入力部160からの入力データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on input data from the input unit 160, a program, and the like.

この処理部100は記憶部170内の主記憶部171をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 performs various processes using the main storage unit 171 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、矩形領域抽出部110、マーカー判定部111、コード認識処理部112、描画部120、音処理部130を含む。なお、これらの一部を省略する構成としてもよい。   The processing unit 100 includes a rectangular area extraction unit 110, a marker determination unit 111, a code recognition processing unit 112, a drawing unit 120, and a sound processing unit 130. Note that some of these may be omitted.

矩形領域抽出部110は、第1の色条件を満たす複数の画素によって形成される第1の色領域に外接する第1の矩形領域と、第2の色条件を満たす複数の画素によって形成される第2の色領域に外接する第2の矩形領域とを、撮像画像から抽出する処理とを行う。   The rectangular area extraction unit 110 is formed by a first rectangular area circumscribing the first color area formed by a plurality of pixels that satisfy the first color condition and a plurality of pixels that satisfy the second color condition. A process of extracting the second rectangular area circumscribing the second color area from the captured image is performed.

ここで、矩形領域抽出部110は、画素の色値が、第1の色値を含む第1の色値域内である場合に第1の色条件を満たすと判断し、画素の色値が、第2の色値を含む第2の色値域内である場合に第2の色条件を満たすと判断する。なお、当該第1の色値と、当該第2の色値とは補色の関係であることが望ましい。例えば、第1の色値を赤の色値とし、第2の色値を緑の色値としてもよい。   Here, the rectangular area extraction unit 110 determines that the first color condition is satisfied when the color value of the pixel is within the first color value range including the first color value, and the color value of the pixel is When the second color value is within the second color value range including the second color value, it is determined that the second color condition is satisfied. Note that it is desirable that the first color value and the second color value have a complementary color relationship. For example, the first color value may be a red color value, and the second color value may be a green color value.

マーカー判定部111は、第1の矩形領域と第2の矩形領域との位置関係に基づいて、マーカーがあるか否かを判定する処理を行う。例えば、マーカー判定部111は、第1の矩形領域、第2の矩形領域のうちいずれか一方が他方を内包する位置関係である場合に、マーカーがあると判定する。   The marker determination unit 111 performs a process of determining whether or not there is a marker based on the positional relationship between the first rectangular area and the second rectangular area. For example, the marker determination unit 111 determines that there is a marker when one of the first rectangular region and the second rectangular region has a positional relationship including the other.

また、マーカー判定部111は、第1の矩形領域の中心位置と第2の矩形領域の中心位置との位置関係に基づいて、マーカーがあるか否かを判定する処理を行うようにしてもよい。つまり、マーカー判定部111は、第1の矩形領域の中心位置と第2の矩形領域の中心位置との距離が所定距離以内である場合に、マーカーがあると判定するようにしてもよい。   In addition, the marker determination unit 111 may perform processing for determining whether there is a marker based on the positional relationship between the center position of the first rectangular area and the center position of the second rectangular area. . That is, the marker determination unit 111 may determine that there is a marker when the distance between the center position of the first rectangular area and the center position of the second rectangular area is within a predetermined distance.

また、マーカー判定部111は、第2の矩形領域が第1の矩形領域を内包する位置関係である場合に、第1のマーカーがあると判定する処理を行い、第1の矩形領域が第2の矩形領域を内包する位置関係である場合に、第2のマーカーがあると判定する処理を行う。   In addition, the marker determination unit 111 performs a process of determining that there is a first marker when the second rectangular area includes the first rectangular area, and the first rectangular area is the second rectangular area. When the positional relationship includes the rectangular area, a process of determining that the second marker is present is performed.

コード認識処理部112は、マーカー判定部111によって複数のマーカーがあると判定された場合に、複数のマーカーの位置関係に基づいて、撮像画像からコード情報を認識する処理を行う。   When the marker determination unit 111 determines that there are a plurality of markers, the code recognition processing unit 112 performs processing for recognizing code information from the captured image based on the positional relationship between the plurality of markers.

また、コード認識処理部112は、マーカー判定部111によって1つの第1のマーカー及び2以上の所定数(例えば、3つ)の第2のマーカーがあると判定された場合に、当該第1のマーカーと各第2のマーカーとの位置関係に基づいて、コード情報を認識する処理を行う。   In addition, when the marker determination unit 111 determines that there is one first marker and two or more predetermined numbers (for example, three) of second markers, the code recognition processing unit 112 Based on the positional relationship between the marker and each second marker, processing for recognizing code information is performed.

描画部120は、オブジェクトをオブジェクト空間(仮想的3次元空間)に配置する処理を行う。例えば、オブジェクト配置部は、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を、オブジェクト空間に配置する処理を行う。ここでオブジェクト空間とは、仮想的なゲーム空間であり、例えば、ワールド座標系、仮想カメラ座標系のように、3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。   The drawing unit 120 performs processing for arranging an object in an object space (virtual three-dimensional space). For example, the object placement unit performs processing for placing a display object such as a building, a stadium, a car, a tree, a pillar, a wall, and a map (terrain) in the object space. Here, the object space is a virtual game space, for example, a space in which objects are arranged in three-dimensional coordinates (X, Y, Z) such as a world coordinate system and a virtual camera coordinate system.

例えば、オブジェクト配置部は、ワールド座標系にオブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)を配置する。また、例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   For example, the object placement unit places an object (an object composed of a primitive such as a polygon, a free-form surface, or a subdivision surface) in the world coordinate system. Also, for example, the position and rotation angle (synonymous with direction and direction) of the object in the world coordinate system is determined, and the rotation angle (X, Y, Z axis rotation) is determined at that position (X, Y, Z). Position the object at (Angle).

描画部120は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。言い換えると、描画部120は、オブジェクト空間において、仮想カメラから見える画像を生成する。   The drawing unit 120 performs drawing processing based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In other words, the drawing unit 120 generates an image that can be seen from the virtual camera in the object space.

例えば、描画部120は、オブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   For example, the drawing unit 120 receives object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model). Based on the vertex data included in the object data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、透視変換(投影変換)、ビューポート変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, perspective transformation (projection transformation) ), Geometry processing such as viewport conversion is performed, and based on the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted).

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を画像バッファ172(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット、フレームバッファ)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the image buffer 172 (buffer that can store image information in units of pixels; VRAM, rendering target, frame buffer). . That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、記憶部170に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, the object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170. .

テクスチャマッピングは、記憶部170に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the storage unit 170 using texture coordinates or the like set (given) to the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing can be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which Z values (depth information) of drawing pixels are stored. . That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

例えば、αブレンディングでは、これから画像バッファ172に描画する描画色(上書きする色)C1と、既に画像バッファ172(レンダリングターゲット)に描画されている描画色(下地の色)C2とを、α値に基づいて線形合成処理を行う。つまり、最終的な描画色をCとすると、C=C1*α+C2*(1−α)によって求めることができる。   For example, in α blending, the drawing color (overwriting color) C1 to be drawn in the image buffer 172 and the drawing color (background color) C2 already drawn in the image buffer 172 (rendering target) are set to α values. Based on this, a linear synthesis process is performed. That is, if the final drawing color is C, it can be obtained by C = C1 * α + C2 * (1−α).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

特に、本実施形態の描画部120は、マーカー判定部111によって複数のマーカーがあると判定された場合に、撮像画像と仮想画像とを合成して拡張現実画像を生成する処理を行う。例えば、本実施形態の描画部120は、マーカー判定部111によって1つの第1のマーカー及び2以上の所定数の第2のマーカーがあると判定された場合に、拡張現実画像を生成する処理を行う。   In particular, when the marker determination unit 111 determines that there are a plurality of markers, the drawing unit 120 of the present embodiment performs a process of generating an augmented reality image by combining the captured image and the virtual image. For example, the drawing unit 120 according to the present embodiment performs a process of generating an augmented reality image when the marker determining unit 111 determines that there is one first marker and two or more predetermined numbers of second markers. Do.

また、本実施形態の描画部120は、コード認識処理部112によって認識されたコード情報に基づいて仮想画像を生成する処理を行い、撮像画像と当該仮想画像とを合成して拡張現実画像を生成するようにしてもよい。   In addition, the drawing unit 120 of the present embodiment performs a process of generating a virtual image based on the code information recognized by the code recognition processing unit 112, and generates an augmented reality image by synthesizing the captured image and the virtual image. You may make it do.

音処理部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound processing unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates a game sound such as BGM, sound effect, or sound, and outputs the game sound to the sound output unit 192.

なお、本実施形態の端末は、1人のプレーヤのみがプレイできるシングルプレーヤモード、或いは、複数のプレーヤがプレイできるマルチプレーヤモードでゲームプレイできるように制御してもよい。例えば、マルチプレーヤモードで制御する場合には、ネットワークを介して他の端末とデータを送受信してゲーム処理を行うようにしてもよいし、1つの端末が、複数の入力部からの入力情報に基づいて処理を行うようにしてもよい。   Note that the terminal according to the present embodiment may be controlled so that the game can be played in a single player mode in which only one player can play or in a multiplayer mode in which a plurality of players can play. For example, in the case of controlling in the multiplayer mode, game processing may be performed by transmitting / receiving data to / from other terminals via a network, or one terminal may receive input information from a plurality of input units. Processing may be performed based on this.

2.概要
本実施形態では、端末10の撮像部150によって撮像された撮像画像から、少なくとも一つのマーカーを検出する処理を行うものである。例えば、端末10は、図2(A)(B)に示すようなゲーム装置、図3(A)(B)に示すような携帯端末(スマートフォン)などである。
2. Overview In the present embodiment, processing for detecting at least one marker from a captured image captured by the imaging unit 150 of the terminal 10 is performed. For example, the terminal 10 is a game device as shown in FIGS. 2A and 2B, a portable terminal (smart phone) as shown in FIGS.

そして、本実施形態の端末10は、図4に示すようなマーカー表示体20を被写体として撮像し、マーカー表示体20で表示されるマーカーMを検出する。端末10は、所定周期(例えば、1/60秒単位)で連続して撮像を続けることが可能であり、端末10は、所定周期で、マーカーMを検出することができる。   And the terminal 10 of this embodiment images the marker display body 20 as shown in FIG. 4 as a subject, and detects the marker M displayed on the marker display body 20. The terminal 10 can continue imaging in a predetermined cycle (for example, 1/60 second unit), and the terminal 10 can detect the marker M in the predetermined cycle.

そして、端末10は、第1の色条件を満たす複数の画素によって形成される第1の色領域に外接する第1の矩形領域と、第2の色条件を満たす複数の画素によって形成される第2の色領域に外接する第2の矩形領域とを、撮像部150によって撮像された撮像画像から抽出する処理を行う。   The terminal 10 includes a first rectangular area circumscribing the first color area formed by a plurality of pixels that satisfy the first color condition and a first pixel that is formed by a plurality of pixels that satisfy the second color condition. The second rectangular area circumscribing the second color area is extracted from the captured image captured by the imaging unit 150.

そして、端末10は、第1の矩形領域と、第2の矩形領域との位置関係に基づいて、マーカーがあるか否かを判定する処理を行う。つまり、端末10は、第1の矩形領域、第2の矩形領域のうちいずれか一方が他方を内包する位置関係である場合に、マーカーがあると判定する処理を行う。このようにすれば、撮像画像から直線成分、交差成分を検出することなく、マーカーがあるか否かを判定できる。つまり、従来技術よりも処理負荷を軽減させることができる。そして、2つの色条件に基づいて抽出された第1、第2の矩形領域の位置関係に基づいてマーカーがあるか否かを判断するので、従来技術よりも精度を上げてマーカーを検出(認識)することができる。以下、詳細に本実施形態のマーカー検出処理について説明する。   And the terminal 10 performs the process which determines whether there exists a marker based on the positional relationship of a 1st rectangular area and a 2nd rectangular area. That is, the terminal 10 performs a process of determining that there is a marker when one of the first rectangular area and the second rectangular area has a positional relationship including the other. In this way, it is possible to determine whether or not there is a marker without detecting a straight line component and a crossing component from the captured image. That is, the processing load can be reduced as compared with the prior art. Since it is determined whether or not there is a marker based on the positional relationship between the first and second rectangular regions extracted based on the two color conditions, the marker is detected (recognized with higher accuracy than in the prior art). )can do. Hereinafter, the marker detection process of this embodiment will be described in detail.

3.マーカー表示体の説明
まず、撮像部150の被写体となるマーカー表示体20について説明する。図4に示すように、マーカー表示体20は、複数のマーカーMが、所定間隔をおいて配置されている。つまり、図4の例では4個のマーカーMが、四角形(正方形)の隅(コーナー)に配置して形成される。
3. Description of Marker Display First, the marker display 20 that is a subject of the imaging unit 150 will be described. As shown in FIG. 4, the marker display body 20 has a plurality of markers M arranged at predetermined intervals. In other words, in the example of FIG. 4, four markers M are formed at the corners of a quadrangle (square).

そして、図5(A)(B)に示すように、マーカーMは、同一の中心点Oをもち、径の長さが異なる2つの円によって構成される。つまり、マーカーMは、点Oを中心に半径r1の円と、点Oを中心に半径r2の円で構成されている(r1<r2)。例えば、半径r2は、半径r1の倍の長さとすることができる。   And as shown to FIG. 5 (A) (B), the marker M is comprised by two circle | round | yen which has the same center point O and differs in the length of a diameter. That is, the marker M is composed of a circle with a radius r1 centered on the point O and a circle with a radius r2 centered on the point O (r1 <r2). For example, the radius r2 can be twice as long as the radius r1.

そして、本実施形態のマーカー表示体20は、配色が異なる第1のマーカーM1と、第2のマーカーM2とを配置している。すなわち、図5(A)に示すように、第1のマーカーM1は、内径の円を第1の色、外径の円のうち内径の円を除いた部分を第2の色で配色し、図5(B)に示すように、残りの各第2のマーカーについては、内径の円を第2の色、外径の円のうち内径の円を除いた部分を第1の色に配色している。   And the marker display body 20 of this embodiment has arrange | positioned the 1st marker M1 from which a color scheme differs, and the 2nd marker M2. That is, as shown in FIG. 5 (A), the first marker M1 is arranged with the inner color circle in the first color and the outer diameter circle excluding the inner diameter circle in the second color, As shown in FIG. 5B, for each of the remaining second markers, the inner diameter circle is colored in the second color, and the portion of the outer diameter circle excluding the inner diameter circle is colored in the first color. ing.

第1の色と第2の色とは補色の関係であることが望ましい。例えば、第1の色を赤色R、第2の色を緑色Gとすることができる。補色の関係とは、色相環で正反対に位置する関係のことをいう。補色の関係は赤に対する緑だけでなく、黄に対して紫、青に対して橙などがある。   It is desirable that the first color and the second color have a complementary color relationship. For example, the first color can be red R and the second color can be green G. The complementary color relationship refers to a relationship positioned in the opposite direction in the hue circle. Complementary colors include not only green for red but also purple for yellow and orange for blue.

つまり、第1のマーカーM1は、半径r1の円を赤色Rに配色すると共に、半径r2の円のうち、半径r1の円を除いた部分(リング形状部分)を緑色Gに配色する。また、第2のマーカーM2は、半径r1の円を緑色Gに配色すると共に、半径r2の円のうち、半径r1の円を除いた部分(リング形状部分)を赤色Rに配色する。   That is, the first marker M1 colors the circle with the radius r1 in red R, and colors the portion of the circle with the radius r2 excluding the circle with the radius r1 (ring-shaped portion) into the green G. In addition, the second marker M2 colors the circle with the radius r1 to green G, and colors the portion of the circle with the radius r2 excluding the circle with the radius r1 (ring-shaped portion) to the red R.

特に、本実施形態のマーカー表示体20は、4つのマーカーMのうち、1つを第1のマーカーとし、残り3つを第2のマーカーにすることによって、端末10がマーカーを検出する際に、各マーカーMの位置関係を容易に検出できるようにしている。   In particular, when the terminal 10 detects a marker, the marker display body 20 of the present embodiment uses one of the four markers M as a first marker and the remaining three as second markers. The positional relationship between the markers M can be easily detected.

さらに、マーカー表示体20には、コード情報が示されている。例えば、図4に示すように、4つの各マーカーMに取り囲まれる範囲内に白又は黒によって示されるコード情報を表示する。   Further, code information is shown on the marker display body 20. For example, as shown in FIG. 4, code information indicated by white or black is displayed in a range surrounded by four markers M.

コード情報は、数値、文字、バーコードや、絵文字、図柄とすることができる。本実施形態のコード情報を8ビットの情報とする。例えば、図6(A)に示すように、3行3列の9マスで構成された9マスのうち中心のマスを除く8つの各マス0〜7を8ビットの各位に対応づけ、1を白、0を黒で表示する。なお、中心のマスはパリティビットとして用いる。このようにして、例えば、図6(B)(C)に示すようなコード情報を表示できる。   The code information can be a numerical value, a character, a barcode, a pictograph, or a design. The code information of the present embodiment is 8-bit information. For example, as shown in FIG. 6A, 8 squares 0 to 7 other than the central square among 9 squares composed of 9 squares in 3 rows and 3 columns are associated with each 8-bit position. White and 0 are displayed in black. The central cell is used as a parity bit. In this way, for example, code information as shown in FIGS. 6B and 6C can be displayed.

なお、図4の例では、紙に印刷されたマーカー表示体の例(印刷媒体)を示しているが、マーカー表示体は、物であり、例えば、2次元で表示される媒体、画像、紙、掲示板、ボードでもよいし、3次元の立体的な表示物(ボール、ビー玉、積み木、光源)でもよい。例えば、表示画像である場合は、2次元画像でもよいし、見る人にとって立体的に見える立体視画像でもよい。   In the example of FIG. 4, an example (print medium) of a marker display body printed on paper is shown. However, the marker display body is an object, for example, a medium, an image, and paper displayed in two dimensions. , A bulletin board, a board, or a three-dimensional display object (ball, marble, building block, light source). For example, in the case of a display image, it may be a two-dimensional image or a stereoscopic image that looks stereoscopic to a viewer.

4.矩形領域を抽出する処理の詳細な説明
本実施形態では、マーカーがあるか否かを判定するために、まず、第1、第2の矩形領域を抽出する。例えば、第1の色条件を満たす複数の画素によって形成される第1の色領域に外接する第1の矩形領域と、第2の色条件を満たす複数の画素によって形成される第2の色領域に外接する第2の矩形領域とを、撮像画像から抽出する処理を行う。言い換えると、第1の色条件を満たす画素を検出し、検出された画素によって形成される第1の色領域を含む第1の矩形領域と、撮像画像から第2の色条件を満たす画素を検出し、検出された画素によって形成される第2の色領域を含む第2の矩形領域とを、撮像画像から抽出する処理とを行う。
4). Detailed Description of Processing for Extracting Rectangular Area In the present embodiment, first and second rectangular areas are extracted in order to determine whether or not there is a marker. For example, a first rectangular region circumscribing a first color region formed by a plurality of pixels that satisfy the first color condition and a second color region formed by a plurality of pixels that satisfy the second color condition A process of extracting the second rectangular area circumscribing from the captured image is performed. In other words, a pixel satisfying the first color condition is detected, and a first rectangular area including the first color area formed by the detected pixel and a pixel satisfying the second color condition are detected from the captured image. Then, the second rectangular area including the second color area formed by the detected pixels is extracted from the captured image.

本実施形態の端末10は、撮像画像の全画素を所定の順に、赤の色条件(第1の色条件の一例)又は緑の色条件(第2の色条件の一例)を満たすか否かを判断する。そして、端末10は、赤の色条件を満たした隣接する複数の画素群を赤色領域R(第1の色領域の一例)とし、複数の赤色領域Rが隣接している場合には、撮像画像のY軸、X軸に平行になるように隣接する複数の赤色領域Rを連結して矩形を設定し、この矩形を赤色矩形領域BR(第1の矩形領域の一例)として抽出する。   Whether the terminal 10 of the present embodiment satisfies all the pixels of the captured image in a predetermined order in a red color condition (an example of the first color condition) or a green color condition (an example of the second color condition). Judging. The terminal 10 uses a plurality of adjacent pixel groups that satisfy the red color condition as a red region R (an example of a first color region), and when the plurality of red regions R are adjacent, the captured image A plurality of adjacent red regions R are connected so as to be parallel to the Y-axis and X-axis, a rectangle is set, and this rectangle is extracted as a red rectangular region BR (an example of a first rectangular region).

同様に、端末10は、緑の色条件を満たした隣接する複数の画素群を緑色領域Gとし、複数の緑色領域Gが隣接している場合には、撮像画像のY軸、X軸に平行になるように隣接する複数の緑色領域Gを連結して矩形を設定し、この矩形を緑色矩形領域BG(第1の矩形領域の一例)として抽出する。   Similarly, the terminal 10 sets a plurality of adjacent pixel groups satisfying the green color condition as a green region G, and when the plurality of green regions G are adjacent, the terminal 10 is parallel to the Y axis and the X axis of the captured image. A plurality of adjacent green regions G are connected so as to form a rectangle, and this rectangle is extracted as a green rectangular region BG (an example of a first rectangular region).

つまり、赤色矩形領域BRは、撮像画像における赤色領域Rに外接する矩形領域(第1の外接矩形領域、第1のバウンディングボックス、第1の四角形)であり、緑色矩形領域BGは、撮像画像における緑色領域Bに外接する矩形領域(第2の外接矩形領域、第2のバウンディングボックス、第2の四角形)である。つまり、矩形領域は、複数の赤色領域を連結する際に、X軸方向、Y軸方向において最大の長さを有する赤色領域を基準に、赤色矩形領域BRを設定する。また、複数の緑色領域を連結する際に、X軸方向、Y軸方向において最大の長さを有する緑色領域を基準に、緑色矩形領域BRを設定する。   That is, the red rectangular area BR is a rectangular area (first circumscribed rectangular area, first bounding box, first square) circumscribing the red area R in the captured image, and the green rectangular area BG is in the captured image. This is a rectangular area circumscribing the green area B (second circumscribed rectangular area, second bounding box, second square). That is, when the plurality of red regions are connected, the red rectangular region BR is set based on the red region having the maximum length in the X-axis direction and the Y-axis direction. Further, when connecting a plurality of green regions, the green rectangular region BR is set based on the green region having the maximum length in the X-axis direction and the Y-axis direction.

例えば、図7に示すように、撮像部150によって第1のマークが撮像されると、撮像画像の赤色部分である赤色領域Rの赤色矩形領域BRを抽出するとともに、撮像画像の緑色部分である緑色領域Gの緑色矩形領域BGを抽出する。   For example, as illustrated in FIG. 7, when the first mark is captured by the imaging unit 150, the red rectangular region BR of the red region R that is the red portion of the captured image is extracted and the green portion of the captured image is displayed. A green rectangular region BG of the green region G is extracted.

また、図8に示すように、撮像部150によって第2のマークが撮像されると、撮像画像の赤色部分である赤色領域Rの赤色矩形領域BRを抽出するとともに、撮像画像の緑色部分である緑色領域Gの緑色矩形領域BGを抽出する。   Also, as shown in FIG. 8, when the second mark is imaged by the imaging unit 150, the red rectangular area BR of the red area R, which is the red part of the captured image, is extracted and the green part of the captured image is displayed. A green rectangular region BG of the green region G is extracted.

4−1.第1、第2の色条件
本実施形態の端末10は、撮像画像の左上の画素から、左から右方向に順に画素をスキャンし、1ラインのスキャンが終わると、次のラインの左から右方向に順に画素をスキャンする。そして最終的に、撮像画像の右下の画素をスキャンして終了する。
4-1. First and second color conditions The terminal 10 of the present embodiment scans pixels from the upper left pixel of the captured image in order from left to right, and when one line scan is completed, the next line is scanned from left to right. Scan pixels sequentially in the direction. Finally, the pixel at the lower right of the captured image is scanned and the process ends.

そして、端末10は、各画素が第1の色条件、または第2の色条件を満たすか否かを判断する。第1の色条件は、画素の色値が第1の色値を含む第1の色値域内であるという条件である。例えば、画素のUV値が赤の色値を含む赤色値域内であるという赤の色条件を第1の色条件とする。つまり、画素の色値が赤色、朱色、ワインレッドなども含む赤色値域である場合には、第1の色条件を満たす画素として検出される。   Then, the terminal 10 determines whether each pixel satisfies the first color condition or the second color condition. The first color condition is a condition that the color value of the pixel is in the first color value range including the first color value. For example, the red color condition that the UV value of the pixel is in the red value range including the red color value is set as the first color condition. That is, when the pixel color value is in the red value range including red, vermilion, wine red, etc., it is detected as a pixel that satisfies the first color condition.

また、第2の色条件は、画素の色値が第2の色値を含む第2の色値域内であるという条件である。例えば、画素のUV値が緑の色値を含む緑色値域内であるという緑の色条件を第2の色条件とする。つまり、画素の色値が、緑色原色、若草色、深緑色なども含む緑色領域である場合には、第2の色条件を満たす画素として検出される。   The second color condition is a condition that the color value of the pixel is within the second color value range including the second color value. For example, the green color condition that the UV value of the pixel is in the green value range including the green color value is set as the second color condition. That is, when the color value of the pixel is a green region including a green primary color, a light green color, a dark green color, and the like, the pixel is detected as a pixel that satisfies the second color condition.

このように、本実施形態では、第2の色値は、第1の色値と補色の関係にある色としているが、必ずしも補色の関係である必要はない。なお、補色の関係にあれば、2つの色を識別し易くなり、マーカーを検出する精度を上げることができる。要するに、第1の条件を満たす場合には第2の色条件を満たさず、第2の色条件を満たす場合には第1の色条件を満たさないという排他的な関係になるように、第1、第2の色条件を定めている。   As described above, in the present embodiment, the second color value is a color that has a complementary color relationship with the first color value. However, the second color value does not necessarily have a complementary color relationship. If there is a complementary color relationship, the two colors can be easily identified, and the accuracy of marker detection can be increased. In short, when the first condition is satisfied, the second color condition is not satisfied, and when the second color condition is satisfied, the first color condition is not satisfied. The second color condition is defined.

4−2.矩形領域の抽出
本実施形態では、撮像画像の全画素について第1、又は第2の色条件を満たすか否かを判断して、赤色矩形領域BR、緑色矩形領域BGを抽出する。
4-2. Extraction of Rectangular Area In the present embodiment, it is determined whether or not the first or second color condition is satisfied for all pixels of the captured image, and the red rectangular area BR and the green rectangular area BG are extracted.

なお、本実施形態では、ルックアップテーブルを参照して、撮像画像の各画素が、第1、第2の色条件を満たすか否かを判断してもよい。ルックアップテーブルを用いれば、効率よく処理を行うことができるからである。例えば、各色値(YUVのフォーマットで定義している場合にはU値、V値)に対応づけて、第1の色条件を満たすか否かを示す数値(0又は1)を設定し、各色値に対応づけて第2の色条件を満たすか否かを示す数値(0又は1)を設定したルックアップテーブルを用意する。   In the present embodiment, it may be determined whether each pixel of the captured image satisfies the first and second color conditions with reference to a lookup table. This is because the use of a lookup table enables efficient processing. For example, a numerical value (0 or 1) indicating whether or not the first color condition is satisfied is set in association with each color value (U value or V value when defined in the YUV format), and each color is set. A lookup table in which a numerical value (0 or 1) indicating whether or not the second color condition is satisfied is set in correspondence with the value is prepared.

なお、YUV値の色値で第1、第2の条件を満たすか否かを判断する場合には、Y値(輝度値)が所定Y値(所定輝度値)以上もしくは、所与の範囲以内の値であるものを取得し、取得された画素のUV値が、第1、第2の条件を満たすか否かを判断してもよい。このようにすれば、輝度が暗い色を排除することになるので、マーカーを検出する精度を上げることができる。   When determining whether or not the first and second conditions are satisfied based on the color value of the YUV value, the Y value (luminance value) is greater than or equal to a predetermined Y value (predetermined luminance value) or within a given range. May be acquired, and it may be determined whether or not the acquired UV value of the pixel satisfies the first and second conditions. In this way, since the dark color is excluded, the accuracy of detecting the marker can be increased.

なお、各色値がRGBで定義されている場合には、RGBの各値に対応づけて、第1の色条件を満たすか否かを示す数値(0又は1)を設定したルックアップテーブル、及び、第2の色条件を満たすか否かを示す数値(0又は1)を設定したルックアップテーブルを用意してもよい。また、各色値がHSVで定義されている場合にも、RGBと同じように各値に対応づけて、ルックアップテーブルを用意してもよい。   When each color value is defined in RGB, a lookup table in which a numerical value (0 or 1) indicating whether or not the first color condition is satisfied is set in association with each RGB value; A lookup table in which a numerical value (0 or 1) indicating whether or not the second color condition is satisfied may be prepared. Also, when each color value is defined by HSV, a lookup table may be prepared in association with each value in the same manner as RGB.

4−2−1.矩形領域抽出処理
次に、本実施形態において、矩形領域を抽出する処理の流れについて、図9(A)〜(D)を用いて説明する。
4-2-1. Rectangular Area Extraction Processing Next, the flow of processing for extracting a rectangular area in the present embodiment will be described with reference to FIGS.

まず、図9(A)は、矩形領域抽出処理の概要を示すフローチャート図である。矩形領域抽出処理は、上から下の方向に1ライン毎に走査を行う。つまり、矩形領域設定制御(ステップS1)を行い、矩形領域削除制御(ステップS2)を行い、矩形領域結合制御(ステップS3)を行う。全てのラインのスキャンが終了したか否かを判断し(ステップS4)、全てのスキャンが終了していない場合は(ステップS4のno)、次のラインに移行し(ステップS5)、ステップS1に戻る。全てのスキャンが終了した場合には(ステップS4のyes)、処理を終了する。   First, FIG. 9A is a flowchart showing an outline of rectangular area extraction processing. In the rectangular area extraction process, scanning is performed line by line from the top to the bottom. That is, rectangular area setting control (step S1) is performed, rectangular area deletion control (step S2) is performed, and rectangular area combination control (step S3) is performed. It is determined whether or not all the lines have been scanned (step S4). If all the lines have not been scanned (step S4: no), the process proceeds to the next line (step S5), and the process proceeds to step S1. Return. If all the scans have been completed (step S4: yes), the process is terminated.

4−2−2.矩形領域設定制御
図9(B)は、矩形領域設定制御(ステップS1)を示すフローチャート図である。矩形領域設定制御は、ライン上の左から右の順に、ライン上の全ての各画素の処理が終了するまで、画素毎にステップ処理を行う。まず、画素の色値は赤色値域内か否かを判断する(ステップS11)。そして、画素の色値は赤色値域内である場合(ステップS11のyes)は、ステップS13に進む。一方、画素の色値は赤色値域内でない場合(ステップS11のno)、画素の色値は緑色値域内であるか否かを判断する(ステップS12)。そして、画素の色値は緑色値域内である場合(ステップS12のyes)は、ステップS13に進み、画素の色値は緑色値域内でない場合(ステップS12のno)、ステップS16に進む。
4-2-2. Rectangular Area Setting Control FIG. 9B is a flowchart showing the rectangular area setting control (step S1). In the rectangular area setting control, step processing is performed for each pixel in the order from left to right on the line until processing of all the pixels on the line is completed. First, it is determined whether or not the pixel color value is within the red value range (step S11). If the color value of the pixel is within the red value range (yes in step S11), the process proceeds to step S13. On the other hand, if the color value of the pixel is not within the red value range (no in step S11), it is determined whether the color value of the pixel is within the green value range (step S12). If the color value of the pixel is in the green value range (yes in step S12), the process proceeds to step S13. If the color value of the pixel is not in the green value range (no in step S12), the process proceeds to step S16.

そして、いずれかの矩形領域と同色かつ隣接しているか否かを判断する(ステップS13)。ここで、ステップS13において、いずれかの矩形領域と隣接しているとは、X軸方向、Y軸方向において画素が矩形領域の一部に接している場合や、X軸方向、Y軸方向において画素が矩形領域と1画素分ずれて位置する場合(微差)も含む。   And it is judged whether it is the same color and adjoining of any rectangular area (step S13). Here, in step S13, being adjacent to one of the rectangular areas means that the pixel is in contact with a part of the rectangular area in the X-axis direction and the Y-axis direction, or in the X-axis direction and the Y-axis direction. This includes the case where the pixel is located one pixel away from the rectangular area (slight difference).

そして、いずれかの矩形領域と同色かつ隣接している場合には(ステップS13のyes)、矩形領域を拡張する(ステップS14)。つまり、Nライン目とN+1ライン目が隣接している場合には、高さ方向(Y軸方向)に1画素分矩形領域を広げる処理を行い、ライン方向(X軸方向)に隣接している場合には、画素と隣接する矩形領域とを外接するように、ライン方向に1画素分矩形領域を広げる処理を行う。   If it is the same color and adjacent to any of the rectangular areas (yes in step S13), the rectangular area is expanded (step S14). That is, when the N-th line and the N + 1-th line are adjacent to each other, a process of expanding the rectangular area by one pixel in the height direction (Y-axis direction) is performed and adjacent to the line direction (X-axis direction). In this case, a process of expanding the rectangular area by one pixel in the line direction is performed so as to circumscribe the rectangular area adjacent to the pixel.

例えば、図10(A)に示すように、Nライン目で生成された緑色領域を含む矩形領域BG1を設定し、図10(B)に示すように、N+1ライン目の各画素がスキャンされBG2が設定されると、結果的に、矩形領域BG1はX軸方向(左方向、右方向に1画素)広げるように調整されるとともに、Y軸方向(高さ方向)に1画素広げるように調整され、図10(C)に示すように矩形領域BG3に拡張される。   For example, as shown in FIG. 10 (A), a rectangular region BG1 including a green region generated in the Nth line is set, and as shown in FIG. 10 (B), each pixel in the (N + 1) th line is scanned and BG2 As a result, the rectangular region BG1 is adjusted so as to be expanded in the X-axis direction (one pixel in the left direction and the right direction) and adjusted to be expanded in one pixel in the Y-axis direction (height direction). Then, as shown in FIG. 10C, it is expanded to the rectangular area BG3.

一方、いずれかの矩形領域と同色かつ隣接していない場合には(ステップS13のno)、新しい矩形領域を設定する(ステップS15)。つまり、スキャン中の画素に外接する新たな矩形領域を設定する。   On the other hand, if it is the same color and not adjacent to any rectangular area (no in step S13), a new rectangular area is set (step S15). That is, a new rectangular area circumscribing the pixel being scanned is set.

そして、ライン上の全ての画素のスキャンが終了したか否かを判断し(ステップS16)、ライン上の全ての画素のスキャンが終了していない場合(ステップS16のno)、次の画素を処理対象として(ステップS17)、ステップS11に戻る。一方、画素ライン上の全ての画素のスキャンが終了した場合には(ステップS16のyes)、処理を終了する。   Then, it is determined whether or not scanning of all pixels on the line has been completed (step S16). If scanning of all pixels on the line has not been completed (no in step S16), the next pixel is processed. As an object (step S17), the process returns to step S11. On the other hand, when the scanning of all the pixels on the pixel line is completed (Yes in step S16), the process is terminated.

4−2−3.矩形領域削除制御
図9(C)は、矩形領域削除制御の処理(ステップS2)の流れを示すフローチャート図である。矩形領域削除制御は、所定の大きさ(例えば、1画素、2画素分)の矩形領域はゴミとして扱うことにより、ノイズを削減してより精度よくマーカーを検出させるために行う。
4-2-3. Rectangular Area Deletion Control FIG. 9C is a flowchart showing a flow of rectangular area deletion control processing (step S2). The rectangular area deletion control is performed in order to reduce the noise and detect the marker more accurately by treating the rectangular area of a predetermined size (for example, one pixel and two pixels) as dust.

まず、矩形領域と隣接もしくは一部が重なる可能性のある矩形領域が存在するか否かを判断する(ステップS21)。そして、矩形領域と隣接もしくは一部が重なる可能性のある矩形領域が存在しない場合(ステップS21のno)は、矩形領域が所定の大きさよりも小さいか否かを判断する(ステップS22)。矩形領域が所定の大きさよりも小さい場合(ステップS22のyes)、当該矩形領域をゴミとして削除する処理を行う(ステップS23)。一方、矩形領域と隣接もしくは一部が重なる可能性のある矩形領域が存在する場合(ステップS21のyes)、矩形領域が所定の大きさよりも小さくない場合(ステップS22のno)は、ステップS24に進む。   First, it is determined whether there is a rectangular area that may be adjacent to or partially overlap the rectangular area (step S21). If there is no rectangular area that may be adjacent to or partially overlap the rectangular area (No in step S21), it is determined whether the rectangular area is smaller than a predetermined size (step S22). If the rectangular area is smaller than the predetermined size (yes in step S22), a process of deleting the rectangular area as dust is performed (step S23). On the other hand, if there is a rectangular area that may be adjacent to or partially overlap the rectangular area (Yes in step S21), if the rectangular area is not smaller than the predetermined size (no in step S22), the process proceeds to step S24. move on.

そして、全ての矩形領域について処理が終了したか否かを判断し(ステップS24)、全ての矩形領域について処理が終了していない場合には(ステップS24のno)、次の矩形領域を処理対象とし(ステップS25)、ステップS21に戻る。一方、全ての矩形領域について処理が終了した場合には(ステップS24のyes)、処理を終了する。   Then, it is determined whether or not processing has been completed for all rectangular areas (step S24). If processing has not been completed for all rectangular areas (no in step S24), the next rectangular area is processed. (Step S25), and the process returns to Step S21. On the other hand, when the process is completed for all the rectangular areas (yes in step S24), the process is terminated.

4−2−4.矩形領域結合制御
図9(D)は、矩形領域結合制御(ステップS3)の処理の流れを示すフローチャート図である。矩形領域結合制御は、ライン上に設定された矩形領域において、ライン間で隣接する矩形領域を結合する処理を行うものである。
4-2-4. Rectangular Area Combining Control FIG. 9D is a flowchart showing the processing flow of rectangular area combining control (step S3). The rectangular area combination control is a process for combining adjacent rectangular areas between lines in a rectangular area set on a line.

まず、第Nの矩形領域が、同色の第Mの矩形領域と隣接又は重なりの関係にあるか否かを判断する(ステップS31)。   First, it is determined whether or not the Nth rectangular area is adjacent to or overlaps with the Mth rectangular area of the same color (step S31).

そして、第Nの矩形領域が、同色の第Mの矩形領域と隣接又は重なりの関係にある場合(ステップS31のyes)、第Nの矩形領域が、第Mの矩形領域と結合する(ステップS32)。つまり、2つの矩形領域を1つの矩形領域とする。   If the Nth rectangular area is adjacent to or overlaps with the Mth rectangular area of the same color (Yes in step S31), the Nth rectangular area is combined with the Mth rectangular area (step S32). ). That is, two rectangular areas are defined as one rectangular area.

一方、第Nの矩形領域が、同色の第Mの矩形領域と隣接又は重なりの関係ではない場合には(ステップS31のno)、ライン上の全ての矩形領域について処理が終了したか否かを判断し(ステップS33)、処理が終了していない場合には(ステップS33のno)、次の矩形領域(ステップS34)を処理対象としてステップS31に戻る。   On the other hand, if the Nth rectangular area is not adjacent or overlapped with the Mth rectangular area of the same color (no in step S31), whether or not the processing has been completed for all rectangular areas on the line. If it is determined (step S33) and the process is not completed (no in step S33), the process returns to step S31 with the next rectangular area (step S34) as the processing target.

例えば、図10(A)に示すように、ラインNにおいて矩形領域BG1が設定され、図10(B)に示すようにラインN+1において矩形領域BG2が設定されると、ラインNの矩形領域BG1とラインN+1の矩形領域BG2は隣接又は重なりの関係にあるので、図10(C)に示すように、矩形領域BG1と矩形領域BG2を結合し新たに矩形領域BG3が設定される。   For example, as shown in FIG. 10A, when the rectangular area BG1 is set in the line N and the rectangular area BG2 is set in the line N + 1 as shown in FIG. 10B, the rectangular area BG1 of the line N Since the rectangular area BG2 of the line N + 1 is adjacent or overlapped, as shown in FIG. 10C, the rectangular area BG1 and the rectangular area BG2 are combined to newly set the rectangular area BG3.

そして、図10(D)に示すように、ラインN+2において、矩形領域BG4が設定されると、図10(E)に示すように、矩形領域BG3と矩形領域BG4とを結合した新たな矩形領域BG5が設定される。   Then, as shown in FIG. 10D, when the rectangular area BG4 is set in the line N + 2, as shown in FIG. 10E, a new rectangular area obtained by combining the rectangular area BG3 and the rectangular area BG4. BG5 is set.

なお、隣接している関係とは、例えば、図20(A)の矩形領域a、矩形領域bに示すように2つの矩形領域の画素の少なくとも一部が隣接している場合のことをいう。かかる場合には、矩形領域a、矩形領域bを結合して、図20(B)に示すように新たな矩形領域BG6が設定される。また、重なりの関係とは、図20(B)の、矩形領域BG6と矩形領域cに示すように、2つの矩形領域の少なくとも一部の面(領域)が重なっている場合のことをいう。かかる場合には、矩形領域BG6と矩形領域cとが結合され、図20(C)に示すように、新たな矩形領域BG7が設定される。   Note that the adjacent relationship means, for example, a case where at least a part of pixels in two rectangular areas are adjacent as shown in the rectangular area a and the rectangular area b in FIG. In such a case, the rectangular area a and the rectangular area b are combined to set a new rectangular area BG6 as shown in FIG. Further, the overlapping relationship means a case where at least a part of surfaces (regions) of two rectangular regions overlap as shown in the rectangular region BG6 and the rectangular region c in FIG. In such a case, the rectangular area BG6 and the rectangular area c are combined, and a new rectangular area BG7 is set as shown in FIG.

5.マーカー検出処理の詳細な説明
5−1.内包関係に基づくマーカー判定
本実施形態の端末10は、端末10は、赤色矩形領域BR、緑色矩形領域BGのうちいずれか一方が他方を内包する関係にある場合に、マーカーがあると判定する処理を行う。
5. 5. Detailed description of marker detection process 5-1. Marker determination based on inclusion relationship The terminal 10 according to the present embodiment is a process in which the terminal 10 determines that there is a marker when any one of the red rectangular region BR and the green rectangular region BG has a relationship including the other. I do.

例えば、端末10は、緑色矩形領域BGが赤色矩形領域BRを内包するか否かを判断し、緑色矩形領域BGが赤色矩形領域BRを内包する場合に、第1のマーカーM1があると判定する。   For example, the terminal 10 determines whether or not the green rectangular area BG includes the red rectangular area BR, and determines that the first marker M1 is present when the green rectangular area BG includes the red rectangular area BR. .

具体的に説明すると、図11(A)に示すように、緑色矩形領域BG1の各頂点P1〜P4の座標値(X,Y)と、図11(B)に示すように、赤色矩形領域BR1の各頂点Q1〜Q4の座標値(X,Y)とを比較することによって、緑色矩形領域BG1が赤色矩形領域BR1を内包するか否かを判断する。   Specifically, as shown in FIG. 11A, the coordinate values (X, Y) of the vertices P1 to P4 of the green rectangular area BG1, and the red rectangular area BR1 as shown in FIG. Are compared with the coordinate values (X, Y) of the respective vertices Q1 to Q4 to determine whether or not the green rectangular region BG1 includes the red rectangular region BR1.

例えば、赤色矩形領域BR1の各頂点Q1〜Q4が、緑色矩形領域BG1の各頂点P1〜P4内に位置するか否かを判断する。つまり、図11(C)に示すように、赤色矩形領域BR1の各頂点Q1〜Q4が、緑色矩形領域BG1の各頂点P1〜P4内に位置する場合には、緑色矩形領域BG1が、赤色矩形領域BR1を内包するので、第1のマーカーM1があると判定する。   For example, it is determined whether or not the vertices Q1 to Q4 of the red rectangular area BR1 are located within the vertices P1 to P4 of the green rectangular area BG1. That is, as shown in FIG. 11C, when the vertices Q1 to Q4 of the red rectangular area BR1 are located within the vertices P1 to P4 of the green rectangular area BG1, the green rectangular area BG1 is a red rectangle. Since the region BR1 is included, it is determined that there is the first marker M1.

一方、赤色矩形領域BR1の各頂点Q1〜Q4のうち1以上の頂点が、緑色矩形領域BG1の各頂点P1〜P4の外に位置する場合には、緑色矩形領域BG1が、赤色矩形領域BR1を内包しないと判断する。   On the other hand, when one or more of the vertices Q1 to Q4 of the red rectangular area BR1 are located outside the vertices P1 to P4 of the green rectangular area BG1, the green rectangular area BG1 replaces the red rectangular area BR1. Judge that it is not included.

また、端末10は、赤色矩形領域BRが緑色矩形領域BGを内包するか否かを判断し、赤色矩形領域BRが緑色矩形領域BGを内包する場合に、第2のマーカーM2があると判定する。   Further, the terminal 10 determines whether or not the red rectangular area BR includes the green rectangular area BG, and determines that the second marker M2 is present when the red rectangular area BR includes the green rectangular area BG. .

具体的に説明すると、図12(A)に示すように、緑色矩形領域BG2の各頂点P5〜P8の座標値(X,Y)と、図12(B)に示すように、赤色矩形領域BR2の各頂点Q5〜Q8の座標値(X,Y)とを比較することによって、赤色矩形領域BR2が緑色矩形領域BG2を内包するか否かを判断する。   More specifically, as shown in FIG. 12A, the coordinate values (X, Y) of the vertices P5 to P8 of the green rectangular area BG2, and the red rectangular area BR2 as shown in FIG. Are compared with the coordinate values (X, Y) of the respective vertices Q5 to Q8, it is determined whether or not the red rectangular area BR2 includes the green rectangular area BG2.

例えば、緑色矩形領域BG2の各頂点P5〜P8が、赤色矩形領域BG2の各頂点Q5〜Q8内に位置するか否かを判断する。つまり、図12(C)に示すように、緑色矩形領域BG2の各頂点P5〜P8が、赤色矩形領域BR2の各頂点Q5〜Q8内に位置する場合には、赤色矩形領域BR2が緑色矩形領域BG2を内包するので、第2のマーカーM2があると判定する。   For example, it is determined whether or not the vertices P5 to P8 of the green rectangular area BG2 are located within the vertices Q5 to Q8 of the red rectangular area BG2. That is, as shown in FIG. 12C, when the vertices P5 to P8 of the green rectangular area BG2 are located within the vertices Q5 to Q8 of the red rectangular area BR2, the red rectangular area BR2 is the green rectangular area. Since BG2 is included, it is determined that the second marker M2 is present.

5−2.中心位置に基づくマーカー判定
また、本実施形態の端末10は、より精度を上げてマーカーを検出するために、赤色矩形領域BRの中心位置と緑色矩形領域BGの中心位置との距離が所定距離以内(所定画素数以内)であるか否かを判断し、赤色矩形領域BRの中心位置と緑色矩形領域BGの中心位置との距離が所定距離以内である場合に、マーカーがあると判定する処理を行う。
5-2. Marker determination based on center position In addition, in the terminal 10 of the present embodiment, the distance between the center position of the red rectangular area BR and the center position of the green rectangular area BG is within a predetermined distance in order to detect the marker with higher accuracy. A process of determining whether or not there is a marker when the distance between the center position of the red rectangular area BR and the center position of the green rectangular area BG is within a predetermined distance. Do.

例えば、図11(A)に示すように、緑色矩形領域BG1の各頂点P1〜P4に基づいて、緑色矩形領域BG1の中心位置K1を求める。そして、図11(B)に示すように、赤色矩形領域BR1の各頂点Q1〜Q4に基づいて、赤色矩形領域BR1の中心位置L1を求める。そして、図11(C)に示すように、緑色矩形領域BG1の中心位置K1と赤色矩形領域BR1の中心位置L1との距離が所定距離以内(所定画素数以内)である場合に、マーカーM1があると判定する。言い換えると、赤色矩形領域BR1の中心位置L1と、緑色矩形領域BG1の中心位置K1との距離が所定距離以上である場合には、第1のマークであると判定しない。   For example, as shown in FIG. 11A, the center position K1 of the green rectangular region BG1 is obtained based on the vertices P1 to P4 of the green rectangular region BG1. Then, as shown in FIG. 11B, the center position L1 of the red rectangular area BR1 is obtained based on the vertices Q1 to Q4 of the red rectangular area BR1. Then, as shown in FIG. 11C, when the distance between the center position K1 of the green rectangular area BG1 and the center position L1 of the red rectangular area BR1 is within a predetermined distance (within a predetermined number of pixels), the marker M1 is Judge that there is. In other words, when the distance between the center position L1 of the red rectangular area BR1 and the center position K1 of the green rectangular area BG1 is a predetermined distance or more, the first mark is not determined.

また、図12(A)に示すように、緑色矩形領域BG2の各頂点P5〜P8に基づいて、緑色矩形領域BG2の中心位置K2を求める。そして、図12(B)に示すように、赤色矩形領域BR2の各頂点Q5〜Q8に基づいて、赤色矩形領域BR2の中心位置L2を求める。そして、図12(C)に示すように、緑色矩形領域BG2の中心位置K2と、赤色矩形領域BR2の中心位置L2との距離が所定距離以内(所定画素数以内)である場合に、マーカーM2があると判定する。言い換えると、緑色矩形領域BG2の中心位置K2と、赤色矩形領域BR2の中心位置L2との距離が所定距離以上である場合には、第2のマークであると判定しない。   Further, as shown in FIG. 12A, the center position K2 of the green rectangular region BG2 is obtained based on the vertices P5 to P8 of the green rectangular region BG2. Then, as shown in FIG. 12B, the center position L2 of the red rectangular area BR2 is obtained based on the vertices Q5 to Q8 of the red rectangular area BR2. Then, as shown in FIG. 12C, when the distance between the center position K2 of the green rectangular area BG2 and the center position L2 of the red rectangular area BR2 is within a predetermined distance (within a predetermined number of pixels), the marker M2 Judge that there is. In other words, when the distance between the center position K2 of the green rectangular area BG2 and the center position L2 of the red rectangular area BR2 is equal to or greater than a predetermined distance, the second mark is not determined.

5−3.本実施形態のマーカー判定の効果
このように、端末10は、赤色矩形領域BR、緑色矩形領域BGとが一方が他方を内包する位置関係であること、及び、赤色矩形領域BR、緑色矩形領域BGの各中心位置が所定距離以内(所定画素数以内)あることを条件にマーカーがあるか否かを判定することによって、より精度を上げてマーカーを検出することができる。
5-3. Effect of Marker Determination of Present Embodiment As described above, the terminal 10 has a positional relationship in which one of the red rectangular area BR and the green rectangular area BG includes the other, and the red rectangular area BR and the green rectangular area BG. By determining whether or not there is a marker on the condition that each center position is within a predetermined distance (within a predetermined number of pixels), the marker can be detected with higher accuracy.

図13は、現実世界において、机上にマーカー表示体20と、赤色鉛筆、消しゴム(緑色の包装紙で一部が包装されている消しゴム)の例を示す。例えば、端末10の撮像部150が位置C1においてV1方向に撮像した場合、位置C2においてV2方向に撮像した場合、位置C3においてV3方向に撮像した場合のいずれの場合においても、マーカーM1、M2を検出することができる。   FIG. 13 shows an example of a marker display body 20, a red pencil, and an eraser (an eraser partially wrapped with green wrapping paper) on the desk in the real world. For example, when the imaging unit 150 of the terminal 10 captures the image in the V1 direction at the position C1, the image capture in the V2 direction at the position C2, and the image capture in the V3 direction at the position C3, the markers M1 and M2 are displayed. Can be detected.

例えば、図14(A)は、端末10の撮像部150が位置C1においてV1方向に撮像した場合の撮像画像G1上に、赤色矩形領域BR、緑色矩形領域GRとを示した概念図である。図14(A)では、赤色矩形領域BR、緑色矩形領域BGとが一方が他方を内包していること、及び、及び、赤色矩形領域BR、緑色矩形領域BGの各中心位置が所定距離以内(所定画素数以内)あることを条件にマーカーM1、M2を判定しているので、正確にマーカー表示体のマーカーM1、M2を検出することができる。つまり、赤色鉛筆の赤色矩形領域BRや、消しゴムの包装紙の緑色から抽出される緑色矩形領域BGは、マーカーとして検出しないようにすることができる。   For example, FIG. 14A is a conceptual diagram illustrating a red rectangular area BR and a green rectangular area GR on the captured image G1 when the imaging unit 150 of the terminal 10 captures an image in the V1 direction at the position C1. In FIG. 14A, one of the red rectangular area BR and the green rectangular area BG includes the other, and the center positions of the red rectangular area BR and the green rectangular area BG are within a predetermined distance ( Since the markers M1 and M2 are determined on the condition that they are within a predetermined number of pixels, the markers M1 and M2 of the marker display body can be accurately detected. That is, the red rectangular area BR of the red pencil and the green rectangular area BG extracted from the green of the eraser wrapping paper can be prevented from being detected as markers.

また、図14(B)は、端末10の撮像部150が位置C2においてV2方向に撮像した場合の撮像画像G2上に、赤色矩形領域BR、緑色矩形領域GRとを示した概念図である。かかる場合も、正確にマーカー表示体のマーカーM1、M2を検出することができる。   FIG. 14B is a conceptual diagram showing a red rectangular area BR and a green rectangular area GR on the captured image G2 when the imaging unit 150 of the terminal 10 captures an image in the V2 direction at the position C2. Also in this case, the markers M1 and M2 of the marker display body can be accurately detected.

また、図14(C)は、端末10の撮像部150が位置C3においてV3方向に撮像した場合の撮像画像G3上に、赤色矩形領域BR、緑色矩形領域GRとを示した概念図である。かかる場合も、正確にマーカー表示体のマーカーM1、M2を検出することができる。また、撮像部150の撮像方向が、マーカー表示体20を斜めに見下ろす方向で撮像した結果、撮像画像G3においてマーカーM1、M2が潰れたように見える場合であっても、赤色矩形領域BR、緑色矩形領域BGを抽出することができる。   FIG. 14C is a conceptual diagram showing a red rectangular area BR and a green rectangular area GR on the captured image G3 when the imaging unit 150 of the terminal 10 captures an image in the V3 direction at the position C3. Also in this case, the markers M1 and M2 of the marker display body can be accurately detected. Further, even when the imaging direction of the imaging unit 150 is such that the markers M1 and M2 appear to be crushed in the captured image G3 as a result of imaging in a direction in which the marker display body 20 is looked down obliquely, the red rectangular area BR, green The rectangular area BG can be extracted.

また、図3(A)(B)に示すように、マーカー表示体20のマーカーM1、M2は、同一の中心点をもち、径の長さが異なる2つの円によって構成され、内径の円を赤又は緑、外径の円のうち内径の円を除いた部分を緑又は赤で配色しているので、図14(A)、(B)、(C)のように、撮像する方向を変えてもマーカーM1、M2を検出することができる。   Further, as shown in FIGS. 3A and 3B, the markers M1 and M2 of the marker display body 20 are composed of two circles having the same center point and different diameter lengths. Since red or green and the outer diameter circle except for the inner diameter circle are colored in green or red, the imaging direction is changed as shown in FIGS. 14 (A), (B), and (C). However, the markers M1 and M2 can be detected.

5−4.マーカー判定の他の例
5−4−1.矩形領域の縦・横の比率に基づくマーカー判定
なお、端末10は、赤色矩形領域BR、緑色矩形領域BGとの縦・横(X軸方向の長さ、Y軸方向の長さ)の長さの比率(割合)に基づいて、マーカーがあるか否かを判定してもよい。
5-4. Other examples of marker determination 5-4-1. Marker determination based on vertical / horizontal ratio of rectangular area Note that the terminal 10 has a vertical / horizontal (length in the X-axis direction, length in the Y-axis direction) length between the red rectangular area BR and the green rectangular area BG. Whether or not there is a marker may be determined based on the ratio (ratio).

例えば、緑色矩形領域BGの縦の長さと赤色矩形領域BRの縦の長さとの比率、及び、緑色矩形領域BGの横の長さと赤色矩形領域BRの横の長さとの比率の少なくとも一方が、第1の所定比率の範囲内(例えば、1.75:1〜2.25:1)である場合には、第1のマーカーM1があると判定する。   For example, at least one of the ratio between the vertical length of the green rectangular area BG and the vertical length of the red rectangular area BR and the ratio between the horizontal length of the green rectangular area BG and the horizontal length of the red rectangular area BR are: When it is within the range of the first predetermined ratio (for example, 1.75: 1 to 2.25: 1), it is determined that there is the first marker M1.

図11(C)の例では、P4−P3の長さ(緑色矩形領域BG1の縦の長さ)と、Q4−Q3の長さ(赤色矩形領域BR1の縦の長さ)との比率が2対1であるので、第1のマーカーM1があると判定する。同様に、P4−P1の長さ(緑色矩形領域BG1の横の長さ)と、Q4−Q1の長さ(赤色矩形領域BR1の横の長さ)との比率も2対1であるので、第1のマーカーM1があると判定することができる。   In the example of FIG. 11C, the ratio between the length of P4-P3 (the vertical length of the green rectangular region BG1) and the length of Q4-Q3 (the vertical length of the red rectangular region BR1) is 2. Since it is 1 to 1, it is determined that there is the first marker M1. Similarly, since the ratio between the length of P4-P1 (the horizontal length of the green rectangular region BG1) and the length of Q4-Q1 (the horizontal length of the red rectangular region BR1) is also 2: 1. It can be determined that there is the first marker M1.

また、緑色矩形領域BGの縦の長さと赤色矩形領域BRの縦の長さとの比率、及び、緑色矩形領域BGの横の長さと赤色矩形領域BRの横の長さとの比率の少なくとも一方が、第2の所定比率の範囲内(例えば、1:1.75〜1:2.25)である場合には、第2のマーカーM2があると判定する。   Further, at least one of the ratio between the vertical length of the green rectangular area BG and the vertical length of the red rectangular area BR and the ratio between the horizontal length of the green rectangular area BG and the horizontal length of the red rectangular area BR are: When it is within the range of the second predetermined ratio (for example, 1: 1.75 to 1: 2.25), it is determined that there is the second marker M2.

図12(C)の例では、P8−P7の長さ(緑色矩形領域BG2の縦の長さ)と、Q8−Q7の長さ(赤色矩形領域BR2の縦の長さ)との比率が1対2であるので、第2のマーカーM2があると判定する。同様に、P8−P5の長さ(緑色矩形領域BG2の横の長さ)と、Q8−Q5の長さ(赤色矩形領域BR2の横の長さ)との比率が1対2であるので、第2のマーカーM2があると判定する。   In the example of FIG. 12C, the ratio between the length of P8-P7 (vertical length of the green rectangular region BG2) and the length of Q8-Q7 (vertical length of the red rectangular region BR2) is 1. Since it is a pair 2, it is determined that there is a second marker M2. Similarly, since the ratio between the length of P8-P5 (the horizontal length of the green rectangular region BG2) and the length of Q8-Q5 (the horizontal length of the red rectangular region BR2) is 1: 2. It is determined that there is the second marker M2.

5−4−2.矩形領域の各頂点の距離比に基づくマーカー判定
また、端末10は、赤色矩形領域BR、緑色矩形領域BGとの各頂点のX軸方向の距離比、Y軸方向の距離比に基づいて、マーカーがあるか否かを判定してもよい。
5-4-2. Marker determination based on distance ratio of each vertex of rectangular area In addition, the terminal 10 determines whether the marker is based on the distance ratio in the X-axis direction and the distance ratio in the Y-axis direction of each vertex with the red rectangular area BR and the green rectangular area BG. It may be determined whether or not there is.

例えば、端末10は、緑色矩形領域BGが赤色矩形領域BRを内包する位置関係である場合には、赤色矩形領域BR、緑色矩形領域BGとの各頂点間のX軸方向及びY軸方向の距離を求め、X軸方向の距離比、及び、Y軸方向の距離比の少なくとも一方が所定距離比率の範囲内(例えば、1:1.75:1〜1:2.25:1)である場合に、第1のマーカーM1があると判定する。   For example, if the terminal 10 has a positional relationship in which the green rectangular area BG includes the red rectangular area BR, the distance between the vertices of the red rectangular area BR and the green rectangular area BG in the X axis direction and the Y axis direction And at least one of the distance ratio in the X-axis direction and the distance ratio in the Y-axis direction is within a predetermined distance ratio range (for example, 1: 1.75: 1 to 1: 2.25: 1). It is determined that there is a first marker M1.

図11(C)の例では、X軸のP3−Q3間の長さA1、X軸のQ3−Q2間の長さA2、X軸のQ2−P2間の長さA3との比率が所定距離比率の範囲内(例えば、1:1.75:1〜1:2.25:1)であるので、第1のマーカーM1があると判定する。また、Y軸のP4−Q4間の長さB1、Y軸のQ4−Q3の長さB2、Y軸のQ3−P3の長さB3の比率が所定距離比率の範囲内であるので、第1のマーカーM1がある判定する。   In the example of FIG. 11C, the ratio of the length A1 between the P3-Q3 on the X axis, the length A2 between the Q3-Q2 on the X axis, and the length A3 between the Q2-P2 on the X axis is a predetermined distance. Since it is within the range of the ratio (for example, 1: 1.75: 1 to 1: 2.25: 1), it is determined that there is the first marker M1. Further, since the ratio of the length B1 between the P4 and Q4 of the Y axis, the length B2 of the Q4 and Q3 of the Y axis, and the length B3 of the Q3 and P3 of the Y axis is within the predetermined distance ratio, the first It is determined that there is a marker M1.

また、端末10は、赤色矩形領域BRが緑色矩形領域BGを内包する位置関係である場合には、赤色矩形領域BR、緑色矩形領域BGとの各頂点間のX軸方向及びY軸方向の距離を求め、X軸方向の距離比、及び、Y軸方向の距離比の少なくとも一方が所定距離比率の範囲内(例えば、1:1.75:1〜1:2.25:1)である場合に、第2のマーカーM2があると判定する。   In addition, when the terminal 10 has a positional relationship in which the red rectangular area BR includes the green rectangular area BG, the distance between the vertices of the red rectangular area BR and the green rectangular area BG in the X-axis direction and the Y-axis direction. And at least one of the distance ratio in the X-axis direction and the distance ratio in the Y-axis direction is within a predetermined distance ratio range (for example, 1: 1.75: 1 to 1: 2.25: 1). It is determined that there is a second marker M2.

図12(C)の例では、X軸のQ7−P7間の長さa1、X軸のP7−P6間の長さa2、X軸のP6−Q6間の長さa3との比率が所定距離比率の範囲内であるので、第2のマーカーM2があると判定する。また、Y軸のQ8−P8間の長さb1、Y軸のP8−P7の長さb2、Y軸のP7−Q7の長さb3の比率が所定距離比率の範囲内であるので、第2のマーカーM2があると判定する。   In the example of FIG. 12C, the ratio of the length a1 between Q7 and P7 on the X axis, the length a2 between P7 and P6 on the X axis, and the length a3 between P6 and Q6 on the X axis is a predetermined distance. Since it is within the range of the ratio, it is determined that there is the second marker M2. Further, since the ratio of the length b1 between Q8 and P8 of the Y axis, the length b2 of P8 and P7 of the Y axis, and the length b3 of P7 and Q7 of the Y axis is within the predetermined distance ratio, the second It is determined that there is a marker M2.

5−4−3.矩形領域の面積比に基づくマーカー判定
また、端末10は、赤色矩形領域BR、緑色矩形領域BGとの面積の比率(面積比、面積の割合)、又は所定の面積比率の範囲に基づいて、マーカーがあるか否かを判定してもよい。
5-4-3. Marker determination based on area ratio of rectangular area Further, the terminal 10 determines whether the marker is based on the ratio of the area to the red rectangular area BR and the green rectangular area BG (area ratio, area ratio), or a predetermined area ratio range. It may be determined whether or not there is.

例えば、緑色矩形領域BGの面積と赤色矩形領域BRの面積との比率が第1の所定面積比(例えば、4対1)、又は第1の所定面積比率の範囲内(例えば、4:1〜5:1)である場合には第1のマーカーM1があると判定し、一方、緑色矩形領域BGの面積と赤色矩形領域BRの面積との比率が第1の所定面積比、又は第1の所定面積比率の範囲内でない場合には、第1のマーカーM1がないと判定する。   For example, the ratio between the area of the green rectangular region BG and the area of the red rectangular region BR is within a first predetermined area ratio (for example, 4 to 1) or a range of the first predetermined area ratio (for example, 4: 1 to 1). 5: 1), it is determined that the first marker M1 is present. On the other hand, the ratio between the area of the green rectangular region BG and the area of the red rectangular region BR is the first predetermined area ratio or the first If it is not within the range of the predetermined area ratio, it is determined that there is no first marker M1.

また、緑色矩形領域BGの面積と赤色矩形領域BRの面積との比率が第2の所定面積比(例えば、1対4)、又は第2の所定面積比率の範囲内(例えば、1:4〜1:5)である場合には第2のマーカーM2があると判定し、一方、緑色矩形領域BGの面積と赤色矩形領域BRの面積との比率が第2の所定面積比、又は第2の所定面積比率の範囲内でない場合には、第2のマーカーM2がないと判定する。   Further, the ratio of the area of the green rectangular region BG and the area of the red rectangular region BR is within a second predetermined area ratio (for example, 1 to 4) or a second predetermined area ratio (for example, 1: 4 to 1: 5), it is determined that there is the second marker M2, while the ratio of the area of the green rectangular region BG to the area of the red rectangular region BR is the second predetermined area ratio or the second When it is not within the range of the predetermined area ratio, it is determined that there is no second marker M2.

5−4−4.マーカー判定についての組み合わせの応用例
つまり、端末10は、緑色矩形領域BGが赤色矩形領域BRを内包する位置関係である場合には、(ア)緑色矩形領域の中心位置と赤色矩形領域の中心位置との距離が所定距離以内(所定画素数以内)であること、(イ)緑色矩形領域BGの縦・横の長さと赤色矩形領域BRの縦・横の長さとの比率が第1の所定比率の範囲内であること(ウ)緑色矩形領域、赤色矩形領域のX軸、Y軸の各頂点間の距離比が所定距離比率の範囲内であること(エ)緑色矩形領域BGの面積と赤色矩形領域BRの面積との比率が第1の所定面積比又は第1の所定面積比率の範囲内であることの、少なくとも1つの条件を満たす場合に、第1のマーカーM1があると判定する。なお、(ア)〜(エ)の条件を全て満足すれば、より精度よく第1のマーカーM1を検出することができる。
5-4-4. Application Example of Combination for Marker Determination That is, if the terminal 10 has a positional relationship in which the green rectangular area BG includes the red rectangular area BR, (a) the center position of the green rectangular area and the center position of the red rectangular area (B) The ratio of the vertical and horizontal lengths of the green rectangular area BG to the vertical and horizontal lengths of the red rectangular area BR is the first predetermined ratio. (C) The distance ratio between the vertices of the X and Y axes of the green rectangular area and the red rectangular area is within a predetermined distance ratio range. (D) The area of the green rectangular area BG and the red color. When at least one condition is satisfied that the ratio of the rectangular area BR to the area of the rectangular area BR is within the range of the first predetermined area ratio or the first predetermined area ratio, it is determined that the first marker M1 is present. If all the conditions (a) to (d) are satisfied, the first marker M1 can be detected with higher accuracy.

また、端末10は、赤色矩形領域BRが緑色矩形領域BGを内包する位置関係である場合には、(カ)緑色矩形領域の中心位置と、赤色矩形領域の中心位置との距離が所定距離以内(所定画素数以内)であること(キ)緑色矩形領域BGの縦・横の長さと赤色矩形領域BRの縦・横の長さとの比率が第2の所定比率の範囲内であること(ク)緑色矩形領域、赤色矩形領域のX軸、Y軸の各頂点間の距離比が所定距離比率の範囲内であること(ケ)緑色矩形領域BGの面積と赤色矩形領域BRの面積との比率が第2の所定面積比又は第2の所定面積比率の範囲内であることの、少なくとも1つの条件を満たす場合に、第2のマーカーM2があると判定する。なお、(カ)〜(ケ)の条件を全て満足すれば、より精度よく第1のマーカーM2を検出することができる。   Further, when the terminal 10 has a positional relationship in which the red rectangular area BR includes the green rectangular area BG, (f) the distance between the center position of the green rectangular area and the center position of the red rectangular area is within a predetermined distance. (G) The ratio of the vertical / horizontal length of the green rectangular area BG to the vertical / horizontal length of the red rectangular area BR is within the range of the second predetermined ratio. ) The distance ratio between the vertices of the X and Y axes of the green rectangular area and the red rectangular area is within a predetermined distance ratio. (G) Ratio of the area of the green rectangular area BG to the area of the red rectangular area BR Is within the range of the second predetermined area ratio or the second predetermined area ratio, it is determined that there is the second marker M2 when at least one condition is satisfied. In addition, if all the conditions (f) to (g) are satisfied, the first marker M2 can be detected with higher accuracy.

6.コード認識処理の詳細な説明
本実施形態では、少なくとも一つのマーカーが検出された場合に、コード情報を認識する処理(コード情報を取得する処理)を行う。特に、本実施形態の端末10は、予め定められた所定数の第1のマーカーM1と、所定数の第2のマーカーM2があると判定された場合に、コード情報を認識する処理を行う。例えば、端末10は、1つの第1のマーカーM1と、3つの第2のマーカーM2があると判定された場合に、コード情報を認識する処理を行う。言い換えると、第1のマーカーM1が検出されない場合、第1のマーカーM1が複数存在する場合、検出された第2のマーカーの数が2つ以下或いは4つ以上である場合には、コード情報を認識する処理を行わない。
6). Detailed Description of Code Recognition Processing In the present embodiment, processing for recognizing code information (processing for acquiring code information) is performed when at least one marker is detected. In particular, the terminal 10 of the present embodiment performs a process of recognizing code information when it is determined that there are a predetermined number of first markers M1 and a predetermined number of second markers M2. For example, when it is determined that there is one first marker M1 and three second markers M2, the terminal 10 performs processing for recognizing code information. In other words, if the first marker M1 is not detected, if there are a plurality of first markers M1, or if the number of detected second markers is two or less, or four or more, the code information is Do not perform recognition processing.

まず、図15(A)に示すように、1つの第1のマーカーM1、及び3つの第2のマーカーM2が検出されると、第1のマーカーM1のマーカーの位置PM1と、第2のマーカーM2の位置PM2−1、PM2−2、PM2−3それぞれに識別番号を付与する。   First, as shown in FIG. 15A, when one first marker M1 and three second markers M2 are detected, the marker position PM1 of the first marker M1 and the second marker Identification numbers are assigned to the positions PM2-1, PM2-2, and PM2-3 of M2.

例えば、図15(B)に示すように、第1のマーカーM1の位置PM1は1つしかないので、一意に定めることができる。したがって、まず、第1のマーカーM1の位置PM1に識別番号「0」を付与する。そして、3つの第2のマーカーの位置PM2−1、PM2−2、PM2−3に、位置PM1を基点に左回り(反時計回り)の順で「1」、「2」、「3」を付与する。例えば、位置PM1と、位置PM2−1、PM2−2、PM2−3とを相互に線を結び、各線が交差関係にあるか否か、各線が平行関係にあるか否かに基づいて、3つの第2のマーカーの位置PM2−1、PM2−2、PM2−3に、位置PM1を基点に左回り(反時計回り)の順で「1」、「2」、「3」を付与する。   For example, as shown in FIG. 15B, since there is only one position PM1 of the first marker M1, it can be uniquely determined. Therefore, first, the identification number “0” is assigned to the position PM1 of the first marker M1. Then, “1”, “2”, and “3” in the order of counterclockwise rotation from the position PM1 to the positions PM2-1, PM2-2, and PM2-3 of the three second markers. Give. For example, based on whether the position PM1 and the positions PM2-1, PM2-2, and PM2-3 are connected to each other and each line is in an intersecting relationship or whether each line is in a parallel relationship. “1”, “2”, and “3” are assigned to the positions PM2-1, PM2-2, and PM2-3 of the two second markers in order of counterclockwise (counterclockwise) from the position PM1.

このように、各位置PM1、PM2−1、PM2−2、PM2−3に識別番号を付与することによって、現実の空間におけるマーカー表示体の四角形の配置方向を特定することができる。   Thus, by assigning identification numbers to the positions PM1, PM2-1, PM2-2, and PM2-3, it is possible to specify the arrangement direction of the squares of the marker display bodies in the actual space.

そして、端末10は、図15(C)に示すように、第1のマーカーM1の位置PM1と、第2のマーカーM2の各位置PM2−1、PM2−2、PM2−3とに基づいて、撮像画像上の領域A0〜A8を特定し、各領域A0〜A8の輝度値(色値でもよい)に基づいて、1(白)又は0(黒)に2値化し、各領域A0〜A8の値(0又は1)を取得する。つまり、コード情報である8ビットの各位の値を、各領域A0〜A8から取得する。なお、領域A0はパリティビットとして用い、エラー検出処理を行う。   Then, as shown in FIG. 15C, the terminal 10 is based on the position PM1 of the first marker M1 and the positions PM2-1, PM2-2, and PM2-3 of the second marker M2. The areas A0 to A8 on the captured image are specified, and binarized to 1 (white) or 0 (black) based on the luminance values (or color values) of the areas A0 to A8. Get the value (0 or 1). That is, the 8-bit value of code information is obtained from each of the areas A0 to A8. The area A0 is used as a parity bit to perform error detection processing.

なお、端末10は、位置PM1と、位置PM2−1、PM2−2、PM2−3の識別番号が付されているので、コード情報の向きを決定することができ、適確に領域A0〜A8を特定し、コード情報の8ビットの各位の値を取得することができる。   Since the terminal 10 is assigned the position PM1, and the identification numbers of the positions PM2-1, PM2-2, and PM2-3, the direction of the code information can be determined, and the areas A0 to A8 can be accurately determined. Can be specified, and the 8-bit value of the code information can be acquired.

このようにして、コード情報が認識されると、例えば、コード情報に基づいて拡張現実画像を生成する処理、情報を提示する命令を実行する処理などを行うことができる。   When the code information is recognized in this manner, for example, a process of generating an augmented reality image based on the code information, a process of executing a command for presenting information, and the like can be performed.

7.拡張現実画像を生成する処理の詳細な説明
7−1.拡張現実画像の説明
本実施形態では、少なくとも一つのマーカーが検出された場合に、撮像画像と仮想画像とを重畳して拡張現実画像を生成する処理を行う。ここで、拡張現実とは、Augmented Reality(AR)であり、現実環境にコンピュータ(端末)を用いて情報を付加提示する技術、および情報を付加提示された環境そのものを示す。
7). Detailed description of processing for generating augmented reality image 7-1. Description of Augmented Reality Image In this embodiment, when at least one marker is detected, a process of generating an augmented reality image by superimposing a captured image and a virtual image is performed. Here, augmented reality is Augmented Reality (AR), which indicates a technology for additionally presenting information to a real environment using a computer (terminal) and an environment for which information is additionally presented.

例えば、図16(A)に示すように、撮像部150によって、端末10の画面上に、撮像画像が表示されていたとする。すると、本実施形態では、図16(B)に示すように、この撮像画像と、キャラクタ(オブジェクトの一例)を含む仮想画像とを合成(重畳)して拡張現実画像を生成する。このようにすれば、図16(C)に示すように、現実世界にキャラクタは存在しないが、撮像部150を通して、仮想的なオブジェクトがいるかのような拡張現実画像を提供することができる。   For example, it is assumed that a captured image is displayed on the screen of the terminal 10 by the imaging unit 150 as illustrated in FIG. Then, in this embodiment, as shown in FIG. 16B, this captured image and a virtual image including a character (an example of an object) are combined (superimposed) to generate an augmented reality image. In this way, as shown in FIG. 16C, an augmented reality image as if there is a virtual object can be provided through the imaging unit 150, although no character exists in the real world.

7−2.マーカー検出処理に基づいて表示制御を行う処理
本実施形態の端末10は、予め定められた所定数の第1のマーカーM1と、所定数の第2のマーカーM2があると判定された場合に、拡張現実画像を生成する処理を行う。例えば、端末10は、1つの第1のマーカーM1と、3つの第2のマーカーM2があると判定された場合に、図16(C)に示すような拡張現実画像を生成する処理を行う。言い換えると、第1のマーカーM1が検出されない場合、第1のマーカーM1が複数存在する場合、検出された第2のマーカーの数が2つ以下或いは4つ以上である場合には、拡張現実画像を生成する処理を行わずに、図16(A)に示すような撮像画像を表示する処理を行う。
7-2. Processing for performing display control based on marker detection processing When it is determined that the terminal 10 of the present embodiment has a predetermined number of first markers M1 and a predetermined number of second markers M2, A process for generating an augmented reality image is performed. For example, when it is determined that there is one first marker M1 and three second markers M2, the terminal 10 performs a process of generating an augmented reality image as illustrated in FIG. In other words, when the first marker M1 is not detected, when there are a plurality of first markers M1, and when the number of detected second markers is two or less or four or more, an augmented reality image The process of displaying the captured image as shown in FIG. 16A is performed without performing the process of generating.

なお、本実施形態では、所定周期(例えば、描画フレームレート、1/60秒周期)で、マーカー検出処理を行うので、リアルタイムに拡張現実画像を生成することができる。   In the present embodiment, since the marker detection process is performed at a predetermined period (for example, a drawing frame rate, 1/60 second period), an augmented reality image can be generated in real time.

7−3.コード認識処理に基づいて表示制御を行う処理
また、本実施形態では、少なくとも一つのマーカーが検出されてコード情報を認識した場合には、当該コード情報に基づいて、拡張現実画像を生成するか否かを決定するようにしてもよい。例えば、端末10は、1つの第1のマーカーM1と、3つの第2のマーカーM2があると判定された場合に、コード情報を認識する。そして、コード情報を認識した場合には、コード情報に基づいて拡張現実画像を生成して、表示部に表示させる。一方、コード情報を認識できない場合には、撮像画像を表示させる。
7-3. Processing for performing display control based on code recognition processing Further, in the present embodiment, when at least one marker is detected and code information is recognized, whether or not an augmented reality image is generated based on the code information. It may be determined. For example, the terminal 10 recognizes the code information when it is determined that there is one first marker M1 and three second markers M2. When the code information is recognized, an augmented reality image is generated based on the code information and displayed on the display unit. On the other hand, when the code information cannot be recognized, a captured image is displayed.

また、本実施形態では、図6(B)(C)に示すように、複数種類のコード情報が予め用意されている。したがって、コード情報に基づいて、拡張現実画像を生成するようにしてもよい。   In the present embodiment, as shown in FIGS. 6B and 6C, a plurality of types of code information are prepared in advance. Therefore, an augmented reality image may be generated based on the code information.

例えば、図6(B)に基づくコード情報を取得した場合には、第1のオブジェクトを含む仮想画像と撮像画像とを合成した拡張現実画像を生成する処理を行う。一方、図6(C)に基づくコード情報を取得した場合には、第2のオブジェクトを含む仮想画像と撮像画像とを合成した拡張現実画像を生成する処理を行う。このようにすれば、コード情報の種類に応じて、様々な拡張現実画像を生成することができる。   For example, when the code information based on FIG. 6B is acquired, a process of generating an augmented reality image obtained by synthesizing the virtual image including the first object and the captured image is performed. On the other hand, when the code information based on FIG. 6C is acquired, a process of generating an augmented reality image obtained by synthesizing the virtual image including the second object and the captured image is performed. In this way, various augmented reality images can be generated according to the type of code information.

7−4.仮想画像の生成
なお、本実施形態において拡張現実画像に用いられる仮想画像は、2次元画像でもよいし、3次元仮想空間(ワールド座標系)に配置された仮想カメラから見える3次元画像であってもよい。
7-4. Generation of Virtual Image In this embodiment, the virtual image used for the augmented reality image may be a two-dimensional image or a three-dimensional image that can be seen from a virtual camera arranged in a three-dimensional virtual space (world coordinate system). Also good.

なお、本実施形態では、複数のマーカーの各位置(位置PM1、PM2−1、PM2−2、PM2−3)に基づいて3次元仮想空間におけるオブジェクトの配置位置、仮想カメラ位置、向き、画角の少なくとも1つを決めて、当該3次元仮想空間において当該仮想カメラから見える仮想画像を生成するようにしてもよい。このようにすれば、より自然な拡張現実画像を生成することができる。   In the present embodiment, the arrangement position, virtual camera position, orientation, and angle of view of an object in the three-dimensional virtual space based on the positions (positions PM1, PM2-1, PM2-2, and PM2-3) of a plurality of markers. At least one of these may be determined, and a virtual image that can be seen from the virtual camera in the three-dimensional virtual space may be generated. In this way, a more natural augmented reality image can be generated.

8.本実施形態の処理の流れ
図17を用いて、本実施形態の処理の流れを説明する。まず、撮像部150によって撮像された撮像画像を撮像画像記憶部173に記憶させる処理を行う(ステップS41)。次に、撮像画像上の赤色矩形領域と、緑色矩形領域とを抽出する処理を行う(ステップS42)。次に、赤色矩形領域と、緑色矩形領域との位置関係に基づいて、第1のマークM1と第2のマークM2とを検出する処理を行う(ステップS43)。
8). Process Flow of the Present Embodiment The process flow of the present embodiment will be described using FIG. First, a process of storing the captured image captured by the imaging unit 150 in the captured image storage unit 173 is performed (step S41). Next, a process of extracting a red rectangular area and a green rectangular area on the captured image is performed (step S42). Next, a process of detecting the first mark M1 and the second mark M2 is performed based on the positional relationship between the red rectangular area and the green rectangular area (step S43).

次に、第1のマークM1が1つ、且つ、第2のマークM2が3つ検出されたか否かを判断する(ステップS44)。第1のマークM1が1つ、且つ、第2のマークM2が3つ検出された場合には(ステップS44のY)、コード情報認識処理(ステップS45)を行う。一方、第1のマークM1が1つ、且つ、第2のマークM2が3つ検出されなかった場合には(ステップS44のN)、撮像画像を表示部に表示させる処理を行い(ステップS49)処理を終了する。   Next, it is determined whether one first mark M1 and three second marks M2 have been detected (step S44). If one first mark M1 and three second marks M2 are detected (Y in step S44), a code information recognition process (step S45) is performed. On the other hand, when one first mark M1 and three second marks M2 are not detected (N in step S44), a process of displaying the captured image on the display unit is performed (step S49). The process ends.

そして、コード情報認識処理(ステップS45)の後、コード情報に基づいて、オブジェクトを決定する処理を行う(ステップS46)。そして、撮像画像と、決定されたオブジェクトを含む仮想画像とを合成して、拡張現実画像を生成する処理を行う(ステップS47)。そして、拡張現実画像を表示部に表示させる処理を行う(ステップS48)。以上で処理が終了する。   After the code information recognition process (step S45), a process for determining an object is performed based on the code information (step S46). Then, the captured image and the virtual image including the determined object are combined to generate an augmented reality image (step S47). And the process which displays an augmented reality image on a display part is performed (step S48). The process ends here.

9.応用例
9−1.マーカー表示体の応用例
図18(A)に示すように、本実施形態のマーカー表示体20は、複数のマーカーを、三角形の隅(コーナー)に配置して形成されるものであってもよい。例えば、図18(A)のように、1つは第1のマーカーM1とし、残り2つを第2のマーカーM2とし、正三角形の隅に配置してもよい。
9. Application example 9-1. Application Example of Marker Display Body As shown in FIG. 18A, the marker display body 20 of the present embodiment may be formed by arranging a plurality of markers at the corners of a triangle. . For example, as shown in FIG. 18A, one may be the first marker M1, and the remaining two may be the second marker M2, which may be arranged at the corners of the equilateral triangle.

また、図18(B)に示すように、本実施形態のマーカー表示体20は、四角形の各隅のうち、3つの隅にマーカーを配置して形成するものであってもよい。例えば、1つは第1のマーカーM1とし、残り2つを第2のマーカーM2とし、各マーカーM1、M2を正四角形の隅に配置してもよい。   As shown in FIG. 18B, the marker display body 20 of the present embodiment may be formed by arranging markers at three corners of each corner of a rectangle. For example, one may be the first marker M1, the other two may be the second marker M2, and each of the markers M1 and M2 may be arranged at the corner of a regular square.

また、図18(C)に示すように、本実施形態のマーカー表示体20は、五角形の各隅にマーカーを配置して形成するものであってもよい。例えば、図18(C)のように、1つは第1のマーカーM1とし、残り4つを第2のマーカーM2とし、各マーカーM1、M2を正五角形の隅に配置してもよい。   As shown in FIG. 18C, the marker display body 20 of the present embodiment may be formed by arranging a marker at each corner of a pentagon. For example, as shown in FIG. 18C, one may be the first marker M1, the remaining four may be the second markers M2, and the markers M1 and M2 may be arranged at the corners of a regular pentagon.

また、図18(D)に示すように、本実施形態のマーカー表示体20は、六角形の各隅にマーカーを配置して形成するものであってもよい。例えば、図18(D)のように、1つは第1のマーカーM1とし、残り5つを第2のマーカーM2とし、各マーカーM1、M2を正六角形の隅に配置してもよい。   Further, as shown in FIG. 18D, the marker display body 20 of the present embodiment may be formed by arranging a marker at each corner of the hexagon. For example, as shown in FIG. 18D, one may be the first marker M1, the remaining five may be the second markers M2, and the markers M1 and M2 may be arranged at the corners of a regular hexagon.

また、本実施形態のマーカー表示体20は、正多角形の各隅のうち、1つの隅はマーカーM1を配置し、残りの各隅はマーカーM2を配置するようにしてもよい。多くのマーカーが配置されることにより、正確な情報を入手しやすくなるからである。   Moreover, the marker display body 20 of this embodiment may arrange | position the marker M1 in one corner among each corner of a regular polygon, and may arrange | position the marker M2 in each remaining corner. It is because it becomes easy to obtain accurate information by arranging many markers.

なお、本実施形態では、マーカー表示体にあわせて、検出するマーカーの数を定義してもよい。つまり、マーカー表示体にあわせて、コード情報を認識するための条件、拡張現実画像を生成する条件となる、第1のマーカーM1の数と、第2のマーカーM2の数を決める。   In the present embodiment, the number of markers to be detected may be defined in accordance with the marker display body. That is, the number of first markers M1 and the number of second markers M2, which are conditions for recognizing code information and conditions for generating an augmented reality image, are determined in accordance with the marker display.

例えば、図18(A)(B)の場合には、端末10は、「1つ」の第1のマーカーM1と、「2つ」の第2のマーカーM2があると判定された場合に、コード情報を認識する処理、拡張現実画像を生成する処理を行う。言い換えると、第1のマーカーM1が検出されない場合、第1のマーカーM1が複数存在する場合、検出された第2のマーカーの数が1つ或いは3つ以上である場合には、コード情報を認識する処理、拡張現実画像を生成する処理を行わない。   For example, in the case of FIGS. 18A and 18B, the terminal 10 determines that there are “one” first marker M1 and “two” second markers M2. A process for recognizing code information and a process for generating an augmented reality image are performed. In other words, when the first marker M1 is not detected, when there are a plurality of first markers M1, or when the number of detected second markers is one or three or more, the code information is recognized. And the process of generating an augmented reality image is not performed.

同様に、図18(C)の場合には、端末10は、「1つ」の第1のマーカーM1と、「4つ」の第2のマーカーM2があると判定された場合に、コード情報を認識する処理、拡張現実画像を生成する処理を行う。言い換えると、第1のマーカーM1が検出されない場合、第1のマーカーM1が複数存在する場合、検出された第2のマーカーの数が3つ以下或いは5つ以上である場合には、コード情報を認識する処理、拡張現実画像を生成する処理を行わない。   Similarly, in the case of FIG. 18C, the terminal 10 determines that there is “one” first marker M1 and “four” second markers M2, and the code information Recognition processing and processing for generating an augmented reality image. In other words, if the first marker M1 is not detected, if there are a plurality of first markers M1, or if the number of detected second markers is three or less, or five or more, the code information is The process of recognizing and the process of generating an augmented reality image are not performed.

同様に、図18(D)の場合には、端末10は、「1つ」の第1のマーカーM1と、「5つ」の第2のマーカーM2があると判定された場合に、コード情報を認識する処理、拡張現実画像を生成する処理を行う。言い換えると、第1のマーカーM1が検出されない場合、第1のマーカーM1が複数存在する場合、検出された第2のマーカーの数が4つ以下或いは6つ以上である場合には、コード情報を認識する処理、拡張現実画像を生成する処理を行わない。   Similarly, in the case of FIG. 18D, the terminal 10 determines that there is “one” first marker M1 and “five” second markers M2, and the code information Recognition processing and processing for generating an augmented reality image. In other words, when the first marker M1 is not detected, when there are a plurality of first markers M1, and when the number of detected second markers is four or less or six or more, the code information is The process of recognizing and the process of generating an augmented reality image are not performed.

9−2.拡張現実画像の応用例
本実施形態では、図19に示すように、端末10は、少なくとも一つのマーカーが検出されてコード情報を認識した場合(例えば、1つの第1のマーカーM1と、3つの第2のマーカーM2があると判定されて、コード情報を認識した場合)には、そのコード情報に対応する付加情報(「店名」、「URL」、「電話番号」、「店の評価情報」などの店舗情報)を含む仮想画像と、撮像画像とを合成して拡張現実画像を生成するようにしてもよい。
9-2. Application Example of Augmented Reality Image In the present embodiment, as illustrated in FIG. 19, the terminal 10 recognizes code information when at least one marker is detected (for example, one first marker M1 and three If it is determined that there is the second marker M2 and the code information is recognized), additional information corresponding to the code information ("store name", "URL", "phone number", "store evaluation information") The augmented reality image may be generated by synthesizing the virtual image including the store information) and the captured image.

なお、端末10は、コード情報を認識した場合には、コード情報をネットワークを介してサーバに送信し、サーバから当該コード情報に対応する付加情報(「店名」、「URL」、「電話番号」、「店の評価情報」などの店舗情報)を受信し、撮像画像と受信した付加情報を示す仮想画像とを合成して拡張現実画像を生成するようにしてもよい。   When the terminal 10 recognizes the code information, the terminal 10 transmits the code information to the server via the network, and additional information (“store name”, “URL”, “phone number”) corresponding to the code information from the server. , Store information such as “store evaluation information”, and the augmented reality image may be generated by combining the captured image and the received virtual image indicating the additional information.

9−3.コード情報の応用例
また、コード情報は、オブジェクト、付加情報の他に、仮想動画、文字(文章)、音声などに対応付けられており、端末10は、認識したコード情報に基づいて、コード情報に対応付けられている仮想動画の再生処理、文字の表示処理、音声の再生処理を行うようにしてもよい。
9-3. Application example of code information In addition to the object and the additional information, the code information is associated with a virtual moving image, a character (sentence), a voice, and the like, and the terminal 10 performs code information based on the recognized code information A virtual moving image reproduction process, a character display process, and an audio reproduction process associated with the video may be performed.

また、本実施形態では、コード情報をマーカー表示体20の各マーカーMに取り囲まれる範囲内に記載する例について説明したが、コード情報をマーカー表示体20の所与の範囲に記載したものであってもよい。例えば、コード情報をマーカー表示体20の各マーカーMにより取り囲まれる範囲外に記載してもよい。   In the present embodiment, the example in which the code information is described in the range surrounded by each marker M of the marker display body 20 has been described. However, the code information is described in a given range of the marker display body 20. May be. For example, the code information may be described outside the range surrounded by each marker M of the marker display body 20.

10.サーバ
本実施形態では、図21に示すように、クライアント・サーバ方式のネットワークシステムにおけるサーバ20において、マーカー検出処理に適用してもよい。つまり、サーバ20が、端末10で行う処理(例えば、処理部100の少なくとも1つの処理)を行うようにしてもよい。
10. Server In this embodiment, as shown in FIG. 21, the server 20 in a client-server network system may be applied to marker detection processing. That is, the server 20 may perform a process performed by the terminal 10 (for example, at least one process of the processing unit 100).

例えば、サーバ20は、図21に示すように、ネットワーク(例えば、インターネット)を介して複数の端末10(10A〜10C)と接続され、サーバ20が、端末10から撮像画像(撮像画像データ)を受信する。   For example, as shown in FIG. 21, the server 20 is connected to a plurality of terminals 10 (10A to 10C) via a network (for example, the Internet), and the server 20 receives captured images (captured image data) from the terminals 10. Receive.

そして、例えば、サーバ20は、受信した撮像画像に基づいてマーカーがあるか否かを判定する処理を行う。具体的に説明すると、サーバ20は、第1の色条件を満たし隣接する複数の画素からなる第1の色領域に外接する第1の矩形領域と、第2の色条件を満たし隣接する複数の画素からなる第2の色領域に外接する第2の矩形領域とを、受信した撮像画像から抽出する処理を行い、第1の矩形領域と第2の矩形領域との位置関係に基づいて、マーカーがあるか否かを判定する処理を行う。例えば、サーバ20は、第1の矩形領域、第2の矩形領域のうちいずれか一方が他方を内包する位置関係である場合に、マーカーがあると判定する。   For example, the server 20 performs a process of determining whether or not there is a marker based on the received captured image. More specifically, the server 20 includes a first rectangular area circumscribing the first color area composed of a plurality of adjacent pixels that satisfy the first color condition, and a plurality of adjacent areas that satisfy the second color condition. The second rectangular area circumscribing the second color area consisting of pixels is extracted from the received captured image, and the marker is determined based on the positional relationship between the first rectangular area and the second rectangular area. A process for determining whether or not there is is performed. For example, the server 20 determines that there is a marker when one of the first rectangular area and the second rectangular area has a positional relationship including the other.

また、サーバ20は、処理結果を端末10に送信してもよい。処理結果とは、撮像画像に基づいて得られる情報等である。例えば、サーバ20は、撮像画像に基づきマーカーがあるか否かを判定した判定結果(マーカーの有無)、コード情報、コード情報に基づいて決定されるオブジェクトの情報、拡張現実画像の少なくとも1つを、処理結果として端末10に送信するようにしてもよい。   Further, the server 20 may transmit the processing result to the terminal 10. The processing result is information obtained based on the captured image. For example, the server 20 receives at least one of a determination result (whether there is a marker) based on the captured image (the presence / absence of a marker), code information, object information determined based on the code information, and an augmented reality image. The processing result may be transmitted to the terminal 10.

例えば、サーバ20は、マーカーがあると判断された場合は1を、マーカーが無いと判断された場合には0を判定結果として端末10に送信する処理を行う。   For example, the server 20 performs a process of transmitting 1 to the terminal 10 as a determination result when it is determined that there is a marker and 0 when it is determined that there is no marker.

また、サーバ20は、検出した各マーカーの位置関係に基づいて、撮像画像からコード情報を認識するコード情報認識処理を行い、コード情報を端末10に送信する処理を行ってもよい。また、サーバ20は、コード情報に基づいてオブジェクトを決定し、決定されたオブジェクトの情報を端末10に送信するようにしてもよい。   Further, the server 20 may perform a code information recognition process for recognizing code information from the captured image based on the detected positional relationship between the markers, and perform a process of transmitting the code information to the terminal 10. Further, the server 20 may determine an object based on the code information, and may transmit information on the determined object to the terminal 10.

また、サーバ20は、撮像画像と決定されたオブジェクトを含む仮想画像とを合成した拡張現実画像を生成し、生成された拡張現実画像を端末10に送信する処理を行うようにしてもよい。   Further, the server 20 may generate an augmented reality image obtained by synthesizing the captured image and the virtual image including the determined object, and perform processing for transmitting the generated augmented reality image to the terminal 10.

なお、端末10は、撮像部150において撮像された画像や記憶部170(或いは情報記憶媒体180)に記憶されている撮像画像をサーバ20に送信する処理を行い、サーバ20から処理結果を受信する処理を行う。そして、端末10は、受信した処理結果に基づいて、所与の処理を行う。   Note that the terminal 10 performs processing to transmit the image captured by the imaging unit 150 and the captured image stored in the storage unit 170 (or the information storage medium 180) to the server 20, and receives the processing result from the server 20. Process. Then, the terminal 10 performs a given process based on the received processing result.

10 端末、20 マーカー表示体、
M マーカー、M1 第1のマーカー、M2 第2のマーカー、
100 処理部、110 矩形領域抽出部、111 マーカー判定部、
112 コード認識処理部、120 描画部、130 音処理部、
170 記憶部、171 主記憶部、172 画像バッファ、173 撮像画像記憶部、
150 撮像部、160 入力部、162 検出部、
180 情報記憶媒体、190 表示部、
192 音出力部、196 通信部
10 terminal, 20 marker display,
M marker, M1 first marker, M2 second marker,
100 processing unit, 110 rectangular area extraction unit, 111 marker determination unit,
112 code recognition processing unit, 120 drawing unit, 130 sound processing unit,
170 storage unit, 171 main storage unit, 172 image buffer, 173 captured image storage unit,
150 imaging unit, 160 input unit, 162 detection unit,
180 information storage medium, 190 display unit,
192 sound output unit, 196 communication unit

Claims (17)

撮像部によって撮像された撮像画像から、少なくとも一つのマーカーを検出する処理を行うプログラムであって、
第1の色条件を満たす複数の画素によって形成される第1の色領域に外接する第1の矩形領域と、第2の色条件を満たす複数の画素によって形成される第2の色領域に外接する第2の矩形領域とを、前記撮像画像から抽出する処理を行う矩形領域抽出部と、
第1の矩形領域と第2の矩形領域との位置関係に基づいて、前記マーカーがあるか否かを判定する処理を行うマーカー判定部として、コンピュータを機能させ、
前記マーカー判定部が、
第1の矩形領域、第2の矩形領域のうちいずれか一方が他方を内包する位置関係である場合に、前記マーカーがあると判定することを特徴とするプログラム。
A program for performing a process of detecting at least one marker from a captured image captured by an imaging unit,
A first rectangular area circumscribing a first color area formed by a plurality of pixels satisfying the first color condition and a second color area circumscribed by a plurality of pixels satisfying the second color condition A rectangular area extracting unit that performs processing for extracting the second rectangular area from the captured image;
Based on the positional relationship between the first rectangular area and the second rectangular area, the computer functions as a marker determination unit that performs a process of determining whether or not the marker is present,
The marker determination unit is
A program characterized by determining that the marker is present when one of the first rectangular area and the second rectangular area is in a positional relationship including the other.
請求項1において、
前記マーカー判定部が、
第1の矩形領域の中心位置と第2の矩形領域の中心位置との位置関係に基づいて、前記マーカーがあるか否かを判定する処理を行うことを特徴とするプログラム。
In claim 1,
The marker determination unit is
The program which performs the process which determines whether the said marker exists based on the positional relationship of the center position of a 1st rectangular area, and the center position of a 2nd rectangular area.
請求項1又は2において、
前記マーカー判定部が、
第1の矩形領域の中心位置と第2の矩形領域の中心位置との距離が所定距離以内である場合に、前記マーカーがあると判定することを特徴とするプログラム。
In claim 1 or 2,
The marker determination unit is
A program for determining that the marker is present when a distance between a center position of the first rectangular area and a center position of the second rectangular area is within a predetermined distance.
請求項1〜3のいずれかにおいて、
前記矩形領域抽出部が、
画素の色値が、第1の色値を含む第1の色値域内である場合に前記第1の色条件を満たすと判断し、
画素の色値が、第2の色値を含む第2の色値域内である場合に前記第2の色条件を満たすと判断することを特徴とするプログラム。
In any one of Claims 1-3,
The rectangular area extraction unit
Determining that the first color condition is satisfied when a color value of the pixel is within a first color value range including the first color value;
A program for determining that the second color condition is satisfied when a color value of a pixel is within a second color value range including the second color value.
請求項4において、
当該第1の色値と、当該第2の色値とは補色の関係にあることを特徴とするプログラム。
In claim 4,
A program characterized in that the first color value and the second color value have a complementary color relationship.
請求項1〜5のいずれかにおいて、
前記マーカー判定部が、
複数の前記マーカーがあるか否かを判定することを特徴とするプログラム。
In any one of Claims 1-5,
The marker determination unit is
A program for determining whether or not there are a plurality of the markers.
請求項1〜6のいずれかにおいて、
前記マーカー判定部によって複数のマーカーがあると判定された場合に、複数のマーカーの位置関係に基づいて、前記撮像画像からコード情報を認識する処理を行うコード認識処理部として、コンピュータを機能させることを特徴とするプログラム。
In any one of Claims 1-6,
When the marker determination unit determines that there are a plurality of markers, the computer functions as a code recognition processing unit that performs processing for recognizing code information from the captured image based on a positional relationship between the plurality of markers. A program characterized by
請求項7において、
前記マーカー判定部が、
第2の矩形領域が第1の矩形領域を内包する位置関係である場合に、第1のマーカーがあると判定する処理を行い、
第1の矩形領域が第2の矩形領域を内包する位置関係である場合に、第2のマーカーがあると判定する処理を行い、
前記コード認識処理部が、
前記マーカー判定部によって1つの第1のマーカー及び2以上の所定数の第2のマーカーがあると判定された場合に、当該第1のマーカーと各第2のマーカーとの位置関係に基づいて、前記コード情報を認識する処理を行うことを特徴とするプログラム。
In claim 7,
The marker determination unit is
When the second rectangular area is in a positional relationship including the first rectangular area, a process for determining that there is a first marker is performed,
When the first rectangular area is in a positional relationship including the second rectangular area, a process for determining that there is a second marker is performed.
The code recognition processing unit
When it is determined by the marker determination unit that there is one first marker and two or more predetermined number of second markers, based on the positional relationship between the first marker and each second marker, A program for recognizing the code information.
請求項1〜8のいずれかにおいて、
前記マーカー判定部によって複数のマーカーがあると判定された場合に、前記撮像画像と仮想画像とを合成して拡張現実画像を生成する処理を行う描画部として、コンピュータを更に機能させることを特徴とするプログラム。
In any one of Claims 1-8,
When the marker determination unit determines that there are a plurality of markers, the computer further functions as a drawing unit that performs a process of generating an augmented reality image by combining the captured image and the virtual image. Program to do.
請求項9において、
前記マーカー判定部が、
第2の矩形領域が第1の矩形領域を内包する位置関係である場合に、第1のマーカーがあると判定する処理を行い、
第1の矩形領域が第2の矩形領域を内包する位置関係である場合に、第2のマーカーがあると判定する処理を行い、
前記描画部が、
前記マーカー判定部によって1つの第1のマーカー及び2以上の所定数の第2のマーカーがあると判定された場合に、前記拡張現実画像を生成する処理を行うことを特徴とするプログラム。
In claim 9,
The marker determination unit is
When the second rectangular area is in a positional relationship including the first rectangular area, a process for determining that there is a first marker is performed,
When the first rectangular area is in a positional relationship including the second rectangular area, a process for determining that there is a second marker is performed.
The drawing unit
The program which performs the process which produces | generates the said augmented reality image, when it determines with the said marker determination part having one 1st marker and 2 or more predetermined number of 2nd markers.
請求項9又は10において、
前記マーカー判定部によって複数のマーカーがあると判定された場合に、複数のマーカーの位置関係に基づいて、前記撮像画像からコード情報を認識する処理を行うコード認識処理部として、コンピュータを機能させ、
前記描画部が、
前記コード情報に基づいて仮想画像を生成する処理を行い、前記撮像画像と当該仮想画像とを合成して拡張現実画像を生成することを特徴とするプログラム。
In claim 9 or 10,
When the marker determination unit determines that there are a plurality of markers, the computer functions as a code recognition processing unit that performs processing for recognizing code information from the captured image based on a positional relationship between the plurality of markers.
The drawing unit
A program that performs a process of generating a virtual image based on the code information, and generates an augmented reality image by combining the captured image and the virtual image.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1〜11のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 11 is stored. 撮像部によって撮像された撮像画像から、少なくとも一つのマーカーを検出する処理を行う端末であって、
第1の色条件を満たし隣接する複数の画素からなる第1の色領域に外接する第1の矩形領域と、第2の色条件を満たし隣接する複数の画素からなる第2の色領域に外接する第2の矩形領域とを、前記撮像画像から抽出する処理とを行う矩形領域抽出部と、
第1の矩形領域と第2の矩形領域との位置関係に基づいて、前記マーカーがあるか否かを判定する処理を行うマーカー判定部として、コンピュータを機能させ、
前記マーカー判定部が、
第1の矩形領域、第2の矩形領域のうちいずれか一方が他方を内包する位置関係である場合に、前記マーカーがあると判定することを特徴とする端末。
A terminal that performs a process of detecting at least one marker from a captured image captured by an imaging unit,
A first rectangular area that circumscribes a first color area that includes a plurality of adjacent pixels that satisfies the first color condition and a second color area that includes a plurality of adjacent pixels that satisfy the second color condition A rectangular area extracting unit that performs processing for extracting the second rectangular area to be extracted from the captured image;
Based on the positional relationship between the first rectangular area and the second rectangular area, the computer functions as a marker determination unit that performs a process of determining whether or not the marker is present,
The marker determination unit is
A terminal characterized by determining that the marker is present when one of the first rectangular area and the second rectangular area is in a positional relationship including the other.
少なくとも一つのマーカーを検出する処理を行うサーバであって、
ネットワークを介して端末から、撮像画像を受信する通信制御部と、
第1の色条件を満たし隣接する複数の画素からなる第1の色領域に外接する第1の矩形領域と、第2の色条件を満たし隣接する複数の画素からなる第2の色領域に外接する第2の矩形領域とを、前記撮像画像から抽出する処理とを行う矩形領域抽出部と、
第1の矩形領域と第2の矩形領域との位置関係に基づいて、前記マーカーがあるか否かを判定する処理を行うマーカー判定部とを含み、
前記マーカー判定部が、
第1の矩形領域、第2の矩形領域のうちいずれか一方が他方を内包する位置関係である場合に、前記マーカーがあると判定し、
前記通信制御部が、
前記端末に処理結果を送信することを特徴とするサーバ。
A server that performs processing for detecting at least one marker,
A communication control unit that receives a captured image from a terminal via a network;
A first rectangular area that circumscribes a first color area that includes a plurality of adjacent pixels that satisfies the first color condition and a second color area that includes a plurality of adjacent pixels that satisfy the second color condition A rectangular area extracting unit that performs processing for extracting the second rectangular area to be extracted from the captured image;
A marker determination unit that performs a process of determining whether or not there is the marker based on a positional relationship between the first rectangular region and the second rectangular region,
The marker determination unit is
When one of the first rectangular area and the second rectangular area is in a positional relationship including the other, it is determined that the marker is present,
The communication control unit
A server that transmits a processing result to the terminal.
端末によって検出される複数のマーカーからなるマーカー表示体であって、
同一の中心点をもち、径の長さが異なる2つの円によって構成されるマーカーを複数所定間隔をおいて配置し、
前記複数のマーカーのうち1つのマーカーの内径の円を第1の色、外径の円のうち内径の円を除いた部分を第2の色で配色し、
残りの各マーカーについては、内径の円を第2の色、外径の円のうち内径の円を除いた部分を第1の色に配色していることを特徴とするマーカー表示体。
A marker display body composed of a plurality of markers detected by the terminal,
A plurality of markers that are composed of two circles having the same center point and different diameter lengths are arranged at predetermined intervals,
The inner diameter circle of one of the plurality of markers is colored in the first color, and the outer diameter of the circle except the inner diameter circle is colored in the second color,
About the remaining markers, the marker display body is characterized in that the inner diameter circle is colored in the second color, and the portion of the outer diameter circle excluding the inner diameter circle is colored in the first color.
請求項15において、
前記各マーカーにより取り囲まれる範囲内に、予め定められたコード情報を示したことを特徴とするマーカー表示体。
In claim 15,
A marker display body characterized in that predetermined code information is shown within a range surrounded by the markers.
請求項15又は16において、
前記第1の色は赤色、前記第2の色は緑色であることを特徴とするマーカー表示体。
In claim 15 or 16,
The marker display body, wherein the first color is red and the second color is green.
JP2011080311A 2011-03-31 2011-03-31 Program, information storage medium, terminal, server, and marker display body Withdrawn JP2012216029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011080311A JP2012216029A (en) 2011-03-31 2011-03-31 Program, information storage medium, terminal, server, and marker display body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011080311A JP2012216029A (en) 2011-03-31 2011-03-31 Program, information storage medium, terminal, server, and marker display body

Publications (1)

Publication Number Publication Date
JP2012216029A true JP2012216029A (en) 2012-11-08

Family

ID=47268745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011080311A Withdrawn JP2012216029A (en) 2011-03-31 2011-03-31 Program, information storage medium, terminal, server, and marker display body

Country Status (1)

Country Link
JP (1) JP2012216029A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036937A (en) * 2016-09-01 2018-03-08 住友電気工業株式会社 Image processing device, image processing system, image processing program and label
WO2018147093A1 (en) * 2017-02-10 2018-08-16 株式会社エンプラス Marker
JP7322800B2 (en) 2020-05-11 2023-08-08 株式会社豊田自動織機 recognition device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036937A (en) * 2016-09-01 2018-03-08 住友電気工業株式会社 Image processing device, image processing system, image processing program and label
CN109690639A (en) * 2016-09-01 2019-04-26 住友电气工业株式会社 Image processing apparatus, image processing system, image processing program and label
WO2018147093A1 (en) * 2017-02-10 2018-08-16 株式会社エンプラス Marker
JPWO2018147093A1 (en) * 2017-02-10 2019-11-14 株式会社エンプラス Marker
JP7322800B2 (en) 2020-05-11 2023-08-08 株式会社豊田自動織機 recognition device

Similar Documents

Publication Publication Date Title
US8054309B2 (en) Game machine, game machine control method, and information storage medium for shadow rendering
JP4851504B2 (en) How to generate assets for interactive entertainment using digital image capture
US20090179892A1 (en) Image viewer, image displaying method and information storage medium
CN1315103C (en) Image processing device, image processing method,program and information storage medium
JP2013097473A (en) Game processing system, game processing method, game processing device, and game processing program
JP2011215968A (en) Program, information storage medium and object recognition system
EP1977801B1 (en) Game machine, game machine control method, and information storage medium
JP4728721B2 (en) Program, information storage medium, and image generation system
TWI439943B (en) Encoding structure for dot pattern, its decoding method and electronic device
JPH06348860A (en) Picture synthesizing device and game device using the same
JP2012216029A (en) Program, information storage medium, terminal, server, and marker display body
JP2011053737A (en) Program, information storage medium and image generation device
JP2002133438A (en) Three-dimensional graphic plotting device, three- dimensional graphic plotting method, and recording medium capable of reading with three-dimensional polygon data recorded computer
JP5256153B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2009205522A (en) Program, information storage medium, and information conversion system
JP2007026111A (en) Program, information storage medium, and image creation system
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP2009140371A (en) Program, information storage medium, and image generation system
JP2010231364A (en) Image generation system, program and information recording medium
JP4433525B2 (en) Image processing device
JP2010238110A (en) Image processor, image processing method and image processing program
JP2009140370A (en) Program, information storage medium, and image generation system
JP3579680B2 (en) Image processing apparatus and program
JP6250214B1 (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603