JP3844482B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3844482B2
JP3844482B2 JP2004254887A JP2004254887A JP3844482B2 JP 3844482 B2 JP3844482 B2 JP 3844482B2 JP 2004254887 A JP2004254887 A JP 2004254887A JP 2004254887 A JP2004254887 A JP 2004254887A JP 3844482 B2 JP3844482 B2 JP 3844482B2
Authority
JP
Japan
Prior art keywords
game
game card
unit
character
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004254887A
Other languages
Japanese (ja)
Other versions
JP2006072668A (en
Inventor
伸樹 長井
哲也 渡辺
裕介 飯田
孝尚 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2004254887A priority Critical patent/JP3844482B2/en
Priority to US11/661,585 priority patent/US7991220B2/en
Priority to PCT/JP2005/009547 priority patent/WO2006025137A1/en
Publication of JP2006072668A publication Critical patent/JP2006072668A/en
Application granted granted Critical
Publication of JP3844482B2 publication Critical patent/JP3844482B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理技術に関し、特に実オブジェクトと仮想オブジェクトとを関連付けて表示させる技術に関する。   The present invention relates to an image processing technique, and more particularly to a technique for displaying a real object and a virtual object in association with each other.

近年、2次元コードをカメラで撮像して認識し、2次元コードのパターンに基づいた所定の処理を実行する技術が普及している。そのような技術の1つとして、2次元バーコードをビデオカメラで撮像して、2次元バーコードに対応する3次元画像を表示装置に表示させる画像処理技術が提案されている(例えば、特許文献1参照)。特許文献1では、撮像した2次元バーコードの座標およびCCDビデオカメラの焦点距離をもとに、3次元オブジェクトを表示する空間上の座標を決定し、2次元バーコードに3次元オブジェクトを重畳させて表示する。
特開2000−322602号公報
2. Description of the Related Art In recent years, a technique has been widely used in which a two-dimensional code is captured and recognized by a camera and a predetermined process based on a two-dimensional code pattern is executed. As one of such techniques, an image processing technique has been proposed in which a two-dimensional barcode is imaged by a video camera and a three-dimensional image corresponding to the two-dimensional barcode is displayed on a display device (for example, Patent Documents). 1). In Patent Document 1, coordinates on a space for displaying a three-dimensional object are determined based on the coordinates of the captured two-dimensional barcode and the focal length of the CCD video camera, and the three-dimensional object is superimposed on the two-dimensional barcode. To display.
JP 2000-322602 A

特許文献1に開示された技術は、実世界のオブジェクトと仮想のオブジェクトとを組み合わせて表示させることで、優れた視覚効果を実現可能とする。しかしながら、特許文献1は、1つの2次元バーコードに対応付けて仮想オブジェクトを表示する技術を開示するのみであり、複数の2次元バーコードが存在するときの仮想オブジェクトの表示処理について意識するものではない。本発明者は、複数の2次元バーコードなどの実オブジェクトが実空間に存在するときの表示処理に注目し、このときの仮想オブジェクトの表示処理に工夫を凝らすことで、例えば、ゲーム分野などの分野に応用して、さらに優れた視覚効果を実現する可能性が秘められていることを見出した。   The technique disclosed in Patent Literature 1 can realize an excellent visual effect by displaying a combination of a real-world object and a virtual object. However, Patent Document 1 only discloses a technique for displaying a virtual object in association with one two-dimensional barcode, and is conscious of display processing of a virtual object when a plurality of two-dimensional barcodes exist. is not. The inventor pays attention to display processing when a plurality of real objects such as two-dimensional barcodes exist in the real space, and devise the display processing of the virtual object at this time, for example, in the game field or the like I found out that it has the potential to achieve better visual effects when applied to the field.

本発明は、実オブジェクトと仮想オブジェクトとを関連付けて表示させる技術を提供することを目的とし、特に、ゲームなどの分野において、複数の実オブジェクトの位置関係に基づいて仮想オブジェクトの表示態様を制御する技術を提供することを目的とする。   An object of the present invention is to provide a technique for displaying a real object and a virtual object in association with each other, and in particular, in a field such as a game, the display mode of a virtual object is controlled based on the positional relationship between a plurality of real objects. The purpose is to provide technology.

上記課題を解決するために、本発明のある態様は、画像処理装置に関する。この態様の画像処理装置は、実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部と、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の位置関係を検出する位置関係検出部と、少なくとも2つの実オブジェクト画像について検出した位置関係が所定の条件を満たすか否かを判定する条件判定部と、フレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの3次元画像データを格納部から読み出す読出部と、条件判定部により所定の条件が満たされたことが判定された場合に、条件を満たす少なくとも2つの実オブジェクト画像の識別情報に基づいて、仮想オブジェクトの表示パターンを決定し、読み出された複数の3次元画像データを用いて、決定した表示パターンにより仮想オブジェクトの表示処理を行う表示制御部とを備える。ここで、実オブジェクトは、現実空間において有体物として存在する実在オブジェクトであり、また、仮想オブジェクトは、現実空間には存在せず、仮想空間においてデータで表現されるものを意味する。   In order to solve the above problems, an aspect of the present invention relates to an image processing apparatus. The image processing apparatus according to this aspect includes a storage unit that stores identification information for identifying a real object and three-dimensional image data of a virtual object in association with each other, and a plurality of frame images captured by the imaging apparatus. A positional relationship detection unit that detects a positional relationship between real object images, a condition determination unit that determines whether or not the positional relationship detected for at least two real object images satisfies a predetermined condition, and a plurality of frames included in the frame image When it is determined that a predetermined condition is satisfied by the reading unit that reads out the three-dimensional image data of the plurality of virtual objects associated with the identification information of the real object image from the storage unit, and the condition determining unit, the condition is Based on the identification information of at least two real object images that satisfy, the display pattern of the virtual object is determined and read. Using a plurality of 3-dimensional image data, the determined display pattern and a display control unit that performs display processing of the virtual object. Here, the real object is a real object that exists as a tangible object in the real space, and the virtual object does not exist in the real space, but is expressed by data in the virtual space.

この画像処理装置によると、撮像された複数の実オブジェクト画像の位置関係に基づいて仮想オブジェクトの表示態様を制御するため、複数の実オブジェクトを所定の位置関係におくことで、仮想オブジェクトの新たな視覚表現を実現できる。   According to this image processing apparatus, in order to control the display mode of a virtual object based on the positional relationship between a plurality of captured real object images, a plurality of real objects are placed in a predetermined positional relationship. Visual expression can be realized.

本発明の別の態様は、ゲーム装置に関する。この態様のゲーム装置は、実オブジェクトを識別するための識別情報と、ゲームキャラクタの3次元画像データとを対応付けて記憶する格納部と、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の位置関係を検出する位置関係検出部と、少なくとも2つの実オブジェクト画像について検出した位置関係が所定の条件を満たすか否かを判定する条件判定部と、フレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数のゲームキャラクタの3次元画像データを格納部から読み出す読出部と、条件判定部により所定の条件が満たされたことが判定された場合に、条件を満たす少なくとも2つの実オブジェクト画像の識別情報に基づいて、ゲームキャラクタの表示パターンを決定し、読み出された複数の3次元画像データを用いて、決定した表示パターンによりゲームキャラクタの表示処理を行う表示制御部とを備える。   Another aspect of the present invention relates to a game device. The game device according to this aspect includes a storage unit that stores identification information for identifying a real object and three-dimensional image data of the game character in association with each other, and a plurality of real images included in the frame image captured by the imaging device. A positional relationship detection unit that detects a positional relationship between the object images, a condition determination unit that determines whether the positional relationship detected for at least two real object images satisfies a predetermined condition, and a plurality of actual images included in the frame image The condition is satisfied when the reading unit that reads the three-dimensional image data of the plurality of game characters associated with the identification information of the object image from the storage unit and the condition determination unit determine that the predetermined condition is satisfied Based on the identification information of at least two real object images, the display pattern of the game character is determined and read Using a plurality of 3-dimensional image data, and a display control unit that performs display processing of the game character by the determined display pattern.

このゲーム装置によると、撮像された複数の実オブジェクト画像の位置関係に基づいてゲームキャラクタの表示態様を制御するため、複数の実オブジェクトを所定の位置関係におくことで、ゲームキャラクタの新たな視覚表現を実現できる。   According to this game device, in order to control the display mode of the game character based on the positional relationship between the captured plurality of real object images, a new visual perception of the game character is obtained by placing the plurality of real objects in a predetermined positional relationship. Expression can be realized.

本発明のさらに別の態様は、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の位置関係を検出するステップと、少なくとも2つの実オブジェクト画像について検出した位置関係が所定の条件を満たすか否かを判定するステップと、実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部から、フレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの3次元画像データを読み出すステップと、所定の条件が満たされたことが判定された場合に、条件を満たす少なくとも2つの実オブジェクト画像の識別情報に基づいて、仮想オブジェクトの表示パターンを決定するステップと、格納部から読み出した複数の3次元画像データを用いて、決定した表示パターンにより仮想オブジェクトの表示処理を行うステップとを備える画像処理方法を提供する。   According to still another aspect of the present invention, a step of detecting a positional relationship between a plurality of real object images included in a frame image captured by an imaging device, and a positional relationship detected for at least two real object images satisfy a predetermined condition. A step of determining whether or not to satisfy, identification information for identifying a real object, and three-dimensional image data of the virtual object are stored in association with each other, and a plurality of real object images included in the frame image are stored. A step of reading the three-dimensional image data of a plurality of virtual objects associated with the identification information, and when it is determined that a predetermined condition is satisfied, based on the identification information of at least two real object images that satisfy the condition To determine the display pattern of the virtual object and Using 3-dimensional image data, the determined display pattern to provide an image processing method comprising the steps of: performing display processing of the virtual object.

本発明のさらに別の態様は、コンピュータに、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の位置関係を検出させる機能と、少なくとも2つの実オブジェクト画像について検出した位置関係が所定の条件を満たすか否かを判定させる機能と、実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部から、フレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの3次元画像データを読み出させる機能と、所定の条件が満たされたことが判定された場合に、条件を満たす少なくとも2つの実オブジェクト画像の識別情報に基づいて、仮想オブジェクトの表示パターンを決定させる機能と、格納部から読み出した複数の3次元画像データを用いて、決定した表示パターンにより仮想オブジェクトの表示処理を行わせる機能とを実現させるためのプログラムを提供する。   According to still another aspect of the present invention, a function for causing a computer to detect a positional relationship between a plurality of real object images included in a frame image captured by an imaging device and a positional relationship detected for at least two real object images are predetermined. From a storage unit that stores a function for determining whether or not the above condition is satisfied, identification information for identifying a real object, and three-dimensional image data of the virtual object in association with each other. A function of reading the three-dimensional image data of a plurality of virtual objects associated with the identification information of the object image, and at least two real object images satisfying a predetermined condition when it is determined that the predetermined condition is satisfied Based on the identification information of the virtual object and the function to determine the display pattern of the virtual object Using a plurality of 3-dimensional image data issued by the determined display pattern provides a program for implementing a function to perform the display processing of the virtual object.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によると、複数の実オブジェクトの位置関係に基づいて仮想オブジェクトの表示態様を制御する技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which controls the display mode of a virtual object based on the positional relationship of a some real object can be provided.

本発明は、撮像装置により撮像された複数の実オブジェクトの位置関係を検出し、検出した位置関係に基づいて仮想オブジェクトの表示態様を制御する技術を提供する。実オブジェクトは、実在する1次元オブジェクト、2次元オブジェクトまたは3次元オブジェクトのいずれであってもよく、実オブジェクト自身を識別させるための特徴部分を有して構成されることが好ましい。例えば、実オブジェクトは、2次元で表現されたコード情報を特徴部分として有するカードなどの2次元オブジェクトであってもよく、またユニークな立体形状を特徴部分として有する3次元オブジェクトであってもよい。なお、2次元オブジェクトの2次元形状がユニークな特徴部分を構成してもよく、また3次元オブジェクトに特徴部分となるコード情報が貼り付けられていてもよい。仮想オブジェクトは、仮想空間において3次元的に表現される人、動物、物などの所謂キャラクタであってもよい。以下に示す実施例は、ゲームアプリケーションにおける画像処理技術に関し、ゲームアプリケーションに登場するゲームキャラクタを、仮想オブジェクトして採用している。実施例では、プレイヤが実オブジェクト同士を接触させることで、その接触に応じたイベントが発生し、イベントを順次実行していくことで進行するゲームアプリケーションを示す。   The present invention provides a technique for detecting a positional relationship between a plurality of real objects imaged by an imaging device and controlling a display mode of a virtual object based on the detected positional relationship. The real object may be an existing one-dimensional object, two-dimensional object, or three-dimensional object, and is preferably configured to have a characteristic portion for identifying the real object itself. For example, the real object may be a two-dimensional object such as a card having code information expressed in two dimensions as a characteristic part, or may be a three-dimensional object having a unique three-dimensional shape as a characteristic part. Note that the two-dimensional shape of the two-dimensional object may constitute a unique feature portion, and code information serving as the feature portion may be attached to the three-dimensional object. The virtual object may be a so-called character such as a person, an animal, or an object that is three-dimensionally expressed in the virtual space. The following embodiment relates to an image processing technique in a game application, and employs a game character appearing in the game application as a virtual object. In the embodiment, an event corresponding to the contact is generated when the player contacts the real objects, and a game application that progresses by sequentially executing the event is shown.

図1は、本発明の実施例にかかるゲームシステム1の構成を示す。ゲームシステム1は、撮像装置2、画像処理装置10および出力装置6を備える。画像処理装置10は、画像解析装置20およびゲーム装置30を備える。画像解析装置20およびゲーム装置30は別装置として構成されてもよいが、一体として構成されてもよい。撮像装置2は、CCD撮像素子またはMOS撮像素子などから構成されるビデオカメラである。撮像装置2は実空間を所定の周期で撮像して、周期ごとのフレーム画像を生成する。撮像領域5は撮像装置2により撮像される範囲であり、撮像装置2の高さや向きを調整することで、撮像領域5の位置や大きさが調整される。ゲームプレイヤは、撮像領域5において、実オブジェクトであるゲームカード4を指で動かす。ゲームカード4は、自身を一意に識別するための特徴部分を有して構成される。   FIG. 1 shows a configuration of a game system 1 according to an embodiment of the present invention. The game system 1 includes an imaging device 2, an image processing device 10, and an output device 6. The image processing device 10 includes an image analysis device 20 and a game device 30. The image analysis device 20 and the game device 30 may be configured as separate devices, but may be configured as a single unit. The imaging device 2 is a video camera that includes a CCD imaging device or a MOS imaging device. The imaging device 2 images the real space at a predetermined cycle and generates a frame image for each cycle. The imaging region 5 is a range where the imaging device 2 captures an image, and the position and size of the imaging region 5 are adjusted by adjusting the height and direction of the imaging device 2. The game player moves the game card 4 that is a real object with a finger in the imaging area 5. The game card 4 has a characteristic part for uniquely identifying itself.

出力装置6は、表示装置であるディスプレイ7を有する。出力装置6は、さらにスピーカ(図示せず)を有して構成されてもよい。基本的に画像処理装置10は、撮像装置2により撮像されたフレーム画像をディスプレイ7に表示させ、その際に、ゲームカード4上に仮想オブジェクトであるキャラクタを重畳するように表示制御する。図1の例では、撮像領域5に2枚のゲームカード4が存在し、ディスプレイ7には、それぞれのゲームカード4上にキャラクタが重畳表示されている。プレイヤは、ディスプレイ7を見ることで、ゲームカード4が撮像領域5に入っているか容易に確認でき、入っていない場合には、ゲームカード4の位置をずらしたり、また撮像装置2の向きを調整して、撮像装置2にゲームカード4を撮像させるようにする。   The output device 6 includes a display 7 that is a display device. The output device 6 may further include a speaker (not shown). Basically, the image processing apparatus 10 displays the frame image captured by the imaging apparatus 2 on the display 7, and controls display so that a character that is a virtual object is superimposed on the game card 4. In the example of FIG. 1, two game cards 4 exist in the imaging area 5, and characters are superimposed on the respective game cards 4 on the display 7. The player can easily check whether or not the game card 4 is in the imaging area 5 by looking at the display 7. If not, the player can shift the position of the game card 4 or adjust the orientation of the imaging device 2. Then, the imaging device 2 is caused to image the game card 4.

実施例のゲームアプリケーションでは、プレイヤがゲームカード4に対して所定の操作を施すことにより、キャラクタを動作させる。このゲームアプリケーションの性質上、プレイヤにゲームカード4とキャラクタとの一体性を認識させることが好ましく、そのため、キャラクタの画像を、ゲームカード4に重ね合わせて表示させている。   In the game application of the embodiment, the player operates the character by performing a predetermined operation on the game card 4. Due to the nature of the game application, it is preferable that the player recognize the unity between the game card 4 and the character, and therefore, the character image is displayed superimposed on the game card 4.

以上のキャラクタの動きは、画像処理装置10により制御される。まず、画像解析装置20は、撮像装置2において取得されたフレーム画像から、ゲームカード4の画像情報を抽出する。さらに、画像解析装置20は、ゲームカード4の画像情報から、ゲームカード4を識別するためのユニークな特徴部分を抽出する。このとき、画像解析装置20は、ゲームカード4の画像情報から、ゲームカード4の空間における位置情報、方向情報、距離情報などを決定する。   The movement of the above characters is controlled by the image processing apparatus 10. First, the image analysis device 20 extracts image information of the game card 4 from the frame image acquired by the imaging device 2. Further, the image analysis device 20 extracts a unique feature portion for identifying the game card 4 from the image information of the game card 4. At this time, the image analysis device 20 determines position information, direction information, distance information, and the like in the space of the game card 4 from the image information of the game card 4.

図2は、ゲームカード4の表面の一例を示す。ゲームカード4の表面には、方向指示部11と識別部12とが印刷されている。方向指示部11は、ゲームカード4の前部を示すために設けられ、識別部12は、ゲームカード4を一意に識別するための特徴部分を表現するために設けられる。識別部12は、所定の区画内に複数のブロックを印刷して作成されたコード情報である。複数のブロックのうち、4角のブロックは複数のゲームカード4に共通して付与され、実質的には4角以外のブロックにより、特徴部分が形成される。4角のブロックは、撮像装置2からの距離を測定するために利用される。   FIG. 2 shows an example of the surface of the game card 4. On the surface of the game card 4, a direction instruction unit 11 and an identification unit 12 are printed. The direction instruction unit 11 is provided to indicate the front part of the game card 4, and the identification unit 12 is provided to express a characteristic portion for uniquely identifying the game card 4. The identification unit 12 is code information created by printing a plurality of blocks in a predetermined section. Among the plurality of blocks, a square block is commonly given to the plurality of game cards 4, and a characteristic portion is substantially formed by blocks other than the four corners. The quadrangular block is used to measure the distance from the imaging device 2.

図1に戻って、画像解析装置20は、フレーム画像中のゲームカード4を認識すると、ゲームカード4の画像における4角のブロック間の長さをもとに、撮像装置2とゲームカード4との距離を計算して求める。また、画像解析装置20は、ゲームカード4の方向指示部11を検出して、フレーム画像においてゲームカード4が向いている方向を求める。この場合、方向指示部11が存在する方向が前方となり、キャラクタは、ゲームカード4上にて前方を向くように表示制御される。さらに、画像解析装置20は、識別部12の4角以外のブロックから、ゲームカード4の識別情報を取得する。   Returning to FIG. 1, when the image analysis device 20 recognizes the game card 4 in the frame image, the image analysis device 20, based on the length between the four blocks in the image of the game card 4, Calculate the distance. Further, the image analysis device 20 detects the direction instruction unit 11 of the game card 4 and obtains the direction in which the game card 4 is facing in the frame image. In this case, the direction in which the direction instructing unit 11 is present is the front, and the character is display-controlled so as to face the front on the game card 4. Further, the image analysis device 20 acquires the identification information of the game card 4 from the blocks other than the four corners of the identification unit 12.

画像解析装置20において画像解析された結果は、ゲーム装置30に送られる。なお、撮像装置2において撮像されたフレーム画像が、ゲーム装置30に送られて、ゲーム装置30側で画像解析を行ってもよい。この場合、画像処理装置10は、ゲーム装置30のみで構成されることになる。   The result of the image analysis performed by the image analysis device 20 is sent to the game device 30. Note that the frame image captured by the imaging device 2 may be sent to the game device 30 and image analysis performed on the game device 30 side. In this case, the image processing apparatus 10 is configured by only the game apparatus 30.

ゲーム装置30は、画像解析装置20における画像解析結果をもとに、ディスプレイ7の表示画面上で、キャラクタをゲームカード4の上に位置するように表示制御する。キャラクタは、ゲームカード4に対してゲームシーンごとに適宜割り当てられてもよい。この場合、ゲームシーンが切り替わると、表示されるキャラクタも切り替わることになる。本実施例では、ゲーム装置30が、複数の実オブジェクト画像の位置関係を検出し、実オブジェクト画像間の位置関係が所定の条件を満たすことを判定すると、仮想オブジェクトの表示態様を制御する。   The game apparatus 30 performs display control so that the character is positioned on the game card 4 on the display screen of the display 7 based on the image analysis result in the image analysis apparatus 20. Characters may be appropriately assigned to the game card 4 for each game scene. In this case, when the game scene is switched, the displayed character is also switched. In the present embodiment, when the game apparatus 30 detects the positional relationship between a plurality of real object images and determines that the positional relationship between the real object images satisfies a predetermined condition, the game apparatus 30 controls the display mode of the virtual object.

図3は、画像解析装置20の構成を示す。画像解析装置20は、フレーム画像取得部40、実オブジェクト抽出部42、状態決定部44、識別情報取得部46、識別情報格納部48および送出部50を備える。識別情報格納部48は、実オブジェクトを識別するための特徴部分の情報と、実オブジェクトを識別するための識別情報とを対応付けて記憶する。具体的には、図2におけるゲームカード4の識別部12のパターン情報と、識別情報とを1対1に対応付けて記憶している。識別情報は、ゲーム装置30においてキャラクタの割当てに利用される。例えば、5枚のゲームカード4の同時使用を許可するゲームシステム1の場合、それぞれのゲームカード4に対して、1から5までの識別情報がそれぞれ割り当てられていてもよい。複数のゲームカード4のそれぞれを識別情報と紐付けすることで、個々のゲームカード4が認識可能となる。状態決定部44は、設定した座標系における実オブジェクトの状態を決定し、具体的には、ゲームカード4の位置を決定する位置決定部52、方向を決定する方向決定部54および撮像装置2からの焦点距離を決定する距離決定部56を有する。   FIG. 3 shows the configuration of the image analysis apparatus 20. The image analysis apparatus 20 includes a frame image acquisition unit 40, a real object extraction unit 42, a state determination unit 44, an identification information acquisition unit 46, an identification information storage unit 48, and a transmission unit 50. The identification information storage unit 48 stores the information of the characteristic part for identifying the real object and the identification information for identifying the real object in association with each other. Specifically, the pattern information of the identification unit 12 of the game card 4 in FIG. 2 and the identification information are stored in a one-to-one correspondence. The identification information is used for character assignment in the game apparatus 30. For example, in the case of the game system 1 that permits simultaneous use of five game cards 4, identification information 1 to 5 may be assigned to each game card 4. Each game card 4 can be recognized by associating each of the plurality of game cards 4 with identification information. The state determination unit 44 determines the state of the real object in the set coordinate system. Specifically, from the position determination unit 52 that determines the position of the game card 4, the direction determination unit 54 that determines the direction, and the imaging device 2. Has a distance determination unit 56 for determining the focal length of the.

フレーム画像取得部40が、撮像装置2にて撮像された実空間のフレーム画像を取得する。ここでは、図1に示すように、撮像領域5に複数枚のゲームカード4が配置されている状態を想定する。撮像装置2は、周期的にフレーム画像を取得し、好適には1/60秒間隔でフレーム画像を生成する。   The frame image acquisition unit 40 acquires a real space frame image captured by the imaging device 2. Here, it is assumed that a plurality of game cards 4 are arranged in the imaging region 5 as shown in FIG. The imaging device 2 periodically acquires frame images, and preferably generates frame images at 1/60 second intervals.

実オブジェクト抽出部42は、フレーム画像から複数の実オブジェクト画像、すなわちゲームカード4の画像を抽出する。この処理は、画像情報を2進数のビット表現に変換し、このビット表現からゲームカード4の画像を抽出することで行われる。いわゆるドット処理であり、ビットのオンとオフを検出することで、画像抽出処理が行われてもよい。また、この処理は、既知の画像マッチング技術によって行ってもよい。その場合、実オブジェクト抽出部42は、マッチング処理のために、使用する実オブジェクトの画像情報をメモリ(図示せず)に予め登録しておく。予め登録した画像情報と撮像した画像情報とのマッチングをとることで、複数のゲームカード4の画像をフレーム画像から切り出すことができる。   The real object extraction unit 42 extracts a plurality of real object images, that is, images of the game card 4 from the frame image. This process is performed by converting the image information into a binary bit representation and extracting the image of the game card 4 from the bit representation. This is so-called dot processing, and image extraction processing may be performed by detecting on and off of bits. Further, this processing may be performed by a known image matching technique. In that case, the real object extraction unit 42 registers image information of a real object to be used in a memory (not shown) in advance for the matching process. By matching the pre-registered image information with the captured image information, the images of the plurality of game cards 4 can be cut out from the frame image.

状態決定部44は、ゲームカード4を置いて動かすための台3のジオメトリ情報を予め検出しておき、さらに台3の表面を基準面として、その基準面上にゲームカード4を載せた姿勢のジオメトリ情報をゲームカード4の姿勢の初期状態として記録しておく。このジオメトリ情報は、撮像装置2を基準として生成されてもよい。状態決定部44は、台3に関して取得したジオメトリ情報から、台3の位置、姿勢などを撮像空間における座標データとして把握しておく。位置決定部52は、実オブジェクト画像の位置を決定する。具体的には、フレーム画像における実オブジェクト画像の中心点の座標を定める。なお、位置決定部52は、ゲームカード4の位置に加えて、ゲームカード4の基準面に対するゲームカード4の傾きおよび高さを、初期状態として記録したゲームカード4の姿勢からの相対的な状態量の差分、すなわち撮像空間における座標値の差分として求めてもよい。方向決定部54は、実オブジェクト画像の方向を定める。方向決定部54は、実オブジェクト画像の中から図2に示す方向指示部11を検出して、実オブジェクトの向きを定めてもよい。距離決定部56は、ゲームカード4の画像における識別部12の4角間の長さをもとに、撮像装置2とゲームカード4との距離を決定する。識別情報取得部46は、実オブジェクト画像から特徴部分を抽出して、識別情報格納部48から対応する識別情報を取得する。   The state determination unit 44 detects the geometry information of the table 3 for placing and moving the game card 4 in advance, and uses the surface of the table 3 as a reference plane, and the posture of the game card 4 placed on the reference plane. Geometry information is recorded as an initial state of the posture of the game card 4. This geometry information may be generated based on the imaging device 2. The state determination unit 44 grasps the position, posture, and the like of the table 3 as coordinate data in the imaging space from the geometry information acquired for the table 3. The position determination unit 52 determines the position of the real object image. Specifically, the coordinates of the center point of the real object image in the frame image are determined. In addition to the position of the game card 4, the position determination unit 52 has a relative state from the attitude of the game card 4 in which the inclination and height of the game card 4 with respect to the reference plane of the game card 4 are recorded as an initial state. You may obtain | require as a difference of quantity, ie, the difference of the coordinate value in imaging space. The direction determination unit 54 determines the direction of the real object image. The direction determination unit 54 may determine the direction of the real object by detecting the direction instruction unit 11 shown in FIG. 2 from the real object image. The distance determination unit 56 determines the distance between the imaging device 2 and the game card 4 based on the length between the four corners of the identification unit 12 in the image of the game card 4. The identification information acquisition unit 46 extracts a feature portion from the real object image and acquires corresponding identification information from the identification information storage unit 48.

状態決定部44において決定された位置情報、方向情報、距離情報、および識別情報取得部46において取得された識別情報は、それぞれ関連付けされて送出部50からゲーム装置30に送られる。なお、この関連付けは、それぞれのゲームカード4ごとに行われる。また、本実施例では、撮像装置2により撮像されたフレーム画像をディスプレイ7に表示させるため、フレーム画像自体も送出部50からゲーム装置30に送られる。   The position information, the direction information, the distance information, and the identification information acquired by the identification information acquisition unit 46 determined by the state determination unit 44 are transmitted from the transmission unit 50 to the game device 30 in association with each other. This association is performed for each game card 4. In the present embodiment, the frame image itself is also sent from the sending unit 50 to the game device 30 in order to display the frame image taken by the imaging device 2 on the display 7.

図4は、ゲーム装置30の構成を示す。ゲーム装置30は、解析情報取得部100、ゲーム進行処理部102、キャラクタ決定部104、キャラクタ格納部106、位置関係検出部110、条件判定部112、表示制御部120および表示パターン格納部122を備える。   FIG. 4 shows the configuration of the game apparatus 30. The game apparatus 30 includes an analysis information acquisition unit 100, a game progress processing unit 102, a character determination unit 104, a character storage unit 106, a positional relationship detection unit 110, a condition determination unit 112, a display control unit 120, and a display pattern storage unit 122. .

本実施例におけるゲーム装置30の処理機能は、CPU、メモリ、メモリにロードされたプログラムなどによって実現され、ここではそれらの連携によって実現される構成を描いている。プログラムは、ゲーム装置30に内蔵されていてもよく、また記録媒体に格納された形態で外部から供給されるものであってもよい。したがってこれらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者に理解されるところである。図示の例では、ゲーム装置30のCPUが、解析情報取得部100、ゲーム進行処理部102、キャラクタ決定部104、位置関係検出部110、条件判定部112、表示制御部120としての機能をもつ。   The processing function of the game apparatus 30 in the present embodiment is realized by a CPU, a memory, a program loaded in the memory, and the like, and here, a configuration realized by cooperation thereof is illustrated. The program may be built in the game apparatus 30 or may be supplied from the outside in a form stored in a recording medium. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. In the illustrated example, the CPU of the game apparatus 30 functions as an analysis information acquisition unit 100, a game progress processing unit 102, a character determination unit 104, a positional relationship detection unit 110, a condition determination unit 112, and a display control unit 120.

解析情報取得部100は、画像解析装置20から、解析結果を受け取る。この解析結果は、実オブジェクトであるゲームカード4の位置情報、方向情報、距離情報、識別情報を含む。解析情報取得部100は、受け取った解析結果をゲーム進行処理部102に渡す。なお、解析情報取得部100は、撮像装置2からフレーム画像のデータを直接取得してもよい。この場合は、ゲーム装置30が、画像解析装置20における機能を有して、画像解析装置20に関して説明した処理と同様の処理を実行すればよい。   The analysis information acquisition unit 100 receives an analysis result from the image analysis device 20. This analysis result includes position information, direction information, distance information, and identification information of the game card 4 that is a real object. The analysis information acquisition unit 100 passes the received analysis result to the game progress processing unit 102. The analysis information acquisition unit 100 may directly acquire frame image data from the imaging device 2. In this case, the game apparatus 30 has a function in the image analysis apparatus 20 and may perform the same process as the process described for the image analysis apparatus 20.

ゲーム進行処理部102は、ゲームアプリケーション全体の処理を制御する。本実施例におけるゲームアプリケーションは、ゲーム進行が複数のステージから構成され、各ステージにおいて異なるゲームシーンが設定されている。プレイヤは、各ステージの終了条件をそれぞれ段階的にクリアしていき、最終ステージをクリアしたところで、ゲーム終了となる。ゲーム進行処理部102は、ゲームの進行状況を管理し、ゲームの開始直後やゲームステージの切替の時点において、キャラクタ決定部104に、次に開始されるゲームステージ名と、解析情報取得部100から送られてきた識別情報を伝える。キャラクタ格納部106は、ゲームステージごとに、ゲームカード4の識別情報とキャラクタの3次元画像データとを対応付けて記憶する。   The game progress processing unit 102 controls processing of the entire game application. In the game application in this embodiment, the game progress is composed of a plurality of stages, and different game scenes are set in each stage. The player clears the end condition of each stage step by step, and the game ends when the final stage is cleared. The game progress processing unit 102 manages the progress of the game, and immediately after the start of the game or at the time of switching the game stage, the character determination unit 104 sends the name of the game stage to be started next and the analysis information acquisition unit 100. Communicate identification information sent to you. The character storage unit 106 stores the identification information of the game card 4 and the three-dimensional image data of the character in association with each game stage.

図5は、キャラクタ格納部106の記憶内容を示す。本実施例のゲームシステム1は、5枚のゲームカード4を使用可能とする。キャラクタ格納部106は、ゲームステージに対応付けて、5枚のゲームカード4のそれぞれに割り当てるキャラクタの3次元画像データを記憶している。ステージ1では、識別情報1のゲームカードにキャラクタ「男」、識別情報2のゲームカードにキャラクタ「女」、識別情報3のゲームカードにキャラクタ「太鼓」、識別情報4のゲームカードにキャラクタ「レストランの建物」、識別情報5のゲームカードにキャラクタ「郵便局の建物」が割り当てられる。ステージ2では、識別情報1のゲームカードにキャラクタ「男」、識別情報2のゲームカードにキャラクタ「女」、識別情報3のゲームカードにキャラクタ「レストランのドア」、識別情報4のゲームカードにキャラクタ「ウェイター」、識別情報5のゲームカードにキャラクタ「テーブルと椅子」が割り当てられる。ステージ1およびステージ2において、識別情報3、4、5に割り当てられるキャラクタが異なっている。   FIG. 5 shows the contents stored in the character storage unit 106. The game system 1 according to the present embodiment can use five game cards 4. The character storage unit 106 stores three-dimensional image data of characters assigned to each of the five game cards 4 in association with the game stage. In stage 1, the character “male” is on the game card with identification information 1, the character “female” is on the game card with identification information 2, the character “drum” is on the game card with identification information 3, and the character “restaurant” is on the game card with identification information 4. The character “post office building” is assigned to the game card of the identification information 5. At stage 2, the character “male” on the game card with identification information 1, the character “female” on the game card with identification information 2, the character “restaurant door” on the game card with identification information 3, and the character on the game card with identification information 4. The character “table and chair” is assigned to the game card of “waiter” and identification information 5. In stage 1 and stage 2, the characters assigned to the identification information 3, 4, and 5 are different.

キャラクタ決定部104は、ゲームステージ名と複数の識別情報をもとに、識別情報に対応付けられた複数のキャラクタの3次元画像データをキャラクタ格納部106から読み出し、ゲーム進行処理部102に供給する。なお、読み出した3次元画像データは、表示制御部120に直接供給されてもよい。ゲーム進行処理部102は表示制御部120に、3次元画像データと、ゲームカード4の位置情報、方向情報、距離情報を供給する。表示制御部120は、3次元画像データを用いて、キャラクタをゲームカード4の表示位置に関連付けてディスプレイ7に表示させる。   The character determination unit 104 reads out three-dimensional image data of a plurality of characters associated with the identification information from the character storage unit 106 based on the game stage name and the plurality of identification information, and supplies the data to the game progress processing unit 102. . Note that the read three-dimensional image data may be directly supplied to the display control unit 120. The game progress processing unit 102 supplies the display control unit 120 with the three-dimensional image data and the position information, direction information, and distance information of the game card 4. The display control unit 120 causes the display 7 to display the character in association with the display position of the game card 4 using the three-dimensional image data.

具体的に、表示制御部120は、画像解析装置20から送られるフレーム画像を受け取り、ディスプレイ7に表示させる。また、表示制御部120は、ゲームカード4の位置情報、方向情報、距離情報をもとにゲームカード4の位置、向き、距離を認識し、3次元画像データを用いてディスプレイ7に表示するキャラクタの位置、向き、および大きさを決定する。表示制御部120は、ゲームカード4に重なるのであれば、キャラクタをどの位置に配置してもよいが、通常の表示態様では、ゲームカード4の中心点の上方に位置するように、キャラクタの表示位置を定める。   Specifically, the display control unit 120 receives a frame image sent from the image analysis device 20 and causes the display 7 to display the frame image. In addition, the display control unit 120 recognizes the position, orientation, and distance of the game card 4 based on the position information, direction information, and distance information of the game card 4, and displays the character displayed on the display 7 using the three-dimensional image data. Determine the position, orientation, and size of the. The display control unit 120 may place the character at any position as long as it overlaps the game card 4. However, in the normal display mode, the display control unit 120 displays the character so as to be positioned above the center point of the game card 4. Determine the location.

プレイヤがゲームカード4を動かすと、フレーム画像の解析結果が画像解析装置20から解析情報取得部100に逐次送られる。表示制御部120は、ゲーム進行処理部102からキャラクタの3次元画像データと、ゲームカード4の位置情報、方向情報、距離情報を受け取り、ディスプレイ7におけるゲームカード4の表示位置にキャラクタの画像が重なるように、キャラクタをゲームカード4の動きに追従させる。これにより、ディスプレイ7では、キャラクタがゲームカード4に常に乗っている表示態様となり、キャラクタとゲームカード4との一体感をプレイヤに認識させることができる。   When the player moves the game card 4, the analysis result of the frame image is sequentially sent from the image analysis device 20 to the analysis information acquisition unit 100. The display control unit 120 receives the three-dimensional image data of the character and the position information, direction information, and distance information of the game card 4 from the game progress processing unit 102, and the character image overlaps the display position of the game card 4 on the display 7. Thus, the character is caused to follow the movement of the game card 4. Thereby, the display 7 becomes a display mode in which the character is always on the game card 4, and the player can recognize the sense of unity between the character and the game card 4.

図6は、ステージ1におけるディスプレイの表示例を示す。ここで、ゲームカード4aは識別情報1のゲームカード、ゲームカード4bは識別情報2のゲームカード、ゲームカード4cは識別情報3のゲームカード、ゲームカード4dは識別情報4のゲームカード、ゲームカード4eは識別情報5のゲームカードを示す。   FIG. 6 shows a display example of the display in stage 1. Here, the game card 4a is the game card of the identification information 1, the game card 4b is the game card of the identification information 2, the game card 4c is the game card of the identification information 3, the game card 4d is the game card of the identification information 4, and the game card 4e. Indicates a game card of identification information 5.

ゲームカード4aにキャラクタ「男」が、ゲームカード4cにキャラクタ「太鼓」が、ゲームカード4dにキャラクタ「レストランの建物」が、ゲームカード4eにキャラクタ「郵便局の建物」が、それぞれ重畳表示されている。なお、ゲームカード4cには、太鼓とともに、太鼓を叩くための「ばち」も表示される。このとき、ゲームカード4bには、まだキャラクタ「女」の表示はない。   The character “male” is superimposed on the game card 4a, the character “drum” is superimposed on the game card 4c, the character “restaurant building” is superimposed on the game card 4d, and the character “post office building” is superimposed on the game card 4e. Yes. The game card 4c also displays a “bachi” for hitting the drum along with the drum. At this time, the character “female” is not yet displayed on the game card 4b.

本実施例のゲームアプリケーションでは、複数のゲームカード4の配置位置が所定の位置関係となる場合に、イベントを発生させて、そのイベントを実行することで、ゲームストーリが進行する。プレイヤが複数のゲームカード4を動かすことで、キャラクタの動作パターンなどを変化させることができ、通常のゲームコントローラなどによる操作とは違った楽しみをプレイヤに与えることができる。図6の例では、ステージ1で定められている所定のイベントを実行することで、「女」のキャラクタがゲームカード4bに登場する。   In the game application of the present embodiment, when the arrangement positions of the plurality of game cards 4 have a predetermined positional relationship, an event is generated and the event is executed, whereby the game story progresses. By moving a plurality of game cards 4 by the player, it is possible to change the action pattern of the character, and to give the player a different pleasure from the operation by the normal game controller or the like. In the example of FIG. 6, the “female” character appears on the game card 4 b by executing a predetermined event determined in the stage 1.

位置関係検出部110は、撮像装置2により撮像されたフレーム画像に含まれる複数のゲームカード4の画像の位置関係を検出する。具体的には、まず、ゲーム進行処理部102が、複数のゲームカード4の位置情報、方向情報、距離情報を、位置関係検出部110に引き渡す。位置関係検出部110は、複数のゲームカード4の位置情報、距離情報をもとに、ゲームカード間の位置関係を検出する。ここでは、2つ以上のゲームカード4の全ての組合せについて、ゲームカード間の位置関係を検出することが好ましい。例えば、位置関係検出部110は、それぞれのゲームカード4の中心座標に基づいて、中心座標間の距離を算出してもよい。   The positional relationship detection unit 110 detects the positional relationship between the images of the plurality of game cards 4 included in the frame image captured by the imaging device 2. Specifically, first, the game progress processing unit 102 delivers the position information, direction information, and distance information of the plurality of game cards 4 to the positional relationship detection unit 110. The positional relationship detection unit 110 detects the positional relationship between the game cards based on the positional information and distance information of the plurality of game cards 4. Here, it is preferable to detect the positional relationship between game cards for all combinations of two or more game cards 4. For example, the positional relationship detection unit 110 may calculate the distance between the center coordinates based on the center coordinates of each game card 4.

条件判定部112は、位置関係検出部110により検出された位置関係に基づいて、ゲームカード4間の位置関係が所定の条件を満足するか否かを判定する。ここでは、少なくとも2つのゲームカード4の画像について検出した位置関係が所定の条件を満たすか否かが判定される。条件判定の一例として、条件判定部112は、ゲームカード4の画像同士が接触しているか否かを判定する。単純には、2つのゲームカード画像の中心座標の距離が所定の範囲内にある場合に、条件判定部112は、ゲームカード画像の接触を判定してもよい。   The condition determination unit 112 determines whether or not the positional relationship between the game cards 4 satisfies a predetermined condition based on the positional relationship detected by the positional relationship detection unit 110. Here, it is determined whether or not the positional relationship detected for the images of at least two game cards 4 satisfies a predetermined condition. As an example of condition determination, the condition determination unit 112 determines whether the images of the game card 4 are in contact with each other. Simply, when the distance between the center coordinates of the two game card images is within a predetermined range, the condition determination unit 112 may determine contact between the game card images.

条件判定部112は、ゲームカード画像同士の接触を判定する際、ゲームカード画像の向きを考慮する。ゲームカード画像の中心座標および向きにより、空間上におけるゲームカード画像の配置を定めることができる。これにより、条件判定部112は、空間におけるゲームカード画像の配置を知ることができ、接触しているか否かを判定できる。このとき、向きを考慮することで、ゲームカード画像のどの辺が接触しているのかも知ることができる。方向決定部54によりゲームカード画像の向きは決定されているため、矩形のゲームカードが、前部の辺で接触しているのか、または左部の辺で接触しているのかを、条件判定部112は決定された方向情報により判定できる。条件判定部112が、接触判定時に、ゲームカード画像の向きを認識しておくことで、ゲームカード同士がどの向きで接触しているかで、発生させるイベントも異ならせることが可能となる。条件判定部112は、ゲームカード画像同士が接触していることを判定すると、その判定結果、接触しているゲームカード画像の識別情報と、ゲームカード画像の向きを、ゲーム進行処理部102に通知する。ゲーム進行処理部102は、表示制御部120に、これらの情報を伝える。以上の位置関係検出部110と条件判定部112の処理は、同時に実行されてよい。   The condition determination unit 112 considers the direction of the game card image when determining contact between the game card images. The arrangement of the game card image in the space can be determined by the center coordinates and orientation of the game card image. Thereby, the condition determination part 112 can know the arrangement | positioning of the game card image in space, and can determine whether it is contacting. At this time, it is possible to know which side of the game card image is in contact by considering the direction. Since the direction of the game card image is determined by the direction determination unit 54, it is determined whether the rectangular game card is in contact with the front side or the left side. 112 can be determined based on the determined direction information. When the condition determination unit 112 recognizes the direction of the game card image at the time of contact determination, it is possible to change the event to be generated depending on which direction the game cards are in contact with each other. When determining that the game card images are in contact with each other, the condition determining unit 112 notifies the game progress processing unit 102 of the determination result, the identification information of the contacted game card image, and the orientation of the game card image. To do. The game progress processing unit 102 transmits these pieces of information to the display control unit 120. The processes of the positional relationship detection unit 110 and the condition determination unit 112 described above may be executed simultaneously.

さらに条件判定部112は、例えば1つのゲームカード画像に仮想の視野角を設定し、その視野角内に他のゲームカード画像が存在するか否かの判定を行ってもよい。この条件判定は、位置関係検出部110において検出された位置関係に基づいて実行され、ゲーム中では、あるキャラクタの視野角に他のキャラクタが存在するか否かの確認に利用される。条件判定部112は、視野角内に他のゲームカード画像が存在していることを判定すると、その判定結果、視野角を設定したゲームカード画像の識別情報、および視野角内に存在するゲームカード画像の識別情報をゲーム進行処理部102に通知する。これらの情報は、表示制御部120に伝えられる。   Furthermore, the condition determination unit 112 may set a virtual viewing angle for one game card image, for example, and may determine whether another game card image exists within the viewing angle. This condition determination is executed based on the positional relationship detected by the positional relationship detection unit 110, and is used to check whether another character exists in the viewing angle of a certain character during the game. When the condition determining unit 112 determines that another game card image exists within the viewing angle, the determination result, the identification information of the game card image in which the viewing angle is set, and the game card existing within the viewing angle The game identification processing unit 102 is notified of image identification information. Such information is transmitted to the display control unit 120.

表示制御部120は、条件判定部112により所定の条件が満たされたことが判定された場合に、条件を満たす少なくとも2つのゲームカード画像の識別情報に基づいて、キャラクタの表示パターンを決定する。表示制御部120は、ゲーム進行処理部102より送られてきた判定結果、条件を満たしているゲームカード画像の識別情報、およびゲームカード画像の向きを受け取り、表示パターン格納部122を参照して、表示パターンを決定する。   When the condition determination unit 112 determines that the predetermined condition is satisfied, the display control unit 120 determines a character display pattern based on the identification information of at least two game card images that satisfy the condition. The display control unit 120 receives the determination result sent from the game progress processing unit 102, the identification information of the game card image that satisfies the conditions, and the orientation of the game card image, and refers to the display pattern storage unit 122, Determine the display pattern.

表示パターン格納部122は、仮想オブジェクトの表示パターンを格納する。表示パターンは、例えば、条件を満たす少なくとも2つのゲームカード画像の識別情報に対応するキャラクタ間の動作パターンであってよい。この動作パターンは、少なくとも2つのゲームカード画像の識別情報と、それらのゲームカード画像の向きとに対応付けられて記憶されている。具体的に表示制御部120は、例えば、識別情報1のゲームカード4aと識別情報3のゲームカード4cとを、それぞれの前辺同士で接触させた場合に、所定の動作パターンを表示パターン格納部122から読み出すことができる。換言すると、ゲームカード4aの画像とゲームカード4cの画像とが接触しており、且つ、それらが前辺同士で接触していることが、表示パターン格納部122から表示パターンを読み出すための要件として設定されている。したがって、ゲームカード4aとゲームカード4cとがそれぞれの前辺と左辺とで接触していても、表示制御部120は、表示パターンを読み出すことはできない。   The display pattern storage unit 122 stores the display pattern of the virtual object. The display pattern may be, for example, an action pattern between characters corresponding to identification information of at least two game card images that satisfy a condition. This operation pattern is stored in association with identification information of at least two game card images and the orientations of those game card images. Specifically, for example, when the game card 4a of the identification information 1 and the game card 4c of the identification information 3 are brought into contact with each other on the front side, the display control unit 120 displays a predetermined operation pattern as a display pattern storage unit. 122 can be read out. In other words, the requirement for reading the display pattern from the display pattern storage unit 122 is that the image of the game card 4a and the image of the game card 4c are in contact with each other and the front sides are in contact with each other. Is set. Therefore, even if the game card 4a and the game card 4c are in contact with each other on the front side and the left side, the display control unit 120 cannot read the display pattern.

表示制御部120は、画像解析装置20から送られるフレーム画像上に、複数のキャラクタの3次元画像データを用いて、決定した表示パターンによりキャラクタの表示処理を行う。   The display control unit 120 performs character display processing using the determined display pattern on the frame image sent from the image analysis device 20 using the three-dimensional image data of a plurality of characters.

図7は、図6に示す状態から、2枚のゲームカードを接触させた状態を示す。ここでは、ゲームカード4aとゲームカード4cを接触させている。なお、ゲームカード4aとゲームカード4cは、それぞれ前辺同士で接触されている。「男」はゲームカード4aの前辺方向を向いており、また「太鼓」もゲームカード4cの前辺方向を向いて配置されているため、「男」は、太鼓の正面に立つことで、太鼓を叩くことができる。逆にいうと、「男」は太鼓の側面に立っても、太鼓を叩くことはできない。接触させるゲームカード4の識別情報および接触時の向きは、既述のように表示パターン格納部122から表示パターンを読み出すための要件となっている。したがって、それぞれのゲームカードの前辺同士を接触させることで、表示制御部120は所定の動作パターンを読み出し、男がゲームカード4c上に置かれていたばちを握り、太鼓を叩く表示処理を実行する。この一連の動きは、読み出された表示パターンにおいて定められたものである。   FIG. 7 shows a state in which two game cards are brought into contact with the state shown in FIG. Here, the game card 4a and the game card 4c are brought into contact with each other. The game card 4a and the game card 4c are in contact with each other at the front sides. Since the “male” faces the front side of the game card 4a and the “drum” is also arranged facing the front side of the game card 4c, the “male” stands in front of the drum, You can strike a drum. In other words, the “man” cannot strike the drum even when standing on the side of the drum. The identification information of the game card 4 to be contacted and the orientation at the time of contact are requirements for reading the display pattern from the display pattern storage unit 122 as described above. Therefore, by bringing the front sides of the respective game cards into contact with each other, the display control unit 120 reads out a predetermined operation pattern, performs a display process in which a man holds a drum placed on the game card 4c and strikes a drum. Execute. This series of movements is defined in the read display pattern.

ゲームアプリケーションにおいて、太鼓を叩く動作は「女」のキャラクタを登場させるための条件となっており、ゲーム進行処理部102は、男により太鼓が叩かれたことを認識すると、「女」をゲームカード4b上に登場させる。続いて、プレイヤは、男と女のキャラクタをレストランの前に移動させる。   In the game application, the operation of tapping the drum is a condition for causing the character of “female” to appear. When the game progress processing unit 102 recognizes that the drum is hit by a man, Appear on 4b. Subsequently, the player moves the male and female characters in front of the restaurant.

図8は、図7に示す状態から、1枚のゲームカードに2枚のゲームカードを接触させた状態を示す。ここでは、ゲームカード4dの左辺に、ゲームカード4aの前辺とゲームカード4bの前辺とを接触させている。接触させるゲームカードの識別情報および向きは、既述のように表示パターンを読み出すための要件として設定されている。ステージ1では、図8のように、男と女のキャラクタをレストランの前に移動させることが、ステージ1を終了してステージ2に進むための移行条件として設定されている。条件判定部112は、ゲームカード4a、4b、4dについて図8に示す位置関係を位置関係検出部110から通知されると、ゲームカード4dの左辺に対してゲームカード4a、4bの前辺がそれぞれ接触していることを判定し、ゲーム進行処理部102に報告する。ゲーム進行処理部102は、この報告を受けると、ステージ1の終了条件が成立したことを認識し、ゲームステージの切替処理を行う。なお、条件判定部112が、この終了条件の成立を判定してもよい。ゲーム進行処理部102は、次のステージ名(ステージ2)をキャラクタ決定部104に通知する。   FIG. 8 shows a state where two game cards are brought into contact with one game card from the state shown in FIG. Here, the front side of the game card 4a and the front side of the game card 4b are brought into contact with the left side of the game card 4d. The identification information and direction of the game card to be contacted are set as requirements for reading the display pattern as described above. In stage 1, as shown in FIG. 8, moving the male and female characters in front of the restaurant is set as a transition condition for ending stage 1 and proceeding to stage 2. When the positional relationship detection unit 110 is notified of the positional relationship shown in FIG. 8 with respect to the game cards 4a, 4b, and 4d, the condition determination unit 112 indicates that the front sides of the game cards 4a and 4b correspond to the left side of the game card 4d. The contact is determined and reported to the game progress processing unit 102. Upon receiving this report, the game progress processing unit 102 recognizes that the stage 1 end condition is satisfied, and performs a game stage switching process. Note that the condition determination unit 112 may determine that the end condition is satisfied. The game progress processing unit 102 notifies the character determination unit 104 of the next stage name (stage 2).

キャラクタ決定部104は、ステージ名を通知されると、図5に示す対応関係を参照して、ステージ2に割り当てられた識別情報の3次元画像データを読み出す。このように、キャラクタ決定部104が、ステージに応じて参照する対応関係を変えることで、ステージごとに新たなキャラクタを登場させることができ、ゲームストーリを充実させることが可能となる。ステージ2では、図5に示したように、識別情報3のゲームカードにキャラクタ「レストランのドア」、識別情報4のゲームカードにキャラクタ「ウェイター」、識別情報5のゲームカードにキャラクタ「テーブルと椅子」が割り当てられ、図8に示すキャラクタ表示が切り替えられる。   When notified of the stage name, the character determination unit 104 reads the three-dimensional image data of the identification information assigned to the stage 2 with reference to the correspondence relationship shown in FIG. As described above, the character determination unit 104 changes the correspondence relationship referred to according to the stage, so that a new character can appear in each stage, and the game story can be enhanced. At stage 2, as shown in FIG. 5, the character “restaurant door” is displayed on the game card with identification information 3, the character “waiter” is displayed on the game card with identification information 4, and the character “table and chair” is displayed on the game card with identification information 5. "Is assigned, and the character display shown in FIG. 8 is switched.

本実施例のゲームシステム1では、ゲームカード画像の位置関係を利用して、上記以外の様々な画像処理技術を実現することができる。   In the game system 1 of the present embodiment, various image processing techniques other than those described above can be realized using the positional relationship of the game card images.

図9は、複数のゲームカード画像に1つのキャラクタを割り当てる処理を説明するための図である。
図9(a)は、3枚のゲームカードに建物が割り当てられている状態を示す。ゲームカード4a、4b、4cに同一の建物が割り当てられているが、ここでは、割り当てるキャラクタの対象は問題としない。図9(b)は、3枚のゲームカードを接触させた状態を示す。このとき、3枚のゲームカード上に1つの大きな建物が割り当てられている。
FIG. 9 is a diagram for explaining a process of assigning one character to a plurality of game card images.
FIG. 9A shows a state in which buildings are allocated to three game cards. Although the same building is allocated to the game cards 4a, 4b, and 4c, the character target to be allocated does not matter here. FIG. 9B shows a state where three game cards are brought into contact with each other. At this time, one large building is allocated on three game cards.

表示パターン格納部122は、条件を満たす少なくとも2つのゲームカード画像に対して、1つの仮想オブジェクトを割り当てた表示パターンを記憶する。この例において、表示パターン格納部122は、3つのゲームカード画像の識別情報(識別情報1、2、3)と、それらのゲームカード画像の接触部分の向きに対応付けた表示パターンを記憶している。ここで、接触部分の向きは左右方向、すなわち、各ゲームカード画像が左辺または右辺にて他のゲームカード画像と接触していることが、表示パターンを読み出すための条件となる。   The display pattern storage unit 122 stores a display pattern in which one virtual object is assigned to at least two game card images that satisfy the conditions. In this example, the display pattern storage unit 122 stores identification information (identification information 1, 2, 3) of three game card images and display patterns associated with the directions of contact portions of the game card images. Yes. Here, the direction of the contact portion is the left-right direction, that is, that each game card image is in contact with another game card image on the left side or the right side is a condition for reading the display pattern.

条件判定部112は、ゲームカード4a、4b、4cが左右方向にて接触していることを判定すると、その判定結果およびゲームカード画像の識別情報、画像の向きが、ゲーム進行処理部102を介して表示制御部120に供給される。表示制御部120は、これらの情報をもとに、表示パターン格納部122から表示パターンを読み出す。表示制御部120は、表示パターンに基づいて、図9(b)に示す表示処理を行う。これにより、キャラクタを大きく表示できるため、ゲームストーリにおいて新たな視覚効果を実現できる。プレイヤは、ゲームカード同士をくっつけてみることで、予想もしないキャラクタが登場することにもなり、ゲームの面白さを高めることもできる。   When the condition determination unit 112 determines that the game cards 4a, 4b, and 4c are in contact in the left-right direction, the determination result, the identification information of the game card image, and the image orientation are transmitted via the game progress processing unit 102. To the display control unit 120. The display control unit 120 reads the display pattern from the display pattern storage unit 122 based on these pieces of information. The display control unit 120 performs display processing shown in FIG. 9B based on the display pattern. Thereby, since a character can be displayed largely, a new visual effect can be realized in the game story. The player can attach game cards to each other so that an unexpected character appears, and the game can be made more interesting.

図10は、キャラクタの向きを変更する処理を説明するための図である。
図10(a)は、ゲームカード4aのキャラクタ「男」とゲームカード4bのキャラクタ「女」との位置関係を示す。キャラクタ「男」から延びる2本の破線101は、男の仮想的な視野角を示す。条件判定部112は、ゲームカード4aの位置情報および方向情報と、ゲームカード4bの位置情報から、ゲームカード4bの画像が、ゲームカード4aの仮想的な視野角に入っているかを判定する。なお、位置情報および方向情報は、位置関係検出部110より引き渡される。キャラクタ「女」が仮想的な視野角に入っていることを判定すると、その判定結果およびゲームカード4a、4bの識別情報をゲーム進行処理部102に伝える。ゲームカード4aは、以後のプレイヤの操作により、矢印の経路に沿って進められるものとする。
FIG. 10 is a diagram for explaining the process of changing the direction of the character.
FIG. 10A shows the positional relationship between the character “male” of the game card 4a and the character “female” of the game card 4b. Two broken lines 101 extending from the character “male” indicate a virtual viewing angle of the man. The condition determination unit 112 determines whether the image of the game card 4b is within the virtual viewing angle of the game card 4a from the position information and direction information of the game card 4a and the position information of the game card 4b. Note that the positional information and the direction information are delivered from the positional relationship detection unit 110. If it is determined that the character “woman” falls within the virtual viewing angle, the determination result and the identification information of the game cards 4 a and 4 b are transmitted to the game progress processing unit 102. It is assumed that the game card 4a is advanced along the path of the arrow by subsequent player operations.

図10(b)は、図10(a)に示す矢印に沿って動かした後の状態を示す。ゲームカード4aのキャラクタは、本来前方方向を向くように設定されているが、この例ではゲームカード4bのキャラクタの方向を向いている。表示制御部120は、ゲーム進行処理部102からゲームカード4a、4bの識別情報と、ゲームカード4bがゲームカード4aの視野角に入っていることを示す情報を受け取る。表示パターン格納部122は、ゲームカード4aのキャラクタがゲームカード4bのキャラクタを見続けるように向きを変えることを示す動作パターンを記憶している。この表示パターンは、これらのゲームカードと視野角の関係が成立したことを条件として読み出し可能に設定されている。表示制御部120は、この動作パターンを読み出し、図10(b)に示す表示処理を実行する。すなわち、表示制御部120は、ゲームカード4aのキャラクタの向きを、ゲームカード4bのキャラクタの位置に応じて変化させる。これによりプレイヤは、ゲームカード4aのキャラクタにとってゲームカード4bのキャラクタがゲーム進行に重要な影響を及ぼす可能性があることを認識する。このような表示態様は、プレイヤに対して、ゲームカード4aをゲームカード4bに接触させて新たなイベントを発生させる契機を与えることになる。   FIG.10 (b) shows the state after moving along the arrow shown to Fig.10 (a). The character of the game card 4a is originally set to face forward, but in this example, the character of the game card 4b faces. The display control unit 120 receives from the game progress processing unit 102 identification information of the game cards 4a and 4b and information indicating that the game card 4b is within the viewing angle of the game card 4a. The display pattern storage unit 122 stores an action pattern indicating that the character of the game card 4a changes its direction so as to continue watching the character of the game card 4b. This display pattern is set to be readable on condition that the relationship between these game cards and the viewing angle is established. The display control unit 120 reads this operation pattern and executes the display process shown in FIG. That is, the display control unit 120 changes the direction of the character of the game card 4a according to the position of the character of the game card 4b. Thereby, the player recognizes that the character of the game card 4b may have an important influence on the progress of the game for the character of the game card 4a. Such a display mode gives the player an opportunity to generate a new event by bringing the game card 4a into contact with the game card 4b.

図11は、仮想オブジェクトを伸縮して表示する処理を説明するための図である。
図11(a)は、ゲームカード4aとゲームカード4bとが接触した状態を示す。2枚のゲームカードを接触させると、キャラクタ同士の間に、仮想オブジェクト103が発生する。この仮想オブジェクト103は、図11(b)に示すように、ゲームカード同士を離すことにより、伸びるように表現される。一方、図11(b)に示す状態から再びゲームカード同士を近づけていくと、仮想オブジェクト103は縮むように表現される。これにより、新たな視覚効果を実現できる。なお、表示パターン格納部122は、ゲームカード4aとゲームカード4bの前辺同士が接触することで、キャラクタの間に、それらの位置関係に応じて伸縮可能な仮想オブジェクトを発生させる表示パターンを記憶している。
FIG. 11 is a diagram for explaining processing for expanding and contracting a virtual object.
FIG. 11A shows a state where the game card 4a and the game card 4b are in contact with each other. When two game cards are brought into contact with each other, a virtual object 103 is generated between the characters. As shown in FIG. 11B, the virtual object 103 is expressed so as to extend when the game cards are separated from each other. On the other hand, when the game cards are brought closer together from the state shown in FIG. 11B, the virtual object 103 is expressed so as to shrink. Thereby, a new visual effect is realizable. In addition, the display pattern storage part 122 memorize | stores the display pattern which produces | generates the virtual object which can be expanded-contracted according to those positional relationship between characters, when the front sides of the game card 4a and the game card 4b contact. is doing.

位置関係検出部110が、ゲームカード画像間の位置関係が第1の状態から第2の状態に移行することを検出すると、表示制御部120が、それぞれの識別情報に対応するキャラクタ間において、それらを結ぶ仮想オブジェクトを伸縮して表示する表示パターンを表示パターン格納部122から読み出して決定する。表示制御部120は、その表示パターンを用いて、図11(a)および図11(b)に示す表示を行う。   When the positional relationship detection unit 110 detects that the positional relationship between the game card images shifts from the first state to the second state, the display control unit 120 determines that the characters corresponding to the respective identification information A display pattern for expanding and contracting the virtual object connecting the two is read out from the display pattern storage unit 122 and determined. The display control unit 120 performs the display shown in FIGS. 11A and 11B using the display pattern.

図12は、ゲーム性を向上するために、プレイヤに課題をだした状態を示す。例えば、その課題は、2枚のゲームカード4をくっつけたまま、ディスプレイ7に表示される矢印105にしたがって、ゲームカード4を台3上で移動させるというものである。位置関係検出部110は、ゲームカード4a、4bのそれぞれの移動ベクトルを計算し、その平均を2枚のゲームカードの移動方向とする。移動ベクトルは、ゲームカード画像の中心座標および距離情報をフレームごとにメモリ(図示せず)に保存し、前後のフレームにおけるゲームカード4の距離変化および中心座標の差分から算出される。条件判定部112は、移動ベクトルから、課題が達成されたか否かを判定し、具体的には移動ベクトルが矢印105に沿っているかを判定して、ベクトルと矢印105の向きが実質的に同一であれば、課題をクリアできたものとする。プレイヤは課題をクリアすることで、ゲーム上でオプション的なメリットなどを受けるようにしてもよい。   FIG. 12 shows a state in which a problem is given to the player in order to improve the game performance. For example, the problem is that the game card 4 is moved on the table 3 according to the arrow 105 displayed on the display 7 while the two game cards 4 are attached. The positional relationship detection unit 110 calculates each movement vector of the game cards 4a and 4b, and sets the average as the movement direction of the two game cards. The movement vector is calculated from the change in the distance of the game card 4 and the difference between the center coordinates in the previous and subsequent frames by storing the center coordinates and distance information of the game card image in a memory (not shown) for each frame. The condition determination unit 112 determines whether the task has been achieved from the movement vector, specifically, determines whether the movement vector is along the arrow 105, and the direction of the vector and the arrow 105 is substantially the same. If so, it is assumed that the task has been cleared. The player may receive an optional merit on the game by clearing the task.

図13は、実施例の画像処理フローを示す。ゲーム装置30において、位置関係検出部110が、撮像装置2により撮像されたフレーム画像に含まれる複数のゲームカード4の画像の位置関係を検出する(S10)。条件判定部112は、位置関係検出部110により検出された位置関係に基づいて、ゲームカード4間の位置関係が所定の条件を満足するか否かを判定する(S12)。所定の条件が成立した場合(S12のY)、表示制御部120が、成立した条件に対応付けられた表示パターンを決定して、表示パターン格納部122から読み出す(S14)。表示制御部120は、決定した表示パターンによりキャラクタの表示処理を行う(S16)。   FIG. 13 shows an image processing flow of the embodiment. In the game device 30, the positional relationship detection unit 110 detects the positional relationship between the images of the plurality of game cards 4 included in the frame image captured by the imaging device 2 (S10). The condition determination unit 112 determines whether or not the positional relationship between the game cards 4 satisfies a predetermined condition based on the positional relationship detected by the positional relationship detection unit 110 (S12). When the predetermined condition is satisfied (Y in S12), the display control unit 120 determines a display pattern associated with the satisfied condition and reads it from the display pattern storage unit 122 (S14). The display control unit 120 performs a character display process using the determined display pattern (S16).

所定の条件が成立せず(S12のN)、ステージが継続する間(S18のN)、位置関係検出部110が、ゲームカード4間の位置関係を検出し続ける。ステージが切り替わると(S18のY)、このフローは終了する。次のステージが開始すると、ステージに応じたキャラクタの3次元画像データが読み出され、上記したフローが実行される。   While the predetermined condition is not satisfied (N in S12) and the stage continues (N in S18), the positional relationship detection unit 110 continues to detect the positional relationship between the game cards 4. When the stage is switched (Y in S18), this flow ends. When the next stage starts, the three-dimensional image data of the character corresponding to the stage is read, and the above-described flow is executed.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

上記した実施例では、ゲームカード4間の位置関係に基づいて、キャラクタの表示態様を制御した。ゲームアプリケーションの興趣を高めるために、キャラクタの表示態様だけでなく、音声などによる演出を行ってもよい。この場合、条件判定部112においてゲームカード4間の位置関係が所定の条件を満たすことが判定されると、ゲーム進行処理部102は、その旨を図示しない音声制御部に通知して、音声制御部がスピーカを通じてキャラクタの聴覚的な演出を行ってもよい。このとき、ゲーム装置30は、画像処理装置として機能するだけでなく、音声処理装置としても機能するため、ゲーム装置30を、画像および音声の両方を制御可能な処理装置と呼ぶこともできる。なお、ゲーム装置30は、ゲームカード4間の位置関係に基づいて、音声制御のみを行ってもよい。   In the embodiment described above, the display mode of the character is controlled based on the positional relationship between the game cards 4. In order to enhance the interest of the game application, not only the display mode of the character but also an effect such as voice may be performed. In this case, when the condition determination unit 112 determines that the positional relationship between the game cards 4 satisfies the predetermined condition, the game progress processing unit 102 notifies the voice control unit (not shown) to that effect and performs voice control. The part may perform an auditory performance of the character through a speaker. At this time, the game apparatus 30 not only functions as an image processing apparatus but also functions as an audio processing apparatus. Therefore, the game apparatus 30 can also be referred to as a processing apparatus capable of controlling both images and sounds. Note that the game apparatus 30 may perform only sound control based on the positional relationship between the game cards 4.

実施例にかかるゲームシステムの構成を示す図である。It is a figure which shows the structure of the game system concerning an Example. ゲームカードの表面の一例を示す図である。It is a figure which shows an example of the surface of a game card. 画像解析装置の構成を示す図である。It is a figure which shows the structure of an image analyzer. ゲーム装置の構成を示す図である。It is a figure which shows the structure of a game device. キャラクタ格納部の記憶内容を示す図である。It is a figure which shows the memory content of a character storage part. ステージ1におけるディスプレイの表示例を示す図である。6 is a diagram showing a display example of a display in stage 1. FIG. 図6に示す状態から、2枚のゲームカードを接触させた状態を示す図である。It is a figure which shows the state which made the two game cards contact from the state shown in FIG. 図7に示す状態から、1枚のゲームカードに2枚のゲームカードを接触させた状態を示す図である。It is a figure which shows the state which made the two game cards contact the one game card from the state shown in FIG. 複数のゲームカード画像に1つのキャラクタを割り当てる処理を説明するための図である。It is a figure for demonstrating the process which allocates one character to several game card images. キャラクタの向きを変更する処理を説明するための図である。It is a figure for demonstrating the process which changes the direction of a character. 仮想オブジェクトを伸縮して表示する処理を説明するための図である。It is a figure for demonstrating the process which expands and contracts a virtual object. プレイヤに課題をだした状態を示す図である。It is a figure which shows the state which gave the subject to the player. 画像処理のフローチャートである。It is a flowchart of an image process.

符号の説明Explanation of symbols

1・・・ゲームシステム、2・・・撮像装置、4・・・ゲームカード、5・・・撮像領域、7・・・ディスプレイ、10・・・画像処理装置、20・・・画像解析装置、30・・・ゲーム装置、40・・・フレーム画像取得部、42・・・実オブジェクト抽出部、44・・・状態決定部、46・・・識別情報取得部、48・・・識別情報格納部、50・・・送出部、52・・・位置決定部、54・・・方向決定部、56・・・距離決定部、100・・・解析情報取得部、102・・・ゲーム進行処理部、104・・・キャラクタ決定部、106・・・キャラクタ格納部、110・・・位置関係検出部、112・・・条件判定部、120・・・表示制御部、122・・・表示パターン格納部。
DESCRIPTION OF SYMBOLS 1 ... Game system, 2 ... Imaging device, 4 ... Game card, 5 ... Imaging area, 7 ... Display, 10 ... Image processing device, 20 ... Image analysis device, DESCRIPTION OF SYMBOLS 30 ... Game device, 40 ... Frame image acquisition part, 42 ... Real object extraction part, 44 ... State determination part, 46 ... Identification information acquisition part, 48 ... Identification information storage part , 50 ... sending unit, 52 ... position determining unit, 54 ... direction determining unit, 56 ... distance determining unit, 100 ... analysis information acquiring unit, 102 ... game progress processing unit, 104: Character determination unit, 106: Character storage unit, 110: Position relation detection unit, 112 ... Condition determination unit, 120 ... Display control unit, 122 ... Display pattern storage unit

Claims (1)

実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部と、
撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の位置関係を検出する位置関係検出部と、
少なくとも2つの実オブジェクト画像について検出した位置関係が所定の条件を満たすか否かを判定する条件判定部と、
フレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの3次元画像データを格納部から読み出す読出部と、
条件判定部により所定の条件が満たされたことが判定された場合に、条件を満たす少なくとも2つの実オブジェクト画像の識別情報に基づいて仮想オブジェクトの表示パターンを決定し、読み出された複数の3次元画像データを用いて、決定した表示パターンにより仮想オブジェクトの表示処理を行う表示制御部と、
を備え、
位置関係検出部により検出される実オブジェクト画像間の位置関係が第1の状態から第2の状態に移行するとき、表示制御部は、それぞれの実オブジェクト画像の識別情報に対応する仮想オブジェクトの間において、仮想オブジェクト同士を結ぶように発生させた別の仮想オブジェクトを伸ばし又は縮めて表示する表示パターンを決定することを特徴とする画像処理装置。
A storage unit that stores identification information for identifying a real object and three-dimensional image data of the virtual object in association with each other;
A positional relationship detection unit that detects a positional relationship between a plurality of real object images included in a frame image captured by the imaging device;
A condition determination unit that determines whether the positional relationship detected for at least two real object images satisfies a predetermined condition;
A reading unit that reads out three-dimensional image data of a plurality of virtual objects associated with identification information of a plurality of real object images included in the frame image from a storage unit;
When the condition determining unit determines that the predetermined condition is satisfied, the display pattern of the virtual object is determined based on the identification information of at least two real object images that satisfy the condition, and the plurality of read three A display control unit that performs display processing of the virtual object using the determined display pattern using the dimensional image data;
With
When the positional relationship between the real object images detected by the positional relationship detection unit shifts from the first state to the second state, the display control unit detects whether the virtual object corresponding to the identification information of each real object image And determining a display pattern to be displayed by extending or contracting another virtual object generated so as to connect the virtual objects .
JP2004254887A 2004-09-01 2004-09-01 Image processing device Active JP3844482B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004254887A JP3844482B2 (en) 2004-09-01 2004-09-01 Image processing device
US11/661,585 US7991220B2 (en) 2004-09-01 2005-05-25 Augmented reality game system using identification information to display a virtual object in association with a position of a real object
PCT/JP2005/009547 WO2006025137A1 (en) 2004-09-01 2005-05-25 Image processor, game machine, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004254887A JP3844482B2 (en) 2004-09-01 2004-09-01 Image processing device

Publications (2)

Publication Number Publication Date
JP2006072668A JP2006072668A (en) 2006-03-16
JP3844482B2 true JP3844482B2 (en) 2006-11-15

Family

ID=36153238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004254887A Active JP3844482B2 (en) 2004-09-01 2004-09-01 Image processing device

Country Status (1)

Country Link
JP (1) JP3844482B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5285901B2 (en) * 2007-12-21 2013-09-11 株式会社タイトー Card game device, card game program
US8231465B2 (en) * 2008-02-21 2012-07-31 Palo Alto Research Center Incorporated Location-aware mixed-reality gaming platform
JP5812628B2 (en) * 2011-02-25 2015-11-17 任天堂株式会社 Information processing program, information processing method, information processing apparatus, and information processing system
JP5704963B2 (en) * 2011-02-25 2015-04-22 任天堂株式会社 Information processing system, information processing method, information processing apparatus, and information processing program
JP2012203786A (en) * 2011-03-28 2012-10-22 Tomy Co Ltd Information processor and information processing program
JP5735861B2 (en) * 2011-06-01 2015-06-17 任天堂株式会社 Image display program, image display apparatus, image display method, image display system, marker
JP5718197B2 (en) * 2011-09-14 2015-05-13 株式会社バンダイナムコゲームス Program and game device
JP5988563B2 (en) * 2011-10-25 2016-09-07 キヤノン株式会社 Image processing apparatus, image processing apparatus control method and program, information processing apparatus and information processing apparatus control method, and program
JP5891125B2 (en) 2012-06-29 2016-03-22 株式会社ソニー・コンピュータエンタテインメント Video processing apparatus, video processing method, and video processing system
JP2014071838A (en) * 2012-10-01 2014-04-21 Dainippon Printing Co Ltd Image processor and card game implement
JP6021592B2 (en) * 2012-11-06 2016-11-09 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
GB2540732A (en) * 2015-05-21 2017-02-01 Blue Sky Designs Ltd Augmented reality images and method
US10532271B2 (en) * 2015-10-23 2020-01-14 Chol Whan OH Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects
JP6161749B2 (en) * 2016-02-22 2017-07-12 株式会社ソニー・インタラクティブエンタテインメント Video processing apparatus, video processing method, and video processing system
JP6932322B2 (en) * 2016-03-31 2021-09-08 株式会社バンダイナムコエンターテインメント Programs and computer systems
JP6801263B2 (en) * 2016-06-30 2020-12-16 富士通株式会社 Display control program, display control method and display control device
CN108022301B (en) * 2017-11-23 2020-05-19 腾讯科技(上海)有限公司 Image processing method and device and storage medium
JP2019133276A (en) * 2018-01-29 2019-08-08 株式会社ザグローバルゲームズ Image processing system and terminal
JP6999516B2 (en) * 2018-07-27 2022-01-18 株式会社Nttドコモ Information processing equipment
JPWO2021192686A1 (en) * 2020-03-23 2021-09-30

Also Published As

Publication number Publication date
JP2006072668A (en) 2006-03-16

Similar Documents

Publication Publication Date Title
JP3844482B2 (en) Image processing device
JP3841806B2 (en) Image processing apparatus and image processing method
US7991220B2 (en) Augmented reality game system using identification information to display a virtual object in association with a position of a real object
KR101086068B1 (en) 3 dimensional marker detection method and device and method for providing augmented reality and mixed reality using the same
US8777742B2 (en) Game device, control method for a game device, and non-transitory information storage medium
US20110305368A1 (en) Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
EP2371434A2 (en) Image generation system, image generation method, and information storage medium
JP2005230156A (en) Image display system, image processing system, and video game system
JP2010026818A (en) Image processing program, image processor, and image processing method
JP2011189066A (en) Game device, control method for game device, and program
WO2016056317A1 (en) Information processor and information-processing method
CN110737414B (en) Interactive display method, device, terminal equipment and storage medium
JP4133976B2 (en) Image processing apparatus, game apparatus, and image processing method
JP2006260602A (en) Image processing apparatus
US20210019900A1 (en) Recording medium, object detection apparatus, object detection method, and object detection system
JP2005056059A (en) Input device and method using head mounting type display equipped with image pickup part
JP4576146B2 (en) Specific image position estimation device
CN110737326A (en) Virtual object display method and device, terminal equipment and storage medium
JP6640294B1 (en) Mixed reality system, program, portable terminal device, and method
JP4218963B2 (en) Information extraction method, information extraction apparatus, and recording medium
JP3819911B2 (en) Entertainment equipment
JP5796596B2 (en) Support method, support system, control device, image forming apparatus, and support program
JP4886575B2 (en) Attitude detection apparatus, attitude detection method, program, and information storage medium
JP3874761B2 (en) Entertainment device, entertainment method and program
JP2007007428A (en) Image display system, image processing system, and video game system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060418

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060518

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060613

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060815

R150 Certificate of patent or registration of utility model

Ref document number: 3844482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090825

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100825

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110825

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110825

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120825

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120825

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130825

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250