JP3841806B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP3841806B2
JP3841806B2 JP2004254886A JP2004254886A JP3841806B2 JP 3841806 B2 JP3841806 B2 JP 3841806B2 JP 2004254886 A JP2004254886 A JP 2004254886A JP 2004254886 A JP2004254886 A JP 2004254886A JP 3841806 B2 JP3841806 B2 JP 3841806B2
Authority
JP
Japan
Prior art keywords
real object
display
game
virtual object
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004254886A
Other languages
Japanese (ja)
Other versions
JP2006072667A (en
Inventor
伸樹 長井
哲也 渡辺
裕介 飯田
孝尚 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2004254886A priority Critical patent/JP3841806B2/en
Priority to US11/661,585 priority patent/US7991220B2/en
Priority to PCT/JP2005/009547 priority patent/WO2006025137A1/en
Publication of JP2006072667A publication Critical patent/JP2006072667A/en
Application granted granted Critical
Publication of JP3841806B2 publication Critical patent/JP3841806B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理技術に関し、特に実オブジェクトと仮想オブジェクトとを関連付けて表示させる技術に関する。   The present invention relates to an image processing technique, and more particularly to a technique for displaying a real object and a virtual object in association with each other.

近年、2次元コードをカメラで撮像して認識し、2次元コードのパターンに基づいた所定の処理を実行する技術が普及している。そのような技術の1つとして、2次元バーコードをビデオカメラで撮像して、2次元バーコードに対応する3次元画像を表示装置に表示させる画像処理技術が提案されている(例えば、特許文献1参照)。特許文献1では、撮像した2次元バーコードの座標およびCCDビデオカメラの焦点距離をもとに、3次元オブジェクトを表示する空間上の座標を決定し、2次元バーコードに3次元オブジェクトを重畳させて表示する。
特開2000−322602号公報
2. Description of the Related Art In recent years, a technique has been widely used in which a two-dimensional code is captured and recognized by a camera and a predetermined process based on a two-dimensional code pattern is executed. As one of such techniques, an image processing technique has been proposed in which a two-dimensional barcode is imaged by a video camera and a three-dimensional image corresponding to the two-dimensional barcode is displayed on a display device (for example, Patent Documents). 1). In Patent Document 1, coordinates on a space for displaying a three-dimensional object are determined based on the coordinates of the captured two-dimensional barcode and the focal length of the CCD video camera, and the three-dimensional object is superimposed on the two-dimensional barcode. To display.
JP 2000-322602 A

特許文献1に開示された技術は、実世界のオブジェクトと仮想のオブジェクトとを組み合わせて表示させることで、優れた視覚効果を実現可能とする。しかしながら、特許文献1は、2次元バーコードが静止した状態における仮想オブジェクトの表示技術を開示するのみであり、2次元バーコードを動かしたときの仮想オブジェクトの表示処理について意識するものではない。本発明者は、2次元バーコードを動かしたときの表示処理に注目し、このときの仮想オブジェクトの表示処理に工夫を凝らすことで、例えば、ゲーム分野などの動画像を処理する分野に応用して、さらに優れた視覚効果を実現する可能性が秘められていることを見出した。   The technique disclosed in Patent Literature 1 can realize an excellent visual effect by displaying a combination of a real-world object and a virtual object. However, Patent Document 1 only discloses a display technique of a virtual object in a state where the two-dimensional barcode is stationary, and is not conscious of display processing of the virtual object when the two-dimensional barcode is moved. The present inventor pays attention to display processing when moving a two-dimensional barcode, and applies it to the field of processing moving images such as in the game field by elaborating the display processing of the virtual object at this time. And found that it has the potential to achieve even better visual effects.

本発明は、実オブジェクトと仮想オブジェクトとを関連付けて表示させる技術を提供することを目的とし、特に、動画像表示を行うゲームなどの分野において、実オブジェクトの動きに関連して仮想オブジェクトの表示態様を制御する技術を提供することを目的とする。   An object of the present invention is to provide a technique for displaying a real object and a virtual object in association with each other, and in particular, in a field such as a game for displaying a moving image, a display mode of the virtual object in relation to the movement of the real object. An object is to provide a technique for controlling the above.

上記課題を解決するために、本発明のある態様は、画像処理装置に関する。この態様の画像処理装置は、実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部と、撮像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報に対応付けられた仮想オブジェクトの3次元画像データを格納部から読み出す読出部と、読み出された3次元画像データを用いて、仮想オブジェクトを、実オブジェクトの表示位置に関連付けて表示装置に表示させる表示制御部と、撮像装置により撮像された実オブジェクト画像の時間的な状態変化を検出する変化検出部とを備える。この態様の画像処理装置において、表示制御部は、変化検出部において検出された状態変化に基づいて仮想オブジェクトの表示態様を制御する。ここで、実オブジェクトは、現実空間において有体物として存在する実在オブジェクトであり、また、仮想オブジェクトは、現実空間には存在せず、仮想空間においてデータで表現されるものを意味する。   In order to solve the above problems, an aspect of the present invention relates to an image processing apparatus. An image processing apparatus according to this aspect includes a storage unit that stores identification information for identifying a real object and three-dimensional image data of the virtual object in association with each other, and a real object included in a frame image captured by the imaging apparatus A readout unit that reads out the 3D image data of the virtual object associated with the image identification information from the storage unit, and displays the virtual object in association with the display position of the real object using the read out 3D image data. A display control unit to be displayed on the device, and a change detection unit that detects a temporal state change of the real object image captured by the imaging device. In the image processing apparatus of this mode, the display control unit controls the display mode of the virtual object based on the state change detected by the change detection unit. Here, the real object is a real object that exists as a tangible object in the real space, and the virtual object does not exist in the real space, but is expressed by data in the virtual space.

この画像処理装置によると、撮像された実オブジェクト画像の状態変化、換言すると現実の実オブジェクトの動きに基づいて仮想オブジェクトの表示態様を制御するため、実オブジェクトの動きに応じた仮想オブジェクトの新たな視覚表現を実現できる。   According to this image processing apparatus, since the display mode of the virtual object is controlled based on the change in the state of the captured real object image, in other words, based on the actual movement of the real object, a new virtual object corresponding to the movement of the real object can be controlled. Visual expression can be realized.

本発明の別の態様は、ゲーム装置に関する。この態様のゲーム装置は、実オブジェクトを識別するための識別情報と、ゲームキャラクタの3次元画像データとを対応付けて記憶する格納部と、撮像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報に対応付けられたゲームキャラクタの3次元画像データを格納部から読み出す読出部と、読み出された3次元画像データを用いて、ゲームキャラクタを、実オブジェクトの表示位置に関連付けて表示装置に表示させる表示制御部と、撮像装置により撮像された実オブジェクト画像の時間的な状態変化を検出する変化検出部とを備える。この態様のゲーム装置において、表示制御部は、変化検出部において検出された状態変化に基づいてゲームキャラクタの表示態様を制御する。   Another aspect of the present invention relates to a game device. The game device according to this aspect includes a storage unit that stores identification information for identifying a real object and three-dimensional image data of the game character in association with each other, and a real object image included in a frame image captured by the imaging device A reading unit that reads out the three-dimensional image data of the game character associated with the identification information from the storage unit, and a display device that associates the game character with the display position of the real object using the read-out three-dimensional image data A display control unit to be displayed, and a change detection unit that detects a temporal state change of the real object image captured by the imaging device. In the game device of this mode, the display control unit controls the display mode of the game character based on the state change detected by the change detection unit.

このゲーム装置によると、撮像された実オブジェクト画像の状態変化、換言すると実オブジェクトの動きに基づいてゲームキャラクタの表示態様を制御するため、実オブジェクトの動きに応じたゲームキャラクタの新たな視覚表現を実現できる。   According to this game apparatus, in order to control the display mode of the game character based on the state change of the captured real object image, in other words, based on the movement of the real object, a new visual expression of the game character corresponding to the movement of the real object is generated. realizable.

本発明のさらに別の態様は、実オブジェクトを識別するための識別情報と仮想オブジェクトの3次元画像データとを対応付けて記憶した格納部から、撮像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報に対応付けられた仮想オブジェクトの3次元画像データを読み出すステップと、読み出した3次元画像データを用いて、仮想オブジェクトを、実オブジェクトの表示位置に関連付けて表示装置に表示させるステップと、撮像装置により撮像された実オブジェクト画像の時間的な状態変化を検出するステップと、検出した状態変化に基づいて仮想オブジェクトの表示態様を制御するステップとを備える画像処理方法を提供する。   Still another aspect of the present invention provides a real object included in a frame image captured by an imaging device from a storage unit that stores identification information for identifying a real object and three-dimensional image data of the virtual object in association with each other. Reading three-dimensional image data of the virtual object associated with the identification information of the image, and displaying the virtual object on the display device in association with the display position of the real object using the read three-dimensional image data; An image processing method comprising: detecting a temporal state change of a real object image captured by an imaging device; and controlling a display mode of a virtual object based on the detected state change.

本発明のさらに別の態様は、コンピュータに、実オブジェクトを識別するための識別情報と仮想オブジェクトの3次元画像データとを対応付けて記憶した格納部から、撮像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報に対応付けられた仮想オブジェクトの3次元画像データを読み出させる機能と、読み出させた3次元画像データを用いて、仮想オブジェクトを、実オブジェクトの表示位置に関連付けて表示装置に表示させる機能と、撮像装置により撮像された実オブジェクト画像の時間的な状態変化を検出させる機能と、検出させた状態変化に基づいて仮想オブジェクトの表示態様を制御する機能とを実行させるためのプログラムを提供する。   Still another aspect of the present invention includes a frame image captured by an imaging device from a storage unit that stores identification information for identifying a real object and three-dimensional image data of a virtual object in association with each other. The virtual object is associated with the display position of the real object using the function of reading the three-dimensional image data of the virtual object associated with the identification information of the real object image and the read three-dimensional image data. A function to be displayed on the display device, a function to detect a temporal state change of the real object image captured by the imaging device, and a function to control the display mode of the virtual object based on the detected state change are executed. A program is provided.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によると、実オブジェクトの動きに関連して仮想オブジェクトの表示態様を制御する技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which controls the display mode of a virtual object in relation to the motion of a real object can be provided.

本発明は、撮像装置により撮像された実オブジェクトの画像の時間的な状態変化を検出し、検出した状態変化に基づいて仮想オブジェクトの表示態様を制御する技術を提供する。実オブジェクトは、実在する1次元オブジェクト、2次元オブジェクトまたは3次元オブジェクトのいずれであってもよく、実オブジェクト自身を識別させるための特徴部分を有して構成されることが好ましい。例えば、実オブジェクトは、2次元で表現されたコード情報を特徴部分として有するカードなどの2次元オブジェクトであってもよく、またユニークな立体形状を特徴部分として有する3次元オブジェクトであってもよい。なお、2次元オブジェクトの2次元形状がユニークな特徴部分を構成してもよく、また3次元オブジェクトに特徴部分となるコード情報が貼り付けられていてもよい。仮想オブジェクトは、仮想空間において3次元的に表現される人、動物、物などの所謂キャラクタであってもよい。以下に示す実施例は、ゲームアプリケーションにおける画像処理技術に関し、ゲームアプリケーションに登場するゲームキャラクタを、仮想オブジェクトして採用している。   The present invention provides a technology for detecting a temporal state change of an image of a real object imaged by an imaging device and controlling a display mode of a virtual object based on the detected state change. The real object may be an existing one-dimensional object, two-dimensional object, or three-dimensional object, and is preferably configured to have a characteristic portion for identifying the real object itself. For example, the real object may be a two-dimensional object such as a card having code information expressed in two dimensions as a characteristic part, or may be a three-dimensional object having a unique three-dimensional shape as a characteristic part. Note that the two-dimensional shape of the two-dimensional object may constitute a unique feature portion, and code information serving as the feature portion may be attached to the three-dimensional object. The virtual object may be a so-called character such as a person, an animal, or an object that is three-dimensionally expressed in the virtual space. The following embodiment relates to an image processing technique in a game application, and employs a game character appearing in the game application as a virtual object.

図1は、本発明の実施例にかかるゲームシステム1の構成を示す。ゲームシステム1は、撮像装置2、画像処理装置10および出力装置6を備える。画像処理装置10は、画像解析装置20およびゲーム装置30を備える。画像解析装置20およびゲーム装置30は別装置として構成されてもよいが、一体として構成されてもよい。撮像装置2は、CCD撮像素子またはMOS撮像素子などから構成されるビデオカメラである。撮像装置2は実空間を所定の周期で撮像して、周期ごとのフレーム画像を生成する。撮像領域5は撮像装置2により撮像される範囲であり、撮像装置2の高さや向きを調整することで、撮像領域5の位置や大きさが調整される。ゲームプレイヤは、撮像領域5において、実オブジェクトであるゲームカード4を指で動かす。ゲームカード4は、自身を一意に識別するための特徴部分を有して構成される。   FIG. 1 shows a configuration of a game system 1 according to an embodiment of the present invention. The game system 1 includes an imaging device 2, an image processing device 10, and an output device 6. The image processing device 10 includes an image analysis device 20 and a game device 30. The image analysis device 20 and the game device 30 may be configured as separate devices, but may be configured as a single unit. The imaging device 2 is a video camera that includes a CCD imaging device or a MOS imaging device. The imaging device 2 images the real space at a predetermined cycle and generates a frame image for each cycle. The imaging region 5 is a range where the imaging device 2 captures an image, and the position and size of the imaging region 5 are adjusted by adjusting the height and direction of the imaging device 2. The game player moves the game card 4 that is a real object with a finger in the imaging area 5. The game card 4 has a characteristic part for uniquely identifying itself.

出力装置6は、表示装置であるディスプレイ7を有する。出力装置6は、さらにスピーカ(図示せず)を有して構成されてもよい。基本的に画像処理装置10は、撮像装置2により撮像されたフレーム画像をディスプレイ7に表示させ、その際に、ゲームカード4上に仮想オブジェクトであるキャラクタを重畳するように表示制御する。プレイヤは、ディスプレイ7を見ることで、ゲームカード4が撮像領域5に入っているか容易に確認でき、入っていない場合には、ゲームカード4の位置をずらしたり、また撮像装置2の向きを調整して、撮像装置2にゲームカード4を撮像させるようにする。   The output device 6 includes a display 7 that is a display device. The output device 6 may further include a speaker (not shown). Basically, the image processing apparatus 10 displays the frame image captured by the imaging apparatus 2 on the display 7, and controls display so that a character that is a virtual object is superimposed on the game card 4. The player can easily check whether or not the game card 4 is in the imaging area 5 by looking at the display 7. If not, the player can shift the position of the game card 4 or adjust the orientation of the imaging device 2. Then, the imaging device 2 is caused to image the game card 4.

実施例のゲームアプリケーションでは、プレイヤがゲームカード4に対して所定の操作を施すことにより、キャラクタを動作させる。このゲームアプリケーションの性質上、プレイヤにゲームカード4とキャラクタとの一体性を認識させることが好ましく、そのため、キャラクタの画像を、ゲームカード4に重ね合わせて表示させている。撮像領域5内でゲームカード4をゆっくりと移動させると、キャラクタは、ゲームカード4の上に乗った状態を維持しながら、ゲームカード4の動きに追従して一緒に移動する。   In the game application of the embodiment, the player operates the character by performing a predetermined operation on the game card 4. Due to the nature of the game application, it is preferable that the player recognize the unity between the game card 4 and the character, and therefore, the character image is displayed superimposed on the game card 4. When the game card 4 is slowly moved within the imaging area 5, the character moves together following the movement of the game card 4 while maintaining the state of riding on the game card 4.

以上のキャラクタの動きは、画像処理装置10により制御される。まず、画像解析装置20は、撮像装置2において取得されたフレーム画像から、ゲームカード4の画像情報を抽出する。さらに、画像解析装置20は、ゲームカード4の画像情報から、ゲームカード4を識別するためのユニークな特徴部分を抽出する。このとき、画像解析装置20は、ゲームカード4の画像情報から、ゲームカード4の空間における姿勢情報、方向情報、距離情報などを決定する。   The movement of the above characters is controlled by the image processing apparatus 10. First, the image analysis device 20 extracts image information of the game card 4 from the frame image acquired by the imaging device 2. Further, the image analysis device 20 extracts a unique feature portion for identifying the game card 4 from the image information of the game card 4. At this time, the image analysis device 20 determines posture information, direction information, distance information, and the like in the space of the game card 4 from the image information of the game card 4.

図2は、ゲームカード4の表面の一例を示す。ゲームカード4の表面には、方向指示部11と識別部12とが印刷されている。方向指示部11は、ゲームカード4の前部を示すために設けられ、識別部12は、ゲームカード4を一意に識別するための特徴部分を表現するために設けられる。識別部12は、所定の区画内に複数のブロックを印刷して作成されたコード情報である。複数のブロックのうち、4角のブロックは複数のゲームカード4に共通して付与され、実質的には4角以外のブロックにより、特徴部分が形成される。4角のブロックは、撮像装置2からの距離を測定するために利用される。   FIG. 2 shows an example of the surface of the game card 4. On the surface of the game card 4, a direction instruction unit 11 and an identification unit 12 are printed. The direction instruction unit 11 is provided to indicate the front part of the game card 4, and the identification unit 12 is provided to express a characteristic portion for uniquely identifying the game card 4. The identification unit 12 is code information created by printing a plurality of blocks in a predetermined section. Among the plurality of blocks, a square block is commonly given to the plurality of game cards 4, and a characteristic portion is substantially formed by blocks other than the four corners. The quadrangular block is used to measure the distance from the imaging device 2.

図1に戻って、画像解析装置20は、フレーム画像中のゲームカード4を認識すると、ゲームカード4の画像における4角のブロック間の長さをもとに、撮像装置2とゲームカード4との距離を計算して求める。また、画像解析装置20は、ゲームカード4の方向指示部11を検出して、フレーム画像においてゲームカード4が向いている方向を求める。この場合、方向指示部11が存在する方向が前方となり、キャラクタは、ゲームカード4上にて前方を向くように表示制御される。さらに、画像解析装置20は、識別部12の4角以外のブロックから、ゲームカード4の識別情報を取得する。   Returning to FIG. 1, when the image analysis device 20 recognizes the game card 4 in the frame image, the image analysis device 20, based on the length between the four blocks in the image of the game card 4, Calculate the distance. Further, the image analysis device 20 detects the direction instruction unit 11 of the game card 4 and obtains the direction in which the game card 4 is facing in the frame image. In this case, the direction in which the direction instructing unit 11 is present is the front, and the character is display-controlled so as to face the front on the game card 4. Further, the image analysis device 20 acquires the identification information of the game card 4 from the blocks other than the four corners of the identification unit 12.

図1では、ゲームカード4が台3に単に置かれている状態を示しているが、ゲームカード4は、例えば台3に対して斜めに傾けられたり、また台3よりも上に持ち上げられたりしてもよい。画像解析装置20は、ゲームカード4が傾斜された状態、または、台3からの高さを変化された状態を画像解析により認識する機能をもつ。画像解析装置20において画像解析された結果は、ゲーム装置30に送られる。なお、撮像装置2において撮像されたフレーム画像が、ゲーム装置30に送られて、ゲーム装置30側で画像解析を行ってもよい。この場合、画像処理装置10は、ゲーム装置30のみで構成されることになる。   FIG. 1 shows a state in which the game card 4 is simply placed on the table 3, but the game card 4 is tilted with respect to the table 3, for example, or lifted above the table 3. May be. The image analysis device 20 has a function of recognizing a state where the game card 4 is tilted or a state where the height from the table 3 is changed by image analysis. The result of the image analysis performed by the image analysis device 20 is sent to the game device 30. Note that the frame image captured by the imaging device 2 may be sent to the game device 30 and image analysis performed on the game device 30 side. In this case, the image processing apparatus 10 is configured by only the game apparatus 30.

ゲーム装置30は、画像解析装置20における画像解析結果をもとに、ディスプレイ7の表示画面上で、キャラクタをゲームカード4の上に位置するように表示制御する。キャラクタは、ゲームカード4に対してゲームシーンごとに適宜割り当てられてもよい。この場合、ゲームシーンが切り替わると、表示されるキャラクタも切り替わることになる。本実施例では、ゲーム装置30が、画像解析結果をもとに、ゲームカード4の時間的な撮像状態の変化を検出し、この状態変化に基づいて、キャラクタの表示態様を制御する。   The game apparatus 30 performs display control so that the character is positioned on the game card 4 on the display screen of the display 7 based on the image analysis result in the image analysis apparatus 20. Characters may be appropriately assigned to the game card 4 for each game scene. In this case, when the game scene is switched, the displayed character is also switched. In the present embodiment, the game apparatus 30 detects a temporal change in the imaging state of the game card 4 based on the image analysis result, and controls the character display mode based on this state change.

図3は、画像解析装置20の構成を示す。画像解析装置20は、フレーム画像取得部40、実オブジェクト抽出部42、状態決定部44、識別情報取得部46、識別情報格納部48および送出部50を備える。識別情報格納部48は、実オブジェクトを識別するための特徴部分の情報と、実オブジェクトを識別するための識別情報とを対応付けて記憶する。具体的には、図2におけるゲームカード4の識別部12のパターン情報と、識別情報とを1対1に対応付けて記憶している。識別情報は、ゲーム装置30においてキャラクタの割当てに利用される。特に、複数のゲームカード4の存在を許可するゲームアプリケーションにおいては、ゲームカード4のそれぞれを識別情報と紐付けすることで、ゲームカード4を認識可能となる。状態決定部44は、設定した座標系における実オブジェクトの状態を決定し、具体的には、姿勢を決定する姿勢決定部52、方向を決定する方向決定部54および撮像装置2からの焦点距離を決定する距離決定部56を有する。   FIG. 3 shows the configuration of the image analysis apparatus 20. The image analysis apparatus 20 includes a frame image acquisition unit 40, a real object extraction unit 42, a state determination unit 44, an identification information acquisition unit 46, an identification information storage unit 48, and a transmission unit 50. The identification information storage unit 48 stores the information of the characteristic part for identifying the real object and the identification information for identifying the real object in association with each other. Specifically, the pattern information of the identification unit 12 of the game card 4 in FIG. 2 and the identification information are stored in a one-to-one correspondence. The identification information is used for character assignment in the game apparatus 30. In particular, in a game application that permits the presence of a plurality of game cards 4, the game cards 4 can be recognized by associating each of the game cards 4 with identification information. The state determination unit 44 determines the state of the real object in the set coordinate system. Specifically, the state determination unit 44 determines the focal length from the posture determination unit 52 that determines the posture, the direction determination unit 54 that determines the direction, and the imaging device 2. A distance determining unit 56 for determining is provided.

フレーム画像取得部40が、撮像装置2にて撮像された実空間のフレーム画像を取得する。ここでは、図1に示すように、撮像領域5に1枚のゲームカード4が配置されている状態を想定する。撮像装置2は、周期的にフレーム画像を取得し、好適には1/60秒間隔でフレーム画像を生成する。   The frame image acquisition unit 40 acquires a real space frame image captured by the imaging device 2. Here, as shown in FIG. 1, it is assumed that one game card 4 is arranged in the imaging region 5. The imaging device 2 periodically acquires frame images, and preferably generates frame images at 1/60 second intervals.

実オブジェクト抽出部42は、フレーム画像から実オブジェクト画像、すなわちゲームカード4の画像を抽出する。この処理は、画像情報を2進数のビット表現に変換し、このビット表現からゲームカード4の画像を抽出することで行われる。いわゆるドット処理であり、ビットのオンとオフを検出することで、画像抽出処理が行われてもよい。また、この処理は、既知の画像マッチング技術によって行ってもよい。その場合、実オブジェクト抽出部42は、マッチング処理のために、使用する実オブジェクトの画像情報を、メモリ(図示せず)に予め登録しておく。予め登録した画像情報と撮像した画像情報とのマッチングをとることで、ゲームカード4の画像をフレーム画像から切り出すことができる。   The real object extraction unit 42 extracts a real object image, that is, an image of the game card 4 from the frame image. This process is performed by converting the image information into a binary bit representation and extracting the image of the game card 4 from the bit representation. This is so-called dot processing, and image extraction processing may be performed by detecting on and off of bits. Further, this processing may be performed by a known image matching technique. In that case, the real object extraction unit 42 registers image information of a real object to be used in a memory (not shown) in advance for the matching process. By matching the pre-registered image information with the captured image information, the image of the game card 4 can be cut out from the frame image.

姿勢決定部52は、実オブジェクト画像の姿勢を決定する。具体的には、フレーム画像における実オブジェクト画像の中心点の座標、実オブジェクト画像の台3からの傾き、および実オブジェクト画像の台3からの高さなどを定める。そのために、状態決定部44は、ゲームカード4を置いて動かすための台3のジオメトリ情報を予め検出しておき、さらに台3の表面を基準面として、その基準面上にゲームカード4を載せた姿勢のジオメトリ情報をゲームカード4の姿勢の初期状態として記録しておく。このジオメトリ情報は、撮像装置2を基準として生成されてもよい。状態決定部44は、台3に関して取得したジオメトリ情報から、台3の位置、姿勢などを撮像空間における座標データとして把握しておく。姿勢決定部52は、ゲームカード4の基準面に対するゲームカード4の傾きおよび高さを、初期状態として記録したゲームカード4の姿勢からの相対的な状態量の差分、すなわち撮像空間における座標値の差分として求める。プレイヤがゲームカード4を手で持ち上げたり、傾けたりした場合に、ゲームカード4の初期状態の姿勢に対して状態量の変化が発生し、台3に対する実オブジェクト画像の高さや傾きが変化する。   The posture determination unit 52 determines the posture of the real object image. Specifically, the coordinates of the center point of the real object image in the frame image, the inclination of the real object image from the stage 3, the height of the real object image from the stage 3 are determined. For this purpose, the state determination unit 44 detects in advance the geometry information of the table 3 for placing and moving the game card 4, and further places the game card 4 on the reference surface using the surface of the table 3 as a reference surface. The geometry information of the posture is recorded as the initial state of the posture of the game card 4. This geometry information may be generated based on the imaging device 2. The state determination unit 44 grasps the position, posture, and the like of the table 3 as coordinate data in the imaging space from the geometry information acquired for the table 3. The posture determination unit 52 calculates the difference in relative state quantity from the posture of the game card 4 recorded as the initial state, ie, the coordinate value in the imaging space, with the inclination and height of the game card 4 with respect to the reference plane of the game card 4 being recorded as the initial state. Calculate as a difference. When the player lifts or tilts the game card 4 by hand, a change in the state amount occurs with respect to the initial posture of the game card 4, and the height and inclination of the real object image with respect to the table 3 change.

方向決定部54は、実オブジェクト画像の方向を定める。方向決定部54は、実オブジェクト画像の中から図2に示す方向指示部11を検出して、実オブジェクトの向きを定めてもよい。また、方向決定部54は、姿勢決定部52において実オブジェクトが傾斜されていることが認識された場合に、その傾斜した方向を実オブジェクトの向きとして定めてもよい。   The direction determination unit 54 determines the direction of the real object image. The direction determination unit 54 may determine the direction of the real object by detecting the direction instruction unit 11 shown in FIG. 2 from the real object image. In addition, when the posture determination unit 52 recognizes that the real object is inclined, the direction determination unit 54 may determine the inclined direction as the direction of the real object.

距離決定部56は、ゲームカード4の画像における識別部12の4角間の長さをもとに、撮像装置2とゲームカード4との距離を決定する。   The distance determination unit 56 determines the distance between the imaging device 2 and the game card 4 based on the length between the four corners of the identification unit 12 in the image of the game card 4.

識別情報取得部46は、実オブジェクト画像から特徴部分を抽出して、識別情報格納部48から対応する識別情報を取得する。図1の例では、1つのゲームカード4しか示していないが、本実施例のゲームシステム1は、複数の異なるゲームカード4にも対応することが可能である。例えば、5枚のゲームカード4の同時使用を許可する場合、それぞれのゲームカード4に対して、1から5までの識別情報がそれぞれ対応付けられていてもよい。   The identification information acquisition unit 46 extracts a feature portion from the real object image and acquires corresponding identification information from the identification information storage unit 48. Although only one game card 4 is shown in the example of FIG. 1, the game system 1 of the present embodiment can also support a plurality of different game cards 4. For example, when allowing simultaneous use of five game cards 4, identification information 1 to 5 may be associated with each game card 4.

状態決定部44において決定された姿勢情報、方向情報、距離情報、および識別情報取得部46において取得された識別情報は、それぞれ関連付けされて送出部50からゲーム装置30に送られる。なお、複数のゲームカード4が撮像領域5に存在する場合には、それぞれのゲームカード4ごとに、姿勢情報、方向情報、距離情報、識別情報が関連付けされて送出部50からゲーム装置30に送られる。また、本実施例では、撮像装置2により撮像されたフレーム画像をディスプレイ7に表示させるため、フレーム画像自体も送出部50からゲーム装置30に送られる。   The posture information, direction information, distance information, and identification information acquired by the identification information acquisition unit 46 determined by the state determination unit 44 are associated with each other and sent from the transmission unit 50 to the game apparatus 30. When a plurality of game cards 4 are present in the imaging area 5, posture information, direction information, distance information, and identification information are associated with each game card 4 and transmitted from the sending unit 50 to the game device 30. It is done. In the present embodiment, the frame image itself is also sent from the sending unit 50 to the game device 30 in order to display the frame image taken by the imaging device 2 on the display 7.

図4は、ゲーム装置30の構成を示す。ゲーム装置30は、解析情報取得部100、ゲーム進行処理部102、キャラクタ決定部104、キャラクタ格納部106、変化検出部110、表示制御部120および動作パターン格納部122を備える。変化検出部110は、移動量監視部112、回転検出部114および存在確認部116を有し、撮像装置2が撮像した実オブジェクト画像の時間的な状態変化を検出する。   FIG. 4 shows the configuration of the game apparatus 30. The game apparatus 30 includes an analysis information acquisition unit 100, a game progress processing unit 102, a character determination unit 104, a character storage unit 106, a change detection unit 110, a display control unit 120, and an action pattern storage unit 122. The change detection unit 110 includes a movement amount monitoring unit 112, a rotation detection unit 114, and an existence confirmation unit 116, and detects a temporal state change of the real object image captured by the imaging device 2.

本実施例におけるゲーム装置30の処理機能は、CPU、メモリ、メモリにロードされたプログラムなどによって実現され、ここではそれらの連携によって実現される構成を描いている。プログラムは、ゲーム装置30に内蔵されていてもよく、また記録媒体に格納された形態で外部から供給されるものであってもよい。したがってこれらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者に理解されるところである。図示の例では、ゲーム装置30のCPUが、解析情報取得部100、ゲーム進行処理部102、キャラクタ決定部104、変化検出部110、表示制御部120としての機能をもつ。   The processing function of the game apparatus 30 in the present embodiment is realized by a CPU, a memory, a program loaded in the memory, and the like, and here, a configuration realized by cooperation thereof is illustrated. The program may be built in the game apparatus 30 or may be supplied from the outside in a form stored in a recording medium. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. In the illustrated example, the CPU of the game apparatus 30 has functions as an analysis information acquisition unit 100, a game progress processing unit 102, a character determination unit 104, a change detection unit 110, and a display control unit 120.

解析情報取得部100は、画像解析装置20から、解析結果を受け取る。この解析結果は、実オブジェクトであるゲームカード4の姿勢情報、方向情報、距離情報、識別情報を含む。解析情報取得部100は、受け取った解析結果をゲーム進行処理部102に渡す。なお、解析情報取得部100は、撮像装置2からフレーム画像のデータを直接取得してもよい。この場合は、ゲーム装置30が、画像解析装置20における機能を有して、画像解析装置20に関して説明した処理と同様の処理を実行すればよい。   The analysis information acquisition unit 100 receives an analysis result from the image analysis device 20. This analysis result includes posture information, direction information, distance information, and identification information of the game card 4 that is a real object. The analysis information acquisition unit 100 passes the received analysis result to the game progress processing unit 102. The analysis information acquisition unit 100 may directly acquire frame image data from the imaging device 2. In this case, the game apparatus 30 has a function in the image analysis apparatus 20 and may perform the same process as the process described for the image analysis apparatus 20.

ゲーム進行処理部102は、ゲームアプリケーション全体の処理を制御する。本実施例におけるゲームアプリケーションは、ゲーム進行が複数のステージから構成され、各ステージにおいて異なるゲームシーンが設定されている。プレイヤは、各ステージの終了条件をそれぞれ段階的にクリアしていき、最終ステージをクリアしたところで、ゲーム終了となる。ゲーム進行処理部102は、ゲームの進行状況を管理し、ゲームの開始直後やゲームステージの切替の時点において、キャラクタ決定部104に、次に開始されるゲームステージ名と、解析情報取得部100から送られてきた識別情報を伝える。   The game progress processing unit 102 controls processing of the entire game application. In the game application in this embodiment, the game progress is composed of a plurality of stages, and different game scenes are set in each stage. The player clears the end condition of each stage step by step, and the game ends when the final stage is cleared. The game progress processing unit 102 manages the progress of the game, and immediately after the start of the game or at the time of switching the game stage, the character determination unit 104 sends the name of the game stage to be started next and the analysis information acquisition unit 100. Communicate identification information sent to you.

キャラクタ格納部106は、ゲームステージごとに、ゲームカード4の識別情報とキャラクタの3次元画像データとを対応付けて記憶する。キャラクタ決定部104は、ゲームステージ名と識別情報をもとに、この識別情報に対応付けられたキャラクタの3次元画像データをキャラクタ格納部106から読み出し、ゲーム進行処理部102に供給する。なお、読み出した3次元画像データは、直接表示制御部120に供給されてもよい。ゲーム進行処理部102は表示制御部120に、3次元画像データと、ゲームカード4の姿勢情報、方向情報、距離情報を供給する。表示制御部120は、3次元画像データを用いて、キャラクタをゲームカード4の表示位置に関連付けてディスプレイ7に表示させる。   The character storage unit 106 stores the identification information of the game card 4 and the three-dimensional image data of the character in association with each game stage. Based on the game stage name and the identification information, the character determination unit 104 reads the three-dimensional image data of the character associated with the identification information from the character storage unit 106 and supplies it to the game progress processing unit 102. Note that the read three-dimensional image data may be directly supplied to the display control unit 120. The game progress processing unit 102 supplies the display control unit 120 with three-dimensional image data, posture information, direction information, and distance information of the game card 4. The display control unit 120 causes the display 7 to display the character in association with the display position of the game card 4 using the three-dimensional image data.

具体的に、表示制御部120は、画像解析装置20から送られるフレーム画像を受け取り、ディスプレイ7に表示させる。また、表示制御部120は、ゲームカード4の姿勢情報、方向情報、距離情報をもとにゲームカード4の姿勢、向き、距離を認識し、3次元画像データを用いてディスプレイ7に表示するキャラクタの姿勢、向き、および大きさを決定する。例えば、ゲームカード4が台3に対して傾けられていれば、ゲームカード4の法線ベクトルに沿うようにキャラクタが傾けられて表示されてもよい。表示制御部120は、ゲームカード4に重なるのであれば、キャラクタをどの位置に配置してもよいが、通常の表示態様では、ゲームカード4の中心点の上方に位置するように、キャラクタの表示位置を定める。キャラクタは、プレイヤの操作履歴により、感情、調子などを表現した内部パラメータを有してもよい。   Specifically, the display control unit 120 receives a frame image sent from the image analysis device 20 and causes the display 7 to display the frame image. Further, the display control unit 120 recognizes the attitude, orientation, and distance of the game card 4 based on the attitude information, direction information, and distance information of the game card 4, and displays the character displayed on the display 7 using the three-dimensional image data. Determine the posture, orientation, and size of the. For example, if the game card 4 is tilted with respect to the table 3, the character may be tilted and displayed along the normal vector of the game card 4. The display control unit 120 may place the character at any position as long as it overlaps the game card 4. However, in the normal display mode, the display control unit 120 displays the character so as to be positioned above the center point of the game card 4. Determine the location. The character may have internal parameters that express emotions, tone, and the like based on the operation history of the player.

動作パターン格納部122は、通常の操作状態におけるキャラクタの動作パターンを格納している。具体的に、動作パターン格納部122は、動作パターンを、キャラクタ、ゲームステージ、さらには内部パラメータに対応付けて設定している。したがって、表示制御部120は、キャラクタ名、現在プレイしているゲームステージ、およびキャラクタの内部パラメータをもとに、動作パターン格納部122から動作パターンを選択し、ディスプレイ7におけるキャラクタを表示制御する。   The motion pattern storage unit 122 stores a character motion pattern in a normal operation state. Specifically, the action pattern storage unit 122 sets action patterns in association with characters, game stages, and internal parameters. Accordingly, the display control unit 120 selects a motion pattern from the motion pattern storage unit 122 based on the character name, the currently played game stage, and the internal parameters of the character, and controls display of the character on the display 7.

プレイヤがゲームカード4をゆっくりと動かすと、フレーム画像の解析結果が画像解析装置20から解析情報取得部100に逐次送られる。以下に示すゲームカード4の状態変化に対して、ゆっくりと動かす操作や全く動かさない操作を、通常の操作状態と呼ぶことができる。表示制御部120は、ゲーム進行処理部102からキャラクタの3次元画像データと、ゲームカード4の姿勢情報、方向情報、距離情報を受け取り、ディスプレイ7におけるゲームカード4の表示位置にキャラクタの画像が重なるように、キャラクタをゲームカード4の動きに追従させる。これにより、ディスプレイ7では、キャラクタがゲームカード4に常に乗っている表示態様となり、キャラクタとゲームカード4との一体感をプレイヤに認識させることができる。以上のように、表示制御部120は、ゲームカード4の通常の操作状態では、キャラクタをゲームカード4に重ね合わせて表示させる。   When the player slowly moves the game card 4, the analysis result of the frame image is sequentially sent from the image analysis device 20 to the analysis information acquisition unit 100. An operation of slowly moving or not moving at all in response to the state change of the game card 4 shown below can be called a normal operation state. The display control unit 120 receives the three-dimensional image data of the character and the posture information, direction information, and distance information of the game card 4 from the game progress processing unit 102, and the character image overlaps the display position of the game card 4 on the display 7. Thus, the character is caused to follow the movement of the game card 4. Thereby, the display 7 becomes a display mode in which the character is always on the game card 4, and the player can recognize the sense of unity between the character and the game card 4. As described above, the display control unit 120 displays a character superimposed on the game card 4 in a normal operation state of the game card 4.

以下では、ゲームカード4がプレイヤの操作により所定の撮像状態をとる場合、表示制御部120が、キャラクタをゲームカード4の動きに単純に追従させるのではなく、キャラクタの表示態様を制御して、キャラクタの動作パターンに変化をもたせる。プレイヤによるゲームカード4へのアクションを、キャラクタの動作パターンを変化させるトリガとすることで、通常のゲームコントローラなどによる操作とは違った楽しみをプレイヤに与えることができる。ゲーム進行処理部102は、通常の操作状態であるか否かを検出するために、ゲームカード4の姿勢情報、方向情報、距離情報を、変化検出部110に引き渡す。変化検出部110は、フレーム画像におけるゲームカード4の画像の時間的な状態変化を検出する。   In the following, when the game card 4 takes a predetermined imaging state by the operation of the player, the display control unit 120 does not simply cause the character to follow the movement of the game card 4, but controls the display mode of the character, Change the movement pattern of the character. By using the action to the game card 4 by the player as a trigger for changing the movement pattern of the character, it is possible to give the player a pleasure different from the operation by the normal game controller or the like. The game progress processing unit 102 delivers the posture information, the direction information, and the distance information of the game card 4 to the change detection unit 110 in order to detect whether or not the normal operation state. The change detection unit 110 detects a temporal state change of the image of the game card 4 in the frame image.

移動量監視部112は、撮像装置2において撮像されるゲームカード4の移動量を監視する。具体的に、移動量監視部112は、ゲームカード4の姿勢情報に含まれる中心座標および距離情報をもとに、ゲームカード4の移動速度を測定する。移動量監視部112は、ゲームカード4の中心座標および距離情報をフレームごとにメモリ(図示せず)に保存し、所定数のフレームにおけるゲームカード4の距離変化および中心座標の差分から、移動ベクトルを計算する。これにより、移動速度が測定される。なお、中心座標を3次元空間の座標値としてもつ場合には、単純に中心座標値の差分をとることで、移動ベクトルを算出することできる。移動量監視部112は、撮像装置2において撮像されるゲームカード4の移動量を監視し、設定した仮想空間における移動量を監視してもよく、また実際の移動量を監視してもよい。   The movement amount monitoring unit 112 monitors the movement amount of the game card 4 imaged by the imaging device 2. Specifically, the movement amount monitoring unit 112 measures the movement speed of the game card 4 based on the center coordinates and distance information included in the posture information of the game card 4. The movement amount monitoring unit 112 stores the center coordinates and distance information of the game card 4 in a memory (not shown) for each frame, and calculates a movement vector from the distance change and the difference of the center coordinates of the game card 4 in a predetermined number of frames. Calculate Thereby, the moving speed is measured. In the case where the center coordinates are provided as the coordinate values in the three-dimensional space, the movement vector can be calculated by simply taking the difference between the center coordinate values. The movement amount monitoring unit 112 may monitor the movement amount of the game card 4 imaged by the imaging device 2 and may monitor the movement amount in the set virtual space, or may monitor the actual movement amount.

移動量監視部112は、ゲームカード4の移動速度が所定の基準速度を超えていることを判断すると、その判断結果をゲーム進行処理部102に通知する。ゲームカード4の移動速度は、撮像されたゲームカード4の仮想空間における移動速度であってもよく、またゲームカード4の実際の移動速度であってもよい。ゲーム進行処理部102は、その判断結果を受けると、プレイヤによりゲームカード4が素早く動かされたことを認識する。このイベントを「スライドイベント」と呼ぶと、ゲーム進行処理部102は、キャラクタ名およびスライドイベントの発生を表示制御部120に通知する。表示制御部120は、スライドイベントの発生通知を受けると、当該キャラクタに対して設定されているスライドイベントに対応する動作パターンを、動作パターン格納部122から検索する。   When determining that the moving speed of the game card 4 exceeds a predetermined reference speed, the moving amount monitoring unit 112 notifies the game progress processing unit 102 of the determination result. The moving speed of the game card 4 may be a moving speed in the virtual space of the imaged game card 4 or may be an actual moving speed of the game card 4. Upon receiving the determination result, the game progress processing unit 102 recognizes that the game card 4 has been moved quickly by the player. When this event is called a “slide event”, the game progress processing unit 102 notifies the display control unit 120 of the occurrence of the character name and the slide event. Upon receiving the slide event occurrence notification, the display control unit 120 searches the motion pattern storage unit 122 for a motion pattern corresponding to the slide event set for the character.

動作パターン格納部122は、既述した通常の操作状態における動作パターンだけでなく、イベントの発生時におけるキャラクタの動作パターンも格納している。動作パターン格納部122は、動作パターンを、キャラクタ、ゲームステージ、内部パラメータに対応付けるとともに、イベント名にも対応付けて設定している。したがって、表示制御部120は、キャラクタ名、現在プレイしているゲームステージ、およびキャラクタの内部パラメータ、イベント名をもとに、動作パターン格納部122から動作パターンを選択し、ディスプレイ7におけるキャラクタを表示制御する。   The motion pattern storage unit 122 stores not only the motion pattern in the normal operation state described above but also the motion pattern of the character when the event occurs. The action pattern storage unit 122 sets action patterns in association with characters, game stages, and internal parameters, and also in association with event names. Therefore, the display control unit 120 selects an action pattern from the action pattern storage unit 122 based on the character name, the currently playing game stage, the internal parameters of the character, and the event name, and displays the character on the display 7. Control.

表示制御部120は、スライドイベントの発生を通知されると、キャラクタをゲームカード4の移動に追従させずに、その場で転ばせる動作パターンを動作パターン格納部122から読み出し、実行する。ゲームカード4を高速に動かすと、プレイヤは直観的に、キャラクタがその動きについていくことができずに取り残されるイメージを抱くことになるが、そのイメージを具体化する動作パターンを選択して、ディスプレイ7の画面中に表現することで、プレイヤの意識に合わせた画像処理が実現される。   When notified of the occurrence of the slide event, the display control unit 120 reads from the operation pattern storage unit 122 and executes an action pattern that allows the character to roll on the spot without following the movement of the game card 4. When the game card 4 is moved at a high speed, the player intuitively has an image that is left behind without being able to keep up with the movement. The player selects an action pattern that embodies the image and displays it. By expressing it in the screen 7, image processing in accordance with the player's consciousness is realized.

図5は、スライドイベントが発生したときにディスプレイ上で表現されるキャラクタの動作を示す。図5(a)は、ゲームカード4にキャラクタが重ねあわされて表示されている状態を示す。この状態は、通常の操作状態に相当し、キャラクタは、内部パラメータなどに応じた動作パターンで表示制御されている。   FIG. 5 shows the action of the character represented on the display when a slide event occurs. FIG. 5A shows a state where characters are superimposed on the game card 4 and displayed. This state corresponds to a normal operation state, and the character is display-controlled with an operation pattern according to an internal parameter or the like.

図5(b)において、画面中で、ゲームカード4がプレイヤにより左方向に動かされる。なお、ディスプレイ7上では、ゲームカード4を操作するプレイヤの指が表示されることになるが、ここでは図示を省略している。移動量監視部112が、ゲームカード4の移動速度が所定の基準速度を超えていることを判断すると、ゲーム進行処理部102がスライドイベントの発生を表示制御部120に通知する。表示制御部120は、画像解析装置20から周期的に送られるフレーム画像をもとに、ゲームカード4をディスプレイ7において左方向に移動させる。   In FIG. 5B, the game card 4 is moved leftward by the player in the screen. In addition, although the finger of the player who operates the game card 4 is displayed on the display 7, the illustration is omitted here. When the movement amount monitoring unit 112 determines that the moving speed of the game card 4 exceeds a predetermined reference speed, the game progress processing unit 102 notifies the display control unit 120 that a slide event has occurred. The display control unit 120 moves the game card 4 in the left direction on the display 7 based on the frame images periodically sent from the image analysis device 20.

このとき表示制御部120は、図5(c)に示すように、キャラクタをゲームカード4の移動に追従させずに、スライドイベントの発生を検出した時点でキャラクタを転ばせる。すなわち、表示制御部120は、スライドイベントが発生したときには、キャラクタがゲームカード4の表示位置に重ならないように、キャラクタの移動をその場で停止させる。これにより、ゲームカード4の表示位置とキャラクタの表示位置とが、瞬間的に離れることになる。   At this time, as shown in FIG. 5C, the display control unit 120 does not cause the character to follow the movement of the game card 4 but turns the character when the occurrence of the slide event is detected. That is, when a slide event occurs, the display control unit 120 stops the movement of the character on the spot so that the character does not overlap the display position of the game card 4. As a result, the display position of the game card 4 and the display position of the character are instantaneously separated.

表示制御部120は、図5(d)に示すように、所定のタイミングでキャラクタを起き上がらせ、キャラクタをゲームカード4の表示位置まで移動させる。このタイミングは、例えばゲームカード4の高速移動が終わった後のタイミングであってもよく、またスライドイベントの発生後、所定時間が経過した時点であってもよい。このとき、表示制御部120は、ゲームカード4の中心座標を移動目標点として、キャラクタの移動モーションをディスプレイ7上に再生する。図5(a)〜図5(d)に示す一連のキャラクタの動作は、表示制御部120により選択された動作パターンにおいて定められている。図5(e)は、キャラクタがゲームカード4の表示位置まで戻った状態を示す。本実施例のゲームアプリケーションによると、プレイヤは、ゲームカード4を動かすことによって、以上の一連の3次元キャラクタの動きを楽しむことができる。ゲームシステム1では、プレイヤがゲームカード4の操作方法を色々と試してみることで、ディスプレイ上でキャラクタに新たな動きをさせることができ、ゲームアプリケーションの興趣を高めることができる。   As shown in FIG. 5D, the display control unit 120 raises the character at a predetermined timing and moves the character to the display position of the game card 4. This timing may be, for example, the timing after the high-speed movement of the game card 4 ends, or may be the time when a predetermined time has elapsed after the occurrence of the slide event. At this time, the display control unit 120 reproduces the movement motion of the character on the display 7 using the center coordinates of the game card 4 as the movement target point. A series of character actions shown in FIGS. 5A to 5D are determined in the action pattern selected by the display control unit 120. FIG. 5E shows a state where the character has returned to the display position of the game card 4. According to the game application of the present embodiment, the player can enjoy the above-described series of three-dimensional character movements by moving the game card 4. In the game system 1, when the player tries various operation methods of the game card 4, the character can make a new movement on the display, and the interest of the game application can be enhanced.

移動量監視部112は、移動速度だけでなく、撮像装置2において撮像されるゲームカード4の移動方向を監視する。具体的に、移動量監視部112は、ゲームカード4の中心座標をフレームごとにメモリ(図示せず)に保存し、フレーム間におけるゲームカード4の中心座標の差分から、移動ベクトルを計算する。これにより、移動ベクトルの向きを検出することができる。   The movement amount monitoring unit 112 monitors not only the movement speed but also the movement direction of the game card 4 imaged by the imaging device 2. Specifically, the movement amount monitoring unit 112 stores the center coordinates of the game card 4 in a memory (not shown) for each frame, and calculates a movement vector from the difference in the center coordinates of the game card 4 between frames. Thereby, the direction of the movement vector can be detected.

移動量監視部112は、時間的に前後の移動ベクトルの向きを比較し、移動ベクトル間のなす角度が実質的に180度となる状態を所定時間内に複数回検出すると、その検出結果をゲーム進行処理部102に通知する。例えば、2秒の間に移動ベクトルの向きが3回反転したことを通知の条件としてもよい。ゲーム進行処理部102は、その検出結果を受けると、ゲームカード4が往復運動されていることを認識する。このイベントを「往復イベント」と呼ぶと、ゲーム進行処理部102は、キャラクタ名および往復イベントの発生を表示制御部120に通知する。表示制御部120は、往復イベントの発生通知を受けると、当該キャラクタに対して設定されている往復イベントに対応する動作パターンを、動作パターン格納部122から検索する。   When the movement amount monitoring unit 112 compares the direction of the movement vector before and after in time and detects a state where the angle between the movement vectors is substantially 180 degrees a plurality of times within a predetermined time, the movement amount monitoring unit 112 displays the detection result as a game. The progress processing unit 102 is notified. For example, the notification condition may be that the direction of the movement vector is reversed three times in 2 seconds. Upon receiving the detection result, the game progress processing unit 102 recognizes that the game card 4 is reciprocating. When this event is called a “round trip event”, the game progress processing unit 102 notifies the display control unit 120 of the occurrence of the character name and the round trip event. When the display control unit 120 receives the notification of the occurrence of the round-trip event, the display control unit 120 searches the motion pattern storage unit 122 for a motion pattern corresponding to the round-trip event set for the character.

図6は、往復イベントが発生したときにディスプレイ上で表現されるキャラクタの動作を示す。図6(a)は、ゲームカード4を往復運動させることで、キャラクタを叱った状態を示す。移動量監視部112が、ゲームカード4が所定の基準を満たす往復運動をされていることを判断すると、ゲーム進行処理部102が往復イベントの発生を表示制御部120に通知する。表示制御部120は、ゲームカード4の往復運動をディスプレイ7に表示させるとともに、動作パターン格納部122から検索された動作パターンに基づいてキャラクタの動作パターンを変化させる。この例では、ゲームカード4の往復運動は、キャラクタを叱る動作パターンを実行するトリガとなり、キャラクタは、叱られたことによりショックを受けた表情を見せている。なお、ゲームカード4の往復運動中、キャラクタは、ゲームカード4の往復運動に追従させずに、ゲームカード4の範囲にある限りにおいて、表示位置を固定としてもよい。なお、往復運動の振幅が大きく、ゲームカード4の範囲からキャラクタが外れる場合には、キャラクタをゲームカード4に追従させることが好ましい。   FIG. 6 shows the action of the character represented on the display when a reciprocal event occurs. FIG. 6A shows a state where the character is hit by reciprocating the game card 4. When the movement amount monitoring unit 112 determines that the game card 4 is reciprocating that satisfies a predetermined standard, the game progress processing unit 102 notifies the display control unit 120 of the occurrence of a reciprocating event. The display control unit 120 displays the reciprocating motion of the game card 4 on the display 7 and changes the character's motion pattern based on the motion pattern retrieved from the motion pattern storage unit 122. In this example, the reciprocating motion of the game card 4 serves as a trigger for executing an action pattern of hitting the character, and the character shows a shocked expression by being hit. During the reciprocating motion of the game card 4, the character may fix the display position as long as it is within the range of the game card 4 without following the reciprocating motion of the game card 4. In addition, when the amplitude of the reciprocating motion is large and the character is out of the range of the game card 4, it is preferable to cause the character to follow the game card 4.

図6(b)は、ゲームカード4を往復運動させることで、キャラクタが巨大化した状態を示す。このように、ゲームカード4の往復運動に対して、動作パターン格納部122は複数種類の動作パターンを対応付けて記憶してもよい。既述のように、動作パターン格納部122は、ゲームステージに対応付けて動作パターンを記憶してもよく、さらにはキャラクタの内部パラメータに対応付けて動作パターンを記憶してもよい。   FIG. 6B shows a state where the character is enlarged by reciprocating the game card 4. As described above, the motion pattern storage unit 122 may store a plurality of types of motion patterns in association with the reciprocating motion of the game card 4. As described above, the motion pattern storage unit 122 may store the motion pattern in association with the game stage, and may further store the motion pattern in association with the internal parameters of the character.

図4に戻って、回転検出部114は、ゲームカード4の回転を検出する。具体的に、回転検出部114は、ゲームカード4の姿勢情報に含まれる中心座標および方向情報をもとに、ゲームカード4の回転動作を検出する。回転検出部114は、ゲームカード4の中心座標および方向情報をフレームごとにメモリ(図示せず)に保存する。方向情報により特定されるゲームカード4の向きが実質的な平面上で時間的に変化し、その変化中、ゲームカード4の中心座標の位置がほとんどずれない場合、回転検出部114は、ゲームカード4が回転されていることを検出する。このとき、ゲームカード4の向きが360度以上、同じ回転方向に変化していることを、回転検出の条件としてもよい。   Returning to FIG. 4, the rotation detection unit 114 detects the rotation of the game card 4. Specifically, the rotation detection unit 114 detects the rotation operation of the game card 4 based on the center coordinates and direction information included in the posture information of the game card 4. The rotation detection unit 114 stores the center coordinates and direction information of the game card 4 in a memory (not shown) for each frame. When the orientation of the game card 4 specified by the direction information changes with time on a substantial plane, and the position of the center coordinates of the game card 4 hardly shifts during the change, the rotation detection unit 114 displays the game card 4. 4 is detected to be rotated. At this time, the rotation detection condition may be that the direction of the game card 4 changes in the same rotation direction by 360 degrees or more.

回転検出部114は、ゲームカード4が回転していることを判断すると、その判断結果をゲーム進行処理部102に通知する。ゲーム進行処理部102は、その判断結果を受けると、ゲームカード4が回転されていることを認識する。このイベントを「回転イベント」と呼ぶと、ゲーム進行処理部102は、キャラクタ名および回転イベントの発生を表示制御部120に通知する。表示制御部120は、回転イベントの発生通知を受けると、当該キャラクタに対して設定されている回転イベントに対応する動作パターンを、動作パターン格納部122から検索する。   When the rotation detection unit 114 determines that the game card 4 is rotating, the rotation detection unit 114 notifies the game progress processing unit 102 of the determination result. When receiving the determination result, the game progress processing unit 102 recognizes that the game card 4 is rotated. When this event is called a “rotation event”, the game progress processing unit 102 notifies the display control unit 120 of the occurrence of the character name and the rotation event. Upon receiving the notification of the occurrence of the rotation event, the display control unit 120 searches the operation pattern storage unit 122 for an operation pattern corresponding to the rotation event set for the character.

表示制御部120は、現在プレイ中のゲームステージに対してキャラクタに設定されている動作パターンを選択する。表示制御部120が、選択した動作パターンを用いてキャラクタの動作パターンを変化させ、具体的には、キャラクタの目を回す動作パターンを読み出し実行する。   The display control unit 120 selects an action pattern set for the character for the game stage currently being played. The display control unit 120 changes the character's motion pattern using the selected motion pattern, and specifically reads and executes the motion pattern that turns the character's eyes.

図7は、ゲームカードを回転させたことで、キャラクタが目を回している状態を示す。目を回した状態は所定の時間が経過すると元に戻り、通常の状態に復帰する。ゲームカード4を回転させると、キャラクタの目が回ることは、回転という点で同一であり、プレイヤも直観的に理解しやすい。本実施例のゲームアプリケーションでは、ゲームコントローラを使用しないため、カード操作に対応するキャラクタの動作パターンが、カード操作の行為自体と感覚的にリンクしていることが好ましい。このようにカード操作とキャラクタの動作パターンを対応付けることで、プレイヤによる操作性を容易にすることができる。カード操作により3次元キャラクタの動作パターンを決定することで、これまでにないゲームアプリケーションを実現でき、プレイヤに新たな体感を与えることができる。   FIG. 7 shows a state where the character is turning his eyes by rotating the game card. The state of turning the eyes returns to the normal state after a predetermined time has elapsed, and returns to the normal state. When the game card 4 is rotated, turning the character's eyes is the same in terms of rotation, and the player can easily understand intuitively. In the game application of the present embodiment, since the game controller is not used, it is preferable that the character motion pattern corresponding to the card operation is sensuously linked to the card operation act itself. In this way, the operability by the player can be facilitated by associating the card operation with the action pattern of the character. By determining the motion pattern of the three-dimensional character by card operation, a game application that has never existed can be realized, and a new experience can be given to the player.

図4に戻って、存在確認部116は、撮像領域5中にゲームカード4が存在しているか否かを確認する。ゲームカード4が撮像領域5に存在することは、画像解析装置20からゲームカード4の情報が解析されているか否かに基づいて判断される。ゲームカード4がプレイヤにより隠される場合には、画像解析装置20はゲームカード4の画像を認識できず、ゲームカード4の画像解析結果はゲーム装置30に送られない。   Returning to FIG. 4, the existence confirmation unit 116 confirms whether or not the game card 4 is present in the imaging region 5. The presence of the game card 4 in the imaging area 5 is determined based on whether or not the information on the game card 4 is analyzed from the image analysis device 20. When the game card 4 is hidden by the player, the image analysis device 20 cannot recognize the image of the game card 4 and the image analysis result of the game card 4 is not sent to the game device 30.

存在確認部116は、所定数の連続したフレーム画像において実オブジェクトが認識されない場合に、実オブジェクトが撮像装置2により撮像されていないことを判断する。逆に、存在確認部116は、実オブジェクトが認識されないフレーム画像が連続して所定数以上続かなければ、実オブジェクトが撮像装置2により撮像されていることを判断する。ここで、所定数の連続フレーム画像において実オブジェクトが認識されないことを条件とするのは、照明の影響などで偶然にもゲームカード4を検出できない状況を無視するためである。   The presence confirmation unit 116 determines that the real object is not captured by the imaging device 2 when the real object is not recognized in a predetermined number of consecutive frame images. On the other hand, the presence confirmation unit 116 determines that the real object is captured by the imaging device 2 if the frame images in which the real object is not recognized do not continue for a predetermined number or more. Here, the reason that the real object is not recognized in the predetermined number of continuous frame images is to ignore the situation where the game card 4 cannot be detected by accident due to the influence of lighting or the like.

存在確認部116は、ゲームカード4が撮像されていないことを判断すると、その判断結果をゲーム進行処理部102に通知する。ゲーム進行処理部102は、その判断結果を受けると、ゲームカード4が撮像領域5中に存在しないことを認識する。このイベントを「隠しイベント」と呼ぶと、ゲーム進行処理部102は、キャラクタ名および隠しイベントの発生を表示制御部120に通知する。なお、プレイヤはゲームカード4を手で隠したり、ゲームカード4を撮像領域5の外に移動させることで、隠しイベントを発生させることができる。表示制御部120は、隠しイベントの発生通知を受けると、当該キャラクタに対して設定されている隠しイベントに対応する動作パターンを、動作パターン格納部122から検索する。   When the presence confirmation unit 116 determines that the game card 4 is not captured, the presence confirmation unit 116 notifies the game progress processing unit 102 of the determination result. When receiving the determination result, the game progress processing unit 102 recognizes that the game card 4 does not exist in the imaging area 5. When this event is called a “hidden event”, the game progress processing unit 102 notifies the display control unit 120 of the occurrence of the character name and the hidden event. Note that the player can generate a hidden event by hiding the game card 4 by hand or moving the game card 4 out of the imaging area 5. Upon receiving the notification of the occurrence of the hidden event, the display control unit 120 searches the motion pattern storage unit 122 for a motion pattern corresponding to the hidden event set for the character.

ここでは、表示制御部120は、選択した動作パターンを用いて、キャラクタをディスプレイ7の画面から消す。これも、プレイヤにとっては理解しやすいキャラクタの動作パターンであり、プレイヤはゲームのプレイ方法を十分に理解しなくても、直観的にキャラクタを操作することができる。   Here, the display control unit 120 erases the character from the screen of the display 7 using the selected action pattern. This is also an easy-to-understand character motion pattern for the player, and the player can intuitively operate the character without fully understanding how to play the game.

なお、存在確認部116は、ゲームカード4が撮像されている状態と撮像されていない状態とが繰り返されていることを判定してもよい。プレイヤは、ゲームカード4上に手をかざすことでゲームカード4の非撮像状態を作り、また手をどけることで撮像状態を作りだす。非撮像状態と撮像状態とが所定時間内に、所定の回数繰り返されると、存在確認部116は、その撮像状態の変化を検出し、その検出結果をゲーム進行処理部102に通知する。ゲーム進行処理部102は、その判断結果を受けると、ゲームカード4が撮像装置2によりキャプチャされる状態とキャプチャされない状態とが交互に生じていることを認識する。このイベントを「スイッチイベント」と呼ぶと、ゲーム進行処理部102は、キャラクタ名およびスイッチイベントの発生を表示制御部120に通知する。表示制御部120は、スイッチイベントの発生通知を受けると、当該キャラクタに対して設定されているスイッチイベントに対応する動作パターンを、動作パターン格納部122から検索する。   Note that the presence confirmation unit 116 may determine that the state in which the game card 4 is captured and the state in which the game card 4 is not captured are repeated. The player creates a non-imaging state of the game card 4 by holding the hand over the game card 4 and creates an imaging state by removing the hand. When the non-imaging state and the imaging state are repeated a predetermined number of times within a predetermined time, the presence confirmation unit 116 detects a change in the imaging state and notifies the game progress processing unit 102 of the detection result. Upon receiving the determination result, the game progress processing unit 102 recognizes that the state where the game card 4 is captured by the imaging device 2 and the state where the game card 4 is not captured are alternately generated. When this event is called a “switch event”, the game progress processing unit 102 notifies the display control unit 120 of the occurrence of the character name and the switch event. When the display control unit 120 receives the notification of the occurrence of the switch event, the display control unit 120 searches the operation pattern storage unit 122 for an operation pattern corresponding to the switch event set for the character.

ここでは、表示制御部120は、選択した動作パターンを用いて、新たな仮想オブジェクトをディスプレイ7に表示させる。この新たな仮想オブジェクトは、通常の操作状態では非表示とされていたものであり、スイッチイベントの発生をトリガとして、仮想オブジェクトの全体を新たに表示させる。ゲーム業界でいう「隠れキャラクタ」の出現に相当し、新たなキャラクタを登場させることで、ゲーム進行に変化をもたらすことが可能となる。   Here, the display control unit 120 causes the display 7 to display a new virtual object using the selected operation pattern. This new virtual object is not displayed in a normal operation state, and the entire virtual object is newly displayed with the occurrence of a switch event as a trigger. This corresponds to the appearance of a “hidden character” in the game industry, and by introducing a new character, it is possible to change the game progress.

ゲームシステム1において、プレイヤは、カード操作に対して割り当てられている動作パターンを必ずしも覚えておく必要はなく、ゲームカード4を色々と操作してみることでキャラクタを動かしてみればよい。本実施例のゲームアプリケーションは、新たなゲームの楽しみ方をプレイヤに提供することができる。   In the game system 1, the player does not necessarily have to remember the motion pattern assigned to the card operation, and may move the character by operating the game card 4 in various ways. The game application of the present embodiment can provide the player with a new way of enjoying the game.

図8は、実施例の画像処理フローを示す。ゲーム装置30において、解析情報取得部100が、画像解析装置20からゲームカード4の識別情報を取得する(S10)。キャラクタ決定部104は、この識別情報を受け取ると、キャラクタ格納部106から、現在のステージおよび識別情報に対応付けられたキャラクタの3次元画像データを読み出す(S12)。表示制御部120は、ディスプレイ7におけるゲームカード4の表示位置に、読み出したキャラクタの3次元画像データを重畳表示させる(S14)。   FIG. 8 shows an image processing flow of the embodiment. In the game apparatus 30, the analysis information acquisition unit 100 acquires the identification information of the game card 4 from the image analysis apparatus 20 (S10). When the character determination unit 104 receives this identification information, the character determination unit 104 reads out the three-dimensional image data of the character associated with the current stage and the identification information from the character storage unit 106 (S12). The display control unit 120 displays the three-dimensional image data of the read character superimposed on the display position of the game card 4 on the display 7 (S14).

変化検出部110は、ゲームカード4の時間的な状態変化を監視する(S16)。所定の状態変化を検出すると(S16のY)、表示制御部120が、その状態変化に対応付けられた動作パターンを、動作パターン格納部122から読み出し(S18)、その動作パターンにしたがってキャラクタを表示制御する(S20)。ステージが継続する場合(S22のN)、表示制御部120は、キャラクタの表示態様を元に戻し、キャラクタをゲームカード4に重畳表示させる。なお、所定の状態変化を検出しない場合(S16のN)、ステージの切替がなければ、重畳表示の状態を維持する。ステージが切り替わると(S22のY)、このフローは終了する。次のステージが開始すると、ステージに応じたキャラクタの3次元画像データが読み出され、上記したフローが実行される。   The change detection unit 110 monitors the temporal state change of the game card 4 (S16). When a predetermined state change is detected (Y in S16), the display control unit 120 reads out an operation pattern associated with the state change from the operation pattern storage unit 122 (S18), and displays a character according to the operation pattern. Control (S20). When the stage continues (N in S22), the display control unit 120 restores the character display mode and causes the character to be superimposed on the game card 4. If a predetermined state change is not detected (N in S16), the superimposed display state is maintained unless the stage is switched. When the stage is switched (Y in S22), this flow ends. When the next stage starts, the three-dimensional image data of the character corresponding to the stage is read, and the above-described flow is executed.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。実施例では、キャラクタの動作パターンを変化させる例について説明したが、例えば、ゲームカード4の撮像状態の変化に基づいて、メインキャラクタとは別の新たな仮想オブジェクトを発生させ、メインキャラクタから離れる方向に、その新たな仮想オブジェクトを移動させる表示制御を行うことも可能である。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. . In the embodiment, the example in which the action pattern of the character is changed has been described. For example, based on the change in the imaging state of the game card 4, a new virtual object different from the main character is generated, and the direction away from the main character It is also possible to perform display control for moving the new virtual object.

変形例として、表示制御部120は、キャラクタとともに、キャラクタとは別の仮想オブジェクトを表示させ、変化検出部110においてゲームカード4の状態変化が検出されたことをトリガとして、画像解析装置20の方向決定部54において決定された方向に、キャラクタから離れるように、別の仮想オブジェクトを移動させてもよい。別の仮想オブジェクトは、ゲーム進行に用いるアイテムであってよく、例えばキャラクタが投げる「ボール」などの仮想オブジェクトであってよい。   As a modified example, the display control unit 120 displays a virtual object different from the character together with the character, and the direction of the image analysis device 20 is triggered by the change detection unit 110 detecting a change in the state of the game card 4. Another virtual object may be moved away from the character in the direction determined by the determination unit 54. Another virtual object may be an item used for game progress, for example, a virtual object such as a “ball” thrown by a character.

図9(a)は、キャラクタがボールを投げて、ボーリングをする表示例を示す。既述のように、方向決定部54は、実空間におけるゲームカード4の方向指示部11の位置に応じて、ゲームカード4の方向を決定する。ディスプレイ7における仮想的なボーリングピンの表示位置を固定とすると、プレイヤは、ディスプレイ7を見ながらゲームカード4を動かして、キャラクタがボールを投げる位置および方向を調整する。なお、ボーリングピンは他のゲームカード4上に表示される仮想オブジェクトであってよい。キャラクタ決定部104は、他のゲームカード4上にボーリングピンが表示されたことを条件として、ボールの3次元画像データをキャラクタ格納部106から読み出し、ゲーム進行処理部102に供給する。表示制御部120は、ゲーム進行処理部102からボールの3次元画像データを受け取り、キャラクタにボールをもたせるように表示制御する。プレイヤによるカード移動によりキャラクタが所望の位置に表示されると、プレイヤは、ゲームカード4を操作して、ボールを投げるトリガとして設定されているイベントを発生させる。このイベントは、プレイヤに対して画面上またはスピーカを通じて告知されるのが好ましい。表示制御部120は、そのイベントの発生通知を受けると、方向決定部54により定められた方向にボールを転がし、方向に応じてボーリングピンの倒れる本数を所定の演算により算出する。このとき、表示制御部120は、ボーリングピンおよびキャラクタの座標系を同じ座標系に統一し、移動物体であるボールとボーリングピンとの接触判定を行うことで、この表示処理が可能となる。なお、ボーリングは一つの例であり、キャラクタから仮想オブジェクトを発射させることで、キャラクタ以外のオブジェクトを用いた新たなゲームストーリを展開することができる。   FIG. 9A shows a display example in which the character throws the ball and performs bowling. As described above, the direction determination unit 54 determines the direction of the game card 4 according to the position of the direction instruction unit 11 of the game card 4 in the real space. If the display position of the virtual bowling pin on the display 7 is fixed, the player moves the game card 4 while looking at the display 7 to adjust the position and direction in which the character throws the ball. The bowling pin may be a virtual object displayed on another game card 4. The character determination unit 104 reads the three-dimensional image data of the ball from the character storage unit 106 and supplies it to the game progress processing unit 102 on the condition that the bowling pin is displayed on another game card 4. The display control unit 120 receives the three-dimensional image data of the ball from the game progress processing unit 102 and performs display control so that the character has the ball. When the character is displayed at a desired position by the card movement by the player, the player operates the game card 4 to generate an event set as a trigger for throwing the ball. This event is preferably notified to the player on the screen or through a speaker. Upon receiving the event occurrence notification, the display control unit 120 rolls the ball in the direction determined by the direction determination unit 54 and calculates the number of boring pins to fall according to the direction by a predetermined calculation. At this time, the display control unit 120 unifies the coordinate system of the boring pin and the character into the same coordinate system, and performs the contact determination between the ball that is the moving object and the boring pin, thereby enabling this display processing. Bowling is an example, and a new game story using an object other than the character can be developed by firing a virtual object from the character.

方向決定部54は、ゲームカード4に印刷された方向指示部11から方向を決定することもできるが、傾けられた状態では、その傾けられた傾斜面に沿ったベクトルを、ゲームカード4の方向として決定することもできる。   The direction determination unit 54 can also determine the direction from the direction instruction unit 11 printed on the game card 4, but in the tilted state, a vector along the tilted inclined surface is used as the direction of the game card 4. Can also be determined.

図9(b)は、キャラクタがボールを投げて、ボーリングをする別の表示例を示す。方向決定部54は、実空間におけるゲームカード4の傾斜した方向を決定する。この傾斜方向は、台3において、台3に接触するゲームカード4の一辺に垂直な方向として定められる。図9(a)の例と異なり、この場合は、ボールを投げる方向がゲームカード4と台3との接線に応じて決定される。プレイヤは、ゲームカード4を所望の位置に配置して傾斜させる。このとき、ゲームカード4を傾斜させたことが、ボールを投げるトリガとして設定されていてもよい。ゲーム進行処理部102は、姿勢情報からゲームカード4が傾斜されたことを検出すると、その旨を表示制御部120に通知し、表示制御部120は、動作パターンを読み出して、方向決定部54により定められた方向にボールを転がす。   FIG. 9B shows another display example in which the character throws the ball and performs bowling. The direction determining unit 54 determines an inclined direction of the game card 4 in the real space. This inclination direction is determined as a direction perpendicular to one side of the game card 4 in contact with the table 3 in the table 3. Unlike the example of FIG. 9A, in this case, the direction in which the ball is thrown is determined according to the tangent line between the game card 4 and the table 3. The player places the game card 4 at a desired position and tilts it. At this time, tilting the game card 4 may be set as a trigger for throwing the ball. When the game progress processing unit 102 detects that the game card 4 is tilted from the posture information, the game progress processing unit 102 notifies the display control unit 120 to that effect, and the display control unit 120 reads out the operation pattern, and the direction determining unit 54 Roll the ball in the specified direction.

上記した実施例および変形例では、ゲームカード4の状態変化に基づいて、キャラクタの表示態様を制御した。ゲームアプリケーションの興趣を高めるために、キャラクタの表示態様だけでなく、音声などによる演出を行ってもよい。この場合、変化検出部110においてゲームカード4の状態変化が検出されると、ゲーム進行処理部102は、その旨を図示しない音声制御部に通知して、音声制御部がスピーカを通じてキャラクタの聴覚的な演出を行ってもよい。このとき、ゲーム装置30は、画像処理装置として機能するだけでなく、音声処理装置としても機能するため、ゲーム装置30を、画像および音声の両方を制御可能な処理装置と呼ぶこともできる。なお、ゲーム装置30は、ゲームカード4の状態変化に基づいて、音声制御のみを行ってもよい。   In the above-described embodiment and modification, the character display mode is controlled based on the state change of the game card 4. In order to enhance the interest of the game application, not only the display mode of the character but also an effect such as voice may be performed. In this case, when a change in the state of the game card 4 is detected by the change detection unit 110, the game progress processing unit 102 notifies the voice control unit (not shown) to that effect, and the voice control unit transmits the auditory character of the character through the speaker. You may make a special performance. At this time, the game apparatus 30 not only functions as an image processing apparatus but also functions as an audio processing apparatus. Therefore, the game apparatus 30 can also be referred to as a processing apparatus capable of controlling both images and sounds. Note that the game apparatus 30 may perform only voice control based on the state change of the game card 4.

実施例にかかるゲームシステムの構成を示す図である。It is a figure which shows the structure of the game system concerning an Example. ゲームカードの表面の一例を示す図である。It is a figure which shows an example of the surface of a game card. 画像解析装置の構成を示す図である。It is a figure which shows the structure of an image analyzer. ゲーム装置の構成を示す図である。It is a figure which shows the structure of a game device. スライドイベントが発生したときにディスプレイ上で表現されるキャラクタの動作を示す図である。It is a figure which shows the operation | movement of the character expressed on a display when a slide event generate | occur | produces. 往復イベントが発生したときにディスプレイ上で表現されるキャラクタの動作を示す図である。It is a figure which shows the operation | movement of the character expressed on a display when a reciprocation event generate | occur | produces. キャラクタが目を回している状態を示す図である。It is a figure which shows the state in which the character is turning eyes. 画像処理のフローチャートである。It is a flowchart of an image process. キャラクタがボーリングをする表示例を示す図である。It is a figure which shows the example of a display which a character bowls.

符号の説明Explanation of symbols

1・・・ゲームシステム、2・・・撮像装置、4・・・ゲームカード、5・・・撮像領域、7・・・ディスプレイ、10・・・画像処理装置、20・・・画像解析装置、30・・・ゲーム装置、40・・・フレーム画像取得部、42・・・実オブジェクト抽出部、44・・・状態決定部、46・・・識別情報取得部、48・・・識別情報格納部、50・・・送出部、52・・・姿勢決定部、54・・・方向決定部、56・・・距離決定部、100・・・解析情報取得部、102・・・ゲーム進行処理部、104・・・キャラクタ決定部、106・・・キャラクタ格納部、110・・・変化検出部、112・・・移動量監視部、114・・・回転検出部、116・・・存在確認部、120・・・表示制御部、122・・・動作パターン格納部。
DESCRIPTION OF SYMBOLS 1 ... Game system, 2 ... Imaging device, 4 ... Game card, 5 ... Imaging region, 7 ... Display, 10 ... Image processing device, 20 ... Image analysis device, DESCRIPTION OF SYMBOLS 30 ... Game device, 40 ... Frame image acquisition part, 42 ... Real object extraction part, 44 ... State determination part, 46 ... Identification information acquisition part, 48 ... Identification information storage part , 50 ... sending unit, 52 ... posture determining unit, 54 ... direction determining unit, 56 ... distance determining unit, 100 ... analysis information acquiring unit, 102 ... game progress processing unit, 104: Character determination unit, 106: Character storage unit, 110: Change detection unit, 112 ... Movement amount monitoring unit, 114 ... Rotation detection unit, 116 ... Presence check unit, 120 ... Display control unit, 122 ... Operation pattern storage unit.

Claims (7)

実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部と、
撮像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報に対応付けられた仮想オブジェクトの3次元画像データを前記格納部から読み出す読出部と、
読み出された3次元画像データを用いて、前記仮想オブジェクトを、前記実オブジェクトの表示位置に関連付けて表示装置に表示させる表示制御部と、
前記撮像装置により撮像された実オブジェクト画像の時間的な状態変化を検出する変化検出部と、
を備え、
前記変化検出部は、前記撮像装置において撮像される前記実オブジェクトの移動量を監視する移動量監視部を有し、
前記表示制御部は、前記移動量監視部において前記実オブジェクトの移動速度が所定の基準速度を超えていることが判断された場合に、前記仮想オブジェクトを前記実オブジェクトの移動に追従させないように前記仮想オブジェクトの表示態様を制御することを特徴とする画像処理装置。
A storage unit that stores identification information for identifying a real object and three-dimensional image data of the virtual object in association with each other;
A reading unit that reads out three-dimensional image data of the virtual object associated with the identification information of the real object image included in the frame image captured by the imaging device from the storage unit;
A display control unit for displaying the virtual object on the display device in association with the display position of the real object using the read three-dimensional image data;
A change detection unit that detects a temporal state change of a real object image imaged by the imaging device;
With
The change detection unit includes a movement amount monitoring unit that monitors a movement amount of the real object imaged in the imaging device,
The display control unit is configured to prevent the virtual object from following the movement of the real object when the movement amount monitoring unit determines that the movement speed of the real object exceeds a predetermined reference speed. An image processing apparatus that controls a display mode of a virtual object.
前記表示制御部は、前記仮想オブジェクトが前記実オブジェクトの表示位置に重ならないように、前記仮想オブジェクトの移動を停止させるように前記仮想オブジェクトの表示態様を制御することを特徴とする請求項1に記載の画像処理装置。   The display control unit controls the display mode of the virtual object so as to stop the movement of the virtual object so that the virtual object does not overlap the display position of the real object. The image processing apparatus described. 前記表示制御部は、前記実オブジェクトの表示位置と前記仮想オブジェクトの表示位置が離れると、所定のタイミングで前記仮想オブジェクトを前記実オブジェクトの表示位置まで移動させるように前記仮想オブジェクトの表示態様を制御することを特徴とする請求項1または2に記載の画像処理装置。   The display control unit controls a display mode of the virtual object so that the virtual object is moved to the display position of the real object at a predetermined timing when the display position of the real object is separated from the display position of the virtual object. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部と、
撮像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報に対応付けられた仮想オブジェクトの3次元画像データを前記格納部から読み出す読出部と、
読み出された3次元画像データを用いて、前記仮想オブジェクトを、前記実オブジェクトの表示位置に関連付けて表示装置に表示させる表示制御部と、
前記撮像装置により撮像された実オブジェクト画像の時間的な状態変化を検出する変化検出部と、
を備え、
前記変化検出部は、所定数の連続したフレーム画像において前記実オブジェクトが認識されない場合に、前記実オブジェクトが前記撮像装置により撮像されていないことを判断する存在確認部を有し、
前記表示制御部は、前記存在確認部において前記実オブジェクトが撮像されている状態と撮像されていない状態とが交互に繰り返されていることが判定された場合に、新たな仮想オブジェクトを表示装置に表示させるように前記仮想オブジェクトの表示態様を制御することを特徴とする画像処理装置。
A storage unit that stores identification information for identifying a real object and three-dimensional image data of the virtual object in association with each other;
A reading unit that reads out three-dimensional image data of the virtual object associated with the identification information of the real object image included in the frame image captured by the imaging device from the storage unit;
A display control unit for displaying the virtual object on the display device in association with the display position of the real object using the read three-dimensional image data;
A change detection unit that detects a temporal state change of a real object image imaged by the imaging device;
With
The change detection unit includes a presence check unit that determines that the real object is not captured by the imaging device when the real object is not recognized in a predetermined number of consecutive frame images.
The display control unit adds a new virtual object to the display device when the presence check unit determines that the state where the real object is captured and the state where the real object is not captured are alternately repeated. An image processing apparatus that controls a display mode of the virtual object so as to be displayed.
実オブジェクトを識別するための識別情報と仮想オブジェクトの3次元画像データとを対応付けて記憶した格納部から、撮像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報に対応付けられた仮想オブジェクトの3次元画像データを読み出すステップと、
読み出した3次元画像データを用いて、前記仮想オブジェクトを、前記実オブジェクトの表示位置に関連付けて表示装置に表示させるステップと、
前記撮像装置により撮像された実オブジェクト画像の時間的な状態変化を検出するステップと、
を備え、
前記状態変化を検出するステップは、前記撮像装置において撮像される前記実オブジェクトの移動量を監視し、
前記表示装置に表示させるステップは、前記実オブジェクトの移動速度が所定の基準速度を超えていることが判断された場合に、前記仮想オブジェクトを前記実オブジェクトの移動に追従させないように表示態様を制御することを特徴とする画像処理方法。
Corresponding to the identification information of the real object image included in the frame image captured by the imaging device from the storage unit storing the identification information for identifying the real object and the three-dimensional image data of the virtual object in association with each other Reading the three-dimensional image data of the virtual object;
Using the read three-dimensional image data, causing the display unit to display the virtual object in association with the display position of the real object;
Detecting a temporal state change of a real object image captured by the imaging device;
With
The step of detecting the state change monitors a moving amount of the real object imaged in the imaging device,
The step of displaying on the display device controls the display mode so that the virtual object does not follow the movement of the real object when it is determined that the movement speed of the real object exceeds a predetermined reference speed. An image processing method.
実オブジェクトを識別するための識別情報と仮想オブジェクトの3次元画像データとを対応付けて記憶した格納部から、撮像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報に対応付けられた仮想オブジェクトの3次元画像データを読み出させる機能と、
読み出させた3次元画像データを用いて、前記仮想オブジェクトを、前記実オブジェクトの表示位置に関連付けて表示装置に表示させる機能と、
前記撮像装置により撮像された実オブジェクト画像の時間的な状態変化を検出させる機能と、
をコンピュータに実行させ、
前記状態変化を検出させる機能は、前記撮像装置において撮像される前記実オブジェクトの移動量を監視し、
前記表示装置に表示させる機能は、実オブジェクトの移動速度が所定の基準速度を超えていることが判断された場合に、前記仮想オブジェクトを前記実オブジェクトの移動に追従させないように表示態様を制御することを特徴とするプログラム。
Corresponding to the identification information of the real object image included in the frame image captured by the imaging device from the storage unit storing the identification information for identifying the real object and the three-dimensional image data of the virtual object in association with each other A function for reading the three-dimensional image data of the virtual object;
A function of displaying the virtual object on the display device in association with the display position of the real object using the read three-dimensional image data;
A function of detecting a temporal state change of a real object image captured by the imaging device;
To the computer,
The function of detecting the state change monitors the movement amount of the real object imaged in the imaging device,
The function displayed on the display device controls the display mode so that the virtual object does not follow the movement of the real object when it is determined that the movement speed of the real object exceeds a predetermined reference speed. A program characterized by that.
請求項に記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the program according to claim 6 is recorded.
JP2004254886A 2004-09-01 2004-09-01 Image processing apparatus and image processing method Expired - Fee Related JP3841806B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004254886A JP3841806B2 (en) 2004-09-01 2004-09-01 Image processing apparatus and image processing method
US11/661,585 US7991220B2 (en) 2004-09-01 2005-05-25 Augmented reality game system using identification information to display a virtual object in association with a position of a real object
PCT/JP2005/009547 WO2006025137A1 (en) 2004-09-01 2005-05-25 Image processor, game machine, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004254886A JP3841806B2 (en) 2004-09-01 2004-09-01 Image processing apparatus and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006164041A Division JP2006260602A (en) 2006-06-13 2006-06-13 Image processing apparatus

Publications (2)

Publication Number Publication Date
JP2006072667A JP2006072667A (en) 2006-03-16
JP3841806B2 true JP3841806B2 (en) 2006-11-08

Family

ID=36153237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004254886A Expired - Fee Related JP3841806B2 (en) 2004-09-01 2004-09-01 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3841806B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552653B2 (en) 2013-03-28 2017-01-24 Sony Corporation Information processing apparatus, information processing method, and storage medium

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5898842B2 (en) 2010-01-14 2016-04-06 任天堂株式会社 Portable information processing device, portable game device
JP5800501B2 (en) 2010-03-12 2015-10-28 任天堂株式会社 Display control program, display control apparatus, display control system, and display control method
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
JP5647819B2 (en) 2010-06-11 2015-01-07 任天堂株式会社 Portable electronic devices
JP4757948B1 (en) 2010-06-11 2011-08-24 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
EP2395767B1 (en) 2010-06-11 2014-11-12 Nintendo Co., Ltd. Image display program, image display system, and image display method
JP5769392B2 (en) 2010-08-26 2015-08-26 キヤノン株式会社 Information processing apparatus and method
JP5627973B2 (en) 2010-09-24 2014-11-19 任天堂株式会社 Program, apparatus, system and method for game processing
JP5739674B2 (en) 2010-09-27 2015-06-24 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
JP5704963B2 (en) * 2011-02-25 2015-04-22 任天堂株式会社 Information processing system, information processing method, information processing apparatus, and information processing program
JP2012203786A (en) * 2011-03-28 2012-10-22 Tomy Co Ltd Information processor and information processing program
JP5350427B2 (en) * 2011-03-31 2013-11-27 株式会社コナミデジタルエンタテインメント Image processing apparatus, image processing apparatus control method, and program
JP5702653B2 (en) * 2011-04-08 2015-04-15 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
US20120269494A1 (en) * 2011-04-22 2012-10-25 Qualcomm Incorporated Augmented reality for live events
JP5821526B2 (en) * 2011-10-27 2015-11-24 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5891879B2 (en) * 2012-03-19 2016-03-23 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
US9741145B2 (en) * 2012-06-29 2017-08-22 Disney Enterprises, Inc. Augmented reality simulation continuum
JP5799928B2 (en) 2012-09-28 2015-10-28 カシオ計算機株式会社 Threshold setting device, subject detection device, threshold setting method and program
JP6283168B2 (en) * 2013-02-27 2018-02-21 任天堂株式会社 Information holding medium and information processing system
JP5790692B2 (en) 2013-03-29 2015-10-07 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
WO2014171200A1 (en) * 2013-04-16 2014-10-23 ソニー株式会社 Information processing device and information processing method, display device and display method, and information processing system
JP6314564B2 (en) * 2014-03-17 2018-04-25 ソニー株式会社 Image processing apparatus, image processing method, and program
US10532271B2 (en) * 2015-10-23 2020-01-14 Chol Whan OH Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects
JP6843178B2 (en) * 2019-04-17 2021-03-17 Kddi株式会社 Character image generator, character image generation method, program and recording medium
JP2021021038A (en) 2019-07-30 2021-02-18 デュポン・東レ・スペシャルティ・マテリアル株式会社 Curable silicone composition, optical semiconductor device and method of manufacturing the optical semiconductor device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552653B2 (en) 2013-03-28 2017-01-24 Sony Corporation Information processing apparatus, information processing method, and storage medium

Also Published As

Publication number Publication date
JP2006072667A (en) 2006-03-16

Similar Documents

Publication Publication Date Title
JP3841806B2 (en) Image processing apparatus and image processing method
US7991220B2 (en) Augmented reality game system using identification information to display a virtual object in association with a position of a real object
JP3904562B2 (en) Image display system, recording medium, and program
JP4005061B2 (en) Information processing apparatus, program, and object control method in information processing apparatus
JP2006260602A (en) Image processing apparatus
JP4187768B2 (en) Game device, progress control method, and program
US8439750B2 (en) Storage medium storing game program, game apparatus and game controlling method
JP3844482B2 (en) Image processing device
JP6173666B2 (en) Program and game device
JP2005230156A (en) Image display system, image processing system, and video game system
JPWO2007077851A1 (en) Production method and operation
JP2006320419A (en) Game device and program
JP5425940B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2011056201A (en) Game device, control method of game device and program
JP5502043B2 (en) Game device and program
JP6301707B2 (en) Game program and game system
JP2011101765A (en) Game apparatus
JP4218963B2 (en) Information extraction method, information extraction apparatus, and recording medium
JP2009165577A (en) Game system
JP3819911B2 (en) Entertainment equipment
JP2020096778A (en) Game program, method, and information processor
JP4422695B2 (en) Image display system, recording medium, and program
JP2007007428A (en) Image display system, image processing system, and video game system
JP3853796B2 (en) Information processing apparatus and entertainment apparatus
JP4729604B2 (en) Image display system, image processing system, recording medium, and program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060613

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060808

R150 Certificate of patent or registration of utility model

Ref document number: 3841806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090818

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100818

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110818

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110818

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120818

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120818

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130818

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees