WO2006025137A1 - 画像処理装置、ゲーム装置および画像処理方法 - Google Patents

画像処理装置、ゲーム装置および画像処理方法 Download PDF

Info

Publication number
WO2006025137A1
WO2006025137A1 PCT/JP2005/009547 JP2005009547W WO2006025137A1 WO 2006025137 A1 WO2006025137 A1 WO 2006025137A1 JP 2005009547 W JP2005009547 W JP 2005009547W WO 2006025137 A1 WO2006025137 A1 WO 2006025137A1
Authority
WO
WIPO (PCT)
Prior art keywords
real object
game
display
unit
identification information
Prior art date
Application number
PCT/JP2005/009547
Other languages
English (en)
French (fr)
Inventor
Nobuki Nagai
Tetsuya Watanabe
Yusuke Iida
Takahisa Suzuki
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004254887A external-priority patent/JP3844482B2/ja
Priority claimed from JP2004254886A external-priority patent/JP3841806B2/ja
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to US11/661,585 priority Critical patent/US7991220B2/en
Publication of WO2006025137A1 publication Critical patent/WO2006025137A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F3/00Board games; Raffle games
    • A63F3/00643Electric board games; Electric features of board games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2448Output devices
    • A63F2009/247Output devices audible, e.g. using a loudspeaker
    • A63F2009/2476Speech or voice synthesisers, e.g. using a speech chip
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2250/00Miscellaneous game characteristics
    • A63F2250/28Miscellaneous game characteristics with a two-dimensional real image
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Definitions

  • the present invention relates to image processing technology, and more particularly to technology for associating and displaying a real object and a virtual object.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2000-322602
  • Patent Document 1 makes it possible to realize excellent visual effects by combining and displaying real-world objects and virtual objects.
  • Patent Document 1 only discloses a display technique of a virtual object in a state in which a two-dimensional barcode is stationary, and is not aware of display processing of the virtual object when moving the two-dimensional barcode. .
  • the present inventor pays attention to display processing when a two-dimensional barcode is powered, and devises display processing of a virtual object at this time to apply it to the field of processing moving images in, for example, the game field. Have found the potential to realize even better visual effects.
  • Patent Document 1 only discloses a technique for displaying a virtual object in association with one two-dimensional barcode, and displays virtual objects when a plurality of two-dimensional barcodes are present. I am not conscious about processing. The inventor has made a plurality of two-dimensional bars By focusing on display processing when real objects such as code exist in the real space, and devising display processing of virtual objects at this time, for example, it is applied to fields such as the game field, etc. I found that there is a potential to realize the effect.
  • the present invention aims to provide a technique for associating and displaying a real object and a virtual object, and in particular, in the field of a game for displaying a moving image, a virtual in relation to the movement of the real object.
  • the purpose is to provide a technology to control the display mode of an object.
  • Another object of the present invention is to provide a technique for associating and displaying a real object and a virtual object, and in particular, in the field of games and the like, a virtual object is displayed based on the positional relationship of a plurality of real objects. It aims to provide technology to control aspects.
  • an aspect of the present invention relates to an image processing apparatus.
  • a storage unit that stores identification information for identifying a real object, and three-dimensional image data of a virtual object in association with each other, and a frame image captured by the imaging device.
  • the virtual object is associated with the display position of the real object using the reading unit that reads out the 3D image data of the virtual object associated with the identification information of the object image from the storage unit, and the read 3D image data.
  • a display control unit that causes a display device to display, and a change detection unit that detects a temporal state change of a real object image captured by an imaging device.
  • the display control unit controls the display mode of the virtual object based on the state change detected by the change detection unit.
  • a real object is a real object that exists as an entity in the real space, and a virtual object does not exist in the real space, but means that it is represented by data in the virtual space.
  • the virtual object corresponding to the movement of the real object can realize a new visual expression of Another aspect of the present invention.
  • a game device In the game device of this aspect, a storage unit that stores identification information for identifying a real object, three-dimensional image data of a game character in association with each other, and an actual frame image captured by the imaging device.
  • the game character is placed at the display position of the real object using the read-out unit that reads out the three-dimensional image data of the game character associated with the identification information of the object image from the storage unit and the read three-dimensional image data.
  • a display control unit that causes a display device to display an association, and a change detection unit that detects a temporal state change of an image outside the real object captured by the imaging device.
  • the display control unit controls the display mode of the game character based on the state change detected by the change detection unit.
  • the game according to the movement of the game character is controlled in order to control the display mode of the game character based on the state change of the photographed real object image, in other words, the movement of the real object.
  • a new visual representation of the character can be realized.
  • a further aspect of the present invention is a frame captured by an imaging device from a storage unit in which identification information for identifying a real object and three-dimensional image data of a virtual object are stored in association with each other.
  • the step of reading out the 3D image data of the virtual object associated with the identification information of the real object image included in the image, and the 3D image data read out, the virtual object is displayed in association with the display position of the real object
  • An image processing method comprising the steps of: displaying on a device; detecting a temporal state change of a real object image captured by an imaging device; and controlling a display mode of a virtual object based on the detected state change. I will provide a.
  • an imaging device captures an image from a storage unit in which identification information for identifying a real object and three-dimensional image data of a virtual object are associated with each other and stored in a computer.
  • the virtual object can be displayed as a real object using the function to read out 3D image data of the virtual object corresponding to the identification information of the real object image included in the frame image and the read 3D image data.
  • a function of displaying on a display device in association with a position, a function of detecting temporal state change of an image outside an actual object captured by an imaging device, and a display mode of a virtual object based on the detected state change. Provide a program to execute functions to control Furthermore, still another aspect of the present invention relates to an image processing apparatus.
  • the image processing apparatus includes a storage unit that stores identification information for identifying a real object, and three-dimensional image data of a virtual object in association with each other, and a plurality of frame images captured by an imaging device.
  • a positional relationship detection unit that detects the positional relationship between real object images
  • a condition determination unit that determines whether the positional relationships detected for at least two real object images satisfy a predetermined condition
  • the frame image When it is determined that a predetermined condition is satisfied by a reading unit that reads out three-dimensional image data of a plurality of virtual objects associated with identification information of a plurality of real object images from a storage unit, and a condition determination unit.
  • the display pattern of the virtual object is determined based on identification information of at least two real object images that satisfy the conditions.
  • a real object is a real object that exists as a real thing in the real space, and a virtual object does not exist in the real space, but means something that is represented by data in the virtual space.
  • the plurality of real objects are placed in a predetermined positional relationship in order to control the display mode of the virtual object based on the positional relationship between the plurality of captured real object images.
  • a new visual representation of virtual objects can be realized.
  • Yet another aspect of the present invention relates to a game device.
  • a storage unit that stores identification information for identifying a real object and three-dimensional image data of a game character in association with each other, and a compound included in a frame image captured by an imaging device.
  • a positional relationship detection unit that detects the positional relationship of a number of real object images
  • a condition determination unit that determines whether a positional relationship detected for at least two images outside the real object satisfies a predetermined condition, and is included in the frame image It is determined by the reading unit that reads out three-dimensional image data of the plurality of game characters associated with the identification information of the plurality of real external object images and the condition determination unit that the predetermined condition is satisfied.
  • the display pattern of the game character is determined based on the identification information of at least two real object images that satisfy the condition and read out. A plurality of using three-dimensional image data, determined And a display control unit that performs a display process of the game character according to the displayed pattern.
  • the plurality of real objects are placed in the predetermined positional relationship.
  • a new visual expression of the game character can be realized.
  • a method of detecting a positional relationship between a plurality of real object images included in a frame image captured by an imaging device, and detecting positions of at least two out-of-real-world images The frame image is stored in a storage unit that stores a step of determining whether the relationship satisfies a predetermined condition, identification information for identifying a real object, and three-dimensional image data of a virtual object in association with each other.
  • a further aspect of the present invention is a computer that detects the positional relationship between a plurality of images outside a real object included in a frame image captured by an imaging device, and detects at least two real object images.
  • the frame image is stored in a storage unit that stores a function that makes it possible to determine whether the positional relationship satisfies a predetermined condition, identification information for identifying a real object, and three-dimensional image data of a virtual object. If it is determined that a function for reading out three- dimensional image data of a plurality of virtual objects associated with identification information of a plurality of contained real object images and that a predetermined condition is satisfied, the condition is satisfied.
  • Function of determining the display pattern of the virtual object based on the identification information of at least two real object images that satisfy Using a plurality of 3-dimensional image data read by the determined display pattern provides a program for implementing a function to perform the display processing of the virtual object.
  • FIG. 1 is a diagram showing the configuration of a game system according to a first embodiment.
  • FIG. 2 is a view showing an example of the surface of a game card.
  • FIG. 3 is a diagram showing the configuration of an image analysis apparatus.
  • FIG. 4 is a diagram showing the configuration of a game device.
  • FIG. 5 is a view showing the action of a character represented on the display when a slide event occurs.
  • FIG. 6 is a diagram showing the action of the character represented on the display when a round trip event occurs.
  • FIG. 7 A diagram showing the character turning his / her eyes.
  • FIG. 8 is a flowchart of image processing.
  • FIG. 9 is a view showing a display example in which a character bores.
  • FIG. 10 is a diagram showing a configuration of a game system focusing on a second embodiment.
  • FIG. 11 is a diagram showing the configuration of an image analysis apparatus.
  • FIG. 12 is a diagram showing the configuration of a game device.
  • FIG. 13 is a diagram showing stored contents of a character storage unit.
  • FIG. 14 is a view showing a display example of a display on stage 1;
  • FIG. 15 is a view showing a state in which two game cards are brought into contact from the state shown in FIG.
  • FIG. 16 is a view showing a state in which two game cards are brought into contact with one game card from the state shown in FIG. 15;
  • FIG. 17 is a diagram for explaining processing of assigning one character to a plurality of game card images.
  • FIG. 18 is a diagram for explaining processing for changing the direction of the character.
  • FIG. 19 is a diagram for explaining processing for displaying a virtual object in an expanded and contracted manner.
  • FIG. 20 is a view showing a state in which the player issues a task.
  • FIG. 21 is a flowchart of image processing.
  • a first embodiment of the present invention provides a technique for detecting a temporal state change of an image of a real object captured by an imaging device, and controlling a display mode outside a virtual object based on the detected state change.
  • the real object is preferably configured to have a feature portion for identifying the real object itself, which may be an existing one-dimensional object, two-dimensional object or three-dimensional object.
  • a real object may be a two-dimensional object such as a card having code information represented in two dimensions as a feature portion, or a three-dimensional object having a unique solid shape as a feature portion. It may be a jet.
  • the two-dimensional shape of the two-dimensional object may constitute a unique feature, or code information to be a feature may be attached to the three-dimensional object.
  • the virtual object may be a so-called character such as a person, an object, or the like that is three-dimensionally represented in the virtual space.
  • the first embodiment described below relates to image processing technology in a game application, and employs a game character appearing in a game application as a virtual object.
  • FIG. 1 shows the configuration of a game system 1 according to a first embodiment of the present invention.
  • the game system 1 includes an imaging device 2, an image processing device 10 and an output device 6.
  • the image processing device 10 includes an image analysis device 20 and a game device 30.
  • the image analysis device 20 and the game device 30 may be configured as separate devices, but may be configured as one.
  • the imaging device 2 is a video camera configured to have a force such as a CCD imaging device or a MOS imaging device.
  • the imaging device 2 captures an image of the real space at a predetermined cycle, and generates a frame image at each cycle.
  • the imaging area 5 is an area imaged by the imaging device 2. By adjusting the height and direction of the imaging device 2, the position and size of the imaging area 5 are adjusted.
  • the game player moves the game card 4 which is a real object in the imaging area 5 with a finger.
  • the game card 4 is configured with a feature portion for uniquely identifying itself.
  • the output device 6 has a display 7 which is a display device.
  • the output device 6 may further be configured to have a speaker (not shown).
  • the image processing device 10 causes the display 7 to display a frame image captured by the imaging device 2, and controls display so that a character, which is a virtual object, is superimposed on the game card 4 at that time. The player can easily confirm that the game card 4 is in the imaging area 5 by looking at the display 7. If not, the position of the game card 4 is shifted, and the orientation of the imaging device 2 is changed. To make the imaging device 2 capture an image of the game card 4.
  • the player operates the character by performing predetermined operations on the game card 4. Due to the nature of this game application, it is preferable to make the player recognize the integrity of the game card 4 and the character. Therefore, the image of the character is displayed superimposed on the game card 4. If you move game card 4 slowly in area 5, the character will be on game card 4. Follow the movement of the game card 4 and move together while maintaining the riding condition.
  • the image analysis device 20 extracts image information of the game card 4 from the frame image acquired by the imaging device 2. Furthermore, the image analysis device 20 extracts a unique feature for identifying the game card 4 from the image information of the game card 4. At this time, the image analysis device 20 determines posture information, direction information, distance information and the like in the space of the game card 4 from the image information of the game card 4.
  • FIG. 2 shows an example of the surface of the game card 4.
  • a direction indication unit 11 and an identification unit 12 are printed.
  • the direction indication unit 11 is provided to indicate the front of the game card 4, and the identification unit 12 is provided to represent a feature for uniquely identifying the game card 4.
  • the identification unit 12 is code information generated by printing a plurality of blocks in a predetermined section. Among the plurality of blocks, the blocks of four corners are commonly given to the plurality of game cards 4, and the blocks are substantially formed by the blocks other than the four corners.
  • the square blocks are used to measure the distance from the imaging device 2.
  • the image analysis device 20 when the image analysis device 20 recognizes the game card 4 in the frame image, based on the length between blocks in the four corners of the image of the game card 4, the image pickup device 2 and the game are Calculate the distance to card 4. In addition, the image analysis device 20 detects the direction instruction unit 11 of the game card 4 and finds the direction in which the game card 4 is facing in the frame image. In this case, the direction in which the direction indicator 11 is present is forward, and the character is controlled so as to face forward on the game card 4. Furthermore, the image analysis device 20 acquires the identification information of the game card 4 from the blocks other than the four corners of the identification unit 12.
  • the power game power card 4 which is shown in the state where the game card 4 is simply placed on the platform 3 is, for example, inclined obliquely to the platform 3 or higher than the platform 3 May be lifted.
  • the image analysis device 20 has a function of recognizing the state in which the game card 4 is inclined or the state in which the height from the stand 3 is changed by image analysis.
  • the result of image analysis performed by the image analysis device 20 is sent to the game device 30.
  • the image may be transmitted to the frame image strength game device 30 captured by the imaging device 2 and the image analysis may be performed on the game device 30 side.
  • the image processing apparatus 10 comprises only the game apparatus 30. It will be
  • the game device 30 controls the display so that the character is positioned on the game card 4 on the display screen of the display 7 based on the image analysis result in the image analysis device 20. Characters may be assigned to the game card 4 for each game scene as appropriate. In this case, when the game scene is switched, the displayed characters are also switched. In the first embodiment, the game device 30 detects a temporal change in the imaging state of the game card 4 based on the image analysis result, and controls the display mode of the character based on the state change.
  • FIG. 3 shows the configuration of the image analysis device 20.
  • the image analysis device 20 includes a frame image acquisition unit 40, a real object extraction unit 42, a state determination unit 44, an identification information acquisition unit 46, an identification information storage unit 48, and a transmission unit 50.
  • the identification information storage unit 48 associates and stores information of a feature portion for identifying a real object and identification information for identifying a real object. Specifically, pattern information of the identification unit 12 of the game card 4 in FIG. 2 and identification information are stored in one-to-one correspondence.
  • the identification information is used to assign characters in the game device 30.
  • the game card 4 can be recognized by linking each of the game cards 4 with identification information.
  • the state determination unit 44 determines the state of the real object in the set coordinate system. Specifically, the posture determination unit 52 that determines the posture, the direction determination unit 54 that determines the direction, and the focus from the imaging device 2 It has a distance determination unit 56 that determines the distance.
  • the frame image acquisition unit 40 acquires a frame image of real space captured by the imaging device 2.
  • the imaging device 2 periodically acquires frame images, and preferably generates frame images at intervals of 1Z 60 seconds.
  • the real object extraction unit 42 extracts a frame image power real object image, that is, an image of the game card 4. This processing is performed by converting the image information into binary bit representation and extracting the image of the game card 4 with this bit representation power. This is so-called dot processing, and image extraction processing may be performed by detecting bit on / off. Also, This process may be performed by known image matching techniques. In that case, the real object extraction unit 42 registers image information of the real object to be used in advance in a memory (not shown) for the matching process. By matching the image information registered in advance with the captured image information, it is possible to cut out the image of the game card 4 as well as the frame image.
  • the posture determination unit 52 determines the posture of the real object image. Specifically, the coordinates of the center point of the real object image in the frame image, the inclination from the stand 3 of the real object image, the height from the stand 3 of the real object image, and the like are determined. For that purpose, the state determination unit 44 detects in advance the geometry information of the table 3 for placing and moving the game card 4 and further placing the game card 4 on the reference plane with the surface of the table 3 as a reference plane. The geometry information of the posture is recorded as the initial state of the posture of the game card 4. This geometry information may be generated with reference to the imaging device 2. The state determination unit 44 recognizes the position, posture, and the like of the table 3 as coordinate data in the imaging space from the geometry information acquired for the table 3.
  • the attitude determination unit 52 calculates the difference between the relative state quantities of the attitude force of the game card 4 in which the inclination and height of the game power mode 4 with respect to the reference plane of the game card 4 are recorded as the initial state, that is, coordinates in the imaging space. Calculated as difference of value.
  • the initial state that is, coordinates in the imaging space.
  • the direction determining unit 54 determines the direction of the real object image.
  • the direction determining unit 54 may detect the direction instructing unit 11 shown in FIG. 2 from the real observer image to determine the direction of the real object. Further, when the posture determination unit 52 recognizes that the real object is inclined, the direction determination unit 54 may determine the inclined direction as the direction of the real object.
  • distance determination unit 56 determines
  • the distance between the imaging device 2 and the game card 4 is determined.
  • the identification information acquisition unit 46 extracts a feature part from the real object image, and acquires corresponding identification information from the identification information storage unit 48.
  • the game system 1 of the first embodiment can correspond to a plurality of different game cards 4. For example, when the simultaneous use of five game cards 4 is permitted, identification information of 1 to 5 may be respectively associated with each game card 4.
  • the posture information, the direction information, the distance information, and the identification information acquired by the identification information acquisition unit 46, which are determined by the state determination unit 44, are associated with one another and transmitted from the sending unit 50 to the game device 30. Sent. When a plurality of game cards 4 exist in the imaging area 5, posture information, direction information, distance information, and identification information are associated with each game card 4, and the game unit 30 sends the game device 30. Sent to Further, in the first embodiment, the frame image itself is also sent from the sending unit 50 to the game apparatus 30 in order to display the frame image captured by the imaging device 2 on the display 7.
  • FIG. 4 shows the configuration of the game device 30.
  • the game device 30 includes an analysis information acquisition unit 100, a game progress processing unit 102, a character determination unit 104, a character storage unit 106, a change detection unit 110, a display control unit 120, and a motion pattern storage unit 122.
  • the change detection unit 110 includes a movement amount monitoring unit 112, a rotation detection unit 114, and an existence confirmation unit 116, and detects a temporal state change of the real object image captured by the imaging device 2.
  • the processing function of the game apparatus 30 in the first embodiment is realized by a CPU, a memory, a program loaded in the memory, etc., and in this case, a configuration realized by the cooperation of them is depicted.
  • the program may be built in the game device 30 or may be supplied with an external force in the form stored in a recording medium. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. In the illustrated example, it has functions as a CPU power analysis information acquisition unit 100, a game progress processing unit 102, a character determination unit 104, a change detection unit 110, and a display control unit 120 of the game apparatus 30.
  • the analysis information acquisition unit 100 receives an analysis result from the image analysis device 20.
  • the analysis result includes attitude information, direction information, distance information, and identification information of the game card 4 which is outside the real object.
  • the analysis information acquisition unit 100 passes the received analysis result to the game progress processing unit 102.
  • the analysis information acquisition unit 100 directly outputs frame image data from the imaging device 2. You may get close to it.
  • the game apparatus 30 may have the function of the image analysis apparatus 20 and execute the same process as the process described for the image analysis apparatus 20.
  • the game progress processing unit 102 controls the processing of the entire game application.
  • the game progress is composed of a plurality of stage forces, and different game scenes are set in each stage. The player gradually clears the end conditions of each stage, and the game ends when the final stage is cleared.
  • the game progress processing unit 102 manages the progress of the game, and immediately after the start of the game or at the time of switching of the game stage, the character determination unit 104 controls the game stage name to be started next and the analysis information acquisition unit 100. Communicate identification information sent from.
  • Character storage unit 106 stores identification information of game card 4 in association with three-dimensional image data of the character for each game stage.
  • the character determination unit 104 reads the three-dimensional image data of the character associated with the identification information from the character storage unit 106 based on the game stage name and the identification information, and supplies the data to the game progress processing unit 102.
  • the read three-dimensional image data may be supplied directly to the display control unit 120.
  • the game progress processing unit 102 supplies the display control unit 120 with three-dimensional image data, attitude information, direction information, and distance information of the game card 4.
  • the display control unit 120 causes the display 7 to display the character in association with the display position of the game card 4 using three-dimensional image data.
  • the display control unit 120 receives a frame image sent from the image analysis device 20 and causes the display 7 to display the frame image.
  • the display control unit 120 recognizes the attitude, direction, and distance of the game card 4 based on the attitude information, direction information, and distance information of the game card 4 and displays it on the display 7 using three-dimensional image data. Determine the character's pose, orientation, and size. For example, if the game card 4 is tilted with respect to the stand 3, the character may be tilted and displayed along the normal vector of the game card 4.
  • the display control unit 120 may arrange the character at any position as long as it overlaps with the game card 4. In the normal display mode, the character is displayed so as to be positioned above the central point of the game card 4. Determine the position.
  • the character is feeling, tone, etc. according to the player's operation history. You may have internal parameters that represent.
  • the movement pattern storage unit 122 stores movement patterns of characters in a normal operation state. Specifically, the motion pattern storage unit 122 sets the motion pattern in association with the character, the game stage, and further the internal parameters. Therefore, the display control unit 120 selects the motion pattern from the motion pattern storage unit 122 based on the character name, the game stage currently being played, and the internal parameters of the character, and controls the display of the character on the display 7. Do.
  • the display control unit 120 receives the three-dimensional image data of the character, the attitude information, the direction information and the distance information of the game card 4 from the game progress processing unit 102, and the image of the character at the display position of the game card 4 on the display 7. Make the character follow the movement of the game card 4 so that As a result, on the display 7, the display mode is such that the character is always on the game card 4, and the player can recognize the sense of unity between the character and the game card 4. As described above, in the normal operation state of the game card 4, the display control unit 120 superimposes and displays the character on the game card 4.
  • the display control unit 120 controls the display mode of the characters rather than simply making the character follow the movement of the game card 4.
  • To change the motion pattern of the character By setting the action on the game card 4 by the player as a trigger to change the motion pattern of the character, it is possible to give the player a different enjoyment than the operation by a normal game controller or the like.
  • the game progress processing unit 102 hands over the posture information, the direction information, and the distance information of the game card 4 to the change detection unit 110 in order to detect whether or not it is in the normal operation state.
  • the change detection unit 110 detects a temporal state change of the image of the game card 4 in the frame image.
  • the movement amount monitoring unit 112 supervises the movement amount of the game card 4 captured by the imaging device 2. Look. Specifically, the movement amount monitoring unit 112 measures the movement speed of the game card 4 based on the center coordinates and the distance information included in the attitude information of the game card 4. The movement amount monitoring unit 112 stores center coordinates and distance information of the game card 4 in a memory (not shown) for each frame, and based on a change in distance of the game card 4 in a predetermined number of frames and a difference of the center coordinates, Calculate the motion vector. Thereby, the moving speed is measured. When center coordinates are used as coordinate values in a three-dimensional space, the movement vector can be calculated by simply calculating the difference between the center coordinate values. The movement amount monitoring unit 112 monitors the movement amount of the game card 4 imaged in the imaging device 2 and monitors the movement amount in the set virtual space or monitors the actual movement amount. Good.
  • the movement amount monitoring unit 112 Upon determining that the moving speed of the game card 4 exceeds the predetermined reference speed, the movement amount monitoring unit 112 notifies the game progress processing unit 102 of the determination result.
  • the moving speed of the game card 4 may be the moving speed of the captured game card 4 in the virtual space or may be the actual moving speed of the game card 4.
  • the game progress processing unit 102 recognizes that the game card 4 has been quickly powered by the player. When this event is called a "slide event", the game progress processing unit 102 notifies the display control unit 120 of the character name and the occurrence of the slide event.
  • the display control unit 120 searches the motion pattern storage unit 122 for a motion pattern corresponding to the slide event set for the character.
  • the motion pattern storage unit 122 also stores the motion pattern of the character at the time of occurrence of an event which is not limited to the motion pattern in the normal operation state described above.
  • the action pattern storage unit 122 associates the action pattern with the character, the game stage, and the internal parameter, and also sets the action pattern in association with the event name. Therefore, the display control unit 120 selects the motion pattern from the motion pattern storage unit 122 based on the character name, the game stage currently being played, the internal parameters of the character, and the event name, and the character on the display 7 is selected. Display control.
  • the display control unit 120 When notified of the occurrence of the slide event, the display control unit 120 reads out from the operation pattern storage unit 122 an operation pattern for causing the character to fall on the spot without making the game card 4 move. Run. The player intuitively moves the game card 4 at high speed. Although the character can not keep up with the movement, he or she will have an image left behind, but by selecting an operation pattern that embodies the image and expressing it on the screen of the display 7, the player's consciousness can be realized. Image processing in accordance with is realized.
  • FIG. 5 shows the behavior of the characters represented on the display when a slide event occurs.
  • FIG. 5 (a) shows a state in which characters are superimposed on the game card 4 and displayed. This state corresponds to a normal operation state, and the character is controlled to be displayed in an operation pattern according to an internal parameter or the like.
  • the game progress processing unit 102 notifies the display control unit 120 of the occurrence of the slide event.
  • the display control unit 120 moves the game card 4 to the left on the display 7 based on the frame image periodically sent from the image analysis device 20.
  • the display control unit 120 causes the character to roll when it detects the occurrence of a slide event without making the character follow the movement of the game card 4. That is, when a slide event occurs, the display control unit 120 stops the movement of the character on the spot so that the character does not overlap the display position of the game card 4. As a result, the display position of the game card 4 and the display position of the character are momentarily separated.
  • the display control unit 120 raises the character at a predetermined timing and moves the character to the display position of the game card 4, as shown in FIG. 5 (d).
  • This timing may be, for example, after the high-speed movement of the game card 4 has ended, or may be when a predetermined time has elapsed after the occurrence of the slide event.
  • the display control unit 120 reproduces the movement motion of the character on the display 7 with the center coordinates of the game card 4 as the movement target point.
  • the motions of the series of characters shown in FIGS. 5 (a) to 5 (d) are determined in the motion pattern selected by the display control unit 120.
  • FIG. 5 (e) shows that the character has returned to the display position of the game card 4.
  • the game of the first embodiment According to the game application, the player can enjoy the above series of three-dimensional character movements by moving the game card 4.
  • the player can try various operation methods of the game card 4 to cause the character to make a new movement on the display, thereby enhancing the interest of the game application.
  • the movement amount monitoring unit 112 monitors the movement direction of the game card 4 captured by the imaging device 2 at which only the movement speed is reached. Specifically, movement amount monitoring unit 112 stores the center coordinates of game card 4 in a memory (not shown) for each frame, and calculates a movement vector from the difference between the center coordinates of game power 4 between the frames. Do. Thereby, the direction of the movement vector can be detected.
  • Movement amount monitoring unit 112 compares the directions of the movement vectors before and after in time, and detects a state in which the angle between movement vectors is substantially 180 degrees when detected a plurality of times within a predetermined time.
  • the game progress processing unit 102 is notified of the result.
  • the condition of the notification may be that the direction of the motion vector is inverted three times in two seconds.
  • the game progress processing unit 102 recognizes that the game card 4 has been reciprocated.
  • this event is referred to as a “round trip event”
  • the game progress processing unit 102 notifies the display control unit 120 of the character name and the occurrence of the round trip event.
  • the display control unit 120 searches the motion pattern storage unit 122 for a motion pattern corresponding to the reciprocation event set for the character.
  • FIG. 6 shows the behavior of the characters represented on the display when a reciprocating event occurs.
  • FIG. 6 (a) shows that the game card 4 is reciprocated to win over the character.
  • the game progress processing unit 102 notifies the display control unit 120 of the occurrence of the reciprocation event.
  • the display control unit 120 causes the display 7 to display the reciprocating motion of the game card 4 and changes the motion pattern of the character based on the motion pattern retrieved from the motion pattern storage unit 122.
  • the reciprocation of the game card 4 is a trigger for executing a motion pattern to beat the character, and the character shows a shocked expression by being beaten.
  • the character does not follow the reciprocation of the game card 4 as long as it is within the range of the game card 4.
  • the display position may be fixed.
  • FIG. 6 (b) shows a state in which the character is enlarged by reciprocating the game card 4.
  • the motion pattern storage unit 122 may store a plurality of types of motion patterns in association with the reciprocating motion of the game card 4.
  • the motion pattern storage unit 122 may store the motion pattern in association with the game stage, or may store the motion pattern in association with the internal parameter of the character.
  • the rotation detection unit 114 detects the rotation of the game card 4. Specifically, the rotation detection unit 114 detects the rotation operation of the game card 4 based on the center coordinates and the direction information included in the attitude information of the game card 4.
  • the rotation detection unit 114 stores center coordinates and direction information of the game card 4 in a memory (not shown) for each frame. If the orientation of the game card 4 identified by the direction information changes temporally on a substantially flat surface, and the position of the center coordinates of the game card 4 hardly deviates during the change, the rotation detection unit 114 detects Detects game card 4 being rotated. At this time, the direction of the game card 4 may be changed in the same rotation direction by S 360 degrees or more as the condition of the rotation detection.
  • the rotation detection unit 114 When determining that the game card 4 is rotating, the rotation detection unit 114 notifies the game progress processing unit 102 of the determination result.
  • the game progress processing unit 102 recognizes that the game card 4 is rotated.
  • this event is referred to as “rotation event”
  • the game progress processing unit 102 notifies the display control unit 120 of the character name and the occurrence of the rotation event.
  • the display control unit 120 searches the operation storage ⁇ turn storage unit 122 for an operation pattern corresponding to the rotation event set for the character.
  • Display control unit 120 selects an operation pattern set for the character for the game stage currently being played.
  • the display control unit 120 changes the motion pattern of the character using the selected motion pattern, and more specifically, reads out and executes a motion pattern for turning the eyes of the character.
  • FIG. 7 shows that the character turns his / her eyes! /, By rotating the game card.
  • the state in which the eyes are turned returns to the original state after a predetermined time has elapsed, and returns to the normal state.
  • the game card 4 is rotated, turning of the character's eyes is the same in terms of rotation, and the player is easy to understand intuitively.
  • the motion pattern of the character corresponding to the card operation is not used.
  • the card operation act is linked with sense. As described above, by associating the card operation with the motion pattern of the character, the operability by the player can be facilitated. By determining the motion pattern of the three-dimensional character by card operation, it is possible to realize a game application so far and to give the player a new sensation.
  • the existence confirmation unit 116 confirms whether or not the game card 4 is present in the imaging area 5.
  • the presence of the game card 4 in the imaging area 5 is determined based on whether or not the information on the game card 4 is also analyzed by the image analysis device 20. If the game power 4 is hidden by the player, the image analysis device 20 can not recognize the image of the game card 4, and the image analysis result of the game card 4 is not sent to the game device 30.
  • the existence confirmation unit 116 determines that the real object is not imaged by the imaging device 2 when the real object is not recognized in a predetermined number of continuous frame images. On the contrary, the existence confirmation unit 116 determines that the real object is being imaged by the imaging device 2 if the frame images in which the real object is not recognized continue continuously and do not continue for a predetermined number or more.
  • the condition that a real object is not recognized in a predetermined number of continuous frame images is to ignore a situation where game card 4 can not be detected by chance due to the influence of illumination or the like.
  • the existence confirmation unit 116 notifies the game progress processing unit 102 of the determination result.
  • the game progress processing unit 102 recognizes that the game card 4 is not present in the imaging area 5. If this event is referred to as a “hidden event”, the game progress processing unit 102 notifies the display control unit 120 of the character name and the occurrence of the hidden event. The player can generate a hidden event by hiding the game card 4 with his hand or moving the game card 4 out of the imaging area 5.
  • the display control unit 120 receives the notification of the occurrence of the hidden event,
  • the motion pattern storage unit 122 searches for a motion pattern corresponding to the hidden event set for the ramp.
  • the display control unit 120 erases the character from the display 7 screen using the selected operation pattern.
  • the game card 4 is imaged, and is imaged! It may be determined that the condition is not repeated.
  • the player creates a non-imaging state of the game card 4 by pushing the hand on the game card 4 and creates an imaging state by releasing the hand.
  • the existence confirmation unit 116 detects a change in the imaging state and notifies the game progress processing unit 102 of the detection result.
  • the game progress processing unit 102 recognizes that the game power mode 4 is alternately captured by the imaging device 2 and not captured.
  • the game progress processing unit 102 notifies the display control unit 120 of the character name and the occurrence of the switch event.
  • the display control unit 120 searches the operation pattern storage unit 122 for an operation pattern corresponding to the switch event set for the character.
  • the display control unit 120 causes the display 7 to display a new virtual object, using the selected operation pattern.
  • This new virtual object is hidden in the normal operation state, and when the switch event is triggered, the entire virtual object is newly displayed. It is possible to bring about changes in the game progress by making new characters appear, corresponding to the appearance of “hidden characters” in the game industry.
  • FIG. 8 shows an image processing flow of the first embodiment.
  • the analysis information acquisition unit 100 acquires identification information of the game card 4 from the image analysis device 20 (S10).
  • the character determination unit 104 reads three-dimensional image data of the character associated with the current stage and the identification information from the character storage unit 106 (S12).
  • the display control unit 120 superimposes and displays the three-dimensional image data of the read character on the display position of the game card 4 on the display 7 (S14).
  • the change detection unit 110 monitors a temporal state change of the game card 4 (S16).
  • a predetermined state change is detected (Y in S16)
  • the display control unit 120 reads the motion pattern associated with the state change from the motion pattern storage unit 122 (S18), and the character is displayed according to the motion pattern. Display control is performed (S20).
  • the display control unit 120 restores the display mode of the character and causes the character to be superimposed on the game power mode 4. If the predetermined state change is not detected (N in S16), the state of the superimposed display is maintained if there is no switching of the stage.
  • the stage is switched (Y in S22), this flow ends.
  • the next stage starts, the 3D image data of the character corresponding to the stage is read out, and the above flow is executed.
  • the first embodiment has been described above.
  • the first embodiment is an exemplification, and it is to be understood by those skilled in the art that combinations of the respective constituent elements and processing processes as well as various modifications are possible, and such modifications are also within the scope of the present invention. It is the place to be understood.
  • the force described in the example of changing the motion pattern of the character generates a new virtual object different from the main character, for example, based on the change of the imaging state of the game card 4. It is also possible to perform display control to move the new virtual object in the direction away from the main character.
  • display control unit 120 causes a virtual observer different from the character to be displayed together with the character, and the image is triggered by the change detection unit 110 detecting a change in the state of the game card 4.
  • Another virtual object may be moved away from the character force in the direction determined by the direction determination unit 54 of the analysis device 20.
  • Another virtual object is an item used for game progress and can be a virtual object such as "ball" thrown by a character! /.
  • FIG. 9 (a) shows a display example in which the character throws a ball and boring.
  • the direction determining unit 54 determines the direction of the game card 4 according to the position of the direction instructing unit 11 of the game card 4 in the real space.
  • the player moves the game card 4 while looking at the display 7 to adjust the position and direction in which the character throws the ball.
  • the bowling pin may be a virtual object displayed on another game card 4.
  • the character determination unit 104 reads the three-dimensional image data of the ball from the character storage unit 106 and supplies it to the game progress processing unit 102 on condition that the bowling pin is displayed on the other game card 4.
  • the display control unit 120 receives the three-dimensional image data of the ball from the game progress processing unit 102, and performs display control so that the character holds the ball.
  • the player When the character is displayed at the desired position by the card movement by the player, the player operates the game card 4 to generate an event which is set as a trigger for throwing a ball. This event is preferably notified to the player on the screen or through a speaker.
  • the display control unit 120 receives notification of occurrence of the event, the display control unit 120 rolls the ball in the direction determined by the direction determination unit 54, and calculates the number of falling boring pins according to the direction by a predetermined calculation. At this time, the display control unit 120 unifies the coordinate systems of the boring pins and the characters into the same coordinate system, and makes this display processing possible by determining the contact between the ball as the moving object and the boring pins. Boring is an example, and by launching a character force virtual object, a new game story using objects other than characters can be developed.
  • the direction determining unit 54 can also determine the direction from the direction instructing unit 11 printed on the game card 4, but in the inclined state, the vector along the inclined inclined surface is It can also be determined as the direction of 4.
  • FIG. 9 (b) shows another display example in which the character throws a ball and boring.
  • the direction determining unit 54 determines the inclined direction of the game card 4 in the real space. This inclined direction is defined as a direction perpendicular to one side of the game card 4 contacting the table 3 on the table 3.
  • the direction of throwing the ball is determined according to the tangent between the game card 4 and the stand 3.
  • the player places the game card 4 in the desired position. Position and tilt. At this time, it may be set as a trigger that throws the ball that the game card 4 is inclined.
  • the game progress processing unit 102 detects that the game card 4 is tilted from the posture information, it notifies the display control unit 120 to that effect, and the display control unit 120 reads the motion pattern, and the direction determination unit 54 Roll the ball in the direction determined by.
  • the display mode of the character is controlled based on the state change of the game card 4.
  • effects may be produced by voice or the like that is displayed only with the display mode of the character.
  • the game progress processing unit 120 notifies the sound control unit (not shown) to that effect, and the sound control unit detects the character's hearing through the speaker. May be performed.
  • the game device 30 since the game device 30 also functions as an audio processing device that only functions as an image processing device, the game device 30 can also be called a processing device capable of controlling both images and sounds.
  • the game device 30 may perform only voice control based on a change in the state of the game card 4.
  • a second embodiment of the present invention provides a technique of detecting the positional relationship of a plurality of real objects captured by an imaging device and controlling the display mode of a virtual object based on the detected positional relationship.
  • the real object is configured to have a feature portion for identifying the real object itself, which may be an existing one-dimensional object, two-dimensional object or three-dimensional object.
  • the real object may be a two-dimensional object such as a card having code information represented in two dimensions as a feature portion, or may be a three-dimensional object having a unique solid shape as a feature portion .
  • the two-dimensional shape of the two-dimensional object may constitute a unique feature, or code information to be a feature may be attached to the three-dimensional object.
  • the virtual object may be a so-called character such as a person, an animal, or an object which is three-dimensionally represented in the virtual space.
  • the second embodiment shown below relates to image processing technology in a game application, and employs a game character appearing in the game application as a virtual object.
  • the player is a real object
  • an event corresponding to the contact occurs, and the events are sequentially executed!
  • FIG. 10 shows a configuration of a game system 201 according to a second embodiment of the present invention.
  • the game system 201 includes an imaging device 2, an image processing device 210 and an output device 6.
  • the image processing device 210 includes an image analysis device 220 and a game device 230.
  • the image analysis device 220 and the game device 230 may be configured as separate devices, but may be configured as one.
  • the imaging device 2 is a video camera configured as a CCD imaging device or a MOS imaging device.
  • the imaging device 2 captures an image of the real space at a predetermined cycle, and generates a frame image for each cycle.
  • the imaging area 5 is an area imaged by the imaging device 2. By adjusting the height and direction of the imaging device 2, the position and size of the imaging area 5 are adjusted.
  • the game player moves the game card 4 which is a real object in the imaging area 5 with a finger.
  • the game card 4 is configured with a characteristic portion for uniquely identifying itself.
  • the output device 6 has a display 7 which is a display device.
  • the output device 6 may further be configured to have a speaker (not shown).
  • the image processing device 210 causes the display 7 to display a frame image captured by the imaging device 2, and controls display so that a character, which is a virtual object, is superimposed on the game card 4 at that time.
  • a character which is a virtual object
  • the display 7 displays characters superimposed on the respective game cards 4.
  • the player can easily confirm that the game card 4 is in the imaging area 5 by looking at the display 7. If not, the position of the game card 4 is shifted, and the orientation of the imaging device 2 is changed. To make the imaging device 2 capture an image of the game card 4.
  • the player operates the character by performing a predetermined operation on the game card 4. Due to the nature of this game application, it is preferable to make the player recognize the integrity of the game card 4 and the character. Therefore, the image of the character is displayed superimposed on the game card 4.
  • the motion of the above character is controlled by the image processing device 210.
  • the image analysis device 220 extracts image information of the game card 4 from the frame image acquired by the imaging device 2.
  • the image analysis device 220 is a game that The unique feature for identifying the game card 4 is extracted.
  • the image analysis device 220 determines positional information, directional information, distance information, and the like in the space of the game card 4 from the image information of the game card 4. Note that, as described with reference to FIG. 2, the direction instructing unit 11 and the identification unit 12 are printed on the surface of the game card 4.
  • the direction instructing unit 11 is provided to indicate the front of the game card 4, and the identifying unit 12 expresses a feature for uniquely identifying the game card 4.
  • the identification unit 12 is code information generated by printing a plurality of blocks in a predetermined section. Of the plurality of blocks, quadruple blocks are commonly given to the plurality of game power cards 4 and the feature portion is substantially formed by the non-quadruple blocks. The square blocks are used to measure the distance from the imaging device 2.
  • the image analysis device 220 when the image analysis device 220 recognizes the game card 4 in the frame image, the image analysis device 220 and the image pickup device 2 are recognized based on the length between blocks in the four corners of the image of the game card 4. Calculate the distance to the game card 4.
  • the image analysis device 220 detects the direction indication unit 11 of the game card 4, and finds the direction in which the game card 4 faces in the frame image. In this case, the direction in which the direction indicator 11 is present is forward, and the character is controlled so as to face forward on the game card 4. Furthermore, the image analysis device 220 acquires the identification information of the game card 4 from the blocks other than the four corners of the identification unit 12.
  • the result of image analysis in the image analysis device 220 is sent to the game device 230.
  • the image may be sent to the frame image strength game device 230 picked up by the image pickup device 2 and image analysis may be performed on the game device 230 side.
  • the image processing apparatus 210 is configured only with the game apparatus 230.
  • the game device 230 controls the display so that the character is positioned on the game card 4 on the display screen of the display 7 based on the image analysis result in the image analysis device 220.
  • a character may be appropriately assigned to the game card 4 for each game scene. In this case, when the game scene is switched, the displayed character is also switched.
  • the game device 230 detects the positional relationship between a plurality of real object images and determines that the positional relationship between real object images satisfies a predetermined condition, the display mode of the virtual object is controlled. .
  • FIG. 11 shows the configuration of the image analysis device 220.
  • the image analysis device 220 includes a frame image acquisition unit 240, a real object extraction unit 242, a state determination unit 244, an identification information acquisition unit 246, an identification information storage unit 248, and a transmission unit 250.
  • the identification information storage unit 248 associates and stores information of a characteristic part for identifying a real object and identification information for identifying a real object. Specifically, pattern information of the identification unit 12 of the game card 4 in FIG. 2 and identification information are stored in one-to-one correspondence.
  • the identification information is used for assigning characters in the game device 230. For example, in the case of a game system 201 which permits simultaneous use of five game cards 4, identification information of 1 to 5 may be assigned to each game card 4.
  • the state determination unit 244 determines the state of the real object in the set coordinate system, and more specifically, a position determination unit 252 that determines the position of the game card 4, a direction determination unit 254 that determines the direction, and the imaging device 2 And a distance determination unit 256 that determines the focal distance from the
  • the frame image acquisition unit 240 acquires a frame image of the real space captured by the imaging device 2.
  • the imaging device 2 periodically acquires frame images, and preferably generates frame images at intervals of 1Z 60 seconds.
  • the real object extraction unit 242 extracts a plurality of real object images, that is, an image of the game card 4 as the frame image power. This processing is performed by converting the image information into binary bit representation, and this bit representation is also extracted by extracting the image of the game card 4. This is so-called dot processing, and image extraction processing may be performed by detecting bit on / off. This process may also be performed by known image matching techniques. In that case, the real object extraction unit 242 registers image information of the real object to be used in a memory (not shown) in advance for the matching process. By matching the pre-registered image information with the captured image information, it is possible to extract images of a plurality of game cards 4 as frame images.
  • the state determination unit 244 detects the geometry information of the platform 3 for placing and moving the game card 4 in advance, and further, using the surface of the platform 3 as a reference plane, the game card 4 is placed on the reference plane.
  • the geometry information of the loaded posture is recorded as the initial state of the game card 4 posture. This geometry information may be generated with reference to the imaging device 2.
  • the state determination unit 244 grasps the position, posture, and the like of the table 3 as coordinate data in the imaging space from the geometry information acquired regarding the table 3.
  • the position determination unit 252 determines the position of the real object image. Specifically, the coordinates of the center point of the real object image in the frame image are determined.
  • the position determination unit 252 In addition to the position of the game card 4, the position determination unit 252 also has a relative state of the attitude of the game card 4 in which the inclination and height of the game card 4 with respect to the reference plane of the game card 4 are recorded as the initial state. It may be obtained as the difference of quantity, that is, the difference of coordinate values in the imaging space.
  • the direction determining unit 254 determines the direction of the real object image. The direction determining unit 254 may detect the direction instructing unit 11 shown in FIG. 2 from the real object image to determine the direction of the real object.
  • the distance determination unit 256 determines the distance between the imaging device 2 and the game card 4 based on the length between the four corners of the identification unit 12 in the image of the game card 4.
  • the identification information acquisition unit 246 extracts the characteristic part from the image outside the real object and acquires corresponding identification information from the identification information storage unit 248.
  • the position information, the direction information, the distance information, and the identification information acquired by the identification information acquisition unit 246, which are determined by the state determination unit 244, are associated with each other and transmitted from the transmitting unit 250 to the game apparatus 230. Be This association is performed for each game card 4. Further, in the second embodiment, the frame image itself is also sent from the sending unit 250 to the game apparatus 230 in order to display the frame image captured by the imaging device 2 on the display 7.
  • FIG. 12 shows the configuration of the game device 230.
  • the game device 230 includes an analysis information acquisition unit 300, a game progress processing unit 302, a character determination unit 304, a character storage unit 306, a positional relationship detection unit 310, a condition determination unit 312, a display control unit 320, and a display pattern storage unit 322. .
  • the processing function of the game apparatus 230 in the second embodiment is realized by a CPU, a memory, a program loaded in the memory, etc., and in this case, a configuration realized by the cooperation of them is depicted.
  • the program may be built in the game device 230 or may be supplied with external power in the form stored in a recording medium. Therefore these It is understood by those skilled in the art that the functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the CPU power analysis information acquisition unit 300, the game progress processing unit 302, the character determination unit 304, the positional relationship detection unit 310, the condition determination unit 312, and the display control unit 320 function as the game device 230. .
  • the analysis information acquisition unit 300 receives an analysis result from the image analysis device 220.
  • the analysis result includes the position information, the direction information, the distance information, and the identification information of the game card 4 which is a real object.
  • the analysis information acquisition unit 300 passes the received analysis result to the game progress processing unit 302.
  • the analysis information acquisition unit 300 may directly acquire frame image data from the imaging device 2.
  • the game device 230 may have the function of the image analysis device 220 and execute the same processing as the processing described for the image analysis device 220.
  • the game progress processing unit 302 controls the processing of the entire game application.
  • the game progress is composed of a plurality of stage forces, and different game scenes are set in each stage. The player gradually clears the end conditions of each stage, and the game ends when the final stage is cleared.
  • the game progress processing unit 302 manages the progress of the game, and immediately after the start of the game or at the time of switching of the game stage, the character determination unit 304, the game stage name to be started next, and the analysis information acquisition unit 300. Communicate identification information sent from.
  • the character storage unit 306 stores identification information of the game card 4 in association with three-dimensional image data of the character for each game stage.
  • FIG. 13 shows the storage contents of the character storage unit 306.
  • the game system 201 of the second embodiment enables five game cards 4 to be used.
  • the character storage unit 306 stores three-dimensional image data of characters to be assigned to each of the five game cards 4 in association with the game stage.
  • the character card of the identification information 1 is "character”
  • the character of the identification information 2 game card is "woman”
  • the character of the identification information 3 game character is "taiko”
  • the character "post office building” is assigned to the "restaurant building” and the game card of the identification information 5.
  • stage 2 The game card of identification information 1 character “man”, the game card of identification information 2 character “woman”, the game card of identification information 3 character "door of restaurant”, the game card of identification information 4 character “waiter”, The character “table and chair” is assigned to the game card of the identification information 5.
  • Stage 1 and Stage 2 the characters assigned to identification information 3, 4 and 5 are different.
  • the character determination unit 304 reads three-dimensional image data of a plurality of characters associated with identification information from the character storage unit 306 based on the game stage name and the plurality of identification information, and the game progress processing unit 302. Supply to The read three-dimensional image data may be supplied directly to the display control unit 320.
  • the game progress processing unit 302 supplies the display control unit 320 with the three-dimensional image data, the position information, the direction information, and the distance information of the game card 4.
  • the display control unit 320 causes the display 7 to display the character in association with the display position of the game card 4 using three-dimensional image data.
  • the display control unit 320 receives a frame image sent from the image analysis device 220 and causes the display 7 to display the frame image. Further, the display control unit 320 recognizes the position, orientation, and distance of the game card 4 based on the position information, direction information, and distance information of the game card 4 and displays it on the display 7 using three-dimensional image data. Determine the character's position, orientation, and size. The display control unit 320 may arrange the character at any position as long as it overlaps the game card 4, but in the normal display mode, the display of the character is positioned above the center point of the game card 4. Determine the position.
  • the analysis result of the frame image is sequentially sent from the image analysis device 220 to the analysis information acquisition unit 300.
  • the display control unit 320 receives the three-dimensional image data of the character, the position information, the direction information, and the distance information of the game card 4 from the game progress processing unit 302, and the image of the character is displayed at the display position of the game card 4 on the display 7. Make the character follow the movement of the game card 4 so as to overlap. As a result, in the display 7, the display mode is such that the character is always on the game card 4, and the player can be made to recognize the sense of unity between the character and the game card 4.
  • FIG. 14 shows a display example of the display on stage 1.
  • the game card 4a is a game card of identification information 1 and the game card 4b is a game card of identification information 2 and a game
  • the card 4c indicates a game card of identification information 3
  • the game card 4d indicates a game card of identification information 4
  • the game card 4e indicates a game card of identification information 5.
  • the game card 4a has the character “man”
  • the game card 4c has the character “taiko”
  • the game card 4d has the character “restaurant building” power.
  • the game card 4e has the character “building of the post office” superimposed on each other. It is done. On the game card 4c, along with the drum, "Bachi” for hitting the drum is also displayed. At this time, the game card 4b does not have the display of the character " woman” yet.
  • the positional relationship detection unit 310 detects the positional relationship of the images of the plurality of game cards 4 included in the frame image captured by the imaging device 2. Specifically, first, the game progress processing unit 302 delivers position information, direction information, and distance information of the plurality of game cards 4 to the positional relationship detection unit 310. The positional relationship detection unit 310 detects the positional relationship between the game cards based on the positional information of the plurality of game cards 4 and the distance information. Here, for all combinations of two or more game cards 4, it is preferable to detect the positional relationship between game cards. For example, the positional relationship detection unit 310 may calculate the distance between the center coordinates based on the center coordinates of each game card 4.
  • the condition determination unit 312 determines whether the positional relationship between the game cards 4 satisfies a predetermined condition, based on the positional relationship detected by the positional relationship detection unit 310. Here, it is determined whether or not the positional relationship detected for the images of at least two game cards 4 satisfies a predetermined condition. As an example of the condition determination, the condition determination unit 312 determines whether or not the images of the game card 4 are in contact with each other. Simply, when the distance between the center coordinates of the two game card images is within a predetermined range, the condition determination unit 312 determines that the game card is You may decide to touch the image.
  • the condition determination unit 312 considers the orientation of the game card image when determining contact between game card images.
  • the center coordinates and orientation of the game card image can define the arrangement of the game card image in space. Accordingly, the condition determination unit 312 can know the arrangement of the game card image in the space, and can determine whether or not the force is in contact. At this time, by considering the direction, it is possible to know the force with which any side of the game card image is in contact. Since the direction of the game card image is determined by the direction determination unit 254, the condition determination unit 312 determines whether the rectangular game card force is in contact at the front edge or at the left edge. Can be determined by the determined direction information.
  • the condition determination unit 312 can change the event to be generated depending on the direction in which the game cards are in contact with each other. If the condition determination unit 312 determines that the game card images are in contact with each other, the determination result indicates that the identification information of the game card image in contact and the orientation of the game card image are the game progress processing unit. Notify 302.
  • the game progress processing unit 302 transmits the information to the display control unit 320. The processes of the positional relationship detection unit 310 and the condition determination unit 312 may be performed simultaneously.
  • condition determination unit 312 may set, for example, a virtual viewing angle to one game card image, and determine whether another game card image exists within the viewing angle. This condition determination is executed based on the positional relationship detected in the positional relationship detection unit 310, and is used in the game to confirm whether or not another character is present at a viewing angle of a certain character.
  • the condition determination unit 312 determines that there is another game card image within the viewing angle, the determination result, the identification information of the game card image for which the viewing angle is set, and the game card existing within the viewing angle.
  • the game progress processing unit 302 is notified of the identification information of the image. These pieces of information are transmitted to the display control unit 320.
  • the display control unit 320 displays the display pattern of the character based on the identification information of at least two game card images that satisfy the condition. Decide.
  • the display control unit 320 identifies the identification information of the game card image satisfying the conditions, And receives the orientation of the game card image and refers to the display pattern storage unit 322 to determine the display pattern.
  • the display pattern storage unit 322 stores the display pattern of the virtual object.
  • the display pattern may be, for example, a motion pattern between characters corresponding to identification information of at least two game card images that satisfy the condition. This motion pattern is stored in association with identification information of at least two game card images and the orientation of those game card images.
  • the display control unit 320 displays a predetermined operation pattern. It can be read out from the storage unit 322. In other words, the image of the game card 4a is in contact with the image of the game card 4c, and that they are in contact with each other on the front side.
  • the requirement for reading out the display pattern from the display pattern storage unit 322 It is set as. Therefore, even if the game card 4a and the game power card 4c contact each other on the front side and the left side, the display control unit 320 can not read out the display pattern.
  • the display control unit 320 performs a display process of the character according to the determined display pattern on the frame image sent from the image analysis device 220 using three-dimensional image data of a plurality of characters.
  • FIG. 15 shows a state in which two game cards are brought into contact from the state shown in FIG.
  • the game card 4a and the game card 4c are in contact with each other.
  • the game card 4a and the game card 4c are in contact with each other at their front sides. Since “man” faces the front side of the game card 4a, and “Taiko” is also arranged facing the front side of the game card 4c, "man” can stand by the front of the drum, You can beat the drums. Conversely, even if a man stands on the side of a drum, he can not beat the drum.
  • the identification information of the game card 4 to be touched and the direction at the time of contact are requirements for reading out the display pattern from the display pattern storage section 322 as described above.
  • the display control unit 320 reads out a predetermined operation pattern, and the display process in which the man grasps the edge placed on the game card 4c and beats the drum. Run. This series of movements is defined in the read display pattern.
  • the action of hitting the drum is a condition for causing the character of " woman” to appear, and when the game progress processing unit 302 recognizes that the man has beated the drum, Make "Woman” appear on game card 4b. Subsequently, the player moves the male and female characters to the front of the restaurant.
  • FIG. 16 shows a state in which two game cards are brought into contact with one game card from the state shown in FIG.
  • the left side of the game card 4d is brought into contact with the front side of the game card 4a and the front side of the game card 4b.
  • the identification information and direction of the game card to be touched are set as requirements for reading out the display pattern as described above.
  • moving the male and female characters to the front of the restaurant is set as a transition condition for completing the stage 1 and proceeding to the stage 2.
  • the condition determination unit 312 is notified of the positional relationship shown in FIG.
  • the front sides of the game cards 4a and 4b are respectively directed to the left side of the game card 4d. It determines that it is in contact and reports it to the game progress processing unit 302. When the game progress processing unit 302 receives this report, it recognizes that the end condition of stage 1 is satisfied, and performs game stage switching processing.
  • the condition determination unit 312 may determine the establishment of the end condition.
  • the game progress processing unit 302 notifies the character determination unit 304 of the next stage name (stage 2).
  • the character determination unit 304 When notified of the stage name, the character determination unit 304 reads the three-dimensional image data of the identification information assigned to the stage 2 with reference to the correspondence shown in FIG. In this manner, by changing the correspondence relationship referred to in accordance with the stage, the character determination unit 304 can cause a new character to appear for each stage, and the game story can be enhanced.
  • stage 2 as shown in FIG. 13, the game card of identification information 3 has the character “door of restaurant”, the game card of identification information 4 has the character “waiter”, and the game card of identification information 5 has the character “table and The chair is assigned, and the character display shown in FIG. 16 is switched.
  • FIG. 17 illustrates a process of assigning one character to a plurality of game card images. It is a figure for.
  • Figure 17 (a) shows a state where buildings are assigned to three game cards. The same building is assigned to game cards 4a, 4b, and 4c. Here, the target of the assigned character does not matter.
  • Figure 17 (b) shows the situation where three game cards are touched. At this time, one big building is allocated on three game cards.
  • the display pattern storage unit 322 stores a display pattern in which one virtual object is allocated to at least two game card images that satisfy the conditions.
  • the display pattern storage unit 322 stores identification information (identification information 1, 2, 3) of the three game card images and a display pattern associated with the direction of the contact portion of those game card images. ing.
  • the direction of the contact portion in the left-right direction that is, that each game card image is in contact with another game card image on the left side or the right side is a condition for reading out the display pattern.
  • the display control unit 320 is supplied via the unit 302.
  • the display control unit 320 reads the display pattern from the display pattern storage unit 322 based on the information.
  • the display control unit 320 performs the display process shown in FIG. 17 (b) based on the display pattern.
  • FIG. 18 is a diagram for explaining the process of changing the direction of the character.
  • FIG. 18 (a) shows the positional relationship between the character "man” of the game card 4a and the character “ woman” of the game card 4b.
  • Two broken lines 301 extending from the character "man” indicate virtual view angles of the man.
  • the condition determination unit 312 determines whether the image power of the game card 4b is within the virtual view angle of the game card 4a from the position information and the direction information of the game card 4a and the position information of the game card 4b.
  • the positional information and the directional information are delivered from the positional relationship detection unit 310.
  • the determination result and the identification information of the game cards 4a and 4b are used as the game progress processing unit 3 Tell 02.
  • the game card 4a is to be advanced along the path of the arrow by the subsequent operation of the player.
  • FIG. 18 (b) shows the state after powering along the arrows shown in FIG. 18 (a).
  • the character of the game card 4a is a force that is originally set to face the forward direction.
  • the character of the game card 4b is facing the direction.
  • the display control unit 320 receives, from the game progress processing unit 302, identification information of the game cards 4a and 4b, and information indicating that the game card 4b is within the view angle of the game card 4a.
  • the display pattern storage unit 322 stores a motion pattern indicating that the character of the game card 4a turns to continue looking at the character of the game card 4b. This display pattern is set to be readable under the condition that the relationship between the game card and the viewing angle is established.
  • the display control unit 320 reads this operation pattern and executes the display process shown in FIG. 18 (b). That is, the display control unit 320 changes the orientation of the character of the game card 4a according to the position of the character of the game card 4b. As a result, the player recognizes that the character of the game card 4b may have an important influence on the progress of the game for the character of the game card 4a. Such a display mode gives the player an opportunity to cause the game card 4a to contact the game card 4b and generate a new event.
  • FIG. 19 is a diagram for explaining processing of displaying a virtual object in an expanded and contracted manner.
  • FIG. 19 (a) shows a state in which the game card 4a is in contact with the game card 4b.
  • a virtual object 303 is generated between the characters.
  • the virtual object 303 is expressed as extending by releasing the game cards.
  • the display pattern storage unit 322 stores a display pattern for generating a virtual object that can be expanded or contracted according to the positional relationship between the characters when the front sides of the game card 4a and the game card 4b contact with each other. doing.
  • the display control unit 320 determines that the inter-character corresponding to the respective identification information is displayed. Display that stretches and displays virtual objects connecting them in The pattern is read out from the display pattern storage unit 322 and determined. The display control unit 320 performs the display shown in FIGS. 19 (a) and 19 (b) using the display pattern.
  • FIG. 20 shows a state in which the player issues a task in order to improve the game performance.
  • the task is to move the game card 4 on the platform 3 in accordance with the arrow 305 displayed on the display 7 while keeping the two game cards 4 attached.
  • the positional relationship detection unit 310 calculates movement vectors of the game cards 4a and 4b, and sets the average as the movement direction of the two game cards.
  • the movement vector stores center coordinates and distance information of the game card image in a memory (not shown) for each frame, and a change in distance of the game card 4 in the previous and subsequent frames and a differential force of the center coordinates are also calculated.
  • the condition determination unit 312 determines from the movement vector whether the task has been achieved or not, specifically determines whether the movement vector is along the arrow 305, and the vector and the direction of the arrow 305 are substantially the same. If exactly the same, it is considered that the task has been cleared. The player may also receive optional benefits in the game by clearing the task!
  • FIG. 21 shows an image processing flow of the second embodiment.
  • the positional relationship detection unit 310 detects the positional relationship of the images of the plurality of game cards 4 included in the frame image captured by the imaging device 2 (S110).
  • the condition determination unit 312 determines whether the positional relationship between the game cards 4 satisfies a predetermined condition based on the positional relationship detected by the positional relationship detection unit 310 (S 112). If the predetermined condition is satisfied (Y in S112), the display control unit 320 determines the display pattern associated with the satisfied condition and reads the display pattern from the display pattern storage unit 322 (S114).
  • the display control unit 320 performs a character display process according to the determined display pattern (S116).
  • the positional relationship detection unit 310 continues to detect the positional relationship between the game cards 4. This flow ends when the stage is switched (Y in S 118). When the next stage starts, the 3D image data of the character corresponding to the stage is read out, and the above flow is executed.
  • the present invention has been described above based on the second embodiment.
  • the second embodiment is an exemplification, and combinations of the respective constituent elements and the respective processing processes, as well as various modifications are possible, and such modifications are also within the scope of the present invention.
  • the display mode of the characters is controlled based on the positional relationship between the game cards 4.
  • an effect may be provided by a voice or the like that is unlined only by the display mode of the character.
  • the game progress processing unit 302 notifies the voice control unit (not shown) to that effect.
  • the voice control unit may perform auditory rendering of the character through the speaker.
  • the game device 230 since the game device 230 also functions as an audio processing device that only functions as an image processing device, the game device 230 can also be called a processing device capable of controlling both an image and a sound. Game device 230 may perform only voice control based on the positional relationship between game cards 4.
  • the present invention can be applied to the field of image processing.

Abstract

 実オブジェクトと仮想オブジェクトとを関連付けて表示させる画像処理技術を提供する。  本発明の画像処理装置は、実オブジェクトの現実の動きに応じて、仮想オブジェクトの動作パターンを変化させる。変化検出部110が、撮像装置が撮像した実オブジェクトの画像の時間的な状態変化を検出し、表示制御部120が、画像の状態変化により発生したイベントに基づいて、動作パターン格納部122から動作パターンを選択して読み出す。表示制御部120は、読み出した動作パターンによりディスプレイ上の仮想オブジェクトを表示制御する。

Description

明 細 書
画像処理装置、ゲーム装置および画像処理方法
技術分野
[0001] 本発明は、画像処理技術に関し、特に実オブジェクトと仮想オブジェクトとを関連付 けて表示させる技術に関する。
背景技術
[0002] 近年、 2次元コードをカメラで撮像して認識し、 2次元コードのパターンに基づいた 所定の処理を実行する技術が普及している。そのような技術の 1つとして、 2次元バ 一コードをビデオカメラで撮像して、 2次元バーコードに対応する 3次元画像を表示 装置に表示させる画像処理技術が提案されている (例えば、特許文献 1参照)。特許 文献 1では、撮像した 2次元バーコードの座標および CCDビデオカメラの焦点距離を もとに、 3次元オブジェクトを表示する空間上の座標を決定し、 2次元バーコードに 3 次元オブジェクトを重畳させて表示する。
特許文献 1:特開 2000— 322602号公報
発明の開示
発明が解決しょうとする課題
[0003] 特許文献 1に開示された技術は、実世界のオブジェクトと仮想のオブジェクトとを組 み合わせて表示させることで、優れた視覚効果を実現可能とする。しかしながら、特 許文献 1は、 2次元バーコードが静止した状態における仮想オブジェクトの表示技術 を開示するのみであり、 2次元バーコードを動かしたときの仮想オブジェクトの表示処 理について意識するものではない。本発明者は、 2次元バーコードを動力したときの 表示処理に注目し、このときの仮想オブジェクトの表示処理に工夫を凝らすことで、 例えば、ゲーム分野などの動画像を処理する分野に応用して、さらに優れた視覚効 果を実現する可能性が秘められていることを見出した。
[0004] また、特許文献 1は、 1つの 2次元バーコードに対応付けて仮想オブジェクトを表示 する技術を開示するのみであり、複数の 2次元バーコードが存在するときの仮想ォブ ジェタトの表示処理について意識するものではない。本発明者は、複数の 2次元バー コードなどの実オブジェクトが実空間に存在するときの表示処理に注目し、このときの 仮想オブジェクトの表示処理に工夫を凝らすことで、例えば、ゲーム分野などの分野 に応用して、さらに優れた視覚効果を実現する可能性が秘められていることを見出し た。
[0005] 本発明は、実オブジェクトと仮想オブジェクトとを関連付けて表示させる技術を提供 することを目的とし、特に、動画像表示を行うゲームなどの分野において、実オブジェ タトの動きに関連して仮想オブジェクトの表示態様を制御する技術を提供することを 目的とする。
[0006] また本発明は、実オブジェクトと仮想オブジェクトとを関連付けて表示させる技術を 提供することを目的とし、特に、ゲームなどの分野において、複数の実オブジェクトの 位置関係に基づいて仮想オブジェクトの表示態様を制御する技術を提供することを 目的とする。
課題を解決するための手段
[0007] 上記課題を解決するために、本発明のある態様は、画像処理装置に関する。この 態様の画像処理装置は、実オブジェクトを識別するための識別情報と、仮想オブジェ タトの 3次元画像データとを対応付けて記憶する格納部と、撮像装置により撮像され たフレーム画像に含まれる実オブジェクト画像の識別情報に対応付けられた仮想ォ ブジエタトの 3次元画像データを格納部から読み出す読出部と、読み出された 3次元 画像データを用いて、仮想オブジェクトを、実オブジェクトの表示位置に関連付けて 表示装置に表示させる表示制御部と、撮像装置により撮像された実オブジェクト画像 の時間的な状態変化を検出する変化検出部とを備える。この態様の画像処理装置 において、表示制御部は、変化検出部において検出された状態変化に基づいて仮 想オブジェクトの表示態様を制御する。ここで、実オブジェクトは、現実空間において 有体物として存在する実在オブジェクトであり、また、仮想オブジェクトは、現実空間 には存在せず、仮想空間においてデータで表現されるものを意味する。
[0008] この画像処理装置によると、撮像された実オブジェクト画像の状態変化、換言すると 現実の実オブジェクトの動きに基づいて仮想オブジェクトの表示態様を制御するため 、実オブジェクトの動きに応じた仮想オブジェクトの新たな視覚表現を実現できる。 [0009] 本発明の別の態様は、ゲーム装置に関する。この態様のゲーム装置は、実ォブジ ェクトを識別するための識別情報と、ゲームキャラクタの 3次元画像データとを対応付 けて記憶する格納部と、撮像装置により撮像されたフレーム画像に含まれる実ォブジ ェクト画像の識別情報に対応付けられたゲームキャラクタの 3次元画像データを格納 部から読み出す読出部と、読み出された 3次元画像データを用いて、ゲームキャラク タを、実オブジェクトの表示位置に関連付けて表示装置に表示させる表示制御部と、 撮像装置により撮像された実オブジェ外画像の時間的な状態変化を検出する変化 検出部とを備える。この態様のゲーム装置において、表示制御部は、変化検出部に おいて検出された状態変化に基づいてゲームキャラクタの表示態様を制御する。
[0010] このゲーム装置によると、撮像された実オブジェクト画像の状態変化、換言すると実 オブジェクトの動きに基づ 、てゲームキャラクタの表示態様を制御するため、実ォブ ジヱタトの動きに応じたゲームキャラクタの新たな視覚表現を実現できる。
[0011] 本発明のさらに別の態様は、実オブジェクトを識別するための識別情報と仮想ォブ ジェタトの 3次元画像データとを対応付けて記憶した格納部から、撮像装置により撮 像されたフレーム画像に含まれる実オブジェクト画像の識別情報に対応付けられた 仮想オブジェクトの 3次元画像データを読み出すステップと、読み出した 3次元画像 データを用いて、仮想オブジェクトを、実オブジェクトの表示位置に関連付けて表示 装置に表示させるステップと、撮像装置により撮像された実オブジェクト画像の時間 的な状態変化を検出するステップと、検出した状態変化に基づいて仮想オブジェクト の表示態様を制御するステップとを備える画像処理方法を提供する。
[0012] 本発明のさらに別の態様は、コンピュータに、実オブジェクトを識別するための識別 情報と仮想オブジェクトの 3次元画像データとを対応付けて記憶した格納部から、撮 像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報に対 応付けられた仮想オブジェクトの 3次元画像データを読み出させる機能と、読み出さ せた 3次元画像データを用いて、仮想オブジェクトを、実オブジェクトの表示位置に関 連付けて表示装置に表示させる機能と、撮像装置により撮像された実オブジェ外画 像の時間的な状態変化を検出させる機能と、検出させた状態変化に基づいて仮想 オブジェクトの表示態様を制御する機能とを実行させるためのプログラムを提供する [0013] また、本発明のさらに別の態様は、画像処理装置に関する。この態様の画像処理 装置は、実オブジェクトを識別するための識別情報と、仮想オブジェクトの 3次元画像 データとを対応付けて記憶する格納部と、撮像装置により撮像されたフレーム画像に 含まれる複数の実オブジェクト画像の位置関係を検出する位置関係検出部と、少な くとも 2つの実オブジェクト画像について検出した位置関係が所定の条件を満たすか 否かを判定する条件判定部と、フレーム画像に含まれる複数の実オブジェクト画像の 識別情報に対応付けられた複数の仮想オブジェクトの 3次元画像データを格納部か ら読み出す読出部と、条件判定部により所定の条件が満たされたことが判定された 場合に、条件を満たす少なくとも 2つの実オブジェクト画像の識別情報に基づいて、 仮想オブジェクトの表示パターンを決定し、読み出された複数の 3次元画像データを 用いて、決定した表示パターンにより仮想オブジェクトの表示処理を行う表示制御部 とを備える。ここで、実オブジェクトは、現実空間において有体物として存在する実在 オブジェクトであり、また、仮想オブジェクトは、現実空間には存在せず、仮想空間に お 、てデータで表現されるものを意味する。
[0014] この画像処理装置によると、撮像された複数の実オブジェクト画像の位置関係に基 づ 、て仮想オブジェクトの表示態様を制御するため、複数の実オブジェクトを所定の 位置関係におくことで、仮想オブジェクトの新たな視覚表現を実現できる。
[0015] 本発明のさらに別の態様は、ゲーム装置に関する。この態様のゲーム装置は、実ォ ブジェクトを識別するための識別情報と、ゲームキャラクタの 3次元画像データとを対 応付けて記憶する格納部と、撮像装置により撮像されたフレーム画像に含まれる複 数の実オブジェクト画像の位置関係を検出する位置関係検出部と、少なくとも 2つの 実オブジェ外画像について検出した位置関係が所定の条件を満たすか否かを判定 する条件判定部と、フレーム画像に含まれる複数の実オブジェ外画像の識別情報 に対応付けられた複数のゲームキャラクタの 3次元画像データを格納部力 読み出 す読出部と、条件判定部により所定の条件が満たされたことが判定された場合に、条 件を満たす少なくとも 2つの実オブジェクト画像の識別情報に基づいて、ゲームキャラ クタの表示パターンを決定し、読み出された複数の 3次元画像データを用いて、決定 した表示パターンによりゲームキャラクタの表示処理を行う表示制御部とを備える。
[0016] このゲーム装置によると、撮像された複数の実オブジェクト画像の位置関係に基づ V、てゲームキャラクタの表示態様を制御するため、複数の実オブジェクトを所定の位 置関係におくことで、ゲームキャラクタの新たな視覚表現を実現できる。
[0017] 本発明のさらに別の態様は、撮像装置により撮像されたフレーム画像に含まれる複 数の実オブジェクト画像の位置関係を検出するステップと、少なくとも 2つの実ォブジ ェ外画像について検出した位置関係が所定の条件を満たす力否かを判定するステ ップと、実オブジェクトを識別するための識別情報と、仮想オブジェクトの 3次元画像 データとを対応付けて記憶する格納部から、フレーム画像に含まれる複数の実ォブ ジェタト画像の識別情報に対応付けられた複数の仮想オブジェクトの 3次元画像デー タを読み出すステップと、所定の条件が満たされたことが判定された場合に、条件を 満たす少なくとも 2つの実オブジェクト画像の識別情報に基づいて、仮想オブジェクト の表示パターンを決定するステップと、格納部から読み出した複数の 3次元画像デー タを用いて、決定した表示パターンにより仮想オブジェクトの表示処理を行うステップ とを備える画像処理方法を提供する。
[0018] 本発明のさらに別の態様は、コンピュータに、撮像装置により撮像されたフレーム画 像に含まれる複数の実オブジェ外画像の位置関係を検出させる機能と、少なくとも 2 つの実オブジェクト画像について検出した位置関係が所定の条件を満たす力否かを 判定させる機能と、実オブジェクトを識別するための識別情報と、仮想オブジェクトの 3次元画像データとを対応付けて記憶する格納部から、フレーム画像に含まれる複 数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの 3次 元画像データを読み出させる機能と、所定の条件が満たされたことが判定された場 合に、条件を満たす少なくとも 2つの実オブジェクト画像の識別情報に基づいて、仮 想オブジェクトの表示パターンを決定させる機能と、格納部から読み出した複数の 3 次元画像データを用いて、決定した表示パターンにより仮想オブジェクトの表示処理 を行わせる機能とを実現させるためのプログラムを提供する。
[0019] なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、 記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様とし て有効である。
発明の効果
[0020] 本発明によると、実オブジェクトの動きに関連して仮想オブジェクトの表示態様を制 御する技術を提供することができる。
[0021] また本発明によると、複数の実オブジェクトの位置関係に基づ 、て仮想オブジェクト の表示態様を制御する技術を提供することができる。
図面の簡単な説明
[0022] [図 1]第 1の実施例に力かるゲームシステムの構成を示す図である。
[図 2]ゲームカードの表面の一例を示す図である。
[図 3]画像解析装置の構成を示す図である。
[図 4]ゲーム装置の構成を示す図である。
[図 5]スライドイベントが発生したときにディスプレイ上で表現されるキャラクタの動作を 示す図である。
[図 6]往復イベントが発生したときにディスプレイ上で表現されるキャラクタの動作を示 す図である。
[図 7]キャラクタが目を回している状態を示す図である。
[図 8]画像処理のフローチャートである。
[図 9]キャラクタがボーリングをする表示例を示す図である。
[図 10]第 2の実施例に力かるゲームシステムの構成を示す図である。
[図 11]画像解析装置の構成を示す図である。
[図 12]ゲーム装置の構成を示す図である。
[図 13]キャラクタ格納部の記憶内容を示す図である。
[図 14]ステージ 1におけるディスプレイの表示例を示す図である。
[図 15]図 14に示す状態から、 2枚のゲームカードを接触させた状態を示す図である。
[図 16]図 15に示す状態から、 1枚のゲームカードに 2枚のゲームカードを接触させた 状態を示す図である。
[図 17]複数のゲームカード画像に 1つのキャラクタを割り当てる処理を説明するため の図である。 [図 18]キャラクタの向きを変更する処理を説明するための図である。
[図 19]仮想オブジェクトを伸縮して表示する処理を説明するための図である。
[図 20]プレイヤに課題をだした状態を示す図である。
[図 21]画像処理のフローチャートである。
符号の説明
[0023] 1 · · ·ゲームシステム、 4···ゲームカード、 10···画像処理装置、 20···画像解析装 置、 30· · 'ゲーム装置、 40· · 'フレーム画像取得部、 42· ··実オブジェクト抽出部、 4 4· · ·状態決定部、 46·· ·識別情報取得部、 48·· ·識別情報格納部、 50· · ·送出部 、 52· · ·姿勢決定部、 54· · '方向決定部、 56·· '距離決定部、 100· · '解析情報取 得部、 102· · 'ゲーム進行処理部、 104· · ·キャラクタ決定部、 106· · ·キャラクタ格納 部、 110···変化検出部、 112···移動量監視部、 114···回転検出部、 116···存 在確認部、 120· · '表示制御部、 122· · '動作パターン格納部、 201· · 'ゲームシス テム、 210· · '画像処理装置、 220· · '画像解析装置、 230· · 'ゲーム装置、 240··· フレーム画像取得部、 242· ··実オブジェクト抽出部、 244· · '状態決定部、 246··· 識別情報取得部、 248· · ·識別情報格納部、 250· · ·送出部、 252·· ·位置決定部、 254· · '方向決定部、 256·· '距離決定部、 300· · '解析情報取得部、 302· · 'ザ一 ム進行処理部、 304· · 'キャラクタ決定部、 306· · 'キャラクタ格納部、 310· · '位置関 係検出部、 312· · ·条件判定部、 320· · ·表示制御部、 322·· ·表示パターン格納部 発明を実施するための最良の形態
[0024] <第 1実施例 >
本発明の第 1の実施例は、撮像装置により撮像された実オブジェクトの画像の時間 的な状態変化を検出し、検出した状態変化に基づいて仮想オブジェ外の表示態様 を制御する技術を提供する。実オブジェクトは、実在する 1次元オブジェクト、 2次元 オブジェクトまたは 3次元オブジェクトのいずれであってもよぐ実オブジェクト自身を 識別させるための特徴部分を有して構成されることが好ましい。例えば、実オブジェク トは、 2次元で表現されたコード情報を特徴部分として有するカードなどの 2次元ォブ ジェタトであってもよぐまたユニークな立体形状を特徴部分として有する 3次元ォブ ジェタトであってもよい。なお、 2次元オブジェクトの 2次元形状がユニークな特徴部分 を構成してもよぐまた 3次元オブジェクトに特徴部分となるコード情報が貼り付けられ ていてもよい。仮想オブジェクトは、仮想空間において 3次元的に表現される人、動 物、物などの所謂キャラクタであってもよい。以下に示す第 1の実施例は、ゲームアブ リケーシヨンにおける画像処理技術に関し、ゲームアプリケーションに登場するゲーム キャラクタを、仮想オブジェクトして採用している。
[0025] 図 1は、本発明の第 1の実施例にカゝかるゲームシステム 1の構成を示す。ゲームシス テム 1は、撮像装置 2、画像処理装置 10および出力装置 6を備える。画像処理装置 1 0は、画像解析装置 20およびゲーム装置 30を備える。画像解析装置 20およびゲー ム装置 30は別装置として構成されてもよいが、一体として構成されてもよい。撮像装 置 2は、 CCD撮像素子または MOS撮像素子など力 構成されるビデオカメラである 。撮像装置 2は実空間を所定の周期で撮像して、周期ごとのフレーム画像を生成す る。撮像領域 5は撮像装置 2により撮像される範囲であり、撮像装置 2の高さや向きを 調整することで、撮像領域 5の位置や大きさが調整される。ゲームプレイヤは、撮像 領域 5において、実オブジェクトであるゲームカード 4を指で動かす。ゲームカード 4 は、自身を一意に識別するための特徴部分を有して構成される。
[0026] 出力装置 6は、表示装置であるディスプレイ 7を有する。出力装置 6は、さらにスピー 力(図示せず)を有して構成されてもよい。基本的に画像処理装置 10は、撮像装置 2 により撮像されたフレーム画像をディスプレイ 7に表示させ、その際に、ゲームカード 4 上に仮想オブジェクトであるキャラクタを重畳するように表示制御する。プレイヤは、 ディスプレイ 7を見ることで、ゲームカード 4が撮像領域 5に入って 、るか容易に確認 でき、入っていない場合には、ゲームカード 4の位置をずらしたり、また撮像装置 2の 向きを調整して、撮像装置 2にゲームカード 4を撮像させるようにする。
[0027] 第 1の実施例のゲームアプリケーションでは、プレイヤがゲームカード 4に対して所 定の操作を施すことにより、キャラクタを動作させる。このゲームアプリケーションの性 質上、プレイヤにゲームカード 4とキャラクタとの一体性を認識させることが好ましぐ そのため、キャラクタの画像を、ゲームカード 4に重ね合わせて表示させている。撮像 領域 5内でゲームカード 4をゆっくりと移動させると、キャラクタは、ゲームカード 4の上 に乗った状態を維持しながら、ゲームカード 4の動きに追従して一緒に移動する。
[0028] 以上のキャラクタの動きは、画像処理装置 10により制御される。まず、画像解析装 置 20は、撮像装置 2において取得されたフレーム画像から、ゲームカード 4の画像情 報を抽出する。さらに、画像解析装置 20は、ゲームカード 4の画像情報から、ゲーム カード 4を識別するためのユニークな特徴部分を抽出する。このとき、画像解析装置 2 0は、ゲームカード 4の画像情報から、ゲームカード 4の空間における姿勢情報、方向 情報、距離情報などを決定する。
[0029] 図 2は、ゲームカード 4の表面の一例を示す。ゲームカード 4の表面には、方向指示 部 11と識別部 12とが印刷されている。方向指示部 11は、ゲームカード 4の前部を示 すために設けられ、識別部 12は、ゲームカード 4を一意に識別するための特徴部分 を表現するために設けられる。識別部 12は、所定の区画内に複数のブロックを印刷 して作成されたコード情報である。複数のブロックのうち、 4角のブロックは複数のゲ ームカード 4に共通して付与され、実質的には 4角以外のブロックにより、特徴部分が 形成される。 4角のブロックは、撮像装置 2からの距離を測定するために利用される。
[0030] 図 1に戻って、画像解析装置 20は、フレーム画像中のゲームカード 4を認識すると 、ゲームカード 4の画像における 4角のブロック間の長さをもとに、撮像装置 2とゲーム カード 4との距離を計算して求める。また、画像解析装置 20は、ゲームカード 4の方 向指示部 11を検出して、フレーム画像にぉ 、てゲームカード 4が向 ヽて 、る方向を 求める。この場合、方向指示部 11が存在する方向が前方となり、キャラクタは、ゲー ムカード 4上にて前方を向くように表示制御される。さらに、画像解析装置 20は、識 別部 12の 4角以外のブロックから、ゲームカード 4の識別情報を取得する。
[0031] 図 1では、ゲームカード 4が台 3に単に置かれている状態を示している力 ゲーム力 ード 4は、例えば台 3に対して斜めに傾けられたり、また台 3よりも上に持ち上げられた りしてもよい。画像解析装置 20は、ゲームカード 4が傾斜された状態、または、台 3か らの高さを変化された状態を画像解析により認識する機能をもつ。画像解析装置 20 において画像解析された結果は、ゲーム装置 30に送られる。なお、撮像装置 2にお いて撮像されたフレーム画像力 ゲーム装置 30に送られて、ゲーム装置 30側で画像 解析を行ってもよい。この場合、画像処理装置 10は、ゲーム装置 30のみで構成され ることになる。
[0032] ゲーム装置 30は、画像解析装置 20における画像解析結果をもとに、ディスプレイ 7 の表示画面上で、キャラクタをゲームカード 4の上に位置するように表示制御する。キ ャラクタは、ゲームカード 4に対してゲームシーンごとに適宜割り当てられてもよい。こ の場合、ゲームシーンが切り替わると、表示されるキャラクタも切り替わること〖こなる。 第 1の実施例では、ゲーム装置 30が、画像解析結果をもとに、ゲームカード 4の時間 的な撮像状態の変化を検出し、この状態変化に基づいて、キャラクタの表示態様を 制御する。
[0033] 図 3は、画像解析装置 20の構成を示す。画像解析装置 20は、フレーム画像取得 部 40、実オブジェクト抽出部 42、状態決定部 44、識別情報取得部 46、識別情報格 納部 48および送出部 50を備える。識別情報格納部 48は、実オブジェクトを識別する ための特徴部分の情報と、実オブジェクトを識別するための識別情報とを対応付けて 記憶する。具体的には、図 2におけるゲームカード 4の識別部 12のパターン情報と、 識別情報とを 1対 1に対応付けて記憶している。識別情報は、ゲーム装置 30におい てキャラクタの割当てに利用される。特に、複数のゲームカード 4の存在を許可するゲ ームアプリケーションにお 、ては、ゲームカード 4のそれぞれを識別情報と紐付けす ることで、ゲームカード 4を認識可能となる。状態決定部 44は、設定した座標系にお ける実オブジェクトの状態を決定し、具体的には、姿勢を決定する姿勢決定部 52、 方向を決定する方向決定部 54および撮像装置 2からの焦点距離を決定する距離決 定部 56を有する。
[0034] フレーム画像取得部 40が、撮像装置 2にて撮像された実空間のフレーム画像を取 得する。ここでは、図 1に示すように、撮像領域 5に 1枚のゲームカード 4が配置されて いる状態を想定する。撮像装置 2は、周期的にフレーム画像を取得し、好適には 1Z 60秒間隔でフレーム画像を生成する。
[0035] 実オブジェクト抽出部 42は、フレーム画像力 実オブジェクト画像、すなわちゲーム カード 4の画像を抽出する。この処理は、画像情報を 2進数のビット表現に変換し、こ のビット表現力ゝらゲームカード 4の画像を抽出することで行われる。いわゆるドット処理 であり、ビットのオンとオフを検出することで、画像抽出処理が行われてもよい。また、 この処理は、既知の画像マッチング技術によって行ってもよい。その場合、実ォブジ ェクト抽出部 42は、マッチング処理のために、使用する実オブジェクトの画像情報を 、メモリ(図示せず)に予め登録しておく。予め登録した画像情報と撮像した画像情報 とのマッチングをとることで、ゲームカード 4の画像をフレーム画像力も切り出すことが できる。
[0036] 姿勢決定部 52は、実オブジェクト画像の姿勢を決定する。具体的には、フレーム画 像における実オブジェクト画像の中心点の座標、実オブジェクト画像の台 3からの傾 き、および実オブジェクト画像の台 3からの高さなどを定める。そのために、状態決定 部 44は、ゲームカード 4を置いて動かすための台 3のジオメトリ情報を予め検出して おき、さらに台 3の表面を基準面として、その基準面上にゲームカード 4を載せた姿 勢のジオメトリ情報をゲームカード 4の姿勢の初期状態として記録しておく。このジォ メトリ情報は、撮像装置 2を基準として生成されてもよい。状態決定部 44は、台 3に関 して取得したジォメトリ情報から、台 3の位置、姿勢などを撮像空間における座標デー タとして把握しておく。姿勢決定部 52は、ゲームカード 4の基準面に対するゲーム力 ード 4の傾きおよび高さを、初期状態として記録したゲームカード 4の姿勢力 の相対 的な状態量の差分、すなわち撮像空間における座標値の差分として求める。プレイ ャがゲームカード 4を手で持ち上げたり、傾けたりした場合に、ゲームカード 4の初期 状態の姿勢に対して状態量の変化が発生し、台 3に対する実オブジェクト画像の高さ や傾きが変化する。
[0037] 方向決定部 54は、実オブジェクト画像の方向を定める。方向決定部 54は、実ォブ ジェタト画像の中から図 2に示す方向指示部 11を検出して、実オブジェクトの向きを 定めてもよい。また、方向決定部 54は、姿勢決定部 52において実オブジェクトが傾 斜されていることが認識された場合に、その傾斜した方向を実オブジェクトの向きとし て定めてもよい。
[0038] 距離決定部 56は、ゲームカード 4の画像における識別部 12の 4角間の長さをもとに
、撮像装置 2とゲームカード 4との距離を決定する。
[0039] 識別情報取得部 46は、実オブジェクト画像から特徴部分を抽出して、識別情報格 納部 48から対応する識別情報を取得する。図 1の例では、 1つのゲームカード 4しか 示していないが、第 1の実施例のゲームシステム 1は、複数の異なるゲームカード 4に も対応することが可能である。例えば、 5枚のゲームカード 4の同時使用を許可する 場合、それぞれのゲームカード 4に対して、 1から 5までの識別情報がそれぞれ対応 付けられていてもよい。
[0040] 状態決定部 44にお ヽて決定された姿勢情報、方向情報、距離情報、および識別 情報取得部 46において取得された識別情報は、それぞれ関連付けされて送出部 5 0からゲーム装置 30に送られる。なお、複数のゲームカード 4が撮像領域 5に存在す る場合には、それぞれのゲームカード 4ごとに、姿勢情報、方向情報、距離情報、識 別情報が関連付けされて送出部 50からゲーム装置 30に送られる。また、第 1の実施 例では、撮像装置 2により撮像されたフレーム画像をディスプレイ 7に表示させるため 、フレーム画像自体も送出部 50からゲーム装置 30に送られる。
[0041] 図 4は、ゲーム装置 30の構成を示す。ゲーム装置 30は、解析情報取得部 100、ゲ ーム進行処理部 102、キャラクタ決定部 104、キャラクタ格納部 106、変化検出部 11 0、表示制御部 120および動作パターン格納部 122を備える。変化検出部 110は、 移動量監視部 112、回転検出部 114および存在確認部 116を有し、撮像装置 2が撮 像した実オブジェクト画像の時間的な状態変化を検出する。
[0042] 第 1の実施例におけるゲーム装置 30の処理機能は、 CPU、メモリ、メモリにロードさ れたプログラムなどによって実現され、ここではそれらの連携によって実現される構成 を描いている。プログラムは、ゲーム装置 30に内蔵されていてもよぐまた記録媒体 に格納された形態で外部力も供給されるものであってもよ 、。したがってこれらの機 能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによってい ろいろな形で実現できることは、当業者に理解されるところである。図示の例では、ゲ ーム装置 30の CPU力 解析情報取得部 100、ゲーム進行処理部 102、キャラクタ決 定部 104、変化検出部 110、表示制御部 120としての機能をもつ。
[0043] 解析情報取得部 100は、画像解析装置 20から、解析結果を受け取る。この解析結 果は、実オブジェ外であるゲームカード 4の姿勢情報、方向情報、距離情報、識別 情報を含む。解析情報取得部 100は、受け取った解析結果をゲーム進行処理部 10 2に渡す。なお、解析情報取得部 100は、撮像装置 2からフレーム画像のデータを直 接取得してもよい。この場合は、ゲーム装置 30が、画像解析装置 20における機能を 有して、画像解析装置 20に関して説明した処理と同様の処理を実行すればよい。
[0044] ゲーム進行処理部 102は、ゲームアプリケーション全体の処理を制御する。第 1の 実施例におけるゲームアプリケーションは、ゲーム進行が複数のステージ力 構成さ れ、各ステージにおいて異なるゲームシーンが設定されている。プレイヤは、各ステ ージの終了条件をそれぞれ段階的にクリアしていき、最終ステージをクリアしたところ で、ゲーム終了となる。ゲーム進行処理部 102は、ゲームの進行状況を管理し、ゲー ムの開始直後やゲームステージの切替の時点において、キャラクタ決定部 104に、 次に開始されるゲームステージ名と、解析情報取得部 100から送られてきた識別情 報を伝える。
[0045] キャラクタ格納部 106は、ゲームステージごとに、ゲームカード 4の識別情報とキャラ クタの 3次元画像データとを対応付けて記憶する。キャラクタ決定部 104は、ゲームス テージ名と識別情報をもとに、この識別情報に対応付けられたキャラクタの 3次元画 像データをキャラクタ格納部 106から読み出し、ゲーム進行処理部 102に供給する。 なお、読み出した 3次元画像データは、直接表示制御部 120に供給されてもよい。ゲ ーム進行処理部 102は表示制御部 120に、 3次元画像データと、ゲームカード 4の姿 勢情報、方向情報、距離情報を供給する。表示制御部 120は、 3次元画像データを 用いて、キャラクタをゲームカード 4の表示位置に関連付けてディスプレイ 7に表示さ せる。
[0046] 具体的に、表示制御部 120は、画像解析装置 20から送られるフレーム画像を受け 取り、ディスプレイ 7に表示させる。また、表示制御部 120は、ゲームカード 4の姿勢 情報、方向情報、距離情報をもとにゲームカード 4の姿勢、向き、距離を認識し、 3次 元画像データを用いてディスプレイ 7に表示するキャラクタの姿勢、向き、および大き さを決定する。例えば、ゲームカード 4が台 3に対して傾けられていれば、ゲームカー ド 4の法線ベクトルに沿うようにキャラクタが傾けられて表示されてもょ 、。表示制御部 120は、ゲームカード 4に重なるのであれば、キャラクタをどの位置に配置してもよい 力 通常の表示態様では、ゲームカード 4の中心点の上方に位置するように、キャラ クタの表示位置を定める。キャラクタは、プレイヤの操作履歴により、感情、調子など を表現した内部パラメータを有してもょ 、。
[0047] 動作パターン格納部 122は、通常の操作状態におけるキャラクタの動作パターンを 格納している。具体的に、動作パターン格納部 122は、動作パターンを、キャラクタ、 ゲームステージ、さらには内部パラメータに対応付けて設定している。したがって、表 示制御部 120は、キャラクタ名、現在プレイしているゲームステージ、およびキャラクタ の内部パラメータをもとに、動作パターン格納部 122から動作パターンを選択し、ディ スプレイ 7におけるキャラクタを表示制御する。
[0048] プレイヤがゲームカード 4をゆっくりと動かすと、フレーム画像の解析結果が画像解 析装置 20から解析情報取得部 100に逐次送られる。以下に示すゲームカード 4の状 態変化に対して、ゆっくりと動かす操作や全く動力さない操作を、通常の操作状態と 呼ぶことができる。表示制御部 120は、ゲーム進行処理部 102からキャラクタの 3次 元画像データと、ゲームカード 4の姿勢情報、方向情報、距離情報を受け取り、ディ スプレイ 7におけるゲームカード 4の表示位置にキャラクタの画像が重なるように、キヤ ラクタをゲームカード 4の動きに追従させる。これにより、ディスプレイ 7では、キャラク タがゲームカード 4に常に乗っている表示態様となり、キャラクタとゲームカード 4との 一体感をプレイヤに認識させることができる。以上のように、表示制御部 120は、ゲー ムカード 4の通常の操作状態では、キャラクタをゲームカード 4に重ね合わせて表示さ せる。
[0049] 以下では、ゲームカード 4がプレイヤの操作により所定の撮像状態をとる場合、表示 制御部 120が、キャラクタをゲームカード 4の動きに単純に追従させるのではなぐキ ャラクタの表示態様を制御して、キャラクタの動作パターンに変化をもたせる。プレイ ャによるゲームカード 4へのアクションを、キャラクタの動作パターンを変化させるトリ ガとすることで、通常のゲームコントローラなどによる操作とは違った楽しみをプレイヤ に与えることができる。ゲーム進行処理部 102は、通常の操作状態であるか否かを検 出するために、ゲームカード 4の姿勢情報、方向情報、距離情報を、変化検出部 110 に引き渡す。変化検出部 110は、フレーム画像におけるゲームカード 4の画像の時 間的な状態変化を検出する。
[0050] 移動量監視部 112は、撮像装置 2において撮像されるゲームカード 4の移動量を監 視する。具体的に、移動量監視部 112は、ゲームカード 4の姿勢情報に含まれる中 心座標および距離情報をもとに、ゲームカード 4の移動速度を測定する。移動量監 視部 112は、ゲームカード 4の中心座標および距離情報をフレームごとにメモリ(図示 せず)に保存し、所定数のフレームにおけるゲームカード 4の距離変化および中心座 標の差分から、移動ベクトルを計算する。これにより、移動速度が測定される。なお、 中心座標を 3次元空間の座標値としてもつ場合には、単純に中心座標値の差分をと ることで、移動ベクトルを算出することできる。移動量監視部 112は、撮像装置 2にお いて撮像されるゲームカード 4の移動量を監視し、設定した仮想空間における移動 量を監視してもよぐまた実際の移動量を監視してもよい。
[0051] 移動量監視部 112は、ゲームカード 4の移動速度が所定の基準速度を超えている ことを判断すると、その判断結果をゲーム進行処理部 102に通知する。ゲームカード 4の移動速度は、撮像されたゲームカード 4の仮想空間における移動速度であっても よぐまたゲームカード 4の実際の移動速度であってもよい。ゲーム進行処理部 102 は、その判断結果を受けると、プレイヤによりゲームカード 4が素早く動力されたことを 認識する。このイベントを「スライドイベント」と呼ぶと、ゲーム進行処理部 102は、キヤ ラクタ名およびスライドイベントの発生を表示制御部 120に通知する。表示制御部 12 0は、スライドイベントの発生通知を受けると、当該キャラクタに対して設定されている スライドイベントに対応する動作パターンを、動作パターン格納部 122から検索する。
[0052] 動作パターン格納部 122は、既述した通常の操作状態における動作パターンだけ でなぐイベントの発生時におけるキャラクタの動作パターンも格納している。動作パ ターン格納部 122は、動作パターンを、キャラクタ、ゲームステージ、内部パラメータ に対応付けるとともに、イベント名にも対応付けて設定している。したがって、表示制 御部 120は、キャラクタ名、現在プレイしているゲームステージ、およびキャラクタの内 部パラメータ、イベント名をもとに、動作パターン格納部 122から動作パターンを選択 し、ディスプレイ 7におけるキャラクタを表示制御する。
[0053] 表示制御部 120は、スライドイベントの発生を通知されると、キャラクタをゲームカー ド 4の移動に追従させずに、その場で転ばせる動作パターンを動作パターン格納部 1 22から読み出し、実行する。ゲームカード 4を高速に動かすと、プレイヤは直観的に 、キャラクタがその動きについていくことができずに取り残されるイメージを抱くことに なるが、そのイメージを具体ィ匕する動作パターンを選択して、ディスプレイ 7の画面中 に表現することで、プレイヤの意識に合わせた画像処理が実現される。
[0054] 図 5は、スライドイベントが発生したときにディスプレイ上で表現されるキャラクタの動 作を示す。図 5 (a)は、ゲームカード 4にキャラクタが重ねあわされて表示されている 状態を示す。この状態は、通常の操作状態に相当し、キャラクタは、内部パラメータな どに応じた動作パターンで表示制御されて 、る。
[0055] 図 5 (b)において、画面中で、ゲームカード 4がプレイヤにより左方向に動力される。
なお、ディスプレイ 7上では、ゲームカード 4を操作するプレイヤの指が表示されること になるが、ここでは図示を省略している。移動量監視部 112が、ゲームカード 4の移 動速度が所定の基準速度を超えていることを判断すると、ゲーム進行処理部 102が スライドイベントの発生を表示制御部 120に通知する。表示制御部 120は、画像解析 装置 20から周期的に送られるフレーム画像をもとに、ゲームカード 4をディスプレイ 7 にお 、て左方向に移動させる。
[0056] このとき表示制御部 120は、図 5 (c)に示すように、キャラクタをゲームカード 4の移 動に追従させずに、スライドイベントの発生を検出した時点でキャラクタを転ばせる。 すなわち、表示制御部 120は、スライドイベントが発生したときには、キャラクタがゲー ムカード 4の表示位置に重ならないように、キャラクタの移動をその場で停止させる。 これにより、ゲームカード 4の表示位置とキャラクタの表示位置とが、瞬間的に離れる ことになる。
[0057] 表示制御部 120は、図 5 (d)に示すように、所定のタイミングでキャラクタを起き上が らせ、キャラクタをゲームカード 4の表示位置まで移動させる。このタイミングは、例え ばゲームカード 4の高速移動が終わった後のタイミングであってもよぐまたスライドィ ベントの発生後、所定時間が経過した時点であってもよい。このとき、表示制御部 12 0は、ゲームカード 4の中心座標を移動目標点として、キャラクタの移動モーションを ディスプレイ 7上に再生する。図 5 (a)〜図 5 (d)に示す一連のキャラクタの動作は、表 示制御部 120により選択された動作パターンにおいて定められている。図 5 (e)は、 キャラクタがゲームカード 4の表示位置まで戻った状態を示す。第 1の実施例のゲー ムアプリケーションによると、プレイヤは、ゲームカード 4を動かすことによって、以上の 一連の 3次元キャラクタの動きを楽しむことができる。ゲームシステム 1では、プレイヤ がゲームカード 4の操作方法を色々と試してみることで、ディスプレイ上でキャラクタに 新たな動きをさせることができ、ゲームアプリケーションの興趣を高めることができる。
[0058] 移動量監視部 112は、移動速度だけでなぐ撮像装置 2において撮像されるゲーム カード 4の移動方向を監視する。具体的に、移動量監視部 112は、ゲームカード 4の 中心座標をフレームごとにメモリ(図示せず)に保存し、フレーム間におけるゲーム力 ード 4の中心座標の差分から、移動ベクトルを計算する。これにより、移動ベクトルの 向きを検出することができる。
[0059] 移動量監視部 112は、時間的に前後の移動ベクトルの向きを比較し、移動ベクトル 間のなす角度が実質的に 180度となる状態を所定時間内に複数回検出すると、その 検出結果をゲーム進行処理部 102に通知する。例えば、 2秒の間に移動ベクトルの 向きが 3回反転したことを通知の条件としてもよい。ゲーム進行処理部 102は、その 検出結果を受けると、ゲームカード 4が往復運動されていることを認識する。このィべ ントを「往復イベント」と呼ぶと、ゲーム進行処理部 102は、キャラクタ名および往復ィ ベントの発生を表示制御部 120に通知する。表示制御部 120は、往復イベントの発 生通知を受けると、当該キャラクタに対して設定されている往復イベントに対応する動 作パターンを、動作パターン格納部 122から検索する。
[0060] 図 6は、往復イベントが発生したときにディスプレイ上で表現されるキャラクタの動作 を示す。図 6 (a)は、ゲームカード 4を往復運動させることで、キャラクタを叱った状態 を示す。移動量監視部 112が、ゲームカード 4が所定の基準を満たす往復運動をさ れていることを判断すると、ゲーム進行処理部 102が往復イベントの発生を表示制御 部 120に通知する。表示制御部 120は、ゲームカード 4の往復運動をディスプレイ 7 に表示させるとともに、動作パターン格納部 122から検索された動作パターンに基づ いてキャラクタの動作パターンを変化させる。この例では、ゲームカード 4の往復運動 は、キャラクタを叱る動作パターンを実行するトリガとなり、キャラクタは、叱られたこと によりショックを受けた表情を見せている。なお、ゲームカード 4の往復運動中、キャラ クタは、ゲームカード 4の往復運動に追従させずに、ゲームカード 4の範囲にある限り において、表示位置を固定としてもよい。なお、往復運動の振幅が大きぐゲーム力 ード 4の範囲からキャラクタが外れる場合には、キャラクタをゲームカード 4に追従させ ることが好ましい。
[0061] 図 6 (b)は、ゲームカード 4を往復運動させることで、キャラクタが巨大化した状態を 示す。このように、ゲームカード 4の往復運動に対して、動作パターン格納部 122は 複数種類の動作パターンを対応付けて記憶してもよい。既述のように、動作パターン 格納部 122は、ゲームステージに対応付けて動作パターンを記憶してもよぐさらに はキャラクタの内部パラメータに対応付けて動作パターンを記憶してもよい。
[0062] 図 4に戻って、回転検出部 114は、ゲームカード 4の回転を検出する。具体的に、 回転検出部 114は、ゲームカード 4の姿勢情報に含まれる中心座標および方向情報 をもとに、ゲームカード 4の回転動作を検出する。回転検出部 114は、ゲームカード 4 の中心座標および方向情報をフレームごとにメモリ(図示せず)に保存する。方向情 報により特定されるゲームカード 4の向きが実質的な平面上で時間的に変化し、その 変化中、ゲームカード 4の中心座標の位置がほとんどずれない場合、回転検出部 11 4は、ゲームカード 4が回転されていることを検出する。このとき、ゲームカード 4の向き 力 S360度以上、同じ回転方向に変化していることを、回転検出の条件としてもよい。
[0063] 回転検出部 114は、ゲームカード 4が回転していることを判断すると、その判断結果 をゲーム進行処理部 102に通知する。ゲーム進行処理部 102は、その判断結果を受 けると、ゲームカード 4が回転されていることを認識する。このイベントを「回転イベント 」と呼ぶと、ゲーム進行処理部 102は、キャラクタ名および回転イベントの発生を表示 制御部 120に通知する。表示制御部 120は、回転イベントの発生通知を受けると、当 該キャラクタに対して設定されている回転イベントに対応する動作パターンを、動作 ノ《ターン格納部 122から検索する。
[0064] 表示制御部 120は、現在プレイ中のゲームステージに対してキャラクタに設定され ている動作パターンを選択する。表示制御部 120が、選択した動作パターンを用い てキャラクタの動作パターンを変化させ、具体的には、キャラクタの目を回す動作バタ ーンを読み出し実行する。
[0065] 図 7は、ゲームカードを回転させたことで、キャラクタが目を回して!/、る状態を示す。 目を回した状態は所定の時間が経過すると元に戻り、通常の状態に復帰する。ゲー ムカード 4を回転させると、キャラクタの目が回ることは、回転という点で同一であり、プ レイヤも直観的に理解しやすい。第 1の実施例のゲームアプリケーションでは、ゲー ムコントローラを使用しないため、カード操作に対応するキャラクタの動作パターンが
、カード操作の行為自体と感覚的にリンクしていることが好ましい。このようにカード操 作とキャラクタの動作パターンを対応付けることで、プレイヤによる操作性を容易にす ることができる。カード操作により 3次元キャラクタの動作パターンを決定することで、 これまでにな 、ゲームアプリケーションを実現でき、プレイヤに新たな体感を与えるこ とがでさる。
[0066] 図 4に戻って、存在確認部 116は、撮像領域 5中にゲームカード 4が存在している か否かを確認する。ゲームカード 4が撮像領域 5に存在することは、画像解析装置 20 力もゲームカード 4の情報が解析されて 、るか否かに基づ 、て判断される。ゲーム力 ード 4がプレイヤにより隠される場合には、画像解析装置 20はゲームカード 4の画像 を認識できず、ゲームカード 4の画像解析結果はゲーム装置 30に送られな 、。
[0067] 存在確認部 116は、所定数の連続したフレーム画像にぉ 、て実オブジェクトが認 識されない場合に、実オブジェクトが撮像装置 2により撮像されていないことを判断す る。逆に、存在確認部 116は、実オブジェクトが認識されないフレーム画像が連続し て所定数以上続かなければ、実オブジェクトが撮像装置 2により撮像されていることを 判断する。ここで、所定数の連続フレーム画像において実オブジェクトが認識されな いことを条件とするのは、照明の影響などで偶然にもゲームカード 4を検出できない 状況を無視するためである。
[0068] 存在確認部 116は、ゲームカード 4が撮像されていないことを判断すると、その判断 結果をゲーム進行処理部 102に通知する。ゲーム進行処理部 102は、その判断結 果を受けると、ゲームカード 4が撮像領域 5中に存在しないことを認識する。このィべ ントを「隠しイベント」と呼ぶと、ゲーム進行処理部 102は、キャラクタ名および隠しィ ベントの発生を表示制御部 120に通知する。なお、プレイヤはゲームカード 4を手で 隠したり、ゲームカード 4を撮像領域 5の外に移動させることで、隠しイベントを発生さ せることができる。表示制御部 120は、隠しイベントの発生通知を受けると、当該キヤ ラクタに対して設定されている隠しイベントに対応する動作パターンを、動作パターン 格納部 122から検索する。
[0069] ここでは、表示制御部 120は、選択した動作パターンを用いて、キャラクタをデイス プレイ 7の画面から消す。これも、プレイヤにとっては理解しやすいキャラクタの動作 パターンであり、プレイヤはゲームのプレイ方法を十分に理解しなくても、直観的にキ ャラクタを操作することがでさる。
[0070] なお、存在確認部 116は、ゲームカード 4が撮像されて 、る状態と撮像されて!、な い状態とが繰り返されていることを判定してもよい。プレイヤは、ゲームカード 4上に手 を力ざすことでゲームカード 4の非撮像状態を作り、また手をどけることで撮像状態を 作りだす。非撮像状態と撮像状態とが所定時間内に、所定の回数繰り返されると、存 在確認部 116は、その撮像状態の変化を検出し、その検出結果をゲーム進行処理 部 102に通知する。ゲーム進行処理部 102は、その判断結果を受けると、ゲーム力 ード 4が撮像装置 2によりキヤプチャされる状態とキヤプチャされない状態とが交互に 生じていることを認識する。このイベントを「スィッチイベント」と呼ぶと、ゲーム進行処 理部 102は、キャラクタ名およびスィッチイベントの発生を表示制御部 120に通知す る。表示制御部 120は、スィッチイベントの発生通知を受けると、当該キャラクタに対 して設定されて ヽるスィッチイベントに対応する動作パターンを、動作パターン格納 部 122から検索する。
[0071] ここでは、表示制御部 120は、選択した動作パターンを用いて、新たな仮想ォブジ ェクトをディスプレイ 7に表示させる。この新たな仮想オブジェクトは、通常の操作状態 では非表示とされていたものであり、スィッチイベントの発生をトリガとして、仮想ォブ ジェタトの全体を新たに表示させる。ゲーム業界でいう「隠れキャラクタ」の出現に相 当し、新たなキャラクタを登場させることで、ゲーム進行に変化をもたらすことが可能と なる。
[0072] ゲームシステム 1において、プレイヤは、カード操作に対して割り当てられている動 作パターンを必ずしも覚えておく必要はなぐゲームカード 4を色々と操作してみるこ とでキャラクタを動力してみればよい。第 1の実施例のゲームアプリケーションは、新 たなゲームの楽しみ方をプレイヤに提供することができる。 [0073] 図 8は、第 1の実施例の画像処理フローを示す。ゲーム装置 30において、解析情 報取得部 100が、画像解析装置 20からゲームカード 4の識別情報を取得する(S10) 。キャラクタ決定部 104は、この識別情報を受け取ると、キャラクタ格納部 106から、 現在のステージおよび識別情報に対応付けられたキャラクタの 3次元画像データを 読み出す(S12)。表示制御部 120は、ディスプレイ 7におけるゲームカード 4の表示 位置に、読み出したキャラクタの 3次元画像データを重畳表示させる(S14)。
[0074] 変化検出部 110は、ゲームカード 4の時間的な状態変化を監視する(S16)。所定 の状態変化を検出すると (S16の Y)、表示制御部 120が、その状態変化に対応付け られた動作パターンを、動作パターン格納部 122から読み出し (S18)、その動作パ ターンにしたがってキャラクタを表示制御する(S20)。ステージが «I続する場合 (S2 2の N)、表示制御部 120は、キャラクタの表示態様を元に戻し、キャラクタをゲーム力 ード 4に重畳表示させる。なお、所定の状態変化を検出しない場合 (S16の N)、ステ ージの切替がなければ、重畳表示の状態を維持する。ステージが切り替わると(S22 の Y)、このフローは終了する。次のステージが開始すると、ステージに応じたキャラク タの 3次元画像データが読み出され、上記したフローが実行される。
[0075] 以上、第 1の実施例を説明した。この第 1の実施例は例示であり、それらの各構成 要素や各処理プロセスの組合せに 、ろ 、ろな変形例が可能なこと、またそうした変形 例も本発明の範囲にあることは当業者に理解されるところである。第 1の実施例では 、キャラクタの動作パターンを変化させる例について説明した力 例えば、ゲームカー ド 4の撮像状態の変化に基づ 、て、メインキャラクタとは別の新たな仮想オブジェクト を発生させ、メインキャラクタカゝら離れる方向に、その新たな仮想オブジェクトを移動さ せる表示制御を行うことも可能である。
[0076] 変形例として、表示制御部 120は、キャラクタとともに、キャラクタとは別の仮想ォブ ジェタトを表示させ、変化検出部 110においてゲームカード 4の状態変化が検出され たことをトリガとして、画像解析装置 20の方向決定部 54において決定された方向に、 キャラクタ力 離れるように、別の仮想オブジェクトを移動させてもよい。別の仮想ォブ ジェタトは、ゲーム進行に用いるアイテムであってよぐ例えばキャラクタが投げる「ボ ール」などの仮想オブジェクトであってよ!/、。 [0077] 図 9 (a)は、キャラクタがボールを投げて、ボーリングをする表示例を示す。既述のよ うに、方向決定部 54は、実空間におけるゲームカード 4の方向指示部 11の位置に応 じて、ゲームカード 4の方向を決定する。ディスプレイ 7における仮想的なボーリングピ ンの表示位置を固定とすると、プレイヤは、ディスプレイ 7を見ながらゲームカード 4を 動かして、キャラクタがボールを投げる位置および方向を調整する。なお、ボーリング ピンは他のゲームカード 4上に表示される仮想オブジェクトであってよい。キャラクタ 決定部 104は、他のゲームカード 4上にボーリングピンが表示されたことを条件として 、ボールの 3次元画像データをキャラクタ格納部 106から読み出し、ゲーム進行処理 部 102に供給する。表示制御部 120は、ゲーム進行処理部 102からボールの 3次元 画像データを受け取り、キャラクタにボールをもたせるように表示制御する。プレイヤ によるカード移動によりキャラクタが所望の位置に表示されると、プレイヤは、ゲーム カード 4を操作して、ボールを投げるトリガとして設定されて 、るイベントを発生させる 。このイベントは、プレイヤに対して画面上またはスピーカを通じて告知されるのが好 ましい。表示制御部 120は、そのイベントの発生通知を受けると、方向決定部 54によ り定められた方向にボールを転がし、方向に応じてボーリングピンの倒れる本数を所 定の演算により算出する。このとき、表示制御部 120は、ボーリングピンおよびキャラ クタの座標系を同じ座標系に統一し、移動物体であるボールとボーリングピンとの接 触判定を行うことで、この表示処理が可能となる。なお、ボーリングは一つの例であり 、キャラクタ力 仮想オブジェクトを発射させることで、キャラクタ以外のオブジェクトを 用いた新たなゲームストーリを展開することができる。
[0078] 方向決定部 54は、ゲームカード 4に印刷された方向指示部 11から方向を決定する こともできるが、傾けられた状態では、その傾けられた傾斜面に沿ったベクトルを、ゲ ームカード 4の方向として決定することもできる。
[0079] 図 9 (b)は、キャラクタがボールを投げて、ボーリングをする別の表示例を示す。方 向決定部 54は、実空間におけるゲームカード 4の傾斜した方向を決定する。この傾 斜方向は、台 3において、台 3に接触するゲームカード 4の一辺に垂直な方向として 定められる。図 9 (a)の例と異なり、この場合は、ボールを投げる方向がゲームカード 4と台 3との接線に応じて決定される。プレイヤは、ゲームカード 4を所望の位置に配 置して傾斜させる。このとき、ゲームカード 4を傾斜させたこと力 ボールを投げるトリ ガとして設定されていてもよい。ゲーム進行処理部 102は、姿勢情報からゲームカー ド 4が傾斜されたことを検出すると、その旨を表示制御部 120に通知し、表示制御部 120は、動作パターンを読み出して、方向決定部 54により定められた方向にボール を転がす。
[0080] 上記した第 1の実施例および変形例では、ゲームカード 4の状態変化に基づ 、て、 キャラクタの表示態様を制御した。ゲームアプリケーションの興趣を高めるために、キ ャラクタの表示態様だけでなぐ音声などによる演出を行ってもよい。この場合、変化 検出部 110においてゲームカード 4の状態変化が検出されると、ゲーム進行処理部 1 02は、その旨を図示しない音声制御部に通知して、音声制御部がスピーカを通じて キャラクタの聴覚的な演出を行ってもよい。このとき、ゲーム装置 30は、画像処理装 置として機能するだけでなぐ音声処理装置としても機能するため、ゲーム装置 30を 、画像および音声の両方を制御可能な処理装置と呼ぶこともできる。なお、ゲーム装 置 30は、ゲームカード 4の状態変化に基づいて、音声制御のみを行ってもよい。
[0081] <第 2実施例 >
本発明の第 2の実施例は、撮像装置により撮像された複数の実オブジェクトの位置 関係を検出し、検出した位置関係に基づいて仮想オブジェクトの表示態様を制御す る技術を提供する。実オブジェクトは、実在する 1次元オブジェクト、 2次元オブジェク トまたは 3次元オブジェクトのいずれであってもよぐ実オブジェクト自身を識別させる ための特徴部分を有して構成されることが好ましい。例えば、実オブジェクトは、 2次 元で表現されたコード情報を特徴部分として有するカードなどの 2次元オブジェクトで あってもよぐまたユニークな立体形状を特徴部分として有する 3次元オブジェクトで あってもよい。なお、 2次元オブジェクトの 2次元形状がユニークな特徴部分を構成し てもよぐまた 3次元オブジェクトに特徴部分となるコード情報が貼り付けられていても よい。仮想オブジェクトは、仮想空間において 3次元的に表現される人、動物、物など の所謂キャラクタであってもよい。以下に示す第 2の実施例は、ゲームアプリケーショ ンにおける画像処理技術に関し、ゲームアプリケーションに登場するゲームキャラクタ を、仮想オブジェクトして採用している。第 2の実施例では、プレイヤが実オブジェクト 同士を接触させることで、その接触に応じたイベントが発生し、イベントを順次実行し て!、くことで進行するゲームアプリケーションを示す。
[0082] 図 10は、本発明の第 2の実施例にカゝかるゲームシステム 201の構成を示す。ゲー ムシステム 201は、撮像装置 2、画像処理装置 210および出力装置 6を備える。画像 処理装置 210は、画像解析装置 220およびゲーム装置 230を備える。画像解析装 置 220およびゲーム装置 230は別装置として構成されてもよいが、一体として構成さ れてもよい。撮像装置 2は、 CCD撮像素子または MOS撮像素子などカゝら構成される ビデオカメラである。撮像装置 2は実空間を所定の周期で撮像して、周期ごとのフレ ーム画像を生成する。撮像領域 5は撮像装置 2により撮像される範囲であり、撮像装 置 2の高さや向きを調整することで、撮像領域 5の位置や大きさが調整される。ゲーム プレイヤは、撮像領域 5において、実オブジェクトであるゲームカード 4を指で動かす 。ゲームカード 4は、自身を一意に識別するための特徴部分を有して構成される。
[0083] 出力装置 6は、表示装置であるディスプレイ 7を有する。出力装置 6は、さらにスピー 力(図示せず)を有して構成されてもよい。基本的に画像処理装置 210は、撮像装置 2により撮像されたフレーム画像をディスプレイ 7に表示させ、その際に、ゲームカード 4上に仮想オブジェクトであるキャラクタを重畳するように表示制御する。図 10の例で は、撮像領域 5に 2枚のゲームカード 4が存在し、ディスプレイ 7には、それぞれのゲ ームカード 4上にキャラクタが重畳表示されている。プレイヤは、ディスプレイ 7を見る ことで、ゲームカード 4が撮像領域 5に入っている力容易に確認でき、入っていない場 合には、ゲームカード 4の位置をずらしたり、また撮像装置 2の向きを調整して、撮像 装置 2にゲームカード 4を撮像させるようにする。
[0084] 第 2の実施例のゲームアプリケーションでは、プレイヤがゲームカード 4に対して所 定の操作を施すことにより、キャラクタを動作させる。このゲームアプリケーションの性 質上、プレイヤにゲームカード 4とキャラクタとの一体性を認識させることが好ましぐ そのため、キャラクタの画像を、ゲームカード 4に重ね合わせて表示させている。
[0085] 以上のキャラクタの動きは、画像処理装置 210により制御される。まず、画像解析装 置 220は、撮像装置 2において取得されたフレーム画像から、ゲームカード 4の画像 情報を抽出する。さら〖こ、画像解析装置 220は、ゲームカード 4の画像情報から、ゲ ームカード 4を識別するためのユニークな特徴部分を抽出する。このとき、画像解析 装置 220は、ゲームカード 4の画像情報から、ゲームカード 4の空間における位置情 報、方向情報、距離情報などを決定する。なお、ゲームカード 4の表面には、図 2に 関して説明したとおり、方向指示部 11と識別部 12とが印刷されている。
[0086] 図 2に関して既述したように、方向指示部 11は、ゲームカード 4の前部を示すため に設けられ、識別部 12は、ゲームカード 4を一意に識別するための特徴部分を表現 するために設けられる。識別部 12は、所定の区画内に複数のブロックを印刷して作 成されたコード情報である。複数のブロックのうち、 4角のブロックは複数のゲーム力 ード 4に共通して付与され、実質的には 4角以外のブロックにより、特徴部分が形成さ れる。 4角のブロックは、撮像装置 2からの距離を測定するために利用される。
[0087] 図 10に戻って、画像解析装置 220は、フレーム画像中のゲームカード 4を認識する と、ゲームカード 4の画像における 4角のブロック間の長さをもとに、撮像装置 2とゲー ムカード 4との距離を計算して求める。また、画像解析装置 220は、ゲームカード 4の 方向指示部 11を検出して、フレーム画像にぉ 、てゲームカード 4が向 、て 、る方向 を求める。この場合、方向指示部 11が存在する方向が前方となり、キャラクタは、ゲ ームカード 4上にて前方を向くように表示制御される。さらに、画像解析装置 220は、 識別部 12の 4角以外のブロックから、ゲームカード 4の識別情報を取得する。
[0088] 画像解析装置 220において画像解析された結果は、ゲーム装置 230に送られる。
なお、撮像装置 2において撮像されたフレーム画像力 ゲーム装置 230に送られて、 ゲーム装置 230側で画像解析を行ってもよい。この場合、画像処理装置 210は、ゲ ーム装置 230のみで構成されることになる。
[0089] ゲーム装置 230は、画像解析装置 220における画像解析結果をもとに、ディスプレ ィ 7の表示画面上で、キャラクタをゲームカード 4の上に位置するように表示制御する 。キャラクタは、ゲームカード 4に対してゲームシーンごとに適宜割り当てられてもよい 。この場合、ゲームシーンが切り替わると、表示されるキャラクタも切り替わること〖こな る。第 2の実施例では、ゲーム装置 230が、複数の実オブジェクト画像の位置関係を 検出し、実オブジェクト画像間の位置関係が所定の条件を満たすことを判定すると、 仮想オブジェクトの表示態様を制御する。 [0090] 図 11は、画像解析装置 220の構成を示す。画像解析装置 220は、フレーム画像取 得部 240、実オブジェクト抽出部 242、状態決定部 244、識別情報取得部 246、識 別情報格納部 248および送出部 250を備える。識別情報格納部 248は、実オブジェ タトを識別するための特徴部分の情報と、実オブジェクトを識別するための識別情報 とを対応付けて記憶する。具体的には、図 2におけるゲームカード 4の識別部 12のパ ターン情報と、識別情報とを 1対 1に対応付けて記憶している。識別情報は、ゲーム 装置 230においてキャラクタの割当てに利用される。例えば、 5枚のゲームカード 4の 同時使用を許可するゲームシステム 201の場合、それぞれのゲームカード 4に対して 、 1から 5までの識別情報がそれぞれ割り当てられていてもよい。複数のゲームカード 4のそれぞれを識別情報と紐付けすることで、個々のゲームカード 4が認識可能とな る。状態決定部 244は、設定した座標系における実オブジェクトの状態を決定し、具 体的には、ゲームカード 4の位置を決定する位置決定部 252、方向を決定する方向 決定部 254および撮像装置 2からの焦点距離を決定する距離決定部 256を有する。
[0091] フレーム画像取得部 240が、撮像装置 2にて撮像された実空間のフレーム画像を 取得する。ここでは、図 10に示すように、撮像領域 5に複数枚のゲームカード 4が配 置されている状態を想定する。撮像装置 2は、周期的にフレーム画像を取得し、好適 には 1Z60秒間隔でフレーム画像を生成する。
[0092] 実オブジェクト抽出部 242は、フレーム画像力も複数の実オブジェクト画像、すなわ ちゲームカード 4の画像を抽出する。この処理は、画像情報を 2進数のビット表現に 変換し、このビット表現力もゲームカード 4の画像を抽出することで行われる。いわゆ るドット処理であり、ビットのオンとオフを検出することで、画像抽出処理が行われても よい。また、この処理は、既知の画像マッチング技術によって行ってもよい。その場合 、実オブジェクト抽出部 242は、マッチング処理のために、使用する実オブジェクトの 画像情報をメモリ(図示せず)に予め登録しておく。予め登録した画像情報と撮像し た画像情報とのマッチングをとることで、複数のゲームカード 4の画像をフレーム画像 力 切り出すことができる。
[0093] 状態決定部 244は、ゲームカード 4を置いて動かすための台 3のジオメトリ情報を予 め検出しておき、さらに台 3の表面を基準面として、その基準面上にゲームカード 4を 載せた姿勢のジオメトリ情報をゲームカード 4の姿勢の初期状態として記録しておく。 このジオメトリ情報は、撮像装置 2を基準として生成されてもよい。状態決定部 244は 、台 3に関して取得したジオメトリ情報から、台 3の位置、姿勢などを撮像空間におけ る座標データとして把握しておく。位置決定部 252は、実オブジェクト画像の位置を 決定する。具体的には、フレーム画像における実オブジェクト画像の中心点の座標を 定める。なお、位置決定部 252は、ゲームカード 4の位置に加えて、ゲームカード 4の 基準面に対するゲームカード 4の傾きおよび高さを、初期状態として記録したゲーム カード 4の姿勢力もの相対的な状態量の差分、すなわち撮像空間における座標値の 差分として求めてもよい。方向決定部 254は、実オブジェクト画像の方向を定める。 方向決定部 254は、実オブジェクト画像の中から図 2に示す方向指示部 11を検出し て、実オブジェクトの向きを定めてもよい。距離決定部 256は、ゲームカード 4の画像 における識別部 12の 4角間の長さをもとに、撮像装置 2とゲームカード 4との距離を決 定する。識別情報取得部 246は、実オブジェ外画像カゝら特徴部分を抽出して、識別 情報格納部 248から対応する識別情報を取得する。
[0094] 状態決定部 244にお ヽて決定された位置情報、方向情報、距離情報、および識別 情報取得部 246において取得された識別情報は、それぞれ関連付けされて送出部 250からゲーム装置 230に送られる。なお、この関連付けは、それぞれのゲームカー ド 4ごとに行われる。また、第 2の実施例では、撮像装置 2により撮像されたフレーム画 像をディスプレイ 7に表示させるため、フレーム画像自体も送出部 250からゲーム装 置 230に送られる。
[0095] 図 12は、ゲーム装置 230の構成を示す。ゲーム装置 230は、解析情報取得部 300 、ゲーム進行処理部 302、キャラクタ決定部 304、キャラクタ格納部 306、位置関係 検出部 310、条件判定部 312、表示制御部 320および表示パターン格納部 322を 備える。
[0096] 第 2の実施例におけるゲーム装置 230の処理機能は、 CPU、メモリ、メモリにロード されたプログラムなどによって実現され、ここではそれらの連携によって実現される構 成を描いている。プログラムは、ゲーム装置 230に内蔵されていてもよぐまた記録媒 体に格納された形態で外部力 供給されるものであってもよ 、。したがってこれらの 機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによって いろいろな形で実現できることは、当業者に理解されるところである。図示の例では、 ゲーム装置 230の CPU力 解析情報取得部 300、ゲーム進行処理部 302、キャラク タ決定部 304、位置関係検出部 310、条件判定部 312、表示制御部 320としての機 能をもつ。
[0097] 解析情報取得部 300は、画像解析装置 220から、解析結果を受け取る。この解析 結果は、実オブジェクトであるゲームカード 4の位置情報、方向情報、距離情報、識 別情報を含む。解析情報取得部 300は、受け取った解析結果をゲーム進行処理部 302に渡す。なお、解析情報取得部 300は、撮像装置 2からフレーム画像のデータ を直接取得してもよい。この場合は、ゲーム装置 230が、画像解析装置 220における 機能を有して、画像解析装置 220に関して説明した処理と同様の処理を実行すれば よい。
[0098] ゲーム進行処理部 302は、ゲームアプリケーション全体の処理を制御する。第 2の 実施例におけるゲームアプリケーションは、ゲーム進行が複数のステージ力 構成さ れ、各ステージにおいて異なるゲームシーンが設定されている。プレイヤは、各ステ ージの終了条件をそれぞれ段階的にクリアしていき、最終ステージをクリアしたところ で、ゲーム終了となる。ゲーム進行処理部 302は、ゲームの進行状況を管理し、ゲー ムの開始直後やゲームステージの切替の時点において、キャラクタ決定部 304に、 次に開始されるゲームステージ名と、解析情報取得部 300から送られてきた識別情 報を伝える。キャラクタ格納部 306は、ゲームステージごとに、ゲームカード 4の識別 情報とキャラクタの 3次元画像データとを対応付けて記憶する。
[0099] 図 13は、キャラクタ格納部 306の記憶内容を示す。第 2の実施例のゲームシステム 201は、 5枚のゲームカード 4を使用可能とする。キャラクタ格納部 306は、ゲームス テージに対応付けて、 5枚のゲームカード 4のそれぞれに割り当てるキャラクタの 3次 元画像データを記憶している。ステージ 1では、識別情報 1のゲームカードにキャラク タ「男」、識別情報 2のゲームカードにキャラクタ「女」、識別情報 3のゲームカードにキ ャラクタ「太鼓」、識別情報 4のゲームカードにキャラクタ「レストランの建物」、識別情 報 5のゲームカードにキャラクタ「郵便局の建物」が割り当てられる。ステージ 2では、 識別情報 1のゲームカードにキャラクタ「男」、識別情報 2のゲームカードにキャラクタ「 女」、識別情報 3のゲームカードにキャラクタ「レストランのドア」、識別情報 4のゲーム カードにキャラクタ「ウエイター」、識別情報 5のゲームカードにキャラクタ「テーブルと 椅子」が割り当てられる。ステージ 1およびステージ 2において、識別情報 3、 4、 5に 割り当てられるキャラクタが異なって 、る。
[0100] キャラクタ決定部 304は、ゲームステージ名と複数の識別情報をもとに、識別情報 に対応付けられた複数のキャラクタの 3次元画像データをキャラクタ格納部 306から 読み出し、ゲーム進行処理部 302に供給する。なお、読み出した 3次元画像データ は、表示制御部 320に直接供給されてもよい。ゲーム進行処理部 302は表示制御部 320に、 3次元画像データと、ゲームカード 4の位置情報、方向情報、距離情報を供 給する。表示制御部 320は、 3次元画像データを用いて、キャラクタをゲームカード 4 の表示位置に関連付けてディスプレイ 7に表示させる。
[0101] 具体的に、表示制御部 320は、画像解析装置 220から送られるフレーム画像を受 け取り、ディスプレイ 7に表示させる。また、表示制御部 320は、ゲームカード 4の位置 情報、方向情報、距離情報をもとにゲームカード 4の位置、向き、距離を認識し、 3次 元画像データを用いてディスプレイ 7に表示するキャラクタの位置、向き、および大き さを決定する。表示制御部 320は、ゲームカード 4に重なるのであれば、キャラクタを どの位置に配置してもよいが、通常の表示態様では、ゲームカード 4の中心点の上方 に位置するように、キャラクタの表示位置を定める。
[0102] プレイヤがゲームカード 4を動かすと、フレーム画像の解析結果が画像解析装置 22 0から解析情報取得部 300に逐次送られる。表示制御部 320は、ゲーム進行処理部 302からキャラクタの 3次元画像データと、ゲームカード 4の位置情報、方向情報、距 離情報を受け取り、ディスプレイ 7におけるゲームカード 4の表示位置にキャラクタの 画像が重なるように、キャラクタをゲームカード 4の動きに追従させる。これにより、ディ スプレイ 7では、キャラクタがゲームカード 4に常に乗っている表示態様となり、キャラ クタとゲームカード 4との一体感をプレイヤに認識させることができる。
[0103] 図 14は、ステージ 1におけるディスプレイの表示例を示す。ここで、ゲームカード 4a は識別情報 1のゲームカード、ゲームカード 4bは識別情報 2のゲームカード、ゲーム カード 4cは識別情報 3のゲームカード、ゲームカード 4dは識別情報 4のゲームカード 、ゲームカード 4eは識別情報 5のゲームカードを示す。
[0104] ゲームカード 4aにキャラクタ「男」が、ゲームカード 4cにキャラクタ「太鼓」が、ゲーム カード 4dにキャラクタ「レストランの建物」力 ゲームカード 4eにキャラクタ「郵便局の 建物」が、それぞれ重畳表示されている。なお、ゲームカード 4cには、太鼓とともに、 太鼓を叩くための「ばち」も表示される。このとき、ゲームカード 4bには、まだキャラクタ 「女」の表示はない。
[0105] 第 2の実施例のゲームアプリケーションでは、複数のゲームカード 4の配置位置が 所定の位置関係となる場合に、イベントを発生させて、そのイベントを実行することで 、ゲームストーリが進行する。プレイヤが複数のゲームカード 4を動かすことで、キャラ クタの動作パターンなどを変化させることができ、通常のゲームコントローラなどによる 操作とは違った楽しみをプレイヤに与えることができる。図 14の例では、ステージ 1で 定められている所定のイベントを実行することで、「女」のキャラクタがゲームカード 4b に登場する。
[0106] 位置関係検出部 310は、撮像装置 2により撮像されたフレーム画像に含まれる複数 のゲームカード 4の画像の位置関係を検出する。具体的には、まず、ゲーム進行処 理部 302が、複数のゲームカード 4の位置情報、方向情報、距離情報を、位置関係 検出部 310に引き渡す。位置関係検出部 310は、複数のゲームカード 4の位置情報 、距離情報をもとに、ゲームカード間の位置関係を検出する。ここでは、 2つ以上のゲ ームカード 4の全ての組合せについて、ゲームカード間の位置関係を検出することが 好ましい。例えば、位置関係検出部 310は、それぞれのゲームカード 4の中心座標 に基づいて、中心座標間の距離を算出してもよい。
[0107] 条件判定部 312は、位置関係検出部 310により検出された位置関係に基づいて、 ゲームカード 4間の位置関係が所定の条件を満足するか否かを判定する。ここでは、 少なくとも 2つのゲームカード 4の画像について検出した位置関係が所定の条件を満 たすか否かが判定される。条件判定の一例として、条件判定部 312は、ゲームカード 4の画像同士が接触している力否かを判定する。単純には、 2つのゲームカード画像 の中心座標の距離が所定の範囲内にある場合に、条件判定部 312は、ゲームカード 画像の接触を判定してもよ 、。
[0108] 条件判定部 312は、ゲームカード画像同士の接触を判定する際、ゲームカード画 像の向きを考慮する。ゲームカード画像の中心座標および向きにより、空間上におけ るゲームカード画像の配置を定めることができる。これにより、条件判定部 312は、空 間におけるゲームカード画像の配置を知ることができ、接触している力否かを判定で きる。このとき、向きを考慮することで、ゲームカード画像のどの辺が接触しているの 力も知ることができる。方向決定部 254によりゲームカード画像の向きは決定されて いるため、矩形のゲームカード力 前部の辺で接触しているの力 または左部の辺で 接触しているのかを、条件判定部 312は決定された方向情報により判定できる。条件 判定部 312が、接触判定時に、ゲームカード画像の向きを認識しておくことで、ゲー ムカード同士がどの向きで接触しているかで、発生させるイベントも異ならせることが 可能となる。条件判定部 312は、ゲームカード画像同士が接触していることを判定す ると、その判定結果、接触しているゲームカード画像の識別情報と、ゲームカード画 像の向きを、ゲーム進行処理部 302に通知する。ゲーム進行処理部 302は、表示制 御部 320に、これらの情報を伝える。以上の位置関係検出部 310と条件判定部 312 の処理は、同時に実行されてよい。
[0109] さらに条件判定部 312は、例えば 1つのゲームカード画像に仮想の視野角を設定 し、その視野角内に他のゲームカード画像が存在するか否かの判定を行ってもよい。 この条件判定は、位置関係検出部 310において検出された位置関係に基づいて実 行され、ゲーム中では、あるキャラクタの視野角に他のキャラクタが存在する力否かの 確認に利用される。条件判定部 312は、視野角内に他のゲームカード画像が存在し ていることを判定すると、その判定結果、視野角を設定したゲームカード画像の識別 情報、および視野角内に存在するゲームカード画像の識別情報をゲーム進行処理 部 302に通知する。これらの情報は、表示制御部 320に伝えられる。
[0110] 表示制御部 320は、条件判定部 312により所定の条件が満たされたことが判定さ れた場合に、条件を満たす少なくとも 2つのゲームカード画像の識別情報に基づい て、キャラクタの表示パターンを決定する。表示制御部 320は、ゲーム進行処理部 30 2より送られてきた判定結果、条件を満たしているゲームカード画像の識別情報、お よびゲームカード画像の向きを受け取り、表示パターン格納部 322を参照して、表示 パターンを決定する。
[0111] 表示パターン格納部 322は、仮想オブジェクトの表示パターンを格納する。表示パ ターンは、例えば、条件を満たす少なくとも 2つのゲームカード画像の識別情報に対 応するキャラクタ間の動作パターンであってよい。この動作パターンは、少なくとも 2つ のゲームカード画像の識別情報と、それらのゲームカード画像の向きとに対応付けら れて記憶されている。具体的に表示制御部 320は、例えば、識別情報 1のゲーム力 ード 4aと識別情報 3のゲームカード 4cとを、それぞれの前辺同士で接触させた場合 に、所定の動作パターンを表示パターン格納部 322から読み出すことができる。換言 すると、ゲームカード 4aの画像とゲームカード 4cの画像とが接触しており、且つ、そ れらが前辺同士で接触していること力 表示パターン格納部 322から表示パターンを 読み出すための要件として設定されている。したがって、ゲームカード 4aとゲーム力 ード 4cとがそれぞれの前辺と左辺とで接触していても、表示制御部 320は、表示パタ ーンを読み出すことはできない。
[0112] 表示制御部 320は、画像解析装置 220から送られるフレーム画像上に、複数のキ ャラクタの 3次元画像データを用いて、決定した表示パターンによりキャラクタの表示 処理を行う。
[0113] 図 15は、図 14に示す状態から、 2枚のゲームカードを接触させた状態を示す。ここ では、ゲームカード 4aとゲームカード 4cを接触させている。なお、ゲームカード 4aと ゲームカード 4cは、それぞれ前辺同士で接触されている。「男」はゲームカード 4aの 前辺方向を向いており、また「太鼓」もゲームカード 4cの前辺方向を向いて配置され ているため、「男」は、太鼓の正面に立つことで、太鼓を叩くことができる。逆にいうと、 「男」は太鼓の側面に立っても、太鼓を叩くことはできない。接触させるゲームカード 4 の識別情報および接触時の向きは、既述のように表示パターン格納部 322から表示 パターンを読み出すための要件となっている。したがって、それぞれのゲームカード の前辺同士を接触させることで、表示制御部 320は所定の動作パターンを読み出し 、男がゲームカード 4c上に置かれていたばちを握り、太鼓を叩く表示処理を実行す る。この一連の動きは、読み出された表示パターンにおいて定められたものである。 [0114] ゲームアプリケーションにお 、て、太鼓を叩く動作は「女」のキャラクタを登場させる ための条件となっており、ゲーム進行処理部 302は、男により太鼓が叩かれたことを 認識すると、「女」をゲームカード 4b上に登場させる。続いて、プレイヤは、男と女のキ ャラクタをレストランの前に移動させる。
[0115] 図 16は、図 15に示す状態から、 1枚のゲームカードに 2枚のゲームカードを接触さ せた状態を示す。ここでは、ゲームカード 4dの左辺に、ゲームカード 4aの前辺とゲー ムカード 4bの前辺とを接触させて 、る。接触させるゲームカードの識別情報および向 きは、既述のように表示パターンを読み出すための要件として設定されている。ステ ージ 1では、図 16のように、男と女のキャラクタをレストランの前に移動させることが、 ステージ 1を終了してステージ 2に進むための移行条件として設定されている。条件 判定部 312は、ゲームカード 4a、 4b、 4dについて図 16に示す位置関係を位置関係 検出部 310から通知されると、ゲームカード 4dの左辺に対してゲームカード 4a、 4b の前辺がそれぞれ接触していることを判定し、ゲーム進行処理部 302に報告する。ゲ ーム進行処理部 302は、この報告を受けると、ステージ 1の終了条件が成立したこと を認識し、ゲームステージの切替処理を行う。なお、条件判定部 312が、この終了条 件の成立を判定してもよい。ゲーム進行処理部 302は、次のステージ名(ステージ 2) をキャラクタ決定部 304に通知する。
[0116] キャラクタ決定部 304は、ステージ名を通知されると、図 13に示す対応関係を参照 して、ステージ 2に割り当てられた識別情報の 3次元画像データを読み出す。このよう に、キャラクタ決定部 304が、ステージに応じて参照する対応関係を変えることで、ス テージごとに新たなキャラクタを登場させることができ、ゲームストーリを充実させるこ とが可能となる。ステージ 2では、図 13に示したように、識別情報 3のゲームカードに キャラクタ「レストランのドア」、識別情報 4のゲームカードにキャラクタ「ウエイター」、識 別情報 5のゲームカードにキャラクタ「テーブルと椅子」が割り当てられ、図 16に示す キャラクタ表示が切り替えられる。
[0117] 第 2の実施例のゲームシステム 201では、ゲームカード画像の位置関係を利用して 、上記以外の様々な画像処理技術を実現することができる。
[0118] 図 17は、複数のゲームカード画像に 1つのキャラクタを割り当てる処理を説明する ための図である。
図 17 (a)は、 3枚のゲームカードに建物が割り当てられている状態を示す。ゲーム カード 4a、 4b、 4cに同一の建物が割り当てられている力 ここでは、割り当てるキャラ クタの対象は問題としない。図 17 (b)は、 3枚のゲームカードを接触させた状態を示 す。このとき、 3枚のゲームカード上に 1つの大きな建物が割り当てられている。
[0119] 表示パターン格納部 322は、条件を満たす少なくとも 2つのゲームカード画像に対 して、 1つの仮想オブジェクトを割り当てた表示パターンを記憶する。この例において 、表示パターン格納部 322は、 3つのゲームカード画像の識別情報 (識別情報 1、 2、 3)と、それらのゲームカード画像の接触部分の向きに対応付けた表示パターンを記 憶している。ここで、接触部分の向きは左右方向、すなわち、各ゲームカード画像が 左辺または右辺にて他のゲームカード画像と接触していることが、表示パターンを読 み出すための条件となる。
[0120] 条件判定部 312は、ゲームカード 4a、 4b、 4cが左右方向にて接触していることを判 定すると、その判定結果およびゲームカード画像の識別情報、画像の向きが、ゲーム 進行処理部 302を介して表示制御部 320に供給される。表示制御部 320は、これら の情報をもとに、表示パターン格納部 322から表示パターンを読み出す。表示制御 部 320は、表示パターンに基づいて、図 17 (b)に示す表示処理を行う。これにより、 キャラクタを大きく表示できるため、ゲームストーリにおいて新たな視覚効果を実現で きる。プレイヤは、ゲームカード同士をくつつけてみることで、予想もしないキャラクタ が登場することにもなり、ゲームの面白さを高めることもできる。
[0121] 図 18は、キャラクタの向きを変更する処理を説明するための図である。
図 18 (a)は、ゲームカード 4aのキャラクタ「男」とゲームカード 4bのキャラクタ「女」と の位置関係を示す。キャラクタ「男」から延びる 2本の破線 301は、男の仮想的な視野 角を示す。条件判定部 312は、ゲームカード 4aの位置情報および方向情報と、ゲー ムカード 4bの位置情報から、ゲームカード 4bの画像力 ゲームカード 4aの仮想的な 視野角に入っているかを判定する。なお、位置情報および方向情報は、位置関係検 出部 310より引き渡される。キャラクタ「女」が仮想的な視野角に入っていることを判定 すると、その判定結果およびゲームカード 4a、 4bの識別情報をゲーム進行処理部 3 02に伝える。ゲームカード 4aは、以後のプレイヤの操作により、矢印の経路に沿って 進められるものとする。
[0122] 図 18 (b)は、図 18 (a)に示す矢印に沿って動力した後の状態を示す。ゲームカー ド 4aのキャラクタは、本来前方方向を向くように設定されている力 この例ではゲーム カード 4bのキャラクタの方向を向いている。表示制御部 320は、ゲーム進行処理部 3 02からゲームカード 4a、 4bの識別情報と、ゲームカード 4bがゲームカード 4aの視野 角に入っていることを示す情報を受け取る。表示パターン格納部 322は、ゲームカー ド 4aのキャラクタがゲームカード 4bのキャラクタを見続けるように向きを変えることを示 す動作パターンを記憶している。この表示パターンは、これらのゲームカードと視野 角の関係が成立したことを条件として読み出し可能に設定されている。表示制御部 3 20は、この動作パターンを読み出し、図 18 (b)に示す表示処理を実行する。すなわ ち、表示制御部 320は、ゲームカード 4aのキャラクタの向きを、ゲームカード 4bのキ ャラクタの位置に応じて変化させる。これによりプレイヤは、ゲームカード 4aのキャラク タにとってゲームカード 4bのキャラクタがゲーム進行に重要な影響を及ぼす可能性 があることを認識する。このような表示態様は、プレイヤに対して、ゲームカード 4aを ゲームカード 4bに接触させて新たなイベントを発生させる契機を与えることになる。
[0123] 図 19は、仮想オブジェクトを伸縮して表示する処理を説明するための図である。
図 19 (a)は、ゲームカード 4aとゲームカード 4bとが接触した状態を示す。 2枚のゲ ームカードを接触させると、キャラクタ同士の間に、仮想オブジェクト 303が発生する。 この仮想オブジェクト 303は、図 19 (b)に示すように、ゲームカード同士を離すことに より、伸びるように表現される。一方、図 19 (b)に示す状態力も再びゲームカード同士 を近づけていくと、仮想オブジェクト 303は縮むように表現される。これにより、新たな 視覚効果を実現できる。なお、表示パターン格納部 322は、ゲームカード 4aとゲーム カード 4bの前辺同士が接触することで、キャラクタの間に、それらの位置関係に応じ て伸縮可能な仮想オブジェクトを発生させる表示パターンを記憶している。
[0124] 位置関係検出部 310が、ゲームカード画像間の位置関係が第 1の状態力も第 2の 状態に移行することを検出すると、表示制御部 320が、それぞれの識別情報に対応 するキャラクタ間において、それらを結ぶ仮想オブジェクトを伸縮して表示する表示 パターンを表示パターン格納部 322から読み出して決定する。表示制御部 320は、 その表示パターンを用いて、図 19 (a)および図 19 (b)に示す表示を行う。
[0125] 図 20は、ゲーム性を向上するために、プレイヤに課題をだした状態を示す。例えば 、その課題は、 2枚のゲームカード 4をくつつけたまま、ディスプレイ 7に表示される矢 印 305にしたがって、ゲームカード 4を台 3上で移動させるというものである。位置関 係検出部 310は、ゲームカード 4a、 4bのそれぞれの移動ベクトルを計算し、その平 均を 2枚のゲームカードの移動方向とする。移動ベクトルは、ゲームカード画像の中 心座標および距離情報をフレームごとにメモリ(図示せず)に保存し、前後のフレーム におけるゲームカード 4の距離変化および中心座標の差分力も算出される。条件判 定部 312は、移動ベクトルから、課題が達成されたカゝ否かを判定し、具体的には移動 ベクトルが矢印 305に沿っているかを判定して、ベクトルと矢印 305の向きが実質的 に同一であれば、課題をクリアできたものとする。プレイヤは課題をクリアすることで、 ゲーム上でオプション的なメリットなどを受けるようにしてもよ!、。
[0126] 図 21は、第 2の実施例の画像処理フローを示す。ゲーム装置 230において、位置 関係検出部 310が、撮像装置 2により撮像されたフレーム画像に含まれる複数のゲ ームカード 4の画像の位置関係を検出する(S 110)。条件判定部 312は、位置関係 検出部 310により検出された位置関係に基づいて、ゲームカード 4間の位置関係が 所定の条件を満足するか否かを判定する (S 112)。所定の条件が成立した場合 (S 1 12の Y)、表示制御部 320が、成立した条件に対応付けられた表示パターンを決定 して、表示パターン格納部 322から読み出す (S114)。表示制御部 320は、決定した 表示パターンによりキャラクタの表示処理を行う(S 116)。
[0127] 所定の条件が成立せず(S112の N)、ステージが継続する間(S118の N)、位置関 係検出部 310が、ゲームカード 4間の位置関係を検出し続ける。ステージが切り替わ ると(S 118の Y)、このフローは終了する。次のステージが開始すると、ステージに応 じたキャラクタの 3次元画像データが読み出され、上記したフローが実行される。
[0128] 以上、本発明を第 2の実施例をもとに説明した。この第 2の実施例は例示であり、そ れらの各構成要素や各処理プロセスの組合せに 、ろ 、ろな変形例が可能なこと、ま たそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 [0129] 上記した第 2の実施例では、ゲームカード 4間の位置関係に基づいて、キャラクタの 表示態様を制御した。ゲームアプリケーションの興趣を高めるために、キャラクタの表 示態様だけでなぐ音声などによる演出を行ってもよい。この場合、条件判定部 312 においてゲームカード 4間の位置関係が所定の条件を満たすことが判定されると、ゲ ーム進行処理部 302は、その旨を図示しない音声制御部に通知して、音声制御部が スピーカを通じてキャラクタの聴覚的な演出を行ってもよい。このとき、ゲーム装置 23 0は、画像処理装置として機能するだけでなぐ音声処理装置としても機能するため、 ゲーム装置 230を、画像および音声の両方を制御可能な処理装置と呼ぶこともでき る。なお、ゲーム装置 230は、ゲームカード 4間の位置関係に基づいて、音声制御の みを行ってもよい。
[0130] 以上、本発明を複数の実施例をもとに説明した。これらの実施例は例示であり、そ れらの各構成要素や各処理プロセスの組合せに 、ろ 、ろな変形例が可能なこと、ま たそうした変形例も本発明の範囲にあることは当業者に理解されるところである。第 1 の実施例および第 2の実施例につ ヽて説明したが、それぞれの実施例の内容を糸且 み合わせることで、より効果的に、仮想オブジェクトの表示態様を制御することができ る。
産業上の利用可能性
[0131] 本発明は、画像処理の分野に適用することができる。

Claims

請求の範囲
[1] 実オブジェクトを識別するための識別情報と、仮想オブジェクトの 3次元画像データ とを対応付けて記憶する格納部と、
撮像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報 に対応付けられた仮想オブジェクトの 3次元画像データを前記格納部から読み出す 読出部と、
読み出された 3次元画像データを用いて、前記仮想オブジェクトを、前記実ォブジ ェタトの表示位置に関連付けて表示装置に表示させる表示制御部と、
前記撮像装置により撮像された実オブジェ外画像の時間的な状態変化を検出す る変化検出部と、
を備え、
前記表示制御部は、前記変化検出部にお 、て検出された状態変化に基づ 、て仮 想オブジェクトの表示態様を制御することを特徴とする画像処理装置。
[2] 前記表示制御部は、前記表示装置にお!、て、前記実オブジェクトの表示位置に、 前記仮想オブジェクトを重ね合わせて表示させることを特徴とする請求項 1に記載の 画像処理装置。
[3] 前記変化検出部は、前記撮像装置にぉ 、て撮像される前記実オブジェクトの移動 量を監視する移動量監視部を有し、
前記表示制御部は、前記移動量監視部にぉ 、て前記実オブジェクトの移動速度が 所定の基準速度を超えて ヽることが判断された場合に、前記仮想オブジェクトを前記 実オブジェクトの移動に追従させないことを特徴とする請求項 1または 2に記載の画 像処理装置。
[4] 前記表示制御部は、前記仮想オブジェクトが前記実オブジェクトの表示位置に重な らな 、ように、前記仮想オブジェクトの移動を停止させることを特徴とする請求項 3に 記載の画像処理装置。
[5] 前記表示制御部は、前記実オブジェクトの表示位置と前記仮想オブジェクトの表示 位置が離れると、所定のタイミングで前記仮想オブジェクトを前記実オブジェクトの表 示位置まで移動させることを特徴とする請求項 3または 4に記載の画像処理装置。
[6] 前記変化検出部は、前記撮像装置にぉ 、て撮像される前記実オブジェクトの移動 量を監視する移動量監視部を有し、
前記表示制御部は、前記移動量監視部にぉ 、て前記実オブジェクトが往復運動を していることが検出された場合に、前記仮想オブジェクトの動作パターンを変化させ ることを特徴とする請求項 1から 5のいずれかに記載の画像処理装置。
[7] 前記変化検出部は、所定数の連続したフレーム画像において前記実オブジェクト が認識されな 、場合に、前記実オブジェクトが前記撮像装置により撮像されて 、な ヽ ことを判断する存在確認部を有し、
前記表示制御部は、前記存在確認部にぉ ヽて前記実オブジェクトが撮像されて ヽ な!、ことが判断された場合に、前記仮想オブジェクトを表示装置の画面から消すこと を特徴とする請求項 1から 6のいずれかに記載の画像処理装置。
[8] 前記変化検出部は、所定数の連続したフレーム画像において前記実オブジェクト が認識されな 、場合に、前記実オブジェクトが前記撮像装置により撮像されて 、な ヽ ことを判断する存在確認部を有し、
前記表示制御部は、前記存在確認部にぉ ヽて前記実オブジェクトが撮像されて ヽ る状態と撮像されて ヽな 、状態とが交互に繰り返されて ヽることが判定された場合に 、新たな仮想オブジェクトを表示装置に表示させることを特徴とする請求項 1から 7の V、ずれかに記載の画像処理装置。
[9] 前記変化検出部は、前記実オブジェクトの回転を検出する回転検出部を有し、 前記表示制御部は、前記回転検出部において前記実オブジェクトが回転している ことが検出された場合に、前記仮想オブジェクトの動作パターンを変化させることを特 徴とする請求項 1から 8のいずれかに記載の画像処理装置。
[10] 前記実オブジェクトの方向を定める方向決定部をさらに備え、
前記表示制御部は、前記仮想オブジェクトとともに、前記仮想オブジェクトとは別の 仮想オブジェクトを表示させ、前記変化検出部にぉ 、て前記実オブジェクトの状態変 化が検出されたことを契機として、前記方向決定部において決定された方向に、前 記仮想オブジェクトから離れるように、前記別の仮想オブジェクトを移動させることを 特徴とする請求項 1から 9のいずれかに記載の画像処理装置。
[11] 前記実オブジェクトの姿勢を決定する姿勢決定部と、
決定された姿勢から、前記実オブジェクトの傾斜した方向を定める方向決定部とを さらに備え、
前記表示制御部は、前記仮想オブジェクトとともに、前記仮想オブジェクトとは別の 仮想オブジェクトを表示させ、前記方向決定部において決定された方向に、前記仮 想オブジェクトから離れるように、前記別の仮想オブジェクトを移動させることを特徴と する請求項 1から 10のいずれかに記載の画像処理装置。
[12] 実オブジェクトを識別するための識別情報と、ゲームキャラクタの 3次元画像データ とを対応付けて記憶する格納部と、
撮像装置により撮像されたフレーム画像に含まれる実オブジェクト画像の識別情報 に対応付けられたゲームキャラクタの 3次元画像データを前記格納部から読み出す 読出部と、
読み出された 3次元画像データを用いて、前記ゲームキャラクタを、前記実ォブジ ェタトの表示位置に関連付けて表示装置に表示させる表示制御部と、
前記撮像装置により撮像された実オブジェ外画像の時間的な状態変化を検出す る変化検出部と、
を備え、
前記表示制御部は、前記変化検出部にぉ 、て検出された状態変化に基づ 、てゲ ームキャラクタの表示態様を制御することを特徴とするゲーム装置。
[13] ゲーム進行が複数のステージから構成される場合に、
前記格納部は、ステージごとに、実オブジェクトを識別するための識別情報と、ゲー ムキャラクタの 3次元画像データとを対応付けて記憶することを特徴とする請求項 12 に記載のゲーム装置。
[14] 実オブジェクトを識別するための識別情報と仮想オブジェクトの 3次元画像データと を対応付けて記憶した格納部から、撮像装置により撮像されたフレーム画像に含ま れる実オブジェクト画像の識別情報に対応付けられた仮想オブジェクトの 3次元画像 データを読み出すステップと、
読み出した 3次元画像データを用いて、前記仮想オブジェクトを、前記実オブジェク トの表示位置に関連付けて表示装置に表示させるステップと、
前記撮像装置により撮像された実オブジェ外画像の時間的な状態変化を検出す るステップと、
検出した状態変化に基づいて仮想オブジェクトの表示態様を制御するステップとを 備えることを特徴とする画像処理方法。
[15] コンピュータに、
実オブジェクトを識別するための識別情報と仮想オブジェクトの 3次元画像データと を対応付けて記憶した格納部から、撮像装置により撮像されたフレーム画像に含ま れる実オブジェクト画像の識別情報に対応付けられた仮想オブジェクトの 3次元画像 データを読み出させる機能と、
読み出させた 3次元画像データを用いて、前記仮想オブジェクトを、前記実ォブジ ェ外の表示位置に関連付けて表示装置に表示させる機能と、
前記撮像装置により撮像された実オブジェクト画像の時間的な状態変化を検出さ せる機能と、
検出させた状態変化に基づいて仮想オブジェ外の表示態様を制御する機能と、 を実行させるためのプログラム。
[16] 請求項 15に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
[17] 実オブジェクトを識別するための識別情報と、仮想オブジェクトの 3次元画像データ とを対応付けて記憶する格納部と、
撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の位 置関係を検出する位置関係検出部と、
少なくとも 2つの実オブジェクト画像について検出した位置関係が所定の条件を満 たす力否かを判定する条件判定部と、
フレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた 複数の仮想オブジェクトの 3次元画像データを格納部力 読み出す読出部と、 条件判定部により所定の条件が満たされたことが判定された場合に、条件を満たす 少なくとも 2つの実オブジェクト画像の識別情報に基づいて仮想オブジェクトの表示 ノターンを決定し、読み出された複数の 3次元画像データを用いて、決定した表示パ ターンにより仮想オブジェクトの表示処理を行う表示制御部と、
を備えることを特徴とする画像処理装置。
[18] 表示パターンは、条件を満たす少なくとも 2つの実オブジェクト画像の識別情報に 対応する仮想オブジェクト間の動作パターンを定めることを特徴とする請求項 17に記 載の画像処理装置。
[19] 表示パターンは、条件を満たす少なくとも 2つの実オブジェクト画像に対して、 1つ の仮想オブジェクトを割り当てることを特徴とする請求項 17に記載の画像処理装置。
[20] 条件判定部は、実オブジェクト画像同士が接触して 、る力否かを判定することを特 徴とする請求項 17から 19のいずれかに記載の画像処理装置。
[21] 条件判定部は、接触判定時に、実オブジェ外画像の向きを認識することを特徴と する請求項 20に記載の画像処理装置。
[22] 格納部は、実オブジェクトを識別するための識別情報と仮想オブジェクトの 3次元画 像データとの対応関係を複数記憶し、
前記読出部は、条件判定部により所定の条件が満たされたことが判定された場合 に、格納部における別の対応関係を参照して、識別情報をもとに 3次元画像データを 読み出すことを特徴とする請求項 17から 21のいずれかに記載の画像処理装置。
[23] 条件判定部により所定の条件が満たされたことが判定された場合に、前記表示制 御部は、 1つの実オブジェクト画像の識別情報に対応する仮想オブジェクトの向きを 、他の実オブジェクト画像の識別情報に対応する仮想オブジェクトの位置に応じて変 化させることを特徴とする請求項 17から 22のいずれかに記載の画像処理装置。
[24] 位置関係検出部により検出される実オブジェ外画像間の位置関係が第 1の状態か ら第 2の状態に移行するとき、表示制御部は、それぞれの実オブジェクト画像の識別 情報に対応する仮想オブジェクト間において、仮想オブジェクト同士間を結ぶ仮想ォ ブジェクトを伸ばし又は縮めて表示する表示パターンを決定することを特徴とする請 求項 17から 23のいずれかに記載の画像処理装置。
[25] 実オブジェクト画像の移動ベクトルから、条件判定部が、所定の課題が達成された か否かを判定することを特徴とする請求項 17から 24のいずれかに記載の画像処理 装置。
[26] 実オブジェクトを識別するための識別情報と、ゲームキャラクタの 3次元画像データ とを対応付けて記憶する格納部と、
撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の位 置関係を検出する位置関係検出部と、
少なくとも 2つの実オブジェクト画像について検出した位置関係が所定の条件を満 たす力否かを判定する条件判定部と、
フレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた 複数のゲームキャラクタの 3次元画像データを格納部力 読み出す読出部と、 条件判定部により所定の条件が満たされたことが判定された場合に、条件を満たす 少なくとも 2つの実オブジェクト画像の識別情報に基づ 、て、ゲームキャラクタの表示 ノターンを決定し、読み出された複数の 3次元画像データを用いて、決定した表示パ ターンによりゲームキャラクタの表示処理を行う表示制御部と、
を備えることを特徴とするゲーム装置。
[27] ゲーム進行が複数のステージから構成される場合に、
格納部は、ステージごとに、実オブジェクトを識別するための識別情報とゲームキヤ ラクタの 3次元画像データとを対応付けて記憶することを特徴とする請求項 26に記載 のゲーム装置。
[28] 撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の位 置関係を検出するステップと、
少なくとも 2つの実オブジェクト画像について検出した位置関係が所定の条件を満 たす力否かを判定するステップと、
実オブジェクトを識別するための識別情報と、仮想オブジェクトの 3次元画像データ とを対応付けて記憶する格納部から、フレーム画像に含まれる複数の実オブジェクト 画像の識別情報に対応付けられた複数の仮想オブジェクトの 3次元画像データを読 み出すステップと、
所定の条件が満たされたことが判定された場合に、条件を満たす少なくとも 2つの 実オブジェクト画像の識別情報に基づ 、て、仮想オブジェクトの表示パターンを決定 するステップと、 格納部力 読み出した複数の 3次元画像データを用いて、決定した表示パターン により仮想オブジェクトの表示処理を行うステップと、
を備えることを特徴とする画像処理方法。
[29] コンピュータに、
撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の位 置関係を検出させる機能と、
少なくとも 2つの実オブジェクト画像について検出した位置関係が所定の条件を満 たす力否かを判定させる機能と、
実オブジェクトを識別するための識別情報と、仮想オブジェクトの 3次元画像データ とを対応付けて記憶する格納部から、フレーム画像に含まれる複数の実オブジェクト 画像の識別情報に対応付けられた複数の仮想オブジェクトの 3次元画像データを読 み出させる機能と、
所定の条件が満たされたことが判定された場合に、条件を満たす少なくとも 2つの 実オブジェクト画像の識別情報に基づ 、て、仮想オブジェクトの表示パターンを決定 させる機能と、
格納部力 読み出した複数の 3次元画像データを用いて、決定した表示パターン により仮想オブジェクトの表示処理を行わせる機能と、
を実現させるためのプログラム。
[30] 請求項 29に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2005/009547 2004-09-01 2005-05-25 画像処理装置、ゲーム装置および画像処理方法 WO2006025137A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/661,585 US7991220B2 (en) 2004-09-01 2005-05-25 Augmented reality game system using identification information to display a virtual object in association with a position of a real object

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004254887A JP3844482B2 (ja) 2004-09-01 2004-09-01 画像処理装置
JP2004-254886 2004-09-01
JP2004254886A JP3841806B2 (ja) 2004-09-01 2004-09-01 画像処理装置および画像処理方法
JP2004-254887 2004-09-01

Publications (1)

Publication Number Publication Date
WO2006025137A1 true WO2006025137A1 (ja) 2006-03-09

Family

ID=35999801

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/009547 WO2006025137A1 (ja) 2004-09-01 2005-05-25 画像処理装置、ゲーム装置および画像処理方法

Country Status (2)

Country Link
US (1) US7991220B2 (ja)
WO (1) WO2006025137A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100130286A1 (en) * 2008-11-25 2010-05-27 Disney Enterprises, Inc. System and method for personalized location-based game system including optical pattern recognition
JP2011503673A (ja) * 2006-11-01 2011-01-27 ソニー株式会社 モーションピクチャにおけるセグメント追跡
US8821238B2 (en) * 2008-11-25 2014-09-02 Disney Enterprises, Inc. System and method for personalized location-based game system including optical pattern recognition
JP2015191531A (ja) * 2014-03-28 2015-11-02 株式会社トッパンTdkレーベル 2次元コードの空間位置の決定方法及びそのための装置
WO2017119160A1 (ja) * 2016-01-07 2017-07-13 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及びサーバ
JP2021196855A (ja) * 2020-06-14 2021-12-27 株式会社スクウェア・エニックス 拡張現実表示装置及びプログラム
WO2023120372A1 (ja) * 2021-12-21 2023-06-29 株式会社セガ プログラム及び情報処理装置

Families Citing this family (124)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4847192B2 (ja) * 2006-04-14 2011-12-28 キヤノン株式会社 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法
JP4757115B2 (ja) * 2006-06-28 2011-08-24 キヤノン株式会社 画像処理装置、画像処理方法
JP3998701B1 (ja) * 2006-12-28 2007-10-31 健治 吉田 ドットパターンが設けられたカード
JP4142076B2 (ja) * 2006-12-28 2008-08-27 株式会社タカラトミー ゲーム装置
US8632400B2 (en) * 2007-04-30 2014-01-21 Patent Investment & Licensing Company Gaming device with personality
WO2009001384A1 (en) * 2007-06-28 2008-12-31 Steltronic S.P.A. System and method of graphical representation of the bowling game score
WO2010029553A1 (en) * 2008-09-11 2010-03-18 Netanel Hagbi Method and system for compositing an augmented reality scene
US8133119B2 (en) * 2008-10-01 2012-03-13 Microsoft Corporation Adaptation for alternate gaming input devices
US8294767B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8773355B2 (en) * 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) * 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
JP5558730B2 (ja) * 2009-03-24 2014-07-23 株式会社バンダイナムコゲームス プログラム及びゲーム装置
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8503720B2 (en) * 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
GB2470072B (en) * 2009-05-08 2014-01-01 Sony Comp Entertainment Europe Entertainment device,system and method
US20100295771A1 (en) * 2009-05-20 2010-11-25 Microsoft Corporation Control of display objects
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8625837B2 (en) * 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8744121B2 (en) * 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US8803889B2 (en) 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US7914344B2 (en) * 2009-06-03 2011-03-29 Microsoft Corporation Dual-barrel, connector jack and plug assemblies
US8286084B2 (en) * 2009-06-08 2012-10-09 Swakker Llc Methods and apparatus for remote interaction using a partitioned display
US20100310193A1 (en) * 2009-06-08 2010-12-09 Castleman Mark Methods and apparatus for selecting and/or displaying images of perspective views of an object at a communication device
US20100309196A1 (en) * 2009-06-08 2010-12-09 Castleman Mark Methods and apparatus for processing related images of an object based on directives
CN101930284B (zh) * 2009-06-23 2014-04-09 腾讯科技(深圳)有限公司 一种实现视频和虚拟网络场景交互的方法、装置和系统
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
WO2011063197A1 (en) * 2009-11-20 2011-05-26 Wms Gaming, Inc. Integrating wagering games and environmental conditions
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5898842B2 (ja) 2010-01-14 2016-04-06 任天堂株式会社 携帯型情報処理装置、携帯型ゲーム装置
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
JP4757948B1 (ja) 2010-06-11 2011-08-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
JP5647819B2 (ja) 2010-06-11 2015-01-07 任天堂株式会社 携帯型電子機器
EP2395769B1 (en) 2010-06-11 2015-03-04 Nintendo Co., Ltd. Image display program, image display system, and image display method
KR101295710B1 (ko) * 2010-07-28 2013-08-16 주식회사 팬택 사용자 인식 정보를 이용한 증강 현실 제공 장치 및 방법
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP5814532B2 (ja) * 2010-09-24 2015-11-17 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
KR101669119B1 (ko) * 2010-12-14 2016-10-25 삼성전자주식회사 다층 증강 현실 시스템 및 방법
US8845110B1 (en) * 2010-12-23 2014-09-30 Rawles Llc Powered augmented reality projection accessory display device
US8905551B1 (en) * 2010-12-23 2014-12-09 Rawles Llc Unpowered augmented reality projection accessory display device
US8845107B1 (en) 2010-12-23 2014-09-30 Rawles Llc Characterization of a scene with structured light
US9721386B1 (en) 2010-12-27 2017-08-01 Amazon Technologies, Inc. Integrated augmented reality environment
US9508194B1 (en) 2010-12-30 2016-11-29 Amazon Technologies, Inc. Utilizing content output devices in an augmented reality environment
US9607315B1 (en) 2010-12-30 2017-03-28 Amazon Technologies, Inc. Complementing operation of display devices in an augmented reality environment
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
JP5704963B2 (ja) 2011-02-25 2015-04-22 任天堂株式会社 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム
US20120259744A1 (en) * 2011-04-07 2012-10-11 Infosys Technologies, Ltd. System and method for augmented reality and social networking enhanced retail shopping
JP5702653B2 (ja) * 2011-04-08 2015-04-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
JP5735861B2 (ja) * 2011-06-01 2015-06-17 任天堂株式会社 画像表示プログラム、画像表示装置、画像表示方法、画像表示システム、マーカ
JP5718197B2 (ja) 2011-09-14 2015-05-13 株式会社バンダイナムコゲームス プログラム及びゲーム装置
JP5821526B2 (ja) 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
CN103959344B (zh) * 2011-12-20 2017-03-01 英特尔公司 跨越多个设备的增强现实表示
US8606645B1 (en) 2012-02-02 2013-12-10 SeeMore Interactive, Inc. Method, medium, and system for an augmented reality retail application
JP5807686B2 (ja) * 2012-02-10 2015-11-10 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9277367B2 (en) 2012-02-28 2016-03-01 Blackberry Limited Method and device for providing augmented reality output
JP5776903B2 (ja) * 2012-03-02 2015-09-09 カシオ計算機株式会社 画像処理装置及び画像処理方法並びにプログラム
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US20130317901A1 (en) * 2012-05-23 2013-11-28 Xiao Yong Wang Methods and Apparatuses for Displaying the 3D Image of a Product
JP5891125B2 (ja) 2012-06-29 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
US10387484B2 (en) 2012-07-24 2019-08-20 Symbol Technologies, Llc Mobile device for displaying a topographical area defined by a barcode
KR102009928B1 (ko) * 2012-08-20 2019-08-12 삼성전자 주식회사 협업 구현 방법 및 장치
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
JP2014191718A (ja) 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
JP2014191688A (ja) * 2013-03-28 2014-10-06 Sony Corp 情報処理装置、情報処理方法、及び、記憶媒体
JP5790692B2 (ja) * 2013-03-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
JP6141079B2 (ja) * 2013-04-08 2017-06-07 キヤノン株式会社 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
US9443354B2 (en) * 2013-04-29 2016-09-13 Microsoft Technology Licensing, Llc Mixed reality interactions
CN104423563A (zh) * 2013-09-10 2015-03-18 智高实业股份有限公司 非接触式实时互动方法及其系统
US20150077340A1 (en) * 2013-09-18 2015-03-19 Genius Toy Taiwan Co., Ltd. Method, system and computer program product for real-time touchless interaction
TW201528052A (zh) * 2014-01-13 2015-07-16 Quanta Comp Inc 互動系統和互動方法
US9615177B2 (en) 2014-03-06 2017-04-04 Sphere Optics Company, Llc Wireless immersive experience capture and viewing
US9677840B2 (en) 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
JP6314564B2 (ja) * 2014-03-17 2018-04-25 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US9626804B2 (en) * 2014-05-26 2017-04-18 Kyocera Document Solutions Inc. Article information providing apparatus that provides information of article, article information providing system,and article information provision method
KR20170055982A (ko) 2014-09-10 2017-05-22 하스브로, 잉크. 수동식 스캐너를 구비한 토이 시스템
WO2016070192A1 (en) * 2014-10-31 2016-05-06 LyteShot Inc. Interactive gaming using wearable optical devices
US9727977B2 (en) * 2014-12-29 2017-08-08 Daqri, Llc Sample based color extraction for augmented reality
EP3286718A4 (en) 2015-04-23 2018-12-05 Hasbro, Inc. Context-aware digital play
GB2540732A (en) * 2015-05-21 2017-02-01 Blue Sky Designs Ltd Augmented reality images and method
JP2017134775A (ja) * 2016-01-29 2017-08-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10720082B1 (en) * 2016-09-08 2020-07-21 Ctskh, Llc Device and system to teach stem lessons using hands-on learning method
KR102581146B1 (ko) * 2018-11-23 2023-09-21 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US20220215609A1 (en) * 2019-04-22 2022-07-07 Sony Group Corporation Information processing device, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09115004A (ja) * 1995-10-13 1997-05-02 Hitachi Ltd 画像生成/表示装置
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2000353248A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実感提示方法
JP2003103052A (ja) * 2001-09-28 2003-04-08 Canon Inc 映像体験システム、情報処理方法およびプログラム
JP2003256876A (ja) * 2002-03-04 2003-09-12 Sony Corp 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6750848B1 (en) * 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
JP2000322602A (ja) 1999-05-12 2000-11-24 Sony Corp 画像処理装置および方法、並びに媒体
US20030062675A1 (en) * 2001-09-28 2003-04-03 Canon Kabushiki Kaisha Image experiencing system and information processing method
JP2003219424A (ja) 2002-01-21 2003-07-31 Canon Inc 画像変化検知装置及びその方法並びにコンピュータプログラム
US7474318B2 (en) * 2004-05-28 2009-01-06 National University Of Singapore Interactive system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09115004A (ja) * 1995-10-13 1997-05-02 Hitachi Ltd 画像生成/表示装置
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2000353248A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実感提示方法
JP2003103052A (ja) * 2001-09-28 2003-04-08 Canon Inc 映像体験システム、情報処理方法およびプログラム
JP2003256876A (ja) * 2002-03-04 2003-09-12 Sony Corp 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
IMAMOTO K. ET AL: "A Study on Communication in Collaborative Augmented Reality Environment with Virtual Object Manipulation Task", THE INSTITUTE OF ELECTRONICS, INFORMATION ANOKU HIP2001-78 TO 91 HUMAN INFORMATION PROCESSING, vol. 101, no. 594, 17 January 2002 (2002-01-17), pages 31 - 36, XP002997795 *
OHSHIMA T. ET AL: "RV-Border Guards: Fukusunin Sankagata Fukugo Genjitsukan Game", TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF JAPAN, vol. 4, no. 4, 31 December 2003 (2003-12-31), pages 699 - 705, XP002997796 *
TAMURA H. ET AL: "Fukugo Genjitsukan to Vision Gijutsu", O PLUS E, vol. 24, no. 12, 5 December 2002 (2002-12-05), pages 1372 - 1377, XP002997797 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011503673A (ja) * 2006-11-01 2011-01-27 ソニー株式会社 モーションピクチャにおけるセグメント追跡
US20100130286A1 (en) * 2008-11-25 2010-05-27 Disney Enterprises, Inc. System and method for personalized location-based game system including optical pattern recognition
US8313381B2 (en) * 2008-11-25 2012-11-20 Disney Enterprises, Inc. System and method for personalized location-based game system including optical pattern recognition
US8821238B2 (en) * 2008-11-25 2014-09-02 Disney Enterprises, Inc. System and method for personalized location-based game system including optical pattern recognition
JP2015191531A (ja) * 2014-03-28 2015-11-02 株式会社トッパンTdkレーベル 2次元コードの空間位置の決定方法及びそのための装置
WO2017119160A1 (ja) * 2016-01-07 2017-07-13 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及びサーバ
JP2021196855A (ja) * 2020-06-14 2021-12-27 株式会社スクウェア・エニックス 拡張現実表示装置及びプログラム
JP7369669B2 (ja) 2020-06-14 2023-10-26 株式会社スクウェア・エニックス 拡張現実表示装置及びプログラム
WO2023120372A1 (ja) * 2021-12-21 2023-06-29 株式会社セガ プログラム及び情報処理装置

Also Published As

Publication number Publication date
US7991220B2 (en) 2011-08-02
US20080100620A1 (en) 2008-05-01

Similar Documents

Publication Publication Date Title
WO2006025137A1 (ja) 画像処理装置、ゲーム装置および画像処理方法
JP3841806B2 (ja) 画像処理装置および画像処理方法
JP5241807B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP4626182B2 (ja) 対戦ゲーム処理方法、対戦ゲームシステム、そのプログラム及び記憶媒体
KR100969873B1 (ko) 가상 공간과 현실 공간을 연계한 로봇 게임 시스템 및 로봇게임 방법
EP2371434B1 (en) Image generation system, image generation method, and information storage medium
US20100203969A1 (en) Game device, game program and game object operation method
JP3844482B2 (ja) 画像処理装置
US20110305398A1 (en) Image generation system, shape recognition method, and information storage medium
JP2008228941A (ja) ゲーム装置、進行制御方法、および、プログラム
JP2004283419A (ja) ゲーム情報、情報記憶媒体及びゲーム装置
JP2000003445A (ja) 情報抽出方法および情報抽出装置および記録媒体
JP2006260602A (ja) 画像処理装置
JP4797439B2 (ja) ゲーム装置及びプログラム
JP5425940B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
KR101244646B1 (ko) 가상 공간과 현실 공간을 연계한 로봇 게임 시스템
JP2001273503A (ja) モーション認識システム
JP5396212B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2010137097A (ja) ゲーム装置および情報記憶媒体
JP5651325B2 (ja) ゲーム装置
JP4218963B2 (ja) 情報抽出方法、情報抽出装置及び記録媒体
JP5746644B2 (ja) ゲーム装置及びプログラム
JP2009165577A (ja) ゲームシステム
JP2011101765A5 (ja)
JP2011101764A (ja) ゲーム装置、このゲーム装置を実現するためのプログラム、および、このプログラムを記録した記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11661585

Country of ref document: US

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 11661585

Country of ref document: US