WO2017179309A1 - 処理装置および投影画像生成方法 - Google Patents

処理装置および投影画像生成方法 Download PDF

Info

Publication number
WO2017179309A1
WO2017179309A1 PCT/JP2017/006670 JP2017006670W WO2017179309A1 WO 2017179309 A1 WO2017179309 A1 WO 2017179309A1 JP 2017006670 W JP2017006670 W JP 2017006670W WO 2017179309 A1 WO2017179309 A1 WO 2017179309A1
Authority
WO
WIPO (PCT)
Prior art keywords
card
projection
image
unit
detection unit
Prior art date
Application number
PCT/JP2017/006670
Other languages
English (en)
French (fr)
Inventor
拓也 久慈
翼 山下
智公 城田
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Publication of WO2017179309A1 publication Critical patent/WO2017179309A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present invention relates to a technique for projecting an image from a projector which is a projection device.
  • Patent Document 1 discloses an image projection including a card with a marker, a projection device that projects an image onto the card, a card detection sensor for detecting the marker attached to the card, and a processing device. Disclose the system. The processing device acquires the position where the card is arranged using the detection result of the card detection sensor, and the projection device projects an image associated with the card.
  • trading card game machines have been installed in game centers, toy stores, supermarkets, and the like.
  • a user collects cards and advances the game by playing cards with each other.
  • Each card has various designs and characters such as original monsters and animated characters. For example, a characteristic value representing the ability and attribute of the character is set in the card, and the progress and win / loss of the game are determined according to the card issued by the user.
  • the technique of adding effects by a projector to a card game provides a new way to enjoy a card game.
  • the present inventor has developed a technique for smoothly executing a card game and a technique for a new user interface for performing a game operation in a system including a camera and a projector.
  • the present invention aims to provide a technique for carrying out a card game.
  • a processing device includes a captured image acquisition unit that acquires a captured image obtained by capturing an area including a projection area projected by a projector, and recognition of a card included in the captured image.
  • a recognition processing unit that executes processing, a projection image generation unit that generates a projection image to be projected by the projector based on the card recognized by the recognition processing unit, and a new second on the recognized first card
  • a superimposition detection unit for detecting that the cards are superimposed.
  • Another aspect of the present invention is a method for generating a projection image to be projected by a projector.
  • This method includes a step of acquiring a captured image obtained by capturing an area including a projection region projected by a projector, a step of executing a recognition process for a card included in the captured image, and a projection by a projector based on the recognized card. Generating a projection image to be detected, and detecting that a new second card is superimposed on the recognized first card.
  • the present invention provides a technique for projecting image light from a projector, which is a projection device, in accordance with cards arranged in a play area.
  • the card to be used has a predetermined flat plate shape, and the card is given a mark for specifying the card.
  • the processing device detects the mark included in the captured image, the irradiation light pattern of the projector is controlled, and image light for enhancing the game effect is projected from the projector.
  • the mark may be configured as a one-dimensional or two-dimensional pattern such as a code or a design.
  • FIG. 1 shows a configuration of an image projection system 1 according to an embodiment of the present invention.
  • the image projection system 1 includes a processing device 10 that performs processing related to a game, and an optical device 20 that supplies a captured image to the processing device 10 and is supplied with a projection image from the processing device 10.
  • the processing device 10 is connected to a user interface device for a user to input, such as a keyboard, a mouse, and a game controller.
  • the optical device 20 includes a projector 21, an infrared camera 22, and a visible light camera 23.
  • the projector 21 and the infrared camera 22 are preferably housed integrally in the optical device 20, but the visible light camera 23 may be provided in a separate housing from the optical device 20.
  • the optical device 20 may include a second infrared camera separately from the infrared camera 22.
  • Projector 21 forms projection region 4 by irradiating projection light.
  • the projection area 4 is substantially rectangular, and the projection area 4 defines an area (play area) where the user places the card 7 and plays the game.
  • the projector 21 forms the projection area 4 on the table 2, but the projection plane may be any plane on which the card 7 can be placed.
  • the projector 21 is preferably controlled in advance so that the projection area 4 is substantially rectangular on the projection surface. The user may place the card 7 outside the projection area 4, but the effect image by the projector 21 is not projected at a place outside the projection area 4.
  • the infrared camera 22 images the imaging area 5.
  • the infrared camera 22 may have an infrared light source.
  • the imaging region 5 includes at least the projection region 4 by the projector 21, that is, the infrared camera 22 captures an area wider than the projection region 4.
  • the image captured by the infrared camera 22 is supplied to the processing device 10 and used to detect a real object.
  • the actual object to be detected in the embodiment is typically a rectangular card 7, but includes an object that generates an instruction for the card 7, such as a user's finger or a game coin. Note that an object such as a user's finger may be detected by an image captured by the second infrared camera.
  • the projection area 4 forming the play area is set between the infrared camera 22 and the user.
  • the infrared camera 22 images the projection area 4 from an oblique direction, and as a result, the front side (side near the infrared camera 22) of the imaging area 5 is relatively large and the back side of the imaging area 5 (side far from the infrared camera 22). ) Is relatively small. Since the infrared camera 22 cannot capture the projection area 4 from the direction perpendicular to the table 2, the card 7 is not captured in the original rectangle but is captured in a distorted shape depending on the distance from the infrared camera 22.
  • a play area is set between the user and the optical device 20, but the optical device 20 is arranged in front of the user and irradiates the projection light from the lateral direction to the front of the user.
  • a play area may be formed.
  • the infrared camera 22 has a relatively large front side (side closer to the infrared camera 22) of the imaging region 5 and a relatively far side (side far from the infrared camera 22) of the imaging region 5.
  • the card 7 is imaged in a distorted shape.
  • the captured image of the infrared camera 22 is supplied to the processing device 10 in real time, and the processing device 10 detects the mark of the card 7 included in the captured image and recognizes the card 7.
  • This recognition process is a process for finding a matching mark by comparing the detected mark with a plurality of marks registered in the database. If the detected mark is distorted, the recognition process may be hindered. .
  • the processing apparatus 10 of the embodiment performs a calibration process for correcting the captured image so that the card 7 captured by the infrared camera 22 becomes an original rectangle before the card game is started.
  • the calibration process includes a conversion matrix for converting an image captured from the oblique direction by the infrared camera 22 into an image captured from right above the projection area 4 and a homography matrix for correcting the aspect ratio of the converted captured image.
  • the card 7 is recognized based on the corrected image obtained by correcting the captured image.
  • the corrected image is an image that is captured when the infrared camera 22 is placed immediately above the projection region 4.
  • the processing device 10 displays the captured image of the infrared camera 22 on the display device 3 so that the user can smoothly proceed with work related to calibration.
  • the visible light camera 23 also images the imaging area on the table 2 in the same manner as the infrared camera 22.
  • the visible light camera 23 is provided to distribute the state of game play by the user to a network such as the Internet. If the distribution image is distorted, it is difficult for the user who receives the distribution to see. Therefore, it is preferable that the processing apparatus 10 performs a calibration process similar to that of the infrared camera 22 and distributes the corrected captured image.
  • the access point (hereinafter referred to as “AP”) 6 has the functions of a wireless access point and a router, and the processing device 10 connects to the AP 6 wirelessly or via a wired connection to the Internet.
  • the user can play a game against other users connected to the Internet, and the processing apparatus 10 distributes the captured image of the visible light camera 23, more precisely, the corrected image to the other user.
  • a captured image is received from the user and displayed on the display device 3.
  • the visible light camera 23 is used to distribute game play.
  • the processing device 10 may be configured to record a battle record on a dedicated server on the Internet, and a network system may be constructed so that the player's own battle record and the battle record of another user can be viewed.
  • the processing device 10 executes a recognition process of the card 7 included in the captured image of the infrared camera 22 and controls the image projection of the projector 21.
  • the processing device 10 may be a game dedicated machine that executes a card game application program (hereinafter also referred to as a “card game program”), but may also be a personal computer that executes the program.
  • the processing device 10 has a function of receiving a captured image from the infrared camera 22 and generating a projection image according to the card 7 arranged in the play area. As will be described later, the processing apparatus 10 not only performs an effect corresponding to the recognized card 7, but also recognizes the status of the recognized card 7, a combination of a plurality of cards 7, and an instruction from the user to the card 7.
  • a projection image is dynamically generated so as to increase the user's interest in the game according to the presence or absence, and the image projection of the projector 21 is controlled.
  • the card 7 may be provided with a marker that is invisible to the user and that can be detected by a non-visible light sensor such as an infrared sensor, as disclosed in Patent Document 1, for example, as an identification mark.
  • This marker is a dedicated mark added to the card 7 so that the processing device 10 can recognize the card, and is printed with a non-visible light reflecting material or a non-visible light absorbing material in order to improve the detection accuracy of the infrared sensor. It is preferable.
  • the processing apparatus 10 prepares a database in which symbols or feature points of symbols of all cards 7 in the game are registered in advance.
  • the processing device 10 registers information related to the symbols of all the cards 7 in a database in a manner that can be compared with the symbols of the captured cards 7.
  • FIG. 2 shows functional blocks of the processing apparatus 10.
  • the processing device 10 includes a captured image acquisition unit 100, a position reception unit 102, a display processing unit 104, an image conversion unit 110, a recognition processing unit 120, a projection image generation unit 130, and an instruction detection unit 140 as processing functions.
  • the processing device 10 is an auxiliary storage device such as an HDD, and includes a mark storage unit 150, an instruction storage unit 152, and an effect storage unit 154.
  • the mark storage unit 150 is a database that stores a plurality of marks for comparing marks (designs) included in a captured image by pattern matching.
  • the processing function of the processing apparatus 10 in this embodiment is realized by a CPU, a memory, a program loaded in the memory, and the like, and here, a configuration realized by the cooperation thereof is depicted. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the processing device 10 obtains in advance a correction parameter for eliminating the distortion of the captured card 7, and after the game starts, a corrected image obtained by correcting the captured image using the correction parameter.
  • card recognition processing is performed.
  • the card game program has a calibration mode and a game mode, and the calibration mode is always executed before the game mode is executed, so that an appropriate correction parameter corresponding to the play environment is obtained.
  • the calibration program is included in the system software of the processing apparatus 10, and the system software obtains correction parameters before the game program is executed, and supplies the corrected captured image to the game program. May be.
  • the captured image acquisition unit 100 acquires a captured image obtained by capturing an area including at least the substantially rectangular projection area 4 projected by the projector 21.
  • the display processing unit 104 receives the captured image captured by the infrared camera 22 from the captured image acquisition unit 100 and displays the captured image on the display device 3 so that the user is positioned below the screen.
  • the captured image is rotated 180 degrees so as to be positioned and displayed.
  • the display processing unit 104 rotates the captured image by 180 degrees and causes the display device 3 to display the image, so that an image that does not give the user a sense of discomfort is output from the display device 3.
  • FIG. 3 shows an initial screen in the calibration mode.
  • the display processing unit 104 displays a 180 ° rotated image of the image captured by the infrared camera 22 on the display device 3.
  • the user's hand is displayed in the direction from the bottom to the top.
  • the display processing unit 104 does not perform the rotation process, the user's hand is in the direction from the top to the bottom. Will be displayed on the screen, giving the user a sense of incongruity. Therefore, the display processing unit 104 performs rotation processing of the captured image.
  • the projector 21 irradiates the table 2 with projection light.
  • the projector 21 automatically irradiates the table 2 with white light.
  • the projection image generation unit 130 performs projection control so that the projector 21 projects white light. Also good.
  • the projection light may not be white light, and may be any light that allows the user to visually recognize the projection region 4.
  • the projection area 4a indicated by the alternate long and short dash line virtually indicates the area of the projection light irradiated on the table 2.
  • the infrared camera 22 does not capture the reflected light of the projected white light. Therefore, the projection area 4 a is not displayed on the display device 3, and the user cannot confirm the projection area 4 a from the screen of the display device 3.
  • FIG. 4 shows a guidance screen displayed on the display device 3.
  • the display processing unit 104 displays the guidance sentence 30 a on the display device 3.
  • the attached marker is a calibration marker included in the optical device 20, and is made of a material that can be imaged by the infrared camera 22.
  • the user arranges the markers at the four corners of the projection area 4 on the table 2 in accordance with the guide sentence 30a.
  • the marker may be, for example, a hollow black marker.
  • the projection image generation unit 130 may generate a projection image including the guidance sentence 30 a and cause the projector 21 to project the projection image. The user recognizes the work to be performed by looking at the guidance sentence 30 a displayed in the projection area 4.
  • FIG. 5 shows four black circle markers 32a to 32d that have been imaged.
  • the guidance sentence 30a may continue to be displayed on the display device 3.
  • the user operates the user interface device to notify the processing device 10 that the black circle markers have been arranged.
  • a double click of the mouse may be set as a trigger for notifying the processing device 10 of the completion of work and proceeding to the next work.
  • There may be various triggers for proceeding to the next operation. For example, when the user utters a predetermined word, the processing apparatus 10 recognizes that the black circle marker is arranged by analyzing the voice, You may proceed to the next task.
  • FIG. 6 shows a guidance screen displayed on the display device 3.
  • the display processing unit 104 displays the guidance sentence 30b.
  • the user places one card 7 in the center of the projection area 4 in accordance with the guidance sentence 30b.
  • the display processing unit 104 may display information indicating the placement location of the card 7 together with the guidance sentence 30b.
  • the projection image generation unit 130 may generate a projection image including the guidance sentence 30 b and project the projection image from the projector 21.
  • FIG. 7 shows an image of the card 7 placed in the projection area 4 by the user.
  • the card 7 is arranged vertically in the approximate center of the projection area 4.
  • the infrared camera 22 images the projection area 4 obliquely from above, the rectangular card 7 is a captured image.
  • the image is captured in a trapezoidal shape.
  • FIG. 8 shows a guidance screen displayed on the display device 3.
  • the display processing unit 104 displays the guidance sentence 30c.
  • the user performs a designation operation (click operation) by placing the mouse pointer on the black circle markers 32 a to 32 d displayed on the guidance screen of the display device 3.
  • the position receiving unit 102 receives a position designation from the user in the captured image displayed on the display device 3. Specifically, the position receiving unit 102 receives the position coordinates on the captured image designated by the user with the mouse on the guidance screen shown in FIG. In this example, a mouse is used as the user interface device. However, the user may specify the position by moving the pointer displayed on the display device 3 with the game controller. In the image conversion unit 110, the region specifying unit 114 specifies a quadrangular region from the four designated positions received by the position receiving unit 102.
  • the area specifying unit 114 may automatically detect the four black circle markers from the picked-up images obtained by picking up the black circle markers 32a to 32d and specify the square area.
  • the area specifying unit 114 can extract the black circle markers 32a to 32d from the captured image and store the position coordinates by storing the shape of the calibration marker in advance.
  • the marker designation operation by the user is not necessary, and thus it is not necessary to display the guidance sentence 30c.
  • the area specifying unit 114 specifies a rectangular area in the image captured by the infrared camera 22 by a user's designation operation or by automatic marker detection. This rectangular area defines an area for the user to place the card 7 and thus defines a correction area for the captured image.
  • the image correction unit 116 performs image correction on at least the rectangular area specified by the area specifying unit 114.
  • the rectangular area that defines the correction area may be set inside the projection area 4 or within the range of the imaging area 5. May be set outside the projection area 4.
  • the image correction unit 116 sets the inside square area as an image correction target area, and if the square area is set outside the projection area 4, the image correction unit 116.
  • Reference numeral 116 designates the outer rectangular area as an image correction target area.
  • the mark storage unit 150 stores the marks of all the cards 7 prepared in the card game and the identification information (hereinafter referred to as card ID) of the cards 7 in association with each other.
  • the mark is a pattern such as a character drawn on the surface of the card 7, and the mark storage unit 150 includes a feature pattern expressing the positional relationship of a plurality of feature points extracted in advance for each mark, and the card The ID may be stored in association with each other.
  • the card detection unit 112 extracts the feature point of the mark of the card 7 from the captured image, refers to the feature pattern of the plurality of marks stored in the mark storage unit 150, and detects the card 7 arranged in the projection area. Specify the card ID.
  • the mark storage unit 150 stores the center position of the card 7 in the feature pattern. When the card detection unit 112 detects a matching mark by pattern matching, the mark inclination (card) 7 posture) and the center position of the card 7 can be specified.
  • the object to be used is not limited to the card 7, and any object can be used as long as it can be imaged by the infrared camera 22 and can be detected from the captured image by the card detection unit 112.
  • the feature pattern of the mark of each card 7 is registered in the mark storage unit 150, and the processing device 10 is equipped with a card recognition engine, so that the card 7 can be used for calibration processing.
  • the image correction unit 116 corrects the captured image so that the captured card shape is similar to the known shape of the card 7.
  • the image correction unit 116 performs a process for locating the position of the infrared camera 22 that is capturing the projection region 4 from an oblique position directly above the projection region 4.
  • a three-dimensional space with the center position of the card 7 detected by the card detection unit 112 as the origin is set, and the inclination ⁇ between the card center position and the infrared camera 22 in the set three-dimensional space is derived.
  • a conversion matrix for converting the captured image so as to eliminate distortion of the captured image in accordance with the distance from the camera 22 is obtained.
  • the infrared camera 22 that captures the projection region 4 from an oblique angle captures the front side of the infrared camera 22 in a large size and the back side of the infrared camera 22 in a small size
  • the infrared camera 22 is simulated to be directly above the projection region 4.
  • the image correction unit 116 can autonomously detect the inclination ⁇ of the infrared camera 22 with respect to the table 2 based on the sensor information of the attitude sensor, the card 7 is imaged. Processing need not be performed.
  • the image correction unit 116 obtains the inclination ⁇ , thereby obtaining a conversion matrix for converting the rectangular region specified by the region specifying unit 114 from a trapezoidal shape to a rectangular shape.
  • the image correction unit 116 performs a process of matching the aspect ratio of the projection area 4 by the projector 21 by performing homography conversion on the rectangular area converted into the rectangular shape.
  • the image correction unit 116 uses the homography conversion technique for correcting the rectangular quadrangular region into a rectangular region having a known aspect ratio, and converts the quadrangular region specified by the region specifying unit 114 into the known projection region 4.
  • a homography matrix that performs projective transformation so as to be similar to the shape of is obtained.
  • the image correction unit 116 holds the obtained homography matrix and uses it to correct the captured image in the game mode.
  • the image correction unit 116 may match the rectangular area specified by the area specifying unit 114 with the known aspect ratio of the projection area 4. For example, the image correction unit 116 may change the shape of the captured card 7 to the known rectangular aspect ratio. You may obtain
  • FIG. 9 shows an image corrected by the image correction unit 116.
  • the image correction unit 116 obtains the inclination ⁇ and the homography matrix of the infrared camera 22, the image correction unit 116 performs image conversion so that the infrared camera 22 is arranged directly above, and the rectangular region specified by the region specifying unit 114 is converted. After converting to a rectangle using a transformation matrix, the rectangular area is corrected using a homography matrix so as to have a known aspect ratio. As a result, as shown in FIG. 9, the corrected card image is displayed in a rectangular shape having a predetermined aspect ratio.
  • a pattern such as a character is drawn on the card 7, and the recognition processing unit 120 performs a card recognition process based on the pattern drawn on the card 7, so that the card image is a rectangle having a predetermined aspect ratio. As a result, the card recognition process in the recognition processing unit 120 is more appropriately performed.
  • the user removes the black circle markers from the four corners of the projection area 4 and shifts to the game mode.
  • the processing apparatus 10 performs the calibration process.
  • the object used for calibration is not limited to the card 7, and may be another object whose center position can be detected by the card detection unit 112.
  • the image correction unit 116 After obtaining the correction parameters (that is, the inclination ⁇ (conversion matrix) and the homography matrix), the image correction unit 116 generates a captured image corrected using the correction parameters and supplies it to the recognition processing unit 120. To do.
  • the image correction unit 116 cuts out the image region specified by the region specifying unit 114, and applies a corrected image obtained by converting the cut-out region to the recognition processing unit 120. It is preferable to supply.
  • the image correcting unit 116 cuts out only a predetermined area from the image region specified by the region specifying unit 114, and supplies the corrected image of the cut out area to the recognition processing unit 120. It is also possible to further reduce the processing load on the processing unit 120.
  • the correction parameters including the conversion matrix and the homography matrix for correcting the tilt angle ⁇ of the infrared camera 22 are held and used in the image conversion unit 110 until the main power supply of the processing device 10 is turned off.
  • the inclination of the table 20 with respect to the table 2 is changed, it is necessary to perform a calibration process again to obtain the correction parameters again.
  • the mark storage unit 150 stores the marks of all the cards 7 prepared in the card game and the card IDs of the cards 7 in association with each other.
  • the mark is a pattern such as a character drawn on the surface of the card 7, and the mark storage unit 150 includes a feature pattern that represents the positional relationship between a plurality of feature points extracted in advance for each mark.
  • the card ID is stored in association with each other.
  • the mark storage unit 150 stores all the marks that can be seen from each angle and one card ID in association with each other, and even if the symbol of the card 7 is detected from any angle, One card ID is specified.
  • a card 7 with a pattern such as “A” or “B” printed thereon is used.
  • FIG. 10 shows an example of a captured image corrected by the image correction unit 116.
  • the card 7 printed with the symbol “A” is arranged in the projection area 4.
  • the captured image acquisition unit 100 acquires a captured image in which the infrared camera 22 captures an area including the substantially rectangular projection area 4 projected by the projector 21.
  • the image correcting unit 116 generates a corrected image obtained by correcting the infrared reflection image periodically captured based on the tilt angle ⁇ and the homography matrix, and provides the corrected image to the recognition processing unit 120.
  • the imaging cycle is 1/60 seconds, and the image correction unit 116 may correct the captured image of the projection region 4 at the same cycle as the imaging cycle, but a cycle slower than the imaging cycle in order to reduce the processing load. (I.e., the captured image is thinned out).
  • the recognition processing unit 120 includes a card detection unit 122, a card information generation unit 124, and an object detection unit 126, and executes recognition processing for the card 7 included in the captured image.
  • the card detection unit 122 in the recognition processing unit 120 and the card detection unit 112 in the image conversion unit 110 are shown as different configurations in FIG. 2, but both are configured by the same card recognition engine in the processing device 10. Good.
  • the card detection unit 122 searches the captured image for feature patterns of a plurality of marks stored in the mark storage unit 150.
  • the card detection unit 122 performs a pattern matching process for comparing the feature pattern of the mark stored in the mark storage unit 150 with the feature pattern of the mark 8a extracted from the projection area.
  • the card detection unit 122 compares the feature pattern of the mark 8a included in the captured image with the feature pattern held in the mark storage unit 150, identifies the feature pattern that matches the mark 8a, and associates the feature pattern with the feature pattern.
  • Specified card ID In this example, the card ID associated with the mark “A” stored in the mark storage unit 150 is specified.
  • the card detection unit 122 performs mark detection processing from an image obtained by capturing the entire projection area 4.
  • the projection area 4 may be used for placing the card 7. It may be divided into a plurality of areas. In this case, the card detection unit 122 only needs to perform the detection process of the card 7 in each area, and since the area can be limited, the pattern matching processing time can be shortened.
  • the card 7 has a top and bottom, and usually one of the short sides is the upper side and the other of the short sides is the lower side.
  • the mark storage unit 150 holds the characteristic pattern of the mark 8 so as to be the correct top and bottom of the card 7.
  • the card 7 may be such that one of the long sides is the upper side and the other long side is the lower side.
  • the card detection unit 122 detects the matching mark 8 by extracting the mark 8a from the captured image and comparing it with the mark 8 stored in the mark storage unit 150, the card detection unit 122 detects the center coordinates of the detected mark 8 (the center of the card 7). Coordinate) and the inclination of the mark 8a (the posture of the card 7).
  • the card detection unit 122 specifies whether or not the feature pattern of the mark stored in the mark storage unit 150 matches the feature pattern of the mark 8a included in the captured image, when the feature pattern is rotated.
  • This posture information indicates the posture of the card 7 in the two-dimensional coordinate system of the corrected captured image, and is expressed as the inclination of the left side or the right side from the lower side of the card 7 toward the upper side. The posture information will be described with reference to FIG.
  • the processing apparatus 10 has a coordinate adjustment function for automatically adjusting these coordinate systems, whereby the position coordinates of the mark 8 detected by the infrared camera 22 are converted into the position coordinates in the projection region 4 and handled. Further, the position coordinates in the projection area 4 are converted into the position coordinates of the projector coordinate system in the projector 21 and handled.
  • the processing apparatus 10 has this coordinate adjustment function, and for convenience of explanation, various position coordinates will be described as being the same as the position coordinates of the two-dimensional coordinate system in the projection region 4. .
  • the card information generation unit 124 When the card detection unit 122 detects the card ID, center coordinates, and posture information of the card 7, the card information generation unit 124 generates card information used in the application.
  • the card information generation unit 124 generates the card ID and posture information of the card 7 and the vertex coordinates of the four corners of the card 7 as card information, and provides the card information to the projection image generation unit 130 and the instruction detection unit 140. To do.
  • the card information generation unit 124 recognizes the size of the card 7 and can determine the vertex coordinates of the four corners of the card 7 from the center coordinates and posture information provided from the card detection unit 122.
  • the card detection unit 122 performs card recognition processing at a predetermined cycle and provides the card information generation unit 124 with the card ID, center coordinates, and posture information of the detected card 7.
  • the card detection unit 122 may perform card recognition processing in synchronization with the imaging cycle of the infrared camera 22.
  • the card detection unit 122 may perform a tracking process on the recognized card 7 and provide the card information generation unit 124 with the card ID, center coordinates, and posture information of the card 7.
  • the effect storage unit 154 stores the effect contents in association with the card ID.
  • the effect storage unit 154 may store the card ID and an effect pattern that is a still image or a moving image in association with each other.
  • the effect storage unit 154 may store an effect pattern associated with the card ID and the game scene.
  • the projection image generation unit 130 generates a moving image that is constantly moving around the card 7, for example, a moving image that enhances the user's expectation and the sense of presence of the game.
  • the projection image generation unit 130 generates a projection image to be projected by the projector 21 based on the card 7 recognized by the recognition processing unit 120.
  • the function of the projection image generation unit 130 is realized by a card game program, and generates a projection image from the production contents associated with the card ID as the game progresses.
  • the projection image generated by the projection image generation unit 130 is projected onto the projection area 4 by the projector 21.
  • the recognition processing unit 120 performs the card 7 identification process based on the image captured by the infrared camera 22. Can be implemented appropriately.
  • the visible light camera 23 also captures the effect projected by the projector 21 and is not suitable for card recognition.
  • Projection image generation unit 130 controls the image projection of projector 21 according to the effect pattern stored in effect storage unit 154. Specifically, the projection image generation unit 130 reads the effect image associated with the card ID provided from the recognition processing unit 120 from the effect storage unit 154 or according to the effect pattern read from the effect storage unit 154. An effect image is generated, and the effect image is projected on the projector 21 based on the position information of the card 7. For example, the projection image generation unit 130 may project game operation information related to progress, such as an explanation regarding game rules and an operation method for the card 7, in the vicinity of the card 7. Thus, the projection image generation unit 130 projects information assisting the game operation from the projector 21 to the vicinity of the card 7 so that the user can smoothly advance the game.
  • the projection image generation unit 130 preferably controls the projector 21 so as to project white light onto the card 7.
  • a design is drawn on the surface of the card 7 of the embodiment, and the user specifies the card 7 by the design. Therefore, when the effect image from the projector 21 is projected onto the card 7, the effect of the effect is enhanced, but the visibility of the symbol is lowered. Therefore, the projection image generation unit 130 controls the projection of the projector 21 so as to project white light on the card 7 based on the vertex coordinates of the four corners of the card 7 supplied from the recognition processing unit 120. The game effect can be performed without impairing the visibility of 7.
  • the projection image generation unit 130 may change the background image projected on the entire projection region 4 according to the card 7 specified by the recognition processing unit 120. If a plurality of cards 7 are arranged in the projection area 4 at this time, the projection image generation unit 130 may determine the background image according to the combination of the plurality of cards 7. Alternatively, a background card 7 may be set in advance, and when the background card 7 is specified, a background image of the card 7 may be projected.
  • FIG. 11 shows an example of a projected image projected on the projection area 4.
  • the cards 7a to 7c are cards arranged in the projection area 4.
  • the projection image generator 130 projects white light onto the cards 7a to 7c, and further projects an effect image that surrounds the cards 7a and 7c with a circle and adds a cross to the card 7b.
  • the circled cards 7a and 7c indicate that they are operable cards
  • the crossed card 7b indicates that they are inoperable cards.
  • the projection image generation unit 130 generates a projection image that allows the user to recognize the state of the card 7, so that the user can smoothly play the game.
  • the projection image generation part 130 demonstrated projecting the effect image matched with the card
  • the projection image generation unit 130 derives the speed and the traveling direction of the card 7 from the change in the position coordinates of the card 7, and projects the effect image associated with the derived speed and the traveling direction from the projector 21 onto the projection region 4. You may let them.
  • the projection image generation unit 130 generates a projection image based on card operations such as the position and movement of the card 7.
  • card operations such as the position and movement of the card 7.
  • a user interface for advancing the game by other operations is proposed.
  • the state of a card is generally expressed by the orientation of the card.
  • a vertically oriented card can be operated, but a horizontally oriented card indicates that the card cannot be operated temporarily.
  • a vertically oriented card may indicate a standby state, and a horizontally oriented card may indicate an attack state.
  • the state of the card expressed in portrait orientation or landscape orientation is appropriately determined by the game.
  • the projection image generation unit 130 is provided with the card ID, posture information, and vertex coordinates of the four corners (hereinafter also referred to as position information) as card information from the recognition processing unit 120.
  • the projection image generation unit 130 identifies the orientation of the card 7 from the provided posture information, and generates a projection image corresponding to the orientation of the card 7.
  • the provided posture information is an angle ⁇ .
  • FIG. 12 (a) to 12 (d) show the orientation of the card 7 handled by the projection image generation unit 130.
  • FIG. The card 7 shown in FIG. 12A is “upward”
  • the card 7 shown in FIG. 12B is “leftward”
  • the card 7 shown in FIG. 12C is “downward”
  • the card shown in FIG. 7 is identified as “right”.
  • the projection image generation unit 130 specifies the orientation of the card 7 included in the captured image as one of four directions, top, bottom, left, and right.
  • FIGS. 13A and 13B are diagrams for explaining the posture information provided from the recognition processing unit 120.
  • the angle ⁇ is expressed as the inclination of the side (for example, the left side) from the lower side to the upper side of the card 7.
  • the angle ⁇ is specified as an angle from the x axis, which is the horizontal axis, when the left vertex of the lower side of the card 7 is placed at the origin of the virtual two-dimensional coordinate system.
  • FIG. 14A shows a first determination criterion for determining the card orientation.
  • the upward determination area 40a indicates an area where the angle ⁇ is not less than 45 degrees and less than 135 degrees.
  • the left-facing determination region 40b indicates a region where the angle ⁇ is 135 degrees or more and less than 225 degrees.
  • the downward determination area 40c indicates an area where the angle ⁇ is 225 degrees or more and less than 315 degrees.
  • the right-facing determination area 40d indicates an area where the angle ⁇ is 315 degrees or more and less than 360 degrees, or 0 degree or more and less than 45 degrees.
  • the first determination criterion shown in FIG. 14 (a) defines a determination region indicating a range in each of the vertical and horizontal directions. As is clear from comparison with the second determination criterion shown in FIG. 14B, in the first determination criterion, the boundaries of the determination regions are continuous. Therefore, if the angle ⁇ is given, the projection image generation unit 130 The direction of the card 7 can be specified immediately.
  • the projection image generation unit 130 displays the posture information ( From the angle ⁇ ), the orientation of the card 7 is determined using the first criterion shown in FIG. 14A, and a projection image corresponding to the orientation of the card 7 is generated.
  • the recognition processing unit 120 provides the card information of the card 7 to the projection image generation unit 130 while continuing to detect the card 7.
  • the projection image generation unit 130 specifies the orientation of the card 7 based on the posture information. At this time, if the left side of the card 7 is at an angle near the boundary of the first determination criterion, depending on the detection accuracy of the card 7. Even if the card 7 is not moved, the card orientation determination result may change.
  • FIG. 14B shows a second determination criterion for determining the card orientation.
  • the second determination criterion illustrated in FIG. 14B is used after the projection image generation unit 130 determines the orientation of the card 7 using the first determination criterion illustrated in FIG.
  • the insensitive area 42 is provided between the direction determination areas, and the boundary of the direction determination area is not continuous.
  • the projection image generation unit 130 does not change the determined card orientation even if the angle ⁇ is included in the dead area 42 from a certain direction determination area.
  • the projection image generation unit 130 determines that the card orientation has been switched when the angle ⁇ is included in another determination region beyond the dead region 42 from a certain direction determination region. By providing such an insensitive area 42, it is possible to prevent the orientation determination result from being frequently changed.
  • the orientation of the card 7 is determined based on the second determination criterion in which the insensitive area 42 is provided between the orientation determination regions. Is identified. Thereby, regardless of the detection accuracy of the recognition processing unit 120, the orientation of the card 7 can be identified stably.
  • the projection image generation unit 130 of the embodiment distinguishes and specifies four card orientations.
  • the card 7 can have different card states with respect to the four directions of the card 7, and the number of game operation options can be increased. For example, when it is upward, it can be operated, when it is left, it is inoperable, when it is downward, it is in a standby state, and when it is right, it is in an attack state.
  • a projected image may be generated.
  • a game operation using a game controller is also possible.
  • the game operation using the card 7 follows the user's sense, it is possible to create four operation options depending on the orientation of the card 7. Provides an innovative user interface.
  • the instruction detection unit 140 detects an instruction for the card 7 or an instruction for the game application.
  • the instruction for the card 7 or the game is generated by an object (actual object) different from the card 7 by the user.
  • the projection image generation unit 130 generates a projection image based on the instruction detected by the instruction detection unit 140.
  • the object detection unit 126 detects an object (real object) different from the card 7.
  • an object real object
  • a real object is a user's finger.
  • FIG. 15 shows an example of a captured image corrected by the image correction unit 116.
  • the image correction unit 116 corrects the captured image using the correction parameters and provides the corrected image to the recognition processing unit 120.
  • the card information generation unit 124 In the recognition processing unit 120, the card information generation unit 124 generates the card IDs, the posture information, and the vertex coordinates of the four corners of the cards 7a and 7d as card information, and provides them to the instruction detection unit 140.
  • the object detection unit 126 detects position information of the object included in the captured image. The object detection unit 126 provides the position information of the detected object to the instruction detection unit 140.
  • the object detection unit 126 detects that the object is the long object 50 when the object has a predetermined length or longer in the captured image.
  • the long object 50 is a user's finger, but may be a card designation stick prepared as an accessory of a card game, for example.
  • the object detection unit 126 detects that the long object 50 has entered the imaging region when the object is imaged with a predetermined length or longer, and determines the position coordinates of the tip of the long object 50 as follows. Provided to the instruction detection unit 140 as detection information.
  • the instruction storage unit 152 stores a game instruction associated with the object.
  • the instruction storage unit 152 may store a game instruction corresponding to the progress of the game in association with the object. For example, in a certain game scene, designation of a card by the long object 50 is stored as an instruction for selecting an attack card. In another game scene, designation of a card by the long object 50 starts an attack. It may be stored as an instruction to do. As described above, since the projection image generation unit 130 projects the assist information of the game operation in the vicinity of the card 7, the user can perform an intuitive game operation using fingers.
  • the additional object detection unit 142 determines whether or not the long object 50 has entered the card 7 from the position coordinates of the tip of the long object 50 and the vertex coordinates of the four corners of the card 7. When the position coordinates of the long object 50 are included in the rectangular area surrounded by the vertex coordinates of the four corners of the card 7, the additional object detection unit 142 determines that the long object 50 has entered the card 7. Then, it is detected that the long object 50 has designated the card 7.
  • the additional object detection unit 142 reads the game instruction for the designated card 7 with reference to the instruction storage unit 152, and provides the projection image generation unit 130 with the card ID of the designated card 7 and the game instruction. In response to this, the projection image generation unit 130 generates a projection image reflecting the game instruction for the card 7.
  • the additional object detection unit 142 detects that the long object 50 has entered the rectangular area of the card 7, the long object 50 continues to enter the rectangular area for a predetermined time (for example, 2 seconds) after detection. In this case, it may be determined that the long object 50 has entered the card 7. For example, when the user touches the card 7 unintentionally or when the position of the card 7 is to be adjusted, the user does not intend to select the card. Therefore, the additional object detection unit 142 may determine that the user has designated the card by the long object 50 when the user has entered the rectangular area for a predetermined time.
  • a predetermined time for example, 2 seconds
  • the additional object detection unit 142 may be based on the condition that the card 7 is not moved when detecting as the card specifying operation.
  • the card game there is a game operation for moving the arrangement of the cards 7.
  • the user moves the card 7 with fingers. Therefore, in order to distinguish from this game operation, the additional object detection unit 142 detects the card designation operation by the long object 50 on the condition that the card 7 is not moved, that is, the position coordinate of the card 7 is not changed. May be.
  • the detection process of the long object 50 may be performed based on the captured image of the infrared camera 22, but the optical device 20 may further include another infrared camera for object detection.
  • the optical apparatus 20 may include a light source that irradiates infrared laser light onto the projection region 4 and a second infrared camera that images the projection region 4.
  • the object detection unit 126 may detect an object that has entered the projection region 4 from a captured image of the second infrared camera.
  • FIG. 16 shows an example of a projected image projected on the projection area 4.
  • the cards 7a and 7d are cards arranged in the projection area 4.
  • the projection image generation unit 130 projects an effect image indicating the designation around the card 7a while projecting white light onto the card 7a.
  • the projection image generation unit 130 generates different projection images for the card 7a before and after the instruction for the card 7a is detected, and causes the projector 21 to project the projection image.
  • the user can know that the card 7a has been properly specified. Since the card 7d is not selected, there is no change in the projected image on the card 7d.
  • FIG. 17 shows an example of a captured image corrected by the image correction unit 116.
  • the image correction unit 116 corrects the captured image using the correction parameters and provides the corrected image to the recognition processing unit 120.
  • the card detection unit 122 detects the card ID, center coordinates, and posture information of the cards 7a and 7d
  • the card information generation unit 124 detects the card IDs of the cards 7a and 7d, the vertex coordinates of the four corners, and Card information including posture information is generated and provided to the instruction detection unit 140.
  • the item object 52 is a game coin prepared as an accessory of the card game.
  • the item object 52 may be made of, for example, a retroreflective material in order to increase its detection accuracy.
  • the card game there is a state designation method in which an item is placed on the card 7 and the state of the card 7 is changed.
  • the item object 52 is used to change the state of the card 7, and the user can place the number of item objects 52 on the card 7 according to the state of the card 7.
  • the object detection unit 126 detects the item object 52 included in the captured image, and provides the position information of the detected item object 52 to the instruction detection unit 140.
  • the additional object detection unit 142 determines whether the object has entered the card 7 from the position information of the object and the vertex coordinates of the four corners of the card 7.
  • the additional object detection unit 142 detects that the object that is entering the rectangular area of the card 7 is not outside the rectangular area, that is, if it is detected only within the rectangular area, that the object is the item object 52.
  • the item object 52 is a game coin, but may be an object such as a pebble.
  • the item object 52 needs to be an object smaller than the size of the card 7.
  • the additional object detection unit 142 detects that the item object 52 has entered when the object that has entered the rectangular area of the card 7 does not protrude from the rectangular area. Specify the card ID.
  • the instruction storage unit 152 stores a game instruction associated with the object.
  • the instruction storage unit 152 may store a game instruction corresponding to the progress of the game in association with the object.
  • the instruction storage unit 152 may store game instructions corresponding to the number of item objects 52.
  • the additional object detection unit 142 When the additional object detection unit 142 identifies the card 7 specified by the item object 52, the additional object detection unit 142 refers to the instruction storage unit 152, reads a game instruction for the card 7, and sends the specified image of the specified card 7 to the projection image generation unit 130. Provide card ID and game instructions. In response to this, the projection image generation unit 130 generates a projection image reflecting the game instruction for the card 7.
  • the infrared camera 22 adjusts the camera parameters for card detection and the camera parameters for retroreflective material detection, and executes imaging so that the background is dark and only the item object 52 is brightly reflected in the image. Is preferred.
  • the camera parameter for card detection is referred to as a first parameter
  • the camera parameter for detection of retroreflecting material is referred to as a second parameter.
  • the shutter speed of the first parameter when the shutter speed of the first parameter is compared with the shutter speed of the second parameter, the shutter speed of the first parameter is relatively slow and the shutter speed of the second parameter is set relatively fast.
  • the contour of the retroreflecting material can be imaged equal to the actual size.
  • the camera gain of the second parameter may be lower than the camera gain of the first parameter.
  • the contour of the retroreflective material can be imaged to be equal to the actual size by reducing the sensitivity of the infrared camera 22.
  • the infrared camera 22 may capture images by alternately switching the first parameter and the second parameter in terms of time. In addition, the infrared camera 22 may alternately capture the first parameter and the second parameter for each horizontal line, or may alternately capture the first parameter and the second parameter for each pixel. . When the infrared camera 22 is a stereo camera, one camera may be operated with the first parameter and the other camera may be operated with the second parameter. Thus, when using the item object 52 of a retroreflective material, card detection and item detection may be implemented with different camera parameters.
  • the superimposition detection unit 144 detects that a new card 7 is superimposed on the recognized card 7.
  • the projection image generation unit 130 generates a projection image corresponding to the cards being stacked.
  • the card information generation unit 124 provides the instruction detection unit 140 with card information including the card ID of the card 7, the four vertex coordinates of the card 7, and the posture information. If another card 7 is placed without removing the card 7 at a position where a certain card 7 has been placed, the superposition detection unit 144 detects that different types of cards 7 are placed on top of each other.
  • FIG. 18 shows an example of a captured image corrected by the image correction unit 116.
  • a card 7 a printed with a symbol “A” is arranged in the projection region 4.
  • the image correction unit 116 corrects the captured image using the correction parameters and provides the corrected image to the recognition processing unit 120.
  • the card detection unit 122 detects the card ID, center coordinates, and posture information of the card 7a
  • the card information generation unit 124 includes the card ID, the four vertex coordinates of the card 7, and the posture information. Card information is generated and provided to the instruction detection unit 140.
  • the superposition detection unit 144 recognizes the position of the detected card 7a from the card ID and the four vertex coordinates. If the card 7a is not moved in the projection area 4, the superposition detection unit 144 recognizes that the card 7a is stationary during that time.
  • the card information generation unit 124 provides the instruction detection unit 140 with card information including the card ID of the card 7d, four vertex coordinates, and posture information. Since the card detection unit 122 cannot detect the card 7a, the card information generation unit 124 does not provide the card information of the card 7a to the instruction detection unit 140.
  • FIG. 19 shows a state in which the card 7d is stacked on the card 7a.
  • the superimposition detection unit 144 receives the card information of the card 7d provided from the card information generation unit 124, the superposition detection unit 144 recognizes that the card 7a has disappeared, and the card 7d is disposed at the position where the card 7a is disposed. Recognize that Therefore, the superimposition detection unit 144 detects that a new card 7d is superimposed on the card 7a.
  • the superposition detection unit 144 detects that the card 7d is superposed on the card 7a when indicating that the positional information of the card 7a and the positional information of the card 7d are in an overlapping relationship. For example, the superimposition detection unit 144 obtains the barycentric coordinates of the card 7a from the four vertex coordinates of the card 7a, obtains the barycentric coordinates of the card 7d from the four vertex coordinates of the card 7d, and determines the distance between the two barycentric coordinates. When the distance is equal to or less than a predetermined distance (for example, half of the short side), it may be determined that the card 7d is superimposed on the card 7a.
  • a predetermined distance for example, half of the short side
  • the superimposition detection unit 144 stops providing information such as the card ID of the card 7a from the recognition processing unit 120 and receives information on the card 7d at the same position as the card 7a after a while has passed. Does not determine that the cards are stacked. In this case, it may be determined that the user has exchanged the card 7a for the card 7d.
  • the superposition detection unit 144 When the superposition detection unit 144 detects that the card 7d is superimposed on the card 7a, the superposition detection unit 144 notifies the projection image generation unit 130 of the fact.
  • the projection image generation unit 130 generates a projection image corresponding to the card 7d being superimposed on the card 7a and causes the projector 21 to project it.
  • FIG. 20 shows an example of a projected image.
  • FIG. 20A shows a projection image in which the attack power of the card 7a is 5000.
  • the projection image shown in FIG. 20A is projected in the vicinity of the card 7a. From this state, when the card 7d is overlaid on the card 7a as shown in FIG. 19, the projected image in which the attack power in the state where the card 7d is overlaid on the card 7a is 10,000 as shown in FIG. Is projected.
  • a special way of enjoying the game can be provided by producing a special effect by stacking a plurality of cards 7.
  • the card detection unit 122 of the embodiment identifies the card 7 by the design and cannot distinguish the same type of card 7. Therefore, in the embodiment, a card sleeve in which a mark is printed with invisible ink is used, and the card 7 is inserted into the card sleeve so that even the same type of card 7 can be distinguished.
  • FIG. 21A shows the card sleeve 9.
  • the card sleeve 9 is a film case having a bag shape for inserting the card 7, and the user can protect the card sleeve 9 by inserting the card 7 into the card sleeve 9.
  • the card sleeve 9 is formed of a transparent sheet that transmits visible light.
  • sleeve identification information (sleeve ID) 9 a is printed with ink that can be imaged by the infrared camera 22. This ink is invisible ink, and the sleeve ID 9a is preferably printed so as not to be visually recognized by the user. Although the user may have a plurality of card sleeves 9, it is preferable that the sleeve ID 9a of each card sleeve 9 does not overlap.
  • FIG. 21B shows a state in which the card 7 is inserted into the card sleeve 9.
  • the user uses the card 7 in a state in which the card 7 is put in the card sleeve 9 when the cards 7 of the same kind are stacked.
  • the card detection unit 122 reads the sleeve ID 9a when specifying the card ID.
  • the card information generation unit 124 provides the overlay detection unit 144 with the card ID regarding the card 7 together with the card ID, the four vertex coordinates, and the posture information.
  • the card detection unit 122 detects the card ID, center coordinates, and posture information of the card 7a.
  • the instruction detection unit 140 is provided with the sleeve ID along with the card ID of the card 7a, the four vertex coordinates, and the posture information from the card information generation unit 124.
  • the superposition detection unit 144 recognizes the position of the detected card 7a from the card ID and the vertex coordinates. If the card 7a is not moved in the projection area 4, the superposition detection unit 144 recognizes that the card 7a is stationary during that time.
  • the card information generation unit 124 provides the instruction detection unit 140 with the sleeve ID together with the card ID of the card 7a, the four vertex coordinates, and the posture information. .
  • FIG. 22 shows a state where the card 7a is stacked on the card 7a. All the cards 7 a are inserted in the card sleeve 9. The sleep ID of each card sleeve 9 is different.
  • the superimposition detection unit 144 receives the card information of the card 7a provided from the card information generation unit 124, since the sleeve ID has been changed, the superimposition detection unit 144 adds another new card to the position where the original card 7a has been placed. It is recognized that the card 7a is arranged. Therefore, the superimposition detection unit 144 detects that another card 7a is superimposed on the card 7a.
  • the superposition detection unit 144 When the superposition detection unit 144 detects that the same type of card 7a is superimposed on the card 7a, the superposition detection unit 144 notifies the projection image generation unit 130 of the fact.
  • the projection image generation unit 130 generates a projection image corresponding to the card 7 a being superimposed on the card 7 a and causes the projector 21 to project it.
  • a real object such as a coin is placed on the card 7 and the state of the card 7 is changed.
  • the processing device 10 places (projects) a virtual item on the card 7 to change the state of the card 7. May be changed.
  • the projection image generation unit 130 may set the state of the card 7 by reading saved data recorded in the server or the processing apparatus 10, and project the projection image indicating the state from the projector 21 onto the card 7. .
  • the same type of card 7 is distinguished by the card sleeve 9, but the user may specify that the same type of card 7 is overlapped.
  • the superposition detection unit 144 detects that the same type of card 7 is superimposed. May be.
  • the object detection unit 126 detects the finger position of the user in the projection area 4, and the superimposition detection unit 144 detects that the same type of card 7 is superimposed when the finger position overlaps the projection position of the button image. It may be detected.
  • the voice recognition unit 146 recognizes the utterance “the same card is overlaid” from the user, the superposition detection unit 144 may detect that the same type of cards 7 overlap.
  • DESCRIPTION OF SYMBOLS 1 ... Image projection system, 3 ... Display apparatus, 4 ... Projection area, 5 ... Imaging area, 7, 7a, 7b, 7c, 7d ... Card, 8, 8a ... Mark , 9 ... Card sleeve, 10 ... Processing device, 20 ... Optical device, 21 ... Projector, 22 ... Infrared camera, 23 ... Visible light camera, 100 ... Captured image acquisition , 102... Position reception unit, 104... Display processing unit, 110... Image conversion unit, 112... Card detection unit, 114. DESCRIPTION OF SYMBOLS 120 ... Recognition processing part, 122 ... Card detection part, 124 ... Card information generation part, 126 ...
  • Object detection part 130 ... Projection image generation part, 140 ... Instruction detection part, 142 ... Additional object detection unit, 144 ... Heavy Detector, 146 ... voice recognition unit, 150 ... mark storing unit, 152 ⁇ instruction storage unit, 154 ... effect storage unit.
  • the present invention can be used in the technical field of projecting an image from a projector that is a projection apparatus.

Abstract

撮像画像取得部100は、プロジェクタにより投影された投影領域を含む領域を撮像した撮像画像を取得する。認識処理部120は、撮像画像に含まれるカードの認識処理を実行する。投影画像生成部130は、認識処理部120が認識したカードにもとづいて、プロジェクタにより投影する投影画像を生成する。重畳検出部144は、認識済みの第1のカードの上に、新たな第2のカードが重ねられたことを検出する。重畳検出部144がカードが重ねられたこと検出すると、投影画像生成部130は、カードが重ねられたことに応じた投影画像を生成する。

Description

処理装置および投影画像生成方法
 本発明は、投影装置であるプロジェクタから画像を投影する技術に関する。
 特許文献1は、マーカが付されたカードと、カードに対して画像を投影する投影装置と、カードに付されたマーカを検出するためのカード検出用センサと、処理装置とを備えた画像投影システムを開示する。処理装置は、カード検出用センサの検出結果を用いてカードが配置されている位置を取得し、投影装置は、カードに対応付けられている画像を投影する。
特開2015-92205号公報
 近年、トレーディングカードゲーム(Collectable Card Game)機が、ゲームセンターや玩具店、スーパーマーケットなどに設置されている。トレーディングカードゲームでは、ユーザがカードを収集し、対戦相手との間でカードを互いに出し合ってゲームを進行させる。それぞれのカードにはオリジナルモンスターやアニメーションのキャラクタなどの様々な絵柄や文字が描かれている。カードには、たとえばキャラクタの能力や属性などを表現する特性値が設定されており、ユーザが出したカードに応じてゲームの進行や勝敗が決定される。
 特許文献1に示す画像投影システムのように、プロジェクタによる演出をカードゲームに付加する手法は、カードゲームの新たな楽しみ方を提供する。本発明者は、カメラおよびプロジェクタを備えたシステムにおいて、カードゲームを円滑に実施するための技術や、ゲーム操作を行うための新たなユーザインタフェースに関する技術を開発した。
 本発明は、カードゲームを実施するための技術を提供することを目的とする。
 上記課題を解決するために、本発明のある態様の処理装置は、プロジェクタにより投影された投影領域を含む領域を撮像した撮像画像を取得する撮像画像取得部と、撮像画像に含まれるカードの認識処理を実行する認識処理部と、認識処理部が認識したカードにもとづいて、プロジェクタにより投影する投影画像を生成する投影画像生成部と、認識済みの第1のカードの上に、新たな第2のカードが重ねられたことを検出する重畳検出部とを備える。
 本発明の別の態様は、プロジェクタにより投影する投影画像を生成する方法である。この方法は、プロジェクタにより投影された投影領域を含む領域を撮像した撮像画像を取得するステップと、撮像画像に含まれるカードの認識処理を実行するステップと、認識したカードにもとづいて、プロジェクタにより投影する投影画像を生成するステップと、認識済みの第1のカードの上に、新たな第2のカードが重ねられたことを検出するステップとを有する。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
実施例にかかる画像投影システムの構成を示す図である。 処理装置の機能ブロックを示す図である。 キャリブレーションモードにおける初期画面を示す図である。 案内画面を示す図である。 撮像された黒丸マーカを示す図である。 案内画面を示す図である。 カードを撮像した画像を示す図である。 案内画面を示す図である。 補正された画像を示す図である。 補正された撮像画像の例を示す図である。 投影画像の例を示す図である。 カードの向きの態様を示す図である。 姿勢情報を説明するための図である。 カード向きを判定するための判定基準を示す図である。 補正された撮像画像の例を示す図である。 投影された投影画像の例を示す図である。 補正された撮像画像の例を示す図である。 補正された撮像画像の例を示す図である。 カードを重ねた状態を示す図である。 投影画像の例を示す図である。 カードスリーブを示す図である。 カードを重ねた状態を示す図である。
 本発明は、プレイエリアに配置されたカードに応じて、投影装置であるプロジェクタから画像光を投影する技術を提供する。使用されるカードは平板状の所定の形状を有し、カードには、当該カードを特定するためのマークが付与されている。赤外線カメラがマークを撮像し、処理装置が、撮像画像に含まれるマークを検出すると、プロジェクタの照射光パターンを制御して、プロジェクタからゲーム演出を高めるための画像光を投影させる。マークは、コードや図柄などの1次元または2次元パターンとして構成されてよい。
 図1は、本発明の実施例にかかる画像投影システム1の構成を示す。画像投影システム1は、ゲームに関する処理を実施する処理装置10と、処理装置10に対して撮像画像を供給し、また処理装置10から投影画像を供給される光学装置20を備える。処理装置10には、キーボードやマウス、ゲームコントローラなど、ユーザが入力を行うためのユーザインタフェース装置が接続されている。光学装置20は、プロジェクタ21と、赤外線カメラ22と、可視光カメラ23とを備える。なおプロジェクタ21および赤外線カメラ22は、光学装置20に一体に収容されることが好ましいが、可視光カメラ23は、光学装置20とは別の筐体に設けられてもよい。また光学装置20は、赤外線カメラ22とは別に第2の赤外線カメラを備えてもよい。
 プロジェクタ21は、投影光を照射して投影領域4を形成する。投影面において投影領域4は略四角形となり、投影領域4は、ユーザがカード7を配置してゲームをプレイする領域(プレイエリア)を画定する。実施例では、プロジェクタ21がテーブル2上に投影領域4を形成しているが、投影面は、カード7を配置できる面であればよい。プロジェクタ21は、投影面において投影領域4が略長方形となるように、予め投影光を制御されていることが好ましい。なおユーザは、投影領域4を外れてカード7を配置してもよいが、投影領域4を外れた場所には、プロジェクタ21による演出画像は投影されない。
 赤外線カメラ22は、撮像領域5を撮像する。撮像感度を高めるために、赤外線カメラ22は赤外線光源を有してもよい。実施例において撮像領域5は、プロジェクタ21による投影領域4を少なくとも含み、すなわち赤外線カメラ22は、投影領域4よりも広い範囲を撮像する。
 赤外線カメラ22による撮像画像は、処理装置10に供給されて、実オブジェクトを検出するために利用される。実施例において検出対象となる実オブジェクトは、代表的には矩形のカード7であるが、カード7に対する指示を生成する物体、たとえばユーザの手指や、ゲーム用コインなどを含む。なおユーザの手指などの物体は、第2の赤外線カメラによる撮像画像によって検出されてもよい。
 図1に示すように、ユーザは光学装置20と向かい合った位置でカードゲームをプレイするため、プレイエリアを形成する投影領域4は、赤外線カメラ22とユーザとの間に設定される。赤外線カメラ22は、投影領域4を斜めから撮像し、その結果、撮像領域5の手前側(赤外線カメラ22に近い側)を相対的に大きく、撮像領域5の奥側(赤外線カメラ22に遠い側)を相対的に小さく撮像する。赤外線カメラ22がテーブル2に対して垂直方向から投影領域4を撮像できないため、カード7は本来の矩形ではなく、赤外線カメラ22との距離によって歪んだ形状で撮像されることになる。
 なお図1においては、ユーザと光学装置20との間にプレイエリアが設定されるが、光学装置20は、ユーザの横前方に配置されて横方向から投影光を照射して、ユーザの正面にプレイエリアを形成してもよい。この場合であっても、赤外線カメラ22は、撮像領域5の手前側(赤外線カメラ22に近い側)を相対的に大きく、撮像領域5の奥側(赤外線カメラ22に遠い側)を相対的に小さく撮像するため、カード7は歪んだ形状で撮像される。
 赤外線カメラ22の撮像画像はリアルタイムで処理装置10に供給され、処理装置10は、撮像画像に含まれるカード7のマークを検出して、カード7を認識する。この認識処理は、検出したマークをデータベースに登録している複数のマークと比較して、一致するマークを探し出す処理であり、検出したマークが歪んでいると、認識処理に支障をきたすことがある。
 そこで実施例の処理装置10は、カードゲームの開始前に、赤外線カメラ22により撮像されたカード7が本来の矩形となるように撮像画像を補正するキャリブレーション処理を行う。具体的にキャリブレーション処理は、赤外線カメラ22による斜めからの撮像画像を投影領域4の真上からの撮像画像に変換するための変換行列と、変換した撮像画像のアスペクト比を正しくするホモグラフィ行列を求める処理であり、ゲーム開始前に補正用のパラメータを求めておくことで、ゲーム開始後は、撮像画像を補正した補正画像をもとに、カード7の認識処理を実施する。補正画像は、理想的には、赤外線カメラ22を投影領域4の直上に配置したときに撮像される画像となる。ゲーム開始前、処理装置10は、赤外線カメラ22の撮像画像を表示装置3に表示させて、ユーザがキャリブレーションに関する作業を円滑に進められるようにする。
 可視光カメラ23も、赤外線カメラ22と同様に、テーブル2上の撮像領域を撮像する。可視光カメラ23は、ユーザによるゲームプレイの様子をインターネットなどのネットワークに配信するために設けられる。配信画像が歪んでいては、配信を受けるユーザも見づらいため、処理装置10は、赤外線カメラ22と同様のキャリブレーション処理を実施して、補正した撮像画像を配信することが好ましい。
 アクセスポイント(以下、「AP」とよぶ)6は、無線アクセスポイントおよびルータの機能を有し、処理装置10は、無線または有線経由でAP6に接続して、インターネットに接続する。ユーザは、インターネットに接続している他のユーザとゲーム対戦でき、処理装置10は、可視光カメラ23の撮像画像、正確には撮像画像を補正した画像を他のユーザに配信し、また他のユーザから、撮像画像を受信して表示装置3から表示させる。このように可視光カメラ23は、ゲームプレイを配信するために利用される。
 ネットワーク対戦を実現するためには、相手側にも、画像投影システム1が用意されていればよい。処理装置10は、インターネット上の専用サーバに、戦績などを記録できるようにし、自身の戦績や他ユーザの戦績を閲覧できるようなネットワークシステムが構築されてもよい。
 処理装置10は、赤外線カメラ22の撮像画像に含まれるカード7の認識処理を実行し、プロジェクタ21の画像投影を制御する。処理装置10は、カードゲームのアプリケーションプログラム(以下、「カードゲームプログラム」とも呼ぶ)を実行するゲーム専用機であってもよいが、当該プログラムを実行するパーソナルコンピュータであってもよい。処理装置10は、赤外線カメラ22から撮像画像を受け取り、プレイエリアに配置されたカード7に応じて、投影画像を生成する機能を有している。後述するが、処理装置10は、認識した1枚のカード7に対応する演出を実施するだけでなく、認識したカード7の状態、複数枚のカード7の組合せ、カード7に対するユーザからの指示の有無等に応じてゲームへのユーザの関心を高めるように動的に投影画像を生成して、プロジェクタ21の画像投影を制御する。
 カード7は、識別用マークとして、たとえば特許文献1に開示されるように、ユーザが視認不能であって、赤外線センサなどの非可視光センサが検出可能なマーカを付加されていてよい。このマーカは、処理装置10がカード認識を行うためにカード7に付加される専用のマークであり、赤外線センサの検出精度を高めるために、非可視光反射材料または非可視光吸収材料で印刷されることが好ましい。
 なお近年の画像認識技術の発達により、画像のパターンマッチング精度が向上している。そのためカード7に描かれているイラストなどの図柄そのものを、カード7を一意に識別するための識別用マークとして利用することも可能となっている。現在普及しているトレーディングカードゲームには、通常、何百種類ものカードが存在し、それぞれのカードにはオリジナルモンスターやキャラクタなどの様々な図柄が描かれている。ユーザはカードを図柄によって区別するが、実施例の処理装置10も同様に、赤外線カメラ22により撮像されたカードを図柄によって識別する。つまり実施例の画像投影システム1では、カードの図柄を識別用マークとして利用するため、現在流通しているトレーディングカードゲーム用のカードをそのまま使用してゲームプレイできる環境を提供する。
 この環境を実現するために、処理装置10は、ゲームにおける全てのカード7の図柄ないしは図柄の特徴点を登録したデータベースを予め用意しておく。処理装置10は、撮像されたカード7の図柄と比較可能な態様で、全カード7の図柄に関する情報をデータベースに登録している。
 図2は、処理装置10の機能ブロックを示す。処理装置10は、処理機能として撮像画像取得部100、位置受付部102、表示処理部104、画像変換部110、認識処理部120、投影画像生成部130および指示検出部140を備える。また処理装置10は、HDDなどの補助記憶装置において、マーク記憶部150、指示記憶部152および演出記憶部154を備える。マーク記憶部150は、撮像画像に含まれるマーク(図柄)をパターンマッチングで比較するための複数のマークを記憶したデータベースである。
 本実施例における処理装置10の処理機能は、CPU、メモリ、メモリにロードされたプログラムなどによって実現され、ここではそれらの連携によって実現される構成を描いている。したがってこれらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者に理解されるところである。
<キャリブレーション処理>
 上記したように、実施例の画像投影システム1において、赤外線カメラ22は、斜めから撮像領域5を撮像するため、撮像されたカード7は、赤外線カメラ22からの距離に応じて歪んだ形状を有している。そのためゲーム開始前に、処理装置10は、撮像されたカード7の歪みを解消するための補正用パラメータを予め求めておき、ゲーム開始後は、撮像画像を補正用パラメータを用いて補正した補正画像にもとづいてカード認識処理を実施する。カードゲームプログラムは、キャリブレーションモードとゲームモードとを有し、ゲームモードの実行前に必ずキャリブレーションモードを実行するようにして、プレイ環境に応じた適切な補正用パラメータを求める。なおキャリブレーション用のプログラムは、処理装置10のシステムソフトウェアに含まれ、ゲームプログラムの実行前に、システムソフトウェアが補正用パラメータを求めて、ゲームプログラムに対して、補正した撮像画像を供給するようにしてもよい。
 撮像画像取得部100は、プロジェクタ21により投影された略四角形の投影領域4を少なくとも含む領域を撮像した撮像画像を取得する。キャリブレーションモードの実行中、表示処理部104は、赤外線カメラ22により撮像されている撮像画像を撮像画像取得部100から受け取り、撮像画像を表示装置3に表示する際に、ユーザが画面の下方に位置するように撮像画像を180度回転して表示させる。実施例の画像投影システム1において、赤外線カメラ22は、赤外線カメラ22とユーザとの間に位置する撮像領域5を撮像しているため、赤外線カメラ22の撮像画像は、ユーザが見ている状態と上下が逆になる。そこで表示処理部104が、撮像画像を180度回転して表示装置3に表示させることで、ユーザに違和感を与えない画像を表示装置3から出力する。
 図3は、キャリブレーションモードにおける初期画面を示す。キャリブレーションモードにおいて、表示処理部104が、赤外線カメラ22の撮像画像の180度回転画像を表示装置3に表示する。図3に示す初期画面では、ユーザの手が画面下方から上に向かう方向に表示されているが、表示処理部104が回転処理を行わない場合、ユーザの手は、画面上方から下に向かう方向に表示されることになり、ユーザに違和感を与える。そこで表示処理部104は撮像画像の回転処理を行っている。
 キャリブレーションモードにおいて、プロジェクタ21は、投影光をテーブル2に照射する。光学装置20の電源がオンされると、プロジェクタ21は、自動的に白色光をテーブル2に照射するが、投影画像生成部130が、プロジェクタ21に、白色光を投影させるように投影制御してもよい。なお投影光は白色光でなくてもよく、ユーザが投影領域4を視認可能な光であればよい。
 図3において一点鎖線で示す投影領域4aは、テーブル2に照射された投影光の領域を仮想的に示している。投影領域4は、テーブル2上でユーザによって視認されるが、赤外線カメラ22は、投影された白色光の反射光を撮像しない。そのため表示装置3には投影領域4aは表示されず、ユーザは、表示装置3の画面から投影領域4aを確認できない。
 図4は、表示装置3に表示される案内画面を示す。表示処理部104は、表示装置3に案内文30aを表示する。ここで付属のマーカとは、光学装置20に同梱されているキャリブレーション用のマーカであり、赤外線カメラ22により撮像可能な素材で作られている。ユーザは、この案内文30aにしたがって、マーカをテーブル2上の投影領域4の4隅に配置する。マーカは、たとえば中抜きの黒丸マーカであってよい。なお投影画像生成部130が、案内文30aを含めた投影画像を生成して、プロジェクタ21から投影させてもよい。ユーザは、投影領域4に表示された案内文30aをみて、実施するべき作業を認識する。
 図5は、撮像された4つの黒丸マーカ32a~32dを示す。このとき表示装置3には、案内文30aが表示され続けていてよい。ユーザは、テーブル2に投影された投影領域4の4隅に黒丸マーカを配置すると、ユーザインタフェース装置を操作して、黒丸マーカを配置したことを処理装置10に通知する。たとえばマウスをダブルクリックすることが、作業完了を処理装置10に知らせて次の作業に進むためのトリガとして設定されていてもよい。なお次の作業に進むためのトリガには様々なものがあってよく、たとえばユーザが所定の言葉を発声することで、処理装置10が音声解析して黒丸マーカが配置されたことを認識し、次の作業に進んでもよい。
 図6は、表示装置3に表示される案内画面を示す。黒丸マーカが配置された後、表示処理部104は、案内文30bを表示する。ユーザは、案内文30bにしたがって、カード7を1枚、投影領域4の中央に配置する。このとき表示処理部104は、案内文30bとともに、カード7の配置場所を示す情報を表示してもよい。なお投影画像生成部130が、案内文30bを含めた投影画像を生成して、プロジェクタ21から投影させてもよい。
 図7は、ユーザが投影領域4に配置したカード7を撮像した画像を示す。図7には、カード7が投影領域4の略中央に縦向きに配置されているが、赤外線カメラ22が斜め上方から投影領域4を撮像しているために、矩形のカード7は、撮像画像中では台形の形状で撮像されている。ユーザはカード7を配置すると、ユーザインタフェース装置を操作して、カード7を配置したことを処理装置10に通知する。
 図8は、表示装置3に表示される案内画面を示す。カード7が配置された後、表示処理部104は、案内文30cを表示する。ユーザは、表示装置3の案内画面に表示される黒丸マーカ32a~32dにマウスのポインタを当てて指定操作(クリック操作)を行う。
 位置受付部102は、表示装置3に表示された撮像画像においてユーザからの位置指定を受け付ける。具体的に位置受付部102は、図8に示す案内画面において、ユーザによりマウスで指定された撮像画像上の位置座標を受け付ける。なお、この例ではユーザインタフェース装置としてマウスを利用する例を示しているが、ユーザは、表示装置3に表示されるポインタをゲームコントローラで動かして、位置指定してもよい。画像変換部110において、領域特定部114は、位置受付部102が受け付けた4つの指定位置から、四角形の領域を特定する。
 なお領域特定部114は、黒丸マーカ32a~32dを撮像した撮像画像から、4つの黒丸マーカを自動検出して、四角形の領域を特定してもよい。領域特定部114は、キャリブレーション用のマーカの形状を予め記憶していることで、撮像画像から黒丸マーカ32a~32dを抽出し、その位置座標を特定できる。領域特定部114が黒丸マーカを自動検出する場合、ユーザによるマーカ指定操作が不要となるため、案内文30cを表示する必要はない。
 このように領域特定部114は、赤外線カメラ22による撮像画像において、ユーザの指定操作により、またはマーカの自動検出により、四角形の領域を特定する。この四角形領域は、ユーザがカード7を配置するための領域を画定し、したがって撮像画像の補正領域を定めるものである。ゲームモードにおいて画像補正部116は、少なくとも領域特定部114により特定された四角形領域を画像補正する。なお実施例では、投影領域4の4隅に黒丸マーカを配置させる例を示したが、補正領域を定める四角形領域は、投影領域4の内側に設定されてもよく、また撮像領域5の範囲内で投影領域4の外側に設定されてもよい。四角形領域が投影領域4の内側に設定されれば、画像補正部116は、その内側の四角形領域を画像補正の対象領域とし、四角形領域が投影領域4の外側に設定されれば、画像補正部116は、その外側の四角形領域を画像補正の対象領域とする。
 マーク記憶部150は、カードゲームにおいて用意されている全てのカード7のマークと、カード7の識別情報(以下、カードIDとよぶ)とを対応付けて記憶する。実施例においてマークは、カード7の表面に描かれたキャラクタなどの図柄であり、マーク記憶部150は、マークごとに予め抽出している複数の特徴点の位置関係を表現する特徴パターンと、カードIDとを対応付けて記憶していてよい。カード検出部112は、撮像画像からカード7のマークの特徴点を抽出し、マーク記憶部150に記憶されている複数のマークの特徴パターンを参照して、投影領域内に配置されたカード7のカードIDを特定する。なおマーク記憶部150は、特徴パターンにおけるカード7の中心位置を記憶しており、カード検出部112は、パターンマッチングにより一致するマークを検出した際には、撮像画像に含まれるマークの傾き(カード7の姿勢)と、カード7の中心位置とを特定できる。
 なおキャリブレーション処理において、使用する物体はカード7に限るものではなく、赤外線カメラ22により撮像可能であって、カード検出部112が撮像画像から検出できるものであれば、何でもよい。なおカードゲームにおいては、各カード7のマークの特徴パターンがマーク記憶部150に登録されており、処理装置10はカード認識エンジンを実装しているため、カード7をキャリブレーション処理に利用することの利点は多い。
 画像補正部116は、撮像されたカード形状を、カード7の既知形状と相似形状となるように撮像画像を補正する。まず画像補正部116は、投影領域4を斜めから撮像している赤外線カメラ22の位置を、擬似的に投影領域4の真上に配置するための処理を行う。この処理は、カード検出部112が検出したカード7の中心位置を原点とした3次元空間を設定し、設定した3次元空間におけるカード中心位置と赤外線カメラ22との傾きθを導出して、赤外線カメラ22からの距離に応じた撮像画像の歪みを解消するように撮像画像を変換するための変換行列を求める。投影領域4を斜めから撮像する赤外線カメラ22は、赤外線カメラ22の手前側を大きく、赤外線カメラ22の奥側を小さく撮像しているため、赤外線カメラ22を投影領域4の真上に擬似的に配置する処理を行うことで、撮像画像の1ピクセルあたりの長さを等しくする。
 なお光学装置20が姿勢センサを有して、画像補正部116が、姿勢センサのセンサ情報にもとづいてテーブル2に対する赤外線カメラ22の傾きθを自律的に検出できる場合には、カード7を撮像させる処理は実施しなくてよい。画像補正部116は、傾きθを取得することで、領域特定部114で特定された四角形の領域を、台形状に撮像された状態から矩形状に変換するための変換行列を求める。
 次に画像補正部116は、矩形状に変換した四角形の領域をホモグラフィ変換して、プロジェクタ21による投影領域4のアスペクト比に合わせる処理を行う。画像補正部116は、矩形状の四角形領域を、既知のアスペクト比の矩形領域に補正するホモグラフィ変換の技術を利用して、領域特定部114で特定された四角形領域を、既知の投影領域4の形状と相似形状となるように射影変換を行うホモグラフィ行列を求める。画像補正部116は、ホモグラフィ行列を求めると、求めたホモグラフィ行列を保持して、ゲームモードにおいて撮像画像を補正するために利用する。
 なお画像補正部116は、領域特定部114で特定された四角形領域を、投影領域4の既知のアスペクト比に合わせてもよいが、たとえば撮像されたカード7の形状を、既知の矩形のアスペクト比となるように射影変換を行うホモグラフィ行列を求めてもよい。
 図9は、画像補正部116により補正された画像を示す。画像補正部116は、赤外線カメラ22の傾きθおよびホモグラフィ行列を求めると、擬似的に赤外線カメラ22を真上に配置したように画像変換して、領域特定部114が特定した四角形の領域を変換行列を用いて矩形に直した後、矩形領域を既知のアスペクト比となるようにホモグラフィ行列を用いて補正する。これにより図9に示すように、補正後のカード画像は、所定のアスペクト比をもつ矩形状に表示されるようになる。カード7には、キャラクタなどの図柄が描かれており、認識処理部120は、カード7に描かれた図柄をもとにカード認識処理を実施するため、カード画像を所定のアスペクト比をもつ矩形となるように補正することで、認識処理部120におけるカード認識処理がより適切に実施されるようになる。なおキャリブレーション処理が終了すると、ユーザは、投影領域4の4隅から、黒丸マーカを取り除き、ゲームモードに移行する。
 以上のように処理装置10はキャリブレーション処理を実施する。なお上記したようにキャリブレーションに使用する物体はカード7に限定されるものではなく、カード検出部112により中心位置を検出可能な他のオブジェクトであってよい。画像補正部116は、補正用パラメータ(つまり傾きθ(変換行列)およびホモグラフィ行列)を求めると、以後は、補正用パラメータを用いて補正した撮像画像を生成して、認識処理部120に供給する。このとき画像補正部116は、認識処理部120による処理負荷を増加させないために、領域特定部114で特定された画像領域を切り出して、切り出した領域を画像変換した補正画像を認識処理部120に供給することが好ましい。なおアプリケーションによるが、画像補正部116は、領域特定部114で特定される画像領域のうち、所定のエリアのみを切り出して、切り出したエリアの補正画像を認識処理部120に供給することで、認識処理部120の処理負荷をさらに軽減することも可能である。
 赤外線カメラ22の傾斜角θを補正する変換行列およびホモグラフィ行列を含む補正用パラメータは、処理装置10のメイン電源がオフにされるまで画像変換部110に保持されて利用されるが、光学装置20のテーブル2に対する傾きが変更された場合には、あらためてキャリブレーション処理を実施して、補正用パラメータを求め直す必要がある。
<カード認識処理>
 マーク記憶部150は、カードゲームにおいて用意されている全てのカード7のマークと、カード7のカードIDとを対応付けて記憶する。上記したように実施例においてマークは、カード7の表面に描かれたキャラクタなどの図柄であり、マーク記憶部150は、マークごとに予め抽出した複数の特徴点の位置関係を表現する特徴パターンと、カードIDとを対応付けて記憶している。なお一部カード(以下、レアカードとよぶ)には特殊な加工が施されて、角度によって見える図柄が異なるものが存在する。マーク記憶部150は、レアカードについては、各角度から見える全てのマークと、一つのカードIDとを対応付けて記憶し、どの角度からカード7の図柄が検出された場合であっても、一つのカードIDが特定されるようにする。
 実施例では、説明の便宜上、カード7の表面に「A」や「B」などの図柄が印刷されたものを使用する。
 図10は、画像補正部116により補正された撮像画像の例を示す。この例では図柄である「A」を印刷されたカード7が投影領域4に配置されている。撮像画像取得部100は、プロジェクタ21により投影された略四角形の投影領域4を含む領域を赤外線カメラ22が撮像した撮像画像を取得する。画像補正部116は、周期的に撮像される赤外線反射画像を傾斜角θおよびホモグラフィ行列をもとに補正した補正画像を生成し、認識処理部120に提供する。たとえば撮像周期は1/60秒であり、画像補正部116は、撮像周期と同じ周期で投影領域4の撮像画像を補正してもよいが、処理負荷を軽減するために撮像周期よりも遅い周期で(すなわち撮像画像を間引いて)補正してもよい。
 認識処理部120は、カード検出部122、カード情報生成部124およびオブジェクト検出部126を有して、撮像画像に含まれるカード7の認識処理を実行する。なお認識処理部120におけるカード検出部122と、画像変換部110におけるカード検出部112とは、図2において別の構成として示しているが、処理装置10において両者は同じカード認識エンジンにより構成されてよい。
 カード検出部122は、撮像画像から、マーク記憶部150に記憶されている複数のマークの特徴パターンを探索する。カード検出部122は、マーク記憶部150に記憶されているマークの特徴パターンを、投影領域内から抽出されるマーク8aの特徴パターンと比較するパターンマッチング処理を実施する。カード検出部122は、撮像画像に含まれるマーク8aの特徴パターンを、マーク記憶部150に保持された特徴パターンと比較して、マーク8aに一致する特徴パターンを特定し、その特徴パターンに対応付けられたカードIDを特定する。この例では、マーク記憶部150に記憶されたマーク「A」に対応付けられたカードIDが特定される。
 なお図10に示す例では、カード検出部122が、投影領域4の全体を撮像した画像からマークの検出処理を実施しているが、アプリケーションによっては、投影領域4がカード7を配置するための複数のエリアに分割されていてもよい。この場合、カード検出部122は、各エリア内でカード7の検出処理を実施すればよく、エリアを限定できるために、パターンマッチングの処理時間を短縮できる。
 一般にカード7には天地が存在し、通常は短辺の一方が上辺、短辺の他方が下辺となる。マーク記憶部150は、マーク8の特徴パターンを、カード7の正しい天地となるように保持している。なお長辺の一方が上辺、長辺の他方が下辺となるようなカード7であってもよい。カード検出部122は、撮像画像からマーク8aを抽出してマーク記憶部150に記憶されたマーク8と比較して、一致するマーク8を検出すると、検出したマーク8の中心座標(カード7の中心座標)と、マーク8aの傾き(カード7の姿勢)を特定する。
 カード検出部122は、マーク記憶部150に記憶されたマークの特徴パターンを何度回転させると、撮像画像に含まれるマーク8aの特徴パターンに一致するか特定する。この姿勢情報(角度情報)は、補正された撮像画像の2次元座標系におけるカード7の姿勢を示し、カード7の下辺から上辺に向かう左辺または右辺の傾きとして表現される。姿勢情報については、図13で説明する。
 なお、カード7を利用した画像投影システム1においては、投影領域4における実世界座標系と、赤外線カメラ22におけるカメラ座標系と、プロジェクタ21におけるプロジェクタ座標系とがそれぞれ独立して存在する。処理装置10は、これらの座標系を自動調整する座標調整機能を備えており、これにより赤外線カメラ22で検出されたマーク8の位置座標が、投影領域4における位置座標に変換されて取り扱われ、また投影領域4における位置座標が、プロジェクタ21におけるプロジェクタ座標系の位置座標に変換されて取り扱われる。以下では、処理装置10が、この座標調整機能を有していることを前提とし、説明の便宜上、様々な位置座標を、投影領域4における2次元座標系の位置座標と同一視して説明する。
 カード検出部122が、カード7のカードID、中心座標および姿勢情報を検出すると、カード情報生成部124が、アプリケーションで使用するカード情報を生成する。ここではカード情報生成部124が、カード7のカードID、姿勢情報と、カード7の4隅の頂点座標を、カード情報として生成し、カード情報を投影画像生成部130および指示検出部140に提供する。なおカード情報生成部124はカード7の大きさを認識しており、カード検出部122から提供される中心座標および姿勢情報から、カード7の4隅の頂点座標を求めることができる。
 カード検出部122は、所定の周期でカード認識処理を実施し、検出したカード7のカードID、中心座標および姿勢情報を、カード情報生成部124に提供する。たとえばカード検出部122は、赤外線カメラ22の撮影周期に同期してカード認識処理を実施してもよい。なおカード検出部122は、認識済みのカード7に対しては、トラッキング処理を実施して、カード7のカードID、中心座標および姿勢情報を、カード情報生成部124に提供してもよい。
<ゲーム制御>
 演出記憶部154は、カードIDに、演出内容を対応付けて記憶する。演出記憶部154は、カードIDと、静止画像または動画像である演出パターンとを対応付けて記憶してよい。なお演出記憶部154は、カードIDおよびゲームシーンに対応付けられている演出パターンを記憶してもよい。投影画像生成部130は、カード7の周辺で常時動いているような動画像、たとえばユーザの期待感やゲームの臨場感を高めるような動画像を生成することが好ましい。投影画像生成部130は、認識処理部120が認識したカード7にもとづいて、プロジェクタ21により投影する投影画像を生成する。投影画像生成部130の機能は、カードゲームプログラムによって実現され、ゲームの進行に応じて、カードIDに対応付けられた演出内容から投影画像を生成する。
 投影画像生成部130により生成された投影画像は、プロジェクタ21により投影領域4に投影される。カード認識処理において、赤外線カメラ22は、プロジェクタ21による投影光の影響を受けずにカード7を撮像できるため、認識処理部120は、赤外線カメラ22による撮像画像をもとに、カード7の特定処理を適切に実施できる。なお可視光カメラ23は、プロジェクタ21により投影される演出も撮像するため、カード認識の用途には適さない。
 投影画像生成部130は、演出記憶部154に記憶された演出パターンにしたがって、プロジェクタ21の画像投影を制御する。具体的に投影画像生成部130は、認識処理部120から提供されるカードIDに対応付けられている演出画像を演出記憶部154から読み出し、または演出記憶部154から読み出された演出パターンにしたがって演出画像を生成して、カード7の位置情報をもとに、プロジェクタ21に演出画像を投影させる。たとえば投影画像生成部130は、カード7の近傍に、ゲームルールに関する説明や、カード7の操作方法など、進行に関するゲーム操作情報を投影させてもよい。このように投影画像生成部130は、ゲーム操作をアシストする情報をプロジェクタ21からカード7近傍に投影させることで、ユーザが円滑にゲームを進行できるようになる。
 なお投影画像生成部130は、カード7上に白色光を投影させるようにプロジェクタ21を制御することが好ましい。実施例のカード7の表面には、図柄が描かれており、ユーザは、図柄によってカード7を特定する。そのためカード7上にプロジェクタ21からの演出画像が投影されると、演出効果は高まるものの、図柄の視認性は落ちることになる。そこで投影画像生成部130は、認識処理部120から供給されるカード7の4隅の頂点座標をもとに、カード7上に白色光を投影させるようにプロジェクタ21を投影制御することで、カード7の視認性を損なうことなく、ゲーム演出を行うことができる。
 なお投影画像生成部130は、投影領域4の全体に投影する背景画像を、認識処理部120により特定されたカード7に応じて変更してよい。このとき複数のカード7が投影領域4に配置されていれば、その複数のカード7の組合せに応じて、投影画像生成部130が背景画像を決定してもよい。また背景用のカード7を予め設定しておき、背景用のカード7が特定されると、当該カード7の背景画像が投影されるようにしてもよい。
 図11は、投影領域4に投影された投影画像の例を示す。カード7a~7cは、投影領域4に配置されているカードである。投影画像生成部130は、カード7a~7cに対して白色光を投影しつつ、さらにカード7a、7cの周囲を丸で囲い、カード7bにバツをつける演出画像を投影している。ここで丸で囲われたカード7a、7cは、操作可能なカードであることを示し、バツを付加されたカード7bは、操作不能なカードであることを示す。このように投影画像生成部130は、カード7の状態をユーザが認識できるような投影画像を生成することで、ユーザが円滑にゲームを進行できるようになる。
 なお投影画像生成部130が、カード7に対応付けられた演出画像をプロジェクタ21から投影させることを説明したが、投影画像生成部130は、たとえばカード7の動きに応じて演出画像を投影させてもよい。投影画像生成部130は、カード7の位置座標の変化からカード7の速度および進行方向を導出して、導出した速度および進行方向に対応付けられている演出画像をプロジェクタ21から投影領域4に投影させてもよい。
<ゲーム操作>
 上記したように、投影画像生成部130は、カード7の位置や動きなどのカード操作に基づいて投影画像を生成する。以下においては、それ以外の操作によって、ゲームを進行させるユーザインタフェースを提案する。
 カードゲームでは、カードの向きによって、カードの状態を表現することが一般に行われている。たとえば縦向きのカードは操作可能であるが、横向きのカードは、一時的に操作できない状態にあることを示す。また縦向きのカードはスタンバイ状態、横向きのカードは攻撃状態にあることを示してもよい。縦向きか横向きかで表現されるカードの状態はゲームにより適宜定められる。
 投影画像生成部130は、認識処理部120から、カード7のカードID、姿勢情報および4隅の頂点座標(以下、位置情報ともよぶ)を、カード情報として提供される。投影画像生成部130は、提供された姿勢情報から、カード7の向きを特定し、カード7の向きに応じた投影画像を生成する。以下、提供される姿勢情報を、角度αとする。
 図12(a)~図12(d)は、投影画像生成部130が取り扱うカード7の向きの態様を示す。図12(a)に示すカード7は「上向き」、図12(b)に示すカード7は「左向き」、図12(c)に示すカード7は「下向き」、図12(d)に示すカード7は「右向き」として特定される。投影画像生成部130は、撮像画像に含まれるカード7の向きを、上下左右の4つの向きのいずれかに特定する。
 図13(a)、(b)は、認識処理部120から提供される姿勢情報を説明するための図である。角度αは、カード7の下辺から上辺に向かう辺(たとえば左辺)の傾きとして表現される。角度αは、カード7の下辺の左頂点を仮想2次元座標系の原点に配置したときの、横軸であるx軸からの角度として特定される。
 図14(a)は、カード向きを判定するための第1判定基準を示す。上向き判定領域40aは、角度αが45度以上、135度未満である領域を示す。左向き判定領域40bは、角度αが135度以上、225度未満である領域を示す。下向き判定領域40cは、角度αが225度以上、315度未満である領域を示す。右向き判定領域40dは、角度αが315度以上、360度未満、または0度以上、45度未満である領域を示す。
 図14(a)に示す第1判定基準は、上下左右の各向きの範囲を示す判定領域を規定する。図14(b)に示す第2判定基準と比較すると明らかなように、第1判定基準では、各判定領域の境界が連続しており、したがって角度αが与えられれば、投影画像生成部130は、ただちにカード7の向きを特定できる。
 認識処理部120が、最初にカード7を認識した時点でのカードID、位置情報および姿勢情報をカード情報として投影画像生成部130に提供すると、投影画像生成部130は、そのときの姿勢情報(角度α)から、図14(a)に示す第1判定基準を用いて、カード7の向きを判定し、カード7の向きに応じた投影画像を生成する。
 認識処理部120は、カード7を検出し続けている間、カード7のカード情報を投影画像生成部130に提供する。投影画像生成部130は、姿勢情報にもとづいて、カード7の向きを特定するが、その際、カード7の左辺が第1判定基準の境界近傍の角度にあると、カード7の検出精度によっては、カード7が動かされていないにも関わらず、カード向きの判定結果が変化することがある。
 図14(b)は、カード向きを判定するための第2判定基準を示す。図14(b)に示す第2判定基準は、投影画像生成部130がカード7の向きを図14(a)に示す第1判定基準を用いて決定した後に使用される。図14(b)に示す第2判定基準では、向き判定領域の間に、不感領域42が設けられ、向き判定領域の境界は連続しない。
 投影画像生成部130は、角度αが、ある向き判定領域から不感領域42に含まれるようになっても、判定したカード向きを変更しない。投影画像生成部130は、角度αが、ある向き判定領域から不感領域42を超えて別の判定領域に含まれるようになった場合に、カード向きが切り替わったことを判定する。このような不感領域42を設けることで、向き判定の結果が頻繁に入れ替わることを防止できる。
 このように投影画像生成部130は、第1判定基準をもとにカード7の向きを特定した後は、向き判定領域間に不感領域42を設けた第2判定基準にもとづいてカード7の向きを特定する。これにより認識処理部120の検出精度にかかわらず、カード7の向きを安定して特定できるようになる。
 実施例の投影画像生成部130は、4方向のカード向きを区別して特定する。これによりカードゲームにおいては、カード7の4方向に対して、それぞれ異なるカード状態をもたせることができ、ゲーム操作の選択肢を増やすことができる。たとえば上向きのときは操作可能状態、左向きのときは操作不能状態、下向きのときはスタンバイ状態、右向きのときは攻撃状態にあることを指定し、投影画像生成部130は、カード7の向きに応じた投影画像を生成してよい。
 実施例のカードゲームでは、ゲームコントローラを用いたゲーム操作も可能とするが、カード7を用いたゲーム操作がユーザ感覚に沿うため、カード7の向きによって4つの操作選択肢を作り出せることは、カードゲームにおいて革新的なユーザインタフェースを提供する。
 次に、カード7とは別の実オブジェクトによりゲーム操作を行う例を示す。
 指示検出部140は、カード7に対する指示またはゲームアプリケーションに対する指示を検出する。カード7やゲームに対する指示は、ユーザによりカード7とは異なる物体(実オブジェクト)によって生成される。投影画像生成部130は、指示検出部140が検出した指示にもとづいて、投影画像を生成する。
 認識処理部120において、オブジェクト検出部126は、カード7とは異なる物体(実オブジェクト)を検出する。実オブジェクトの一つの例は、ユーザの手指である。
 図15は、画像補正部116により補正された撮像画像の例を示す。この例では図柄である「A」、「C」を印刷された2枚のカード7a、7dが投影領域4に配置されている。画像補正部116は、補正用パラメータを用いて撮像画像を補正して、認識処理部120に提供する。
 認識処理部120において、カード情報生成部124が、カード7a、7dのカードID、姿勢情報および4隅の頂点座標を、カード情報として生成して、指示検出部140に提供する。ここで撮像画像にユーザの手指が入り込むと、オブジェクト検出部126は、撮像画像に含まれる物体の位置情報を検出する。オブジェクト検出部126は、検出したオブジェクトの位置情報を、指示検出部140に提供する。
 オブジェクト検出部126は、撮像画像においてオブジェクトが所定以上の長さを有する場合に、当該オブジェクトが長尺オブジェクト50であることを検出する。図15に示す例では、長尺オブジェクト50は、ユーザの手指であるが、たとえばカードゲームの付属品として用意されたカード指定棒であってもよい。オブジェクト検出部126は、オブジェクトが所定以上の長さを有して撮像されている場合に、長尺オブジェクト50が撮像領域に進入したことを検出し、長尺オブジェクト50の先端の位置座標を、検出情報として指示検出部140に提供する。
 指示記憶部152は、オブジェクトに関連づけられたゲーム指示を記憶する。指示記憶部152は、オブジェクトに関連づけて、ゲーム進行に応じたゲーム指示を記憶していてもよい。たとえば、あるゲームシーンにおいて、長尺オブジェクト50によるカードの指定は、攻撃カードを選択するための指示として記憶されており、また別のゲームシーンにおいて長尺オブジェクト50によるカードの指定は、攻撃を開始するための指示として記憶されていてよい。上記したように投影画像生成部130は、カード7近傍にゲーム操作のアシスト情報を投影するため、ユーザは、手指を使った直観的なゲーム操作を可能とする。
 付加オブジェクト検出部142は、長尺オブジェクト50の先端の位置座標と、カード7の4隅の頂点座標から、長尺オブジェクト50がカード7上に進入したか否かを判定する。長尺オブジェクト50の位置座標が、カード7の4隅の頂点座標で囲まれる矩形領域内に含まれる場合に、付加オブジェクト検出部142は、長尺オブジェクト50がカード7上に進入したことを判定して、長尺オブジェクト50がカード7を指定したことを検出する。付加オブジェクト検出部142は、指示記憶部152を参照して、指定されたカード7に対するゲーム指示を読み出し、投影画像生成部130に、指定されたカード7のカードIDとゲーム指示とを提供する。これを受けて投影画像生成部130は、当該カード7に対して、ゲーム指示を反映した投影画像を生成する。
 なお付加オブジェクト検出部142は、長尺オブジェクト50がカード7の矩形領域に進入したことを検出すると、検出してから所定時間(たとえば2秒)の間、長尺オブジェクト50が矩形領域に入り込み続けた場合に、長尺オブジェクト50がカード7上に進入したことを判定してもよい。たとえばユーザが意図せずカード7を触ってしまった場合や、カード7の位置を整えようとしている場合には、ユーザにカード選択の意思はない。そのため所定時間の間、矩形領域に進入している場合に、付加オブジェクト検出部142は、ユーザの長尺オブジェクト50によるカード指定操作として判定してもよい。
 さらに付加オブジェクト検出部142は、カード指定操作として検出する際に、カード7が動かされていないことを条件としてもよい。カードゲームにおいては、カード7の配置を動かすゲーム操作があり、カード7の配置を動かす場合には、ユーザは手指でカード7を動かすことになる。そのため、このゲーム操作と区別するために、付加オブジェクト検出部142は、カード7が動かされないこと、つまりカード7の位置座標に変化がないことを条件として、長尺オブジェクト50によるカード指定操作を検出してもよい。
 上記したように、長尺オブジェクト50の検出処理は、赤外線カメラ22の撮像画像にもとづいて実施されてよいが、光学装置20は、オブジェクト検出用の別の赤外線カメラをさらに備えてもよい。光学装置20は、投影領域4上に赤外レーザ光を照射する光源と、投影領域4を撮像する第2の赤外線カメラを備えてよい。オブジェクト検出部126は、第2の赤外線カメラの撮像画像から、投影領域4に進入したオブジェクトを検出してもよい。
 図16は、投影領域4に投影された投影画像の例を示す。カード7a、7dは、投影領域4に配置されているカードである。投影画像生成部130は、カード7aに対しては白色光を投影しつつ、カード7aの周囲に、指定されたことを示す演出画像を投影させている。このように投影画像生成部130は、カード7aに対する指示が検出される前と、検出された後とで、カード7aに対して異なる投影画像を生成し、プロジェクタ21から投影させる。これによりユーザは、カード7aを適切に指定できたことを知ることができる。なおカード7dは選択されていないため、カード7dに対する投影画像に変更はない。
 図17は、画像補正部116により補正された撮像画像の例を示す。この例では図柄である「A」、「C」を印刷された2枚のカード7a、7dが投影領域4に配置されている。画像補正部116は、補正用パラメータを用いて撮像画像を補正して、認識処理部120に提供する。認識処理部120において、カード検出部122が、カード7a、7dのカードID、中心座標および姿勢情報を検出し、カード情報生成部124が、カード7a、7dのカードID、4隅の頂点座標および姿勢情報を含むカード情報を生成して、指示検出部140に提供する。
 図17では、カード7d上に、2つのアイテムオブジェクト52が配置された状態が撮像されている。このアイテムオブジェクト52は、カードゲームの付属品として用意されたゲーム用コインである。アイテムオブジェクト52は、その検出精度を高めるために、たとえば再帰性反射材によって作られてよい。
 カードゲームでは、カード7にアイテムを載せて、カード7の状態を変化させる状態指定方法がある。アイテムオブジェクト52は、カード7の状態を変化させるために利用され、ユーザは、カード7の状態に応じた数のアイテムオブジェクト52をカード7に載せられる。オブジェクト検出部126は、撮像画像に含まれるアイテムオブジェクト52を検出し、検出したアイテムオブジェクト52の位置情報を指示検出部140に提供する。
 付加オブジェクト検出部142は、オブジェクトの位置情報と、カード7の4隅の頂点座標から、オブジェクトがカード7上に進入したか否かを判定する。付加オブジェクト検出部142は、カード7の矩形領域に入り込むオブジェクトが矩形領域外にでていない場合、すなわち矩形領域内でのみ検出される場合に、当該オブジェクトがアイテムオブジェクト52であることを検出する。図17に示す例では、アイテムオブジェクト52は、ゲーム用コインであるが、小石などのオブジェクトであってもよい。アイテムオブジェクト52は、カード7のサイズよりも小さい物体である必要がある。付加オブジェクト検出部142は、カード7の矩形領域に進入したオブジェクトが矩形領域内からはみ出ない場合に、アイテムオブジェクト52が進入したことを検出し、アイテムオブジェクト52が進入した矩形領域から、カード7のカードIDを特定する。
 指示記憶部152は、オブジェクトに関連づけられたゲーム指示を記憶する。指示記憶部152は、オブジェクトに関連づけて、ゲーム進行に応じたゲーム指示を記憶していてもよい。また指示記憶部152は、アイテムオブジェクト52の個数に応じたゲーム指示を記憶していてもよい。
 付加オブジェクト検出部142は、アイテムオブジェクト52により指定されたカード7を特定すると、指示記憶部152を参照して、カード7に対するゲーム指示を読み出し、投影画像生成部130に、指定されたカード7のカードIDとゲーム指示とを提供する。これを受けて投影画像生成部130は、当該カード7に対して、ゲーム指示を反映した投影画像を生成する。
 なおアイテムオブジェクト52を再帰性反射材で形成した場合、赤外線反射強度が高いため、カード検出時の赤外線カメラ22と同じカメラパラメータでアイテムオブジェクト52を撮像すると、反射強度が強すぎて、アイテムオブジェクト52の輪郭がぼやけ、実際のサイズよりも大きく撮像されてしまう。そのため赤外線カメラ22は、カード検出用のカメラパラメータと、再帰性反射材検出用のカメラパラメータとを調整して、背景は暗く、アイテムオブジェクト52のみが明るく画像に写り込むように撮像を実行することが好ましい。以下、カード検出用のカメラパラメータを第1パラメータ、再帰性反射材検出用のカメラパラメータを第2パラメータと呼ぶ。
 1つの手法として第1パラメータのシャッタースピードと第2パラメータのシャッタースピードを比較すると、第1パラメータのシャッタースピードは相対的に遅く、第2パラメータのシャッタースピードは相対的に速く設定される。これにより再帰性反射材の輪郭を実際のサイズに等しく撮像できるようになる。
 別の手法として、第2パラメータのカメラゲインを、第1パラメータのカメラゲインよりも下げてもよい。つまり再帰性反射材検出用のカメラパラメータでは、赤外線カメラ22の感度を下げることで、再帰性反射材の輪郭を実際のサイズに等しく撮像できるようになる。
 これらの手法は単独で利用されてもよく、また組み合わせて利用されてもよい。赤外線カメラ22は、第1パラメータと第2パラメータとを時間的に交互に切り替えて撮像してもよい。また赤外線カメラ22は、水平ラインごとに第1パラメータと第2パラメータとを交互に切り替えて撮像してもよく、画素ごとに第1パラメータと第2パラメータとを交互に切り替えて撮像してもよい。赤外線カメラ22がステレオカメラである場合は、一方のカメラを第1パラメータで動作させ、他方のカメラを第2パラメータで動作させてもよい。このように再帰性反射材のアイテムオブジェクト52を利用する場合には、異なるカメラパラメータで、カード検出とアイテム検出とが実施されてよい。
 次に、認識済みのカード7に、別のカード7を重ねることで、ゲーム操作を行う例を示す。
 重畳検出部144は、認識済みのカード7の上に、新たなカード7が重ねられたことを検出する。重畳検出部144がカード7が重ねられたことを検出すると、投影画像生成部130は、カードが重ねられたことに応じた投影画像を生成する。
 認識処理部120において、カード情報生成部124は、カード7のカードID、カード7の4つの頂点座標および姿勢情報を含むカード情報を、指示検出部140に提供する。あるカード7が配置されていた位置に、当該カード7が取り除かれることなく、別のカード7が配置されると、重畳検出部144は、異なる種類のカード7が重ねられたことを検出する。
 図18は、画像補正部116により補正された撮像画像の例を示す。この例では図柄である「A」を印刷されたカード7aが投影領域4に配置されている。画像補正部116は、補正用パラメータを用いて撮像画像を補正して、認識処理部120に提供する。認識処理部120において、カード検出部122が、カード7aのカードID、中心座標および姿勢情報を検出して、カード情報生成部124が、カードID、カード7の4つの頂点座標および姿勢情報を含むカード情報を生成し、指示検出部140に提供する。
 重畳検出部144は、カードIDおよび4つの頂点座標から、検出されたカード7aの位置を認識する。投影領域4においてカード7aが動かされなければ、重畳検出部144は、その間、カード7aが静止していることを認識する。ここでカード7a上にユーザが別のカード7dを重ねると、カード情報生成部124は、カード7dのカードID、4つの頂点座標および姿勢情報を含むカード情報を、指示検出部140に提供する。なおカード検出部122は、カード7aを検出できなくなるため、カード情報生成部124は、カード7aのカード情報を指示検出部140に提供しない。
 図19は、カード7aにカード7dを重ねた状態を示す。重畳検出部144は、カード情報生成部124から提供されるカード7dのカード情報を受け取ると、カード7aが消失したことを認識するとともに、カード7aが配置されていた位置に、カード7dが配置されていることを認識する。そこで重畳検出部144は、カード7aに、新たなカード7dが重ねられたことを検出する。
 重畳検出部144は、カード7aの位置情報とカード7dの位置情報とが重なる関係にあることを示す場合に、カード7a上にカード7dが重ねられたことを検出する。たとえば重畳検出部144は、カード7aの4点の頂点座標からカード7aの重心座標を求め、またカード7dの4点の頂点座標からカード7dの重心座標を求めて、2つの重心座標の距離が所定距離(たとえば短辺の半分)以下である場合に、カード7aにカード7dが重ねられたことを判定してもよい。なお重畳検出部144は、認識処理部120からカード7aのカードID等の情報の提供が途絶え、しばらくの時間が経過した後に、カード7aと同位置となるカード7dの情報の提供を受けた場合には、カードが重ねられたことを判定しない。この場合は、ユーザがカード7aをカード7dに交換したと判定されてよい。
 重畳検出部144は、カード7aにカード7dが重ねられたことを検出すると、投影画像生成部130にその旨を通知する。投影画像生成部130は、カード7aにカード7dが重ねられたことに応じた投影画像を生成し、プロジェクタ21から投影させる。
 図20は、投影画像の例を示す。図20(a)は、カード7aの攻撃力が5000であるとする投影画像を示す。図18に示すようにカード7aが検出されている場合、カード7aの近傍には、図20(a)に示す投影画像が投影されている。この状態から、図19に示すようにカード7aにカード7dが重ねられると、図20(b)に示すように、カード7aにカード7dを重ねた状態の攻撃力が10000であるとする投影画像が投影される。実施例のカードゲームでは、カード7を複数枚重ねたことによる特殊効果を生じさせることで、ゲームに新しい楽しみ方を提供できる。
 以上は、別種類のカード7を重ねた場合の処理であるが、ユーザが同じ種類のカード7を複数枚有していることは多い。そこで以下では、同じ種類のカード7を重ねた場合の処理について説明する。
 実施例のカード検出部122は、図柄によりカード7を特定するものであり、同種のカード7を区別できない。そこで実施例では、マークを不可視インクで印刷したカードスリーブを利用し、カードスリーブにカード7を入れることで、同種のカード7であっても区別できるようにする。
 図21(a)は、カードスリーブ9を示す。このカードスリーブ9は、カード7を入れるための袋体の形状を有するフィルムケースであり、ユーザは、カードスリーブ9にカード7を入れて保護することができる。カードスリーブ9は、可視光を透過する透明シートにより形成される。
 カードスリーブ9には、赤外線カメラ22で撮像可能なインクでスリーブ識別情報(スリーブID)9aが印刷されている。このインクは、不可視インクであって、スリーブID9aは、ユーザにより視認されないように印刷されていることが好ましい。ユーザは、複数のカードスリーブ9を有してよいが、各カードスリーブ9のスリーブID9aは、重複しないことが好ましい。
 図21(b)は、カードスリーブ9にカード7を入れた状態を示す。ユーザは、同種のカード7を重ねる場合は、カードスリーブ9にカード7を入れた状態で使用する。カード検出部122は、カードIDを特定する際に、スリーブID9aを読み取る。カード情報生成部124は、カード7に関するカード情報として、カードID、4つの頂点座標および姿勢情報とともに、スリーブIDを重畳検出部144に提供する。
 図18を参照して、認識処理部120において、カード検出部122が、カード7aのカードID、中心座標および姿勢情報を検出する。指示検出部140は、カード情報生成部124から、カード7aのカードID、4つの頂点座標および姿勢情報とともに、スリーブIDを提供される。
 重畳検出部144は、カードIDおよび頂点座標から、検出されたカード7aの位置を認識する。投影領域4においてカード7aが動かされなければ、重畳検出部144は、その間、カード7aが静止していることを認識する。ここでカード7a上にユーザが同種の別のカード7aを重ねると、カード情報生成部124は、カード7aのカードID、4つの頂点座標および姿勢情報とともに、スリーブIDを指示検出部140に提供する。
 図22は、カード7aに、カード7aを重ねた状態を示す。いずれのカード7aも、カードスリーブ9に挿入されている。なお各カードスリーブ9のスリープIDは異なっている。重畳検出部144は、カード情報生成部124から提供されるカード7aのカード情報を受け取ると、スリーブIDに変更があったことから、元のカード7aが配置されていた位置に、新たな別のカード7aが配置されていることを認識する。そこで重畳検出部144は、カード7aに、別のカード7aが重ねられたことを検出する。
 重畳検出部144は、カード7aに同種のカード7aが重ねられたことを検出すると、投影画像生成部130にその旨を通知する。投影画像生成部130は、カード7aにカード7aが重ねられたことに応じた投影画像を生成し、プロジェクタ21から投影させる。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 実施例では、コインなどの実オブジェクトをカード7上に配置して、カード7の状態を変更したが、処理装置10は、バーチャルなアイテムをカード7に配置(投影)して、カード7の状態を変更してもよい。また投影画像生成部130は、サーバや処理装置10に記録しているセーブデータを読み込むことでカード7の状態を設定して、プロジェクタ21から状態を示す投影画像をカード7に投影させてもよい。
 実施例では、同種のカード7をカードスリーブ9によって区別したが、同種のカード7を重ねたことは、ユーザにより指定されてもよい。たとえばカード7の近傍に、同種カード7を重ねたことを示すボタン画像が投影され、ユーザがボタン画像が投影された位置をタッチすると、同種のカード7を重ねたことが重畳検出部144により検出されてもよい。このときオブジェクト検出部126は、投影領域4におけるユーザの指位置を検出し、重畳検出部144は、指位置がボタン画像の投影位置に重なったときに、同種のカード7が重ねられたことを検出してもよい。なお音声認識部146が、ユーザからの「同じカードを重ねました」の発声を認識すると、重畳検出部144は、同種のカード7が重なったことを検出してもよい。
1・・・画像投影システム、3・・・表示装置、4・・・投影領域、5・・・撮像領域、7,7a,7b,7c,7d・・・カード、8,8a・・・マーク、9・・・カードスリーブ、10・・・処理装置、20・・・光学装置、21・・・プロジェクタ、22・・・赤外線カメラ、23・・・可視光カメラ、100・・・撮像画像取得部、102・・・位置受付部、104・・・表示処理部、110・・・画像変換部、112・・・カード検出部、114・・・領域特定部、116・・・画像補正部、120・・・認識処理部、122・・・カード検出部、124・・・カード情報生成部、126・・・オブジェクト検出部、130・・・投影画像生成部、140・・・指示検出部、142・・・付加オブジェクト検出部、144・・・重畳検出部、146・・・音声認識部、150・・・マーク記憶部、152・・・指示記憶部、154・・・演出記憶部。
 本発明は、投影装置であるプロジェクタから画像を投影する技術分野に利用できる。

Claims (5)

  1.  プロジェクタにより投影された投影領域を含む領域を撮像した撮像画像を取得する撮像画像取得部と、
     撮像画像に含まれるカードの認識処理を実行する認識処理部と、
     前記認識処理部が認識したカードにもとづいて、プロジェクタにより投影する投影画像を生成する投影画像生成部と、
     認識済みの第1のカードの上に、新たな第2のカードが重ねられたことを検出する重畳検出部と、
     を備えることを特徴とする処理装置。
  2.  前記重畳検出部がカードが重ねられたこと検出すると、前記投影画像生成部は、カードが重ねられたことに応じた投影画像を生成する、
     請求項1に記載の処理装置。
  3.  前記認識処理部は、認識したカードの識別情報および位置情報を前記重畳検出部に提供し、
     前記重畳検出部は、第1のカードの位置情報と第2のカードの位置情報とが重なる関係にあることを示す場合に、第1のカード上に第2のカードが重ねられたことを検出する、
     ことを特徴とする請求項1または2に記載の処理装置。
  4.  プロジェクタにより投影する投影画像を生成する方法であって、
     プロジェクタにより投影された投影領域を含む領域を撮像した撮像画像を取得するステップと、
     撮像画像に含まれるカードの認識処理を実行するステップと、
     認識したカードにもとづいて、プロジェクタにより投影する投影画像を生成するステップと、
     認識済みの第1のカードの上に、新たな第2のカードが重ねられたことを検出するステップと、
     を有することを特徴とする投影画像生成方法。
  5.  コンピュータに、
     プロジェクタにより投影された投影領域を含む領域を撮像した撮像画像を取得する機能と、
     撮像画像に含まれるカードの認識処理を実行する機能と、
     認識したカードにもとづいて、プロジェクタにより投影する投影画像を生成する機能と、
     認識済みの第1のカードの上に、新たな第2のカードが重ねられたことを検出する機能と、
     を実現させるためのプログラム。
PCT/JP2017/006670 2016-04-14 2017-02-22 処理装置および投影画像生成方法 WO2017179309A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-081240 2016-04-14
JP2016081240A JP6473711B2 (ja) 2016-04-14 2016-04-14 処理装置および投影画像生成方法

Publications (1)

Publication Number Publication Date
WO2017179309A1 true WO2017179309A1 (ja) 2017-10-19

Family

ID=60041855

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/006670 WO2017179309A1 (ja) 2016-04-14 2017-02-22 処理装置および投影画像生成方法

Country Status (2)

Country Link
JP (1) JP6473711B2 (ja)
WO (1) WO2017179309A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002102529A (ja) * 2000-10-03 2002-04-09 Sega Corp ゲーム装置
JP2002247602A (ja) * 2001-02-15 2002-08-30 Mixed Reality Systems Laboratory Inc 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2002301264A (ja) * 2001-02-02 2002-10-15 Sega Corp カードゲーム装置及びカードデータ読み取り装置及びカードゲーム制御方法及び記録媒体及びプログラム及びカード
JP2006065498A (ja) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> 会議支援システムとそのサーバ装置及びプログラム
US20150085155A1 (en) * 2013-09-26 2015-03-26 Qualcomm Incorporated Image capture input and projection output
JP2015092205A (ja) * 2013-09-30 2015-05-14 株式会社ソニー・コンピュータエンタテインメント 画像投影システムおよびカード

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3851907B2 (ja) * 2004-02-18 2006-11-29 株式会社ソニー・コンピュータエンタテインメント 画像表示システム及びビデオゲームシステム
JP5325311B2 (ja) * 2012-03-23 2013-10-23 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002102529A (ja) * 2000-10-03 2002-04-09 Sega Corp ゲーム装置
JP2002301264A (ja) * 2001-02-02 2002-10-15 Sega Corp カードゲーム装置及びカードデータ読み取り装置及びカードゲーム制御方法及び記録媒体及びプログラム及びカード
JP2002247602A (ja) * 2001-02-15 2002-08-30 Mixed Reality Systems Laboratory Inc 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2006065498A (ja) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> 会議支援システムとそのサーバ装置及びプログラム
US20150085155A1 (en) * 2013-09-26 2015-03-26 Qualcomm Incorporated Image capture input and projection output
JP2015092205A (ja) * 2013-09-30 2015-05-14 株式会社ソニー・コンピュータエンタテインメント 画像投影システムおよびカード

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NOZOMU TANAKA ET AL.: "Augmented Environments for Playing Cards with a Projector-Camera System", IPSJ INTERACTION 2012, INFORMATION PROCESSING SOCIETY OF JAPAN, 16 March 2012 (2012-03-16), pages 647 - 652 *
YUICHI SATO ET AL.: "Trainingable Trading Card Game using RFID", DAI 72 KAI (HEISEI 22 NENDO) ZENKOKU TAIKAI KOEN RONBUNSHU (4), INFORMATION PROCESSING SOCIETY OF JAPAN, 8 March 2010 (2010-03-08), pages 873 - 874 *

Also Published As

Publication number Publication date
JP6473711B2 (ja) 2019-02-20
JP2017192063A (ja) 2017-10-19

Similar Documents

Publication Publication Date Title
KR101481880B1 (ko) 휴대용 실감형 상호작용을 위한 시스템
US8226011B2 (en) Method of executing an application in a mobile device
US8417384B2 (en) Information processing system, robot apparatus, and control method therefor
JP5256269B2 (ja) データ生成装置、データ生成装置の制御方法、及びプログラム
US10762706B2 (en) Image management device, image management method, image management program, and presentation system
JP5205187B2 (ja) 入力システム及び入力方法
EP2698765B1 (en) Apparatus and method for object positioning
Pucihar et al. Exploring the evolution of mobile augmented reality for future entertainment systems
JP2005143657A (ja) 情報呈示システム、情報呈示装置、情報呈示装置のための媒体、情報呈示方法、及び情報提示プログラム
JP5612929B2 (ja) 案内情報提供システム、制御装置、案内情報提供方法、及びプログラム
JP2014093034A (ja) 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
US10049605B2 (en) Display apparatus, display control method, and display system
JP2017189446A (ja) 処理装置および投影画像生成方法
JP6285980B2 (ja) 処理装置および投影画像生成方法
JP6739847B2 (ja) 画像表示制御装置および画像表示制御用プログラム
JP6473711B2 (ja) 処理装置および投影画像生成方法
WO2017179307A1 (ja) 処理装置およびキャリブレーション方法
US20220244788A1 (en) Head-mounted display
JP2005267006A (ja) 情報処理装置および画像生成プログラム
JP5554010B2 (ja) 射撃ゲーム装置
JP2022022133A (ja) 実オブジェクトの3dスキャンニングのための方法
JP2006314634A (ja) ゲームプログラムおよびゲーム装置
KR20200060202A (ko) 증강현실 기반의 동화 구현 방법 및 장치
JP2013037420A (ja) コンテンツ表示システム、コンテンツ表示制御方法、コンテンツ表示制御装置、プログラム
JP2009015692A (ja) 情報読取システム、プログラム、及び情報記憶媒体

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17782127

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17782127

Country of ref document: EP

Kind code of ref document: A1