WO2021172212A1 - 情報システム - Google Patents

情報システム Download PDF

Info

Publication number
WO2021172212A1
WO2021172212A1 PCT/JP2021/006390 JP2021006390W WO2021172212A1 WO 2021172212 A1 WO2021172212 A1 WO 2021172212A1 JP 2021006390 W JP2021006390 W JP 2021006390W WO 2021172212 A1 WO2021172212 A1 WO 2021172212A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
language type
game
unit
image
Prior art date
Application number
PCT/JP2021/006390
Other languages
English (en)
French (fr)
Inventor
克典 木水
崇 代市
理宇 茶木
Original Assignee
株式会社バンダイナムコアミューズメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社バンダイナムコアミューズメント filed Critical 株式会社バンダイナムコアミューズメント
Publication of WO2021172212A1 publication Critical patent/WO2021172212A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to an information system capable of providing text information to a user.
  • Patent Document 1 As an information system capable of providing character information to a user, for example, a game device shown in Patent Document 1 is known.
  • this game device various character information is displayed while the game is in progress.
  • the user can change the language type of the character information by operating the input device while the game is in progress.
  • An object of the present invention is to facilitate the change of language type.
  • the information system according to the first invention includes an information acquisition means for acquiring information, a language type setting means for setting a language type based on the information acquired by the information acquisition means, and the above. It is characterized by including a display control means for displaying character information according to the language type set by the language type setting means on the display unit.
  • a display control means for displaying character information according to the language type set by the language type setting means on the display unit.
  • the information system according to the second invention includes information for designating a language type in the information acquired by the information acquisition means, and the language type setting means is described above. It is characterized in that the language type is set based on the information for specifying the language type.
  • the language type since the language type can be directly set based on the information acquired by the information acquisition means, it is possible to simplify the processing of the language type setting means.
  • the language type designation information (language type designation information A to language type designation information D), which will be described later, corresponds to the information.
  • the information system according to the third invention is the information system according to the first invention, in which the language type setting means acquires information associated with the information acquired by the information acquisition means, and the acquired information is used. It is characterized in that the language type is set based on the above. In the information system according to the third invention, it is possible to change the language type of the character information without having to include the information for specifying the language type in the information acquired by the information acquisition means.
  • the information associated with the information acquired by the information acquisition means the biometric information of the user, the member ID of the user, the connection history information, and the like, which will be described later, correspond to the information.
  • the information system according to the fourth invention is the information system according to any one of the first to third inventions, wherein the information acquisition means acquires information held in a medium.
  • the information system according to the fourth invention it is possible to facilitate the acquisition of information by the information acquisition means.
  • the medium corresponds to an information medium described later.
  • the information system according to the fifth invention is characterized in that, in the information system according to the fourth invention, the information held in the medium is a one-dimensional code or a two-dimensional code. In the information system according to the fifth invention, it is possible to further facilitate the acquisition of information by the information acquisition means.
  • the information system according to the sixth invention is the information system according to the fourth invention, wherein the medium is an RFID tag.
  • the information system according to the sixth invention it is possible to further facilitate the acquisition of information by the information acquisition means.
  • the information system according to the seventh invention is the information system according to the fourth invention, wherein the medium is a mobile communication terminal.
  • the medium is a mobile communication terminal.
  • the information system according to the eighth invention is the information system according to any one of the fourth to seventh inventions, and the information held in the medium includes time information regarding the effective time of the game.
  • a generation means for generating recommended information recommended to a user based on the time information is provided, and the character information includes character information constituting the recommended information generated by the generation means. do.
  • the information system according to the eighth invention makes it possible for the user to easily understand the recommended information.
  • the time information regarding the effective time of the game the exit time information described later corresponds.
  • the recommended attraction information described later corresponds to the recommended information.
  • the server system 10 described later corresponds to the generation means.
  • the information system according to the ninth invention is the information system according to any one of the fourth to seventh inventions, and the information held in the medium includes attribute information relating to the user's attributes.
  • a generation means for generating recommended information recommended to a user based on attribute information is provided, and the character information includes character information constituting the recommended information generated by the generation means. ..
  • the information system according to the ninth invention makes it possible for the user to easily understand the recommended information.
  • the attribute information the attribute information described later corresponds.
  • the recommended attraction information described later corresponds to the recommended information.
  • the server system 10 described later corresponds to the generation means.
  • the information system according to the tenth invention is the information system according to the third invention, wherein the information acquisition means acquires biometric information of a user.
  • the information acquisition means acquires biometric information of a user.
  • the biometric information corresponds to the biometric information described later.
  • the information system according to the eleventh invention is the information system according to any one of the first to tenth inventions, in response to the information being acquired by the information acquisition means, by the language type setting means.
  • the feature is that the display of character information according to the set language type is started.
  • it is possible to immediately change the language type of character information according to the acquisition of information by the information acquisition means.
  • predetermined information regarding a game playing method is displayed on the display unit, and the character information is displayed. Is characterized in that character information constituting the predetermined information is included. According to the information system according to the twelfth invention, it is possible for a user to start playing a game after fully understanding how to play the game.
  • the information system according to the thirteenth invention is the information system according to any one of the first to the twelfth inventions, wherein the display unit is a display means of a game device.
  • the display unit is a display means of a game device.
  • the game device the game device 1 described later corresponds.
  • game-related information related to the game is displayed in the attract mode, and the character information includes characters constituting the game-related information. It is characterized by containing information.
  • the user can start the game after understanding the information about the game.
  • the attract mode corresponds to the attract state described later.
  • the attract information described later corresponds to it.
  • the information system according to the fifteenth invention is the information system according to any one of the first to the twelfth inventions, wherein the display unit is a display means for digital signage.
  • the display unit is a display means for digital signage.
  • the digital signage the digital signage device 20 described later corresponds.
  • FIG. 1 is a perspective view showing the overall configuration of the game device 1.
  • FIG. 2 is a diagram showing a configuration example of a control system of the game device 1.
  • the game device 1 includes a processing unit 100, an operation unit 110, a storage unit 120, an information storage medium 130, a display unit 140, a sound output unit 150, and an I / F unit. It includes 160, a communication unit 170, and a coin insertion unit 180.
  • the processing unit 100 includes operation information input from the operation unit 110, information input from the I / F unit 160, detection information input from the coin insertion unit 180, program data stored in the information storage medium 130, and the like. Based on the above, the processing required to provide various services is executed.
  • the processing unit 100 includes an input processing unit 101, an arithmetic processing unit 102, and an output processing unit 103.
  • the processing unit 100 can be realized by a processor and a memory.
  • the input processing unit 101 receives the operation information input from the operation unit 110, the information read by the I / F unit 160, the detection information input from the coin insertion unit 180, and the storage unit.
  • a process of reading program data from 120, a process of receiving data via the communication unit 170, and the like are executed.
  • the arithmetic processing unit 102 includes a game processing unit 102a, a management unit 102b, a display processing unit 102c, and a sound processing unit 102d.
  • the game processing unit 102a executes various game processing for the user (player) to play the game.
  • Various game processes include a process of starting a game when a game start condition is satisfied, a process of advancing a game, a process of ending a game when a game end condition is satisfied, and a process of updating game parameters. It includes processing to calculate the result of the game.
  • the management unit 102b executes a process of managing various types of information stored in the storage unit 120.
  • the display processing unit 102c generates a game image according to the results of various game processing executed by the game processing unit 102a, and outputs the generated game image to the display unit 140.
  • the sound processing unit 102d executes sound processing for generating game sounds such as BGM, sound effects, and voices according to the results of various game processing executed by the game processing unit 102a. Then, the game sound generated by the sound processing is output to the sound output unit 150.
  • the output processing unit 103 executes a process of writing data to the storage unit 120, a process of transmitting data to a server system (not shown) via the communication unit 170, and the like.
  • the operation unit 110 can be operated by the user, and outputs operation information according to the operation by the user to the processing unit 100.
  • the operation unit 110 can be realized by an operation button, a direction instruction key, an analog stick, a lever, a touch panel type display, or the like.
  • the storage unit 120 serves as a work area for the processing unit 100, the communication unit 170, and the like.
  • the storage unit 120 can be realized by a semiconductor memory, an HDD, an SSD, an optical disk device, or the like.
  • the information storage medium 130 stores (stores) program data and the like. In particular, the information storage medium 130 stores various programs, various image data, various text data, and the like necessary for the progress of the game.
  • the processing unit 100 can read the program data stored in the information storage medium 130.
  • the processing unit 100 executes various processes based on the program data stored in the information storage medium 130.
  • the information storage medium 130 can be realized by an optical disk, an HDD, a semiconductor memory, or the like.
  • the program data for operating the computer as each component unit (input processing unit 101, arithmetic processing unit 102, output processing unit 103, etc.) of the game device 1 is stored in the information storage medium 130. ing.
  • the program data for operating the computer as each component of the game device 1 may be stored in the storage unit of the server system and distributed to the game device 1 via the network 30.
  • the display unit 140 displays the game image output by the display processing unit 102c.
  • the display unit 140 can be realized by an LCD, an organic EL display, a CRT, or the like.
  • the sound output unit 150 outputs the game sound output by the sound processing unit 102d.
  • the sound output unit 150 can be realized by a speaker, headphones, or the like.
  • the I / F (interface) unit 160 serves as an interface to an information medium. Specifically, the I / F unit 160 executes reading of the information stored (recorded) in the information medium, and outputs the read information to the processing unit 100.
  • the "information medium” is a means for storing (recording / retaining) information for designating a language type (hereinafter referred to as "language type designation information").
  • "Language type" is information that specifies the type of language such as Japanese, English, Korean, and Chinese.
  • each game device 1 is provided with a plurality of information media in which language type designation information for designating different language types is stored.
  • the language type specification information As the language type specification information, the language type specification information A that specifies Japanese, the language type specification information B that specifies English, the language type specification information C that specifies Korean, and Chinese are specified. Language type designation information D is specified. Then, in each game device 1, the information medium A in which the language type designation information A is stored, the information medium B in which the language type designation information B is stored, and the information medium C in which the language type designation information C is stored, An information medium D in which the language type designation information D is stored is provided.
  • Information media include a medium on which a barcode is printed (ticket, card, etc.), a medium on which a two-dimensional code is printed (ticket, card, etc.), and a medium (card, wristband, coin, etc.) having an RFID tag (IC tag). ), A medium (mobile communication terminal, etc.) equipped with NFC (Near Field Communication) or the like.
  • NFC Near Field Communication
  • the information medium is realized by the medium on which the two-dimensional code is printed
  • the two-dimensional code to which the language type designation information is converted is printed on the medium.
  • the I / F unit 160 is realized by the two-dimensional code reader, and the two-dimensional code (language type designation information) printed on the information medium is read.
  • the information medium is realized by the medium provided with the RFID tag (IC tag)
  • the language type designation information is stored in the storage unit of the RFID tag.
  • the I / F unit 160 is realized by the RFID reader, and the language type designation information stored in the RFID tag is read.
  • the information medium is realized by the medium equipped with NFC
  • the language type designation information is stored in the storage unit of the medium.
  • the I / F unit 160 is realized by the NFC reader, and the language type designation information stored in the medium is read.
  • the communication unit 170 executes communication with the server system via the network 30.
  • the communication unit 170 can be realized by hardware such as a communication ASIC and a communication processor, or communication firmware.
  • the coin insertion unit 180 allows the user to insert coins, and outputs detection information to the processing unit 100 in response to detection of coin insertion.
  • the coin insertion unit 180 can be realized by a coin selector or the like.
  • the transition of the game image (screen) displayed on the display unit 140 of the game device 1 will be described.
  • the game device 1 shifts to the attract state (standby state / customer waiting state) according to the power on.
  • the attract state the attract image (screen) is displayed on the display unit 140.
  • attract information such as information about the game device 1, information about the game provided by the game device 1, and information about the user who plays the game device 1 is displayed.
  • the attract information is configured to include character information (text data such as characters and sentences).
  • the attract information includes information on the conditions of users who are permitted to play the game (conditions such as age and height), and conditions of users who are prohibited from playing the game (physical condition, pre-existing illness, disability, drinking, pregnancy). , Information on subjective symptoms, etc.), information on fees (tickets) required to play the game, information on precautions for playing the game, information on how to operate the game device 1, information on the content of the game (of the game) Includes information about titles, tutorials, how to play the game, characters appearing in the game, conditions for clearing the game, in-game production, etc.).
  • the state shifts from the attract state to the start state.
  • the start image (screen) is displayed on the display unit 140.
  • start information such as a game title and a message prompting the user to press the start button is displayed.
  • the start information is configured to include character information.
  • the state shifts from the start state to the main menu state.
  • the start button is included in the operation unit 110.
  • the main menu image (screen) is displayed on the display unit 140.
  • Various service menus provided by the game device 1 are displayed on the main menu image.
  • various service menus are configured to include character information.
  • game point purchase, game mode selection, logout, etc. are defined as various service menus.
  • the service icon corresponding to each service menu is displayed on the main menu image, and by operating the operation unit 110 to select the service icon, it is possible to shift to the service menu corresponding to the selected service icon. It is possible.
  • the state shifts from the main menu state to the game point purchase state.
  • the game point purchase image (screen) is displayed on the display unit 140.
  • the game point purchase image is an image in which game points are purchased at the user's option.
  • the "game points” are virtual currencies that can be used in the game device 1. In this embodiment, it is possible to play various games by consuming (using) game points. Game points can be purchased (acquired / acquired / exchanged) by consuming credits. The "credit” is a value given by inserting a coin into the coin insertion unit 180.
  • the purchase icon corresponding to each purchase menu is displayed on the game point purchase image, and by operating the operation unit 110 to select the purchase icon, the purchase icon corresponding to the selected purchase icon is displayed. It is possible to spend credits to purchase game points.
  • a return icon for specifying the return to the main menu image is displayed on the game point purchase image. Then, when the return icon is selected by operating the operation unit 110 during the game point purchase state, the game point purchase state shifts to the main menu state accordingly.
  • the game mode selection state is entered from the main menu state.
  • the game mode selection image (screen) is displayed on the display unit 140.
  • the game mode selection image is an image that allows the game to be started by the user's selection.
  • games provided by the game device 1 a plurality of types of games having different difficulty levels of tasks, contents of tasks, and the like are defined. In the plurality of types of games, the number of game points consumed by providing the game differs depending on the difficulty level of the task, the content of the task, and the like.
  • game icons corresponding to each game are displayed for a plurality of games that can be started to be played.
  • the game icons corresponding to each game are consumed by the content of the task of the game, the difficulty level of the task of the game, the items acquired when the task of the game is achieved, and the provision of the game.
  • Character information such as the number of game points is displayed.
  • the game mode selection state shifts to the game progress state corresponding to the selected game icon (the game corresponding to the selected game icon). Is started).
  • a return icon is displayed on the game mode selection image to specify that the image returns to the main menu image.
  • the game mode selection state shifts to the main menu state. Further, a logout icon for specifying logout is displayed on the game mode selection image. Then, when the logout icon is selected by operating the operation unit 110 during the game mode selection state, the game mode selection state shifts to the attract state accordingly.
  • the in-game image (screen) corresponding to the game is displayed on the display unit 140, and the user plays (progresses) the game by operating the operation unit 110. ) Is possible.
  • various character information is displayed according to the progress of the game. If the task achievement condition corresponding to the game is satisfied (when the task is achieved) during the game progress state corresponding to each game, the game progress state is changed to the game clear state.
  • the clear image (screen) corresponding to the game is displayed on the display unit 140.
  • various character information for notifying the result of the game such as the item acquired by playing the game, the time required to clear the game, and the evaluation of the play content of the game, is displayed. Then, when a predetermined time elapses from the start of the game clear state, the game mode is selected from the game clear state accordingly. On the other hand, if the task non-achievement condition corresponding to the game is satisfied (when the task is not achieved) during the game progress state corresponding to each game, the game progress state is shifted to the continue state.
  • the user can consume game points or credits and select the continuation (continue) of the game by pressing the continue button during the continue state.
  • the continue image (screen) corresponding to the game is displayed on the display unit 140.
  • character information for notifying that the game can be continued is displayed by pressing the continue button (consumption of game points or credits).
  • the press operation of the continue button (consumption of game points or credits) is detected by the time when the predetermined time elapses from the start of the continue state, the game progress state is restarted according to the detection. (The game is restarted).
  • the game is over from the continue state according to the elapse of the predetermined time. Move to the state.
  • the game over image (screen) corresponding to the game is displayed on the display unit 140.
  • character information for notifying the end of the game is displayed.
  • the game over state shifts to the game mode selection state accordingly.
  • the storage unit 120 includes a language type designated information storage area. Then, in the language type designation information storage area, any of the language type designation information (in this embodiment, the language type designation information A, the language type designation information B, the language type designation information C, and the language type designation information D) The language type specification information) is stored (set). The management unit 102b executes the language type initialization process in response to the transition to the attract state. In the language type initialization process, the language type designation information A is stored (overwritten) in the language type designation information storage area.
  • the language type designation information stored in the language type designation information storage area is initialized to the language type designation information A.
  • the language type change valid state is set. In the present embodiment, the language type change valid state is set only during the attract state during the period when the power is turned on to the game device 1. It should be noted that the language type change enabled state may be set at all times during the period when the power of the game device 1 is turned on. While the language type change enabled state is being set, the reading of information by the I / F unit 160 is enabled.
  • the management unit 102b performs the language type update process in response to the fact that the I / F unit 160 reads out the language type designation information stored in the information medium while the language type change enabled state is set. To execute.
  • the language type update process the language type specification information read by the I / F unit 160 is stored (overwritten) in the language type specification information storage area, and then the display processing unit 102c is requested to update the attract image. Will be done.
  • the language type designation information stored in the language type designation information storage area is changed to the information medium. It is updated to the language type specification information stored in.
  • the display processing unit 102c executes image display processing according to the results of various game processing executed by the game processing unit 102a.
  • a game image is generated, and the generated game image is output to the display unit 140.
  • each game image is one or more images ( It is generated by synthesizing image data) and one or more character information (text data).
  • a plurality of types of all character information displayed on the game device 1 are displayed (expressed) as text data corresponding to each character information in different language types.
  • Text data is stored. That is, in a plurality of types of text data corresponding to each character information, character information indicating the same meaning and content is displayed (expressed) by different language types.
  • As text data corresponding to each character information four types of text data (specifically, text data a displayed (expressed) in Japanese and text data b displayed (expressed) in English). , Text data c displayed (expressed) in Korean, and text data d) displayed (expressed) in Chinese are stored.
  • the display processing unit 102c generates (draws) each game image based on one or more images (image data) and one or more character information (text data).
  • the game image is generated using any of the four types of text data (text data a to text data d) corresponding to the character information.
  • one of the four types of text data corresponding to the character information is selected according to the language type specification information stored in the language type specification information storage area.
  • the language type designation information A is stored in the language type designation information storage area, the text data a is selected.
  • the text data b is selected.
  • the language type designation information C is stored in the language type designation information storage area
  • the text data c is selected.
  • the language type designation information D is stored in the language type designation information storage area, the text data d is selected.
  • the display processing unit 102c generates an attract image in response to the transition to the attract state (start of the attract state), and outputs the generated attract image to the display unit 140.
  • the display of the attract image on the display unit 140 is started.
  • the display processing unit 102c executes the image update processing in response to the request for the update of the attract image by the management unit 102b.
  • the image update process the content of the attract image is updated. That is, an attract image is generated again, and the generated attract image is output to the display unit 140.
  • the content of the attract image displayed on the display unit 140 (particularly, the language type of the character information) is updated.
  • an attract image is generated by the same process as the above image display process.
  • the display processing unit 102c generates an attract image based on one or more images (image data) and one or more character information (text data).
  • the language type designation stored in the language type designation information storage area is specified for each character information constituting the attract image.
  • An attract image is generated using the text data corresponding to the language type specified by the information.
  • the language type of all the character information constituting the attract image is overwritten in the language type designation information storage area (that is, the language type designation information (information) read by the I / F unit 160).
  • the language type specification information stored in the medium)) is updated (changed) to the specified language type.
  • the attract state is set during the period during which the play by the user is not executed (during the period during which the user is logged out), and the attract image is displayed on the display unit 140. Then, the user who is interested in the game device 1 first corresponds to the language type that he / she can understand among the four types of information media (information medium A to information medium D) provided in the game device 1. An information medium is selected, and the selected information medium is brought close to the I / F unit 160.
  • the language type designation information (language type designation information A to language type designation information D) stored in the information medium is read by the I / F section 160, and the language read by the I / F section 160.
  • the type designation information is stored (overwritten) in the language type designation information storage area, and the contents of the attract image are updated.
  • the language type of each character information (text data) constituting the attract image is changed to the language type specified by the language type specification information stored (overwritten / selected) in the language type specification information storage area.
  • the user needs various information displayed on the attract image (information on the conditions of the user who is allowed to play the game, information on the conditions of the user who is prohibited from playing the game, and information on the conditions of the user who is prohibited from playing the game).
  • the I / F unit 160 that acquires information (language type designation information), the management unit 102b that sets the language type based on the information acquired by the I / F unit 160, and the management unit 102b set it. It includes a display processing unit 102c that displays character information according to the language type on the display unit.
  • the language type of the character information can be changed only by the operation of causing the I / F unit 160 to acquire the information, and the language type can be easily changed. In particular, it is possible to facilitate the change of the language type of the character information related to the game.
  • the game-related information (attract information) related to the game is displayed in the attract mode (in the attract state), and the characters constituting the game-related information are formed by the operation of causing the I / F unit 160 to acquire the information.
  • the language type of information is changed. This enables the user to start the game after understanding the information about the game. In particular, for games with complicated operation methods such as rhythm games and simulation games, the user can start playing after understanding the operation method, and the interest is based on insufficient understanding of the operation method. It becomes possible to prevent the decrease of. Further, for a game such as a commercial VR game in which it is difficult to understand the play content based on the appearance, the user can select whether or not to play the game after understanding the play content.
  • the user can start playing after understanding the capture method.
  • the information acquired by the I / F unit 160 includes information for designating the language type (language type designation information), and the management unit 102b uses the information for designating the language type as the language. Set the type.
  • the language type can be directly set based on the information acquired by the I / F unit 160, so that the processing of the management unit 102b can be simplified.
  • the I / F unit 160 acquires the information held in the information medium. This makes it possible to facilitate the acquisition of information by the I / F unit 160.
  • the information held in the information medium can be a one-dimensional code or a two-dimensional code, and the information medium can be an RFID tag or a mobile communication terminal. This makes it possible to further facilitate the acquisition of information by the I / F unit 160.
  • each game device 1 is provided with a game medium (information medium A to information medium D).
  • the configuration may be such that the user can acquire (hold) an information medium (information medium A to information medium D) corresponding to a language type that the user can understand.
  • a two-dimensional code or bar code obtained by converting the language type designation information may be printed.
  • the "pamphlet" is a booklet that contains information about the facility where the game device 1 is installed.
  • pamphlets corresponding to each language type are provided at the entrance of the facility, the information center, the reception desk, and other distribution offices.
  • a two-dimensional code converted from the language type designation information A is printed on the pamphlet containing the guidance information in Japanese.
  • a two-dimensional code converted from the language type designation information B is printed on the pamphlet containing the guidance information in English.
  • a two-dimensional code converted from the language type designation information C is printed on the pamphlet containing the guidance information in Korean.
  • a two-dimensional code converted from the language type designation information B is printed on the pamphlet containing the guidance information in Chinese.
  • the user acquires a pamphlet corresponding to a language type that he / she can understand at the distribution center, and causes the I / F unit 160 of each game device 1 to read the two-dimensional code printed on the acquired pamphlet.
  • This makes it possible to change the language type of each character information constituting the attract image of the game device 1 to a language type that can be understood by oneself.
  • the ticket may have a configuration in which a two-dimensional code (or barcode) in which the language type designation information is converted is printed.
  • the "ticket” is a free pass ticket (a ticket that allows you to enter the facility where the game device 1 is installed and stay without a time limit), and a time-based ticket (a facility where the game device 1 is installed). Tickets that allow you to enter the game and stay for a limited period of time), individual play tickets (tickets that allow you to play each game device 1), and the like. That is, in the sales device that sells the ticket, the user can select the language type, and the language type specification information that specifies the language type selected by the user and the information that specifies the type of the sold ticket are included.
  • the two-dimensional code obtained by converting the information is printed on the sold ticket.
  • the user reads the two-dimensional code printed on the purchased ticket into the I / F unit 160 of each game device 1, so that the language of each character information constituting the attract image of the game device 1 is formed.
  • the type can be changed to the language type selected at the time of ticket purchase.
  • the wristband lent to the user may be configured to store the language type designation information. That is, when the user enters the facility, he / she lends a wristband equipped with an RFID tag (IC tag). At this time, the language type designation information and the like for designating the language type selected by the user by the operator are stored in the RFID tag. As a result, the user brings the rented wristband close to the I / F unit 160 of each game device 1 to change the language type of each character information constituting the attract image of the game device 1 into the facility. It is possible to change to the language type selected at the time of admission.
  • the language type designation information that is, when the user enters the facility, he / she lends a wristband equipped with an RFID tag (IC tag). At this time, the language type designation information and the like for designating the language type selected by the user by the operator are stored in the RFID tag. As a result, the user brings the rented wristband close to the I / F unit 160 of each game device 1 to change the language type of each character information
  • the membership card issued by pre-registration may be configured to store the language type designation information. That is, a membership card having an RFID tag (IC tag) is issued in response to a user's application. At this time, the language type designation information and the like for designating the language type selected by the user are stored in the RFID tag. As a result, the user brings the issued membership card close to the I / F unit 160 of each game device 1, so that the language type of each character information constituting the attract image of the game device 1 can be changed to the language type of the membership card. It is possible to change to the language type selected at the time of application.
  • a plurality of types of text data displayed (expressed) in different language types are stored as text data corresponding to each character information. Then, when each game image is generated, for each character information that is the material of the game image, the language stored in the language type designated information storage area among the plurality of types of text data corresponding to the character information. The text data corresponding to the type designation information is used.
  • the information storage medium 130 may be configured to store only the text data displayed (expressed) by one language type as the text data corresponding to each character information. Then, when each game image is generated, for each character information that is the material of the game image, the text data corresponding to the character information is stored in the language type specification information storage area.
  • the structure may be such that the text data is translated into the specified language type and the translated text data is used.
  • the information medium may be configured to store the attribute information described later. Then, in the game device 1, information recommended to the user (information on the recommended game mode, information on the recommended music, information on the recommended other game device 1) based on the attribute information read from the information medium. Etc.) are generated, and the generated information may be displayed on the display unit 140 (attract image). Alternatively, in the game device 1, information recommended to the user (information on the recommended game mode, information on the recommended music, information on the recommended other game device 1) based on the attribute information read from the information medium. Etc.) may be configured to change the display order.
  • the user declares (selects) his / her own attributes (age, gender, nationality, etc.), language type that he / she can understand, etc. in advance at the reception. Then, the operator stores the information including the information indicating the attribute declared by the user (attribute information) and the language type designation information for designating the language type selected by the user in the information medium.
  • the I / F unit 160 is realized by means (fingerprint sensor, camera, etc.) capable of acquiring the user's biological information (fingerprint, face, iris, vein, etc.). It doesn't matter.
  • the operator acquires the user's biometric information (fingerprint, face, iris, vein, etc.) and the language type that the user can understand in advance at the reception. Then, the acquired biometric information and the acquired language type designation information for designating the language type are associated with each other and stored in the storage unit of the server system.
  • the management unit 102b of the game device 1 transmits the acquired biometric information to the server system in response to the acquisition of the biometric information by the I / F unit 160. Further, the server system transmits the language type designation information associated with the biometric information received from the game device 1 to the game device 1. Then, the management unit 102b stores the language type designation information received from the server system in the language type designation information storage area, and requests the display processing unit 102c to update the attract image. With this configuration, the user can update (change) the language type of all the character information constituting the attract image to the language type selected by the user in advance by having the I / F unit 160 acquire the biometric information. Is possible.
  • information on the play content is transmitted to the server system in response to the end of the play by the user, and is stored (stored) in association with the biometric information of the user in the storage unit of the server system. It may be configured as such.
  • the language type designation information is stored in the information medium.
  • the language type designation information may be stored in the storage unit of the server system.
  • the management unit 102b of the game device 1 acquires the language type designation information from the server system in response to the reading of the information stored in the information medium by the I / F unit 160, and obtains the acquired language type designation information. It may be configured to be stored in the language type specified information storage area.
  • the language type specification information that specifies the language type that the user can understand is stored in the storage unit of the server system in advance in association with the identification information of the user. In this case, the information medium is owned by the user.
  • the information medium is realized by a medium (card, wristband, coin, etc.) equipped with an RFID tag (IC tag), a medium (mobile communication terminal, etc.) equipped with an NFC (Near Field Communication), or the like. Further, in the information medium, the identification information of the user is stored. Then, the management unit 102b of the game device 1 transmits the read identification information to the server system in response to the reading of the identification information stored in the information medium by the I / F unit 160. Further, the server system transmits the language type designation information associated with the identification information received from the game device 1 to the game device 1. Then, the management unit 102b stores the language type designation information received from the server system in the language type designation information storage area.
  • a medium card, wristband, coin, etc.
  • an RFID tag IC tag
  • NFC Near Field Communication
  • a user accesses a server system in advance using his / her own mobile communication terminal (information medium) and registers as a member on a dedicated website. That is, the user operates his / her mobile communication terminal, and on the member registration page of the dedicated website, his / her nickname, his / her attributes (attribute information such as age, gender, nationality, etc.), and the language type that he / she can understand (the language type that he / she can understand (age, gender, nationality, etc.) Register member information such as language type designation information).
  • the server system sets the member ID (identification information) of the user according to the completion of the member registration, sets the storage area corresponding to the member ID in the storage unit, and sets the storage area in the set storage area. Memorize the registered member information. Further, before starting the play on the game device 1, the user accesses the server system using his / her own mobile communication terminal, acquires the member ID, and acquires (stores) the member ID in the mobile communication terminal. It is brought close to the I / F unit 160 of the game device 1. As a result, the I / F unit 160 of the game device 1 acquires the member ID from the mobile communication terminal. In addition, the management unit 102b transmits the acquired member ID to the server system.
  • the server system reads the member information associated with the received member ID, and transmits the read member information to the game device 1. Then, the management unit 102b stores (overwrites / selects) the language type designation information included in the received member information in the language type designation information storage area, and requests the display processing unit 102c to update the attract image. ..
  • the user brings the information medium owned by the user close to the I / F unit 160 of each game device 1 to preliminarily determine the language type of each character information constituting the attract image of the game device 1. It is possible to change to the language type selected for.
  • information on the play content is transmitted to the server system in response to the end of the play by the user, and is stored (stored) in association with the member ID of the user in the storage unit of the server system. It may be configured as such.
  • the game device 1 is configured to change the language type of the character information based on the language type designation information acquired from the information medium.
  • the language type of the character information is changed based on the history of the SSID (Service Set IDentifier) of the access point of the wireless communication (Wi-Fi / wireless LAN) connected in the past acquired from the mobile communication terminal owned by the user. It may be configured to be used. That is, the mobile communication terminal owned by the user stores the SSID history (hereinafter referred to as "connection history information”) of the access point of the wireless communication connected in the past. Therefore, in the facility or in the game device 1, a history information acquisition device capable of acquiring connection history information from a mobile communication terminal owned by the user is arranged.
  • SSID Service Set IDentifier
  • the history information acquisition device is configured to be able to acquire connection history information stored in a mobile communication terminal existing within a predetermined detection range by wireless communication (Wi-Fi / wireless LAN). Then, when the history information acquisition device acquires the connection history information from the mobile communication terminal, the acquired connection history information is associated with the identifier of the history information acquisition device and transmitted to the server system.
  • the server system receives the connection history information and the identifier from the history information acquisition device, the server system selects the language type designation information based on the received connection history information. At this time, the server system selects the country in which the access point of the SSID exists as a related country based on the SSID included in the received connection history information, and specifies the language type that specifies the official language of the selected related country.
  • the server system transmits the selected language type designation information to the game device 1 corresponding to the identifier received from the history information acquisition device.
  • correspondence information in which correspondence between each identifier and one or more game devices 1 corresponding to the identifier is defined is stored.
  • the server system selects the game device 1 that transmits the selected language type designation information based on the correspondence information and the identifier received from the history information acquisition device.
  • the management unit 102b of the game device 1 stores (overwrites) the language type designation information received from the server system in the language type designation information storage area, and requests the display processing unit 102c to update the attract image. ..
  • the history information acquisition device can acquire language information (language setting) set in a mobile communication terminal existing within a predetermined detection range by wireless communication (Wi-Fi / wireless LAN). It doesn't matter if it is done.
  • the history information acquisition device acquires the language information from the mobile communication terminal
  • the acquired language information is associated with the identifier of the history information acquisition device and transmitted to the server system.
  • the server system receives the language information and the identifier from the history information acquisition device, the server system selects the language type designation information based on the received language information. At this time, the language type specification information that specifies the same language type as the language type specified by the received language information is selected.
  • the server system transmits the selected language type designation information to the game device 1 corresponding to the identifier received from the history information acquisition device.
  • the server system selects the game device 1 that transmits the selected language type designation information based on the above correspondence information and the identifier received from the history information acquisition device.
  • the management unit 102b of the game device 1 stores (overwrites) the language type designation information received from the server system in the language type designation information storage area, and requests the display processing unit 102c to update the attract image.
  • the history information acquisition device may be arranged on the game device 1 or on the ceiling or the like in the facility.
  • an identifier is set for each game device 1, and the game device 1 that the user is approaching is set in the server system based on the image captured by the camera or the like.
  • a judgment device for judgment is provided.
  • the server system receives the language information and the identifier from the history information acquisition device, the user selects the language type specification information based on the received language information and determines the selected language type specification information by the determination device. It may be configured to transmit to the approaching game device 1.
  • (Modification 7) Further, in the first embodiment, credits are given by inserting coins. However, a credit may be granted by payment of electronic money using a storage medium such as a prepaid card or a credit card. In such a configuration, a reader / writer device for a storage medium such as a prepaid card or a credit card is provided.
  • the video or audio information corresponding to the character information may be provided together with the character information.
  • the language type of the moving image or audio information corresponding to the character information is changed as the language type of the character information is changed.
  • the game device 1 may be configured to be capable of outputting a music selected by the user. Specifically, a plurality of music names are displayed on the display unit 140 when a predetermined condition is satisfied, and any music name among the plurality of music names is displayed according to the operation of the operation unit 110 by the user. Allows you to select. Then, when a music name is selected according to the operation of the operation unit 110, the music corresponding to the selected music name is output from the sound output unit 150. In particular, as text data corresponding to each music name, a plurality of types of text data displayed (expressed) in different language types are stored.
  • text data corresponding to each song name For example, as text data corresponding to each song name, four types of text data (specifically, text data a displayed (expressed) in Japanese, text data b displayed (expressed) in English, Korean). The text data c displayed (expressed) in Chinese and the text data d) displayed (expressed) in Chinese are stored. At this time, for the four types of text data corresponding to each song name, the original song name (original title) of the song is translated into each of the four language types (Japanese, English, Korean, and Chinese).
  • the text data displays the (literally translated) name, the name that is known (common name) as the song name of the song in the country where each language type is the official language (Japanese title (Japanese title), It does not matter whether the text data displays an English title (English title), a Korean title, or a Chinese title). Then, with respect to the plurality of music names (character information) displayed on the display unit 140, the language stored in the language type designated information storage area among the four types of text data corresponding to the character information as each music name. Display using the text data corresponding to the language type specified by the type specification information.
  • the user selects an information medium corresponding to the language type that he / she can understand from the four types of information media (information medium A to information medium D) provided in the game device 1, and the selected information medium.
  • information medium A to information medium D information medium A to information medium D
  • the selected information medium By reading the language type designation information (language type designation information A to language type designation information D) stored in the I / F section 160 into the I / F section 160, each of the plurality of song names displayed on the display section 140 can be read. It is possible to change the language type of the music name to the language type selected by oneself.
  • the display order of the plurality of music names displayed on the display unit 140 may be the display order corresponding to the language type specified by the language type designation information stored in the language type designation information storage area. I do not care.
  • the display order (for example, the Japanese syllabary order) corresponding to Japanese for a plurality of music names displayed on the display unit 140.
  • the display order corresponding to the English word for example, in alphabetical order.
  • the display order corresponding to Korean is displayed for the plurality of music names displayed on the display unit 140 (for example, the Korean character base order).
  • the display order corresponding to Chinese for example, alphabetical order of pronunciation
  • the user selects an information medium corresponding to the language type that he / she can understand from the four types of information media (information medium A to information medium D) provided in the game device 1, and the selected information medium.
  • the display order of a plurality of music names displayed on the display section 140 is displayed. Can be changed to a display order that is easy for the user to understand.
  • the language type designation information (language type designation information A to language type designation information D) stored in the information medium is read by the I / F unit 160 according to the reading. Confirm whether or not to confirm the change to the specified language type in the language type specification information read by the I / F unit 160 before the language type of each character information constituting the attract image is changed.
  • the information may be displayed on the display unit 140.
  • the language type of the character information included in the confirmation information the language type specified by the language type designation information read by the I / F unit 160 is set.
  • the attract image is configured according to the fact that the user operates the operation unit 110 to confirm the change to the language type specified by the language type specification information read by the I / F unit 160.
  • the language type of each character information is changed.
  • each game device 1 the information medium A in which the language type designation information A for designating Japanese is stored and the information medium B in which the language type designation information B for designating English is stored are stored.
  • An information medium C in which the language type designation information C for designating Korean is stored and an information medium D in which the language type designation information D for designating Chinese is stored are provided. ..
  • each game device 1 may be provided with an information medium in which language type designation information for designating other language types such as Arabic, Spanish, French, and Russian is stored.
  • the digital signage system 2 is installed in a facility where various attractions (activities) are installed.
  • users who enter the facility pay a fee according to their desired staying time (valid time of the game), their own attributes (age, gender, nationality, etc.), and a language that they can understand.
  • the reception operator lends a wristband (information medium) provided with an RFID tag (IC tag) to the user who has paid the fee.
  • the operator indicates the exit time (hereinafter referred to as "exit time information"), the information indicating the attribute declared by the user (hereinafter referred to as “attribute information”), and the language type selected by the user.
  • the language type designation information and the like for designating the are stored in the RFID tag.
  • the "stay time” is the time during which the user can stay in the facility (valid time of the game).
  • the "exit time” is information indicating the time when the staying time elapses (the time when the user leaves the facility). That is, the user can experience various attractions in the facility until the exit time.
  • the user can select any language type from Japanese, English, Korean, and Chinese.
  • the language type designation information A is stored in the RFID tag.
  • the language type designation information B is stored in the RFID tag.
  • Korean is stored in the RFID tag.
  • the language type designation information C is stored in the RFID tag.
  • the language type designation information D is stored in the RFID tag.
  • FIG. 3 is a perspective view showing the overall configuration of the digital signage system 2.
  • FIG. 4 is a diagram showing a configuration example of a control system of the digital signage device 10.
  • the digital signage system 2 includes a server system 10, one or more digital signage devices 20, and a network 30.
  • Each digital signage device 20 is connected to the server system 10 via a network 30.
  • each digital signage device 20 can transmit and receive (communicate) various types of data to and from the server system 10.
  • the server system 10 is installed in a management room or the like in the facility.
  • the server system 10 executes arithmetic processing based on the information received from the digital signage device 20, and transmits information according to the result of the arithmetic processing to the digital signage apparatus 20.
  • the server system 10 includes a processing unit that executes various arithmetic processes, a storage unit that stores various programs and data, and a communication unit that executes data transmission / reception via the network 30. ..
  • the processing unit executes processing necessary for providing various services based on the data received via the communication unit, the data program stored in the storage unit, and the like.
  • the function of the processing unit can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), or a program.
  • the digital signage device 20 is installed at various places in the facility, such as the entrance of the facility, the passage in the facility, and the vicinity of each attraction installed in the facility.
  • the digital signage device 20 includes a housing (not shown), a processing unit 200, a storage unit 210, an information storage medium 220, a display unit 230, a sound output unit 240, and an I / It is configured to include an F unit 250 and a communication unit 260.
  • the processing unit 200, the storage unit 210, the information storage medium 220, the communication unit 260, and the like are arranged inside the housing.
  • the display unit 230, the sound output unit 240, the I / F unit 250, and the like are arranged in front of the housing.
  • the processing unit 200 executes processing necessary for providing various services based on the information input from the I / F unit 250, the program data stored in the information storage medium 220, and the like.
  • the processing unit 200 includes an input processing unit 201, an arithmetic processing unit 202, and an output processing unit 203.
  • the processing unit 200 can be realized by a processor and a memory.
  • the input processing unit 201 executes a process of receiving information read by the I / F unit 250, a process of reading program data from the storage unit 210, a process of receiving data via the communication unit 260, and the like.
  • the arithmetic processing unit 202 includes a management unit 202a, a display processing unit 202b, and a sound processing unit 202c.
  • the management unit 202a executes a process of managing various types of information stored in the storage unit 210.
  • the display processing unit 202b generates various images (specifically, common guide images and individual guide images described later), and outputs the generated various images to the display unit 230.
  • the sound processing unit 202c executes sound processing for generating guidance sounds such as BGM and voice according to the image generated by the display processing unit 202b. Then, the guide sound generated by the sound processing is output to the sound output unit 240.
  • the output processing unit 203 executes a process of writing data to the storage unit 210, a process of transmitting data to the server system 10 via the communication unit 260, and the like.
  • the storage unit 210 serves as a work area for the processing unit 200, the communication unit 260, and the like.
  • the storage unit 210 can be realized by a semiconductor memory, an HDD, an SSD, an optical disk device, or the like.
  • the information storage medium 220 stores (stores) program data and the like. In particular, the information storage medium 220 stores various programs, various image data, various text data, and the like necessary for generating various images (common guide image / individual guide image).
  • the processing unit 200 can read the program data stored in the information storage medium 220. Then, the processing unit 200 executes various processes based on the program data stored in the information storage medium 220.
  • the information storage medium 220 can be realized by an optical disk, an HDD, a semiconductor memory, or the like.
  • the program data for operating the computer as each component (input processing unit 201, arithmetic processing unit 202, output processing unit 203, etc.) of the digital signage device 20 is stored in the information storage medium 220.
  • the program data for operating the computer as each component of the digital signage device 20 may be stored in the storage unit of the server system 10 and distributed to the digital signage device 20 via the network 30. No.
  • the display unit 230 displays various images output by the display processing unit 202b.
  • the display unit 230 can be realized by an LCD, an organic EL display, a CRT, or the like.
  • the sound output unit 240 outputs the guidance sound output by the sound processing unit 202c.
  • the sound output unit 240 can be realized by a speaker, headphones, or the like.
  • the I / F (interface) unit 250 serves as an interface for the RFID tag (information medium) of the wristband. Specifically, the I / F unit 250 reads the information stored (recorded) in the RFID tag of the wristband, and outputs the read information to the processing unit 200. In this embodiment, the I / F (interface) unit 250 is realized by an RFID reader.
  • the communication unit 260 executes communication with the server system 10 via the network 30.
  • the communication unit 260 can be realized by hardware such as a communication ASIC and a communication processor, or communication firmware.
  • the network 30 is a communication path (communication line) capable of transmitting and receiving data.
  • the network 30 is, for example, a communication path using the Internet, wireless LAN, or the like, and includes a dedicated line (dedicated cable) for direct connection, a LAN by Ethernet (registered trademark), or the like, as well as a telephone communication network, a cable network, or the like. It can include a communication network.
  • the communication method may be wired or wireless.
  • the display unit 230 includes a common display area for displaying a common guide image (screen) and an individual display area for displaying an individual guide image (screen) as a display area capable of displaying an image. It is possible to do. Information that is commonly provided to all users is displayed in the common guidance image. On the other hand, the individual guidance image displays information provided to individual users.
  • the common guide image and the individual guide image are configured to include character information, respectively.
  • the digital signage device 20 is installed at various places in the facility, such as the entrance of the facility, the passage in the facility, and the vicinity of each attraction installed in the facility.
  • the digital signage device 20 installed at the entrance of the facility, the passage in the facility, etc., in the common display area, the information showing the sketch of the facility (hereinafter referred to as "plan information"), the current waiting of each attraction.
  • a common guide image including information indicating the time (hereinafter referred to as “waiting time information”), information explaining the outline of each attraction (hereinafter referred to as “summary information”), etc. is displayed, and in the individual display area.
  • Information indicating the remaining stay time of the user hereinafter referred to as “remaining stay time information”
  • information on attractions recommended to the user hereinafter referred to as “recommended attraction information”
  • a common guide image including information about the attraction (hereinafter referred to as "attraction information") is displayed in the common display area, and in the individual display area. , An individual guide image including the remaining stay time information is displayed.
  • “Attraction information” includes information on the conditions (age, height, etc.) of users who are allowed to play attractions, and the conditions (physical condition, illness, disability, drinking, etc.) of users who are prohibited from experiencing attractions (play). Information on (conditions such as pregnancy and subjective symptoms), information on tickets (fee) required for experience (play) of attractions, information on precautions for experiencing (playing) attractions, contents of attractions (titles of attractions, Includes information about tutorials, how to experience attractions (how to play), conditions for clearing attractions, production within attractions, etc.).
  • a common guide image is always displayed in the common display area during the period when the power is turned on. Further, in the digital signage device 20, the individual guide image is displayed in the individual display area in response to the information stored in the RFID tag of the wristband owned by the user being read by the I / F unit 250. NS. At this time, based on the read information (language type specification information, exit time information, attribute information), it is recommended to show the remaining stay time information indicating the remaining stay time of the user and the attractions recommended for the user. The attraction information, the generated remaining stay time information, and the recommended attraction information are displayed in the individual guide image.
  • the display of the individual guide image in the individual display area ends according to the lapse of a predetermined time from the start.
  • a common guide image is configured according to the information (language type designation information) stored in the RFID tag of the wristband owned by the user being read by the I / F unit 250.
  • the language type of each character information (text data) to be used is changed to the language type specified by the read language type specification information.
  • the storage unit 210 is configured to include a language type designated information storage area. Then, in the language type designation information storage area, any one of the language type designation information (in this embodiment, the language type designation information A, the language type designation information B, the language type designation information C, and the language type designation information D) is stored. Language type specification information) is stored (set).
  • the management unit 202a executes the language type initialization process in response to the power being turned on to the digital signage device 20.
  • the language type designation information A is stored (overwritten / selected) in the language type designation information storage area, and then the display processing unit 202b is requested to display the common guide image.
  • the language type designation information stored in the language type designation information storage area is initialized to the language type designation information A.
  • the data read enabled state is always set during the period when the power is turned on. While the data read enabled state is being set, information read by the I / F unit 250 is enabled.
  • the management unit 202a can read the information (language type designation information, submission time information, attribute information) stored in the RFID tag of the wristband by the I / F unit 250 while setting the data read enabled state.
  • the language type update process is executed according to the execution.
  • the language type update process first, the language type designation information read by the I / F unit 250 is stored (overwritten / selected) in the language type designation information storage area, and then common guidance is provided to the display processing section 202b. Image update is requested.
  • the I / F unit 250 reads out the information (language type designation information) stored in the RFID tag of the wristband, the language type designation stored in the language type designation information storage area is executed.
  • the information is updated with the language type designation information stored in the RFID tag.
  • the language type designation information, exit time information, and attribute information read by the I / F unit 250 are then transmitted to the server system 10 and individually to the server system 10. The generation of a guide image is requested.
  • the processing unit of the server system 10 executes the individual guide image generation process in response to the request for the generation of the individual guide image by the digital signage device 20.
  • the individual guidance image generation process first, the remaining stay time is calculated based on the exit time information received from the digital signage device 20 and the current time, and the remaining stay time information indicating the calculated remaining stay time is generated. Will be done.
  • the individual guidance image generation process it is possible to experience within the remaining stay time based on the calculated remaining stay time, the current waiting time of each attraction, and the time required to experience each attraction.
  • the attraction (or combination of attractions) is selected, and the recommended attraction information (first recommended attraction information) that specifies the selected attraction (or combination of attractions) is generated.
  • first recommended attraction information that specifies the selected attraction (or combination of attractions) is generated.
  • second recommended attraction information is generated.
  • the "attribute preference information” is information that defines the correspondence between the user of each attribute and the attraction preferred by the user.
  • the attribute preference information is statistically grasped information.
  • the attribute preference information is stored in the storage unit of the server system 10. Then, in the generation of the second recommended attraction information, the attraction that suits the user's preference is selected based on the attribute preference information and the attribute (combination of attributes) indicated by the attribute information received from the digital signage device 20. NS.
  • the individual guide image generation process the individual guide image is then generated (drawn) based on the generated remaining stay time information, the first recommended attraction information, and the second recommended attraction information.
  • a plurality of types of text data displayed (expressed) in different language types are stored as text data corresponding to each character information for all the character information constituting the individual guide image. It is remembered.
  • as text data corresponding to each character information four types of text data (specifically, text data a displayed (expressed) in Japanese and text data b displayed (expressed) in English). , Text data c displayed (expressed) in Korean, and text data d) displayed (expressed) in Chinese are stored.
  • the processing unit of the server system 10 selects any text data of four types of text data (text data a to text data d) corresponding to the character information for each character information constituting the individual guide image. It is used to generate the individual guidance image. Specifically, for each character information, one of the four types of text data corresponding to the character information is selected according to the language type designation information received from the digital signage device 20, and the selected text is selected. The data is used to generate an individual guide image. At this time, when the language type designation information A is received from the digital signage device 20, the text data a is selected. On the other hand, when the language type designation information B is received from the digital signage device 20, the text data b is selected.
  • the text data c is selected.
  • the language type designation information D is received from the digital signage device 20
  • the text data d is selected.
  • the text data corresponding to the language type specified by the language type designation information received from the digital signage device 20 is selected for all the character information constituting the individual guide image. Therefore, all the character information constituting the individual guide image is displayed (expressed) in the language of the language type specified by the language type designation information received from the digital signage device 20.
  • the individual guide image generation process the generated individual guide image is then transmitted to the digital signage device 20, and the display processing unit 202b is requested to display the individual guide image.
  • the display processing unit 202b executes the common guide image display process in response to a request for display of the common guide image by the management unit 202a.
  • the common guide image display process a common guide image is generated, and the generated common guide image is output to the display unit 230 (common display area).
  • the display of the common guide image in the common display area is started.
  • the common guide image is generated by synthesizing one or more images (image data) and one or more character information (text data).
  • the information storage medium 220 stores a plurality of types of text data displayed (expressed) in different language types as text data corresponding to each character information for all the character information constituting the common guide image. ing.
  • text data corresponding to each character information four types of text data (specifically, text data a displayed (expressed) in Japanese and text data b displayed (expressed) in English). , Text data c displayed (expressed) in Korean, and text data d) displayed (expressed) in Chinese are stored.
  • the display processing unit 202b generates (draws) a common guide image based on one or more images (image data) and one or more character information (text data).
  • a game image is generated using any of the four types of text data (text data a to text data d) corresponding to the character information. Will be done. Specifically, for each character information, one of the four types of text data corresponding to the character information is selected according to the language type specification information stored in the language type specification information storage area. , Generate a game image using the selected text data.
  • the language type designation information A is stored in the language type designation information storage area
  • the text data a is selected.
  • the language type designation information B is stored in the language type designation information storage area
  • the text data b is selected.
  • the language type designation information C is stored in the language type designation information storage area
  • the text data c is selected.
  • the language type designation information D is stored in the language type designation information storage area
  • the text data d is selected.
  • the text data corresponding to the language type specified by the language type designation information stored in the language type designation information storage area is selected for all the character information constituting the common guide image. Therefore, all the character information constituting the common guide image is displayed (expressed) in the language of the language type specified by the language type designation information stored in the language type designation information storage area.
  • various character information included in the common guide image information on the name / description of each facility in the sketch, information on the outline of the attraction).
  • Attraction Information about the contents of is displayed (expressed) in Japanese.
  • the language type designation information B is stored in the language type designation information storage area
  • various character information included in the common guide image is displayed (expressed) in English.
  • the language type designation information C is stored in the language type designation information storage area
  • various character information included in the common guide image is displayed (expressed) in Korean.
  • the language type designation information D is stored in the language type designation information storage area
  • various character information included in the common guide image is displayed (expressed) in Chinese.
  • the display processing unit 202b executes the common guide image update process in response to the request for the update of the common guide image by the management unit 202a.
  • the common guide image update process the contents of the common guide image are updated. That is, the common guide image is generated again, and the generated common guide image is output to the display unit 230 (common display area).
  • the content of the common guide image displayed in the common display area (particularly, the language type of each character information) is updated.
  • a common guide image is generated by the same process as the above-mentioned common guide image display process. That is, the display processing unit 202b generates a common guide image based on one or more images (image data) and one or more character information (text data).
  • the language type stored in the language type designated information storage area For each character information constituting the common guide image, of the four types of text data (text data a to text data d) corresponding to the character information, the language type stored in the language type designated information storage area.
  • a common guide image is generated using the text data corresponding to the language type specified by the specified information.
  • the language type of all the character information constituting the common attract image is overwritten in the language type designation information storage area (that is, the language type designation information read by the I / F unit 250 (that is,).
  • the language type specification information stored in the RFID tag of the wristband)) is updated (changed) to the specified language type.
  • the display processing unit 202b executes the individual guidance image display processing in response to the request for the display of the individual guidance image by the processing unit of the server system 10.
  • the individual guidance image received from the server system 10 is output to the display unit 230 (individual display area).
  • the display of the individual guidance image in the individual display area is started.
  • the display of the individual guide image in the individual display area ends according to the lapse of a predetermined time from the start.
  • a common guide image is always displayed in the common display area of the display unit 230 during the period when the power is turned on. Then, the user who wishes to confirm various information displayed on the common guide image brings his / her own wristband close to the I / F unit 250. Then, the information (language type designation information A to language type designation information D, exit time information, attribute information) stored in the RFID tag of the wristband is read out by the I / F unit 250. Then, the language type designation information read by the I / F unit 250 is stored (overwritten) in the language type designation information storage area, and then the content of the common guide image displayed in the common display area is updated. ..
  • the language type of each character information (text data) constituting the common guide image is changed to the language type specified by the language type specification information stored (overwritten) in the language type specification information storage area.
  • the user can understand various information (planning map information, waiting time information, outline information, attraction information, etc.) displayed on the common guide image.
  • the information stored in the RFID tag of the wristband is read by the I / F unit 250
  • the language type designation information, the exit time information, and the attribute information read by the I / F unit 250 are used in the server system. It is transmitted to 10.
  • an individual guidance image is generated based on the language type designation information, the exit time information, and the attribute information received from the digital signage device 20.
  • the language type of each character information (text data) constituting the individual guidance image is designated by the language type designation information (language type designation information read by the I / F unit 250) received from the digital signage device 20. It is considered to be the language type to be used.
  • the individual guidance image generated by the server system 10 is transmitted to the digital signage device 20. Then, in the individual display area of the display unit 230 of the digital signage device 20, the individual guidance image received from the server system 10 is displayed. As a result, the user can understand various information displayed on the individual guide image (remaining stay time information, recommended attraction information (first recommended attraction information and second recommended attraction information), etc.). ..
  • the language type of the common guide image displayed in the common display area can be changed in the offline state.
  • the language type of the individual guidance image displayed in the individual display area can be changed in the online state.
  • the I / F unit 250 that acquires information (language type designation information), the management unit 202a that sets the language type based on the information acquired by the I / F unit 250, and the management unit 202a It includes a display processing unit 202b that displays character information corresponding to the set language type on the display unit 230.
  • the information acquired by the I / F unit 250 includes information for designating a language type (language type designation information).
  • the management unit 202a sets the language type based on the information for designating the language type.
  • the language type can be directly set based on the information acquired by the I / F unit 250, so that the processing of the management unit 202a can be simplified.
  • the I / F unit 250 acquires the information held in the information medium (RFID tag). This makes it possible to facilitate the acquisition of information by the I / F unit 250.
  • the information medium is an RFID tag. This makes it possible to further facilitate the acquisition of information by the I / F unit 250.
  • the information held in the information medium (RFID tag) includes time information (exit time information) regarding the effective time of the game.
  • the server system 10 generates recommended information (recommended attraction information) recommended to the user based on the time information. Then, the character information constituting the recommended information generated by the server system 10 is set to the language type set by the management unit 202a. This makes it easier for the user to understand the recommended information.
  • the information held in the information medium RFID tag
  • the server system 10 generates recommended information (recommended attraction information) recommended to the user based on the attribute information. Then, the character information constituting the recommended information generated by the server system 10 is set to the language type set by the management unit 202a. This makes it easier for the user to understand the recommended information.
  • the information medium is realized by a wristband including an RFID tag (IC tag).
  • the information medium is a medium on which a barcode is printed (ticket, card, etc.), a medium on which a two-dimensional code is printed (ticket, card, etc.), and another medium (card, coin) having an RFID tag (IC tag).
  • Etc. and may be realized by a medium (mobile communication terminal or the like) equipped with NFC (Near Field Communication).
  • the barcode is converted from the exit time information, the attribute information, and the language type designation information by the operator (dedicated device). Is printed on the medium. Then, the I / F unit 250 is realized by the barcode reader, and the barcode (language type designation information) printed on the information medium is read.
  • the operator converts the exit time information, the attribute information, and the language type designation information into two dimensions. The code is printed on the medium.
  • the I / F unit 250 is realized by the two-dimensional code reader, and the two-dimensional code (language type designation information) printed on the information medium is read.
  • the information medium is realized by the medium on which the NFC is mounted
  • the exit time information, the attribute information, and the language type designation information are stored in the storage unit of the medium.
  • the I / F unit 250 is realized by the NFC reader, and the language type designation information stored in the medium is read.
  • the information storage medium 220 stores a plurality of types of text data displayed (expressed) in different language types as text data corresponding to each character information. Then, when the common guide image is generated, for each character information constituting the common guide image, the language stored in the language type designated information storage area among the plurality of types of text data corresponding to the character information. The text data corresponding to the type designation information is used. However, the information storage medium 220 may have a configuration in which only the text data displayed (expressed) by one language type is stored as the text data corresponding to each character information. Then, when the common guide image is generated, the text data corresponding to the character information is stored in the language type designation information storage area for each character information constituting the common guide image. The structure may be such that the text data is translated into the specified language type and the translated text data is used.
  • the I / F unit 250 is realized by means (fingerprint sensor, camera, etc.) capable of acquiring the user's biological information (fingerprint, face, iris, vein, etc.). It doesn't matter.
  • the operator acquires the user's biometric information (fingerprint, face, iris, vein, etc.) and the language type that the user can understand in advance at the reception. Then, the acquired biological information and the acquired language type designation information for designating the language type are associated with each other and stored in the storage unit of the server system 10.
  • the management unit 202a of the digital signage device 20 transmits the acquired biometric information to the server system 10 in response to the acquisition of the biometric information by the I / F unit 250. Further, the server system 10 transmits the language type designation information associated with the biometric information received from the digital signage device 20 to the digital signage device 20. Then, the management unit 202a stores the language type designation information received from the server system 10 in the language type designation information storage area, and requests the display processing unit 202b to update the attract image. With such a configuration, the user updates (changes) the language type of all the character information constituting the common guide image to the language type selected by the user in advance by having the I / F unit 250 acquire the biometric information. It becomes possible. Therefore, it is possible to change the language type of the character information based on the biometric information of the user.
  • the exit time information, the attribute information, the language type designation information, and the like are stored in the wristband (information medium).
  • the exit time information, the attribute information, the language type designation information, and the like may be stored in the storage unit of the server system 10.
  • the management unit 202a of the digital signage device 20 acquires the language type designation information from the server system 10 in response to the reading of the information stored in the wristband (information medium) by the I / F unit 250.
  • the language type designation information may be stored in the language type designation information storage area.
  • the user (or operator) provides the exit time information, the attribute information indicating the attribute declared by the user, the language type specification information for specifying the language type selected by the user, and the like in advance.
  • the information medium is owned by the user.
  • the information medium is realized by a medium (card, wristband, coin, etc.) equipped with an RFID tag (IC tag), a medium (mobile communication terminal, etc.) equipped with an NFC (Near Field Communication), or the like.
  • the identification information of the user is stored.
  • the management unit 202a of the digital signage device 20 transmits the read identification information to the server system 10 in response to the reading of the identification information stored in the information medium by the I / F unit 250. Further, the server system 19 transmits the language type designation information associated with the identification information received from the digital signage device 20 to the digital signage device 20. Further, the server system 10 generates an individual guidance image based on the language type designation information, the exit time information, and the attribute information associated with the identification information received from the digital signage device 20, and the generated individual guidance image is generated. It transmits to the digital signage device 20. Then, the management unit 202a stores the language type designation information received from the server system 10 in the language type designation information storage area, and requests the display processing unit 202b to update the common guidance image.
  • the display processing unit 202b displays the individual guidance image received from the server system 10 in the individual display area.
  • a user accesses the server system 10 in advance using his / her own mobile communication terminal (information medium) and registers as a member on a dedicated website. That is, the user operates his / her mobile communication terminal, and on the member registration page of the dedicated website, his / her nickname, his / her attributes (attribute information such as age, gender, nationality, etc.), and the language type that he / she can understand (the language type that he / she can understand (age, gender, nationality, etc.) Register member information such as language type designation information).
  • the server system 10 sets the member ID (identification information) of the user according to the completion of the member registration, sets the storage area corresponding to the member ID in the storage unit, and sets the storage area in the set storage area. , Memorize the registered member information. Further, when the user enters the facility, he / she accesses the server system 10 using his / her own mobile communication terminal, acquires a member ID, and digitally signs the mobile communication terminal that has acquired (stored) the member ID. It is brought close to the I / F unit 250 of the device 20. As a result, the I / F unit 250 of the digital signage device 20 acquires the member ID from the mobile communication terminal. In addition, the management unit 202a transmits the acquired member ID to the server system 10.
  • the server system 10 reads the member information associated with the received member ID, transmits the read member information to the digital signage device 20, and is based on the attribute information included in the read member information. Then, an individual guide image is generated, and the generated individual guide image is transmitted to the digital signage device 20. Then, the management unit 202a stores (overwrites / selects) the language type designation information included in the received member information in the language type designation information storage area, and requests the display processing unit 202a to update the attract image. .. In addition, the display processing unit 202b displays the received individual guidance image in the individual display area.
  • the user brings his / her own information medium close to the I / F unit 250 of each digital signage device 20, so that each character information constituting the common guide image displayed on the digital signage device 20 is formed. It is possible to change the language type of the above to the language type selected in advance.
  • the digital signage device 20 is configured to change the language type of the character information based on the language type designation information acquired from the wristband (information medium).
  • the language type of the character information is changed based on the history of the SSID (Service Set IDentifier) of the access point of the wireless communication (Wi-Fi / wireless LAN) connected in the past acquired from the mobile communication terminal owned by the user. It may be configured to be used. That is, the mobile communication terminal owned by the user stores the SSID history (hereinafter referred to as "connection history information”) of the access point of the wireless communication connected in the past.
  • SSID Service Set IDentifier
  • a history information acquisition device capable of acquiring connection history information from a mobile communication terminal owned by the user is arranged.
  • the history information acquisition device is configured to be able to acquire connection history information stored in a mobile communication terminal existing within a predetermined detection range by wireless communication (Wi-Fi / wireless LAN). Then, when the history information acquisition device acquires the connection history information from the mobile communication terminal, the acquired connection history information is associated with the identifier of the history information acquisition device and transmitted to the server system 10.
  • the server system 10 receives the connection history information and the identifier from the history information acquisition device, the server system 10 selects the language type designation information based on the received connection history information.
  • the server system 10 selects the country in which the access point of the SSID exists as the related country based on the SSID included in the received connection history information, and specifies the official language of the selected related country. Select the specified information. That is, for the plurality of SSIDs included in the received connection history information, the country in which the access point of each SSID exists is determined, and any one or a plurality of the determined countries is selected as the related country. At this time, one or more of the determined countries is selected as the related country based on the time-series change of the country in which the connected access point exists. Further, the server system 10 transmits the selected language type designation information to the digital signage device 20 corresponding to the identifier received from the history information acquisition device.
  • correspondence information in which correspondence between each identifier and one or a plurality of digital signage devices 20 corresponding to the identifier is defined is stored.
  • the server system 10 selects the digital signage device 20 that transmits the selected language type designation information based on the correspondence information and the identifier received from the history information acquisition device.
  • the management unit 202a of the digital signage device 20 stores (overwrites) the language type designation information received from the server system 10 in the language type designation information storage area, and updates the common guidance image to the display processing unit 202b. To request.
  • the user can understand the language type of each character information constituting the common guide image in the digital signage device 20 installed near the user without requiring the user's operation.
  • the language type specified information storage area may not be overwritten again until a predetermined time elapses.
  • a predetermined time elapses.
  • the history information acquisition device can acquire language information (language setting) set in a mobile communication terminal existing within a predetermined detection range by wireless communication (Wi-Fi / wireless LAN). It doesn't matter if it is done.
  • the history information acquisition device acquires the language information from the mobile communication terminal
  • the acquired language information is associated with the identifier of the history information acquisition device and transmitted to the server system 10.
  • the server system 10 receives the language information and the identifier from the history information acquisition device, the server system 10 selects the language type designation information based on the received language information. At this time, the language type specification information that specifies the same language type as the language type specified by the received language information is selected.
  • the server system 10 transmits the selected language type designation information to the digital signage device 20 corresponding to the identifier received from the history information acquisition device.
  • the server system 10 selects the digital signage device 20 that transmits the selected language type designation information based on the above-mentioned correspondence information and the identifier received from the history information acquisition device.
  • the management unit 202a of the digital signage device 20 stores (overwrites) the language type designation information received from the server system 10 in the language type designation information storage area, and updates the attract image to the display processing unit 202a. Request.
  • the digital signage system 2 is installed in a facility where various attractions (activities) are installed.
  • the digital signage system 2 can be installed in various facilities such as movie theaters, amusement facilities, and hotels.
  • the digital signage system 2 it is possible to provide information according to the language type that the user uses on a daily basis. Therefore, when entering the building (at the time of reception), at the time of leaving the building, etc. Appropriate information can be provided. In particular, it is not necessary to allocate personnel who can handle various languages.
  • the video or audio information corresponding to the character information may be provided together with the character information.
  • the language type of the moving image or audio information corresponding to the character information is changed as the language type of the character information is changed.
  • the language type of each character information constituting the common guide image displayed in the common display area is changed at predetermined time intervals during the period when the power is turned on.
  • the configuration may be changed.
  • the language type of each character information constituting the common guide image displayed in the common display area is repeated in a predetermined order (for example, Japanese ⁇ English ⁇ Korean ⁇ Chinese ⁇ Japanese ).
  • a display hereinafter referred to as "loop display" in which one language type is changed to another language type is executed every predetermined time (for example, 10.0 [s]).
  • the above loop display is terminated and a common guide image is configured.
  • the language type of each character information to be used may be changed to the language type specified by the read language type specification information.
  • the common guide image being displayed is configured based on the loop display. It is determined whether or not the language type of each character information and the language type specified by the read language type specification information match, and if it is determined that they match, the current language type is used.
  • the display may be changed to the language type specified by the read language type specification information.
  • the digital signage device 20 is provided with a detection means capable of detecting the approach of the user, and in response to the detection of the approach of the user by the detection means, the RFID tag of the wristband owned by the user is attached to the RFID tag.
  • a display prompting the user to approach the / F unit 250 may be executed.
  • the above-mentioned loop display is terminated and each of the components constituting the common guide image is formed.
  • the language type of the character information may be changed to the language type corresponding to the acquired language information.
  • the time until the language types that the user can understand is displayed by the loop display becomes longer.
  • a motivation is given to approach the digital signage device 20
  • the digital signage device 20 may be configured to always display a specific image (individual image with respect to the common guide image) including specific character information during the period when the power is turned on.
  • the language type of the specific character information constituting the specific image may be changed at predetermined time intervals. For example, for the language type of specific character information, a predetermined time (for example, 10.0 [s]] is repeated so as to be repeated in a predetermined order (for example, Japanese ⁇ English ⁇ Korean ⁇ Chinese ⁇ Japanese ). ), The display in which one language type is changed to another language type (hereinafter referred to as "loop display”) is executed.
  • the language type of each character information constituting the common guide image may be loop-displayed or not loop-displayed.
  • specific character information information of the content prompting the I / F unit 250 to read the information stored in the RFID of the wristband, information of the content prompting the approach to the digital signage device 20, and the like are provided.
  • the digital signage device 20 motivates the user to read out the information stored in the RFID of the wristband by the I / F unit 250 based on the loop display of the language type of the specific language information. It is possible to give a motive or the like to approach.
  • the language type designation information (language type designation information A to language type designation information D) stored in the RFID tag of the wristband is read by the I / F unit 250. Whether or not to confirm the change to the language type specified by the language type specification information read by the I / F unit 250 before the language type of each character information constituting the common guide image is changed accordingly.
  • the confirmation information for confirming the above may be displayed on the display unit 230.
  • the language type of the character information included in the confirmation information the language type specified by the language type designation information read by the I / F unit 250 is set. Then, according to the user's choice to confirm the change to the language type specified by the language type designation information read by the I / F unit 250, each character information constituting the common guide image The language type is changed.
  • the language type designation information for designating the language type selected by the user from Japanese, English, Korean, and Chinese is stored in the RFID tag.
  • the language type specification information that specifies the language type selected by the user may be stored in the RFID tag.
  • the game device 1 and the digital signage device 20 may be configured so that the same information medium can be shared.
  • Game device 10 Server system 20 Digital signage device 30 Network 100 Processing unit 110 Operation unit 120 Storage unit 130 Information storage medium 140 Display unit 150 Sound output unit 160 I / F unit 200 Processing unit 210 Storage unit 220 Information storage medium 230 Display unit 240 Sound output section 250 I / F section

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 言語種別の変更を容易化する。 【解決手段】 ゲーム装置1に興味を持ったユーザーは、当該ゲーム装置1に備え付けられている複数種類の情報媒体のうち、自己が理解できる言語種別に対応する情報媒体を選択し、選択した情報媒体を、I/F部160に近接させる。すると、当該情報媒体に記憶されている言語種別指定情報が、I/F部160により読み出され、I/F部160により読み出された言語種別指定情報が、言語種別指定情報記憶領域に記憶(上書き)される。さらに、アトラクト画像を構成する各文字情報(テキストデータ)の言語種別が、言語種別指定情報記憶領域に記憶(上書き)された言語種別指定情報が指定する言語種別に変更される。

Description

情報システム
 本発明は、ユーザーに対して文字情報を提供することが可能な情報システムに関する。
 従来、ユーザーに対して文字情報を提供することが可能な情報システムとして、例えば、特許文献1に示すゲーム装置が知られている。このゲーム装置では、ゲームの進行中において、各種の文字情報が表示される。特に、ユーザーは、ゲームの進行中に、入力装置を操作することによって、文字情報の言語種別を変更することが可能となっている。
特開2004-97283号公報
 しかしながら、従来の情報システムでは、言語種別の変更が困難となる恐れがある。
 すなわち、従来の情報システムでは、言語種別を変更するために、入力装置の操作が必要となるため、入力装置の操作方法を理解できないユーザーについて、言語種別の変更が困難となる恐れがある。
 本発明の課題は、言語種別の変更を容易化することにある。
 上記目的を達成するために、第一の発明に情報システムは、情報を取得する情報取得手段と、前記情報取得手段により取得された情報に基づいて言語種別を設定する言語種別設定手段と、前記言語種別設定手段により設定された言語種別に応じた文字情報を表示部に表示する表示制御手段と、を備えることを特徴とする。
 第一の発明に係る情報システムでは、情報取得手段に情報を取得させる操作のみをもって、文字情報の言語種別を変更することが可能となり、言語種別の変更を容易化することが可能となる。
 ここで、情報取得手段としては、後述するI/F部160,250が該当する。言語種別設定手段としては、後述する管理部102b,202aが該当する。表示部としては、後述する表示部140,230が該当する。表示制御手段としては、後述する表示処理部102c,202bが該当する。
 第二の発明に係る情報システムは、第一の発明に係る情報システムにおいて、前記情報取得手段により取得される情報には、言語種別を指定する情報が含まれ、前記言語種別設定手段は、前記言語種別を指定する情報に基づいて言語種別を設定することを特徴とする。
 第二の発明に係る情報システムでは、情報取得手段により取得された情報に基づいて、直接、言語種別を設定することが可能となるため、言語種別設定手段の処理を簡素化することが可能となる。
 ここで、言語種別を指定する情報としては、後述する言語種別指定情報(言語種別指定情報A~言語種別指定情報D)が該当する。
 第三の発明に係る情報システムは、第一の発明に係る情報システムにおいて、前記言語種別設定手段は、前記情報取得手段により取得された情報に関連付けられている情報を取得し、取得した情報に基づいて言語種別を設定することを特徴とする。
 第三の発明に係る情報システムでは、情報取得手段により取得される情報に、言語種別を指定する情報を含める必要なく、文字情報の言語種別を変更することが可能となる。
 ここで、情報取得手段により取得された情報に関連付けられている情報としては、後述するユーザーの生体情報、ユーザーの会員ID、接続履歴情報等が該当する。
 第四の発明に係る情報システムは、第一乃至第三のうち何れか一の発明に係る情報システムにおいて、前記情報取得手段は、媒体に保持されている情報を取得することを特徴とする。
 第四の発明に係る情報システムでは、情報取得手段による情報の取得を容易化することが可能となる。
 ここで、媒体としては、後述する情報媒体が該当する。
 第五の発明に係る情報システムは、第四の発明に係る情報システムにおいて、前記媒体に保持されている情報は、一次元コード又は二次元コードであることを特徴とする。
 第五の発明に係る情報システムでは、情報取得手段による情報の取得を更に容易化することが可能となる。
 第六の発明に係る情報システムは、第四の発明に係る情報システムにおいて、前記媒体は、RFIDタグであることを特徴とする。
 第六の発明に係る情報システムでは、情報取得手段による情報の取得を更に容易化することが可能となる。
 第七の発明に係る情報システムは、第四の発明に係る情報システムにおいて、前記媒体は、携帯通信端末であることを特徴とする。
 第七の発明に係る情報システムでは、情報取得手段による情報の取得を更に容易化することが可能となる。
 第八の発明に係る情報システムは、第四乃至第七のうち何れか一の発明に係る情報システムにおいて、前記媒体に保持されている情報には、遊技の有効時間に関する時間情報が含まれ、前記時間情報に基づいてユーザーに対して推奨する推奨情報を生成する生成手段を備え、前記文字情報には、前記生成手段により生成された前記推奨情報を構成する文字情報が含まれることを特徴とする。
 第八の発明に係る情報システムでは、ユーザーにおいて、推奨情報の理解を容易化することが可能となる。
 ここで、遊技の有効時間に関する時間情報としては、後述する退出時刻情報が該当する。推奨情報としては、後述する推奨アトラクション情報が該当する。生成手段としては、後述するサーバシステム10が該当する。
 第九の発明に係る情報システムは、第四乃至第七のうち何れか一の発明に係る情報システムにおいて、前記媒体に保持されている情報には、ユーザーの属性に関する属性情報が含まれ、前記属性情報に基づいてユーザーに対して推奨する推奨情報を生成する生成手段を備え、前記文字情報には、前記生成手段により生成された前記推奨情報を構成する文字情報が含まれることを特徴とする。
 第九の発明に係る情報システムでは、ユーザーにおいて、推奨情報の理解を容易化することが可能となる。
 ここで、属性情報としては、後述する属性情報が該当する。推奨情報としては、後述する推奨アトラクション情報が該当する。生成手段としては、後述するサーバシステム10が該当する。
 第十の発明に係る情報システムは、第三の発明に係る情報システムにおいて、前記情報取得手段は、ユーザーの生体情報を取得することを特徴とする。
 第十の発明に係る情報システムでは、ユーザーの生体情報に基づいて文字情報の言語種別を変更することが可能となる。
 ここで、生体情報としては、後述する生体情報が該当する。
 第十一の発明に係る情報システムは、第一乃至第十のうち何れか一の発明に係る情報システムにおいて、前記情報取得手段により情報が取得されたことに応じて、前記言語種別設定手段により設定された言語種別に応じた文字情報の表示が開始されることを特徴とする。
 第十一の発明に係る情報システムによれば、情報取得手段による情報の取得に応じて、即座に、文字情報の言語種別を変更することが可能となる。
 第十二の発明に係る情報システムは、第一乃至第十一のうち何れか位置の発明に係る情報システムにおいて、前記表示部において、ゲームのプレイ方法に関する所定情報が表示され、前記文字情報には、前記所定情報を構成する文字情報が含まれることを特徴とする。
 第十二の発明に係る情報システムによれば、ユーザーにおいて、ゲームのプレイ方法を十分に理解した上で、プレイを開始することが可能となる。
 第十三の発明に係る情報システムは、第一乃至第十二のうち何れか一の発明に係る情報システムにおいて、前記表示部は、ゲーム装置の表示手段であることを特徴とする。
 第十三の発明に係る情報システムでは、ゲームに関する文字情報の言語種別の変更を容易化することが可能となる。
 ここで、ゲーム装置としては、後述するゲーム装置1が該当する。
 第十四の発明に係る情報システムは、第十三の発明に係る情報システムにおいて、アトラクトモード中に、ゲームに関するゲーム関連情報が表示され、前記文字情報には、前記ゲーム関連情報を構成する文字情報が含まれることを特徴とする。
 第十四の発明に係る情報システムでは、ユーザーにおいて、ゲームに関する情報を理解した上で、ゲームを開始させることが可能となる。
 ここで、アトラクトモードとしては、後述するアトラクト状態が該当する。ゲームに関する情報としては、後述するアトラクト情報が該当する。
 第十五の発明に係る情報システムは、第一乃至第十二のうち何れか一の発明に係る情報システムにおいて、前記表示部は、デジタルサイネージの表示手段であることを特徴とする。
 第十五の発明に係る情報システムでは、文字情報の言語種別の変更を容易化することが可能となる。
 ここで、デジタルサイネージとしては、後述するデジタルサイネージ装置20が該当する。
 本発明によれば、言語種別の変更を容易化することが可能となる。
ゲーム装置1の全体構成を示す斜視図である。 ゲーム装置1の制御系の構成例を示す図である。 デジタルサイネージシステム2の全体構成を示す斜視図である。 デジタルサイネージ装置10の制御系の構成例を示す図である。
 以下、本発明の実施形態について、図面を参照しながら説明する。
(第1実施形態)
 まず、本発明の第1実施形態に係るゲーム装置1を説明する。
 本実施形態では、本発明に係る情報システムを、ユーザーに対してゲームを提供することが可能なゲーム装置1に適用した一例を示している。
(ゲーム装置1の構成)
 まず、ゲーム装置1の構成を説明する。
 図1は、ゲーム装置1の全体構成を示す斜視図である。図2は、ゲーム装置1の制御系の構成例を示す図である。
 図1及び図2に示すように、ゲーム装置1は、処理部100と、操作部110と、記憶部120と、情報記憶媒体130、表示部140と、音出力部150と、I/F部160と、通信部170と、硬貨投入部180と、を含んで構成されている。
 処理部100は、操作部110から入力された操作情報、I/F部160から入力された情報、硬貨投入部180から入力された検出情報、情報記憶媒体130に記憶されているプログラム・データ等に基づいて、各種のサービスの提供に必要となる処理を実行する。
 具体的に、処理部100は、入力処理部101と、演算処理部102と、出力処理部103と、を含んで構成されている。処理部100は、プロセッサ及びメモリにより実現できる。
 入力処理部101は、操作部110から入力された操作情報を受け付ける処理、I/F部160により読み出された情報を受け付ける処理、硬貨投入部180から入力された検出情報を受け付ける処理、記憶部120からプログラム・データを読み出す処理、通信部170を介してデータを受信する処理等を実行する。
 演算処理部102は、ゲーム処理部102aと、管理部102bと、表示処理部102cと、音処理部102dと、を含んで構成されている。
 ゲーム処理部102aは、ユーザー(プレイヤー)がゲームをプレイするための各種のゲーム処理を実行する。各種のゲーム処理には、ゲームの開始条件の成立に応じてゲームを開始する処理、ゲームを進行する処理、ゲームの終了条件の成立に応じてゲームを終了する処理、ゲームパラメータを更新する処理、ゲームの結果を演算する処理等が含まれる。
 管理部102bは、記憶部120に記憶される各種の情報を管理する処理を実行する。
 表示処理部102cは、ゲーム処理部102aで実行される各種のゲーム処理の結果に応じて、ゲーム画像を生成し、生成したゲーム画像を、表示部140に対して出力する。
 音処理部102dは、ゲーム処理部102aで実行される各種のゲーム処理の結果に応じて、BGM、効果音、音声等のゲーム音を生成する音処理を実行する。そして、音処理により生成されたゲーム音を、音出力部150に対して出力する。
 出力処理部103は、記憶部120にデータを書き込む処理、通信部170を介してデータをサーバシステム(図示せず)に対して送信する処理等を実行する。
 操作部110は、ユーザーによる操作が可能となっており、ユーザーによる操作に応じた操作情報を、処理部100に対して出力する。操作部110は、操作ボタン、方向指示キー、アナログスティック、レバー、タッチパネル型ディスプレイ等により実現できる。
 記憶部120は、処理部100、通信部170等のワーク領域となる。記憶部120は、半導体メモリ、HDD、SSD、光ディスク装置等により実現できる。
 情報記憶媒体130は、プログラム・データ等を記憶(格納)する。特に、情報記憶媒体130には、ゲームの進行に必要となる各種のプログラム、各種の画像データ、各種のテキストデータ等が記憶されている。
 処理部100は、情報記憶媒体130に記憶されているプログラム・データの読み出しを実行することが可能となっている。そして、処理部100は、情報記憶媒体130に記憶されているプログラム・データに基づいて、各種の処理を実行する。情報記憶媒体130は、光ディスク、HDD、半導体メモリ等により実現できる。
 なお、本実施形態では、ゲーム装置1の各構成部(入力処理部101、演算処理部102、出力処理部103等)としてコンピュータを機能させるためのプログラム・データが、情報記憶媒体130に記憶されている。しかしながら、ゲーム装置1の各構成部としてコンピュータを機能させるためのプログラム・データが、サーバシステムの記憶部に記憶され、ネットワーク30を介して、ゲーム装置1に配信される構成としても構わない。
 表示部140は、表示処理部102cにより出力されたゲーム画像を表示する。表示部140は、LCD、有機ELディスプレイ、CRT等により実現できる。
 音出力部150は、音処理部102dにより出力されたゲーム音を出力する。音出力部150は、スピーカ、ヘッドフォン等により実現できる。
 I/F(インターフェース)部160は、情報媒体に対するインターフェースとなっている。具体的に、I/F部160は、情報媒体に記憶(記録)されている情報の読み出しを実行し、読み出した情報を、処理部100に対して出力する。
 「情報媒体」は、言語種別を指定する情報(以下、「言語種別指定情報」とする)を記憶(記録・保持)する手段となっている。
 「言語種別」は、日本語、英語、韓国語、中国語等、言語の種別を指定する情報となっている。
 本実施形態では、各ゲーム装置1において、互いに異なる言語種別を指定する言語種別指定情報が記憶された複数の情報媒体が備え付けられている。
 具体的に、言語種別指定情報として、日本語を指定する言語種別指定情報Aと、英語を指定する言語種別指定情報Bと、韓国語を指定する言語種別指定情報Cと、中国語を指定する言語種別指定情報Dと、が規定されている。
 そして、各ゲーム装置1において、言語種別指定情報Aが記憶された情報媒体Aと、言語種別指定情報Bが記憶された情報媒体Bと、言語種別指定情報Cが記憶された情報媒体Cと、言語種別指定情報Dが記憶された情報媒体Dと、が備え付けられている。
 情報媒体は、バーコードが印刷された媒体(チケット、カード等)、二次元コードが印刷された媒体(チケット、カード等)、RFIDタグ(ICタグ)を備える媒体(カード、リストバンド、コイン等)、NFC(Near Field Communication)を搭載する媒体(携帯通信端末等)等により実現できる。
 ここで、バーコードが印刷された媒体により情報媒体が実現される場合には、言語種別指定情報が変換されたバーコードが、媒体に印刷される。そして、バーコードリーダによりI/F部160が実現され、情報媒体に印刷されているバーコード(言語種別指定情報)が読み込まれる。
 一方、二次元コードが印刷された媒体により情報媒体が実現される場合には、言語種別指定情報が変換された二次元コードが、媒体に印刷される。そして、二次元コードリーダによりI/F部160が実現され、情報媒体に印刷されている二次元コード(言語種別指定情報)が読み込まれる。
 一方、RFIDタグ(ICタグ)を備える媒体により情報媒体が実現される場合には、RFIDタグの記憶部において、言語種別指定情報が記憶される。そして、RFIDリーダによりI/F部160が実現され、RFIDタグに記憶されている言語種別指定情報が読み込まれる。
 一方、NFCを搭載する媒体により情報媒体が実現される場合には、媒体の記憶部において、言語種別指定情報が記憶される。そして、NFCリーダによりI/F部160が実現され、媒体に記憶されている言語種別指定情報が読み込まれる。
 通信部170は、ネットワーク30を介して、サーバシステムとの間で、通信を実行する。通信部170は、通信用ASIC、通信用プロセッサ等のハードウェア、又は、通信用ファームウェアにより実現できる。
 硬貨投入部180は、ユーザーによる硬貨(コイン)の投入が可能となっており、硬貨の投入の検出に応じて、検出情報を、処理部100に対して出力する。硬貨投入部180は、コインセレクタ等により実現できる。
(ゲーム画像の遷移)
 次に、ゲーム装置1の表示部140に表示されるゲーム画像(画面)の遷移を説明する。
 ゲーム装置1では、正常に電源遮断が実行された場合、その後、電源投入に応じて、アトラクト状態(待機状態・客待ち状態)に移行する。
 アトラクト状態中には、表示部140において、アトラクト画像(画面)が表示される。
 アトラクト画像には、ゲーム装置1に関する情報、ゲーム装置1が提供するゲームに関する情報、ゲーム装置1をプレイするユーザーに関する情報等のアトラクト情報が表示される。ここで、アトラクト情報は、文字情報(文字、文章等のテキストデータ)を含んで構成されている。
 具体的に、アトラクト情報には、ゲームのプレイが許可されるユーザーの条件(年齢、身長等の条件)に関する情報、ゲームのプレイが禁止されるユーザーの条件(体調、持病、障害、飲酒、妊娠、自覚症状等の条件)に関する情報、ゲームのプレイに必要となる料金(チケット)に関する情報、ゲームをプレイするにあたっての注意事項に関する情報、ゲーム装置1の操作方法に関する情報、ゲームの内容(ゲームのタイトル、チュートリアル、ゲームのプレイ方法、ゲームの登場キャラクタ、ゲームのクリア条件、ゲーム内の演出等)に関する情報等が含まれる。
 アトラクト状態中(アトラクト画像の表示中)に、硬貨投入部180への硬貨の投入が検出されると、アトラクト状態からスタート状態に移行する。
 スタート状態中には、表示部140において、スタート画像(画面)が表示される。
 スタート画像には、ゲームのタイトル、ユーザーに対してスタートボタンの押下操作を促すメッセージ等のスタート情報が表示される。ここで、スタート情報は、文字情報を含んで構成されている。
 スタート状態中(スタート画像の表示中)に、スタートボタンの押下操作が検出されると、スタート状態からメインメニュー状態に移行する。ここで、スタートボタンは、操作部110に含まれている。
 メインメニュー状態中には、表示部140において、メインメニュー画像(画面)が表示される。
 メインメニュー画像には、ゲーム装置1で提供される各種のサービスメニューが表示される。ここで、各種のサービスメニューは、文字情報を含んで構成されている。
 本実施形態では、各種のサービスメニューとして、遊技ポイント購入、ゲームモード選択、ログアウト等が規定されている。そして、メインメニュー画像には、各サービスメニューに対応するサービスアイコンが表示され、操作部110を操作してサービスアイコンを選択することにより、選択されたサービスアイコンに対応するサービスメニューに移行することが可能となっている。
 メインメニュー状態中に、遊技ポイント購入に対応するサービスアイコンが選択されると、メインメニュー状態から遊技ポイント購入状態に移行する。
 遊技ポイント購入状態中には、表示部140において、遊技ポイント購入画像(画面)が表示される。
 遊技ポイント購入画像は、ユーザーの選択により遊技ポイントを購入させる画像となっている。
 「遊技ポイント」は、ゲーム装置1において使用することが可能な仮想通貨となっている。本実施形態では、遊技ポイントを消費(使用)することにより、各種のゲームをプレイすることが可能となっている。
 遊技ポイントは、クレジットを消費することにより購入(獲得・取得・交換)することが可能となっている。
 「クレジット」は、硬貨投入部180への硬貨の投入により付与される価値となっている。本実施形態では、クレジットを消費(使用)することにより、遊技ポイントの購入、中断したゲームの再開(後述するコンティニュー)等を実行することが可能となっている。
 クレジットは、硬貨投入部180へ投入された硬貨の枚数に応じて付与(獲得・取得・加算)される。ゲーム装置1では、電源投入中、常時、硬貨投入部180への硬貨の投入に応じて、クレジットを獲得することが可能となっている。
 遊技ポイント購入画像には、遊技ポイントを購入するための各種の購入メニューが表示される。ここで、各種の購入メニューは、文字情報を含んで構成されている。各種の購入メニューには、購入する遊技ポイント数と、購入に必要となるクレジット数と、の対応が表示される。そして、遊技ポイント購入画像には、各購入メニューに対応する購入アイコンが表示され、操作部110を操作して購入アイコンを選択することにより、選択された購入アイコンに対応する購入メニューに応じて、クレジットを消費して、遊技ポイントを購入することが可能となっている。
 また、遊技ポイント購入画像には、メインメニュー画像に戻ることを指定するリターンアイコンが表示される。そして、遊技ポイント購入状態中に、操作部110を操作してリターンアイコンが選択されると、これに応じて、遊技ポイント購入状態から、メインメニュー状態に移行する。
 一方、メインメニュー状態中に、ゲームモード選択に対応するサービスアイコンが選択されると、メインメニュー状態からゲームモード選択状態に移行する。
 ゲームモード選択状態中には、表示部140において、ゲームモード選択画像(画面)が表示される。
 ゲームモード選択画像は、ユーザーの選択によりゲームを開始することが可能な画像となっている。
 本実施形態では、ゲーム装置1において提供されるゲームとして、課題の難易度、課題の内容等が異なる複数種類のゲームが規定されている。そして、複数種類のゲームでは、課題の難易度、課題の内容等に応じて、ゲームの提供により消費される遊技ポイント数が異なっている。
 ゲームモード選択画像には、プレイを開始することが可能な複数のゲームについて、各ゲームに対応するゲームアイコンが表示される。ここで、各ゲームに対応するゲームアイコンには、当該ゲームの課題の内容、当該ゲームの課題の難易度、当該ゲームの課題を達成した場合に獲得されるアイテム、当該ゲームの提供により消費される遊技ポイント数等の文字情報が表示される。
 そして、ゲームモード選択状態中に、いずれかのゲームアイコンが選択されると、ゲームモード選択状態から、選択されたゲームアイコンに対応するゲーム進行状態に移行する(選択されたゲームアイコンに対応するゲームが開始される)。
 また、ゲームモード選択画像には、メインメニュー画像に戻ることを指定するリターンアイコンが表示される。そして、ゲームモード選択状態中に、操作部110を操作してリターンアイコンが選択されると、ゲームモード選択状態からメインメニュー状態に移行する。
 さらに、ゲームモード選択画像には、ログアウトを指定するログアウトアイコンが表示される。そして、ゲームモード選択状態中に、操作部110を操作してログアウトアイコンが選択されると、これに応じて、ゲームモード選択状態から、アトラクト状態に移行する。
 各ゲームに対応するゲーム進行状態中には、表示部140において、当該ゲームに対応するゲーム中画像(画面)が表示され、ユーザーは、操作部110を操作することにより、当該ゲームをプレイ(進行)することが可能となる。特に、各ゲームに対応するゲーム中画像では、ゲームの進行に応じて、各種の文字情報が表示される。
 各ゲームに対応するゲーム進行状態中に、当該ゲームに対応する課題達成条件が成立すると(課題が達成されると)、ゲーム進行状態から、ゲームクリア状態に移行する。
 各ゲームに対応するゲームクリア状態中には、表示部140において、当該ゲームに対応するクリア画像(画面)が表示される。そして、クリア画像において、当該ゲームのプレイにより獲得したアイテム、当該ゲームのクリアに要した時間、当該ゲームのプレイ内容の評価等、当該ゲームの結果を報知する各種の文字情報が表示される。
 そして、ゲームクリア状態の開始から所定時間が経過すると、これに応じて、ゲームクリア状態から、ゲームモード選択状態に移行する。
 一方、各ゲームに対応するゲーム進行状態中に、当該ゲームに対応する課題非達成条件が成立すると(課題が非達成となると)、ゲーム進行状態から、コンティニュー状態に移行する。
 ここで、ユーザーは、コンティニュー状態中に、コンティニューボタンを押下操作することにより、遊技ポイント又はクレジットを消費して、当該ゲームの継続(コンティニュー)を選択することが可能となっている。
 コンティニュー状態中には、表示部140において、当該ゲームに対応するコンティニュー画像(画面)が表示される。
 コンティニュー画像には、コンティニューボタンの押下操作(遊技ポイント又はクレジットの消費)により、当該ゲームの継続(コンティニュー)が可能であることを報知する文字情報が表示される。
 そして、コンティニュー状態の開始から所定時間が経過するまでに、コンティニューボタンの押下操作(遊技ポイント又はクレジットの消費)が検出された場合には、当該検出に応じて、当該ゲーム進行状態が再開される(当該ゲームが再開される)。一方、コンティニュー状態の開始から所定時間が経過するまでに、コンティニューボタンの押下操作(遊技ポイント又はクレジットの消費)が検出されない場合には、当該所定時間の経過に応じて、コンティニュー状態から、ゲームオーバー状態に移行する。
 ゲームオーバー状態中には、表示部140において、当該ゲームに対応するゲームオーバー画像(画面)が表示される。
 ゲームオーバー画像には、当該ゲームの終了を報知する文字情報が表示される。
 そして、ゲームオーバー状態の開始から所定時間が経過すると、これに応じて、ゲームオーバー状態から、ゲームモード選択状態に移行する。
(言語種別初期化処理・言語種別更新処理)
 次に、管理部102bが実行する言語種別初期化処理・言語種別更新処理を説明する。
 記憶部120は、言語種別指定情報記憶領域を含んで構成されている。そして、言語種別指定情報記憶領域には、言語種別指定情報(本実施形態では、言語種別指定情報A、言語種別指定情報B、言語種別指定情報C、及び、言語種別指定情報Dのうち、何れかの言語種別指定情報)が記憶(設定)される。
 管理部102bは、アトラクト状態に移行したことに応じて、言語種別初期化処理を実行する。言語種別初期化処理では、言語種別指定情報記憶領域において、言語種別指定情報Aが記憶(上書き)される。これによって、アトラクト状態に移行するごとに(アトラクト状態が開始されるごとに)、言語種別指定情報記憶領域に記憶されている言語種別指定情報が、言語種別指定情報Aに初期化される。
 また、ゲーム装置1では、少なくとも、アトラクト状態中において、言語種別変更有効状態が設定される。本実施形態では、ゲーム装置1に電源が投入されている期間中のうち、アトラクト状態中に限り、言語種別変更有効状態が設定される。なお、ゲーム装置1に電源が投入されている期間中、常時、言語種別変更有効状態が設定される構成としても構わない。
 言語種別変更有効状態の設定中には、I/F部160による情報の読み出しが有効とされる。そして、管理部102bは、言語種別変更有効状態の設定中に、I/F部160により、情報媒体に記憶されている言語種別指定情報の読み出しが実行されたことに応じて、言語種別更新処理を実行する。言語種別更新処理では、言語種別指定情報記憶領域において、I/F部160により読み出された言語種別指定情報が記憶(上書き)され、その後、表示処理部102cに対してアトラクト画像の更新がリクエストされる。これによって、I/F部160により、情報媒体に記憶されている言語種別指定情報の読み出しが実行されるごとに、言語種別指定情報記憶領域に記憶されている言語種別指定情報が、当該情報媒体に記憶されている言語種別指定情報に更新される。
(画像表示処理・画像更新処理)
 次に、表示処理部102cが実行する画像表示処理・画像更新処理を説明する。
 表示処理部102cは、ゲーム処理部102aで実行される各種のゲーム処理の結果に応じて、画像表示処理を実行する。画像表示処理では、ゲーム画像が生成され、生成されたゲーム画像が、表示部140に対して出力される。
 ここで、各ゲーム画像(アトラクト画像、スタート画像、メインメニュー画像、遊技ポイント購入画像、ゲームモード選択画像、ゲーム中画像、クリア画像、コンティニュー画像、ゲームオーバー画像等)は、一又は複数の画像(画像データ)と、一又は複数の文字情報(テキストデータ)と、を合成することにより生成される。
 特に、情報記憶媒体130には、ゲーム装置1(表示部140)において表示される全ての文字情報について、各文字情報に対応するテキストデータとして、互いに異なる言語種別により表示(表現)された複数種類のテキストデータが記憶されている。すなわち、各文字情報に対応する複数種類のテキストデータでは、互いに同一の意味・内容を示す文字情報が、互いに異なる言語種別により表示(表現)されている。
 本実施形態では、各文字情報に対応するテキストデータとして、4種類のテキストデータ(具体的には、日本語により表示(表現)されたテキストデータa、英語により表示(表現)されたテキストデータb、韓国語により表示(表現)されたテキストデータc、及び、中国語により表示(表現)されたテキストデータd)が記憶されている。
 そして、表示処理部102cは、一又は複数の画像(画像データ)と、一又は複数の文字情報(テキストデータ)と、に基づいて、各ゲーム画像を生成(描画)する。この際、各文字情報について、当該文字情報に対応する4種類のテキストデータ(テキストデータa~テキストデータd)のうち、何れかのテキストデータを用いて、当該ゲーム画像を生成する。
 具体的に、各文字情報について、言語種別指定情報記憶領域に記憶されている言語種別指定情報に応じて、当該文字情報に対応する4種類のテキストデータのうち、何れかのテキストデータを選択し、選択したテキストデータを用いて、ゲーム画像を生成する。この際、言語種別指定情報記憶領域において言語種別指定情報Aが記憶されている場合には、テキストデータaが選択される。一方、言語種別指定情報記憶領域において言語種別指定情報Bが記憶されている場合には、テキストデータbが選択される。一方、言語種別指定情報記憶領域において言語種別指定情報Cが記憶されている場合には、テキストデータcが選択される。一方、言語種別指定情報記憶領域において言語種別指定情報Dが記憶されている場合には、テキストデータdが選択される。
 これによって、各ゲーム画像(アトラクト画像、スタート画像、メインメニュー画像、遊技ポイント購入画像、ゲームモード選択画像、ゲーム中画像、クリア画像、コンティニュー画像、ゲームオーバー画像等)を構成する全ての文字情報について、言語種別指定情報記憶領域に記憶されている言語種別指定情報が指定する言語種別に対応するテキストデータが選択される。
 したがって、各ゲーム画像を構成する全ての文字情報について、言語種別指定情報記憶領域に記憶されている言語種別指定情報が指定する言語種別の言語により表示(表現)される。
 例えば、言語種別指定情報記憶領域において言語種別指定情報Aが記憶されている場合には、アトラクト画像に含まれる各種の文字情報(ゲームのプレイが許可されるユーザーの条件に関する情報、ゲームのプレイが禁止されるユーザーの条件に関する情報、ゲームのプレイに必要となる料金(チケット)に関する情報、ゲームをプレイするにあたっての注意事項に関する情報、ゲーム装置1の操作方法に関する情報、ゲームの内容に関する情報等)が、日本語により表示(表現)される。
 一方、言語種別指定情報記憶領域において言語種別指定情報Bが記憶されている場合には、アトラクト画像に含まれる各種の文字情報が、英語により表示(表現)される。
 一方、言語種別指定情報記憶領域において言語種別指定情報Cが記憶されている場合には、アトラクト画像に含まれる各種の文字情報が、韓国語により表示(表現)される。
 一方、言語種別指定情報記憶領域において言語種別指定情報Dが記憶されている場合には、アトラクト画像に含まれる各種の文字情報が、中国語により表示(表現)される。
 特に、表示処理部102cは、アトラクト状態への移行(アトラクト状態の開始)に応じて、アトラクト画像を生成し、生成したアトラクト画像を、表示部140に対して出力される。これによって、表示部140におけるアトラクト画像の表示が開始される。
 そして、表示処理部102cは、管理部102bによりアトラクト画像の更新がリクエストされたことに応じて、画像更新処理を実行する。画像更新処理では、アトラクト画像の内容が更新される。すなわち、改めて、アトラクト画像が生成され、生成されたアトラクト画像が、表示部140に対して出力される。これによって、表示部140に表示されているアトラクト画像の内容(特に、文字情報の言語種別)が更新される。
 画像更新処理では、上記の画像表示処理と同様の処理により、アトラクト画像が生成される。すなわち、表示処理部102cは、一又は複数の画像(画像データ)と、一又は複数の文字情報(テキストデータ)と、に基づいて、アトラクト画像を生成する。この際、アトラクト画像を構成する各文字情報について、当該文字情報に対応する4種類のテキストデータ(テキストデータa~テキストデータd)のうち、言語種別指定情報記憶領域に記憶されている言語種別指定情報が指定する言語種別に対応するテキストデータを用いて、アトラクト画像が生成される。
 これによって、アトラクト画像を構成する全ての文字情報の言語種別が、言語種別指定情報記憶領域に上書きされた言語種別指定情報(すなわち、I/F部160により読み出された言語種別指定情報(情報媒体に記憶されている言語種別指定情報))が指定する言語種別に更新(変更)される。
(ゲーム装置1の動作)
 次に、ゲーム装置1の動作を説明する。
 ゲーム装置1では、ユーザーによるプレイが実行されていない期間中(ログアウトされている期間中)、アトラクト状態が設定され、表示部140において、アトラクト画像が表示される。
 そして、ゲーム装置1に興味を持ったユーザーは、まず、当該ゲーム装置1に備え付けられている4種類の情報媒体(情報媒体A~情報媒体D)のうち、自己が理解できる言語種別に対応する情報媒体を選択し、選択した情報媒体を、I/F部160に近接させる。
 すると、当該情報媒体に記憶されている言語種別指定情報(言語種別指定情報A~言語種別指定情報D)が、I/F部160により読み出され、I/F部160により読み出された言語種別指定情報が、言語種別指定情報記憶領域に記憶(上書き)されるとともに、アトラクト画像の内容が更新される。
 この際、アトラクト画像を構成する各文字情報(テキストデータ)の言語種別が、言語種別指定情報記憶領域に記憶(上書き・選択)された言語種別指定情報が指定する言語種別に変更される。
 これによって、ユーザーは、アトラクト画像に表示されている各種の情報(ゲームのプレイが許可されるユーザーの条件に関する情報、ゲームのプレイが禁止されるユーザーの条件に関する情報、ゲームのプレイに必要となる料金(チケット)に関する情報、ゲームをプレイするにあたっての注意事項に関する情報、ゲーム装置1の操作方法に関する情報、ゲームの内容に関する情報等)を十分に理解した上で、プレイを開始するか否か(硬貨投入部180への硬貨を投入するか否か)を判断することが可能となる。
 以上により、ゲーム装置1によれば、ユーザーフレンドリーを向上することが可能となる。
(ゲーム装置1の作用)
 ゲーム装置1では、情報(言語種別指定情報)を取得するI/F部160と、I/F部160により取得された情報に基づいて言語種別を設定する管理部102bと、管理部102bにより設定された言語種別に応じた文字情報を表示部に表示する表示処理部102cと、を備えている。これによって、I/F部160に情報を取得させる操作のみをもって、文字情報の言語種別を変更することが可能となり、言語種別の変更を容易化することが可能となる。特に、ゲームに関する文字情報の言語種別の変更を容易化することが可能となる。
 また、ゲーム装置1では、アトラクトモード中(アトラクト状態中)に、ゲームに関するゲーム関連情報(アトラクト情報)が表示され、I/F部160に情報を取得させる操作によって、ゲーム関連情報を構成する文字情報の言語種別が変更される。これによって、ユーザーにおいて、ゲームに関する情報を理解した上で、ゲームを開始させることが可能となる。
 特に、リズムゲーム、シミュレーションゲーム等の操作方法が複雑なゲームについて、ユーザーにおいて、操作方法を理解した上で、プレイを開始させることができ、操作方法の理解が不十分であることに基づく興趣性の低下を防止することが可能となる。また、業務用VRゲーム等の外観に基づくプレイ内容の理解が困難なゲームについて、ユーザーにおいて、プレイ内容を理解した上で、プレイするか否かを選択させることが可能となる。さらに、クライミングウォール等の様々な攻略方法(プレイ方法)があるゲームについて、ユーザーにおいて、攻略方法を把握した上で、プレイを開始させることが可能となる。
 また、ゲーム装置1では、I/F部160により取得される情報に、言語種別を指定する情報(言語種別指定情報)が含まれ、管理部102bが、言語種別を指定する情報に基づいて言語種別を設定する。これによって、I/F部160により取得された情報に基づいて、直接、言語種別を設定することが可能となるため、管理部102bの処理を簡素化することが可能となる。
 また、ゲーム装置1では、I/F部160が、情報媒体に保持されている情報を取得する。これによって、I/F部160による情報の取得を容易化することが可能となる。
 また、ゲーム装置1では、情報媒体に保持されている情報を、一次元コード又は二次元コードとすることができ、また、情報媒体を、RFIDタグや携帯通信端末とすることができる。これによって、I/F部160による情報の取得を更に容易化することが可能となる。
(第1実施形態の変形例)
 以上、本発明の第1実施形態について説明したが、上記第1実施形態では、種々の変更を行うことが可能である。
(変形例1)
 例えば、上記第1実施形態では、各ゲーム装置1において、遊技媒体(情報媒体A~情報媒体D)が備え付けられる構成となっている。
 しかしながら、ユーザーが、自己が理解できる言語種別に対応する情報媒体(情報媒体A~情報媒体D)を取得(保持)できる構成としても構わない。
 例えば、パンフレットにおいて、言語種別指定情報を変換した二次元コード(または、バーコード)が印刷される構成としても構わない。ここで、「パンフレット」は、ゲーム装置1が設置されている施設に関する案内情報を掲載する冊子となっている。
 すなわち、施設の入口、案内所、受付等の配布所において、各言語種別に対応するパンフレットを備え付ける。特に、日本語の案内情報を掲載するパンフレットには、言語種別指定情報Aを変換した二次元コードを印刷する。一方、英語の案内情報を掲載するパンフレットには、言語種別指定情報Bを変換した二次元コードを印刷する。一方、韓国語の案内情報を掲載するパンフレットには、言語種別指定情報Cを変換した二次元コードを印刷する。一方、中国語の案内情報を掲載するパンフレットには、言語種別指定情報Bを変換した二次元コードを印刷する。
 これによって、ユーザーは、配布所において、自己が理解できる言語種別に対応するパンフレットを取得し、取得したパンフレットに印刷されている二次元コードを、各ゲーム装置1のI/F部160に読み込ませることで、当該ゲーム装置1のアトラクト画像を構成する各文字情報の言語種別を、自己が理解できる言語種別に変更することが可能となる。
 または、チケットにおいて、言語種別指定情報を変換した二次元コード(または、バーコード)が印刷される構成としても構わない。ここで、「チケット」は、フリーパスチケット(ゲーム装置1が設置されている施設内へ入場し、時間制限なく滞在することができるチケット)、時間制チケット(ゲーム装置1が設置されている施設内へ入場し、所定時間に限り滞在することができるチケット)、個別のプレイチケット(各ゲーム装置1をプレイすることができるチケット)等となっている。
 すなわち、チケットを販売する販売装置において、ユーザーによる言語種別の選択を可能とし、ユーザーにより選択された言語種別を指定する言語種別指定情報と、販売されたチケットの種別を指定する情報と、を含む情報を変換した二次元コードが、販売されたチケットに印刷される構成とする。
 これによって、ユーザーは、購入したチケットに印刷されている二次元コードを、各ゲーム装置1のI/F部160に読み込ませることで、当該ゲーム装置1のアトラクト画像を構成する各文字情報の言語種別を、チケット購入時に選択した言語種別に変更することが可能となる。
 または、ユーザーに対して貸与されるリストバンドにおいて、言語種別指定情報が記憶される構成としても構わない。
 すなわち、ユーザーが施設内へ入場する際に、RFIDタグ(ICタグ)を備えるリストバンドを貸与する。この際、オペレータにより、ユーザーにより選択された言語種別を指定する言語種別指定情報等が、RFIDタグに記憶される。
 これによって、ユーザーは、貸与されたリストバンドを、各ゲーム装置1のI/F部160に近接させることで、当該ゲーム装置1のアトラクト画像を構成する各文字情報の言語種別を、施設内への入場時に選択した言語種別に変更することが可能となる。
 または、事前登録により発行される会員カードにおいて、言語種別指定情報が記憶される構成としても構わない。
 すなわち、ユーザーの申し込みに応じて、RFIDタグ(ICタグ)を備える会員カードを発行する。この際、ユーザーにより選択された言語種別を指定する言語種別指定情報等が、RFIDタグに記憶される。
 これによって、ユーザーは、発行された会員カードを、各ゲーム装置1のI/F部160に近接させることで、当該ゲーム装置1のアトラクト画像を構成する各文字情報の言語種別を、会員カードの申し込み時に選択した言語種別に変更することが可能となる。
(変形例2)
 また、上記第1実施形態では、情報記憶媒体130において、各文字情報に対応するテキストデータとして、互いに異なる言語種別により表示(表現)された複数種類のテキストデータが記憶されている。そして、各ゲーム画像が生成される際に、当該ゲーム画像の素材となる各文字情報について、当該文字情報に対応する複数種類のテキストデータのうち、言語種別指定情報記憶領域に記憶されている言語種別指定情報に対応するテキストデータが用いられる構成となっている。
 しかしながら、情報記憶媒体130において、各文字情報に対応するテキストデータとして、一の言語種別により表示(表現)されたテキストデータのみが記憶される構成としても構わない。そして、各ゲーム画像が生成される際に、当該ゲーム画像の素材となる各文字情報について、当該文字情報に対応するテキストデータが、言語種別指定情報記憶領域に記憶されている言語種別指定情報が指定する言語種別に翻訳され、翻訳されたテキストデータが用いられる構成としても構わない。
(変形例3)
 また、上記第1実施形態では、情報媒体において、言語種別指定情報のみが記憶される構成となっている。
 しかしながら、情報媒体において、後述する属性情報が記憶される構成としても構わない。そして、ゲーム装置1において、情報媒体から読み出された属性情報に基づいて、ユーザーに対して推奨する情報(推奨するゲームモードに関する情報、推奨する楽曲に関する情報、推奨する他のゲーム装置1に関する情報等)が生成され、生成された情報が表示部140(アトラクト画像)において表示される構成としても構わない。
 または、ゲーム装置1において、情報媒体から読み出された属性情報に基づいて、ユーザーに対して推奨する情報(推奨するゲームモードに関する情報、推奨する楽曲に関する情報、推奨する他のゲーム装置1に関する情報等)の表示順序が変更される構成としても構わない。
 かかる構成とした場合には、事前に、受付において、ユーザーが、自己の属性(年齢、性別、国籍等)、自己が理解できる言語種別等を申告(選択)する。そして、オペレータが、ユーザーにより申告された属性を示す情報(属性情報)と、ユーザーにより選択された言語種別を指定する言語種別指定情報と、を含む情報を、情報媒体に記憶する。
(変形例4)
 また、上記第1実施形態では、I/F部160が、ユーザーの生体情報(指紋、顔、虹彩、静脈等)を取得することが可能な手段(指紋センサ、カメラ等)により実現されていても構わない。
 かかる構成とした場合には、事前に、受付において、オペレータが、ユーザーの生体情報(指紋、顔、虹彩、静脈等)と、当該ユーザーが理解できる言語種別と、を取得する。そして、取得した生体情報と、取得した言語種別を指定する言語種別指定情報と、を関連付けて、サーバシステムの記憶部に記憶する。
 そして、ゲーム装置1の管理部102bは、I/F部160による生体情報の取得に応じて、取得した生体情報を、サーバシステムに対して送信する。また、サーバシステムは、ゲーム装置1から受信した生体情報に関連付けられている言語種別指定情報を、ゲーム装置1に対して送信する。そして、管理部102bは、サーバシステムから受信した言語種別指定情報を、言語種別指定情報記憶領域に記憶するとともに、表示処理部102cに対してアトラクト画像の更新をリクエストする。
 かかる構成によって、ユーザーは、I/F部160により生体情報を取得させることで、アトラクト画像を構成する全ての文字情報の言語種別を、事前にユーザーが選択した言語種別に更新(変更)することが可能となる。したがって、ユーザーの生体情報に基づいて文字情報の言語種別を変更することが可能となる。
 なお、ゲーム装置1において、ユーザーによるプレイの終了に応じて、プレイ内容に関する情報が、サーバシステムに対して送信され、サーバシステムの記憶部において、当該ユーザーの生体情報に関連付けて記憶(蓄積)される構成としても構わない。
(変形例5)
 また、上記第1実施形態では、言語種別指定情報が、情報媒体に記憶されている構成となっている。
 しかしながら、言語種別指定情報が、サーバシステムの記憶部に記憶される構成としても構わない。そして、ゲーム装置1の管理部102bが、I/F部160による情報媒体に記憶されている情報の読み出しに応じて、サーバシステムから言語種別指定情報を取得し、取得した言語種別指定情報を、言語種別指定情報記憶領域に記憶する構成としても構わない。
 かかる構成とした場合には、事前に、ユーザーが、自己が理解できる言語種別を指定する言語種別指定情報を、当該ユーザーの識別情報に関連付けて、サーバシステムの記憶部に記憶する。この場合、情報媒体は、ユーザーにより保有される。この際、情報媒体は、RFIDタグ(ICタグ)を備える媒体(カード、リストバンド、コイン等)、NFC(Near Field Communication)を搭載する媒体(携帯通信端末等)等により実現される。さらに、情報媒体において、当該ユーザーの識別情報が記憶される。そして、ゲーム装置1の管理部102bは、I/F部160による情報媒体に記憶されている識別情報の読み出しに応じて、読み出した識別情報を、サーバシステムに対して送信する。また、サーバシステムは、ゲーム装置1から受信した識別情報に関連付けられている言語種別指定情報を、ゲーム装置1に対して送信する。そして、管理部102bは、サーバシステムから受信した言語種別指定情報を、言語種別指定情報記憶領域に記憶する。
 例えば、ユーザーが、事前に、自己の携帯通信端末(情報媒体)を用いて、サーバシステムにアクセスして、専用Webサイトにおいて、会員登録を行う。すなわち、ユーザーは、自己の携帯通信端末を操作して、専用Webサイトの会員登録ページにおいて、自己のニックネーム、自己の属性(年齢、性別、国籍等の属性情報)、自己が理解できる言語種別(言語種別指定情報)等の会員情報を登録する。そして、サーバシステムは、会員登録の完了に応じて、当該ユーザーの会員ID(識別情報)を設定するとともに、記憶部において、当該会員IDに対応する記憶領域を設定し、設定した記憶領域において、登録された会員情報を記憶する。さらに、ユーザーは、ゲーム装置1におけるプレイを開始する前に、自己の携帯通信端末を用いてサーバシステムにアクセスして、会員IDを取得し、会員IDを取得(記憶)した携帯通信端末を、ゲーム装置1のI/F部160に近接させる。これによって、ゲーム装置1のI/F部160は、携帯通信端末から会員IDを取得する。また、管理部102bは、取得された会員IDを、サーバシステムに対して送信する。さらに、サーバシステムは、受信した会員IDに対応付けられている会員情報を読み出し、読み出した会員情報を、ゲーム装置1に対して送信する。そして、管理部102bは、受信した会員情報に含まれる言語種別指定情報を、言語種別指定情報記憶領域に記憶(上書き・選択)するとともに、表示処理部102cに対してアトラクト画像の更新をリクエストする。
 かかる構成によって、ユーザーは、自己が保有する情報媒体を、各ゲーム装置1のI/F部160に近接させることで、当該ゲーム装置1のアトラクト画像を構成する各文字情報の言語種別を、事前に選択した言語種別に変更することが可能となる。
 なお、ゲーム装置1において、ユーザーによるプレイの終了に応じて、プレイ内容に関する情報が、サーバシステムに対して送信され、サーバシステムの記憶部において、当該ユーザーの会員IDに関連付けて記憶(蓄積)される構成としても構わない。
(変形例6)
 また、上記第1実施形態では、ゲーム装置1において、情報媒体から取得した言語種別指定情報に基づいて、文字情報の言語種別が変更される構成となっている。
 しかしながら、ユーザーが保有する携帯通信端末から取得した、過去に接続した無線通信(Wi-Fi・無線LAN)のアクセスポイントのSSID(Service Set IDentifier)の履歴に基づいて、文字情報の言語種別が変更される構成としても構わない。
 すなわち、ユーザーが保有する携帯通信端末には、過去に接続した無線通信のアクセスポイントのSSIDの履歴(以下、「接続履歴情報」とする)が記憶される。そこで、施設内又はゲーム装置1において、ユーザーが保有する携帯通信端末から接続履歴情報を取得することが可能な履歴情報取得装置を配置する。
 履歴情報取得装置は、無線通信(Wi-Fi・無線LAN)により、所定の検知範囲内に存在する携帯通信端末に記憶されている接続履歴情報を取得することが可能に構成される。そして、履歴情報取得装置は、携帯通信端末から接続履歴情報を取得すると、取得した接続履歴情報と、当該履歴情報取得装置の識別子と、を関連付けて、サーバシステムに対して送信する。
 サーバシステムは、履歴情報取得装置から接続履歴情報及び識別子を受信すると、受信した接続履歴情報に基づいて、言語種別指定情報を選択する。この際、サーバシステムは、受信した接続履歴情報に含まれるSSIDに基づいて、当該SSIDのアクセスポイントが存在する国を、関連国として選択し、選択した関連国の公用語を指定する言語種別指定情報を選択する。すなわち、受信した接続履歴情報に含まれる複数のSSIDについて、各SSIDのアクセスポイントが存在する国を判定し、判定された一又は複数の国のうち何れかの国を、関連国として選択する。この際、接続したアクセスポイントが存在する国の時系列的な変化等に基づいて、判定された一又は複数の国のうち何れかの国を、関連国として選択する。
 また、サーバシステムは、選択した言語種別指定情報を、履歴情報取得装置から受信した識別子に対応するゲーム装置1に対して送信する。ここで、サーバシステムの記憶部には、各識別子と、当該識別子に対応する一又は複数のゲーム装置1と、の対応が規定された対応情報が記憶さている。そして、サーバシステムは、対応情報と、履歴情報取得装置から受信した識別子と、に基づいて、選択した言語種別指定情報を送信するゲーム装置1を選択する。
 そして、ゲーム装置1の管理部102bは、サーバシステムから受信した言語種別指定情報を、言語種別指定情報記憶領域に記憶(上書き)するとともに、表示処理部102cに対してアトラクト画像の更新をリクエストする。
 かかる構成によって、ユーザーの操作を必要とせずに、ユーザーの近くに設置されているゲーム装置1において、アトラクト画像を構成する各文字情報の言語種別を、ユーザーが理解することが可能であると予測される言語種別に変更することが可能となる。
 ここで、言語種別指定情報記憶領域の上書きが実行された場合、所定時間が経過するまで、再度、言語種別指定情報記憶領域の上書きが実行されない構成としても構わない。これによって、アトラクト画像を構成する各文字情報の言語種別が変更されると、少なくとも所定時間について、変更後の言語種別を維持することが可能となる。
 なお、履歴情報取得装置が、無線通信(Wi-Fi・無線LAN)により、所定の検知範囲内に存在する携帯通信端末において設定されている言語情報(言語設定)を取得することが可能に構成されていても構わない。
 かかる構成とした場合、履歴情報取得装置は、携帯通信端末から言語情報を取得すると、取得した言語情報と、当該履歴情報取得装置の識別子と、を関連付けて、サーバシステムに対して送信する。
 また、サーバシステムは、履歴情報取得装置から言語情報及び識別子を受信すると、受信した言語情報に基づいて、言語種別指定情報を選択する。この際、受信した言語情報が指定する言語種別と同一の言語種別を指定する言語種別指定情報を選択する。
 さらに、サーバシステムは、選択した言語種別指定情報を、履歴情報取得装置から受信した識別子に対応するゲーム装置1に対して送信する。この際、サーバシステムは、上記の対応情報と、履歴情報取得装置から受信した識別子と、に基づいて、選択した言語種別指定情報を送信するゲーム装置1を選択する。
 そして、ゲーム装置1の管理部102bは、サーバシステムから受信した言語種別指定情報を、言語種別指定情報記憶領域に記憶(上書き)するとともに、表示処理部102cに対してアトラクト画像の更新をリクエストする。
 ここで、履歴情報取得装置は、ゲーム装置1に配置されていても、施設内の天井等に配置されていても、どちらでも構わない。履歴情報取得装置を施設内の天井等に配置する場合には、各ゲーム装置1に識別子を設定するとともに、サーバシステムにおいて、カメラの撮像画像等に基づいてユーザーが接近しているゲーム装置1を判定する判定装置を設ける。そして、サーバシステムが、履歴情報取得装置から言語情報及び識別子を受信すると、受信した言語情報に基づいて、言語種別指定情報を選択し、選択した言語種別指定情報を、判定装置により判定したユーザーが接近しているゲーム装置1に対して送信する構成としても構わない。
(変形例7)
 また、上記第1実施形態では、硬貨の投入により、クレジットが付与される構成となっている。しかしながら、プリペイドカード、クレジットカード等の記憶媒体による電子マネーの支払により、クレジットが付与される構成としても構わない。
 かかる構成とした場合には、プリペイドカード、クレジットカード等の記憶媒体のリーダー・ライター装置を備える構成とする。
(変形例8)
 また、上記実施形態では、クレジットを消費することにより遊技ポイントを購入し、購入した遊技ポイントを消費(使用)することにより、各種のゲームをプレイすることが可能となっている。
 しかしながら、クレジットを消費(すなわち、コインを投入)することにより、各種のゲームをプレイすることが可能としても構わない。
 なお、遊技ポイントの購入・使用に関しては、ユーザーにおいて、理解が困難となる恐れがある。そこで、遊技ポイントの購入・使用を説明する文字情報の言語種別を、ユーザーが理解することが可能な言語種別に変更することにより、遊技ポイントの購入・使用に関するユーザーの理解を助けることが可能となる。
(変形例9)
 また、上記第1実施形態では、文字情報とともに、当該文字情報に対応する動画や音声情報が提供される構成としても構わない。この際、文字情報の言語種別の変更に伴い、当該文字情報に対応する動画や音声情報の言語種別も変更される構成とすることが好ましい。
(変形例10)
 また、上記第1実施形態では、ゲーム装置1において、ユーザーにより選択された楽曲を出力することが可能な構成としても構わない。
 具体的には、所定条件の成立に応じて、表示部140において、複数の楽曲名を表示するとともに、ユーザーによる操作部110の操作に応じて、複数の楽曲名のうち、何れかの楽曲名の選択を可能とする。そして、操作部110の操作に応じて楽曲名が選択された場合に、選択された楽曲名に対応する楽曲を、音出力部150から出力する。
 特に、各楽曲名に対応するテキストデータとして、互いに異なる言語種別により表示(表現)された複数種類のテキストデータを記憶しておく。例えば、各楽曲名に対応するテキストデータとして、4種類のテキストデータ(具体的には、日本語により表示(表現)されたテキストデータa、英語により表示(表現)されたテキストデータb、韓国語により表示(表現)されたテキストデータc、及び、中国語により表示(表現)されたテキストデータd)を記憶しておく。
 この際、各楽曲名に対応する4種類のテキストデータについては、当該楽曲の原楽曲名(原題)を4種類の言語種別(日本語、英語、韓国語、及び、中国語)のそれぞれに翻訳(直訳)した名称を表示するテキストデータであっても、各言語種別が公用語とされている国において当該楽曲の楽曲名として公知(通称)となっている名称(邦題(日本語題)、英題(英語題)、韓国語題、及び、中国語題)を表示するテキストデータであっても、どちらでも構わない。
 そして、表示部140に表示される複数の楽曲名(文字情報)について、各楽曲名として、当該文字情報に対応する4種類のテキストデータのうち、言語種別指定情報記憶領域に記憶されている言語種別指定情報が指定する言語種別に対応するテキストデータを用いて表示する。
 これによって、ユーザーは、ゲーム装置1に備え付けられている4種類の情報媒体(情報媒体A~情報媒体D)のうち、自己が理解できる言語種別に対応する情報媒体を選択し、選択した情報媒体に記憶されている言語種別指定情報(言語種別指定情報A~言語種別指定情報D)を、I/F部160に読み込ませることで、表示部140に表示されている複数の楽曲名について、各楽曲名の言語種別を、自己が選択した言語種別に変更することが可能となる。
 この際、表示部140において表示される複数の楽曲名の表示順序について、言語種別指定情報記憶領域に記憶されている言語種別指定情報が指定する言語種別に対応する表示順序とされる構成としても構わない。
 例えば、言語種別指定情報記憶領域に言語種別指定情報Aが記憶されている場合には、表示部140において表示される複数の楽曲名について、日本語に対応する表示順序(例えば、50音順)で表示する。
 一方、言語種別指定情報記憶領域に言語種別指定情報Bが記憶されている場合には、表示部140において表示される複数の楽曲名について、英語語に対応する表示順序(例えば、アルファベット順)で表示する。
 一方、言語種別指定情報記憶領域に言語種別指定情報Cが記憶されている場合には、表示部140において表示される複数の楽曲名について、韓国語に対応する表示順序(例えば、ハングル字母順)で表示する。
 一方、言語種別指定情報記憶領域に言語種別指定情報Dが記憶されている場合には、表示部140において表示される複数の楽曲名について、中国語に対応する表示順序(例えば、発音のアルファベット順)で表示する。
 これによって、ユーザーは、ゲーム装置1に備え付けられている4種類の情報媒体(情報媒体A~情報媒体D)のうち、自己が理解できる言語種別に対応する情報媒体を選択し、選択した情報媒体に記憶されている言語種別指定情報(言語種別指定情報A~言語種別指定情報D)を、I/F部160に読み込ませることで、表示部140に表示されている複数の楽曲名の表示順序を、自己が把握し易い表示順序に変更することが可能となる。
(変形例11)
 また、上記第1実施形態では、情報媒体に記憶されている言語種別指定情報(言語種別指定情報A~言語種別指定情報D)が、I/F部160により読み出されたことに応じて、アトラクト画像を構成する各文字情報の言語種別が変更される前に、I/F部160により読み出された言語種別指定情報が指定する言語種別への変更を確定するか否かを確認する確認情報が、表示部140に表示される構成としても構わない。
 この際、確認情報に含まれる文字情報の言語種別として、I/F部160により読み出された言語種別指定情報が指定する言語種別を設定する。
 そして、ユーザーによる操作部110の操作により、I/F部160により読み出された言語種別指定情報が指定する言語種別への変更を確定することが選択されたことに応じて、アトラクト画像を構成する各文字情報の言語種別が変更される。
(変形例12)
 また、上記第1実施形態では、各ゲーム装置1において、日本語を指定する言語種別指定情報Aが記憶された情報媒体Aと、英語を指定する言語種別指定情報Bが記憶された情報媒体Bと、韓国語を指定する言語種別指定情報Cが記憶された情報媒体Cと、中国語を指定する言語種別指定情報Dが記憶された情報媒体Dと、が備え付けられている構成となっている。
 しかしながら、各ゲーム装置1において、アラビア語、スペイン語、フランス語、ロシア語等、他の言語種別を指定する言語種別指定情報が記憶された情報媒体が備え付けられている構成としても構わない。
(変形例13)
 また、上記第1実施形態に係る構成及び変形例1~9に係る構成のうち、複数の構成を、適宜、組み合わせても構わない。
(第2実施形態)
 次に、本発明の第2実施形態に係るデジタルサイネージシステム(情報提供システム)2を説明する。
 本実施形態では、本発明に係る情報システムを、ユーザーに対して各種の情報を提供することが可能なデジタルサイネージシステム2に適用した一例を示している。
(デジタルサイネージシステム2が設置される施設)
 まず、デジタルサイネージシステム2が設置される施設について説明する。
 デジタルサイネージシステム2は、各種のアトラクション(アクティビティ)が設置された施設内に設置される。
 施設内へ入場するユーザーは、受付において、自己が希望する滞在時間(遊技の有効時間)に応じた料金の支払いを行うとともに、自己の属性(年齢、性別、国籍等)、自己が理解できる言語種別等を申告(選択)する。そして、受付のオペレータは、料金の支払いを行ったユーザーに対して、RFIDタグ(ICタグ)を備えるリストバンド(情報媒体)を貸与する。この際、オペレータにより、退出時刻を示す情報(以下、「退出時刻情報」とする)、ユーザーにより申告された属性を示す情報(以下、「属性情報」とする)、ユーザーにより選択された言語種別を指定する言語種別指定情報等が、RFIDタグに記憶される。
 「滞在時間」は、ユーザーが施設内に滞在することができる時間(遊技の有効時間)となっている。
 「退出時刻」は、滞在時間が経過する時刻(ユーザーが施設を退出する時刻)を示す情報となっている。すなわち、ユーザーは、退出時刻まで、施設内において、各種のアトラクションを体験することが可能となる。
 本実施形態では、ユーザーにおいて、日本語、英語、韓国語、及び、中国語のうち、何れかの言語種別を選択することが可能となっている。そして、日本語が選択された場合には、言語種別指定情報AがRFIDタグに記憶される。一方、英語が選択された場合には、言語種別指定情報BがRFIDタグに記憶される。一方、韓国語が選択された場合には、言語種別指定情報CがRFIDタグに記憶される。一方、中国語が選択された場合には、言語種別指定情報DがRFIDタグに記憶される。
(デジタルサイネージシステム2の構成)
 次に、デジタルサイネージシステム2の構成を説明する。
 図3は、デジタルサイネージシステム2の全体構成を示す斜視図である。図4は、デジタルサイネージ装置10の制御系の構成例を示す図である。
 図3に示すように、デジタルサイネージシステム2は、サーバシステム10と、一又は複数のデジタルサイネージ装置20と、ネットワーク30と、を含んで構成されている。
 各デジタルサイネージ装置20は、ネットワーク30を介して、サーバシステム10と接続されている。これによって、各デジタルサイネージ装置20は、サーバシステム10との間において、相互に、各種のデータを送受信(通信)することが可能となっている。
 サーバシステム10は、施設内の管理室等において設置される。
 サーバシステム10は、デジタルサイネージ装置20から受信した情報に基づいて、演算処理を実行するとともに、当該演算処理の結果に応じた情報をデジタルサイネージ装置20に対して送信する。
 サーバシステム10は、各種の演算処理を実行する処理部と、各種のプログラムやデータを記憶する記憶部と、ネットワーク30を介したデータの送受信を実行する通信部と、を含んで構成されている。
 処理部は、通信部を介して受信したデータ、記憶部に記憶されているデータ・プログラム等に基づいて、各種のサービスの提供に必要となる処理を実行する。処理部の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)等のハードウェアや、プログラムにより実現できる。
 デジタルサイネージ装置20は、施設の入口、施設内の通路、施設内に設置されている各アトラクションの付近等、施設内の各所に設置される。
 図4に示すように、デジタルサイネージ装置20は、筐体(図示せず)と、処理部200と、記憶部210と、情報記憶媒体220、表示部230と、音出力部240と、I/F部250と、通信部260と、を含んで構成されている。
 処理部200、記憶部210、情報記憶媒体220、通信部260等は、筐体の内部に配置されている。表示部230、音出力部240、I/F部250等は、筐体の正面に配置されている。
 処理部200は、I/F部250から入力された情報、情報記憶媒体220に記憶されているプログラム・データ等に基づいて、各種のサービスの提供に必要となる処理を実行する。
 具体的に、処理部200は、入力処理部201と、演算処理部202と、出力処理部203と、を含んで構成されている。処理部200は、プロセッサ及びメモリにより実現できる。
 入力処理部201は、I/F部250により読み出された情報を受け付ける処理、記憶部210からプログラム・データを読み出す処理、通信部260を介してデータを受信する処理等を実行する。
 演算処理部202は、管理部202aと、表示処理部202bと、音処理部202cと、を含んで構成されている。
 管理部202aは、記憶部210に記憶される各種の情報を管理する処理を実行する。
 表示処理部202bは、各種画像(具体的には、後述する共通案内画像・個別案内画像)を生成し、生成した各種画像を、表示部230に対して出力する。
 音処理部202cは、表示処理部202bにより生成される画像に応じて、BGM、音声等の案内音を生成する音処理を実行する。そして、音処理により生成された案内音を、音出力部240に対して出力する。
 出力処理部203は、記憶部210にデータを書き込む処理、通信部260を介してデータをサーバシステム10に対して送信する処理等を実行する。
 記憶部210は、処理部200、通信部260等のワーク領域となる。記憶部210は、半導体メモリ、HDD、SSD、光ディスク装置等により実現できる。
 情報記憶媒体220は、プログラム・データ等を記憶(格納)する。特に、情報記憶媒体220には、各種画像(共通案内画像・個別案内画像)の生成に必要となる各種のプログラム、各種の画像データ、各種のテキストデータ等が記憶されている。
 処理部200は、情報記憶媒体220に記憶されているプログラム・データの読み出しを実行することが可能となっている。そして、処理部200は、情報記憶媒体220に記憶されているプログラム・データに基づいて、各種の処理を実行する。情報記憶媒体220は、光ディスク、HDD、半導体メモリ等により実現できる。
 なお、本実施形態では、デジタルサイネージ装置20の各構成部(入力処理部201、演算処理部202、出力処理部203等)としてコンピュータを機能させるためのプログラム・データが、情報記憶媒体220に記憶されている。しかしながら、デジタルサイネージ装置20の各構成部としてコンピュータを機能させるためのプログラム・データが、サーバシステム10の記憶部に記憶され、ネットワーク30を介して、デジタルサイネージ装置20に配信される構成としても構わない。
 表示部230は、表示処理部202bにより出力された各種画像を表示する。表示部230は、LCD、有機ELディスプレイ、CRT等により実現できる。
 音出力部240は、音処理部202cにより出力された案内音を出力する。音出力部240は、スピーカ、ヘッドフォン等により実現できる。
 I/F(インターフェース)部250は、リストバンドのRFIDタグ(情報媒体)に対するインターフェースとなっている。具体的に、I/F部250は、リストバンドのRFIDタグに記憶(記録)されている情報の読み出しを実行し、読み出した情報を、処理部200に対して出力する。本実施形態では、I/F(インターフェース)部250は、RFIDリーダにより実現される。
 通信部260は、ネットワーク30を介して、サーバシステム10との間で、通信を実行する。通信部260は、通信用ASIC、通信用プロセッサ等のハードウェア、又は、通信用ファームウェアにより実現できる。
 ネットワーク30は、データの送受信が可能な通信路(通信回線)となっている。ネットワーク30は、例えば、インターネットや無線LAN等を利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網等の通信網を含むことができる。また通信方法については有線・無線を問わない。
(表示部230に表示される各種画像について)
 次に、デジタルサイネージ装置20の表示部230に表示される各種画像を説明する。
 表示部230には、画像を表示することが可能な表示領域として、共通案内画像(画面)が表示される共通表示領域と、個別案内画像(画面)が表示される個別表示領域と、を構成することが可能となっている。
 共通案内画像には、全てのユーザーに対して共通に提供される情報が表示される。一方、個別案内画像には、個別のユーザーに対して提供される情報が表示される。ここで、共通案内画像及び個別案内画像は、それぞれ、文字情報を含んで構成されている。
 上記のように、デジタルサイネージ装置20は、施設の入口、施設内の通路、施設内に設置されている各アトラクションの付近等、施設内の各所に設置される。
 そして、施設の入口、施設内の通路等に設置されるデジタルサイネージ装置20では、共通表示領域において、施設内の見取り図を示す情報(以下、「見取り図情報」とする)、各アトラクションの現在の待ち時間を示す情報(以下、「待ち時間情報」とする)、各アトラクションの概要を説明する情報(以下、「概要情報」とする)等を含んでなる共通案内画像が表示され、個別表示領域において、ユーザーの残り滞在時間を示す情報(以下、「残り滞在時間情報」とする)、ユーザーに対して推奨するアトラクションに関する情報(以下、「推奨アトラクション情報」とする)等を含んでなる個別案内画像が表示される。
 一方、各アトラクションの付近に設置されるデジタルサイネージ装置20では、共通表示領域において、当該アトラクションに関する情報(以下、「アトラクション情報」とする)を含んでなる共通案内画像が表示され、個別表示領域において、残り滞在時間情報を含んでなる個別案内画像が表示される。
 「アトラクション情報」には、アトラクションのプレイが許可されるユーザーの条件(年齢、身長等の条件)に関する情報、アトラクションの体験(プレイ)が禁止されるユーザーの条件(体調、持病、障害、飲酒、妊娠、自覚症状等の条件)に関する情報、アトラクションの体験(プレイ)に必要となるチケット(料金)に関する情報、アトラクションを体験(プレイ)するにあたっての注意事項に関する情報、アトラクションの内容(アトラクションのタイトル、チュートリアル、アトラクションの体験方法(プレイ方法)、アトラクションのクリア条件、アトラクション内の演出等)に関する情報等が含まれる。
 デジタルサイネージ装置20では、電源が投入されている期間中、常時、共通表示領域において、共通案内画像が表示される。
 また、デジタルサイネージ装置20では、I/F部250により、ユーザーが保有するリストバンドのRFIDタグに記憶されている情報が読み出されたこと応じて、個別表示領域において、個別案内画像が表示される。この際、読み出された情報(言語種別指定情報・退出時刻情報・属性情報)に基づいて、当該ユーザーの残り滞在時間を示す残り滞在時間情報と、当該ユーザーに対して推奨するアトラクションを示す推奨アトラクション情報と、が生成され、生成された残り滞在時間情報及び推奨アトラクション情報が、個別案内画像において表示される。
 ここで、個別表示領域における個別案内画像の表示は、その開始から所定時間の経過に応じて終了される。
 また、デジタルサイネージ装置20では、I/F部250により、ユーザーが保有するリストバンドのRFIDタグに記憶されている情報(言語種別指定情報)が読み出されたこと応じて、共通案内画像を構成する各文字情報(テキストデータ)の言語種別が、読み出された言語種別指定情報が指定する言語種別に変更される。
(言語種別初期化処理・言語種別更新処理)
 次に、管理部202aが実行する言語種別初期化処理・言語種別更新処理を説明する。
 記憶部210は、言語種別指定情報記憶領域を含んで構成されている。そして、言語種別指定情報記憶領域には、言語種別指定情報(本実施形態では、言語種別指定情報A、言語種別指定情報B、言語種別指定情報C及び言語種別指定情報Dのうち、何れかの言語種別指定情報)が記憶(設定)される。
 管理部202aは、デジタルサイネージ装置20に電源が投入されたことに応じて、言語種別初期化処理を実行する。言語種別初期化処理では、言語種別指定情報記憶領域において、言語種別指定情報Aが記憶(上書き・選択)され、その後、表示処理部202bに対して共通案内画像の表示がリクエストされる。これによって、デジタルサイネージ装置20に電源が投入されるごとに、言語種別指定情報記憶領域に記憶されている言語種別指定情報が、言語種別指定情報Aに初期化される。
 また、デジタルサイネージ装置20では、電源が投入されている期間中、常時、データ読み出し有効状態が設定される。データ読み出し有効状態の設定中には、I/F部250による情報の読み出しが有効とされる。
 そして、管理部202aは、データ読み出し有効状態の設定中に、I/F部250により、リストバンドのRFIDタグに記憶されている情報(言語種別指定情報・提出時刻情報・属性情報)の読み出しが実行されたことに応じて、言語種別更新処理を実行する。
 言語種別更新処理では、まず、言語種別指定情報記憶領域において、I/F部250により読み出された言語種別指定情報が記憶(上書き・選択)され、その後、表示処理部202bに対して共通案内画像の更新がリクエストされる。これによって、I/F部250により、リストバンドのRFIDタグに記憶されている情報(言語種別指定情報)の読み出しが実行されるごとに、言語種別指定情報記憶領域に記憶されている言語種別指定情報が、当該RFIDタグに記憶されている言語種別指定情報に更新される。
 言語種別更新処理では、次に、I/F部250により読み出された言語種別指定情報、退出時刻情報及び属性情報が、サーバシステム10に対して送信されるとともに、サーバシステム10に対して個別案内画像の生成がリクエストされる。
(個別案内画像生成処理)
 次に、サーバシステム10の処理部が実行する個別案内画像生成処理を説明する。
 サーバシステム10の処理部は、デジタルサイネージ装置20により個別案内画像の生成がリクエストされたことに応じて、個別案内画像生成処理を実行する。
 個別案内画像生成処理では、まず、デジタルサイネージ装置20から受信した退出時刻情報と、現在時刻と、に基づいて、残り滞在時間が演算され、演算された残り滞在時間を示す残り滞在時間情報が生成される。
 個別案内画像生成処理では、次に、演算された残り滞在時間と、各アトラクションの現在の待ち時間と、各アトラクションの体験に要する時間と、に基づいて、残り滞在時間内に体験することが可能なアトラクション(または、アトラクションの組み合わせ)が選択され、選択されたアトラクション(または、アトラクションの組み合わせ)を指定する推奨アトラクション情報(第1の推奨アトラクション情報)が生成される。
 個別案内画像生成処理では、次に、デジタルサイネージ装置20から受信した属性情報と、属性嗜好情報と、に基づいて、ユーザーの嗜好に合うアトラクションが選択され、選択されたアトラクションを指定する推奨アトラクション情報(第2の推奨アトラクション情報)が生成される。
 「属性嗜好情報」は、各属性のユーザーと、当該ユーザーが好むアトラクションと、の対応を規定する情報となっている。属性嗜好情報は、統計的に把握した情報となっている。属性嗜好情報は、サーバシステム10の記憶部に記憶されている。
 そして、第2の推奨アトラクション情報の生成においては、属性嗜好情報と、デジタルサイネージ装置20から受信した属性情報が示す属性(属性の組み合わせ)と、に基づいて、ユーザーの嗜好に合うアトラクションが選択される。
 個別案内画像生成処理では、次に、生成された残り滞在時間情報、第1の推奨アトラクション情報、及び、第2の推奨アトラクション情報に基づいて、個別案内画像が生成(描画)される。
 特に、サーバシステム10の記憶部には、個別案内画像を構成する全ての文字情報について、各文字情報に対応するテキストデータとして、互いに異なる言語種別により表示(表現)された複数種類のテキストデータが記憶されている。
 本実施形態では、各文字情報に対応するテキストデータとして、4種類のテキストデータ(具体的には、日本語により表示(表現)されたテキストデータa、英語により表示(表現)されたテキストデータb、韓国語により表示(表現)されたテキストデータc、及び、中国語により表示(表現)されたテキストデータd)が記憶されている。
 そして、サーバシステム10の処理部は、個別案内画像を構成する各文字情報について、当該文字情報に対応する4種類のテキストデータ(テキストデータa~テキストデータd)のうち、何れかのテキストデータを用いて、当該個別案内画像を生成する。
 具体的に、各文字情報について、デジタルサイネージ装置20から受信した言語種別指定情報に応じて、当該文字情報に対応する4種類のテキストデータのうち、何れかのテキストデータを選択し、選択したテキストデータを用いて、個別案内画像を生成する。
 この際、デジタルサイネージ装置20から言語種別指定情報Aを受信した場合には、テキストデータaが選択される。一方、デジタルサイネージ装置20から言語種別指定情報Bを受信した場合には、テキストデータbが選択される。一方、デジタルサイネージ装置20から言語種別指定情報Cを受信した場合には、テキストデータcが選択される。一方、デジタルサイネージ装置20から言語種別指定情報Dを受信した場合には、テキストデータdが選択される。
 これによって、個別案内画像を構成する全ての文字情報について、デジタルサイネージ装置20から受信した言語種別指定情報が指定する言語種別に対応するテキストデータが選択される。
 したがって、個別案内画像を構成する全ての文字情報について、デジタルサイネージ装置20から受信した言語種別指定情報が指定する言語種別の言語により表示(表現)される。
 個別案内画像生成処理では、次に、生成された個別案内画像が、デジタルサイネージ装置20に対して送信されるとともに、表示処理部202bに対して個別案内画像の表示がリクエストされる。
(共通案内画像表示処理・共通案内画像更新処理・個別案内画像表示処理)
 次に、表示処理部202bが実行する共通案内画像表示処理・共通案内画像更新処理・個別案内画像表示処理を説明する。
 表示処理部202bは、管理部202aにより共通案内画像の表示がリクエストされたことに応じて、共通案内画像表示処理を実行する。共通案内画像表示処理では、共通案内画像が生成され、生成された共通案内画像が、表示部230(共通表示領域)に対して出力される。これによって、共通表示領域における共通案内画像の表示が開始される。
 ここで、共通案内画像は、一又は複数の画像(画像データ)と、一又は複数の文字情報(テキストデータ)と、を合成することにより生成される。
 特に、情報記憶媒体220には、共通案内画像を構成する全ての文字情報について、各文字情報に対応するテキストデータとして、互いに異なる言語種別により表示(表現)された複数種類のテキストデータが記憶されている。
 本実施形態では、各文字情報に対応するテキストデータとして、4種類のテキストデータ(具体的には、日本語により表示(表現)されたテキストデータa、英語により表示(表現)されたテキストデータb、韓国語により表示(表現)されたテキストデータc、及び、中国語により表示(表現)されたテキストデータd)が記憶されている。
 そして、表示処理部202bは、一又は複数の画像(画像データ)と、一又は複数の文字情報(テキストデータ)と、に基づいて、共通案内画像を生成(描画)する。この際、共通案内画像を構成する各文字情報について、当該文字情報に対応する4種類のテキストデータ(テキストデータa~テキストデータd)のうち、何れかのテキストデータを用いて、ゲーム画像が生成される。
 具体的に、各文字情報について、言語種別指定情報記憶領域に記憶されている言語種別指定情報に応じて、当該文字情報に対応する4種類のテキストデータのうち、何れかのテキストデータを選択し、選択したテキストデータを用いて、ゲーム画像を生成する。この際、言語種別指定情報記憶領域において言語種別指定情報Aが記憶されている場合には、テキストデータaが選択される。一方、言語種別指定情報記憶領域において言語種別指定情報Bが記憶されている場合には、テキストデータbが選択される。一方、言語種別指定情報記憶領域において言語種別指定情報Cが記憶されている場合には、テキストデータcが選択される。一方、言語種別指定情報記憶領域において言語種別指定情報Dが記憶されている場合には、テキストデータdが選択される。
 これによって、共通案内画像を構成する全ての文字情報について、言語種別指定情報記憶領域に記憶されている言語種別指定情報が指定する言語種別に対応するテキストデータが選択される。
 したがって、共通案内画像を構成する全ての文字情報について、言語種別指定情報記憶領域に記憶されている言語種別指定情報が指定する言語種別の言語により表示(表現)される。
 例えば、言語種別指定情報記憶領域において言語種別指定情報Aが記憶されている場合には、共通案内画像に含まれる各種の文字情報(見取り図における各施設の名称・説明に関する情報、アトラクションの概要に関する情報、アトラクションの体験が許可されるユーザーの条件に関する情報、アトラクションの体験が禁止されるユーザーの条件に関する情報、アトラクションの体験に必要となる料金に関する情報、アトラクションを体験するにあたっての注意事項に関する情報、アトラクションの内容に関する情報等)が、日本語により表示(表現)される。
 一方、言語種別指定情報記憶領域において言語種別指定情報Bが記憶されている場合には、共通案内画像に含まれる各種の文字情報が、英語により表示(表現)される。
 一方、言語種別指定情報記憶領域において言語種別指定情報Cが記憶されている場合には、共通案内画像に含まれる各種の文字情報が、韓国語により表示(表現)される。
 一方、言語種別指定情報記憶領域において言語種別指定情報Dが記憶されている場合には、共通案内画像に含まれる各種の文字情報が、中国語により表示(表現)される。
 また、表示処理部202bは、管理部202aにより共通案内画像の更新がリクエストされたことに応じて、共通案内画像更新処理を実行する。共通案内画像更新処理では、共通案内画像の内容が更新される。すなわち、改めて、共通案内画像が生成され、生成された共通案内画像が、表示部230(共通表示領域)に対して出力される。これによって、共通表示領域に表示されている共通案内画像の内容(特に、各文字情報の言語種別)が更新される。
 共通案内画像更新処理では、上記の共通案内画像表示処理と同様の処理により、共通案内画像が生成される。すなわち、表示処理部202bは、一又は複数の画像(画像データ)と、一又は複数の文字情報(テキストデータ)と、に基づいて、共通案内画像を生成する。この際、共通案内画像を構成する各文字情報について、当該文字情報に対応する4種類のテキストデータ(テキストデータa~テキストデータd)のうち、言語種別指定情報記憶領域に記憶されている言語種別指定情報が指定する言語種別に対応するテキストデータを用いて、共通案内画像が生成される。
 これによって、共通アトラクト画像を構成する全ての文字情報の言語種別が、言語種別指定情報記憶領域に上書きされた言語種別指定情報(すなわち、I/F部250により読み出された言語種別指定情報(リストバンドのRFIDタグに記憶されている言語種別指定情報))が指定する言語種別に更新(変更)される。
 また、表示処理部202bは、サーバシステム10の処理部により個別案内画像の表示がリクエストされたことに応じて、個別案内画像表示処理を実行する。個別案内画像表示処理では、サーバシステム10から受信した個別案内画像が、表示部230(個別表示領域)に対して出力される。これによって、個別表示領域における個別案内画像の表示が開始される。
 本実施形態では、個別表示領域における個別案内画像の表示は、その開始から所定時間の経過に応じて終了される。
(デジタルサイネージシステム2の動作)
 次に、デジタルサイネージシステム2の動作を説明する。
 デジタルサイネージ装置20では、電源が投入されている期間中、常時、表示部230の共通表示領域において、共通案内画像が表示される。
 そして、共通案内画像に表示されている各種情報の確認を希望するユーザーは、自己が保有するリストバンドを、I/F部250に近接させる。
 すると、当該リストバンドのRFIDタグに記憶されている情報(言語種別指定情報A~言語種別指定情報D・退出時刻情報・属性情報)が、I/F部250により読み出される。そして、I/F部250により読み出された言語種別指定情報が、言語種別指定情報記憶領域に記憶(上書き)され、その後、共通表示領域に表示されている共通案内画像の内容が更新される。この際、共通案内画像を構成する各文字情報(テキストデータ)の言語種別が、言語種別指定情報記憶領域に記憶(上書き)された言語種別指定情報が指定する言語種別に変更される。
 これによって、ユーザーは、共通案内画像に表示されている各種情報(見取り図情報、待ち時間情報、概要情報、アトラクション情報等)を理解することが可能となる。
 また、リストバンドのRFIDタグに記憶されている情報が、I/F部250により読み出されると、I/F部250により読み出された言語種別指定情報、退出時刻情報及び属性情報が、サーバシステム10に対して送信される。そして、サーバシステム10において、デジタルサイネージ装置20から受信した言語種別指定情報、退出時刻情報及び属性情報に基づいて、個別案内画像が生成される。この際、個別案内画像を構成する各文字情報(テキストデータ)の言語種別が、デジタルサイネージ装置20から受信した言語種別指定情報(I/F部250により読み出された言語種別指定情報)が指定する言語種別とされる。また、サーバシステム10により生成された個別案内画像が、デジタルサイネージ装置20に対して送信される。そして、デジタルサイネージ装置20の表示部230の個別表示領域において、サーバシステム10から受信した個別案内画像が表示される。
 これによって、ユーザーは、個別案内画像に表示されている各種情報(残り滞在時間情報、推奨アトラクション情報(第1の推奨アトラクション情報及び第2の推奨アトラクション情報)等)を理解することが可能となる。
 以上により、デジタルサイネージシステム2では、共通表示領域に表示される共通案内画像については、オフライン状態で言語種別の変更が可能となる。一方、個別表示領域に表示される個別案内画像については、オンライン状態で言語種別の変更が可能となる。
(デジタルサイネージシステム2の作用)
 デジタルサイネージシステム2では、情報(言語種別指定情報)を取得するI/F部250と、I/F部250により取得された情報に基づいて言語種別を設定する管理部202aと、管理部202aにより設定された言語種別に応じた文字情報を表示部230に表示する表示処理部202bと、を備えている。これによって、I/F部250に情報を取得させる操作のみをもって、文字情報の言語種別を変更することが可能となり、言語種別の変更を容易化することが可能となる。
 また、デジタルサイネージシステム2では、I/F部250により取得される情報に、言語種別を指定する情報(言語種別指定情報)が含まれている。そして、管理部202aが、言語種別を指定する情報に基づいて言語種別を設定する。これによって、I/F部250により取得された情報に基づいて、直接、言語種別を設定することが可能となるため、管理部202aの処理を簡素化することが可能となる。
 また、デジタルサイネージシステム2では、I/F部250が、情報媒体(RFIDタグ)に保持されている情報を取得する。これによって、I/F部250による情報の取得を容易化することが可能となる。
 特に、デジタルサイネージシステム2では、情報媒体が、RFIDタグとされている。これによって、I/F部250による情報の取得を更に容易化することが可能となる。
 また、デジタルサイネージシステム2では、情報媒体(RFIDタグ)に保持されている情報に、遊技の有効時間に関する時間情報(退出時刻情報)が含まれている。そして、サーバシステム10が、当該時間情報に基づいてユーザーに対して推奨する推奨情報(推奨アトラクション情報)を生成する。そして、サーバシステム10により生成された推奨情報を構成する文字情報について、管理部202aにより設定された言語種別とされる。これによって、ユーザーにおいて、推奨情報の理解を容易化することが可能となる。
 また、デジタルサイネージシステム2では、情報媒体(RFIDタグ)に保持されている情報に、ユーザーの属性に関する属性情報が含まれている。そして、サーバシステム10が、属性情報に基づいてユーザーに対して推奨する推奨情報(推奨アトラクション情報)を生成する。そして、サーバシステム10により生成された推奨情報を構成する文字情報について、管理部202aにより設定された言語種別とされる。これによって、ユーザーにおいて、推奨情報の理解を容易化することが可能となる。
(第2実施形態の変形例)
 以上、本発明の第2実施形態について説明したが、上記第2実施形態では、種々の変更を行うことが可能である。
(変形例1)
 例えば、上記第2実施形態では、情報媒体が、RFIDタグ(ICタグ)を備えるリストバンドにより実現されている。
 しかしながら、情報媒体が、バーコードが印刷された媒体(チケット、カード等)、二次元コードが印刷された媒体(チケット、カード等)、RFIDタグ(ICタグ)を備える他の媒体(カード、コイン等)、NFC(Near Field Communication)を搭載する媒体(携帯通信端末等)等により実現されていても構わない。
 ここで、バーコードが印刷された媒体により情報媒体が実現される場合には、オペレータ(専用の装置)により、退出時刻情報と、属性情報と、言語種別指定情報と、が変換されたバーコードが、媒体に印刷される。そして、バーコードリーダによりI/F部250が実現され、情報媒体に印刷されているバーコード(言語種別指定情報)が読み込まれる。
 一方、二次元コードが印刷された媒体により情報媒体が実現される場合には、オペレータ(専用の装置)により、退出時刻情報と、属性情報と、言語種別指定情報と、が変換された二次元コードが、媒体に印刷される。そして、二次元コードリーダによりI/F部250が実現され、情報媒体に印刷されている二次元コード(言語種別指定情報)が読み込まれる。
 一方、NFCを搭載する媒体により情報媒体が実現される場合には、媒体の記憶部において、退出時刻情報と、属性情報と、言語種別指定情報と、が記憶される。そして、NFCリーダによりI/F部250が実現され、媒体に記憶されている言語種別指定情報が読み込まれる。
(変形例2)
 また、上記第2実施形態では、情報記憶媒体220において、各文字情報に対応するテキストデータとして、互いに異なる言語種別により表示(表現)された複数種類のテキストデータが記憶されている。そして、共通案内画像が生成される際に、当該共通案内画像を構成する各文字情報について、当該文字情報に対応する複数種類のテキストデータのうち、言語種別指定情報記憶領域に記憶されている言語種別指定情報に対応するテキストデータが用いられる構成となっている。
 しかしながら、情報記憶媒体220において、各文字情報に対応するテキストデータとして、一の言語種別により表示(表現)されたテキストデータのみが記憶されている構成としても構わない。そして、共通案内画像が生成される際に、当該共通案内画像を構成する各文字情報について、当該文字情報に対応するテキストデータが、言語種別指定情報記憶領域に記憶されている言語種別指定情報が指定する言語種別に翻訳され、翻訳されたテキストデータが用いられる構成としても構わない。
(変形例3)
 また、上記第2実施形態では、I/F部250が、ユーザーの生体情報(指紋、顔、虹彩、静脈等)を取得することが可能な手段(指紋センサ、カメラ等)により実現されていても構わない。
 かかる構成とした場合には、事前に、受付において、オペレータが、ユーザーの生体情報(指紋、顔、虹彩、静脈等)と、当該ユーザーが理解できる言語種別と、を取得する。そして、取得した生体情報と、取得した言語種別を指定する言語種別指定情報と、を関連付けて、サーバシステム10の記憶部に記憶する。
 そして、デジタルサイネージ装置20の管理部202aは、I/F部250による生体情報の取得に応じて、取得した生体情報を、サーバシステム10に対して送信する。また、サーバシステム10は、デジタルサイネージ装置20から受信した生体情報に関連付けられている言語種別指定情報を、デジタルサイネージ装置20に対して送信する。そして、管理部202aは、サーバシステム10から受信した言語種別指定情報を、言語種別指定情報記憶領域に記憶するとともに、表示処理部202bに対してアトラクト画像の更新をリクエストする。
 かかる構成によって、ユーザーは、I/F部250により生体情報を取得させることで、共通案内画像を構成する全ての文字情報の言語種別を、事前にユーザーが選択した言語種別に更新(変更)することが可能となる。したがって、ユーザーの生体情報に基づいて文字情報の言語種別を変更することが可能となる。
(変形例4)
 また、上記第2実施形態では、退出時刻情報、属性情報、言語種別指定情報等が、リストバンド(情報媒体)に記憶されている構成となっている。
 しかしながら、退出時刻情報、属性情報、言語種別指定情報等が、サーバシステム10の記憶部に記憶される構成としても構わない。そして、デジタルサイネージ装置20の管理部202aが、I/F部250によるリストバンド(情報媒体)に記憶されている情報の読み出しに応じて、サーバシステム10から言語種別指定情報を取得し、取得した言語種別指定情報を、言語種別指定情報記憶領域に記憶する構成としても構わない。
 かかる構成とした場合には、事前に、ユーザー(または、オペレータ)が、退出時刻情報、ユーザーにより申告された属性を示す属性情報、ユーザーにより選択された言語種別を指定する言語種別指定情報等を、当該ユーザーの識別情報に関連付けて、サーバシステム10の記憶部に記憶する。この場合、情報媒体は、ユーザーにより保有される。
 この際、情報媒体は、RFIDタグ(ICタグ)を備える媒体(カード、リストバンド、コイン等)、NFC(Near Field Communication)を搭載する媒体(携帯通信端末等)等により実現される。そして、情報媒体において、当該ユーザーの識別情報が記憶される。
 また、デジタルサイネージ装置20の管理部202aは、I/F部250による情報媒体に記憶されている識別情報の読み出しに応じて、読み出した識別情報を、サーバシステム10に対して送信する。また、サーバシステム19は、デジタルサイネージ装置20から受信した識別情報に関連付けられている言語種別指定情報を、デジタルサイネージ装置20に対して送信する。また、サーバシステム10は、デジタルサイネージ装置20から受信した識別情報に関連付けられている言語種別指定情報、退出時刻情報及び属性情報に基づいて、個別案内画像を生成し、生成した個別案内画像を、デジタルサイネージ装置20に対して送信する。そして、管理部202aは、サーバシステム10から受信した言語種別指定情報を、言語種別指定情報記憶領域に記憶するとともに、表示処理部202bに対して共通案内画像の更新をリクエストする。また、表示処理部202bは、個別表示領域において、サーバシステム10から受信した個別案内画像を表示する。
 例えば、ユーザーが、事前に、自己の携帯通信端末(情報媒体)を用いて、サーバシステム10にアクセスして、専用Webサイトにおいて、会員登録を行う。すなわち、ユーザーは、自己の携帯通信端末を操作して、専用Webサイトの会員登録ページにおいて、自己のニックネーム、自己の属性(年齢、性別、国籍等の属性情報)、自己が理解できる言語種別(言語種別指定情報)等の会員情報を登録する。そして、サーバシステム10は、会員登録の完了に応じて、当該ユーザーの会員ID(識別情報)を設定するとともに、記憶部において、当該会員IDに対応する記憶領域を設定し、設定した記憶領域において、登録された会員情報を記憶する。さらに、ユーザーは、施設内へ入場した際に、自己の携帯通信端末を用いてサーバシステム10にアクセスして、会員IDを取得し、会員IDを取得(記憶)した携帯通信端末を、デジタルサイネージ装置20のI/F部250に近接させる。これによって、デジタルサイネージ装置20のI/F部250は、携帯通信端末から会員IDを取得する。また、管理部202aは、取得された会員IDを、サーバシステム10に対して送信する。さらに、サーバシステム10は、受信した会員IDに対応付けられている会員情報を読み出し、読み出した会員情報を、デジタルサイネージ装置20に対して送信するとともに、読み出した会員情報に含まれる属性情報に基づいて、個別案内画像を生成し、生成した個別案内画像を、デジタルサイネージ装置20に対して送信する。そして、管理部202aは、受信した会員情報に含まれる言語種別指定情報を、言語種別指定情報記憶領域に記憶(上書き・選択)するとともに、表示処理部202aに対してアトラクト画像の更新をリクエストする。また、表示処理部202bが、個別表示領域において、受信した個別案内画像を表示する。
 かかる構成によって、ユーザーは、自己が保有する情報媒体を、各デジタルサイネージ装置20のI/F部250に近接させることで、当該デジタルサイネージ装置20に表示される共通案内画像を構成する各文字情報の言語種別を、事前に選択した言語種別に変更することが可能となる。
(変形例5)
 また、上記第2実施形態では、デジタルサイネージ装置20において、リストバンド(情報媒体)から取得した言語種別指定情報に基づいて、文字情報の言語種別が変更される構成となっている。
 しかしながら、ユーザーが保有する携帯通信端末から取得した、過去に接続した無線通信(Wi-Fi・無線LAN)のアクセスポイントのSSID(Service Set IDentifier)の履歴に基づいて、文字情報の言語種別が変更される構成としても構わない。
 すなわち、ユーザーが保有する携帯通信端末には、過去に接続した無線通信のアクセスポイントのSSIDの履歴(以下、「接続履歴情報」とする)が記憶される。そこで、施設内又はデジタルサイネージ装置20において、ユーザーが保有する携帯通信端末から接続履歴情報を取得することが可能な履歴情報取得装置を配置する。
 履歴情報取得装置は、無線通信(Wi-Fi・無線LAN)により、所定の検知範囲内に存在する携帯通信端末に記憶されている接続履歴情報を取得することが可能に構成される。そして、履歴情報取得装置は、携帯通信端末から接続履歴情報を取得すると、取得した接続履歴情報と、当該履歴情報取得装置の識別子と、を関連付けて、サーバシステム10に対して送信する。
 サーバシステム10は、履歴情報取得装置から接続履歴情報及び識別子を受信すると、受信した接続履歴情報に基づいて、言語種別指定情報を選択する。この際、サーバシステム10は、受信した接続履歴情報に含まれるSSIDに基づいて、当該SSIDのアクセスポイントが存在する国を、関連国として選択し、選択した関連国の公用語を指定する言語種別指定情報を選択する。すなわち、受信した接続履歴情報に含まれる複数のSSIDについて、各SSIDのアクセスポイントが存在する国を判定し、判定された一又は複数の国のうち何れかの国を、関連国として選択する。この際、接続したアクセスポイントが存在する国の時系列的な変化等に基づいて、判定された一又は複数の国のうち何れかの国を、関連国として選択する。
 また、サーバシステム10は、選択した言語種別指定情報を、履歴情報取得装置から受信した識別子に対応するデジタルサイネージ装置20に対して送信する。ここで、サーバシステム10の記憶部には、各識別子と、当該識別子に対応する一又は複数のデジタルサイネージ装置20と、の対応が規定された対応情報が記憶さている。そして、サーバシステム10は、対応情報と、履歴情報取得装置から受信した識別子と、に基づいて、選択した言語種別指定情報を送信するデジタルサイネージ装置20を選択する。
 そして、デジタルサイネージ装置20の管理部202aは、サーバシステム10から受信した言語種別指定情報を、言語種別指定情報記憶領域に記憶(上書き)するとともに、表示処理部202bに対して共通案内画像の更新をリクエストする。
 かかる構成によって、ユーザーの操作を必要とせずに、ユーザーの近くに設置されているデジタルサイネージ装置20において、共通案内画像を構成する各文字情報の言語種別を、ユーザーが理解することが可能であると予測される言語種別に変更することが可能となる。
 ここで、言語種別指定情報記憶領域の上書きが実行された場合、所定時間が経過するまで、再度、言語種別指定情報記憶領域の上書きが実行されない構成としても構わない。これによって、共通案内画像を構成する各文字情報の言語種別が変更されると、少なくとも所定時間について、変更後の言語種別を維持することが可能となる。
 なお、履歴情報取得装置が、無線通信(Wi-Fi・無線LAN)により、所定の検知範囲内に存在する携帯通信端末において設定されている言語情報(言語設定)を取得することが可能に構成されていても構わない。
 かかる構成とした場合、履歴情報取得装置は、携帯通信端末から言語情報を取得すると、取得した言語情報と、当該履歴情報取得装置の識別子と、を関連付けて、サーバシステム10に対して送信する。
 また、サーバシステム10は、履歴情報取得装置から言語情報及び識別子を受信すると、受信した言語情報に基づいて、言語種別指定情報を選択する。この際、受信した言語情報が指定する言語種別と同一の言語種別を指定する言語種別指定情報を選択する。
 さらに、サーバシステム10は、選択した言語種別指定情報を、履歴情報取得装置から受信した識別子に対応するデジタルサイネージ装置20に対して送信する。この際、サーバシステム10は、上記の対応情報と、履歴情報取得装置から受信した識別子と、に基づいて、選択した言語種別指定情報を送信するデジタルサイネージ装置20を選択する。
 そして、デジタルサイネージ装置20の管理部202aは、サーバシステム10から受信した言語種別指定情報を、言語種別指定情報記憶領域に記憶(上書き)するとともに、表示処理部202aに対してアトラクト画像の更新をリクエストする。
(変形例6)
 また、上記第2実施形態では、デジタルサイネージシステム2が、各種のアトラクション(アクティビティ)が設置された施設内に設置されている。
 しかしながら、デジタルサイネージシステム2は、映画館、アミューズメント施設、ホテル等、様々な施設において設置することが可能となっている。
 デジタルサイネージシステム2を設置することにより、ユーザーが日常的に使用している言語種別による情報の提供が可能となるため、入館時(受付時)、退館時等において、適宜、ユーザーに対して適切な情報の提供が可能となる。特に、様々な言語を操れる人員の配置が不要となる。
(変形例7)
 また、上記第2実施形態では、文字情報とともに、当該文字情報に対応する動画や音声情報が提供される構成としても構わない。この際、文字情報の言語種別の変更に伴い、当該文字情報に対応する動画や音声情報の言語種別も変更される構成とすることが好ましい。
(変形例8)
 また、上記第2実施形態では、デジタルサイネージ装置20において、電源が投入されている期間中、共通表示領域に表示されている共通案内画像を構成する各文字情報の言語種別が、所定時間ごとに、変更される構成としても構わない。
 例えば、共通表示領域に表示されている共通案内画像を構成する各文字情報の言語種別について、所定順序(例えば、日本語→英語→韓国語→中国語→日本語・・・)で繰り返されるように、所定時間(例えば、10.0[s])ごとに、一の言語種別から他の言語種別に変更される表示(以下、「ループ表示」とする)を実行する。
 そして、I/F部250により、ユーザーが保有するリストバンドのRFIDタグに記憶されている言語種別指定情報が読み出された場合に、上記のループ表示が終了されるとともに、共通案内画像を構成する各文字情報の言語種別が、読み出された言語種別指定情報が指定する言語種別に変更される構成としても構わない。
 この際、I/F部250により、ユーザーが保有するリストバンドのRFIDタグに記憶されている言語種別指定情報が読み出されたときに、ループ表示に基づいて表示中の共通案内画像を構成する各文字情報の言語種別と、読み出された言語種別指定情報が指定する言語種別と、が一致しているか否かを判定し、一致していると判定した場合には、現在の言語種別による表示を維持し、一致していないと判定した場合には、読み出された言語種別指定情報が指定する言語種別による表示に変更する構成としても構わない。
 また、デジタルサイネージ装置20において、ユーザーの接近を検知することが可能な検知手段を備え、検知手段によりユーザーの接近が検知されたことに応じて、ユーザーが保有するリストバンドのRFIDタグを、I/F部250に接近させることを促す表示が実行される構成としても構わない。
 かかる構成により、ループ表示に基づいて、ユーザーに対して、共通案内画像を構成する各文字情報の言語種別の変更が可能であることを認識させることができ、I/F部250によるリストバンドのRFIDに記憶されている情報の読み出しを実行させる動機を付与することが可能となる。
 または、上記の履歴情報取得装置により、デジタルサイネージ装置20に接近するユーザー所有する携帯通信端末から言語情報が取得された場合に、上記のループ表示が終了されるとともに、共通案内画像を構成する各文字情報の言語種別が、取得された言語情報に対応する言語種別に変更される構成としても構わない。
 かかる構成によって、ループ表示に基づいて、ユーザーに対して、共通案内画像を構成する各文字情報の言語種別の変更が可能であることを認識させることができ、デジタルサイネージ装置20に接近する動機を付与することが可能となる。特に、ユーザーにおいて、デジタルサイネージ装置20に対して接近している途中から、共通案内画像に表示されている各種情報を把握させることが可能となる。
 ここで、言語種別の数が多くなるほど、ループ表示によりユーザーが理解できる言語種別が表示されるまでの時間が長くなる。しかしながら、上記の構成によれば、デジタルサイネージ装置20に接近する動機を付与すれば、ユーザーが理解できる言語種別に変更することが可能となるため、ユーザーを待たせることなく、共通案内画像に表示されている各種情報を把握させることが可能となる。
 または、デジタルサイネージ装置20において、電源が投入されている期間中、常時、特定の文字情報を含んでなる特定画像(共通案内画像に対して個別の画像)が表示される構成としても構わない。この際、特定画像を構成する特定の文字情報の言語種別が、所定時間ごとに、変更される構成としても構わない。
 例えば、特定の文字情報の言語種別について、所定順序(例えば、日本語→英語→韓国語→中国語→日本語・・・)で繰り返されるように、所定時間(例えば、10.0[s])ごとに、一の言語種別から他の言語種別に変更される表示(以下、「ループ表示」とする)を実行する。
 この際、共通案内画像を構成する各文字情報の言語種別については、ループ表示されていても、ループ表示されていなくても、どちらでも構わない。
 そして、特定の文字情報として、I/F部250によるリストバンドのRFIDに記憶されている情報の読み出しを実行することを促す内容の情報、デジタルサイネージ装置20への接近を促す内容の情報等を規定する。
 かかる構成によって、特定の言語情報の言語種別のループ表示に基づいて、ユーザーに対して、I/F部250によるリストバンドのRFIDに記憶されている情報の読み出しを実行させる動機、デジタルサイネージ装置20に接近する動機等を付与することが可能となる。
(変形例9)
 また、上記第2実施形態では、リストバンドのRFIDタグに記憶されている言語種別指定情報(言語種別指定情報A~言語種別指定情報D)が、I/F部250により読み出されたことに応じて、共通案内画像を構成する各文字情報の言語種別が変更される前に、I/F部250により読み出された言語種別指定情報が指定する言語種別への変更を確定するか否かを確認する確認情報が、表示部230に表示される構成としても構わない。
 この際、確認情報に含まれる文字情報の言語種別として、I/F部250により読み出された言語種別指定情報が指定する言語種別を設定する。
 そして、ユーザーにより、I/F部250により読み出された言語種別指定情報が指定する言語種別への変更を確定することが選択されたことに応じて、共通案内画像を構成する各文字情報の言語種別が変更される。
(変形例10)
 また、上記第2実施形態では、日本語、英語、韓国語、及び、中国語のうちから、ユーザーにより選択された言語種別を指定する言語種別指定情報がRFIDタグに記憶される構成となっている。
 しかしながら、アラビア語、スペイン語、フランス語、ロシア語等、他の言語種別を選択可能とし、ユーザーにより選択された言語種別を指定する言語種別指定情報がRFIDタグに記憶される構成としても構わない。
(変形例11)
 また、上記第2実施形態に係る構成及び変形例1~8に係る構成のうち、複数の構成を、適宜、組み合わせても構わない。
(変形例12)
 また、上記第1実施形態及び上記第2実施形態では、ゲーム装置1及びデジタルサイネージ装置20において、同一の情報媒体を共用することが可能な構成としても構わない。
 1         ゲーム装置
 10        サーバシステム
 20        デジタルサイネージ装置
 30        ネットワーク
 100       処理部
 110       操作部
 120       記憶部
 130       情報記憶媒体
 140       表示部
 150       音出力部
 160       I/F部
 200       処理部
 210       記憶部
 220       情報記憶媒体
 230       表示部
 240       音出力部
 250       I/F部

Claims (15)

  1.  情報を取得する情報取得手段と、
     前記情報取得手段により取得された情報に基づいて言語種別を設定する言語種別設定手段と、
     前記言語種別設定手段により設定された言語種別に応じた文字情報を表示部に表示する表示制御手段と、を備えることを特徴とする情報システム。
  2.  前記情報取得手段により取得される情報には、言語種別を指定する情報が含まれ、
     前記言語種別設定手段は、前記言語種別を指定する情報に基づいて言語種別を設定することを特徴とする請求項1に記載の情報システム。
  3.  前記言語種別設定手段は、前記情報取得手段により取得された情報に関連付けられている情報を取得し、取得した情報に基づいて言語種別を設定することを特徴とする請求項1に記載の情報システム。
  4.  前記情報取得手段は、媒体に保持されている情報を取得することを特徴とする請求項1乃至3のうち何れか一項に記載の情報システム。
  5.  前記媒体に保持されている情報は、一次元コード又は二次元コードであることを特徴とする請求項4に記載の情報システム。
  6.  前記媒体は、RFIDタグであることを特徴とする請求項4に記載の情報システム。
  7.  前記媒体は、携帯通信端末であることを特徴とする請求項4に記載の情報システム。
  8.  前記媒体に保持されている情報には、遊技の有効時間に関する時間情報が含まれ、
     前記時間情報に基づいてユーザーに対して推奨する推奨情報を生成する生成手段を備え、
     前記文字情報には、前記生成手段により生成された前記推奨情報を構成する文字情報が含まれることを特徴とする請求項4乃至7のうち何れか一項に記載の情報システム。
  9.  前記媒体に保持されている情報には、ユーザーの属性に関する属性情報が含まれ、
     前記属性情報に基づいてユーザーに対して推奨する推奨情報を生成する生成手段を備え、
     前記文字情報には、前記生成手段により生成された前記推奨情報を構成する文字情報が含まれることを特徴とする請求項4乃至7のうち何れか一項に記載の情報システム。
  10.  前記情報取得手段は、ユーザーの生体情報を取得することを特徴とする請求項3に記載の情報システム。
  11.  前記情報取得手段により情報が取得されたことに応じて、前記言語種別設定手段により設定された言語種別に応じた文字情報の表示が開始されることを特徴とする請求項1乃至10のうち何れか一項に記載の情報システム。
  12.  前記表示部において、ゲームのプレイ方法に関する所定情報が表示され、
     前記文字情報には、前記所定情報を構成する文字情報が含まれることを特徴とする請求項1乃至11のうち何れか一項に記載の情報システム。
  13.  前記表示部は、ゲーム装置の表示手段であることを特徴とする請求項1乃至12のうち何れか一項に記載の情報システム。
  14.  アトラクトモード中に、ゲームに関するゲーム関連情報が表示され、
     前記文字情報には、前記ゲーム関連情報を構成する文字情報が含まれることを特徴とする請求項13に記載の情報システム。
  15.  前記表示部は、デジタルサイネージの表示手段であることを特徴とする請求項1乃至12のうち何れか一項に記載の情報システム。
PCT/JP2021/006390 2020-02-26 2021-02-19 情報システム WO2021172212A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020031072A JP2021135724A (ja) 2020-02-26 2020-02-26 情報システム
JP2020-031072 2020-02-26

Publications (1)

Publication Number Publication Date
WO2021172212A1 true WO2021172212A1 (ja) 2021-09-02

Family

ID=77490998

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/006390 WO2021172212A1 (ja) 2020-02-26 2021-02-19 情報システム

Country Status (2)

Country Link
JP (1) JP2021135724A (ja)
WO (1) WO2021172212A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015126830A (ja) * 2013-12-27 2015-07-09 株式会社バンダイナムコエンターテインメント ゲームシステム
JP2016524189A (ja) * 2013-06-19 2016-08-12 コリア エアポーツ コーポレーション 多国語情報案内システム及び装置
JP2017176648A (ja) * 2016-03-31 2017-10-05 株式会社三共 遊技用装置及び遊技用システム
JP2018169788A (ja) * 2017-03-29 2018-11-01 パナソニック株式会社 言語割合管理システムおよび言語割合管理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016524189A (ja) * 2013-06-19 2016-08-12 コリア エアポーツ コーポレーション 多国語情報案内システム及び装置
JP2015126830A (ja) * 2013-12-27 2015-07-09 株式会社バンダイナムコエンターテインメント ゲームシステム
JP2017176648A (ja) * 2016-03-31 2017-10-05 株式会社三共 遊技用装置及び遊技用システム
JP2018169788A (ja) * 2017-03-29 2018-11-01 パナソニック株式会社 言語割合管理システムおよび言語割合管理方法

Also Published As

Publication number Publication date
JP2021135724A (ja) 2021-09-13

Similar Documents

Publication Publication Date Title
JP5894226B2 (ja) 販売促進システム
WO2013136609A1 (ja) 遊技機、遊技システム、遊技機の情報表示方法、プログラムおよび記録媒体
US20100125789A1 (en) System and method for providing dynamic navigation through a property to a selected destination
US20160078522A1 (en) Browsing device, information processing system, method of controlling browsing device, recording medium , and program
US20170293965A1 (en) Shopping support device and shopping support method
JP6320687B2 (ja) 情報処理システム、情報処理装置、プログラムおよび表示方法
CN106104613A (zh) 以时间为单位的促销积分的流通方法
WO2021172212A1 (ja) 情報システム
WO2018230106A1 (ja) ゲーム装置、プログラム、ゲームシステム及びゲーム用物品
JP2001134690A (ja) モバイルネットワークシステム及び情報処理方法
JP3571031B2 (ja) 販売促進支援システム
JP2007334569A (ja) 美容室予約システム
JP6298738B2 (ja) 情報提供装置、及びプログラム
JP5433138B2 (ja) ゲームシステム、サーバ
JP7441614B2 (ja) 情報処理装置
JP2004287851A (ja) 価格情報管理方法、記録媒体、及びコンピュータ・プログラム
JP2003159482A (ja) 遊技装置、遊技装置制御方法、プログラム、記録媒体
WO2016001945A1 (ja) サービス提供装置、サービス提供システム、及びサービス提供方法
JP2020187449A (ja) ランダム型景品提供装置、および此れを用いたランダム型景品提供システム
JP2019155172A (ja) ゲーム装置、プログラム及びゲームシステム
US20140309009A1 (en) Method and apparatus for managing item lottery service
JP7014762B2 (ja) ゲーム装置、プログラム及びゲームシステム
JP7013598B1 (ja) ゲーム装置及びプログラム
EP1619614A1 (en) Data communication control system, communication system, service providing method, and computer program
KR101084428B1 (ko) 키오스크 상에서 게임을 이용한 광고 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21759657

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21759657

Country of ref document: EP

Kind code of ref document: A1