WO2021261587A1 - エンターテインメントシステム、処理方法及び情報記憶媒体 - Google Patents

エンターテインメントシステム、処理方法及び情報記憶媒体 Download PDF

Info

Publication number
WO2021261587A1
WO2021261587A1 PCT/JP2021/024198 JP2021024198W WO2021261587A1 WO 2021261587 A1 WO2021261587 A1 WO 2021261587A1 JP 2021024198 W JP2021024198 W JP 2021024198W WO 2021261587 A1 WO2021261587 A1 WO 2021261587A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
content
input
display object
user
Prior art date
Application number
PCT/JP2021/024198
Other languages
English (en)
French (fr)
Inventor
博 大久保
Original Assignee
株式会社バンダイナムコエンターテインメント
株式会社バンダイナムコ研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社バンダイナムコエンターテインメント, 株式会社バンダイナムコ研究所 filed Critical 株式会社バンダイナムコエンターテインメント
Publication of WO2021261587A1 publication Critical patent/WO2021261587A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to an entertainment system, a processing method, an information storage medium, and the like.
  • Patent Document 1 Conventionally, entertainment systems using AR (augmented reality) and MR (mixed reality) have been known.
  • augmented reality augmented reality
  • MR mixed reality
  • Patent Document 1 when a content such as an effect image displayed on a display device and a marker are imaged by the terminal device, a predetermined display object is synthesized with the content of the display device and displayed on the display unit of the terminal device. Is displayed.
  • an interactive entertainment system it is possible to provide an interactive entertainment system, a processing method, an information storage medium, etc. using a display device and a terminal device.
  • One aspect of the present disclosure is an entertainment system using a display device and a user's terminal device, based on a recognition processing unit that performs recognition processing of a recognition display object displayed by the display device, and a result of the recognition processing.
  • a content processing unit that performs a process of making the user visually recognize the content obtained by adding the second content displayed on the display unit of the terminal device to the first content displayed on the display device, and the input of the user.
  • the content processing unit includes a reception unit that receives the above, and the content processing unit performs a process of displaying an input display object for the user to input a response on the display unit of the terminal device, and the reception unit is the reception unit.
  • the user's response input to the input display object is received, and the content processing unit receives the response input of the user to the input display object, and the first content in the display device or the terminal device receives the response input. It relates to an entertainment system that changes the second content of the above. Further, one aspect of the present disclosure relates to a program that causes a computer to function as each of the above parts, or a computer-readable information storage medium that stores the program.
  • an input display object for the user to input a response is displayed, and the first content on the display device changes or changes according to the user's response input to the input display object.
  • the second content on the terminal device will change. Then, while changing the first content or the second content according to the user's response input to the input display object in this way, it becomes possible for the user to visually recognize the content by the first content and the second content. Therefore, the first content or the second content changes interactively according to the user's response input to the input display object, and it is possible to realize an interactive entertainment system or the like using the display device and the user's terminal device. become.
  • the content processing unit may refer to the display mode of the input display object, the arrangement position of the input display object, and the input display object according to the display status on the display device. At least one of the input conditions of the response input may be changed.
  • the input display object is displayed in an appropriate display mode according to the display status on the display device, or the input display object is arranged at an appropriate arrangement position according to the display status on the display device.
  • a positional relationship detection unit that detects the positional relationship between the display device and the terminal device is included, and the content processing unit includes a display mode of the input display object according to the positional relationship. At least one of the arrangement position of the input display object and the input condition of the response input to the input display object may be changed.
  • the input display object can be displayed in an appropriate display mode according to the positional relationship between the display device and the terminal device, or the input display object can be arranged at an appropriate arrangement position according to the positional relationship.
  • response input can be performed under appropriate input conditions according to the positional relationship.
  • the content processing unit determines the display mode of the input display object and the input according to the information of the selected display object. At least one of the arrangement position of the display object and the input condition of the response input to the input display object may be changed.
  • the input display object can be displayed in an appropriate display mode according to the information of the selected display object, or the information of the display object can be displayed. It is possible to arrange an input display object at an appropriate arrangement position, or to input a response under appropriate input conditions according to the information of the display object.
  • the content processing unit may perform a process of changing the recognition display object displayed on the display device.
  • the content processing unit may change the recognition display object displayed on the display device according to the display status on the display device.
  • the content processing unit feeds feedback according to the input of the user on the terminal device to the first content on the display device or the second content on the terminal device. You may go there.
  • the content processing unit may give the feedback in response to the input of the user to the input display object displayed on the display unit of the terminal device.
  • the content processing unit provides the feedback indicating that the user's response input to the input display object has been received to the first content or the second content. You may.
  • the aggregation processing unit that performs the aggregation processing of the response inputs in the plurality of terminal devices is included, and the content processing unit includes the first aggregation processing based on the result of the aggregation processing of the response inputs.
  • the content or the second content may be changed.
  • the content processing unit displays, as the second content, a display object arranged in a virtual space set corresponding to the position of the terminal device on the display unit of the terminal device. You may perform the process of displaying.
  • the virtual space is set so as to correspond to the position of the terminal device, and the display object arranged in the virtual space is added to the first content as the display object of the second content and visually recognized by the user. It will be possible to make it.
  • the content processing unit may change the display object on the terminal device in conjunction with the first content on the display device.
  • the second content on the terminal device changes in conjunction with the first content on the display device, and the user can visually recognize the linked first content and the content by the second content. become.
  • one aspect of the present disclosure is to display the user's terminal device with respect to the first content displayed on the display device based on the recognition process of the recognition display object displayed by the display device and the result of the recognition process.
  • Content processing for making the user visually recognize the content to which the second content displayed in the unit is added and acceptance processing for accepting the input of the user are performed, and in the content processing, the input for the user to input a response.
  • the display object is displayed on the display unit of the terminal device, the response input of the user to the input display object is received in the acceptance process, and the input display object is received in the content process. It relates to a processing method for changing the first content in the display device or the second content in the terminal device according to the response input of the user.
  • a system configuration example of the entertainment system of this embodiment A detailed explanatory diagram of a method of adding a second content of a terminal device to a first content of a display device. It is explanatory drawing of the method of adding the 2nd content of a terminal device to the 1st content of a display device.
  • the block diagram which shows the configuration example of the entertainment system of this embodiment. 6 (A) and 6 (B) are diagrams showing an example of a hardware realization configuration of the entertainment system of the present embodiment.
  • the flowchart explaining the processing example of this embodiment A flowchart illustrating a process of changing a display mode of an input display object and a recognition display object according to a display status of a display device.
  • 9 (A) and 9 (B) are explanatory views for detecting the positional relationship between the display device and the terminal device and selecting a display object on the display device.
  • 10 (A), 10 (B), and 10 (C) are explanatory views of a method for changing a display mode, an arrangement position, and an input condition of an input display object. The flowchart explaining the process which performs the feedback according to the input of the user in a terminal apparatus with respect to the 1st content in a display apparatus, or the 2nd content in a terminal apparatus.
  • 12 (A) and 12 (B) are explanatory views of a method of giving feedback according to a user's input to the second content in the terminal device.
  • An explanatory diagram of a method of giving feedback according to a user's input to a first content on a display device A flowchart illustrating a process of giving feedback according to a user's response input to an input display object. An explanatory diagram of a method of changing the first content or the like on the display device based on the result of the aggregation processing of the user's response input. A flowchart illustrating a process of displaying a display object arranged in a virtual space set in a terminal device based on the result of a recognition process. An explanatory diagram of a method of displaying a display object arranged in a virtual space set in a terminal device based on the result of recognition processing.
  • the entertainment system Fig. 1 shows an example of the entertainment system configuration of the present embodiment.
  • the entertainment of the present embodiment is realized by using the display device 10 and the user's terminal device 20.
  • the display device 10 is, for example, a main display device.
  • the display device 10 is a monitor (display) of an information processing device such as a PC (personal computer), a television monitor, or a large monitor installed at a live or club venue.
  • the terminal device 20 is a portable terminal device owned by the user, a wearable terminal device worn by the user on a portion such as a head, or the like.
  • the first content CT1 is displayed on the display device 10.
  • the first content CT1 is, for example, visual content such as a distribution video, a game video, an environmental video, a sightseeing video, or a simulation video that can be visually recognized by the user.
  • the first content CT1 may include auditory content such as music, game sounds, environmental sounds or sounds.
  • a video delivered video, game video showing how the character CH performs DJ performance is displayed on the display device 10.
  • a recognition display object MK is also displayed on the display device 10.
  • the recognition display object MK is a recognition target object in the recognition process, and can be realized by, for example, a recognition marker or the like.
  • the recognition display object MK may be realized by the image of the first content CT1 displayed on the display device 10.
  • the recognition display object MK may be realized by using a background image of the first content CT1, an image of a display object such as a character CH, or a display pattern of the first content CT1.
  • the second content CT2 is displayed on the display unit 30 of the terminal device 20.
  • a display object OB (object) for an effect is displayed as the second content CT2. That is, the display object OB for the effect whose position and direction change in conjunction with the video reproduction of the first content CT1 is displayed.
  • the display object OB which is the second content CT2 is displayed so as to be added (superimposed) to the first content CT1. That is, in the present embodiment, for example, the recognition process of the recognition display object MK is performed.
  • a process is performed in which the user visually recognizes the content to which the second content displayed on the display unit 30 of the terminal device 20 is added to the first content CT1 displayed on the display device 10.
  • the recognition display object MK is recognized by the recognition process
  • the image of the second content such as the display object OB is compared with the image of the first content CT1 by the processing of AR (Augmented Reality) or MR (Mixed Reality).
  • AR Augmented Reality
  • MR Mated Reality
  • the terminal device 20 has, for example, the image pickup unit 162 (camera) of FIG.
  • the image pickup unit 162 provided on the back side (the back side of the display unit 30) of the terminal device 20.
  • the first content CT1 of the device 10 is photographed.
  • an image obtained by synthesizing the image of the display object OB with the captured image of the first content CT1 is displayed on the display unit 30 of the terminal device 20.
  • the content image to which the image of the second content CT2 such as the effect (directing effect) is added to the image of the first content CT1 is displayed, so that the content image is displayed with respect to the first content CT1. It becomes possible to apply the effect of AR and MR, and it becomes possible to realize an entertainment system with a high effect of effect.
  • the second content CT2 such as the display object OB is added to the first content CT1, but the present embodiment is not limited to this. ..
  • the terminal device 20 is provided with a motion sensor such as a gyro sensor or an acceleration sensor. Then, the position information and the posture information of the terminal device 20 are detected by using the motion sensor and the like, and even when the image pickup unit 162 does not face the display device 10 by using the detected position information and the posture information.
  • the second content CT2 may be displayed. For example, in FIG. 1, even when the image pickup unit 162 of the terminal device 20 faces the ceiling or the like instead of facing the display device 10, the display object OB for the effect is displayed in the direction of the ceiling or the like. You may do it.
  • FIGS. 2 and 3 are explanatory views of a method of adding the second content CT2 of the terminal device 20 to the first content CT1 of the display device 10.
  • a composite image mixed image, superimposed image, additional image
  • FIGS. 2 and 3 a composite image (mixed image, superimposed image, additional image) of the first content CT1 and the second content CT2 is displayed on the display unit 30 of the terminal device 20.
  • an AR or MR image in which a display object OB representing an effect or the like moves so as to spread in all directions is displayed.
  • a display object OB representing an effect or the like moves so as to spread in all directions.
  • a process of displaying the input display objects DBA, DBB, and DBC for the user to input a response on the display unit 30 of the terminal device 20 is performed. ..
  • the input display objects DBA, DBB, and DBC are added to the first content CT1 as, for example, the second content CT2.
  • the user's response input to the input display objects DBA, DBB, and DBC is received, and the first content CT1 on the display device 10 or the second content CT2 on the terminal device 20 is changed according to the response input.
  • the display object DBS urges the user to determine the next performance song by the DJ character CH. Then, the input display objects DBA and DBB indicate candidates for the next performance song, and the user selects an input display object corresponding to the song desired by himself / herself from the input display objects DBA and DBB. Perform response input (operation). For example, when the display unit 30 of the terminal device 20 is a touch panel type display, the user performs a touch operation on the input display objects DBA and DBB to perform response input for selecting the input display objects DBA and DBB. .. Then, the first content CT1 on the display device 10 changes according to this response input.
  • the first song corresponding to the input display object DBA is selected as the next performance song, and the character CH performs the DJ performance corresponding to the first song.
  • the first content CT1 will be displayed on the display device 10.
  • the user's response inputs are aggregated in the plurality of terminal devices 20-1 to 20-n, and the next performance song is determined based on the result of the aggregation processing.
  • the first content CT1 may be changed. That is, the first content CT1 in which the character CH performs the DJ performance corresponding to the determined performance song by deciding the next performance song by the votes of the users of the plurality of terminal devices 20-1 to 20-n. It is displayed on the display device 10.
  • an input display object DBC for changing the second content CT2 is displayed.
  • the second content CT2 changes.
  • the second content CT2 changes to content having content corresponding to the user's response input.
  • the type, shape, color, animation pattern, etc. of the display object OB for the effect, which is the second content CT2 are displayed.
  • the display mode changes.
  • the display mode of the display object OB for the effect is changed to the first display mode, the second display mode, the third display mode, and the like. You may let me. As a result, the user can change the content of the second content CT2 added to the first content CT1, and the effect of the effect can be improved.
  • the input display objects DBA, DBB, and DBC may be a three-dimensional display object having three-dimensional coordinates or a two-dimensional display object.
  • the display object OB for the effect may also be used as the input display object.
  • the user when selecting the first song as the next performance song, the user inputs a response to select one or more display objects OB set in the first color (for example, red).
  • the user when selecting the second song as the next performance song, the user performs a response input to select one or a plurality of display object OBs set in the second color (for example, white).
  • the input display objects DBA and DBB for the user to input the response are displayed, and are displayed on the display device 10 according to the user's response input to the input display objects DBA and DBB.
  • the first content CT1 is changed.
  • the first content CT1 is changed to the content having the content corresponding to the response input of the user.
  • the input display object DBC for the user to input a response is displayed, and the second content CT2 displayed by the terminal device 20 is changed according to the user's response input to the input display object DBC.
  • the second content CT2 is changed to the content having the content corresponding to the response input of the user.
  • an input display object is displayed as an AR or MR display object, and the first content CT1 on the display device 10 can be changed or the terminal can be changed according to the user's response input to the input display object. It becomes possible to change the second content CT2 in the device 20. Then, the user can display the content in which the first content CT1 and the second content CT2, which change according to the user's response input to the input display object, are mixed.
  • the conventional AR and MR display objects are displayed only for the purpose of improving the effect of the effect, and do not improve the interactivity of the user.
  • an input display object for the user to input a response is displayed.
  • the first content CT1 and the second content CT2 change interactively according to the user's response input to the input display object, and the interactivity in the entertainment system can be improved. Therefore, it becomes possible to realize an interactive entertainment system using the display device 10 and the user's terminal device 20.
  • the display device 10 of the present embodiment is a large monitor (screen) of a live venue, or a monitor of a PC or a television on which video distribution is performed. Then, when the user looks into the monitor through the camera (imaging unit) of a smartphone or the like which is the terminal device 20, the code (QR code (registered trademark), etc.) displayed on the screen of the monitor and the picture or pattern are displayed for recognition. As an object (marker), a three-dimensional virtual space extending from the space inside the screen to the outside of the screen is set. Then, an effect linked with the content on the monitor screen is projected and displayed on the virtual space outside the screen.
  • QR code registered trademark
  • the effect linked to the in-screen performance can be displayed.
  • a button serving as an input display can be installed on the screen viewed from the smartphone which is the terminal device 20, and information can be sent to the performance on the screen. for example. You can set up a voting button for the song that the DJ character will play next. Then, for example, by sending information in both directions via an Internet connection, not only the distributed content but also the production of the live venue enables the interaction between the performer and the audience.
  • the terminal device 20 is a user's portable terminal device as shown in FIG. 1 has been described as an example, but the terminal device 20 of the present embodiment is not limited to this.
  • the terminal device 20 may be a wearable type terminal device worn by a user on a portion such as a head.
  • FIG. 4 is an example of a transmissive HMD200 (head-mounted display device), which is one of wearable terminal devices.
  • the HMD 200 in FIG. 4 is an example of an optical transmission type HMD.
  • the HMD 200 in FIG. 4 has a temple portion 240 and a goggle portion 242.
  • a speaker is built in the temple portion 240.
  • the goggles portion 242 is provided with a display device 243 and a holographic optical element 244.
  • the display unit 30 of the terminal device 20 can be realized by these display devices 243, the holographic optical element 244, and the like.
  • the display device 243 is provided with a display unit including a microdisplay, a mirror, a prism, and the like.
  • the display device 243 is provided with a display unit for the left eye and a display unit for the right eye, whereby stereoscopic viewing is realized. Further, the position of the virtual image can be changed by providing a pair of microdisplays in each display unit for the left eye and the right eye.
  • the display light from the display device 243 is guided in front of the user's eyes while refracting the inside of the light guide plate of the holographic optical element 244. Then, the holographic optical element 244 refracts the display light in the direction of the eyeball, and sends the display light to the eyeball. This makes it appear as if there is a virtual image (reproduced image of the hologram) in front of you.
  • the light guide plate of the holographic optical element 244 is also called a combiner, and the combiner, which is a half mirror, makes it possible to see the real image and the virtual image of the outside world overlapping, and AR and MR are realized.
  • the goggles section 242 is provided with an RGB camera 246, a depth camera 247, and an environment recognition camera 248 and 249.
  • RGB camera 246, it is possible to shoot in the front direction of the user. Depth information in the front direction can be acquired by using the depth camera 247.
  • the goggles portion 242 is provided with an emitter (not shown) for a depth camera.
  • the environment recognition cameras 248 and 249 it is possible to recognize the environment around the user.
  • the goggle unit 242 has a built-in inertial measurement unit (IMU) which is a motion sensor composed of an acceleration sensor, a gyro sensor, and the like.
  • IMU inertial measurement unit
  • the position and direction of the user's head are detected based on the image captured by the camera provided on the goggles unit 242 and the measurement information from the inertial measurement unit, thereby realizing head tracking. And it becomes possible to acquire the user's position information and direction information. Further, by processing using an RGB camera 246, a depth camera 247, or the like, it is possible to acquire position information (relative position information), direction information (relative direction information), or posture information of other users around the user. .. For example, this information is acquired by a process called Kinect (registered trademark). For example, by acquiring posture information, it becomes possible to detect what kind of action another user has performed.
  • Kinect registered trademark
  • the second content CT2 can be displayed to the user by, for example, the display unit 30 realized by the display device 243, the holographic optical element 244, and the like. That is, the second content CT2 can be displayed to the user as a virtual image. Further, the first content CT1 displayed on the display device 10 can be visually recognized by the user as a real image of the outside world by the combiner by the holographic optical element 244. This makes it possible to realize a process for the user to visually recognize the content to which the second content is added to the first content displayed on the display device 10.
  • the wearable terminal device 20 is not limited to the optical transmission type HMD200 as shown in FIG. 4, and may be, for example, a video transmission type HMD200.
  • the first content CT1 of the display device 10 is photographed by the image pickup unit 162 provided in the HMD200. Then, by synthesizing the image of the second content CT2 with the captured image, it is possible to realize a process of visually recognizing the content to which the second content is added to the first content.
  • the user's response input to the input display object may be realized by, for example, the user operating a controller (not shown), or the user's line of sight may be the input display object by eye tracking or the like. It may be realized by detecting that it is facing toward the direction. Alternatively, the response input to the input display object may be detected by detecting the movement of the user's head or the like with the motion sensor provided in the HMD 200.
  • FIG. 5 is a block diagram showing a configuration example of the entertainment system (content providing system, processing system, game system) of the present embodiment.
  • the amusement system of the present embodiment is not limited to the configuration shown in FIG. 5, and various modifications such as omitting a part of the constituent elements or adding other constituent elements are possible.
  • the operation unit 160 is for the user (player) to perform various inputs (operations).
  • the operation unit 160 can be realized by, for example, an operation button, a direction instruction key, a keyboard, a joystick, a lever, a touch panel type display, or the like.
  • the display unit 30 also functions as the operation unit 160.
  • the imaging unit 162 captures a subject (object to be imaged).
  • the image pickup unit 162 can be realized by, for example, an image sensor such as a CCD or a CMOS sensor, an optical system composed of a focus lens or the like, or the like.
  • the storage unit 170 stores various information.
  • the storage unit 170 functions as a work area for the processing unit 100, the communication unit 196, and the like.
  • the program and data necessary for executing the program are stored in the storage unit 170.
  • the function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), an HDD (hard disk drive), an SSD (Solid State Drive), an optical disk device, or the like.
  • the storage unit 170 stores information on contents such as the first content and the second content.
  • the content information is information such as images and sounds that make up the content.
  • the image information of the content is, for example, information of a display object constituting the content, and information of an object which is a display object.
  • the information storage medium 180 is a medium that can be read by a computer and stores programs, data, and the like.
  • the information storage medium 180 can be realized by an optical disk (DVD, BD, CD), an HDD, a semiconductor memory (ROM), or the like.
  • the processing unit 100 performs various processes of the present embodiment based on the program (data) stored in the information storage medium 180. That is, the information storage medium 180 is a program for making a computer (a device including an input device, a processing unit, a storage unit, and an output unit) function as each part of the present embodiment (a program for causing the computer to execute the processing of each part). Is remembered.
  • the display unit 30 outputs an image generated by the present embodiment, and its function can be realized by an LCD, an organic EL display, a touch panel type display, an HMD (Head Mounted Display), or the like.
  • the sound output unit 192 outputs the sound generated by the present embodiment, and the function thereof can be realized by a speaker, headphones, or the like.
  • the communication unit 196 communicates with an external device (another device) via a wired or wireless network, and its function is hardware such as a communication ASIC or a communication processor, and communication firmware. Can be realized by.
  • the program (data) for operating the computer as each part of the present embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or the storage unit 170) via the network and the communication unit 196. You may.
  • the use of information storage media by such a server can also be included within the scope of this embodiment.
  • the processing unit 100 performs acceptance processing, recognition processing, detection processing, aggregation processing, content processing, and the like based on programs and data stored in the storage unit 170 and input information from the operation unit 160. ..
  • each process of the present embodiment performed by each unit of the processing unit 100 can be realized by a processor (processor including hardware).
  • each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program.
  • the functions of each part may be realized by individual hardware, or the functions of each part may be realized by integrated hardware.
  • the processor includes hardware, which hardware can include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal.
  • the processor may be composed of one or more circuit devices (eg, IC, etc.) mounted on a circuit board, or one or more circuit elements (eg, resistors, capacitors, etc.).
  • the processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as GPU (Graphics Processing Unit) or DSP (Digital Signal Processor) can be used. Further, the processor may be a hardware circuit by ASIC. Further, the processor may include an amplifier circuit, a filter circuit, and the like for processing an analog signal.
  • the memory storage unit 170 may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD), or an optical storage device such as an optical disk device.
  • the memory stores an instruction that can be read by a computer, and when the instruction is executed by the processor, the processing of each unit of the processing unit 100 is realized.
  • the instruction here may be an instruction set constituting the program, or may be an instruction instructing the hardware circuit of the processor to operate.
  • the processing unit 100 includes a receiving unit 102, a recognition processing unit 104, a positional relationship detection unit 106, an aggregation processing unit 108, and a content processing unit 110.
  • a receiving unit 102 receives a signal from the central processing unit 102
  • a recognition processing unit 104 receives a signal from the central processing unit 102
  • a positional relationship detection unit 106 detects a position of the central processing unit 108
  • a content processing unit 110 includes a content processing unit 110.
  • each process of the present embodiment executed by each of these parts can be realized by a processor (or a processor and a memory). It is possible to carry out various modifications such as omitting a part of these components (each part) or adding other components.
  • the receiving unit 102 performs a process of accepting user input. For example, when the user inputs a response input or the like using the operation unit 160 or the like, the reception unit 102 accepts the input of the user. For example, the reception unit 102 monitors the input of the user using the operation unit 160, and when the user makes an input using the operation unit 160, the reception unit 102 acquires the input information.
  • the recognition processing unit 104 performs recognition processing of the display object for recognition. For example, as described with reference to FIGS. 1 to 3, the recognition processing unit 104 performs recognition processing of the recognition display object displayed by the display device 10.
  • the recognition process is an image recognition process that analyzes and recognizes an image of a display object for recognition.
  • the recognition display object is an object of recognition processing, and can be realized by a marker such as an AR marker.
  • the marker may be, for example, a QR code (registered trademark) marker.
  • the display object for recognition is not limited to a marker such as an AR marker, and may be a display object (object) recognized by matching processing of feature points and contour shapes, such as a markerless type AR.
  • the display object for recognition is not limited to an AR marker such as a square marker or a special shape marker, and may be a display object recognized by processing of natural feature point matching or contour shape matching.
  • the recognition display object can be used, for example, as information that triggers a process of adding the second content to the first content and making the user visually recognize the second content. Further, the recognition display object may be information for designating a display object such as an input display object to be displayed as the second content.
  • the positional relationship detection unit 106 detects the positional relationship between the display device 10 and the terminal device 20.
  • the positional relationship detection unit 106 detects the relative positional relationship of the terminal device 20 with respect to the display device 10.
  • the positional relationship may be the relationship between the position of the display device 10 and the position of the terminal device 20, or the relationship between the direction of the display device 10 (facing direction) and the direction of the terminal device 20 (facing direction). May be good.
  • the positional relationship may be the relative directional relationship of the terminal device 20 with respect to the display device 10.
  • the positional relationship detection unit 106 detects the positional relationship between the display device 10 and the terminal device 20 using, for example, a recognition display object.
  • the positional relationship between the display device 10 and the terminal device 20 can be detected by detecting the position, size, direction, or the like of the recognition display object on the captured image (display screen of the display unit 30) captured by the display device 10. For example, by detecting whether or not the recognition display object is displayed at a predetermined arrangement scheduled position, it is possible to detect whether or not the terminal device 20 is appropriately arranged in a positional relationship with respect to the display device 10. Further, the positional relationship between the display device 10 and the terminal device 20 can be detected based on the size of the recognition display object. Further, the positional relationship between the display device 10 and the terminal device 20 can be detected as a positional relationship based on the direction of the recognition display object. Further, for example, by detecting a change from the initial positional relationship between the display device 10 and the terminal device 20 by a motion sensor or the like of the terminal device 20, the positional relationship between the display device 10 and the terminal device 20 at each timing can be detected.
  • Aggregation processing unit 108 performs various aggregation processing. For example, the aggregation processing unit 108 performs aggregation processing of response inputs in a plurality of terminal devices. For example, the aggregation processing unit 108 performs processing for aggregation what kind of response input has been performed in a plurality of terminal devices. For example, in a plurality of terminal devices, a process of totaling the number of users who have input the first response and the number of users who have input the second response is performed.
  • the aggregation process may be an aggregation process for counting the number of users who have input each response or the number of terminal devices, or may be an aggregation process by various statistical processes.
  • the content processing unit 110 performs various content processing.
  • the content processing is, for example, various processing related to the content such as an image display processing of the content such as the first content and the second content, and a sound output processing of the content.
  • the content image display process is not limited to the process of generating and displaying the content image, and even if it is a process of instructing the display of the content image or instructing the content of the displayed content image. good.
  • the content processing unit 110 includes, for example, a first display processing unit that performs display processing of the first content on the display device 10, and a second display processing unit that performs display processing of the second content on the display unit 30 of the terminal device 20. Can include.
  • the entertainment system of the present embodiment using the display device 10 and the user's terminal device 20 includes a reception unit 102, a recognition processing unit 104, and a content processing unit 110 as shown in FIG.
  • the recognition processing unit 104 performs recognition processing of the recognition display object displayed by the display device 10. For example, image recognition processing of a display object for recognition is performed.
  • the content processing unit 110 performs content processing based on the result of the recognition processing. For example, the content processing unit 110 visually recognizes the content obtained by adding the second content displayed on the display unit 30 of the terminal device 20 to the first content displayed on the display device 10 based on the result of the recognition process. Perform the process to make it. For example, the content processing unit 110 performs a process of synthesizing (mixing) the second content with the first content.
  • a process for displaying a content image in which an image of the first content and an image of the second content are combined is performed for the user.
  • the receiving unit 102 performs a process of accepting the input of the user. For example, a process of accepting a user's input using the operation unit 160 is performed.
  • the content processing unit 110 performs a process of displaying an input display object for the user to input a response on the display unit 30 of the terminal device 20. For example, a process of displaying an input display object at a given position on the display screen of the display unit 30 of the terminal device 20 is performed. Then, the receiving unit 102 performs a process of receiving the user's response input to the input display object. For example, when the input display object is displayed on the display unit 30 and the user performs a response input such as selecting the input display object, the reception unit 102 accepts the response input of the user.
  • the content processing unit 110 changes the first content on the display device 10 or the second content on the terminal device 20 according to the user's response input to the input display object. For example, the content processing unit 110 performs a process of changing the display content or display mode of the first content, or changing the display content or display mode of the second content. For example, the content processing unit 110 performs a process of displaying the first content or the second content according to the display content or display mode according to the response input of the user. For example, the content processing unit 110 performs a process of changing the display content or display mode of the first content or the second content depending on whether the user's response input is the first response input or the second response input. .. Both the first content and the second content may be changed according to the user's response input to the input display object.
  • the content processing unit 110 sets at least one of the display mode of the input display object, the arrangement position of the input display object, and the input condition of the response input to the input display object, depending on the display status on the display device 10. Perform the process of changing. For example, when the display device 10 is in the first display state, the content processing unit 110 displays the input display object in the first display mode, arranges the input display object in the first arrangement position, or arranges the input display object in the first arrangement position. The input condition of the response input to the input display object is set as the first input condition. When the display device 10 is in the second display state, the input display object is displayed in the second display mode, the input display object is arranged at the second arrangement position, or a response to the input display object is made. Set the input condition of the input to the second input condition.
  • the display status of the display device 10 includes the status of the display object of the display device 10 (type of display object, arrangement position, display mode), the status of the background image, the status of the display screen (screen brightness, color tone), and the display scene.
  • the status, the status of recognition display objects such as markers, the status of display time, the status of display timing, and the like.
  • the display mode of the input display object is the color, shape, size, brightness, transparency (opacity), texture, display time, or the like of the input display object.
  • the arrangement position of the input display object is the position or direction of the input display object on the display screen of the display unit 30.
  • the input conditions for the response input to the input display object are the input time for the response input, the input method, the input timing, or the conditions (settings) for the pressing force and the touch range on the touch panel type display.
  • the entertainment system also includes a positional relationship detection unit 106 that detects the positional relationship (including the directional relationship) between the display device 10 and the terminal device 20. Then, the content processing unit 110 changes at least one of the display mode of the input display object, the arrangement position of the input display object, and the input condition of the response input to the input display object according to the detected positional relationship. Perform processing. For example, when the display device 10 and the terminal device 20 have a first positional relationship, the content processing unit 110 displays the input display object in the first display mode, or arranges the input display object in the first arrangement position. Or, the input condition of the response input to the input display is set as the first input condition.
  • the input display object When the display device 10 and the terminal device 20 have a second positional relationship, the input display object may be displayed in the second display mode, the input display object may be arranged in the second arrangement position, or the input display object may be arranged.
  • the input condition of the response input to the display object is set as the second input condition.
  • the content processing unit 110 determines the display mode of the input display object, the arrangement position of the input display object, and the input according to the information of the selected display object. Performs a process of changing at least one of the input conditions of the response input to the display object.
  • the information on the displayed object is information such as the type, shape, color, size, brightness, transparency (opacity), texture or display time of the displayed object. For example, it is assumed that a display object (object) such as a character of the display device 10 is selected by an input by the user, a gaze position of the user, or the like.
  • the content processing unit 110 changes the display mode, the arrangement position, or the input condition of the response input of the input display object according to the information of the selected display object.
  • the content processing unit 110 may display the selected display object as a first type, a first shape, a first color, a first size, a first brightness, a first transparency, or a first texture.
  • the input display object is displayed in the first display mode, the input display object is arranged at the first arrangement position, or the input condition of the response input to the input display object is set as the first input condition.
  • the content processing unit 110 may display the second type, the second shape, the second color, or the second texture.
  • the input display object is displayed in the second display mode, the input display object is arranged at the second arrangement position, or the input condition of the response input to the input display object is set as the second input condition.
  • the content processing unit 110 performs a process of changing the recognition display object displayed on the display device 10. For example, in the display device 10 on which the first content is displayed, not only one recognition display object is displayed, but the recognition display object is updated and changed at any time. For example, the content processing unit 110 changes the recognition display object according to the elapsed time, changes the recognition display object at a given timing such as an event occurrence timing or a content progress timing, or a given content processing unit 110. When the update condition is satisfied, the recognition display is updated and changed.
  • the content processing unit 110 changes the recognition display object displayed on the display device 10 according to the display status on the display device 10.
  • the display status of the display device 10 is the status of the display object of the display device 10, the status of the background image, the status of the display screen, the status of the display scene, the status of the display time, the status of the display timing, and the like.
  • the content processing unit 110 has a first type, a first shape, a first color, a first size, a first lightness, a first transparency, or a first texture.
  • the recognition display object is displayed on the display device 10.
  • the content processing unit 110 has a second type, a second shape, a second color, a second size, a second lightness, a second transparency, or a second texture.
  • the recognition display object is displayed on the display device 10.
  • the content processing unit 110 gives feedback according to the user's input on the terminal device 20 to the first content on the display device 10 or the second content on the terminal device 20.
  • the user's input in the terminal device 20 may be the user's response input corresponding to the input display object, or may be an input other than the response input.
  • the feedback to the first content in response to the input of the user is feedback to the display object of the first content, feedback to the display content or display mode of the first content, and the like.
  • the feedback to the display object of the first content is feedback that changes the color, shape, size, brightness, transparency, texture, display time, type, etc. of the display object of the first content.
  • the feedback on the display content or display mode of the first content is feedback that changes the display content or display mode of the first content.
  • the feedback to the second content in response to the input of the user is feedback to the display object of the second content, feedback to the display content or display mode of the second content, and the like.
  • the feedback to the display object of the second content is feedback that changes the color, shape, size, brightness, transparency, texture, display time, type, and the like of the display object of the second content.
  • the feedback on the display content or display mode of the second content is feedback that changes the display content or display mode of the second content.
  • the content processing unit 110 gives feedback according to the user's input to the input display object displayed on the display unit 30 of the terminal device 20.
  • feedback is provided that changes the color, shape, size, brightness, transparency, texture, display time, type, etc. of the input display object according to the user's input.
  • the content processing unit 110 sets the input display object as the first color, the first shape, the first size, the first lightness, the first transparency, the first texture, and the first.
  • the content processing unit 110 sets the input display object as the second color, the second shape, the second size, the second lightness, the second transparency, the second texture, and the second.
  • the content processing unit 110 gives feedback to the first content or the second content indicating that the user's response input to the input display object has been accepted. For example, feedback is given to the first content or the second content to inform the user that the response input has been properly accepted.
  • the first content displayed on the display device 10 notifies the user or makes the user visually recognize that the user's response input to the input display object has been accepted.
  • the voting result obtained by inputting the responses of a plurality of users may be displayed to the user by the first content of the display device 10.
  • the second content displayed on the terminal device 20 notifies the user or makes the user visually recognize that the user's response input to the input display object has been accepted.
  • the color, shape, size, brightness, transparency, texture, or display time of a display object such as an input display object in the second content is controlled to control the user's response. Notify the user that the input has been accepted.
  • the entertainment system also includes an aggregation processing unit 108 that aggregates response inputs in a plurality of terminal devices. Then, the content processing unit 110 changes the first content or the second content based on the result of the aggregation processing of the response input. For example, the content processing unit 110 may display the display content or the first content of the display mode according to the result of the response input aggregation process on the display device 10, or display the display content or display according to the result of the response input aggregation process. A process of displaying the second content of the embodiment on the display unit 30 of the terminal device 20 is performed. For example, the content processing unit 110 performs a process of displaying a display object notifying the result of the aggregation process as the first content of the display device 10 or displaying it as the second content of the terminal device 20.
  • the content processing unit 110 performs a process of displaying a display object arranged in the virtual space set corresponding to the position of the terminal device 20 on the display unit 30 of the terminal device 20 as the second content.
  • the content processing unit 110 sets a virtual space so as to correspond to the position of the terminal device 20.
  • a virtual camera (viewpoint) in the virtual space is set at the position of the terminal device 20.
  • the content processing unit 110 performs a process of displaying the display object arranged in the virtual space set in this way on the display unit 30 of the terminal device 20.
  • the content processing unit 110 performs a process of generating a virtual space image in which the display object is arranged in the virtual space as a virtual space image that can be seen from a virtual camera set at the position of the terminal device 20. Then, the content processing unit 110 performs a process of displaying an image in which the image of the first content and the virtual space image which is the image of the second content are combined (mixed) on the display unit 30 of the terminal device 20.
  • the content processing unit 110 performs a process of changing the display object on the terminal device 20 in conjunction with the first content on the display device 10. For example, when the image or sound of the first content on the display device 10 changes, a process of changing the display content or display mode of the display object displayed on the display unit 30 of the terminal device 20 is performed in conjunction with the change. For example, by using parameters (parameters representing tempo, excitement, etc.) used in the presentation processing of the first content to control the display of the display object on the terminal device 20, the terminal device is linked to the first content. It is possible to realize the process of changing the display object in 20.
  • parameters parameters representing tempo, excitement, etc.
  • FIGS. 6 (A) and 6 (B) show an example of a hardware realization configuration of the entertainment system of the present embodiment.
  • the terminal device 20, the server 50, and the information processing device 40 are communicated and connected via a network 60 realized by the Internet or the like.
  • the entertainment system of the present embodiment can be realized by the processing of the terminal device 20, or can be realized by the distributed processing of the terminal device 20, the information processing device 40, and the server 50.
  • the information processing device 40 is, for example, a desktop type PC or a notebook type PC.
  • the server 50 is a server operated by the operator of the entertainment system, and for example, performs various management processes of the entertainment system and the above-mentioned aggregation process of response input.
  • the display processing of the first content on the display device 10 can be realized by, for example, the information processing device 40 connected to the display device 10, and the display processing of the second content can be realized by the terminal device 20.
  • the terminal device 20 when the recognition display object displayed on the display device 10 is recognized by the recognition process of the terminal device 20, the program corresponding to the recognition display object is transmitted by the server 50 to the terminal device. Provided at 20. Then, the terminal device 20 operates based on the program to execute a process of generating the second content and a process of adding the second content to the first content and displaying the content.
  • FIG. 6A when the recognition display object displayed on the display device 10 is recognized by the recognition process of the terminal device 20, the program corresponding to the recognition display object is transmitted by the server 50 to the terminal device. Provided at 20. Then, the terminal device 20 operates based on the program to execute a process of generating the second content and a process of adding the second content to the first content and displaying the content.
  • the game device 70 performs the display processing of the first content on the display device 10, and the game device 70 is wirelessly or wiredly connected to the terminal device 20.
  • the game device 70 is, for example, a stationary game device for home or business use.
  • the terminal device 20 is, for example, a portable game device or a portable communication terminal device such as a smartphone.
  • the process of generating the second content and the process of adding and displaying the second content to the first content can be realized, for example, by the process of the terminal device 20, or by the distributed process of the terminal device 20 and the game device 70.
  • FIG. 7 is a flowchart illustrating a processing example of the entertainment system of the present embodiment.
  • the recognition process of the recognition display object displayed by the display device 10 is performed (step S1).
  • the display device 10 displays the recognition display object MK
  • the terminal device 20 captures the recognition display object MK by the image pickup unit 162, and the image of the recognition display object MK reflected in the captured image.
  • Perform recognition processing based on the result of the recognition process, a process of making the user visually recognize the content to which the second content displayed by the terminal device 20 is added to the first content displayed by the display device 10 is executed (step S2). For example, as shown in FIGS.
  • the terminal device 20 displays, for example, an effect display object OB and an input display object DBA, DBB, with respect to the image of the first content CT1 reflected in the captured image of the image pickup unit 162.
  • a process of synthesizing (mixing, superimposing) an image of the second content CT2 such as DBC is performed.
  • a process of displaying the image of the content to which the image of the second content CT2 is added to the image of the first content CT1 is performed on the display unit 30.
  • step S3 it is determined whether or not the user has input a response to the input display object displayed on the display unit 30 of the terminal device 20, and if the response input is performed, the response input is accepted (step). S3, S4).
  • the terminal device 20 determines whether or not the user has performed a response input for selecting the input display objects DBA, DBB, and DBC shown in FIGS. 2 and 3, and if the response input is performed, the response input is performed. Accept.
  • a process of changing the first content on the display device 10 or the second content on the terminal device 20 is performed according to the user's response input to the input display object (step S5). For example, when the user inputs a response to the input display objects DBA and DBB of FIGS.
  • the first content CT1 displayed on the display device 10 changes. Specifically, when the user selects either the input display object DBA or DBB, the next performance song by the DJ character CH is determined. For example, when the user selects the input display object DBA, the first content CT1 in which the character CH performs the DJ performance of the song corresponding to the input display object DBA is displayed on the display device 10. Further, when the user selects the input display object DBB, the first content CT1 in which the character CH performs the DJ performance of the song corresponding to the input display object DBB is displayed on the display device 10. Further, when the user inputs a response to the input display object DBC of FIGS. 2 and 3, the second content CT2 displayed by the terminal device 20 changes. For example, when the user inputs a response to select the input display object DBC, the display mode such as the type, shape, color, or animation pattern of the display object OB for the effect, which is the second content CT2, changes.
  • the display mode such as the type, shape, color, or animation pattern of the display object
  • the input display object is displayed as an AR or MR display object
  • the first content CT1 on the display device 10 changes according to the user's response input to the input display object.
  • the second content CT2 in the terminal device 20 will change.
  • the first content CT1 or the second content CT2 at least one of CT1 and CT2
  • the first content CT1 and the second content CT2 are mixed. It becomes possible for the user to visually recognize the created content. Therefore, the first content CT1 or the second content CT2 changes interactively according to the user's response input to the input display object, and the interactive entertainment system using the display device 10 and the user's terminal device 20. Realization is possible.
  • FIG. 8 is a flowchart illustrating a process of changing the display mode of the input display object and the recognition display object according to the display status of the display device 10 and the like.
  • the entertainment system of the present embodiment acquires the display status on the display device 10 (step S11). For example, the status of the display object of the display device 10, the status of the background image, the status of the display screen, the status of the display scene, the status of the recognition display object, the status of the display time, the status of the display timing, and the like are acquired. Further, the positional relationship between the display device 10 and the terminal device 20 is detected (step S12). For example, as shown in FIG. 9A, the relative positional relationship of the terminal device 20 with respect to the display device 10 is acquired. This positional relationship can include the relative directional relationship of the terminal device 20 with respect to the direction of the display device 10. For example, in FIG.
  • the positional relationship between the display device 10 and the terminal device 20 is detected by detecting the position, size, or direction (perspective) of the recognition display object MK displayed on the display unit 30 (photographed image) of the terminal device 20.
  • the positional relationship can be detected by a motion sensor provided in the terminal device 20
  • the positional relationship can be detected by using a sensor device such as an image pickup sensor provided in the display device 10, or the terminal device 20 and the display device 10 are separated from each other.
  • the positional relationship may be detected by using the measuring device provided in the above.
  • the information of the displayed object selected by the display device 10 is acquired (step S13). For example, in FIG. 10B, the character CHE, which is a display object, is selected in the display device 10.
  • this input operation or the direction of the user's line of sight is detected to detect the character CHE.
  • information on the displayed object which is information on the character CHE
  • information such as the type, shape, color, size, brightness, transparency, texture, or display time of the displayed object is acquired.
  • the display mode of the input display object, the arrangement position, or the input condition of the response input is changed according to the display status, the positional relationship, or the information of the selected display object (step S14). That is, according to the display status of the display device 10 acquired in step S11, the positional relationship between the display device 10 and the terminal device 20 detected in step S12, or the information of the display object acquired in step S13, the input display object.
  • the display mode, the arrangement position, or the input condition of the response input is changed. Specifically, the display mode such as color, shape, size, brightness, transparency, texture or display time of the input display object is changed. Alternatively, the position or direction of the input display object on the display screen of the display unit 30 is changed as the arrangement position of the input display object.
  • the input conditions such as the input time, the input method, the input timing, or the pressing force and the touch range on the touch panel type display for the response input to the input display object are changed. Further, the recognition display object displayed on the display device 10 is changed according to the display status on the display device 10 (step S15).
  • input display objects DBY and DBN for the user to select “YES” or “NO” are displayed.
  • the colors and shapes of the input display objects DBY and DBN are determined according to the display status of the display device 10, the positional relationship between the display device 10 and the terminal device 20, or the information of the selected display object.
  • the display mode such as size, brightness, transparency, texture or display time is changed.
  • the display status such as the status of the display object of the display device 10
  • the status of the background image, or the status of the display screen such as the brightness and color of the screen
  • the color, shape, and size of the input display objects DBY and DBN Change the display mode such as brightness or transparency.
  • the color, shape, size, brightness, transparency, and the like of the input display objects DBY and DBN are adjusted according to the color, shape, size, or type of the display object such as a character of the display device 10.
  • the color, shape, and size of the input display object DBY and DBN so that the user can easily recognize the input display object DBY and DBN with respect to the color, shape, size, and type of the display object.
  • the input display objects DBY and DBN can be easily recognized by the user. Adjust the color, shape, size, brightness or transparency of DBY and DBN. Similarly, the color, shape, size, brightness, transparency, and the like of the input display objects DBY and DBN are adjusted according to the positional relationship between the display device 10 and the terminal device 20.
  • the colors and shapes of the input display objects DBY and DBN may be changed to conspicuous colors and shapes, or the sizes of the input display objects DBY and DBN may be changed. By making it larger, brighter, or more opaque, it becomes easier for the user to recognize the input display objects DBY and DBN.
  • the color, shape, size, brightness, transparency, and the like of the input display objects DBY and DBN are adjusted according to the information of the display object such as the character CHE selected by the user. ..
  • the color, shape, size, brightness, transparency, and the like of the input display objects DBY and DBN are adjusted according to the color, shape, size, transparency, and the like of the display object selected by the user.
  • the input display objects DBY and DBN are set to the color, shape, size or transparency corresponding to the color, shape, size or transparency of the selected display object.
  • the input display objects DBY and DBN are arranged according to the display status of the display device 10, the positional relationship between the display device 10 and the terminal device 20, or the information of the selected display object. Change the position.
  • the input display objects DBY and DBN are arranged (displayed) at positions avoiding the display object of the first content CT1 displayed on the display device 10. By doing so, it is possible to prevent a situation in which the display object of the first content CT1 becomes difficult to see due to the input display objects DBY and DBN.
  • the input display objects DBY and DBN are arranged in the area of the background image displayed on the display device 10.
  • the area of the background image can be effectively used to display the input display objects DBY and DBN.
  • the input display object DBY is placed at a position corresponding to the area of the first content CT1 to be expanded in the display unit 30 of the terminal device 20.
  • the input display objects DBY and DBN are arranged at positions avoiding the main display area of the first content CT1 (the area where the main display object of the first content CT1 is displayed). By doing so, the input display objects DBY and DBN can be displayed at appropriate positions according to the positional relationship between the display device 10 and the terminal device 20. Further, as shown in FIG.
  • the input display objects DBY and DBN are arranged at positions avoiding the selected display object. By doing so, it is possible to prevent a situation in which the display object selected by the user becomes difficult to see due to the input display objects DBY and DBN.
  • the response to the input display objects DBY and DBN depends on the display status of the display device 10, the positional relationship between the display device 10 and the terminal device 20, or the information of the selected display object.
  • Change the input conditions of the input For example, the input conditions such as the input time, the input method, the input timing, or the pressing force and the touch range for the response input to the input display object DBY and DBN are changed.
  • the main display area of the first content CT1 is expanded due to a large display area of the first content CT1 on the display device 10 or a positional relationship in which the distance between the display device 10 and the terminal device 20 becomes short. ..
  • the input display objects DBY and DBN are displayed in a small size, for example, in the edge area of the display screen of the display unit 30 so as to avoid the main display area of the first content CT1.
  • the input display objects DBY and DBN are displayed in a small size in the edge area of the display screen, it becomes difficult to operate the response input for selecting the input display objects DBY and DBN. Therefore, in such a case, the input time, which is an input condition for the response input, is shortened so that the input display objects DBY and DBN can be selected in a short input time.
  • the pressing force on the touch panel type display which is an input condition for response input, is reduced so that the input display objects DBY and DBN can be selected by a touch operation with a small pressing force.
  • the touch range (detection range of the touch operation) on the touch panel type display is widened to facilitate the selection of the input display object DBY and DBN by the touch operation.
  • the input method of the input display objects DBY and DBN may be changed to an input method that facilitates the selection, or the input timing of the input display objects DBY and DBN may be changed to an input timing that facilitates the selection. ..
  • the recognition display object displayed on the display device 10 is changed according to the display status on the display device 10.
  • the type, color, shape, size, brightness, etc. of the display object for recognition can be determined according to the display time of the display device 10, the status of the display object, the status of the background image, or the status of the display screen. Change.
  • the recognition display object is sequentially updated and displayed according to the display time, which is the elapsed time since the first content CT1 is displayed on the display device 10. For example, when the first content CT1 is the first scene, the first type of recognition display object is displayed, and when the first content CT1 is the second scene, the second type recognition display object is displayed. indicate.
  • a third type of recognition display object is displayed.
  • the second content CT2 suitable for the first scene, the second scene, and the third scene of the first content CT1 is designated by the first type, the second type, and the third type of recognition display objects.
  • the designated second content CT2 can be added to and displayed on the first content CT1.
  • the type of the recognition display object may be switched according to the type of the first content CT1 displayed on the display device 10.
  • the type of the recognition display object may be switched depending on whether the first content CT1 displayed on the display device 10 is a moving image, a still image, or a game screen.
  • the color, shape, size, or brightness of the recognition display object is changed according to the status of the display object of the display device 10, the status of the background image, or the status of the display screen such as the brightness and hue of the screen. Let me. For example, even when the display status of the display device 10 changes, the color, shape, size, brightness, and the like of the recognition display object are changed so that the recognition display object is appropriately recognized.
  • the process of changing the display object for recognition is not limited to the process of changing the display object for recognition based on the display status, and various modifications can be performed.
  • the recognition display may be changed according to the elapsed time.
  • the recognition display object is changed according to the elapsed time since the first content CT1 is displayed.
  • the recognition display may be changed at a given timing.
  • the recognition display is changed at the timing when a given event occurs, or the recognition display is changed at a given timing in the progress of the first content CT1.
  • the update condition is set based on various situations such as a content situation and a user situation. By doing so, various processes can be executed based on the result of the recognition process of the display object for recognition that is updated and changed. Therefore, various contents in which the second content is added to the first content can be obtained. It will be possible to provide it to users.
  • the feedback according to the user's input in the terminal device 20 is sent to the first content CT1 in the display device 10 or the terminal device 20. This is performed for the second content CT2.
  • feedback according to the user's input is given to the input display object displayed on the display unit 30 of the terminal device 20.
  • feedback indicating that the user's response input to the input display object has been accepted is given to the first content CT1 or the second content CT2.
  • FIG. 11 is a flowchart illustrating a process of giving feedback according to a user's input in the terminal device 20 to the first content CT1 or the second content CT2.
  • step S21 it is determined whether or not the user has made an input in the terminal device 20 (step S21).
  • This user input may be a response input to an input display object, or may be an input other than the response input.
  • step S22 when the user makes an input, the input is accepted (step S22).
  • step S23 feedback according to the user's input in the terminal device 20 is given to the first content CT1 in the display device 10 or the second content CT2 in the terminal device 20 (step S23).
  • the input of the user in the terminal device 20 is reflected in the first content CT1 or the second content CT2, and the content in which the second content CT2 is added to the first content CT1 can be displayed to the user. become.
  • feedback according to the user's input is given to the input display object displayed on the display unit 30 of the terminal device 20.
  • an input display object that changes according to a user's input in the terminal device 20 is displayed on the display unit 30 of the terminal device 20.
  • the user can select the shape of the input display object by inputting on the terminal device 20, and feedback according to the user's input is given to the input display object.
  • the shape of the input display object can be made into a quadrangular shape, a star shape, a diamond shape, or the like according to the user's wishes. Therefore, the user can customize the shape of the input display object.
  • the user may be able to select a color, size, brightness, texture, or the like by inputting with the terminal device 20.
  • the recognition display object displayed on the display device 10 corresponding to the input display object is changed according to the user's input on the terminal device 20, so that the recognition display object is displayed on the display unit 30 of the terminal device 20.
  • the input display may be changed.
  • each user of the terminal device 20 can decorate the input display object to create an original input display object.
  • the recognition display object corresponding to the created original input display object is displayed on the display device 10.
  • other users other than the user who created the input display object can also perform the recognition process of the recognition display object using the terminal device of the other user, so that the input display object can be recognized. Will be available. Therefore, for example, a plurality of users who have a friendship with each other can share and use the originally created input display object.
  • feedback indicating that the user's response input to the input display object has been accepted is given to the first content CT1.
  • the first content CT1 to inform the user that the response input has been properly accepted.
  • the input display DBA and DBB for selecting the next performance song are displayed, and the user can display any of the input display DBA and DBB. Enter the response to select. Then, for example, as will be described later with reference to FIG.
  • the voting result of the next performance song by the response input of a plurality of users is displayed to the user by the first content CT1 of the display device 10.
  • a display object DBF indicating that the song MA is superior to the song MA and the song MB, which are candidates for the next performance song is displayed on the display device 10 based on the voting results by a plurality of users. Has been done.
  • the user can recognize the voting result of his / her own response input to the input display object by the display object DBF of the first content CT1 displayed on the display device 10.
  • FIG. 14 is a flowchart illustrating a process of changing an input display object, which is the second content CT2, in response to a user's response input to the input display object.
  • step S31, S32 it is determined whether or not the user has input a response to the input display object displayed on the display unit 30 of the terminal device 20, and if the response input is performed, the response input is accepted (step S31, S32). Then, a process of changing the shape, color, characters, or the like of the input display object or erasing the display of the input display object is performed (step S33). For example, when a user inputs a response to an input display object, the shape or color of the input display object is changed to a shape or color that makes the user recognize that the response input has been performed. Alternatively, a character that makes the user recognize that the response input has been performed is added to the input display object.
  • the process of turning off the display of the input display object is performed. By doing so, when the response input to the input display is completed and the input display is no longer needed, the display of the input display is turned off so that the input display becomes another content. It will be possible to prevent it from getting in the way of the display.
  • the response input aggregation processing in the plurality of terminal devices 20-1 to 20-n is performed. That is, the aggregation processing unit 108 collects the response inputs to the input display objects performed in each of the terminal devices 20-1 to 20-n via the network 60, and aggregates the response inputs. conduct. Then, the content processing unit 110 changes the first content CT1 displayed on the display device 10. For example, as shown in FIG. 13, a display object DBF showing a voting result, which is a total result of response input, is displayed on the display device 10. Then, the song MA, which is predominant based on the voting result, displays the first content CT1 to be played as the next performance song on the display device 10.
  • the content of the DJ character showing how to play the song MA is displayed on the display device 10 as the first content CT1.
  • the first content CT1 corresponding to the result of the aggregation processing of the response inputs in the plurality of terminal devices 20-1 to 20-n can be displayed on the display device 10.
  • the display content CT2 of the display content or display mode according to the result of the aggregation processing of the response input to the input display object may be displayed on the display unit 30 of the terminal device 20.
  • the display object DBF showing the voting result of FIG. 13 may be displayed on the display unit 30 of the terminal device 20 as the second content CT2.
  • the effect of the second content CT2 added to the first content CT1 may be changed according to the result of the aggregation processing.
  • the type of display object for the effect and the animation pattern are changed according to the result of the aggregation process. For example, when a song selected by the user is selected based on a voting result, a display object for an effect having a higher effect is displayed as a second content CT2 added to the first content CT1.
  • FIG. 16 is a flowchart illustrating a process of displaying a display object arranged in a virtual space in a terminal device based on the result of the recognition process.
  • the recognition process of the recognition display object displayed by the display device 10 is performed (step S41). Then, based on the result of the recognition process, the display object arranged in the virtual space set corresponding to the position of the display device 10 is displayed on the display unit 30 of the terminal device 20 (step S42). Then, the display object on the terminal device 20 is changed in conjunction with the first content CT1 on the display device 10 (step S43).
  • a virtual camera VC is set at a position corresponding to the position on the terminal device 20. Then, a virtual space corresponding to this virtual camera VC is set, and a virtual space image in which the display object OB for the effect is arranged in the virtual space is generated as the virtual space image that can be seen from the virtual camera VC in the virtual space. ..
  • a virtual space image generation process is performed by a three-dimensional image drawing process such as a known hidden surface erasing process or a perspective conversion process. Then, a process of displaying the combined image of the image of the first content and the virtual space image which is the image of the second content on the display unit 30 of the terminal device 20 is performed.
  • the virtual camera VC can be set by using the recognition display object MK described with reference to FIGS. 1 to 3.
  • the direction of the recognition display object MK as seen from the terminal device 20 is set to, for example, the line-of-sight direction that is the reference of the virtual camera VC.
  • the direction of the terminal device 20 is detected by using, for example, a motion sensor, and the line-of-sight direction of the virtual camera VC is detected. Display the display object OB for the effect on. By doing so, it seems as if the display object OB exists not only around the display device 10 but also around the user himself / herself, so that the effect of AR and MR can be further improved.
  • the display object OB on the terminal device 20 is changed in conjunction with the first content CT1 on the display device 10.
  • the first content CT1 is content such that the character CH performs DJ performance according to the performance song
  • it is linked to the tempo (rhythm) of the performance song.
  • the position, direction, or display pattern of the display object OB on the terminal device 20 is changed.
  • the position, direction, or display pattern of the display object OB is changed so as to synchronize with the tempo of the performance song.
  • the position, direction, or display pattern of the display object OB is changed according to the degree of excitement of the first content CT1.
  • the display object OB and the like of the first content CT1 and the second content CT2 added to and displayed on the first content CT1 move or change in conjunction (synchronization). It will be possible to further improve the production effect.
  • the display object OB arranged in the virtual space is changed according to the input of the user in the terminal device 20.
  • the display pattern of the display object OB arranged in the virtual space is changed or the type of the display object OB is changed according to the input of the user's response to the input display object DBC of FIGS. 2 and 3.
  • the display pattern of the display object OB is changed to a first display pattern, a second display pattern, a third display pattern, and the like.
  • the second content CT2 in the terminal device 20 changes according to the input of the user, and the interactivity of the entertainment system can be further improved.
  • RGB camera 247 ... Depth camera, 248 ... Environment recognition camera, 249 ... Environment recognition camera, CH, CHE ... Character, CT1 ... First content, CT2 ... Second content, DBA, DBB, DBC, DBY, DBN ... Input display, DBS, DBF ... Display, MA, MB ... song, MK ... recognition display, OB ... display, VC ... virtual camera

Abstract

エンターテインメントシステムは、認識用表示物の認識処理を行う認識処理部と、認識処理の結果に基づいて、表示装置で表示される第1コンテンツに対して端末装置の表示部で表示される第2コンテンツを付加したコンテンツをユーザに視認させる処理を行うコンテンツ処理部と、受け付け部を含む。コンテンツ処理部は、入力用表示物を端末装置の表示部に表示する処理を行い、受け付け部は、入力用表示物に対するユーザの前記応答入力を受け付ける。コンテンツ処理部は、入力用表示物に対するユーザの応答入力に応じて、表示装置での第1コンテンツ又は端末装置での第2コンテンツを変化させる。

Description

エンターテインメントシステム、処理方法及び情報記憶媒体
 本発明は、エンターテインメントシステム、処理方法及び情報記憶媒体等に関する。
 従来より、AR(拡張現実)やMR(複合現実)などを利用したエンターテインメントシステムが知られている。このようなエンターテインメントシステムの従来技術としては特許文献1に開示されるシステムがある。特許文献1のシステムでは、表示装置に表示された演出画像等のコンテンツとマーカーとを、端末装置で撮像すると、表示装置のコンテンツに対して所定の表示物が合成されて端末装置の表示部に表示される。
特開2011-258120号公報
 しかしながら、特許文献1のシステムでは、表示装置のコンテンツに対して、ARの手法を用いて、飛び出して見えるような表示物を重ねて表示しているだけであり、ARによる表示物に対してユーザが入力を行うことについては提案されていなかった。このため、表示装置と端末装置を用いたインタラクティブなエンターテインメントシステムを実現できなかった。
 本開示によれば、表示装置と端末装置を用いたインタラクティブなエンターテインメントシステム、処理方法及び情報記憶媒体等を提供できる。
 本開示の一態様は、表示装置とユーザの端末装置を用いたエンターテインメントシステムであって、前記表示装置が表示する認識用表示物の認識処理を行う認識処理部と、前記認識処理の結果に基づいて、前記表示装置で表示される第1コンテンツに対して前記端末装置の表示部で表示される第2コンテンツを付加したコンテンツを前記ユーザに視認させる処理を行うコンテンツ処理部と、前記ユーザの入力を受け付ける受け付け部と、を含み、前記コンテンツ処理部は、前記ユーザが応答入力を行うための入力用表示物を、前記端末装置の前記表示部に表示する処理を行い、前記受け付け部は、前記入力用表示物に対する前記ユーザの前記応答入力を受け付け、前記コンテンツ処理部は、前記入力用表示物に対する前記ユーザの前記応答入力に応じて、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツを変化させるエンターテインメントシステムに関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
 本開示の一態様によれば、ユーザが応答入力を行うための入力用表示物が表示され、入力用表示物に対するユーザの応答入力に応じて、表示装置での第1コンテンツが変化したり、或いは端末装置での第2コンテンツが変化するようになる。そして、このように入力用表示物に対するユーザの応答入力に応じて第1コンテンツ又は第2コンテンツを変化させながら、第1コンテンツと第2コンテンツによるコンテンツを、ユーザに視認させることが可能になる。従って、入力用表示物に対するユーザの応答入力に応じて、第1コンテンツ又は第2コンテンツがインタラクティブに変化するようになり、表示装置とユーザの端末装置を用いたインタラクティブなエンターテインメントシステム等の実現が可能になる。
 また本開示の一態様では、前記コンテンツ処理部は、前記表示装置での表示状況に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させてもよい。
 このようにすれば、表示装置での表示状況に応じた適切な表示態様で入力用表示物を表示したり、表示装置での表示状況に応じた適切な配置位置に入力用表示物を配置したり、或いは表示装置での表示状況に応じた適切な入力条件での応答入力が可能になる。
 また本開示の一態様では、前記表示装置と前記端末装置の位置関係を検出する位置関係検出部を含み、前記コンテンツ処理部は、前記位置関係に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させてもよい。
 このようにすれば、表示装置と端末装置の位置関係に応じた適切な表示態様で入力用表示物を表示したり、当該位置関係に応じた適切な配置位置に入力用表示物を配置したり、或いは当該位置関係に応じた適切な入力条件での応答入力が可能になる。
 また本開示の一態様では、前記コンテンツ処理部は、前記表示装置の表示物が選択された場合に、選択された前記表示物の情報に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させてもよい。
 このようにすれば、表示装置の表示物が選択された場合に、選択された表示物の情報に応じた適切な表示態様で入力用表示物を表示したり、当該表示物の情報に応じた適切な配置位置に入力用表示物を配置したり、或いは当該表示物の情報に応じた適切な入力条件での応答入力が可能になる。
 また本開示の一態様では、前記コンテンツ処理部は、前記表示装置に表示される前記認識用表示物を変化させる処理を行ってもよい。
 このようにすれば、認識用表示物の認識処理の結果に基づいて種々の処理を実行できるようになるため、第1コンテンツに第2コンテンツを付加した多様なコンテンツをユーザに提供できるようになる。
 また本開示の一態様では、前記コンテンツ処理部は、前記表示装置での表示状況に応じて、前記表示装置に表示される前記認識用表示物を変化させてもよい。
 このようにすれば、表示装置での表示状況に応じた表示態様等で認識用表示物を表示できるようになり、認識用表示物の適切な認識処理等を実現することが可能になる。
 また本開示の一態様では、前記コンテンツ処理部は、前記端末装置での前記ユーザの入力に応じたフィードバックを、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツに対して行ってもよい。
 このようにすれば、端末装置でのユーザの入力を第1コンテンツ又は第2コンテンツに反映させて、第1コンテンツに第2コンテンツが付加されたコンテンツを、ユーザに視認させることが可能になる。
 また本開示の一態様では、前記コンテンツ処理部は、前記ユーザの入力に応じた前記フィードバックを、前記端末装置の前記表示部に表示される前記入力用表示物に対して行ってもよい。
 このようにすれば、端末装置でのユーザの入力に応じて、入力用表示物の表示態様等を変化させることが可能になり、ユーザの入力に応じた多様な表示態様の入力用表示物の表示が可能になる。
 また本開示の一態様では、前記コンテンツ処理部は、前記入力用表示物に対する前記ユーザの前記応答入力が受け付けられたことを示す前記フィードバックを、前記第1コンテンツ又は前記第2コンテンツに対して行ってもよい。
 このようにすれば入力用表示物に対するユーザの応答入力が行われたことを、第1コンテンツ又は第2コンテンツに反映して、ユーザに認識させることが可能になる。
 また本開示の一態様では、複数の前記端末装置における前記応答入力の集計処理を行う集計処理部を含み、前記コンテンツ処理部は、前記応答入力の前記集計処理の結果に基づいて、前記第1コンテンツ又は前記第2コンテンツを変化させてもよい。
 このようにすれば、複数の端末装置での応答入力の集計処理の結果に応じた第1コンテンツ又は第2コンテンツを表示できるようになる。
 また本開示の一態様では、前記コンテンツ処理部は、前記第2コンテンツとして、前記端末装置の位置に対応して設定される仮想空間に配置される表示物を、前記端末装置の前記表示部に表示する処理を行ってもよい。
 このようにすれば、端末装置の位置に対応するように仮想空間を設定し、当該仮想空間に配置される表示物を、第2コンテンツの表示物として、第1コンテンツに付加してユーザに視認させることが可能になる。
 また本開示の一態様では、前記コンテンツ処理部は、前記表示装置での前記第1コンテンツに連動して、前記端末装置での前記表示物を変化させてもよい。
 このようにすれば表示装置での第1コンテンツに連動して、端末装置での第2コンテンツも変化し、これらの連動した第1コンテンツと第2コンテンツによるコンテンツを、ユーザに視認させることが可能になる。
 また本開示の一態様は、表示装置が表示する認識用表示物の認識処理と、前記認識処理の結果に基づいて、前記表示装置で表示される第1コンテンツに対してユーザの端末装置の表示部で表示される第2コンテンツを付加したコンテンツを前記ユーザに視認させるコンテンツ処理と、前記ユーザの入力を受け付ける受け付け処理と、を行い、前記コンテンツ処理において、前記ユーザが応答入力を行うための入力用表示物を、前記端末装置の前記表示部に表示する処理を行い、前記受け付け処理において、前記入力用表示物に対する前記ユーザの前記応答入力を受け付け、前記コンテンツ処理において、前記入力用表示物に対する前記ユーザの前記応答入力に応じて、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツを変化させる処理方法に関係する。
本実施形態のエンターテインメントシステムのシステム構成例。 表示装置の第1コンテンツに対して端末装置の第2コンテンツを付加する手法の詳細な説明図。 表示装置の第1コンテンツに対して端末装置の第2コンテンツを付加する手法の説明図。 端末装置である透過型のHMDの一例を示す図。 本実施形態のエンターテインメントシステムの構成例を示すブロック図。 図6(A)、図6(B)は本実施形態のエンターテインメントシステムのハードウェアの実現構成例を示す図。 本実施形態の処理例を説明するフローチャート。 表示装置の表示状況等に応じて入力用表示物の表示態様等や認識用表示物を変化させる処理を説明するフローチャート。 図9(A)、図9(B)は表示装置と端末装置の位置関係の検出や表示装置での表示物の選択についての説明図。 図10(A)、図10(B)、図10(C)は入力用表示物の表示態様、配置位置、入力条件を変化させる手法の説明図。 端末装置でのユーザの入力に応じたフィードバックを表示装置での第1コンテンツ又は端末装置での第2コンテンツに対して行う処理を説明するフローチャート。 図12(A)、図12(B)はユーザの入力に応じたフィードバックを端末装置での第2コンテンツに対して行う手法の説明図。 ユーザの入力に応じたフィードバックを表示装置での第1コンテンツに対して行う手法の説明図。 ユーザの応答入力に応じたフィードバックを入力用表示物に対して行う処理を説明するフローチャート。 ユーザの応答入力の集計処理の結果に基づいて、表示装置での第1コンテンツ等を変化させる手法の説明図。 認識処理の結果に基づいて、端末装置に設定される仮想空間に配置される表示物を表示する処理を説明するフローチャート。 認識処理の結果に基づいて、端末装置に設定される仮想空間に配置される表示物を表示する手法の説明図。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲の記載内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、必須構成要件であるとは限らない。
 1.エンターテインメントシステム
 図1に本実施形態のエンターテインメントのシステム構成例を示す。本実施形態のエンターテインメントは、表示装置10とユーザの端末装置20を用いて実現される。表示装置10は、例えばメインの表示装置である。具体的には表示装置10は、PC(パーソナルコンピュータ)などの情報処理装置のモニター(ディスプレイ)や、テレビのモニターや、或いはライブやクラブの会場に設置される大型のモニターなどである。端末装置20は、ユーザが所持する携帯型の端末装置や、或いはユーザが頭部等の部位に装着するウェアラブル型の端末装置などである。
 図1に示すように表示装置10には第1コンテンツCT1が表示される。第1コンテンツCT1は例えばユーザが視認できる配信動画、ゲーム映像、環境映像、観光映像又はシミュレーション映像などの視覚コンテンツである。第1コンテンツCT1は音楽、ゲーム音、環境音又は音声などの聴覚コンテンツを含んでもよい。図1では、第1コンテンツCT1として、キャラクタCHがDJのパフォーマンスを行う様子を示す映像(配信動画、ゲーム映像)が表示装置10に表示されている。また表示装置10には、認識用表示物MKも表示されている。認識用表示物MKは、認識処理における認識対象物であり、例えば認識用のマーカーなどにより実現できる。なお認識用表示物MKを、表示装置10に表示される第1コンテンツCT1の画像により実現してもよい。例えば第1コンテンツCT1の背景画像、キャラクタCH等の表示物の画像、又は第1コンテンツCT1の表示パターンなどを用いて、認識用表示物MKを実現してもよい。
 端末装置20の表示部30には第2コンテンツCT2が表示される。例えば図1では、第2コンテンツCT2としてエフェクト用(演出効果用)の表示物OB(オブジェクト)が表示されている。即ち第1コンテンツCT1の映像再生に連動するように位置や方向が変化するエフェクト用の表示物OBが表示される。例えば第1コンテンツCT1に付加(重畳)されるように、第2コンテンツCT2である表示物OBが表示される。即ち本実施形態では、例えば認識用表示物MKの認識処理が行われる。そして認識処理の結果に基づいて、表示装置10で表示される第1コンテンツCT1に対して、端末装置20の表示部30で表示される第2コンテンツを付加したコンテンツをユーザに視認させる処理が行われる。例えば認識処理により認識用表示物MKが認識されると、AR(Augmented Reality)やMR(Mixed Reality)の処理などにより、第1コンテンツCT1の画像に対して表示物OB等の第2コンテンツの画像が合成されて、端末装置20の表示部30に表示される。具体的には、端末装置20は例えば後述の図5の撮像部162(カメラ)を有しており、端末装置20の背面側(表示部30の裏側)に設けられた撮像部162により、表示装置10の第1コンテンツCT1を撮影する。そして撮影された第1コンテンツCT1の画像に、表示物OBの画像を合成した画像が、端末装置20の表示部30で表示される。このようにすれば、第1コンテンツCT1の画像に対して、エフェクト(演出効果)などの第2コンテンツCT2の画像を付加したコンテンツ画像が表示されるようになるため、第1コンテンツCT1に対してARやMRによる演出効果を施すことが可能になり、演出効果の高いエンターテインメントシステムを実現できるようになる。
 なお図1では認識用表示物MKが認識されたときに第1コンテンツCT1に対して表示物OB等の第2コンテンツCT2が付加されるようになっているが、本実施形態はこれに限定されない。例えば端末装置20にジャイロセンサーや加速度センサーなどのモーションセンサーを設ける。そしてこのモーションセンサー等を用いて端末装置20の位置情報や姿勢情報を検出し、検出された位置情報や姿勢情報を用いて、撮像部162が表示装置10の方を向いていない場合にも、第2コンテンツCT2を表示するようにしてもよい。例えば図1において、端末装置20の撮像部162が、表示装置10の方向に向かずに、天井等の方を向いたときにも、エフェクト用の表示物OBを天井等の方向に表示するようにしてもよい。
 図2、図3は、表示装置10の第1コンテンツCT1に対して端末装置20の第2コンテンツCT2を付加する手法の説明図である。例えば図2、図3では、第1コンテンツCT1と第2コンテンツCT2の合成画像(ミックス画像、重畳画像、付加画像)が、端末装置20の表示部30に表示されている。具体的には、第1コンテンツCT1から、エフェクトなどを表す表示物OBが四方に広がるように移動するARやMRの画像が表示される。これにより、あたかも第1コンテンツCT1からエフェクトが発生していような感覚をユーザに与えることができ、コンテンツ画像の演出効果を向上できる。
 そして本実施形態では、このようなエフェクト用の表示物OBの他に、ユーザが応答入力を行うための入力用表示物DBA、DBB、DBCを端末装置20の表示部30に表示する処理を行う。例えば入力用表示物DBA、DBB、DBCを、例えば第2コンテンツCT2として第1コンテンツCT1に付加する処理を行う。そして入力用表示物DBA、DBB、DBCに対するユーザの応答入力を受け付け、当該応答入力に応じて、表示装置10での第1コンテンツCT1又は端末装置20での第2コンテンツCT2を変化させる。
 例えば図2、図3では、表示物DBSにより、DJのキャラクタCHによる次回の演奏曲を決定すること、ユーザに促している。そして入力用表示物DBA、DBBにより、次回の演奏曲の候補が示されており、ユーザは、入力用表示物DBA、DBBのうち、自身が所望する曲に対応する入力用表示物を選択する応答入力(操作)を行う。例えば端末装置20の表示部30がタッチパネル型ディスプレイである場合には、ユーザが入力用表示物DBA、DBBにタッチ操作を行うことで、入力用表示物DBA、DBBを選択する応答入力が行われる。そして、この応答入力に応じて、表示装置10での第1コンテンツCT1が変化する。例えばユーザが入力用表示物DBAを選択した場合には、次回の演奏曲として、入力用表示物DBAに対応する第1曲が選択され、第1曲に対応するDJのパフォーマンスをキャラクタCHが行う第1コンテンツCT1が、表示装置10に表示されるようになる。またユーザが入力用表示物DBBを選択した場合には、次回の演奏曲として、入力用表示物DBBに対応する第2曲が選択され、第2曲に対応するDJのパフォーマンスをキャラクタCHが行う第1コンテンツCT1が、表示装置10に表示されるようになる。なお後述の図15に示すように、複数の端末装置20-1~20-nでのユーザの応答入力の集計処理を行い、集計処理の結果に基づいて、次回の演奏曲を決定して、第1コンテンツCT1を変化させてもよい。即ち、複数の端末装置20-1~20-nのユーザの投票により、次回の演奏曲を決定して、決定された演奏曲に対応するDJのパフォーマンスをキャラクタCHが行う第1コンテンツCT1を、表示装置10に表示する。
 また図2、図3では、第2コンテンツCT2を変化させるための入力用表示物DBCが表示されている。そしてユーザが、タッチ操作などにより、入力用表示物DBCを選択する応答入力(操作)が行うと、第2コンテンツCT2が変化する。例えば第2コンテンツCT2が、ユーザの応答入力に応じた内容のコンテンツに変化する。具体的には図2、図3では、ユーザが入力用表示物DBCを選択する応答入力を行うと、第2コンテンツCT2であるエフェクト用の表示物OBの種類、形状、色又はアニメーションパターンなどの表示態様が変化する。例えばユーザが入力用表示物DBCを選択する応答入力を行うごとに、エフェクト用の表示物OBの表示態様を、第1表示態様、第2表示態様、第3表示態様・・・というように変化させてもよい。これにより、ユーザは、第1コンテンツCT1に付加される第2コンテンツCT2の内容を変化させることが可能になり、演出効果の向上を図れる。
 なお入力用表示物DBA、DBB、DBCは、3次元座標を有する3次元表示物であってもよいし、2次元表示物であってもよい。また例えばエフェクト用の表示物OBを、入力用表示物として兼用するようにしてもよい。例えば次の演奏曲として第1曲を選択する場合には、ユーザは、第1色(例えば赤)に設定された1又は複数の表示物OBを選択する応答入力を行う。一方、次の演奏曲として第2曲を選択する場合には、ユーザは、第2色(例えば白)に設定された1又は複数の表示物OBを選択する応答入力を行う。
 以上のように本実施形態では、ユーザが応答入力を行うための入力用表示物DBA、DBBを表示し、入力用表示物DBA、DBBに対するユーザの応答入力に応じて、表示装置10で表示される第1コンテンツCT1を変化させる。例えば第1コンテンツCT1を、ユーザの応答入力に応じた内容のコンテンツに変化させる。或いは、ユーザが応答入力を行うための入力用表示物DBCを表示し、入力用表示物DBCに対するユーザの応答入力に応じて、端末装置20により表示される第2コンテンツCT2を変化させる。例えば第2コンテンツCT2を、ユーザの応答入力に応じた内容のコンテンツに変化させる。このようにすれば、例えばARやMRの表示物として入力用表示物を表示し、入力用表示物に対するユーザの応答入力に応じて、表示装置10での第1コンテンツCT1を変化させたり、端末装置20での第2コンテンツCT2を変化させることが可能になる。そして、このように入力用表示物に対するユーザの応答入力に応じて変化する第1コンテンツCT1と第2コンテンツCT2がミックスされたコンテンツを、ユーザに表示できるようになる。例えば従来のARやMRの表示物は、演出効果の向上のためにだけ表示されるものであり、ユーザのインタラクティブ性を向上するものではなかった。これに対して本実施形態では、第1コンテンツCT1に付加してユーザに表示される第2コンテンツCT2として、ユーザが応答入力を行うための入力用表示物を表示している。そして、この入力用表示物に対するユーザの応答入力に応じて、第1コンテンツCT1や第2コンテンツCT2がインタラクティブに変化し、エンターテインメントシステムにおけるインタラクティブ性を向上できる。従って、表示装置10とユーザの端末装置20を用いたインタラクティブなエンターテインメントシステムの実現が可能になる。
 例えば本実施形態の表示装置10は、ライブ会場の大型のモニター(スクリーン)や、動画配信が行われるPCやテレビのモニターである。そしてユーザが、端末装置20であるスマートフォンなどのカメラ(撮像部)を介してモニターを覗くと、モニターの画面に表示されるコード(QRコード(登録商標)等)や絵や模様を認識用表示物(マーカー)として、画面内空間から画面外に延長した3次元の仮想空間を設定する。そして、この画面外の仮想空間に対して、モニターの画面内のコンテンツと連動したエフェクトを投影して表示する。またモニターの画面内のコンテンツに連動した情報である曲の盛り上がり情報やテンポ情報などを、ネットワーク経由で端末装置20のアプリに送ることで、画面内パフォーマンスと連動したエフェクトを表示できるようになる。例えばリズムに同期してパーティクルのサイズが変化するようなエフェクトを表示できる。従って、単なるエッジ側の表示アプリではなく、ネットワークにより情報連携することで、コンテンツに合った演出が可能となる。また、端末装置20であるスマートフォンから覗いたスクリーンに、入力用表示物となるボタンを設置し、画面内のパフォーマンスに対して、情報を送ることが可能になる。例えば。DJのキャラクタが次にプレイする曲の投票ボタンなどを設置できる。そして、例えばインターネット接続で情報を双方向に送り合うことで、配信コンテンツだけでなく、ライブ会場の演出により、演者とオーディエンスとの間のインタラクションも可能になる。
 なお、以上では、端末装置20が図1に示すようなユーザの携帯型の端末装置である場合を例にとり説明したが、本実施形態の端末装置20はこれに限定されない。例えば端末装置20は、ユーザが頭部等の部位に装着するウェアラブル型の端末装置であってもよい。例えば図4は、ウェアラブル型の端末装置の1つである透過型のHMD200(頭部装着型表示装置)の例である。具体的には図4のHMD200は光学透過型のHMDの例である。
 図4のHMD200はテンプル部240とゴーグル部242を有する。テンプル部240にはスピーカが内蔵されている。ゴーグル部242には表示装置243とホログラフィック光学素子244が設けられている。例えばこれらの表示装置243、ホログラフィック光学素子244等により、端末装置20の表示部30を実現できる。表示装置243には、マイクロディスプレイ、ミラー、プリズム等により構成される表示ユニットが設けられている。表示装置243には左眼用の表示ユニットと右眼用の表示ユニットが設けられており、これにより立体視が実現される。また左眼用、右眼用の各表示ユニットに一対のマイクロディスプレイを設けることで虚像の位置を可変にできる。
 表示装置243からの表示光は、ホログラフィック光学素子244の導光板内部を屈折しながら、ユーザの眼前に導光される。そしてホログラフィック光学素子244により表示光を眼球方向に屈折させて、眼球に表示光を送る。これにより眼前に虚像(ホログラムの再生像)があるように見えるようになる。ホログラフィック光学素子244の導光板はコンバイナーとも呼ばれ、ハーフミラーであるコンバイナーにより、外界の実像と虚像が重なって見えるようになり、ARやMRが実現される。
 またゴーグル部242には、RGBカメラ246、デプスカメラ247、環境認識カメラ248、249が設けられている。RGBカメラ246を用いることでユーザの正面方向の撮影が可能になる。デプスカメラ247を用いることで正面方向での奥行き情報を取得できる。なおゴーグル部242にはデプスカメラ用のエミッター(不図示)が設けられている。環境認識カメラ248、249を用いることでユーザの周囲の環境認識が可能になる。またゴーグル部242には、加速度センサーやジャイロセンサーなどにより構成されるモーションセンサーである慣性計測ユニット(IMU)が内蔵されている。ユーザの頭の位置や向く方向は、ゴーグル部242に設けられたカメラによる撮像画像と慣性計測ユニットからの測定情報などに基づいて検出され、これによりヘッドトラッキングが実現される。そしてユーザの位置情報や方向情報の取得も可能になる。またRGBカメラ246やデプスカメラ247などを用いた処理により、ユーザの周囲に居る他のユーザの位置情報(相対的な位置情報)、方向情報(相対的な方向情報)、或いは姿勢情報を取得できる。例えばキネクト(登録商標)と呼ばれる処理によりこれらの情報を取得する。例えば姿勢情報を取得することで、他のユーザがどのようなアクションを行ったかを検出できるようになる。
 図4のHMD200によれば、例えば表示装置243、ホログラフィック光学素子244等により実現される表示部30により、第2コンテンツCT2をユーザに表示できる。即ち第2コンテンツCT2を虚像としてユーザに表示できる。また表示装置10に表示される第1コンテンツCT1については、ホログラフィック光学素子244によるコンバイナーにより、外界の実像としてユーザに視認させることができる。これにより、表示装置10で表示される第1コンテンツに対して第2コンテンツを付加したコンテンツをユーザに視認させる処理を実現できるようになる。なおウェアラブル型の端末装置20は、図4に示すような光学透過型のHMD200には限定されず、例えばビデオ透過型のHMD200などであってもよい。例えばHMD200に設けられた撮像部162により表示装置10の第1コンテンツCT1を撮影する。そして撮影画像に対して第2コンテンツCT2の画像を合成することで、第1コンテンツに対して第2コンテンツを付加したコンテンツをユーザに視認させる処理を実現することができる。
 またHMD200を用いる場合に、入力用表示物に対するユーザの応答入力は、例えば不図示のコントローラをユーザが操作することで実現してもよいし、アイトラッキングなどによりユーザの視線が入力用表示物の方を向いていることを検出することで実現してもよい。或いはHMD200に設けられるモーションセンサーによりユーザの頭の動き等を検出することで、入力用表示物に対する応答入力を検出してもよい。
 図5は、本実施形態のエンターテインメントシステム(コンテンツ提供システム、処理システム、ゲームシステム)の構成例を示すブロック図である。なお、本実施形態のアミューズメントシステムは図5の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 操作部160は、ユーザ(プレーヤ)が種々の入力(操作)を行うためのものである。操作部160は、例えば操作ボタン、方向指示キー、キーボード、ジョイスティック、レバー又はタッチパネル型ディスプレイ等により実現できる。例えばタッチパネル型ディスプレイの場合には、表示部30が操作部160としても機能するようになる。
 撮像部162(カメラ)は、被写体(撮像対象物)の撮影を行うものである。撮像部162は、例えばCCDやCMOSセンサーなどの画像センサーや、フォーカスレンズ等により構成される光学系などにより実現できる。
 記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。プログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(hard disk drive)、SSD(Solid State Drive)、又は光ディスク装置などにより実現できる。記憶部170は、例えば第1コンテンツや第2コンテンツなどのコンテンツの情報を記憶する。コンテンツの情報は、コンテンツを構成する画像や音の情報などである。コンテンツの画像情報は、例えばコンテンツを構成する表示物の情報などであり、表示物であるオブジェクトの情報などである。
 情報記憶媒体180は、コンピュータにより読み取り可能な媒体であり、プログラムやデータなどを格納するものである。情報記憶媒体180は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
 表示部30は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、タッチパネル型ディスプレイ、或いはHMD(Head Mounted Display)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ又はヘッドホン等により実現できる。
 通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
 なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(或いは記憶部170)に配信してもよい。このようなサーバによる情報記憶媒体の使用も本実施形態の範囲内に含めることができる。
 処理部100(プロセッサ)は、記憶部170に記憶されるプログラム、データや、操作部160からの入力情報などに基づいて、受け付け処理、認識処理、検出処理、集計処理、或いはコンテンツ処理などを行う。
 処理部100の各部が行う本実施形態の各処理はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
 処理部100は、受け付け部102、認識処理部104、位置関係検出部106、集計処理部108、コンテンツ処理部110を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 受け付け部102は、ユーザの入力の受け付け処理を行う。例えば操作部160などを用いてユーザが応答入力などの入力を行うと、受け付け部102は、当該ユーザの入力を受け付ける。例えば受け付け部102は、操作部160を用いたユーザの入力を監視し、ユーザが操作部160を用いた入力を行うと、その入力情報を取得する。
 認識処理部104は、認識用表示物の認識処理を行う。例えば図1~図3で説明したように認識処理部104は、表示装置10が表示する認識用表示物の認識処理を行う。認識処理は、認識用表示物の画像を解析して認識する画像認識処理である。認識用表示物は、認識処理の対象物であり、例えばARマーカーなどのマーカーにより実現できる。マーカーは例えばQRコード(登録商標)のマーカーであってもよい。また認識用表示物はARマーカーなどのマーカーには限定されず、マーカーレス型ARのように、特徴点や輪郭形状のマッチング処理により認識される表示物(対象物)であってもよい。即ち、認識用表示物は、正方形マーカーや特殊形状マーカーのようなARマーカーには限定されず、自然特徴点マッチングや輪郭形状マッチングの処理により認識される表示物であってもよい。そして認識用表示物は、例えば第1コンテンツに第2コンテンツを付加してユーザに視認させる処理を実行させるトリガーとなる情報等として使用できる。また認識用表示物は、第2コンテンツとして表示される入力用表示物等の表示物を指定する情報であってもよい。
 位置関係検出部106は、表示装置10と端末装置20の位置関係を検出する。例えば位置関係検出部106は、表示装置10に対する端末装置20の相対的な位置関係を検出する。ここで位置関係は、表示装置10の位置と端末装置20の位置の関係であってもよいし、表示装置10の方向(向く方向)と端末装置20の方向(向く方向)の関係であってもよい。例えば位置関係は、表示装置10に対する端末装置20の相対的な方向関係であってもよい。位置関係検出部106は、例えば認識用表示物を用いて表示装置10と端末装置20の位置関係を検出する。例えば表示装置10を撮影した撮影画像(表示部30の表示画面)での認識用表示物の位置、サイズ又は方向などを検出することで、表示装置10と端末装置20の位置関係を検出できる。例えば認識用表示物が所定の配置予定位置に表示されているかを検出することで、表示装置10に対して端末装置20が適切に正対して配置される位置関係にあるかを検出できる。また認識用表示物のサイズに基づいて、表示装置10と端末装置20の距離についての位置関係を検出できる。また認識用表示物の方向に基づいて、表示装置10と端末装置20の方向関係を位置関係として検出できる。また例えば表示装置10と端末装置20の初期の位置関係からの変化を、端末装置20のモーションセンサー等により検出することで、各タイミングでの表示装置10と端末装置20の位置関係を検出できる。
 集計処理部108は各種の集計処理を行う。例えば集計処理部108は、複数の端末装置における応答入力の集計処理を行う。例えば集計処理部108は、複数の端末装置においてどのような応答入力が行われたのかを集計する処理を行う。例えば複数の端末装置において、第1応答入力を行ったユーザの人数と第2応答入力を行ったユーザの人数を集計する処理を行う。集計処理は、各応答入力を行ったユーザの人数や端末装置の個数をカウントする集計処理であってもよいし、種々の統計処理による集計処理であってもよい。
 コンテンツ処理部110は、種々のコンテンツ処理を行う。コンテンツ処理は、例えば、第1コンテンツや第2コンテンツなどのコンテンツの画像の表示処理や、コンテンツの音の出力処理などのコンテンツに関する種々の処理である。コンテンツの画像の表示処理は、コンテンツの画像を生成して表示する処理には限定されず、コンテンツの画像の表示を指示したり、表示されるコンテンツの画像の内容を指示する処理であってもよい。コンテンツ処理部110は、例えば表示装置10での第1コンテンツの表示処理を行う第1表示処理部と、端末装置20の表示部30での第2コンテンツの表示処理を行う第2表示処理部を含むことができる。
 そして表示装置10とユーザの端末装置20を用いた本実施形態のエンターテインメントシステムは、図5に示すように受け付け部102と認識処理部104とコンテンツ処理部110を含む。認識処理部104は、表示装置10が表示する認識用表示物の認識処理を行う。例えば認識用表示物の画像認識処理などを行う。コンテンツ処理部110は、認識処理の結果に基づくコンテンツ処理を行う。例えばコンテンツ処理部110は、認識処理の結果に基づいて、表示装置10で表示される第1コンテンツに対して端末装置20の表示部30で表示される第2コンテンツを付加したコンテンツをユーザに視認させる処理を行う。例えばコンテンツ処理部110は、第1コンテンツに対して第2コンテンツを合成(ミックス)する処理を行う。例えば第1コンテンツの画像と第2コンテンツの画像が合成されたコンテンツ画像をユーザに表示するための処理を行う。また受け付け部102は、ユーザの入力を受け付ける処理を行う。例えば操作部160を用いたユーザの入力を受け付ける処理を行う。
 そしてコンテンツ処理部110は、図2、図3等で説明したように、ユーザが応答入力を行うための入力用表示物を、端末装置20の表示部30に表示する処理を行う。例えば端末装置20の表示部30の表示画面の所与の位置に、入力用表示物を表示する処理を行う。そして受け付け部102は、入力用表示物に対するユーザの応答入力を受け付ける処理を行う。例えば入力用表示物が表示部30に表示され、当該入力用表示物を選択するなどの応答入力をユーザが行うと、受け付け部102は、当該ユーザの応答入力を受け付ける。そしてコンテンツ処理部110は、入力用表示物に対するユーザの応答入力に応じて、表示装置10での第1コンテンツ又は端末装置20での第2コンテンツを変化させる。例えばコンテンツ処理部110は、第1コンテンツの表示内容又は表示態様等を変化させたり、或いは第2コンテンツの表示内容又は表示態様等を変化させる処理を行う。例えばコンテンツ処理部110は、ユーザの応答入力に応じた表示内容又は表示態様等で第1コンテンツ又は第2コンテンツを表示する処理を行う。例えばコンテンツ処理部110は、ユーザの応答入力が第1応答入力であるか第2応答入力であるかに応じて、第1コンテンツ又は第2コンテンツの表示内容又は表示態様等を変化させる処理を行う。なお入力用表示物に対するユーザの応答入力に応じて、第1コンテンツ及び第2コンテンツの両方を変化させてもよい。
 またコンテンツ処理部110は、表示装置10での表示状況に応じて、入力用表示物の表示態様、入力用表示物の配置位置、及び入力用表示物に対する応答入力の入力条件の少なくとも1つを変化させる処理を行う。例えばコンテンツ処理部110は、表示装置10が第1表示状況である場合には、入力用表示物を第1表示態様で表示したり、入力用表示物を第1配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第1入力条件に設定する。また表示装置10が第2表示状況である場合には、入力用表示物を第2表示態様で表示したり、入力用表示物を第2配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第2入力条件に設定する。
 表示装置10の表示状況は、表示装置10の表示物の状況(表示物の種類、配置位置、表示態様)、背景画像の状況、表示画面の状況(画面の明るさ、色合い)、表示場面の状況、マーカー等の認識用表示物の状況、表示時間の状況、又は表示タイミングの状況などである。入力用表示物の表示態様は、入力用表示物の色、形状、大きさ、明るさ、透明度(不透明度)、テクスチャ、又は表示時間などである。入力用表示物の配置位置は、表示部30の表示画面での入力用表示物の位置又は方向などである。入力用表示物に対する応答入力の入力条件は、応答入力についての入力時間、入力方法、入力タイミング、或いはタッチパネル型ディスプレイでの押圧力やタッチ範囲などについての条件(設定)である。
 またエンターテインメントシステムは、表示装置10と端末装置20の位置関係(方向関係を含む)を検出する位置関係検出部106を含む。そしてコンテンツ処理部110は、検出された位置関係に応じて、入力用表示物の表示態様、入力用表示物の配置位置、及び入力用表示物に対する応答入力の入力条件の少なくとも1つを変化させる処理を行う。例えばコンテンツ処理部110は、表示装置10と端末装置20が第1位置関係である場合には、入力用表示物を第1表示態様で表示したり、入力用表示物を第1配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第1入力条件に設定する。また表示装置10と端末装置20が第2位置関係である場合には、入力用表示物を第2表示態様で表示したり、入力用表示物を第2配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第2入力条件に設定する。
 またコンテンツ処理部110は、表示装置10の表示物が選択された場合に、選択された表示物の情報に応じて、入力用表示物の表示態様、入力用表示物の配置位置、及び入力用表示物に対する応答入力の入力条件の少なくとも1つを変化させる処理を行う。表示物の情報は、表示物の種類、形状、色、大きさ、明るさ、透明度(不透明度)、テクスチャ又は表示時間などの情報である。例えばユーザによる入力や、ユーザの注視位置などにより、表示装置10のキャラクタ等の表示物(オブジェクト)が選択されたとする。この場合には、コンテンツ処理部110は、選択された表示物の情報に応じて、入力用表示物の表示態様、配置位置、又は応答入力の入力条件を変化させる。例えばコンテンツ処理部110は、選択された表示物が、第1種類、第1形状、第1色、第1サイズ、第1明度、第1透明度又は第1テクスチャの表示物である場合には、入力用表示物を第1表示態様で表示したり、入力用表示物を第1配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第1入力条件に設定する。またコンテンツ処理部110は、選択された表示物が、第2種類、第2形状、第2色、第2サイズ、第2明度、第2透明度又は第2テクスチャの表示物である場合には、入力用表示物を第2表示態様で表示したり、入力用表示物を第2配置位置に配置したり、或いは入力用表示物に対する応答入力の入力条件を第2入力条件に設定する。
 またコンテンツ処理部110は、表示装置10に表示される認識用表示物を変化させる処理を行う。例えば第1コンテンツが表示される表示装置10において1つの認識用表示物だけを表示するのではなく、認識用表示物を随時に更新して変化させる。例えばコンテンツ処理部110は、経過時間に応じて認識用表示物を変化させたり、イベントの発生タイミングやコンテンツの進行タイミングなどの所与のタイミングにおいて認識用表示物を変化させたり、或いは所与の更新条件が満たされた場合に認識用表示物を更新して変化させる。
 またコンテンツ処理部110は、表示装置10での表示状況に応じて、表示装置10に表示される認識用表示物を変化させる。表示装置10の表示状況は、表示装置10の表示物の状況、背景画像の状況、表示画面の状況、表示場面の状況、表示時間の状況、又は表示タイミングの状況などである。例えばコンテンツ処理部110は、表示装置10が第1表示状況である場合には、第1種類、第1形状、第1色、第1サイズ、第1明度、第1透明度、又は第1テクスチャの認識用表示物を表示装置10に表示する。またコンテンツ処理部110は、表示装置10が第2表示状況である場合には、第2種類、第2形状、第2色、第2サイズ、第2明度、第2透明度、又は第2テクスチャの認識用表示物を表示装置10に表示する。
 またコンテンツ処理部110は、端末装置20でのユーザの入力に応じたフィードバックを、表示装置10での第1コンテンツ又は端末装置20での第2コンテンツに対して行う。端末装置20でのユーザの入力は、入力用表示物に対応するユーザの応答入力であってもよいし、当該応答入力以外の入力であってもよい。ユーザの入力に応じた第1コンテンツへのフィードバックは、第1コンテンツの表示物に対するフィードバックや、第1コンテンツの表示内容又は表示態様に対するフィードバックなどである。第1コンテンツの表示物に対するフィードバックは、第1コンテンツの表示物の色、形状、大きさ、明るさ、透明度、テクスチャ、表示時間、又は種類などを変化させるフィードバックである。第1コンテンツの表示内容又は表示態様に対するフィードバックは、第1コンテンツの表示内容又は表示態様を変化させるフィードバックである。同様に、ユーザの入力に応じた第2コンテンツへのフィードバックは、第2コンテンツの表示物に対するフィードバックや、第2コンテンツの表示内容又は表示態様に対するフィードバックなどである。第2コンテンツの表示物に対するフィードバックは、第2コンテンツの表示物の色、形状、大きさ、明るさ、透明度、テクスチャ、表示時間、又は種類などを変化させるフィードバックである。第2コンテンツの表示内容又は表示態様に対するフィードバックは、第2コンテンツの表示内容又は表示態様を変化させるフィードバックである。
 例えばコンテンツ処理部110は、ユーザの入力に応じたフィードバックを、端末装置20の表示部30に表示される入力用表示物に対して行う。例えばユーザの入力に応じて、入力用表示物の色、形状、大きさ、明るさ、透明度、テクスチャ、表示時間、又は種類などを変化させるフィードバックを行う。例えばユーザが第1入力を行った場合には、コンテンツ処理部110は、入力用表示物を第1色、第1形状、第1サイズ、第1明度、第1透明度、第1テクスチャ、第1表示時間、又は第1種類に設定するフィードバックを行う。またユーザが第2入力を行った場合には、コンテンツ処理部110は、入力用表示物を第2色、第2形状、第2サイズ、第2明度、第2透明度、第2テクスチャ、第2表示時間、又は第2種類に設定するフィードバックを行う。
 またコンテンツ処理部110は、入力用表示物に対するユーザの応答入力が受け付けられたことを示すフィードバックを、第1コンテンツ又は第2コンテンツに対して行う。例えば応答入力が適切に受け付けられたことをユーザに知らせるためのフィードバックを、第1コンテンツ又は第2コンテンツに対して行う。例えば入力用表示物に対するユーザの応答入力が受け付けられたことを、表示装置10に表示される第1コンテンツにより、ユーザに報知したり、ユーザに視覚的に認識させる。例えば複数のユーザの応答入力による投票結果を、表示装置10の第1コンテンツによりユーザに表示してもよい。或いは、入力用表示物に対するユーザの応答入力が受け付けられたことを、端末装置20に表示される第2コンテンツにより、ユーザに報知したり、ユーザに視覚的に認識させる。例えばユーザの応答入力が受け付けられた場合に、第2コンテンツにおける入力用表示物などの表示物の色、形状、大きさ、明るさ、透明度、テクスチャ、又は表示時間を制御して、ユーザの応答入力が受け付けられたことをユーザに知らせる。
 またエンターテインメントシステムは、複数の端末装置における応答入力の集計処理を行う集計処理部108を含む。そしてコンテンツ処理部110は、応答入力の集計処理の結果に基づいて、第1コンテンツ又は第2コンテンツを変化させる。例えばコンテンツ処理部110は、応答入力の集計処理の結果に応じた表示内容又は表示態様の第1コンテンツを、表示装置10に表示したり、応答入力の集計処理の結果に応じた表示内容又は表示態様の第2コンテンツを、端末装置20の表示部30に表示する処理を行う。例えばコンテンツ処理部110は、集計処理の結果を知らせる表示物を、表示装置10の第1コンテンツとして表示したり、端末装置20の第2コンテンツとして表示する処理を行う。
 またコンテンツ処理部110は、第2コンテンツとして、端末装置20の位置に対応して設定される仮想空間に配置される表示物を、端末装置20の表示部30に表示する処理を行う。例えばコンテンツ処理部110は、端末装置20の位置に対応するように仮想空間を設定する。例えば端末装置20の位置に、仮想空間における仮想カメラ(視点)を設定する。これにより、仮想カメラの位置の窓から表示装置10を覗いているような仮想空間画像を生成できる。そしてコンテンツ処理部110は、このように設定された仮想空間に配置される表示物を、端末装置20の表示部30に表示する処理を行う。例えばコンテンツ処理部110は、端末装置20の位置に設定された仮想カメラから見える仮想空間画像として、当該表示物が仮想空間に配置される仮想空間画像の生成処理を行う。そしてコンテンツ処理部110は、第1コンテンツの画像と、第2コンテンツの画像である仮想空間画像とが合成(ミックス)された画像を、端末装置20の表示部30に表示する処理を行う。
 またコンテンツ処理部110は、表示装置10での第1コンテンツに連動して、端末装置20での表示物を変化させる処理を行う。例えば表示装置10での第1コンテンツの画像又は音が変化すると、それに連動して、端末装置20の表示部30に表示される表示物の表示内容又は表示態様を変化させる処理を行う。例えば第1コンテンツの提示処理に使用されるパラメータ(テンポ、盛り上がりなどを表すパラメータ)を用いて、端末装置20での表示物の表示制御を行うことなどで、第1コンテンツに連動して端末装置20での表示物を変化させる処理を実現できる。
 図6(A)、図6(B)に、本実施形態のエンターテインメントシステムのハードウェアの実現構成例を示す。図6(A)では、端末装置20、サーバ50、情報処理装置40が、インターネット等により実現されるネットワーク60を介して通信接続されている。そして図6(A)では、本実施形態のエンターテインメントシステムは、端末装置20の処理により実現したり、端末装置20と、情報処理装置40やサーバ50の分散処理により実現できる。情報処理装置40は、例えばデスクトップ型のPCやノート型のPCなどである。サーバ50は、エンターテインメントシステムの運営者が運営するサーバであり、例えばエンターテインメントシステムの各種の管理処理や、前述した応答入力の集計処理などを行う。また表示装置10での第1コンテンツの表示処理は、例えば表示装置10に接続される情報処理装置40により実現でき、第2コンテンツの表示処理は端末装置20により実現できる。例えば図6(A)の構成では、表示装置10に表示される認識用表示物が、端末装置20の認識処理により認識されると、認識用表示物に対応するプログラムが、サーバ50により端末装置20に提供される。そして端末装置20は、当該プログラムに基づいて動作して、第2コンテンツの生成処理や、第1コンテンツに第2コンテンツを付加して表示する処理を実行する。一方、図6(B)では、ゲーム装置70が表示装置10への第1コンテンツの表示処理を行うと共に、ゲーム装置70は端末装置20に無線又は有線で通信接続される。ゲーム装置70は、例えば家庭用や業務用の据え置き型のゲーム装置である。端末装置20は、例えば携帯型のゲーム装置や、スマートフォン等の携帯型の通信端末装置である。そして第2コンテンツの生成処理や、第1コンテンツに第2コンテンツを付加して表示する処理は、例えば端末装置20の処理により実現したり、端末装置20とゲーム装置70の分散処理により実現できる。
 2.本実施形態の処理
 次に本実施形態の種々の処理について詳細に説明する。
 2.1 入力用表示物に対する応答入力に応じた処理
 図7は本実施形態のエンターテインメントシステムの処理例を説明するフローチャートである。まず表示装置10が表示する認識用表示物の認識処理が行われる(ステップS1)。例えば図1に示すように表示装置10が認識用表示物MKを表示し、端末装置20が、撮像部162により認識用表示物MKを撮影し、撮影画像に映る認識用表示物MKの画像の認識処理を行う。そして認識処理の結果に基づいて、表示装置10が表示する第1コンテンツに対して端末装置20が表示する第2コンテンツを付加したコンテンツをユーザに視認させる処理が実行される(ステップS2)。例えば図2、図3に示すように、端末装置20が、例えば撮像部162の撮影画像に映る第1コンテンツCT1の画像に対して、エフェクト用の表示物OBや入力用表示物DBA、DBB、DBCなどの第2コンテンツCT2の画像を合成(ミックス、重畳)する処理を行う。そして第1コンテンツCT1の画像に対して第2コンテンツCT2の画像が付加されたコンテンツの画像を表示部30に表示する処理を行う。
 次に端末装置20の表示部30に表示される入力用表示物に対して、ユーザが応答入力を行ったか否かが判断され、応答入力を行った場合には当該応答入力が受け付けられる(ステップS3、S4)。例えば端末装置20が、図2、図3に示す入力用表示物DBA、DBB、DBCを選択する応答入力をユーザが行った否かを判断し、応答入力が行われた場合にはその応答入力を受け付ける。そして入力用表示物に対するユーザの応答入力に応じて、表示装置10での第1コンテンツ又は端末装置20での第2コンテンツを変化させる処理が行われる(ステップS5)。例えばユーザが図2、図3の入力用表示物DBA、DBBに対する応答入力を行うと、表示装置10に表示される第1コンテンツCT1が変化する。具体的にはユーザが入力用表示物DBA、DBBのいずれかを選択することで、DJのキャラクタCHによる次回の演奏曲が決定される。例えばユーザが入力用表示物DBAを選択した場合には、入力用表示物DBAに対応する曲のDJのパフォーマンスをキャラクタCHが行う第1コンテンツCT1が、表示装置10に表示されるようになる。またユーザが入力用表示物DBBを選択した場合には、入力用表示物DBBに対応する曲のDJのパフォーマンスをキャラクタCHが行う第1コンテンツCT1が、表示装置10に表示されるようになる。またユーザが図2、図3の入力用表示物DBCに対する応答入力を行うと、端末装置20が表示する第2コンテンツCT2が変化する。例えばユーザが入力用表示物DBCを選択する応答入力を行うと、第2コンテンツCT2であるエフェクト用の表示物OBの種類、形状、色又はアニメーションパターンなどの表示態様が変化する。
 以上のように本実施形態によれば、ARやMRの表示物として入力用表示物が表示され、入力用表示物に対するユーザの応答入力に応じて、表示装置10での第1コンテンツCT1が変化したり、端末装置20での第2コンテンツCT2が変化するようになる。そして、このように入力用表示物に対するユーザの応答入力に応じて第1コンテンツCT1又は第2コンテンツCT2(CT1及びCT2の少なくとも一方)を変化させながら、第1コンテンツCT1と第2コンテンツCT2がミックされたコンテンツを、ユーザに視認させることが可能になる。従って、入力用表示物に対するユーザの応答入力に応じて、第1コンテンツCT1又は第2コンテンツCT2がインタラクティブに変化するようになり、表示装置10とユーザの端末装置20を用いたインタラクティブなエンターテインメントシステムの実現が可能になる。
 2.2 表示状況、位置関係、表示物の情報に応じた処理
 本実施形態では、表示装置10での表示状況、表示装置10と端末装置20の位置関係、又は表示装置10において選択された表示物の情報に応じて、入力用表示物の表示態様、入力用表示物の配置位置、又は入力用表示物に対する応答入力の入力条件を変化させる。また本実施形態では、表示装置10に表示される認識用表示物を変化させる処理を行う。例えば表示装置10での表示状況に応じて、認識用表示物を変化させる。図8は、このように表示装置10の表示状況等に応じて入力用表示物の表示態様等や認識用表示物を変化させる処理を説明するフローチャートである。
 まず本実施形態のエンターテインメントシステムは、表示装置10での表示状況を取得する(ステップS11)。例えば表示装置10の表示物の状況、背景画像の状況、表示画面の状況、表示場面の状況、認識用表示物の状況、表示時間の状況、又は表示タイミングの状況などを取得する。また表示装置10と端末装置20の位置関係を検出する(ステップS12)。例えば図9(A)に示すように、表示装置10に対する端末装置20の相対的な位置関係を取得する。この位置関係は表示装置10の方向に対する端末装置20の相対的な方向関係を含むことができる。例えば図1において端末装置20の表示部30(撮影画像)に映る認識用表示物MKの位置、サイズ又は方向(パースペクティブ)などを検出することで、表示装置10と端末装置20の位置関係を検出できる。或いは端末装置20に設けられるモーションセンサーにより位置関係を検出したり、表示装置10に設けられる撮像センサーなどのセンサーデバイスを用いて位置関係を検出したり、或いは端末装置20、表示装置10と別体に設けられた計測装置を用いて位置関係を検出してもよい。また表示装置10において選択された表示物の情報を取得する(ステップS13)。例えば図10(B)では、表示装置10において、表示物であるキャラクタCHEが選択されている。例えばユーザがキャラクタCHEを選択する入力操作を行ったり、ユーザがキャラクタCHEを注視するようにキャラクタCHに視線を向けた場合に、この入力操作やユーザの視線の方向を検出することで、キャラクタCHEが選択されたことを検出できる。そしてキャラクタCHEの情報である表示物の情報として、表示物の種類、形状、色、大きさ、明るさ、透明度、テクスチャ、又は表示時間などの情報を取得する。
 次に、表示状況、位置関係又は選択された表示物の情報に応じて、入力用表示物の表示態様、配置位置、又は応答入力の入力条件を変化させる(ステップS14)。即ちステップS11で取得された表示装置10の表示状況、ステップS12で検出された表示装置10と端末装置20の位置関係、或いはステップS13で取得された表示物の情報に応じて、入力用表示物の表示態様、配置位置、又は応答入力の入力条件を変化させる。具体的には、入力用表示物の色、形状、大きさ、明るさ、透明度、テクスチャ又は表示時間などの表示態様を変化させる。或いは、入力用表示物の配置位置として、表示部30の表示画面での入力用表示物の位置又は方向などを変化させる。或いは、入力用表示物に対する応答入力についての入力時間、入力方法、入力タイミング、又はタッチパネル型ディスプレイでの押圧力やタッチ範囲などの入力条件を変化させる。また表示装置10での表示状況に応じて、表示装置10に表示される認識用表示物を変化させる(ステップS15)。
 例えば図10(A)では、ユーザが「YES」、「NO」を選択するための入力用表示物DBY、DBNが表示されている。そして図10(A)では、表示装置10の表示状況、表示装置10と端末装置20の位置関係、又は選択された表示物の情報に応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ、透明度、テクスチャ又は表示時間等の表示態様を変化させる。
 例えば表示装置10の表示物の状況、背景画像の状況、又は画面の明るさや色合いなどの表示画面の状況などの表示状況に応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などの表示態様を変化させる。例えば表示装置10のキャラクタ等の表示物の色、形状、大きさ又は種類に応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。例えば当該表示物の色、形状、大きさ又は種類等に対して、例えば入力用表示物DBY、DBNがユーザに認識しやすくなるように、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。また表示装置10での背景画像の状況や、表示画面の明るさや色合いなどの表示画面の状況に応じて、例えば入力用表示物DBY、DBNがユーザに認識しやすくなるように、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。同様に、表示装置10と端末装置20の位置関係に応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。例えば表示装置10と端末装置20の距離が離れた位置関係にある場合には、入力用表示物DBY、DBNの色や形状を目立つ色や形状にしたり、入力用表示物DBY、DBNのサイズを大きくしたり、明るくしたり、より不透明にすることで、ユーザが入力用表示物DBY、DBNを認識しやすくなるようにする。また、図9(B)のようにユーザにより選択されたキャラクタCHE等の表示物の情報に応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。例えば、ユーザにより選択された表示物の色、形状、大きさ又は透明度などに応じて、入力用表示物DBY、DBNの色、形状、大きさ、明るさ又は透明度などを調整する。例えば入力用表示物DBY、DBNを、選択された表示物の色、形状、大きさ又は透明度に対応する色、形状、大きさ又は透明度に設定する。
 また図10(B)に示すように、表示装置10の表示状況、表示装置10と端末装置20の位置関係、又は選択された表示物の情報に応じて、入力用表示物DBY、DBNの配置位置を変化させる。例えば図10(B)に示すように、表示装置10に表示される第1コンテンツCT1の表示物を避ける位置に、入力用表示物DBY、DBNを配置(表示)する。このようにすれば、入力用表示物DBY、DBNが原因で、第1コンテンツCT1の表示物が見えにくくなってしまうなどの事態を防止できる。或いは表示装置10に表示される背景画像の領域に、入力用表示物DBY、DBNを配置する。このようにすれば、背景画像の領域を有効利用して、入力用表示物DBY、DBNを表示できるようになる。また表示装置10と端末装置20の距離が近くなる位置関係になった場合には、端末装置20の表示部30において拡大する第1コンテンツCT1の領域に応じた位置に、入力用表示物DBY、DBNを配置する。例えば第1コンテンツCT1の主要な表示領域(第1コンテンツCT1の主要な表示物が表示される領域)を避ける位置に、入力用表示物DBY、DBNを配置する。このようにすれば、表示装置10と端末装置20の位置関係に応じた適切な位置に、入力用表示物DBY、DBNを表示できるようになる。また図9(B)に示すように、キャラクタCHE等の表示物がユーザにより選択された場合に、選択された表示物を避ける位置に、入力用表示物DBY、DBNを配置する。このようにすれば、入力用表示物DBY、DBNが原因で、ユーザが選択した表示物が見えにくくなってしまうなどの事態を防止できる。
 また図10(C)に示すように、表示装置10の表示状況、表示装置10と端末装置20の位置関係、又は選択された表示物の情報に応じて、入力用表示物DBY、DBNに対する応答入力の入力条件を変化させる。例えば入力用表示物DBY、DBNに対する応答入力についての入力時間、入力方法、入力タイミング、又は押圧力やタッチ範囲などの入力条件を変化させる。例えば表示装置10での第1コンテンツCT1の表示領域が大きかったり、表示装置10と端末装置20の距離が近くなる位置関係になることで、第1コンテンツCT1の主要な表示領域が拡大したとする。この場合には、例えば入力用表示物DBY、DBNは、第1コンテンツCT1の主要な表示領域を避けるように、表示部30の表示画面の端領域に、例えば小さなサイズで表示される。そして入力用表示物DBY、DBNが、表示画面の端領域において小さなサイズで表示されると、入力用表示物DBY、DBNを選択する応答入力の操作が難しくなる。そこで、このような場合には、応答入力の入力条件である入力時間を短くして、短い入力時間で、入力用表示物DBY、DBNを選択できるようにする。或いは応答入力の入力条件であるタッチパネル型ディスプレイにおける押圧力を小さくして、小さな押圧力のタッチ操作で、入力用表示物DBY、DBNを選択できるようにする。或いはタッチパネル型ディスプレイにおけるタッチ範囲(タッチ操作の検出範囲)を広くして、タッチ操作による入力用表示物DBY、DBNの選択をし易くする。或いは、入力用表示物DBY、DBNの入力方法を、その選択が容易になる入力方法に変更したり、入力用表示物DBY、DBNの入力タイミングを、その選択が容易になる入力タイミングに変更する。
 また本実施形態では、表示装置10での表示状況に応じて、表示装置10に表示される認識用表示物を変化させる。例えば表示装置10の表示時間、表示物の状況、背景画像の状況、又は表示画面の状況などの表示状況に応じて、認識用表示物の種類、色、形状、大きさ、又は明るさなどを変化させる。例えば表示装置10に第1コンテンツCT1が表示されてからの経過時間である表示時間に応じて、認識用表示物を順次に更新して表示する。例えば第1コンテンツCT1が第1場面である場合には、第1種類の認識用表示物を表示し、第1コンテンツCT1が第2場面である場合には、第2種類の認識用表示物を表示する。また第1コンテンツCT1が第3場面である場合には、第3種類の認識用表示物を表示する。これにより、例えば第1コンテンツCT1の第1場面、第2場面、第3場面に適切な第2コンテンツCT2を、第1種類、第2種類、第3種類の認識用表示物により指定して、指定された第2コンテンツCT2を第1コンテンツCT1に付加して表示できるようになる。或いは表示装置10に表示される第1コンテンツCT1の種類に応じて、認識用表示物の種類を切り替えてもよい。例えば表示装置10に表示される第1コンテンツCT1が動画であるか、静止画であるか、ゲーム画面であるかに応じて、認識用表示物の種類を切り替えてもよい。或いは、表示装置10の表示物の状況、背景画像の状況、又は画面の明るさや色合いなどの表示画面の状況に応じて、認識用表示物の色、形状、大きさ、又は明るさなどを変化させる。例えば表示装置10の表示状況が変化した場合にも、認識用表示物が適切に認識されるように、認識用表示物の色、形状、大きさ、又は明るさなどを変化させる。
 なお、認識用表示物を変化させる処理は、表示状況に基づく認識用表示物の変化処理には限定されず、種々の変形実施が可能である。例えば経過時間に応じて認識用表示物を変化させてもよい。例えば第1コンテンツCT1が表示されてからの経過時間に応じて認識用表示物を変化させる。或いは、所与のタイミングにおいて認識用表示物を変化させてもよい。例えば所与のイベントが発生したタイミングにおいて、認識用表示物を変化させたり、第1コンテンツCT1の進行における所与のタイミングにおいて、認識用表示物を変化させる。或いは、認識用表示物についての更新条件が満たされたか否かを判断し、更新条件が満たされた場合に、認識用表示物を更新して変化させる。更新条件は、例えばコンテンツ状況やユーザ状況などの種々の状況に基づき設定される。このようにすれば、更新されて変化して行く認識用表示物の認識処理の結果に基づいて種々の処理を実行できるようになるため、第1コンテンツに第2コンテンツを付加した多様なコンテンツをユーザに提供できるようになる。
 2.3 第1コンテンツ、第2コンテンツへのユーザ入力のフィードバック
 本実施形態では、端末装置20でのユーザの入力に応じたフィードバックを、表示装置10での第1コンテンツCT1又は端末装置20での第2コンテンツCT2に対して行う。例えばユーザの入力に応じたフィードバックを、端末装置20の表示部30に表示される入力用表示物に対して行う。或いは、入力用表示物に対するユーザの応答入力が受け付けられたことを示すフィードバックを、第1コンテンツCT1又は第2コンテンツCT2に対して行う。図11は、このように端末装置20でのユーザの入力に応じたフィードバックを第1コンテンツCT1又は第2コンテンツCT2に対して行う処理を説明するフローチャートである。
 まず端末装置20においてユーザが入力を行ったか否かを判断する(ステップS21)。このユーザ入力は、入力用表示物に対する応答入力であってもよいし、当該応答入力以外の入力であってもよい。そして、ユーザが入力を行った場合には、当該入力を受け付ける(ステップS22)。そして、端末装置20でのユーザの入力に応じたフィードバックを、表示装置10での第1コンテンツCT1又は端末装置20での第2コンテンツCT2に対して行う(ステップS23)。このようにすれば、端末装置20でのユーザの入力を第1コンテンツCT1又は第2コンテンツCT2に反映させて、第1コンテンツCT1に第2コンテンツCT2が付加されたコンテンツを、ユーザに表示できるようになる。
 例えば本実施形態では、ユーザの入力に応じたフィードバックを、端末装置20の表示部30に表示される入力用表示物に対して行う。例えば端末装置20でのユーザの入力に応じて変化する入力用表示物を、端末装置20の表示部30に表示する。このようにすれば、端末装置20でのユーザの入力に応じて、入力用表示物の例えば色、形状、大きさ、明るさ、透明度、テクスチャ、表示時間又は種類などを変化させることが可能になり、ユーザの入力に応じた多様な表示態様の入力用表示物の表示が可能になる。
 例えば図12(A)では、ユーザは、端末装置20での入力により、入力用表示物の形状を選択できるようになっており、ユーザの入力に応じたフィードバックが入力用表示物に対して行われている。例えばユーザの希望に応じて、入力用表示物の形状を四角形状にしたり、星形の形状にしたり、ひし形の形状にしたりすることなどが可能になる。従って、ユーザは、入力用表示物の形状等を変化させるカスタムメイドが可能になる。なお、入力用表示物の形状以外にも、色、大きさ、明るさ又はテクスチャなどを、端末装置20での入力によりユーザが選択できるようにしてもよい。
 或いは、入力用表示物に対応して表示装置10に表示される認識用表示物を、端末装置20でのユーザの入力に応じて変化させることで、端末装置20の表示部30に表示される入力用表示物を変化させてもよい。例えば図12(B)では、端末装置20の各ユーザは、入力用表示物に対してデコレーションを行って、オリジナルの入力用表示物を作成できるようになっている。そして、作成されたオリジナルの入力用表示物に対応する認識用表示物を、表示装置10に表示する。このようにすれば、当該入力用表示物を作成したユーザ以外の他のユーザも、当該他のユーザの端末装置を用いて当該認識用表示物の認識処理を行うことで、当該入力用表示物を使用できるようになる。従って、例えばお互いにフレンドの関係のある複数のユーザで、オリジナルに作成された入力用表示物を共用して使用できるようになる。
 また本実施形態では、入力用表示物に対するユーザの応答入力が受け付けられたことを示すフィードバックを、第1コンテンツCT1に対して行う。例えば応答入力が適切に受け付けられたことをユーザに知らせるためのフィードバックを、第1コンテンツCT1に対して行う。このようにすれば入力用表示物に対するユーザの応答入力が行われたことを、第1コンテンツCT1に反映して、ユーザに視認させることが可能になる。例えば本実施形態では、図2、図3に示すように、次回の演奏曲を選択するための入力用表示物DBA、DBBを表示し、ユーザは入力用表示物DBA、DBBのうちのいずれかを選択する応答入力を行う。そして例えば後述の図15で説明するように、複数のユーザの応答入力による次回の演奏曲の投票結果を、表示装置10の第1コンテンツCT1によりユーザに表示する。例えば図13では、次回の演奏曲の候補である曲MA、曲MBのうち、複数のユーザによる投票結果により、曲MAの方が優勢であることを示す表示物DBFが、表示装置10に表示されている。これにより、ユーザは、入力用表示物に対する自身の応答入力による投票結果を、表示装置10に表示される第1コンテンツCT1の表示物DBFにより、認識できるようになる。
 また本実施形態では、入力用表示物に対するユーザの応答入力が受け付けられたことを示すフィードバックを第2コンテンツCT2に対して行う。例えば入力用表示物に対するユーザの応答入力が受け付けられたことを、端末装置20に表示される第2コンテンツCT2により、ユーザに報知したり、ユーザに視覚的に認識させる。このようにすれば入力用表示物に対するユーザの応答入力が行われたことを、第2コンテンツCT2に反映して、ユーザに視認させることが可能になる。例えば図14は、入力用表示物に対するユーザの応答入力に応じて、第2コンテンツCT2である入力用表示物を変化させる処理を説明するフローチャートである。
 まず、端末装置20の表示部30に表示される入力用表示物に対してユーザが応答入力を行ったか否かを判断し、応答入力を行った場合には当該応答入力を受け付ける(ステップS31、S32)。そして、入力用表示物の形状、色又は文字などを変化させたり、或いは入力用表示物の表示を消す処理を行う(ステップS33)。例えばユーザが入力用表示物に対して応答入力を行うと、応答入力が行われたことをユーザに認識させるような形状又は色に、入力用表示物の形状又は色を変化させる。或いは、応答入力が行われたことをユーザに認識させるような文字を、入力用表示物に対して付加する。このようにすれば、ユーザの応答入力が適切に行われたことを、ユーザに認識させることが可能になり、ユーザインターフェースの向上を図れる。或いは、ユーザが入力用表示物に対して応答入力を行った後に、入力用表示物の表示を消す処理を行う。このようにすれば、入力用表示物に対する応答入力が完了して、入力用表示物が不要になった場合に、入力用表示物の表示を消すことで、入力用表示物が他のコンテンツの表示の邪魔になってしまうのを防止できるようになる。
 また本実施形態では、図15に示すように、複数の端末装置20-1~20-nにおける応答入力の集計処理を行う。即ち、集計処理部108は、端末装置20-1~20-nの各端末装置において行われた入力用表示物に対する応答入力を、ネットワーク60を介して収集し、これらの応答入力の集計処理を行う。そしてコンテンツ処理部110は、表示装置10に表示される第1コンテンツCT1を変化させる。例えば図13に示すように、応答入力の集計結果である投票結果を示す表示物DBFを、表示装置10に表示する。そして、投票結果に基づいて優勢とされた曲MAが、次回の演奏曲として演奏される第1コンテンツCT1を、表示装置10に表示する。例えば曲MAを演奏する様子を示すDJのキャラクタのコンテンツを、第1コンテンツCT1として表示装置10に表示する。このようにすれば、複数の端末装置20-1~20-nでの応答入力の集計処理の結果に応じた第1コンテンツCT1を、表示装置10に表示できるようになる。或いは、入力用表示物に対する応答入力の集計処理の結果に応じた表示内容又は表示態様の第2コンテンツCT2を、端末装置20の表示部30に表示してもよい。例えば図13の投票結果を示す表示物DBFを、第2コンテンツCT2として端末装置20の表示部30に表示してもよい。また集計処理の結果に応じて、第1コンテンツCT1に付加される第2コンテンツCT2の演出効果を変化させてもよい。例えばエフェクト用の表示物の種類やアニメーションパターンを、集計処理の結果に応じて変化させる。例えばユーザが選択した曲が、投票結果により選ばれた場合には、より演出効果の高いエフェクト用の表示物を、第1コンテンツCT1に付加される第2コンテンツCT2として表示するようにする。
 また本実施形態では、第2コンテンツCT2として、端末装置20の位置に対応して設定される仮想空間に配置される表示物を、端末装置20の表示部30に表示する処理を行う。このようにすれば、端末装置20の位置に対応するように仮想空間を設定し、当該仮想空間に配置される表示物を、第2コンテンツCT2の表示物として、第1コンテンツCT1に付加して表示できるようになる。この場合に本実施形態では、表示装置10での第1コンテンツCT1に連動して、端末装置20での表示物を変化させる。このようにすれば表示装置10での第1コンテンツCT1に連動して、端末装置20での第2コンテンツCT2も変化し、これらの連動した第1コンテンツCT1及び第2コンテンツCT2をミックスしてユーザに表示できるようになる。図16は、認識処理の結果に基づいて、端末装置での仮想空間に配置される表示物を表示する処理を説明するフローチャートである。
 まず表示装置10が表示する認識用表示物の認識処理を行う(ステップS41)。そして認識処理の結果に基づいて、表示装置10の位置に対応して設定される仮想空間に配置される表示物を、端末装置20の表示部30に表示する(ステップS42)。そして表示装置10での第1コンテンツCT1に連動して、端末装置20での表示物を変化させる(ステップS43)。
 例えば図17に示すように、端末装置20に位置に対応する位置に仮想カメラVCを設定する。そして、この仮想カメラVCに対応する仮想空間を設定し、仮想空間において仮想カメラVCから見える仮想空間画像として、エフェクト用の表示物OB等が仮想空間に配置される仮想空間画像の生成処理を行う。例えば公知の隠面消去処理や透視変換処理などの3次元画像描画処理による仮想空間画像の生成処理を行う。そして第1コンテンツの画像と、第2コンテンツの画像である仮想空間画像とが合成された画像を、端末装置20の表示部30に表示する処理を行う。これにより表示装置10での第1コンテンツの画像に対して端末装置20での第2コンテンツの画像を付加したコンテンツの画像を、ユーザに視認させる処理を実現できる。この場合に仮想カメラVCの設定は、図1~図3で説明した認識用表示物MKを用いて行うことができる。例えば端末装置20から見た認識用表示物MKの方向を、例えば仮想カメラVCの基準となる視線方向に設定する。そして例えば端末装置20の方向が変化して、表示装置10の方に向かなくなった場合にも、例えばモーションセンサーなどを用いて端末装置20の向く方向を検出して、仮想カメラVCの視線方向にエフェクト用の表示物OB等を表示するようにする。このようにすれば、表示装置10の周囲のみならず、ユーザ自身の周囲にも表示物OBが存在しているかのように見えるため、ARやMRの演出効果を更に向上できる。
 また本実施形態では、表示装置10での第1コンテンツCT1に連動して、端末装置20での表示物OBを変化させる。例えば図1~図3に示すように、第1コンテンツCT1が、演奏曲に合わせてキャラクタCHがDJのパフォーマンスを行うようなコンテンツである場合には、演奏曲のテンポ(リズム)に連動するように、端末装置20での表示物OBの位置、方向又は表示パターンを変化させる。例えば演奏曲のテンポに同期するように、表示物OBの位置、方向又は表示パターンを変化させる。或いは、第1コンテンツCT1の盛り上がり度に応じて、表示物OBの位置、方向又は表示パターンを変化させる。このようにすれば、第1コンテンツCT1と、第1コンテンツCT1に付加されて表示される第2コンテンツCT2の表示物OB等が、連動(同期)して動いたり、変化するようになるため、演出効果の更なる向上を図れるようになる。
 また本実施形態では、図17に示すように仮想空間に配置される表示物OBを、端末装置20でのユーザの入力に応じて変化させる。例えば図2、図3の入力用表示物DBCに対するユーザの応答入力に応じて、仮想空間に配置される表示物OBの表示パターンを変化させたり、表示物OBの種類を変化させる。例えばユーザが入力用表示物DBCに対する入力操作を行うごとに、表示物OBの表示パターンを第1表示パターン、第2表示パターン、第3表示パターンというように変化させる。このようにすることで、ユーザの入力に応じて、端末装置20での第2コンテンツCT2が変化するようになり、エンターテインメントシステムのインタラクティブ性を更に向上できるようになる。
 なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また認識用表示物の認識処理、コンテンツ処理、表示処理、位置関係の検出処理、集計処理等も本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本開示の範囲に含まれる。
10…表示装置、20…端末装置、20-1~20-n…端末装置、30…表示部、40…情報処理装置、50…サーバ、60…ネットワーク、70…ゲーム装置、100…処理部、102…受け付け部、104…認識処理部、106…位置関係検出部、108…集計処理部、110…コンテンツ処理部、160…操作部、162…撮像部、170…記憶部、180…情報記憶媒体、192…音出力部、196…通信部、200…HMD、240…テンプル部、242…ゴーグル部、243…表示装置、244…ホログラフィック光学素子、246…RGBカメラ、247…デプスカメラ、248…環境認識カメラ、249…環境認識カメラ、CH、CHE…キャラクタ、CT1…第1コンテンツ、CT2…第2コンテンツ、DBA、DBB、DBC、DBY、DBN…入力用表示物、DBS、DBF…表示物、MA、MB…曲、MK…認識用表示物、OB…表示物、VC…仮想カメラ

Claims (14)

  1.  表示装置とユーザの端末装置を用いたエンターテインメントシステムであって、
     前記表示装置が表示する認識用表示物の認識処理を行う認識処理部と、
     前記認識処理の結果に基づいて、前記表示装置で表示される第1コンテンツに対して前記端末装置の表示部で表示される第2コンテンツを付加したコンテンツを前記ユーザに視認させる処理を行うコンテンツ処理部と、
     前記ユーザの入力を受け付ける受け付け部と、
     を含み、
     前記コンテンツ処理部は、
     前記ユーザが応答入力を行うための入力用表示物を、前記端末装置の前記表示部に表示する処理を行い、
     前記受け付け部は、
     前記入力用表示物に対する前記ユーザの前記応答入力を受け付け、
     前記コンテンツ処理部は、
     前記入力用表示物に対する前記ユーザの前記応答入力に応じて、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツを変化させることを特徴とするエンターテインメントシステム。
  2.  請求項1において、
     前記コンテンツ処理部は、
     前記表示装置での表示状況に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させることを特徴とするエンターテインメントシステム。
  3.  請求項1又は2において、
     前記表示装置と前記端末装置の位置関係を検出する位置関係検出部を含み、
     前記コンテンツ処理部は、
     前記位置関係に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させることを特徴とするエンターテインメントシステム。
  4.  請求項1乃至3のいずれかにおいて、
     前記コンテンツ処理部は、
     前記表示装置の表示物が選択された場合に、選択された前記表示物の情報に応じて、前記入力用表示物の表示態様、前記入力用表示物の配置位置、及び前記入力用表示物に対する前記応答入力の入力条件の少なくとも1つを変化させることを特徴とするエンターテインメントシステム。
  5.  請求項1乃至4のいずれかにおいて、
     前記コンテンツ処理部は、
     前記表示装置に表示される前記認識用表示物を変化させる処理を行うことを特徴とするエンターテインメントシステム。
  6.  請求項5において、
     前記コンテンツ処理部は、
     前記表示装置での表示状況に応じて、前記表示装置に表示される前記認識用表示物を変化させることを特徴とするエンターテインメントシステム。
  7.  請求項1乃至6のいずれかにおいて、
     前記コンテンツ処理部は、
     前記端末装置での前記ユーザの入力に応じたフィードバックを、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツに対して行うことを特徴とするエンターテインメントシステム。
  8.  請求項7において、
     前記コンテンツ処理部は、
     前記ユーザの入力に応じた前記フィードバックを、前記端末装置の前記表示部に表示される前記入力用表示物に対して行うことを特徴とするエンターテインメントシステム。
  9.  請求項7又は8において、
     前記コンテンツ処理部は、
     前記入力用表示物に対する前記ユーザの前記応答入力が受け付けられたことを示す前記フィードバックを、前記第1コンテンツ又は前記第2コンテンツに対して行うことを特徴とするエンターテインメントシステム。
  10.  請求項1乃至9のいずれかにおいて、
     複数の前記端末装置における前記応答入力の集計処理を行う集計処理部を含み、
     前記コンテンツ処理部は、
     前記応答入力の前記集計処理の結果に基づいて、前記第1コンテンツ又は前記第2コンテンツを変化させることを特徴とするエンターテインメントシステム。
  11.  請求項1乃至10のいずれかにおいて、
     前記コンテンツ処理部は、
     前記第2コンテンツとして、前記端末装置の位置に対応して設定される仮想空間に配置される表示物を、前記端末装置の前記表示部に表示する処理を行うことを特徴とするエンターテインメントシステム。
  12.  請求項11において、
     前記コンテンツ処理部は、
     前記表示装置での前記第1コンテンツに連動して、前記端末装置での前記表示物を変化させることを特徴とするエンターテインメントシステム。
  13.  表示装置が表示する認識用表示物の認識処理と、
     前記認識処理の結果に基づいて、前記表示装置で表示される第1コンテンツに対してユーザの端末装置の表示部で表示される第2コンテンツを付加したコンテンツを前記ユーザに視認させるコンテンツ処理と、
     前記ユーザの入力を受け付ける受け付け処理と、
     を行い、
     前記コンテンツ処理において、
     前記ユーザが応答入力を行うための入力用表示物を、前記端末装置の前記表示部に表示する処理を行い、
     前記受け付け処理において、
     前記入力用表示物に対する前記ユーザの前記応答入力を受け付け、
     前記コンテンツ処理において、
     前記入力用表示物に対する前記ユーザの前記応答入力に応じて、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツを変化させることを特徴とする処理方法。
  14.  表示装置が表示する認識用表示物の認識処理を行う認識処理部と、
     前記認識処理の結果に基づいて、前記表示装置で表示される第1コンテンツに対してユーザの端末装置の表示部で表示される第2コンテンツを付加したコンテンツを前記ユーザに視認させる処理を行うコンテンツ処理部と、
     前記ユーザの入力を受け付ける受け付け部として、
     コンピュータを機能させるプログラムを記憶し、
     前記コンテンツ処理部は、
     前記ユーザが応答入力を行うための入力用表示物を、前記端末装置の前記表示部に表示する処理を行い、
     前記受け付け部は、
     前記入力用表示物に対する前記ユーザの前記応答入力を受け付け、
     前記コンテンツ処理部は、
     前記入力用表示物に対する前記ユーザの前記応答入力に応じて、前記表示装置での前記第1コンテンツ又は前記端末装置での前記第2コンテンツを変化させることを特徴とするコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2021/024198 2020-06-26 2021-06-25 エンターテインメントシステム、処理方法及び情報記憶媒体 WO2021261587A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020110457A JP2022007458A (ja) 2020-06-26 2020-06-26 エンターテインメントシステム及びプログラム
JP2020-110457 2020-06-26

Publications (1)

Publication Number Publication Date
WO2021261587A1 true WO2021261587A1 (ja) 2021-12-30

Family

ID=79281429

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/024198 WO2021261587A1 (ja) 2020-06-26 2021-06-25 エンターテインメントシステム、処理方法及び情報記憶媒体

Country Status (2)

Country Link
JP (1) JP2022007458A (ja)
WO (1) WO2021261587A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258120A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法
JP2013535867A (ja) * 2010-07-13 2013-09-12 株式会社ソニー・コンピュータエンタテインメント モバイルデバイスに表示される補足ビデオコンテンツ
JP2017084117A (ja) * 2015-10-28 2017-05-18 富士通株式会社 表示制御方法、表示制御プログラムおよび情報処理装置
WO2017104666A1 (ja) * 2015-12-17 2017-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 表示方法および表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258120A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法
JP2013535867A (ja) * 2010-07-13 2013-09-12 株式会社ソニー・コンピュータエンタテインメント モバイルデバイスに表示される補足ビデオコンテンツ
JP2017084117A (ja) * 2015-10-28 2017-05-18 富士通株式会社 表示制御方法、表示制御プログラムおよび情報処理装置
WO2017104666A1 (ja) * 2015-12-17 2017-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 表示方法および表示装置

Also Published As

Publication number Publication date
JP2022007458A (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
CN111148554B (zh) 现实世界空间的虚拟现实呈现
US10349031B2 (en) Augmented reality based user interfacing
JP6845111B2 (ja) 情報処理装置および画像表示方法
US10303244B2 (en) Information processing apparatus, information processing method, and computer program
US20090237492A1 (en) Enhanced stereoscopic immersive video recording and viewing
JPWO2019234879A1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2021002288A (ja) 画像処理装置、コンテンツ処理システム、および画像処理方法
WO2021106803A1 (ja) 授業システム、視聴端末、情報処理方法及びプログラム
CN111930223A (zh) 用于观看计算机生成的环境并与其互动的可移动显示器
US11961194B2 (en) Non-uniform stereo rendering
CN114327700A (zh) 一种虚拟现实设备及截屏图片播放方法
JP2023133397A (ja) 画像処理装置、画像処理方法及び画像処理システム
US20230368464A1 (en) Information processing system, information processing method, and information processing program
WO2021261587A1 (ja) エンターテインメントシステム、処理方法及び情報記憶媒体
US11882172B2 (en) Non-transitory computer-readable medium, information processing method and information processing apparatus
WO2021157616A1 (ja) 視聴端末、視聴方法、視聴システム及びプログラム
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
JP2021086606A (ja) 授業システム、視聴端末、情報処理方法及びプログラム
JP2022103751A (ja) エンターテインメントシステム及びプログラム
WO2023105750A1 (ja) 情報処理システムおよび情報処理方法
JP7053074B1 (ja) 鑑賞システム、鑑賞装置及びプログラム
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
WO2023248832A1 (ja) 遠隔視認システム、現地撮像システム
WO2024060959A1 (zh) 虚拟环境中的观影画面调整方法、装置、存储介质及设备
US20240046552A1 (en) Generation apparatus, generation method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21829022

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21829022

Country of ref document: EP

Kind code of ref document: A1