WO2015186401A1 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
WO2015186401A1
WO2015186401A1 PCT/JP2015/057571 JP2015057571W WO2015186401A1 WO 2015186401 A1 WO2015186401 A1 WO 2015186401A1 JP 2015057571 W JP2015057571 W JP 2015057571W WO 2015186401 A1 WO2015186401 A1 WO 2015186401A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
control unit
displayed
instruction
Prior art date
Application number
PCT/JP2015/057571
Other languages
English (en)
French (fr)
Inventor
雄生 宮前
雅文 野田
匠 吉田
啓一郎 石原
玄人 森田
裕 横川
ニコラ ドゥセ
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2014117814A external-priority patent/JP2015229065A/ja
Priority claimed from JP2014117813A external-priority patent/JP2015230683A/ja
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to EP15803085.8A priority Critical patent/EP3154029A4/en
Priority to US15/312,495 priority patent/US10166477B2/en
Publication of WO2015186401A1 publication Critical patent/WO2015186401A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • G06T5/70
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Definitions

  • the present invention relates to an image processing technique, and more particularly to an image processing apparatus, an image processing method, and an image processing program for processing a captured image.
  • a game using a live-action image captured by an imaging device is provided.
  • the user can enjoy the game play while viewing the image of the surrounding area of the user.
  • the inventors of the present invention have come up with a new technology for improving entertainment in a game using such a live-action image.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a game with higher entertainment.
  • an image processing apparatus acquires a captured image captured by an imaging apparatus, detects a tracking target included in the acquired captured image, and detects the tracking target.
  • a control unit that calculates a position for displaying a predetermined image according to the determined position, and a display image that displays the predetermined image at the position calculated by the control unit for the captured image are superimposed on the captured image.
  • a generating unit that displays the generated display image on a display device.
  • a more highly entertaining game can be provided.
  • FIG. 2A is a diagram showing an external configuration of the upper surface of the input device
  • FIG. 2B is a diagram showing an external configuration of the back side surface of the input device.
  • FIG. 1 shows a configuration of a game system 1 according to an embodiment of the present invention.
  • the game system 1 includes a game device 10, input devices 6 a and 6 b operated by a user of the game device 10, and portable terminal devices 9 a and 9 b operated by a user of the game device 10.
  • the game apparatus 10 is communicably connected to the distribution server 5 connected to the external network 3 and the mobile terminal apparatuses 9c and 9d of other users via an access point (AP) 8.
  • AP access point
  • a plurality of users can log in to the game apparatus 10 simultaneously.
  • the auxiliary storage device 2 is a large-capacity storage device such as an HDD (hard disk drive) or a flash memory, and may be an external storage device connected to the game device 10 by a USB (Universal Serial Serial Bus) or the like, or a built-in storage device It may be.
  • the output device 4 may be a television having a display for outputting an image and a speaker for outputting sound.
  • the game device 10 is connected to the input device 6 operated by the user wirelessly or by wire, and the input device 6 outputs operation information indicating the operation result of the user to the game device 10.
  • the game apparatus 10 is further connected to the mobile terminal device 9 operated by the user wirelessly or by wire, and the mobile terminal device 9 is used by operation information indicating the operation result of the user, a game program executed on the game apparatus 10 or the like. Transmitted data or the like is transmitted to the game apparatus 10.
  • the game apparatus 10 receives the operation information from the input device 6 or the mobile terminal device 9, the game apparatus 10 reflects the result in processing such as an OS (system software) or a game program, and causes the output device 4 to output a processing result.
  • OS system software
  • the camera 7 as an imaging device is provided in the vicinity of the output device 4 and images the space around the output device 4.
  • FIG. 1 shows an example in which the camera 7 is attached to the upper part of the output device 4, the camera 7 may be arranged on the side of the output device 4, and in any case, the game is played in front of the output device 4. It is arranged at a position where the user can be imaged.
  • the camera 7 may be a stereo camera or a distance measuring camera.
  • the input device 6 may be a game controller that provides user operation information to the game device 10.
  • the game controller includes a plurality of input units such as a plurality of push-type operation buttons, an analog stick that can input an analog amount, and a rotary button.
  • the portable terminal device 9 may be a portable information terminal such as a smartphone or a tablet, or may be a portable game device.
  • the mobile terminal device 9 executes an application for transmitting user operation information, game data, and the like to a game program executed on the game device 10.
  • the game apparatus 10 provides a function that uses a live-action image around the user captured by the camera 7 and distributes the screen of the game that the user is playing to other users.
  • the game device 10 receives an instruction to distribute the game screen from the user A or B while the users A and B are executing the game, the game device 10 sends the game screen data to the distribution server 5 via the network 3.
  • Users C and D can access the distribution server 5 via the network 3 using the mobile terminal device 9, the game device 10, a personal computer, and the like, and view the moving image of the distributed game.
  • the moving image of the game may be streamed from the distribution server, or the moving image stored in the distribution server may be downloaded and distributed.
  • FIG. 2A shows an external configuration of the upper surface of the input device.
  • the user operates the input device 6 by holding the left grip 78b with the left hand and holding the right grip 78a with the right hand.
  • the four types of buttons 72 to 75 are marked with different figures in different colors in order to distinguish them from each other.
  • the ⁇ button 72 is marked with a red circle
  • the X button 73 is marked with a blue cross
  • the ⁇ button 74 is marked with a purple square
  • the ⁇ button 75 is marked with a green triangle.
  • a touch pad 79 is provided in a flat area between the direction key 71 and the operation button 76.
  • the touch pad 79 also functions as a push-down button that sinks downward when pressed by the user and returns to the original position when the user releases the hand.
  • a function button 80 is provided between the two analog sticks 77a and 77b.
  • the function button 80 is used to turn on the power of the input device 6 and simultaneously activate a communication function for connecting the input device 6 and the game device 10. After the input device 6 is connected to the game device 10, the function button 80 is also used for causing the game device 10 to display a menu screen.
  • the SHARE button 81 is provided between the touch pad 79 and the direction key 71.
  • the SHARE button 81 is used to input an instruction from the user to the OS or system software in the game apparatus 10.
  • the OPTIONS button 82 is provided between the touch pad 79 and the operation button 76.
  • the OPTIONS button 82 is used to input an instruction from the user to an application (game) executed on the game apparatus 10. Both the SHARE button 81 and the OPTIONS button 82 may be formed as push buttons.
  • FIG. 2B shows an external configuration of the back side surface of the input device.
  • a touch pad 79 extends from the upper surface of the casing on the upper side of the casing rear side of the input device 6, and a horizontally long light emitting unit 85 is provided on the lower side of the casing rear side.
  • the light emitting unit 85 has red (R), green (G), and blue (B) LEDs, and lights up according to the light emission color information transmitted from the game apparatus 10.
  • the upper button 83a, the lower button 84a, the upper button 83b, and the lower button 84b are provided at symmetrical positions in the longitudinal direction.
  • the upper button 83a and the lower button 84a are operated by the index finger and middle finger of the user's right hand, respectively, and the upper button 83b and the lower button 84b are operated by the index finger and the middle finger of the user's left hand, respectively.
  • the light emitting unit 85 is provided between the arrangement of the right upper button 83a and the lower button 84a and the arrangement of the left upper button 83b and the lower button 84b, so that an index finger for operating each button is provided.
  • the camera 7 can suitably image the light-emitting unit 85 that is lit.
  • the upper button 83 may be configured as a push-type button
  • the lower button 84 may be configured as a trigger-type button that is rotatably supported.
  • FIG. 3 shows a functional block diagram of the game apparatus 10.
  • the game apparatus 10 includes a main power button 20, a power ON LED 21, a standby LED 22, a system controller 24, a clock 26, a device controller 30, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, and a wired communication module. 40, a subsystem 50, and a main system 60.
  • the main system 60 includes a main CPU (Central Processing Unit), a memory and a memory controller that are main storage devices, a GPU (Graphics Processing Unit), and the like.
  • the GPU is mainly used for arithmetic processing of game programs. These functions may be configured as a system on chip and formed on a single chip.
  • the main CPU has a function of executing a game program recorded in the auxiliary storage device 2.
  • the subsystem 50 includes a sub CPU, a memory that is a main storage device, a memory controller, and the like, does not include a GPU, and does not have a function of executing a game program.
  • the number of circuit gates of the sub CPU is smaller than the number of circuit gates of the main CPU, and the operation power consumption of the sub CPU is smaller than the operation power consumption of the main CPU.
  • the sub CPU operates even while the main CPU is in the standby state, and its processing function is limited in order to keep power consumption low.
  • the main power button 20 is an input unit through which an operation input from the user is performed.
  • the main power button 20 is provided on the front surface of the housing of the game apparatus 10 to turn on or off the power supply to the main system 60 of the game apparatus 10. Operated.
  • the power ON LED 21 is lit when the main power button 20 is turned on, and the standby LED 22 is lit when the main power button 20 is turned off.
  • the system controller 24 detects pressing of the main power button 20 by the user. When the main power button 20 is pressed while the main power is off, the system controller 24 acquires the pressing operation as an “on instruction”, while when the main power is in the on state, the main power button 20 is pressed. When the button 20 is pressed, the system controller 24 acquires the pressing operation as an “off instruction”.
  • the clock 26 is a real-time clock, generates current date and time information, and supplies it to the system controller 24, the subsystem 50, and the main system 60.
  • the device controller 30 is configured as an LSI (Large-Scale Integrated Circuit) that exchanges information between devices like a South Bridge. As illustrated, devices such as a system controller 24, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, a wired communication module 40, a subsystem 50, and a main system 60 are connected to the device controller 30.
  • the device controller 30 absorbs the difference in electrical characteristics of each device and the difference in data transfer speed, and controls the timing of data transfer.
  • the media drive 32 is a drive device that loads and drives application software such as a game and a ROM medium 44 that records license information, and reads programs and data from the ROM medium 44.
  • the ROM medium 44 is a read-only recording medium such as an optical disc, a magneto-optical disc, or a Blu-ray disc.
  • the USB module 34 is a module that is connected to an external device with a USB cable.
  • the USB module 34 may be connected to the auxiliary storage device 2 and the camera 7 with a USB cable.
  • the flash memory 36 is an auxiliary storage device that constitutes an internal storage.
  • the wireless communication module 38 wirelessly communicates with, for example, the input device 6 using a communication protocol such as a Bluetooth (registered trademark) protocol or an IEEE802.11 protocol.
  • the wireless communication module 38 corresponds to the third generation (3rd Generation) digital mobile phone system conforming to the IMT-2000 (International Mobile Telecommunication 2000) standard defined by the ITU (International Telecommunication Union). It may also be compatible with another generation of digital mobile phone systems.
  • the wired communication module 40 performs wired communication with an external device, and connects to the network 3 via, for example, the AP 8.
  • FIG. 4 shows the configuration of the game apparatus 10.
  • the game apparatus 10 includes a communication unit 102, a control unit 110, and a data holding unit 160.
  • each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
  • the communication unit 102 has the functions of the wireless communication module 38 and the wired communication module 40 illustrated in FIG. 3 and controls communication via the network 3.
  • the data holding unit 160 is provided in the auxiliary storage device 2 and stores data used by the game program.
  • the control unit 110 includes an image generation unit 111, an audio generation unit 112, a distribution control unit 113, a mask control unit 114, a face detection unit 115, a balloon control unit 116, a controller detection unit 117, a difference detection unit 118, and a billboard control unit 119.
  • a mirror image control unit 120 and a voting control unit 121 are provided.
  • the image generation unit 111 generates a game image controlled by another configuration of the control unit 110.
  • the sound generation unit 112 generates a sound of a game controlled by another configuration of the control unit 110.
  • the image generation unit 111 and the sound generation unit 112 output the generated image and sound data to the output device 4.
  • the distribution control unit 113 receives an instruction to distribute the image and sound data of the game generated by the image generation unit 111 and the sound generation unit 112 to another user, the distribution control unit 113 receives the image data generated by the image generation unit 111 and
  • the voice data generated by the voice generation unit 112 is uploaded to the distribution server 5 via the communication unit 102. Details of other configurations of the control unit 110 will be described later.
  • FIG. 5 shows the configuration of the portable information terminal.
  • the mobile terminal device 9 includes a communication unit 202, a control unit 210, a data holding unit 260, an input device 261, a touch pad 262, a display device 263, and a speaker 264. These functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the communication unit 202 controls communication via the network 3.
  • the data holding unit 260 is provided in the storage device, and stores data used by an application executed in the control unit 210 of the mobile terminal device 9 in order to control a game program executed in the game device 10.
  • the display device 263 displays the image generated by the control unit 210.
  • the speaker 264 outputs the sound generated by the control unit 210.
  • the input device 261 inputs an instruction from the user to the control unit 210.
  • the touch pad 262 is provided in the display device 263 and inputs an instruction from the user to the control unit 210.
  • the control unit 210 includes an image generation unit 211, a sound generation unit 212, a menu display unit 213, a mask instruction reception unit 214, a balloon instruction reception unit 215, a billboard instruction reception unit 216, a specular image instruction reception unit 217, and a voting instruction reception unit. 218.
  • the image generation unit 211 generates an image of a game controlled by another configuration of the control unit 210 and outputs it to the display device 263.
  • the sound generation unit 212 generates a sound of a game controlled by another configuration of the control unit 210 and outputs it to the speaker 264. Details of other configurations of the control unit 210 will be described later.
  • the game device 10 has a function of generating an image in which the user is wearing a mask by tracking the position of the user's face and displaying the mask image superimposed on the user's face. provide.
  • the mask instruction receiving unit 214 of the portable terminal device 9 transmits an instruction to the game apparatus 10 when receiving an instruction to display a mask from the user via the menu screen displayed by the menu display unit 213.
  • the mask control unit 114 of the game apparatus 10 causes the face detection unit 115 to detect a human face included in the image captured by the camera 7.
  • the face detection unit 115 detects a human face included in an image captured by the camera 7.
  • the face detection unit 115 acquires data of an image captured by the camera 7 at a predetermined timing, and detects a human face using any known face recognition technique. While the mask is displayed, the face detection unit 115 may execute face recognition for all frames captured by the camera 7 or may perform face recognition for every predetermined number of frames.
  • the face detection unit 115 can track the face of the person being imaged by detecting the face included in the image imaged by the camera 7 continuously at predetermined time intervals.
  • the mask control unit 114 transmits the face image data detected by the face detection unit 115 to the mobile terminal device 9 in order to receive an instruction as to which user's face the mask is displayed on.
  • the mask instruction receiving unit 214 displays a list of face images received from the game apparatus 10 on the display device 263, and receives a face selection instruction for displaying a mask from the user.
  • the mask instruction reception unit 214 transmits the received selection instruction to the game apparatus 10.
  • the mask instruction receiving unit 214 further receives from the user an instruction to select the type of image to be displayed as a mask.
  • the image to be displayed as the mask may be selected from the two-dimensional image data or the three-dimensional shape data stored in the data holding unit 260 of the mobile terminal device 9 or the data holding unit 160 of the game device 10, or the user It may be an image drawn by. In the latter case, the mask instruction receiving unit 214 displays a drawing screen on the display device 263 and receives image drawing from the user.
  • mask instruction receiving unit 214 transmits the received selection instruction to game device 10. At this time, when an image drawn by the user or an image in which no data is stored in the data holding unit 160 of the game apparatus 10 is selected, the image data is also transmitted to the game apparatus 10.
  • the mask control unit 114 superimposes an image of the type of mask indicated on the position of the face of the person specified by the user via the mobile terminal device 9 among the human faces detected by the face detection unit 115. To display.
  • the mask control unit 114 enlarges or reduces the mask image to be displayed in accordance with the size of the face detected by the face detection unit 115, and displays the image at the detected face position.
  • the face detection unit 115 detects the orientation of the face by detecting the shape of the face outline, the positions of eyes, nose and mouth.
  • the mask control unit 114 rotates and displays the mask image in accordance with the face orientation detected by the face detection unit 115.
  • the mask control unit 114 performs the rendering by rotating the three-dimensional shape data according to the detected face orientation. To do.
  • an angle obtained by rotating a predetermined angle further than the detected rotation angle of the face with the linear direction connecting the position of the face and the position of the camera 7 as the reference direction may be set as the rotation angle of the mask image.
  • the mask image when the user whose mask is displayed on the face tilts or rotates the face, the mask image may be tilted or rotated larger than the actual tilt or rotation angle. Thereby, the rotation of the mask image can be further emphasized, and it can be easily shown that the mask image is rotated in accordance with the rotation of the face. As the rotation angle from the reference direction of the face increases, the rotation angle may be further increased from the actual rotation angle.
  • the image displayed as a mask is a two-dimensional image
  • the mask is rotated in accordance with the rotation of the face.
  • the rotation of the face around a straight line perpendicular to the straight line connecting the position and the position of the camera 7 may be ignored.
  • the image displayed as a mask is reduced in a direction perpendicular to the straight line. May be displayed.
  • a two-dimensional image displayed as a mask is pasted as a texture on the surface of a solid modeled as a head, or a solid such as a sphere or cylinder, and the solid is rotated according to the orientation of the face.
  • the image displayed as a mask may be rotated.
  • an image displayed as a mask may be rotated at an angle larger than the actual face rotation angle.
  • the face detection unit 115 cannot detect the face.
  • the mask controller 114 erases the mask. At this time, the mask may be erased after displaying the appearance of noise entering the area where the mask was displayed, or the character being displayed on the screen being in the way of the mask.
  • FIG. 6 shows an example of a screen 400 displayed on the display of the output device 4.
  • An image captured by the camera 7 is displayed on the display of the output device 4, and a character 300 is superimposed on the captured image.
  • FIG. 7 shows an example of a screen displayed on the display device 263 of the mobile terminal device 9.
  • the mask instruction receiving unit 214 of the mobile terminal device 9 displays a drawing screen 500 for the user to draw a mask on the display device 263.
  • the user can draw an image to be displayed as a mask on the drawing screen 500.
  • the drawing screen 500 is displayed only on the display device 263 of the mobile terminal device 9 and is not displayed on the screen distributed from the distribution control unit 113.
  • FIG. 8 shows an example of a screen displayed on the display device 263 of the mobile terminal device 9.
  • the mask instruction reception unit 214 of the mobile terminal device 9 receives all the face images in the captured image detected by the face detection unit 115 of the game device 10 in order to receive a user's selection instruction to display the mask on the face.
  • Data is acquired from the game apparatus 10, and the acquired user face list 502 is displayed on the display device 263.
  • the user selects which person's face is to be masked from all the person's faces captured by the camera 7 and detected by the face detection unit 115. Can do.
  • the face list 502 screen is also displayed only on the display device 263 of the mobile terminal device 9, and is not displayed on the screen distributed from the distribution control unit 113.
  • the received selection instruction is transmitted to the game apparatus 10.
  • FIG. 9 shows an example of a screen 400 displayed on the display of the output device 4.
  • the mask control unit 114 of the game apparatus 10 obtains a face selection instruction for displaying a mask from the mobile terminal device 9, the mask 300 displays a state in which the character 300 sprays the mask material on the face.
  • FIG. 10 shows an example of a screen 400 displayed on the display of the output device 4.
  • the mask control unit 114 displays the mask 310 at the face position detected by the face detection unit 115.
  • FIG. 11 shows an example of a screen 400 displayed on the display of the output device 4.
  • the mask control unit 114 tilts and displays the mask 312 larger than the face tilt detected by the face detection unit 115.
  • FIG. 12 shows an example of a screen 400 displayed on the display of the output device 4.
  • the face detection unit 115 cannot detect the user's face.
  • the mask control unit 114 displays an animation of the disappearance of the displayed mask 312 and erases the mask 312 when the animation display ends.
  • the game device 10 tracks the position of the input device 6 and displays a string extending from the position of the input device 6 and an object connected to the string, whereby the balloon is connected to the input device 6. Provide a function to generate such images.
  • the balloon instruction accepting unit 215 of the mobile terminal device 9 transmits an instruction to the game device 10 when an instruction to display a balloon is received from the user via the menu screen displayed by the menu display unit 213.
  • the balloon control unit 116 of the game apparatus 10 receives an instruction to display a balloon from the mobile terminal device 9, the balloon control unit 116 transmits identification information of the currently active input device 6 recognized by the game apparatus 10 to the mobile terminal device 9.
  • the balloon instruction receiving unit 215 receives from the user an instruction to select the input device 6 that connects the balloons from the currently active input devices 6.
  • the balloon instruction receiving unit 215 further receives from the user an instruction to select the type of image to be displayed as a balloon.
  • the image to be displayed as the balloon may be selected from the two-dimensional image data or the three-dimensional shape data stored in the data holding unit 260 of the mobile terminal device 9 or the data holding unit 160 of the game device 10, or the user It may be an image drawn by. In the latter case, the balloon instruction receiving unit 215 displays a drawing screen on the display device 263 and receives drawing of an image from the user.
  • the balloon instruction reception unit 215 Upon receiving the selection instruction of the input device 6 and the selection instruction of the image, the balloon instruction reception unit 215 transmits the received selection instruction to the game apparatus 10. At this time, when an image drawn by the user or an image in which no data is stored in the data holding unit 160 of the game apparatus 10 is selected, the image data is also transmitted to the game apparatus 10.
  • the balloon control unit 116 maintains a correspondence relationship between the type of balloon image and the input device 6 to which the balloon is connected.
  • the balloon control unit 116 When the touch pad 79 of the input device 6 is pressed and a balloon is associated with the input device 6, the balloon control unit 116 is associated with the input device 6 at the position of the input device 6. While the touch pad 79 is pressed, the image is enlarged. When the finger is released from the touch pad 79, the balloon control unit 116 displays an image enlarged according to the input time with respect to the touch pad 79 at the tip of the string connected to the input device 6. The balloon control unit 116 may display the image at the original size, may display the image after being resized to a predetermined size, or accepts an instruction to enlarge or reduce the image from the user and enlarges the image. Or you may reduce and display.
  • the balloon control unit 116 may paste and display a two-dimensional image displayed as a balloon as a texture on the surface of a three-dimensional modeled balloon or a three-dimensional surface such as a sphere or a spheroid. The same image may be pasted on a plurality of three-dimensional surfaces.
  • the balloon control unit 116 may determine the length of the string according to the input time to the touch pad 79 or may have a predetermined length.
  • the controller detection unit 117 detects the input device 6 included in the image captured by the camera 7.
  • the controller detection unit 117 acquires data of an image captured by the camera 7 at a predetermined timing, and detects light emitted by the light emitting unit 85 using a known image analysis technique.
  • the controller detection unit 117 may detect the position of the input device 6 for all frames captured by the camera 7, or may detect the position of the input device 6 for every predetermined number of frames.
  • the controller detection unit 117 can track the position of the input device 6 being captured by detecting the position of the input device 6 included in the image captured by the camera 7 continuously at a predetermined time interval. it can.
  • the balloon control unit 116 may set a predetermined buoyancy for the balloon and display a simulation of the movement of the balloon in accordance with the movement of the input device 6 by physical calculation.
  • the movement of the entire string may be simulated by providing a control point at a predetermined position of the string connecting the balloon and the input device 6 and simulating the movement of the control point.
  • the balloon control unit 116 may move the balloon by a simple simulation in which a part of a physical phenomenon is simplified.
  • the difference detection unit 118 detects a difference between frames in the moving image.
  • the difference detection unit 118 detects a difference between frames at least around the balloon while the balloon is displayed.
  • the balloon control unit 116 detects the balloon from the position of the region where the difference has occurred. In the direction toward the center of gravity, a force having a magnitude corresponding to the amount of difference, the size of the area in which the difference has occurred, or the period in which the difference has occurred is applied to the balloon, and the balloon is moved by physical calculation.
  • the balloon control unit 116 may move the balloon by simple simulation instead of physical calculation.
  • the balloon may be moved by a predetermined amount in the direction opposite to the area where the difference has occurred.
  • the balloon control unit 116 tracks the movement of the user's body by analyzing the image captured by the camera 7 instead of or in addition to detecting the difference between frames in the moving image.
  • the balloon may be moved by applying a force to the balloon.
  • the shape of the user's hand may be recognized, and the balloon may be moved when the user's hand hits the balloon.
  • the controller detection unit 117 detects the input device 6 when the input device 6 is out of the field of view of the camera 7, the user points the input device 6 in the opposite direction to the camera 7, or the light emitting unit 85 is covered with a hand.
  • the balloon control unit 116 erases the balloon. At this time, the balloon may be erased after displaying a state where the string connecting the balloon to the input device 6 is broken and the balloon is flying upward.
  • FIG. 13 shows an example of a screen displayed on the display device 263 of the mobile terminal device 9.
  • the balloon instruction receiving unit 215 of the mobile terminal device 9 displays a drawing screen 510 on which the user draws a balloon on the display device 263. The user can draw an image to be displayed as a balloon on the drawing screen 510.
  • the drawing screen 510 is displayed only on the display device 263 of the mobile terminal device 9 and is not displayed on the screen distributed from the distribution control unit 113.
  • FIG. 14 shows an example of a screen displayed on the display device 263 of the mobile terminal device 9.
  • the balloon instruction receiving unit 215 acquires the identification information of the currently active input device 6 from the game device 10 in order to receive an instruction to select the input device 6 that displays the balloon from the user, and lists the acquired active input devices 6. 512 is displayed on the display device 263.
  • the balloon instruction receiving unit 215 receives a selection instruction by the user from the displayed list 512 of the input device 6, the balloon instruction receiving unit 215 transmits the received selection instruction to the game apparatus 10.
  • the screen of the list 512 is also displayed only on the display device 263 of the mobile terminal device 9 and is not displayed on the screen distributed from the distribution control unit 113.
  • FIG. 15 shows an example of a screen 400 displayed on the display of the output device 4.
  • the balloon control unit 116 obtains an instruction to select the input device 6 that displays a balloon from the mobile terminal device 9, the balloon control unit 116 displays a state in which the character 300 irradiates light to the input device 6. An effect that gives the function of displaying is displayed.
  • FIG. 16 shows an example of a screen 400 displayed on the display of the output device 4.
  • the balloon control unit 116 acquires information indicating that the touch pad 79 has been pressed from the input device 6, a state in which the image 320 associated with the input device 6 swells from the position of the input device 6. indicate.
  • FIG. 17 shows an example of a screen 400 displayed on the display of the output device 4.
  • the balloon control unit 116 acquires information indicating that the finger is released from the touch pad 79 from the input device 6, the image 320 associated with the input device 6 is connected to the input device 6 with the string 322. Display the state.
  • the balloon is a string 322 that is a first portion displayed at a position calculated by the balloon control unit 116 according to the position where the input device 6 is detected so as to follow the movement of the input device 6 that is the tracking target.
  • an image 320 that is a second part moved by the balloon control unit 116 depending on the movement of the root part of the string 322.
  • the balloon control unit 116 moves the root portion of the string 322 following the position of the input device 6 detected by the controller detection unit 117, and moves the balloon image 320 so as to be pulled by the string 322.
  • the balloon image 320 is moved according to the detected difference.
  • FIG. 18 shows an example of a screen 400 displayed on the display of the output device 4.
  • the balloon control unit 116 acquires information indicating that the light emitting unit 85 of the input device 6 cannot be detected from the controller detection unit 117, the balloon control unit 116 cuts the balloon string 322 connected to the input device 6 and the root of the string 322. And the balloon image 320 are separated. Since the user can recognize from the screen displayed on the output device 4 that the root portion of the balloon string 322 is moved following the input device 6, the light emission of the input device 6 that is the tracking target can be recognized. To easily understand the relationship between hiding the root portion of the string 322 that follows the unit 85 and the light emitting unit 85 and detaching the balloon image 320 that is moved depending on the string 322 from the input device 6. Can do.
  • the balloon control unit 116 may move the balloon separated from the string 322 upward according to the buoyancy of the balloon, or may float the air softly.
  • Game device 10 provides a function of displaying a billboard on which characters or images drawn by a user are posted on a screen.
  • the billboard instruction receiving unit 216 of the mobile terminal device 9 receives an instruction to display the billboard from the user via the menu screen displayed by the menu display unit 213, the billboard instruction receiving unit 216 displays an image drawing screen on the display device 263. Accept drawing of an image to be displayed as a billboard.
  • the billboard instruction receiving unit 216 transmits an instruction to display the billboard to the game apparatus 10. At this time, image data drawn by the user is also transmitted to the game apparatus 10. Also, an instruction for the position of the screen for displaying the billboard is received from the user, and the received display position is transmitted to the game apparatus 10.
  • the billboard control unit 119 of the game apparatus 10 displays the image acquired from the mobile terminal device 9 as a billboard at the designated position on the game screen.
  • the billboard displayed on the screen is also displayed on the distributed screen, so that the user can post a message to the viewer on the billboard.
  • the contents of the distributed game, comments about the game, the theme of the moving image being distributed, notice to the viewer, etc. can be posted on the billboard.
  • the billboard control unit 119 when the difference detection unit 118 detects a difference between frames in the vicinity of the displayed billboard, the billboard control unit 119 is displayed according to the detected difference. Affects billboards. For example, when the billboard control unit 119 detects a difference of a predetermined amount or more over a predetermined period in a region wider than the predetermined region near the billboard by the difference detection unit 118, the billboard control unit 119 In the direction from the position toward the center of gravity of the billboard, the amount of difference, the size of the area in which the difference has occurred, or a force of a magnitude corresponding to the period in which the difference has occurred is applied to the billboard, and the billboard is Move.
  • the user can move the billboard by taking an action of hitting the billboard with his / her hand, so that it is possible to provide an environment in which a highly entertaining interaction can be experienced.
  • the billboard control unit 119 may move the billboard not by physical calculation but by simple simulation. For example, the billboard may be moved by a predetermined amount in the direction opposite to the area where the difference has occurred.
  • the billboard control unit 119 causes noise in the billboard image in the area where the difference occurs or noise in the area transparently displayed on the background of the billboard. You may display the state that occurs.
  • the billboard control unit 119 tracks the movement of the user's body by analyzing the image captured by the camera 7 instead of or in addition to detecting the difference between frames in the moving image.
  • the billboard may be moved by applying a force to the billboard.
  • the shape of the user's hand may be recognized, and the billboard may be moved when the user's hand hits the billboard.
  • FIG. 19 shows an example of a screen displayed on the display device 263 of the mobile terminal device 9.
  • the billboard instruction receiving unit 216 of the mobile terminal device 9 displays a screen 520 on the display device 263 for instructing a position where the user displays the billboard.
  • the user instructs a position on the screen 520 where the billboard should be displayed.
  • the billboard instruction receiving unit 216 acquires the image captured by the camera 7 or the display image generated by the image generation unit 111 from the game apparatus 10 and displays it on the screen 520, and the position where the billboard should be displayed. And a size instruction is received.
  • the user can adjust the position and size of the billboard display while confirming the image displayed on the output device 4 or the terminal of the distribution destination viewer. If another billboard is already displayed, the image set on the billboard may be displayed at the set position.
  • This screen 520 is displayed only on the display device 263 of the mobile terminal device 9 and is not displayed on the screen distributed from the distribution control unit 113.
  • FIG. 20 shows an example of a screen displayed on the display device 263 of the mobile terminal device 9.
  • the billboard instruction receiving unit 216 displays a drawing screen 522 on which the user draws the billboard on the display device 263. The user can draw an image to be displayed as a billboard on the drawing screen 522.
  • the drawing screen 522 is also displayed only on the display device 263 of the mobile terminal device 9 and is not displayed on the screen distributed from the distribution control unit 113.
  • FIG. 21 shows an example of a screen 400 displayed on the display of the output device 4.
  • the billboard control unit 119 of the game apparatus 10 acquires image data to be displayed as a billboard from the mobile terminal device 9, the billboard controller 119 displays a state in which the character 300 blows the billboard material onto the billboard display position.
  • FIG. 22 shows an example of a screen 400 displayed on the display of the output device 4.
  • the billboard control unit 119 displays the billboard 330 at the position instructed by the user.
  • the billboard 330 is supported at both ends by two objects 332 and 334.
  • FIG. 23 shows an example of a screen 400 displayed on the display of the output device 4.
  • the two objects 332 and 334 that support both ends of the billboard 330 are rotated and displayed so as to face the position of the user's face detected by the face detection unit 115.
  • FIG. 24 shows an example of a screen 400 displayed on the display of the output device 4.
  • the difference detection unit 118 detects a difference between frames.
  • the billboard control unit 119 shakes the object 332 when a difference is detected in the vicinity of the object 332, and drops the object 332 when the amount of the difference is large.
  • the billboard control unit 119 displays a state in which the billboard 330 that has lost support at the left end hangs down.
  • the billboard control unit 119 displays a state in which the object 332 returns to the original position and supports the left end of the billboard 330 again when a predetermined time elapses after the object 332 falls.
  • the game apparatus 10 provides a function of horizontally flipping the screen.
  • the image generation unit 111 of the game apparatus 10 is a mirror image obtained by horizontally inverting the image captured by the camera 7 in order to make it easy for the user to interact with a balloon, billboard, character, or the like displayed on the screen. Generate a screen using.
  • the user is distributing a moving image and wants the camera 7 to capture characters and the like to be shown to the viewer, the characters are reversed left and right and are difficult to read. Therefore, for example, when the message to the viewer is imaged by the camera 7 and delivered to the viewer, the screen is further horizontally reversed according to the user's instruction as necessary, and the original image captured by the camera 7 is restored.
  • the mirror image control unit 120 displays an instruction to reverse the display screen from the mirror image instruction receiving unit 217 of the input device 6 or the mobile terminal device 9, that is, the original image captured by the camera 7 instead of the mirror image.
  • the image generation unit 111 is instructed to flip the display screen left and right.
  • the image generation unit 111 receives an instruction to flip the display screen left and right from the mirror image control unit 120, the image generation unit 111 generates the screen using the original image captured by the camera 7, thereby flipping the screen left and right.
  • the mirror surface image control unit 120 receives a screen displayed on the display of the output device 4 viewed by the user who distributes the moving image when receiving an instruction to flip the display screen left and right, and the distribution server 5. Both of the screens of the moving images to be distributed may be reversed left or right, or only one of them may be reversed.
  • the face detection unit 115, the controller detection unit 117, and the difference detection unit 118 are used for detecting the difference between the face, the input device 6, and the frame 7.
  • the image picked up by the above may be reversed horizontally or may not be reversed horizontally.
  • the game apparatus 10 has a function of receiving a questionnaire execution instruction for a viewer from a user who distributes a moving image, and receiving a vote for the questionnaire from another user who is viewing the distributed moving image. provide.
  • the voting control unit 121 of the game apparatus 10 receives a questionnaire response regarding the evaluation of the distributed moving image from the viewer while the distribution control unit 113 distributes the display image.
  • the voting control unit 121 can accept, from a viewer, a questionnaire answer uniquely set by the user, in addition to the default questionnaire that can accept a regular answer.
  • the voting instruction receiving unit 218 of the mobile terminal device 9 receives an instruction to conduct a questionnaire for the viewer via the menu screen displayed by the menu display unit 213 when the user distributes a moving image
  • a screen for accepting the question and answer options from the user is displayed on the display device 263, and the questionnaire question and answer options are accepted from the user.
  • the number of options for answering the questionnaire may be a predetermined number.
  • the number of operation buttons 76 of the input device 6 may be four.
  • the voting instruction reception unit 218 transmits the received questionnaire question and answer options to the game apparatus 10.
  • the voting instruction accepting unit 218 stores the accepted questionnaire questions and answer options in the data holding unit 260, and holds the data when instructed by the user to execute the questionnaire stored in the data holding unit 260.
  • Questionnaire questions and answer options may be read from unit 260 and transmitted to game device 10.
  • the voting control unit 121 of the game apparatus 10 displays a billboard displaying the questionnaire items received from the mobile terminal device 9 on a screen distributed to other users. Thereby, the viewer can know that the questionnaire by the user is being implemented.
  • the voting control unit 121 may include a user interface for receiving a vote for a questionnaire from a viewer on a screen distributed to other users.
  • This user interface may be realized by a script or the like that can be executed in a browser mounted on the mobile terminal device 9, the game device 10, or a personal computer used by the viewer to view a moving image.
  • This user interface may be provided as a standard function in a service for distributing moving images from the game apparatus 10.
  • the user interface transmits the received vote result directly to the game apparatus 10 or to the game apparatus 10 via the distribution server 5.
  • the voting control unit 121 When the voting control unit 121 acquires the result of voting by the viewer from the viewer terminal or the distribution server 5, the voting control unit 121 stores the result of voting in the data holding unit 160. When the voting control unit 121 is requested to obtain an intermediate process from the voting instruction receiving unit 218 of the portable terminal device 9 during the questionnaire, the voting control unit 121 reads the voting result from the data holding unit 160 and transmits the result to the portable terminal device 9. To do.
  • the voting instruction receiving unit 218 displays the progress of voting acquired from the game apparatus 10 on the display device 263. Since the progress of voting is not displayed on the screen generated by the image generation unit 111, the user who is viewing the display of the output device 4 or the moving image distributed from the distribution server 5 is viewed. The user cannot see the progress, and only the user who uses the mobile terminal device 9 who created the questionnaire can see the progress.
  • the voting instruction receiving unit 218 transmits the received instruction to the game apparatus 10 when the user instructs the end of the questionnaire.
  • the voting control unit 121 deletes the displayed questionnaire item from the screen.
  • the voting instruction receiving unit 218 transmits the received instruction to the game apparatus 10 when the user instructs distribution of the questionnaire result.
  • the voting control unit 121 reads the questionnaire result from the data holding unit 160 and displays the result on the screen generated by the image generation unit 111.
  • information such as a response to a questionnaire received by the game apparatus 10 from a specific display target, for example, another user who is viewing a moving image distributed from the distribution control unit 113 requires an implementation of the questionnaire.
  • the user's mobile terminal device 9 can display the image at an arbitrary timing, but the distribution image is not displayed unless there is a public instruction from the user's mobile terminal device 9. Therefore, the user can collect information privately from the viewer during distribution of the moving image, and can display the information on the distribution image and publish it if necessary.
  • FIG. 25 shows an example of a screen displayed on the display device 263 of the mobile terminal device 9.
  • the voting instruction reception unit 218 of the mobile terminal device 9 displays a screen 530 for receiving questionnaire items from the user on the display device 263.
  • the user sets a questionnaire item on the screen 530.
  • the voting instruction receiving unit 218 transmits the received questionnaire items to the game apparatus 10.
  • FIG. 26 shows an example of a screen 400 displayed on the display of the output device 4.
  • the voting control unit 121 of the game apparatus 10 acquires the item of the questionnaire from the mobile terminal device 9, the voting control unit 121 displays a state in which the character 300 displays the questionnaire 340 as a hologram.
  • FIG. 27 shows an example of a screen 600 displayed on the display device of the user terminal that views the moving image distributed by the distribution server 5.
  • the screen 600 is provided with a user interface for answering a questionnaire. Users can vote for questionnaires via the interface.
  • FIG. 28 shows an example of a screen 400 displayed on the display of the output device 4.
  • the voting control unit 121 acquires a vote for a questionnaire from a user who views the distributed moving image
  • the voting control unit 121 displays an icon 342 indicating that the vote for the questionnaire has been acquired on the screen 400.
  • FIG. 29 shows an example of a screen displayed on the display device 263 of the mobile terminal device 9.
  • the voting instruction reception unit 218 transmits the received instruction to the game apparatus 10 when receiving an instruction to acquire the progress of the questionnaire from the user.
  • the voting control unit 121 receives an instruction to acquire the progress of the questionnaire from the portable terminal device 9 that has requested execution of the questionnaire
  • the voting control unit 121 reads the questionnaire result from the data holding unit 160 and transmits the result to the portable terminal device 9.
  • the voting instruction reception unit 218 displays a screen 532 indicating the progress of the questionnaire on the display device 263. This screen 532 is displayed only on the display device 263 of the mobile terminal device 9 that has requested execution of the questionnaire, and is not displayed on the screen distributed from the distribution control unit 113. That is, the user who requested the implementation of the questionnaire can check the progress of the questionnaire without opening the results of the questionnaire to the viewer.
  • FIG. 30 shows an example of a screen 400 displayed on the display of the output device 4.
  • the voting instruction reception unit 218 transmits the received instruction to the game device 10 when receiving an instruction to distribute the result of the questionnaire from the user.
  • the voting control unit 121 receives an instruction to distribute the questionnaire result from the mobile terminal device 9 that has requested execution of the questionnaire, the voting control unit 121 reads the questionnaire result from the data holding unit 160 and displays the aggregated questionnaire result 344 on the screen 400. indicate.
  • the screen 400 displaying the questionnaire result 344 is also distributed to the user who is viewing the moving image.
  • FIG. 31 is a flowchart showing a procedure of the game control method according to the embodiment.
  • the mask instruction receiving unit 214 of the mobile terminal device 9 transmits the received instruction to the game apparatus 10 (S102).
  • the mask control unit 114 of the game apparatus 10 causes the face detection unit 115 to detect the face included in the image captured by the camera 7 (S 104). The face image is transmitted to the mobile terminal device 9 (S106).
  • the mask instruction accepting unit 214 displays a list of face images transmitted from the game apparatus 10 on the display device 263 in order to accept a user's selection instruction to display a mask on the face (S108).
  • An instruction to select a face to be displayed (S110), an instruction to select a mask image to be displayed are received from the user (S112), an instruction to select a face to be received (S114), and an instruction to select a mask image are transmitted to the game apparatus 10 ( S116).
  • the mask control unit 114 When the mask control unit 114 obtains an instruction to select a face and mask image for displaying a mask from the mobile terminal device 9, the mask control unit 114 displays a state in which the character sprays the mask material on the face (S118). A mask image is displayed at the face position detected by the face detection unit 115 (S120). While the face detection unit 115 can detect the user's face (N in S122), the mask control unit 114 displays a mask image superimposed on the detected face position (S120). When the face detection unit 115 cannot detect the user's face by covering the face with a hand and hiding it (Y in S122), the mask control unit 114 shows that the displayed mask 312 disappears. An animation is displayed (S124), and when the animation display ends, the mask image is deleted (S126).
  • FIG. 32 is a flowchart showing the procedure of the game control method according to the embodiment.
  • the balloon instruction accepting unit 215 of the mobile terminal device 9 transmits the accepted instruction to the game device 10 (S202).
  • the balloon control unit 116 of the game device 10 transmits identification information of the active input device 6 to the mobile terminal device 9 (S206).
  • the balloon instruction receiving unit 215 displays a list of the active input devices 6 transmitted from the game device 10 on the display device 263 (S208), selects the input device 6 to which the balloon display is assigned (S210), and displays the balloon to be displayed.
  • An image selection instruction is received from the user (S212), the received selection instruction of the input device 6 (S214), and a balloon image selection instruction are transmitted to the game apparatus 10 (S216).
  • the balloon control unit 116 When the balloon control unit 116 acquires the input device 6 and a balloon image selection instruction from the portable terminal device 9, the balloon control unit 116 displays an animation of the character irradiating light on the input device 6 (S217).
  • the balloon control unit 116 waits until the touch pad 79 of the input device 6 to which the balloon display is assigned is pressed (N in S218), and when the touch pad 79 is pressed (Y in S218), Until the pressing is completed (N in S222), a state in which the balloon image assigned to the input device 6 swells from the position of the input device 6 is displayed (S220).
  • the balloon control unit 116 connects the balloon to the input device 6 while the controller detection unit 117 can detect the position of the input device 6 (N in S226).
  • the displayed state is displayed (S224). If the controller cannot detect the position of the input device 6 because the user covers and hides the light emitting unit 85 of the input device 6 (Y in S226), the balloon control unit 116 displays the balloon in the input device.
  • an animation is displayed (S228). When the animation display is completed, the balloon is erased (S230).
  • FIG. 33 is a flowchart showing a procedure of the game control method according to the embodiment.
  • the billboard instruction receiving unit 216 of the mobile terminal device 9 receives an instruction to display a billboard from the user (S300)
  • the billboard instruction receiving unit 216 transmits the received instruction to the game device 10 (S302).
  • the billboard control unit 119 of the game apparatus 10 receives an instruction to display the billboard from the mobile terminal device 9, the display image generated by the image generation unit 111 and displayed on the output device 4 is sent to the mobile terminal device 9. Transmit (S306).
  • the billboard instruction accepting unit 216 displays the display image transmitted from the game apparatus 10 on the display device 263 (S308), selects a position for displaying the billboard (S310), and selects an image to be displayed as the billboard.
  • the instruction is received from the user (S312), the received display position selection instruction (S314), and the billboard image selection instruction are transmitted to the game apparatus 10 (S316).
  • the billboard control unit 119 When the billboard control unit 119 obtains the display position of the billboard and the selection instruction of the image to be displayed as the billboard from the mobile terminal device 9, the billboard control unit 119 displays an animation of spraying the material of the billboard image on the display position (S318). When the animation display ends, a billboard image is displayed at the display position (S320).
  • the difference detection unit 118 detects a difference in the vicinity of the area where the billboard is displayed (Y in S322)
  • the billboard control unit 119 changes the display mode of the billboard according to the detected difference. (S324). If no difference is detected (N in S322), the billboard image is displayed as it is (S320).
  • FIG. 34 is a flowchart showing a procedure of the game control method according to the embodiment.
  • the game apparatus 10 acquires a captured image from the camera 7 (S400). If the mirror image control unit 120 has not received an instruction to flip the display image left and right (N in S402), the mirror image control unit 120 generates a mirror image obtained by horizontally inverting the captured image, and generates a display image based on the mirror image (S404). . When an instruction to horizontally flip the display image is received (Y in S402), S404 is skipped, and the captured image is not horizontally reversed, thereby generating a display image that is horizontally reversed from the normal display image.
  • the specular image control unit 120 When the specular image control unit 120 has not received an instruction to horizontally flip the detection image used by the difference detection unit 118 to detect the difference between frames (N in S406), the mirror image control unit 120 reverses the captured image to the left and right to detect the detected image. And the difference is detected based on the generated detection image (S408). If an instruction to flip the detected image to the left and right is accepted (Y in S406), skip S408 and do not flip the captured image to the left or right, so that the difference from the normal detected image is based on the detected image that is reversed left and right Is detected.
  • the difference detection unit 118 detects a difference between frames based on a detection image that is horizontally reversed or not horizontally reversed, and the captured real world user, a displayed virtual world character, a balloon, An interaction with an object such as a billboard is detected (S410).
  • the balloon control unit 116 and the billboard control unit 119 control the balloon and the billboard according to the detected interaction (S412).
  • the image generation unit 111 generates a distribution image including the interacted balloon and billboard (S414).
  • FIG. 35 is a flowchart showing a procedure of the game control method according to the embodiment.
  • the voting instruction receiving unit 218 of the mobile terminal device 9 receives an instruction to conduct a questionnaire from the user (S500), the questionnaire question (S502) and the answer option for the question are received from the user (S504) and received.
  • a questionnaire execution instruction is transmitted to the game apparatus 10 together with the selected question and answer options (S506).
  • the voting control unit 121 When the voting control unit 121 obtains the questionnaire execution instruction from the mobile terminal device 9, the voting control unit 121 displays the questionnaire question and answer options on the distribution image distributed by the image generation unit 111 (S508).
  • the distribution image on which the questionnaire is displayed is transmitted from the distribution control unit 113 to the viewer's terminal via the distribution server 5 (S510), and the viewer answers the questionnaire (S512).
  • the voting control unit 121 acquires the questionnaire response from the viewer's terminal, the voting control unit 121 stores the acquired response in the data holding unit 160 (S514). At this time, the voting control unit 121 displays an icon or the like indicating that the questionnaire response has been acquired on the distribution image.
  • the voting instruction accepting unit 218 accepts an instruction to acquire the progress of the questionnaire from the user (S516), it transmits the accepted instruction to the game device 10 (S518).
  • the voting control unit 121 receives an instruction to acquire the progress of the questionnaire from the portable terminal device 9 that has requested execution of the questionnaire, the voting control unit 121 reads the questionnaire result from the data holding unit 160 and transmits the result to the portable terminal device 9 (S520). ).
  • the voting instruction reception unit 218 displays a screen indicating the progress of the questionnaire on the display device 263 (S522).
  • the voting instruction receiving unit 218 When the voting instruction receiving unit 218 receives an instruction to publish the questionnaire result from the user (S524), the voting instruction receiving unit 218 transmits the received instruction to the game device 10 (S526).
  • the voting control unit 121 receives an instruction to distribute the questionnaire result from the mobile terminal device 9 that has requested execution of the questionnaire, the voting control unit 121 reads the questionnaire result from the data holding unit 160 and displays the aggregated questionnaire result on the distribution image. (S528). The distribution image displaying the result of the questionnaire is distributed to the viewer's terminal (S530).
  • the distribution image distributed from the distribution control unit 113 to another device and the display image displayed on the display of the output device 4 may be the same or different.
  • the masks, balloons, billboards, questionnaire results, etc. described above may be displayed only on the distribution image, only on the display image, or on both.
  • the present invention can be used in an image processing apparatus that processes a captured image.

Abstract

 ゲーム装置10は、撮像装置が撮像した撮像画像を取得し、取得した撮像画像に含まれる追跡対象を検出する検出部と、追跡対象が検出された位置に応じて、所定の画像を表示する位置を算出する制御部と、撮像画像に重畳して、撮像画像の制御部により算出された位置に所定の画像を表示する表示画像を生成し、生成した表示画像を表示装置に表示する画像生成部111と、を備える。

Description

画像処理装置、画像処理方法及び画像処理プログラム
 本発明は、画像処理技術に関し、とくに、撮像された画像を処理する画像処理装置、画像処理方法及び画像処理プログラムに関する。
 撮像装置により撮像された実写画像を利用したゲームが提供されている。ユーザは、自身の周辺が撮像された画像を見ながら、ゲームプレイを楽しむことができる。
 本発明者らは、このような実写画像を利用したゲームにおいて、娯楽性を向上させるための新たな技術に想到した。
 本発明はこうした状況に鑑みてなされたものであり、その目的は、より娯楽性の高いゲームを提供することにある。
 上記課題を解決するために、本発明のある態様の画像処理装置は、撮像装置が撮像した撮像画像を取得し、取得した撮像画像に含まれる追跡対象を検出する検出部と、追跡対象が検出された位置に応じて、所定の画像を表示する位置を算出する制御部と、撮像画像に重畳して、撮像画像の制御部により算出された位置に所定の画像を表示する表示画像を生成し、生成した表示画像を表示装置に表示する生成部と、を備える。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、より娯楽性の高いゲームを提供することができる。
本発明の実施の形態に係るゲームシステムを示す図である。 図2(a)は入力装置上面の外観構成を示す図であり、図2(b)は入力装置奥側側面の外観構成を示す図である。 ゲーム装置の機能ブロック図を示す図である。 ゲーム装置の構成を示す図である。 携帯情報端末の構成を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 携帯端末装置の表示装置に表示される画面の例を示す図である。 携帯端末装置の表示装置に表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 携帯端末装置の表示装置に表示される画面の例を示す図である。 携帯端末装置の表示装置に表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 携帯端末装置の表示装置に表示される画面の例を示す図である。 携帯端末装置の表示装置に表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 携帯端末装置の表示装置に表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 配信サーバにより配信される動画像を視聴するユーザの端末の表示装置に表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 携帯端末装置の表示装置に表示される画面の例を示す図である。 出力装置のディスプレーに表示される画面の例を示す図である。 実施の形態に係るゲーム制御方法の手順を示すフローチャートである。 実施の形態に係るゲーム制御方法の手順を示すフローチャートである。 実施の形態に係るゲーム制御方法の手順を示すフローチャートである。 実施の形態に係るゲーム制御方法の手順を示すフローチャートである。 実施の形態に係るゲーム制御方法の手順を示すフローチャートである。
 図1は、本発明の実施の形態に係るゲームシステム1の構成を示す。ゲームシステム1は、ゲーム装置10と、ゲーム装置10のユーザによって操作される入力装置6a、6bと、ゲーム装置10のユーザによって操作される携帯端末装置9a、9bとを備える。ゲーム装置10は、アクセスポイント(AP)8経由で、外部のネットワーク3に接続された配信サーバ5や他のユーザの携帯端末装置9c、9dなどと通信可能に接続される。ゲーム装置10には、複数のユーザが同時にログインすることができる。
 補助記憶装置2は、HDD(ハードディスクドライブ)やフラッシュメモリなどの大容量記憶装置であり、USB(Universal Serial Bus)などによってゲーム装置10と接続する外部記憶装置であってよく、また内蔵型記憶装置であってもよい。出力装置4は、画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよい。ゲーム装置10は、ユーザが操作する入力装置6と無線又は有線で接続し、入力装置6はユーザの操作結果を示す操作情報をゲーム装置10に出力する。ゲーム装置10は、更に、ユーザが操作する携帯端末装置9と無線又は有線で接続し、携帯端末装置9はユーザの操作結果を示す操作情報や、ゲーム装置10において実行されるゲームプログラムなどにより使用されるデータなどをゲーム装置10に送信する。ゲーム装置10は、入力装置6又は携帯端末装置9からの操作情報を受け付けると、OS(システムソフトウェア)やゲームプログラムなどの処理に反映し、出力装置4から処理結果を出力させる。
 撮像装置であるカメラ7は出力装置4の近傍に設けられ、出力装置4周辺の空間を撮像する。図1ではカメラ7が出力装置4の上部に取り付けられている例を示しているが、出力装置4の側方に配置されてもよく、いずれにしても出力装置4の前方でゲームをプレイするユーザを撮像できる位置に配置される。なおカメラ7はステレオカメラであってよいし、測距カメラであってもよい。
 入力装置6は、ゲーム装置10にユーザの操作情報を提供するゲームコントローラであってもよい。ゲームコントローラは、複数のプッシュ式の操作ボタンや、アナログ量を入力できるアナログスティック、回動式ボタンなどの複数の入力部を有して構成される。
 携帯端末装置9は、スマートフォンやタブレットなどの携帯型情報端末であってもよいし、携帯型ゲーム装置であってもよい。携帯端末装置9は、ゲーム装置10において実行されるゲームプログラムにユーザの操作情報やゲームのデータなどを送信するためのアプリケーションを実行する。
 本実施の形態のゲーム装置10は、カメラ7が撮像したユーザの周辺の実写画像を利用したゲームを提供するとともに、ユーザがプレイしているゲームの画面を他のユーザに対して配信する機能を有する。ゲーム装置10は、ユーザA及びBがゲームを実行しているときに、ユーザA又はBからゲームの画面を配信する指示を受け付けると、ネットワーク3を介して配信サーバ5へゲームの画面のデータをアップロードする。ユーザC及びDは、携帯端末装置9、ゲーム装置10、パーソナルコンピュータなどを用いて、ネットワーク3を介して配信サーバ5にアクセスし、配信されているゲームの動画像を視聴することができる。ゲームの動画像は、配信サーバからストリーミング配信されてもよいし、配信サーバに蓄積された動画像がダウンロード配信されてもよい。
 入力装置6のボタン構成について説明する。
[上面部の構成]
 図2(a)は、入力装置上面の外観構成を示す。ユーザは左手で左側把持部78bを把持し、右手で右側把持部78aを把持して、入力装置6を操作する。入力装置6の筐体上面には、入力部である方向キー71、アナログスティック77a、77bと、4種の操作ボタン76が設けられている。4種のボタン72~75には、それぞれを区別するために、異なる色で異なる図形が記されている。すなわち、○ボタン72には赤色の丸、×ボタン73には青色のバツ、□ボタン74には紫色の四角形、△ボタン75には緑色の三角形が記されている。筐体上面上において、方向キー71と操作ボタン76の間の平坦な領域には、タッチパッド79が設けられる。タッチパッド79は、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。
 2つのアナログスティック77a、77bの間に機能ボタン80が設けられる。機能ボタン80は、入力装置6の電源をオンし、同時に入力装置6とゲーム装置10とを接続する通信機能をアクティブにするために使用される。入力装置6がゲーム装置10と接続した後は、機能ボタン80は、ゲーム装置10にメニュー画面を表示させるためにも使用される。
 SHAREボタン81は、タッチパッド79と方向キー71の間に設けられる。SHAREボタン81は、ゲーム装置10におけるOSないしはシステムソフトウェアに対するユーザからの指示を入力するために利用される。またOPTIONSボタン82は、タッチパッド79と操作ボタン76の間に設けられる。OPTIONSボタン82は、ゲーム装置10において実行されるアプリケーション(ゲーム)に対するユーザからの指示を入力するために利用される。SHAREボタン81およびOPTIONSボタン82は、いずれもプッシュ式ボタンとして形成されてよい。
[奥側側面部の構成]
 図2(b)は、入力装置奥側側面の外観構成を示す。入力装置6の筐体奥側側面の上側には、タッチパッド79が筐体上面から延設されており、筐体奥側側面の下側には、横長の発光部85が設けられる。発光部85は、赤(R)、緑(G)、青(B)のLEDを有し、ゲーム装置10から送信される発光色情報にしたがって点灯する。
 筐体奥側側面において、上側ボタン83a、下側ボタン84aと、上側ボタン83b、下側ボタン84bとが長手方向の左右対称な位置に設けられる。上側ボタン83a、下側ボタン84aは、それぞれユーザ右手の人差し指、中指により操作され、上側ボタン83b、下側ボタン84bは、それぞれユーザ左手の人差し指、中指により操作される。図示されるように発光部85が、右側の上側ボタン83a、下側ボタン84aの並びと、左側の上側ボタン83b、下側ボタン84bの並びの間に設けられることで、各ボタンを操作する人差し指または中指によって隠れることはなく、カメラ7は、点灯した発光部85を好適に撮像することができる。上側ボタン83はプッシュ式ボタンとして構成され、下側ボタン84は回動支持されたトリガー式のボタンとして構成されてよい。
 図3は、ゲーム装置10の機能ブロック図を示す。ゲーム装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60を有して構成される。
 メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリおよびメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUはゲームプログラムの演算処理に主として利用される。これらの機能はシステムオンチップとして構成されて、1つのチップ上に形成されてよい。メインCPUは補助記憶装置2に記録されたゲームプログラムを実行する機能をもつ。
 サブシステム50は、サブCPU、主記憶装置であるメモリおよびメモリコントローラなどを備え、GPUを備えず、ゲームプログラムを実行する機能をもたない。サブCPUの回路ゲート数は、メインCPUの回路ゲート数よりも少なく、サブCPUの動作消費電力は、メインCPUの動作消費電力よりも少ない。サブCPUは、メインCPUがスタンバイ状態にある間においても動作し、消費電力を低く抑えるべく、その処理機能を制限されている。
 メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、ゲーム装置10の筐体の前面に設けられ、ゲーム装置10のメインシステム60への電源供給をオンまたはオフするために操作される。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。
 システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。メイン電源がオフ状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オン指示」として取得し、一方で、メイン電源がオン状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オフ指示」として取得する。
 クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50およびメインシステム60に供給する。
 デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。
 メディアドライブ32は、ゲームなどのアプリケーションソフトウェア、およびライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアである。
 USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は補助記憶装置2およびカメラ7とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、たとえば入力装置6と無線通信する。なお無線通信モジュール38は、ITU(International Telecommunication Union;国際電気通信連合)によって定められたIMT-2000(International Mobile Telecommunication 2000)規格に準拠した第3世代(3rd Generation)デジタル携帯電話方式に対応してもよく、さらには別の世代のデジタル携帯電話方式に対応してもよい。有線通信モジュール40は、外部機器と有線通信し、たとえばAP8を介してネットワーク3に接続する。
 図4は、ゲーム装置10の構成を示す。ゲーム装置10は、通信部102、制御部110及びデータ保持部160を備える。図4において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 通信部102は、図3に示す無線通信モジュール38及び有線通信モジュール40の機能を有し、ネットワーク3を介した通信を制御する。データ保持部160は、補助記憶装置2に設けられ、ゲームプログラムが使用するデータなどを格納する。制御部110は、画像生成部111、音声生成部112、配信制御部113、マスク制御部114、顔検出部115、バルーン制御部116、コントローラ検出部117、差分検出部118、ビルボード制御部119、鏡面画像制御部120及び投票制御部121を備える。
 画像生成部111は、制御部110の他の構成により制御されるゲームの画像を生成する。音声生成部112は、制御部110の他の構成により制御されるゲームの音声を生成する。画像生成部111及び音声生成部112は、生成した画像及び音声のデータを出力装置4に出力する。配信制御部113は、画像生成部111及び音声生成部112が生成したゲームの画像及び音声のデータを他のユーザに配信する指示をユーザから受け付けると、画像生成部111が生成した画像のデータ及び音声生成部112が生成した音声のデータを、通信部102を介して配信サーバ5へアップロードする。制御部110の他の構成の詳細については後述する。
 図5は、携帯情報端末の構成を示す。携帯端末装置9は、通信部202、制御部210、データ保持部260、入力装置261、タッチパッド262、表示装置263及びスピーカ264を備える。これらの機能ブロックも、ハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できる。
 通信部202は、ネットワーク3を介した通信を制御する。データ保持部260は、記憶装置に設けられ、ゲーム装置10において実行されるゲームプログラムを制御するために携帯端末装置9の制御部210において実行されるアプリケーションが使用するデータなどを格納する。表示装置263は、制御部210により生成された画像を表示する。スピーカ264は、制御部210により生成された音声を出力する。入力装置261は、ユーザからの指示を制御部210に入力する。タッチパッド262は、表示装置263に併設され、ユーザからの指示を制御部210に入力する。
 制御部210は、画像生成部211、音声生成部212、メニュー表示部213、マスク指示受付部214、バルーン指示受付部215、ビルボード指示受付部216、鏡面画像指示受付部217及び投票指示受付部218を備える。画像生成部211は、制御部210の他の構成により制御されるゲームの画像を生成して表示装置263に出力する。音声生成部212は、制御部210の他の構成により制御されるゲームの音声を生成してスピーカ264に出力する。制御部210の他の構成の詳細については後述する。
(マスク表示)
 実施の形態に係るゲーム装置10は、ユーザの顔の位置を追跡し、ユーザの顔にマスクの画像を重畳して表示することにより、ユーザがマスクをかぶっているような映像を生成する機能を提供する。
 携帯端末装置9のマスク指示受付部214は、メニュー表示部213が表示したメニュー画面を介して、マスクを表示する指示をユーザから受け付けると、ゲーム装置10へ指示を送信する。ゲーム装置10のマスク制御部114は、携帯端末装置9からマスクを表示する指示を受信すると、カメラ7により撮像された画像に含まれる人間の顔を顔検出部115に検出させる。
 顔検出部115は、カメラ7により撮像された画像に含まれる人間の顔を検出する。顔検出部115は、所定のタイミングでカメラ7により撮像された画像のデータを取得し、既知の任意の顔認識技術を用いて人間の顔を検出する。マスクが表示されている間、顔検出部115は、カメラ7により撮像された全てのフレームについて顔認識を実行してもよいし、所定数のフレームごとに顔認識を実行してもよい。顔検出部115が、所定の時間間隔で連続して、カメラ7により撮像された画像に含まれる顔を検出することにより、撮像されている人の顔を追跡することができる。
 マスク制御部114は、マスクをいずれのユーザの顔に表示するかの指示を受け付けるために、顔検出部115により検出された顔の画像のデータを携帯端末装置9へ送信する。マスク指示受付部214は、ゲーム装置10から受信した顔の画像の一覧を表示装置263に表示し、マスクを表示する顔の選択指示をユーザから受け付ける。マスク指示受付部214は、入力装置261又はタッチパッド262を介してユーザから選択指示を受け付けると、受け付けた選択指示をゲーム装置10へ送信する。
 マスク指示受付部214は、更に、マスクとして表示すべき画像の種類の選択指示をユーザから受け付ける。マスクとして表示すべき画像は、携帯端末装置9のデータ保持部260又はゲーム装置10のデータ保持部160に格納された2次元画像データ又は3次元形状データの中から選択されてもよいし、ユーザにより描画された画像であってもよい。後者の場合、マスク指示受付部214は、描画画面を表示装置263に表示し、ユーザから画像の描画を受け付ける。マスク指示受付部214は、画像の選択指示を受け付けると、受け付けた選択指示をゲーム装置10へ送信する。このとき、ユーザが描画した画像、又は、ゲーム装置10のデータ保持部160にデータが格納されていない画像が選択された場合は、画像データもゲーム装置10へ送信する。
 マスク制御部114は、顔検出部115により検出された人間の顔のうち、携帯端末装置9を介してユーザから指示された人の顔の位置に、指示された種類のマスクの画像を重畳して表示する。マスク制御部114は、顔検出部115が検出した顔の大きさに合わせて、表示すべきマスクの画像を拡大又は縮小し、検出された顔の位置に表示する。
 顔検出部115は、顔の輪郭の形状や目、鼻及び口の位置などを検出することにより、顔の向きを検出する。マスク制御部114は、顔検出部115により検出された顔の向きに合わせて、マスクの画像を回転させて表示する。マスクとして表示される画像が、3次元形状データをレンダリングすることにより生成される画像である場合は、マスク制御部114は、検出された顔の向きに合わせて3次元形状データを回転させてレンダリングする。このとき、顔の位置とカメラ7の位置とを結ぶ直線方向を基準方向として、検出された顔の回転角度よりも更に所定の角度回転させた角度をマスクの画像の回転角度としてもよい。すなわち、マスクが顔に表示されているユーザが、顔を傾けたり回転させたりしたときに、実際の傾き又は回転角度よりも大きくマスクの画像を傾けたり回転させてもよい。これにより、マスクの画像の回転をより強調し、マスクの画像が顔の回転に合わせて回転されたことを分かりやすく示すことができる。顔の基準方向からの回転角度が大きいほど、実際の回転角度よりも更に回転させる角度を大きくしてもよい。
 マスクとして表示される画像が2次元画像である場合は、顔の位置とカメラ7の位置とを結ぶ直線の周りに顔が回転されたときには顔の回転に合わせてマスクを回転させる一方、顔の位置とカメラ7の位置とを結ぶ直線に垂直な直線の周りの顔の回転は無視してもよい。別の例においては、顔の位置とカメラ7の位置とを結ぶ直線に垂直な垂直の周りに顔が回転している場合は、マスクとして表示する画像を、その直線に垂直な方向に縮小して表示してもよい。更に別の例においては、頭をモデリングした立体、又は、球若しくは円筒などの立体の表面に、マスクとして表示される2次元画像をテクスチャとして貼り付け、顔の向きに合わせて立体を回転させることにより、マスクとして表示される画像を回転させてもよい。この場合も、実際の顔の回転角度よりも大きい角度でマスクとして表示される画像を回転させてもよい。
 マスクを表示している人の顔がカメラ7の視野から外れたり、その人がカメラ7に背を向けたり顔を隠したりして、顔検出部115が顔を検出することができなくなったときは、マスク制御部114はマスクを消去する。このとき、マスクを表示していた領域にノイズが入る様子や、画面に表示しているキャラクタがマスクに対して邪魔をしている様子などを表示した後、マスクを消去してもよい。
 図6は、出力装置4のディスプレーに表示される画面400の例を示す。出力装置4のディスプレーには、カメラ7により撮像された画像が表示されるとともに、撮像画像にキャラクタ300が重畳されて表示されている。
 図7は、携帯端末装置9の表示装置263に表示される画面の例を示す。携帯端末装置9のマスク指示受付部214は、ユーザがマスクを描画するための描画画面500を表示装置263に表示する。ユーザは、描画画面500において、マスクとして表示すべき画像を描画することができる。この描画画面500は、携帯端末装置9の表示装置263のみに表示され、配信制御部113から配信される画面には表示されない。
 図8は、携帯端末装置9の表示装置263に表示される画面の例を示す。携帯端末装置9のマスク指示受付部214は、マスクを顔に表示するユーザの選択指示をユーザから受け付けるために、ゲーム装置10の顔検出部115により検出された撮像画像中の全ての顔の画像データをゲーム装置10から取得し、取得したユーザの顔の一覧502を表示装置263に表示する。ユーザは、顔の一覧502が表示された画面において、カメラ7により撮像され顔検出部115により検出された全ての人の顔の中から、いずれの人の顔にマスクを付けるのかを選択することができる。この顔の一覧502の画面も、携帯端末装置9の表示装置263のみに表示され、配信制御部113から配信される画面には表示されないマスク指示受付部214は、表示された顔の一覧502の中からユーザによる選択指示を受け付けると、受け付けた選択指示をゲーム装置10へ送信する。
 図9は、出力装置4のディスプレーに表示される画面400の例を示す。ゲーム装置10のマスク制御部114は、携帯端末装置9からマスクを表示する顔の選択指示を取得すると、キャラクタ300がその顔にマスクの素材を吹き付ける様子を表示する。
 図10は、出力装置4のディスプレーに表示される画面400の例を示す。キャラクタ300が顔にマスクの素材を吹き付けるアニメーション表示が終了すると、マスク制御部114は、顔検出部115により検出された顔の位置にマスク310を表示する。
 図11は、出力装置4のディスプレーに表示される画面400の例を示す。顔にマスク312が表示されているユーザが顔を傾けると、マスク制御部114は、顔検出部115により検出された顔の傾きよりも大きくマスク312を傾けて表示する。
 図12は、出力装置4のディスプレーに表示される画面400の例を示す。顔にマスク312が表示されているユーザが顔を手で覆って隠すと、顔検出部115はユーザの顔を検出できなくなる。このとき、マスク制御部114は、表示されていたマスク312が消えていく様子をアニメーション表示し、アニメーション表示が終了するとマスク312を消去する。
(バルーン表示)
 実施の形態に係るゲーム装置10は、入力装置6の位置を追跡し、入力装置6の位置から伸びる紐と、紐に繋がれたオブジェクトを表示することにより、入力装置6にバルーンが繋がれているような映像を生成する機能を提供する。
 携帯端末装置9のバルーン指示受付部215は、メニュー表示部213が表示したメニュー画面を介して、バルーンを表示する指示をユーザから受け付けると、ゲーム装置10へ指示を送信する。ゲーム装置10のバルーン制御部116は、携帯端末装置9からバルーンを表示する指示を受信すると、ゲーム装置10により認識されている現在アクティブな入力装置6の識別情報を携帯端末装置9へ送信する。
 バルーン指示受付部215は、現在アクティブな入力装置6の中から、バルーンを繋ぐ入力装置6の選択指示をユーザから受け付ける。バルーン指示受付部215は、更に、バルーンとして表示すべき画像の種類の選択指示をユーザから受け付ける。バルーンとして表示すべき画像は、携帯端末装置9のデータ保持部260又はゲーム装置10のデータ保持部160に格納された2次元画像データ又は3次元形状データの中から選択されてもよいし、ユーザにより描画された画像であってもよい。後者の場合、バルーン指示受付部215は、描画画面を表示装置263に表示し、ユーザから画像の描画を受け付ける。バルーン指示受付部215は、入力装置6の選択指示と画像の選択指示を受け付けると、受け付けた選択指示をゲーム装置10へ送信する。このとき、ユーザが描画した画像、又は、ゲーム装置10のデータ保持部160にデータが格納されていない画像が選択された場合は、画像データもゲーム装置10へ送信する。バルーン制御部116は、バルーンの画像の種類と、そのバルーンが繋がれる入力装置6との対応関係を保持する。
 入力装置6のタッチパッド79が押下されたとき、その入力装置6にバルーンが対応付けられている場合は、バルーン制御部116は、入力装置6の位置に、その入力装置6に対応付けられている画像を表示し、タッチパッド79が押下されている間、画像を拡大する。タッチパッド79から指が離されると、バルーン制御部116は、入力装置6に繋がれた紐の先端に、タッチパッド79に対する入力時間に応じて拡大された画像を表示する。バルーン制御部116は、画像を元の大きさで表示してもよいし、所定の大きさにリサイズして表示してもよいし、画像を拡大又は縮小する指示をユーザから受け付けて画像を拡大又は縮小して表示してもよい。バルーン制御部116は、バルーンをモデリングした立体、又は、球若しくは回転楕円体などの立体の表面に、バルーンとして表示される2次元画像をテクスチャとして貼り付けて表示してもよい。立体の複数の面に同じ画像を貼り付けてもよい。バルーン制御部116は、タッチパッド79に対する入力時間に応じて紐の長さを決定してもよいし、所定の長さにしてもよい。
 コントローラ検出部117は、カメラ7により撮像された画像に含まれる入力装置6を検出する。コントローラ検出部117は、所定のタイミングでカメラ7により撮像された画像のデータを取得し、既知の画像解析技術を用いて発光部85により発せられた光を検出する。コントローラ検出部117は、カメラ7により撮像された全てのフレームについて入力装置6の位置を検出してもよいし、所定数のフレームごとに入力装置6の位置を検出してもよい。コントローラ検出部117が、所定の時間間隔で連続して、カメラ7により撮像された画像に含まれる入力装置6の位置を検出することにより、撮像されている入力装置6の位置を追跡することができる。
 バルーン制御部116は、バルーンに対して所定の浮力を設定し、入力装置6の移動に合わせてバルーンが移動する様子を物理計算によりシミュレーションして表示してもよい。バルーンと入力装置6とを繋ぐ紐の所定位置に制御点を設け、制御点の動きをシミュレーションすることにより紐全体の動きをシミュレーションしてもよい。バルーン制御部116は、物理現象の一部を簡略化した簡易なシミュレーションによりバルーンを移動させてもよい。
 差分検出部118は、動画像においてフレーム間の差分を検出する。差分検出部118は、バルーンが表示されている間、少なくともバルーンの周囲におけるフレーム間の差分を検出する。バルーン制御部116は、差分検出部118により、バルーンの近傍の所定の領域よりも広い領域において、所定の期間にわたって、所定量以上の差分を検出したとき、差分が生じた領域の位置からバルーンの重心に向かう方向に、差分の量、差分が生じた領域の広さ、又は差分が生じた期間に応じた大きさの力をバルーンに作用させ、物理計算によりバルーンを移動させる。これにより、例えば、ユーザが手でバルーンを叩く動作をとることによりバルーンを動かすことができるので、娯楽性の高い相互作用を体験することが可能な環境を提供することができる。バルーン制御部116は、物理計算ではなく、簡易なシミュレーションによりバルーンを移動させてもよい。例えば、差分が生じた領域とは逆の方向に所定量バルーンを移動させてもよい。
 バルーン制御部116は、動画像におけるフレーム間の差分の検出に代えて、又は、差分の検出に加えて、カメラ7により撮像された画像の解析によりユーザの体の動きを追跡し、ユーザの体の一部がバルーンに当たったと判定したときに、バルーンに力を作用させてバルーンを移動させてもよい。例えば、ユーザの手の形状を認識し、ユーザの手がバルーンに当たったときに、バルーンを移動させてもよい。
 入力装置6がカメラ7の視野から外れたり、ユーザが入力装置6をカメラ7とは逆の方向に向けたり、発光部85を手で覆ったりして、コントローラ検出部117が入力装置6を検出することができなくなったときは、バルーン制御部116はバルーンを消去する。このとき、バルーンを入力装置6に繋いでいた紐が切れて、バルーンが上方へ飛んでいく様子などを表示した後、バルーンを消去してもよい。
 図13は、携帯端末装置9の表示装置263に表示される画面の例を示す。携帯端末装置9のバルーン指示受付部215は、ユーザがバルーンを描画するための描画画面510を表示装置263に表示する。ユーザは、描画画面510において、バルーンとして表示すべき画像を描画することができる。この描画画面510は、携帯端末装置9の表示装置263のみに表示され、配信制御部113から配信される画面には表示されない。
 図14は、携帯端末装置9の表示装置263に表示される画面の例を示す。バルーン指示受付部215は、バルーンを表示する入力装置6の選択指示をユーザから受け付けるために、現在アクティブな入力装置6の識別情報をゲーム装置10から取得し、取得したアクティブな入力装置6の一覧512を表示装置263に表示する。バルーン指示受付部215は、表示された入力装置6の一覧512の中からユーザによる選択指示を受け付けると、受け付けた選択指示をゲーム装置10へ送信する。この一覧512の画面も、携帯端末装置9の表示装置263のみに表示され、配信制御部113から配信される画面には表示されない。
 図15は、出力装置4のディスプレーに表示される画面400の例を示す。バルーン制御部116は、携帯端末装置9からバルーンを表示する入力装置6の選択指示を取得すると、キャラクタ300がその入力装置6に光を照射する様子を表示し、キャラクタ300が入力装置6にバルーンを表示する機能を付与したような演出を表示する。
 図16は、出力装置4のディスプレーに表示される画面400の例を示す。バルーン制御部116は、入力装置6からタッチパッド79が押下されたことを示す情報を取得すると、その入力装置6に対応付けられた画像320が、その入力装置6の位置から膨らんでくる様子を表示する。
 図17は、出力装置4のディスプレーに表示される画面400の例を示す。バルーン制御部116は、入力装置6からタッチパッド79から指が離されたことを示す情報を取得すると、その入力装置6に対応付けられた画像320が、その入力装置6に紐322で繋がれた様子を表示する。バルーンは、追跡対象である入力装置6の移動に追随するように、入力装置6が検出された位置に応じてバルーン制御部116により算出される位置に表示される第1の部分である紐322の根の部分と、紐322の根の部分の移動に従属してバルーン制御部116により移動される第2の部分である画像320とを含む。バルーン制御部116は、コントローラ検出部117により検出される入力装置6の位置に追随して紐322の根の部分を移動させ、紐322により引っ張られるようにバルーンの画像320を移動させる。また、差分検出部118によりバルーンの画像320の周囲で差分が検出された場合は、検出された差分に応じてバルーンの画像320を移動させる。
 図18は、出力装置4のディスプレーに表示される画面400の例を示す。バルーン制御部116は、コントローラ検出部117から入力装置6の発光部85を検出できないことを示す情報を取得すると、その入力装置6に繋がれていたバルーンの紐322を切断し、紐322の根の部分とバルーンの画像320を分離させる。ユーザは、バルーンの紐322の根の部分が入力装置6に追随して移動されることを、出力装置4に表示される画面から認識することができるので、追跡対象である入力装置6の発光部85及び発光部85に追随する紐322の根の部分を隠すことと、紐322に従属して移動されるバルーンの画像320を入力装置6から切り離すこととの関係性を容易に理解することができる。バルーン制御部116は、バルーンの浮力に応じて、紐322から切り離されたバルーンを上方に移動させてもよいし、空中をふわふわと浮遊させてもよい。
(ビルボード表示)
 実施の形態に係るゲーム装置10は、ユーザが描画した文字や画像などを掲示したビルボードを画面に表示する機能を提供する。
 携帯端末装置9のビルボード指示受付部216は、メニュー表示部213が表示したメニュー画面を介して、ビルボードを表示する指示をユーザから受け付けると、画像の描画画面を表示装置263に表示し、ビルボードとして表示すべき画像の描画を受け付ける。ビルボード指示受付部216は、ユーザが画像の描画を終了すると、ビルボードを表示する指示をゲーム装置10へ送信する。このとき、ユーザが描画した画像のデータもゲーム装置10へ送信する。また、ビルボードを表示する画面の位置の指示をユーザから受付、受け付けた表示位置をゲーム装置10へ送信する。
 ゲーム装置10のビルボード制御部119は、携帯端末装置9から取得した画像を、ゲーム画面の指示された位置にビルボードとして表示する。ユーザがプレイ中の画面を配信している場合、画面に表示されたビルボードも配信される画面に表示されるので、ユーザは視聴者に対するメッセージなどをビルボードに掲示しておくことができる。例えば、配信しているゲームの内容、ゲームに関するコメント、配信している動画像のテーマ、視聴者に対する告知などをビルボードに掲示することができる。
 上述したバルーンの例と同様に、差分検出部118が、表示されているビルボードの近傍においてフレーム間の差分を検出すると、ビルボード制御部119は、検出された差分に応じて、表示されているビルボードに影響を与える。例えば、ビルボード制御部119は、差分検出部118により、ビルボードの近傍の所定の領域よりも広い領域において、所定の期間にわたって、所定量以上の差分を検出したとき、差分が生じた領域の位置からビルボードの重心に向かう方向に、差分の量、差分が生じた領域の広さ、又は差分が生じた期間に応じた大きさの力をビルボードに作用させ、物理計算によりビルボードを移動させる。これにより、例えば、ユーザが手でビルボードを叩く動作をとることによりビルボードを動かすことができるので、娯楽性の高い相互作用を体験することが可能な環境を提供することができる。ビルボード制御部119は、物理計算ではなく、簡易なシミュレーションによりビルボードを移動させてもよい。例えば、差分が生じた領域とは逆の方向に所定量ビルボードを移動させてもよい。ビルボードが半透明の画像として表示される場合、ビルボード制御部119は、差分が生じた領域において、ビルボードの画像にノイズが生じたり、ビルボードの背景に透過表示されている領域にノイズが生じたりする様子を表示してもよい。
 ビルボード制御部119は、動画像におけるフレーム間の差分の検出に代えて、又は、差分の検出に加えて、カメラ7により撮像された画像の解析によりユーザの体の動きを追跡し、ユーザの体の一部がビルボードに当たったと判定したときに、ビルボードに力を作用させてビルボードを移動させてもよい。例えば、ユーザの手の形状を認識し、ユーザの手がビルボードに当たったときに、ビルボードを移動させてもよい。
 図19は、携帯端末装置9の表示装置263に表示される画面の例を示す。携帯端末装置9のビルボード指示受付部216は、ユーザがビルボードを表示する位置を指示するための画面520を表示装置263に表示する。ユーザは、画面520において、ビルボードを表示すべき位置を指示する。このとき、ビルボード指示受付部216は、カメラ7による撮像画像、又は、画像生成部111により生成された表示画像をゲーム装置10から取得して画面520に表示し、ビルボードを表示すべき位置及び大きさの指示を受け付ける。これにより、ユーザは、出力装置4や配信先の視聴者の端末などに表示される画像を確認しながら、ビルボードを表示する位置や大きさを調整することができる。既に他のビルボードが表示されている場合は、ビルボードに設定した画像を設定した位置に表示してもよい。この画面520は、携帯端末装置9の表示装置263のみに表示され、配信制御部113から配信される画面には表示されない。
 図20は、携帯端末装置9の表示装置263に表示される画面の例を示す。ビルボード指示受付部216は、ユーザがビルボードを描画するための描画画面522を表示装置263に表示する。ユーザは、描画画面522において、ビルボードとして表示すべき画像を描画することができる。この描画画面522も、携帯端末装置9の表示装置263のみに表示され、配信制御部113から配信される画面には表示されない。
 図21は、出力装置4のディスプレーに表示される画面400の例を示す。ゲーム装置10のビルボード制御部119は、携帯端末装置9からビルボードとして表示する画像のデータを取得すると、キャラクタ300がビルボードの素材をビルボードの表示位置に吹き付ける様子を表示する。
 図22は、出力装置4のディスプレーに表示される画面400の例を示す。キャラクタ300がビルボードの素材を吹き付けるアニメーション表示が終了すると、ビルボード制御部119は、ユーザから指示された位置にビルボード330を表示する。ビルボード330は、両端を2つのオブジェクト332及び334により支持されている。
 図23は、出力装置4のディスプレーに表示される画面400の例を示す。ビルボード330の両端を支持している2つのオブジェクト332及び334は、顔検出部115により検出されたユーザの顔の位置の方に向くように回転されて表示される。
 図24は、出力装置4のディスプレーに表示される画面400の例を示す。ビルボード330の左端を支持しているオブジェクト332の近傍でユーザが手を動かすと、差分検出部118がフレーム間の差分を検出する。ビルボード制御部119は、オブジェクト332の近傍で差分が検出されると、オブジェクト332を揺らし、差分の量が大きい場合にはオブジェクト332を落下させる。ビルボード制御部119は、左端の支持を失ったビルボード330が垂れ下がる様子を表示する。ビルボード制御部119は、オブジェクト332が落下してから所定時間が経過すると、オブジェクト332が元の位置に戻って再びビルボード330の左端を支持する様子を表示する。
(鏡像画面左右反転機能)
 実施の形態に係るゲーム装置10は、画面を左右反転させる機能を提供する。
 ゲーム装置10の画像生成部111は、画面に表示されたバルーン、ビルボード、キャラクタなどとユーザが相互作用することを容易にするために、カメラ7により撮像された画像を左右反転させた鏡像画像を用いて画面を生成する。しかし、ユーザが動画像を配信しているときに、カメラ7により文字などを撮像させて視聴者に見せたい場合は、文字が左右反転してしまって読みづらくなってしまう。したがって、視聴者に対するメッセージなどをカメラ7に撮像させて視聴者に配信するときなどのために、必要に応じてユーザの指示により画面を更に左右反転させ、カメラ7により撮像された元の画像を用いて生成された画面を配信する機能を提供する。
 鏡面画像制御部120は、入力装置6又は携帯端末装置9の鏡面画像指示受付部217から、表示画面を左右反転させる指示、すなわち、鏡像画像ではなくカメラ7により撮像された元の画像を表示する指示を受け付けると、画像生成部111に表示画面を左右反転させるよう指示する。画像生成部111は、鏡面画像制御部120から表示画面を左右反転させる指示を受け付けると、カメラ7により撮像された元の画像を用いて画面を生成することにより、画面を左右反転させる。
 鏡面画像制御部120は、表示画面を左右反転させる指示を受け付けたときに、動画像を配信しているユーザ自身が視聴する出力装置4のディスプレーに表示される画面と、配信サーバ5を介して配信される動画像の画面の双方を左右反転させてもよいし、いずれか一方のみを反転させてもよい。出力装置4のディスプレーに表示される画面を左右反転させる場合、顔検出部115、コントローラ検出部117及び差分検出部118は、顔、入力装置6及びフレーム間の差分を検出するために用いるカメラ7により撮像された画像を左右反転させてもよいし、左右反転させなくてもよい。左右反転させる場合は、顔、入力装置6及び差分が検出される位置と画面との対応関係が維持されるので、マスク、バルーン、ビルボードなどを違和感なく表示することができる。左右反転させない場合は、顔、入力装置6及び差分が検出される位置が画面上の位置と対応しなくなるが、顔、入力装置6及び差分が検出される位置が、画面が左右反転される前の位置から不連続的にジャンプすることはないので、滑らかに相互作用を続けることができる。また、顔、入力装置6及び差分が検出される位置が画面の位置と対応しないという斬新な楽しさを提供することができる。表示画面を左右反転させるときに、撮像画像のみを左右反転し、撮像画像に重畳表示されるキャラクタ、バルーン、ビルボードなどは左右反転しなくてもよいし、双方を左右反転させてもよい。前者の場合、ビルボードなどに表示された文字を読み取りやすくすることができる。後者の場合、表示画面が左右反転していることを視聴者にも分かりやすく示すことができる。なお、後者の場合、バルーンやビルボードなどのオブジェクトは左右反転し、オブジェクトに貼り付けられた、文字などを含むテクスチャは左右反転させなくてもよい。これにより、表示画面が左右反転していることを視聴者にも分かりやすく示しつつ、文字などを読み取りやすくすることができる。
(投票機能)
 実施の形態に係るゲーム装置10は、動画像を配信しているユーザから視聴者に対するアンケートの実施指示を受け付け、配信された動画像を視聴している他のユーザからアンケートに対する投票を受け付ける機能を提供する。
 ゲーム装置10の投票制御部121は、配信制御部113により表示画像が配信されている間、配信されている動画像に対する評価に関するアンケートの回答を視聴者から受け付ける。投票制御部121は、この常時回答を受付可能なデフォルトのアンケートのほかに、ユーザが独自に設定したアンケートの回答を視聴者から受付可能である。
 携帯端末装置9の投票指示受付部218は、ユーザが動画像を配信しているときに、メニュー表示部213が表示したメニュー画面を介して、視聴者に対するアンケートを実施する指示を受け付けると、アンケートの質問及び回答の選択肢をユーザから受け付けるための画面を表示装置263に表示し、アンケートの質問及び回答の選択肢をユーザから受け付ける。アンケートの回答の選択肢の数は予め定められた数であってもよい。例えば、入力装置6の操作ボタン76の数である4つでもよい。投票指示受付部218は、受け付けたアンケートの質問及び回答の選択肢をゲーム装置10へ送信する。投票指示受付部218は、受け付けたアンケートの質問及び回答の選択肢をデータ保持部260に格納しておき、データ保持部260に格納されているアンケートの実施をユーザから指示されたときに、データ保持部260からアンケートの質問及び回答の選択肢を読み出してゲーム装置10へ送信してもよい。
 ゲーム装置10の投票制御部121は、他のユーザに配信される画面に、携帯端末装置9から受け付けたアンケートの項目を掲示したビルボードを表示する。これにより、視聴者は、ユーザによるアンケートが実施されていることを知ることができる。投票制御部121は、他のユーザに配信する画面に、アンケートに対する投票を視聴者から受け付けるためのユーザインタフェースを含ませてもよい。このユーザインタフェースは、視聴者が動画像を視聴するために利用する携帯端末装置9、ゲーム装置10又はパーソナルコンピュータに搭載されたブラウザにおいて実行可能なスクリプトなどにより実現されてもよい。このユーザインタフェースは、ゲーム装置10から動画像を配信するサービスにおける標準機能として提供されてもよい。ユーザインタフェースは、視聴者からアンケートに対する投票を受け付けると、ゲーム装置10に直接、又は、配信サーバ5を介してゲーム装置10に、受け付けた投票の結果を送信する。
 投票制御部121は、視聴者の端末又は配信サーバ5から、視聴者による投票の結果を取得すると、投票の結果をデータ保持部160に格納する。投票制御部121は、アンケートの実施中に、携帯端末装置9の投票指示受付部218から途中経過の取得を要求されると、データ保持部160から投票の結果を読み出して携帯端末装置9へ送信する。投票指示受付部218は、ゲーム装置10から取得した投票の途中経過を表示装置263に表示する。なお、投票の途中経過は、画像生成部111により生成される画面には表示されないので、出力装置4のディスプレーを視聴しているユーザや、配信サーバ5から配信される動画像を視聴しているユーザは、途中経過を見ることはできず、アンケートを作成した携帯端末装置9を使用しているユーザのみが途中経過を見ることができる。
 投票指示受付部218は、ユーザからアンケートの終了を指示されると、受け付けた指示をゲーム装置10へ送信する。投票制御部121は、アンケートの終了指示を受け付けると、表示していたアンケートの項目を画面から消去する。
 投票指示受付部218は、ユーザからアンケートの結果の配信を指示されると、受け付けた指示をゲーム装置10へ送信する。投票制御部121は、アンケートの結果の配信指示を受け付けると、データ保持部160からアンケートの結果を読み出して、画像生成部111により生成される画面に表示する。このように、特定の表示対象、例えば、配信制御部113から配信される動画像を視聴している他のユーザからゲーム装置10が受け付けたアンケートへの回答などの情報は、アンケートの実施を要求したユーザの携帯端末装置9においては任意のタイミングで表示可能であるが、配信画像にはユーザの携帯端末装置9から公開の指示がない限りは表示されない。したがって、ユーザは動画像の配信中に、視聴者から非公開に情報を収集することができ、また、必要であればその情報を配信画像に表示して公開することもできる。
 図25は、携帯端末装置9の表示装置263に表示される画面の例を示す。携帯端末装置9の投票指示受付部218は、ユーザからアンケートの項目を受け付けるための画面530を表示装置263に表示する。ユーザは、画面530において、アンケートの項目を設定する。投票指示受付部218は、受け付けたアンケートの項目をゲーム装置10へ送信する。
 図26は、出力装置4のディスプレーに表示される画面400の例を示す。ゲーム装置10の投票制御部121は、携帯端末装置9からアンケートの項目を取得すると、キャラクタ300がアンケート340をホログラムで表示する様子を表示する。
 図27は、配信サーバ5により配信される動画像を視聴するユーザの端末の表示装置に表示される画面600の例を示す。画面600には、アンケートに回答するためのユーザインタフェースが設けられている。ユーザは、インタフェースを介して、アンケートに投票することができる。
 図28は、出力装置4のディスプレーに表示される画面400の例を示す。投票制御部121は、配信している動画像を視聴しているユーザからアンケートに対する投票を取得すると、アンケートに対する投票を取得したことを示すアイコン342を画面400に表示する。
 図29は、携帯端末装置9の表示装置263に表示される画面の例を示す。投票指示受付部218は、ユーザからアンケートの途中経過を取得する指示を受け付けると、受け付けた指示をゲーム装置10へ送信する。投票制御部121は、アンケートの実施を要求した携帯端末装置9からアンケートの途中経過を取得する指示を受け付けると、データ保持部160からアンケートの結果を読み出して、携帯端末装置9へ送信する。投票指示受付部218は、アンケートの途中経過を示す画面532を表示装置263に表示する。この画面532は、アンケートの実施を要求した携帯端末装置9の表示装置263のみに表示され、配信制御部113から配信される画面には表示されない。すなわち、アンケートの実施を要求したユーザは、アンケートの結果を視聴者に公開することなく、途中経過を確認することができる。
 図30は、出力装置4のディスプレーに表示される画面400の例を示す。投票指示受付部218は、ユーザからアンケートの結果を配信する指示を受け付けると、受け付けた指示をゲーム装置10へ送信する。投票制御部121は、アンケートの実施を要求した携帯端末装置9からアンケートの結果を配信する指示を受け付けると、データ保持部160からアンケートの結果を読み出して、集計したアンケートの結果344を画面400に表示する。アンケートの結果344を表示した画面400は、動画像を視聴しているユーザにも配信される。
 図31は、実施の形態に係るゲーム制御方法の手順を示すフローチャートである。携帯端末装置9のマスク指示受付部214は、ユーザからマスク画像を表示する指示を受け付けると(S100)、受け付けた指示をゲーム装置10へ送信する(S102)。ゲーム装置10のマスク制御部114は、携帯端末装置9からマスク画像を表示する指示を受け付けると、カメラ7により撮像された画像に含まれる顔を顔検出部115に検出させ(S104)、検出された顔画像を携帯端末装置9へ送信する(S106)。
 マスク指示受付部214は、マスクを顔に表示するユーザの選択指示をユーザから受け付けるために、ゲーム装置10から送信された顔の画像の一覧を表示装置263に表示し(S108)、マスク画像を表示する顔の選択指示と(S110)、表示するマスク画像の選択指示をユーザから受け付け(S112)、受け付けた顔の選択指示と(S114)、マスク画像の選択指示をゲーム装置10へ送信する(S116)。
 マスク制御部114は、携帯端末装置9からマスクを表示する顔及びマスク画像の選択指示を取得すると、キャラクタがその顔にマスクの素材を吹き付ける様子を表示し(S118)、アニメーション表示が終了すると、顔検出部115により検出された顔の位置にマスク画像を表示する(S120)。顔検出部115がユーザの顔を検出できている間は(S122のN)、マスク制御部114は、検出された顔の位置に重畳してマスク画像を表示する(S120)。ユーザが顔を手で覆って隠すなどして、顔検出部115がユーザの顔を検出できなくなると(S122のY)、マスク制御部114は、表示されていたマスク312が消えていく様子をアニメーション表示し(S124)、アニメーション表示が終了するとマスク画像を消去する(S126)。
 図32は、実施の形態に係るゲーム制御方法の手順を示すフローチャートである。携帯端末装置9のバルーン指示受付部215は、ユーザからバルーンを表示する指示を受け付けると(S200)、受け付けた指示をゲーム装置10へ送信する(S202)。ゲーム装置10のバルーン制御部116は、携帯端末装置9からバルーンを表示する指示を受け付けると、アクティブな入力装置6の識別情報を携帯端末装置9へ送信する(S206)。
 バルーン指示受付部215は、ゲーム装置10から送信されたアクティブな入力装置6の一覧を表示装置263に表示し(S208)、バルーン表示を割り当てる入力装置6の選択指示と(S210)、表示するバルーン画像の選択指示をユーザから受け付け(S212)、受け付けた入力装置6の選択指示と(S214)、バルーン画像の選択指示をゲーム装置10へ送信する(S216)。
 バルーン制御部116は、携帯端末装置9から入力装置6及びバルーン画像の選択指示を取得すると、その入力装置6にキャラクタが光を照射する様子をアニメーション表示する(S217)。バルーン制御部116は、バルーン表示が割り当てられた入力装置6のタッチパッド79が押下されるまで待機し(S218のN)、タッチパッド79が押下されると(S218のY)、タッチパッド79の押下が終了するまでの間(S222のN)、その入力装置6に割り当てられたバルーン画像が入力装置6の位置から膨らむ様子を表示する(S220)。タッチパッド79の押下が終了すると(S222のY)、バルーン制御部116は、コントローラ検出部117が入力装置6の位置を検出できている間は(S226のN)、バルーンが入力装置6に繋がれた様子を表示する(S224)。ユーザが入力装置6の発光部85を手で覆って隠すなどして、コントローラ検出部117が入力装置6の位置を検出できなくなると(S226のY)、バルーン制御部116は、バルーンを入力装置6に繋いでいた紐が切れて、バルーンが飛んでいく様子をアニメーション表示し(S228)、アニメーション表示が終了するとバルーンを消去する(S230)。
 図33は、実施の形態に係るゲーム制御方法の手順を示すフローチャートである。携帯端末装置9のビルボード指示受付部216は、ユーザからビルボードを表示する指示を受け付けると(S300)、受け付けた指示をゲーム装置10へ送信する(S302)。ゲーム装置10のビルボード制御部119は、携帯端末装置9からビルボードを表示する指示を受け付けると、画像生成部111により生成されて出力装置4に表示されている表示画像を携帯端末装置9へ送信する(S306)。
 ビルボード指示受付部216は、ゲーム装置10から送信された表示画像を表示装置263に表示し(S308)、ビルボードを表示する位置の選択指示と(S310)、ビルボードとして表示する画像の選択指示をユーザから受け付け(S312)、受け付けた表示位置の選択指示と(S314)、ビルボード画像の選択指示をゲーム装置10へ送信する(S316)。
 ビルボード制御部119は、携帯端末装置9からビルボードの表示位置及びビルボードとして表示する画像の選択指示を取得すると、表示位置にビルボード画像の素材を吹き付ける様子をアニメーション表示し(S318)、アニメーション表示が終了すると、表示位置にビルボード画像を表示する(S320)。ビルボード制御部119は、差分検出部118により、ビルボードが表示されている領域の近傍において差分が検出されると(S322のY)、検出された差分に応じてビルボードの表示態様を変更する(S324)。差分が検出されない場合は(S322のN)、そのままビルボード画像を表示する(S320)。
 図34は、実施の形態に係るゲーム制御方法の手順を示すフローチャートである。ゲーム装置10は、カメラ7から撮像画像を取得する(S400)。鏡面画像制御部120は、表示画像を左右反転する指示を受け付けていない場合は(S402のN)、撮像画像を左右反転した鏡像を生成し、鏡像をもとに表示画像を生成させる(S404)。表示画像を左右反転する指示を受け付けている場合は(S402のY)、S404をスキップし、撮像画像を左右反転しないことにより、通常の表示画像とは左右が反転した表示画像を生成させる。
 鏡面画像制御部120は、差分検出部118がフレーム間の差分を検出するために用いる検出画像を左右反転する指示を受け付けていない場合は(S406のN)、撮像画像を左右反転して検出画像を生成し、生成した検出画像をもとに差分を検出させる(S408)。検出画像を左右反転する指示を受け付けている場合は(S406のY)、S408をスキップし、撮像画像を左右反転しないことにより、通常の検出画像とは左右が反転した検出画像をもとに差分を検出させる。
 差分検出部118は、左右反転した、又は、左右反転しない検出画像をもとに、フレーム間の差分を検出し、撮像された現実世界のユーザなどと、表示された仮想世界のキャラクタ、バルーン、ビルボードなどのオブジェクトとの間の相互作用を検出する(S410)。バルーン制御部116及びビルボード制御部119は、検出された相互作用に応じてバルーン及びビルボードを制御する(S412)。画像生成部111は、相互作用されたバルーン及びビルボードを含む配信画像を生成する(S414)。
 図35は、実施の形態に係るゲーム制御方法の手順を示すフローチャートである。携帯端末装置9の投票指示受付部218は、ユーザからアンケートを実施する指示を受け付けると(S500)、更に、アンケートの質問と(S502)、質問に対する回答の選択肢をユーザから受け付け(S504)、受け付けた質問と回答の選択肢とともに、アンケートの実施指示をゲーム装置10へ送信する(S506)。
 投票制御部121は、携帯端末装置9からアンケートの実施指示を取得すると、画像生成部111により配信される配信画像にアンケートの質問と回答の選択肢を表示させる(S508)。アンケートが表示された配信画像は、配信制御部113から配信サーバ5などを介して視聴者の端末に送信され(S510)、視聴者はアンケートに回答する(S512)。投票制御部121は、視聴者の端末からアンケートの回答を取得すると、取得した回答をデータ保持部160に格納する(S514)。このとき、投票制御部121は、アンケートの回答を取得した旨を示すアイコンなどを配信画像に表示する。
 投票指示受付部218は、ユーザからアンケートの途中経過を取得する指示を受け付けると(S516)、受け付けた指示をゲーム装置10へ送信する(S518)。投票制御部121は、アンケートの実施を要求した携帯端末装置9からアンケートの途中経過を取得する指示を受け付けると、データ保持部160からアンケートの結果を読み出して、携帯端末装置9へ送信する(S520)。投票指示受付部218は、アンケートの途中経過を示す画面を表示装置263に表示する(S522)。
 投票指示受付部218は、ユーザからアンケートの結果を公開する指示を受け付けると(S524)、受け付けた指示をゲーム装置10へ送信する(S526)。投票制御部121は、アンケートの実施を要求した携帯端末装置9からアンケートの結果を配信する指示を受け付けると、データ保持部160からアンケートの結果を読み出して、集計したアンケートの結果を配信画像に表示する(S528)。アンケートの結果を表示した配信画像は、視聴者の端末に配信される(S530)。
 なお、配信制御部113から他の装置へ配信される配信画像と、出力装置4のディスプレーに表示される表示画像とは、同一であってもよいし、異なるものであってもよい。例えば、上述したマスク、バルーン、ビルボード、アンケートの結果などは、配信画像のみに表示されてもよいし、表示画像のみに表示されてもよいし、双方に表示されてもよい。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、その各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 4 出力装置、5 配信サーバ、6 入力装置、7 カメラ、9 携帯端末装置、10 ゲーム装置、110 制御部、113 配信制御部、114 マスク制御部、115 顔検出部、116 バルーン制御部、117 コントローラ検出部、118 差分検出部、119 ビルボード制御部、120 鏡面画像制御部、121 投票制御部、160 データ保持部、210 制御部、214 マスク指示受付部、215 バルーン指示受付部、216 ビルボード指示受付部、217 鏡面画像指示受付部、218 投票指示受付部、260 データ保持部。
 本発明は、撮像された画像を処理する画像処理装置に利用可能である。

Claims (17)

  1.  撮像装置が撮像した撮像画像を取得し、取得した撮像画像に含まれる追跡対象を検出する検出部と、
     前記追跡対象が検出された位置に応じて、所定の画像を表示する位置を算出する制御部と、
     前記撮像画像に重畳して、前記撮像画像の前記制御部により算出された位置に前記所定の画像を表示する表示画像を生成し、生成した表示画像を表示装置に表示する生成部と、
     を備えることを特徴とする画像処理装置。
  2.  前記所定の画像は、前記追跡対象の移動に追随するように、前記追跡対象が検出された位置に応じて前記制御部により算出される位置に表示される第1の部分と、前記第1の部分の移動に従属して前記制御部により移動される第2の部分とを含むことを特徴とする請求項1に記載の画像処理装置。
  3.  前記制御部は、前記検出部が前記追跡対象を検出できなくなったときに、前記第2の部分を前記第1の部分から分離させることを特徴とする請求項2に記載の画像処理装置。
  4.  前記追跡対象は、ユーザからの指示を入力するための入力装置であることを特徴とする請求項1から3のいずれかに記載の画像処理装置。
  5.  前記追跡対象は、前記撮像画像に撮像された顔であり、
     前記所定の画像は、前記検出部により検出された顔に重畳して表示されるマスクの画像であり、
     前記検出部は、前記顔の向きの所定方向からの回転角度を更に検出し、
     前記制御部は、前記検出部により検出された顔の回転角度よりも大きい回転角度で回転させた前記マスクの画像を前記生成部に表示させる
     ことを特徴とする請求項1に記載の画像処理装置。
  6.  前記制御部は、前記検出部が前記追跡対象を検出できなくなったときに、前記所定の画像を前記表示画像から消去することを特徴とする請求項5に記載の画像処理装置。
  7.  コンピュータを、
     撮像装置が撮像した撮像画像を取得し、取得した撮像画像に含まれる追跡対象を検出する検出部、
     前記追跡対象が検出された位置に応じて、所定の画像を表示する位置を算出する制御部、
     前記撮像画像に重畳して、前記撮像画像の前記制御部により算出された位置に前記所定の画像を表示する表示画像を生成し、生成した表示画像を表示装置に表示する生成部、
     として機能させるための画像処理プログラム。
  8.  検出部が、撮像装置が撮像した撮像画像を取得し、取得した撮像画像に含まれる追跡対象を検出するステップと、
     制御部が、前記追跡対象が検出された位置に応じて、所定の画像を表示する位置を算出するステップと、
     生成部が、前記撮像画像に重畳して、前記撮像画像の前記制御部により算出された位置に前記所定の画像を表示する表示画像を生成し、生成した表示画像を表示装置に表示するステップと、
     を含むことを特徴とする画像処理方法。
  9.  請求項7に記載の画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
  10.  取得した画像に文字又は画像を重畳させて表示画像を生成し、生成した表示画像を他のユーザに視聴させるために他の装置へ配信する画像処理装置との間で通信を行う通信部と、
     前記表示画像に表示すべき文字又は画像の指示をユーザから受け付け、受け付けた前記文字又は画像を前記通信部を介して前記画像処理装置へ送信する指示受付部と、
     を備えることを特徴とする端末装置。
  11.  前記指示受付部は、前記画像処理装置から前記表示画像を取得して表示装置に表示し、前記表示画像において前記文字又は画像を表示すべき位置又は大きさの指示をユーザから受け付け、受け付けた位置又は大きさの指示を前記通信部を介して前記画像処理装置へ送信することを特徴とする請求項10に記載の端末装置。
  12.  ユーザが操作する端末装置と、
     前記端末装置と通信可能に接続された画像処理装置と、
    を備え、
     前記画像処理装置は、
     画像を取得し、取得した画像を含む表示画像を生成し、生成した表示画像を他のユーザに視聴させるために他の装置へ送信する送信部と、
     前記端末装置から、前記表示画像に表示すべき文字又は画像を受け付け、受け付けた文字又は画像を前記表示画像の所定の領域に前記表示画像に重畳して表示させる制御部と、
    を備え、
     前記端末装置は、
     前記表示画像に表示すべき文字又は画像の指示をユーザから受け付け、受け付けた前記文字又は画像を前記画像処理装置へ送信する指示受付部を備える
     ことを特徴とする画像処理システム。
  13.  画像を取得し、取得した画像を含む表示画像を生成し、生成した表示画像を他のユーザに視聴させるために他の装置へ送信する送信部と、
     ユーザの端末装置から、前記表示画像に表示すべき文字又は画像を受け付け、受け付けた文字又は画像を前記表示画像の所定の領域に前記表示画像に重畳して表示させる制御部と、
     を備えることを特徴とする画像処理装置。
  14.  前記画像は、撮像装置により撮像された撮像画像であることを特徴とする請求項13に記載の画像処理装置。
  15.  前記撮像画像の前記所定の領域又は前記所定の領域の近傍における動きを検出する検出部を更に備え、
     前記制御部は、前記検出部が前記所定の領域又は前記所定の領域の近傍における動きを検出したときに、前記所定の領域に表示されている前記文字又は画像の表示態様を変更することを特徴とする請求項14に記載の画像処理装置。
  16.  画像処理装置が、画像を取得し、取得した画像を含む表示画像を生成するステップと、
     前記画像処理装置が、生成した表示画像を他のユーザに視聴させるために他の装置へ送信するステップと、
     端末装置が、前記表示画像に表示すべき文字又は画像の指示をユーザから受け付け、受け付けた前記文字又は画像を前記画像処理装置へ送信するステップと、
     前記画像処理装置が、前記端末装置から、前記表示画像に表示すべき文字又は画像を受け付け、受け付けた文字又は画像を前記表示画像の所定の領域に前記表示画像に重畳して表示させるステップと、
     を備えることを特徴とする画像処理方法。
  17.  コンピュータを、
     取得した画像に文字又は画像を重畳させて表示画像を生成し、生成した表示画像を他のユーザに視聴させるために他の装置へ配信する画像処理装置との間で通信を行う通信部、
     前記表示画像に表示すべき文字又は画像の指示をユーザから受け付け、受け付けた前記文字又は画像を前記通信部を介して前記画像処理装置へ送信する指示受付部、
     として機能させるための画像処理プログラム。
PCT/JP2015/057571 2014-06-06 2015-03-13 画像処理装置、画像処理方法及び画像処理プログラム WO2015186401A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP15803085.8A EP3154029A4 (en) 2014-06-06 2015-03-13 Image processing device, image processing method, and image processng program
US15/312,495 US10166477B2 (en) 2014-06-06 2015-03-13 Image processing device, image processing method, and image processing program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014117814A JP2015229065A (ja) 2014-06-06 2014-06-06 画像処理装置、画像処理システム、端末装置、画像処理方法及び画像処理プログラム
JP2014-117813 2014-06-06
JP2014117813A JP2015230683A (ja) 2014-06-06 2014-06-06 画像処理装置、画像処理方法及び画像処理プログラム
JP2014-117814 2014-06-06

Publications (1)

Publication Number Publication Date
WO2015186401A1 true WO2015186401A1 (ja) 2015-12-10

Family

ID=54766482

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057571 WO2015186401A1 (ja) 2014-06-06 2015-03-13 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (3)

Country Link
US (1) US10166477B2 (ja)
EP (1) EP3154029A4 (ja)
WO (1) WO2015186401A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180001198A1 (en) * 2016-06-30 2018-01-04 Sony Interactive Entertainment America Llc Using HMD Camera Touch Button to Render Images of a User Captured During Game Play
CN109643154A (zh) * 2016-07-28 2019-04-16 泰雷兹公司 用于控制信息的显示的方法和系统、以及实施该方法的用户终端
EP3454250A4 (en) * 2016-05-04 2020-02-26 Tencent Technology (Shenzhen) Company Limited FACE IMAGE PROCESSING METHOD AND APPARATUS AND INFORMATION MEDIUM

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6637650B2 (ja) * 2014-10-31 2020-01-29 ティフォン インコーポレーテッドTyffon Inc. ゲームプログラム、コンピュータの制御方法、情報処理装置、画像出力装置、画像出力方法および画像出力プログラム
US10427038B2 (en) * 2016-01-21 2019-10-01 Toccata Gaming International, Llc Game console incorporating beam-splitter display and real world objects
JP6887132B2 (ja) 2018-04-12 2021-06-16 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム及び映像処理方法
US11061744B2 (en) * 2018-06-01 2021-07-13 Apple Inc. Direct input from a remote device
CN109034063A (zh) * 2018-07-27 2018-12-18 北京微播视界科技有限公司 人脸特效的多人脸跟踪方法、装置和电子设备
WO2022072010A1 (en) * 2020-09-29 2022-04-07 Ident Llc Touchless, automated and remote premise entry systems and methods
CN116527993A (zh) * 2022-01-24 2023-08-01 脸萌有限公司 视频的处理方法、装置、电子设备、存储介质和程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125361A (ja) * 2001-10-12 2003-04-25 Sony Corp 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
JP2005319191A (ja) * 2004-05-11 2005-11-17 Namco Ltd ゲームシステム、プログラム、情報記憶媒体および画像生成方法
JP2008040864A (ja) * 2006-08-08 2008-02-21 Nippon Telegr & Teleph Corp <Ntt> 3次元物体表示装置、3次元物体表示方法および3次元物体表示プログラムを記録した記録媒体
JP2010086178A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 画像合成装置およびその制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
EP2372653B1 (en) * 2008-12-24 2015-07-22 Sony Computer Entertainment Inc. Image processing device and image processing method
WO2010121354A1 (en) * 2009-04-20 2010-10-28 Bent 360: Medialab Inc. Object tracking system
JP2011203823A (ja) * 2010-03-24 2011-10-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
US9508197B2 (en) * 2013-11-01 2016-11-29 Microsoft Technology Licensing, Llc Generating an avatar from real time image data
US9240077B1 (en) * 2014-03-19 2016-01-19 A9.Com, Inc. Real-time visual effects for a live camera view

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125361A (ja) * 2001-10-12 2003-04-25 Sony Corp 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
JP2005319191A (ja) * 2004-05-11 2005-11-17 Namco Ltd ゲームシステム、プログラム、情報記憶媒体および画像生成方法
JP2008040864A (ja) * 2006-08-08 2008-02-21 Nippon Telegr & Teleph Corp <Ntt> 3次元物体表示装置、3次元物体表示方法および3次元物体表示プログラムを記録した記録媒体
JP2010086178A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 画像合成装置およびその制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3154029A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3454250A4 (en) * 2016-05-04 2020-02-26 Tencent Technology (Shenzhen) Company Limited FACE IMAGE PROCESSING METHOD AND APPARATUS AND INFORMATION MEDIUM
US20180001198A1 (en) * 2016-06-30 2018-01-04 Sony Interactive Entertainment America Llc Using HMD Camera Touch Button to Render Images of a User Captured During Game Play
US10471353B2 (en) * 2016-06-30 2019-11-12 Sony Interactive Entertainment America Llc Using HMD camera touch button to render images of a user captured during game play
CN109643154A (zh) * 2016-07-28 2019-04-16 泰雷兹公司 用于控制信息的显示的方法和系统、以及实施该方法的用户终端

Also Published As

Publication number Publication date
US10166477B2 (en) 2019-01-01
US20170113142A1 (en) 2017-04-27
EP3154029A1 (en) 2017-04-12
EP3154029A4 (en) 2018-02-28

Similar Documents

Publication Publication Date Title
WO2015186401A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN109475774B (zh) 虚拟现实环境中的视图位置处的观众管理
US10621784B2 (en) Venue mapping for virtual reality spectating of live events
JP6929380B2 (ja) Vr環境への第2の画面の仮想ウィンドウ
CN103357177B (zh) 使用便携式游戏装置来记录或修改在主游戏系统上实时运行的游戏或应用
CN104238738B (zh) 在头戴式系统内产生增强虚拟现实场景的系统和方法
CN107683449B (zh) 控制经由头戴式显示器呈现的个人空间内容
US9984505B2 (en) Display of text information on a head-mounted display
WO2018077206A1 (zh) 增强现实场景生成方法、装置、系统及设备
CN105378596B (zh) 用于头戴式显示器中在透明模式与非透明模式之间转变的系统和方法
CN107656615B (zh) 大量同时远程数字呈现世界
JP2018516399A (ja) ヘッドマウントディスプレイでのピンチアンドホールドジェスチャのナビゲーション
CN106664401A (zh) 用于在与内容交互时向用户提供反馈的系统和方法
CN107683166A (zh) 用于限制头戴式显示器上的视觉活动的过滤和父母控制方法
TW201633104A (zh) 頭戴顯示器之追蹤系統
CN105359063A (zh) 利用追踪的头戴式显示器
CN104043245B (zh) 游戏控制器
JP2016525917A (ja) ヘッドマウンテッドディスプレイ上でのゲームプレイの移行
JP6796115B2 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
CN110270088A (zh) 异步虚拟现实交互
JP2021100575A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP2019524181A (ja) ゲーム内位置ベースのゲームプレイコンパニオンアプリケーション
JP2019526103A (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
JP6313666B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2015186402A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15803085

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015803085

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015803085

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15312495

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE