WO2020148949A1 - 情報処理装置および画像生成方法 - Google Patents

情報処理装置および画像生成方法 Download PDF

Info

Publication number
WO2020148949A1
WO2020148949A1 PCT/JP2019/039511 JP2019039511W WO2020148949A1 WO 2020148949 A1 WO2020148949 A1 WO 2020148949A1 JP 2019039511 W JP2019039511 W JP 2019039511W WO 2020148949 A1 WO2020148949 A1 WO 2020148949A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
content
generation unit
information processing
pixel
Prior art date
Application number
PCT/JP2019/039511
Other languages
English (en)
French (fr)
Inventor
河村 大輔
康之 須木
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to CN201980088545.3A priority Critical patent/CN113287088A/zh
Priority to EP19910116.3A priority patent/EP3913474A4/en
Priority to US17/421,555 priority patent/US20220258051A1/en
Priority to JP2020566102A priority patent/JPWO2020148949A1/ja
Publication of WO2020148949A1 publication Critical patent/WO2020148949A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6692Methods for processing data by generating or executing the game program for rendering three dimensional images using special effects, generally involving post-processing, e.g. blooming

Definitions

  • the present invention relates to a technique for generating an image.
  • Patent Document 1 discloses a game device operated by a dedicated game controller.
  • the game controller includes a plurality of buttons, and when the user presses a predetermined button while displaying the game image, the game device hides the game image and instead displays the menu image on the display.
  • the user may suspend the game play and display the menu image on the display. For example, when confirming a message from a friend or sending a message to a friend, the user switches the game image to a menu image, selects a menu item related to the message, and displays the message image. When the user finishes the work, the user promptly redisplays the game image and resumes the game play.
  • the world view of content such as games is an important element that immerses the user in the content.
  • the conventional information processing device when the content image is switched to the menu image, the user is pulled back from the virtual world to the real world, which may impair the feeling of immersion in the content. Therefore, when switching the content image to another image, it is desired to develop a technique that allows the image of the world of the content to be taken over by the switched image. Further, in a menu image in which icons of a plurality of contents are arranged, when a still image of the selected content is displayed as a background image, it is preferable to perform an effect for raising user's interest in the selected content. ..
  • an information processing apparatus includes a first image generation unit that generates a moving image of content, a reception unit that receives a request to change a display image, and a reception unit that makes a change request.
  • the display control unit that acquires information about the frame image of the content and the second image generation unit that generates an image different from the frame image by using the information about the frame image are provided.
  • Another aspect of the present invention is an image generation method, which includes a step of generating a moving image of a content, a step of receiving a change request for a display image, and a step of receiving a change request to acquire information about a frame image of the content. And a step of generating an image different from the frame image by using the information of the frame image of the content.
  • Yet another aspect of the present invention is an information processing apparatus, in which icons of a plurality of contents are arranged so that a user can select them, and a content selection image in which a still image of the content corresponding to the selected icon is used as a background image.
  • an acceptance unit that accepts an icon change operation.
  • the image generating unit generates an image different from the still image of the content corresponding to the selected icon, and after displaying the different image, the image is changed to the still image after a predetermined time. A moving image is generated to change.
  • Yet another aspect of the present invention is an image generation method, in which icons of a plurality of contents are arranged so that a user can select them, and a still image of a content corresponding to the selected icon is used as a background image. To generate a different image from the still image of the content corresponding to the selected icon when the icon change operation is received, and a different image is displayed. And a moving image is generated so as to change to a still image after a predetermined time.
  • the information processing system 1 shows an information processing system 1 according to an embodiment of the present invention.
  • the information processing system 1 includes an auxiliary storage device 2, an output device 4, an input device 6, a camera 7, and an information processing device 10.
  • the information processing device 10 may be connected to an external network via the access point (AP) 8.
  • AP access point
  • the input device 6 connects to the information processing device 10 wirelessly or by wire, receives an operation input from a user, and supplies operation information to the information processing device 10.
  • the information processing device 10 reflects the operation information received from the input device 6 on the processing of the system software or the application software, and causes the output device 4 to output the processing result.
  • the information processing device 10 of the embodiment may be a game device that executes game software
  • the input device 6 may be a device such as a game controller that supplies operation information of the user to the information processing device 10.
  • the information processing device 10 may have a function of executing application software other than game software, and may have a function of reproducing content such as a movie.
  • the input device 6 includes a plurality of push-type operation buttons, a plurality of input units such as an analog stick that can input an analog amount, and a rotary button.
  • the auxiliary storage device 2 is a large-capacity storage device such as an HDD (hard disk drive) or a flash memory, and may be an external storage device connected to the information processing device 10 by a USB (Universal Serial Bus) or the like, or a built-in storage device. May be
  • the output device 4 may be a television having a display that outputs images and a speaker that outputs audio.
  • the output device 4 may be connected to the information processing device 10 with a wired cable or may be wirelessly connected.
  • the camera 7 is a stereo camera, and photographs the space around the output device 4.
  • FIG. 2 shows functional blocks of the information processing device 10.
  • the information processing apparatus 10 includes a main power button 20, a power ON LED 21, a standby LED 22, a system controller 24, a clock 26, a device controller 30, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, and wired communication. It has a module 40, a subsystem 50, and a main system 60.
  • the main system 60 includes a main CPU (Central Processing Unit), a memory that is a main storage device, a memory controller, and a GPU (Graphics Processing Unit).
  • the GPU is mainly used for arithmetic processing of game programs. These functions may be configured as a system on chip and formed on one chip.
  • the main CPU has a function of executing the game program recorded in the auxiliary storage device 2 or the ROM medium 44.
  • the subsystem 50 includes a sub CPU, a memory that is a main storage device, a memory controller, and the like, does not include a GPU, and does not have a function of executing a game program.
  • the number of circuit gates of the sub CPU is smaller than that of the main CPU, and the operation power consumption of the sub CPU is smaller than that of the main CPU.
  • the sub CPU operates even while the main CPU is in the standby state, and its processing function is limited in order to keep the power consumption low.
  • the main power button 20 is an input unit through which a user inputs an operation, is provided on the front surface of the housing of the information processing apparatus 10, and turns on or off the power supply to the main system 60 of the information processing apparatus 10. Be operated for.
  • the power-on LED 21 lights up when the main power button 20 is turned on, and the standby LED 22 lights up when the main power button 20 is turned off.
  • the system controller 24 detects pressing of the main power button 20 by the user. When the main power button 20 is pressed while the main power is in the off state, the system controller 24 acquires the pressing operation as an “on instruction”, while the main power button is pressed when the main power is in the on state. When the button 20 is pressed, the system controller 24 acquires the pressing operation as an “off instruction”.
  • the clock 26 is a real-time clock that generates current date and time information and supplies it to the system controller 24, the subsystem 50, and the main system 60.
  • the device controller 30 is configured as an LSI (Large-Scale Integrated Circuit) that exchanges information between devices like a south bridge. As illustrated, devices such as the system controller 24, the media drive 32, the USB module 34, the flash memory 36, the wireless communication module 38, the wired communication module 40, the subsystem 50, and the main system 60 are connected to the device controller 30. It The device controller 30 absorbs the difference in the electrical characteristics of each device and the difference in the data transfer rate, and controls the timing of data transfer.
  • the media drive 32 is a drive device in which a ROM medium 44 storing application software such as a game and license information is mounted and driven, and programs and data are read from the ROM medium 44.
  • the ROM medium 44 may be a read-only recording medium such as an optical disc, a magneto-optical disc, or a Blu-ray disc.
  • the USB module 34 is a module that connects to an external device with a USB cable.
  • the USB module 34 may be connected to the auxiliary storage device 2 and the camera 7 with a USB cable.
  • the flash memory 36 is an auxiliary storage device that constitutes an internal storage.
  • the wireless communication module 38 wirelessly communicates with the input device 6, for example, by a communication protocol such as Bluetooth (registered trademark) protocol or IEEE802.11 protocol.
  • the wired communication module 40 performs wired communication with an external device and connects to the network 3 via the AP 8.
  • FIG. 3 shows the configuration of the information processing device 10.
  • the information processing device 10 includes a processing unit 100 and a communication unit 102, and the processing unit 100 includes a reception unit 104, a display control unit 106, a frame buffer 108, a game execution unit 110, and a system image generation unit 120.
  • the game execution unit 110 has a function of executing game software, and has a game image generation unit 112 and a game sound generation unit 114.
  • the game execution unit 110 may execute application software other than game software.
  • each element described as a functional block that performs various processes can be configured by a circuit block, a memory, or another LSI in terms of hardware, and in terms of software, system software or memory. It is realized by the game program loaded in. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by only hardware, only software, or a combination thereof, and the present invention is not limited to either.
  • the communication unit 102 is expressed as a configuration having the functions of the wireless communication module 38 and the wired communication module 40 shown in FIG.
  • the communication unit 102 receives operation information of the user operating the input unit of the input device 6, and the reception unit 104 receives the operation information.
  • the accepting unit 104 accepts operation information instructing a request to change the display image and supplies the operation information to the display control unit 106.
  • the game execution unit 110 executes game software.
  • the game image generation unit 112 generates a moving image of the game
  • the game sound generation unit 114 generates the sound of the game.
  • the game image generation unit 112 supplies the game image data to the frame buffer 108
  • the display control unit 106 causes the output device 4 to output the game image data stored in the frame buffer 108.
  • the display control unit 106 has a function of causing the output device 4 to display the game image data generated by the game image generation unit 112 and the system image data generated by the system image generation unit 120.
  • FIG. 4 shows an example of a game image displayed on the output device 4.
  • the image of the first person shooter (FPS) game is displayed on the output device 4.
  • the output device 4 of the embodiment may be a stationary display device such as a television, but may be a portable display device such as a tablet or a head mounted display device.
  • the "color tone" of the image is a factor that determines the visual atmosphere of the game and is of high importance. By unifying the color tones throughout the game, it is possible to obtain the effect of making the user aware that the color tone constitutes the tint of the game world and immersing the user in the game.
  • the reception unit 104 receives a request to change the display image.
  • the request to change the display image is a request to switch the game image to the system image.
  • the display control unit 106 instructs the game execution unit 110 to pause the game progress and instructs the system image generation unit 120 to generate the system image.
  • the system image may be a menu image including one or more menu items for operating the information processing apparatus 10.
  • FIG. 5 shows an example of menu items included in the menu screen.
  • the menu screen includes a plurality of menu items, and the user operates the input device 6 to select a desired menu item. For example, when the user wants to browse the received message, the user moves the cursor to the item “Message” and operates the enter button of the input device 6, whereby the message browsing screen is displayed on the display.
  • the background of the menu screen shown in FIG. 5 is a predetermined color such as blue
  • the user has a feeling of being pulled back to a world completely separated from the game world.
  • the user resumes the game play he will enter the world of the game again, but if the user can express the world view of the game on the menu screen, the user can maintain the state of being immersed in the game.
  • FIG. 6 shows an example of a menu screen displayed on the output device 4 in the embodiment.
  • the display control unit 106 acquires information about the frame image of the game.
  • the display control unit 106 acquires the pixel information of the last frame image (end frame image) of the game moving image from the frame buffer 108 and supplies it to the system image generation unit 120.
  • the system image generation unit 120 uses the information of the frame image to generate an image different from the frame image.
  • the system image generation unit 120 uses the information of the frame image of the game to generate the background image of the menu screen and the menu image in which at least one menu item is arranged in front of the background image.
  • the menu image data is supplied to the frame buffer 108, and the display control unit 106 causes the output device 4 to display the menu image.
  • the system image generation unit 120 may use the pixel information of the end frame image, but in order to secure the processing time for generating the background image, the system image generation unit 120 uses the pixel information of the image before the predetermined frame of the end frame image.
  • the background image of the menu screen may be generated.
  • the system image generation unit 120 may generate a moving image according to a predetermined image generation program using the pixel information of the game frame image.
  • the system image generation unit 120 blurs the frame image of the game to generate the background image of the menu screen.
  • the color tone of the game world is maintained on the menu screen.
  • the system image generation unit 120 may generate a blur-processed background image as a moving image while blur-processing the frame image of the game. By using the background image as a moving image, it is possible to give the user a feeling that the game world is moving.
  • the game execution unit 110 can also generate the background moving image of the menu screen.
  • the process of generating a moving image by the game execution unit 110 requires a lot of resources, and therefore the specifications may be severe depending on the processing capability of the information processing device 10. Therefore, in the embodiment, the system image generation unit 120 expresses the game world by blurring one frame image of the game, and generates the menu screen with a light processing load.
  • the system image generation unit 120 may generate a moving image in which each pixel is moved randomly.
  • the system image generation unit 120 may generate the background moving image by setting the moving speed according to the brightness of the aggregate of a plurality of pixels and determining the moving direction of the aggregate of the plurality of pixels by a random function. ..
  • the user can feel as if he/she is operating a menu in the dynamic world of the game by moving the background image while maintaining the immersive feeling in the game world due to the color tone of the background image.
  • FIG. 7 shows another example of the menu screen displayed on the output device 4.
  • the system image generation unit 120 generates a polka dot background image using the pixel information of the frame image.
  • the polka dots are preferably colored with the pixel values used in the frame image and move randomly.
  • the system image generation unit 120 divides the frame image into a plurality of grid lines in the horizontal and vertical directions and generates a circle having pixel values at each grid point for each grid point.
  • the size of each circle may be randomly set within a predetermined upper limit and may be a perfect circle or an ellipse.
  • the plurality of polka dots represent the color tone of the game world.
  • the system image generation unit 120 may determine the color tone of the frame image of the game and then determine the color of each polka dot so as to maintain the color tone. For example, when the color tone of the frame image is brown, the system image generation unit 120 may determine the color of the polka dots so that the number of brown polka dots (or the area occupied by the screen) increases. This allows the user to feel the game world on the menu screen.
  • the accepting unit 104 accepts a request for changing from the first content moving image to another second content moving image.
  • the system image generation unit 120 generates the end frame image of the first content moving image generated by the game image generation unit 112 and the start frame image of the second content moving image generated by the game image generation unit 112 in response to the change request.
  • a moving image connecting moving image
  • the system image generation unit 120 generates a start frame image of the connected moving image using the information of the end frame image of the first content moving image, and an end frame image of the connected moving image as the start frame of the second content moving image. It may be generated using information of the image.
  • the color tone of the connected moving image may be controlled to continuously change from the color tone of the end frame image of the first content moving image to the color tone of the start frame image of the second content moving image.
  • the system image generation unit 120 may generate a content selection image in which the background image is a moving image temporarily, and perform an effect for increasing the user's interest in the content.
  • FIG. 8 shows an example of the content selection screen.
  • the system image generation unit 120 arranges icons of a plurality of contents so that the user can select them, and generates a content selection image having a still image of the content corresponding to the selected icon as a background image.
  • the content icon and the still image are stored for each content in the auxiliary storage device 2.
  • the icon of the title “PlayGolf” is selected, and the system image generation unit 120 sets the icon of “PlayGolf” to be relatively large and sets the still image of “PlayGolf” as the background image.
  • a content selection image is generated, and the display control unit 106 displays it from the output device 4.
  • the still image may be a package image.
  • the system image generation unit 120 arranges icons of a plurality of contents in one direction in front of the background image. In this example, the system image generation unit 120 arranges icons of a plurality of contents side by side in the left-right direction, and the icon located third from the left is selected.
  • the user operates the right direction key or the left direction key of the input device 6 to move the icon row leftward or rightward, and arranges the icon of the desired content at the third position from the left.
  • the user may move the icon row leftward or rightward by tilting the analog stick of the input device 6 rightward or leftward.
  • the reception unit 104 receives an operation in the icon arrangement direction on the input device 6 as an icon change operation. For example, when the accepting unit 104 accepts the operation of the right direction key as an icon changing operation, the entire icon row moves to the left, and the icon of the title “WarShip2” is arranged at the third position from the left.
  • FIG. 9 shows another example of the content selection screen.
  • the icon row is shifted to the left by one from the state shown in FIG. 8, and the background image is changed to the still image with the title “WarShip2”.
  • the system image generation unit 120 preferably does not suddenly display the still image but puts in a dynamic effect to perform an effect that raises the user's interest in the content.
  • the system image generating unit 120 When the accepting unit 104 accepts the icon changing operation, the system image generating unit 120 generates an image different from the still image of the content corresponding to the selected icon and causes the output device 4 to display the different image.
  • a moving image is generated so as to change to a still image of the content after a predetermined time has elapsed since the display.
  • the system image generation unit 120 generates an image obtained by processing the still image of “WarShip2” corresponding to the selected icon, displays it on the output device 4, and displays the processed image for a predetermined time. After that, a moving image is generated so as to continuously change in time to a still image of “WarShip2”.
  • the system image generating unit 120 identifies the luminance value of the first pixel in the still image (for example, the package image) of the content, and separates the distance according to the identified luminance value.
  • An image obtained by processing the still image is generated by using the pixel value of the second pixel as the pixel value of the first pixel.
  • the first pixel in the still image means each pixel in the still image, and therefore the system image generation unit 120 carries out this process for all the pixels in the still image.
  • the system image generation unit 120 performs processing by using the still image as a base image and setting the pixel value of each pixel of the still image as the pixel value of the pixel separated by a distance corresponding to the brightness value.
  • the distance to be separated differs depending on the brightness value. For example, if the brightness value is relatively high, the separation distance may be long, and if the brightness value is relatively low, the separation distance may be short. As a result, when a processed image changes to a still image, brighter pixel values move largely, and the effect of image movement is enhanced.
  • the system image generating unit 120 determines the pixel value of the second pixel, which is separated from the first pixel by a distance corresponding to the brightness value, in the direction in which the icons are arranged.
  • the different image is generated as the pixel value of one pixel.
  • the system image generation unit 120 sequentially sets the pixel values of the second pixels as the pixel values of a plurality of pixels located between the second pixel and the first pixel during a predetermined time. As described above, a moving image may be generated. As a result, an effect in which the pixel values continuously move in time is realized, and it is possible to increase the sense of expectation for the content.
  • the present invention can be used in the field of displaying images.
  • SYMBOLS 1 Information processing system, 10... Information processing apparatus, 100... Processing part, 102... Communication part, 104... Reception part, 106... Display control part, 108... Frame Buffer, 110... Game execution unit, 112... Game image generation unit, 114... Game sound generation unit, 120... System image generation unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ゲーム画像生成部112はコンテンツの動画像を生成する。受付部104は表示画像の変更要求を受け付ける。表示制御部106は、受付部104が変更要求を受け付けると、フレームバッファ108からコンテンツのフレーム画像の情報を取得する。システム画像生成部120は、フレーム画像の情報を用いて、フレーム画像とは異なる画像を生成する。表示制御部106は、コンテンツの終了フレーム画像または終了フレーム画像の所定フレーム前の画像の情報を取得する。

Description

情報処理装置および画像生成方法
 本発明は、画像を生成する技術に関する。
 特許文献1は、専用のゲームコントローラで操作されるゲーム装置を開示する。ゲームコントローラは複数のボタンを備え、ゲーム画像の表示中にユーザが所定のボタンを押下すると、ゲーム装置はゲーム画像を非表示とし、代わりにメニュー画像をディスプレイに表示する。
 ユーザはゲームプレイを一時中断して、メニュー画像をディスプレイに表示させることがある。たとえばフレンドからのメッセージを確認したり、フレンドにメッセージを送信する場合に、ユーザはゲーム画像をメニュー画像に切り替えて、メッセージに関するメニュー項目を選択し、メッセージ画像を表示させる。ユーザは用事を済ませると、すみやかにゲーム画像を再表示させて、ゲームプレイを再開する。
特開2014-236866号公報
 ゲームなどのコンテンツの世界観は、ユーザをコンテンツに没入させる重要な要素である。従来の情報処理装置では、コンテンツ画像がメニュー画像に切り替えられると、ユーザは仮想世界から現実世界に引き戻されるため、コンテンツへの没入感が損なわれることがある。そこでコンテンツ画像を別の画像に切り替える際に、コンテンツの世界観を切替後の画像に引き継がせるような技術の開発が望まれている。また複数のコンテンツのアイコンを並べたメニュー画像において、選択されたコンテンツの静止画像を背景画像として表示する場合に、選択されたコンテンツへのユーザの関心を高めるための演出が実施されることが好ましい。
 上記課題を解決するために、本発明のある態様の情報処理装置は、コンテンツの動画像を生成する第1画像生成部と、表示画像の変更要求を受け付ける受付部と、受付部が変更要求を受け付けると、コンテンツのフレーム画像の情報を取得する表示制御部と、フレーム画像の情報を用いて、フレーム画像とは異なる画像を生成する第2画像生成部とを備える。
 本発明の別の態様は、画像生成方法であって、コンテンツの動画像を生成するステップと、表示画像の変更要求を受け付けるステップと、変更要求を受け付けると、コンテンツのフレーム画像の情報を取得するステップと、コンテンツのフレーム画像の情報を用いて、フレーム画像とは異なる画像を生成するステップとを備える。
 本発明のさらに別の態様は、情報処理装置であって、複数のコンテンツのアイコンをユーザが選択できるように並べて、選択されているアイコンに対応するコンテンツの静止画像を背景画像とするコンテンツ選択画像を生成する画像生成部と、アイコンの変更操作を受け付ける受付部と、を備える。受付部がアイコンの変更操作を受け付けたとき、画像生成部は、選択されたアイコンに対応するコンテンツの静止画像とは異なる画像を生成し、異なる画像を表示してから所定時間後に静止画像へと変化するように動画像を生成する。
 本発明のさらに別の態様は、画像生成方法であって、複数のコンテンツのアイコンをユーザが選択できるように並べて、選択されているアイコンに対応するコンテンツの静止画像を背景画像とするコンテンツ選択画像を生成するステップと、アイコンの変更操作を受け付けるステップと、アイコンの変更操作を受け付けたとき、選択されたアイコンに対応するコンテンツの静止画像とは異なる画像を生成するステップと、異なる画像を表示してから所定時間後に静止画像へと変化するように動画像を生成するステップとを備える。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
実施例にかかる情報処理システムを示す図である。 情報処理装置の機能ブロックを示す図である。 情報処理装置の構成を示す図である。 ゲーム画像の一例を示す図である。 メニュー画面に含まれるメニュー項目の例を示す。 実施例におけるメニュー画像の例を示す図である。 実施例におけるメニュー画像の別の例を示す図である。 コンテンツ選択画像の例を示す図である。 コンテンツ選択画像の別の例を示す図である。
 図1は、本発明の実施例にかかる情報処理システム1を示す。情報処理システム1は、補助記憶装置2、出力装置4、入力装置6、カメラ7および情報処理装置10を備える。情報処理装置10は、アクセスポイント(AP)8を介して、外部ネットワークに接続してよい。
 入力装置6は、情報処理装置10と無線または有線で接続し、ユーザから操作入力を受け付けて、操作情報を情報処理装置10に供給する。情報処理装置10は、入力装置6から受け付けた操作情報をシステムソフトウェアやアプリケーションソフトウェアの処理に反映し、出力装置4から処理結果を出力させる。
 実施例の情報処理装置10はゲームソフトウェアを実行するゲーム装置であり、入力装置6はゲームコントローラなど、ユーザの操作情報を情報処理装置10に供給する機器であってよい。なお情報処理装置10は、ゲームソフトウェア以外のアプリケーションソフトウェアを実行する機能を有してよく、またムービーなどのコンテンツを再生する機能を有してよい。入力装置6は複数のプッシュ式の操作ボタンや、アナログ量を入力できるアナログスティック、回動式ボタンなどの複数の入力部を有して構成される。
 補助記憶装置2はHDD(ハードディスクドライブ)やフラッシュメモリなどの大容量記憶装置であり、USB(Universal Serial Bus)などによって情報処理装置10と接続する外部記憶装置であってよく、また内蔵型記憶装置であってもよい。出力装置4は画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよい。出力装置4は、情報処理装置10に有線ケーブルで接続されてよく、無線接続されてもよい。カメラ7はステレオカメラであって、出力装置4周辺の空間を撮影する。
 図2は、情報処理装置10の機能ブロックを示す。情報処理装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60を有して構成される。
 メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリおよびメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUはゲームプログラムの演算処理に主として利用される。これらの機能はシステムオンチップとして構成されて、1つのチップ上に形成されてよい。メインCPUは補助記憶装置2またはROM媒体44に記録されたゲームプログラムを実行する機能をもつ。
 サブシステム50は、サブCPU、主記憶装置であるメモリおよびメモリコントローラなどを備え、GPUを備えず、ゲームプログラムを実行する機能をもたない。サブCPUの回路ゲート数は、メインCPUの回路ゲート数よりも少なく、サブCPUの動作消費電力は、メインCPUの動作消費電力よりも少ない。サブCPUは、メインCPUがスタンバイ状態にある間においても動作し、消費電力を低く抑えるべく、その処理機能を制限されている。
 メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、情報処理装置10の筐体の前面に設けられ、情報処理装置10のメインシステム60への電源供給をオンまたはオフするために操作される。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。
 システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。メイン電源がオフ状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オン指示」として取得し、一方で、メイン電源がオン状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オフ指示」として取得する。
 クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50およびメインシステム60に供給する。デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。
 メディアドライブ32は、ゲームなどのアプリケーションソフトウェア、およびライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアであってよい。
 USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は補助記憶装置2およびカメラ7とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、たとえば入力装置6と無線通信する。有線通信モジュール40は、外部機器と有線通信し、AP8を介してネットワーク3に接続する。
 図3は、情報処理装置10の構成を示す。情報処理装置10は、処理部100および通信部102を備え、処理部100は、受付部104、表示制御部106、フレームバッファ108、ゲーム実行部110およびシステム画像生成部120を備える。ゲーム実行部110はゲームソフトウェアを実行する機能を有し、ゲーム画像生成部112およびゲーム音声生成部114を有する。ゲーム実行部110はゲームソフトウェア以外のアプリケーションソフトウェアを実行してもよい。
 図3において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、システムソフトウェアや、メモリにロードされたゲームプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 通信部102は、図2に示す無線通信モジュール38および有線通信モジュール40の機能を併せ持つ構成として表現される。通信部102は、入力装置6の入力部をユーザが操作した操作情報を受信し、受付部104は操作情報を受け付ける。実施例において受付部104は、表示画像の変更要求を指示する操作情報を受け付け、表示制御部106に供給する。
 ゲーム実行部110は、ゲームソフトウェアを実行する。ゲーム実行部110においてゲーム画像生成部112はゲームの動画像を生成し、ゲーム音声生成部114はゲームの音声を生成する。ゲーム画像生成部112は、ゲーム画像データをフレームバッファ108に供給し、表示制御部106は、フレームバッファ108に記憶されたゲーム画像データを出力装置4から出力させる。なお表示制御部106は、ゲーム画像生成部112により生成されるゲーム画像データ、およびシステム画像生成部120により生成されるシステム画像データを、出力装置4から表示させる機能をもつ。
 図4は、出力装置4に表示されるゲーム画像の一例を示す。この例では、ファーストパーソンシューター(FPS)ゲームの画像が出力装置4に表示されている。なお実施例の出力装置4は、テレビなどの据置型ディスプレイ装置であってよいが、タブレットなどの携帯型のディスプレイ装置であってもよく、またヘッドマウントディスプレイ装置であってもよい。
 ゲームの世界観を構成する要素は様々あるが、なかでも映像の「色調」はゲームの視覚的雰囲気を定める要素であり、高い重要性をもつ。ゲーム全体にわたる色調を統一することで、当該色調がゲーム世界の色味を構成することをユーザに認識させ、ゲームに没入させる効果を得られる。
 ゲームプレイ中、ユーザが入力装置6の所定のボタンを操作すると、受付部104は、表示画像の変更要求を受け付ける。ここで表示画像の変更要求は、ゲーム画像をシステム画像に切り替える要求である。受付部104が表示画像の変更要求を受け付けると、表示制御部106は、ゲーム実行部110にゲーム進行の一時停止を指示するとともに、システム画像生成部120にシステム画像の生成を指示する。システム画像は、情報処理装置10を操作するための1つ以上のメニュー項目を含むメニュー画像であってよい。
 図5は、メニュー画面に含まれるメニュー項目の例を示す。メニュー画面は複数のメニュー項目を含み、ユーザは入力装置6を操作して、目的とするメニュー項目を選択する。たとえば受信したメッセージを閲覧したい場合、ユーザはカーソルを“Message”の項目に合わせて入力装置6の決定ボタンを操作することで、メッセージの閲覧画面がディスプレイに表示される。
 図5に示すメニュー画面の背景が、たとえば青色などの所定色である場合、ユーザは、ゲーム世界から完全に切り離された世界に引き戻された感覚をもつ。ユーザがゲームプレイを再開するとき、あらためてゲームの世界に入り込むことになるが、メニュー画面でもゲームの世界観を表現できていれば、ユーザはゲームに没入した状態を維持できる。
 図6は、実施例において出力装置4に表示されるメニュー画面の例を示す。ゲームプレイ中、ユーザが入力装置6の所定のボタンを操作し、受付部104が表示画像の変更要求を受け付けると、表示制御部106が、ゲームのフレーム画像の情報を取得する。ここで表示制御部106は、フレームバッファ108から、ゲーム動画像の最後のフレーム画像(終了フレーム画像)の画素情報を取得し、システム画像生成部120に供給する。システム画像生成部120は、フレーム画像の情報を用いて、フレーム画像とは異なる画像を生成する。
 実施例でシステム画像生成部120は、ゲームのフレーム画像の情報を用いて、メニュー画面の背景画像を生成し、背景画像の前面に少なくとも1つのメニュー項目を配置したメニュー画像を生成する。メニュー画像データはフレームバッファ108に供給され、表示制御部106が、出力装置4からメニュー画像を表示させる。なおシステム画像生成部120は、終了フレーム画像の画素情報を用いてよいが、背景画像を生成するための処理時間を確保するために、終了フレーム画像の所定フレーム前の画像の画素情報を用いて、メニュー画面の背景画像を生成してもよい。
 システム画像生成部120は、ゲームのフレーム画像の画素情報を用いて、所定の画像生成プログラムにしたがって動画像を生成してよい。図6に示す例でシステム画像生成部120は、ゲームのフレーム画像をブラー処理してメニュー画面の背景画像を生成している。これによりゲーム世界の色調がメニュー画面において維持される。なおシステム画像生成部120は、ゲームのフレーム画像をブラー処理しつつ、ブラー処理した背景画像を動画像として生成してよい。背景画像を動画像とすることで、ゲーム世界が動いているような感覚をユーザに与えることができる。
 なお理論上は、ゲーム実行部110がメニュー画面の背景動画像を生成することも可能である。しかしながらゲーム実行部110による動画像の生成処理は多くのリソースを必要とするため、情報処理装置10の処理能力によってはスペック的に厳しいこともある。そこで実施例ではシステム画像生成部120がゲームの1枚のフレーム画像をブラー処理することでゲーム世界を表現し、軽い処理負荷でメニュー画面を生成している。
 システム画像生成部120は、各画素をランダムに移動させるような動画像を生成してよい。たとえばシステム画像生成部120は、複数画素の集合体の輝度に応じて移動速度を設定して、複数画素の集合体の移動方向をランダム関数で決定することで、背景動画像を生成してよい。ユーザは背景画像の色調によりゲーム世界への没入感を維持しつつ、背景画像が動くことで、ゲームの動的な世界の中でメニュー操作しているような感覚をもつことができる。
 図7は、出力装置4に表示されるメニュー画面の別の例を示す。システム画像生成部120は、フレーム画像の画素情報を用いて、水玉模様の背景画像を生成する。この例で水玉は、フレーム画像で使用されていた画素値で色づけされ、ランダムに動くことが好ましい。たとえばシステム画像生成部120は、フレーム画像を、水平および垂直方向の複数の格子線で分割し、各格子点の画素値をもつ円を格子点ごとに生成する。各円の大きさは所定の上限以下の大きさでランダムに設定されてよく、真円であっても楕円であってもよい。各格子点の画素値で水玉を色づけすることで、複数の水玉は、ゲーム世界の色調を表現したものとなる。
 なおシステム画像生成部120は、ゲームのフレーム画像の色調を求めた上で、その色調を維持するように各水玉の色を定めてもよい。たとえばフレーム画像の色調が茶色である場合、茶色の水玉の数(ないしは画面に占める面積)が多くなるようにシステム画像生成部120は水玉の色を定めてもよい。これによりユーザは、メニュー画面においてゲーム世界を感じられるようになる。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 変形例では、受付部104が、第1のコンテンツ動画像から、別の第2のコンテンツ動画像への変更要求を受け付ける。このときシステム画像生成部120は、ゲーム画像生成部112が生成した第1コンテンツ動画像の終了フレーム画像と、変更要求を受けてゲーム画像生成部112が生成する第2コンテンツ動画像の開始フレーム画像との間をつなぐ動画像(連結動画像)を生成する。システム画像生成部120は、連結動画像の開始フレーム画像を、第1コンテンツ動画像の終了フレーム画像の情報を用いて生成し、連結動画像の終了フレーム画像を、第2コンテンツ動画像の開始フレーム画像の情報を用いて生成してよい。連結動画像の色調は、第1コンテンツ動画像の終了フレーム画像の色調から、第2コンテンツ動画像の開始フレーム画像の色調に、連続して変化するように制御されてよい。
 以下、別の変形例について説明する。たとえば図6に示すメニュー画面において、ユーザがカーソルを“Contents”の項目に合わせて入力装置6の決定ボタンを操作することで、コンテンツの選択画面がディスプレイに表示される。システム画像生成部120は、背景画像を一時的に動画像とするコンテンツ選択画像を生成して、コンテンツへのユーザの関心を高めるための演出を実施してよい。
 図8は、コンテンツ選択画面の一例を示す。システム画像生成部120は、複数のコンテンツのアイコンをユーザが選択できるように並べて、選択されているアイコンに対応するコンテンツの静止画像を背景画像とするコンテンツ選択画像を生成する。コンテンツのアイコンおよび静止画像は、補助記憶装置2においてコンテンツごとに記憶されている。
 図8に示す例では、タイトル「PlayGolf」のアイコンが選択されており、システム画像生成部120は、「PlayGolf」のアイコンを相対的に大きく設定するとともに、「PlayGolf」の静止画像を背景画像として、コンテンツ選択画像を生成し、表示制御部106が出力装置4から表示する。静止画像は、パッケージ画像であってよい。システム画像生成部120は、背景画像の前面に、複数のコンテンツのアイコンを一方向に並べて配置する。この例でシステム画像生成部120は、複数のコンテンツのアイコンを左右方向に並べて配置し、左から3番目に位置するアイコンが選択された状態となる。
 ユーザは入力装置6の右方向キーまたは左方向キーを操作することで、アイコン列を左方向または右方向に移動させ、所望のコンテンツのアイコンを左から3番目の位置に配置する。ユーザは入力装置6のアナログスティックを右方向または左方向に倒すことで、アイコン列を左方向または右方向に移動させてもよい。受付部104は、入力装置6におけるアイコン配列方向の操作を、アイコンの変更操作として受け付ける。たとえば受付部104が、右方向キーの操作をアイコン変更操作として受け付けると、アイコン列の全体が左に移動して、タイトル「WarShip2」のアイコンが左から3番目の位置に配置される。
 図9は、コンテンツ選択画面の別の例を示す。このコンテンツ選択画面では、図8に示す状態からアイコン列が1つ左にシフトされており、また背景画像が、タイトル「WarShip2」の静止画像に変更されている。システム画像生成部120は、背景画像を変更する際に、いきなり静止画像を表示するのではなく、動的なエフェクトを入れることで、コンテンツへのユーザの関心を高める演出を実施することが好ましい。
 受付部104がアイコンの変更操作を受け付けたとき、システム画像生成部120は、選択されたアイコンに対応するコンテンツの静止画像とは異なる画像を生成して出力装置4に表示させ、当該異なる画像を表示してから所定時間後にコンテンツの静止画像へと変化するように動画像を生成する。この場合、システム画像生成部120は、選択されたアイコンに対応する「WarShip2」の静止画像を加工した画像を生成して、出力装置4に表示させ、当該加工した画像を表示させてから所定時間後に「WarShip2」の静止画像へと時間的に連続的に変化するように動画像を生成する。
 受付部104がアイコンの変更操作を受け付けたとき、システム画像生成部120は、コンテンツの静止画像(たとえばパッケージ画像)における第1画素の輝度値を特定し、特定した輝度値に応じた距離だけ離れた第2画素の画素値を、第1画素の画素値として、静止画像を加工した画像を生成する。ここで静止画像における第1画素とは、静止画像における各画素を意味し、したがってシステム画像生成部120は、静止画像における全画素について、この処理を実施する。システム画像生成部120は、静止画像をベースの画像として、静止画像の各画素の画素値を輝度値に応じた距離だけ離れた画素の画素値とする加工を行う。輝度値に応じて離す距離は異なっており、たとえば輝度値が相対的に高ければ、離す距離を長くし、輝度値が相対的に低ければ、離す距離を短くしてよい。これにより加工した画像から静止画像まで変化するときに、より明るい画素値が大きく動くことになり、画像移動のエフェクトが高められる。
 受付部104がアイコンの変更操作を受け付けたとき、システム画像生成部120は、アイコンが並べられた方向に、第1画素から輝度値に応じた距離だけ離れた第2画素の画素値を、第1画素の画素値として、当該異なる画像を生成する。システム画像生成部120は、当該異なる画像を生成後、所定時間の間に、第2画素の画素値が、第2画素から第1画素の間に位置する複数の画素の画素値として順に設定されるように、動画像を生成してよい。これにより画素値が時間的に連続して移動する演出が実現され、コンテンツへの期待感を高めることが可能となる。
 本発明は、画像を表示する分野に利用できる。
1・・・情報処理システム、10・・・情報処理装置、100・・・処理部、102・・・通信部、104・・・受付部、106・・・表示制御部、108・・・フレームバッファ、110・・・ゲーム実行部、112・・・ゲーム画像生成部、114・・・ゲーム音声生成部、120・・・システム画像生成部。

Claims (16)

  1.  コンテンツの動画像を生成する第1画像生成部と、
     表示画像の変更要求を受け付ける受付部と、
     前記受付部が変更要求を受け付けると、前記コンテンツのフレーム画像の情報を取得する表示制御部と、
     前記フレーム画像の情報を用いて、前記フレーム画像とは異なる画像を生成する第2画像生成部と、
     を備えることを特徴とする情報処理装置。
  2.  前記表示制御部は、前記コンテンツの終了フレーム画像または前記終了フレーム画像の所定フレーム前の画像の情報を取得する、
     ことを特徴とする請求項1に記載の情報処理装置。
  3.  前記第2画像生成部は、背景画像を生成する、
     ことを特徴とする請求項1または2に記載の情報処理装置。
  4.  前記第2画像生成部は、背景画像の前面に少なくとも1つのメニュー項目を配置する、
     ことを特徴とする請求項3に記載の情報処理装置。
  5.  背景画像は動画像である、
     ことを特徴とする請求項3または4に記載の情報処理装置。
  6.  前記第2画像生成部は、前記第1画像生成部が生成した第1動画像の終了フレーム画像と、変更要求を受けて前記第1画像生成部が生成する第2動画像の開始フレーム画像との間をつなぐ動画像を生成する、
     ことを特徴とする請求項1に記載の情報処理装置。
  7.  前記第2画像生成部は、前記フレーム画像の画素情報を用いて、画像生成プログラムにしたがって画像を生成する、
     ことを特徴とする請求項1から6のいずれかに記載の情報処理装置。
  8.  前記第2画像生成部は、前記フレーム画像をブラー処理して画像を生成する、
     ことを特徴とする請求項1から7のいずれかに記載の情報処理装置。
  9.  複数のコンテンツのアイコンをユーザが選択できるように並べて、選択されているアイコンに対応するコンテンツの静止画像を背景画像とするコンテンツ選択画像を生成する画像生成部と、
     アイコンの変更操作を受け付ける受付部と、を備え、
     前記受付部がアイコンの変更操作を受け付けたとき、前記画像生成部は、選択されたアイコンに対応するコンテンツの静止画像とは異なる画像を生成し、前記異なる画像を表示してから所定時間後に前記静止画像へと変化するように動画像を生成する、
     ことを特徴とする情報処理装置。
  10.  前記受付部がアイコンの変更操作を受け付けたとき、前記画像生成部は、前記静止画像における第1画素の輝度値を特定し、特定した輝度値に応じた距離だけ離れた第2画素の画素値を、第1画素の画素値として、前記異なる画像を生成する、
     ことを特徴とする請求項9に記載の情報処理装置。
  11.  前記画像生成部は、背景画像の前面に複数のコンテンツのアイコンを一方向に並べて配置しており、
     前記受付部がアイコンの変更操作を受け付けたとき、前記画像生成部は、アイコンが並べられた方向に、第1画素から前記距離だけ離れた第2画素の画素値を、第1画素の画素値として、前記異なる画像を生成する、
     ことを特徴とする請求項10に記載の情報処理装置。
  12.  前記画像生成部は、所定時間の間に、第2画素の画素値が、第2画素から第1画素の間に位置する複数の画素の画素値として順に設定されるように、動画像を生成する、
     ことを特徴とする請求項11に記載の情報処理装置。
  13.  コンテンツの動画像を生成するステップと、
     表示画像の変更要求を受け付けるステップと、
     変更要求を受け付けると、前記コンテンツのフレーム画像の情報を取得するステップと、
     前記コンテンツのフレーム画像の情報を用いて、前記フレーム画像とは異なる画像を生成するステップと、
     を備えることを特徴とする画像生成方法。
  14.  コンピュータに、
     コンテンツの動画像を生成する機能と、
     表示画像の変更要求を受け付ける機能と、
     変更要求を受け付けると、前記コンテンツのフレーム画像の情報を取得する機能と、
     前記コンテンツのフレーム画像の情報を用いて、前記フレーム画像とは異なる画像を生成する機能と、
     を実現させるためのプログラム。
  15.  複数のコンテンツのアイコンをユーザが選択できるように並べて、選択されているアイコンに対応するコンテンツの静止画像を背景画像とするコンテンツ選択画像を生成するステップと、
     アイコンの変更操作を受け付けるステップと、
     アイコンの変更操作を受け付けたとき、選択されたアイコンに対応するコンテンツの静止画像とは異なる画像を生成するステップと、
     前記異なる画像を表示してから所定時間後に前記静止画像へと変化するように動画像を生成するステップと、
     を備えることを特徴とする画像生成方法。
  16.  コンピュータに、
     複数のコンテンツのアイコンをユーザが選択できるように並べて、選択されているアイコンに対応するコンテンツの静止画像を背景画像とするコンテンツ選択画像を生成する機能と、
     アイコンの変更操作を受け付ける機能と、
     アイコンの変更操作を受け付けたとき、選択されたアイコンに対応するコンテンツの静止画像とは異なる画像を生成する機能と、
     前記異なる画像を表示してから所定時間後に前記静止画像へと変化するように動画像を生成する機能と、
     を実現させるためのプログラム。
PCT/JP2019/039511 2019-01-18 2019-10-07 情報処理装置および画像生成方法 WO2020148949A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201980088545.3A CN113287088A (zh) 2019-01-18 2019-10-07 信息处理设备和图像生成方法
EP19910116.3A EP3913474A4 (en) 2019-01-18 2019-10-07 INFORMATION PROCESSING DEVICE AND IMAGE GENERATING METHOD
US17/421,555 US20220258051A1 (en) 2019-01-18 2019-10-07 Information processing device and image generation method
JP2020566102A JPWO2020148949A1 (ja) 2019-01-18 2019-10-07 情報処理装置および画像生成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019006990 2019-01-18
JP2019-006990 2019-01-18

Publications (1)

Publication Number Publication Date
WO2020148949A1 true WO2020148949A1 (ja) 2020-07-23

Family

ID=71613587

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/039511 WO2020148949A1 (ja) 2019-01-18 2019-10-07 情報処理装置および画像生成方法

Country Status (5)

Country Link
US (1) US20220258051A1 (ja)
EP (1) EP3913474A4 (ja)
JP (1) JPWO2020148949A1 (ja)
CN (1) CN113287088A (ja)
WO (1) WO2020148949A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580963A (ja) * 1991-09-19 1993-04-02 Nec Corp 図形表示システムのメニユー表示方式
JPH11313229A (ja) * 1998-04-28 1999-11-09 Eastman Kodak Japan Ltd 電子スチルカメラ用スクリーンセーバ
JP2005312972A (ja) * 2004-04-30 2005-11-10 Microsoft Corp 入力装置を介してゲーム・コンソール・システム内のシステム・ソフトウェアにアクセスするためのシステムおよび方法
JP2005341169A (ja) * 2004-05-26 2005-12-08 Funai Electric Co Ltd 光ディスク再生装置
JP2009112550A (ja) * 2007-11-07 2009-05-28 Sony Computer Entertainment Inc ゲーム装置、画像処理方法、プログラム及び情報記憶媒体
JP2012129697A (ja) * 2010-12-14 2012-07-05 Samsung Yokohama Research Institute Co Ltd 画像表示装置、画像表示方法及びそれらを用いた撮像装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027082A (ja) * 1996-07-09 1998-01-27 Nec Home Electron Ltd 画像表示装置
JPH11232438A (ja) * 1998-02-10 1999-08-27 Square Co Ltd 情報処理装置および情報記録媒体
JP2002077329A (ja) * 2000-08-31 2002-03-15 Nintendo Co Ltd 電子装置
TWI274289B (en) * 2001-02-19 2007-02-21 Olympus Corp Image comparing device, image comparing method and program for executing image comparison in computer recording medium
JP4066162B2 (ja) * 2002-09-27 2008-03-26 富士フイルム株式会社 画像編集装置、画像編集プログラム並びに画像編集方法
US9756349B2 (en) * 2002-12-10 2017-09-05 Sony Interactive Entertainment America Llc User interface, system and method for controlling a video stream
JP2004214749A (ja) * 2002-12-27 2004-07-29 Kenwood Corp ディスク再生装置
JP4044487B2 (ja) * 2003-05-19 2008-02-06 ソフトバンクモバイル株式会社 通信機器
AU2003264402A1 (en) * 2003-09-10 2005-04-06 Fujitsu Limited Information processing device for setting background image, information display method, and program
US20070139408A1 (en) * 2005-12-19 2007-06-21 Nokia Corporation Reflective image objects
GB0601919D0 (en) * 2006-01-31 2006-03-15 Sonaptic Ltd Themes for a mobile device
US8407744B2 (en) * 2007-06-19 2013-03-26 Verizon Patent And Licensing Inc. Snapshot recognition for TV
KR101506488B1 (ko) * 2008-04-04 2015-03-27 엘지전자 주식회사 근접센서를 이용하는 휴대 단말기 및 그 제어방법
JP4938733B2 (ja) * 2008-06-30 2012-05-23 株式会社ソニー・コンピュータエンタテインメント メニュー画面表示方法およびメニュー画面表示装置
JP5586436B2 (ja) * 2009-12-03 2014-09-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 生活スタイル収集装置、ユーザインターフェース装置及び生活スタイル収集方法
US8462221B2 (en) * 2010-11-03 2013-06-11 Eastman Kodak Company Method for producing high dynamic range images
JP2013005489A (ja) * 2011-06-13 2013-01-07 Toshiba Elevator Co Ltd エレベータの非接触給電システム
KR102034590B1 (ko) * 2012-04-05 2019-10-21 엘지전자 주식회사 리모컨용 디지털 방송 수신기 및 이의 제어 방법과 리모컨 유저 인터페이스 구현 장치 및 그 방법
JP6000805B2 (ja) * 2012-11-01 2016-10-05 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
US20140292803A1 (en) * 2013-03-29 2014-10-02 Nvidia Corporation System, method, and computer program product for generating mixed video and three-dimensional data to reduce streaming bandwidth
JP6037923B2 (ja) * 2013-04-08 2016-12-07 三菱電機株式会社 表示情報生成装置および表示情報生成方法
US9083850B1 (en) * 2013-06-29 2015-07-14 Securus Technologies, Inc. Video blurring in a secure environment
JP6307627B2 (ja) * 2014-03-14 2018-04-04 株式会社ソニー・インタラクティブエンタテインメント 空間感知を備えるゲーム機
JP6668046B2 (ja) * 2015-11-16 2020-03-18 池上通信機株式会社 映像表示装置の焼き付き防止方法及び映像表示装置の焼き付き防止回路
JP2017173990A (ja) * 2016-03-22 2017-09-28 トヨタ自動車株式会社 画像表示装置
US10534503B1 (en) * 2016-06-06 2020-01-14 Google Llc Motion stills experience

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580963A (ja) * 1991-09-19 1993-04-02 Nec Corp 図形表示システムのメニユー表示方式
JPH11313229A (ja) * 1998-04-28 1999-11-09 Eastman Kodak Japan Ltd 電子スチルカメラ用スクリーンセーバ
JP2005312972A (ja) * 2004-04-30 2005-11-10 Microsoft Corp 入力装置を介してゲーム・コンソール・システム内のシステム・ソフトウェアにアクセスするためのシステムおよび方法
JP2005341169A (ja) * 2004-05-26 2005-12-08 Funai Electric Co Ltd 光ディスク再生装置
JP2009112550A (ja) * 2007-11-07 2009-05-28 Sony Computer Entertainment Inc ゲーム装置、画像処理方法、プログラム及び情報記憶媒体
JP2012129697A (ja) * 2010-12-14 2012-07-05 Samsung Yokohama Research Institute Co Ltd 画像表示装置、画像表示方法及びそれらを用いた撮像装置

Also Published As

Publication number Publication date
EP3913474A1 (en) 2021-11-24
EP3913474A4 (en) 2022-12-07
US20220258051A1 (en) 2022-08-18
CN113287088A (zh) 2021-08-20
JPWO2020148949A1 (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
KR101974897B1 (ko) 정보처리장치 및 입력장치
US9715718B2 (en) Image processing device, image processing system, image processing method, and computer program for effecting changes in a selected display region
US10733963B2 (en) Information processing apparatus and image processing method
JP2010009459A (ja) メニュー画面表示方法およびメニュー画面表示装置
JP2005202062A (ja) まんが表示装置、まんが表示方法、まんが編集装置およびまんが編集方法
CN111405221A (zh) 显示设备及录制文件列表的显示方法
JP2016162070A (ja) 情報処理装置および画面生成方法
US20220134226A1 (en) Information processing apparatus, information processing method, and program
US20160256774A1 (en) Information processing system and information processing device
WO2020148949A1 (ja) 情報処理装置および画像生成方法
CN101620497A (zh) 多画面操作系统及其操作方法
US8972877B2 (en) Information processing device for displaying control panel image and information image on a display
JP6215995B2 (ja) 入力装置
US11904247B2 (en) Information processing apparatus and image display method for superimposing another image on a content image
JP2006162815A (ja) マルチメディア再生装置
JP7365952B2 (ja) 情報処理装置および画像配信方法
US20230293997A1 (en) Information processing device and program
JP7071550B2 (ja) 情報処理装置
WO2021152777A1 (ja) 画像処理装置および画像処理方法
WO2020246379A1 (ja) 情報処理装置および画像表示方法
JP2023118429A (ja) コンピュータプログラム、およびコンピュータ装置
JP2020000870A (ja) 情報処理装置および入力装置
JP2021117839A (ja) 画像処理装置および画像処理方法
JP2018029974A (ja) 入力装置
JPH10263205A (ja) レーダー表示機能を有するゲーム装置とその表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19910116

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020566102

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019910116

Country of ref document: EP

Effective date: 20210818