WO2020246377A1 - 情報処理装置および画像表示方法 - Google Patents

情報処理装置および画像表示方法 Download PDF

Info

Publication number
WO2020246377A1
WO2020246377A1 PCT/JP2020/021312 JP2020021312W WO2020246377A1 WO 2020246377 A1 WO2020246377 A1 WO 2020246377A1 JP 2020021312 W JP2020021312 W JP 2020021312W WO 2020246377 A1 WO2020246377 A1 WO 2020246377A1
Authority
WO
WIPO (PCT)
Prior art keywords
chat
user
image
display unit
voice chat
Prior art date
Application number
PCT/JP2020/021312
Other languages
English (en)
French (fr)
Inventor
章悟 鈴木
拓馬 大岩
真士 竹内
博基 平川
スティーブン トロンベッタ
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to JP2021524809A priority Critical patent/JP7300505B2/ja
Priority to US17/616,716 priority patent/US11904247B2/en
Publication of WO2020246377A1 publication Critical patent/WO2020246377A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences

Definitions

  • the present disclosure relates to a technique for superimposing and displaying a system image generated by system software on a content image.
  • Patent Document 1 a user operates an input device to shift the display screen from the game screen to the home screen, and further operates the input device to shift the display screen from the home screen to the function screen, and a chat icon is displayed on the function screen.
  • the game device on which the entry screen of the chat room is displayed is disclosed.
  • the information processing device of a certain aspect of the present disclosure includes a content image display unit that displays a content image and a system image display that superimposes a system image on the content image according to a user operation. It has a part.
  • the system image display unit has a chat information display unit that displays information related to voice chat, and the chat information display unit is an application different from the member display unit that displays the members of one voice chat room in which the user is participating. It has a chat list display unit that displays a list of voice chat rooms for.
  • Another aspect of the present disclosure is a method of superimposing another image on a content image, in which a step of displaying the content image and a member of a voice chat room in which the user is voice chatting are superposed on the content image. Includes a step to display and a step to display a selectable list of voice chat rooms for different applications.
  • FIG. 1 shows an information processing system 1 according to an embodiment.
  • the information processing system 1 includes an information processing device 10 used by user A, information processing devices 12a to 12c used by another user (hereinafter, referred to as "information processing device 12" unless otherwise specified), and a management server. 5 and.
  • the information processing device 10 and the information processing device 12 may be terminal devices having the same structure and function.
  • the access point (hereinafter referred to as “AP”) 8 has the functions of a wireless access point and a router, and the information processing device 10 connects to the AP 8 via wireless or wired communication and communicates with the management server 5 on the network 3. Connect as possible.
  • the information processing device 10 and the information processing device 12 are connected to each other via the management server 5, and users can play a game or chat with each other.
  • the auxiliary storage device 2 is a large-capacity storage device such as an HDD (hard disk drive) or SSD (solid state drive), may be a built-in storage device, and is connected to the information processing device 10 by USB (Universal Serial Bus) or the like. It may be an external storage device.
  • the output device 4 may be a television having a display for outputting an image and a speaker for outputting sound, or may be a head-mounted display.
  • the output device 4 may be connected to the information processing device 10 with a wired cable, or may be wirelessly connected.
  • the camera 7, which is an imaging device, is provided in the vicinity of the output device 4 and images the space around the output device 4.
  • the camera 7 may be a stereo camera.
  • the information processing device 10 is wirelessly or wiredly connected to the input device 6 operated by the user, and the input device 6 outputs the user's operation information to the information processing device 10.
  • the information processing device 10 receives the operation information from the input device 6, it reflects it in the processing of the system software or the application, and outputs the processing result from the output device 4.
  • the information processing device 10 may be a game device that executes a game program or other application
  • the input device 6 may be a game controller that provides the game device with user operation information.
  • the management server 5 provides a network service to the user of the information processing system 1.
  • the management server 5 manages a network account that identifies each user, and each user signs in to a network service provided by the management server 5 using the network account.
  • the management server 5 provides an environment in which signed-in users can play together and communicate by voice chat or video chat.
  • FIG. 2 shows the appearance configuration of the upper surface of the input device.
  • the user grips the left grip portion 78b with his left hand and grips the right grip portion 78a with his right hand to operate the input device 6.
  • Direction keys 71, analog sticks 77a and 77b, and four types of operation buttons 76 are provided on the upper surface of the housing of the input device 6.
  • the four types of buttons 72 to 75 are marked with different figures in different colors in order to distinguish them.
  • the ⁇ button 72 has a red circle
  • the ⁇ button 73 has a blue cross
  • the ⁇ button 74 has a blue cross. Is a purple square
  • the ⁇ button 75 is marked with a green triangle.
  • a function button 80 is provided between the two analog sticks 77a and 77b.
  • the function button 80 is used to turn on the power of the input device 6 and at the same time activate the communication function for connecting the input device 6 and the information processing device 10.
  • the function button 80 is also used to superimpose and display a system image generated by the system software on a content image such as a game image.
  • a touchpad 79 is provided in the flat area between the direction keys 71 and the operation buttons 76, which sinks downward when pressed by the user and returns to its original position when the user releases it. It also functions as a push-type button.
  • the SHARE button 81 is provided between the touch pad 79 and the direction key 71. The SHARE button 81 is used to input an instruction from the user to the system software in the information processing apparatus 10.
  • the OPTIONS button 82 is provided between the touch pad 79 and the operation button 76. The OPTIONS button 82 is used to input an instruction from the user to an application (game) executed by the information processing device 10.
  • FIG. 3 shows the hardware configuration of the information processing device 10.
  • the information processing device 10 includes a main power button 20, a power ON LED 21, a standby LED 22, a system controller 24, a clock 26, a device controller 30, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, and wired communication. It includes a module 40, a subsystem 50, and a main system 60.
  • the main system 60 includes a main CPU (Central Processing Unit), a memory and memory controller which are main storage devices, a GPU (Graphics Processing Unit), and the like.
  • the GPU is mainly used for arithmetic processing of a game program. These functions may be configured as system-on-chip and may be formed on one chip.
  • the main CPU has a function of executing a game program recorded in the auxiliary storage device 2.
  • the subsystem 50 includes a sub CPU, a memory as a main storage device, a memory controller, and the like, does not have a GPU, and does not have a function of executing a game program.
  • the number of circuit gates of the sub CPU is smaller than the number of circuit gates of the main CPU, and the operating power consumption of the sub CPU is smaller than the operating power consumption of the main CPU.
  • the sub CPU operates even while the main CPU is in the standby state, and its processing function is limited in order to keep the power consumption low.
  • the main power button 20 is an input unit for inputting operations from the user, and is provided on the front surface of the housing of the information processing device 10 to turn on or off the power supply to the main system 60 of the information processing device 10. Manipulated for.
  • the power ON LED 21 lights up when the main power button 20 is turned on, and the standby LED 22 lights up when the main power button 20 is turned off.
  • the system controller 24 detects the user pressing the main power button 20. When the main power button 20 is pressed while the main power is off, the system controller 24 acquires the pressing operation as an "on instruction", while the main power is on when the main power is on. When the button 20 is pressed, the system controller 24 acquires the pressing operation as an "off instruction”.
  • the clock 26 is a real-time clock that generates current date and time information and supplies it to the system controller 24, the subsystem 50, and the main system 60.
  • the device controller 30 is configured as an LSI (Large-Scale Integrated Circuit) that executes information transfer between devices like a south bridge. As shown in the figure, devices such as a system controller 24, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, a wired communication module 40, a subsystem 50, and a main system 60 are connected to the device controller 30. Ru.
  • the device controller 30 absorbs the difference in electrical characteristics and the difference in data transfer speed of each device, and controls the timing of data transfer.
  • the media drive 32 is a drive device that mounts and drives software such as a game and a ROM medium 44 that records license information, and reads a program, data, or the like from the ROM medium 44.
  • the ROM medium 44 is a read-only recording medium such as an optical disk, a magneto-optical disk, or a Blu-ray disc.
  • the USB module 34 is a module that connects to an external device with a USB cable.
  • the USB module 34 may be connected to the auxiliary storage device 2 and the camera 7 with a USB cable.
  • the flash memory 36 is an auxiliary storage device that constitutes an internal storage.
  • the wireless communication module 38 uses a communication protocol such as a Bluetooth (registered trademark) protocol or an IEEE802.11 protocol to wirelessly communicate with an input device 6, for example.
  • the wireless communication module 38 may be compatible with the digital mobile phone system.
  • the wired communication module 40 communicates by wire with an external device and connects to the external network 3 via, for example, AP8.
  • FIG. 4 shows a functional block of an information processing device.
  • the information processing device 10 includes a processing unit 100 and a communication unit 102.
  • the processing unit 100 includes an operation reception unit 110, a content image display unit 112, an acquisition unit 114, a chat execution unit 116, a content execution unit 118, and a system image display unit 130.
  • the system image display unit 130 is realized by system software, has a menu display unit 140 and a chat information display unit 142, and generates a system image.
  • the system image display unit 130 superimposes the system image on the content image and displays it according to the user operation.
  • the chat information display unit 142 includes a member display unit 144 that displays members of the voice chat room, and a chat list display unit 146 that displays a list of a plurality of voice chat rooms.
  • each element described as a functional block that performs various processes can be composed of a circuit block, a memory, and other LSIs in terms of hardware, and system software and memory in terms of software. It is realized by the game program loaded in. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various ways by hardware only, software only, or a combination thereof, and is not limited to any of them.
  • the communication unit 102 receives operation information in which the user operates a button or the like of the input device 6, and also receives information indicating the current status of the friend of the user A, data related to chat, and the like from the management server 5.
  • the communication unit 102 is represented as a configuration having the functions of the wireless communication module 38 and the wired communication module 40 shown in FIG.
  • the operation reception unit 110 receives the user's operation in the input device 6 via the communication unit 102.
  • the content execution unit 118 executes an application, executes a game program in the embodiment, and generates image data and audio data of the game.
  • the content execution unit 118 may be able to execute a plurality of applications at the same time.
  • the function shown as the content execution unit 118 is realized by system software, a game program, hardware such as a GPU, and the like.
  • the game is an example of an application, and the content execution unit 118 may execute an application other than the game.
  • the operation reception unit 110 supplies the operation information of the input device 6 to the content execution unit 118, and the content execution unit 118 calculates to move the player character in the virtual space based on the operation information.
  • Perform processing includes a GPU (Graphics Processing Unit) that executes rendering processing and the like, and generates game image data and game audio data from a viewpoint position (virtual camera) in the virtual space from the calculation processing result in the virtual space. To do.
  • the content image display unit 112 displays the game image from the output device 4, and the sound providing unit (not shown) outputs the game sound from the output device 4.
  • FIG. 5 shows an example of a game screen being played by user A.
  • the user A operates the input device 6 to play the game while viewing the game image and the game sound output from the output device 4.
  • the information processing device 10 of the embodiment provides a mechanism by which the user A during game play can switch chat rooms with a simple procedure.
  • the operation reception unit 110 accepts the short-press operation of the function button 80.
  • the operation reception unit 110 supplies the system image display unit 130 with short-press operation information of the function button 80 received during game execution.
  • the menu display unit 140 uses a system image including a plurality of menu icons as a game image when the operation reception unit 110 receives a predetermined operation (short press operation of the function button 80) by the user A during the game image display. It is displayed superimposed on. When the system image is superimposed and displayed on the game image, the operation reception unit 110 will supply the operation information to be received to the system software.
  • FIG. 6 shows an example in which a system image including a menu icon is superimposed and displayed on a game image.
  • the menu display unit 140 sets a function icon selection area 200 at the bottom of the display screen, and arranges a plurality of menu icons side by side.
  • User A can select a menu icon to perform system functions associated with that icon. For example, when user A selects the chat icon 202, a window for joining the voice chat room or creating a voice chat room by himself / herself is displayed, and user A can perform voice chat.
  • the menu display unit 140 When user A is participating in the voice chat room, the menu display unit 140 superimposes and displays a chat image 210 indicating that user A is participating in the voice chat room on the game image. If you are not participating in the voice chat room, the chat image 210 will not be displayed.
  • the user A can participate in a plurality of voice chat rooms, and one of the rooms can be activated for voice chat.
  • the voice chat room is a voice chat room dedicated to the application, and the user A can participate in, for example, a plurality of game-dedicated voice chat rooms created for each game.
  • User A may be able to participate in a voice chat room that is not related to the game. In any case, the user A can participate in a plurality of voice chat rooms and can enjoy chatting in his / her favorite room.
  • the menu display unit 140 superimposes and displays a system image including a plurality of menu icons and a chat image 210 on the game image, so that the user A can execute a desired system function and can easily obtain information about voice chat. You can access it.
  • the operation reception unit 110 receives the operation information for selecting the chat image 210, and the chat information display unit 142 displays the information related to the voice chat on the game image.
  • FIG. 7 shows an example of the chat window 212.
  • a channel display area 220 is provided in the upper part of the chat window 212, and the channel name of the currently active voice chat room is displayed.
  • the channel name may be called a room name, but the user who opened the voice chat room can freely set it.
  • User A can participate in a plurality of voice chat rooms, but voice chat with chat members is limited to one room.
  • Chat execution unit 116 executes processing related to voice chat by user A.
  • the information processing device 10 of the embodiment may be pre-installed with a chat application.
  • the chat execution unit 116 of the embodiment activates only one voice chat room among the plurality of voice chat rooms in which the user A participates. Activating one voice chat room means that the chat execution unit 116 allocates resources such as a microphone required for voice chat to only the one voice chat room. In the state shown in FIG. 7, the chat execution unit 116 activates the voice chat room having the channel name “ABCchannel” and stops chatting on other channels.
  • the member display unit 144 displays the members of one voice chat room in which the user is participating in the member list display area 222.
  • the member display unit 144 displays the members of the active voice chat room displayed in the channel display area 220 in the member list display area 222, so that the user A can easily confirm the members who are currently in voice chat.
  • an icon indicating the status of each member is displayed in association with the member name, and the user A can instantly confirm the status of each member.
  • Information about chat is acquired from the management server 5 by the acquisition unit 114.
  • the acquisition unit 114 may periodically acquire information about chat from the management server 5, or may acquire information about chat from the management server 5 when there is a change in chat room members or the like on the management server 5.
  • the chat window 212 includes a selection frame 230.
  • the user A sets the selection frame 230 to the channel display area 220 and operates the enter button of the input device 6.
  • the operation reception unit 110 receives the operation information, and the chat list display unit 146 displays a list of a plurality of voice chat rooms in which the user A participates.
  • FIG. 8 shows an example of displaying a chat list.
  • the chat list display unit 146 displays a list of a plurality of voice chat rooms in which the user A participates in the chat window 212.
  • User A participates in a voice chat room for three different applications.
  • User A can only participate in one voice chat room per application.
  • the operation reception unit 110 receives the operation information.
  • the operation reception unit 110 supplies the chat information display unit 142 with information indicating that “PQRchannel” has been selected.
  • FIG. 9 shows an example of the chat window 212.
  • the channel name "PQRchannel” is displayed in the channel display area 220.
  • the member display unit 144 displays the members of "PQRchannel” in the member list display area 222.
  • the user A can easily confirm the members of the voice chat room.
  • the user A activates the voice chat room of "PQRchannel”
  • the user A operates the enter button of the input device 6 in accordance with the "activate” button of the selection frame 230.
  • FIG. 10 shows a state in which the voice chat room switching process is being performed by the chat execution unit 116.
  • the chat execution unit 116 releases the resources such as the microphone assigned to the “ABC channel” and reassigns them to the “PQR channel”.
  • the user A can perform voice chat in the chat room of "PQRchannel”.
  • FIG. 11 shows a state in which the voice chat room switching process is completed.
  • User A can enjoy voice chat with User I and User J.
  • the user A can participate in a plurality of voice chat rooms and switch the active voice chat room by a simple operation.
  • the present disclosure has been described above based on the examples. This embodiment is an example, and it will be understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present disclosure. ..
  • the game is shown as the content, but the content may include a video other than the game.
  • This disclosure can be used in the field of superimposing a system image generated by system software on a content image and displaying it.
  • 1 ... Information processing system, 10 ... Information processing device, 100 ... Processing unit, 102 ... Communication unit, 110 ... Operation reception unit, 112 ... Content image display unit, 114 ... -Acquisition unit, 116 ... chat execution unit, 118 ... content execution unit, 130 ... system image display unit, 140 ... menu display unit, 142 ... chat information display unit, 144 ... Member display unit, 146 ... Chat list display unit.

Abstract

コンテンツ画像表示部112は、コンテンツ画像を表示する。システム画像表示部130は、ユーザ操作に応じて、システム画像をコンテンツ画像に重畳して表示する。システム画像表示部130は、ボイスチャットに関する情報を表示するチャット情報表示部142を備える。メンバ表示部144は、ユーザが参加している1つのボイスチャットルームのメンバを表示する。チャットリスト表示部146は、ユーザが参加している複数のボイスチャットルームのリストを表示する。

Description

情報処理装置および画像表示方法
 本開示は、システムソフトウェアが生成するシステム画像をコンテンツ画像に重畳して表示する技術に関する。
 特許文献1は、ユーザが入力装置を操作して表示画面をゲーム画面からホーム画面に遷移させ、さらに入力装置を操作して表示画面をホーム画面から機能画面に遷移させて、機能画面でチャットアイコンを選択することで、チャットルームの入室画面が表示されるゲーム装置を開示する。
特開2016-042338号公報
 近年、遠隔地にいるフレンドと一緒にゲームをプレイしたり、またチャットをするなど、インターネットを介してフレンドとコミュニケーションをとる機会が増えている。そのためフレンドとコミュニケーションをとるための手順を簡素化することが求められている。
 上記課題を解決するために、本開示のある態様の情報処理装置は、コンテンツ画像を表示するコンテンツ画像表示部と、ユーザ操作に応じて、システム画像をコンテンツ画像に重畳して表示するシステム画像表示部とを備える。システム画像表示部は、ボイスチャットに関する情報を表示するチャット情報表示部を有し、チャット情報表示部は、ユーザが参加している1つのボイスチャットルームのメンバを表示するメンバ表示部と、異なるアプリケーション用のボイスチャットルームのリストを表示するチャットリスト表示部とを有する。
 本開示の別の態様は、コンテンツ画像に別の画像を重畳表示する方法であって、コンテンツ画像を表示するステップと、ユーザがボイスチャットしているボイスチャットルームのメンバを、コンテンツ画像に重畳して表示するステップと、異なるアプリケーション用のボイスチャットルームのリストを選択可能に表示するステップとを含む。
 なお、以上の構成要素の任意の組合せ、本開示の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本開示の態様として有効である。
実施例にかかる情報処理システムを示す図である。 入力装置上面の外観構成を示す図である。 情報処理装置のハードウェア構成を示す図である。 情報処理装置の機能ブロックを示す図である。 ゲーム画面の例を示す図である。 システム画像をゲーム画像に重畳して表示した例を示す図である。 チャットウィンドウの例を示す図である。 チャットリストの表示例を示す図である。 チャットウィンドウの例を示す図である。 ボイスチャットルームの切り換え処理が行われている状態を示す図である。 ボイスチャットルームの切り換え処理が完了した状態を示す図である。
 図1は、実施例にかかる情報処理システム1を示す。情報処理システム1は、ユーザAが利用する情報処理装置10と、別のユーザが利用する情報処理装置12a~12c(以下、特に区別しない場合は「情報処理装置12」と呼ぶ)と、管理サーバ5とを備える。情報処理装置10と情報処理装置12は、同じ構造および機能を備えた端末装置であってよい。アクセスポイント(以下、「AP」とよぶ)8は、無線アクセスポイントおよびルータの機能を有し、情報処理装置10は無線または有線経由でAP8に接続して、ネットワーク3上の管理サーバ5と通信可能に接続する。情報処理装置10と情報処理装置12とは管理サーバ5を介して接続され、ユーザ同士が一緒にゲームをプレイしたり、チャットをすることができる。
 補助記憶装置2はHDD(ハードディスクドライブ)やSSD(ソリッドステートドライブ)などの大容量記憶装置であり、内蔵型記憶装置であってよく、またUSB(Universal Serial Bus)などによって情報処理装置10と接続する外部記憶装置であってもよい。出力装置4は画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよく、またヘッドマウントディスプレイであってもよい。出力装置4は、情報処理装置10に有線ケーブルで接続されてよく、無線接続されてもよい。撮像装置であるカメラ7は出力装置4の近傍に設けられ、出力装置4周辺の空間を撮像する。カメラ7はステレオカメラであってよい。
 情報処理装置10は、ユーザが操作する入力装置6と無線または有線で接続し、入力装置6はユーザの操作情報を情報処理装置10に出力する。情報処理装置10は、入力装置6から操作情報を受け付けるとシステムソフトウェアやアプリケーションの処理に反映し、出力装置4から処理結果を出力する。実施例で情報処理装置10はゲームプログラムやその他のアプリケーションを実行するゲーム装置であり、入力装置6はゲーム装置にユーザの操作情報を提供するゲームコントローラであってよい。
 管理サーバ5は、情報処理システム1のユーザに対してネットワークサービスを提供する。管理サーバ5は、各ユーザを識別するネットワークアカウントを管理しており、各ユーザは、ネットワークアカウントを用いて、管理サーバ5が提供するネットワークサービスにサインインする。管理サーバ5は、サインインしたユーザ同士が一緒にプレイしたり、またボイスチャットやビデオチャットでコミュニケーションをとることのできる環境を提供する。
 入力装置6のボタン構成について説明する。
 図2は、入力装置上面の外観構成を示す。ユーザは左手で左側把持部78bを把持し、右手で右側把持部78aを把持して、入力装置6を操作する。入力装置6の筐体上面には、方向キー71、アナログスティック77a、77bと、4種の操作ボタン76が設けられている。4種のボタン72~75には、それぞれを区別するために、異なる色で異なる図形が記されており、○ボタン72には赤色の丸、×ボタン73には青色のバツ、□ボタン74には紫色の四角形、△ボタン75には緑色の三角形が記されている。
 2つのアナログスティック77a、77bの間に機能ボタン80が設けられる。機能ボタン80は、入力装置6の電源をオンし、同時に入力装置6と情報処理装置10とを接続する通信機能をアクティブにするために使用される。入力装置6が情報処理装置10と接続した後、機能ボタン80は、システムソフトウェアが生成するシステム画像を、ゲーム画像などのコンテンツ画像に重畳表示させるためにも使用される。
 方向キー71と操作ボタン76の間の平坦な領域にはタッチパッド79が設けられ、タッチパッド79は、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。SHAREボタン81は、タッチパッド79と方向キー71の間に設けられる。SHAREボタン81は、情報処理装置10におけるシステムソフトウェアに対するユーザからの指示を入力するために利用される。OPTIONSボタン82は、タッチパッド79と操作ボタン76の間に設けられる。OPTIONSボタン82は、情報処理装置10において実行されるアプリケーション(ゲーム)に対するユーザからの指示を入力するために利用される。
 図3は、情報処理装置10のハードウェア構成を示す。情報処理装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60を有して構成される。
 メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリおよびメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUはゲームプログラムの演算処理に主として利用される。これらの機能はシステムオンチップとして構成されて、1つのチップ上に形成されてよい。メインCPUは補助記憶装置2に記録されたゲームプログラムを実行する機能をもつ。
 サブシステム50は、サブCPU、主記憶装置であるメモリおよびメモリコントローラなどを備え、GPUを備えず、ゲームプログラムを実行する機能をもたない。サブCPUの回路ゲート数は、メインCPUの回路ゲート数よりも少なく、サブCPUの動作消費電力は、メインCPUの動作消費電力よりも少ない。サブCPUは、メインCPUがスタンバイ状態にある間においても動作し、消費電力を低く抑えるべく、その処理機能を制限されている。
 メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、情報処理装置10の筐体の前面に設けられ、情報処理装置10のメインシステム60への電源供給をオンまたはオフするために操作される。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。
 システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。メイン電源がオフ状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オン指示」として取得し、一方で、メイン電源がオン状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オフ指示」として取得する。
 クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50およびメインシステム60に供給する。デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。
 メディアドライブ32は、ゲームなどのソフトウェア、およびライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアである。
 USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は補助記憶装置2およびカメラ7とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、たとえば入力装置6と無線通信する。なお無線通信モジュール38は、デジタル携帯電話方式に対応してもよい。有線通信モジュール40は、外部機器と有線通信し、たとえばAP8を介して外部のネットワーク3に接続する。
 図4は、情報処理装置の機能ブロックを示す。情報処理装置10は、処理部100および通信部102を備える。処理部100は、操作受付部110、コンテンツ画像表示部112、取得部114、チャット実行部116、コンテンツ実行部118およびシステム画像表示部130を備える。システム画像表示部130はシステムソフトウェアにより実現され、メニュー表示部140およびチャット情報表示部142を有して、システム画像を生成する。システム画像表示部130はユーザ操作に応じて、システム画像をコンテンツ画像に重畳して表示する。チャット情報表示部142は、ボイスチャットルームのメンバを表示するメンバ表示部144と、複数のボイスチャットルームのリストを表示するチャットリスト表示部146とを有する。
 図4において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、システムソフトウェアや、メモリにロードされたゲームプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 通信部102は、入力装置6のボタン等をユーザが操作した操作情報を受信し、また管理サーバ5から、ユーザAのフレンドの現在の状況を示す情報や、チャットに関するデータ等を受信する。通信部102は図3に示す無線通信モジュール38および有線通信モジュール40の機能を併せ持つ構成として表現している。
 操作受付部110は、通信部102を介して、入力装置6におけるユーザの操作を受け付ける。コンテンツ実行部118は、アプリケーションを実行し、実施例ではゲームプログラムを実行して、ゲームの画像データおよび音声データを生成する。なおコンテンツ実行部118は、複数のアプリケーションを同時に実行できてよい。コンテンツ実行部118として示す機能は、システムソフトウェア、ゲームプログラム、GPUなどのハードウェアなどにより実現される。なおゲームはアプリケーションの一例であり、コンテンツ実行部118は、ゲーム以外のアプリケーションを実行してもよい。
 ユーザAによるゲームプレイ中、操作受付部110は、入力装置6の操作情報をコンテンツ実行部118に供給し、コンテンツ実行部118は、操作情報をもとに、仮想空間内でプレイヤキャラクタを動かす演算処理を行う。コンテンツ実行部118は、レンダリング処理などを実行するGPU(Graphics Processing Unit)を含み、仮想空間における演算処理結果から、仮想空間内の視点位置(仮想カメラ)からのゲーム画像データおよびゲーム音声データを生成する。コンテンツ画像表示部112が出力装置4からゲーム画像を表示し、音声提供部(図示せず)が出力装置4からゲーム音声を出力する。
 図5は、ユーザAによりプレイされているゲーム画面の例を示す。ユーザAは出力装置4から出力されるゲーム画像およびゲーム音声を視聴しながら、入力装置6を操作してゲームをプレイする。
 実施例の情報処理装置10は、ゲームプレイ中のユーザAが、簡単な手順でチャットルームを切り換えられる仕組みを提供する。ゲームプレイ中、ユーザAが入力装置6の機能ボタン80を短押しすると、操作受付部110が機能ボタン80の短押し操作を受け付ける。
 操作受付部110は、ゲーム実行中に受け付けた機能ボタン80の短押し操作情報を、システム画像表示部130に供給する。メニュー表示部140は、操作受付部110がゲーム画像表示中にユーザAによる所定の操作(機能ボタン80の短押し操作)を受け付けたことを契機として、複数のメニューアイコンを含むシステム画像をゲーム画像に重畳して表示する。システム画像がゲーム画像上に重畳表示されると、操作受付部110は、これから受け付ける操作情報を、システムソフトウェアに供給するようになる。
 図6は、メニューアイコンを含むシステム画像をゲーム画像に重畳して表示した例を示す。メニュー表示部140は、表示画面の下段に機能アイコン選択領域200を設定して、複数のメニューアイコンを並べて配置する。ユーザAはメニューアイコンを選択することで、そのアイコンに関連付けられたシステム機能を実行できる。たとえばユーザAがチャットアイコン202を選択すると、ボイスチャットルームに参加したり、また自身でボイスチャットルームを生成するためのウィンドウが表示され、ユーザAはボイスチャットを行うことができる。
 メニュー表示部140は、ユーザAがボイスチャットルームに参加している場合に、ユーザAがボイスチャットルームに参加していることを示すチャット画像210をゲーム画像に重畳して表示する。なおボイスチャットルームに参加していない場合、チャット画像210は表示されない。実施例においてユーザAは、複数のボイスチャットルームに参加でき、そのうちの1つのルームをアクティブにしてボイスチャットを行うことができる。ボイスチャットルームは、アプリケーション専用のボイスチャットルームであって、ユーザAは、たとえばゲームごとに作成される複数のゲーム専用のボイスチャットルームに参加できる。なおユーザAは、ゲームに関係しないボイスチャットルームに参加できてもよい。いずれにしてもユーザAは、複数のボイスチャットルームに参加できることで、好きなルームでチャットを楽しむことができる。
 メニュー表示部140が、複数のメニューアイコンとチャット画像210を含むシステム画像をゲーム画像に重畳して表示することで、ユーザAは、所望のシステム機能を実行でき、またボイスチャットに関する情報に容易にアクセスできる。ユーザAがチャット画像210を選択操作すると、操作受付部110が、チャット画像210を選択した操作情報を受け付け、チャット情報表示部142が、ボイスチャットに関する情報をゲーム画像上に表示する。
 図7は、チャットウィンドウ212の例を示す。チャットウィンドウ212の上段にはチャンネル表示領域220が設けられ、現在アクティブとなっているボイスチャットルームのチャンネル名が表示される。チャンネル名は、ルーム名と呼ばれてもよいが、ボイスチャットルームを開設したユーザが自由に設定できる。ユーザAは複数のボイスチャットルームに参加できるが、チャットメンバとボイスチャットできるのは、1つのルームに限定される。
 チャット実行部116は、ユーザAによるボイスチャットに関する処理を実行する。実施例の情報処理装置10は、チャットアプリをプリインストールされていてよい。実施例のチャット実行部116はユーザAが参加している複数のボイスチャットルームの中で、1つのボイスチャットルームのみをアクティブとする。1つのボイスチャットルームをアクティブにすることは、チャット実行部116が、ボイスチャットに必要なマイクなどのリソースを、当該1つのボイスチャットルームにのみ割り当てることを意味する。図7に示す状態でチャット実行部116は、チャンネル名“ABCchannel”のボイスチャットルームをアクティブとし、他のチャンネルでのチャットを停止している。
 メンバ表示部144は、ユーザが参加している1つのボイスチャットルームのメンバをメンバリスト表示領域222に表示する。メンバ表示部144が、チャンネル表示領域220に表示されるアクティブなボイスチャットルームのメンバをメンバリスト表示領域222に表示することで、ユーザAは、現在ボイスチャットしているメンバを容易に確認できる。なおメンバリスト表示領域222には、各メンバの状態を示すアイコンがメンバ名に関連付けられて表示され、ユーザAは、各メンバの状態を瞬時に確認できる。
 チャットに関する情報は、取得部114により管理サーバ5から取得される。取得部114は、チャットに関する情報を定期的に管理サーバ5から取得してもよく、また管理サーバ5においてチャットルームのメンバ等に変化があったときに管理サーバ5から取得してもよい。
 チャットウィンドウ212には選択枠230が含まれる。ユーザAは、アクティブとするチャットルームを切り換えるとき、選択枠230をチャンネル表示領域220に合わせ、入力装置6の決定ボタンを操作する。このとき操作受付部110は操作情報を受け付け、チャットリスト表示部146が、ユーザAが参加している複数のボイスチャットルームのリストを表示する。
 図8は、チャットリストの表示例を示す。チャットリスト表示部146は、チャットウィンドウ212に、ユーザAが参加している複数のボイスチャットルームのリストを表示する。この例でユーザAは3つの異なるアプリケーション用のボイスチャットルームに参加している。ユーザAは、1つのアプリケーションにつき、1つのボイスチャットルームにのみ参加できる。たとえばコンテンツ実行部118が複数のアプリケーションを実行している場合に、ユーザAは、それぞれのアプリケーション用のボイスチャットルームに参加できてよい。ユーザAが、アクティブにするチャットルームに選択枠230を合わせ、入力装置6の決定ボタンを操作すると、操作受付部110は操作情報を受け付ける。操作受付部110は、“PQRchannel”が選択されたことを示す情報をチャット情報表示部142に供給する。
 図9は、チャットウィンドウ212の例を示す。チャンネル表示領域220には、チャンネル名“PQRchannel”が表示される。メンバ表示部144は、“PQRchannel”のメンバをメンバリスト表示領域222に表示する。メンバ表示部144がチャンネル表示領域220に表示されるボイスチャットルームのメンバをメンバリスト表示領域222に表示することで、ユーザAは、ボイスチャットルームのメンバを容易に確認できる。ユーザAが“PQRchannel”のボイスチャットルームをアクティブにする場合、選択枠230を「アクティブにする」ボタンに合わせて、入力装置6の決定ボタンを操作する。
 図10は、チャット実行部116によりボイスチャットルームの切り換え処理が行われている状態を示す。チャット実行部116は、“ABCchannel”に割り当てていたマイク等のリソースを解除して、“PQRchannel”に割り当て直す。これによりユーザAは、“PQRchannel”のチャットルームでボイスチャットを行えるようになる。
 図11は、ボイスチャットルームの切り換え処理が完了した状態を示す。ユーザAはボイスチャットを、ユーザI、ユーザJと楽しむことができる。このように情報処理システム1でユーザAは複数のボイスチャットルームに参加しつつ、アクティブとするボイスチャットルームを簡単な操作で切り換えることが可能となる。
 以上、本開示を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。実施例では、コンテンツとしてゲームを示したが、コンテンツはゲーム以外の動画を含むものであってよい。
 本開示は、システムソフトウェアが生成するシステム画像をコンテンツ画像に重畳して表示する分野に利用できる。
1・・・情報処理システム、10・・・情報処理装置、100・・・処理部、102・・・通信部、110・・・操作受付部、112・・・コンテンツ画像表示部、114・・・取得部、116・・・チャット実行部、118・・・コンテンツ実行部、130・・・システム画像表示部、140・・・メニュー表示部、142・・・チャット情報表示部、144・・・メンバ表示部、146・・・チャットリスト表示部。

Claims (7)

  1.  情報処理装置であって、
     コンテンツ画像を表示するコンテンツ画像表示部と、
     ユーザ操作に応じて、システム画像をコンテンツ画像に重畳して表示するシステム画像表示部と、を備え、
     前記システム画像表示部は、
     ボイスチャットに関する情報を表示するチャット情報表示部を有し、
     前記チャット情報表示部は、
     ユーザが参加している1つのボイスチャットルームのメンバを表示するメンバ表示部と、
     異なるアプリケーション用のボイスチャットルームのリストを表示するチャットリスト表示部と、を有する、
     ことを特徴とする情報処理装置。
  2.  前記チャットリスト表示部は、ユーザが参加している複数のボイスチャットルームのリストを表示する、
     ことを特徴とする請求項1に記載の情報処理装置。
  3.  ユーザ操作を受け付ける操作受付部を備え、
     前記システム画像表示部は、前記操作受付部がコンテンツ画像の表示中にユーザによる所定の操作を受け付けたことを契機として、複数のメニューアイコンと、ユーザがボイスチャットルームに参加していることを示すチャット画像を含むシステム画像をコンテンツ画像に重畳して表示するメニュー表示部を有し、
     チャット画像が選択されると、前記チャット情報表示部が、ボイスチャットに関する情報を表示する、
     ことを特徴とする請求項1または2に記載の情報処理装置。
  4.  前記メンバ表示部は、ユーザがリストから選択したボイスチャットルームのメンバを表示する、
     ことを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  5.  ボイスチャットに関する処理を実行するチャット実行部を有し、
     前記チャット実行部は、ユーザが参加している複数のボイスチャットルームの中で、1つのボイスチャットルームのみをアクティブとする、
     ことを特徴とする請求項1から4のいずれかに記載の情報処理装置。
  6.  コンテンツ画像に別の画像を重畳表示する方法であって、
     コンテンツ画像を表示するステップと、
     ユーザがボイスチャットしているボイスチャットルームのメンバを、コンテンツ画像に重畳して表示するステップと、
     異なるアプリケーション用のボイスチャットルームのリストを選択可能に表示するステップと、
     を含む画像表示方法。
  7.  コンピュータに、
     コンテンツ画像を表示する機能と、
     ユーザがボイスチャットしているボイスチャットルームのメンバを、コンテンツ画像に重畳して表示する機能と、
     異なるアプリケーション用のボイスチャットルームのリストを選択可能に表示する機能と、
     を実現させるためのプログラム。
PCT/JP2020/021312 2019-06-06 2020-05-29 情報処理装置および画像表示方法 WO2020246377A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021524809A JP7300505B2 (ja) 2019-06-06 2020-05-29 情報処理装置および画像表示方法
US17/616,716 US11904247B2 (en) 2019-06-06 2020-05-29 Information processing apparatus and image display method for superimposing another image on a content image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962857956P 2019-06-06 2019-06-06
US62/857,956 2019-06-06

Publications (1)

Publication Number Publication Date
WO2020246377A1 true WO2020246377A1 (ja) 2020-12-10

Family

ID=73652145

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/021312 WO2020246377A1 (ja) 2019-06-06 2020-05-29 情報処理装置および画像表示方法

Country Status (3)

Country Link
US (1) US11904247B2 (ja)
JP (1) JP7300505B2 (ja)
WO (1) WO2020246377A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020198950A (ja) * 2019-06-06 2020-12-17 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像表示方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006247381A (ja) * 2005-03-08 2006-09-21 Microsoft Corp マルチメディアコンソール内でシステムレベルユーザインターフェースを提供するためのシステムおよび方法
JP2006350628A (ja) * 2005-06-15 2006-12-28 Movida Holdings株式会社 コミュニケーションシステム及びコミュニケーション方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9700791B2 (en) * 2008-08-14 2017-07-11 Valve Corporation Overlaying interactive video game play with real-time chat sessions with game switching
US8725819B2 (en) * 2009-03-23 2014-05-13 Sony Corporation Chat system, server device, chat method, chat execution program, storage medium stored with chat execution program, information processing unit, image display method, image processing program, storage medium stored with image processing program
CN104601437A (zh) * 2014-04-30 2015-05-06 腾讯科技(深圳)有限公司 聊天信息传输方法及装置、聊天信息推送方法及服务器
JP6407624B2 (ja) * 2014-08-14 2018-10-17 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびユーザ情報表示方法
JP6407622B2 (ja) 2014-08-14 2018-10-17 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、画像データ送信方法および情報処理システム
JP2016042338A (ja) 2014-08-19 2016-03-31 キヤノン株式会社 情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラム
US10179291B2 (en) * 2016-12-09 2019-01-15 Microsoft Technology Licensing, Llc Session speech-to-text conversion

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006247381A (ja) * 2005-03-08 2006-09-21 Microsoft Corp マルチメディアコンソール内でシステムレベルユーザインターフェースを提供するためのシステムおよび方法
JP2006350628A (ja) * 2005-06-15 2006-12-28 Movida Holdings株式会社 コミュニケーションシステム及びコミュニケーション方法

Also Published As

Publication number Publication date
JP7300505B2 (ja) 2023-06-29
JPWO2020246377A1 (ja) 2020-12-10
US20220326815A1 (en) 2022-10-13
US11904247B2 (en) 2024-02-20

Similar Documents

Publication Publication Date Title
JP6400280B2 (ja) 情報処理システムおよび情報処理装置
JP6532490B2 (ja) 情報処理装置および情報処理システム
JP6612019B2 (ja) 情報処理装置、制御データ送信方法および情報処理システム
JP6782173B2 (ja) 情報処理装置および音声データ通信管理方法
KR20170120723A (ko) 정보처리장치 및 입력장치
US10843071B2 (en) Information processing apparatus, image data distribution method and program
WO2018128166A1 (ja) 情報処理装置およびアプリケーション画像配信方法
JP6839068B2 (ja) 情報処理装置およびゲーム画像配信方法
US11954772B2 (en) Information processing device and image generating method for managing placement of user images
WO2020246377A1 (ja) 情報処理装置および画像表示方法
WO2020246379A1 (ja) 情報処理装置および画像表示方法
WO2022030383A1 (ja) 情報処理装置および画像表示方法
JP2016042877A (ja) 情報処理装置、コンテンツ画像の共有制御方法および情報処理システム
US11944909B2 (en) Information processing device, information processing system, and application screen image displaying method
JP7139473B2 (ja) 情報処理装置およびゲーム画像表示方法
JP7351945B2 (ja) 情報処理装置およびゲーム画像表示方法
JP7365952B2 (ja) 情報処理装置および画像配信方法
US20230158412A1 (en) Information processing device and image sharing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20818099

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021524809

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20818099

Country of ref document: EP

Kind code of ref document: A1