JP2023028247A - Information processing system, communication method, and information processing terminal - Google Patents

Information processing system, communication method, and information processing terminal Download PDF

Info

Publication number
JP2023028247A
JP2023028247A JP2021133829A JP2021133829A JP2023028247A JP 2023028247 A JP2023028247 A JP 2023028247A JP 2021133829 A JP2021133829 A JP 2021133829A JP 2021133829 A JP2021133829 A JP 2021133829A JP 2023028247 A JP2023028247 A JP 2023028247A
Authority
JP
Japan
Prior art keywords
chat
player
information processing
processing unit
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021133829A
Other languages
Japanese (ja)
Inventor
春萌 坊迫
Harumo Bosako
夕紀 正津
Yuki Masatsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Priority to JP2021133829A priority Critical patent/JP2023028247A/en
Publication of JP2023028247A publication Critical patent/JP2023028247A/en
Pending legal-status Critical Current

Links

Images

Abstract

To allow other players to easily recognize a player who speaks translated chat contents.SOLUTION: An information processing system in which a plurality of information processing terminals operated by a plurality of players respectively provides a chat function to the plurality of players includes a translation processing unit for translating chat contents by the chat function, and a chat processing unit that reproduces the translated chat contents by the translation processing unit in a voice associated with the player who has spoken the chat contents.SELECTED DRAWING: Figure 3

Description

本開示は、情報処理システム、コミュニケーション方法、及び情報処理端末に関する。 The present disclosure relates to an information processing system, communication method, and information processing terminal.

従来から、ユーザが協力してプレイする協力プレイゲームでは、例えばチャットを利用して情報交換を行い、他のユーザとのコミュニケーションを図っていた(例えば特許文献1参照)。複数のユーザが情報交換を行うチャット機能には、テキストによりチャット内容をやり取りするテキストチャット機能、又は音声によりチャット内容をやり取りするボイスチャット機能があった。 BACKGROUND ART Conventionally, in cooperative play games in which users play cooperatively, for example, chatting is used to exchange information and communicate with other users (see Patent Document 1, for example). Chat functions for exchanging information between a plurality of users include a text chat function for exchanging chat contents by text and a voice chat function for exchanging chat contents by voice.

特開2020-22668号公報Japanese Unexamined Patent Application Publication No. 2020-22668

例えばワールドワイドなオンラインゲームなど、複数のプレイヤにチャット機能を提供する情報処理システムでは、使用する言語が異なるプレイヤがチャット機能により情報交換を行う場合もある。使用する言語が異なるプレイヤ間であっても、例えばチャット内容を翻訳機により翻訳することでコミュニケーションを図ることができる。 For example, in an information processing system that provides a chat function to a plurality of players, such as a worldwide online game, players using different languages may exchange information using the chat function. Even between players using different languages, communication can be achieved by translating chat content using a translator, for example.

複数のプレイヤにチャット機能を提供する情報処理システムでは、翻訳されたチャット内容を発言したプレイヤを分かりやすく他のプレイヤに認識させることができれば便利である。なお、特許文献1は、チャット内容を翻訳機により翻訳してコミュニケーションを図ることについて記載されたものではない。 In an information processing system that provides a chat function to a plurality of players, it would be convenient if other players could easily recognize the player who said the translated chat content. Note that Patent Literature 1 does not describe communication by translating chat content using a translator.

本開示は、翻訳されたチャット内容を発言したプレイヤを、分かりやすく他のプレイヤに認識させること、を課題とする。 An object of the present disclosure is to allow other players to easily recognize a player who has spoken translated chat content.

本開示によれば、複数のプレイヤがそれぞれ操作する複数の情報処理端末が、チャット機能を前記複数のプレイヤに提供する情報処理システムであって、前記チャット機能によるチャット内容を翻訳する翻訳処理部と、前記翻訳処理部により翻訳された前記チャット内容を、前記チャット内容を発言した前記プレイヤと対応付けられた音声で再生するチャット処理部と、を有する情報処理システムが提供される。 According to the present disclosure, an information processing system in which a plurality of information processing terminals operated by a plurality of players respectively provide a chat function to the plurality of players, and a translation processing unit that translates chat content by the chat function and a chat processing unit that reproduces the chat content translated by the translation processing unit in a voice associated with the player who said the chat content.

本開示によれば、翻訳されたチャット内容を発言したプレイヤを、分かりやすく他のプレイヤに認識させることができる。 According to the present disclosure, it is possible to allow other players to easily recognize the player who has spoken the translated chat content.

本実施形態に係る情報処理システムの一例の構成図である。1 is a configuration diagram of an example of an information processing system according to an embodiment; FIG. 本実施形態に係るコンピュータのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the computer which concerns on this embodiment. 本実施形態に係る情報処理端末及び翻訳機の機能構成の一例を示す図である。It is a figure showing an example of functional composition of an information processing terminal concerning this embodiment, and a translator. 本実施形態に係る情報処理端末及び翻訳機の機能構成の一例を示す図である。It is a figure showing an example of functional composition of an information processing terminal concerning this embodiment, and a translator. 音声テーブルの一例の構成図である。4 is a configuration diagram of an example of a voice table; FIG. 本実施形態に係る情報処理システムの処理の一例のフローチャートである。4 is a flowchart of an example of processing of the information processing system according to the present embodiment; 本実施形態に係る情報処理システムの処理の一例のフローチャートである。4 is a flowchart of an example of processing of the information processing system according to the present embodiment; 本実施形態に係る情報処理システムの処理の一例のフローチャートである。4 is a flowchart of an example of processing of the information processing system according to the present embodiment; 本実施形態に係る情報処理システムの処理の一例のフローチャートである。4 is a flowchart of an example of processing of the information processing system according to the present embodiment; 本実施形態に係る情報処理システムの処理の一例のフローチャートである。4 is a flowchart of an example of processing of the information processing system according to the present embodiment;

以下、本開示を実施するための形態について図面を参照して説明する。 Hereinafter, embodiments for implementing the present disclosure will be described with reference to the drawings.

[システム構成]
まず、一実施形態に係るコミュニケーション方法を実現する情報処理システムの一例として、ゲームシステムの例を説明する。なお、一実施形態に係るコミュニケーション方法を実現する情報処理システムは、ゲームシステム以外でもよく、例えばソーシャルネットワーキングサービス(SNS)システムであってもよい。
[System configuration]
First, an example of a game system will be described as an example of an information processing system that implements a communication method according to an embodiment. An information processing system that implements the communication method according to one embodiment may be a social networking service (SNS) system other than a game system.

図1は本実施形態に係る情報処理システムの一例の構成図である。図1に示した本実施形態の情報処理システム1は、サーバ装置10、情報処理端末12a~12c、翻訳機14a~14b、及びデータ通信用のネットワーク18を有する構成である。ネットワーク18は、LAN(Local Area Network)、インターネット、又は通信網などである。 FIG. 1 is a configuration diagram of an example of an information processing system according to this embodiment. The information processing system 1 of this embodiment shown in FIG. 1 has a configuration including a server device 10, information processing terminals 12a to 12c, translators 14a to 14b, and a network 18 for data communication. The network 18 is a LAN (Local Area Network), the Internet, a communication network, or the like.

翻訳機14aは情報処理端末12aと通信可能に接続されている。翻訳機14bは情報処理端末12bと通信可能に接続されている。なお、以下では翻訳機14a及び14bを翻訳機14と総称する場合がある。翻訳機14は、有線又は無線により情報処理端末12a又は12bと通信可能に接続される。例えば翻訳機14は、Bluetooth(登録商標)やWifi(登録商標)などの近距離無線通信を利用して、情報処理端末12a又は12bと通信を行う。 The translator 14a is communicably connected to the information processing terminal 12a. Translator 14b is communicably connected to information processing terminal 12b. Note that the translators 14a and 14b may be collectively referred to as the translator 14 below. The translator 14 is communicably connected to the information processing terminal 12a or 12b by wire or wirelessly. For example, the translator 14 communicates with the information processing terminal 12a or 12b using short-range wireless communication such as Bluetooth (registered trademark) or Wifi (registered trademark).

図1の情報処理端末12aはプレイヤAに操作される。情報処理端末12bはプレイヤBに操作される。情報処理端末12cはプレイヤCに操作される。図1の情報処理システム1はプレイヤA~Cが発言したチャット内容を情報処理端末12a~12cが送受信することで、プレイヤA~Cにチャット機能を提供する。チャット内容の送受信は、サーバ装置10を介して行うようにしてもよいし、サーバ装置10を介さずに行うようにしてもよい。 The information processing terminal 12a of FIG. 1 is operated by the player A. FIG. The information processing terminal 12b is operated by the player B. FIG. The information processing terminal 12c is operated by the player C. FIG. The information processing system 1 of FIG. 1 provides a chat function to the players A to C by having the information processing terminals 12a to 12c transmit and receive chat contents spoken by the players A to C. FIG. Transmission and reception of chat content may be performed via the server device 10 or may be performed without the server device 10 .

情報処理端末12aは、翻訳機14aと連携し、翻訳機14aの翻訳機能でチャット内容の翻訳を行う。情報処理端末12bは、翻訳機14bと連携し、翻訳機14bの翻訳機能でチャット内容の翻訳を行う。また、情報処理端末12cは、情報処理端末12cに搭載された翻訳プログラムを実行することにより実現する翻訳機能で、チャット内容の翻訳を行う。なお、情報処理端末12a~12cはサーバ装置10に搭載された翻訳プログラムにより実現される翻訳機能で、チャット内容の翻訳を行うようにしてもよい。 The information processing terminal 12a cooperates with the translator 14a, and translates the chat content using the translation function of the translator 14a. The information processing terminal 12b cooperates with the translator 14b, and translates the chat content using the translation function of the translator 14b. In addition, the information processing terminal 12c translates chat contents by a translation function realized by executing a translation program installed in the information processing terminal 12c. Note that the information processing terminals 12a to 12c may translate the chat contents by a translation function implemented by a translation program installed in the server device 10. FIG.

翻訳機14は、例えば翻訳機能を有するハンディタイプの専用端末であっても、翻訳プログラムをインストールした汎用端末であってもよい。翻訳機14は、プレイヤの近くに置いて使用するものであっても、ヘッドセットなどに装着して使用するクリップ側のものであってもよい。翻訳機能は、既存技術を利用することができ、例えば国際公開番号「WO2019/111346」に記載の技術を利用して実現できる。 The translator 14 may be, for example, a handy-type dedicated terminal having a translation function, or a general-purpose terminal installed with a translation program. The translator 14 may be placed near the player for use, or may be a clip-side device attached to a headset or the like for use. The translation function can utilize existing technology, and can be implemented using, for example, the technology described in International Publication No. WO2019/111346.

情報処理端末12a~12cは、プレイヤA~Cが操作するコンピュータである。情報処理端末12a~12cは、PC、タブレット端末、スマートフォン端末、ゲーム機器などである。情報処理端末12a~12cは、プレイヤA~Cからの操作を、例えばタッチパネル、コントローラ、マウス、又はキーボード等で受け付けて、操作に応じた情報処理を実行し、実行結果を表示する。 The information processing terminals 12a-12c are computers operated by the players A-C. The information processing terminals 12a to 12c are PCs, tablet terminals, smartphone terminals, game devices, and the like. The information processing terminals 12a to 12c receive operations from the players A to C using, for example, touch panels, controllers, mice, or keyboards, execute information processing according to the operations, and display execution results.

また、サーバ装置10はコンピュータにより実現できる。サーバ装置10は情報処理端末12a~12cとの間でデータを送受信することにより、情報処理端末12a~12cが受け付けたプレイヤA~Cの操作に応じた情報処理を実行し、実行結果を情報処理端末12a~12cに提供する。 Also, the server device 10 can be realized by a computer. The server device 10 transmits and receives data to and from the information processing terminals 12a to 12c, executes information processing according to the operations of the players A to C received by the information processing terminals 12a to 12c, and processes the execution results. provided to the terminals 12a-12c.

サーバ装置10はクラウドコンピュータにより実現してもよい。なお、図1のサーバ装置10の個数は、1つに限定されるものではなく、2つ以上で分散処理してもよい。例えばサーバ装置10は情報処理端末12a~12cへのプログラム(アプリケーション)などのダウンロード処理、プレイヤA~Cのログイン処理、各種データベースを管理する処理などに利用してもよい。 The server device 10 may be realized by a cloud computer. Note that the number of server devices 10 in FIG. 1 is not limited to one, and distributed processing may be performed by two or more. For example, the server device 10 may be used for download processing of programs (applications) to the information processing terminals 12a to 12c, login processing for players A to C, processing for managing various databases, and the like.

なお、図1のシステム構成は一例である。以下の説明では、情報処理端末12a~12cを、情報処理端末12と総称する場合がある。サーバ装置10の機能の少なくとも一部は情報処理端末12の機能として実現する構成であってもよい。情報処理端末12の機能の一部は、サーバ装置10の機能として実現する構成であってもよい。また、図1の情報処理端末12の個数は、3つに限定されるものではなく、2つ、又は4つ以上であってもよい。 Note that the system configuration in FIG. 1 is an example. In the following description, information processing terminals 12a to 12c may be collectively referred to as information processing terminal 12. FIG. At least part of the functions of the server device 10 may be implemented as functions of the information processing terminal 12 . Some of the functions of the information processing terminal 12 may be implemented as functions of the server device 10 . Also, the number of information processing terminals 12 in FIG. 1 is not limited to three, and may be two or four or more.

[ハードウェア構成]
本実施形態に係る情報処理端末12は、例えば図2に示す構成のコンピュータ500により実現される。また、サーバ装置10も同様に、例えば図2に示す構成のコンピュータ500により実現される。図2は本実施形態に係るコンピュータのハードウェア構成の一例を示す図である。
[Hardware configuration]
The information processing terminal 12 according to this embodiment is realized by, for example, a computer 500 having the configuration shown in FIG. Similarly, the server apparatus 10 is realized by a computer 500 having the configuration shown in FIG. 2, for example. FIG. 2 is a diagram showing an example of the hardware configuration of a computer according to this embodiment.

図2のコンピュータ500は、例えばCPU(Central Processing Unit)100、記憶装置102、通信装置104、入力装置106、及び出力装置108を有する。CPU100はプログラムに従ってコンピュータ500を制御する。また、記憶装置102は例えばROM(Read Only Memory)やRAM(Random Access Memory)などのメモリ、HDD(Hard Disk Drive)やSSD(Solid State Drive)などのストレージである。記憶装置102はCPU100で実行するプログラム及びデータを記憶する。 The computer 500 in FIG. 2 has a CPU (Central Processing Unit) 100, a storage device 102, a communication device 104, an input device 106, and an output device 108, for example. CPU 100 controls computer 500 according to a program. The storage device 102 is, for example, a memory such as ROM (Read Only Memory) or RAM (Random Access Memory), or a storage such as HDD (Hard Disk Drive) or SSD (Solid State Drive). A storage device 102 stores programs and data to be executed by the CPU 100 .

通信装置104は、通信を制御するネットワーク回路などの通信デバイスである。入力装置106は、タッチパッド、コントローラ、マウス、キーボード、カメラ、マイクなどの入力デバイスである。また、出力装置108はディスプレイ、スピーカなどの出力デバイスである。タッチパネルは入力装置106の一例であるタッチパッドと出力装置108の一例であるディスプレイとを組み合わせることで実現される。図2のハードウェア構成は一例である。 The communication device 104 is a communication device such as a network circuit that controls communication. The input device 106 is an input device such as a touch pad, controller, mouse, keyboard, camera, and microphone. Also, the output device 108 is an output device such as a display and a speaker. A touch panel is realized by combining a touch pad as an example of the input device 106 and a display as an example of the output device 108 . The hardware configuration of FIG. 2 is an example.

[機能ブロック]
以下では、翻訳機14と連携し、翻訳機14の翻訳機能でチャット内容の翻訳を行う場合の機能ブロックと、搭載された翻訳プログラムを実行することにより実現する翻訳機能でチャット内容の翻訳を行う場合の機能ブロックと、を分けて説明する。
[Function block]
Below, in cooperation with the translator 14, the function block for translating the chat content with the translation function of the translator 14 and the translation function realized by executing the translation program installed are used to translate the chat content. The functional block in the case and the case will be described separately.

例えば翻訳機14と連携し、翻訳機14の翻訳機能でチャット内容の翻訳を行う場合の機能ブロックは、図3に示すようになる。図3は、本実施形態に係る情報処理端末及び翻訳機の機能構成の一例を示す図である。なお、図3の機能構成は一例であって、例えば図3に示した情報処理端末12の機能構成の少なくとも一部を翻訳機14又はサーバ装置10に設け、連携して処理を行うようにしてもよい。 For example, the functional block in the case of cooperating with the translator 14 and translating chat contents by the translation function of the translator 14 is as shown in FIG. FIG. 3 is a diagram showing an example of functional configurations of an information processing terminal and a translator according to this embodiment. Note that the functional configuration of FIG. 3 is an example, and for example, at least a part of the functional configuration of the information processing terminal 12 shown in FIG. good too.

図3の情報処理端末12は、制御部200、操作受付部202、出力制御部204、通信部206、及び記憶部210を有する。 Information processing terminal 12 in FIG.

記憶部210は、ゲームプログラム212、音声テーブル214、画像変更テーブル216、特典テーブル218、及び国柄テーブル220を記憶する。記憶部210は記憶装置102で実現してもよいし、ネットワーク18等を介して接続された記憶装置により実現してもよい。 The storage unit 210 stores a game program 212 , a voice table 214 , an image change table 216 , a privilege table 218 and a national pattern table 220 . The storage unit 210 may be implemented by the storage device 102 or may be implemented by a storage device connected via the network 18 or the like.

ゲームプログラム212は、CPU100が実行するゲーム処理及びチャット処理のプログラムの一例である。音声テーブル214は、チャット内容を再生する音声に関する情報を後述のように記憶している。画像変更テーブル216は、音声を再生中のプレイヤ又はキャラクタの画像に与える視覚的変化に関する情報を後述のように記憶している。 The game program 212 is an example of a program for game processing and chat processing executed by the CPU 100 . The voice table 214 stores information about voices for reproducing chat contents as described later. The image change table 216 stores, as will be described later, information regarding visual changes to the image of the player or character during playback of the sound.

また、特典テーブル218はチャット機能によりコミュニケーションを図ったプレイヤが、例えばゲーム内で協力した場合などに与える特典に関する情報を後述のように記憶している。国柄テーブル220は、音声を再生中のプレイヤ又はキャラクタの画像に与える国柄に応じた視覚的変化に関する情報を後述のように記憶している。 Also, the privilege table 218 stores, as will be described later, information relating to a privilege given to a player with whom the player has communicated using the chat function, for example, when the player cooperates in the game. The national pattern table 220 stores, as will be described later, information relating to visual changes according to the national pattern given to the image of the player or character during playback of the voice.

本実施形態では、プレイヤがゲームをしながらチャット機能を利用して他のプレイヤとコミュニケーションを図る場合に、チャット内容を翻訳機14により翻訳することができるようにしたことで、使用する言語が異なるプレイヤ間であってもコミュニケーションを図ることが可能となっている。したがって、本実施形態によれば、母国語などの使用する言語が異なるプレイヤ間の意思疎通が容易となり、使用する言語が異なるプレイヤ同士の協力プレイへの障壁を減少させることができるので、協力プレイが促進され、協力プレイゲームが活性化される。 In this embodiment, when a player uses the chat function while playing a game to communicate with another player, the content of the chat can be translated by the translator 14, so that the languages used are different. Communication is possible even between players. Therefore, according to the present embodiment, it is possible to facilitate communication between players using different languages, such as their mother tongue, and to reduce barriers to cooperative play between players using different languages. are promoted and cooperative play games are activated.

制御部200は情報処理端末12の全体の制御を行う。情報処理端末12の全体の制御には、プレイヤから実行中のゲームに対する操作を受け付け、操作に応じたゲームの画像を生成して表示する処理が含まれる。また、情報処理端末12の全体の制御には、複数のプレイヤに対してチャット機能を提供するための処理が含まれる。さらに、情報処理端末12の全体の制御には、チャット内容を再生する音声の選択処理、音声を再生中のプレイヤ又はキャラクタの画像に視覚的変化を与える変更処理、音声を再生中のプレイヤの国柄に応じた視覚的変化をプレイヤ又はキャラクタの画像に与える変更処理、などの処理が含まれる。 The control unit 200 controls the entire information processing terminal 12 . The overall control of the information processing terminal 12 includes a process of receiving an operation for the game being executed from the player and generating and displaying a game image according to the operation. Also, the overall control of the information processing terminal 12 includes processing for providing a chat function to a plurality of players. Furthermore, the overall control of the information processing terminal 12 includes selection processing of audio for reproducing chat content, change processing for visually changing the image of the player or character during audio reproduction, and nationality of the player during audio reproduction. It includes processing such as a change processing that gives a visual change to the image of the player or the character according to the state.

制御部200は、CPU100がゲームプログラム212などのプログラムに記載された処理を実行することにより実現される。図3の制御部200は、ゲーム制御部230及び情報処理端末側連携処理部232を有する構成である。ゲーム制御部230はゲーム処理及びチャット処理などのゲームに関する処理を行う。また、情報処理端末側連携処理部232は翻訳機14との連携に関する処理を行う。 Control unit 200 is implemented by CPU 100 executing processing described in a program such as game program 212 . The control unit 200 in FIG. 3 has a configuration including a game control unit 230 and an information processing terminal side cooperation processing unit 232 . The game control unit 230 performs game-related processing such as game processing and chat processing. Further, the information processing terminal side cooperation processing unit 232 performs processing related to cooperation with the translator 14 .

例えばゲーム制御部230はゲーム処理を実行し、実行中のゲーム処理に従ってゲームの画像を生成し、ゲームの画面として出力装置108に表示させる。また、ゲーム制御部230はプレイヤに対してチャット機能を提供するためのチャット処理を実行する。プレイヤの発言したチャット内容の翻訳が必要であれば、ゲーム制御部230は翻訳機14と連携する情報処理端末側連携処理部232を介して、チャット内容の翻訳を翻訳機14に行わせることができる。 For example, the game control unit 230 executes game processing, generates a game image according to the game processing being executed, and causes the output device 108 to display it as a game screen. The game control unit 230 also executes chat processing for providing a chat function to the player. If it is necessary to translate the content of the chat uttered by the player, the game control unit 230 can cause the translator 14 to translate the content of the chat via the information processing terminal side cooperation processing unit 232 that cooperates with the translator 14 . can.

ゲーム制御部230は、チャット処理部240、画像生成部242、画像変更処理部244、感情認識部246、及び特典付与部248を有する構成である。チャット処理部240は、プレイヤから音声によるチャット内容の発言を受け付け、他のプレイヤの情報処理端末12にチャット内容を送信する。また、チャット処理部240は、他のプレイヤから発言されたチャット内容を受信する。チャット処理部240はチャット内容を必要に応じて翻訳機14に翻訳させる。 The game control unit 230 has a configuration including a chat processing unit 240 , an image generation unit 242 , an image change processing unit 244 , an emotion recognition unit 246 and a privilege provision unit 248 . The chat processing unit 240 receives chat content utterances by voice from players, and transmits the chat content to the information processing terminals 12 of other players. In addition, the chat processing unit 240 receives chat contents spoken by other players. The chat processing unit 240 causes the translator 14 to translate the chat content as necessary.

チャット処理部240は、翻訳されたチャット内容を、音声で再生する。チャット内容の再生に利用する音声は、例えばチャット内容を発言したプレイヤと対応付けられた音声である。チャット内容の再生に利用する音声の情報は、音声テーブル214に記憶されている。また、チャット内容の再生に利用する音声は、例えばチャット内容を発言したプレイヤが使用しているキャラクタと対応付けられた音声であってもよい。例えばプレイヤが使用しているキャラクタと対応付けられた音声の情報は、音声テーブル214に記憶されている。 The chat processing unit 240 reproduces the translated chat content as voice. The voice used for reproducing the chat content is, for example, the voice associated with the player who said the chat content. Voice information used for reproducing chat content is stored in the voice table 214 . Also, the voice used to reproduce the chat content may be the voice associated with the character used by the player who said the chat content, for example. For example, voice information associated with characters used by the player is stored in the voice table 214 .

画像生成部242は、ゲーム処理及びチャット処理に従って、ゲーム及びチャットの画像を生成する。画像変更処理部244は、チャット処理部240により音声を再生中のプレイヤ又はキャラクタを識別可能なように、ゲーム及びチャットの画像に視覚的変化を与える。例えば画像変更処理部244は、チャット処理部240により音声を再生中のプレイヤ又はキャラクタの見た目を、枠、エフェクト、又はアイコンの付加などにより音声を再生中以外のプレイヤ又はキャラクタの見た目と異なるように変化させることで、視覚的変化を与える。 The image generator 242 generates game and chat images according to the game processing and chat processing. The image change processing unit 244 visually changes the game and chat images so that the chat processing unit 240 can identify the player or character whose voice is being reproduced. For example, the image change processing unit 244 causes the chat processing unit 240 to make the appearance of the player or character during sound reproduction different from the appearance of the player or character not during sound reproduction by adding frames, effects, icons, or the like. By changing it, it gives a visual change.

感情認識部246は、チャット内容を発言したプレイヤの音声から、発言したプレイヤの感情(怒り、悲しみ、喜びなど)を認識する。チャット内容を発言したプレイヤの音声から、発言したプレイヤの感情を認識する技術は、既存技術であって、例えば特開2002-91482号公報に記載された技術を利用できる。 The emotion recognition unit 246 recognizes the player's emotion (anger, sadness, joy, etc.) from the voice of the player who said the chat content. The technology for recognizing the emotion of the player who has spoken the chat content from the voice of the player who has spoken is an existing technology, and the technology described in Japanese Patent Application Laid-Open No. 2002-91482, for example, can be used.

認識したプレイヤの感情は、チャット処理部240がチャット内容を再生する音声の選択に利用する。認識したプレイヤの感情に基づいた音声の情報は、例えば音声テーブル214に記憶されている。チャット処理部240は、音声テーブル214を参照し、認識したプレイヤの感情に基づいた音声でチャット内容を再生する。 The recognized emotion of the player is used by the chat processing unit 240 to select the voice for reproducing the chat contents. Voice information based on the recognized emotion of the player is stored in the voice table 214, for example. The chat processing unit 240 refers to the voice table 214 and reproduces chat content with voice based on the player's recognized emotion.

また、認識したプレイヤの感情は、画像変更処理部244が音声を再生中のプレイヤ又はキャラクタの画像を識別する視覚的変化の選択に利用する。認識したプレイヤの感情に基づいた視覚的変化の情報は、例えば音声テーブル214に記憶されている。画像変更処理部244は、音声テーブル214を参照し、音声を再生中のプレイヤ又はキャラクタの画像に対して、認識したプレイヤの感情に基づいた視覚的変化を与える。 Also, the recognized player's emotion is used by the image change processor 244 to select a visual change that identifies the image of the player or character whose voice is being reproduced. Information about visual changes based on recognized player emotions is stored, for example, in the audio table 214 . The image change processing unit 244 refers to the voice table 214 and gives visual changes to the image of the player or character during playback of the voice based on the recognized emotion of the player.

特典付与部248は、後述のように同一の言語を使用するプレイヤ、又は同一の地域に所属するプレイヤなど、翻訳処理の結果から認識できる関係のプレイヤがゲーム内で協力した場合に、特典を付与する処理を行う。 The privilege granting unit 248 grants a privilege when players in a relationship that can be recognized from the result of translation processing cooperate in the game, such as players using the same language or players belonging to the same region as will be described later. process.

例えば特典付与部248が付与する特典は、同一の地域に所属するプレイヤなどが所定人数以上、同一のギルドに登録した場合に、回復のアクションの画像に置き換えて利用できる、その地域でよく食されている食べ物を食べて回復するアクションの画像である。 For example, the privilege granted by the privilege granting unit 248 can be used in place of an image of a recovery action when more than a predetermined number of players belonging to the same region are registered in the same guild. It is an image of the action of eating food to recover.

また、特典付与部248が付与する特典は、同一の地域に所属するプレイヤなどが所定人数以上、同一のギルドに登録した場合に、プレイヤのキャラクタの衣装として利用できる、その地域でよく着られている服装の画像である。さらに、特典付与部248が付与する特典は、同一の地域に所属するプレイヤなどが所定人数以上、同一のギルドに登録した場合に、挨拶のアクションの画像に置き換えて利用できる、その地域でよく行われている挨拶のアクションの画像である。 Also, the privilege granted by the privilege granting unit 248 can be used as a costume for a player's character when more than a predetermined number of players belonging to the same region are registered in the same guild. It is an image of the clothes you are wearing. Furthermore, the privilege given by the privilege giving unit 248 can be used in place of a greeting action image when more than a predetermined number of players belonging to the same region are registered in the same guild. It is an image of the greeting action being performed.

また、画像変更処理部244は、翻訳処理の結果等から認識できるプレイヤの使用する言語に基づき、それぞれのプレイヤの国柄に関する情報を特定する。言語に基づいた国柄に関する情報は、例えば国柄テーブル220に記憶されている。画像変更処理部244は国柄テーブル220を参照し、音声を再生中のプレイヤのキャラクタの画像に対して、特定したプレイヤの国柄に応じた視覚的変化を与える。 In addition, the image change processing unit 244 identifies information about each player's national character based on the language used by the player that can be recognized from the result of translation processing or the like. Information about national characteristics based on language is stored in the national characteristics table 220, for example. The image change processing unit 244 refers to the national pattern table 220, and visually changes the image of the character of the player whose voice is being reproduced according to the identified player's national pattern.

例えば画像変更処理部244は、特定したプレイヤの国柄(宗教、民族、作法等)に応じたアクションの画像により、音声を再生中のプレイヤのキャラクタの画像に対して視覚的変化を与える。国柄に応じたアクションの一例としては、例えば敬意を表すアクションである会釈、手を挙げる、合掌などがある。 For example, the image change processing unit 244 visually changes the image of the player's character whose voice is being reproduced, by using an action image corresponding to the specified national character (religion, ethnicity, etiquette, etc.) of the player. Examples of actions according to national characteristics include bowing, raising hands, and joining hands, which are actions that show respect.

操作受付部202は入力装置106に対するプレイヤの各種操作を受け付ける。出力制御部204は制御部200の制御に従って各種画面を出力装置108に表示する。操作受付部202はCPU100がプログラムに従って入力装置106を制御することにより実現される。また、出力制御部204は、CPU100がプログラムに従って出力装置108を制御することにより実現される。 The operation reception unit 202 receives various operations performed by the player on the input device 106 . The output control unit 204 displays various screens on the output device 108 under the control of the control unit 200 . The operation reception unit 202 is implemented by the CPU 100 controlling the input device 106 according to a program. Also, the output control unit 204 is implemented by the CPU 100 controlling the output device 108 according to a program.

入力装置106に対するプレイヤの各種操作とは、CPU100に処理を実行させるためにプレイヤが操作受付部202を操る操作をいう。出力制御部204は、制御部200の制御に従い、各種画面の表示と音の出力とを行う。通信部206は、通信に関する処理を行う。通信部206はCPU100がプログラムを実行し、プログラムに従って通信装置104を制御することにより実現される。 Various operations performed by the player on the input device 106 refer to operations performed by the player on the operation reception unit 202 in order to cause the CPU 100 to execute processing. The output control unit 204 displays various screens and outputs sounds under the control of the control unit 200 . The communication unit 206 performs processing related to communication. Communication unit 206 is implemented by CPU 100 executing a program and controlling communication device 104 according to the program.

図3の翻訳機14は、翻訳処理部250、翻訳結果出力部252、及び翻訳機側連携処理部254を有する。翻訳処理部250はチャット機能によるチャット内容を翻訳する処理を実行する。翻訳結果出力部252は翻訳したチャット内容を情報処理端末12に出力する。翻訳機側連携処理部254は情報処理端末12との連携に関する処理を行う。例えば翻訳機14は情報処理端末12と連携する翻訳機側連携処理部254を介してチャット内容の翻訳を行う。 The translator 14 of FIG. 3 has a translation processing section 250 , a translation result output section 252 , and a translation machine side cooperation processing section 254 . The translation processing unit 250 executes processing for translating the chat content by the chat function. The translation result output unit 252 outputs the translated chat contents to the information processing terminal 12 . The translator-side cooperation processing unit 254 performs processing related to cooperation with the information processing terminal 12 . For example, the translator 14 translates chat contents via a translator-side cooperation processing unit 254 that cooperates with the information processing terminal 12 .

次に、搭載された翻訳プログラムを実行することにより実現する翻訳機能でチャット内容の翻訳を行う場合の機能ブロックを説明する。搭載された翻訳プログラムを実行することにより実現する翻訳機能でチャット内容の翻訳を行う場合の機能ブロックは、図4に示すようになる。図4は本実施形態に係る情報処理端末の機能構成の一例を示す図である。なお、図4の機能構成は一例であって、例えば図4に示した情報処理端末12の機能構成の少なくとも一部をサーバ装置10に設け、連携して処理を行うようにしてもよい。 Next, functional blocks for translating chat contents by a translation function realized by executing a translation program installed will be described. FIG. 4 shows functional blocks for translating chat contents by means of a translation function realized by executing a translation program installed. FIG. 4 is a diagram showing an example of the functional configuration of the information processing terminal according to this embodiment. Note that the functional configuration of FIG. 4 is an example, and for example, at least part of the functional configuration of the information processing terminal 12 shown in FIG.

図4の情報処理端末12は、制御部200、操作受付部202、出力制御部204、通信部206、及び記憶部210を有する。なお、図4の情報処理端末12の機能構成は図3の情報処理端末12の機能構成と一部を除いて同様であるため、同一部分について適宜説明を省略する。図4の情報処理端末12は、図3の情報処理端末12の情報処理端末側連携処理部232が翻訳処理部234に置き換えられた構成である。 Information processing terminal 12 in FIG. Note that the functional configuration of the information processing terminal 12 in FIG. 4 is the same as the functional configuration of the information processing terminal 12 in FIG. 3 except for some parts, and thus the description of the same parts will be omitted as appropriate. The information processing terminal 12 of FIG. 4 has a configuration in which the information processing terminal side cooperation processing section 232 of the information processing terminal 12 of FIG. 3 is replaced with a translation processing section 234 .

例えばゲーム制御部230はプレイヤに対してチャット機能を提供するためのチャット処理を実行する。プレイヤの発言したチャット内容の翻訳が必要であれば、ゲーム制御部230はチャット内容の翻訳を翻訳処理部234に行わせることができる。チャット処理部240はチャット内容を必要に応じて翻訳処理部234に翻訳させる。その他の機能構成は、図3の機能構成と同様であるため、説明を省略する。 For example, the game control unit 230 executes chat processing for providing a chat function to the player. If it is necessary to translate the content of the chat uttered by the player, the game control unit 230 can cause the translation processing unit 234 to translate the content of the chat. The chat processing unit 240 causes the translation processing unit 234 to translate chat contents as necessary. Since other functional configurations are the same as those in FIG. 3, descriptions thereof are omitted.

図5は音声テーブルの一例の構成図である。音声テーブル214は、チャット内容を再生する音声に関する情報として、例えば図5(A)又は図5(B)に示すような情報を記憶している。図5(A)は、チャット内容を再生する音声に関する情報として、プレイヤ名及び音声を対応付けて記憶している。図5(B)は、チャット内容を再生する音声に関する情報として、プレイヤ名、使用キャラクタ、及びキャラクタ音声を対応付けて記憶している。 FIG. 5 is a configuration diagram of an example of a voice table. The voice table 214 stores, for example, information as shown in FIG. 5(A) or FIG. 5(B) as information relating to voice for reproducing chat contents. FIG. 5(A) associates and stores the player name and the voice as information relating to the voice for reproducing the chat content. FIG. 5B stores the player name, the character used, and the character's voice in association with each other as information relating to the voice for reproducing the chat content.

プレイヤ名は、プレイヤを識別する情報の一例である。音声は、チャット内容の再生に利用する音声を識別する情報の一例である。図5(A)の音声テーブルは、チャット内容の再生に利用する音声の情報を、プレイヤごとに対応付けた例である。図5(A)の音声テーブルを参照することで、情報処理端末12は翻訳されたチャット内容を、発言したプレイヤと対応付けられた音声で再生できる。 A player name is an example of information that identifies a player. The voice is an example of information identifying the voice used to reproduce the chat contents. The voice table of FIG. 5A is an example in which voice information used to reproduce chat content is associated with each player. By referring to the voice table of FIG. 5A, the information processing terminal 12 can reproduce the translated chat content with voice associated with the player who made the statement.

使用キャラクタは、プレイヤがゲーム内で使用しているキャラクタを識別する情報の一例である。キャラクタ音声は、チャット内容の再生に利用する音声を識別する情報の一例である。図5(B)の音声テーブルは、チャット内容の再生に利用する音声の情報を、プレイヤが使用するキャラクタごとに対応付けた例である。図5(B)の音声テーブルを参照することで、情報処理端末12は翻訳されたチャット内容を、発言したプレイヤが使用するキャラクタと対応付けられた音声で再生できる。 The character used is an example of information identifying the character used by the player in the game. A character voice is an example of information identifying a voice used to reproduce chat content. The voice table of FIG. 5B is an example in which voice information used to reproduce chat content is associated with each character used by the player. By referring to the voice table of FIG. 5(B), the information processing terminal 12 can reproduce the translated chat contents in the voice associated with the character used by the player who made the statement.

[処理]
以下では、本実施形態に係る情報処理システム1においてプレイヤがゲームをしながらチャット機能を利用して他のプレイヤとコミュニケーションを図る例を説明する。ここでは図1の情報処理システム1の例を説明する。なお、プレイヤA~Cが使用する言語は異なるものとする。
[process]
An example in which a player communicates with other players using a chat function while playing a game in the information processing system 1 according to the present embodiment will be described below. Here, an example of the information processing system 1 of FIG. 1 will be described. It is assumed that the languages used by the players A to C are different.

図6は本実施形態に係る情報処理システムの処理の一例のフローチャートである。例えばプレイヤA~Cはプレイ中のゲームにおいてコミュニケーションを図るため、ステップS10においてチャットを開始する。情報処理端末12a~12cは、ステップS20でチャットが終了するまでステップS12~S18の処理を繰り返す。 FIG. 6 is a flowchart of an example of processing of the information processing system according to this embodiment. For example, players A to C start chatting in step S10 in order to communicate in the game they are playing. The information processing terminals 12a-12c repeat the processing of steps S12-S18 until the chat ends in step S20.

プレイヤA~Cは、他のプレイヤとコミュニケーションを図りたい内容があれば、その内容(チャット内容)をマイクなどの入力装置106から音声で発言する。ここではプレイヤAがチャット内容を発言したものとして説明を続ける。プレイヤAにより発言されたチャット内容は、情報処理端末12aから情報処理端末12b及び12cに送信される。 Players A to C, if there is content that they wish to communicate with other players, say the content (chat content) by voice from an input device 106 such as a microphone. Here, the explanation is continued assuming that the player A made a statement about the content of the chat. The chat content uttered by the player A is transmitted from the information processing terminal 12a to the information processing terminals 12b and 12c.

ステップS12において、情報処理端末12b及び12cは情報処理端末12aからのチャット内容の受信によりプレイヤAの発言があったと判定し、ステップS14~S18の処理を行う。情報処理端末12a~12cは、他の情報処理端末12からのチャット内容の受信がなければ、他のプレイヤによる発言がなかったと判定し、ステップS14~S18の処理をスキップする。 In step S12, the information processing terminals 12b and 12c receive the chat content from the information processing terminal 12a, determine that player A has made a statement, and perform steps S14 to S18. If the information processing terminals 12a to 12c do not receive the chat content from the other information processing terminals 12, they determine that there is no statement by another player, and skip the processing of steps S14 to S18.

ステップS14において、情報処理端末12bは翻訳機14bと連携し、プレイヤAが発言したチャット内容の翻訳を翻訳機14bの翻訳機能で行う。また、ステップS14において、情報処理端末12cは情報処理端末12cに搭載された翻訳プログラムを実行することにより実現する翻訳機能で、プレイヤAが発言したチャット内容の翻訳を行う。 In step S14, the information processing terminal 12b cooperates with the translation machine 14b, and translates the chat content uttered by the player A using the translation function of the translation machine 14b. Further, in step S14, the information processing terminal 12c translates the chat content uttered by the player A with a translation function realized by executing a translation program installed in the information processing terminal 12c.

なお、ここではプレイヤA~Cが使用する言語が異なる例を説明したが、使用する言語が同一であればステップS14のチャット内容の翻訳を省略してもよい。プレイヤA~Cが使用する言語の判別は、翻訳機能が行ってもよいし、プレイヤが手動で設定しておいた情報に基づいて行うようにしてもよい。 Here, an example in which the languages used by the players A to C are different has been described, but if the languages used are the same, the translation of the chat content in step S14 may be omitted. The language used by the players A to C may be determined by the translation function, or may be determined based on information manually set by the player.

ステップS16において、情報処理端末12b及び12cは音声テーブル214を参照して、チャット内容を発言したプレイヤAと対応付けられた音声を、プレイヤAが発言したチャット内容の再生に利用する音声として特定する。ステップS16において情報処理端末12b及び12cは音声テーブル214を参照して、チャット内容を発言したプレイヤAが使用するキャラクタαと対応付けられた音声を、プレイヤAが発言したチャット内容の再生に利用する音声として特定してもよい。ステップS18において、情報処理端末12b及び12cはステップS14で翻訳したチャット内容を、ステップS16で特定した音声で再生する。 In step S16, the information processing terminals 12b and 12c refer to the voice table 214 and specify the voice associated with the player A who said the chat content as the voice to be used to reproduce the chat content voiced by the player A. . In step S16, the information processing terminals 12b and 12c refer to the voice table 214 and use the voice associated with the character α used by the player A who has spoken the chat contents to reproduce the chat contents spoken by the player A. It may be specified as voice. In step S18, the information processing terminals 12b and 12c reproduce the chat content translated in step S14 with the voice specified in step S16.

例えばプレイヤAが男性であれば、音声テーブル214にプレイヤAと対応付けて男性の音声の情報を記憶しておけば、プレイヤAが発言したチャット内容を男性の音声で再生できる。また、例えばプレイヤAが女性であれば、音声テーブル214にプレイヤAと対応付けて女性の音声の情報を記憶しておけば、プレイヤAが発言したチャット内容を女性の音声で再生できる。このように、音声テーブル214においてプレイヤAと対応付けることが可能な音声の種類を増やし、適切な音声と対応付けておくことにより、プレイヤB及びCは、再生されたチャット内容を発言したプレイヤAを認識しやすくなる。 For example, if the player A is a man, if information on the male voice is stored in the voice table 214 in association with the player A, then the chat content uttered by the player A can be reproduced in the male voice. Further, for example, if player A is a woman, if information on female voice is stored in the voice table 214 in association with player A, the chat content uttered by player A can be reproduced in female voice. In this way, by increasing the types of voices that can be associated with player A in the voice table 214 and making them correspond to appropriate voices, players B and C can identify player A who said the reproduced chat content. easier to recognize.

図7は本実施形態に係る情報処理システムの処理の一例のフローチャートである。図7のフローチャートの処理は、図6と一部を除いて同様であるため、同一部分の説明を適宜省略する。 FIG. 7 is a flowchart of an example of processing of the information processing system according to this embodiment. Since the processing of the flowchart of FIG. 7 is the same as that of FIG.

ステップS30~S34の処理は、図6のステップS10~S14の処理と同様であるため、説明を省略する。ステップS36において、情報処理端末12b及び12cは画像変更テーブル216を参照して、チャット内容を発言したプレイヤA又はキャラクタαの画像に与える視覚的変化を特定する。ステップS38において、情報処理端末12b及び12cはステップS34で翻訳したチャット内容を、音声で再生すると共に、発言中のプレイヤA又はプレイヤAが使用するキャラクタαの画像に、ステップS36で特定した視覚的変化を与える画像変更処理を行う。 Since the processing of steps S30 to S34 is the same as the processing of steps S10 to S14 in FIG. 6, the description thereof is omitted. In step S36, the information processing terminals 12b and 12c refer to the image change table 216 to specify the visual change to be given to the image of the player A or the character α who has spoken the chat content. In step S38, the information processing terminals 12b and 12c reproduce the chat content translated in step S34 by voice, and display the visual image specified in step S36 in the image of the player A who is speaking or the character α used by player A. Perform image modification processing that gives change.

例えばプレイヤB及びCは、情報処理端末12b及び12cの画面に表示されているプレイヤA又はキャラクタαを示す画像に、枠、エフェクト、又はアイコンなどが付加される画像変更処理により視覚的変化を与えられることで、再生されたチャット内容を発言したプレイヤAを認識しやすくなる。 For example, players B and C give visual changes to the images showing player A or character α displayed on the screens of information processing terminals 12b and 12c by image change processing in which frames, effects, icons, or the like are added. As a result, it becomes easier to recognize player A who has spoken the reproduced chat content.

また、例えばプレイヤB及びCは、情報処理端末12b及び12cの画面に表示されているキャラクタαが発言しているように口を動かす画像変更処理により視覚的変化を与えられることで、再生されたチャット内容を発言したプレイヤAを認識しやすくなる。 Further, for example, the players B and C are visually changed by image change processing in which the character α displayed on the screens of the information processing terminals 12b and 12c moves its mouth as if it were speaking. It becomes easier to recognize the player A who has spoken the content of the chat.

図8は本実施形態に係る情報処理システムの処理の一例のフローチャートである。図8のフローチャートの処理は、図6と一部を除いて同様であるため、同一部分の説明を適宜省略する。 FIG. 8 is a flowchart of an example of processing of the information processing system according to this embodiment. Since the processing of the flowchart in FIG. 8 is the same as that in FIG.

ステップS50~S54の処理は、図6のステップS10~S14の処理と同様であるため、説明を省略する。ステップS56において、情報処理端末12b及び12cは発言したプレイヤAの音声から、発言したプレイヤAの感情を認識する。 Since the processing of steps S50 to S54 is the same as the processing of steps S10 to S14 in FIG. 6, the description thereof is omitted. In step S56, the information processing terminals 12b and 12c recognize the emotion of the player A who has spoken from the voice of the player A who has spoken.

ステップS58において、情報処理端末12b及び12cは音声テーブル214を参照して、チャット内容を発言したプレイヤAの感情と対応付けられた音声を、プレイヤAが発言したチャット内容の再生に利用する音声として特定する。ステップS60において情報処理端末12b及び12cはステップS54で翻訳したチャット内容を、ステップS58で特定した音声で再生する。 In step S58, the information processing terminals 12b and 12c refer to the voice table 214, and use the voice associated with the emotion of player A who has spoken the chat content as the voice used to reproduce the chat content of player A. Identify. In step S60, the information processing terminals 12b and 12c reproduce the chat content translated in step S54 with the voice specified in step S58.

例えばプレイヤAの感情が「喜び」であれば、音声テーブル214に「喜び」の感情と対応付けて「喜び」の音声(プレイヤAが喜んでいるように感じる音声)の情報を記憶しておけば、プレイヤAが発言したチャット内容を「喜び」の音声で再生できる。また、例えばプレイヤAの感情が「怒り」であれば、音声テーブル214に「怒り」の感情と対応付けて「怒り」の音声(プレイヤAが怒っているように感じる音声)の情報を記録しておけば、プレイヤAが発言したチャット内容を「怒り」の音声で再生できる。 For example, if player A's emotion is "joy", the information of the voice of "joy" (the voice that makes player A feel happy) is stored in the voice table 214 in association with the emotion of "joy". For example, the chat contents spoken by player A can be reproduced with the voice of "joy". Further, for example, if the emotion of player A is "anger", the information of the voice of "anger" (the voice that makes player A feel angry) is recorded in the voice table 214 in association with the emotion of "anger". , the content of the chat uttered by player A can be reproduced with the voice of "anger".

このように、音声テーブル214においてプレイヤAの感情と対応付けることが可能な音声の種類を増やし、適切な音声と対応付けておくことにより、プレイヤB及びCは、再生されたチャット内容を発言したプレイヤAの感情を認識しやすくなる。 In this way, by increasing the types of voices that can be associated with player A's emotions in the voice table 214, and by matching them with appropriate voices, players B and C will be able to identify the player who uttered the reproduced chat content. It becomes easier to recognize A's emotions.

また、音声テーブル214はプレイヤAの感情の他、ゲームの状況も加味して、音声の情報を対応付けて記録してもよい。例えばプレイヤAが使用するキャラクタαのヒットポイント(HP)が少ない状況でプレイヤAがチャット内容を発言した場合に、プレイヤAが発言したチャット内容は、情報処理端末12b及び12cにおいて苦しそうな音声で再生するようにしてもよい。 In addition, the voice table 214 may record voice information in association with the situation of the game in addition to player A's emotions. For example, when the character α used by player A has few hit points (HP) and player A speaks the contents of the chat, the chat contents spoken by player A will sound painful on the information processing terminals 12b and 12c. You may make it reproduce|regenerate.

図9は本実施形態に係る情報処理システムの処理の一例のフローチャートである。図9のフローチャートの処理は、図8と一部を除いて同様であるため、同一部分の説明を適宜省略する。 FIG. 9 is a flowchart of an example of processing of the information processing system according to this embodiment. Since the processing of the flowchart in FIG. 9 is the same as that in FIG.

ステップS70~S76の処理は、図8のステップS50~S56の処理と同様であるため、説明を省略する。ステップS78において、情報処理端末12b及び12cは画像変更テーブル216を参照して、チャット内容を発言したプレイヤA又はキャラクタαの画像に与える視覚的変化を、ステップS76で認識したプレイヤAの感情に基づいて特定する。ステップS80において、情報処理端末12b及び12cはステップS74で翻訳したチャット内容を、音声で再生すると共に、発言中のプレイヤA又はプレイヤAが使用するキャラクタαの画像に、ステップS78で特定した視覚的変化を与える画像変更処理を行う。 Since the processing of steps S70 to S76 is the same as the processing of steps S50 to S56 in FIG. 8, description thereof will be omitted. In step S78, the information processing terminals 12b and 12c refer to the image change table 216 to change the visual change given to the image of the player A or the character α who has spoken the chat content based on the emotion of the player A recognized in step S76. to identify. In step S80, the information processing terminals 12b and 12c reproduce the chat contents translated in step S74 by voice, and add the visual image specified in step S78 to the image of player A who is speaking or the character α used by player A. Perform image modification processing that gives change.

例えばプレイヤAの感情が「喜び」であれば、画像変更テーブル216に「喜び」の感情と対応付けて「喜び」の表情の情報を記憶しておけば、情報処理端末12b及び12cの画面に表示されているプレイヤA又はキャラクタαの表情を「喜び」の表情に変更することができる。また、画像変更テーブル216はプレイヤAの感情の他、ゲームの状況も加味して表情の情報を対応付けて記録してもよい。 For example, if the emotion of player A is "joy", if the image change table 216 stores the information of the expression "joy" in association with the emotion of "joy", the screens of the information processing terminals 12b and 12c The facial expression of player A or character α being displayed can be changed to a “joyful” facial expression. In addition, the image change table 216 may be recorded in association with facial expression information in consideration of the situation of the game in addition to the player A's emotion.

例えばプレイヤAが使用するキャラクタαのヒットポイント(HP)が少ない状況でプレイヤAがチャット内容を発言した場合に、情報処理端末12b及び12cの画面に表示されているプレイヤA又はキャラクタαの表情を、苦しそうな表情となるように視覚的変化を与えるようにしてもよい。 For example, when the character α used by the player A has few hit points (HP) and the player A speaks the content of the chat, the expression of the player A or the character α displayed on the screens of the information processing terminals 12b and 12c can be changed. , a visual change may be given to give a distressed expression.

このように、画像変更テーブル216においてプレイヤAの感情と対応付けることが可能な視覚的変化の種類を増やし、適切な視覚的変化と対応付けておくことにより、プレイヤB及びCに、再生中のチャット内容を発言したプレイヤAの感情を認識させることが容易となる。 In this way, by increasing the types of visual changes that can be associated with Player A's emotions in the image change table 216 and by making them correspond to appropriate visual changes, Players B and C are able to It becomes easy to recognize the emotion of the player A who said the content.

図10は本実施形態に係る情報処理システムの処理の一例のフローチャートである。図10のフローチャートの処理は、図6と一部を除いて同様であるため、同一部分の説明を適宜省略する。 FIG. 10 is a flowchart of an example of processing of the information processing system according to this embodiment. Since the processing of the flowchart of FIG. 10 is the same as that of FIG. 6 except for a part, the description of the same part will be omitted as appropriate.

ステップS90~S94の処理は、図6のステップS10~S14の処理と同様であるため、説明を省略する。ステップS94において、情報処理端末12b及び12cは発言したプレイヤAが使用する言語を判定する。プレイヤAが使用する言語の判定は、翻訳機能が行ってもよいし、プレイヤが設定した言語の情報に基づいて行ってもよい。プレイヤAが使用する言語に基づき、情報処理端末12b及び12cは、プレイヤAの国柄を特定する。 Since the processing of steps S90 to S94 is the same as the processing of steps S10 to S14 in FIG. 6, the description thereof is omitted. In step S94, the information processing terminals 12b and 12c determine the language used by the player A who has spoken. The language used by player A may be determined by the translation function, or may be determined based on the language information set by the player. Based on the language used by player A, the information processing terminals 12b and 12c identify player A's national character.

ステップS98において、情報処理端末12b及び12cは国柄テーブル220を参照して、発言したプレイヤA、又はプレイヤAが使用するキャラクタαの画像に与える視覚的変化を、発言したプレイヤAの国柄に基づいて特定する。 In step S98, the information processing terminals 12b and 12c refer to the nationality table 220 to determine the visual change to be given to the image of the player A who made the remark or the character α used by the player A, based on the nationality of the player A who made the remark. Identify.

ステップS100において、情報処理端末12b及び12cはステップS94で翻訳したチャット内容を、音声で再生すると共に、発言中のプレイヤA又はプレイヤAが使用するキャラクタαの画像に、ステップS98で特定した国柄に応じた視覚的変化を与える画像変更処理を行う。 In step S100, the information processing terminals 12b and 12c reproduce the chat content translated in step S94 by voice, and display the image of player A who is speaking or the character α used by player A in the national pattern specified in step S98. Image modification processing is performed to provide a visual change in accordance with the image.

例えばプレイヤB及びCは、情報処理端末12b及び12cの画面に表示されているプレイヤAのキャラクタαのアクションとして、プレイヤAの国柄に応じたアクションを確認できる。 For example, players B and C can confirm an action corresponding to player A's national character as an action of player A's character α displayed on the screens of information processing terminals 12b and 12c.

図6~図10に示したフローチャートの処理は、一部又は全部を組み合わせた処理とすることができる。例えば図7のフローチャートの処理に、図6のステップS16及びS18の処理内容を追加することで、情報処理端末12b及び12cはステップS34で翻訳したチャット内容を、ステップS16で特定した音声で再生すると共に、発言中のプレイヤA又はプレイヤAが使用するキャラクタαの画像に、ステップS36で特定した視覚的変化を与える画像変更処理を行うことができる。 The processing of the flow charts shown in FIGS. 6 to 10 can be combined in part or in whole. For example, by adding the processing contents of steps S16 and S18 of FIG. 6 to the processing of the flowchart of FIG. 7, the information processing terminals 12b and 12c reproduce the chat contents translated in step S34 with the voice specified in step S16. At the same time, it is possible to perform an image change process for giving the visual change specified in step S36 to the image of the player A who is speaking or the character α used by the player A.

例えば図9のフローチャートの処理に、図8のステップS58及びS60の処理内容を追加することで、情報処理端末12b及び12cはステップS74で翻訳したチャット内容を、ステップS58で特定した音声で再生すると共に、発言中のプレイヤA又はプレイヤAが使用するキャラクタαの画像に、ステップS78で特定した視覚的変化を与える画像変更処理を行うことができる。 For example, by adding the processing contents of steps S58 and S60 of FIG. 8 to the processing of the flowchart of FIG. 9, the information processing terminals 12b and 12c reproduce the chat contents translated in step S74 with the voice specified in step S58. At the same time, it is possible to perform an image change process for giving the visual change specified in step S78 to the image of the player A who is speaking or the character α used by the player A.

また、上記ではプレイヤAが発言したチャット内容を情報処理端末12aから情報処理端末12b及び12cに送信したあと、情報処理端末12b及び12c側でチャット内容を翻訳する例を説明したが、情報処理端末12a側又はサーバ装置10でチャット内容を翻訳してもよい。さらに、本実施形態ではボイスチャットへの適用例を説明したが、テキストチャットの読み上げ機能などへの適用も可能である。 Further, in the above description, an example has been described in which the content of the chat uttered by the player A is transmitted from the information processing terminal 12a to the information processing terminals 12b and 12c, and then the content of the chat is translated by the information processing terminals 12b and 12c. The content of the chat may be translated on the 12a side or the server device 10. FIG. Furthermore, in the present embodiment, an example of application to voice chat has been described, but application to a read-aloud function of text chat is also possible.

このように、本実施形態では、翻訳されたチャット内容を発言したプレイヤを、分かりやすく他のプレイヤに認識させることができる。例えばゲームシステムでは、他者の発言を聞くことや、字幕を読むことに集中できる会議と異なり、ゲーム操作や状況把握と並行してチャット内容を聞く必要がある。本実施形態によれば、再生中のチャット内容を発言したプレイヤを、他のプレイヤが認識しやすくなる。 Thus, in this embodiment, it is possible for other players to easily recognize the player who has spoken the translated chat content. For example, in a game system, unlike a meeting where one can concentrate on listening to other people's comments or reading subtitles, it is necessary to listen to chat contents while operating the game and grasping the situation. According to this embodiment, it becomes easier for other players to recognize the player who said the content of the chat being reproduced.

開示した一実施形態の情報処理システム1は例示であって制限的なものではないと考えられるべきである。上記の実施形態は、添付の請求の範囲、及びその主旨を逸脱することなく、様々な形態で変形及び改良が可能である。また、上記した複数の実施形態に記載された事項は矛盾しない範囲で他の構成も取り得ることができ、また、矛盾しない範囲で組み合わせることができる。 The information processing system 1 of the disclosed embodiment should be considered illustrative and not restrictive. The embodiments described above can be modified and improved in various ways without departing from the scope and spirit of the appended claims. In addition, the items described in the above-described multiple embodiments can be configured in other configurations within a consistent range, and can be combined within a consistent range.

1 情報処理システム
10 サーバ装置
12a~12c 情報処理端末
14a~14b 翻訳機
232 情報処理端末側連携処理部
240 チャット処理部
244 画像変更処理部
246 感情認識部
248 特典付与部
250 翻訳処理部
254 翻訳機側連携処理部
1 Information processing system 10 Server devices 12a to 12c Information processing terminals 14a to 14b Translator 232 Information processing terminal side cooperation processing unit 240 Chat processing unit 244 Image change processing unit 246 Emotion recognition unit 248 Privilege granting unit 250 Translation processing unit 254 Translator Side cooperation processing part

Claims (13)

複数のプレイヤがそれぞれ操作する複数の情報処理端末が、チャット機能を前記複数のプレイヤに提供する情報処理システムであって、
前記チャット機能によるチャット内容を翻訳する翻訳処理部と、
前記翻訳処理部により翻訳された前記チャット内容を、前記チャット内容を発言した前記プレイヤと対応付けられた音声で再生するチャット処理部と、
を有する情報処理システム。
An information processing system in which a plurality of information processing terminals operated by a plurality of players respectively provides a chat function to the plurality of players,
a translation processing unit that translates chat content by the chat function;
a chat processing unit that reproduces the chat content translated by the translation processing unit in a voice associated with the player who said the chat content;
An information processing system having
前記チャット処理部は、前記翻訳処理部により翻訳された前記チャット内容を、発言した前記プレイヤが使用しているキャラクタと対応付けられた音声で再生する
請求項1記載の情報処理システム。
2. The information processing system according to claim 1, wherein said chat processing unit reproduces said chat content translated by said translation processing unit in a voice associated with a character used by said player who has made a statement.
前記音声を再生中の前記プレイヤ又は前記キャラクタを識別可能なように、前記プレイヤ又は前記キャラクタの画像に視覚的変化を与える画像変更処理部、
を更に有する請求項2記載の情報処理システム。
an image change processing unit that visually changes the image of the player or the character so that the player or the character that is reproducing the sound can be identified;
3. The information processing system according to claim 2, further comprising:
前記チャット内容を発言した前記プレイヤの音声から、発言した前記プレイヤの感情を認識する感情認識部、
を更に有し、
前記チャット処理部は、認識した前記プレイヤの感情に基づいた音声で前記チャット内容を再生する請求項1乃至3の何れか一項に記載の情報処理システム。
an emotion recognition unit that recognizes the emotion of the player who has spoken the chat content from the voice of the player who has spoken the chat content;
further having
4. The information processing system according to any one of claims 1 to 3, wherein the chat processing unit reproduces the chat contents with voice based on the recognized emotion of the player.
前記チャット内容を発言した前記プレイヤの音声から、発言した前記プレイヤの感情を認識する感情認識部、
を更に有し、
前記画像変更処理部は、認識した前記プレイヤの感情に基づいた視覚的変化を、前記音声を再生中の前記キャラクタの画像に与える
請求項3記載の情報処理システム。
an emotion recognition unit that recognizes the emotion of the player who has spoken the chat content from the voice of the player who has spoken the chat content;
further having
4. The information processing system according to claim 3, wherein the image change processing unit gives a visual change based on the recognized emotion of the player to the image of the character during reproduction of the voice.
前記翻訳処理部は、前記チャット内容を翻訳した結果に基づき、発言した前記プレイヤそれぞれの言語、又は所属する地域を判定し、
同一の言語を使用する前記プレイヤ、又は同一の地域に所属する前記プレイヤが協力する場合に特典を付与する特典付与部、
を更に有する請求項1乃至5の何れか一項に記載の情報処理システム。
The translation processing unit determines the language or region to which each of the players who have spoken is based on the result of translating the chat contents,
A privilege granting unit that grants a privilege when the players using the same language or the players belonging to the same region cooperate,
The information processing system according to any one of claims 1 to 5, further comprising:
前記翻訳処理部は、前記チャット内容を翻訳した結果に基づき、発言した前記プレイヤそれぞれの言語を判定し、
前記画像変更処理部は、判定した前記プレイヤそれぞれの言語に基づき、前記プレイヤの国柄に関する情報を特定し、前記国柄に応じた視覚的変化を前記キャラクタの画像に与える
請求項3記載の情報処理システム。
The translation processing unit determines the language of each of the players who have spoken based on the result of translating the chat contents,
4. The information processing system according to claim 3, wherein the image change processing unit specifies information about the national character of the player based on the determined language of each of the players, and gives the image of the character a visual change corresponding to the national character. .
前記翻訳処理部は、前記情報処理端末と通信可能な翻訳機により実現される
請求項1乃至7の何れか一項に記載の情報処理システム。
The information processing system according to any one of claims 1 to 7, wherein the translation processing unit is implemented by a translator capable of communicating with the information processing terminal.
前記翻訳処理部は、前記情報処理端末に搭載された翻訳プログラムにより実現される
請求項1乃至7の何れか一項に記載の情報処理システム。
8. The information processing system according to any one of claims 1 to 7, wherein said translation processing unit is realized by a translation program installed in said information processing terminal.
前記チャット機能は、前記複数のプレイヤがゲーム中に利用するチャット機能である
請求項1乃至9の何れか一項に記載の情報処理システム。
10. The information processing system according to any one of claims 1 to 9, wherein the chat function is a chat function used by the plurality of players during a game.
複数のプレイヤがそれぞれ操作する複数の情報処理端末が、チャット機能を前記複数のプレイヤに提供する情報処理システムのコミュニケーション方法であって、
前記チャット機能によるチャット内容を翻訳する翻訳ステップと、
前記翻訳ステップにより翻訳された前記チャット内容を、前記チャット内容を発言した前記プレイヤと対応付けられた音声で再生するチャット処理ステップと、
を有するコミュニケーション方法。
A communication method for an information processing system in which a plurality of information processing terminals operated by a plurality of players respectively provides a chat function to the plurality of players,
a translation step of translating chat content by the chat function;
a chat processing step of reproducing the chat content translated by the translating step in a voice associated with the player who said the chat content;
method of communication.
他のプレイヤが操作する情報処理端末が通信可能に接続され、チャット機能により前記他のプレイヤとコミュニケーションが可能な情報処理端末であって、
前記チャット機能によるチャット内容を翻訳する翻訳処理部と、
前記翻訳処理部により翻訳された前記チャット内容を、前記チャット内容を発言した前記プレイヤと対応付けられた音声で再生するチャット処理部と、
を有する情報処理端末。
An information processing terminal communicably connected to an information processing terminal operated by another player and capable of communicating with the other player using a chat function,
a translation processing unit that translates chat content by the chat function;
a chat processing unit that reproduces the chat content translated by the translation processing unit in a voice associated with the player who said the chat content;
Information processing terminal having
他のプレイヤが操作する情報処理端末が通信可能に接続され、チャット機能により前記他のプレイヤとコミュニケーションが可能な情報処理端末であって、
前記チャット機能によるチャット内容を翻訳する翻訳機と連携する連携処理部と、
前記翻訳機により翻訳された前記チャット内容を、前記チャット内容を発言した前記他のプレイヤと対応付けられた音声で再生するチャット処理部と、
を有する情報処理端末。
An information processing terminal communicably connected to an information processing terminal operated by another player and capable of communicating with the other player using a chat function,
a cooperation processing unit that cooperates with a translation device that translates chat content by the chat function;
a chat processing unit that reproduces the chat content translated by the translator in a voice associated with the other player who said the chat content;
Information processing terminal having
JP2021133829A 2021-08-19 2021-08-19 Information processing system, communication method, and information processing terminal Pending JP2023028247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021133829A JP2023028247A (en) 2021-08-19 2021-08-19 Information processing system, communication method, and information processing terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021133829A JP2023028247A (en) 2021-08-19 2021-08-19 Information processing system, communication method, and information processing terminal

Publications (1)

Publication Number Publication Date
JP2023028247A true JP2023028247A (en) 2023-03-03

Family

ID=85331627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021133829A Pending JP2023028247A (en) 2021-08-19 2021-08-19 Information processing system, communication method, and information processing terminal

Country Status (1)

Country Link
JP (1) JP2023028247A (en)

Similar Documents

Publication Publication Date Title
JP4395687B2 (en) Information processing device
JP2004267433A (en) Information processor, server, program, recording medium for providing voice chat function
US11960792B2 (en) Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
JP2003181136A5 (en)
US20030036431A1 (en) Entertainment system, recording medium
JP2014167517A (en) Conversation providing system, game providing system, conversation providing method, game providing method, and program
JP6587817B2 (en) Game system
JP2003108502A (en) Physical media communication system
JP2023028247A (en) Information processing system, communication method, and information processing terminal
JP2023099309A (en) Method, computer device, and computer program for interpreting voice of video into sign language through avatar
KR102604990B1 (en) Apparatus and method for providing game
CN115396390A (en) Interaction method, system and device based on video chat and electronic equipment
Carvalho et al. Investigating and Comparing the Perceptions of Voice Interaction in Digital Games: Opportunities for Health and Wellness Applications
JP2022081279A (en) Game program, recording medium, game processing method, and information processor
WO2014199562A1 (en) Output-data providing server, information processing device, information processing system, output-data providing method, information processing method, and data structure of content data
JP7347725B1 (en) Display program, display method and display system
WO2024029135A1 (en) Display rpogram, display method, and display system
KR102509106B1 (en) Method for providing speech video and computing device for executing the method
CN110892475A (en) Information processing apparatus, information processing method, and program
JP7313518B1 (en) Evaluation method, evaluation device, and evaluation program
Shane et al. AAC in the 21st century The outcome of technology: Advancements and amended societal attitudes
JP7235376B1 (en) Pseudo player character control device, pseudo player character control method, and computer program
JP7129769B2 (en) LIP SYNC PROGRAM, RECORDING MEDIUM, LIP SYNC PROCESSING METHOD
US20240112389A1 (en) Intentional virtual user expressiveness
US20230252985A1 (en) Conference server and conference system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240321