JP7219862B2 - Communication system, communication method and communication program - Google Patents

Communication system, communication method and communication program Download PDF

Info

Publication number
JP7219862B2
JP7219862B2 JP2021093153A JP2021093153A JP7219862B2 JP 7219862 B2 JP7219862 B2 JP 7219862B2 JP 2021093153 A JP2021093153 A JP 2021093153A JP 2021093153 A JP2021093153 A JP 2021093153A JP 7219862 B2 JP7219862 B2 JP 7219862B2
Authority
JP
Japan
Prior art keywords
user
smart device
image
unit
attack power
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021093153A
Other languages
Japanese (ja)
Other versions
JP2022185453A (en
Inventor
俊允 中村
仁美 村井
忠 萬國谷
Original Assignee
株式会社Nttコノキュー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttコノキュー filed Critical 株式会社Nttコノキュー
Priority to JP2021093153A priority Critical patent/JP7219862B2/en
Publication of JP2022185453A publication Critical patent/JP2022185453A/en
Application granted granted Critical
Publication of JP7219862B2 publication Critical patent/JP7219862B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、通信システム、通信方法及び通信プログラムに関する。 The present invention relates to a communication system, communication method and communication program.

近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)をユーザに体感させるHMD(Head Mounted Display)などが提案されている。このうち、AR技術を用いたHMDとして、一般的な眼鏡と同様に、ユーザの頭部に装着して使用されるARグラスが提案されている。 In recent years, HMDs (Head Mounted Displays) and the like have been proposed that allow users to experience virtual reality (VR) and augmented reality (AR). Among these, as an HMD using AR technology, AR glasses, which are worn on the user's head and used in the same manner as general eyeglasses, have been proposed.

ARグラスは、ユーザの前方の実空間を撮像し、撮像した実空間の画像を、ARグラスのレンズ部分に相当するディスプレイに表示させる。また、ARグラスは、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。これにより、ARグラスを装着したユーザは、実空間の中に仮想的なコンテンツが重畳されたAR空間を体感することができる。 The AR glasses capture an image of the real space in front of the user, and display the captured image of the real space on a display corresponding to the lens portion of the AR glasses. In addition, AR glasses display virtual content generated by CG on a display by superimposing it on a captured image of the real space. As a result, a user wearing AR glasses can experience an AR space in which virtual content is superimposed on a real space.

特許第6655751号公報Japanese Patent No. 6655751

ARグラスのディスプレイにRPG(Role-Playing Game)コンテンツを表示させることで、RPGをユーザに体験させるシステムが提案されている。このシステムに対し、リアリティのあるAR体験のユーザへの提供が要望されていた。 A system has been proposed that allows a user to experience an RPG (Role-Playing Game) by displaying RPG (Role-Playing Game) content on an AR glass display. There has been a demand for this system to provide users with a realistic AR experience.

本発明は、上記に鑑みてなされたものであって、リアリティのある仮想空間上の体験をユーザに提供することを可能とする通信システム、通信方法及び通信プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a communication system, a communication method, and a communication program capable of providing a user with a realistic virtual space experience.

上述した課題を解決し、目的を達成するために、本発明の通信システムは、ユーザが使用する表示装置と、ユーザが持つモーションコントローラーと、ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有し、仮想的なコンテンツを表示装置に表示させてゲーム体験をユーザに提供する通信システムであって、サーバは、ユーザの選択に応じた種別の武器の仮想的なコンテンツをスマートデバイスに設定する第1の設定部と、少なくともスマートデバイスの位置情報と、地図情報と、天候情報とを基に、ユーザの周辺状況を判定する判定部と、ユーザの周辺状況に応じて、ユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する第2の設定部と、を有し、スマートデバイスは、少なくとも該スマートデバイスの位置情報を検出し、検出した位置情報をサーバに送信する位置検出部と、第1の設定部によって設定された武器の仮想的なコンテンツを、第2の設定部によって設定された攻撃力となるように、表示装置に出力させる制御部と、を有することを特徴とする。 In order to solve the above problems and achieve the object, the communication system of the present invention communicates with the display device used by the user, the motion controller held by the user, the smart device carried by the user, and the smart device. and a server for displaying virtual content on a display device to provide a game experience to a user, wherein the server displays the virtual content of a type of weapon according to the user's selection on the smart device. a determination unit that determines the surrounding conditions of the user based on at least location information of the smart device, map information, and weather information; and a second setting unit for setting the attack power of the virtual content of the set weapon, wherein the smart device detects at least location information of the smart device and transmits the detected location information to the server. and a controller for outputting the virtual content of the weapon set by the first setting unit to the display device so as to have the attack power set by the second setting unit. Characterized by

本発明によれば、仮想空間上の体験をユーザに提供することを可能とする。 According to the present invention, it is possible to provide a user with an experience in virtual space.

図1は、ARグラスのディスプレイに表示される画像の一例を示す図である。FIG. 1 is a diagram showing an example of an image displayed on a display of AR glasses. 図2は、実施の形態に係る通信システムの構成を説明する図である。FIG. 2 is a diagram illustrating the configuration of the communication system according to the embodiment. 図3は、実施の形態に係る通信システムの構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of the communication system according to the embodiment. 図4は、図3に示すARグラスの構成の一例を示すブロック図である。4 is a block diagram showing an example of the configuration of the AR glasses shown in FIG. 3. FIG. 図5は、図3に示すスマートデバイスの構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the configuration of the smart device shown in FIG. 3. As shown in FIG. 図6は、図3に示すサーバの構成の一例を示すブロック図である。FIG. 6 is a block diagram showing an example of the configuration of the server shown in FIG. 3; 図7は、ユーザによる武器の設定例を説明する図である。FIG. 7 is a diagram illustrating an example of weapon setting by the user. 図8は、ユーザの周辺状況の一例を説明する図である。FIG. 8 is a diagram for explaining an example of a user's peripheral situation. 図9は、ユーザの周辺状況の一例を説明する図である。FIG. 9 is a diagram for explaining an example of a user's peripheral situation. 図10は、実施の形態に係る通信処理の処理手順を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating a processing procedure of communication processing according to the embodiment. 図11は、プログラムを実行するコンピュータを示す図である。FIG. 11 is a diagram showing a computer executing a program.

以下に、本願に係る通信システム、通信方法及び通信プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る通信システム、通信方法及び通信プログラムが限定されるものではない。 Hereinafter, embodiments of a communication system, a communication method, and a communication program according to the present application will be described in detail with reference to the drawings. Note that the communication system, communication method, and communication program according to the present application are not limited by this embodiment.

以下の実施の形態では、実施の形態に係る通信システム、通信方法及び通信プログラムの処理の流れを順に説明し、最後に実施の形態による効果を説明する。 In the following embodiments, a communication system, a communication method, and a processing flow of a communication program according to the embodiments will be described in order, and finally effects of the embodiments will be described.

[実施の形態]
まず、実施の形態について説明する。実施の形態では、所定の地域、具体的には、観光地(例えば、島)を観光するユーザに、ユーザが使用する表示装置として、例えば、仮想的なRPGコンテンツを表示可能であるARグラスを装着させ、観光地を観光しながら、RPGも体験可能とするシステムについて説明する。
[Embodiment]
First, an embodiment will be described. In the embodiment, AR glasses capable of displaying virtual RPG content, for example, are used as the display device used by the user who is sightseeing in a predetermined area, specifically, a sightseeing spot (for example, an island). We will explain a system that allows you to experience RPG while wearing it and sightseeing in tourist spots.

図1は、ARグラスのディスプレイに表示される画像の一例を示す図である。図1に例示するように、実際の島の画像(例えば、森の画像)に、モンスターのコンテンツC1やコインのコンテンツC2を重畳してARグラスに表示させ、ユーザが、モンスターを倒す、コインを集める、ミッションに取り組むなどのゲーム体験を可能としている。また、ARグラスを装着したユーザ間で通信が可能である。実施の形態では、小さな島全体を活用して、ユーザ自身が体を動かし、仲間とコミュニケーションを取りながら、その土地ならではのRPG体験を可能とする。 FIG. 1 is a diagram showing an example of an image displayed on a display of AR glasses. As illustrated in FIG. 1, a monster content C1 and a coin content C2 are superimposed on an image of an actual island (for example, an image of a forest) and displayed on the AR glass, and the user defeats the monster and collects the coin. It enables game experiences such as collecting and working on missions. In addition, communication is possible between users wearing AR glasses. In the embodiment, the entire small island is used to enable the user to have an RPG experience unique to the area while moving their bodies and communicating with their friends.

さらに、実施の形態では、ユーザが手に持つモーションコントローラーを武器に見立て、モーションコントローラーの動きに応じて動く武器のコンテンツをARグラスに表示させることで、ユーザの動きをゲーム世界に反映する。この際、実施の形態では、ユーザの動きに応じて、攻撃力や攻撃の種類が変化するように仮想的なコンテンツをARグラスに表示させるとともに、ユーザの周囲の状況に応じて、武器の攻撃力を変化させることで、リアリティのあるAR体験を提供する。 Furthermore, in the embodiment, the motion controller held by the user is regarded as a weapon, and the user's movement is reflected in the game world by displaying the content of the weapon that moves according to the movement of the motion controller on the AR glasses. At this time, in the embodiment, in accordance with the movement of the user, virtual content is displayed on the AR glasses so that the attack power and the type of attack change, and in accordance with the surrounding conditions of the user, the weapon attack By changing the force, it provides a realistic AR experience.

[通信システムの構成]
実施の形態に係る通信システムの構成を説明する。図2は、実施の形態に係る通信システムの構成を説明する図である。図3は、実施の形態に係る通信システムの構成の一例を示すブロック図である。
[Configuration of communication system]
A configuration of a communication system according to an embodiment will be described. FIG. 2 is a diagram illustrating the configuration of the communication system according to the embodiment. FIG. 3 is a block diagram showing an example of the configuration of the communication system according to the embodiment.

図2及び図3に示すように、実施の形態に係る通信システム1は、ARグラス10(表示装置)、ユーザが手に持つモーションコントローラー20、ユーザが携帯するスマートデバイス30、及び、データセンタ等に配置されるサーバ40を有する。 As shown in FIGS. 2 and 3, the communication system 1 according to the embodiment includes an AR glass 10 (display device), a motion controller 20 held by a user, a smart device 30 carried by a user, a data center, and the like. has a server 40 located in

ARグラス10は、一般的な眼鏡と同様にユーザの頭部に装着される。ARグラス10は、撮像機能、音声入力機能、通信機能、表示機能、音声出力機能を有する。ARグラス10は、実空間を撮像し、撮像した実空間の画像を、ARグラス10のレンズ部分に相当するディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、ユーザの周辺状況に応じた仮想的なコンテンツを出力する。 The AR glasses 10 are worn on the user's head like general eyeglasses. The AR glasses 10 have an imaging function, an audio input function, a communication function, a display function, and an audio output function. The AR glasses 10 capture an image of the real space, and display the captured image of the real space on a display corresponding to the lens portion of the AR glasses 10 . In addition, under the control of the smart device 30, the AR glasses 10 superimpose the virtual content generated by CG on the captured image of the real space and display it on the display. Under the control of the smart device 30, the AR glasses 10 also output virtual content according to the user's surroundings.

モーションコントローラー20は、ユーザが手に持つコントローラである。モーションコントローラー20は、例えば、加速度センサと、加速度センサの検出結果をスマートデバイス30送信する通信機能とを有する。 The motion controller 20 is a controller held by the user. The motion controller 20 has, for example, an acceleration sensor and a communication function for transmitting detection results of the acceleration sensor to the smart device 30 .

スマートデバイス30は、ユーザが携帯するデバイスであり、例えば、タブレット、スマートフォン等のスマートデバイスであり、位置検出機能、画像認識機能を有する。スマートデバイス30は、ARグラス10の制御を行う。スマートデバイス30は、ネットワークNを介して、サーバ40に接続し、ユーザの位置情報、画像認識結果、気温情報をサーバ40に送信する。スマートデバイス30は、ネットワークNを介して、サーバ40から、ARグラス10が出力する敵キャラクター画像や武器等の仮想的なコンテンツの提供を受ける。 The smart device 30 is a device carried by a user, for example, a smart device such as a tablet or a smartphone, and has a position detection function and an image recognition function. The smart device 30 controls the AR glasses 10 . The smart device 30 connects to the server 40 via the network N and transmits the user's location information, image recognition results, and temperature information to the server 40 . The smart device 30 receives virtual content such as enemy character images and weapons output from the AR glasses 10 from the server 40 via the network N. FIG.

スマートデバイス30は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザの手の動きを取得する。スマートデバイス30は、ARグラス10に対する、サーバ40から提供された仮想的なコンテンツの出力を制御する。例えば、スマートデバイス30は、ユーザが手に武器を手に持つように武器の画像コンテンツをARグラス10に表示させ、ユーザが手に持つモーションコントローラー20の動きに応じて動くように武器の画像コンテンツをARグラス10に表示させる。この際、スマートデバイス30は、サーバ40によって設定された攻撃力となるように、ARグラス10に武器の画像コンテンツを出力させる。 The smart device 30 acquires the motion of the user's hand based on the detection result of the acceleration sensor transmitted from the motion controller 20 . The smart device 30 controls output of virtual content provided by the server 40 to the AR glasses 10 . For example, the smart device 30 causes the AR glasses 10 to display the image content of the weapon so that the user holds the weapon in his/her hand, and the image content of the weapon moves according to the movement of the motion controller 20 held by the user. is displayed on the AR glass 10. At this time, the smart device 30 causes the AR glasses 10 to output the image content of the weapon so as to achieve the attack power set by the server 40 .

サーバ40は、地図情報及びAR空間上の仮想的なコンテンツを保持する。サーバ40は、スマートデバイス30に、ARグラス10に出力させる仮想的なコンテンツを送信する。サーバ40は、ユーザの選択に応じた種別の武器の仮想的なコンテンツをユーザに設定する。サーバ40は、スマートデバイス30の位置情報と、地図情報と、天候情報と、スマートデバイス30による画像認識結果、気温情報とを基に、ユーザの周辺状況を判定する。そして、サーバ40は、ユーザの周辺状況に応じてユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する。 The server 40 holds map information and virtual content on the AR space. The server 40 transmits virtual content to be output to the AR glasses 10 to the smart device 30 . The server 40 sets for the user the virtual content of the type of weapon selected by the user. The server 40 determines the user's surroundings based on the location information of the smart device 30, map information, weather information, image recognition results from the smart device 30, and temperature information. Then, the server 40 sets the attack power of the virtual content of the weapon set for the user according to the user's surroundings.

[ARグラス]
次に、ARグラス10について説明する。図4は、図3に示すARグラス10の構成の一例を示すブロック図である。
[AR glass]
Next, the AR glasses 10 will be explained. FIG. 4 is a block diagram showing an example of the configuration of the AR glasses 10 shown in FIG. 3. As shown in FIG.

図4に示すように、ARグラス10は、撮像部11、音声入力部12(録音部)、通信部13、表示部14及び音声出力部15を有する。 As shown in FIG. 4 , the AR glasses 10 have an imaging unit 11 , an audio input unit 12 (recording unit), a communication unit 13 , a display unit 14 and an audio output unit 15 .

撮像部11は、実空間を撮像する。例えば、撮像部11は、撮像部11の撮像方向がARグラス10の前方である場合には、ARグラス10の前方の実空間を撮像する。撮像部11は、CCDやCMOS等の光電変換素子と、撮像素子から出力される光電変換信号を処理して実空間の画像を生成する。撮像部11は、例えば、R(赤)、G(緑)、B(青)の3色の2次元画像を取得する。 The imaging unit 11 images the real space. For example, when the imaging direction of the imaging unit 11 is in front of the AR glasses 10 , the imaging unit 11 images the real space in front of the AR glasses 10 . The imaging unit 11 generates an image of a real space by processing a photoelectric conversion element such as a CCD or a CMOS and a photoelectric conversion signal output from the imaging element. The imaging unit 11 acquires a two-dimensional image of three colors of R (red), G (green), and B (blue), for example.

音声入力部12は、音声の入力を受け付け、入力された音声を録音するデバイスによって構成される。 The voice input unit 12 is configured by a device that receives input of voice and records the input voice.

通信部13は、スマートデバイス30との無線通信を行う。通信部13は、撮像部11が撮像した画像及び音声入力部12が録音した音声を、スマートデバイス30に送信する。通信部13は、スマートデバイス30から送信された仮想的なコンテンツを受信する。仮想的なコンテンツは、敵や味方のキャラクター画像、武器の画像、敵や味方等の音声やユーザのアクションに伴う音声のコンテンツである。なお、キャラクター画像は、ゲームキャラクター風の画像に限らず、写真等から作成した画像でもよく、動画も含まれる。 The communication unit 13 performs wireless communication with the smart device 30 . The communication unit 13 transmits the image captured by the imaging unit 11 and the audio recorded by the audio input unit 12 to the smart device 30 . The communication unit 13 receives virtual content transmitted from the smart device 30 . The virtual content includes character images of enemies and allies, images of weapons, voices of enemies and allies, and voices associated with actions of the user. Note that the character image is not limited to a game character-like image, and may be an image created from a photograph or the like, and includes moving images.

表示部14は、ディスプレイによって構成される。表示部14は、撮像部11が撮像した実空間の画像を表示する。表示部14は、通信部13が受信した仮想的なコンテンツのうち、武器の画像コンテンツを、実空間の画像に重畳して表示する。武器の画像コンテンツは、ユーザが手に持つモーションコントローラーに差し替えて表示する。なお、表示部14は、透過表示可能なディスプレイであって、画像コンテンツを表示してもよい。 The display unit 14 is configured by a display. The display unit 14 displays the image of the real space captured by the imaging unit 11 . The display unit 14 displays the image content of the weapon among the virtual content received by the communication unit 13 by superimposing it on the image of the real space. The image content of the weapon is displayed by replacing it with the motion controller held by the user. Note that the display unit 14 may be a display capable of transmissive display, and may display image content.

音声出力部15は、音声を出力する。音声出力部15は、通信部が受信した仮想的なコンテンツのうち、動物の鳴き声や足音等の音声を出力する。 The audio output unit 15 outputs audio. The audio output unit 15 outputs sounds such as animal barks and footsteps from the virtual content received by the communication unit.

[スマートデバイス]
次に、スマートデバイス30について説明する。図5は、図3に示すスマートデバイス30の構成の一例を示すブロック図である。図5に示すように、スマートデバイス30は、通信部31、記憶部32及び制御部33を有する。
[Smart device]
Next, the smart device 30 is described. FIG. 5 is a block diagram showing an example of the configuration of the smart device 30 shown in FIG. 3. As shown in FIG. As shown in FIG. 5 , the smart device 30 has a communication section 31 , a storage section 32 and a control section 33 .

通信部31は、無線または有線にて他の装置との間で通信を行う。通信部31は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部31は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部33(後述)との間の通信を行う。例えば、通信部31は、ARグラス10から画像、音声を受信し、ARグラス10に仮想的なコンテンツを送信する。通信部31は、サーバ40に、位置情報、画像認識結果、気温情報を送信し、サーバ40から仮想的なコンテンツを受信する。 The communication unit 31 performs wireless or wired communication with other devices. The communication unit 31 is a communication interface that transmits and receives various information to and from another device connected via a network or the like. The communication unit 31 is realized by a NIC (Network Interface Card) or the like, and performs communication between another device and the control unit 33 (described later) via an electric communication line such as a LAN (Local Area Network) or the Internet. For example, the communication unit 31 receives images and sounds from the AR glasses 10 and transmits virtual content to the AR glasses 10 . The communication unit 31 transmits position information, image recognition results, and temperature information to the server 40 and receives virtual content from the server 40 .

記憶部32は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部32は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部32は、スマートデバイス30で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部32は、プログラムの実行で用いられる各種情報を記憶する。記憶部32は、ARグラス10から送信された画像データ321と、サーバ40から送信された敵や武器等の仮想的なコンテンツを含むコンテンツ情報322とを記憶する。 The storage unit 32 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like. Note that the storage unit 32 may be a rewritable semiconductor memory such as a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 32 stores an OS (Operating System) and various programs executed by the smart device 30 . Furthermore, the storage unit 32 stores various information used in executing the program. The storage unit 32 stores image data 321 transmitted from the AR glasses 10 and content information 322 including virtual content such as enemies and weapons transmitted from the server 40 .

制御部33は、スマートデバイス30全体を制御する。制御部33は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部33は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部33は、各種のプログラムが動作することにより各種の処理部として機能する。制御部33は、位置検出部331、画像認識部332、温度検出部333、動き検出部334、ARグラス制御部335(制御部)を有する。 The control unit 33 controls the smart device 30 as a whole. The control unit 33 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 33 also has an internal memory for storing programs defining various processing procedures and control data, and executes each processing using the internal memory. Further, the control unit 33 functions as various processing units by running various programs. The control unit 33 has a position detection unit 331, an image recognition unit 332, a temperature detection unit 333, a motion detection unit 334, and an AR glasses control unit 335 (control unit).

位置検出部331は、スマートデバイス30の位置を検出する。位置検出部331は、例えば、GPS(Global Positioning System)等によりスマートデバイス30の位置情報が取得可能である。位置検出部331は、定期的に、スマートデバイス30の位置を取得して、緯度及び経度で表した位置情報を、通信部31を介して、サーバ40に送信する。 The position detection unit 331 detects the position of the smart device 30 . The position detection unit 331 can acquire the position information of the smart device 30 by GPS (Global Positioning System), for example. The position detection unit 331 periodically acquires the position of the smart device 30 and transmits the position information represented by latitude and longitude to the server 40 via the communication unit 31 .

画像認識部332は、ARグラス10が撮像した画像を処理し、画像に映るオブジェクトなどの画像の特徴を認識する。画像認識部332は、ARグラス10が撮像した画像の中に映る、動物、植物、風景、建物を認識する。画像認識部332は、例えば、機械学習によって、所定の地域、具体的には、ユーザが観光中の観光地に特有の動物、植物、風景、建物等の画像の特徴を学習済みである画像認識モデルを用いて、ARグラス10が撮像した画像の特徴を認識する。画像認識部332は、ARグラス10が撮像した画像から、ユーザがいる場所の明るさを認識する。画像認識部332は、前後の画像を比べて、画像に所定以上の変化があった場合に、動物、植物、風景、建物を認識する処理を行ってもよい。画像認識部332は、画像認識処理結果を、通信部31を介してサーバ40に送信する。 The image recognition unit 332 processes the image captured by the AR glasses 10 and recognizes features of the image such as an object appearing in the image. The image recognition unit 332 recognizes animals, plants, landscapes, and buildings appearing in images captured by the AR glasses 10 . The image recognition unit 332 performs image recognition that has already learned image features such as animals, plants, landscapes, and buildings that are specific to a predetermined area, specifically, a sightseeing spot that the user is currently sightseeing, by, for example, machine learning. Using the model, the features of the image captured by the AR glasses 10 are recognized. The image recognition unit 332 recognizes the brightness of the user's location from the image captured by the AR glasses 10 . The image recognition unit 332 may perform processing to recognize an animal, a plant, a landscape, or a building when there is a predetermined change or more in the image by comparing the images before and after the image. The image recognition section 332 transmits the image recognition processing result to the server 40 via the communication section 31 .

なお、画像認識機能は、サーバ40が有してもよい。その際には、スマートデバイス30は、ARグラス10が撮像した画像をサーバ40に送信する。 Note that the server 40 may have the image recognition function. At that time, the smart device 30 transmits the image captured by the AR glasses 10 to the server 40 .

温度検出部333は、スマートデバイス30が位置する箇所の気温を検出し、検出した気温情報を、通信部31を介してサーバ40に送信する。 The temperature detection unit 333 detects the temperature of the location where the smart device 30 is located, and transmits the detected temperature information to the server 40 via the communication unit 31 .

動き検出部334は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザのアクション、具体的には、ユーザの手の動きを取得する。 The motion detection unit 334 acquires the user's action, specifically, the motion of the user's hand, based on the detection result of the acceleration sensor transmitted from the motion controller 20 .

ARグラス制御部335は、ARグラス10の処理を制御する。例えば、ARグラス制御部335は、ARグラス10のレンズ部のディスプレイへの画像表示処理やARグラス10による音声出力処理を制御する。ARグラス制御部335は、RPG体験において、ユーザが選択した武器や装備等の選択情報を、通信部31を介して、サーバ40に送信する。ARグラス制御部335は、コンテンツ取得部336と、コンテンツ合成部337とを有する。 The AR glasses control unit 335 controls the processing of the AR glasses 10 . For example, the AR glasses control unit 335 controls image display processing on the display of the lens portion of the AR glasses 10 and audio output processing by the AR glasses 10 . The AR glasses control unit 335 transmits selection information such as weapons and equipment selected by the user to the server 40 via the communication unit 31 in the RPG experience. The AR glasses control section 335 has a content acquisition section 336 and a content synthesis section 337 .

コンテンツ取得部336は、サーバ40から送信された、仮想的なコンテンツを取得する。この仮想的なコンテンツは、実空間の画像に重畳するための敵や味方のキャラクター画像、武器画像のコンテンツ、或いは、敵や味方等の音声やユーザのアクションに伴う音声のコンテンツである。ARグラス制御部335は、コンテンツ取得部336が取得したコンテンツが音声である場合、敵や味方のキャラクター画像の動きやユーザのアクションに合わせて、ARグラス10の音声出力部15から音声を出力させる。 The content acquisition unit 336 acquires virtual content transmitted from the server 40 . This virtual content is content of character images of enemies and allies to be superimposed on images in real space, content of weapon images, or content of voices of enemies and allies, etc., and voices accompanying actions of the user. When the content acquired by the content acquisition unit 336 is audio, the AR glasses control unit 335 causes the audio output unit 15 of the AR glasses 10 to output audio in accordance with the movement of the character images of enemies and allies and the user's actions. .

コンテンツ合成部337は、コンテンツ取得部336が取得したコンテンツが、実空間の画像に重畳してのキャラクター画像である場合、キャラクター画像と実空間の画像との合成処理を行う。コンテンツ合成部337による合成処理後、ARグラス制御部335は、ARグラス10の表示部14に、実空間の画像にキャラクター画像を重畳させた画像を表示させる。キャラクター画像の重畳位置は、例えば、予め設定されている。或いは、キャラクター画像の重畳位置は、サーバ40による指示によって設定される。 When the content acquired by the content acquisition unit 336 is a character image superimposed on a real space image, the content synthesizing unit 337 performs synthesis processing of the character image and the real space image. After the composition processing by the content composition unit 337, the AR glasses control unit 335 causes the display unit 14 of the AR glasses 10 to display an image in which the character image is superimposed on the image of the real space. The superimposition position of the character image is set in advance, for example. Alternatively, the character image superimposition position is set by an instruction from the server 40 .

ARグラス制御部335は、コンテンツ合成部337の合成処理を制御し、ユーザが持つモーションコントローラー20が武器と見えるように、武器画像のコンテンツをARグラス10に表示させる。そして、ARグラス制御部335は、モーションコントローラー20の動きに応じて武器が動くように、武器画像のコンテンツをARグラス10に表示させる。ARグラス制御部335は、ユーザの動きに応じて、攻撃力や攻撃の種類が変化するように仮想的なコンテンツをARグラス10に表示させる。 The AR glasses control unit 335 controls the synthesis processing of the content synthesis unit 337, and displays the weapon image content on the AR glasses 10 so that the motion controller 20 held by the user can be seen as a weapon. Then, the AR glasses control unit 335 causes the AR glasses 10 to display the content of the weapon image so that the weapon moves according to the movement of the motion controller 20 . The AR glasses control unit 335 causes the AR glasses 10 to display virtual content such that the attack power and the type of attack change according to the movement of the user.

その際、ARグラス制御部335は、ユーザのアクションを演出する仮想的なコンテンツをARグラス10に表示させる。例えば、ARグラス制御部335は、剣で敵と戦っている際には、剣がぶつかったときに火花が出るような画像コンテンツをARグラス10に表示させる。ARグラス制御部335は、剣で敵と戦っている際には、剣が敵にぶつかったような音声をARグラス10に出力させる。 At that time, the AR glasses control unit 335 causes the AR glasses 10 to display virtual content that directs the user's action. For example, when fighting an enemy with a sword, the AR glasses control unit 335 causes the AR glasses 10 to display image content such that sparks appear when the sword collides with the enemy. The AR glasses control unit 335 causes the AR glasses 10 to output a sound as if the sword hit the enemy when fighting with the sword.

そして、ARグラス制御部335は、ユーザの周囲の状況に応じて武器の攻撃力を変化させることで、リアリティのあるAR体験を提供する。すなわち、ARグラス制御部335は、武器の仮想的なコンテンツを、攻撃力設定部433(後述)によって設定された攻撃力となるように、ARグラス10に出力させる。 The AR glasses control unit 335 provides a realistic AR experience by changing the attack power of the weapon according to the user's surroundings. That is, the AR glasses control unit 335 causes the AR glasses 10 to output the virtual content of the weapon so as to have the attack power set by the attack power setting unit 433 (described later).

[サーバ]
次に、サーバ40について説明する。図6は、図3に示すサーバ40の構成の一例を示すブロック図である。図6に示すように、サーバ40は、通信部41、記憶部42及び制御部43を有する。
[server]
Next, the server 40 will be explained. FIG. 6 is a block diagram showing an example of the configuration of server 40 shown in FIG. As shown in FIG. 6 , the server 40 has a communication section 41 , a storage section 42 and a control section 43 .

通信部41は、無線または有線にて他の装置との間で通信を行う。通信部41は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部41は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部43後述)との間の通信を行う。例えば、通信部41は、スマートデバイス30から位置情報、画像認識結果、音声認識結果を受信し、スマートデバイス30に仮想的なコンテンツを送信する。 The communication unit 41 performs wireless or wired communication with other devices. The communication unit 41 is a communication interface that transmits and receives various information to and from another device connected via a network or the like. The communication unit 41 is realized by a NIC (Network Interface Card) or the like, and performs communication between another device and the control unit 43 (described later) via an electric communication line such as a LAN (Local Area Network) or the Internet. For example, the communication unit 41 receives location information, image recognition results, and voice recognition results from the smart device 30 and transmits virtual content to the smart device 30 .

記憶部42は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部42は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部42は、サーバ40で実行されるOS(Operating System)や各種プログラムを記憶する。記憶部42は、プログラムの実行で用いられる各種情報を記憶する。記憶部42は、地図情報421と、各種仮想的なコンテンツを含むコンテンツ情報422と、基準情報423とを記憶する。 The storage unit 42 is a storage device such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like. Note that the storage unit 42 may be a rewritable semiconductor memory such as a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 42 stores an OS (Operating System) and various programs executed by the server 40 . The storage unit 42 stores various types of information used in program execution. The storage unit 42 stores map information 421 , content information 422 including various virtual content, and reference information 423 .

地図情報421は、ユーザが観光する島等の観光地の森、川、山、平野、名所等を含む地図である。地図情報421は、等高線で土地の高低が示される。地図情報421は、ぬかるみやすい場所が記載されたものでもよいし、山道であるか舗装された道であるかを区別して道を表示したものでもよい。 The map information 421 is a map including forests, rivers, mountains, plains, famous places, etc. of sightseeing spots such as islands that the user visits. The map information 421 indicates the elevation of the land by contour lines. The map information 421 may describe places that tend to be muddy, or may display roads by distinguishing between mountain roads and paved roads.

各種仮想的なコンテンツは、敵や味方のキャラクター画像、武器の画像、敵や味方等の音声、或いは、ユーザのアクションに伴う音声のコンテンツである。武器の画像コンテンツ及びユーザのアクションに伴う音声のコンテンツは、攻撃力の各度合いに合わせてそれぞれ設定される。これらのコンテンツは、所定の地域、例えば、観光地や名所等の各所定箇所に対応づけて予め作成された、観光地の各所定箇所に特有のコンテンツであってもよい。例えば、名所であれば、この名所のシンボルキャラクターの画像が、敵または味方のコンテンツとして設定されていてもよい。コンテンツ情報422は、例えば、キャラクター画像の表示位置や大きさ等の設定情報である各種コンテンツの設定条件を含む。 Various types of virtual content are character images of enemies and allies, images of weapons, voices of enemies and allies, or voices accompanying actions of the user. The image content of the weapon and the audio content accompanying the user's action are set according to each degree of offensive power. These contents may be contents peculiar to each predetermined place of a tourist spot, which are created in advance in association with each predetermined place such as a predetermined area, for example, a sightseeing spot or a famous place. For example, in the case of a famous place, the image of the symbol character of this famous place may be set as the enemy or ally content. The content information 422 includes, for example, setting conditions for various types of content, which are setting information such as the display position and size of character images.

基準情報423は、周辺状況判定部432(後述)における判定において、基準とする状況を示す情報を含む。基準情報423は、基準となる攻撃力である基準攻撃力を示す情報を含む。基準状況は、例えば、乾いた道、傾斜がない、曇天程度の明るさ、気温が平均気温であり、雨が降っていない状況である。また、基準攻撃力は、例えば、レベルが「1」~「3」である場合、レベル「2」である。 The reference information 423 includes information indicating a reference situation in determination by the surrounding situation determination unit 432 (described later). The reference information 423 includes information indicating the reference attack power, which is the reference attack power. The reference conditions are, for example, a dry road, no slope, cloudy light, average temperature, and no rain. Also, the reference attack power is level "2" when the level is "1" to "3", for example.

制御部43は、サーバ40全体を制御する。制御部43は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部43は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部43は、各種のプログラムが動作することにより各種の処理部として機能する。制御部43は、武器コンテンツ設定部431(第1の設定部)、周辺状況判定部432(判定部)及び攻撃力設定部433(第2の設定部)を有する。 The control unit 43 controls the server 40 as a whole. The control unit 43 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 43 also has an internal memory for storing programs defining various processing procedures and control data, and executes each processing using the internal memory. Further, the control unit 43 functions as various processing units by running various programs. The control unit 43 has a weapon content setting unit 431 (first setting unit), a surrounding situation determination unit 432 (determination unit), and an attack power setting unit 433 (second setting unit).

武器コンテンツ設定部431は、スマートデバイス30からユーザによる武器の選択情報を取得すると、このユーザの選択に応じた種別の武器の仮想的なコンテンツをユーザのスマートデバイス30に設定する。 When the weapon content setting unit 431 acquires the user's weapon selection information from the smart device 30 , the weapon content setting unit 431 sets the virtual content of the type of weapon according to the user's selection in the user's smart device 30 .

武器コンテンツ設定部431は、攻撃力の各度合いに合わせてそれぞれ設定された武器の画像コンテンツをスマートデバイス30に設定する。武器コンテンツ設定部431は、ユーザによって選択された武器の画像コンテンツと武器使用時の演出用のコンテンツとをスマートデバイス30に送信する。この武器の画像コンテンツは、ユーザの動きによって、攻撃力や攻撃の種類を変化させるよう、設定されている。また、この武器の画像コンテンツは、攻撃力に応じて、例えば、攻撃力のレベルごとに、各コンテンツが設定されている。例えば、攻撃力のレベルが「3」である場合には金色の剣の画像であり、攻撃力のレベルが「2」である場合には金属の剣の画像であり、攻撃力のレベルが「1」である場合には、さびて欠けのある剣の画像である。 The weapon content setting unit 431 sets, in the smart device 30, weapon image content that is set according to each level of attack power. The weapon content setting unit 431 transmits to the smart device 30 the image content of the weapon selected by the user and the content for rendering when the weapon is used. The image content of this weapon is set so that the attack power and type of attack are changed according to the user's movement. In addition, the image content of this weapon is set according to the attack power, for example, for each level of the attack power. For example, if the attack power level is "3", it is an image of a golden sword, if the attack power level is "2", it is an image of a metal sword, and if the attack power level is " 1", the image is of a rusted and chipped sword.

周辺状況判定部432は、少なくともスマートデバイス30の位置情報と、地図情報421と、天候情報とを基に、ユーザの周辺状況を判定する。周辺状況判定部432は、さらに、スマートデバイス30の画像認識部332による画像認識結果、または、画像認識結果及び温度検出部333によって検出された気温情報を用いて、より的確にユーザの周辺状況を判定してもよい。周辺状況判定部432は、ユーザの周辺状況が基準となる状況よりも良いか、または、悪いかを判定する。 The peripheral situation determination unit 432 determines the user's peripheral situation based on at least the location information of the smart device 30, the map information 421, and the weather information. The surrounding situation determination unit 432 further uses the image recognition result of the image recognition unit 332 of the smart device 30 or the temperature information detected by the image recognition result and the temperature detection unit 333 to more accurately determine the user's surrounding situation. You can judge. The peripheral situation determination unit 432 determines whether the user's peripheral situation is better or worse than the reference situation.

例えば、基準となる状況を、乾いた道、傾斜がない、曇天程度の明るさ、気温が平均気温であり、雨が降っていない状況とする。そして、周辺状況判定部432は、次の場合には、ユーザの周辺状況が基準となる状況よりも悪いと判定する。具体的には、ユーザがいる場所が、地図情報421、天候情報及び画像認識結果に基づいて、ぬかるんでいて状況が悪い道であると周辺状況判定部432が判定した場合である。或いは、ユーザがいる場所が、地図情報421の等高線に基づいて、傾斜している場所であると周辺状況判定部432が判定した場合である。或いは、ユーザがいる場所が、画像認識結果に基づいて、見通しが悪く、暗く、気温情報に基づいて、平均気温よりも気温が低いと周辺状況判定部432が判定した場合である。或いは、天候情報及び画像認識結果に基づいて、雨が降っていると周辺状況判定部432が判定した場合である。 For example, the reference conditions are a dry road, no slopes, cloudy weather, average temperature, and no rain. In the following cases, the peripheral situation determination unit 432 determines that the user's peripheral situation is worse than the reference situation. Specifically, this is the case where the surrounding situation determination unit 432 determines that the location where the user is located is a muddy and bad road based on the map information 421, weather information, and image recognition results. Alternatively, the surrounding situation determination unit 432 determines that the location where the user is located is a sloped location based on the contour lines of the map information 421 . Alternatively, the surrounding situation determination unit 432 determines that the location where the user is located has poor visibility and is dark based on the image recognition result, and the temperature is lower than the average temperature based on the temperature information. Alternatively, it is the case where the surrounding situation determination unit 432 determines that it is raining based on the weather information and the image recognition result.

また、周辺状況判定部432は、次の場合には、ユーザの周辺状況が基準となる状況よりも良いと判定する。例えば、ユーザがいる場所が、地図情報421、天候情報及び画像認識結果に基づいて、舗装道路であると周辺状況判定部432が判定した場合である。或いは、地図情報421の等高線に基づいて、平坦な場所であると周辺状況判定部432が判定した場合である。或いは、画像認識結果に基づいて、見通しがよく、明るく、気温情報に基づいて、平均気温の気温であると周辺状況判定部432が判定した場合や、天候情報及び画像認識結果から晴れていると周辺状況判定部432が判定した場合である。 In addition, the peripheral situation determination unit 432 determines that the user's peripheral situation is better than the reference situation in the following cases. For example, this is the case where the surrounding situation determination unit 432 determines that the location where the user is located is a paved road based on the map information 421, weather information, and image recognition results. Alternatively, it is a case where the surrounding situation determination unit 432 determines that the place is flat based on the contour lines of the map information 421 . Alternatively, based on the image recognition result, the surrounding situation determination unit 432 determines that the visibility is good, it is bright, and the temperature is the average temperature based on the temperature information, or the weather information and the image recognition result indicate that it is sunny. This is the case when the surrounding situation determination unit 432 determines.

攻撃力設定部433は、ユーザの周辺状況に応じて、ユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する。攻撃力設定部433は、ユーザの周辺状況が基準となる状況よりも悪い場合、ユーザに設定した武器の攻撃力を、基準の攻撃力よりも低く設定する。また、攻撃力設定部433は、ユーザの周辺状況が基準となる状況よりも良い場合、ユーザに設定した武器の攻撃力を、基準の攻撃力よりも高く設定する。 The attack power setting unit 433 sets the attack power of the virtual content of the weapon set for the user according to the surrounding situation of the user. The attack power setting unit 433 sets the attack power of the weapon set for the user lower than the reference attack power when the surrounding situation of the user is worse than the reference situation. Also, if the user's peripheral situation is better than the reference situation, the attack power setting unit 433 sets the attack power of the weapon set for the user higher than the reference attack power.

[ユーザによる武器設定例]
図7は、ユーザによる武器の設定例を説明する図である。例えば、ユーザU1が、武器として、剣と盾を選択した場合には、サーバ40は、ユーザU1が選択した剣と盾の画像コンテンツをユーザU1のスマートデバイス30に送信する。また、サーバ40は、他の装備のコンテンツもユーザU1の選択に応じて、ユーザU1のスマートデバイス30に送信する。なお、剣と盾を選択する際には、二つのモーションセンサー20をユーザが有する。或いは、一つのモーションセンサー20をユーザが有する場合には、一つのモーションセンサー20の動きを、所定の設定で剣と盾とに使い分けてもよい。或いは、一つのモーションセンサー20をユーザが有する場合には、剣と盾のいずれかは、モーションセンサー20とは連動しない構成でもよい。
[Weapon setting example by user]
FIG. 7 is a diagram illustrating an example of weapon setting by the user. For example, when the user U1 selects a sword and shield as weapons, the server 40 transmits image content of the sword and shield selected by the user U1 to the smart device 30 of the user U1. The server 40 also transmits contents of other equipment to the smart device 30 of the user U1 according to the user U1's selection. It should be noted that the user has two motion sensors 20 when selecting sword and shield. Alternatively, if the user has one motion sensor 20, the movement of the one motion sensor 20 may be used separately for the sword and the shield with a predetermined setting. Alternatively, if the user has one motion sensor 20 , either the sword or the shield may be configured not to be linked with the motion sensor 20 .

スマートデバイス30は、図7の例では、ユーザU1が、右手に剣を持ち、左手に盾を持つように、剣と盾の画像コンテンツをARグラス10に表示させる。そして、ユーザU1が縦に右手を振ると、スマートデバイス30は、モンスター等のキャラクターを縦に切るアクション画像をARグラス10に表示させる。この時、ユーザU1が素早く剣を振った際には、スマートデバイス30は、剣の攻撃力を高くし、さらに、演出として、火花や、きらきらとした光が出るような演出用の画像コンテンツをARグラス10に表示させる。また、ユーザU1が横に右手を振ると、スマートデバイス30は、モンスター等のキャラクターを薙ぎ払うアクション画像をARグラス10に表示させる。 In the example of FIG. 7, the smart device 30 causes the AR glasses 10 to display image content of a sword and a shield so that the user U1 holds a sword in his right hand and a shield in his left hand. Then, when the user U1 waves his or her right hand vertically, the smart device 30 causes the AR glasses 10 to display an action image in which a character such as a monster is cut vertically. At this time, when the user U1 swings the sword quickly, the smart device 30 increases the attack power of the sword, and furthermore, as an effect, displays image content for effect such as sparks or glittering light. Display on the AR glass 10. Also, when the user U1 waves his or her right hand sideways, the smart device 30 causes the AR glasses 10 to display an action image in which a character such as a monster is mowed down.

そして、通信システム1は、ユーザU1の周辺状況に応じて武器の攻撃力を変更する。図8及び図9は、ユーザの周辺状況の一例を説明する図である。図8に示すように、ユーザU1が、暗く、ぬかるんでいる森の中の道にいる場合、通信システム1は、ユーザの周辺状況が基準となる状況よりも悪いと判定する。そして、通信システム1では、ユーザU1が選択した剣の攻撃力を、周辺状況の悪化度合いに応じて、基準攻撃力(例えば、レベル「2」)より低い、レベル「1」とする。これによって、ユーザU1のARグラス10には、ユーザU1の手に握られるように、レベル「1」の攻撃力しかない剣の画像コンテンツC11が表示される。 Then, the communication system 1 changes the offensive power of the weapon in accordance with the surrounding circumstances of the user U1. 8 and 9 are diagrams for explaining an example of the surrounding situation of the user. As shown in FIG. 8, when the user U1 is on a road in a dark, muddy forest, the communication system 1 determines that the user's surrounding conditions are worse than the reference conditions. Then, in the communication system 1, the attack power of the sword selected by the user U1 is set to level "1", which is lower than the reference attack power (for example, level "2"), according to the degree of deterioration of the surrounding situation. As a result, the image content C11 of a sword with only an attack power of level "1" is displayed on the AR glasses 10 of the user U1 so as to be held in the hand of the user U1.

また、図9に示すように、ユーザU1が、晴天下で見晴らしのよい舗装道路にいる場合、通信システム1は、ユーザの周辺状況が基準となる状況よりも良いと判定する。そして、通信システム1では、ユーザU1が選択した剣の攻撃力を、周辺状況に応じて、基準攻撃力より高い、レベル「3」とする。これによって、ユーザU1のARグラス10には、ユーザU1の手に握られるように、レベル「3」の金色の剣の画像コンテンツC12が表示される。 Also, as shown in FIG. 9, when the user U1 is on a paved road with a good view under fine weather, the communication system 1 determines that the surrounding conditions of the user are better than the reference conditions. Then, in the communication system 1, the attack power of the sword selected by the user U1 is set to level "3", which is higher than the reference attack power, according to the surrounding situation. As a result, the image content C12 of the golden sword of level "3" is displayed on the AR glasses 10 of the user U1 so as to be held in the hand of the user U1.

このように、通信システム1は、ユーザの実際の周辺状況に応じて、ユーザがAR空間上で持つ武器の攻撃力を変える。 In this way, the communication system 1 changes the attack power of the weapon held by the user in the AR space according to the user's actual surroundings.

[通信処理の処理手順]
図10は、実施の形態に係る通信処理の処理手順を示すシーケンス図である。
[Processing procedure of communication processing]
FIG. 10 is a sequence diagram illustrating a processing procedure of communication processing according to the embodiment.

図10に示すように、ユーザによるスマートデバイス30の操作によって、ユーザによる武器の選択が行われると(ステップS1)、スマートデバイス30は、ユーザによって選択された武器を示す武器情報をサーバ40に送信する(ステップS2)。これに応じて、サーバ40は、このユーザの選択に応じた種別の武器の仮想的なコンテンツをユーザのスマートデバイス30に設定し(ステップS3)、この武器の仮想的なコンテンツをスマートデバイス30に送信する(ステップS4)。 As shown in FIG. 10, when the user selects a weapon by operating the smart device 30 (step S1), the smart device 30 transmits weapon information indicating the weapon selected by the user to the server 40. (step S2). In response to this, the server 40 sets the virtual content of the weapon type according to the user's selection to the user's smart device 30 (step S3), and sets the virtual content of this weapon to the smart device 30. Send (step S4).

スマートデバイス30は、スマートデバイス30の位置を検出する度に(ステップS5)、サーバ40に位置情報を送信する(ステップS6)。そして、スマートデバイス30は、ARグラス10から画像が送信されると(ステップS7)、その画像に対する画像認識処理を実行し(ステップS8)、画像認識結果をサーバ40に送信する(ステップS9)。スマートデバイス30は、気温を検出し(ステップS10)、検出した気温を示す気温情報をサーバ40に送信する(ステップS11)。 Each time the smart device 30 detects the location of the smart device 30 (step S5), it transmits the location information to the server 40 (step S6). Then, when the image is transmitted from the AR glasses 10 (step S7), the smart device 30 executes image recognition processing for the image (step S8), and transmits the image recognition result to the server 40 (step S9). The smart device 30 detects the temperature (step S10), and transmits temperature information indicating the detected temperature to the server 40 (step S11).

サーバ40は、さらに、天候情報を参照する(ステップS12)。サーバ40は、ユーザの周辺状況を判定する(ステップS13)。サーバ40は、判定のために、少なくとも、スマートデバイス30の位置情報と、地図情報421と、天候情報とを用いる。サーバ40は、さらに、スマートデバイス30の画像認識部332による画像認識結果、または、画像認識結果及び温度検出部333によって検出された気温情報を用いてもよい。サーバ40は、ユーザの周辺状況に応じて、ユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する(ステップS14)。サーバ40は、設定した攻撃力を示す情報をスマートデバイス30に送信する(ステップS15)。 Server 40 further refers to weather information (step S12). The server 40 determines the surrounding situation of the user (step S13). The server 40 uses at least the location information of the smart device 30, the map information 421, and the weather information for determination. The server 40 may also use the image recognition result of the image recognition unit 332 of the smart device 30 or the temperature information detected by the image recognition result and the temperature detection unit 333 . The server 40 sets the attack power of the virtual content of the weapon set for the user according to the user's surroundings (step S14). The server 40 transmits information indicating the set attack power to the smart device 30 (step S15).

モーションコントローラー20は、加速度センサを用いて加速度を検出し(ステップS16)、検出した加速度情報をスマートデバイス30送信する(ステップS17)。スマートデバイス30は、モーションコントローラー20から送信された加速度情報を基に、ユーザの手の動きを検出する(ステップS18)。 The motion controller 20 detects acceleration using the acceleration sensor (step S16), and transmits the detected acceleration information to the smart device 30 (step S17). The smart device 30 detects the motion of the user's hand based on the acceleration information transmitted from the motion controller 20 (step S18).

スマートデバイス30は、送信された武器の画像コンテンツを、サーバ40によって設定された攻撃力となるように、動き検出処理(ステップS18)で検出した動きに応じて、実空間の画像と合成するコンテンツ合成処理を行う(ステップS19)。そして、スマートデバイス30は、ARグラス10に、コンテンツの出力を指示し(ステップS20)、AR空間上の仮想的なコンテンツ(例えば、敵、味方、武器の画像コンテンツ、演出用のコンテンツ、音声コンテンツ)をARグラス10から出力させる(ステップS21)。 The smart device 30 synthesizes the transmitted image content of the weapon with the image of the real space according to the movement detected in the movement detection process (step S18) so as to achieve the attack power set by the server 40. Synthesis processing is performed (step S19). Then, the smart device 30 instructs the AR glasses 10 to output content (step S20), and virtual content in the AR space (for example, image content of enemies, allies, and weapons, content for production, audio content, etc.) ) is output from the AR glasses 10 (step S21).

[実施の形態の効果]
このように、本実施の形態では、ユーザの実際の周辺状況に応じて、ユーザがAR空間上で持つ武器の攻撃力を変えることで、実環境で実際に敵に戦っているような、よりリアリティのある仮想空間上のAR体験をユーザに提供することができる。
[Effects of Embodiment]
As described above, in the present embodiment, by changing the attack power of the weapon held by the user in the AR space according to the actual surrounding situation of the user, it is possible to make the game more realistic as if the user were actually fighting an enemy in the real environment. A user can be provided with a realistic AR experience in a virtual space.

[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPU及び当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device is realized by a CPU or GPU and a program analyzed and executed by the CPU or GPU, or as hardware by wired logic can be realized.

また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in this embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be done automatically by known methods. In addition, information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

[プログラム]
また、上記実施形態において説明したARグラス10、スマートデバイス30及びサーバ40及びが実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態におけるARグラス10、スマートデバイス30及びサーバ40が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
[program]
It is also possible to create a program in which the processes executed by the AR glasses 10, the smart device 30, and the server 40 described in the above embodiments are described in a computer-executable language. For example, it is possible to create a program in which the processes executed by the AR glasses 10, the smart device 30, and the server 40 in the embodiment are described in a computer-executable language. In this case, the same effects as those of the above embodiments can be obtained by having the computer execute the program. Further, such a program may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read by a computer and executed to realize processing similar to that of the above embodiments.

図11は、プログラムを実行するコンピュータを示す図である。図11に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。 FIG. 11 is a diagram showing a computer executing a program. As illustrated in FIG. 11, computer 1000 includes, for example, memory 1010, CPU 1020, hard disk drive interface 1030, disk drive interface 1040, serial port interface 1050, video adapter 1060, and network interface 1070. , and these units are connected by a bus 1080 .

メモリ1010は、図11に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図11に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。 The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012 as illustrated in FIG. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). Hard disk drive interface 1030 is connected to hard disk drive 1090 as illustrated in FIG. A disk drive interface 1040 is connected to the disk drive 1100 . A removable storage medium such as a magnetic disk or optical disk is inserted into the disk drive 1100 . Serial port interface 1050 is connected to mouse 1110 and keyboard 1120, for example. Video adapter 1060 is connected to display 1130, for example.

ここで、図11に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。 Here, as illustrated in FIG. 11, the hard disk drive 1090 stores an OS 1091, application programs 1092, program modules 1093, and program data 1094, for example. That is, the above program is stored, for example, in hard disk drive 1090 as a program module in which instructions to be executed by computer 1000 are described.

また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。 Various data described in the above embodiments are stored as program data in the memory 1010 or the hard disk drive 1090, for example. Then, the CPU 1020 reads the program modules 1093 and program data 1094 stored in the memory 1010 and the hard disk drive 1090 to the RAM 1012 as necessary, and executes various processing procedures.

なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。 Note that the program module 1093 and program data 1094 related to the program are not limited to being stored in the hard disk drive 1090. For example, they may be stored in a removable storage medium and read by the CPU 1020 via a disk drive or the like. . Alternatively, the program module 1093 and program data 1094 related to the program are stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.), and are transmitted via the network interface 1070. It may be read by CPU 1020 .

上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above-described embodiments and modifications thereof are included in the scope of the invention described in the claims and their equivalents, as well as in the technology disclosed in the present application.

1 通信システム
10 ARグラス
11 撮像部
12 音声入力部
13,31,41 通信部
14 表示部
15 音声出力部
20 モーションコントローラー
30 スマートデバイス
32,42 記憶部
33,43 制御部
40 サーバ
321 画像データ
322,422 コンテンツ情報
331 位置検出部
332 画像認識部
333 温度検出部
334 動き検出部
335 ARグラス制御部
336 コンテンツ取得部
337 コンテンツ合成部
421 地図情報
431 武器コンテンツ設定部
432 周辺状況判定部
433 攻撃力設定部
1 communication system 10 AR glasses 11 imaging unit 12 audio input unit 13, 31, 41 communication unit 14 display unit 15 audio output unit 20 motion controller 30 smart device 32, 42 storage unit 33, 43 control unit 40 server 321 image data 322, 422 content information 331 position detection unit 332 image recognition unit 333 temperature detection unit 334 motion detection unit 335 AR glasses control unit 336 content acquisition unit 337 content synthesis unit 421 map information 431 weapon content setting unit 432 surrounding situation determination unit 433 attack power setting unit

Claims (4)

所定の地域を観光するユーザが装着する眼鏡型の表示装置と、前記ユーザが持つモーションコントローラーと、前記ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有し、仮想的なコンテンツを前記表示装置に表示させてゲーム体験を前記ユーザに提供する通信システムであって、
前記表示装置は、
実空間の画像を撮像する撮像部と、
前記スマートデバイスとの間で通信を行い、前記実空間の画像を前記スマートデバイスに送信する通信部と、
前記実空間の画像に仮想的なコンテンツを重畳して表示する表示部と、
を有し、
前記サーバは、
前記ユーザの選択に応じた種別の武器の仮想的なコンテンツを前記スマートデバイスに設定する第1の設定部と、
少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報とを基に、前記ユーザの周辺状況を判定する判定部と、
前記ユーザの周辺状況に応じて、前記ユーザに設定した前記武器の仮想的なコンテンツの攻撃力を設定する第2の設定部と、
を有し、
前記スマートデバイスは、
少なくとも該スマートデバイスの位置情報を検出し、検出した位置情報を前記サーバに送信する位置検出部と、
前記第1の設定部によって設定された前記武器の仮想的なコンテンツを、前記第2の設定部によって設定された攻撃力となるように、前記表示装置に出力させる制御部と、
を有し、
当該通信システムは、
前記実空間の画像の特徴を認識する画像認識部、
を有し、
前記判定部は、前記スマートデバイスの位置情報と、地図情報と、天候情報と、前記画像認識部による画像認識結果とを基に、前記ユーザの周辺状況を判定し、
前記判定部は、前記ユーザが、暗く、ぬかるんでいる森の中の道にいる場合、前記ユーザの周辺状況が基準となる状況よりも悪いと判定し、前記ユーザに設定した武器の攻撃力を、基準の攻撃力よりも低く設定し、
前記判定部は、前記ユーザが、晴天下で見晴らしのよい舗装道路にいる場合、前記ユーザの周辺状況が前記基準となる状況よりも良いと判定し、前記ユーザに設定した武器の攻撃力を、前記基準の攻撃力よりも高く設定する
ことを特徴とする通信システム。
A spectacles-type display device worn by a user who is sightseeing in a predetermined area, a motion controller held by the user, a smart device carried by the user, and a server communicating with the smart device, wherein virtual content is provided. is displayed on the display device to provide the user with a game experience,
The display device
an imaging unit that captures an image of a real space;
a communication unit that communicates with the smart device and transmits an image of the real space to the smart device;
a display unit that superimposes and displays virtual content on the image of the real space;
has
The server is
a first setting unit that sets virtual content of a type of weapon selected by the user in the smart device;
a determination unit that determines a surrounding situation of the user based on at least location information of the smart device, map information, and weather information;
a second setting unit that sets the offensive power of the virtual content of the weapon set for the user according to the surrounding situation of the user;
has
The smart device is
a location detection unit that detects at least location information of the smart device and transmits the detected location information to the server;
a control unit that causes the display device to output the virtual content of the weapon set by the first setting unit so as to have the attack power set by the second setting unit;
has
The communication system shall:
an image recognition unit that recognizes features of the image in the real space;
has
The determination unit determines the surrounding situation of the user based on location information of the smart device, map information, weather information, and an image recognition result of the image recognition unit,
When the user is on a road in a dark and muddy forest, the determination unit determines that the surrounding situation of the user is worse than a reference situation, and reduces the attack power of the weapon set for the user. , set lower than the standard attack power,
When the user is on a paved road with a good view under fine weather, the determination unit determines that the surrounding situation of the user is better than the reference situation, and sets the attack power of the weapon set for the user to Set higher than the standard attack power
A communication system characterized by:
前記スマートデバイスは、
前記スマートデバイスが位置する箇所の気温を検出し、検出した気温情報を前記サーバに送信する温度検出部
を有し、
前記判定部は、少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報と、前記気温情報とを基に、前記ユーザの周辺状況を判定することを特徴とする請求項1に記載の通信システム。
The smart device is
a temperature detection unit that detects the temperature of a location where the smart device is located and transmits the detected temperature information to the server;
2. The communication according to claim 1 , wherein the judgment unit judges the surrounding situation of the user based on at least location information of the smart device, map information, weather information, and the temperature information. system.
所定の地域を観光するユーザが装着する眼鏡型のユーザが使用する表示装置と、前記ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有する通信システムが実行する通信方法であって、
前記表示装置が、実空間の画像を撮像する工程と、
前記表示装置が、前記スマートデバイスとの間で通信を行い、前記実空間の画像を前記スマートデバイスに送信する工程と、
前記表示装置が、前記実空間の画像に仮想的なコンテンツを重畳して表示する工程と、
前記サーバが、前記ユーザの選択に応じた種別の武器の仮想的なコンテンツを前記スマートデバイスに設定する第1の設定工程と、
前記サーバが、少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報とを基に、前記ユーザの周辺状況を判定する工程と、
前記サーバが、前記ユーザの周辺状況に応じて、前記ユーザに設定した前記武器の仮想的なコンテンツの攻撃力を設定する第2の設定工程と、
前記スマートデバイスが、少なくとも該スマートデバイスの位置情報を検出し、検出した位置情報を前記サーバに送信する工程と、
前記スマートデバイスが、前記第1の設定工程において設定された前記武器の仮想的なコンテンツを、前記第2の設定工程において設定された攻撃力となるように、前記表示装置に出力させる工程と、
当該通信システムが、前記実空間の画像の特徴を認識する工程と、
を含み、
前記判定する工程は、前記スマートデバイスの位置情報と、地図情報と、天候情報と、前記認識する工程における画像認識結果とを基に、前記ユーザの周辺状況を判定し、
前記判定する工程は、前記ユーザが、暗く、ぬかるんでいる森の中の道にいる場合、前記ユーザの周辺状況が基準となる状況よりも悪いと判定し、前記ユーザに設定した武器の攻撃力を、基準の攻撃力よりも低く設定し、
前記判定する工程は、前記ユーザが、晴天下で見晴らしのよい舗装道路にいる場合、前記ユーザの周辺状況が前記基準となる状況よりも良いと判定し、前記ユーザに設定した武器の攻撃力を、前記基準の攻撃力よりも高く設定することを特徴とする通信方法。
A communication method executed by a communication system having a spectacle-type user-used display device worn by a user who is sightseeing in a predetermined area, a smart device carried by the user, and a server that communicates with the smart device. ,
a step in which the display device captures an image of a real space;
a step of the display device communicating with the smart device and transmitting an image of the real space to the smart device;
a step in which the display device superimposes and displays virtual content on the image of the real space;
a first setting step in which the server sets virtual content of a type of weapon selected by the user in the smart device;
a step in which the server determines a surrounding situation of the user based on at least location information of the smart device, map information, and weather information;
a second setting step in which the server sets the attack power of the virtual content of the weapon set for the user according to the surrounding circumstances of the user;
the smart device detecting at least location information of the smart device and transmitting the detected location information to the server;
a step of causing the smart device to output the virtual content of the weapon set in the first setting step to the display device so as to have the attack power set in the second setting step;
the communication system recognizing features of the real space image;
including
the determining step determines the user's surroundings based on location information of the smart device, map information, weather information, and an image recognition result in the recognizing step;
In the determining step, when the user is on a road in a dark and muddy forest, it is determined that the surrounding situation of the user is worse than a reference situation, and the attack power of the weapon set for the user is determined. is set lower than the standard attack power,
In the step of determining, when the user is on a paved road with a fine view under fine weather, it is determined that the surrounding situation of the user is better than the reference situation, and the offensive power of the weapon set for the user is reduced. , a communication method characterized in that the attack power is set higher than the reference attack power .
方法をコンピュータに実行させる通信プログラムであって、
所定の地域を観光するユーザが装着する眼鏡型の表示装置としてのコンピュータに、
実空間の画像を撮像するステップと、
スマートデバイスとの間で通信を行い、前記実空間の画像を前記スマートデバイスに送信するステップと、
前記実空間の画像に仮想的なコンテンツを重畳して表示するステップと、
サーバとしてのコンピュータに、
ユーザの選択に応じた種別の武器の仮想的なコンテンツを、ユーザが携帯するスマートデバイスに設定する第1の設定ステップと、
少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報とを基に、前記ユーザの周辺状況を判定するステップと、
前記ユーザの周辺状況に応じて、前記ユーザに設定した前記武器の仮想的なコンテンツの攻撃力を設定する第2の設定ステップと、
前記実空間の画像の特徴を認識するステップと、
を実行させ、
前記スマートデバイスとしてのコンピュータに、
少なくとも前記スマートデバイスの位置情報を検出し、検出した位置情報を前記サーバに送信するステップと、
前前記第1の設定ステップにおいて設定された前記武器の仮想的なコンテンツを、前記第2の設定ステップにおいて設定された攻撃力となるように、ユーザが使用する表示装置に出力させるステップと、
を実行させ
前記判定するステップは、前記スマートデバイスの位置情報と、地図情報と、天候情報と、前記認識するステップにおける画像認識結果とを基に、前記ユーザの周辺状況を判定し、
前記判定するステップは、前記ユーザが、暗く、ぬかるんでいる森の中の道にいる場合、前記ユーザの周辺状況が基準となる状況よりも悪いと判定し、前記ユーザに設定した武器の攻撃力を、基準の攻撃力よりも低く設定し、
前記判定するステップは、前記ユーザが、晴天下で見晴らしのよい舗装道路にいる場合、前記ユーザの周辺状況が前記基準となる状況よりも良いと判定し、前記ユーザに設定した武器の攻撃力を、前記基準の攻撃力よりも高く設定することを特徴とする通信プログラム。
A communication program that causes a computer to perform the method, comprising:
A computer as a spectacle-type display device worn by a user who is sightseeing in a predetermined area,
capturing an image of real space;
communicating with a smart device and transmitting the image of the real space to the smart device;
a step of superimposing and displaying virtual content on the image of the real space;
computer as a server,
a first setting step of setting, in a smart device carried by the user, virtual content of the type of weapon selected by the user;
determining the surrounding situation of the user based on at least location information of the smart device, map information, and weather information;
a second setting step of setting the attack power of the virtual content of the weapon set for the user according to the user's surroundings;
recognizing features of the real space image;
and
a computer as the smart device;
detecting location information of at least the smart device and transmitting the detected location information to the server;
a step of outputting the virtual content of the weapon set in the first setting step to a display device used by a user so as to have the attack power set in the second setting step;
and
the determining step determines the surrounding situation of the user based on location information of the smart device, map information, weather information, and an image recognition result in the recognizing step;
In the determining step, when the user is on a road in a dark and muddy forest, it is determined that the surrounding situation of the user is worse than a reference situation, and the attack power of the weapon set for the user is determined. is set lower than the standard attack power,
In the determining step, if the user is on a paved road with a good view under fine weather, it is determined that the surrounding situation of the user is better than the reference situation, and the attack power of the weapon set for the user is reduced. , a communication program characterized in that the attack power is set higher than the standard attack power .
JP2021093153A 2021-06-02 2021-06-02 Communication system, communication method and communication program Active JP7219862B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021093153A JP7219862B2 (en) 2021-06-02 2021-06-02 Communication system, communication method and communication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021093153A JP7219862B2 (en) 2021-06-02 2021-06-02 Communication system, communication method and communication program

Publications (2)

Publication Number Publication Date
JP2022185453A JP2022185453A (en) 2022-12-14
JP7219862B2 true JP7219862B2 (en) 2023-02-09

Family

ID=84438878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021093153A Active JP7219862B2 (en) 2021-06-02 2021-06-02 Communication system, communication method and communication program

Country Status (1)

Country Link
JP (1) JP7219862B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003190631A (en) 2001-12-28 2003-07-08 Konami Computer Entertainment Yokyo Inc Game device and program
JP2007050154A (en) 2005-08-19 2007-03-01 Aruze Corp Game program and game system
JP2013178639A (en) 2012-02-28 2013-09-09 Seiko Epson Corp Head mounted display device and image display system
JP2015073746A (en) 2013-10-09 2015-04-20 株式会社スクウェア・エニックス・ホールディングス Video game processing server and video game processing system
JP2016026361A (en) 2009-07-22 2016-02-12 イマージョン コーポレーションImmersion Corporation System and method for providing complex haptic stimulation during input of control gestures, and relating to control of virtual equipment
JP5909301B1 (en) 2015-07-24 2016-04-26 株式会社コロプラ GAME METHOD, GAME PROGRAM, GAME TERMINAL, AND GAME SYSTEM USING MAP DATA
JP2017104344A (en) 2015-12-10 2017-06-15 株式会社コロプラ Game program
JP2017147001A (en) 2011-05-06 2017-08-24 マジック リープ, インコーポレイテッド Massive simultaneous remote digital presence world
JP2018064713A (en) 2016-10-18 2018-04-26 株式会社コロプラ Method and system of computer proceeding game based on position information of user, and program for computer executing method
JP2018175505A (en) 2017-04-14 2018-11-15 株式会社コロプラ Information processing method, apparatus, and program for implementing that information processing method in computer
JP2020074822A (en) 2018-11-05 2020-05-21 株式会社スクウェア・エニックス Game program and game system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003190631A (en) 2001-12-28 2003-07-08 Konami Computer Entertainment Yokyo Inc Game device and program
JP2007050154A (en) 2005-08-19 2007-03-01 Aruze Corp Game program and game system
JP2016026361A (en) 2009-07-22 2016-02-12 イマージョン コーポレーションImmersion Corporation System and method for providing complex haptic stimulation during input of control gestures, and relating to control of virtual equipment
JP2017147001A (en) 2011-05-06 2017-08-24 マジック リープ, インコーポレイテッド Massive simultaneous remote digital presence world
JP2013178639A (en) 2012-02-28 2013-09-09 Seiko Epson Corp Head mounted display device and image display system
JP2015073746A (en) 2013-10-09 2015-04-20 株式会社スクウェア・エニックス・ホールディングス Video game processing server and video game processing system
JP5909301B1 (en) 2015-07-24 2016-04-26 株式会社コロプラ GAME METHOD, GAME PROGRAM, GAME TERMINAL, AND GAME SYSTEM USING MAP DATA
JP2017104344A (en) 2015-12-10 2017-06-15 株式会社コロプラ Game program
JP2018064713A (en) 2016-10-18 2018-04-26 株式会社コロプラ Method and system of computer proceeding game based on position information of user, and program for computer executing method
JP2018175505A (en) 2017-04-14 2018-11-15 株式会社コロプラ Information processing method, apparatus, and program for implementing that information processing method in computer
JP2020074822A (en) 2018-11-05 2020-05-21 株式会社スクウェア・エニックス Game program and game system

Also Published As

Publication number Publication date
JP2022185453A (en) 2022-12-14

Similar Documents

Publication Publication Date Title
US9623332B2 (en) Method and device for augmented reality message hiding and revealing
US20190239014A1 (en) Spatial audio for three-dimensional data sets
CN103246543B (en) Display control apparatus, display control method and program
WO2019130864A1 (en) Information processing device, information processing method, and program
CN110755845B (en) Virtual world picture display method, device, equipment and medium
CN106664401A (en) Systems and methods for providing feedback to a user while interacting with content
CN109453517B (en) Virtual character control method and device, storage medium and mobile terminal
JP5469516B2 (en) Image display program, image display system, image display method, and image display apparatus
JP7397364B2 (en) Game programs, game devices, and game systems
KR20140102232A (en) Local sensor augmentation of stored content and ar communication
WO1998046323A1 (en) Computer games having optically acquired images which are combined with computer generated graphics and images
JP7219862B2 (en) Communication system, communication method and communication program
KR20180086633A (en) Method for providing virtual reality contents
Rajappa et al. Application and scope analysis of Augmented Reality in marketing using image processing technique
WO2017145552A1 (en) Program and eye wear
JP2023171563A (en) Game program, game apparatus and game system
JP7216940B2 (en) Communication system, communication method and communication program
JP7219860B2 (en) Communication system, communication method and communication program
JP7219859B2 (en) Communication system, communication method and communication program
JP6836676B2 (en) Game equipment and game programs
CN112866562B (en) Picture processing method and device, electronic equipment and storage medium
TWI669633B (en) Mixed reality interaction method and system thereof
US10668379B2 (en) Computer-readable recording medium, computer apparatus, image display method
JP7219861B2 (en) Communication system, communication method and communication program
CN108965859B (en) Projection mode identification method, video playing method and device and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20221216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230106

R150 Certificate of patent or registration of utility model

Ref document number: 7219862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150