JP7216940B2 - Communication system, communication method and communication program - Google Patents

Communication system, communication method and communication program Download PDF

Info

Publication number
JP7216940B2
JP7216940B2 JP2021092820A JP2021092820A JP7216940B2 JP 7216940 B2 JP7216940 B2 JP 7216940B2 JP 2021092820 A JP2021092820 A JP 2021092820A JP 2021092820 A JP2021092820 A JP 2021092820A JP 7216940 B2 JP7216940 B2 JP 7216940B2
Authority
JP
Japan
Prior art keywords
smart device
user
unit
image
virtual content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021092820A
Other languages
Japanese (ja)
Other versions
JP2022185267A (en
Inventor
俊允 中村
仁美 村井
忠 萬國谷
Original Assignee
株式会社Nttコノキュー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttコノキュー filed Critical 株式会社Nttコノキュー
Priority to JP2021092820A priority Critical patent/JP7216940B2/en
Publication of JP2022185267A publication Critical patent/JP2022185267A/en
Application granted granted Critical
Publication of JP7216940B2 publication Critical patent/JP7216940B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、通信システム、通信方法及び通信プログラムに関する。 The present invention relates to a communication system, communication method and communication program.

近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)をユーザに体感させるHMD(Head Mounted Display)などが提案されている。このうち、AR技術を用いたHMDとして、一般的な眼鏡と同様に、ユーザの頭部に装着して使用されるARグラスが提案されている。 In recent years, HMDs (Head Mounted Displays) and the like have been proposed that allow users to experience virtual reality (VR) and augmented reality (AR). Among these, as an HMD using AR technology, AR glasses, which are worn on the user's head and used in the same manner as general eyeglasses, have been proposed.

ARグラスは、ユーザの前方の実空間を撮像し、撮像した実空間の画像を、ARグラスのレンズ部分に相当するディスプレイに表示させる。また、ARグラスは、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。これにより、ARグラスを装着したユーザは、実空間の中に仮想的なコンテンツが重畳されたAR空間を体感することができる。 The AR glasses capture an image of the real space in front of the user, and display the captured image of the real space on a display corresponding to the lens portion of the AR glasses. In addition, AR glasses display virtual content generated by CG on a display by superimposing it on a captured image of the real space. As a result, a user wearing AR glasses can experience an AR space in which virtual content is superimposed on a real space.

特許第6655751号公報Japanese Patent No. 6655751

ARグラスのディスプレイにRPG(Role-Playing Game)コンテンツを表示させることで、RPGをユーザに体験させるシステムが提案されている。このシステムに対し、リアリティのあるAR体験のユーザへの提供が要望されていた。 A system has been proposed that allows a user to experience an RPG (Role-Playing Game) by displaying RPG (Role-Playing Game) content on an AR glass display. There has been a demand for this system to provide users with a realistic AR experience.

本発明は、上記に鑑みてなされたものであって、リアリティのある仮想空間上の体験をユーザに提供することを可能とする通信システム、通信方法及び通信プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a communication system, a communication method, and a communication program capable of providing a user with a realistic virtual space experience.

上述した課題を解決し、目的を達成するために、本発明の通信システムは、ユーザが使用する表示装置と、ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有する通信システムであって、サーバは、少なくともスマートデバイスの位置情報と、地図情報とを基に、ユーザの周辺状況を判定し、ユーザの周辺状況に応じた仮想的なコンテンツとして、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声を選択する選択部と、選択部が選択した仮想的なコンテンツをスマートデバイスに送信する送信部と、を有し、スマートデバイスは、少なくとも該スマートデバイスの位置情報を検出し、位置検出結果をサーバに送信する位置検出部と、仮想的なコンテンツを、表示装置に出力させる制御部と、を有することを特徴とする。 In order to solve the above-described problems and achieve the object, the communication system of the present invention is a communication system that includes a display device used by a user, a smart device carried by the user, and a server that communicates with the smart device. The server determines the user's surroundings based on at least the location information of the smart device and the map information, and creates virtual content corresponding to the user's surroundings such as animal and plant character images or animal and a transmission unit configured to transmit virtual content selected by the selection unit to a smart device, and the smart device detects at least location information of the smart device. and a control unit for outputting virtual content to a display device.

本発明によれば、リアリティのある仮想空間上の体験をユーザに提供することを可能とする。 According to the present invention, it is possible to provide a user with a realistic virtual space experience.

図1は、ARグラスのディスプレイに表示される画像の一例を示す図である。FIG. 1 is a diagram showing an example of an image displayed on a display of AR glasses. 図2は、実施の形態に係る通信システムの構成を説明する図である。FIG. 2 is a diagram illustrating the configuration of the communication system according to the embodiment. 図3は、実施の形態に係る通信システムの構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of the communication system according to the embodiment. 図4は、図3に示すARグラスの構成の一例を示すブロック図である。4 is a block diagram showing an example of the configuration of the AR glasses shown in FIG. 3. FIG. 図5は、図3に示すスマートデバイスの構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the configuration of the smart device shown in FIG. 3. As shown in FIG. 図6は、図3に示すサーバの構成の一例を示すブロック図である。FIG. 6 is a block diagram showing an example of the configuration of the server shown in FIG. 3; 図7は、ユーザが観光する島の地図を例示する図である。FIG. 7 is a diagram exemplifying a map of an island visited by the user. 図8は、ARグラスが出力する仮想的なコンテンツを説明する図である。FIG. 8 is a diagram for explaining virtual content output by AR glasses. 図9は、ARグラスが出力する仮想的なコンテンツを説明する図である。FIG. 9 is a diagram for explaining virtual content output by AR glasses. 図10は、実施の形態に係る通信システムにおける通信処理の処理手順を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating a procedure of communication processing in the communication system according to the embodiment; 図11は、プログラムを実行するコンピュータを示す図である。FIG. 11 is a diagram showing a computer executing a program.

以下に、本願に係る通信システム、通信方法及び通信プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る通信システム、通信方法及び通信プログラムが限定されるものではない。 Hereinafter, embodiments of a communication system, a communication method, and a communication program according to the present application will be described in detail with reference to the drawings. Note that the communication system, communication method, and communication program according to the present application are not limited by this embodiment.

以下の実施の形態では、実施の形態に係る通信システム、通信方法及び通信プログラムの処理の流れを順に説明し、最後に実施の形態による効果を説明する。 In the following embodiments, a communication system, a communication method, and a processing flow of a communication program according to the embodiments will be described in order, and finally effects of the embodiments will be described.

[実施の形態]
まず、実施の形態について説明する。実施の形態では、所定の地域、具体的には、観光地(例えば、島)を観光するユーザに、ユーザが使用する表示装置として、例えば、仮想的なRPGコンテンツを表示可能であるARグラスを装着させ、観光地を観光しながら、RPGも体験可能とするシステムについて説明する。
[Embodiment]
First, an embodiment will be described. In the embodiment, AR glasses capable of displaying virtual RPG content, for example, are used as the display device used by the user who is sightseeing in a predetermined area, specifically, a sightseeing spot (for example, an island). We will explain a system that allows you to experience RPG while wearing it and sightseeing in tourist spots.

図1は、ARグラスのディスプレイに表示される画像の一例を示す図である。図1に例示するように、実際の島の画像(例えば、森の画像)に、モンスターのコンテンツC1やコインのコンテンツC2を重畳してARグラスに表示させ、ユーザが、モンスターを倒す、コインを集める、ミッションに取り組むなどのゲーム体験を可能としている。また、ARグラスを装着したユーザ間で通信が可能である。 FIG. 1 is a diagram showing an example of an image displayed on a display of AR glasses. As illustrated in FIG. 1, a monster content C1 and a coin content C2 are superimposed on an image of an actual island (for example, an image of a forest) and displayed on the AR glass, and the user defeats the monster and collects the coin. It enables game experiences such as collecting and working on missions. In addition, communication is possible between users wearing AR glasses.

実施の形態では、小さな島全体を活用して、ユーザ自身が体を動かし、さらに、仲間とコミュニケーションを取りながら、その土地ならではのRPG体験を可能とする。さらに、実施の形態では、ARグラスを装着したユーザ自身が実際に観光するユーザの周辺状況に応じた仮想的なコンテンツをARグラスに出力することで、リアリティのあるAR体験を提供する。仮想的なコンテンツは、例えばCG等で作成された動植物のキャラクター画像、または、動物の鳴き声や足音等の音声である。なお、キャラクター画像は、ゲームキャラクター風の画像に限らず、写真等から作成した画像でもよく、動画も含まれる。 In the embodiment, the entire small island is used to allow the user to move his or her body and communicate with friends, thereby enabling an RPG experience unique to the area. Furthermore, in the embodiment, a realistic AR experience is provided by outputting virtual content to the AR glasses according to the surrounding conditions of the user who is actually sightseeing by the user wearing the AR glasses. The virtual contents are, for example, animal and plant character images created by CG or the like, or sounds such as animal cries and footsteps. Note that the character image is not limited to a game character-like image, and may be an image created from a photograph or the like, and includes moving images.

[通信システムの構成]
実施の形態に係る通信システムの構成を説明する。図2は、実施の形態に係る通信システムの構成を説明する図である。図3は、実施の形態に係る通信システムの構成の一例を示すブロック図である。
[Configuration of communication system]
A configuration of a communication system according to an embodiment will be described. FIG. 2 is a diagram illustrating the configuration of the communication system according to the embodiment. FIG. 3 is a block diagram showing an example of the configuration of the communication system according to the embodiment.

図2及び図3に示すように、実施の形態に係る通信システム1は、ARグラス10(表示装置)、ユーザが手に持つモーションコントローラー20、ユーザが携帯するスマートデバイス30、及び、データセンタ等に配置されるサーバ40を有する。 As shown in FIGS. 2 and 3, the communication system 1 according to the embodiment includes an AR glass 10 (display device), a motion controller 20 held by a user, a smart device 30 carried by a user, a data center, and the like. has a server 40 located in

ARグラス10は、一般的な眼鏡と同様にユーザの頭部に装着される。ARグラス10は、撮像機能、音声入力機能、通信機能、表示機能、音声出力機能を有する。ARグラス10は、実空間を撮像し、撮像した実空間の画像を、ARグラス10のレンズ部分に相当するディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、ユーザの周辺状況に応じた仮想的なコンテンツを出力する。 The AR glasses 10 are worn on the user's head like general eyeglasses. The AR glasses 10 have an imaging function, an audio input function, a communication function, a display function, and an audio output function. The AR glasses 10 capture an image of the real space, and display the captured image of the real space on a display corresponding to the lens portion of the AR glasses 10 . In addition, under the control of the smart device 30, the AR glasses 10 superimpose the virtual content generated by CG on the captured image of the real space and display it on the display. Under the control of the smart device 30, the AR glasses 10 also output virtual content according to the user's surroundings.

モーションコントローラー20は、ユーザが手に持つコントローラである。モーションコントローラー20は、例えば、加速度センサと、加速度センサの検出結果をスマートデバイス30送信する通信機能とを有する。 The motion controller 20 is a controller held by the user. The motion controller 20 has, for example, an acceleration sensor and a communication function for transmitting detection results of the acceleration sensor to the smart device 30 .

スマートデバイス30は、ユーザが携帯するデバイスであり、例えば、タブレット、スマートフォン等のスマートデバイスであり、位置検出機能、画像認識機能、音声認識機能を有する。スマートデバイス30は、ARグラス10の制御を行う。スマートデバイス30は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザの手の動きを取得する。スマートデバイス30は、ネットワークNを介して、サーバ40に接続し、ユーザの位置検出結果、画像認識結果、音声認識結果をサーバ40に送信する。スマートデバイス30は、ネットワークNを介して、サーバ40から、ARグラス10が出力する仮想的なコンテンツの提供を受ける。スマートデバイス30は、ARグラス10に対する、サーバ40から提供された仮想的なコンテンツの出力を制御する。 The smart device 30 is a device carried by a user, for example, a smart device such as a tablet or a smartphone, and has a position detection function, an image recognition function, and a voice recognition function. The smart device 30 controls the AR glasses 10 . The smart device 30 acquires the motion of the user's hand based on the detection result of the acceleration sensor transmitted from the motion controller 20 . The smart device 30 connects to the server 40 via the network N and transmits the user's position detection result, image recognition result, and voice recognition result to the server 40 . The smart device 30 receives virtual content output from the AR glasses 10 via the network N from the server 40 . The smart device 30 controls output of virtual content provided by the server 40 to the AR glasses 10 .

サーバ40は、地図情報及びAR空間上の仮想的なコンテンツを保持するとともに、スマートデバイス30から送信されたユーザの位置検出結果、画像認識結果、音声認識結果を基に、ユーザの周辺状況を判定する。そして、サーバ40は、ユーザの周辺状況に応じて仮想的なコンテンツを選択し、スマートデバイス30に送信する。 The server 40 holds map information and virtual content in the AR space, and determines the user's surroundings based on the user's position detection results, image recognition results, and voice recognition results transmitted from the smart device 30. do. The server 40 then selects virtual content according to the user's surroundings and transmits it to the smart device 30 .

[ARグラス]
次に、ARグラス10について説明する。図4は、図3に示すARグラス10の構成の一例を示すブロック図である。
[AR glass]
Next, the AR glasses 10 will be explained. FIG. 4 is a block diagram showing an example of the configuration of the AR glasses 10 shown in FIG. 3. As shown in FIG.

図4に示すように、ARグラス10は、撮像部11、音声入力部12(録音部)、通信部13、表示部14及び音声出力部15を有する。 As shown in FIG. 4 , the AR glasses 10 have an imaging unit 11 , an audio input unit 12 (recording unit), a communication unit 13 , a display unit 14 and an audio output unit 15 .

撮像部11は、実空間を撮像する。例えば、撮像部11は、撮像部11の撮像方向がARグラス10の前方である場合には、ARグラス10の前方の実空間を撮像する。撮像部11は、CCDやCMOS等の光電変換素子と、撮像素子から出力される光電変換信号を処理して実空間の画像を生成する。撮像部11は、例えば、R(赤)、G(緑)、B(青)の3色の2次元画像を取得する。 The imaging unit 11 images the real space. For example, when the imaging direction of the imaging unit 11 is in front of the AR glasses 10 , the imaging unit 11 images the real space in front of the AR glasses 10 . The imaging unit 11 generates an image of a real space by processing a photoelectric conversion element such as a CCD or a CMOS and a photoelectric conversion signal output from the imaging element. The imaging unit 11 acquires a two-dimensional image of three colors of R (red), G (green), and B (blue), for example.

音声入力部12は、音声の入力を受け付け、入力された音声を録音するデバイスによって構成される。 The voice input unit 12 is configured by a device that receives input of voice and records the input voice.

通信部13は、スマートデバイス30との無線通信を行う。通信部13は、撮像部11が撮像した画像及び音声入力部12が録音した音声を、スマートデバイス30に送信する。通信部13は、スマートデバイス30から送信された仮想的なコンテンツを受信する。仮想的なコンテンツは、動植物のキャラクター画像、動物の鳴き声や足音等の音声である。 The communication unit 13 performs wireless communication with the smart device 30 . The communication unit 13 transmits the image captured by the imaging unit 11 and the audio recorded by the audio input unit 12 to the smart device 30 . The communication unit 13 receives virtual content transmitted from the smart device 30 . The virtual contents are character images of animals and plants, sounds such as animal cries and footsteps.

表示部14は、ディスプレイによって構成される。表示部14は、撮像部11が撮像した実空間の画像を表示する。表示部14は、通信部13が受信した仮想的なコンテンツのうち、動植物のキャラクター画像を、実空間の画像に重畳して表示する。なお、表示部14は、透過表示可能なディスプレイであって、仮想的なコンテンツのうち、動植物のキャラクター画像を表示してもよい。 The display unit 14 is configured by a display. The display unit 14 displays the image of the real space captured by the imaging unit 11 . The display unit 14 displays the animal and plant character images included in the virtual content received by the communication unit 13 so as to be superimposed on the real space image. Note that the display unit 14 may be a display capable of transmissive display, and may display character images of animals and plants among the virtual contents.

音声出力部15は、音声を出力する。音声出力部15は、通信部が受信した仮想的なコンテンツのうち、動物の鳴き声や足音等の音声を出力する。 The audio output unit 15 outputs audio. The audio output unit 15 outputs sounds such as animal barks and footsteps from the virtual content received by the communication unit.

[スマートデバイス]
次に、スマートデバイス30について説明する。図5は、図3に示すスマートデバイス30の構成の一例を示すブロック図である。図5に示すように、スマートデバイス30は、通信部31、記憶部32及び制御部33を有する。
[Smart device]
Next, the smart device 30 is described. FIG. 5 is a block diagram showing an example of the configuration of the smart device 30 shown in FIG. 3. As shown in FIG. As shown in FIG. 5 , the smart device 30 has a communication section 31 , a storage section 32 and a control section 33 .

通信部31は、無線または有線にて他の装置との間で通信を行う。通信部31は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部31は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部33(後述)との間の通信を行う。例えば、通信部31は、ARグラス10から画像、音声を受信し、ARグラス10に仮想的なコンテンツを送信する。通信部31は、サーバ40に、位置検出結果、画像認識結果、音声認識結果を送信し、サーバ40から仮想的なコンテンツを受信する。 The communication unit 31 performs wireless or wired communication with other devices. The communication unit 31 is a communication interface that transmits and receives various information to and from another device connected via a network or the like. The communication unit 31 is realized by a NIC (Network Interface Card) or the like, and performs communication between another device and the control unit 33 (described later) via an electric communication line such as a LAN (Local Area Network) or the Internet. For example, the communication unit 31 receives images and sounds from the AR glasses 10 and transmits virtual content to the AR glasses 10 . The communication unit 31 transmits position detection results, image recognition results, and voice recognition results to the server 40 and receives virtual content from the server 40 .

記憶部32は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部32は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部32は、スマートデバイス30で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部32は、プログラムの実行で用いられる各種情報を記憶する。記憶部32は、ARグラス10から送信された画像データ321及び音声データ322と、サーバ40から送信された仮想的なコンテンツを含むコンテンツ情報323を記憶する。 The storage unit 32 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like. Note that the storage unit 32 may be a rewritable semiconductor memory such as a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 32 stores an OS (Operating System) and various programs executed by the smart device 30 . Furthermore, the storage unit 32 stores various information used in executing the program. The storage unit 32 stores image data 321 and audio data 322 transmitted from the AR glasses 10 and content information 323 including virtual content transmitted from the server 40 .

制御部33は、スマートデバイス30全体を制御する。制御部33は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部33は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部33は、各種のプログラムが動作することにより各種の処理部として機能する。制御部33は、位置検出部331、画像認識部332、音声認識部333、動き検出部334、ARグラス制御部335(制御部)を有する。 The control unit 33 controls the smart device 30 as a whole. The control unit 33 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 33 also has an internal memory for storing programs defining various processing procedures and control data, and executes each processing using the internal memory. Further, the control unit 33 functions as various processing units by running various programs. The control unit 33 has a position detection unit 331, an image recognition unit 332, a voice recognition unit 333, a motion detection unit 334, and an AR glasses control unit 335 (control unit).

位置検出部331は、スマートデバイス30の位置を検出する。位置検出部331は、例えば、GPS(Global Positioning System)等によりスマートデバイス30の位置情報が取得可能である。位置検出部331は、定期的に、スマートデバイス30の位置を取得して、緯度及び経度で表した位置情報を、通信部31を介して、サーバ40に送信する。 The position detection unit 331 detects the position of the smart device 30 . The position detection unit 331 can acquire the position information of the smart device 30 by GPS (Global Positioning System), for example. The position detection unit 331 periodically acquires the position of the smart device 30 and transmits the position information represented by latitude and longitude to the server 40 via the communication unit 31 .

画像認識部332は、ARグラス10が撮像した画像を処理し、画像に映るオブジェクトなどの画像の特徴を認識する。画像認識部332は、ARグラス10が撮像した画像の中に映る、動物、植物、風景、建物を認識する。画像認識部332は、例えば、機械学習によって、所定の地域、具体的には、ユーザが観光中の観光地に特有の動物、植物、風景、建物等の画像の特徴を学習済みである画像認識モデルを用いて、ARグラス10が撮像した画像の特徴を認識する。画像認識部332は、前後の画像を比べて、画像に所定以上の変化があった場合に、動物、植物、風景、建物を認識する処理を行ってもよい。画像認識部332は、画像認識処理結果を、通信部31を介してサーバ40に送信する。 The image recognition unit 332 processes the image captured by the AR glasses 10 and recognizes features of the image such as an object appearing in the image. The image recognition unit 332 recognizes animals, plants, landscapes, and buildings appearing in images captured by the AR glasses 10 . The image recognition unit 332 performs image recognition that has already learned image features such as animals, plants, landscapes, and buildings that are specific to a predetermined area, specifically, a sightseeing spot that the user is currently sightseeing, by, for example, machine learning. Using the model, the features of the image captured by the AR glasses 10 are recognized. The image recognition unit 332 may perform processing to recognize an animal, a plant, a landscape, or a building when there is a predetermined change or more in the image by comparing the images before and after the image. The image recognition section 332 transmits the image recognition processing result to the server 40 via the communication section 31 .

音声認識部333は、ARグラス10が取得した音声を処理し、音声の特徴を認識する。音声認識部333は、ARグラス10が取得した音声が、いずれの動物の鳴き声または足音であるかを認識する。音声認識部333は、ARグラス10が取得した音声が川の音であるかを認識する。音声認識部333は、例えば、機械学習によって、所定の地域、具体的には、ユーザが観光中の観光地に特有の動物の鳴き声や足音、川の音等の音声の特徴を学習済みである音声認識モデルを用いて、ARグラス10が取得した音声の特徴を認識する。音声認識部333は、音声認識処理結果を、通信部31を介してサーバ40に送信する。なお、音声認識部333は、スマートデバイス30の音声入力部(不図示)が取得した音声を処理してもよい。 The voice recognition unit 333 processes the voice acquired by the AR glasses 10 and recognizes the features of the voice. The voice recognition unit 333 recognizes which animal's cry or footsteps the voice acquired by the AR glasses 10 is. The voice recognition unit 333 recognizes whether the voice acquired by the AR glasses 10 is the sound of the river. The voice recognition unit 333 has already learned, for example, by machine learning, voice features such as animal cries and footsteps, river sounds, and the like peculiar to a predetermined area, specifically, a tourist spot where the user is sightseeing. A voice recognition model is used to recognize the features of the voice acquired by the AR glasses 10 . The voice recognition unit 333 transmits the voice recognition processing result to the server 40 via the communication unit 31 . Note that the speech recognition unit 333 may process speech acquired by a speech input unit (not shown) of the smart device 30 .

なお、画像認識機能及び音声認識機能は、サーバ40が有してもよい。その際には、スマートデバイス30は、ARグラス10が撮像した画像やARグラス10が取得した音声をサーバ40に送信する。 Note that the server 40 may have the image recognition function and the voice recognition function. At that time, the smart device 30 transmits the image captured by the AR glasses 10 and the sound acquired by the AR glasses 10 to the server 40 .

動き検出部334は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザの手の動きを取得する。 The motion detection unit 334 acquires the user's hand motion based on the detection result of the acceleration sensor transmitted from the motion controller 20 .

ARグラス制御部335は、ARグラス10の処理を制御する。例えば、ARグラス制御部335は、ARグラス10におけるレンズ部のディスプレイへの画像表示処理やARグラス10による音声出力処理を制御する。ARグラス制御部335は、コンテンツ取得部336と、コンテンツ合成部337とを有する。 The AR glasses control unit 335 controls the processing of the AR glasses 10 . For example, the AR glasses control unit 335 controls image display processing on the display of the lens portion of the AR glasses 10 and audio output processing by the AR glasses 10 . The AR glasses control section 335 has a content acquisition section 336 and a content synthesis section 337 .

コンテンツ取得部336は、サーバ40から送信された、仮想的なコンテンツを取得する。この仮想的なコンテンツは、実空間の画像に重畳してのキャラクター画像や、動物の鳴き声や足音等の音声である。ARグラス制御部335は、コンテンツ取得部336が取得したコンテンツが、動物の鳴き声や足音等の音声である場合、ARグラス10の音声出力部15から、音声を出力させる。 The content acquisition unit 336 acquires virtual content transmitted from the server 40 . This virtual content is a character image superimposed on an image in the real space, and sounds such as animal cries and footsteps. The AR glasses control unit 335 causes the audio output unit 15 of the AR glasses 10 to output audio when the content acquired by the content acquisition unit 336 is a sound such as an animal's cries or footsteps.

コンテンツ合成部337は、コンテンツ取得部336が取得したコンテンツが、実空間の画像に重畳してのキャラクター画像である場合、キャラクター画像と実空間の画像との合成処理を行う。コンテンツ合成部337による合成処理後、ARグラス制御部335は、ARグラス10の表示部14に、実空間の画像にキャラクター画像を重畳させた画像を表示させる。キャラクター画像の重畳位置は、例えば、予め設定されている。或いは、キャラクター画像の重畳位置は、サーバ40による指示によって設定される。 When the content acquired by the content acquisition unit 336 is a character image superimposed on a real space image, the content synthesizing unit 337 performs synthesis processing of the character image and the real space image. After the composition processing by the content composition unit 337, the AR glasses control unit 335 causes the display unit 14 of the AR glasses 10 to display an image in which the character image is superimposed on the image of the real space. The superimposition position of the character image is set in advance, for example. Alternatively, the character image superimposition position is set by an instruction from the server 40 .

[サーバ]
次に、サーバ40について説明する。図6は、図3に示すサーバ40の構成の一例を示すブロック図である。図6に示すように、サーバ40は、通信部41、記憶部42及び制御部43を有する。
[server]
Next, the server 40 will be explained. FIG. 6 is a block diagram showing an example of the configuration of server 40 shown in FIG. As shown in FIG. 6 , the server 40 has a communication section 41 , a storage section 42 and a control section 43 .

通信部41は、無線または有線にて他の装置との間で通信を行う。通信部41は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部41は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部43後述)との間の通信を行う。例えば、通信部41は、スマートデバイス30から位置情報、画像認識結果、音声認識結果を受信し、スマートデバイス30に仮想的なコンテンツを送信する。 The communication unit 41 performs wireless or wired communication with other devices. The communication unit 41 is a communication interface that transmits and receives various information to and from another device connected via a network or the like. The communication unit 41 is realized by a NIC (Network Interface Card) or the like, and performs communication between another device and the control unit 43 (described later) via an electric communication line such as a LAN (Local Area Network) or the Internet. For example, the communication unit 41 receives location information, image recognition results, and voice recognition results from the smart device 30 and transmits virtual content to the smart device 30 .

記憶部42は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部42は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部42は、サーバ40で実行されるOS(Operating System)や各種プログラムを記憶する。 The storage unit 42 is a storage device such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like. Note that the storage unit 42 may be a rewritable semiconductor memory such as a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 42 stores an OS (Operating System) and various programs executed by the server 40 .

さらに、記憶部42は、プログラムの実行で用いられる各種情報を記憶する。記憶部42は、ユーザが観光する島等の観光地の森、川、山、平野、名所等を含む地図情報421と、各種仮想的なコンテンツを含むコンテンツ情報422を記憶する。地図情報421は、隠れスポットが記載されたものでもよいし、ぬかるみやすい場所が記載されたものでもよい。各種仮想的なコンテンツは、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声であり、所定の地域、例えば、観光地や、観光地の森、川、山、平野、名所等の各所定箇所に対応づけて予め作成された、観光地の各所定箇所に特有のコンテンツである。また、各種コンテンツは、敵または味方に分けて、それぞれ作成されたものでもよい。コンテンツ情報422は、例えば、キャラクター画像の表示位置や大きさ等の設定情報である各種コンテンツの設定条件を含む。 Further, the storage unit 42 stores various information used in executing the program. The storage unit 42 stores map information 421 including forests, rivers, mountains, plains, sights, etc. of sightseeing spots such as islands visited by the user, and content information 422 including various types of virtual content. The map information 421 may describe hidden spots, or may describe places that tend to be muddy. The various virtual contents are character images of animals and plants, or sounds of footsteps or cries of animals, and are provided in predetermined areas such as sightseeing spots, forests, rivers, mountains, plains, famous places, and the like. It is a content specific to each predetermined place in the sightseeing spot, which is created in advance in association with the place. Also, various contents may be created separately for enemies and allies. The content information 422 includes, for example, setting conditions for various types of content, which are setting information such as the display position and size of character images.

制御部43は、サーバ40全体を制御する。制御部43は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部43は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部43は、各種のプログラムが動作することにより各種の処理部として機能する。制御部43は、位置情報取得部431、スマートデバイス30から送信された画像認識結果を取得する画像認識結果取得部432、スマートデバイス30から送信された音声認識結果を取得する音声認識結果取得部433、条件設定部434、コンテンツ選択部435(選択部)及びコンテンツ送信制御部436(送信部)を有する。 The control unit 43 controls the server 40 as a whole. The control unit 43 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 43 also has an internal memory for storing programs defining various processing procedures and control data, and executes each processing using the internal memory. Further, the control unit 43 functions as various processing units by running various programs. The control unit 43 includes a position information acquisition unit 431 , an image recognition result acquisition unit 432 that acquires the image recognition result transmitted from the smart device 30 , and a voice recognition result acquisition unit 433 that acquires the voice recognition result transmitted from the smart device 30 . , a condition setting unit 434, a content selection unit 435 (selection unit), and a content transmission control unit 436 (transmission unit).

位置情報取得部431は、スマートデバイス30から受信した位置情報と、地図情報421とを基に、ユーザの位置を検出する。そして、位置情報取得部431は、ユーザの位置を基に、ユーザが観光地の森、川、山、平野、名所等にいるかを検出する。位置情報取得部431は、地図情報421に含まれる等高線を基に、山や平野の位置を判別してもよい。 The location information acquisition unit 431 detects the location of the user based on the location information received from the smart device 30 and the map information 421 . Based on the user's position, the position information acquisition unit 431 detects whether the user is in a tourist spot such as a forest, river, mountain, plain, famous place, or the like. The position information acquisition unit 431 may determine the positions of mountains and plains based on contour lines included in the map information 421 .

条件設定部434は、所定の地域(例えば、島等の観光地)毎に、ユーザの周辺状況に応じて登場させる動物に関するコンテンツの選択や、敵味方の判定のための条件を設定する。例えば、条件設定部434は、予め、島等の観光地ごとに作成されたコンテンツの選択ルール及び敵味方の判定ルールのなかから、ユーザが実際に観光している地域に応じたルールを抽出し、設定する。このように、条件設定部434は、ユーザが実際に観光している観光地に応じたコンテンツの選択ルール及び敵味方の判定ルールを抽出し、その観光地らしさが出るコンテンツを選択できるようにする。 The condition setting unit 434 sets conditions for selection of contents related to animals to appear according to the user's surroundings and conditions for determining friend or foe for each predetermined area (for example, a tourist spot such as an island). For example, the condition setting unit 434 extracts a rule according to the area where the user is actually sightseeing from among the content selection rules and friend/enemy judgment rules created in advance for each sightseeing spot such as an island. , set. In this way, the condition setting unit 434 extracts content selection rules and friend/enemy determination rules according to the tourist destination that the user is actually visiting, and enables selection of content that is representative of the tourist destination. .

コンテンツ選択部435は、位置情報取得部431によるユーザの位置情報と、スマートデバイス30による画像認識結果またはスマートデバイス30による音声認識結果とを基に、ユーザの周辺状況を判定する。そして、コンテンツ選択部435は、ユーザの周辺状況に応じたAR空間上の仮想的なコンテンツを選択する。コンテンツ選択部435は、ユーザの周辺状況が所定の地域の所定箇所のいずれかの場所に該当することを判定した場合、該当する所定箇所に特有の動植物のキャラクター画像または所定箇所特有の動物の鳴き声或いは足音の音声を、仮想的なコンテンツとして選択する。 The content selection unit 435 determines the surrounding situation of the user based on the user's location information from the location information acquisition unit 431 and the image recognition result from the smart device 30 or the voice recognition result from the smart device 30 . Then, the content selection unit 435 selects virtual content in the AR space according to the surrounding circumstances of the user. When the content selection unit 435 determines that the surrounding situation of the user corresponds to any one of the predetermined locations in the predetermined area, the content selection unit 435 selects a character image of an animal or plant peculiar to the corresponding predetermined location or an animal cry peculiar to the predetermined location. Alternatively, footstep sounds are selected as virtual content.

この際、コンテンツ選択部435は、条件設定部434によって設定されたコンテンツの選択ルール及び敵味方の判定ルールを用いる。コンテンツ選択部435は、条件設定部434によって設定されたコンテンツの選択ルール及び敵味方の判定ルールを用いることによって、例えば、ユーザが島を観光している場合には、この島特有の動植物のキャラクター画像をコンテンツとして選択する。また、コンテンツ選択部435は、ユーザが森の中を歩いていることを判定した場合には、その森に生息する特有の動物の鳴き声、足音或いはキャラクター画像をコンテンツとして選択する。また、コンテンツ選択部435は、位置検出結果によってユーザが森にいることを判定し、さらに音声認識結果で認識された鳴き声によりその森に生息する特有の鳥の存在が認識できた場合には、その鳥の鳴き声の音声をコンテンツとして選択する。また、コンテンツ選択部435は、ユーザが森にいることを判定し、さらに、画像認識結果で認識された足音によりその森に生息する特有の動物の存在が確認できた場合には、その動物のキャラクター画像をコンテンツとして選択する。 At this time, the content selection unit 435 uses the content selection rule and the enemy/friend determination rule set by the condition setting unit 434 . The content selection unit 435 uses the content selection rule and the enemy/friend determination rule set by the condition setting unit 434. For example, when the user is sightseeing on an island, the content selection unit 435 selects characters of animals and plants peculiar to the island. Select an image as content. Also, when the content selection unit 435 determines that the user is walking in the forest, it selects the sounds, footsteps, or character images of animals unique to the forest as content. In addition, if the content selection unit 435 determines that the user is in a forest based on the position detection result, and further recognizes the presence of a specific bird that inhabits the forest based on the cry recognized in the voice recognition result, The bird's song sound is selected as content. In addition, the content selection unit 435 determines that the user is in a forest, and if the footsteps recognized in the image recognition result confirm the presence of a unique animal that inhabits the forest, the content selection unit 435 determines that the animal is in the forest. Select a character image as content.

この際、コンテンツ選択部435は、ユーザの周辺状況に応じて、敵または味方のコンテンツを選択してもよい。例えば、コンテンツ選択部435は、ユーザが、その島の隠れた観光スポットまで到達した場合には、この島特有の動植物のキャラクター画像のうち、味方として、応援している状態のキャラクター画像を選択する。さらに、コンテンツ選択部435は、例えば、鳥の鳴き声を認識したら味方の鳥のキャラクター画像を選択してもよいし、他のユーザが近くにいることを検知した場合には、味方のキャラクター画像を増やしてもよい。また、コンテンツ選択部435は、地図情報421、画像認識結果及び天気情報等を基に、ユーザの周辺がぬかるんでいて状況が悪いことを判定した場合、この島特有の動物の鳴き声のうち、敵として、威嚇するような鳴き声を選択してもよい。 At this time, the content selection unit 435 may select enemy or ally content according to the user's surroundings. For example, when the user reaches a hidden sightseeing spot on the island, the content selection unit 435 selects the character image in the state of cheering as an ally among the character images of flora and fauna peculiar to the island. . Furthermore, for example, the content selection unit 435 may select a character image of a friendly bird when recognizing a bird's cry, or may select a friendly character image when detecting that another user is nearby. You can increase it. In addition, when the content selection unit 435 determines that the surroundings of the user are muddy and the situation is bad based on the map information 421, the image recognition result, the weather information, etc., the content selection unit 435 selects the animal sounds peculiar to this island. A threatening call may be selected as a

コンテンツ送信制御部436は、コンテンツ選択部435が選択したAR空間上の仮想的なコンテンツを、スマートデバイス30に送信する。コンテンツ送信制御部436は、選択されたコンテンツとともに、コンテンツの出力タイミングや、コンテンツの表示位置もスマートデバイス30に送信する。 The content transmission control unit 436 transmits the virtual content on the AR space selected by the content selection unit 435 to the smart device 30 . The content transmission control unit 436 also transmits the content output timing and the content display position to the smart device 30 together with the selected content.

[コンテンツ出力例]
図7は、ユーザが観光する島の地図を例示する図である。図8及び図9は、ARグラス10が出力する仮想的なコンテンツを説明する図である。
[Content output example]
FIG. 7 is a diagram exemplifying a map of an island visited by the user. 8 and 9 are diagrams for explaining virtual content output by the AR glasses 10. FIG.

図7に示すように、ユーザは、森、川、山、平野、名所等がある島を観光している。図8に示すように、ARグラス10を装着したユーザUが、図7のポイントP1に位置する森の中を歩いている場合を例に説明する。 As shown in FIG. 7, the user is sightseeing an island with forests, rivers, mountains, plains, sights, and the like. As shown in FIG. 8, a case where the user U wearing the AR glasses 10 is walking in the forest located at the point P1 in FIG. 7 will be described as an example.

通信システム1では、サーバ40が、ユーザUがポイントP1の森にいることを判定する。そして、その森にイノシシが存在する場合(図8の(1))、サーバ40は、仮想的なコンテンツとして、仲間となるイノシシのキャラクター画像G1をスマートデバイス30に送信する。スマートデバイス30は、そのイノシシが仲間となるように、イノシシのキャラクター画像G1をARグラス10のディスプレイに表示させる(図8の(2))。ARグラス10は、イノシシのキャラクター画像をG1、実際の森の画像に重畳させて表示させることで、イノシシを登場させる。この際、スマートデバイス30は、ARグラス10に、イノシシのキャラクター画像G1を、ユーザのそばにいるように表示させてもよいし、ユーザUと一緒に移動するように表示させてもよい。 In communication system 1, server 40 determines that user U is in the forest at point P1. Then, if a wild boar exists in the forest ((1) in FIG. 8), the server 40 transmits a character image G1 of the wild boar as a companion to the smart device 30 as virtual content. The smart device 30 displays the wild boar character image G1 on the display of the AR glasses 10 so that the wild boar becomes a companion ((2) in FIG. 8). The AR glasses 10 make the wild boar appear by superimposing the character image of the wild boar on G1, the actual image of the forest. At this time, the smart device 30 may cause the AR glasses 10 to display the wild boar character image G1 as if it is near the user or as if it moves together with the user U.

また、サーバ40は、仮想的なコンテンツとして、イノシシの足音の音声をコンテンツとしてスマートデバイス30に送信してもよい。スマートデバイス30は、イノシシのキャラクター画像や足音を、森の中にいる間のみ出力させてもよいし、森から所定距離離れるまで出力させてもよい。 The server 40 may also transmit the sound of the footsteps of a wild boar to the smart device 30 as virtual content. The smart device 30 may output the boar character image and footsteps only while the boar is in the forest, or may output the boar character until a predetermined distance away from the forest.

また、サーバ40は、ユーザUが位置する森に、その森にのみ生息する希少な鳥が存在する場合(図8の(3))、仮想的なコンテンツとして、その鳥の鳴き声をコンテンツとしてスマートデバイス30に送信する。スマートデバイス30は、その鳥の鳴き声を、ARグラス10から出力させる(図8の(4))。スマートデバイス30は、鳥の鳴き声を、森の中にいる間のみ出力させてもよいし、森から所定距離離れるまで出力させてもよい。 In addition, if there is a rare bird that lives only in the forest where the user U is located ((3) in FIG. 8), the server 40 uses the bird's cries as virtual content. Send to device 30 . The smart device 30 outputs the bird's song from the AR glasses 10 ((4) in FIG. 8). The smart device 30 may output the chirping of birds only while in the forest, or may output the sounds of the birds until a predetermined distance away from the forest.

そして、通信システム1では、サーバ40が、スマートデバイス30による、川の音の音声認識結果(図9の(1))、位置検出結果及び地図情報を基に、ユーザUがポイントP2の川にいることを判定する。そして、その川に魚が存在する場合(図9の(2))、サーバ40は、仮想的なコンテンツとして、仲間となるイルカのキャラクター画像G2をコンテンツとしてスマートデバイス30に送信する。 In the communication system 1, the server 40 determines whether the user U is on the river at the point P2 based on the voice recognition result of the river sound ((1) in FIG. 9), the position detection result, and the map information by the smart device 30. determine that there is Then, if there are fish in the river ((2) in FIG. 9), the server 40 transmits the character image G2 of the companion dolphin to the smart device 30 as virtual content.

スマートデバイス30は、そのイルカが仲間となるように、ARグラス10のディスプレイにイルカのキャラクター画像G2を表示させる(図9の(3))。ARグラス10は、イルカのキャラクター画像G2を、実際の森の画像に重畳させて表示させることで、イルカを登場させる。なお、これらのキャラクターは、戦闘シーンなどでは傍にいるように表示してもよいし、一緒に移動するように画像表示してもよい。 The smart device 30 displays the character image G2 of the dolphin on the display of the AR glasses 10 so that the dolphin becomes a companion ((3) in FIG. 9). The AR glasses 10 make the dolphin appear by superimposing the character image G2 of the dolphin on the actual image of the forest. It should be noted that these characters may be displayed as if they were nearby in a battle scene or the like, or as if they were moving together.

このように、通信システム1では、ARグラス10を装着したユーザUの周辺状況、例えば、動物の出現、実際の地形(森、川、山等)や名所を判定する。そして、通信システム1は、ユーザUの周辺状況に応じた動物の鳴き声や足音をユーザUに聞かせたり、ユーザUの周辺状況に応じた動植物のキャラクターを登場させたりする。これによって、通信システム1は、ユーザUの周辺状況にいる動物の存在をユーザUに体感させることによって、よりリアリティのあるAR体験をユーザUに提供する。 In this way, the communication system 1 determines the surrounding conditions of the user U wearing the AR glasses 10, such as the appearance of animals, actual topography (forests, rivers, mountains, etc.) and famous places. Then, the communication system 1 makes the user U hear the cries and footsteps of animals according to the surrounding situation of the user U, and makes animal and plant characters appear according to the user U's surrounding situation. Thereby, the communication system 1 provides the user U with a more realistic AR experience by allowing the user U to experience the presence of animals in the user U's surroundings.

なお、通信システム1は、島等の観光地ごとに、観光地特有の動植物のキャラクター画像をARグラス10に表示させてもよいし、観光地特有の動物の鳴き声、足音をユーザUに聞かせてもよい。 The communication system 1 may display character images of animals and plants peculiar to tourist spots on the AR glasses 10 for each tourist spot such as an island, or let the user U hear the cries and footsteps of animals peculiar to tourist spots. good too.

また、通信システム1は、動物の鳴き声、動物の足音の音声をユーザUに聞かせる場合、或いは、動植物のキャラクター画像をARグラス10に表示させる場合、ユーザUの周辺状況に応じて、敵または味方になる場合で音声やキャラクター画像を変化させてもよい。例えば、動物の鳴き声を出力する場合、味方である場合には心地よい鳴き声を出力し、敵の場合には威嚇するような鳴き声を出力する。また、動植物のキャラクター画像をARグラス10に表示させる場合、戦闘シーンにおいて、味方の場合には応援するような動きを表示させてもよいし、敵の場合にはユーザUに攻撃するような動きを表示させてもよい。 In addition, when the communication system 1 makes the user U hear the sounds of animal cries and animal footsteps, or when displaying animal and plant character images on the AR glasses 10, the communication system 1, depending on the surrounding situation of the user U, You may change the voice and character image when becoming an ally. For example, when outputting an animal's cry, if it is an ally, it outputs a pleasant cry, and if it is an enemy, it outputs a menacing cry. Further, when the character images of animals and plants are displayed on the AR glasses 10, in the battle scene, if it is an ally, it may be displayed as if it is cheering, and if it is an enemy, it may be displayed as if it is attacking the user U. may be displayed.

また、通信システム1は、ユーザの周辺状況に応じて、敵または味方であるかを判定してもよい。例えば、ユーザの周辺状況が悪い場合、例えば、ぬかるんでいる場合や暗い場合には、敵を登場させる。また、ユーザの周辺状況がよい場合、例えば、見晴らしがよい場合や明るい場合には、味方を登場させる。 Further, the communication system 1 may determine whether the user is an enemy or an ally according to the surrounding circumstances of the user. For example, when the user's surroundings are bad, for example, when it is muddy or dark, an enemy is made to appear. Also, when the user's surroundings are good, for example, when the view is good or when it is bright, an ally appears.

[通信処理の処理手順]
図10は、実施の形態に係る通信システムにおける通信処理の処理手順を示すシーケンス図である。
[Processing procedure of communication processing]
FIG. 10 is a sequence diagram illustrating a procedure of communication processing in the communication system according to the embodiment;

図10に示すように、スマートデバイス30は、スマートデバイス30の位置を検出する度に(ステップS1)、サーバ40に位置情報を送信する(ステップS2)。 As shown in FIG. 10, each time the smart device 30 detects the location of the smart device 30 (step S1), it transmits location information to the server 40 (step S2).

そして、スマートデバイス30は、ARグラス10から画像が送信されると(ステップS3)、その画像に対する画像認識処理を実行し(ステップS4)、画像認識結果をサーバ40に送信する(ステップS5)。スマートデバイス30は、ARグラス10から音声が送信されると(ステップS6)、その音声に対する音声認識処理を実行し(ステップS7)、音声認識結果をサーバ40に送信する(ステップS8)。 Then, when the image is transmitted from the AR glasses 10 (step S3), the smart device 30 executes image recognition processing on the image (step S4), and transmits the image recognition result to the server 40 (step S5). When the voice is transmitted from the AR glasses 10 (step S6), the smart device 30 performs voice recognition processing on the voice (step S7), and transmits the voice recognition result to the server 40 (step S8).

サーバ40は、受信した位置検出結果と地図情報421とを基にユーザの位置を検出し、所定の地域(例えば、島等の観光地)毎に、ユーザの周辺状況に応じて登場させる動物に関するコンテンツの選択や、敵味方の判定のための条件を設定する(ステップS9)。サーバ40は、位置検出結果、画像認識結果、音声認識結果を基に、ユーザの周辺状況を判定する(ステップS10)。サーバ40は、ユーザの周辺状況に応じたAR空間上の仮想的なコンテンツを選択し(ステップS11)、スマートデバイス30に送信する(ステップS12)。 The server 40 detects the user's position based on the received position detection result and the map information 421, and for each predetermined area (for example, a tourist spot such as an island), there is a Conditions for content selection and friend/enemy determination are set (step S9). The server 40 determines the surrounding situation of the user based on the position detection result, the image recognition result, and the voice recognition result (step S10). The server 40 selects virtual content in the AR space according to the user's surroundings (step S11), and transmits it to the smart device 30 (step S12).

スマートデバイス30は、コンテンツが、動植物のキャラクター画像である場合、キャラクター画像と実空間の画像との合成処理を行う(ステップS13)。そして、スマートデバイス30は、ARグラス10に、コンテンツの出力を指示し(ステップS14)、AR空間上の仮想的なコンテンツ(例えば、動植物のキャラクター画像や音声)をARグラス10から出力させる(ステップS15)。 If the content is a character image of an animal or plant, the smart device 30 synthesizes the character image and the real space image (step S13). Then, the smart device 30 instructs the AR glasses 10 to output content (step S14), and causes the AR glasses 10 to output virtual content (for example, animal and plant character images and sounds) in the AR space (step S14). S15).

[実施の形態の効果]
このように、本実施の形態では、ユーザの周辺状況に応じた動物の鳴き声や足音をユーザに聞かせたり、ユーザの周辺状況に応じた動植物のキャラクターを登場させたりすることで、ユーザの周辺状況にいる動物の存在をユーザに体感させて、よりリアリティのある仮想空間上のAR体験をユーザに提供することができる。
[Effects of Embodiment]
As described above, in the present embodiment, the user can hear the cries and footsteps of animals according to the user's surroundings, or the characters of animals and plants according to the user's surroundings can appear. By allowing the user to feel the presence of the animal in the room, it is possible to provide the user with a more realistic AR experience in the virtual space.

また、本実施の形態では、ユーザが観光する島等の観光地特有の動物に関するコンテンツを出力することで、その観光地ならではの体験をユーザに体験させることができる。これによって、本実施の形態によれば、ゲーム的な要素と観光地特有のコンテンツ出力とによって、体験型の観光を推進できる。 In addition, in the present embodiment, by outputting content related to animals unique to a sightseeing spot such as an island visited by the user, it is possible to allow the user to experience an experience unique to the tourist spot. As a result, according to the present embodiment, it is possible to promote experiential tourism through game-like elements and content output unique to tourist spots.

[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPU及び当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device is realized by a CPU or GPU and a program analyzed and executed by the CPU or GPU, or as hardware by wired logic can be realized.

また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in this embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be done automatically by known methods. In addition, information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

[プログラム]
また、上記実施形態において説明したARグラス10、スマートデバイス30及びサーバ40及びが実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態におけるARグラス10、スマートデバイス30及びサーバ40が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
[program]
It is also possible to create a program in which the processes executed by the AR glasses 10, the smart device 30, and the server 40 described in the above embodiments are described in a computer-executable language. For example, it is possible to create a program in which the processes executed by the AR glasses 10, the smart device 30, and the server 40 in the embodiment are described in a computer-executable language. In this case, the same effects as those of the above embodiments can be obtained by having the computer execute the program. Further, such a program may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read by a computer and executed to realize processing similar to that of the above embodiments.

図11は、プログラムを実行するコンピュータを示す図である。図11に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。 FIG. 11 is a diagram showing a computer executing a program. As illustrated in FIG. 11, computer 1000 includes, for example, memory 1010, CPU 1020, hard disk drive interface 1030, disk drive interface 1040, serial port interface 1050, video adapter 1060, and network interface 1070. , and these units are connected by a bus 1080 .

メモリ1010は、図11に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図11に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。 The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012 as illustrated in FIG. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). Hard disk drive interface 1030 is connected to hard disk drive 1090 as illustrated in FIG. A disk drive interface 1040 is connected to the disk drive 1100 . A removable storage medium such as a magnetic disk or optical disk is inserted into the disk drive 1100 . Serial port interface 1050 is connected to mouse 1110 and keyboard 1120, for example. Video adapter 1060 is connected to display 1130, for example.

ここで、図11に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。 Here, as illustrated in FIG. 11, the hard disk drive 1090 stores an OS 1091, application programs 1092, program modules 1093, and program data 1094, for example. That is, the above program is stored, for example, in hard disk drive 1090 as a program module in which instructions to be executed by computer 1000 are described.

また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。 Various data described in the above embodiments are stored as program data in the memory 1010 or the hard disk drive 1090, for example. Then, the CPU 1020 reads the program modules 1093 and program data 1094 stored in the memory 1010 and the hard disk drive 1090 to the RAM 1012 as necessary, and executes various processing procedures.

なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。 Note that the program module 1093 and program data 1094 related to the program are not limited to being stored in the hard disk drive 1090. For example, they may be stored in a removable storage medium and read by the CPU 1020 via a disk drive or the like. . Alternatively, the program module 1093 and program data 1094 related to the program are stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.), and are transmitted via the network interface 1070. It may be read by CPU 1020 .

上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above-described embodiments and modifications thereof are included in the scope of the invention described in the claims and their equivalents, as well as in the technology disclosed in the present application.

10 ARグラス
11 撮像部
12 音声入力部
13,31,41 通信部
14 表示部
15 音声出力部
20 モーションコントローラー
30 スマートデバイス
32,42 記憶部
33,43 制御部
40 サーバ
321 画像データ
322 音声データ
323,422 コンテンツ情報
331 位置検出部
332 画像認識部
333 音声認識部
334 動き検出部
335 ARグラス制御部
336 コンテンツ取得部
337 コンテンツ合成部
421 地図情報
431 位置情報取得部
432 画像認識結果取得部
433 音声認識結果取得部
434 条件設定部
435 コンテンツ選択部
436 コンテンツ送信制御部
10 AR glasses 11 imaging unit 12 audio input unit 13, 31, 41 communication unit 14 display unit 15 audio output unit 20 motion controller 30 smart device 32, 42 storage unit 33, 43 control unit 40 server 321 image data 322 audio data 323, 422 content information 331 position detection unit 332 image recognition unit 333 voice recognition unit 334 motion detection unit 335 AR glasses control unit 336 content acquisition unit 337 content synthesis unit 421 map information 431 position information acquisition unit 432 image recognition result acquisition unit 433 voice recognition result Acquisition unit 434 Condition setting unit 435 Content selection unit 436 Content transmission control unit

Claims (5)

ユーザの頭部に装着される表示装置と、前記ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有する通信システムであって、
前記表示装置は、
実空間の画像を撮像する撮像部と、
音声の入力を受け付ける音声入力部と、
前記スマートデバイスとの間で通信を行い、前記実空間の画像と前記音声とを前記スマートデバイスに送信する通信部と、
を有し、
当該通信システムは、
前記実空間の画像の特徴を認識する画像認識部と、
前記音声の特徴を認識する音声認識部と、
を有し、
前記サーバは、
少なくとも前記スマートデバイスの位置情報と、地図情報とを基に、前記ユーザの周辺状況を判定し、前記ユーザの周辺状況に応じた仮想的なコンテンツとして、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声を選択する選択部と、
前記選択部が選択した仮想的なコンテンツを前記スマートデバイスに送信する送信部と、
を有し、
前記スマートデバイスは、少なくとも該スマートデバイスの位置情報を検出し、位置検出結果を前記サーバに送信する位置検出部と、
前記仮想的なコンテンツを、前記表示装置に出力させる制御部と、
を有し、
前記選択部は、前記スマートデバイスの位置情報と前記地図情報と、前記画像認識部による画像認識結果または前記音声認識部による音声認識結果を基に、前記ユーザの周辺状況を判定し、
前記仮想的なコンテンツは、敵または味方に分けて作成され、
前記選択部は、前記ユーザの周辺状況に応じて、前記仮想的なコンテンツのうち、敵または味方のコンテンツを選択することを特徴とする通信システム。
A communication system comprising a display device worn on the head of a user, a smart device carried by the user, and a server communicating with the smart device,
The display device
an imaging unit that captures an image of a real space;
a voice input unit for receiving input of voice;
a communication unit that communicates with the smart device and transmits the image of the real space and the sound to the smart device;
has
The communication system shall:
an image recognition unit that recognizes features of the image in the real space;
a speech recognition unit that recognizes the features of the speech;
has
The server is
Based on at least the location information of the smart device and the map information, the surrounding situation of the user is determined, and as virtual content according to the user's surrounding situation, character images of animals and plants, animal footsteps, or a selection unit for selecting the voice of the bark;
a transmission unit configured to transmit the virtual content selected by the selection unit to the smart device;
has
the smart device includes a location detection unit that detects at least location information of the smart device and transmits location detection results to the server;
a control unit for outputting the virtual content to the display device;
has
The selection unit determines a surrounding situation of the user based on the location information of the smart device, the map information, and the result of image recognition by the image recognition unit or the result of voice recognition by the voice recognition unit,
The virtual content is created separately for enemies or allies,
The communication system , wherein the selection unit selects enemy or ally content from the virtual content according to the user's surroundings .
前記仮想的なコンテンツは、所定の地域の各所定箇所に特有の動植物のキャラクター画像または観光地特有の動物の鳴き声或いは足音の音声であり、
前記選択部は、前記ユーザの周辺状況が前記所定の地域の所定箇所のいずれかの場所に該当することを判定した場合、該当する所定箇所に特有の動植物のキャラクター画像または所定箇所特有の動物の鳴き声或いは足音の音声を、前記仮想的なコンテンツとして選択することを特徴とする請求項1に記載の通信システム。
The virtual contents are character images of animals and plants peculiar to each prescribed location in a prescribed area or sounds of animal cries or footsteps peculiar to tourist spots,
When the selection unit determines that the surrounding situation of the user corresponds to any one of the predetermined locations in the predetermined area, the selection unit selects a character image of animals and plants peculiar to the predetermined location or an animal peculiar to the predetermined location. 2. The communication system according to claim 1, wherein sounds such as cries or footsteps are selected as the virtual contents.
前記表示装置は、
画像を表示する表示部と、
音声を出力する音声出力部と、
を有し、
前記制御部は、前記仮想的なコンテンツが前記動植物のキャラクター画像である場合には前記表示部に表示させ、前記仮想的なコンテンツが前記動物の足音或いは鳴き声の音声を前記音声出力部に出力させることを特徴とする請求項1または2に記載の通信システム。
The display device
a display unit for displaying an image;
an audio output unit that outputs audio;
has
When the virtual content is a character image of the animal or plant, the control unit causes the display unit to display the virtual content, and causes the audio output unit to output the sound of footsteps or cries of the animal as the virtual content. 3. The communication system according to claim 1 or 2, characterized by:
ユーザの頭部に装着される表示装置と、前記ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有する通信システムが実行する通信方法であって、
前記表示装置が、実空間の画像を撮像する工程と、
前記表示装置が、音声の入力を受け付ける工程と、
前記表示装置が、前記スマートデバイスとの間で通信を行い、前記実空間の画像と前記音声とを前記スマートデバイスに送信する工程と、
前記スマートデバイスが、前記実空間の画像の特徴を認識する工程と、
前記スマートデバイスが、前記音声の特徴を認識する工程と、
前記サーバが、少なくとも前記スマートデバイスの位置情報と、地図情報とを基に、前記ユーザの周辺状況を判定し、前記ユーザの周辺状況に応じた仮想的なコンテンツとして、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声を選択する工程と、
前記サーバが、前記選択する工程において選択された仮想的なコンテンツを前記スマートデバイスに送信する工程と、
前記スマートデバイスが、少なくとも該スマートデバイスの位置情報を検出し、位置検出結果をサーバに送信する工程と、
前記サーバが、前記仮想的なコンテンツを、前記表示装置に出力させる工程と、
前記表示装置が、前記仮想的なコンテンツを出力する工程と、
を含み、
前記選択する工程は、前記スマートデバイスの位置情報と前記地図情報と、前記認識する工程における画像認識結果または前記認識する工程における音声認識結果を基に、前記ユーザの周辺状況を判定し、
前記仮想的なコンテンツは、敵または味方に分けて作成され、
前記選択する工程は、前記ユーザの周辺状況に応じて、前記仮想的なコンテンツのうち、敵または味方のコンテンツを選択することを特徴とする通信方法。
A communication method executed by a communication system having a display device worn on the head of a user, a smart device carried by the user, and a server communicating with the smart device, comprising:
a step in which the display device captures an image of a real space;
a step in which the display device accepts a voice input;
a step of the display device communicating with the smart device and transmitting the image of the real space and the sound to the smart device;
the smart device recognizing features of the image of the real space;
the smart device recognizing features of the voice;
The server determines the surrounding situation of the user based on at least the location information of the smart device and the map information, and generates character images of animals and plants as virtual content according to the user's surrounding situation, or selecting an animal footstep or call sound;
the server transmitting the virtual content selected in the selecting step to the smart device;
the smart device detecting at least location information of the smart device and transmitting the location detection result to a server;
a step of causing the server to output the virtual content to the display device;
the display device outputting the virtual content;
including
The step of selecting determines the surrounding situation of the user based on the location information of the smart device, the map information, and the result of image recognition in the step of recognizing or the result of voice recognition in the step of recognizing;
The virtual content is created separately for enemies or allies,
The communication method , wherein the selecting step selects enemy or ally content from the virtual content according to the user's surroundings .
方法をコンピュータに実行させる通信プログラムであって、
ユーザの頭部に装着される表示装置としてのコンピュータに、
実空間を撮像するステップと、
音声の入力を受け付けるステップと、
スマートデバイスとの間で通信を行い、前記実空間の画像と前記音声とを前記スマートデバイスに送信するステップと、
を実行させ、
サーバとしてのコンピュータに、
少なくともユーザが携帯するスマートデバイスの位置情報と、地図情報とを基に、前記ユーザの周辺状況を判定し、前記ユーザの周辺状況に応じた仮想的なコンテンツとして、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声を選択するステップと、
前記選択するステップにおいて選択された仮想的なコンテンツを前記スマートデバイスに送信するステップと、
を実行させ、
前記スマートデバイスとしてのコンピュータに、
前記実空間の画像の特徴を認識するステップと、
前記音声の特徴を認識するステップと、
少なくとも該スマートデバイスの位置情報を検出し、位置検出結果をサーバに送信するステップと、
前記仮想的なコンテンツを、ユーザが使用する表示装置に出力させるステップと、
を実行させ、
前記表示装置としてのコンピュータに、
前記仮想的なコンテンツを出力するステップ
を実行させ
前記選択するステップは、前記スマートデバイスの位置情報と前記地図情報と、前記認識するステップにおける画像認識結果または前記認識するステップにおける音声認識結果を基に、前記ユーザの周辺状況を判定し、
前記仮想的なコンテンツは、敵または味方に分けて作成され、
前記選択するステップは、前記ユーザの周辺状況に応じて、前記仮想的なコンテンツのうち、敵または味方のコンテンツを選択することを特徴とする通信プログラム。
A communication program that causes a computer to perform the method, comprising:
A computer as a display device worn on the user's head ,
imaging a real space;
accepting voice input;
communicating with a smart device to transmit the real space image and the audio to the smart device;
and
computer as a server,
Based on at least the location information of the smart device carried by the user and the map information, the surrounding situation of the user is determined, and the virtual contents according to the user's surrounding situation are character images of animals and plants, or animals. selecting a sound of footsteps or cries of
transmitting the virtual content selected in the selecting step to the smart device;
and
a computer as the smart device;
recognizing features of the real space image;
recognizing features of said speech;
detecting location information of at least the smart device and transmitting the location detection result to a server;
a step of outputting the virtual content to a display device used by a user;
and
a computer as the display device,
executing the step of outputting the virtual content ;
The step of selecting determines the surrounding situation of the user based on the location information of the smart device, the map information, and the result of image recognition in the step of recognizing or the result of voice recognition in the step of recognizing;
The virtual content is created separately for enemies or allies,
A communication program according to claim 1, wherein said step of selecting selects enemy or ally content from said virtual content according to the user's surroundings .
JP2021092820A 2021-06-02 2021-06-02 Communication system, communication method and communication program Active JP7216940B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021092820A JP7216940B2 (en) 2021-06-02 2021-06-02 Communication system, communication method and communication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021092820A JP7216940B2 (en) 2021-06-02 2021-06-02 Communication system, communication method and communication program

Publications (2)

Publication Number Publication Date
JP2022185267A JP2022185267A (en) 2022-12-14
JP7216940B2 true JP7216940B2 (en) 2023-02-02

Family

ID=84438829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021092820A Active JP7216940B2 (en) 2021-06-02 2021-06-02 Communication system, communication method and communication program

Country Status (1)

Country Link
JP (1) JP7216940B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011061305A (en) 2009-09-07 2011-03-24 Oki Electric Industry Co Ltd Guide display system and guide display method
JP2015228050A (en) 2014-05-30 2015-12-17 ソニー株式会社 Information processing device and information processing method
JP2017045476A (en) 2011-05-06 2017-03-02 マジック リープ, インコーポレイテッド Massive simultaneous remote digital presence world
WO2017142009A1 (en) 2016-02-18 2017-08-24 国立大学法人名古屋大学 Virtual space display system
JP2018029968A (en) 2013-06-07 2018-03-01 株式会社ソニー・インタラクティブエンタテインメント Transitioning gameplay on head-mounted display
WO2019225192A1 (en) 2018-05-24 2019-11-28 ソニー株式会社 Information processing device and information processing method
JP2020514900A (en) 2017-03-06 2020-05-21 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Mixed reality viewer system and method
JP2021034977A (en) 2019-08-28 2021-03-01 大日本印刷株式会社 Server, reproduction device, content reproduction system, content reproduction method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011061305A (en) 2009-09-07 2011-03-24 Oki Electric Industry Co Ltd Guide display system and guide display method
JP2017045476A (en) 2011-05-06 2017-03-02 マジック リープ, インコーポレイテッド Massive simultaneous remote digital presence world
JP2018029968A (en) 2013-06-07 2018-03-01 株式会社ソニー・インタラクティブエンタテインメント Transitioning gameplay on head-mounted display
JP2015228050A (en) 2014-05-30 2015-12-17 ソニー株式会社 Information processing device and information processing method
WO2017142009A1 (en) 2016-02-18 2017-08-24 国立大学法人名古屋大学 Virtual space display system
JP2020514900A (en) 2017-03-06 2020-05-21 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Mixed reality viewer system and method
WO2019225192A1 (en) 2018-05-24 2019-11-28 ソニー株式会社 Information processing device and information processing method
JP2021034977A (en) 2019-08-28 2021-03-01 大日本印刷株式会社 Server, reproduction device, content reproduction system, content reproduction method, and program

Also Published As

Publication number Publication date
JP2022185267A (en) 2022-12-14

Similar Documents

Publication Publication Date Title
US11080310B2 (en) Information processing device, system, information processing method, and program
US9623332B2 (en) Method and device for augmented reality message hiding and revealing
US8956227B2 (en) Storage medium recording image processing program, image processing device, image processing system and image processing method
CN105188516B (en) For strengthening the System and method for virtual reality
US20210375052A1 (en) Information processor, information processing method, and program
US11328489B2 (en) Augmented reality user interface including dual representation of physical location
CN112446935A (en) Local sensor augmentation of stored content and AR communication
JP7397364B2 (en) Game programs, game devices, and game systems
CN111338534A (en) Virtual object game method, device, equipment and medium
US20220351472A1 (en) Remote camera augmented reality system
JP7216940B2 (en) Communication system, communication method and communication program
JP7219862B2 (en) Communication system, communication method and communication program
JP7187092B1 (en) Hashtag system, hashtag attachment method, hashtag attachment program
JP7219860B2 (en) Communication system, communication method and communication program
KR101651968B1 (en) Method and application for information service about climbing
CN111640199B (en) AR special effect data generation method and device
WO2022174554A1 (en) Image display method and apparatus, device, storage medium, program and program product
JP7219859B2 (en) Communication system, communication method and communication program
JP7219861B2 (en) Communication system, communication method and communication program
JP6836676B2 (en) Game equipment and game programs
JP7160707B2 (en) Method for providing images containing virtual characters
US10668379B2 (en) Computer-readable recording medium, computer apparatus, image display method
JP7227672B1 (en) Hashtag system, hashtag attachment method, hashtag attachment program
US20240075380A1 (en) Using Location-Based Game to Generate Language Information
WO2021075161A1 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

TRDD Decision of grant or rejection written
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20221216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230106

R150 Certificate of patent or registration of utility model

Ref document number: 7216940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150