JP7216940B2 - Communication system, communication method and communication program - Google Patents
Communication system, communication method and communication program Download PDFInfo
- Publication number
- JP7216940B2 JP7216940B2 JP2021092820A JP2021092820A JP7216940B2 JP 7216940 B2 JP7216940 B2 JP 7216940B2 JP 2021092820 A JP2021092820 A JP 2021092820A JP 2021092820 A JP2021092820 A JP 2021092820A JP 7216940 B2 JP7216940 B2 JP 7216940B2
- Authority
- JP
- Japan
- Prior art keywords
- smart device
- user
- unit
- image
- virtual content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、通信システム、通信方法及び通信プログラムに関する。 The present invention relates to a communication system, communication method and communication program.
近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)をユーザに体感させるHMD(Head Mounted Display)などが提案されている。このうち、AR技術を用いたHMDとして、一般的な眼鏡と同様に、ユーザの頭部に装着して使用されるARグラスが提案されている。 In recent years, HMDs (Head Mounted Displays) and the like have been proposed that allow users to experience virtual reality (VR) and augmented reality (AR). Among these, as an HMD using AR technology, AR glasses, which are worn on the user's head and used in the same manner as general eyeglasses, have been proposed.
ARグラスは、ユーザの前方の実空間を撮像し、撮像した実空間の画像を、ARグラスのレンズ部分に相当するディスプレイに表示させる。また、ARグラスは、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。これにより、ARグラスを装着したユーザは、実空間の中に仮想的なコンテンツが重畳されたAR空間を体感することができる。 The AR glasses capture an image of the real space in front of the user, and display the captured image of the real space on a display corresponding to the lens portion of the AR glasses. In addition, AR glasses display virtual content generated by CG on a display by superimposing it on a captured image of the real space. As a result, a user wearing AR glasses can experience an AR space in which virtual content is superimposed on a real space.
ARグラスのディスプレイにRPG(Role-Playing Game)コンテンツを表示させることで、RPGをユーザに体験させるシステムが提案されている。このシステムに対し、リアリティのあるAR体験のユーザへの提供が要望されていた。 A system has been proposed that allows a user to experience an RPG (Role-Playing Game) by displaying RPG (Role-Playing Game) content on an AR glass display. There has been a demand for this system to provide users with a realistic AR experience.
本発明は、上記に鑑みてなされたものであって、リアリティのある仮想空間上の体験をユーザに提供することを可能とする通信システム、通信方法及び通信プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a communication system, a communication method, and a communication program capable of providing a user with a realistic virtual space experience.
上述した課題を解決し、目的を達成するために、本発明の通信システムは、ユーザが使用する表示装置と、ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有する通信システムであって、サーバは、少なくともスマートデバイスの位置情報と、地図情報とを基に、ユーザの周辺状況を判定し、ユーザの周辺状況に応じた仮想的なコンテンツとして、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声を選択する選択部と、選択部が選択した仮想的なコンテンツをスマートデバイスに送信する送信部と、を有し、スマートデバイスは、少なくとも該スマートデバイスの位置情報を検出し、位置検出結果をサーバに送信する位置検出部と、仮想的なコンテンツを、表示装置に出力させる制御部と、を有することを特徴とする。 In order to solve the above-described problems and achieve the object, the communication system of the present invention is a communication system that includes a display device used by a user, a smart device carried by the user, and a server that communicates with the smart device. The server determines the user's surroundings based on at least the location information of the smart device and the map information, and creates virtual content corresponding to the user's surroundings such as animal and plant character images or animal and a transmission unit configured to transmit virtual content selected by the selection unit to a smart device, and the smart device detects at least location information of the smart device. and a control unit for outputting virtual content to a display device.
本発明によれば、リアリティのある仮想空間上の体験をユーザに提供することを可能とする。 According to the present invention, it is possible to provide a user with a realistic virtual space experience.
以下に、本願に係る通信システム、通信方法及び通信プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る通信システム、通信方法及び通信プログラムが限定されるものではない。 Hereinafter, embodiments of a communication system, a communication method, and a communication program according to the present application will be described in detail with reference to the drawings. Note that the communication system, communication method, and communication program according to the present application are not limited by this embodiment.
以下の実施の形態では、実施の形態に係る通信システム、通信方法及び通信プログラムの処理の流れを順に説明し、最後に実施の形態による効果を説明する。 In the following embodiments, a communication system, a communication method, and a processing flow of a communication program according to the embodiments will be described in order, and finally effects of the embodiments will be described.
[実施の形態]
まず、実施の形態について説明する。実施の形態では、所定の地域、具体的には、観光地(例えば、島)を観光するユーザに、ユーザが使用する表示装置として、例えば、仮想的なRPGコンテンツを表示可能であるARグラスを装着させ、観光地を観光しながら、RPGも体験可能とするシステムについて説明する。
[Embodiment]
First, an embodiment will be described. In the embodiment, AR glasses capable of displaying virtual RPG content, for example, are used as the display device used by the user who is sightseeing in a predetermined area, specifically, a sightseeing spot (for example, an island). We will explain a system that allows you to experience RPG while wearing it and sightseeing in tourist spots.
図1は、ARグラスのディスプレイに表示される画像の一例を示す図である。図1に例示するように、実際の島の画像(例えば、森の画像)に、モンスターのコンテンツC1やコインのコンテンツC2を重畳してARグラスに表示させ、ユーザが、モンスターを倒す、コインを集める、ミッションに取り組むなどのゲーム体験を可能としている。また、ARグラスを装着したユーザ間で通信が可能である。 FIG. 1 is a diagram showing an example of an image displayed on a display of AR glasses. As illustrated in FIG. 1, a monster content C1 and a coin content C2 are superimposed on an image of an actual island (for example, an image of a forest) and displayed on the AR glass, and the user defeats the monster and collects the coin. It enables game experiences such as collecting and working on missions. In addition, communication is possible between users wearing AR glasses.
実施の形態では、小さな島全体を活用して、ユーザ自身が体を動かし、さらに、仲間とコミュニケーションを取りながら、その土地ならではのRPG体験を可能とする。さらに、実施の形態では、ARグラスを装着したユーザ自身が実際に観光するユーザの周辺状況に応じた仮想的なコンテンツをARグラスに出力することで、リアリティのあるAR体験を提供する。仮想的なコンテンツは、例えばCG等で作成された動植物のキャラクター画像、または、動物の鳴き声や足音等の音声である。なお、キャラクター画像は、ゲームキャラクター風の画像に限らず、写真等から作成した画像でもよく、動画も含まれる。 In the embodiment, the entire small island is used to allow the user to move his or her body and communicate with friends, thereby enabling an RPG experience unique to the area. Furthermore, in the embodiment, a realistic AR experience is provided by outputting virtual content to the AR glasses according to the surrounding conditions of the user who is actually sightseeing by the user wearing the AR glasses. The virtual contents are, for example, animal and plant character images created by CG or the like, or sounds such as animal cries and footsteps. Note that the character image is not limited to a game character-like image, and may be an image created from a photograph or the like, and includes moving images.
[通信システムの構成]
実施の形態に係る通信システムの構成を説明する。図2は、実施の形態に係る通信システムの構成を説明する図である。図3は、実施の形態に係る通信システムの構成の一例を示すブロック図である。
[Configuration of communication system]
A configuration of a communication system according to an embodiment will be described. FIG. 2 is a diagram illustrating the configuration of the communication system according to the embodiment. FIG. 3 is a block diagram showing an example of the configuration of the communication system according to the embodiment.
図2及び図3に示すように、実施の形態に係る通信システム1は、ARグラス10(表示装置)、ユーザが手に持つモーションコントローラー20、ユーザが携帯するスマートデバイス30、及び、データセンタ等に配置されるサーバ40を有する。
As shown in FIGS. 2 and 3, the
ARグラス10は、一般的な眼鏡と同様にユーザの頭部に装着される。ARグラス10は、撮像機能、音声入力機能、通信機能、表示機能、音声出力機能を有する。ARグラス10は、実空間を撮像し、撮像した実空間の画像を、ARグラス10のレンズ部分に相当するディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、ユーザの周辺状況に応じた仮想的なコンテンツを出力する。
The
モーションコントローラー20は、ユーザが手に持つコントローラである。モーションコントローラー20は、例えば、加速度センサと、加速度センサの検出結果をスマートデバイス30送信する通信機能とを有する。
The
スマートデバイス30は、ユーザが携帯するデバイスであり、例えば、タブレット、スマートフォン等のスマートデバイスであり、位置検出機能、画像認識機能、音声認識機能を有する。スマートデバイス30は、ARグラス10の制御を行う。スマートデバイス30は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザの手の動きを取得する。スマートデバイス30は、ネットワークNを介して、サーバ40に接続し、ユーザの位置検出結果、画像認識結果、音声認識結果をサーバ40に送信する。スマートデバイス30は、ネットワークNを介して、サーバ40から、ARグラス10が出力する仮想的なコンテンツの提供を受ける。スマートデバイス30は、ARグラス10に対する、サーバ40から提供された仮想的なコンテンツの出力を制御する。
The
サーバ40は、地図情報及びAR空間上の仮想的なコンテンツを保持するとともに、スマートデバイス30から送信されたユーザの位置検出結果、画像認識結果、音声認識結果を基に、ユーザの周辺状況を判定する。そして、サーバ40は、ユーザの周辺状況に応じて仮想的なコンテンツを選択し、スマートデバイス30に送信する。
The
[ARグラス]
次に、ARグラス10について説明する。図4は、図3に示すARグラス10の構成の一例を示すブロック図である。
[AR glass]
Next, the
図4に示すように、ARグラス10は、撮像部11、音声入力部12(録音部)、通信部13、表示部14及び音声出力部15を有する。
As shown in FIG. 4 , the
撮像部11は、実空間を撮像する。例えば、撮像部11は、撮像部11の撮像方向がARグラス10の前方である場合には、ARグラス10の前方の実空間を撮像する。撮像部11は、CCDやCMOS等の光電変換素子と、撮像素子から出力される光電変換信号を処理して実空間の画像を生成する。撮像部11は、例えば、R(赤)、G(緑)、B(青)の3色の2次元画像を取得する。
The imaging unit 11 images the real space. For example, when the imaging direction of the imaging unit 11 is in front of the
音声入力部12は、音声の入力を受け付け、入力された音声を録音するデバイスによって構成される。 The voice input unit 12 is configured by a device that receives input of voice and records the input voice.
通信部13は、スマートデバイス30との無線通信を行う。通信部13は、撮像部11が撮像した画像及び音声入力部12が録音した音声を、スマートデバイス30に送信する。通信部13は、スマートデバイス30から送信された仮想的なコンテンツを受信する。仮想的なコンテンツは、動植物のキャラクター画像、動物の鳴き声や足音等の音声である。
The communication unit 13 performs wireless communication with the
表示部14は、ディスプレイによって構成される。表示部14は、撮像部11が撮像した実空間の画像を表示する。表示部14は、通信部13が受信した仮想的なコンテンツのうち、動植物のキャラクター画像を、実空間の画像に重畳して表示する。なお、表示部14は、透過表示可能なディスプレイであって、仮想的なコンテンツのうち、動植物のキャラクター画像を表示してもよい。 The display unit 14 is configured by a display. The display unit 14 displays the image of the real space captured by the imaging unit 11 . The display unit 14 displays the animal and plant character images included in the virtual content received by the communication unit 13 so as to be superimposed on the real space image. Note that the display unit 14 may be a display capable of transmissive display, and may display character images of animals and plants among the virtual contents.
音声出力部15は、音声を出力する。音声出力部15は、通信部が受信した仮想的なコンテンツのうち、動物の鳴き声や足音等の音声を出力する。 The audio output unit 15 outputs audio. The audio output unit 15 outputs sounds such as animal barks and footsteps from the virtual content received by the communication unit.
[スマートデバイス]
次に、スマートデバイス30について説明する。図5は、図3に示すスマートデバイス30の構成の一例を示すブロック図である。図5に示すように、スマートデバイス30は、通信部31、記憶部32及び制御部33を有する。
[Smart device]
Next, the
通信部31は、無線または有線にて他の装置との間で通信を行う。通信部31は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部31は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部33(後述)との間の通信を行う。例えば、通信部31は、ARグラス10から画像、音声を受信し、ARグラス10に仮想的なコンテンツを送信する。通信部31は、サーバ40に、位置検出結果、画像認識結果、音声認識結果を送信し、サーバ40から仮想的なコンテンツを受信する。
The
記憶部32は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部32は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部32は、スマートデバイス30で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部32は、プログラムの実行で用いられる各種情報を記憶する。記憶部32は、ARグラス10から送信された画像データ321及び音声データ322と、サーバ40から送信された仮想的なコンテンツを含むコンテンツ情報323を記憶する。
The storage unit 32 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like. Note that the storage unit 32 may be a rewritable semiconductor memory such as a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 32 stores an OS (Operating System) and various programs executed by the
制御部33は、スマートデバイス30全体を制御する。制御部33は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部33は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部33は、各種のプログラムが動作することにより各種の処理部として機能する。制御部33は、位置検出部331、画像認識部332、音声認識部333、動き検出部334、ARグラス制御部335(制御部)を有する。
The control unit 33 controls the
位置検出部331は、スマートデバイス30の位置を検出する。位置検出部331は、例えば、GPS(Global Positioning System)等によりスマートデバイス30の位置情報が取得可能である。位置検出部331は、定期的に、スマートデバイス30の位置を取得して、緯度及び経度で表した位置情報を、通信部31を介して、サーバ40に送信する。
The
画像認識部332は、ARグラス10が撮像した画像を処理し、画像に映るオブジェクトなどの画像の特徴を認識する。画像認識部332は、ARグラス10が撮像した画像の中に映る、動物、植物、風景、建物を認識する。画像認識部332は、例えば、機械学習によって、所定の地域、具体的には、ユーザが観光中の観光地に特有の動物、植物、風景、建物等の画像の特徴を学習済みである画像認識モデルを用いて、ARグラス10が撮像した画像の特徴を認識する。画像認識部332は、前後の画像を比べて、画像に所定以上の変化があった場合に、動物、植物、風景、建物を認識する処理を行ってもよい。画像認識部332は、画像認識処理結果を、通信部31を介してサーバ40に送信する。
The
音声認識部333は、ARグラス10が取得した音声を処理し、音声の特徴を認識する。音声認識部333は、ARグラス10が取得した音声が、いずれの動物の鳴き声または足音であるかを認識する。音声認識部333は、ARグラス10が取得した音声が川の音であるかを認識する。音声認識部333は、例えば、機械学習によって、所定の地域、具体的には、ユーザが観光中の観光地に特有の動物の鳴き声や足音、川の音等の音声の特徴を学習済みである音声認識モデルを用いて、ARグラス10が取得した音声の特徴を認識する。音声認識部333は、音声認識処理結果を、通信部31を介してサーバ40に送信する。なお、音声認識部333は、スマートデバイス30の音声入力部(不図示)が取得した音声を処理してもよい。
The
なお、画像認識機能及び音声認識機能は、サーバ40が有してもよい。その際には、スマートデバイス30は、ARグラス10が撮像した画像やARグラス10が取得した音声をサーバ40に送信する。
Note that the
動き検出部334は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザの手の動きを取得する。
The
ARグラス制御部335は、ARグラス10の処理を制御する。例えば、ARグラス制御部335は、ARグラス10におけるレンズ部のディスプレイへの画像表示処理やARグラス10による音声出力処理を制御する。ARグラス制御部335は、コンテンツ取得部336と、コンテンツ合成部337とを有する。
The AR glasses control unit 335 controls the processing of the
コンテンツ取得部336は、サーバ40から送信された、仮想的なコンテンツを取得する。この仮想的なコンテンツは、実空間の画像に重畳してのキャラクター画像や、動物の鳴き声や足音等の音声である。ARグラス制御部335は、コンテンツ取得部336が取得したコンテンツが、動物の鳴き声や足音等の音声である場合、ARグラス10の音声出力部15から、音声を出力させる。
The content acquisition unit 336 acquires virtual content transmitted from the
コンテンツ合成部337は、コンテンツ取得部336が取得したコンテンツが、実空間の画像に重畳してのキャラクター画像である場合、キャラクター画像と実空間の画像との合成処理を行う。コンテンツ合成部337による合成処理後、ARグラス制御部335は、ARグラス10の表示部14に、実空間の画像にキャラクター画像を重畳させた画像を表示させる。キャラクター画像の重畳位置は、例えば、予め設定されている。或いは、キャラクター画像の重畳位置は、サーバ40による指示によって設定される。
When the content acquired by the content acquisition unit 336 is a character image superimposed on a real space image, the
[サーバ]
次に、サーバ40について説明する。図6は、図3に示すサーバ40の構成の一例を示すブロック図である。図6に示すように、サーバ40は、通信部41、記憶部42及び制御部43を有する。
[server]
Next, the
通信部41は、無線または有線にて他の装置との間で通信を行う。通信部41は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部41は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部43後述)との間の通信を行う。例えば、通信部41は、スマートデバイス30から位置情報、画像認識結果、音声認識結果を受信し、スマートデバイス30に仮想的なコンテンツを送信する。
The
記憶部42は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部42は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部42は、サーバ40で実行されるOS(Operating System)や各種プログラムを記憶する。
The storage unit 42 is a storage device such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like. Note that the storage unit 42 may be a rewritable semiconductor memory such as a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 42 stores an OS (Operating System) and various programs executed by the
さらに、記憶部42は、プログラムの実行で用いられる各種情報を記憶する。記憶部42は、ユーザが観光する島等の観光地の森、川、山、平野、名所等を含む地図情報421と、各種仮想的なコンテンツを含むコンテンツ情報422を記憶する。地図情報421は、隠れスポットが記載されたものでもよいし、ぬかるみやすい場所が記載されたものでもよい。各種仮想的なコンテンツは、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声であり、所定の地域、例えば、観光地や、観光地の森、川、山、平野、名所等の各所定箇所に対応づけて予め作成された、観光地の各所定箇所に特有のコンテンツである。また、各種コンテンツは、敵または味方に分けて、それぞれ作成されたものでもよい。コンテンツ情報422は、例えば、キャラクター画像の表示位置や大きさ等の設定情報である各種コンテンツの設定条件を含む。
Further, the storage unit 42 stores various information used in executing the program. The storage unit 42 stores map
制御部43は、サーバ40全体を制御する。制御部43は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部43は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部43は、各種のプログラムが動作することにより各種の処理部として機能する。制御部43は、位置情報取得部431、スマートデバイス30から送信された画像認識結果を取得する画像認識結果取得部432、スマートデバイス30から送信された音声認識結果を取得する音声認識結果取得部433、条件設定部434、コンテンツ選択部435(選択部)及びコンテンツ送信制御部436(送信部)を有する。
The control unit 43 controls the
位置情報取得部431は、スマートデバイス30から受信した位置情報と、地図情報421とを基に、ユーザの位置を検出する。そして、位置情報取得部431は、ユーザの位置を基に、ユーザが観光地の森、川、山、平野、名所等にいるかを検出する。位置情報取得部431は、地図情報421に含まれる等高線を基に、山や平野の位置を判別してもよい。
The location information acquisition unit 431 detects the location of the user based on the location information received from the
条件設定部434は、所定の地域(例えば、島等の観光地)毎に、ユーザの周辺状況に応じて登場させる動物に関するコンテンツの選択や、敵味方の判定のための条件を設定する。例えば、条件設定部434は、予め、島等の観光地ごとに作成されたコンテンツの選択ルール及び敵味方の判定ルールのなかから、ユーザが実際に観光している地域に応じたルールを抽出し、設定する。このように、条件設定部434は、ユーザが実際に観光している観光地に応じたコンテンツの選択ルール及び敵味方の判定ルールを抽出し、その観光地らしさが出るコンテンツを選択できるようにする。 The condition setting unit 434 sets conditions for selection of contents related to animals to appear according to the user's surroundings and conditions for determining friend or foe for each predetermined area (for example, a tourist spot such as an island). For example, the condition setting unit 434 extracts a rule according to the area where the user is actually sightseeing from among the content selection rules and friend/enemy judgment rules created in advance for each sightseeing spot such as an island. , set. In this way, the condition setting unit 434 extracts content selection rules and friend/enemy determination rules according to the tourist destination that the user is actually visiting, and enables selection of content that is representative of the tourist destination. .
コンテンツ選択部435は、位置情報取得部431によるユーザの位置情報と、スマートデバイス30による画像認識結果またはスマートデバイス30による音声認識結果とを基に、ユーザの周辺状況を判定する。そして、コンテンツ選択部435は、ユーザの周辺状況に応じたAR空間上の仮想的なコンテンツを選択する。コンテンツ選択部435は、ユーザの周辺状況が所定の地域の所定箇所のいずれかの場所に該当することを判定した場合、該当する所定箇所に特有の動植物のキャラクター画像または所定箇所特有の動物の鳴き声或いは足音の音声を、仮想的なコンテンツとして選択する。
The content selection unit 435 determines the surrounding situation of the user based on the user's location information from the location information acquisition unit 431 and the image recognition result from the
この際、コンテンツ選択部435は、条件設定部434によって設定されたコンテンツの選択ルール及び敵味方の判定ルールを用いる。コンテンツ選択部435は、条件設定部434によって設定されたコンテンツの選択ルール及び敵味方の判定ルールを用いることによって、例えば、ユーザが島を観光している場合には、この島特有の動植物のキャラクター画像をコンテンツとして選択する。また、コンテンツ選択部435は、ユーザが森の中を歩いていることを判定した場合には、その森に生息する特有の動物の鳴き声、足音或いはキャラクター画像をコンテンツとして選択する。また、コンテンツ選択部435は、位置検出結果によってユーザが森にいることを判定し、さらに音声認識結果で認識された鳴き声によりその森に生息する特有の鳥の存在が認識できた場合には、その鳥の鳴き声の音声をコンテンツとして選択する。また、コンテンツ選択部435は、ユーザが森にいることを判定し、さらに、画像認識結果で認識された足音によりその森に生息する特有の動物の存在が確認できた場合には、その動物のキャラクター画像をコンテンツとして選択する。 At this time, the content selection unit 435 uses the content selection rule and the enemy/friend determination rule set by the condition setting unit 434 . The content selection unit 435 uses the content selection rule and the enemy/friend determination rule set by the condition setting unit 434. For example, when the user is sightseeing on an island, the content selection unit 435 selects characters of animals and plants peculiar to the island. Select an image as content. Also, when the content selection unit 435 determines that the user is walking in the forest, it selects the sounds, footsteps, or character images of animals unique to the forest as content. In addition, if the content selection unit 435 determines that the user is in a forest based on the position detection result, and further recognizes the presence of a specific bird that inhabits the forest based on the cry recognized in the voice recognition result, The bird's song sound is selected as content. In addition, the content selection unit 435 determines that the user is in a forest, and if the footsteps recognized in the image recognition result confirm the presence of a unique animal that inhabits the forest, the content selection unit 435 determines that the animal is in the forest. Select a character image as content.
この際、コンテンツ選択部435は、ユーザの周辺状況に応じて、敵または味方のコンテンツを選択してもよい。例えば、コンテンツ選択部435は、ユーザが、その島の隠れた観光スポットまで到達した場合には、この島特有の動植物のキャラクター画像のうち、味方として、応援している状態のキャラクター画像を選択する。さらに、コンテンツ選択部435は、例えば、鳥の鳴き声を認識したら味方の鳥のキャラクター画像を選択してもよいし、他のユーザが近くにいることを検知した場合には、味方のキャラクター画像を増やしてもよい。また、コンテンツ選択部435は、地図情報421、画像認識結果及び天気情報等を基に、ユーザの周辺がぬかるんでいて状況が悪いことを判定した場合、この島特有の動物の鳴き声のうち、敵として、威嚇するような鳴き声を選択してもよい。
At this time, the content selection unit 435 may select enemy or ally content according to the user's surroundings. For example, when the user reaches a hidden sightseeing spot on the island, the content selection unit 435 selects the character image in the state of cheering as an ally among the character images of flora and fauna peculiar to the island. . Furthermore, for example, the content selection unit 435 may select a character image of a friendly bird when recognizing a bird's cry, or may select a friendly character image when detecting that another user is nearby. You can increase it. In addition, when the content selection unit 435 determines that the surroundings of the user are muddy and the situation is bad based on the
コンテンツ送信制御部436は、コンテンツ選択部435が選択したAR空間上の仮想的なコンテンツを、スマートデバイス30に送信する。コンテンツ送信制御部436は、選択されたコンテンツとともに、コンテンツの出力タイミングや、コンテンツの表示位置もスマートデバイス30に送信する。
The content
[コンテンツ出力例]
図7は、ユーザが観光する島の地図を例示する図である。図8及び図9は、ARグラス10が出力する仮想的なコンテンツを説明する図である。
[Content output example]
FIG. 7 is a diagram exemplifying a map of an island visited by the user. 8 and 9 are diagrams for explaining virtual content output by the
図7に示すように、ユーザは、森、川、山、平野、名所等がある島を観光している。図8に示すように、ARグラス10を装着したユーザUが、図7のポイントP1に位置する森の中を歩いている場合を例に説明する。
As shown in FIG. 7, the user is sightseeing an island with forests, rivers, mountains, plains, sights, and the like. As shown in FIG. 8, a case where the user U wearing the
通信システム1では、サーバ40が、ユーザUがポイントP1の森にいることを判定する。そして、その森にイノシシが存在する場合(図8の(1))、サーバ40は、仮想的なコンテンツとして、仲間となるイノシシのキャラクター画像G1をスマートデバイス30に送信する。スマートデバイス30は、そのイノシシが仲間となるように、イノシシのキャラクター画像G1をARグラス10のディスプレイに表示させる(図8の(2))。ARグラス10は、イノシシのキャラクター画像をG1、実際の森の画像に重畳させて表示させることで、イノシシを登場させる。この際、スマートデバイス30は、ARグラス10に、イノシシのキャラクター画像G1を、ユーザのそばにいるように表示させてもよいし、ユーザUと一緒に移動するように表示させてもよい。
In
また、サーバ40は、仮想的なコンテンツとして、イノシシの足音の音声をコンテンツとしてスマートデバイス30に送信してもよい。スマートデバイス30は、イノシシのキャラクター画像や足音を、森の中にいる間のみ出力させてもよいし、森から所定距離離れるまで出力させてもよい。
The
また、サーバ40は、ユーザUが位置する森に、その森にのみ生息する希少な鳥が存在する場合(図8の(3))、仮想的なコンテンツとして、その鳥の鳴き声をコンテンツとしてスマートデバイス30に送信する。スマートデバイス30は、その鳥の鳴き声を、ARグラス10から出力させる(図8の(4))。スマートデバイス30は、鳥の鳴き声を、森の中にいる間のみ出力させてもよいし、森から所定距離離れるまで出力させてもよい。
In addition, if there is a rare bird that lives only in the forest where the user U is located ((3) in FIG. 8), the
そして、通信システム1では、サーバ40が、スマートデバイス30による、川の音の音声認識結果(図9の(1))、位置検出結果及び地図情報を基に、ユーザUがポイントP2の川にいることを判定する。そして、その川に魚が存在する場合(図9の(2))、サーバ40は、仮想的なコンテンツとして、仲間となるイルカのキャラクター画像G2をコンテンツとしてスマートデバイス30に送信する。
In the
スマートデバイス30は、そのイルカが仲間となるように、ARグラス10のディスプレイにイルカのキャラクター画像G2を表示させる(図9の(3))。ARグラス10は、イルカのキャラクター画像G2を、実際の森の画像に重畳させて表示させることで、イルカを登場させる。なお、これらのキャラクターは、戦闘シーンなどでは傍にいるように表示してもよいし、一緒に移動するように画像表示してもよい。
The
このように、通信システム1では、ARグラス10を装着したユーザUの周辺状況、例えば、動物の出現、実際の地形(森、川、山等)や名所を判定する。そして、通信システム1は、ユーザUの周辺状況に応じた動物の鳴き声や足音をユーザUに聞かせたり、ユーザUの周辺状況に応じた動植物のキャラクターを登場させたりする。これによって、通信システム1は、ユーザUの周辺状況にいる動物の存在をユーザUに体感させることによって、よりリアリティのあるAR体験をユーザUに提供する。
In this way, the
なお、通信システム1は、島等の観光地ごとに、観光地特有の動植物のキャラクター画像をARグラス10に表示させてもよいし、観光地特有の動物の鳴き声、足音をユーザUに聞かせてもよい。
The
また、通信システム1は、動物の鳴き声、動物の足音の音声をユーザUに聞かせる場合、或いは、動植物のキャラクター画像をARグラス10に表示させる場合、ユーザUの周辺状況に応じて、敵または味方になる場合で音声やキャラクター画像を変化させてもよい。例えば、動物の鳴き声を出力する場合、味方である場合には心地よい鳴き声を出力し、敵の場合には威嚇するような鳴き声を出力する。また、動植物のキャラクター画像をARグラス10に表示させる場合、戦闘シーンにおいて、味方の場合には応援するような動きを表示させてもよいし、敵の場合にはユーザUに攻撃するような動きを表示させてもよい。
In addition, when the
また、通信システム1は、ユーザの周辺状況に応じて、敵または味方であるかを判定してもよい。例えば、ユーザの周辺状況が悪い場合、例えば、ぬかるんでいる場合や暗い場合には、敵を登場させる。また、ユーザの周辺状況がよい場合、例えば、見晴らしがよい場合や明るい場合には、味方を登場させる。
Further, the
[通信処理の処理手順]
図10は、実施の形態に係る通信システムにおける通信処理の処理手順を示すシーケンス図である。
[Processing procedure of communication processing]
FIG. 10 is a sequence diagram illustrating a procedure of communication processing in the communication system according to the embodiment;
図10に示すように、スマートデバイス30は、スマートデバイス30の位置を検出する度に(ステップS1)、サーバ40に位置情報を送信する(ステップS2)。
As shown in FIG. 10, each time the
そして、スマートデバイス30は、ARグラス10から画像が送信されると(ステップS3)、その画像に対する画像認識処理を実行し(ステップS4)、画像認識結果をサーバ40に送信する(ステップS5)。スマートデバイス30は、ARグラス10から音声が送信されると(ステップS6)、その音声に対する音声認識処理を実行し(ステップS7)、音声認識結果をサーバ40に送信する(ステップS8)。
Then, when the image is transmitted from the AR glasses 10 (step S3), the
サーバ40は、受信した位置検出結果と地図情報421とを基にユーザの位置を検出し、所定の地域(例えば、島等の観光地)毎に、ユーザの周辺状況に応じて登場させる動物に関するコンテンツの選択や、敵味方の判定のための条件を設定する(ステップS9)。サーバ40は、位置検出結果、画像認識結果、音声認識結果を基に、ユーザの周辺状況を判定する(ステップS10)。サーバ40は、ユーザの周辺状況に応じたAR空間上の仮想的なコンテンツを選択し(ステップS11)、スマートデバイス30に送信する(ステップS12)。
The
スマートデバイス30は、コンテンツが、動植物のキャラクター画像である場合、キャラクター画像と実空間の画像との合成処理を行う(ステップS13)。そして、スマートデバイス30は、ARグラス10に、コンテンツの出力を指示し(ステップS14)、AR空間上の仮想的なコンテンツ(例えば、動植物のキャラクター画像や音声)をARグラス10から出力させる(ステップS15)。
If the content is a character image of an animal or plant, the
[実施の形態の効果]
このように、本実施の形態では、ユーザの周辺状況に応じた動物の鳴き声や足音をユーザに聞かせたり、ユーザの周辺状況に応じた動植物のキャラクターを登場させたりすることで、ユーザの周辺状況にいる動物の存在をユーザに体感させて、よりリアリティのある仮想空間上のAR体験をユーザに提供することができる。
[Effects of Embodiment]
As described above, in the present embodiment, the user can hear the cries and footsteps of animals according to the user's surroundings, or the characters of animals and plants according to the user's surroundings can appear. By allowing the user to feel the presence of the animal in the room, it is possible to provide the user with a more realistic AR experience in the virtual space.
また、本実施の形態では、ユーザが観光する島等の観光地特有の動物に関するコンテンツを出力することで、その観光地ならではの体験をユーザに体験させることができる。これによって、本実施の形態によれば、ゲーム的な要素と観光地特有のコンテンツ出力とによって、体験型の観光を推進できる。 In addition, in the present embodiment, by outputting content related to animals unique to a sightseeing spot such as an island visited by the user, it is possible to allow the user to experience an experience unique to the tourist spot. As a result, according to the present embodiment, it is possible to promote experiential tourism through game-like elements and content output unique to tourist spots.
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPU及び当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device is realized by a CPU or GPU and a program analyzed and executed by the CPU or GPU, or as hardware by wired logic can be realized.
また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in this embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be done automatically by known methods. In addition, information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.
[プログラム]
また、上記実施形態において説明したARグラス10、スマートデバイス30及びサーバ40及びが実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態におけるARグラス10、スマートデバイス30及びサーバ40が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
[program]
It is also possible to create a program in which the processes executed by the
図11は、プログラムを実行するコンピュータを示す図である。図11に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
FIG. 11 is a diagram showing a computer executing a program. As illustrated in FIG. 11,
メモリ1010は、図11に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図11に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
The
ここで、図11に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。
Here, as illustrated in FIG. 11, the hard disk drive 1090 stores an
また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。
Various data described in the above embodiments are stored as program data in the
なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
Note that the
上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above-described embodiments and modifications thereof are included in the scope of the invention described in the claims and their equivalents, as well as in the technology disclosed in the present application.
10 ARグラス
11 撮像部
12 音声入力部
13,31,41 通信部
14 表示部
15 音声出力部
20 モーションコントローラー
30 スマートデバイス
32,42 記憶部
33,43 制御部
40 サーバ
321 画像データ
322 音声データ
323,422 コンテンツ情報
331 位置検出部
332 画像認識部
333 音声認識部
334 動き検出部
335 ARグラス制御部
336 コンテンツ取得部
337 コンテンツ合成部
421 地図情報
431 位置情報取得部
432 画像認識結果取得部
433 音声認識結果取得部
434 条件設定部
435 コンテンツ選択部
436 コンテンツ送信制御部
10 AR glasses 11 imaging unit 12
Claims (5)
前記表示装置は、
実空間の画像を撮像する撮像部と、
音声の入力を受け付ける音声入力部と、
前記スマートデバイスとの間で通信を行い、前記実空間の画像と前記音声とを前記スマートデバイスに送信する通信部と、
を有し、
当該通信システムは、
前記実空間の画像の特徴を認識する画像認識部と、
前記音声の特徴を認識する音声認識部と、
を有し、
前記サーバは、
少なくとも前記スマートデバイスの位置情報と、地図情報とを基に、前記ユーザの周辺状況を判定し、前記ユーザの周辺状況に応じた仮想的なコンテンツとして、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声を選択する選択部と、
前記選択部が選択した仮想的なコンテンツを前記スマートデバイスに送信する送信部と、
を有し、
前記スマートデバイスは、少なくとも該スマートデバイスの位置情報を検出し、位置検出結果を前記サーバに送信する位置検出部と、
前記仮想的なコンテンツを、前記表示装置に出力させる制御部と、
を有し、
前記選択部は、前記スマートデバイスの位置情報と前記地図情報と、前記画像認識部による画像認識結果または前記音声認識部による音声認識結果を基に、前記ユーザの周辺状況を判定し、
前記仮想的なコンテンツは、敵または味方に分けて作成され、
前記選択部は、前記ユーザの周辺状況に応じて、前記仮想的なコンテンツのうち、敵または味方のコンテンツを選択することを特徴とする通信システム。 A communication system comprising a display device worn on the head of a user, a smart device carried by the user, and a server communicating with the smart device,
The display device
an imaging unit that captures an image of a real space;
a voice input unit for receiving input of voice;
a communication unit that communicates with the smart device and transmits the image of the real space and the sound to the smart device;
has
The communication system shall:
an image recognition unit that recognizes features of the image in the real space;
a speech recognition unit that recognizes the features of the speech;
has
The server is
Based on at least the location information of the smart device and the map information, the surrounding situation of the user is determined, and as virtual content according to the user's surrounding situation, character images of animals and plants, animal footsteps, or a selection unit for selecting the voice of the bark;
a transmission unit configured to transmit the virtual content selected by the selection unit to the smart device;
has
the smart device includes a location detection unit that detects at least location information of the smart device and transmits location detection results to the server;
a control unit for outputting the virtual content to the display device;
has
The selection unit determines a surrounding situation of the user based on the location information of the smart device, the map information, and the result of image recognition by the image recognition unit or the result of voice recognition by the voice recognition unit,
The virtual content is created separately for enemies or allies,
The communication system , wherein the selection unit selects enemy or ally content from the virtual content according to the user's surroundings .
前記選択部は、前記ユーザの周辺状況が前記所定の地域の所定箇所のいずれかの場所に該当することを判定した場合、該当する所定箇所に特有の動植物のキャラクター画像または所定箇所特有の動物の鳴き声或いは足音の音声を、前記仮想的なコンテンツとして選択することを特徴とする請求項1に記載の通信システム。 The virtual contents are character images of animals and plants peculiar to each prescribed location in a prescribed area or sounds of animal cries or footsteps peculiar to tourist spots,
When the selection unit determines that the surrounding situation of the user corresponds to any one of the predetermined locations in the predetermined area, the selection unit selects a character image of animals and plants peculiar to the predetermined location or an animal peculiar to the predetermined location. 2. The communication system according to claim 1, wherein sounds such as cries or footsteps are selected as the virtual contents.
画像を表示する表示部と、
音声を出力する音声出力部と、
を有し、
前記制御部は、前記仮想的なコンテンツが前記動植物のキャラクター画像である場合には前記表示部に表示させ、前記仮想的なコンテンツが前記動物の足音或いは鳴き声の音声を前記音声出力部に出力させることを特徴とする請求項1または2に記載の通信システム。 The display device
a display unit for displaying an image;
an audio output unit that outputs audio;
has
When the virtual content is a character image of the animal or plant, the control unit causes the display unit to display the virtual content, and causes the audio output unit to output the sound of footsteps or cries of the animal as the virtual content. 3. The communication system according to claim 1 or 2, characterized by:
前記表示装置が、実空間の画像を撮像する工程と、
前記表示装置が、音声の入力を受け付ける工程と、
前記表示装置が、前記スマートデバイスとの間で通信を行い、前記実空間の画像と前記音声とを前記スマートデバイスに送信する工程と、
前記スマートデバイスが、前記実空間の画像の特徴を認識する工程と、
前記スマートデバイスが、前記音声の特徴を認識する工程と、
前記サーバが、少なくとも前記スマートデバイスの位置情報と、地図情報とを基に、前記ユーザの周辺状況を判定し、前記ユーザの周辺状況に応じた仮想的なコンテンツとして、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声を選択する工程と、
前記サーバが、前記選択する工程において選択された仮想的なコンテンツを前記スマートデバイスに送信する工程と、
前記スマートデバイスが、少なくとも該スマートデバイスの位置情報を検出し、位置検出結果をサーバに送信する工程と、
前記サーバが、前記仮想的なコンテンツを、前記表示装置に出力させる工程と、
前記表示装置が、前記仮想的なコンテンツを出力する工程と、
を含み、
前記選択する工程は、前記スマートデバイスの位置情報と前記地図情報と、前記認識する工程における画像認識結果または前記認識する工程における音声認識結果を基に、前記ユーザの周辺状況を判定し、
前記仮想的なコンテンツは、敵または味方に分けて作成され、
前記選択する工程は、前記ユーザの周辺状況に応じて、前記仮想的なコンテンツのうち、敵または味方のコンテンツを選択することを特徴とする通信方法。 A communication method executed by a communication system having a display device worn on the head of a user, a smart device carried by the user, and a server communicating with the smart device, comprising:
a step in which the display device captures an image of a real space;
a step in which the display device accepts a voice input;
a step of the display device communicating with the smart device and transmitting the image of the real space and the sound to the smart device;
the smart device recognizing features of the image of the real space;
the smart device recognizing features of the voice;
The server determines the surrounding situation of the user based on at least the location information of the smart device and the map information, and generates character images of animals and plants as virtual content according to the user's surrounding situation, or selecting an animal footstep or call sound;
the server transmitting the virtual content selected in the selecting step to the smart device;
the smart device detecting at least location information of the smart device and transmitting the location detection result to a server;
a step of causing the server to output the virtual content to the display device;
the display device outputting the virtual content;
including
The step of selecting determines the surrounding situation of the user based on the location information of the smart device, the map information, and the result of image recognition in the step of recognizing or the result of voice recognition in the step of recognizing;
The virtual content is created separately for enemies or allies,
The communication method , wherein the selecting step selects enemy or ally content from the virtual content according to the user's surroundings .
ユーザの頭部に装着される表示装置としてのコンピュータに、
実空間を撮像するステップと、
音声の入力を受け付けるステップと、
スマートデバイスとの間で通信を行い、前記実空間の画像と前記音声とを前記スマートデバイスに送信するステップと、
を実行させ、
サーバとしてのコンピュータに、
少なくともユーザが携帯するスマートデバイスの位置情報と、地図情報とを基に、前記ユーザの周辺状況を判定し、前記ユーザの周辺状況に応じた仮想的なコンテンツとして、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声を選択するステップと、
前記選択するステップにおいて選択された仮想的なコンテンツを前記スマートデバイスに送信するステップと、
を実行させ、
前記スマートデバイスとしてのコンピュータに、
前記実空間の画像の特徴を認識するステップと、
前記音声の特徴を認識するステップと、
少なくとも該スマートデバイスの位置情報を検出し、位置検出結果をサーバに送信するステップと、
前記仮想的なコンテンツを、ユーザが使用する表示装置に出力させるステップと、
を実行させ、
前記表示装置としてのコンピュータに、
前記仮想的なコンテンツを出力するステップ
を実行させ、
前記選択するステップは、前記スマートデバイスの位置情報と前記地図情報と、前記認識するステップにおける画像認識結果または前記認識するステップにおける音声認識結果を基に、前記ユーザの周辺状況を判定し、
前記仮想的なコンテンツは、敵または味方に分けて作成され、
前記選択するステップは、前記ユーザの周辺状況に応じて、前記仮想的なコンテンツのうち、敵または味方のコンテンツを選択することを特徴とする通信プログラム。 A communication program that causes a computer to perform the method, comprising:
A computer as a display device worn on the user's head ,
imaging a real space;
accepting voice input;
communicating with a smart device to transmit the real space image and the audio to the smart device;
and
computer as a server,
Based on at least the location information of the smart device carried by the user and the map information, the surrounding situation of the user is determined, and the virtual contents according to the user's surrounding situation are character images of animals and plants, or animals. selecting a sound of footsteps or cries of
transmitting the virtual content selected in the selecting step to the smart device;
and
a computer as the smart device;
recognizing features of the real space image;
recognizing features of said speech;
detecting location information of at least the smart device and transmitting the location detection result to a server;
a step of outputting the virtual content to a display device used by a user;
and
a computer as the display device,
executing the step of outputting the virtual content ;
The step of selecting determines the surrounding situation of the user based on the location information of the smart device, the map information, and the result of image recognition in the step of recognizing or the result of voice recognition in the step of recognizing;
The virtual content is created separately for enemies or allies,
A communication program according to claim 1, wherein said step of selecting selects enemy or ally content from said virtual content according to the user's surroundings .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021092820A JP7216940B2 (en) | 2021-06-02 | 2021-06-02 | Communication system, communication method and communication program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021092820A JP7216940B2 (en) | 2021-06-02 | 2021-06-02 | Communication system, communication method and communication program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022185267A JP2022185267A (en) | 2022-12-14 |
JP7216940B2 true JP7216940B2 (en) | 2023-02-02 |
Family
ID=84438829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021092820A Active JP7216940B2 (en) | 2021-06-02 | 2021-06-02 | Communication system, communication method and communication program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7216940B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011061305A (en) | 2009-09-07 | 2011-03-24 | Oki Electric Industry Co Ltd | Guide display system and guide display method |
JP2015228050A (en) | 2014-05-30 | 2015-12-17 | ソニー株式会社 | Information processing device and information processing method |
JP2017045476A (en) | 2011-05-06 | 2017-03-02 | マジック リープ, インコーポレイテッド | Massive simultaneous remote digital presence world |
WO2017142009A1 (en) | 2016-02-18 | 2017-08-24 | 国立大学法人名古屋大学 | Virtual space display system |
JP2018029968A (en) | 2013-06-07 | 2018-03-01 | 株式会社ソニー・インタラクティブエンタテインメント | Transitioning gameplay on head-mounted display |
WO2019225192A1 (en) | 2018-05-24 | 2019-11-28 | ソニー株式会社 | Information processing device and information processing method |
JP2020514900A (en) | 2017-03-06 | 2020-05-21 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Mixed reality viewer system and method |
JP2021034977A (en) | 2019-08-28 | 2021-03-01 | 大日本印刷株式会社 | Server, reproduction device, content reproduction system, content reproduction method, and program |
-
2021
- 2021-06-02 JP JP2021092820A patent/JP7216940B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011061305A (en) | 2009-09-07 | 2011-03-24 | Oki Electric Industry Co Ltd | Guide display system and guide display method |
JP2017045476A (en) | 2011-05-06 | 2017-03-02 | マジック リープ, インコーポレイテッド | Massive simultaneous remote digital presence world |
JP2018029968A (en) | 2013-06-07 | 2018-03-01 | 株式会社ソニー・インタラクティブエンタテインメント | Transitioning gameplay on head-mounted display |
JP2015228050A (en) | 2014-05-30 | 2015-12-17 | ソニー株式会社 | Information processing device and information processing method |
WO2017142009A1 (en) | 2016-02-18 | 2017-08-24 | 国立大学法人名古屋大学 | Virtual space display system |
JP2020514900A (en) | 2017-03-06 | 2020-05-21 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Mixed reality viewer system and method |
WO2019225192A1 (en) | 2018-05-24 | 2019-11-28 | ソニー株式会社 | Information processing device and information processing method |
JP2021034977A (en) | 2019-08-28 | 2021-03-01 | 大日本印刷株式会社 | Server, reproduction device, content reproduction system, content reproduction method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022185267A (en) | 2022-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11080310B2 (en) | Information processing device, system, information processing method, and program | |
US9623332B2 (en) | Method and device for augmented reality message hiding and revealing | |
US8956227B2 (en) | Storage medium recording image processing program, image processing device, image processing system and image processing method | |
CN105188516B (en) | For strengthening the System and method for virtual reality | |
US20210375052A1 (en) | Information processor, information processing method, and program | |
US11328489B2 (en) | Augmented reality user interface including dual representation of physical location | |
CN112446935A (en) | Local sensor augmentation of stored content and AR communication | |
JP7397364B2 (en) | Game programs, game devices, and game systems | |
CN111338534A (en) | Virtual object game method, device, equipment and medium | |
US20220351472A1 (en) | Remote camera augmented reality system | |
JP7216940B2 (en) | Communication system, communication method and communication program | |
JP7219862B2 (en) | Communication system, communication method and communication program | |
JP7187092B1 (en) | Hashtag system, hashtag attachment method, hashtag attachment program | |
JP7219860B2 (en) | Communication system, communication method and communication program | |
KR101651968B1 (en) | Method and application for information service about climbing | |
CN111640199B (en) | AR special effect data generation method and device | |
WO2022174554A1 (en) | Image display method and apparatus, device, storage medium, program and program product | |
JP7219859B2 (en) | Communication system, communication method and communication program | |
JP7219861B2 (en) | Communication system, communication method and communication program | |
JP6836676B2 (en) | Game equipment and game programs | |
JP7160707B2 (en) | Method for providing images containing virtual characters | |
US10668379B2 (en) | Computer-readable recording medium, computer apparatus, image display method | |
JP7227672B1 (en) | Hashtag system, hashtag attachment method, hashtag attachment program | |
US20240075380A1 (en) | Using Location-Based Game to Generate Language Information | |
WO2021075161A1 (en) | Information processing device, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220912 |
|
TRDD | Decision of grant or rejection written | ||
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20221216 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7216940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |