JP2022185235A - Communication system, communication method, and communication program - Google Patents

Communication system, communication method, and communication program Download PDF

Info

Publication number
JP2022185235A
JP2022185235A JP2021092766A JP2021092766A JP2022185235A JP 2022185235 A JP2022185235 A JP 2022185235A JP 2021092766 A JP2021092766 A JP 2021092766A JP 2021092766 A JP2021092766 A JP 2021092766A JP 2022185235 A JP2022185235 A JP 2022185235A
Authority
JP
Japan
Prior art keywords
unit
smart device
server
map
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021092766A
Other languages
Japanese (ja)
Other versions
JP7219860B2 (en
Inventor
俊允 中村
Toshimitsu Nakamura
仁美 村井
Hitomi Murai
忠 萬國谷
Tadashi Makuniya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2021092766A priority Critical patent/JP7219860B2/en
Publication of JP2022185235A publication Critical patent/JP2022185235A/en
Application granted granted Critical
Publication of JP7219860B2 publication Critical patent/JP7219860B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

To provide a user with an AR experience with reality.SOLUTION: A communication system 1 comprises: AR glasses 10; a smart device 30 carried by a user; and a server 40 for communication with the smart device. The server 40 identifies a peripheral situation of the user on the basis of information on the position of the smart device 30, updates an area in which an object within a virtual map is displayed on the map in accordance with the identified peripheral situation, and transmits information on the virtual map including information on the inside of the area to the smart device 30. The smart device 30 causes the AR glasses 10 to output the virtual map by using the information on the virtual map transmitted from the server 40.SELECTED DRAWING: Figure 3

Description

本発明は、通信システム、通信方法及び通信プログラムに関する。 The present invention relates to a communication system, communication method and communication program.

近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)をユーザに体感させるHMD(Head Mounted Display)などが提案されている。このうち、AR技術を用いたHMDとして、一般的な眼鏡と同様に、ユーザの頭部に装着して使用されるARグラスが提案されている。 In recent years, HMDs (Head Mounted Displays) and the like have been proposed that allow users to experience virtual reality (VR) and augmented reality (AR). Among these, as an HMD using AR technology, AR glasses, which are worn on the user's head and used in the same manner as general eyeglasses, have been proposed.

ARグラスは、ユーザの前方の実空間を撮像し、撮像した実空間の画像を、ARグラスのレンズ部分に相当するディスプレイに表示させる。また、ARグラスは、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。これにより、ARグラスを装着したユーザは、実空間の中に仮想的なコンテンツが重畳されたAR空間を体感することができる。 The AR glasses capture an image of the real space in front of the user, and display the captured image of the real space on a display corresponding to the lens portion of the AR glasses. In addition, AR glasses display virtual content generated by CG on a display by superimposing it on a captured image of the real space. As a result, a user wearing AR glasses can experience an AR space in which virtual content is superimposed on a real space.

特許第6655751号公報Japanese Patent No. 6655751

ARグラスのディスプレイにRPG(Role-Playing Game)コンテンツを表示させることで、RPGをユーザに体験させるシステムが提案されている。このシステムに対し、リアリティのあるAR体験のユーザへの提供が要望されていた。 A system has been proposed that allows a user to experience an RPG (Role-Playing Game) by displaying RPG (Role-Playing Game) content on an AR glass display. There has been a demand for this system to provide users with a realistic AR experience.

本発明は、上記に鑑みてなされたものであって、リアリティのあるAR体験のユーザへの提供を可能とする通信システム、通信方法及び通信プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a communication system, a communication method, and a communication program capable of providing users with a realistic AR experience.

上述した課題を解決し、目的を達成するために、本発明の通信システムは、表示装置と、ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有する通信システムであって、前記サーバは、前記スマートデバイスの位置情報を取得する取得部と、前記取得部によって取得された位置情報を基に、前記ユーザの周辺状況を特定する特定部と、前記特定部によって特定された周辺状況に応じて、仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新する更新部と、前記更新部によって前記領域が更新された場合に、該領域内の情報を含む仮想的な地図の情報を前記スマートデバイスに送信する送信部と、を有し、前記スマートデバイスは、自装置の位置情報を検出し、該位置情報を前記サーバに送信する位置検出部と、前記サーバから送信された仮想的な地図の情報を用いて、仮想的な地図を前記表示装置に出力させる制御部と、を有することを特徴とする。 In order to solve the above-described problems and achieve the object, a communication system according to the present invention includes a display device, a smart device carried by a user, and a server that communicates with the smart device. The server includes an acquisition unit that acquires the location information of the smart device, an identification unit that identifies the surrounding situation of the user based on the location information acquired by the acquisition unit, and the surrounding situation identified by the identification unit. an updating unit for updating an area in which an object in a virtual map is displayed on the map according to a transmission unit for transmitting map information to the smart device, the smart device detecting location information of the smart device and transmitting the location information to the server; and a location detection unit for transmitting the location information from the server. and a control unit for outputting a virtual map to the display device using the obtained virtual map information.

本発明によれば、リアリティのあるAR体験のユーザへの提供を可能とする。 According to the present invention, it is possible to provide users with a realistic AR experience.

図1は、ARグラスのディスプレイに表示される画像の一例を示す図である。FIG. 1 is a diagram showing an example of an image displayed on a display of AR glasses. 図2は、実施の形態に係る通信システムの構成を説明する図である。FIG. 2 is a diagram illustrating the configuration of the communication system according to the embodiment. 図3は、実施の形態に係る通信システムの構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of the communication system according to the embodiment. 図4は、図3に示すARグラスの構成の一例を示すブロック図である。4 is a block diagram showing an example of the configuration of the AR glasses shown in FIG. 3. FIG. 図5は、図3に示すスマートデバイスの構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the configuration of the smart device shown in FIG. 3. As shown in FIG. 図6は、図3に示すサーバの構成の一例を示すブロック図である。FIG. 6 is a block diagram showing an example of the configuration of the server shown in FIG. 3; 図7は、マップの更新範囲について説明する図である。FIG. 7 is a diagram for explaining the map update range. 図8は、更新範囲が広い場所におけるマップの更新例を説明する図である。FIG. 8 is a diagram illustrating an example of updating a map in a location with a wide update range. 図9は、更新範囲が狭い場所におけるマップの更新例を説明する図である。FIG. 9 is a diagram for explaining an example of map update in a place where the update range is narrow. 図10は、実施の形態に係る通信システムにおける通信処理の処理手順を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating a procedure of communication processing in the communication system according to the embodiment; 図11は、プログラムを実行するコンピュータを示す図である。FIG. 11 is a diagram showing a computer executing a program.

以下に、本願に係る通信システム、通信方法及び通信プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る通信システム、通信方法及び通信プログラムが限定されるものではない。 Hereinafter, embodiments of a communication system, a communication method, and a communication program according to the present application will be described in detail with reference to the drawings. Note that the communication system, communication method, and communication program according to the present application are not limited by this embodiment.

以下の実施の形態では、実施の形態に係る通信システム、通信方法及び通信プログラムの処理の流れを順に説明し、最後に実施の形態による効果を説明する。 In the following embodiments, a communication system, a communication method, and a processing flow of a communication program according to the embodiments will be described in order, and finally effects of the embodiments will be described.

[実施の形態]
まず、実施の形態について説明する。実施の形態では、所定の地域、具体的には、観光地(例えば、島)を観光するユーザに、仮想的なRPGコンテンツを表示可能であるARグラスを装着させ、観光地を観光しながら、RPGも体験可能とするシステムについて説明する。
[Embodiment]
First, an embodiment will be described. In the embodiment, a user who is sightseeing in a predetermined area, specifically, a sightseeing spot (for example, an island) wears AR glasses capable of displaying virtual RPG content, and while sightseeing in the tourist spot, A system that allows RPGs to be experienced will be explained.

図1は、ARグラスのディスプレイに表示される画像の一例を示す図である。図1に例示するように、実際の島の画像(例えば、森の画像)に、モンスターのコンテンツC1やコインのコンテンツC2を重畳してARグラスに表示させ、ユーザが、モンスターを倒す、コインを集める、ミッションに取り組むなどのゲーム体験を可能としている。また、ARグラスを装着したユーザ間で通信が可能である。 FIG. 1 is a diagram showing an example of an image displayed on a display of AR glasses. As illustrated in FIG. 1, a monster content C1 and a coin content C2 are superimposed on an image of an actual island (for example, an image of a forest) and displayed on the AR glass, and the user defeats the monster and collects the coin. It enables game experiences such as collecting and working on missions. In addition, communication is possible between users wearing AR glasses.

実施の形態では、小さな島全体を活用して、ARグラスに表示される仮想的な地図を見ながら、ユーザ自身が体を動かし、さらに、仲間とコミュニケーションを取りながら、その土地ならではのRPG体験を可能とする。ARグラスに表示される仮想的な地図は、ユーザが訪れた範囲に応じて、地図内のオブジェクトが当該地図上に表示される領域が広がっていく。さらに、実施の形態では、ARグラスを装着したユーザ自身が実際に観光するユーザの周辺状況に応じた仮想的なコンテンツをARグラスに出力することで、リアリティのあるAR体験を提供する。仮想的なコンテンツは、例えばCG等で作成された動植物のキャラクター画像、動物の鳴き声や足音等の音声、または、地図である。なお、キャラクター画像は、ゲームキャラクター風の画像に限らず、写真等から作成した画像でもよく、動画も含まれる。 In the embodiment, the entire small island is utilized, and while viewing a virtual map displayed on AR glasses, the user moves his or her own body, and furthermore, while communicating with friends, an RPG experience that is unique to that area can be enjoyed. make it possible. In the virtual map displayed on the AR glasses, the area where the objects in the map are displayed expands according to the range visited by the user. Furthermore, in the embodiment, a realistic AR experience is provided by outputting virtual content to the AR glasses according to the surrounding conditions of the user who is actually sightseeing by the user wearing the AR glasses. The virtual contents are, for example, animal and plant character images created by CG or the like, sounds such as animal cries and footsteps, or maps. Note that the character image is not limited to a game character-like image, and may be an image created from a photograph or the like, and includes moving images.

また、ARグラスには、島等の観光地のマップとして、仮想的な地図Mが表示され、ユーザが移動すると、地図M内におけるオブジェクトが当該地図上に表示される領域が更新される。つまり、例えば、ユーザが新たなエリアに移動するたびに、地図Mが更新され、ユーザが訪れた範囲に応じて、地図Mにおいて、周辺にある道や建物、山、川等のオブジェクトが地図M上に表示される領域が広がっていく。なお、地図Mは、島等の観光地の実際の地図に基づいていなくともよく、地図内で表示されるオブジェクトも実際に存在していないものであってもよく、RPG体験のための仮想的なマップでもよい。つまり、ARグラスでは、例えば、実際に存在しない城や街等を地図Mに表示させたり、観光地でない場所等のユーザに移動してほしくないエリアは地図Mに表示させないようにしたりしてもよい。また、図1の例では、地図Mが右上に小さく表示されている場合を例示しているが、ユーザの所定の操作が行われると、地図Mが拡大表示されるものとする。なお、地図Mを表示する装置はARグラスに限定されるものではなく、別の装置に地図Mを表示してもよい。 In addition, a virtual map M is displayed on the AR glass as a map of tourist spots such as islands, and when the user moves, the area where the objects in the map M are displayed on the map is updated. That is, for example, each time the user moves to a new area, the map M is updated, and objects such as roads, buildings, mountains, and rivers in the vicinity of the map M are displayed on the map M according to the range visited by the user. The area displayed above expands. Note that the map M does not have to be based on an actual map of a tourist spot such as an island, and the objects displayed on the map may not actually exist. It can be a simple map. In other words, with AR glasses, for example, even if a castle or a town that does not actually exist is displayed on the map M, or an area that the user does not want to move to, such as a place that is not a tourist spot, is not displayed on the map M. good. Also, in the example of FIG. 1, the map M is displayed in a small size on the upper right, but when the user performs a predetermined operation, the map M is enlarged and displayed. Note that the device for displaying the map M is not limited to AR glasses, and the map M may be displayed on another device.

[通信システムの構成]
実施の形態に係る通信システムの構成を説明する。図2は、実施の形態に係る通信システムの構成を説明する図である。図3は、実施の形態に係る通信システムの構成の一例を示すブロック図である。
[Configuration of communication system]
A configuration of a communication system according to an embodiment will be described. FIG. 2 is a diagram illustrating the configuration of the communication system according to the embodiment. FIG. 3 is a block diagram showing an example of the configuration of the communication system according to the embodiment.

図2及び図3に示すように、実施の形態に係る通信システム1は、ARグラス10(表示装置)、ユーザが手に持つモーションコントローラー20、ユーザが携帯するスマートデバイス30、及び、データセンタ等に配置されるサーバ40を有する。 As shown in FIGS. 2 and 3, the communication system 1 according to the embodiment includes an AR glass 10 (display device), a motion controller 20 held by a user, a smart device 30 carried by a user, a data center, and the like. has a server 40 located in

ARグラス10は、一般的な眼鏡と同様にユーザの頭部に装着される。ARグラス10は、撮像機能、音声入力機能、通信機能、表示機能、音声出力機能を有する。ARグラス10は、実空間を撮像し、撮像した実空間の画像を、ARグラス10のレンズ部分に相当するディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、ユーザの周辺状況に応じた仮想的なコンテンツを出力する。 The AR glasses 10 are worn on the user's head like general eyeglasses. The AR glasses 10 have an imaging function, an audio input function, a communication function, a display function, and an audio output function. The AR glasses 10 capture an image of the real space, and display the captured image of the real space on a display corresponding to the lens portion of the AR glasses 10 . In addition, under the control of the smart device 30, the AR glasses 10 superimpose the virtual content generated by CG on the captured image of the real space and display it on the display. Under the control of the smart device 30, the AR glasses 10 also output virtual content according to the user's surroundings.

モーションコントローラー20は、ユーザが手に持つコントローラである。モーションコントローラー20は、例えば、加速度センサと、加速度センサの検出結果をスマートデバイス30送信する通信機能とを有する。 The motion controller 20 is a controller held by the user. The motion controller 20 has, for example, an acceleration sensor and a communication function for transmitting detection results of the acceleration sensor to the smart device 30 .

スマートデバイス30は、ユーザが携帯するデバイスであり、例えば、タブレット、スマートフォン等のスマートデバイスであり、位置検出機能、画像認識機能、音声認識機能を有する。スマートデバイス30は、ARグラス10の制御を行う。スマートデバイス30は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザの手の動きを取得する。スマートデバイス30は、ネットワークNを介して、サーバ40に接続し、ユーザの位置検出結果、画像認識結果、音声認識結果をサーバ40に送信する。スマートデバイス30は、ネットワークNを介して、サーバ40から、ARグラス10が出力する仮想的なコンテンツの提供を受ける。スマートデバイス30は、ARグラス10に対する、サーバ40から提供された仮想的なコンテンツの出力を制御する。 The smart device 30 is a device carried by a user, for example, a smart device such as a tablet or a smartphone, and has a position detection function, an image recognition function, and a voice recognition function. The smart device 30 controls the AR glasses 10 . The smart device 30 acquires the motion of the user's hand based on the detection result of the acceleration sensor transmitted from the motion controller 20 . The smart device 30 connects to the server 40 via the network N and transmits the user's position detection result, image recognition result, and voice recognition result to the server 40 . The smart device 30 receives virtual content output from the AR glasses 10 via the network N from the server 40 . The smart device 30 controls output of virtual content provided by the server 40 to the AR glasses 10 .

サーバ40は、地図情報及びAR空間上の仮想的なコンテンツを保持するとともに、スマートデバイス30から送信されたユーザの位置検出結果、画像認識結果、音声認識結果を基に、ユーザの周辺状況を判定する。そして、サーバ40は、ユーザの周辺状況に応じて仮想的なコンテンツを選択し、スマートデバイス30に送信する。 The server 40 holds map information and virtual content in the AR space, and determines the user's surroundings based on the user's position detection results, image recognition results, and voice recognition results transmitted from the smart device 30. do. The server 40 then selects virtual content according to the user's surroundings and transmits it to the smart device 30 .

[ARグラス]
次に、ARグラス10について説明する。図4は、図3に示すARグラス10の構成の一例を示すブロック図である。
[AR glass]
Next, the AR glasses 10 will be explained. FIG. 4 is a block diagram showing an example of the configuration of the AR glasses 10 shown in FIG. 3. As shown in FIG.

図4に示すように、ARグラス10は、撮像部11、音声入力部12(録音部)、通信部13、表示部14及び音声出力部15を有する。 As shown in FIG. 4 , the AR glasses 10 have an imaging unit 11 , an audio input unit 12 (recording unit), a communication unit 13 , a display unit 14 and an audio output unit 15 .

撮像部11は、実空間を撮像する。例えば、撮像部11は、撮像部11の撮像方向がARグラス10の前方である場合には、ARグラス10の前方の実空間を撮像する。撮像部11は、CCDやCMOS等の光電変換素子と、撮像素子から出力される光電変換信号を処理して実空間の画像を生成する。撮像部11は、例えば、R(赤)、G(緑)、B(青)の3色の2次元画像を取得する。 The imaging unit 11 images the real space. For example, when the imaging direction of the imaging unit 11 is in front of the AR glasses 10 , the imaging unit 11 images the real space in front of the AR glasses 10 . The imaging unit 11 generates an image of a real space by processing a photoelectric conversion element such as a CCD or a CMOS and a photoelectric conversion signal output from the imaging element. The imaging unit 11 acquires a two-dimensional image of three colors of R (red), G (green), and B (blue), for example.

音声入力部12は、音声の入力を受け付け、入力された音声を録音するデバイスによって構成される。 The voice input unit 12 is configured by a device that receives input of voice and records the input voice.

通信部13は、スマートデバイス30との無線通信を行う。通信部13は、撮像部11が撮像した画像を、スマートデバイス30に送信する。通信部13は、スマートデバイス30から送信された仮想的なコンテンツを受信する。仮想的なコンテンツは、地図の画像や、動植物のキャラクター画像、動物の鳴き声や足音等の音声である。 The communication unit 13 performs wireless communication with the smart device 30 . The communication unit 13 transmits the image captured by the imaging unit 11 to the smart device 30 . The communication unit 13 receives virtual content transmitted from the smart device 30 . The virtual contents are images of maps, character images of animals and plants, sounds such as cries and footsteps of animals.

表示部14は、ディスプレイによって構成される。表示部14は、撮像部11が撮像した実空間の画像を表示する。表示部14は、通信部13が受信した仮想的なコンテンツのうち、仮想的な地図の画像や動植物のキャラクター画像を、実空間の画像に重畳して表示する。なお、表示部14は、透過表示可能なディスプレイであって、仮想的なコンテンツのうち、動植物のキャラクター画像を表示してもよい。 The display unit 14 is configured by a display. The display unit 14 displays the image of the real space captured by the imaging unit 11 . The display unit 14 displays a virtual map image and animal and plant character images among the virtual contents received by the communication unit 13 by superimposing them on the real space image. The display unit 14 may be a display capable of transmissive display, and may display character images of animals and plants among the virtual contents.

音声出力部15は、音声を出力する。音声出力部15は、通信部13が受信した仮想的なコンテンツのうち、動物の鳴き声や足音等の音声を出力する。 The audio output unit 15 outputs audio. The audio output unit 15 outputs audio such as animal barks and footsteps from the virtual content received by the communication unit 13 .

[スマートデバイス]
次に、スマートデバイス30について説明する。図5は、図3に示すスマートデバイス30の構成の一例を示すブロック図である。図5に示すように、スマートデバイス30は、通信部31、記憶部32及び制御部33を有する。
[Smart device]
Next, the smart device 30 is described. FIG. 5 is a block diagram showing an example of the configuration of the smart device 30 shown in FIG. 3. As shown in FIG. As shown in FIG. 5 , the smart device 30 has a communication section 31 , a storage section 32 and a control section 33 .

通信部31は、無線または有線にて他の装置との間で通信を行う。通信部21は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部31は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部33(後述)との間の通信を行う。例えば、通信部31は、ARグラス10から画像を受信し、ARグラス10に仮想的なコンテンツを送信する。通信部31は、サーバ40に、位置検出結果、画像認識結果を送信し、サーバ40から仮想的なコンテンツを受信する。 The communication unit 31 performs wireless or wired communication with other devices. The communication unit 21 is a communication interface that transmits and receives various information to and from another device connected via a network or the like. The communication unit 31 is realized by a NIC (Network Interface Card) or the like, and performs communication between another device and the control unit 33 (described later) via an electric communication line such as a LAN (Local Area Network) or the Internet. For example, the communication unit 31 receives images from the AR glasses 10 and transmits virtual content to the AR glasses 10 . The communication unit 31 transmits position detection results and image recognition results to the server 40 and receives virtual content from the server 40 .

記憶部32は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部32は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部32は、スマートデバイス30で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部32は、プログラムの実行で用いられる各種情報を記憶する。記憶部32は、ARグラス10から送信された画像データ321と、サーバ40から送信された仮想的なコンテンツを含むコンテンツ322を記憶する。 The storage unit 32 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like. Note that the storage unit 32 may be a rewritable semiconductor memory such as a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 32 stores an OS (Operating System) and various programs executed by the smart device 30 . Furthermore, the storage unit 32 stores various information used in executing the program. The storage unit 32 stores image data 321 transmitted from the AR glasses 10 and content 322 including virtual content transmitted from the server 40 .

制御部33は、スマートデバイス30全体を制御する。制御部33は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部33は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部33は、各種のプログラムが動作することにより各種の処理部として機能する。制御部33は、位置検出部331、画像認識部332、動き検出部333、ARグラス制御部334(制御部)を有する。 The control unit 33 controls the smart device 30 as a whole. The control unit 33 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 33 also has an internal memory for storing programs defining various processing procedures and control data, and executes each processing using the internal memory. Further, the control unit 33 functions as various processing units by running various programs. The control unit 33 has a position detection unit 331, an image recognition unit 332, a motion detection unit 333, and an AR glasses control unit 334 (control unit).

位置検出部331は、スマートデバイス30の位置を検出し、サーバ40に送信する。位置検出部331は、例えば、GPS(Global Positioning System)等によりスマートデバイス30の位置情報が取得可能である。位置検出部331は、定期的に、スマートデバイス30の位置を取得して、緯度及び経度で表した位置情報を、通信部31を介して、サーバ40に送信する。 The position detector 331 detects the position of the smart device 30 and transmits it to the server 40 . The position detection unit 331 can acquire the position information of the smart device 30 by GPS (Global Positioning System), for example. The position detection unit 331 periodically acquires the position of the smart device 30 and transmits the position information represented by latitude and longitude to the server 40 via the communication unit 31 .

画像認識部332は、ARグラス10が撮像した画像を処理し、画像に映るオブジェクトなどの画像の特徴を認識する。画像認識部332は、ARグラス10が撮像した画像の中に映る、動物、植物、風景、建物を認識する。画像認識部332は、例えば、機械学習によって、所定の地域、具体的には、ユーザが観光中の観光地に特有の動物、植物、風景、建物等の画像の特徴を学習済みである画像認識モデルを用いて、ARグラス10が撮像した画像の特徴を認識する。画像認識部332は、前後の画像を比べて、画像に所定以上の変化があった場合に、動物、植物、風景、建物を認識する処理を行ってもよい。画像認識部332は、画像認識処理結果を、通信部31を介してサーバ40に送信する。 The image recognition unit 332 processes the image captured by the AR glasses 10 and recognizes features of the image such as an object appearing in the image. The image recognition unit 332 recognizes animals, plants, landscapes, and buildings appearing in images captured by the AR glasses 10 . The image recognition unit 332 performs image recognition that has already learned image features such as animals, plants, landscapes, and buildings that are specific to a predetermined area, specifically, a sightseeing spot that the user is currently sightseeing, by, for example, machine learning. Using the model, the features of the image captured by the AR glasses 10 are recognized. The image recognition unit 332 may perform processing to recognize an animal, a plant, a landscape, or a building when there is a predetermined change or more in the image by comparing the images before and after the image. The image recognition section 332 transmits the image recognition processing result to the server 40 via the communication section 31 .

なお、画像認識機能は、サーバ40が有してもよい。その際には、スマートデバイス30は、ARグラス10が撮像した画像をサーバ40に送信する。 Note that the server 40 may have the image recognition function. At that time, the smart device 30 transmits the image captured by the AR glasses 10 to the server 40 .

動き検出部333は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザの手の動きを取得する。 The motion detection unit 333 acquires the user's hand motion based on the detection result of the acceleration sensor transmitted from the motion controller 20 .

ARグラス制御部334は、ARグラス10の処理を制御する。例えば、ARグラス制御部334は、サーバ40から送信された仮想的な地図の情報を用いて、仮想的な地図をARグラス10に出力させる。また、例えば、ARグラス制御部334は、ARグラス10がレンズ部のディスプレイへの画像表示処理を制御する。ARグラス制御部334は、コンテンツ取得部335と、コンテンツ合成部336とを有する。 The AR glasses control unit 334 controls the processing of the AR glasses 10 . For example, the AR glasses control unit 334 uses virtual map information transmitted from the server 40 to cause the AR glasses 10 to output a virtual map. Also, for example, the AR glasses control unit 334 controls image display processing on the display of the lens unit of the AR glasses 10 . The AR glasses control section 334 has a content acquisition section 335 and a content synthesis section 336 .

コンテンツ取得部335は、サーバ40から送信された、仮想的なコンテンツを取得する。この仮想的なコンテンツは、実空間の画像に重畳しての、仮想的な地図や、キャラクター画像等である。 The content acquisition unit 335 acquires virtual content transmitted from the server 40 . This virtual content is a virtual map, a character image, etc. superimposed on the image of the real space.

コンテンツ合成部336は、コンテンツ取得部335が取得したコンテンツが、実空間の画像に重畳しての仮想的な地図やキャラクター画像である場合、仮想的な地図やキャラクター画像と実空間の画像との合成処理を行う。コンテンツ合成部336による合成処理後、ARグラス制御部334は、ARグラス10の表示部14に、実空間の画像にキャラクター画像を重畳させた画像を表示させる。仮想的な地図やキャラクター画像の重畳位置は、例えば、予め設定されている。或いは、仮想的な地図やキャラクター画像の重畳位置は、サーバ40による指示によって設定される。 When the content acquired by the content acquiring unit 335 is a virtual map or character image superimposed on the image of the real space, the content synthesizing unit 336 combines the virtual map or character image with the image of the real space. Perform synthesis processing. After the composition processing by the content composition unit 336, the AR glasses control unit 334 causes the display unit 14 of the AR glasses 10 to display an image in which the character image is superimposed on the image of the real space. The superimposed positions of the virtual map and character images are set in advance, for example. Alternatively, the superimposed position of the virtual map or character image is set by an instruction from the server 40 .

[サーバ]
次に、サーバ40について説明する。図6は、図3に示すサーバ40の構成の一例を示すブロック図である。図6に示すように、サーバ40は、通信部41、記憶部42及び制御部43を有する。
[server]
Next, the server 40 will be explained. FIG. 6 is a block diagram showing an example of the configuration of server 40 shown in FIG. As shown in FIG. 6 , the server 40 has a communication section 41 , a storage section 42 and a control section 43 .

通信部41は、無線または有線にて他の装置との間で通信を行う。通信部41は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部41は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部43後述)との間の通信を行う。例えば、通信部41は、スマートデバイス30から位置情報、画像認識結果、音声認識結果を受信し、スマートデバイス30に仮想的なコンテンツを送信する。 The communication unit 41 performs wireless or wired communication with other devices. The communication unit 41 is a communication interface that transmits and receives various information to and from another device connected via a network or the like. The communication unit 41 is realized by a NIC (Network Interface Card) or the like, and performs communication between another device and the control unit 43 (described later) via an electric communication line such as a LAN (Local Area Network) or the Internet. For example, the communication unit 41 receives location information, image recognition results, and voice recognition results from the smart device 30 and transmits virtual content to the smart device 30 .

記憶部42は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部42は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部42は、サーバ40で実行されるOS(Operating System)や各種プログラムを記憶する。 The storage unit 42 is a storage device such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like. Note that the storage unit 42 may be a rewritable semiconductor memory such as a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 42 stores an OS (Operating System) and various programs executed by the server 40 .

さらに、記憶部42は、プログラムの実行で用いられる各種情報を記憶する。記憶部42は、ユーザが観光する島等の観光地の森、川、山、平野、名所等を含む地図情報421と、各種仮想的なコンテンツを含むコンテンツ情報422を記憶する。地図情報421には、例えば、等高線を含む地図を含み、各位置に対応する標高を特定可能な情報が含まれているものとする。また、地図情報421には、各位置について、森、川、山、平野、名所等を示す属性情報、もしくは、見晴らしが良い、見晴らしが悪い等の属性情報が含まれているものとする。各種仮想的なコンテンツは、動植物のキャラクター画像、または、動物の足音或いは鳴き声の音声であり、所定の地域、例えば、観光地や、観光地の森、川、山、平野、名所等の各所定箇所に対応づけて予め作成された、観光地の各所定箇所に特有のコンテンツであってもよい。また、各種コンテンツは、敵または味方に分けて、それぞれ作成されたものでもよい。コンテンツ情報422は、例えば、キャラクター画像の表示位置や大きさ等の設定情報である各種コンテンツの設定条件を含む。 Further, the storage unit 42 stores various information used in executing the program. The storage unit 42 stores map information 421 including forests, rivers, mountains, plains, sights, etc. of sightseeing spots such as islands visited by the user, and content information 422 including various types of virtual content. It is assumed that the map information 421 includes, for example, a map including contour lines, and includes information capable of specifying the altitude corresponding to each position. Also, the map information 421 includes attribute information indicating forests, rivers, mountains, plains, famous places, etc., or attribute information such as good view or bad view for each position. The various virtual contents are character images of animals and plants, or sounds of footsteps or cries of animals, and are provided in predetermined areas such as sightseeing spots, forests, rivers, mountains, plains, famous places, and the like. The content may be unique to each predetermined location of the tourist spot, which is created in advance in association with the location. Also, various contents may be created separately for enemies and allies. The content information 422 includes, for example, setting conditions for various types of content, which are setting information such as the display position and size of character images.

制御部43は、サーバ40全体を制御する。制御部43は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部43は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部43は、各種のプログラムが動作することにより各種の処理部として機能する。制御部43は、位置情報取得部(取得部)431、スマートデバイス30から送信された画像認識結果を取得する画像認識結果取得部432、周辺状況特定部(特定部)433、領域更新部(更新部)434およびコンテンツ送信制御部(制御部)435を有する。 The control unit 43 controls the server 40 as a whole. The control unit 43 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 43 also has an internal memory for storing programs defining various processing procedures and control data, and executes each processing using the internal memory. Further, the control unit 43 functions as various processing units by running various programs. The control unit 43 includes a position information acquisition unit (acquisition unit) 431, an image recognition result acquisition unit 432 that acquires the image recognition result transmitted from the smart device 30, a surrounding situation identification unit (specification unit) 433, an area update unit (update unit) 434 and a content transmission control unit (control unit) 435 .

位置情報取得部431は、スマートデバイス30の位置情報を取得する。例えば、位置情報取得部431は、スマートデバイス30から受信した位置情報と、地図情報421とを基に、ユーザの位置を検出する。位置情報取得部431は、所定の時間間隔で定期的にスマートデバイス30の位置情報を取得してもよいし、所定のタイミングでスマートデバイス30の位置情報を取得してもよい。 The location information acquisition unit 431 acquires location information of the smart device 30 . For example, the location information acquisition unit 431 detects the location of the user based on the location information received from the smart device 30 and the map information 421 . The location information acquisition unit 431 may acquire the location information of the smart device 30 periodically at predetermined time intervals, or may acquire the location information of the smart device 30 at predetermined timings.

周辺状況特定部433は、位置情報取得部431によって取得された位置情報を基に、ユーザの周辺状況を特定する。例えば、周辺状況特定部433は、地図情報421を参照し、ユーザの周辺状況として、スマートデバイス30の位置情報に対応する位置の標高を特定する。 The surrounding situation identification unit 433 identifies the surrounding situation of the user based on the position information acquired by the position information acquisition unit 431 . For example, the surrounding situation identifying unit 433 refers to the map information 421 and identifies the altitude of the position corresponding to the position information of the smart device 30 as the user's surrounding situation.

また、周辺状況特定部433は、例えば、ユーザの周辺状況として、スマートデバイス30の位置情報に対応する位置の属性を特定するようにしてもよい。例えば、周辺状況特定部433は、ユーザの位置を基に、地図情報421を参照して、スマートデバイス30の位置情報に対応する属性として、山、森、平野等を特定する。なお、周辺状況特定部433は、地図情報421に含まれる等高線を基に、山や平野の属性を判別してもよい。 In addition, the surrounding situation identification unit 433 may, for example, identify a position attribute corresponding to the position information of the smart device 30 as the user's surrounding situation. For example, the surrounding situation identification unit 433 refers to the map information 421 based on the user's position and identifies mountains, forests, plains, etc. as attributes corresponding to the position information of the smart device 30 . Note that the surrounding situation identification unit 433 may determine attributes of mountains and plains based on the contour lines included in the map information 421 .

また、周辺状況特定部433は、スマートデバイス30の位置情報と実空間の画像とを基に、ユーザの周辺状況を特定するようにしてもよい。例えば、周辺状況特定部433は、画像認識結果取得部432によって取得された画像認識結果に複数の木が含まれている場合には、ユーザの周辺状況が森であると特定する。 Further, the surrounding situation identification unit 433 may identify the user's surrounding situation based on the position information of the smart device 30 and the image of the real space. For example, when the image recognition result obtained by the image recognition result obtaining unit 432 includes a plurality of trees, the surrounding situation identifying unit 433 identifies that the user's surrounding situation is a forest.

領域更新部434は、周辺状況特定部433によって判定された周辺状況に応じて、仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新する。例えば、領域更新部434は、周辺状況特定部433によって特定された位置の標高が高いほど、更新範囲が広くなるように、地図内のオブジェクトが当該地図上に表示される領域を更新する。 The region updating unit 434 updates the region in which the objects in the virtual map are displayed on the map according to the surrounding conditions determined by the surrounding condition specifying unit 433 . For example, the region updating unit 434 updates the region in which the objects in the map are displayed on the map so that the higher the altitude of the position identified by the surrounding situation identifying unit 433, the wider the update range.

具体例を挙げて説明すると、例えば、領域更新部434は、周辺状況特定部433によって特定された位置の標高が、所定の閾値以上である場合には、ユーザの位置を中心に周囲100メートルの範囲の領域について、仮想的な地図内のオブジェクトが当該地図上に表示されるように更新し、所定の閾値以下である場合には、ユーザの位置を中心に周囲50メートルの範囲の領域について、仮想的な地図内のオブジェクトが当該地図上に表示されるように更新する。なお、領域更新部434の処理はこれに限定されるものではなく、例えば、領域更新部434は、複数の閾値を設け、標高が高いほど、段階的に更新範囲が広くなるようにしてもよい。また、領域更新部434は、所定のアルゴリズムを用いて標高に応じて更新範囲の大きさを計算し、標高が高いほど、段階的に更新範囲が広くなるようにしてもよい。 To explain with a specific example, for example, if the altitude of the position specified by the surrounding situation specifying unit 433 is equal to or higher than a predetermined threshold, the region updating unit 434 updates the user's position as the center of 100 meters around the user's position. For the area of the range, update so that the object in the virtual map is displayed on the map, and if it is equal to or less than the predetermined threshold, for the area of 50 meters around the user's position, Update so that the objects in the virtual map are displayed on the map. Note that the processing of the area updating unit 434 is not limited to this. For example, the area updating unit 434 may set a plurality of thresholds so that the update range becomes wider step by step as the altitude increases. . Also, the area updating unit 434 may calculate the size of the update range according to the altitude using a predetermined algorithm, and the update range may gradually widen as the altitude increases.

ここで、図7を用いて、マップの更新範囲について説明する図である。図7は、マップの更新範囲について説明する図である。図7に例示するように、サーバ40は、ユーザが山の上等の標高の高い場所に行った場合には、マップの更新範囲が広く、ユーザが標高の低い場所に行った場合には、マップの更新範囲が狭くなるように、ARグラス10に表示される仮想的な地図を更新する。 Here, it is a figure explaining the update range of a map using FIG. FIG. 7 is a diagram for explaining the map update range. As illustrated in FIG. 7, the server 40 updates the map in a wide range when the user goes to a high altitude place such as the top of a mountain, and updates the map when the user goes to a low altitude place. The virtual map displayed on the AR glasses 10 is updated so that the update range becomes narrower.

例えば、図8に例示するように、ARグラス10では、マップの更新範囲が広い場合には、ユーザの位置Pを中心に広い範囲(例えば、周囲100メートル)のオブジェクトが地図上に表示されるように更新された状態で、仮想的な地図が表示される。図8は、更新範囲が広い場所におけるマップの更新例を説明する図である。また、図9の例示するように、ARグラス10では、マップの更新範囲が狭い場合には、図8の例と比べて、ユーザの位置Pを中心に狭い範囲(例えば、周囲50メートル)のオブジェクトが地図上に表示されるように更新された状態で、仮想的な地図が表示される。図9は、更新範囲が狭い場所におけるマップの更新例を説明する図である。 For example, as exemplified in FIG. 8, in the AR glasses 10, when the update range of the map is wide, an object in a wide range (for example, 100 meters around) around the user's position P is displayed on the map. A virtual map is displayed with the updated state. FIG. 8 is a diagram illustrating an example of updating a map in a location with a wide update range. In addition, as illustrated in FIG. 9, in the AR glasses 10, when the update range of the map is narrow, compared to the example of FIG. A virtual map is displayed with the objects updated to appear on the map. FIG. 9 is a diagram for explaining an example of map update in a place where the update range is narrow.

また、領域更新部434は、周辺状況特定部433によって特定された位置の属性に応じて、仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新するようにしてもよい。具体例を挙げて説明すると、領域更新部434は、例えば、周辺状況特定部433によって特定された位置の属性が「山」である場合、もしくは「見晴らしが良い」である場合に、ユーザの位置を中心に周囲100メートルの範囲の領域について、仮想的な地図内のオブジェクトが当該地図上に表示されるように更新する。また、領域更新部434は、例えば、周辺状況特定部433によって特定された位置の属性が「森」である場合、もしくは「見晴らしが悪い」である場合に、ユーザの位置を中心に周囲50メートルの範囲の領域について、仮想的な地図内のオブジェクトが当該地図上に表示されるように更新する。 Further, the area updating unit 434 may update the area where the objects in the virtual map are displayed on the map according to the attribute of the position specified by the surrounding situation specifying unit 433 . To give a specific example, when the attribute of the position specified by the surrounding situation specifying unit 433 is “mountain” or “the view is good”, the region updating unit 434 updates the position of the user. Update so that the objects in the virtual map are displayed on the map in a range of 100 meters around the center. For example, when the attribute of the position specified by the surrounding situation specifying unit 433 is "forest" or "poor view", the region updating unit 434 updates the area around the user's position by 50 meters around the user's position. update so that the objects in the virtual map are displayed on the map.

また、領域更新部434は、標高および属性情報の両方に応じて、仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新するようにしてもよい。具体例を挙げて説明すると、領域更新部434は、例えば、標高が所定の閾値以上であって、かつ、属性情報が「見晴らしが良い」場合には、ユーザの位置を中心に周囲150メートルの範囲の領域について、仮想的な地図内のオブジェクトが当該地図上に表示されるように更新し、標高が所定の閾値以上であって、かつ、属性情報が「見晴らしが悪い」場合には、ユーザの位置を中心に周囲75メートルの範囲の領域について、仮想的な地図内のオブジェクトが当該地図上に表示されるように更新する。 Also, the area update unit 434 may update the area where the objects in the virtual map are displayed on the map, according to both the altitude and the attribute information. As a specific example, if the altitude is greater than or equal to a predetermined threshold value and the attribute information is "good view", the area update unit 434 updates the area around the user's position by 150 meters. The area of the range is updated so that the objects in the virtual map are displayed on the map, and if the altitude is greater than or equal to a predetermined threshold and the attribute information is "poor visibility", the user Update so that the objects in the virtual map are displayed on the map for a range of 75 meters around the position of .

また、領域更新部434は、画像認識結果取得部432によって取得された画像認識結果を考慮して、仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新するようにしてもよい。例えば、領域更新部434は、画像認識結果に木が含まれている場合には、更新する領域の範囲を10メートル狭くし、壁や塀が含まれている場合には、更新する領域の範囲を30メートル狭くする等してもよい。 Further, the area updating unit 434 may update the area where the objects in the virtual map are displayed on the map, taking into consideration the image recognition result acquired by the image recognition result acquiring unit 432. . For example, if the image recognition result includes a tree, the region update unit 434 narrows the range of the region to be updated by 10 meters, and if the image recognition result includes a wall or a fence, the range of the region to be updated is narrowed by 10 meters. may be narrowed by 30 meters.

コンテンツ送信制御部435は、領域更新部434によって領域が更新された場合に、該領域内の情報を含む仮想的な地図の情報をスマートデバイス30に送信する。例えば、コンテンツ送信制御部435は、領域更新部434によって領域が更新された場合には、更新された領域内のオブジェクトが地図上に表示される仮想的な地図の画像情報を生成し、生成した画像情報をスマートデバイス30に送信する。この場合に、コンテンツ送信制御部435は、仮想的な地図全体の画像情報をスマートデバイス30に送信してもよいし、更新された部分のみの画像情報をスマートデバイス30に送信してもよい。また、例えば、コンテンツ送信制御部435は、AR空間上の仮想的なコンテンツとともに、コンテンツの出力タイミングや、コンテンツの表示位置もスマートデバイス30に送信する。 When the region is updated by the region updater 434 , the content transmission control unit 435 transmits to the smart device 30 virtual map information including information within the region. For example, when the area is updated by the area updating unit 434, the content transmission control unit 435 generates image information of a virtual map in which objects in the updated area are displayed on the map. Image information is sent to the smart device 30 . In this case, the content transmission control unit 435 may transmit image information of the entire virtual map to the smart device 30 or may transmit image information of only the updated portion to the smart device 30 . Also, for example, the content transmission control unit 435 transmits the output timing of the content and the display position of the content to the smart device 30 together with the virtual content in the AR space.

[通信処理の処理手順]
図10は、実施の形態に係る通信システムにおける通信処理の処理手順を示すシーケンス図である。
[Processing procedure of communication processing]
FIG. 10 is a sequence diagram illustrating a procedure of communication processing in the communication system according to the embodiment;

図10に例示するように、スマートデバイス30は、スマートデバイス30の位置を検出する度に(ステップS1)、サーバ40に位置情報を送信する(ステップS2)。 As illustrated in FIG. 10, each time the smart device 30 detects the location of the smart device 30 (step S1), it transmits location information to the server 40 (step S2).

そして、スマートデバイス30は、ARグラス10から画像が送信されると(ステップS3)、その画像に対する画像認識処理を実行し(ステップS4)、画像認識結果をサーバ40に送信する(ステップS5)。 Then, when the image is transmitted from the AR glasses 10 (step S3), the smart device 30 executes image recognition processing on the image (step S4), and transmits the image recognition result to the server 40 (step S5).

サーバ40は、位置情報取得部431によって取得された位置情報を基に、ユーザの周辺状況を特定する(ステップS6)。そして、サーバ40は、周辺状況に応じて、仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新する(ステップS7)。続いて、サーバ40は、領域更新部434によって領域が更新された場合に、該領域内の情報を含む仮想的な地図の情報をスマートデバイス30に送信する(ステップS8)。 The server 40 identifies the surrounding situation of the user based on the position information acquired by the position information acquisition unit 431 (step S6). Then, the server 40 updates the area where the objects in the virtual map are displayed on the map according to the surrounding conditions (step S7). Subsequently, when the area is updated by the area update unit 434, the server 40 transmits virtual map information including information on the area to the smart device 30 (step S8).

スマートデバイス30は、コンテンツと実空間の画像との合成処理を行う(ステップS9)。そして、スマートデバイス30は、ARグラス10に、コンテンツの出力を指示し(ステップS10)、AR空間上の仮想的なコンテンツ(例えば、仮想的な地図や動植物のキャラクター画像)をARグラスから出力させる(ステップS11)。 The smart device 30 synthesizes the content and the image of the real space (step S9). Then, the smart device 30 instructs the AR glasses 10 to output content (step S10), and causes the AR glasses to output virtual content in the AR space (for example, virtual maps and character images of animals and plants). (Step S11).

[実施の形態の効果]
このように、本実施の形態では、通信システム1のサーバ40は、スマートデバイス30の位置情報を基に、ユーザの周辺状況を特定し、特定した周辺状況に応じて、仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新し、該領域内の情報を含む仮想的な地図の情報をスマートデバイス30に送信する。スマートデバイス30は、サーバ40から送信された仮想的な地図の情報を用いて、仮想的な地図をARグラス10に出力させる。このため、通信システム1では、歩いた範囲だけでなく、ユーザの周辺状況に応じてマップの更新範囲が変化するので、よりリアリティのあるAR体験をユーザに提供することができる。
[Effects of Embodiment]
As described above, in the present embodiment, the server 40 of the communication system 1 identifies the surrounding situation of the user based on the location information of the smart device 30, and displays the virtual map in accordance with the identified surrounding situation. The object updates the area displayed on the map, and transmits virtual map information including information within the area to the smart device 30 . The smart device 30 uses the virtual map information transmitted from the server 40 to cause the AR glasses 10 to output the virtual map. Therefore, in the communication system 1, the update range of the map changes not only according to the user's walking range but also according to the surrounding conditions of the user, so that it is possible to provide the user with a more realistic AR experience.

また、本実施の形態では、ユーザの位置の標高や属性等を考慮して、ユーザの周辺状況に応じてマップの更新範囲が変化させるので、例えば、ユーザが山の上に行ったら一気にマップ内のオブジェクトを確認できる範囲が広がるようにしたり、森にいる場合には、マップ内のオブジェクトを確認できる範囲が広がらないようにしたりすることが可能である。 Further, in the present embodiment, the map update range is changed according to the user's surroundings in consideration of the altitude and attributes of the user's position. It is possible to expand the range where you can see the , and if you are in the forest, it is possible to prevent the range where you can see objects in the map from expanding.

[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPU及び当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device is realized by a CPU or GPU and a program analyzed and executed by the CPU or GPU, or as hardware by wired logic can be realized.

また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in this embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be done automatically by known methods. In addition, information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

[プログラム]
また、上記実施形態において説明したARグラス10、スマートデバイス30及びサーバ40及びが実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態におけるARグラス10、スマートデバイス30及びサーバ40が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
[program]
It is also possible to create a program in which the processes executed by the AR glasses 10, the smart device 30, and the server 40 described in the above embodiments are described in a computer-executable language. For example, it is possible to create a program in which the processes executed by the AR glasses 10, the smart device 30, and the server 40 in the embodiment are described in a computer-executable language. In this case, the same effects as those of the above embodiments can be obtained by having the computer execute the program. Further, such a program may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read by a computer and executed to realize processing similar to that of the above embodiments.

図11は、プログラムを実行するコンピュータを示す図である。図11に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。 FIG. 11 is a diagram showing a computer executing a program. As illustrated in FIG. 11, computer 1000 includes, for example, memory 1010, CPU 1020, hard disk drive interface 1030, disk drive interface 1040, serial port interface 1050, video adapter 1060, and network interface 1070. , and these units are connected by a bus 1080 .

メモリ1010は、図11に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図11に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。 The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012 as illustrated in FIG. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). Hard disk drive interface 1030 is connected to hard disk drive 1090 as illustrated in FIG. A disk drive interface 1040 is connected to the disk drive 1100 . A removable storage medium such as a magnetic disk or optical disk is inserted into the disk drive 1100 . Serial port interface 1050 is connected to mouse 1110 and keyboard 1120, for example. Video adapter 1060 is connected to display 1130, for example.

ここで、図11に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。 Here, as illustrated in FIG. 11, the hard disk drive 1090 stores an OS 1091, application programs 1092, program modules 1093, and program data 1094, for example. That is, the above program is stored, for example, in hard disk drive 1090 as a program module in which instructions to be executed by computer 1000 are described.

また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。 Various data described in the above embodiments are stored as program data in the memory 1010 or the hard disk drive 1090, for example. Then, the CPU 1020 reads the program modules 1093 and program data 1094 stored in the memory 1010 and the hard disk drive 1090 to the RAM 1012 as necessary, and executes various processing procedures.

なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。 Note that the program module 1093 and program data 1094 related to the program are not limited to being stored in the hard disk drive 1090. For example, they may be stored in a removable storage medium and read by the CPU 1020 via a disk drive or the like. . Alternatively, the program module 1093 and program data 1094 related to the program are stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.), and are transmitted via the network interface 1070. It may be read by CPU 1020 .

上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above-described embodiments and modifications thereof are included in the scope of the invention described in the claims and their equivalents, as well as in the technology disclosed in the present application.

10 ARグラス
11 撮像部
12 音声入力部
13,31,41 通信部
14 表示部
15 音声出力部
20 モーションコントローラー
30 スマートデバイス
32,42 記憶部
33,43 制御部
40 サーバ
321 画像データ
322 コンテンツ
331 位置検出部
332 画像認識部
333 動き検出部
334 ARグラス制御部
335 コンテンツ取得部
336 コンテンツ合成部
421 地図情報
422 コンテンツ情報
431 位置情報取得部
432 画像認識結果取得部
433 周辺状況特定部
434 領域更新部
435 コンテンツ送信制御部
10 AR glasses 11 imaging unit 12 audio input unit 13, 31, 41 communication unit 14 display unit 15 audio output unit 20 motion controller 30 smart device 32, 42 storage unit 33, 43 control unit 40 server 321 image data 322 content 331 position detection Unit 332 Image recognition unit 333 Motion detection unit 334 AR glasses control unit 335 Content acquisition unit 336 Content synthesis unit 421 Map information 422 Content information 431 Position information acquisition unit 432 Image recognition result acquisition unit 433 Surrounding situation identification unit 434 Area update unit 435 Content Transmission control part

Claims (6)

表示装置と、ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有する通信システムであって、
前記サーバは、
前記スマートデバイスの位置情報を取得する取得部と、
前記取得部によって取得された位置情報を基に、前記ユーザの周辺状況を特定する特定部と、
前記特定部によって特定された周辺状況に応じて、仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新する更新部と、
前記更新部によって前記領域が更新された場合に、該領域内の情報を含む仮想的な地図の情報を前記スマートデバイスに送信する送信部と、
を有し、
前記スマートデバイスは、
自装置の位置情報を検出し、該位置情報を前記サーバに送信する位置検出部と、
前記サーバから送信された仮想的な地図の情報を用いて、仮想的な地図を前記表示装置に出力させる制御部と、
を有することを特徴とする通信システム。
A communication system having a display device, a smart device carried by a user, and a server communicating with the smart device,
The server is
an acquisition unit that acquires location information of the smart device;
an identifying unit that identifies the surrounding situation of the user based on the location information obtained by the obtaining unit;
an updating unit that updates an area in which an object in a virtual map is displayed on the map according to the surrounding situation specified by the specifying unit;
a transmitting unit configured to transmit virtual map information including information within the area to the smart device when the area is updated by the updating unit;
has
The smart device is
a position detection unit that detects position information of its own device and transmits the position information to the server;
a control unit for outputting a virtual map to the display device using the virtual map information transmitted from the server;
A communication system characterized by comprising:
前記特定部は、前記ユーザの周辺状況として、前記スマートデバイスの位置情報に対応する位置の標高を特定し、
前記更新部は、前記特定部によって特定された位置の標高が高いほど、更新範囲が広くなるように、前記仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新することを特徴とする請求項1に記載の通信システム。
The identification unit identifies an altitude of a location corresponding to the location information of the smart device as the surrounding situation of the user,
The updating unit updates the area where the objects in the virtual map are displayed on the map so that the higher the altitude of the position specified by the specifying unit, the wider the update range. The communication system according to claim 1, wherein
前記特定部は、前記ユーザの周辺状況として、前記スマートデバイスの位置情報に対応する位置の属性を特定し、
前記更新部は、前記特定部によって特定された位置の属性に応じて、前記仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新することを特徴とする請求項1に記載の通信システム。
The specifying unit specifies a location attribute corresponding to the location information of the smart device as the surrounding situation of the user,
2. The method according to claim 1, wherein the updating unit updates a region in which the object in the virtual map is displayed on the map according to the attribute of the position specified by the specifying unit. Communications system.
前記表示装置は、
実空間の画像を撮像する撮像部と、
前記スマートデバイスとの間で通信を行い、前記実空間の画像を前記スマートデバイスに送信する通信部と、
を有し、
前記特定部は、前記スマートデバイスの位置情報と前記実空間の画像とを基に、前記ユーザの周辺状況を特定することを特徴とする請求項1に記載の通信システム。
The display device
an imaging unit that captures an image of a real space;
a communication unit that communicates with the smart device and transmits an image of the real space to the smart device;
has
2. The communication system according to claim 1, wherein the identification unit identifies the surrounding situation of the user based on the location information of the smart device and the image of the real space.
表示装置と、ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有する通信システムが実行する通信方法であって、
前記スマートデバイスが、自装置の位置情報を検出し、該位置情報を前記サーバに送信する位置検出工程と、
前記サーバが、前記スマートデバイスの位置情報を取得する取得工程と、
前記サーバが、前記取得工程によって取得された位置情報を基に、前記ユーザの周辺状況を特定する特定工程と、
前記特定工程によって特定された周辺状況に応じて、仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新する更新工程と、
前記サーバが、前記更新工程によって前記領域が更新された場合に、該領域内の情報を含む仮想的な地図の情報を前記スマートデバイスに送信する送信工程と、
前記スマートデバイスが、前記サーバから送信された仮想的な地図の情報を用いて、仮想的な地図を前記表示装置に出力させる制御工程と、
を含んだことを特徴とする通信方法。
A communication method executed by a communication system having a display device, a smart device carried by a user, and a server communicating with the smart device,
a location detection step in which the smart device detects location information of itself and transmits the location information to the server;
an acquisition step in which the server acquires the location information of the smart device;
an identifying step in which the server identifies a surrounding situation of the user based on the location information obtained in the obtaining step;
an updating step of updating an area in which an object in the virtual map is displayed on the map according to the surrounding situation specified by the specifying step;
a transmission step in which the server transmits virtual map information including information in the area to the smart device when the area is updated in the updating step;
a control step in which the smart device outputs a virtual map to the display device using the virtual map information transmitted from the server;
A communication method comprising:
通信方法をコンピュータに実行させる通信プログラムであって、
サーバとしてのコンピュータに、
前記ユーザが携帯するスマートデバイスの位置情報を取得する取得ステップと、
前記取得ステップによって取得された位置情報を基に、ユーザの周辺状況を特定する特定ステップと、
前記特定ステップによって特定された周辺状況に応じて、仮想的な地図内のオブジェクトが当該地図上に表示される領域を更新する更新ステップと、
前記更新ステップによって前記領域が更新された場合に、該領域内の情報を含む仮想的な地図の情報を前記スマートデバイスに送信する送信ステップと、
を実行させ、
前記スマートデバイスとしてのコンピュータに、
自装置の位置情報を検出し、該位置情報を前記サーバに送信する位置検出ステップと、
前記サーバから送信された仮想的な地図の情報を用いて、仮想的な地図を表示装置に出力させる制御ステップと、
を実行させることを特徴とする通信プログラム。
A communication program for causing a computer to execute a communication method,
computer as a server,
an acquisition step of acquiring location information of the smart device carried by the user;
a specifying step of specifying the surrounding situation of the user based on the position information acquired by the acquiring step;
an updating step of updating an area in which an object in the virtual map is displayed on the map, according to the surrounding situation identified by the identifying step;
a sending step of sending virtual map information including information in the area to the smart device when the area is updated by the updating step;
and
a computer as the smart device;
a position detection step of detecting position information of the device itself and transmitting the position information to the server;
a control step of outputting a virtual map to a display device using the virtual map information transmitted from the server;
A communication program characterized by executing
JP2021092766A 2021-06-02 2021-06-02 Communication system, communication method and communication program Active JP7219860B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021092766A JP7219860B2 (en) 2021-06-02 2021-06-02 Communication system, communication method and communication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021092766A JP7219860B2 (en) 2021-06-02 2021-06-02 Communication system, communication method and communication program

Publications (2)

Publication Number Publication Date
JP2022185235A true JP2022185235A (en) 2022-12-14
JP7219860B2 JP7219860B2 (en) 2023-02-09

Family

ID=84438904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021092766A Active JP7219860B2 (en) 2021-06-02 2021-06-02 Communication system, communication method and communication program

Country Status (1)

Country Link
JP (1) JP7219860B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013178639A (en) * 2012-02-28 2013-09-09 Seiko Epson Corp Head mounted display device and image display system
JP5909301B1 (en) * 2015-07-24 2016-04-26 株式会社コロプラ GAME METHOD, GAME PROGRAM, GAME TERMINAL, AND GAME SYSTEM USING MAP DATA
JP2017170020A (en) * 2016-03-25 2017-09-28 株式会社セガゲームス Information processing device, terminal device, and program
JP2018064708A (en) * 2016-10-18 2018-04-26 株式会社コロプラ Method and system of computer proceeding game based on position information of user, and program for computer executing method
JP2020074822A (en) * 2018-11-05 2020-05-21 株式会社スクウェア・エニックス Game program and game system
JP6745966B1 (en) * 2019-12-03 2020-08-26 株式会社ミクシィ Information processing apparatus, information processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013178639A (en) * 2012-02-28 2013-09-09 Seiko Epson Corp Head mounted display device and image display system
JP5909301B1 (en) * 2015-07-24 2016-04-26 株式会社コロプラ GAME METHOD, GAME PROGRAM, GAME TERMINAL, AND GAME SYSTEM USING MAP DATA
JP2017170020A (en) * 2016-03-25 2017-09-28 株式会社セガゲームス Information processing device, terminal device, and program
JP2018064708A (en) * 2016-10-18 2018-04-26 株式会社コロプラ Method and system of computer proceeding game based on position information of user, and program for computer executing method
JP2020074822A (en) * 2018-11-05 2020-05-21 株式会社スクウェア・エニックス Game program and game system
JP6745966B1 (en) * 2019-12-03 2020-08-26 株式会社ミクシィ Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP7219860B2 (en) 2023-02-09

Similar Documents

Publication Publication Date Title
KR102417645B1 (en) AR scene image processing method, device, electronic device and storage medium
US11257294B2 (en) Cross reality system supporting multiple device types
KR102331780B1 (en) Privacy-Sensitive Consumer Cameras Coupled to Augmented Reality Systems
CN105188516B (en) For strengthening the System and method for virtual reality
US10636185B2 (en) Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint
US9324298B2 (en) Image processing system, image processing apparatus, storage medium having stored therein image processing program, and image processing method
JP2024009071A (en) cross reality system
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
CN107683449A (en) The personal space content that control is presented via head mounted display
US20210375052A1 (en) Information processor, information processing method, and program
US20150265922A1 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method
CN106162204A (en) Panoramic video generation, player method, Apparatus and system
JP7219860B2 (en) Communication system, communication method and communication program
JP7216940B2 (en) Communication system, communication method and communication program
CN111016787A (en) Method and device for preventing visual fatigue in driving, storage medium and electronic equipment
JP7219862B2 (en) Communication system, communication method and communication program
WO2022174554A1 (en) Image display method and apparatus, device, storage medium, program and program product
JP7219861B2 (en) Communication system, communication method and communication program
JP7219859B2 (en) Communication system, communication method and communication program
KR101939530B1 (en) Method and apparatus for displaying augmented reality object based on geometry recognition
WO2024090065A1 (en) Information processing device, method, and program
WO2021075161A1 (en) Information processing device, information processing method, and information processing program
JP7163498B2 (en) Display control device, display control method, and program
US20230141545A1 (en) Device and method for providing augmented reality content
WO2023079853A1 (en) Information processing device, information processing method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20221216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230106

R150 Certificate of patent or registration of utility model

Ref document number: 7219860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150