JP2022185453A - 通信システム、通信方法及び通信プログラム - Google Patents

通信システム、通信方法及び通信プログラム Download PDF

Info

Publication number
JP2022185453A
JP2022185453A JP2021093153A JP2021093153A JP2022185453A JP 2022185453 A JP2022185453 A JP 2022185453A JP 2021093153 A JP2021093153 A JP 2021093153A JP 2021093153 A JP2021093153 A JP 2021093153A JP 2022185453 A JP2022185453 A JP 2022185453A
Authority
JP
Japan
Prior art keywords
user
smart device
unit
weapon
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021093153A
Other languages
English (en)
Other versions
JP7219862B2 (ja
Inventor
俊允 中村
Toshimitsu Nakamura
仁美 村井
Hitomi Murai
忠 萬國谷
Tadashi Makuniya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2021093153A priority Critical patent/JP7219862B2/ja
Publication of JP2022185453A publication Critical patent/JP2022185453A/ja
Application granted granted Critical
Publication of JP7219862B2 publication Critical patent/JP7219862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】リアリティのある仮想空間上の体験をユーザに提供することを可能とする。【解決手段】通信システム1は、ユーザが使用するARグラス10と、ユーザが携帯するスマートデバイス30と、スマートデバイスと通信を行うサーバ40とを有する通信システムであって、サーバ40は、ユーザの選択に応じた種別の武器の仮想的なコンテンツをスマートデバイスに設定する武器コンテンツ設定部と、少なくともスマートデバイス30の位置情報と地図情報と天候情報とを基に、ユーザの周辺状況を判定する周辺状況判定部と、ユーザの周辺状況に応じて、ユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する攻撃力設定部と、を有し、スマートデバイス30は、武器コンテンツ設定部によって設定された武器の仮想的なコンテンツを、攻撃力設定部によって設定された攻撃力となるように、表示装置に出力させるARグラス制御部を有する。【選択図】図3

Description

本発明は、通信システム、通信方法及び通信プログラムに関する。
近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)をユーザに体感させるHMD(Head Mounted Display)などが提案されている。このうち、AR技術を用いたHMDとして、一般的な眼鏡と同様に、ユーザの頭部に装着して使用されるARグラスが提案されている。
ARグラスは、ユーザの前方の実空間を撮像し、撮像した実空間の画像を、ARグラスのレンズ部分に相当するディスプレイに表示させる。また、ARグラスは、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。これにより、ARグラスを装着したユーザは、実空間の中に仮想的なコンテンツが重畳されたAR空間を体感することができる。
特許第6655751号公報
ARグラスのディスプレイにRPG(Role-Playing Game)コンテンツを表示させることで、RPGをユーザに体験させるシステムが提案されている。このシステムに対し、リアリティのあるAR体験のユーザへの提供が要望されていた。
本発明は、上記に鑑みてなされたものであって、リアリティのある仮想空間上の体験をユーザに提供することを可能とする通信システム、通信方法及び通信プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明の通信システムは、ユーザが使用する表示装置と、ユーザが持つモーションコントローラーと、ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有し、仮想的なコンテンツを表示装置に表示させてゲーム体験をユーザに提供する通信システムであって、サーバは、ユーザの選択に応じた種別の武器の仮想的なコンテンツをスマートデバイスに設定する第1の設定部と、少なくともスマートデバイスの位置情報と、地図情報と、天候情報とを基に、ユーザの周辺状況を判定する判定部と、ユーザの周辺状況に応じて、ユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する第2の設定部と、を有し、スマートデバイスは、少なくとも該スマートデバイスの位置情報を検出し、検出した位置情報をサーバに送信する位置検出部と、第1の設定部によって設定された武器の仮想的なコンテンツを、第2の設定部によって設定された攻撃力となるように、表示装置に出力させる制御部と、を有することを特徴とする。
本発明によれば、仮想空間上の体験をユーザに提供することを可能とする。
図1は、ARグラスのディスプレイに表示される画像の一例を示す図である。 図2は、実施の形態に係る通信システムの構成を説明する図である。 図3は、実施の形態に係る通信システムの構成の一例を示すブロック図である。 図4は、図3に示すARグラスの構成の一例を示すブロック図である。 図5は、図3に示すスマートデバイスの構成の一例を示すブロック図である。 図6は、図3に示すサーバの構成の一例を示すブロック図である。 図7は、ユーザによる武器の設定例を説明する図である。 図8は、ユーザの周辺状況の一例を説明する図である。 図9は、ユーザの周辺状況の一例を説明する図である。 図10は、実施の形態に係る通信処理の処理手順を示すシーケンス図である。 図11は、プログラムを実行するコンピュータを示す図である。
以下に、本願に係る通信システム、通信方法及び通信プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る通信システム、通信方法及び通信プログラムが限定されるものではない。
以下の実施の形態では、実施の形態に係る通信システム、通信方法及び通信プログラムの処理の流れを順に説明し、最後に実施の形態による効果を説明する。
[実施の形態]
まず、実施の形態について説明する。実施の形態では、所定の地域、具体的には、観光地(例えば、島)を観光するユーザに、ユーザが使用する表示装置として、例えば、仮想的なRPGコンテンツを表示可能であるARグラスを装着させ、観光地を観光しながら、RPGも体験可能とするシステムについて説明する。
図1は、ARグラスのディスプレイに表示される画像の一例を示す図である。図1に例示するように、実際の島の画像(例えば、森の画像)に、モンスターのコンテンツC1やコインのコンテンツC2を重畳してARグラスに表示させ、ユーザが、モンスターを倒す、コインを集める、ミッションに取り組むなどのゲーム体験を可能としている。また、ARグラスを装着したユーザ間で通信が可能である。実施の形態では、小さな島全体を活用して、ユーザ自身が体を動かし、仲間とコミュニケーションを取りながら、その土地ならではのRPG体験を可能とする。
さらに、実施の形態では、ユーザが手に持つモーションコントローラーを武器に見立て、モーションコントローラーの動きに応じて動く武器のコンテンツをARグラスに表示させることで、ユーザの動きをゲーム世界に反映する。この際、実施の形態では、ユーザの動きに応じて、攻撃力や攻撃の種類が変化するように仮想的なコンテンツをARグラスに表示させるとともに、ユーザの周囲の状況に応じて、武器の攻撃力を変化させることで、リアリティのあるAR体験を提供する。
[通信システムの構成]
実施の形態に係る通信システムの構成を説明する。図2は、実施の形態に係る通信システムの構成を説明する図である。図3は、実施の形態に係る通信システムの構成の一例を示すブロック図である。
図2及び図3に示すように、実施の形態に係る通信システム1は、ARグラス10(表示装置)、ユーザが手に持つモーションコントローラー20、ユーザが携帯するスマートデバイス30、及び、データセンタ等に配置されるサーバ40を有する。
ARグラス10は、一般的な眼鏡と同様にユーザの頭部に装着される。ARグラス10は、撮像機能、音声入力機能、通信機能、表示機能、音声出力機能を有する。ARグラス10は、実空間を撮像し、撮像した実空間の画像を、ARグラス10のレンズ部分に相当するディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、ユーザの周辺状況に応じた仮想的なコンテンツを出力する。
モーションコントローラー20は、ユーザが手に持つコントローラである。モーションコントローラー20は、例えば、加速度センサと、加速度センサの検出結果をスマートデバイス30送信する通信機能とを有する。
スマートデバイス30は、ユーザが携帯するデバイスであり、例えば、タブレット、スマートフォン等のスマートデバイスであり、位置検出機能、画像認識機能を有する。スマートデバイス30は、ARグラス10の制御を行う。スマートデバイス30は、ネットワークNを介して、サーバ40に接続し、ユーザの位置情報、画像認識結果、気温情報をサーバ40に送信する。スマートデバイス30は、ネットワークNを介して、サーバ40から、ARグラス10が出力する敵キャラクター画像や武器等の仮想的なコンテンツの提供を受ける。
スマートデバイス30は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザの手の動きを取得する。スマートデバイス30は、ARグラス10に対する、サーバ40から提供された仮想的なコンテンツの出力を制御する。例えば、スマートデバイス30は、ユーザが手に武器を手に持つように武器の画像コンテンツをARグラス10に表示させ、ユーザが手に持つモーションコントローラー20の動きに応じて動くように武器の画像コンテンツをARグラス10に表示させる。この際、スマートデバイス30は、サーバ40によって設定された攻撃力となるように、ARグラス10に武器の画像コンテンツを出力させる。
サーバ40は、地図情報及びAR空間上の仮想的なコンテンツを保持する。サーバ40は、スマートデバイス30に、ARグラス10に出力させる仮想的なコンテンツを送信する。サーバ40は、ユーザの選択に応じた種別の武器の仮想的なコンテンツをユーザに設定する。サーバ40は、スマートデバイス30の位置情報と、地図情報と、天候情報と、スマートデバイス30による画像認識結果、気温情報とを基に、ユーザの周辺状況を判定する。そして、サーバ40は、ユーザの周辺状況に応じてユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する。
[ARグラス]
次に、ARグラス10について説明する。図4は、図3に示すARグラス10の構成の一例を示すブロック図である。
図4に示すように、ARグラス10は、撮像部11、音声入力部12(録音部)、通信部13、表示部14及び音声出力部15を有する。
撮像部11は、実空間を撮像する。例えば、撮像部11は、撮像部11の撮像方向がARグラス10の前方である場合には、ARグラス10の前方の実空間を撮像する。撮像部11は、CCDやCMOS等の光電変換素子と、撮像素子から出力される光電変換信号を処理して実空間の画像を生成する。撮像部11は、例えば、R(赤)、G(緑)、B(青)の3色の2次元画像を取得する。
音声入力部12は、音声の入力を受け付け、入力された音声を録音するデバイスによって構成される。
通信部13は、スマートデバイス30との無線通信を行う。通信部13は、撮像部11が撮像した画像及び音声入力部12が録音した音声を、スマートデバイス30に送信する。通信部13は、スマートデバイス30から送信された仮想的なコンテンツを受信する。仮想的なコンテンツは、敵や味方のキャラクター画像、武器の画像、敵や味方等の音声やユーザのアクションに伴う音声のコンテンツである。なお、キャラクター画像は、ゲームキャラクター風の画像に限らず、写真等から作成した画像でもよく、動画も含まれる。
表示部14は、ディスプレイによって構成される。表示部14は、撮像部11が撮像した実空間の画像を表示する。表示部14は、通信部13が受信した仮想的なコンテンツのうち、武器の画像コンテンツを、実空間の画像に重畳して表示する。武器の画像コンテンツは、ユーザが手に持つモーションコントローラーに差し替えて表示する。なお、表示部14は、透過表示可能なディスプレイであって、画像コンテンツを表示してもよい。
音声出力部15は、音声を出力する。音声出力部15は、通信部が受信した仮想的なコンテンツのうち、動物の鳴き声や足音等の音声を出力する。
[スマートデバイス]
次に、スマートデバイス30について説明する。図5は、図3に示すスマートデバイス30の構成の一例を示すブロック図である。図5に示すように、スマートデバイス30は、通信部31、記憶部32及び制御部33を有する。
通信部31は、無線または有線にて他の装置との間で通信を行う。通信部31は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部31は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部33(後述)との間の通信を行う。例えば、通信部31は、ARグラス10から画像、音声を受信し、ARグラス10に仮想的なコンテンツを送信する。通信部31は、サーバ40に、位置情報、画像認識結果、気温情報を送信し、サーバ40から仮想的なコンテンツを受信する。
記憶部32は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部32は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部32は、スマートデバイス30で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部32は、プログラムの実行で用いられる各種情報を記憶する。記憶部32は、ARグラス10から送信された画像データ321と、サーバ40から送信された敵や武器等の仮想的なコンテンツを含むコンテンツ情報322とを記憶する。
制御部33は、スマートデバイス30全体を制御する。制御部33は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部33は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部33は、各種のプログラムが動作することにより各種の処理部として機能する。制御部33は、位置検出部331、画像認識部332、温度検出部333、動き検出部334、ARグラス制御部335(制御部)を有する。
位置検出部331は、スマートデバイス30の位置を検出する。位置検出部331は、例えば、GPS(Global Positioning System)等によりスマートデバイス30の位置情報が取得可能である。位置検出部331は、定期的に、スマートデバイス30の位置を取得して、緯度及び経度で表した位置情報を、通信部31を介して、サーバ40に送信する。
画像認識部332は、ARグラス10が撮像した画像を処理し、画像に映るオブジェクトなどの画像の特徴を認識する。画像認識部332は、ARグラス10が撮像した画像の中に映る、動物、植物、風景、建物を認識する。画像認識部332は、例えば、機械学習によって、所定の地域、具体的には、ユーザが観光中の観光地に特有の動物、植物、風景、建物等の画像の特徴を学習済みである画像認識モデルを用いて、ARグラス10が撮像した画像の特徴を認識する。画像認識部332は、ARグラス10が撮像した画像から、ユーザがいる場所の明るさを認識する。画像認識部332は、前後の画像を比べて、画像に所定以上の変化があった場合に、動物、植物、風景、建物を認識する処理を行ってもよい。画像認識部332は、画像認識処理結果を、通信部31を介してサーバ40に送信する。
なお、画像認識機能は、サーバ40が有してもよい。その際には、スマートデバイス30は、ARグラス10が撮像した画像をサーバ40に送信する。
温度検出部333は、スマートデバイス30が位置する箇所の気温を検出し、検出した気温情報を、通信部31を介してサーバ40に送信する。
動き検出部334は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザのアクション、具体的には、ユーザの手の動きを取得する。
ARグラス制御部335は、ARグラス10の処理を制御する。例えば、ARグラス制御部335は、ARグラス10のレンズ部のディスプレイへの画像表示処理やARグラス10による音声出力処理を制御する。ARグラス制御部335は、RPG体験において、ユーザが選択した武器や装備等の選択情報を、通信部31を介して、サーバ40に送信する。ARグラス制御部335は、コンテンツ取得部336と、コンテンツ合成部337とを有する。
コンテンツ取得部336は、サーバ40から送信された、仮想的なコンテンツを取得する。この仮想的なコンテンツは、実空間の画像に重畳するための敵や味方のキャラクター画像、武器画像のコンテンツ、或いは、敵や味方等の音声やユーザのアクションに伴う音声のコンテンツである。ARグラス制御部335は、コンテンツ取得部336が取得したコンテンツが音声である場合、敵や味方のキャラクター画像の動きやユーザのアクションに合わせて、ARグラス10の音声出力部15から音声を出力させる。
コンテンツ合成部337は、コンテンツ取得部336が取得したコンテンツが、実空間の画像に重畳してのキャラクター画像である場合、キャラクター画像と実空間の画像との合成処理を行う。コンテンツ合成部337による合成処理後、ARグラス制御部335は、ARグラス10の表示部14に、実空間の画像にキャラクター画像を重畳させた画像を表示させる。キャラクター画像の重畳位置は、例えば、予め設定されている。或いは、キャラクター画像の重畳位置は、サーバ40による指示によって設定される。
ARグラス制御部335は、コンテンツ合成部337の合成処理を制御し、ユーザが持つモーションコントローラー20が武器と見えるように、武器画像のコンテンツをARグラス10に表示させる。そして、ARグラス制御部335は、モーションコントローラー20の動きに応じて武器が動くように、武器画像のコンテンツをARグラス10に表示させる。ARグラス制御部335は、ユーザの動きに応じて、攻撃力や攻撃の種類が変化するように仮想的なコンテンツをARグラス10に表示させる。
その際、ARグラス制御部335は、ユーザのアクションを演出する仮想的なコンテンツをARグラス10に表示させる。例えば、ARグラス制御部335は、剣で敵と戦っている際には、剣がぶつかったときに火花が出るような画像コンテンツをARグラス10に表示させる。ARグラス制御部335は、剣で敵と戦っている際には、剣が敵にぶつかったような音声をARグラス10に出力させる。
そして、ARグラス制御部335は、ユーザの周囲の状況に応じて武器の攻撃力を変化させることで、リアリティのあるAR体験を提供する。すなわち、ARグラス制御部335は、武器の仮想的なコンテンツを、攻撃力設定部433(後述)によって設定された攻撃力となるように、ARグラス10に出力させる。
[サーバ]
次に、サーバ40について説明する。図6は、図3に示すサーバ40の構成の一例を示すブロック図である。図6に示すように、サーバ40は、通信部41、記憶部42及び制御部43を有する。
通信部41は、無線または有線にて他の装置との間で通信を行う。通信部41は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部41は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部43後述)との間の通信を行う。例えば、通信部41は、スマートデバイス30から位置情報、画像認識結果、音声認識結果を受信し、スマートデバイス30に仮想的なコンテンツを送信する。
記憶部42は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部42は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部42は、サーバ40で実行されるOS(Operating System)や各種プログラムを記憶する。記憶部42は、プログラムの実行で用いられる各種情報を記憶する。記憶部42は、地図情報421と、各種仮想的なコンテンツを含むコンテンツ情報422と、基準情報423とを記憶する。
地図情報421は、ユーザが観光する島等の観光地の森、川、山、平野、名所等を含む地図である。地図情報421は、等高線で土地の高低が示される。地図情報421は、ぬかるみやすい場所が記載されたものでもよいし、山道であるか舗装された道であるかを区別して道を表示したものでもよい。
各種仮想的なコンテンツは、敵や味方のキャラクター画像、武器の画像、敵や味方等の音声、或いは、ユーザのアクションに伴う音声のコンテンツである。武器の画像コンテンツ及びユーザのアクションに伴う音声のコンテンツは、攻撃力の各度合いに合わせてそれぞれ設定される。これらのコンテンツは、所定の地域、例えば、観光地や名所等の各所定箇所に対応づけて予め作成された、観光地の各所定箇所に特有のコンテンツであってもよい。例えば、名所であれば、この名所のシンボルキャラクターの画像が、敵または味方のコンテンツとして設定されていてもよい。コンテンツ情報422は、例えば、キャラクター画像の表示位置や大きさ等の設定情報である各種コンテンツの設定条件を含む。
基準情報423は、周辺状況判定部432(後述)における判定において、基準とする状況を示す情報を含む。基準情報423は、基準となる攻撃力である基準攻撃力を示す情報を含む。基準状況は、例えば、乾いた道、傾斜がない、曇天程度の明るさ、気温が平均気温であり、雨が降っていない状況である。また、基準攻撃力は、例えば、レベルが「1」~「3」である場合、レベル「2」である。
制御部43は、サーバ40全体を制御する。制御部43は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部43は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部43は、各種のプログラムが動作することにより各種の処理部として機能する。制御部43は、武器コンテンツ設定部431(第1の設定部)、周辺状況判定部432(判定部)及び攻撃力設定部433(第2の設定部)を有する。
武器コンテンツ設定部431は、スマートデバイス30からユーザによる武器の選択情報を取得すると、このユーザの選択に応じた種別の武器の仮想的なコンテンツをユーザのスマートデバイス30に設定する。
武器コンテンツ設定部431は、攻撃力の各度合いに合わせてそれぞれ設定された武器の画像コンテンツをスマートデバイス30に設定する。武器コンテンツ設定部431は、ユーザによって選択された武器の画像コンテンツと武器使用時の演出用のコンテンツとをスマートデバイス30に送信する。この武器の画像コンテンツは、ユーザの動きによって、攻撃力や攻撃の種類を変化させるよう、設定されている。また、この武器の画像コンテンツは、攻撃力に応じて、例えば、攻撃力のレベルごとに、各コンテンツが設定されている。例えば、攻撃力のレベルが「3」である場合には金色の剣の画像であり、攻撃力のレベルが「2」である場合には金属の剣の画像であり、攻撃力のレベルが「1」である場合には、さびて欠けのある剣の画像である。
周辺状況判定部432は、少なくともスマートデバイス30の位置情報と、地図情報421と、天候情報とを基に、ユーザの周辺状況を判定する。周辺状況判定部432は、さらに、スマートデバイス30の画像認識部332による画像認識結果、または、画像認識結果及び温度検出部333によって検出された気温情報を用いて、より的確にユーザの周辺状況を判定してもよい。周辺状況判定部432は、ユーザの周辺状況が基準となる状況よりも良いか、または、悪いかを判定する。
例えば、基準となる状況を、乾いた道、傾斜がない、曇天程度の明るさ、気温が平均気温であり、雨が降っていない状況とする。そして、周辺状況判定部432は、次の場合には、ユーザの周辺状況が基準となる状況よりも悪いと判定する。具体的には、ユーザがいる場所が、地図情報421、天候情報及び画像認識結果に基づいて、ぬかるんでいて状況が悪い道であると周辺状況判定部432が判定した場合である。或いは、ユーザがいる場所が、地図情報421の等高線に基づいて、傾斜している場所であると周辺状況判定部432が判定した場合である。或いは、ユーザがいる場所が、画像認識結果に基づいて、見通しが悪く、暗く、気温情報に基づいて、平均気温よりも気温が低いと周辺状況判定部432が判定した場合である。或いは、天候情報及び画像認識結果に基づいて、雨が降っていると周辺状況判定部432が判定した場合である。
また、周辺状況判定部432は、次の場合には、ユーザの周辺状況が基準となる状況よりも良いと判定する。例えば、ユーザがいる場所が、地図情報421、天候情報及び画像認識結果に基づいて、舗装道路であると周辺状況判定部432が判定した場合である。或いは、地図情報421の等高線に基づいて、平坦な場所であると周辺状況判定部432が判定した場合である。或いは、画像認識結果に基づいて、見通しがよく、明るく、気温情報に基づいて、平均気温の気温であると周辺状況判定部432が判定した場合や、天候情報及び画像認識結果から晴れていると周辺状況判定部432が判定した場合である。
攻撃力設定部433は、ユーザの周辺状況に応じて、ユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する。攻撃力設定部433は、ユーザの周辺状況が基準となる状況よりも悪い場合、ユーザに設定した武器の攻撃力を、基準の攻撃力よりも低く設定する。また、攻撃力設定部433は、ユーザの周辺状況が基準となる状況よりも良い場合、ユーザに設定した武器の攻撃力を、基準の攻撃力よりも高く設定する。
[ユーザによる武器設定例]
図7は、ユーザによる武器の設定例を説明する図である。例えば、ユーザU1が、武器として、剣と盾を選択した場合には、サーバ40は、ユーザU1が選択した剣と盾の画像コンテンツをユーザU1のスマートデバイス30に送信する。また、サーバ40は、他の装備のコンテンツもユーザU1の選択に応じて、ユーザU1のスマートデバイス30に送信する。なお、剣と盾を選択する際には、二つのモーションセンサー20をユーザが有する。或いは、一つのモーションセンサー20をユーザが有する場合には、一つのモーションセンサー20の動きを、所定の設定で剣と盾とに使い分けてもよい。或いは、一つのモーションセンサー20をユーザが有する場合には、剣と盾のいずれかは、モーションセンサー20とは連動しない構成でもよい。
スマートデバイス30は、図7の例では、ユーザU1が、右手に剣を持ち、左手に盾を持つように、剣と盾の画像コンテンツをARグラス10に表示させる。そして、ユーザU1が縦に右手を振ると、スマートデバイス30は、モンスター等のキャラクターを縦に切るアクション画像をARグラス10に表示させる。この時、ユーザU1が素早く剣を振った際には、スマートデバイス30は、剣の攻撃力を高くし、さらに、演出として、火花や、きらきらとした光が出るような演出用の画像コンテンツをARグラス10に表示させる。また、ユーザU1が横に右手を振ると、スマートデバイス30は、モンスター等のキャラクターを薙ぎ払うアクション画像をARグラス10に表示させる。
そして、通信システム1は、ユーザU1の周辺状況に応じて武器の攻撃力を変更する。図8及び図9は、ユーザの周辺状況の一例を説明する図である。図8に示すように、ユーザU1が、暗く、ぬかるんでいる森の中の道にいる場合、通信システム1は、ユーザの周辺状況が基準となる状況よりも悪いと判定する。そして、通信システム1では、ユーザU1が選択した剣の攻撃力を、周辺状況の悪化度合いに応じて、基準攻撃力(例えば、レベル「2」)より低い、レベル「1」とする。これによって、ユーザU1のARグラス10には、ユーザU1の手に握られるように、レベル「1」の攻撃力しかない剣の画像コンテンツC11が表示される。
また、図9に示すように、ユーザU1が、晴天下で見晴らしのよい舗装道路にいる場合、通信システム1は、ユーザの周辺状況が基準となる状況よりも良いと判定する。そして、通信システム1では、ユーザU1が選択した剣の攻撃力を、周辺状況に応じて、基準攻撃力より高い、レベル「3」とする。これによって、ユーザU1のARグラス10には、ユーザU1の手に握られるように、レベル「3」の金色の剣の画像コンテンツC12が表示される。
このように、通信システム1は、ユーザの実際の周辺状況に応じて、ユーザがAR空間上で持つ武器の攻撃力を変える。
[通信処理の処理手順]
図10は、実施の形態に係る通信処理の処理手順を示すシーケンス図である。
図10に示すように、ユーザによるスマートデバイス30の操作によって、ユーザによる武器の選択が行われると(ステップS1)、スマートデバイス30は、ユーザによって選択された武器を示す武器情報をサーバ40に送信する(ステップS2)。これに応じて、サーバ40は、このユーザの選択に応じた種別の武器の仮想的なコンテンツをユーザのスマートデバイス30に設定し(ステップS3)、この武器の仮想的なコンテンツをスマートデバイス30に送信する(ステップS4)。
スマートデバイス30は、スマートデバイス30の位置を検出する度に(ステップS5)、サーバ40に位置情報を送信する(ステップS6)。そして、スマートデバイス30は、ARグラス10から画像が送信されると(ステップS7)、その画像に対する画像認識処理を実行し(ステップS8)、画像認識結果をサーバ40に送信する(ステップS9)。スマートデバイス30は、気温を検出し(ステップS10)、検出した気温を示す気温情報をサーバ40に送信する(ステップS11)。
サーバ40は、さらに、天候情報を参照する(ステップS12)。サーバ40は、ユーザの周辺状況を判定する(ステップS13)。サーバ40は、判定のために、少なくとも、スマートデバイス30の位置情報と、地図情報421と、天候情報とを用いる。サーバ40は、さらに、スマートデバイス30の画像認識部332による画像認識結果、または、画像認識結果及び温度検出部333によって検出された気温情報を用いてもよい。サーバ40は、ユーザの周辺状況に応じて、ユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する(ステップS14)。サーバ40は、設定した攻撃力を示す情報をスマートデバイス30に送信する(ステップS15)。
モーションコントローラー20は、加速度センサを用いて加速度を検出し(ステップS16)、検出した加速度情報をスマートデバイス30送信する(ステップS17)。スマートデバイス30は、モーションコントローラー20から送信された加速度情報を基に、ユーザの手の動きを検出する(ステップS18)。
スマートデバイス30は、送信された武器の画像コンテンツを、サーバ40によって設定された攻撃力となるように、動き検出処理(ステップS18)で検出した動きに応じて、実空間の画像と合成するコンテンツ合成処理を行う(ステップS19)。そして、スマートデバイス30は、ARグラス10に、コンテンツの出力を指示し(ステップS20)、AR空間上の仮想的なコンテンツ(例えば、敵、味方、武器の画像コンテンツ、演出用のコンテンツ、音声コンテンツ)をARグラス10から出力させる(ステップS21)。
[実施の形態の効果]
このように、本実施の形態では、ユーザの実際の周辺状況に応じて、ユーザがAR空間上で持つ武器の攻撃力を変えることで、実環境で実際に敵に戦っているような、よりリアリティのある仮想空間上のAR体験をユーザに提供することができる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPU及び当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
また、上記実施形態において説明したARグラス10、スマートデバイス30及びサーバ40及びが実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態におけるARグラス10、スマートデバイス30及びサーバ40が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
図11は、プログラムを実行するコンピュータを示す図である。図11に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
メモリ1010は、図11に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図11に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ここで、図11に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。
また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。
なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 通信システム
10 ARグラス
11 撮像部
12 音声入力部
13,31,41 通信部
14 表示部
15 音声出力部
20 モーションコントローラー
30 スマートデバイス
32,42 記憶部
33,43 制御部
40 サーバ
321 画像データ
322,422 コンテンツ情報
331 位置検出部
332 画像認識部
333 温度検出部
334 動き検出部
335 ARグラス制御部
336 コンテンツ取得部
337 コンテンツ合成部
421 地図情報
431 武器コンテンツ設定部
432 周辺状況判定部
433 攻撃力設定部

Claims (7)

  1. ユーザが使用する表示装置と、前記ユーザが持つモーションコントローラーと、前記ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有し、仮想的なコンテンツを前記表示装置に表示させてゲーム体験を前記ユーザに提供する通信システムであって、
    前記サーバは、
    前記ユーザの選択に応じた種別の武器の仮想的なコンテンツを前記スマートデバイスに設定する第1の設定部と、
    少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報とを基に、前記ユーザの周辺状況を判定する判定部と、
    前記ユーザの周辺状況に応じて、前記ユーザに設定した前記武器の仮想的なコンテンツの攻撃力を設定する第2の設定部と、
    を有し、
    前記スマートデバイスは、
    少なくとも該スマートデバイスの位置情報を検出し、検出した位置情報を前記サーバに送信する位置検出部と、
    前記第1の設定部によって設定された前記武器の仮想的なコンテンツを、前記第2の設定部によって設定された攻撃力となるように、前記表示装置に出力させる制御部と、
    を有することを特徴とする通信システム。
  2. 前記第2の設定部は、前記ユーザの周辺状況が基準となる状況よりも悪い場合、前記ユーザに設定した武器の攻撃力を、基準の攻撃力よりも低く設定することを特徴とする請求項1に記載の通信システム。
  3. 前記第2の設定部は、前記ユーザの周辺状況が前記基準となる状況よりも良い場合、前記ユーザに設定した武器の攻撃力を、前記基準の攻撃力よりも高く設定することを特徴とする請求項2に記載の通信システム。
  4. 前記表示装置は、ユーザの頭部に装着され、
    前記表示装置は、
    実空間の画像を撮像する撮像部と、
    前記スマートデバイスとの間で通信を行い、前記実空間の画像を前記スマートデバイスに送信する通信部と、
    前記実空間の画像に仮想的なコンテンツを重畳して表示する表示部と、
    を有し、
    当該通信システムは、
    前記実空間の画像の特徴を認識する画像認識部
    を有し、
    前記判定部は、前記スマートデバイスの位置情報と、地図情報と、天候情報と、前記画像認識部による画像認識結果とを基に、前記ユーザの周辺状況を判定することを特徴とする請求項1~3のいずれか一つに記載の通信システム。
  5. 前記スマートデバイスは、
    前記スマートデバイスが位置する箇所の気温を検出し、検出した気温情報を前記サーバに送信する温度検出部
    を有し、
    前記判定部は、少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報と、前記気温情報とを基に、前記ユーザの周辺状況を判定することを特徴とする請求項1~4のいずれか一つに記載の通信システム。
  6. ユーザが使用する表示装置と、前記ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有する通信システムが実行する通信方法であって、
    前記サーバが、前記ユーザの選択に応じた種別の武器の仮想的なコンテンツを前記スマートデバイスに設定する第1の設定工程と、
    前記サーバが、少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報とを基に、前記ユーザの周辺状況を判定する工程と、
    前記サーバが、前記ユーザの周辺状況に応じて、前記ユーザに設定した前記武器の仮想的なコンテンツの攻撃力を設定する第2の設定工程と、
    前記スマートデバイスが、少なくとも該スマートデバイスの位置情報を検出し、検出した位置情報を前記サーバに送信する工程と、
    前記スマートデバイスが、前記第1の設定工程において設定された前記武器の仮想的なコンテンツを、前記第2の設定工程において設定された攻撃力となるように、前記表示装置に出力させる工程と、
    を含んだことを特徴とする通信方法。
  7. 方法をコンピュータに実行させる通信プログラムであって、
    サーバとしてのコンピュータに、
    ユーザの選択に応じた種別の武器の仮想的なコンテンツを、ユーザが携帯するスマートデバイスに設定する第1の設定ステップと、
    少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報とを基に、前記ユーザの周辺状況を判定するステップと、
    前記ユーザの周辺状況に応じて、前記ユーザに設定した前記武器の仮想的なコンテンツの攻撃力を設定する第2の設定ステップと、
    を実行させ、
    前記スマートデバイスとしてのコンピュータに、
    少なくとも前記スマートデバイスの位置情報を検出し、検出した位置情報を前記サーバに送信するステップと、
    前前記第1の設定ステップにおいて設定された前記武器の仮想的なコンテンツを、前記第2の設定ステップにおいて設定された攻撃力となるように、ユーザが使用する表示装置に出力させるステップと、
    を実行させることを特徴とする通信プログラム。
JP2021093153A 2021-06-02 2021-06-02 通信システム、通信方法及び通信プログラム Active JP7219862B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021093153A JP7219862B2 (ja) 2021-06-02 2021-06-02 通信システム、通信方法及び通信プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021093153A JP7219862B2 (ja) 2021-06-02 2021-06-02 通信システム、通信方法及び通信プログラム

Publications (2)

Publication Number Publication Date
JP2022185453A true JP2022185453A (ja) 2022-12-14
JP7219862B2 JP7219862B2 (ja) 2023-02-09

Family

ID=84438878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021093153A Active JP7219862B2 (ja) 2021-06-02 2021-06-02 通信システム、通信方法及び通信プログラム

Country Status (1)

Country Link
JP (1) JP7219862B2 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003190631A (ja) * 2001-12-28 2003-07-08 Konami Computer Entertainment Yokyo Inc ゲーム装置及びプログラム
JP2007050154A (ja) * 2005-08-19 2007-03-01 Aruze Corp ゲームプログラム及びゲームシステム
JP2013178639A (ja) * 2012-02-28 2013-09-09 Seiko Epson Corp 頭部装着型表示装置および画像表示システム
JP2015073746A (ja) * 2013-10-09 2015-04-20 株式会社スクウェア・エニックス・ホールディングス ビデオゲーム処理サーバ、及びビデオゲーム処理システム
JP2016026361A (ja) * 2009-07-22 2016-02-12 イマージョン コーポレーションImmersion Corporation 操作ジェスチャの入力中に,及び,仮想装置の操作に関連して,複雑な触覚刺激を提供するシステム及び方法
JP5909301B1 (ja) * 2015-07-24 2016-04-26 株式会社コロプラ 地図データを利用したゲーム方法、ゲームプログラム、ゲーム端末、及びゲームシステム
JP2017104344A (ja) * 2015-12-10 2017-06-15 株式会社コロプラ ゲームプログラム
JP2017147001A (ja) * 2011-05-06 2017-08-24 マジック リープ, インコーポレイテッド 広範囲同時遠隔ディジタル提示世界
JP2018064713A (ja) * 2016-10-18 2018-04-26 株式会社コロプラ ユーザの位置情報に基づきコンピュータがゲームを進行させる方法およびシステムならびに当該方法をコンピュータに実行させるプログラム
JP2018175505A (ja) * 2017-04-14 2018-11-15 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020074822A (ja) * 2018-11-05 2020-05-21 株式会社スクウェア・エニックス ゲームプログラム及びゲームシステム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003190631A (ja) * 2001-12-28 2003-07-08 Konami Computer Entertainment Yokyo Inc ゲーム装置及びプログラム
JP2007050154A (ja) * 2005-08-19 2007-03-01 Aruze Corp ゲームプログラム及びゲームシステム
JP2016026361A (ja) * 2009-07-22 2016-02-12 イマージョン コーポレーションImmersion Corporation 操作ジェスチャの入力中に,及び,仮想装置の操作に関連して,複雑な触覚刺激を提供するシステム及び方法
JP2017147001A (ja) * 2011-05-06 2017-08-24 マジック リープ, インコーポレイテッド 広範囲同時遠隔ディジタル提示世界
JP2013178639A (ja) * 2012-02-28 2013-09-09 Seiko Epson Corp 頭部装着型表示装置および画像表示システム
JP2015073746A (ja) * 2013-10-09 2015-04-20 株式会社スクウェア・エニックス・ホールディングス ビデオゲーム処理サーバ、及びビデオゲーム処理システム
JP5909301B1 (ja) * 2015-07-24 2016-04-26 株式会社コロプラ 地図データを利用したゲーム方法、ゲームプログラム、ゲーム端末、及びゲームシステム
JP2017104344A (ja) * 2015-12-10 2017-06-15 株式会社コロプラ ゲームプログラム
JP2018064713A (ja) * 2016-10-18 2018-04-26 株式会社コロプラ ユーザの位置情報に基づきコンピュータがゲームを進行させる方法およびシステムならびに当該方法をコンピュータに実行させるプログラム
JP2018175505A (ja) * 2017-04-14 2018-11-15 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020074822A (ja) * 2018-11-05 2020-05-21 株式会社スクウェア・エニックス ゲームプログラム及びゲームシステム

Also Published As

Publication number Publication date
JP7219862B2 (ja) 2023-02-09

Similar Documents

Publication Publication Date Title
US10708704B2 (en) Spatial audio for three-dimensional data sets
US9623332B2 (en) Method and device for augmented reality message hiding and revealing
US20200193671A1 (en) Techniques for rendering three-dimensional animated graphics from video
CN107683449A (zh) 控制经由头戴式显示器呈现的个人空间内容
CN110755845B (zh) 虚拟世界的画面显示方法、装置、设备及介质
WO2019130864A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN109453517B (zh) 虚拟角色控制方法和装置、存储介质、移动终端
JP7397364B2 (ja) ゲームプログラム、ゲーム装置、及びゲームシステム
KR20140102232A (ko) 저장된 콘텐츠 및 ar 통신의 로컬 센서 증강
US20210192851A1 (en) Remote camera augmented reality system
TW202300201A (zh) 興趣點之重複性預測
JP7219862B2 (ja) 通信システム、通信方法及び通信プログラム
Rajappa et al. Application and scope analysis of Augmented Reality in marketing using image processing technique
JP2023171563A (ja) ゲームプログラム、ゲーム装置、及びゲームシステム
WO2017145552A1 (ja) プログラム及びアイウエア
JP7216940B2 (ja) 通信システム、通信方法及び通信プログラム
JP7219860B2 (ja) 通信システム、通信方法及び通信プログラム
JP6836676B2 (ja) ゲーム装置、及びゲームプログラム
JP7219859B2 (ja) 通信システム、通信方法及び通信プログラム
JP7219861B2 (ja) 通信システム、通信方法及び通信プログラム
US10668379B2 (en) Computer-readable recording medium, computer apparatus, image display method
CN112791396B (zh) 一种拍摄画面的生成方法、装置、电子设备及存储介质
WO2024090065A1 (ja) 情報処理装置、方法及びプログラム
JP7082302B2 (ja) ゲームプログラム、ゲーム装置、及びゲームシステム
CN113641248A (zh) 一种车内增强现实娱乐的实现系统及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20221216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230106

R150 Certificate of patent or registration of utility model

Ref document number: 7219862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150