JP7480408B1 - 情報処理システム、情報処理装置、プログラム及び情報処理方法 - Google Patents

情報処理システム、情報処理装置、プログラム及び情報処理方法 Download PDF

Info

Publication number
JP7480408B1
JP7480408B1 JP2023180675A JP2023180675A JP7480408B1 JP 7480408 B1 JP7480408 B1 JP 7480408B1 JP 2023180675 A JP2023180675 A JP 2023180675A JP 2023180675 A JP2023180675 A JP 2023180675A JP 7480408 B1 JP7480408 B1 JP 7480408B1
Authority
JP
Japan
Prior art keywords
information
position information
terminal device
virtual object
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023180675A
Other languages
English (en)
Inventor
ヒサン ロー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Akatsuki Inc
Original Assignee
Akatsuki Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Akatsuki Inc filed Critical Akatsuki Inc
Priority to JP2023180675A priority Critical patent/JP7480408B1/ja
Application granted granted Critical
Publication of JP7480408B1 publication Critical patent/JP7480408B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】拡張現実(AR)オブジェクトのモーション情報を簡易に生成する情報処理システム、情報処理装置、プログラム及び情報処理方法を提供する。【解決手段】方法は、ARオブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を端末装置が認識することにより端末装置を基準とした識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、第1位置情報に基づいて識別情報に対応するARオブジェクトを端末装置に表示させる表示処理と、表示処理で表示したARオブジェクトが関連付けられた識別情報を基準とした端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、ARオブジェクトが表示された状態で所定期間に亘って端末装置に識別情報を認識させることにより得られる、所定期間における第2位置情報に基づいて、ARオブジェクトに関するモーション情報を生成する生成処理と、を実行する。【選択図】図10

Description

本発明は、情報処理システム、情報処理装置、プログラム及び情報処理方法に関する。
近年、ユーザが知覚可能な現実空間の映像にコンピュータグラフィックスによる映像を
重ね合わせて現実空間と映像との調和を楽しむことが可能な、現実空間が拡張された拡張
現実空間(AR空間)を提供する技術が提案されている。
特許文献1には、端末装置でARマーカを認識することによってARマーカ上にARオ
ブジェクトを表示させ、そのARオブジェクトを複数の視点の位置から撮像することによ
って、ARオブジェクトが動作しているように描画することができる技術が開示されてい
る。
特開2020-95645公報
ところで、ARオブジェクトを含むモーション情報を生成する場合は、複数のARマー
カが付着された物体(例えば人)の動作をカメラ(モーションキャプチャカメラ)で所定
期間にわたって撮影して、取得した物体の動作を含む情報に基づいて、ARオブジェクト
を含むモーション情報を生成することになる。
この場合、ARマーカが付着された物体が動作するスペース(空間)を確保する必要が
あり、かつ物体の動作を取得するカメラを含めたモーションキャプチャシステムが高価で
あって導入が容易ではないことから、ARオブジェクトを含むモーション情報の生成には
困難が伴うことが懸念される。
本発明は、上記事情に鑑みてなされたものであり、仮想オブジェクトに関するモーショ
ン情報を簡易に生成することができる情報処理システム、情報処理装置、プログラム及び
情報処理方法を提供することを課題とするものである。
上記課題を達成するための本発明に係る情報処理システムは、仮想オブジェクトを端末
装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することに
より前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出す
る第1位置情報算出処理と、該第1位置情報算出処理で算出した前記第1位置情報に基づ
いて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理
と、該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準と
した前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と
、前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別
情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づい
て、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、を実行するも
のである。
これによれば、端末装置で識別情報を認識させることで算出される第2位置情報に基づ
いて、モーション情報を生成することができることから、特殊な環境、設備、装置を確保
したり、複雑な操作を行ったりすることなく、モーション情報を簡易に生成することがで
きる。
上記課題を達成するための本発明に係る情報処理装置は、前記生成処理において、前記
所定期間の中で前記端末装置が前記識別情報を認識できない期間の前記端末装置の動きを
、前記端末装置が前記識別情報を認識している期間の情報に基づいて補完する補完処理を
実行する、
請求項1または2に記載の情報処理システム。 仮想オブジェクトを端末装置に表示さ
せるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末
装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情
報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応す
る前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とし
た前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別
情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づい
て、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
を実行する制御部を備えるものである。
上記課題を達成するための本発明に係るプログラムは、仮想オブジェクトを端末装置に
表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前
記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1
位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応す
る前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とし
た前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別
情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づい
て、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
をコンピュータに実行させるものである。
上記課題を達成するための本発明に係る情報処理方法は、仮想オブジェクトを端末装置
に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより
前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第
1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応す
る前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とし
た前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別
情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づい
て、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
をコンピュータが実行するものである。
この発明によれば、仮想オブジェクトに関するモーション情報を簡易に生成することが
できる。
本発明の実施の形態に係る情報処理システムの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の機能の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の機能における処理の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の機能における処理の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の機能における処理の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのサーバの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのサーバの機能の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムの仮想オブジェクト情報の概略を説明する図である。 同じく、本実施の形態に係る情報処理システムの処理の概略を説明するフローチャートである。
次に、図1~図10に基づいて、本発明の実施の形態に係る情報処理システムについて
説明する。
図1は、本発明の実施の形態に係る情報処理システムの構成の概略を説明するブロック
図である。図示のように、情報処理システム10は、識別情報であるARマーカMを認識
する端末装置であるユーザ端末20及び情報処理装置であるサーバ30を主要構成として
備える。
この情報処理システム10は、本実施の形態では、ユーザ端末20がユーザ1に保有さ
れ、サーバ30が事業者2に配備されて、これらがインターネット網等のネットワークN
を介して互いにアクセス可能に接続される。
ARマーカMは、本実施の形態では、ARオブジェクトO(仮想オブジェクト)を端末
装置に表示させるための情報(例えば描画情報)が関連付けられた(記憶された)識別情
報であって、ユーザ1が保有するユーザ端末20に認識されると、ARオブジェクトOが
ユーザ端末20に表示される。
次に、本実施の形態のゲームシステム10の各部の具体的な構成について説明する。
ユーザ端末20は、本実施の形態では、携帯型情報端末であるスマートフォンで実装さ
れるが、例えばタブレット型のコンピュータ、デスクトップ型あるいはノート型のコンピ
ュータによって実装されるものであってもよい。
図2は、ユーザ端末20の構成の概略を説明するブロック図である。図示のように、ユ
ーザ端末20は、制御部21、カメラ22、ディスプレイ23及びセンサ類24を主要構
成として備える。
制御部21は、本実施の形態では、カメラ22、ディスプレイ23及びセンサ類24等
のユーザ端末20の各部を制御するものであって、例えばプロセッサ、メモリ、ストレー
ジ、送受信部等によって構成される。
この制御部21には、本実施の形態では、ユーザ端末20上で起動する各種のアプリケ
ーションが格納され、本実施の形態では、ARマーカMを認識して取得した情報を処理す
るアプリケーションが格納される。
カメラ22は、ユーザ1と対面するディスプレイ23の反対側(ユーザ端末20の裏面
)に配置され、本実施の形態では、制御部21に格納されたアプリケーションと協働して
ARマーカMを撮影することにより認識するインターフェースとして作動する。カメラ2
2は、ユーザ端末20の表面(ディスプレイ23が設けられた面)、側面等に設けられて
もよい。
ディスプレイ23には、本実施の形態では、ユーザ端末20で実行されるアプリケーシ
ョン等の画面インターフェース等が表示されるとともに、ARマーカMを認識することに
よってARオブジェクトOが描画される。
このディスプレイ23は、表示面への接触によって情報の入力を受け付けるいわゆるタ
ッチパネルであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される
ディスプレイ23への情報の入力は、ディスプレイ32に対するプレイヤ2の任意の動
作(例えば画面をタップ、ダブルタップ、ロングタップ、マルチタッチ、ピンチイン、ピ
ンチアウト、スライド、スワイプする動作や、画面に表示されるアイコン等をドラッグし
てドロップする動作等)に基づいて入力される。
センサ類24は、本実施の形態では、ジャイロセンサ、加速度センサ、GPS等によって
構成され、任意の空間におけるユーザ端末20の座標位置や角度等を検知する。センサ類
24は、ユーザ端末20の傾き(水平方向、鉛直方向に対する角度)を検出することがで
きる。
図3は、ユーザ端末20の機能の概略を説明するブロック図である。図示のように、ユ
ーザ端末20は、本実施の形態では、第1位置情報算出部20a、生成部20b、第2位
置情報算出部20c及び送受信部20dを備える。
これら第1位置情報算出部20a、生成部20b、第2位置情報算出部20c及び送受
信部20dは、制御部21のメモリに記憶されたプログラムを制御部21のプロセッサで
実行することによって実現される。
図4は、第1位置情報算出部20aの処理の概略を説明する図である。図示のように、
ユーザ端末20がカメラ22を介してARマーカMを認識すると、第1位置情報算出部2
0aは、ユーザ端末20を基準としたARマーカMが配置された空間における座標及び角
度を含む位置情報を、第1位置情報D1として算出する(第1位置情報算出処理)。
図5は、生成部20bの処理の概略を説明する図である。生成部20bは、本実施の形
態では、第1位置情報算出処理で算出した第1位置情報D1とARマーカMに関連づけら
れた後述するARオブジェクト情報とに基づいて、図示のように、ARマーカMに応じた
ARオブジェクトOをユーザ端末20のディスプレイ23に描画する(表示処理)。ディ
スプレイ23には、ARマーカMの真上に位置し、ARマーカMの向きに応じた向き(例
えば、ARマーカの一方側がARオブジェクトの正面となる向き)でARオブジェクトO
が表示される。ユーザがユーザ端末20を動かすと、ARマーカMとユーザ端末20の相
対的な位置関係(3次元の位置、方向)が変化し、その変化に応じてディスプレイ23に
表示されるARオブジェクトOも変化する。すなわち、例えば、ARマーカMの一方側か
らユーザ端末20でARマーカMを認識すると、ARオブジェクトOの正面の画像が表示
され、ARマーカMの逆側からユーザ端末20でARマーカMを認識すると、ARオブジ
ェクトOの背面の画像が表示される。なお、ARマーカMに対するARオブジェクトOの
位置及び向きは基本的に一定であるが、予め記憶されたプログラムに応じて変化してもよ
い。
図6は、第2位置情報算出部20cの処理の概略を説明する図である。図示のように、
第2位置情報算出部20cは、表示処理で描画したARオブジェクトOの描画情報が記憶
されたARマーカMを基準としたユーザ端末20の空間における座標及び角度を含む位置
情報を、第2位置情報D2として算出する(第2位置情報算出処理)。
この第2位置情報算出部20cは、本実施の形態では、第1位置情報算出処理で算出し
た第1位置情報D1を座標変換処理によって逆算することで、ARマーカMを基準とした
場合のユーザ端末20の相対的な座標及び相対的な角度を第2位置情報D2として算出す
る。具体的には、例えば、座標変換行列等を用いた公知の座標変換処理によって、ユーザ
端末20のカメラの位置及び向きを原点とする座標系を、ARマーカMの位置及び向きを
基準とする座標系に変換することによって、第2位置情報D2を算出する。
図3で示す送受信部20dは、本実施の形態では、第2位置情報算出処理で算出した第
2位置情報D2等の情報を、サーバ30に送信する処理を実行する(送信処理)。送受信
部20dは、ユーザ端末20をネットワークNに接続する。この送受信部20dは、Bl
uetooth(登録商標)やBLE(Bluetooth Low Energy)と
いった近距離通信インターフェースを具備するものであってもよい。なお、本実施の形態
では、第1位置情報算出処理、表示処理、第2位置情報算出処理、送信処理を所定期間(
例えば、0.1秒、0.5秒ごと等の一定期間)ごとに繰返し連続して行う。また、表示
処理と第2位置情報算出処理の前後関係は限定されずどちらが時間的に先でもよく、また
、同時でもよい。
図1で示すサーバ30は、本実施の形態では、デスクトップ型あるいはノート型のコン
ピュータによって実装される。
図7は、サーバ30の構成の概略を説明するブロック図である。図示のように、サーバ
30は、プロセッサ31、メモリ32、ストレージ33、送受信部34、及び入出力部3
5を備え、これらが互いにバス36を介して電気的に接続される。
プロセッサ31は、サーバ30の動作を制御し、各要素間におけるデータの送受信の制
御や、アプリケーションプログラムの実行に必要な処理等を行う演算装置である。
このプロセッサ31は、本実施の形態では例えばCPU(Central Proce
ssing Unit)であり、後述するストレージ33に格納されてメモリ32に展開
されたアプリケーションプログラムを実行して各処理を行う。
メモリ32は、本実施の形態では、DRAM(Dynamic Random Acc
ess Memory)等の揮発性記憶装置で構成される主記憶装置で実装される。
このメモリ32は、プロセッサ31の作業領域として使用される一方、サーバ30の起
動時に実行されるBIOS(Basic Input/Output System)、
及び各種の設定情報等が格納される。
ストレージ33は、プログラムや各種の処理に用いられる情報等が格納されている。
送受信部34は、サーバ30をネットワークNに接続する。この送受信部34は、Bl
uetooth(登録商標)やBLE(Bluetooth Low Energy)と
いった近距離通信インターフェースを具備するものであってもよい。
入出力部35は、キーボードやマウス、あるいはディスプレイ等の入出力機器が接続さ
れるインターフェースである。
バス36は、接続したプロセッサ31、メモリ32、ストレージ33、送受信部34及
び入出力部35の間において、例えばアドレス信号、データ信号及び各種の制御信号を伝
達する。
図8は、サーバ30の機能の概略を説明するブロック図である。図示のように、サーバ
30は、本実施の形態では、記憶部30a、受信部30b及び生成部30cを備える。
記憶部30aは、ストレージ33の記憶領域が区画されることによって実現される。こ
の記憶部30aには、本実施の形態では、第2位置情報D2、ARオブジェクト情報D3
及びモーション情報D4が格納される。
図9は、ARオブジェクト情報D3の概略を説明する図である。図示のように、ARオ
ブジェクト情報D3は、本実施の形態では、ARマーカの識別情報(識別番号等)がそれ
ぞれ割り当てられた複数のARオブジェクトによって構成されるデータベースあるいはラ
イブラリである。ARオブジェクトは、例えば3次元のキャラクタ、アイテム、建物、植
物、動物、人物等の任意の対象物の画像であり、ARオブジェクト情報は、3次元モデル
データ情報を含む。ARオブジェクト情報は、静止したオブジェクトに限らず、動作する
オブジェクトを含んでもよい。
図8で示すモーション情報D4は、ARオブジェクトOを含む映像を記録した動画情報
とすることができる。モーション情報D4は、ARマーカを基準とする所定期間のユーザ
端末(カメラ)の位置、角度を含むカメラ動作情報を含むようにしてもよい。モーション
情報D4は、本実施の形態では、例えば、スマートフォン、ゲーム端末等のコンピュータ
で実行されるゲームにおけるキャラクタの映像処理を実現する素材として用いることがで
きる。より具体的に、ゲームにおいてキャラクタを含む映像を生成する際に、ゲーム内の
仮想カメラ(視点)の動作情報としてカメラ動作情報を用いることができる。
受信部30b及び生成部30cは、本実施の形態では、メモリ32に記憶されたプログ
ラムをプロセッサ31で実行することによって実現される。
受信部30bは、本実施の形態では、ユーザ端末20から送信される第2位置情報D2
を受信する受信処理を実行する。
生成部30cは、本実施の形態では、ユーザ端末20の第2位置情報算出処理で算出し
た第2位置情報D2に基づいて、任意のARオブジェクトOのモーション情報D4を生成
する処理を実行する(生成処理)。
この生成処理は、本実施の形態では、ARマーカMに関連づけられたARオブジェクト
情報D3と所定期間の第2位置情報D2とを関連づけて記録(録画)したデータを書き出
す(適宜、データ形式を変換する)ことによって、ARオブジェクトOのモーション情報
D4を生成する処理を実行する。
次に、本実施の形態の情報処理システム10の処理の概略について説明する。
図10は、本実施の形態に係る情報処理システム10の処理の概略を説明するフローチ
ャートである。図示のように、まず、ステップS1において、ユーザ1がユーザ端末20
のアプリケーションを起動してカメラ22を介してARマーカMを認識させると、ユーザ
端末20を基準としたARマーカMが配置された空間における第1位置情報D1を算出す
る(第1位置情報算出処理)。
この第1位置情報D1は、本実施の形態では、ARマーカMが配置された空間(現実空
間)における座標及び角度を含む位置情報を含むものである。より具体的に、ユーザ端末
20の所定の一点を原点とするユーザ端末座標系上でのARマーカMの3次元座標、3次
元方向(角度)の情報を含む。
続くステップS2において、第1位置情報算出処理で算出した第1位置情報D1とAR
オブジェクト情報D3とに基づいて、ARマーカMに対応するARオブジェクトO(AR
キャラクタ)の画像データを生成し、ユーザ端末20のディスプレイ23に表示させる(
表示処理)。ディスプレイ23には、ARマーカMを含む現実空間にARオブジェクトO
を重畳させたAR画像が表示される。
一方、ステップS3において、描画処理で描画したARオブジェクトOの描画情報が記
憶されたARマーカMを基準としたユーザ端末20の空間における第2位置情報D2を算
出する(第2位置情報算出処理)。
この第2位置情報算出部20cは、本実施の形態では、ARマーカMを基準とした場合
のユーザ端末20の相対的な座標及び相対的な角度を含むものである。第2位置情報算出
部20cは、例えばARマーカの中心点を原点とするARマーカ座標系上での、ユーザ端
末20の3次元座標、3次元方向(角度)の情報を含む。
第2位置情報D2を算出した後、ユーザ端末20は、ステップS4において、算出した
第2位置情報D2をサーバ30に送信する(送信処理)。
サーバ30は、ユーザ端末20から送信された第2位置情報D2を受信する(受信処理
)と、ステップS5において、受信した第2位置情報D2とARオブジェクト情報D3と
を関連づけて記憶する。また、ステップS6において、受信したデータ(記憶したデータ
)に基づいて、ARオブジェクトOに関するモーション情報D4を生成する(生成処理)
ユーザは、表示処理によってARオブジェクトOがユーザ端末20に表示された状態で
、任意の所定期間にわたってユーザ端末20にARマーカMを認識させる。これにより、
サーバ30は所定期間にわたって第2位置情報算出処理を繰返し実行し、所定期間におけ
る第2位置情報が算出され、ARマーカMを基準とする(ARマーカ座標系上での)ユー
ザ端末20の動きに関するモーション情報を生成することができる。ユーザは、所定期間
において、ユーザ端末20をARマーカ、すなわちARオブジェクトに近づけたり、遠ざ
けたりして相対的な距離を変化させるようにしてもよいし、ARマーカの周囲でユーザ端
末20を移動させて、様々な角度からARマーカ、すなわちARオブジェクトを撮影する
ようにしてもよい。これによれば、ARマーカに対するユーザ端末の位置、角度の変化に
応じてARオブジェクトの表示サイズ(大きさ)や角度が変化するモーション情報が生成
される。
所定期間は、ユーザ端末20を使用するユーザから受け付ける開始操作と終了操作の間
の期間とすることができる。開始操作は、例えば、表示処理によってARオブジェクトO
がユーザ端末20に表示された状態で、ユーザがユーザ端末20に表示される撮影開始ア
イコンを選択する操作とすることができる。そして、終了操作は、ユーザがユーザ端末2
0に表示される撮影終了アイコンを選択する操作とすることができる。あるいは、所定期
間は、ユーザがユーザ端末20に表示される撮影アイコンを継続的に選択(長押し)し続
けた期間とすることも可能である。その場合、撮影アイコンを選択開始する(タッチパネ
ルへの接触を開始する)操作が、上記開始操作であり、撮影アイコンから指を離す操作が
終了操作となる。
生成されたモーション情報D4は、例えば、ゲームやアニメーション映画等の映像表現
におけるキャラクタの映像処理等を実現する素材として用いることができる。
このように、ユーザ端末20でARマーカMを認識することを起因として算出される第
2位置情報D2に基づいて、ARオブジェクトOのモーション情報D4を生成することが
できることから、特殊な設備を確保したり特殊な装置を導入したりすることなく、モーシ
ョン情報D4を簡易に生成することができる。
なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲
で種々の変更が可能である。
上記実施の形態では、ユーザ端末20及びサーバ30に格納されたプログラムが、AR
オブジェクトに関する情報処理を実行する場合を説明したが、ユーザ端末20とサーバ3
0とで処理を分散させないでユーザ端末20でARオブジェクトに関する情報処理を実行
するように構成してもよい。また、上記説明において、ユーザ端末20で実行する情報処
理の少なくとも一部をサーバ30で実行してもよいし、サーバ30で実行する情報処理の
一部をユーザ端末20で実行してもよい。
また、本実施形態にあっては、ユーザ端末20の傾きを検出可能なセンサ(センサ類2
4)から取得するセンサ情報に基づいて、ARマーカの傾き情報を算出する傾き情報算出
処理を実行するようにしてもよい。その場合、生成処理においてモーション情報を生成す
る際に、傾き情報に基づいてARオブジェクト及び仮想カメラの少なくとも何れかの傾き
を補正する傾き補正処理を実行するようにしてもよい。これによれば、ARマーカが水平
面に対して傾斜した斜めの面に置かれていたとしても、水平面に置かれた場合と同じモー
ションデータを生成することができる。その結果、ARマーカ上に表示されるARオブジ
ェクトが傾いて表示されることを抑制することができる。ARマーカの傾き情報を算出す
る際には、ユーザ端末20の水平方向(又は鉛直方向)に対する傾きと、ユーザ端末に対
するARマーカの相対的な角度の情報に基づいて、ARマーカの水平方向(又は鉛直方向
)に対する傾きを算出することができる。
また、本実施形態にあっては、生成処理において、所定期間の中でユーザ端末20がA
Rマーカを認識できない期間の端末装置の動きを、端末装置が識別情報を認識している期
間の情報に基づいて補完する補完処理を実行するようにしてもよい。例えば、所定期間の
うち、ARマーカを認識できない期間の直前の端末装置の位置と、ARマーカを認識でき
ない期間の直後の端末装置の位置とを線で結ぶ(連続させる)処理により、ARマーカを
認識できない期間のモーション情報を補完することができる。これによれば、所定期間の
中で一時的にARマーカを認識できない期間があっても、モーション情報を生成すること
ができる。
本発明は、以下の構成を備える。
(項目1)
仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記
端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を
含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応す
る前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とし
た前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別
情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づい
て、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
を実行する情報処理システム。
(項目2)
前記第2位置情報算出処理は、
前記第1位置情報算出処理で算出した前記第1位置情報を座標変換処理することによっ
て前記第2位置情報を算出する、
項目1に記載の情報処理システム。
(項目3)
前記所定期間は、前記端末装置を使用するユーザから受け付ける開始操作と終了操作の
間の期間である、
前記識別情報に記憶された前記描画情報と関連づけられた前記仮想オブジェクトとして
のARオブジェクトに関するARオブジェクト情報と前記第2位置情報とに基づいて前記
モーション情報を生成する、
項目1または2に記載の情報処理システム。
(項目4)
前記識別情報は、
前記仮想オブジェクトとしてのARオブジェクトの情報が関連付けられたARマーカで
ある、
項目1または2に記載の情報処理システム。
(項目5)
前記端末装置の傾きを検出可能なセンサから取得するセンサ情報に基づいて、前記識別
情報の傾き情報を算出する傾き情報算出処理と、
前記生成処理において前記モーション情報を生成する際に、前記傾き情報に基づいて傾
きを補正する傾き補正処理と、を実行する、
項目1または2に記載の情報処理システム。
(項目6)
前記生成処理において、前記所定期間の中で前記端末装置が前記識別情報を認識できな
い期間の前記端末装置の動きを、前記端末装置が前記識別情報を認識している期間の情報
に基づいて補完する補完処理を実行する、
項目1または2に記載の情報処理システム。
(項目7)
仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記
端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を
含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応す
る前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とし
た前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別
情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づい
て、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
を実行する制御部を備える情報処理装置。
(項目8)
仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記
端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を
含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応す
る前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とし
た前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別
情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づい
て、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
をコンピュータに実行させる、プログラム。
(項目9)
仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記
端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を
含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応す
る前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とし
た前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別
情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づい
て、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
をコンピュータが実行する、情報処理方法。
1 ユーザ
2 事業者
10 情報処理システム
20 ユーザ端末(端末装置)
30 サーバ(情報処理装置)

Claims (7)

  1. 仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
    該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
    該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
    前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
    を実行し、
    前記モーション情報は、前記所定期間にわたる前記端末装置の座標及び角度の情報であるカメラ動作情報を含み、
    前記カメラ動作情報は、ゲームにおける前記仮想オブジェクトを含む映像を生成するための仮想カメラの動作情報として用いられる情報であり、
    前記第2位置情報算出処理は、
    前記第1位置情報算出処理で算出した前記第1位置情報を座標変換処理することによって前記第2位置情報を算出する、情報処理システム。
  2. 前記所定期間は、前記端末装置を使用するユーザから受け付ける開始操作と終了操作の間の期間であり、
    前記識別情報に関連づけられた前記仮想オブジェクトとしてのARオブジェクトに関するARオブジェクト情報と前記第2位置情報とに基づいて前記モーション情報を生成する、
    請求項に記載の情報処理システム。
  3. 前記識別情報は、
    前記仮想オブジェクトとしてのARオブジェクトの情報が関連付けられたARマーカである、
    請求項1または2に記載の情報処理システム。
  4. 前記端末装置の傾きを検出可能なセンサから取得するセンサ情報に基づいて、前記識別情報の傾き情報を算出する傾き情報算出処理と、
    前記生成処理において前記モーション情報を生成する際に、前記傾き情報に基づいて傾きを補正する傾き補正処理と、を実行する、
    請求項1または2に記載の情報処理システム。
  5. 仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
    該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
    該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
    前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
    を実行する制御部を備え、
    前記モーション情報は、前記所定期間にわたる前記端末装置の座標及び角度の情報であるカメラ動作情報を含み、
    前記カメラ動作情報は、ゲームにおける前記仮想オブジェクトを含む映像を生成するための仮想カメラの動作情報として用いられる情報であり、
    前記第2位置情報算出処理は、
    前記第1位置情報算出処理で算出した前記第1位置情報を座標変換処理することによって前記第2位置情報を算出する、情報処理装置。
  6. 仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
    該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
    該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
    前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
    をコンピュータに実行させ、
    前記モーション情報は、前記所定期間にわたる前記端末装置の座標及び角度の情報であるカメラ動作情報を含み、
    前記カメラ動作情報は、ゲームにおける前記仮想オブジェクトを含む映像を生成するための仮想カメラの動作情報として用いられる情報であり、
    前記第2位置情報算出処理は、
    前記第1位置情報算出処理で算出した前記第1位置情報を座標変換処理することによって前記第2位置情報を算出する、プログラム。
  7. 仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
    該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
    該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
    前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
    をコンピュータが実行し、
    前記モーション情報は、前記所定期間にわたる前記端末装置の座標及び角度の情報であるカメラ動作情報を含み、
    前記カメラ動作情報は、ゲームにおける前記仮想オブジェクトを含む映像を生成するための仮想カメラの動作情報として用いられる情報であり、
    前記第2位置情報算出処理は、
    前記第1位置情報算出処理で算出した前記第1位置情報を座標変換処理することによって前記第2位置情報を算出する、情報処理方法。
JP2023180675A 2023-05-01 2023-10-20 情報処理システム、情報処理装置、プログラム及び情報処理方法 Active JP7480408B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023180675A JP7480408B1 (ja) 2023-05-01 2023-10-20 情報処理システム、情報処理装置、プログラム及び情報処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2023180666 2023-05-01
JP2023180675A JP7480408B1 (ja) 2023-05-01 2023-10-20 情報処理システム、情報処理装置、プログラム及び情報処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2023180666 Division 2023-05-01 2023-05-01

Publications (1)

Publication Number Publication Date
JP7480408B1 true JP7480408B1 (ja) 2024-05-09

Family

ID=90931778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023180675A Active JP7480408B1 (ja) 2023-05-01 2023-10-20 情報処理システム、情報処理装置、プログラム及び情報処理方法

Country Status (1)

Country Link
JP (1) JP7480408B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071850A (ja) 2012-10-02 2014-04-21 Osaka Prefecture Univ 画像処理装置、端末装置、画像処理方法、およびプログラム
JP2019133507A (ja) 2018-02-01 2019-08-08 株式会社Cygames 複合現実システム、プログラム、方法、及び携帯端末装置
JP2020119334A (ja) 2019-01-24 2020-08-06 株式会社バンダイナムコエンターテインメント プログラム、電子機器およびデータ記録方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071850A (ja) 2012-10-02 2014-04-21 Osaka Prefecture Univ 画像処理装置、端末装置、画像処理方法、およびプログラム
JP2019133507A (ja) 2018-02-01 2019-08-08 株式会社Cygames 複合現実システム、プログラム、方法、及び携帯端末装置
JP2020119334A (ja) 2019-01-24 2020-08-06 株式会社バンダイナムコエンターテインメント プログラム、電子機器およびデータ記録方法

Similar Documents

Publication Publication Date Title
US10732725B2 (en) Method and apparatus of interactive display based on gesture recognition
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
US9639988B2 (en) Information processing apparatus and computer program product for processing a virtual object
US9213436B2 (en) Fingertip location for gesture input
US9268410B2 (en) Image processing device, image processing method, and program
KR101732839B1 (ko) 컨텐츠 전달의 세그먼테이션
CN104364753A (zh) 用于突出显示活动界面元素的方法
US10114543B2 (en) Gestures for sharing data between devices in close physical proximity
KR20110082636A (ko) 임의의 위치들을 가지는 디스플레이 구성 요소들 상에 3차원 콘텐츠의 공간적으로 상호 연관된 렌더링
JP7078234B2 (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
US20140152544A1 (en) Displaying system, display controller, storage medium and method
CN113546419B (zh) 游戏地图显示方法、装置、终端及存储介质
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
JP7480408B1 (ja) 情報処理システム、情報処理装置、プログラム及び情報処理方法
US11562538B2 (en) Method and system for providing a user interface for a 3D environment
US10410425B1 (en) Pressure-based object placement for augmented reality applications
CN114167997B (zh) 一种模型显示方法、装置、设备和存储介质
JP7373090B1 (ja) 情報処理システム、情報処理装置、プログラム及び情報処理方法
JP7287172B2 (ja) 表示制御装置、表示制御方法、及びプログラム
US20220253198A1 (en) Image processing device, image processing method, and recording medium
CN115686233A (zh) 一种主动笔与显示设备的交互方法、装置及交互系统
JP7162795B2 (ja) 映像処理システム
JP6169462B2 (ja) 情報処理装置及び情報処理方法
CN117991967A (zh) 虚拟键盘交互方法、装置、设备、存储介质和程序产品
CN114011058A (zh) 一种游戏控制的方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231020

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240424

R150 Certificate of patent or registration of utility model

Ref document number: 7480408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150