JP7373090B1 - 情報処理システム、情報処理装置、プログラム及び情報処理方法 - Google Patents

情報処理システム、情報処理装置、プログラム及び情報処理方法 Download PDF

Info

Publication number
JP7373090B1
JP7373090B1 JP2023075678A JP2023075678A JP7373090B1 JP 7373090 B1 JP7373090 B1 JP 7373090B1 JP 2023075678 A JP2023075678 A JP 2023075678A JP 2023075678 A JP2023075678 A JP 2023075678A JP 7373090 B1 JP7373090 B1 JP 7373090B1
Authority
JP
Japan
Prior art keywords
information
terminal device
identification information
position information
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023075678A
Other languages
English (en)
Inventor
ヒサン ロー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Akatsuki Inc
Original Assignee
Akatsuki Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Akatsuki Inc filed Critical Akatsuki Inc
Priority to JP2023075678A priority Critical patent/JP7373090B1/ja
Application granted granted Critical
Publication of JP7373090B1 publication Critical patent/JP7373090B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ARオブジェクトのモーション情報を簡易に生成することができる情報処理システム、情報処理装置、プログラム及び情報処理方法を提供する。【解決手段】仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、を実行する。【選択図】図1

Description

本発明は、情報処理システム、情報処理装置、プログラム及び情報処理方法に関する。
近年、ユーザが知覚可能な現実空間の映像にコンピュータグラフィックスによる映像を重ね合わせて現実空間と映像との調和を楽しむことが可能な、現実空間が拡張された拡張現実空間(AR空間)を提供する技術が提案されている。
特許文献1には、端末装置でARマーカを認識することによってARマーカ上にARオブジェクトを表示させ、そのARオブジェクトを複数の視点の位置から撮像することによって、ARオブジェクトが動作しているように描画することができる技術が開示されている。
特開2020-95645公報
ところで、ARオブジェクトを含むモーション情報を生成する場合は、複数のARマーカが付着された物体(例えば人)の動作をカメラ(モーションキャプチャカメラ)で所定期間にわたって撮影して、取得した物体の動作を含む情報に基づいて、ARオブジェクトを含むモーション情報を生成することになる。
この場合、ARマーカが付着された物体が動作するスペース(空間)を確保する必要があり、かつ物体の動作を取得するカメラを含めたモーションキャプチャシステムが高価であって導入が容易ではないことから、ARオブジェクトを含むモーション情報の生成には困難が伴うことが懸念される。
本発明は、上記事情に鑑みてなされたものであり、仮想オブジェクトに関するモーション情報を簡易に生成することができる情報処理システム、情報処理装置、プログラム及び情報処理方法を提供することを課題とするものである。
上記課題を達成するための本発明に係る情報処理システムは、仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、を実行するものである。
これによれば、端末装置で識別情報を認識させることで算出される第2位置情報に基づいて、モーション情報を生成することができることから、特殊な環境、設備、装置を確保したり、複雑な操作を行ったりすることなく、モーション情報を簡易に生成することができる。
上記課題を達成するための本発明に係る情報処理装置は、前記生成処理において、前記所定期間の中で前記端末装置が前記識別情報を認識できない期間の前記端末装置の動きを、前記端末装置が前記識別情報を認識している期間の情報に基づいて補完する補完処理を実行する、
請求項1または2に記載の情報処理システム。 仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
を実行する制御部を備えるものである。
上記課題を達成するための本発明に係るプログラムは、仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
をコンピュータに実行させるものである。
上記課題を達成するための本発明に係る情報処理方法は、仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
をコンピュータが実行するものである。
この発明によれば、仮想オブジェクトに関するモーション情報を簡易に生成することができる。
本発明の実施の形態に係る情報処理システムの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の機能の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の機能における処理の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の機能における処理の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の機能における処理の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのサーバの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのサーバの機能の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムの仮想オブジェクト情報の概略を説明する図である。 同じく、本実施の形態に係る情報処理システムの処理の概略を説明するフローチャートである。
次に、図1~図10に基づいて、本発明の実施の形態に係る情報処理システムについて説明する。
図1は、本発明の実施の形態に係る情報処理システムの構成の概略を説明するブロック図である。図示のように、情報処理システム10は、識別情報であるARマーカMを認識する端末装置であるユーザ端末20及び情報処理装置であるサーバ30を主要構成として備える。
この情報処理システム10は、本実施の形態では、ユーザ端末20がユーザ1に保有され、サーバ30が事業者2に配備されて、これらがインターネット網等のネットワークNを介して互いにアクセス可能に接続される。
ARマーカMは、本実施の形態では、ARオブジェクトO(仮想オブジェクト)を端末装置に表示させるための情報(例えば描画情報)が関連付けられた(記憶された)識別情報であって、ユーザ1が保有するユーザ端末20に認識されると、ARオブジェクトOがユーザ端末20に表示される。
次に、本実施の形態のゲームシステム10の各部の具体的な構成について説明する。
ユーザ端末20は、本実施の形態では、携帯型情報端末であるスマートフォンで実装されるが、例えばタブレット型のコンピュータ、デスクトップ型あるいはノート型のコンピュータによって実装されるものであってもよい。
図2は、ユーザ端末20の構成の概略を説明するブロック図である。図示のように、ユーザ端末20は、制御部21、カメラ22、ディスプレイ23及びセンサ類24を主要構成として備える。
制御部21は、本実施の形態では、カメラ22、ディスプレイ23及びセンサ類24等のユーザ端末20の各部を制御するものであって、例えばプロセッサ、メモリ、ストレージ、送受信部等によって構成される。
この制御部21には、本実施の形態では、ユーザ端末20上で起動する各種のアプリケーションが格納され、本実施の形態では、ARマーカMを認識して取得した情報を処理するアプリケーションが格納される。
カメラ22は、ユーザ1と対面するディスプレイ23の反対側(ユーザ端末20の裏面)に配置され、本実施の形態では、制御部21に格納されたアプリケーションと協働してARマーカMを撮影することにより認識するインターフェースとして作動する。カメラ22は、ユーザ端末20の表面(ディスプレイ23が設けられた面)、側面等に設けられてもよい。
ディスプレイ23には、本実施の形態では、ユーザ端末20で実行されるアプリケーション等の画面インターフェース等が表示されるとともに、ARマーカMを認識することによってARオブジェクトOが描画される。
このディスプレイ23は、表示面への接触によって情報の入力を受け付けるいわゆるタッチパネルであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される。
ディスプレイ23への情報の入力は、ディスプレイ32に対するプレイヤ2の任意の動作(例えば画面をタップ、ダブルタップ、ロングタップ、マルチタッチ、ピンチイン、ピンチアウト、スライド、スワイプする動作や、画面に表示されるアイコン等をドラッグしてドロップする動作等)に基づいて入力される。
センサ類24は、本実施の形態では、ジャイロセンサ、加速度センサ、GPS等によって構成され、任意の空間におけるユーザ端末20の座標位置や角度等を検知する。センサ類24は、ユーザ端末20の傾き(水平方向、鉛直方向に対する角度)を検出することができる。
図3は、ユーザ端末20の機能の概略を説明するブロック図である。図示のように、ユーザ端末20は、本実施の形態では、第1位置情報算出部20a、生成部20b、第2位置情報算出部20c及び送受信部20dを備える。
これら第1位置情報算出部20a、生成部20b、第2位置情報算出部20c及び送受信部20dは、制御部21のメモリに記憶されたプログラムを制御部21のプロセッサで実行することによって実現される。
図4は、第1位置情報算出部20aの処理の概略を説明する図である。図示のように、ユーザ端末20がカメラ22を介してARマーカMを認識すると、第1位置情報算出部20aは、ユーザ端末20を基準としたARマーカMが配置された空間における座標及び角度を含む位置情報を、第1位置情報D1として算出する(第1位置情報算出処理)。
図5は、生成部20bの処理の概略を説明する図である。生成部20bは、本実施の形態では、第1位置情報算出処理で算出した第1位置情報D1とARマーカMに関連づけられた後述するARオブジェクト情報とに基づいて、図示のように、ARマーカMに応じたARオブジェクトOをユーザ端末20のディスプレイ23に描画する(表示処理)。ディスプレイ23には、ARマーカMの真上に位置し、ARマーカMの向きに応じた向き(例えば、ARマーカの一方側がARオブジェクトの正面となる向き)でARオブジェクトOが表示される。ユーザがユーザ端末20を動かすと、ARマーカMとユーザ端末20の相対的な位置関係(3次元の位置、方向)が変化し、その変化に応じてディスプレイ23に表示されるARオブジェクトOも変化する。すなわち、例えば、ARマーカMの一方側からユーザ端末20でARマーカMを認識すると、ARオブジェクトOの正面の画像が表示され、ARマーカMの逆側からユーザ端末20でARマーカMを認識すると、ARオブジェクトOの背面の画像が表示される。なお、ARマーカMに対するARオブジェクトOの位置及び向きは基本的に一定であるが、予め記憶されたプログラムに応じて変化してもよい。
図6は、第2位置情報算出部20cの処理の概略を説明する図である。図示のように、第2位置情報算出部20cは、表示処理で描画したARオブジェクトOの描画情報が記憶されたARマーカMを基準としたユーザ端末20の空間における座標及び角度を含む位置情報を、第2位置情報D2として算出する(第2位置情報算出処理)。
この第2位置情報算出部20cは、本実施の形態では、第1位置情報算出処理で算出した第1位置情報D1を座標変換処理によって逆算することで、ARマーカMを基準とした場合のユーザ端末20の相対的な座標及び相対的な角度を第2位置情報D2として算出する。具体的には、例えば、座標変換行列等を用いた公知の座標変換処理によって、ユーザ端末20のカメラの位置及び向きを原点とする座標系を、ARマーカMの位置及び向きを基準とする座標系に変換することによって、第2位置情報D2を算出する。
図3で示す送受信部20dは、本実施の形態では、第2位置情報算出処理で算出した第2位置情報D2等の情報を、サーバ30に送信する処理を実行する(送信処理)。送受信部20dは、ユーザ端末20をネットワークNに接続する。この送受信部20dは、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。なお、本実施の形態では、第1位置情報算出処理、表示処理、第2位置情報算出処理、送信処理を所定期間(例えば、0.1秒、0.5秒ごと等の一定期間)ごとに繰返し連続して行う。また、表示処理と第2位置情報算出処理の前後関係は限定されずどちらが時間的に先でもよく、また、同時でもよい。
図1で示すサーバ30は、本実施の形態では、デスクトップ型あるいはノート型のコンピュータによって実装される。
図7は、サーバ30の構成の概略を説明するブロック図である。図示のように、サーバ30は、プロセッサ31、メモリ32、ストレージ33、送受信部34、及び入出力部35を備え、これらが互いにバス36を介して電気的に接続される。
プロセッサ31は、サーバ30の動作を制御し、各要素間におけるデータの送受信の制御や、アプリケーションプログラムの実行に必要な処理等を行う演算装置である。
このプロセッサ31は、本実施の形態では例えばCPU(Central Processing Unit)であり、後述するストレージ33に格納されてメモリ32に展開されたアプリケーションプログラムを実行して各処理を行う。
メモリ32は、本実施の形態では、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶装置で実装される。
このメモリ32は、プロセッサ31の作業領域として使用される一方、サーバ30の起動時に実行されるBIOS(Basic Input/Output System)、及び各種の設定情報等が格納される。
ストレージ33は、プログラムや各種の処理に用いられる情報等が格納されている。
送受信部34は、サーバ30をネットワークNに接続する。この送受信部34は、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。
入出力部35は、キーボードやマウス、あるいはディスプレイ等の入出力機器が接続されるインターフェースである。
バス36は、接続したプロセッサ31、メモリ32、ストレージ33、送受信部34及び入出力部35の間において、例えばアドレス信号、データ信号及び各種の制御信号を伝達する。
図8は、サーバ30の機能の概略を説明するブロック図である。図示のように、サーバ30は、本実施の形態では、記憶部30a、受信部30b及び生成部30cを備える。
記憶部30aは、ストレージ33の記憶領域が区画されることによって実現される。この記憶部30aには、本実施の形態では、第2位置情報D2、ARオブジェクト情報D3及びモーション情報D4が格納される。
図9は、ARオブジェクト情報D3の概略を説明する図である。図示のように、ARオブジェクト情報D3は、本実施の形態では、ARマーカの識別情報(識別番号等)がそれぞれ割り当てられた複数のARオブジェクトによって構成されるデータベースあるいはライブラリである。ARオブジェクトは、例えば3次元のキャラクタ、アイテム、建物、植物、動物、人物等の任意の対象物の画像であり、ARオブジェクト情報は、3次元モデルデータ情報を含む。ARオブジェクト情報は、静止したオブジェクトに限らず、動作するオブジェクトを含んでもよい。
図8で示すモーション情報D4は、ARオブジェクトOを含む映像を記録した動画情報とすることができる。モーション情報D4は、ARマーカを基準とする所定期間のユーザ端末(カメラ)の位置、角度を含むカメラ動作情報を含むようにしてもよい。モーション情報D4は、本実施の形態では、例えば、スマートフォン、ゲーム端末等のコンピュータで実行されるゲームにおけるキャラクタの映像処理を実現する素材として用いることができる。より具体的に、ゲームにおいてキャラクタを含む映像を生成する際に、ゲーム内の仮想カメラ(視点)の動作情報としてカメラ動作情報を用いることができる。
受信部30b及び生成部30cは、本実施の形態では、メモリ32に記憶されたプログラムをプロセッサ31で実行することによって実現される。
受信部30bは、本実施の形態では、ユーザ端末20から送信される第2位置情報D2を受信する受信処理を実行する。
生成部30cは、本実施の形態では、ユーザ端末20の第2位置情報算出処理で算出した第2位置情報D2に基づいて、任意のARオブジェクトOのモーション情報D4を生成する処理を実行する(生成処理)。
この生成処理は、本実施の形態では、ARマーカMに関連づけられたARオブジェクト情報D3と所定期間の第2位置情報D2とを関連づけて記録(録画)したデータを書き出す(適宜、データ形式を変換する)ことによって、ARオブジェクトOのモーション情報D4を生成する処理を実行する。
次に、本実施の形態の情報処理システム10の処理の概略について説明する。
図10は、本実施の形態に係る情報処理システム10の処理の概略を説明するフローチャートである。図示のように、まず、ステップS1において、ユーザ1がユーザ端末20のアプリケーションを起動してカメラ22を介してARマーカMを認識させると、ユーザ端末20を基準としたARマーカMが配置された空間における第1位置情報D1を算出する(第1位置情報算出処理)。
この第1位置情報D1は、本実施の形態では、ARマーカMが配置された空間(現実空間)における座標及び角度を含む位置情報を含むものである。より具体的に、ユーザ端末20の所定の一点を原点とするユーザ端末座標系上でのARマーカMの3次元座標、3次元方向(角度)の情報を含む。
続くステップS2において、第1位置情報算出処理で算出した第1位置情報D1とARオブジェクト情報D3とに基づいて、ARマーカMに対応するARオブジェクトO(ARキャラクタ)の画像データを生成し、ユーザ端末20のディスプレイ23に表示させる(表示処理)。ディスプレイ23には、ARマーカMを含む現実空間にARオブジェクトOを重畳させたAR画像が表示される。
一方、ステップS3において、描画処理で描画したARオブジェクトOの描画情報が記憶されたARマーカMを基準としたユーザ端末20の空間における第2位置情報D2を算出する(第2位置情報算出処理)。
この第2位置情報算出部20cは、本実施の形態では、ARマーカMを基準とした場合のユーザ端末20の相対的な座標及び相対的な角度を含むものである。第2位置情報算出部20cは、例えばARマーカの中心点を原点とするARマーカ座標系上での、ユーザ端末20の3次元座標、3次元方向(角度)の情報を含む。
第2位置情報D2を算出した後、ユーザ端末20は、ステップS4において、算出した第2位置情報D2をサーバ30に送信する(送信処理)。
サーバ30は、ユーザ端末20から送信された第2位置情報D2を受信する(受信処理)と、ステップS5において、受信した第2位置情報D2とARオブジェクト情報D3とを関連づけて記憶する。また、ステップS6において、受信したデータ(記憶したデータ)に基づいて、ARオブジェクトOに関するモーション情報D4を生成する(生成処理)。
ユーザは、表示処理によってARオブジェクトOがユーザ端末20に表示された状態で、任意の所定期間にわたってユーザ端末20にARマーカMを認識させる。これにより、サーバ30は所定期間にわたって第2位置情報算出処理を繰返し実行し、所定期間における第2位置情報が算出され、ARマーカMを基準とする(ARマーカ座標系上での)ユーザ端末20の動きに関するモーション情報を生成することができる。ユーザは、所定期間において、ユーザ端末20をARマーカ、すなわちARオブジェクトに近づけたり、遠ざけたりして相対的な距離を変化させるようにしてもよいし、ARマーカの周囲でユーザ端末20を移動させて、様々な角度からARマーカ、すなわちARオブジェクトを撮影するようにしてもよい。これによれば、ARマーカに対するユーザ端末の位置、角度の変化に応じてARオブジェクトの表示サイズ(大きさ)や角度が変化するモーション情報が生成される。
所定期間は、ユーザ端末20を使用するユーザから受け付ける開始操作と終了操作の間の期間とすることができる。開始操作は、例えば、表示処理によってARオブジェクトOがユーザ端末20に表示された状態で、ユーザがユーザ端末20に表示される撮影開始アイコンを選択する操作とすることができる。そして、終了操作は、ユーザがユーザ端末20に表示される撮影終了アイコンを選択する操作とすることができる。あるいは、所定期間は、ユーザがユーザ端末20に表示される撮影アイコンを継続的に選択(長押し)し続けた期間とすることも可能である。その場合、撮影アイコンを選択開始する(タッチパネルへの接触を開始する)操作が、上記開始操作であり、撮影アイコンから指を離す操作が終了操作となる。
生成されたモーション情報D4は、例えば、ゲームやアニメーション映画等の映像表現におけるキャラクタの映像処理等を実現する素材として用いることができる。
このように、ユーザ端末20でARマーカMを認識することを起因として算出される第2位置情報D2に基づいて、ARオブジェクトOのモーション情報D4を生成することができることから、特殊な設備を確保したり特殊な装置を導入したりすることなく、モーション情報D4を簡易に生成することができる。
なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲で種々の変更が可能である。
上記実施の形態では、ユーザ端末20及びサーバ30に格納されたプログラムが、ARオブジェクトに関する情報処理を実行する場合を説明したが、ユーザ端末20とサーバ30とで処理を分散させないでユーザ端末20でARオブジェクトに関する情報処理を実行するように構成してもよい。また、上記説明において、ユーザ端末20で実行する情報処理の少なくとも一部をサーバ30で実行してもよいし、サーバ30で実行する情報処理の一部をユーザ端末20で実行してもよい。
また、本実施形態にあっては、ユーザ端末20の傾きを検出可能なセンサ(センサ類24)から取得するセンサ情報に基づいて、ARマーカの傾き情報を算出する傾き情報算出処理を実行するようにしてもよい。その場合、生成処理においてモーション情報を生成する際に、傾き情報に基づいてARオブジェクト及び仮想カメラの少なくとも何れかの傾きを補正する傾き補正処理を実行するようにしてもよい。これによれば、ARマーカが水平面に対して傾斜した斜めの面に置かれていたとしても、水平面に置かれた場合と同じモーションデータを生成することができる。その結果、ARマーカ上に表示されるARオブジェクトが傾いて表示されることを抑制することができる。ARマーカの傾き情報を算出する際には、ユーザ端末20の水平方向(又は鉛直方向)に対する傾きと、ユーザ端末に対するARマーカの相対的な角度の情報に基づいて、ARマーカの水平方向(又は鉛直方向)に対する傾きを算出することができる。
また、本実施形態にあっては、生成処理において、所定期間の中でユーザ端末20がARマーカを認識できない期間の端末装置の動きを、端末装置が識別情報を認識している期間の情報に基づいて補完する補完処理を実行するようにしてもよい。例えば、所定期間のうち、ARマーカを認識できない期間の直前の端末装置の位置と、ARマーカを認識できない期間の直後の端末装置の位置とを線で結ぶ(連続させる)処理により、ARマーカを認識できない期間のモーション情報を補完することができる。これによれば、所定期間の中で一時的にARマーカを認識できない期間があっても、モーション情報を生成することができる。
本発明は、以下の構成を備える。
(項目1)
仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
を実行する情報処理システム。
(項目2)
前記第2位置情報算出処理は、
前記第1位置情報算出処理で算出した前記第1位置情報を座標変換処理することによって前記第2位置情報を算出する、
項目1に記載の情報処理システム。
(項目3)
前記所定期間は、前記端末装置を使用するユーザから受け付ける開始操作と終了操作の間の期間である、
前記識別情報に記憶された前記描画情報と関連づけられた前記仮想オブジェクトとしてのARオブジェクトに関するARオブジェクト情報と前記第2位置情報とに基づいて前記モーション情報を生成する、
項目1または2に記載の情報処理システム。
(項目4)
前記識別情報は、
前記仮想オブジェクトとしてのARオブジェクトの情報が関連付けられたARマーカである、
項目1または2に記載の情報処理システム。
(項目5)
前記端末装置の傾きを検出可能なセンサから取得するセンサ情報に基づいて、前記識別情報の傾き情報を算出する傾き情報算出処理と、
前記生成処理において前記モーション情報を生成する際に、前記傾き情報に基づいて傾きを補正する傾き補正処理と、を実行する、
項目1または2に記載の情報処理システム。
(項目6)
前記生成処理において、前記所定期間の中で前記端末装置が前記識別情報を認識できない期間の前記端末装置の動きを、前記端末装置が前記識別情報を認識している期間の情報に基づいて補完する補完処理を実行する、
項目1または2に記載の情報処理システム。
(項目7)
仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
を実行する制御部を備える情報処理装置。
(項目8)
仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
をコンピュータに実行させる、プログラム。
(項目9)
仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
をコンピュータが実行する、情報処理方法。
1 ユーザ
2 事業者
10 情報処理システム
20 ユーザ端末(端末装置)
30 サーバ(情報処理装置)

Claims (8)

  1. 仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
    該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
    該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
    前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
    を実行し、
    前記生成処理において、前記所定期間の中で前記端末装置が前記識別情報を認識できない期間の前記端末装置の動きを、前記端末装置が前記識別情報を認識している期間の情報に基づいて補完する補完処理を実行する、情報処理システム。
  2. 前記第2位置情報算出処理は、
    前記第1位置情報算出処理で算出した前記第1位置情報を座標変換処理することによって前記第2位置情報を算出する、
    請求項1に記載の情報処理システム。
  3. 前記所定期間は、前記端末装置を使用するユーザから受け付ける開始操作と終了操作の間の期間であり、
    前記識別情報に連づけられた前記仮想オブジェクトとしてのARオブジェクトに関するARオブジェクト情報と前記第2位置情報とに基づいて前記モーション情報を生成する、
    請求項1または2に記載の情報処理システム。
  4. 前記識別情報は、
    前記仮想オブジェクトとしてのARオブジェクトの情報が関連付けられたARマーカである、
    請求項1または2に記載の情報処理システム。
  5. 前記端末装置の傾きを検出可能なセンサから取得するセンサ情報に基づいて、前記識別情報の傾き情報を算出する傾き情報算出処理と、
    前記生成処理において前記モーション情報を生成する際に、前記傾き情報に基づいて傾きを補正する傾き補正処理と、を実行する、
    請求項1または2に記載の情報処理システム。
  6. 仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
    該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
    該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
    前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
    を実行する制御部を備え
    前記生成処理において、前記所定期間の中で前記端末装置が前記識別情報を認識できない期間の前記端末装置の動きを、前記端末装置が前記識別情報を認識している期間の情報に基づいて補完する補完処理を実行する、情報処理装置。
  7. 仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
    該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
    該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
    前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
    をコンピュータに実行させ
    前記生成処理において、前記所定期間の中で前記端末装置が前記識別情報を認識できない期間の前記端末装置の動きを、前記端末装置が前記識別情報を認識している期間の情報に基づいて補完する補完処理をコンピュータに実行させる、プログラム。
  8. 仮想オブジェクトを端末装置に表示させるための情報が関連付けられた識別情報を前記端末装置が認識することにより前記端末装置を基準とした前記識別情報の座標及び角度を含む第1位置情報を算出する第1位置情報算出処理と、
    該第1位置情報算出処理で算出した前記第1位置情報に基づいて前記識別情報に対応する前記仮想オブジェクトを前記端末装置に表示させる表示処理と、
    該表示処理で表示した前記仮想オブジェクトが関連付けられた前記識別情報を基準とした前記端末装置の座標及び角度を含む第2位置情報を算出する第2位置情報算出処理と、
    前記仮想オブジェクトが表示された状態で所定期間にわたって前記端末装置に前記識別情報を認識させることにより得られる、前記所定期間における前記第2位置情報に基づいて、前記仮想オブジェクトに関するモーション情報を生成する生成処理と、
    をコンピュータが実行し、
    前記生成処理において、前記所定期間の中で前記端末装置が前記識別情報を認識できない期間の前記端末装置の動きを、前記端末装置が前記識別情報を認識している期間の情報に基づいて補完する補完処理を実行する、情報処理方法。
JP2023075678A 2023-05-01 2023-05-01 情報処理システム、情報処理装置、プログラム及び情報処理方法 Active JP7373090B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023075678A JP7373090B1 (ja) 2023-05-01 2023-05-01 情報処理システム、情報処理装置、プログラム及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023075678A JP7373090B1 (ja) 2023-05-01 2023-05-01 情報処理システム、情報処理装置、プログラム及び情報処理方法

Publications (1)

Publication Number Publication Date
JP7373090B1 true JP7373090B1 (ja) 2023-11-01

Family

ID=88509992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023075678A Active JP7373090B1 (ja) 2023-05-01 2023-05-01 情報処理システム、情報処理装置、プログラム及び情報処理方法

Country Status (1)

Country Link
JP (1) JP7373090B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071850A (ja) 2012-10-02 2014-04-21 Osaka Prefecture Univ 画像処理装置、端末装置、画像処理方法、およびプログラム
JP2015204079A (ja) 2014-04-16 2015-11-16 富士通株式会社 表示方法、表示プログラム、及び表示装置
JP2019133507A (ja) 2018-02-01 2019-08-08 株式会社Cygames 複合現実システム、プログラム、方法、及び携帯端末装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071850A (ja) 2012-10-02 2014-04-21 Osaka Prefecture Univ 画像処理装置、端末装置、画像処理方法、およびプログラム
JP2015204079A (ja) 2014-04-16 2015-11-16 富士通株式会社 表示方法、表示プログラム、及び表示装置
JP2019133507A (ja) 2018-02-01 2019-08-08 株式会社Cygames 複合現実システム、プログラム、方法、及び携帯端末装置

Similar Documents

Publication Publication Date Title
US10732725B2 (en) Method and apparatus of interactive display based on gesture recognition
US11195307B2 (en) Image processing apparatus, image processing method, and program
US10318011B2 (en) Gesture-controlled augmented reality experience using a mobile communications device
JP5724543B2 (ja) 端末装置、オブジェクト制御方法及びプログラム
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
JP6013583B2 (ja) 有効インターフェース要素の強調のための方式
US20160012612A1 (en) Display control method and system
CN102541256A (zh) 具有视觉反馈的位置知晓姿势作为输入方法
EP2814000A1 (en) Image processing apparatus, image processing method, and program
KR20190141748A (ko) 가상 기재로서 사용하기 위한 평면 및/또는 쿼드트리들을 검출하기 위한 방법 및 디바이스
JP7078234B2 (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
JP6737942B1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
US20210005014A1 (en) Non-transitory computer-readable medium, image processing method, and image processing system
US20210117070A1 (en) Computer-readable recording medium, computer apparatus, and method of controlling
WO2021004413A1 (zh) 一种手持输入设备及其指示图标的消隐控制方法和装置
JP7373090B1 (ja) 情報処理システム、情報処理装置、プログラム及び情報処理方法
CN114167997B (zh) 一种模型显示方法、装置、设备和存储介质
JP7480408B1 (ja) 情報処理システム、情報処理装置、プログラム及び情報処理方法
US11960660B2 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
JP7291106B2 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
US8970491B2 (en) Computer system, computer system control method, program, and information storage medium
JP7372717B1 (ja) プログラム、情報処理装置及び方法
JP6169462B2 (ja) 情報処理装置及び情報処理方法
JP7162795B2 (ja) 映像処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230501

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231020

R150 Certificate of patent or registration of utility model

Ref document number: 7373090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150