JP2014093034A - 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法 - Google Patents

情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法 Download PDF

Info

Publication number
JP2014093034A
JP2014093034A JP2012244559A JP2012244559A JP2014093034A JP 2014093034 A JP2014093034 A JP 2014093034A JP 2012244559 A JP2012244559 A JP 2012244559A JP 2012244559 A JP2012244559 A JP 2012244559A JP 2014093034 A JP2014093034 A JP 2014093034A
Authority
JP
Japan
Prior art keywords
image
information processing
feature
virtual space
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012244559A
Other languages
English (en)
Other versions
JP6021592B2 (ja
Inventor
Takeshi Hayakawa
毅 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2012244559A priority Critical patent/JP6021592B2/ja
Priority to US13/934,804 priority patent/US9691179B2/en
Publication of JP2014093034A publication Critical patent/JP2014093034A/ja
Application granted granted Critical
Publication of JP6021592B2 publication Critical patent/JP6021592B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu

Abstract

【課題】拡張現実技術において、仮想空間に関して可能な処理にバリエーションを持たせることを課題とする。
【解決手段】コンピュータを、現実空間における特徴を検出する特徴検出部22と、特徴に基づいて配置された仮想オブジェクトを含む仮想空間の画像を生成する画像生成部25と、仮想空間の画像が現実空間に重畳されてユーザーから視認されるように、表示装置に画像を表示させる表示制御部26と、仮想空間に関して行うことが可能な処理を、特徴に基づいて決定する処理決定部27と、決定された処理をユーザーに指示させるためのメニューをユーザーから操作可能に出力するメニュー出力部28として機能させるプログラムとした。
【選択図】図2

Description

本発明は、現実空間に各種情報を重畳する情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法に関する。
従来、現実空間に各種情報を重畳する技術である拡張現実(AR:Augmented
Reality)の分野において、仮想オブジェクトを表示するための基準座標判別に関する研究が行われている。例えば、非特許文献1には、カメラによって撮像された画像におけるマーカーの位置および姿勢に基づいて、仮想オブジェクトを表示する方法が開示されている。
加藤博一、Mark Billinghurst、浅野浩一、橘啓八郎、「マーカー追跡に基づく拡張現実感システムとそのキャリブレーション」、日本バーチャルリアリティ学会論文誌、Vol4、No.4、1999年、p.606−616
しかし、従来の拡張現実技術では、マーカー等の現実空間における特徴は、仮想オブジェクトの表示のための基準として用いられるのみであり、また、仮想オブジェクトが配置される仮想空間に関して可能な処理は、現実空間における特徴に拘らず画一的なものであった。
本発明は、上記した問題に鑑み、拡張現実技術において、仮想空間に関して可能な処理にバリエーションを持たせることを課題とする。
本発明では、上記課題を解決するために、以下の構成を採用した。即ち、本発明は、コンピュータを、現実空間に配置された特徴を検出する特徴検出手段と、前記特徴に基づいて配置された仮想オブジェクトを含む仮想空間の画像を生成する画像生成手段と、前記仮想空間の画像が現実空間に重畳されてユーザーから視認されるように、表示装置に画像を表示させる表示制御手段と、前記仮想空間に関して行うことが可能な処理を、前記特徴に基づいて決定する処理決定手段と、前記処理決定手段によって決定された処理をユーザーに指示させるためのメニューをユーザーから操作可能に出力するメニュー出力手段として機能させる情報処理用プログラムである。
ここで、表示装置は、本発明に係るプログラムを実行するコンピュータに周辺機器として接続されたものであってもよいし、通信網等を介して接続されたものであってもよい。また、本発明に係るプログラムの実行主体となるコンピュータは、所謂クラウド等の仮想的な環境に構築されたものであってもよい。
また、現実空間に配置された特徴とは、例えば、所謂AR用のマーカー、または二次元バーコード等のコードである。そして、このような特徴は、例えばカード等の部品に付されてよい。また、このような特徴は、専用のマーカーやコード等に限られない。他用途に用いられる物品であっても、仮想オブジェクトの表示基準を取得可能なものであれば、前
記特徴として用いることが出来る。
本発明によれば、仮想空間に関して行うことが可能な処理を、現実空間から検出された特徴に基づいて決定し、決定された処理をユーザーに指示させるためのメニューを出力することで、拡張現実技術において、仮想空間に関して可能な処理に、現実空間内の特徴に応じたバリエーションを持たせることが可能となった。
なお、本発明が適用される拡張現実技術の種類は限定されない。本発明は、例えば、撮像画像に仮想空間画像を合成した合成画像を表示することで仮想空間の画像が現実空間に重畳されてユーザーから視認されるタイプの拡張現実技術にも適用可能であるし、ユーザーの視界に仮想空間画像を映写することで仮想空間の画像が現実空間に重畳されてユーザーから視認されるタイプの拡張現実技術(例えば、HUD:Head−Up Display等)にも適用可能である。
また、前記プログラムは、前記コンピュータを、撮像装置によって撮像された撮像画像を取得する撮像画像取得手段として更に機能させ、前記特徴検出手段は、前記撮像画像に撮像された前記現実空間における特徴を、該撮像画像から検出してもよい。
また、前記表示制御手段は、前記撮像画像に前記仮想空間の画像を重畳した合成画像を前記表示装置に表示させることで、ユーザーが、前記仮想空間の画像が現実空間に重畳されて視認可能としてもよい。
また、前記特徴検出手段は、前記特徴の種類、前記現実空間における位置および姿勢の少なくとも何れかを特定可能な特徴を検出し、前記処理決定手段は、前記特徴検出手段によって検出された前記特徴によって特定される、該特徴の種類、前記現実空間における位置および姿勢の少なくとも何れかを用いて、前記処理を決定してもよい。
また、前記処理決定手段は、前記特徴検出手段によって検出された前記特徴の種類、位置または姿勢の少なくとも何れかに応じて前記処理を決定してもよい。
また、前記処理決定手段は、前記特徴検出手段によって検出された複数の前記特徴の種類の関係、位置の関係または姿勢の関係の少なくとも何れかに応じて前記処理を決定してもよい。
また、前記処理決定手段は、前記特徴検出手段によって検出された特徴が1つである場合には、該特徴に基づいて前記処理を決定し、前記特徴検出手段によって検出された特徴が複数である場合には、該複数の特徴の関係に基づいて前記処理を決定してもよい。
複数の特徴の組み合わせに応じて実行可能な処理を決定することで、現実空間内の特徴同士の関係に応じて、実行可能な処理を異ならせることが出来、より柔軟性の高い拡張現実機能を提供することが出来る。
また、前記プログラムは、前記コンピュータを、前記メニューに対するユーザー操作を受け付ける操作受付手段と、前記操作受付手段によって受け付けられたユーザー操作に応じた処理を実行する処理実行手段と、として更に機能させてもよい。
また、前記処理は、前記仮想オブジェクトに対する処理、前記仮想オブジェクトの動きに関する処理、および前記仮想オブジェクトを含む前記仮想空間に対する処理、の少なくとも何れかであってもよい。
また、前記処理決定手段は、前記特徴検出手段によって複数の特徴が検出された場合、前記処理を、前記特徴毎に決定してもよい。
また、前記処理決定手段は、前記特徴検出手段によって検出された特徴について複数の組み合わせが存在する場合、前記処理を、前記組み合わせについて決定してもよい。
また、前記表示装置は、第一の表示領域および第二の表示領域を有し、前記表示制御手段は、前記仮想空間の画像を前記第一の表示領域に表示させ、前記メニュー出力手段は、前記メニューを前記第二の表示領域に表示されるよう出力してもよい。
また、本発明は、情報処理装置、1または複数の情報処理装置を有する情報処理システム、コンピュータによって実行される方法、またはコンピュータに実行させるプログラムとしても把握することが可能である。また、本発明は、そのようなプログラムをコンピュータその他の装置、機械等が読み取り可能な記録媒体に記録したものでもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。
本発明によれば、拡張現実技術において、仮想空間に関して可能な処理にバリエーションを持たせることが可能となる。
実施形態に係る情報処理装置を含むシステムの概略を示す図である。 実施形態に係る情報処理装置の機能構成の概略を示す図である。 実施形態に係る情報処理の流れを示すフローチャートである。 実施形態において1つのマーカーが検出されている場合の表示画面の例1を示す図である。 実施形態において1つのマーカーが検出されている場合の表示画面の例2を示す図である。 実施形態において2つのマーカーが検出されている場合の表示画面の一例を示す図である。 実施形態において3つのマーカーが検出されている場合の表示画面の一例を示す図である。
以下、本発明の実施の形態を、図面に基づいて説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態毎に具体的構成が適宜採用されてよい。例えば、本発明は、携帯可能な情報処理装置のコンピュータにおいて実行される情報処理プログラム、情報処理装置、1または複数の情報処理装置を有する情報処理システムおよび情報処理方法等に適用することが出来る。
<システムの構成>
図1は、本実施形態に係るシステム100の構成を示す図である。システム100には、情報処理装置1、および複数のカード2a〜2d(但し、カードの種類を区別しない場合には、単に「カード2」と称する)が含まれる。
情報処理装置1は、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12、ROM(Read O
nly Memory)13、補助記憶装置14、撮像装置15、ディスプレイ(表示装置)16、および各種ボタンやタッチパネル等の入力装置17が電気的に接続された情報処理装置である。なお、情報処理装置1の具体的なハードウェア構成に関しては、実施の形態毎に適宜構成要素の省略や置換、追加が行われてよい。
CPU11は、中央処理装置であり、RAM12およびROM13等に展開された命令及びデータを処理することで、RAM12、補助記憶装置14等の、情報処理装置1に備えられた各構成を制御する。また、RAM12は、主記憶装置であり、CPU11によって制御され、各種命令やデータが書き込まれ、読み出される。即ち、CPU11、RAM12、およびROM13は、情報処理装置1の制御部を構成する。
補助記憶装置14は、不揮発性の記憶装置であり、主に情報処理装置1の電源を落としても保持したい情報、例えば、RAM12にロードされる情報処理装置1のOS(Operating System)や、後述する処理を実行するための各種プログラム、情報処理装置1によって使用される各種データ、等が書き込まれ、読み出される。補助記憶装置14としては、例えば、EEPROM(Electrically Erasable
Programmable ROM)やHDD(Hard Disk Drive)等を用いることが出来る。また、補助記憶装置14として、情報処理装置1に対して着脱可能に装着される可搬媒体が用いられてもよい。可搬媒体の例としては、EEPROM等によるメモリーカード、CD(Compact Disc)、DVD(Digital Versatile Disc)およびBD(Blu−ray Disc)等が挙げられる。可搬媒体による補助記憶装置14と、可搬型ではない補助記憶装置14とは、組み合わせて用いることも可能である。
カード2a〜2dには、印刷等の方法で互いに異なるマーカー3a〜3d(但し、マーカーの種類を区別しない場合には、単に「マーカー3」と称する)が付されている。このマーカー3は、情報処理装置1によって表示される仮想オブジェクトと対応付けられており、該マーカー3に対応付けられた仮想オブジェクトが表示される際の位置姿勢の基準を示す指標である。図1においてカード2は4枚示されているが、用いられるカード2は1枚であってもよいし、2枚以上のその他の枚数であってもよい。また、カード2a〜2dには、異なる仮想オブジェクトを表示するために夫々異なるマーカー3a〜3dが付されているが、同一のマーカーが付されたカード2が用いられてもよい。
本実施形態において、仮想オブジェクトは、情報処理装置1のディスプレイ16において、対応付けられたマーカー3に対して所定位置に合成表示される。また、仮想オブジェクトは、上下、前後、および左右の方向を有する。そのため、マーカー3は、仮想オブジェクトの表示姿勢を特定することが可能なものであることが好ましい。即ち、マーカー3は、撮像装置15を用いて撮像されることで、撮像装置15に対する位置および姿勢を特定可能な記号、文字、図形、絵、およびそれらの組み合わせ等であることが好ましい。
次に、本実施形態に係る情報処理装置1が備える機能について説明する。本実施形態に係る情報処理装置1は、所謂AR機能を備えた情報処理装置である。情報処理装置1は、撮像装置15を用いて撮像された実空間の撮像画像に、仮想カメラを用いて描画(レンダリング)された仮想空間内の仮想オブジェクトを合成して、ディスプレイ16に表示する機能を有する。本実施形態において、仮想オブジェクトは、3次元の画像データである。但し、仮想オブジェクトは、2次元の画像データであってもよい。
図2は、本実施形態に係る情報処理装置1の機能構成の概略を示す図である。本実施形態に係る情報処理装置1は、CPU11が、RAM12に展開された各種プログラムを解釈および実行することで、撮像画像取得部21、特徴検出部22、表示基準情報更新部2
3、表示基準情報記憶部24、画像生成部25、表示制御部26、処理決定部27、メニュー出力部28、操作受付部29および処理実行部30を備える情報処理装置として機能する。本実施形態では、これらの機能がいずれも汎用のCPU11によって実行される例について説明しているが、これらの機能は、その一部または全部が、1または複数の専用のプロセッサによって実現されてもよい。
撮像画像取得部21は、撮像装置15によって撮像された撮像画像を取得する。そして、特徴検出部22は、撮像装置15によって撮像された画像に対して、例えばパターンマッチング等の画像処理を行うことによって、当該画像に含まれるマーカー3を検出することができる。マーカー3の検出は、例えば、画像認識エンジンを用いて行われる。
表示基準情報更新部23は、検出されたマーカー3に基づいて、撮像画像に撮像された空間における位置および姿勢を示す基準となる情報を取得し、表示基準情報を更新する。本実施形態では、カメラが動いたり、マーカー3が移動されたりした場合であっても、カメラに対する最新のマーカー位置および姿勢に従って、表示基準情報記憶部24によって記憶されている表示基準情報が更新される。
表示基準情報記憶部24は、仮想空間に配置される仮想オブジェクトの位置および姿勢を決定するための表示基準情報を記憶する。本実施形態において、表示基準情報とは、仮想空間内における仮想オブジェクトの位置および姿勢を示すために用いられる基準である。但し、表示基準情報は、仮想空間内における仮想オブジェクトの位置および姿勢の何れか一方のみを示すために用いられる基準であってもよい。本実施形態の基準取得処理では、表示基準情報として、マーカー3の中心点を原点とし、互いに直交する3軸を用いたマーカー座標系が、マーカー3毎に取得される。ただし、表示基準情報として、撮像画像そのもの等、マーカー座標系以外のものが用いられてもよい。また、複数のマーカー3間で、1つのマーカー座標系を共有して用いることも可能である。実空間に配置されたマーカー3を基準として仮想空間の座標系が定義されることにより、実空間と仮想空間とを対応付けることができる。なお、実空間と仮想空間との対応付けには、マーカー座標系を用いる方法以外の方法が採用されてもよい。
本実施形態において、仮想空間に配置される仮想オブジェクトは、当該仮想オブジェクトが対応づけられたマーカー3のマーカー座標系に配置される。マーカー座標系は、撮像画像に含まれるマーカー3の見え方から、撮像装置15に対するマーカー3の位置および姿勢を算出することで、取得することができる。マーカー座標系における仮想カメラの位置および姿勢は、実空間の撮像装置15の位置および姿勢と一致される。このため、マーカー3に基づいて仮想空間が定義され、当該仮想空間において、撮像装置15の位置や撮像方向を変化させると、ディスプレイ16に表示される仮想空間の画像も変化する。
画像生成部25は、仮想空間に、表示基準情報記憶部24によって記憶されている表示基準情報に従って位置および姿勢が決定される仮想オブジェクトを配置し、仮想カメラから見た仮想空間の画像を生成することで、仮想空間画像を描画(レンダリング)する。そして、本実施形態に係る情報処理装置1は、上記説明したAR機能のために、撮像画像取得部21によって取得された撮像画像と、画像生成部25によって生成された仮想オブジェクトを含む仮想空間画像と、を重畳した合成画像を生成する。
表示制御部26は、生成された合成画像を、表示装置であるディスプレイ16によって表示させる。このようにすることで、ユーザーは、現実空間に、実際に仮想オブジェクトが存在するかのような感覚を得ることが出来る。
処理決定部27は、マーカーの種類、組み合わせ、数、位置姿勢、等を特定し、特定さ
れた特徴に基づいて、仮想空間に関して実行可能な処理を決定する。そして、メニュー出力部28は、処理決定部27によって決定された実行可能な処理をユーザーに選択および指示させるためのメニューを、ユーザーから操作可能に出力する。
また、本実施形態に係るAR機能では、仮想空間についてユーザー操作に応じた処理を可能とする機能が提供される。このような機能を提供するため、操作受付部29は、ユーザー操作を受け付け、処理実行部30は、受け付けられたユーザー操作に対応する、仮想空間についての処理を実行する。
次に、本実施形態に係る情報処理装置1が保持する情報について説明する。情報処理装置1は、上記説明した表示基準情報記憶部24によって記憶される表示基準情報の他に、マーカー情報、オブジェクト情報および処理情報を保持する。
マーカー情報は、マーカー3に関する情報である。マーカー情報には、例えば、マーカー3を識別するためのマーカーID、マーカー画像、マーカーサイズ、対応オブジェクトID、仮想オブジェクトの位置姿勢、オブジェクトの表示サイズ等が含まれる。マーカー画像は、マーカー3の外観を示す画像である。また、マーカーサイズは、マーカー3の縦横の長さ等、マーカー3の大きさを示す情報である。情報処理装置1の表示基準情報更新部23は、マーカー画像とマーカーサイズに基づいて、撮像画像に含まれるマーカー3の見え方から、撮像装置15とマーカー3との距離、マーカー3の姿勢等、即ち、マーカー3の位置姿勢情報およびマーカー座標系を取得することができる。対応オブジェクトIDは、マーカー3に対応する位置に表示される仮想オブジェクトの識別番号である。なお、1つのマーカー3に対して2以上の仮想オブジェクトが対応付けられていてもよい。本実施形態では、マーカー情報には、該当マーカー座標系によって管理される仮想オブジェクトのオブジェクトIDが含まれる。仮想オブジェクトの位置姿勢は、マーカー座標系における位置(座標値)および姿勢(ベクトル)で示される。マーカー情報は、システム100において使用される各マーカー3に対して存在する。
オブジェクト情報は、マーカー3に対応する位置に表示される仮想オブジェクトに関する情報である。オブジェクト情報には、例えば、仮想オブジェクトを識別するためのオブジェクトIDおよびオブジェクトのデータが含まれる。オブジェクト情報は、システム100において使用される各オブジェクトについて存在する。
処理情報は、仮想空間について実行される処理に関する情報である。処理情報には、例えば、処理ID、処理が実行される契機となるユーザー操作の内容、ユーザー操作が受け付けられた場合に実行されるプログラム等を示すポインタ、当該処理が実行可能とされるための条件、等が含まれる。処理情報は、ユーザーによって指示可能な処理毎に保持される。ここで、処理が実行される契機となるユーザー操作の内容は、例えば、関連付けられたボタンの押下や、タッチパネルディスプレイ(図示は省略する)に表示された関連付けられたアイコンへのタッチ操作、等である。
また、条件は、検出されたマーカーに基づく条件を含むことが出来る。例えば、条件は、検出されたマーカーの種類(マーカーID等を用いて判定可能)や、検出された複数のマーカーの組み合わせ、検出されたマーカーの数、検出されたマーカーの位置姿勢、検出された複数のマーカーの位置関係、等である。また、条件は、前記各要素(検出されたマーカーの種類、検出された複数のマーカーの組み合わせ、検出されたマーカーの数、検出されたマーカーの位置姿勢、検出された複数のマーカーの位置関係、等)の組み合わせであってもよい。また、本実施形態において仮想空間について実行される処理は、仮想オブジェクトに対する処理(仮想オブジェクトへのゲーム上の攻撃処理等)、仮想オブジェクトの動きに関する処理(仮想オブジェクトのアニメーション処理等)、および仮想オブジ
ェクトを含む仮想空間に対する処理(仮想空間に対するゲーム上の攻撃処理等)、を含んでよい。
<処理の流れ>
次に、本実施形態において実行される処理の流れを説明する。なお、本実施形態に係るフローチャートに示された処理の具体的な内容および処理順序は、本発明を実施するための一例である。具体的な処理内容および処理順序は、本発明の実施の形態毎に適宜選択されてよい。
図3は、本実施形態に係る情報処理の流れを示すフローチャートである。本フローチャートに示された情報処理は、情報処理装置1において、AR機能を起動するユーザー操作が受け付けられたことを契機として開始される。表示基準情報記憶部24によって記憶される情報はAR機能の起動時に初期化され、表示基準情報記憶部24はAR機能の起動時において表示基準情報を記憶しない。なお、本実施形態に係る処理は、60フレーム/秒で分割されたフレーム毎に繰り返し実行される。
ステップS101およびステップS102では、撮像画像が取得され、撮像画像からマーカー3が検出される。撮像画像取得部21は、撮像装置15によって撮像された撮像画像を取得する(ステップS101)。撮像画像が取得されると、特徴検出部22は、撮像画像から、撮像された空間における特徴として、マーカー情報に含まれるマーカー画像に該当するマーカー3を全て検出する。マーカー3の検出は、一般的な画像認識エンジンを用いて行うことが可能である。その後、処理はステップS103へ進む。
ステップS103では、マーカー3毎に基準取得処理が実行される。表示基準情報更新部23は、検出されたマーカー3の全てについて、マーカー3毎に、実空間におけるマーカー3の位置姿勢情報を取得し、マーカー3毎の表示基準情報を更新する。より具体的には、表示基準情報更新部23は、マーカー3の撮像画像中の位置、マーカー情報に含まれるマーカーサイズと撮像画像に含まれる該マーカー3のサイズとの比較結果、および、マーカー情報に含まれるマーカー画像に対する撮像画像中のマーカー3の歪み、に基づいて、実空間におけるマーカー3の位置および姿勢を取得する。表示基準情報更新部23は、このようにして取得された、実空間におけるマーカー3の位置姿勢情報をもって、表示基準情報を更新する。その後、処理はステップS104へ進む。
ステップS104およびステップS105では、特徴に基づいて実行可能な処理が決定される。処理決定部27は、はじめに、マーカーの種類、組み合わせ、数、位置姿勢、等を特定する(ステップS104)。例えば、処理決定部27は、検出されたマーカーのマーカーIDに基づいて各マーカーの種類や複数のマーカーの組み合わせを特定することが出来る。また、例えば、処理決定部27は、ステップS103で取得された複数のマーカーの位置姿勢情報の関係から、マーカーの位置関係を特定することが出来る。ここで特定される位置関係には、マーカーの並びや、マーカーの向きの関係(角度等)、が含まれてよい。
そして、処理決定部27は、仮想空間に関して実行可能な処理を、特徴に基づいて決定する(ステップS105)。具体的には、処理決定部27は、処理情報を検索することで、ステップS104で特定された特徴の種類、数、状態、組合せ等が、処理の実行が実行可能とされるための条件を満たす処理を抽出し、抽出された処理を、仮想空間に関して実行可能とされる許可処理として決定する。その後、処理はステップS106へ進む。
ステップS106では、メニューが表示される。メニュー出力部28は、処理決定部27によって決定された実行可能な処理をユーザーに選択および指示させるためのメニュー
を、ユーザーから操作可能に出力する。メニュー出力部28は、例えば、実行可能な処理に関連付けられたタッチ操作可能なアイコンからなるメニューを、タッチパネルディスプレイに出力することで、実行可能な処理をユーザーに選択および指示させるためのメニューを、ユーザーから操作可能に出力する。その後、処理はステップS107へ進む。
ステップS107では、ユーザー操作の有無が判定される。操作受付部29は、ステップS105で実行可能と決定された処理を指示するユーザー操作を受け付ける。そして、情報処理装置1は、ユーザー操作が操作受付部29によって受け付けられたか否かを判定する。操作が受け付けられたと判定された場合、処理はステップS108へ進む。一方、操作が受け付けられていないと判定された場合、処理はステップS109へ進む。
ステップS108では、ユーザー操作に応じた処理が実行される。処理実行部30は、操作受付部29によって受け付けられたユーザー操作に応じた実行可能な処理を実行する。例えば、処理実行部30は、受け付けられたユーザー操作を用いて処理情報を検索し、検索によって得られた処理のためのプログラムのポインタを取得し、当該ポインタによって示されたプログラムを実行する等の方法で、実行可能な処理を実行する。実行される処理の具体的な内容は、図4から図7を用いて後述する。その後、処理はステップS109へ進む。
ステップS109では、仮想空間の画像が生成される。画像生成部25は、表示基準情報に従って位置および姿勢の少なくとも何れかが決定されてマーカー座標系に配置された1または複数の仮想オブジェクトを含む仮想空間の画像を、マーカー座標系において撮像装置15と同一の位置に配置された仮想カメラの視点から描画する。仮想オブジェクトを描画するためのオブジェクトのデータは、オブジェクト情報から取得される。なお、仮想オブジェクトは、1または数フレーム毎に変化することでアニメーションしてもよい。アニメーションは、例えば、仮想オブジェクトのキャラクターが表情を変えたり、動いたりするものとすることが出来る。その後、処理はステップS110へ進む。
ステップS110では、表示処理が実行される。表示制御部26は、撮像画像に仮想空間の画像を重畳した合成画像を生成し、この合成画像をディスプレイ16に出力し、表示させる。
先述の通り、本フローチャートのステップS101からステップS110に示された処理は、フレーム毎に実行されるものである。このため、本フローチャートに示された処理は、ユーザー操作等に基づいてAR機能が終了されるまで(ステップS111)、定期的にステップS101から繰り返し実行される。
図4から図7は、本実施形態に係る情報処理によってAR機能が提供される場合の、ディスプレイ16の表示画面の一例を示す図である。なお、本実施形態では、2つの表示領域を備える表示装置が用いられる場合の表示画面の例について説明する。本実施形態において、表示装置は縦に並べられた上側の表示領域と下側の表示領域とを有している。そして、上側の表示領域には撮像画像に仮想空間の画像が重畳されることで生成された合成画像が表示され、下側の表示領域には、実行可能な処理をユーザー操作によって選択させるためのメニューが表示される。但し、図4から図7に示す表示画面は、本発明を実施するうえでの一例であり、表示の形態にはその他の形態が採用されてもよい。例えば、単一の表示領域に、合成画像およびメニューが重畳して表示されてもよい。
先述の通り、表示基準情報記憶部24によって記憶される情報はAR機能の起動時に初期化され、表示基準情報記憶部24はAR機能の起動時において表示基準情報を記憶しない。このため、ユーザー操作に応じて情報処理装置1のAR機能が起動された直後、撮像
画像にマーカーが含まれていない場合、仮想空間に仮想オブジェクトは配置されず、ディスプレイ16には、撮像装置15によって得られた撮像画像のみが表示される。
撮像装置15の撮像範囲にマーカー3が入り、撮像画像にマーカー3が含まれると、特徴検出部22によって検出されたマーカー3に基づいて表示基準情報更新部23が表示基準情報を更新し、画像生成部25によって、マーカー3に対応する位置および姿勢で仮想オブジェクトが描画される。このため、ディスプレイ16にはマーカー3の上に仮想オブジェクトが重畳された合成画像が表示される(図4から図7を参照)。
図4および図5は、本実施形態において1つのマーカーが検出されている場合の表示画面の一例を示す図である。但し、図4に示された例では、カード2aに付されたマーカー3aが検出されており、図5に示された例では、図4のマーカー3aとは異なるマーカー3d(カード2dに付されている)が検出されている。ここで、先述の通り、特徴検出部22は、マーカー3を検出すると、マーカー情報を参照し、マーカー3のマーカーIDを取得する。そして、処理決定部27は、マーカーIDを用いて処理情報を検索し、対応する処理を決定する。
図4に示された例では、マーカー3aに関連付けられた仮想オブジェクトが、本実施形態に係るAR機能を用いて行われるゲーム上の味方にあたるキャラクターの仮想オブジェクトであるため、仮想空間に関して実行可能な処理として「あいさつ」および「ジャンプ」が取得される。具体的には、処理決定部27は、処理情報を検索して、マーカーIDが味方キャラクターのマーカーIDであることが条件として設定された処理を索出することで、「あいさつ」および「ジャンプ」の処理を抽出する。なお、ここで抽出された「あいさつ」および「ジャンプ」は、仮想空間内の仮想オブジェクトの動きに関する処理である。ユーザーは、これらのメニューを介して何れかの実行可能な処理を選択する操作を行うことで、キャラクターが挨拶したりジャンプしたりするアニメーションを表示させることが出来る。
一方、図5に示された例では、マーカー3dに関連付けられた仮想オブジェクトが、当該ゲーム上の敵にあたるキャラクターの仮想オブジェクトであるため、仮想空間に関して実行可能な処理として「交渉する」および「攻撃する」が取得される。具体的には、処理決定部27は、処理情報を検索して、マーカーIDが敵キャラクターのマーカーIDであることが条件として設定された処理を索出することで、「交渉する」および「攻撃する」の処理を抽出する。なお、ここで抽出された「交渉する」は、仮想空間内の仮想オブジェクトに対する処理であり、「攻撃する」は、仮想オブジェクトを含む仮想空間に対する処理である。ユーザーは、これらのメニューを介して何れかの実行可能な処理を選択する操作を行うことで、敵キャラクターに対してゲーム進行上の交渉や攻撃を行うことが出来る。
また、上記説明では、マーカーに係るキャラクターがゲーム上の味方か敵かに基づいて実行可能な処理が異なっているが、マーカーの種類は、敵/味方の区分に限られない。例えば、敵キャラクターに係るマーカーであっても、マーカーの種類によって敵の種類を区別し、夫々について異なる攻撃方法が実行可能な処理として決定されてもよい。例えば、戦闘機の敵キャラクターのマーカーが検出されている場合には、マーカーIDに基づいて「機関銃発射」の処理が決定され、戦車の敵キャラクターのマーカーが検出されている場合には、マーカーIDに基づいて「ランチャー発射」の処理が決定される、等のバリエーションを提供することが出来る。このようにすることで、ユーザーに対して、マーカーの種類に応じて異なる遊び方を提供することが出来る。具体的には、上記バリエーションによれば、「機関銃発射」を含むメニューによって、直線的に敵を狙う遊びを提供し、「ランチャー発射」を含むメニューによって、放物線状の弾道を予測しながら敵を狙う遊びを
提供することができる。
図6は、本実施形態において2つのマーカーが検出されている場合の表示画面の一例を示す図である。図6に示された例では、マーカー3aに係るキャラクターとマーカー3bに係るキャラクターとの関係が本実施形態に係るAR機能を用いて行われるゲーム上の仲間同士であるため、仮想空間に関して実行可能な処理として「あいさつ」および「画面保存」が取得される。具体的には、処理決定部27は、処理情報を検索して、複数のマーカーIDの組み合わせが仲間同士であることが条件として設定された処理を索出することで、「あいさつ」および「画面保存」の処理を抽出する。ユーザーは、これらのメニューを選択する操作を行うことで、キャラクター同士が挨拶するアニメーションを表示させたり、表示されている画像を保存したりすることが出来る。
なお、図6に示された例によれば、マーカーの組み合わせに応じて、メニューの内容を異ならせることが出来る。例えば、複数のマーカーに係るキャラクターの関係がゲーム上の敵同士である場合、「交渉する」および「攻撃する」の処理が抽出されることとしてもよい。
また、条件には、検出されたマーカーの数が設定されてもよい。例えば、「仮想オブジェクトのキャラクターが全員ピースサインをする」処理に、条件「検出されたマーカーの数が3以上」が設定されている場合、検出されているマーカーが2つである場合には検出されたマーカーの組み合わせに応じた処理が決定されるが、検出されているマーカーが3つ以上である場合には、「仮想オブジェクトのキャラクターが全員ピースサインをする」処理が実行可能な処理として決定される。
図7は、本実施形態において3つのマーカーが検出されている場合の表示画面の一例を示す図である。図7に示された例では、夫々のマーカー3a、3bに係るキャラクターを操作するための処理が、マーカーの組み合わせについて決定され、マーカー毎にメニューが表示される。即ち、処理決定部27は、検出されたマーカーについて複数の組み合わせが存在する場合、実行可能な処理を、組み合わせについて決定する。
ここで、各マーカーに係るキャラクターを操作するための処理は、マーカーの組み合わせおよび敵との位置関係に基づいて決定される。具体的には、マーカー3aとマーカー3cとの組み合わせは敵対関係であり、マーカー3aとマーカー3cとの位置関係は、その間に他のマーカー3bが配置されている位置関係である。このため、処理決定部27は、処理情報から、条件が「敵対関係の組み合わせ」で、且つ「その間に他のマーカーが存在する」ことである処理(「弓で攻撃」および「防御する」)を抽出し、実行可能な処理として決定する。一方、マーカー3bとマーカー3cとの組み合わせは敵対関係であり、マーカー3bとマーカー3cとの位置関係は、その間に他のマーカー3が配置されていない位置関係である。このため、処理決定部27は、処理情報から、条件が「敵対関係の組み合わせ」で、且つ「その間に他のマーカーが存在しない」ことである処理(「交渉する」、「剣で攻撃」および「防御する」)を抽出し、実行可能な処理として決定する。
<実施形態のバリエーション>
上記説明した実施形態において、表示制御部26は、撮像画像に仮想空間の画像を重畳した合成画像を表示装置に表示させることで、ユーザーが、仮想空間の画像が現実空間に重畳されて視認可能とする。但し、表示制御部26は、仮想空間の画像が現実空間に重畳されてユーザーから視認されるように、表示装置に画像を表示させればよく、合成画像を表示する方式に限定されない。例えば、本発明は、HUD(Head−Up Display)や、ユーザーが装着しているメガネに仮想空間画像を映写する方式等、ユーザーの視界に仮想空間画像を映写することで仮想空間の画像が現実空間に重畳されてユーザーか
ら視認されるタイプの拡張現実技術に適用されてもよい。
また、上記説明した実施形態では、表示基準情報としてマーカー座標系を用いる例を説明したが、表示基準情報は、現実空間から得られた情報であって、仮想空間における仮想オブジェクトの位置および姿勢の少なくとも何れかの基準として用いることが可能なものであればよい。例えば、表示基準情報は、撮像画像自体であってもよい。撮像画像を表示基準情報として用いる場合、画像生成部25は、フレーム毎に、表示基準情報として記憶されている撮像画像から、仮想オブジェクトの表示基準を抽出する。
1 情報処理装置
2a、2b、2c、2d カード
3a、3b、3c、3d マーカー

Claims (14)

  1. コンピュータを、
    現実空間に配置された特徴を検出する特徴検出手段と、
    前記特徴に基づいて配置された仮想オブジェクトを含む仮想空間の画像を生成する画像生成手段と、
    前記仮想空間の画像が現実空間に重畳されてユーザーから視認されるように、表示装置に画像を表示させる表示制御手段と、
    前記仮想空間に関して行うことが可能な処理を、前記特徴に基づいて決定する処理決定手段と、
    前記処理決定手段によって決定された処理をユーザーに指示させるためのメニューをユーザーから操作可能に出力するメニュー出力手段
    として機能させる情報処理用プログラム。
  2. 前記特徴検出手段は、前記特徴の種類、前記現実空間における位置および姿勢の少なくとも何れかを特定可能な特徴を検出し、
    前記処理決定手段は、前記特徴検出手段によって検出された前記特徴によって特定される、該特徴の種類、前記現実空間における位置および姿勢の少なくとも何れかを用いて、前記処理を決定する、
    請求項1に記載の情報処理用プログラム。
  3. 前記処理決定手段は、前記特徴検出手段によって検出された前記特徴の種類、位置または姿勢の少なくとも何れかに応じて前記処理を決定する、
    請求項2に記載の情報処理用プログラム。
  4. 前記処理決定手段は、前記特徴検出手段によって検出された複数の前記特徴の種類の関係、位置の関係または姿勢の関係の少なくとも何れかに応じて前記処理を決定する、
    請求項3に記載の情報処理用プログラム。
  5. 前記処理決定手段は、
    前記特徴検出手段によって検出された特徴が1つである場合には、該特徴に基づいて前記処理を決定し、
    前記特徴検出手段によって検出された特徴が複数である場合には、該複数の特徴の関係に基づいて前記処理を決定する、
    請求項4に記載の情報処理用プログラム。
  6. 前記コンピュータを、
    前記メニューに対するユーザー操作を受け付ける操作受付手段と、
    前記操作受付手段によって受け付けられたユーザー操作に応じた処理を実行する処理実行手段
    として更に機能させる、請求項1から5の何れか一項に記載の情報処理用プログラム。
  7. 前記処理は、前記仮想オブジェクトに対する処理、前記仮想オブジェクトの動きに関する処理、および前記仮想オブジェクトを含む前記仮想空間に対する処理、の少なくとも何れかである、
    請求項1から6の何れか一項に記載の情報処理用プログラム。
  8. 前記処理決定手段は、前記特徴検出手段によって検出された特徴について複数の組み合わせが存在する場合、前記処理を、前記組み合わせについて決定する、
    請求項1から7の何れか一項に記載の情報処理用プログラム。
  9. 前記コンピュータを、
    撮像装置によって撮像された撮像画像を取得する撮像画像取得手段として更に機能させ、
    前記特徴検出手段は、前記撮像画像に撮像された前記現実空間における特徴を、該撮像画像から検出する、
    請求項1から8の何れか一項に記載の情報処理用プログラム。
  10. 前記表示制御手段は、前記撮像画像に前記仮想空間の画像を重畳した合成画像を前記表示装置に表示させることで、ユーザーが、前記仮想空間の画像が現実空間に重畳されて視認可能とする、
    請求項9に記載の情報処理用プログラム。
  11. 前記表示装置は、第一の表示領域および第二の表示領域を有し、
    前記表示制御手段は、前記仮想空間の画像を前記第一の表示領域に表示させ、
    前記メニュー出力手段は、前記メニューを前記第二の表示領域に表示されるよう出力する、
    請求項1から10の何れか一項に記載の情報処理用プログラム。
  12. 現実空間に配置された特徴を検出する特徴検出手段と、
    前記特徴に基づいて配置された仮想オブジェクトを含む仮想空間の画像を生成する画像生成手段と、
    前記仮想空間の画像が現実空間に重畳されてユーザーから視認されるように、表示装置に画像を表示させる表示制御手段と、
    前記仮想空間に関して行うことが可能な処理を、前記特徴に基づいて決定する処理決定手段と、
    前記処理決定手段によって決定された処理をユーザーに指示させるためのメニューをユーザーから操作可能に出力するメニュー出力手段
    を備える情報処理装置。
  13. 撮像装置によって撮像されることで、該撮像装置に対する位置および姿勢を特定可能な特徴が付された部品と、
    情報処理装置と、を備える情報処理システムであって、
    前記情報処理装置は、
    現実空間に配置された特徴を検出する特徴検出手段と、
    前記特徴に基づいて配置された仮想オブジェクトを含む仮想空間の画像を生成する画像生成手段と、
    前記仮想空間の画像が現実空間に重畳されてユーザーから視認されるように、表示装置に画像を表示させる表示制御手段と、
    前記仮想空間に関して行うことが可能な処理を、前記特徴に基づいて決定する処理決定手段と、
    前記処理決定手段によって決定された処理をユーザーに指示させるためのメニューをユーザーから操作可能に出力するメニュー出力手段を有する、
    情報処理システム。
  14. コンピュータが、
    現実空間に配置された特徴を検出する特徴検出ステップと、
    前記特徴に基づいて配置された仮想オブジェクトを含む仮想空間の画像を生成する画像生成ステップと、
    前記仮想空間の画像が現実空間に重畳されてユーザーから視認されるように、表示装置
    に画像を表示させる表示制御ステップと、
    前記仮想空間に関して行うことが可能な処理を、前記特徴に基づいて決定する処理決定ステップと、
    前記処理決定ステップにおいて決定された処理をユーザーに指示させるためのメニューをユーザーから操作可能に出力するメニュー出力ステップ
    を実行する情報処理方法。
JP2012244559A 2012-11-06 2012-11-06 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法 Active JP6021592B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012244559A JP6021592B2 (ja) 2012-11-06 2012-11-06 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
US13/934,804 US9691179B2 (en) 2012-11-06 2013-07-03 Computer-readable medium, information processing apparatus, information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012244559A JP6021592B2 (ja) 2012-11-06 2012-11-06 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2014093034A true JP2014093034A (ja) 2014-05-19
JP6021592B2 JP6021592B2 (ja) 2016-11-09

Family

ID=50621945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244559A Active JP6021592B2 (ja) 2012-11-06 2012-11-06 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法

Country Status (2)

Country Link
US (1) US9691179B2 (ja)
JP (1) JP6021592B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182579A (ja) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント プログラム及びコンピュータシステム
KR20200100169A (ko) 2017-12-28 2020-08-25 가부시키가이샤 코나미 데지타루 엔타테인멘토 정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법
KR20200100168A (ko) 2017-12-28 2020-08-25 가부시키가이샤 코나미 데지타루 엔타테인멘토 정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법
JP7473596B2 (ja) 2016-05-27 2024-04-23 スワップボッツ・リミテッド 拡張現実玩具

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001875A (ja) * 2013-06-17 2015-01-05 ソニー株式会社 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット
JP6344029B2 (ja) * 2014-04-16 2018-06-20 富士通株式会社 表示方法、表示プログラム、及び表示装置
KR102601682B1 (ko) * 2015-06-30 2023-11-13 매직 립, 인코포레이티드 가상 이미지 생성 시스템에서 텍스트를 더 효율적으로 디스플레이하기 위한 기법
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN106340213A (zh) * 2016-08-19 2017-01-18 苏州七彩部落网络科技有限公司 一种利用ar实现辅助教育的方法及设备
US10311630B2 (en) 2017-05-31 2019-06-04 Verizon Patent And Licensing Inc. Methods and systems for rendering frames of a virtual scene from different vantage points based on a virtual entity description frame of the virtual scene
US10586377B2 (en) * 2017-05-31 2020-03-10 Verizon Patent And Licensing Inc. Methods and systems for generating virtual reality data that accounts for level of detail
US10347037B2 (en) * 2017-05-31 2019-07-09 Verizon Patent And Licensing Inc. Methods and systems for generating and providing virtual reality data that accounts for level of detail
CN107320955B (zh) * 2017-06-23 2021-01-29 武汉秀宝软件有限公司 一种基于多客户端的ar场馆界面交互方法及系统
US10679393B2 (en) * 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072668A (ja) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc 画像処理装置、ゲーム装置および画像処理方法
JP2007304667A (ja) * 2006-05-08 2007-11-22 Sony Computer Entertainment Inc ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
JP2012008290A (ja) * 2010-06-23 2012-01-12 Softbank Mobile Corp 眼鏡型表示装置及びサーバ
JP2012101024A (ja) * 2010-10-15 2012-05-31 Nintendo Co Ltd ゲームプログラム、画像処理装置、画像処理システム、および画像処理方法
JP2012155655A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5969704A (en) * 1990-09-04 1999-10-19 Mikohn Gaming Corporation Configurable led matrix display
JP4613449B2 (ja) * 2001-06-01 2011-01-19 セイコーエプソン株式会社 出力サービス提供システム、仮想オブジェクト管理端末、移動体、仮想オブジェクト管理端末用プログラム及び移動体用プログラム、並びに出力サービス提供方法
JP5111210B2 (ja) * 2008-04-09 2013-01-09 キヤノン株式会社 画像処理装置、画像処理方法
WO2012018149A1 (en) * 2010-08-06 2012-02-09 Bizmodeline Co., Ltd. Apparatus and method for augmented reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072668A (ja) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc 画像処理装置、ゲーム装置および画像処理方法
JP2007304667A (ja) * 2006-05-08 2007-11-22 Sony Computer Entertainment Inc ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
JP2012008290A (ja) * 2010-06-23 2012-01-12 Softbank Mobile Corp 眼鏡型表示装置及びサーバ
JP2012101024A (ja) * 2010-10-15 2012-05-31 Nintendo Co Ltd ゲームプログラム、画像処理装置、画像処理システム、および画像処理方法
JP2012155655A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐々木博史, 外3名: ""『てのひらめにゅう』:ウェアラブルコンピュータ用入力インタフェース"", 日本バーチャルリアリティ学会論文誌, vol. 第7巻, 第3号, JPN6016023167, 30 September 2002 (2002-09-30), JP, pages 393 - 401, ISSN: 0003340961 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182579A (ja) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント プログラム及びコンピュータシステム
JP7473596B2 (ja) 2016-05-27 2024-04-23 スワップボッツ・リミテッド 拡張現実玩具
KR20200100169A (ko) 2017-12-28 2020-08-25 가부시키가이샤 코나미 데지타루 엔타테인멘토 정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법
KR20200100168A (ko) 2017-12-28 2020-08-25 가부시키가이샤 코나미 데지타루 엔타테인멘토 정보 처리 장치, 기록 매체, 정보 처리 시스템 및 표시 방법
US11562564B2 (en) 2017-12-28 2023-01-24 Konami Digital Entertainment Co., Ltd. Recording medium, information processing system, and display method
US11832000B2 (en) 2017-12-28 2023-11-28 Konami Digital Entertainment Co., Ltd. Recording medium, information processing system, and display method

Also Published As

Publication number Publication date
US9691179B2 (en) 2017-06-27
JP6021592B2 (ja) 2016-11-09
US20140125701A1 (en) 2014-05-08

Similar Documents

Publication Publication Date Title
JP6021592B2 (ja) 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
JP6192483B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US10678340B2 (en) System and method for providing user interface tools
KR20210046591A (ko) 증강 현실 데이터 제시 방법, 장치, 전자 기기 및 저장 매체
US8797348B2 (en) Image display apparatus, image display method, and information storage medium
JP6224327B2 (ja) 情報処理システム、情報処理装置、情報処理方法、および情報処理用プログラム
JP6202981B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6618681B2 (ja) 情報処理装置及びその制御方法及びプログラム、並びに、情報処理システム
JP6202980B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2017187952A (ja) 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
CN106536004B (zh) 增强的游戏平台
CN103608761A (zh) 输入设备、输入方法以及记录介质
JP5735861B2 (ja) 画像表示プログラム、画像表示装置、画像表示方法、画像表示システム、マーカ
JP6283168B2 (ja) 情報保持媒体および情報処理システム
EP2717227A2 (en) Image processing program, image processing device, image processing system, and image processing method
JP2014038403A (ja) 表示制御装置、表示制御装置の制御方法、表示制御システム、表示制御システムの制御方法、及びプログラム
JP2018092249A (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
CN116615271A (zh) 使用触摸屏手势进行精确定位的系统和方法
US20140286574A1 (en) Computer-readable recording medium recording program for image processing, information processing apparatus, information processing system, and image processing method
JP6612285B2 (ja) ゲームプログラム及びゲーム装置
JP2021176548A (ja) プログラム、制御方法、および情報処理装置
JP2011123748A (ja) 携帯端末、描画システム及び描画方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161004

R150 Certificate of patent or registration of utility model

Ref document number: 6021592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250