JP6613553B2 - 情報処理装置、情報処理システム、その制御方法及びプログラム - Google Patents

情報処理装置、情報処理システム、その制御方法及びプログラム Download PDF

Info

Publication number
JP6613553B2
JP6613553B2 JP2014201900A JP2014201900A JP6613553B2 JP 6613553 B2 JP6613553 B2 JP 6613553B2 JP 2014201900 A JP2014201900 A JP 2014201900A JP 2014201900 A JP2014201900 A JP 2014201900A JP 6613553 B2 JP6613553 B2 JP 6613553B2
Authority
JP
Japan
Prior art keywords
image
virtual object
display device
display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014201900A
Other languages
English (en)
Other versions
JP2016071720A5 (ja
JP2016071720A (ja
Inventor
翔 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2014201900A priority Critical patent/JP6613553B2/ja
Publication of JP2016071720A publication Critical patent/JP2016071720A/ja
Publication of JP2016071720A5 publication Critical patent/JP2016071720A5/ja
Application granted granted Critical
Publication of JP6613553B2 publication Critical patent/JP6613553B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

情報処理装置、情報処理システム、その制御方法及びプログラムに関する。
近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。MR技術を用いて、ヘッドマウントディスプレイを装着したユーザに対し、現実物体とCGモデルを配置した空間の体験を提供できる。
特許文献1には、MR空間(現実空間と仮想空間とを合成した複合現実空間)を生成するにあたり、仮想空間を現実空間の位置合わせに用いられる位置指標として、マーカを用いること、及び、当該マーカの存在をユーザに意識させないためにマーカを検出した場合には当該マーカを隠した画像を描画した画像を生成することが記載されている。
特開2000−350860号公報
MRにおいては、ヘッドマウントディスプレイ(HMD)を装着したユーザがMR画像(現実空間とCGとを合成した重畳画像)を閲覧し、現実物体とCGモデルを配置したMR空間をリアルタイムで体験させることができるが、例えば、MR空間の画像を保存するために、ユーザがMR画像(静止画)の撮像・保存を望むことが考えられる。
例えばHMDの代わりに携帯端末のディスプレイ等でMR画像を表示する場合、携帯端末に搭載されている画面のキャプチャ機能を用いて画像を保存することが可能である。しかし、例えば通信負荷を軽減するために解像度の低い画像がMR画像に用いられることがあり、キャプチャ機能では精細な画像(高解像度の写真)を得ることができない。
仮に高解像度の画像を携帯端末から無線通信で、MR画像を生成する装置に送信してMR画像を生成しようとすると、画像の送受信に時間がかかってしまう。MR空間が1つの場合、当該MR空間においてはリアルタイムに現実物体やCGの位置が変移しているため、遅れて受信した画像に現在のMR空間のCG配置に従ってCGを重畳すると、撮像指示がされた際に携帯端末に表示されていたMR画像とは異なるMR画像が生成されてしまう。
本発明は、ライブ表示される画像とは別の画像に仮想オブジェクトを重畳させる依頼を受けた場合に、当該別の画像の日時における仮想オブジェクトの画像を再現し、表示装置に表示させる仕組みを提供することを目的とする。
本発明は、表示装置と、仮想オブジェクトを記憶する情報処理装置とを含む情報処理システムであって、表示装置においてライブ表示される第1の画像に、当該表示装置の位置に応じて位置決定された仮想オブジェクトの画像を重畳して表示すべく制御する第1の表示制御手段と、前記表示装置にライブ表示される前記第1の画像とは別の画像に前記仮想オブジェクトを重畳させる依頼を受けた場合に、当該別の画像である第2の画像にかかる日時における仮想オブジェクトの画像を、当該第2の画像に重畳して表示すべく生成する生成手段と、前記成手段で生成された前記仮想オブジェクトの画像を前記第2の画像に重畳して前記表示装置に表示すべく制御する第2の表示制御制御手段と、を備えることを特徴とする。
本発明は、ライブ表示される画像とは別の画像に仮想オブジェクトを重畳させる依頼を受けた場合に、当該別の画像の日時における仮想オブジェクトの画像を再現し、表示装置に表示させるができる。
本発明の実施形態における、情報処理システムの構成の一例を示す図である。 本発明の実施形態における、各種装置のハードウェア構成の一例を示す図である。 本発明の実施形態における、各種装置の機能構成の一例を示す図である。 本発明の実施形態における、携帯端末の登録処理の流れを示すフローチャートである。 本発明の実施形態における、MR画像の生成処理の流れを示すフローチャートである。 本発明の実施形態における、各種データテーブルの構成の一例を示す図である。 本発明の実施形態における、MR画像生成の様子を示す図である。 本発明の実施形態における、MR画像生成の様子を示す図である。 本発明の実施形態における、過去の現実画像に現在の仮想オブジェクトを重畳してMR画像を生成した様子を示す図である。 本発明の実施形態における、MR空間における物体の位置関係を示す図である。
以下、図面を参照して、本発明の実施形態を詳細に説明する。図1は、本発明の実施形態における、情報処理システムの構成の一例を示す図である。
図1に示す通り、本発明の情報処理システムは、携帯端末100と、サーバ200とが、ネットワーク101(LAN101)を介して通信可能に接続され、構成されている。
携帯端末100は、カメラ(撮像部)を介して現実画像(撮像画像)を撮像し、サーバ200に送信する。また、シャッターボタンが押下されていない場合は低解像度の画像を送信し、シャッターボタンが押下された場合は高解像度の画像を送信するものとする。
サーバ200は、現実空間に合成する仮想空間の原点座標の情報(X,Y,Z=0,0,0)、及び、CG(仮想オブジェクト)のデータ、仮想空間における仮想オブジェクトの位置・姿勢を記憶している。
サーバ200は、前記原点座標と現実空間上の所定の位置の位置合わせを行うことによって現実空間に仮想空間を合成した空間(現実空間の所定の位置に仮想空間を配置した空間)であるMR空間を生成する。
そして、当該携帯端末100の位置・姿勢と、当該MR空間上の仮想オブジェクトの位置・姿勢(現実空間に合成された仮想空間上の仮想オブジェクトの位置・姿勢)とに従って、当該携帯端末100から取得した画像に対して、当該携帯端末100から見たMR空間の画像であるMR画像(現実画像と仮想オブジェクトの画像を重畳した画像)を生成する。当該MR画像は携帯端末100に送信され、携帯端末100に表示される。
例えば、サーバ200は、図10の1000、1010に示すようなMR空間の俯瞰図を、現実物体701の配置されている現実空間に、仮想物体711、712、713が配置された仮想空間を配置することで生成する。
図10の1000は、「2014/01/30 13:59:38」時点でのMR空間の俯瞰図である。1010は、「2014/01/30 13:59:40」時点でのMR空間の俯瞰図である。ここでは、現在日時=「2014/01/30 13:59:40」であるものとする。
以下、図7〜図10を用いて、本発明の課題の具体例について説明する。
図10に示す通り、現実物体、及び仮想オブジェクトは、MR空間内において移動することが考えられる。図10においては、ユーザBが携帯端末100を持ってMR空間内を撮像し、HMD(ヘッドマウントディスプレイ)を装着したユーザAが、仮想オブジェクト712を移動させている。また、仮想オブジェクト713は、時間の経過に応じて自動で移動している。1001は携帯端末100のカメラの画角を示す。
例えば、携帯端末100には図7にお720に示すようなMR画像がライブビューで表示される。これは700に示す現実画像と、携帯端末100の位置から仮想空間を見た場合の仮想空間の画像710とを重畳することでサーバ200により生成される。
当該MR画像は、例えば図8に示すように、サーバ200により逐次生成され、携帯端末100に送信されるため、携帯端末100の表示画面においては800、810、820と画面の状態が遷移していくことになる。800a、800b、800cはそれぞれ、各日時における仮想空間の画像(仮想空間内の仮想オブジェクトの状態遷移を示す画像)である。
ここで、例えば、図8の800の時点(「2013・01・30 13:59:38」)でシャッターボタンを押下して高解像度のMR画像を保存しようとしたとする。高解像度画像の場合、低解像度画像に比べて送受信に時間がかかる可能性がある。例えばシャッターボタンが押下されてから高解像度画像がサーバ200において受信されるまで2秒かかるとする。もしも現在再生中の仮想空間(仮想オブジェクト)を当該現実画像に重畳すると、図9のように、2秒前の現実画像900に現在の仮想空間の画像910を重畳することになり、ユーザはMR画像720のような画像を所望していたにもかかわらず、MR画像920に示すように所望の画像とは異なる画像がサーバ200において生成されてしまうという問題がある。
本発明においては、シャッターボタンが押下された時間と、サーバ200が画像を受診した時間が異なっていたとしても適切なMR画像を生成してユーザに提供する。以上が本発明の課題の具体例についての説明である。
以下、図2を参照して、本発明の実施形態における、各種装置のハードウェア構成の一例について説明する。図2は、本発明の実施形態における、各種装置のハードウェア構成の一例を示す図である。
図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、各サーバ或いは各PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。
203はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ211からRAM203にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。
また、205は入力コントローラで、入力装置209であるキーボード(KB)や不図示のマウス等のポインティングデバイスからの入力を制御する。206はビデオコントローラで、CRTディスプレイ(CRT)210等の表示器への表示を制御する。なお、図2では、CRT210と記載しているが、表示器はCRTだけでなく、液晶ディスプレイ等の他の表示器であってもよい。これらは必要に応じて管理者が使用するものである。
また、本発明の実施形態において、携帯端末100のCRT210は、タッチパネル機能を有するものとする。CRT210がタッチパネル機能を有する場合、当該CRT210は入力装置としても機能し、入力コントローラにタッチパネル機能で検出した(ディスプレイで受け付けた)タッチ操作の情報を入力情報として伝達するものとする。つまり、入力コントローラ205は、CRT210からの入力制御を行う。
207はメモリコントローラで、ブートプログラム,各種のアプリケーション,フォントデータ,ユーザファイル,編集ファイル,各種データ等を記憶するハードディスク(HD)や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ211へのアクセスを制御する。
208は通信I/Fコントローラで、ネットワーク(例えば、図1に示したネットワーク101)を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。
なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、CRT210上での表示を可能としている。また、CPU201は、CRT210上の不図示のマウスカーソル等でのユーザ指示を可能とする。
本発明を実現するための後述する各種プログラムは、外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる定義ファイル及び各種情報テーブル等も、外部メモリ211に格納されており、これらについての詳細な説明も後述する。
212は撮像コントローラ(カメラコントローラ)で、撮像部(カメラ装置)213へのアクセス制御を行い、撮像部213において撮像された現実画像(撮像画像)の取得を行う。また、例えば、外部メモリに記憶されたアプリケーションの起動に応じて撮像部213による画像の撮像処理の開始や、ディスプレイ(画面)に表示されたシャッターボタンの押下指示を受け付けることにより撮像部213による画像の撮像処理の実行を制御する。以上が図2の説明である。
次に図3を参照して、本発明の実施形態における、各種装置の機能構成の一例について説明する。図3は、本発明の実施形態における、各種装置の機能構成の一例を示す図である。
撮像処理部311は、現実画像を撮像する処理部である。撮像画像自動送信部312は、撮像された画像を自動で、逐次サーバ200に送信する送信部である。
シャッター押下指示受付部313は、例えばタッチパネル(表示画面)上に表示されたシャッターボタンの押下指示を受け付ける受付部である。シャッター押下情報送信部314は、シャッターの押下指示に応じて、撮像画像自動送信部312で送信される撮像画像とは別に、撮像画像とシャッターが押下された旨の情報、シャッターが押下された日時の情報(撮影時刻/撮像時間)をサーバ200に送信する。
撮像画像受信部321は撮像画像を受信する。シャッター押下情報受信部322は、シャッター押下情報送信部314で送信された情報を受信する。シャッター押下判定部323は、シャッター押下情報受信部322で受信した情報に基づいて、携帯端末100でシャッターが押下されたか判定する判定部である。
MR空間生成部324は、仮想オブジェクト記憶部328に記憶された、現在の仮想オブジェクトの位置・姿勢の情報に基づいて各仮想オブジェクトが配置されたMR空間を生成する生成部である。
MR空間再現部325は、仮想オブジェクト記憶部328に記憶された、シャッター押下時点における仮想オブジェクトの位置・姿勢の情報に基づいて各仮想オブジェクトが配置された、シャッター押下時点でのMR空間を、MR空間生成部324で生成したMR空間とは別に生成する生成部である。
MR画像生成部326は、MR空間生成部324で生成したMR空間の情報と撮像画像自動送信部で送信されて受信した撮像画像とを重畳してMR画像を生成する。
また、シャッター押下判定部でシャッターが押下されたと判定した場合、MR空間再現部325とシャッター押下情報送信部で送信された撮像画像とを重畳してMR画像を生成する。MR画像送信部327は、生成したMR画像を携帯端末100に送信する。
MR画像受信部315はMR画像を受信し、MR画像表示部316は携帯端末100の表示画面にMR画像を表示する。MR画像記憶部317はMR画像を記憶する。以上が図3の説明である。
次に図4を参照して、本発明の実施形態における、携帯端末の登録処理について説明する。図4は、本発明の実施形態における、携帯端末の登録処理の流れを示すフローチャートである。
携帯端末100のCPU201が、ユーザ操作に応じて当該携帯端末100に記憶されたMRアプリケーションを起動する。そして、携帯端末100のカメラ(撮像部213)を用いた撮像処理を開始する(ステップS401)。
携帯端末100のCPU201は、当該MRアプリケーションが管理している、携帯端末100の外部メモリに記憶されたサーバ200の識別情報(例えばIPアドレス)を特定して(ステップS402)、当該携帯端末100のカメラ情報の登録要求をサーバ200に送信する(ステップS403)。当該登録要求には、携帯端末100のカメラ情報が含まれるものとする。カメラ情報とは、例えば図6のカメラ情報630のような情報である。
図6を参照して、カメラ情報630について説明する。カメラ情報630は携帯端末100の外部メモリに記憶されている。また、サーバ200が携帯端末100から受信することで、サーバ200の外部メモリに記憶される。
携帯端末ID631は携帯端末の識別情報である。例えばMACアドレスである。画角632は、携帯端末ID631の示す携帯端末100に搭載されたカメラ装置(撮像部)の画角の値である。レンズ歪み633は、携帯端末ID631の示す携帯端末100に搭載されたカメラ装置(撮像部)のレンズの歪みの値である。
低解像度画像サイズ634は、撮像部で撮像される低解像度画像の画像サイズである。高解像度画像サイズ635は、撮像部で撮像される高解像度画像の画像サイズである。以上がカメラ情報630の説明である。
図4の説明に戻る。サーバ200のCPU201は、携帯端末100からのカメラ情報の登録要求を受け付け(ステップS404)、サーバ200の外部メモリに記憶する処理を行う(ステップS405)。つまり、カメラ情報630をサーバ200に登録する。
サーバ200のCPU201は、登録結果(例えば登録が成功した旨の情報)を携帯端末100に送信する(ステップS406)。ステップS406で送られた登録結果を携帯端末100のCPU201が受信し(ステップS407)、当該登録結果を示す不図示の登録結果画面を携帯端末100の表示画面に表示する(ステップS408)。以上が図4の説明である。
次に図5を参照して、本発明の実施形態における、MR画像の生成処理について説明する。図5は、本発明の実施形態における、MR画像の生成処理の流れを示すフローチャートである。
携帯端末100のCPU201は、MRアプリケーションを起動して、現実画像の撮影を開始する(ステップS501)。つまり現実画像を取得する。尚、当該撮像処理で取得する画像は高解像度の画像であるものとする。
携帯端末100のCPU201は、シャッターボタンの押下指示を受け付けたか判定する(ステップS502)。MRアプリケーション起動直後は、シャッターボタンの押下指示を受け付けていないと判定するものとする。
シャッターボタンの押下指示を受け付けていないと判定した場合(ステップS502でNO)、処理をステップS503に移行し、ステップS501で取得した画像を低解像度の画像に変換する(ステップS503)。そして、低解像度画像とシャッターが押下されていない旨の情報を合わせてサーバ200に送信する(ステップS504/第1の撮像画像送信手段)。
具体的には、図6の携帯端末情報600の情報をサーバ200に送信する。ここで送信する携帯端末情報600においては、シャッターフラグ605=0、解像度606=640,480であるものとする。
ここで図6を参照して、携帯端末情報600の構成の一例について説明する。携帯端末情報600は携帯端末100の外部メモリに記憶されている。また、サーバ200が携帯端末100から受信することで、サーバ200の外部メモリに記憶される。
携帯端末ID601は携帯端末の識別情報である。例えばMACアドレスである。撮影時刻602は、撮像部でシャッターボタンが押下された(シャッター押下により撮像処理が行われた)時刻の情報(撮像時刻/撮像時間)である。尚、図5のステップ504で画像がサーバに送信される場合は、シャッターボタンが押下されていないため当該撮影時刻602には値が挿入されていないものとする。
尚、後述するステップS505でサーバ200に画像が送信される場合には、当該撮影時刻602には、シャッター押下時の日時の情報が挿入されている。
位置・姿勢603は、ステップS504・S505でサーバ200に画像が送信される時点では挿入されていない。後述するステップS509・S514において、携帯端末100の位置・姿勢が算出されることにより、サーバ200の外部メモリ上にて挿入・記憶される。
画像データ604は、携帯端末100からサーバ200に送信される現実画像(撮像画像)の実態データである。シャッターフラグ605は、図5のステップS502でシャッターボタンが押下されていると判定された時点で「1」の値が、シャッターボタンが押下されていないと判定された時点で「0」の値が、携帯端末100のCPU201により挿入され、記憶されている。
解像度606は、画像データ604の解像度である。以上が携帯端末情報600の説明である。
図5の説明に戻る。サーバ200のCPU201は、ステップS522において、仮想空間の原点座標(X,Y,Z=0,0,0)と、現実空間上の所定の位置の位置あわせを行う。つまり、現実空間に仮想空間を配置する処理(MR空間を生成する処理)を行う(ステップS522)。当該現実空間と仮想空間の位置合わせについては既存の技術を用いる。
また、当該生成したMR空間に、外部メモリに記憶された現在の仮想オブジェクトの位置・姿勢の情報を読み出して、当該MR空間上に配置する。具体的には、図6の仮想オブジェクト情報履歴より、各仮想オブジェクトの最新のデータ(最新の位置・姿勢)を読み出して、当該最新のデータに従って仮想オブジェクトを、現実空間と合成された仮想空間上に配置することで、MR空間上に配置する。
ここで図6を参照して、仮想オブジェクト情報610、仮想オブジェクト情報履歴620の構成の一例について説明する。仮想オブジェクト情報610、仮想オブジェクト情報履歴620はサーバ200の外部メモリに記憶されている。
仮想オブジェクトID611、仮想オブジェクトの識別情報である。仮想オブジェクト612は、仮想オブジェクトの形状・大きさを示す3DCGモデルのデータである。
仮想オブジェクトID621は、仮想オブジェクトの識別情報である。仮想オブジェクト情報履歴620は、仮想オブジェクト情報610の仮想オブジェクトごと(仮想オブジェクトID611ごと)に記憶される、各仮想オブジェクトの位置・姿勢の履歴の情報である。
時刻622は、仮想オブジェクトが位置・姿勢623(位置情報)に示す位置・姿勢であった時刻(時間/日時)を示す。当該仮想オブジェクト情報履歴620には、サーバ200のCPU201によって、所定時間ごとに仮想オブジェクトの位置・姿勢の情報が追加・記憶される。以上が、仮想オブジェクト情報610、仮想オブジェクト情報履歴620の説明である。
図4の説明に戻る。サーバ200のCPU201は、携帯端末100より携帯端末情報600を受信し(ステップS506)、シャッターフラグ605を参照して、携帯端末100においてシャッターボタンが押下されたか判定する(ステップS507)。つまり、受信した画像が、ユーザ操作に応じて携帯端末100からサーバ200に送信された画像か判定する。
シャッターボタンが押下されていない場合(ステップS507でNO)、現在の仮想オブジェクトの位置・姿勢の情報を取得する(ステップS508)。つまり、MR空間に配置中の、各仮想オブジェクトの位置・姿勢(仮想オブジェクト情報履歴620における差新の位置・姿勢の情報)を取得する。
また、携帯端末100の位置・姿勢(ステップS506で受信した位置・姿勢603)の情報を、ステップS506において受信した現実画像の中から抽出されたマーカ画像、サーバ200の外部メモリに記憶された当該携帯端末100の画角632、レンズ歪み633の情報を用いて算出する(ステップS509/撮像位置情報取得手段)。当該マーカ画像を用いた撮像画像の位置姿勢の算出方法は既存の技術を用いるものとする。
サーバ200のCPU201は、当該携帯端末100の位置・姿勢の情報と、現在の仮想オブジェクトの位置の情報に基づいて、ステップS506で受信した画像(低解像度画像)に、携帯端末100から見た仮想オブジェクトの画像を重畳したMR画像(複合現実画像/重畳画像)を生成する(ステップS510/第1の重畳画像生成手段)。つまり、現在の携帯端末100の位置・姿勢、ステップS522で生成されている現在のMR空間における仮想オブジェクトの位置・姿勢に基づいてMR画像を生成する。そして当該MR画像を携帯端末100に送信する。
携帯端末100のCPU201は当該MR画像を受信し(ステップS517/第1の重畳画像受信手段、第2の重畳画像受信手段)、受信した画像が高解像度画像か判定する(ステップS518)。当該判定は、受信した画像のサイズと、携帯端末100の外部メモリに記憶されたカメラ情報630の低解像度画像サイズ634、高解像度画像サイズ635の値を用いて行う。
ここでは、例えば低解像度画像を受信したものとする。
高解像度画像を受信していない(低解像度画像を受信した)と判定した場合(ステップS518でNO)、当該受信したMR画像を一時記憶領域に記憶して、表示画面に表示する(ステップS519)。つまり、ライブビュー画像としてMR画像を表示する(リアルタイム表示する)。
携帯端末100のCPU201は、MRアプリケーションの終了指示を受け付けたか判定し(ステップS521)、終了指示があった場合は(ステップS521でYES)処理を終了する。終了指示がなかった場合は(ステップS521でNO)、処理をステップS502の前に戻す。
以上が、シャッターボタンが押下されていない場合に行われる処理の流れの説明である。
一方、ステップS502で、シャッターボタンの押下指示を受け付けたと判定した場合(ステップS502でYES)、処理をステップS505に移行する。例えば、ステップS519で表示画面にMR画像がライブビュー表示されている状態で、シャッターボタンが押下される。
携帯端末100のCPU201は、当該シャッターボタンの押下指示(ユーザ操作による撮像指示)に応じて、撮像中の高解像度画像であって、シャッターボタンが押下された時点での現実画像を、当該撮像時間(シャッターボタンが押下された時間/撮影時刻602)と、シャッターフラグ605の情報と合わせて送信する(ステップS505/第2の撮像画像送信手段/シャッター情報送信手段)。
サーバ200のCPU201は、ステップS506でこれを受信し(シャッター情報受信手段)、携帯端末100においてシャッターボタンが押下されたか判定する(ステップS507)。つまり、受信した画像が、ユーザ操作に応じて携帯端末100からサーバ200に送信された画像か判定する。
シャッターボタンが押下されたと判定した場合(ステップS507でYES)、つまり、ステップS506で受信した携帯端末情報600のシャッターフラグ605=1の場合、処理をステップS512に移行する。
サーバ200のCPU201は、仮想オブジェクト情報履歴620を参照して、当該受信した画像の撮像時間(シャッターが押下されたタイミング)の、仮想オブジェクトの位置・姿勢の情報を取得する(ステップS512)。
そして、当該撮像時間における仮想オブジェクトの位置・姿勢に従って各仮想オブジェクトを配置したMR空間を、ステップS522で生成したMR空間とは別に生成する(ステップS513)。尚、現実空間に仮想空間を配置(合成)するための基準となる現実空間上の位置はステップS522で説明した位置と同じであるものとする。また、位置合わせの手法は従来技術を用いる。
ステップS513においては、例えば高解像度画像の容量が大きいために送受信に時間がかかり、現在時刻と2秒のタイムラグが発生した場合(サーバ200に2秒前(過去)にシャッターが押された旨の情報が届いた場合)、サーバ200のCPU201は2秒前(過去)の仮想オブジェクトの位置・姿勢を読み出して、2秒前(過去)のMR空間を生成することになる。
サーバ200のCPU201は、携帯端末100の位置・姿勢の情報を算出して取得する。当該算出方法はステップS509で説明した内容と同様であるため、詳細な説明は割愛する。
サーバ200のCPU201は、携帯端末100の位置・姿勢の情報と、ステップS506で受信した携帯端末情報600に含まれる撮影時刻602(シャッターボタンが押下された時間=撮像時間)時点における仮想オブジェクトの位置の情報に基づいて、ステップS506で受信した画像(高解像度画像)に、携帯端末100から見た仮想オブジェクトの画像を重畳したMR画像(複合現実画像/重畳画像)を生成する(ステップS515/第2の重畳画像生成手段)。
つまり、シャッター押下時の携帯端末100の位置・姿勢、ステップS513で新たに生成されたMR空間における仮想オブジェクトの位置・姿勢に基づいてMR画像を生成する。そして当該MR画像を携帯端末100に送信する(ステップS516)。
携帯端末100のCPU201は当該MR画像を受信し(ステップS517)、受信した画像が高解像度画像か判定する(ステップS518)。当該判定は、受信した画像のサイズと、携帯端末100の外部メモリに記憶されたカメラ情報630の低解像度画像サイズ634、高解像度画像サイズ635の値を用いて行う。
ここでは、例えば高解像度画像を受信したものとする。
高解像度画像を受信したと判定した場合(ステップS518でYES)、当該受信したMR画像を携帯端末100の永続記憶領域に記憶する(ステップS520/重畳画像記憶手段)。つまり、後に閲覧可能な情報として携帯端末内に保存する。その後、処理をステップS521に移行する。以上が図5の説明である。
以上説明したように、本発明によれば、撮像指示に応じて撮影時間における複合現実空間を再現し、再現された複合現実空間に基づいて重畳画像を生成することができる。
尚、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。
尚、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100 PC
101 LAN
200 携帯端末

Claims (6)

  1. 表示装置と、仮想オブジェクトを記憶する情報処理装置とを含む情報処理システムであって、
    表示装置においてライブ表示される第1の画像に、当該表示装置の位置に応じて位置決定された仮想オブジェクトの画像を重畳して表示すべく制御する第1の表示制御手段と、
    前記第1の画像とは別の画像であって、前記第1の画像よりも高解像度な第2の画像に前記仮想オブジェクトを重畳させる依頼を受けた場合に、当該第2の画像にかかる日時における仮想オブジェクトの画像を当該第2の画像に重畳して表示すべく生成する生成手段と、
    前記生成手段で生成された前記仮想オブジェクトの画像を前記第2の画像に重畳して前記表示装置に表示すべく制御する第2の表示制御手段と、
    を備えることを特徴とする情報処理システム。
  2. 前記表示装置は撮像装置であって、
    前記第2の画像に前記仮想オブジェクトを重畳させる依頼を受けた場合とは、前記表示装置において画像を記録するためのユーザ操作がされた場合であることを特徴とする請求項に記載の情報処理システム。
  3. 表示装置と、仮想オブジェクトを記憶する情報処理装置とを含む情報処理システムの制御方法であって、
    表示装置においてライブ表示される第1の画像に、当該表示装置の位置に応じて位置決定された仮想オブジェクトの画像を重畳して表示すべく制御する第1の表示制御工程と、
    前記第1の画像とは別の画像であって、前記第1の画像よりも高解像度な第2の画像に前記仮想オブジェクトを重畳させる依頼を受けた場合に、当該第2の画像にかかる日時における仮想オブジェクトの画像を当該第2の画像に重畳して表示すべく生成する生成工程と、
    前記生成工程で生成された前記仮想オブジェクトの画像を前記第2の画像に重畳して前記表示装置に表示すべく制御する第2の表示制御工程と、
    を含む制御方法。
  4. 表示装置と通信可能な、仮想オブジェクトを記憶する情報処理装置であって、
    表示装置においてライブ表示される第1の画像に、当該表示装置の位置に応じて位置決定された仮想オブジェクトの画像を重畳して表示すべく制御する第1の表示制御手段と、
    前記第1の画像とは別の画像であって、前記第1の画像よりも高解像度な第2の画像に前記仮想オブジェクトを重畳させる依頼を受けた場合に、当該第2の画像にかかる日時における仮想オブジェクトの画像を当該第2の画像に重畳して表示すべく生成する生成手段と、
    前記生成手段で生成された前記仮想オブジェクトの画像を前記第2の画像に重畳して前記表示装置に表示すべく制御する第2の表示制御手段と、
    を備えることを特徴とする情報処理装置。
  5. 表示装置と通信可能な、仮想オブジェクトを記憶する情報処理装置の制御方法であって、
    表示装置においてライブ表示される第1の画像に、当該表示装置の位置に応じて位置決定された仮想オブジェクトの画像を重畳して表示すべく制御する第1の表示制御工程と、
    前記第1の画像とは別の画像であって、前記第1の画像よりも高解像度な第2の画像に前記仮想オブジェクトを重畳させる依頼を受けた場合に、当該第2の画像にかかる日時における仮想オブジェクトの画像を当該第2の画像に重畳して表示すべく生成する生成工程と、
    前記生成工程で生成された前記仮想オブジェクトの画像を前記第2の画像に重畳して前記表示装置に表示すべく制御する第2の表示制御工程と、
    を含む制御方法。
  6. 表示装置と通信可能な、仮想オブジェクトを記憶する情報処理装置を、
    表示装置においてライブ表示される第1の画像に、当該表示装置の位置に応じて位置決定された仮想オブジェクトの画像を重畳して表示すべく制御する第1の表示制御手段と、
    前記第1の画像とは別の画像であって、前記第1の画像よりも高解像度な第2の画像に前記仮想オブジェクトを重畳させる依頼を受けた場合に、当該第2の画像にかかる日時における仮想オブジェクトの画像を当該第2の画像に重畳して表示すべく生成する生成手段と、
    前記生成手段で生成された前記仮想オブジェクトの画像を前記第2の画像に重畳して前記表示装置に表示すべく制御する第2の表示制御手段として機能させるためのプログラム。
JP2014201900A 2014-09-30 2014-09-30 情報処理装置、情報処理システム、その制御方法及びプログラム Active JP6613553B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014201900A JP6613553B2 (ja) 2014-09-30 2014-09-30 情報処理装置、情報処理システム、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014201900A JP6613553B2 (ja) 2014-09-30 2014-09-30 情報処理装置、情報処理システム、その制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2016071720A JP2016071720A (ja) 2016-05-09
JP2016071720A5 JP2016071720A5 (ja) 2018-06-14
JP6613553B2 true JP6613553B2 (ja) 2019-12-04

Family

ID=55864824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014201900A Active JP6613553B2 (ja) 2014-09-30 2014-09-30 情報処理装置、情報処理システム、その制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6613553B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112022005402T5 (de) * 2021-11-11 2024-09-26 Wacom Co., Ltd. Datenverarbeitungseinrichtung, programm, datenverarbeitungsverfahren und datenverarbeitungssystem

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355131A (ja) * 2003-05-27 2004-12-16 Canon Inc 複合現実感映像生成方法及び複合現実感画像生成装置
US9420251B2 (en) * 2010-02-08 2016-08-16 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
JP5377768B2 (ja) * 2010-06-30 2013-12-25 富士フイルム株式会社 画像処理方法及び装置
JP2013196616A (ja) * 2012-03-22 2013-09-30 Sharp Corp 情報端末装置、情報処理方法
JP2013235374A (ja) * 2012-05-08 2013-11-21 Sony Corp 画像処理装置、投影制御方法及びプログラム
JP2013243466A (ja) * 2012-05-18 2013-12-05 Tatsumi Denshi Kogyo Kk 遊戯用撮影装置、遊戯用撮影方法およびプログラム

Also Published As

Publication number Publication date
JP2016071720A (ja) 2016-05-09

Similar Documents

Publication Publication Date Title
JP6186775B2 (ja) 通信端末、表示方法、及びプログラム
JP5920057B2 (ja) 送信装置、画像共有システム、送信方法、及びプログラム
JP6677890B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
US11064095B2 (en) Image displaying system, communication system, and method for image displaying
JP6721004B2 (ja) 画像管理システム、及び画像管理方法
CN108780474B (zh) 服务提供系统、服务递送系统、服务提供方法和记录介质
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
JP6011117B2 (ja) 受信装置、画像共有システム、受信方法、及びプログラム
JP2018036760A (ja) 画像管理システム、画像管理方法、及びプログラム
JP6011567B2 (ja) 情報処理装置、その制御方法、及びプログラム
JP6304300B2 (ja) 送信装置、通信方法、プログラムおよび受信装置
JP6613553B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
CN109074327B (zh) 服务提供系统、服务递送系统、服务提供方法和程序
CN108780426B (zh) 服务提供系统、服务递送系统、服务提供方法和程序
JP2016111578A (ja) 情報処理装置、その制御方法、及びプログラム
JP5942637B2 (ja) 付加情報管理システム、画像共有システム、付加情報管理方法、及びプログラム
JP6508288B2 (ja) システム、画像共有システム、通信方法、及びプログラム
CN108885653B (zh) 服务提供系统、服务递送系统、服务提供方法和程序
JP2011003081A (ja) 作業遠隔支援システム及び作業遠隔支援方法
JP6135115B2 (ja) 情報処理装置、情報処理システム、その制御方法およびそのプログラム
JP6233451B2 (ja) 画像共有システム、通信方法及びプログラム
JP5970092B2 (ja) 作業支援システム及び作業支援方法
JP2018180036A (ja) 投影システム、プロジェクタ、画像投影方法ならびにプログラム
JP2019114977A (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP2015089077A (ja) 撮像装置、外部装置、撮像システム、撮像装置の制御方法、外部装置の制御方法、撮像システムの制御方法、及びプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150410

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191021

R151 Written notification of patent or utility model registration

Ref document number: 6613553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250