JP6217437B2 - 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム - Google Patents

端末装置、情報処理装置、表示制御方法、及び表示制御プログラム Download PDF

Info

Publication number
JP6217437B2
JP6217437B2 JP2014026640A JP2014026640A JP6217437B2 JP 6217437 B2 JP6217437 B2 JP 6217437B2 JP 2014026640 A JP2014026640 A JP 2014026640A JP 2014026640 A JP2014026640 A JP 2014026640A JP 6217437 B2 JP6217437 B2 JP 6217437B2
Authority
JP
Japan
Prior art keywords
information
marker
content
determination
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014026640A
Other languages
English (en)
Other versions
JP2015153169A (ja
Inventor
奨 古賀
奨 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014026640A priority Critical patent/JP6217437B2/ja
Priority to US14/600,530 priority patent/US20150235425A1/en
Publication of JP2015153169A publication Critical patent/JP2015153169A/ja
Application granted granted Critical
Publication of JP6217437B2 publication Critical patent/JP6217437B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、端末装置、情報処理装置、表示制御方法、及び表示制御プログラムに関する。
端末装置の撮像手段により撮像された撮像画像の一部にコンテンツ情報を重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。AR技術を用いて提供されるコンテンツ(以下、「ARコンテンツ」という)は、ARコンテンツ毎に、現実空間に対応する仮想空間上の表示位置が設定される。また、端末装置とARコンテンツとの位置関係の判断基準(基準物)として、ARマーカが用いられる。ARマーカと端末装置との位置関係は、端末装置の撮像画像に写り込んだARマーカの像に基づいて判断される。
端末装置で認識したARマーカに基づいて表示される重畳画像等のARコンテンツは、予め管理者の操作により登録されるもののみでなく、作業員等の操作により登録されるものもある。この登録操作により、管理者や作業員等のユーザは、ARマーカからの相対位置にARコンテンツを設定することができる。
特表2010−531089号公報 国際公開2005/119539号
上述したように、従来手法におけるARコンテンツの表示は、ARマーカの認識に基づいて行われる。そのため、ARマーカが認識できれば、認識時の状況に関係なくARコンテンツが表示される。したがって、複製されたARマーカや、不正な位置に移動されたARマーカに対しても、ARマーカに対応付けられたARコンテンツの表示が行われてしまう。また、ARコンテンツの登録が行われる場合には、その登録が本来ARマーカが配置されるべき位置(例えば、現場等)でARマーカを認識したことに応じて行われたのかを確認することができない。
一つの側面では、本発明は、適切な表示制御を実現することを目的とする。
一態様における端末装置は、入力画像に含まれる基準物を認識する認識部と、前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定する判定部と、前記判定部による判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する画像生成部とを有する。
適切な表示制御を実現することができる。
情報処理システムの概略構成の一例を示す図である。 サーバの機能構成の一例を示す図である。 端末装置の機能構成の一例を示す図である。 サーバのハードウェア構成の一例を示す図である。 端末装置のハードウェア構成の一例を示す図である。 実物体にARマーカを設置した例を示す図である。 第1実施例における空き領域及びARコンテンツの設定処理の一例を示すフローチャートである。 第1実施例における空き領域設定の具体例を説明するための図である。 第2実施例における空き領域及びARコンテンツの設定処理の一例を示すフローチャートである。 第2実施例における空き領域設定の具体例を説明するための図である。 第3実施例における空き領域の設定処理の一例を示すフローチャートである。 端末装置が有するデータ例を示す図である。 サーバが有するデータ例を示す図である。 各テーブルで設定した座標値を説明するための図である。 表示制御処理の一例を示すフローチャートである。 撮影位置のナビゲーション例を示す図である。 判定用物体を用いた判定例を示す図である。 端末装置の表示画面例を示す図である。 空き領域に対するコンテンツの表示例を示す図である。
以下、図面に基づいて実施形態を説明する。
<情報処理システムの概略構成例>
図1は、情報処理システムの概略構成の一例を示す図である。図1に示す情報処理システム10は、情報処理装置の一例としてのサーバ11と、1又は複数の端末装置12−1〜12−n(以下、必要に応じて「端末装置12」と総称する)とを有する。サーバ11及び端末装置12は、例えば通信ネットワーク13によりデータの送受信が可能な状態で接続されている。
サーバ11は、基準物の一例としてのARマーカ、及び各ARマーカに対応付けて登録された各ARコンテンツや端末装置12の表示制御に対する判定条件(例えば、空き領域、判定用物体等における特徴情報等)を管理する。ここで、ARマーカとは、例えばARコンテンツ等の各種コンテンツ情報の内容や表示する位置等を指定するための標識となるものである。ARマーカは、例えば二次元コード等のように、所定の領域内に所定の模様や文字パターン等が形成された画像等であるが、これに限定されるものではない。
ARコンテンツとは、例えば現実空間に対応する三次元の仮想空間上に配置された三次元物体のモデルデータ等であり、例えば端末装置12で撮影された画像に重畳されて表示される重畳情報である。また、ARコンテンツは、例えば撮影画像中に含まれるARマーカからの相対座標で設定された位置に表示される。本実施形態のARコンテンツは、例えばARマーカ等に対応付けられており、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像等の様々な形態が含まれる。また、ARコンテンツは、表示出力されるものに限定されず、例えば音声等の情報であってもよい。
また、サーバ11は、端末装置12で設定されたARマーカの現実空間上の設置位置と、端末装置12の撮影位置とを基準にして、撮影画像中の空き領域を管理する。空き領域は、ARコンテンツを表示する領域である。管理者や作業者等のユーザは、ARマーカに対応付けられた撮影画像中の対象物に対する操作手順や注意事項等のARコンテンツを、設定された空き領域中に表示させる。
また、本実施形態において、空き領域は、例えば端末装置12が適切な位置からARマーカを撮影しているかを判定するために用いられる。空き領域は、例えばARマーカからの相対座標で定義される領域情報であり、その領域の特徴を示す情報(例えば、特徴点情報、輝度情報等)等を含むが、これに限定されるものではない。空き領域等の特徴情報を利用した判定により、端末装置12が適切な位置からARマーカを撮影している場合に、ARマーカに対応するARコンテンツを登録したり、登録されたARコンテンツを表示する等の制御が行われる。
本実施形態では、上述した画像中の空き領域ではなく、非空き領域を設定し、設定した非空き領域を用いてARコンテンツの登録や表示を行うか否かの判定を行ってもよい。非空き領域とは、例えばARコンテンツの重畳表示により隠れることがないように設定された領域であり、ARコンテンツの内容に対応する実物体等が存在する領域である。また、本実施形態では、画像中に存在する実物体を判定用物体とし、その物体の特徴情報を用いて判定を行ってもよい。これらの判定条件は、例えばARマーカ等に応じて選択されてもよく、複数の条件を組み合わせてもよい。
サーバ11は、例えば端末装置12から撮影したARマーカに関する情報(例えば、マーカID)を受信すると、マーカIDに対応するARコンテンツや空き領域等の判定条件を端末装置12に送信する。なお、本実施形態では、これに限定されるものではない。例えば、サーバ11は、端末装置12からマーカIDや位置情報、撮影画像等を受信して、サーバ11側でマーカIDに対する空き領域情報を抽出し、端末装置12の撮影位置等の判定を行い、その判定結果に基づいて、マーカIDに対応付けられたARコンテンツを端末装置12に送信するようにしてもよい。
サーバ11は、例えばPersonal Computer(PC)等でもよいが、これに限定されるものではなく、例えば一以上の情報処理装置を有するクラウドコンピューティングにより構成されるクラウドサーバ等であってもよい。
端末装置12は、ARマーカに対応するARコンテンツの登録を行ったり、撮影したARマーカや空き領域等に基づき、適切な場所でARマーカを撮影しているかの判定を行い、その判定結果に応じてARマーカに対応するARコンテンツを画面に表示する。例えば、端末装置12は、内蔵カメラ等の撮像部により撮影された画像から、その画像に含まれるARマーカの認識(以下、「マーカ認識」という)を行う。
また、端末装置12は、マーカ認識により認識されたARマーカと、そのARマーカに対応付けられて設定された空き領域(又は非空き領域)に基づき設定された特徴情報を有するか否かを判定する。また、端末装置12は、判定結果に応じてARマーカと対応付けられたARコンテンツ等の重畳情報の出力の制御(例えば、出力有無の制御、出力内容の制御)等を行う。また、端末装置12は、マーカ認識により認識されたARマーカの情報や位置情報等の情報をサーバ11に送信し、サーバ11側で行われた判定結果に基づき、対応する出力制御を行ってもよい。
ここで、本実施形態におけるマーカ認識においては、例えばARマーカを1つのアングル(例えば、ARマーカの正面方向)から撮影した場合における空き領域の判定だけでは、他の場所でARマーカを撮影した場合にも偶然同じ空き領域になる可能性がある。この場合には、意図する条件でないのに、正しい位置で撮影されたと判定され、ARマーカに対応付けられたARコンテンツが表示できてしまう。
そこで、本実施形態では、端末装置12が複数のアングル(例えば、3アングル等)から撮影した画像に対してARマーカと空き領域とを用いた判定を行ってもよい。例えば、端末装置12は、空き領域情報の特殊性(例えば、画像中における空き領域の位置、大きさ、範囲、数)等に応じて、撮影方向を1アングルにするか複数アングルにするかを使い分けてもよい。
端末装置12は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。
通信ネットワーク13は、例えばインターネットやLocal Area Network(LAN)等であるが、これに限定されるものではない。また、通信ネットワーク13は、有線でも無線でもよく、これらの組み合わせでもよい。
図1に示す情報処理システム10は、サーバ11と端末装置12とは1対nの構成となっているが、これに限定されるものではなく、例えば複数のサーバを有していてもよい。
<サーバ11の機能構成例>
次に、上述したサーバ11の機能構成例について図を用いて説明する。図2は、サーバの機能構成の一例を示す図である。サーバ11は、通信部21と、記憶部22と、登録部23と、抽出部24と、制御部25とを有する。
通信部21は、通信ネットワーク13を介して端末装置12や他のコンピュータ等との間でデータの送受信を行う。通信部21は、例えば端末装置12からのARコンテンツ等の登録要求、及びARマーカに対応付けて登録するARコンテンツや、空き領域(又は非空き領域)等の表示制御を行うための判定条件を受信する。また、通信部21は、登録されたARマーカの識別情報(例えば、マーカID)等を受信し、対応する判定条件、及びARコンテンツを端末装置12に送信する。
記憶部22は、本実施形態における表示制御処理に必要な各種情報(例えば、マーカID管理テーブル、ARコンテンツ管理テーブル、空き領域情報管理テーブル、判定位置情報管理テーブル、判定用物体位置情報管理テーブル等)を記憶する。記憶部22は、例えば端末装置12でARコンテンツ作成時に生成された設定情報、及びARマーカ毎に設定された空き領域(又は非空き領域)情報、ARコンテンツ、判定用物体情報、判定位置指定用のマーカ座標値情報等の判定条件を記憶する。
登録部23は、端末装置12から得られたARコンテンツ等の各種登録情報等を登録する。例えば、登録部23は、ARマーカを識別する識別情報(マーカID)と、マーカIDに対して設定された判定条件と、マーカIDに対して設定されたARコンテンツ情報と対応付けて登録する。登録された情報は、記憶部22に記憶される。
抽出部24は、端末装置12から得られた識別情報(マーカID)に基づいて記憶部22を参照し、対応する判定条件とARコンテンツ情報とを抽出する。抽出部24により抽出された判定条件やARコンテンツ等は、通信部21によりマーカIDを送信した端末装置12に送信される。
なお、抽出部24は、端末装置12からマーカIDだけでなく、位置情報等を取得した場合には、マーカIDに対応付けられた判定条件に基づき、適切な位置で撮影されたARマーカであるか否かの判定を行ってもよい。例えば、抽出部24は、端末装置12で、入力画像に含まれる基準物(例えば、ARマーカ)を認識した際、そのARマーカの認識に用いられた入力画像の特徴情報が、認識された基準物の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定する。また、抽出部24は、判定した結果に基づいて、例えば適切な位置で撮影されたと判定された場合に、マーカIDに対応付けられたARコンテンツ情報を端末装置12に送信する処理を行ってもよい。 制御部25は、サーバ11内の各構成全体を制御する。制御部25は、例えば通信部21による各種情報の送受信、記憶部22によるデータ記憶、登録部23によるARコンテンツや判定条件等の登録、抽出部24によるARコンテンツや判定条件等の抽出等の処理を行うが、制御部25が行う制御内容については、これに限定されるものではない。
<端末装置12の機能構成例>
次に、上述した端末装置12の機能構成例について、図を用いて説明する。図3は、端末装置の機能構成の一例を示す図である。端末装置12は、通信部31と、撮像部32と、記憶部33と、表示部34と、設定部35と、認識部36と、取得部37と、判定部38と、コンテンツ生成部39と、画像生成部40と、制御部41とを有する。
通信部31は、通信ネットワーク13を介してサーバ11や他のコンピュータ等とデータの送受信を行う。例えば、通信部31は、例えばARマーカと対応付けたARコンテンツ情報、空き領域(非空き領域)情報等の判定条件等の各種設定情報をサーバ11等に送信する。また、通信部31は、マーカ認識により認識されたマーカIDをサーバ11に送信し、送信したマーカIDに対応する判定条件やARコンテンツ等を受信する。
撮像部32は、予め設定されたフレーム間隔で画像を撮像する。撮像部32は、撮像した画像を制御部41へ出力したり、記憶部33に記憶させる。
記憶部33は、本実施形態における出力制御に必要な各種情報(例えば、データ管理テーブル、ARコンテンツ管理テーブル等)を記憶する。記憶部33は、例えばARコンテンツの登録時におけるARマーカと、ARマーカに対応付けたARコンテンツ、空き領域、判定位置、判定用物体情報等を記憶する。また、記憶部33は、マーカ管理情報(例えば、現在認識しているARマーカのIDや位置等)の情報も一時的に記憶する。
また、記憶部33は、例えばARマーカとARコンテンツと対応付ける時(オーサリング時)に設定した空き領域(非空き領域)の情報、判定用物体に関する情報、空き領域(非空き領域)の判定状況(現在判定がどの程度行われているか)等を記憶する。なお、これらの情報は、端末装置12が設定した情報だけでなく、サーバ11から取得した情報も含まれる。また、設定時の情報は、サーバ11へ送信した後に削除されてもよい。
表示部34は、判定部38による判定結果に基づき、画像生成部40により生成される撮影画像にARコンテンツを登録する画面や登録されたコンテンツが撮影画像に重畳された重畳画像、その他の各種設定画像等を表示する。また、表示部34は、マーカ認識時にユーザによるARマーカの撮影位置をナビゲートするためのナビゲーション用の枠を表示してもよい。また、表示部34がタッチパネル等である場合には、表示部34は、タッチパネル上のタッチ位置座標を取得することもできる。
設定部35は、ARマーカの読取後に、そのARマーカに対してどのようなARコンテンツをどの位置に表示させるかを設定する。また、設定部35は、特徴情報として、上述したような空き領域(又は非空き領域)の設定、位置情報の設定、判定用物体に関する情報の設定等を行うことができるが、設定する内容については、これに限定されるものではない。
認識部36は、入力画像に含まれる基準物(例えば、ARマーカ)等を認識する。例えば、認識部36は、撮像部32により得られる撮影画像に対して画像認識を行い、その認識結果から、ARマーカや現実空間上の物体(対象物)の識別情報を取得する。また、認識部36は、ARマーカの撮像部32からの位置(座標)を取得したりARマーカの識別情報(マーカID)を取得する。なお、本実施形態では、複数の異なる基準物(ARマーカ)から同じ識別情報が得られる場合もある。
本実施形態では、例えば撮影画像中に含まれる現実空間上の物体(対象物)に対してARマーカを付与しておくことで、ARマーカの識別情報に対応付けられたARコンテンツとして、その物体の使用方法や作業手順、注意事項等を撮影画像に重畳して表示させることができる。
なお、本実施形態における基準物は、ARマーカに限定されるものではなく、例えば予め登録された物体を基準物としてもよい。この場合、認識部36は、入力画像から登録された物体を認識し、認識した物体に対応する識別情報を取得する。
取得部37は、認識部36により読み取られたマーカIDと対応付けられた、対象物を基準とする座標で定義される画像領域内の特徴情報(第1の特徴情報)を取得する。第1の特徴情報とは、上述した設定部35により設定される情報であり、例えば空き領域情報、非空き領域情報、判定用物体等の判定条件に対応する情報であるが、これに限定されるものではない。また、特徴情報は、予めデータ化されていてもよい。
例えば、取得部37は、ARマーカ、空き領域(又は非空き領域)に設定している物体、判定部38による判定時に利用する判定用物体を、特徴抽出や輝度差抽出等による物体認識手法を用いて認識する。なお、取得部37は、例えば予めARマーカ又は物体の形状を規定したテンプレートを記憶部33に記憶しておき、そのテンプレートとマッチングを行うことでARマーカ又は物体を認識してもよい。また、取得部37は、例えば画像中の所定の領域中の明度のうち、最大値と最小値を取得し、最大値と最小値との差(輝度差)に基づいて、その領域における特徴量から物体を認識してもよい。また、取得部37は、認識したARマーカを識別するID、及びマーカの位置・回転(角度)情報を取得してもよい。なお、取得部37は、認識部36による認識処理を行った後、すぐに取得処理を行ってもよく、別々のタイミングで処理を行ってもよい。また、別の端末装置で認識された画像を用いて、上述した取得部37による特徴情報の取得を行ってもよい。
判定部38は、認識部36及び取得部37により得られる基準物(例えば、ARマーカ)等の認識に用いられた入力画像の特徴情報が、認識された基準物に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定する。例えば、判定部38は、撮像部32により撮像された撮像画像から得られる特徴が、上述した第1の特徴情報に示される特徴(判定条件)と整合するか否かを判定する。例えば、判定部38は、取得部37からARマーカ又は物体の特徴点を取得し、取得した特徴点に基づく一致度判定を行うことで、適切な位置でARマーカを撮影したか否かを判定することができるが、これに限定されるものではない。適切な位置でARマーカを撮影したか否かを判定することは、ARマーカに対応付けたARコンテンツを画面に表示してもよいか否かを判定することと言い換えることもできる。
コンテンツ生成部39は、判定部38による判定結果に基づいて、ARマーカに対応付けて表示されるARコンテンツを生成する。ARコンテンツは、例えば予め設定された空き領域中の所定の位置に表示させる。なお、位置情報は、コンテンツ生成部39によりユーザが画面上で指定した点を、ARマーカを基準としたマーカ座標系に変換することで、その変換後の座標値を位置情報とすることができるが、これに限定されるものではない。
画像生成部40は、例えばARマーカや空き領域等を用いた判定処理の結果、ARコンテンツを表示してもよい場合に、実空間画像の情報に対応するARコンテンツを重畳させて重畳画像(合成画像)を生成する。画像生成部40は、例えばARマーカからの相対位置でARコンテンツを画面に表示することができるが、これに限定されるものではない。
制御部41は、端末装置12が有する各構成における処理全体を制御する。制御部41は、撮像部32によって画像を撮影させたり、表示部34によって各種情報を端末装置12の画面に表示させたり、設定部35によって本実施形態における出力制御に関する各種設定を行わせる等の処理を行う。
また、制御部41は、設定部35による表示制御に関する各種設定、認識部36による撮影画像に含まれる各種情報の認識、取得部37による画像中に含まれる特徴情報の取得、判定部38による画像領域の特徴と、判定条件とに基づく判定、コンテンツ生成部39によるARコンテンツの生成、画像生成部40による重畳画像を生成させる等の処理を行う。
<サーバ11のハードウェア構成例>
次に、サーバ11のハードウェア構成例について、図を用いて説明する。図4は、サーバのハードウェア構成の一例を示す図である。図4の例において、サーバ11は、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、主記憶装置55と、Central Processing Unit(CPU)56と、ネットワーク接続装置57とを有し、これらはシステムバスBで相互に接続されている。
入力装置51は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスや、マイクロフォン等の音声入力デバイスを有しており、ユーザ等からのプログラムの実行指示、各種操作情報、ソフトウェア等を起動するための情報等の入力を受け付ける。
出力装置52は、本実施形態における処理を行うためのコンピュータ本体(サーバ11)を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイ等を有する。出力装置52は、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
ここで、本実施形態において、例えばコンピュータ本体にインストールされる実行プログラムは、記録媒体58等により提供される。記録媒体58は、ドライブ装置53にセット可能である。CPU56からの制御信号に基づき、記録媒体58に格納された実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。
補助記憶装置54は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段等である。補助記憶装置54は、CPU56からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置54は、CPU56からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。主記憶装置55は、Read Only Memory(ROM)やRandom Access Memory(RAM)等である。
CPU56は、Operating System(OS)等の制御プログラム、及び主記憶装置55に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現する。プログラムの実行中に必要な各種情報等は、補助記憶装置54から取得することができ、また実行結果等を格納することもできる。
具体的には、CPU56は、例えば入力装置51から得られるプログラムの実行指示等に基づき、補助記憶装置54にインストールされたプログラムを実行させることにより、主記憶装置55上でプログラムに対応する処理を行う。例えば、CPU56は、表示制御プログラムを実行させることで、上述した登録部23によるARコンテンツやARコンテンツを出力させるか否かの判定条件(例えば、空き領域、非空き領域、判定用物体)等の特徴情報の登録、抽出部24による各種情報の抽出、制御部25による出力制御等の処理を行う。CPU56における処理内容は、上述した内容に限定されるものではない。CPU56により実行された内容は、必要に応じて補助記憶装置54等に記憶される。
ネットワーク接続装置57は、上述した通信ネットワーク13を介して、端末装置12や他の外部装置との通信を行う。ネットワーク接続装置57は、CPU56からの制御信号に基づき、通信ネットワーク13等と接続することにより、実行プログラムやソフトウェア、設定情報等を外部装置等から取得する。また、ネットワーク接続装置57は、プログラムを実行することで得られた実行結果を端末装置12等に提供したり、本実施形態における実行プログラム自体を外部装置等に提供してもよい。
記録媒体58は、上述したように実行プログラム等が格納されたコンピュータで読み取り可能な記録媒体である。記録媒体58は、例えばフラッシュメモリ等の半導体メモリやCD−ROM、DVD等の可搬型の記録媒体であるが、これに限定されるものではない。
図4に示すハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。
<端末装置12のハードウェア構成例>
次に、端末装置12のハードウェア構成例について図を用いて説明する。図5は、端末装置のハードウェア構成の一例を示す図である。図5の例において、端末装置12は、マイクロフォン(以下、「マイク」という)61と、スピーカ62と、表示部63と、操作部64と、センサ部65と、電力部66と、無線部67と、近距離通信部68と、補助記憶装置69と、主記憶装置70と、CPU71と、ドライブ装置72とを有し、これらはシステムバスBで相互に接続されている。
マイク61は、ユーザが発した音声や、その他の音を入力する。スピーカ62は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク61及びスピーカ62は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。
表示部63は、ユーザに対してOSや各種アプリケーションで設定された画面を表示する。また、表示部63は、タッチパネルディスプレイ等でもよく、その場合には表示部63は、入出力部としての機能を有する。
表示部63は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。
操作部64は、表示部63の画面に表示された操作ボタンや端末装置12の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。
ユーザは、例えば表示部63の画面上で所定の操作を行ったり、上述した操作ボタンを押すことで、表示部63により画面上のタッチ位置が検出される。また、表示部63は、画面上にアプリ実行結果やコンテンツやアイコン、カーソル等を表示することができる。
センサ部65は、端末装置12のある時点又は継続的な動作を検出する。例えば、センサ部65は、端末装置12の傾き角度、加速度、方向、位置等を検出するが、これに限定されるものではない。なお、センサ部65としては、例えば傾きセンサや加速度センサ、ジャイロセンサ、Global Positioning System(GPS)等であるが、これに限定されるものではない。
電力部66は、端末装置12の各構成に対して電力を供給する。電力部66は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部66は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
無線部67は、例えばアンテナ等を用いて基地局からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。
近距離通信部68は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の端末装置12等のコンピュータと近距離通信を行うことができる。上述した無線部67及び近距離通信部68は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。
補助記憶装置69は、例えばHDDやSSD等のストレージ手段である。補助記憶装置69は、各種のプログラム等を記憶し、必要に応じてデータの入出力を行う。
主記憶装置70は、CPU71からの指示により補助記憶装置69から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置70は、例えばROMやRAM等であるが、これに限定されるものではない。
CPU71は、OS等の制御プログラム、及び主記憶装置70に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、出力制御における各処理を実現する。
具体的には、CPU71は、例えば操作部64等から得られるプログラムの実行指示等に基づき、補助記憶装置69にインストールされたプログラムを実行させることにより、主記憶装置70上でプログラムに対応する処理を行う。例えば、CPU71は、表示制御プログラムを実行させることで、上述した設定部35によるARコンテンツやARコンテンツを出力させるか否かの判定条件等の設定、認識部36によるARマーカ等の基準物の認識等の処理を行う。また、CPU71は、取得部37による特徴情報(第1の特徴情報)の取得、判定部38による判定、コンテンツ生成部39によるコンテンツの生成、画像生成部40による画像生成等の処理を行う。CPU71における処理内容は、上述した内容に限定されるものではない。CPU71により実行された内容は、必要に応じて補助記憶装置69等に記憶される。
ドライブ装置72は、例えば記録媒体73等を着脱自在にセットすることができ、セットした記録媒体73に記録された各種情報を読み込んだり、所定の情報を記録媒体73に書き込むことができる。ドライブ装置72は、例えば媒体装填スロット等であるが、これに限定されるものではない。
記録媒体73は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体73は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体73は、USBメモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。
また、上述した表示制御処理に対応する表示制御プログラムは、例えば装置上で常駐している状態であってもよく、起動指示により起動させてもよい。
<ARマーカ例>
次に、本実施形態におけるARマーカ例について図を用いて説明する。図6は、実物体にARマーカを設置した例を示す図である。例えば、図6(A)の例では、現実空間にある実物体(対象物)の一例としてパイプ(配管)80が設置されている。パイプ80は、複数のバルブ(弁)81−1〜81−5を有する。本実施形態では、例えば上述したパイプ80と共に撮影できる位置にARマーカ90が取り付けられている。
本実施形態では、ARマーカ90をパイプ80と共に、端末装置12の撮像部32で撮影し、認識部36が画像認識によりARマーカ90の識別情報を読み取る。また、取得部37は、認識部36により得られた識別情報と対応付けられ、ARマーカ90を基準とする座標値で定義される第1の特徴情報(例えば、空き領域、非空き領域等)を取得する。判定部38は、認識部36による識別情報の認識に用いられた入力画像の特徴情報が、認識部36により認識されたARマーカ90の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定する。例えば、判定部38は、撮像部32により撮像された撮像画像のうち、対応する画像領域の特徴が、第1の特徴情報に示される特徴と整合するか(一致するか)否かを判定する。
判定部38による判定結果がOKの場合(一致する場合)、正しい位置から撮影された画像であると判定され、コンテンツ生成部39は、例えばARマーカの識別情報に対応付けて設定された対象物であるパイプ80に設けられたバルブ(弁)81−1〜81−5の使用方法等を示すARコンテンツ等を、撮影中又は撮影した画像上に重畳表示したり、新たなARコンテンツを登録する。これにより、ユーザ(作業者等)は、端末装置12の画面に表示されたARコンテンツ情報に基づいてバルブ(弁)81−1〜81−5を直接操作して、パイプ80の制御等を行うことができる。また、複数のユーザがARコンテンツ情報を共有することができる。
また、ARマーカ90から得られるARコンテンツ情報としては、上述した操作内容に限定されるものではなく、例えばパイプ80がひび割れ等の破損をしている場合や修理が必要である場合等に、その情報や注意事項等をユーザ等に通知するための情報でもよい。
ARマーカ90は、1つの対象物(例えば、パイプ80)に対して1以上設けてもよく、複数の対象物に対して1つのARマーカ90であってもよい。
また、ARマーカは、図6(B)に示すように、例えばサーバ等のコンピュータを収納するサーバラック82等の機器(対象物)に対して、その操作内容やメンテナンス情報(稼働スケジュール、故障時の連絡先)等の各種情報を、そのサーバラックと共に撮影可能な位置に取り付けられたARマーカ90の画像を撮影し、その画像に対して画像認識することで取得することができる。
ARマーカ90の例としては、例えばバーコード、QRコード(登録商標)等の二次元コードでもよく、カラー等を用いた多次元コードでもよいが、これらに限定されるものではない。なお、ARマーカ90によりARコンテンツを表示させる対象物については、これに限定されるものではない。
<端末装置12における処理の一例>
次に、上述した端末装置12における処理の一例について、フローチャートを用いて説明する。なお、端末装置12における処理としては、例えば、管理者や作業者のユーザ等がARマーカに対応付けて空き領域等の判定条件(特徴情報)やARコンテンツを設定する場合と、ARマーカを認識して対応付けられたARコンテンツを表示する場合とがある。なお、上記の場合には、1台の端末装置12を管理者及び作業者が用いてもよく、例えば複数の端末装置12をそれぞれの所有者(管理者、作業者)に割り当てて、処理を行ってもよい。以下の説明では、上記の各場合における処理例を分けて説明する。
<第1実施例における空き領域及びARコンテンツの設定処理の一例>
図7は、第1実施例における空き領域及びARコンテンツの設定処理の一例を示すフローチャートである。図7に示す第1実施例において、端末装置12は、例えば管理者や作業者等のユーザが撮影した画像中のARマーカを認識したか否かを判断する(S01)。
端末装置12は、ARマーカを認識していない場合(S01において、NO)、ARマーカを認識するまで待機する。また、撮影した画像中からARマーカを認識した場合(S01において、YES)、空き領域を設定する指示か否かを判断する(S02)。S02の処理において、端末装置12の設定部35は、空き領域を設定する旨の指示があった場合(S02において、YES)、ユーザからの範囲指定等を受け付け、空き領域を任意の箇所に設定する(S03)。なお、S03の処理では、例えばユーザが画面上の領域をタッチしたりドラッグすることで、空き領域等を設定することができる。
また、S02の処理において、空き領域を設定しない場合(S02において、NO)、又は、S03の処理後、設定部35は、判定用領域を設定するか否かを判断する(S04)。設定部35は、判定用領域を設定する場合(S04において、YES)、判定用領域を任意の箇所に設定する(S05)。判定用領域とは、例えば判定用の物体が存在する領域である。判定用の物体とは、例えば、撮影画像中にARマーカと共に映っている物体(例えば、対象物、壁掛け時計、PC、テレビ等)。例えば、上述した図6の例では、対象物であるパイプ80やサーバラック82等を判定用の物体とし、その物体を囲む画像上の領域を判定用領域として設定してもよい。図7の例では、特徴情報(判定条件)の一例として判定用物体の設定も行う。
また、S04の処理において、判定用領域を設定しない場合(S04において、NO)、又は、S05の処理後、ユーザの指示等により他の方向から撮影した画像に対して空き領域を設定するか否かを判断する(S06)。ここで、他の方向から撮影した画像に対して空き領域を設定する場合(S06において、YES)、S03の処理に戻る。また、S06の処理において、他の方向から撮影した画像に対して空き領域を設定しない場合(S06において、NO)、S01で認識したARマーカに対応付けたARコンテンツを設定する(S07)。
なお、上述した処理は、空き領域を設定する例を示したが、これに限定されるものではなく、非空き領域を設定してもよい。例えば、撮影された画像中に設定された空き領域以外の領域を非空き領域とすることができ、画像中に非空き領域が設定された場合には、画像中の非空き領域以外の領域が空き領域となる。
<第1実施例における空き領域設定の具体例>
図8は、第1実施例における空き領域設定の具体例を説明するための図である。図8(A)の例は、端末装置12における撮影方向を説明するための図であり、図8(B)の例は、図8(A)に対応する設定状況の俯瞰図を示している。
図8(A)の例では、本実施形態における表示制御プログラム(例えば、オーサリング機能)等を用いてARコンテンツを設定する場合に、ARコンテンツを表示させない領域(非空き領域)を設定している。なお、第1実施例では、上述の例に限定されるものではなく、ARコンテンツを表示させる領域(空き領域)を設定してもよい。
図8(A)の例では、現実空間に2つの実物体100−1、100−2が存在する。実物体100−1,100−2は、例えば上述したパイプやサーバラック82等である。ユーザは、実物体100−1、100−2に対するARコンテンツをARマーカ90に対応付けて設定する場合に、実物体100−1,100−2が重畳されるARコンテンツに隠れないようにするため、非空き領域101−1,101−2を設定する。図8(A)の例では、実物体100−1,100−2を覆うように非空き領域101−1,101−2が設定される。
また、本実施形態では、ある一方向(例えば、ARマーカ90に対して正面方向)からの設定だけでなく、他の方向(例えば、左側面方向、右側面方向等)からも設定することができる。これにより、例えば1つの方向では偶然に非空き領域が一致した場合に、意図しない判定結果となることを防止することができる。なお、非空き領域を設定した状態におけるマーカの認識情報やARコンテンツの設定情報は、サーバ11に送信され管理される。
また、ARマーカを撮影してサーバ11に登録されたARコンテンツを取得する場合には、例えばARマーカ90と複数個所からの非空き領域が、判定時に一致するか否かを判定する。このように、複数個所から、非空き領域を設定することにより、立体的な非空き領域を設定することができる。図8(B)の例では、マーカ90の正面方向にある端末装置12aから実物体100−1,100−2に対して非空き領域101−1a、101−2aが設定される。また、ARマーカ90の左側面方向にある端末装置12bから実物体100−1,100−2に対して非空き領域101−1b、101−2bが設定される。また、ARマーカ90の右側面方向にある端末装置12cから実物体100−1,100−2に対して非空き領域101−1c、101−2cが設定される。上述の設定により得られるARマーカや空き領域等の各領域(位置情報)は、例えばマーカの中心位置を基準としたマーカ座標系(X,Y,Z)で管理されるが、これに限定されるものではく、例えば撮影された画像のある位置を基準にしたスクリーン座標系で管理してもよい。
<第2実施例における空き領域及びARコンテンツの設定処理の一例>
図9は、第2実施例における空き領域及びARコンテンツの設定処理の一例を示すフローチャートである。図9に示す第2実施例において、端末装置12は、管理者や作業者等のユーザが撮影した画像中のARマーカを認識したか否かを判断する(S11)。端末装置12は、ARマーカを認識していない場合(S11において、NO)、ARマーカを認識するまで待機する。
また、ARマーカを認識した場合(S11において、YES)、空き領域を設定する指示を受け付けたか否かを判断する(S12)。S12の処理において、端末装置12の設定部35は、ユーザ等から空き領域を設定する旨の指示があった場合(S12において、YES)、予め記憶部33に記憶された非空き領域のテンプレート等を用いて任意の箇所に設定する(S13)。
また、S12の処理において、空き領域を設定しない場合(S12において、NO)、又は、S13の処理後、設定部35は、判定用領域を設定するか否かを判断し(S14)、判定用領域を設定する場合(S14において、YES)、判定用領域を任意の箇所に設定する(S15)。次に、設定部35は、マーカに対応付けたコンテンツを設定する(S16)。
ここで、S12の処理において、空き領域を設定しない場合(S12において、NO)、S14の処理において、判定用領域を設定しない場合(S14において、NO)、又は、S16の処理後、処理を終了する。
なお、第2実施例では、上述した第1実施例と同様に、他の方向から撮影された画像に対する設定を行ってもよい。
<第2実施例における空き領域設定の具体例>
図10は、第2実施例における空き領域設定の具体例を説明するための図である。図10(A)は、端末装置12における撮影方向を説明するための図であり、図10(B)は、設定状況の一例を示している。
第2実施例では、ARマーカと、非空き領域と、判定用領域とを設定して、ARマーカに対応付けたARコンテンツを設定する。なお、図10(A)の例では、ARコンテンツを表示させない領域(非空き領域)のテンプレートが示されているが、ARコンテンツを表示させる領域(空き領域)を設定してもよい。
第2実施例における設定処理では、非空き領域を予め設定された1又は複数のテンプレート(図10(A)の例では、3つ)を用いて設定することができる。図10(A)の例では、テンプレートがそれぞれ「立方体」、「円柱」、「球体」を示しているが、これらの種類や数に限定されるものではなく、例えば正方形、円形等の初期画像(平面)等でもよい。
また、第2実施例では、これらのテンプレート等から選択した1つのテンプレートを画面上に表示し、その表示したテンプレートを端末装置12の画面(タッチパネル)上での操作(例えば、ピンチイン、ピンチアウト、フリック)等によりテンプレートを任意の大きさに拡縮したり、形状を変化することで、ARマーカ90に相対する任意の位置を非空き領域として設定することができる(図10(B))。
図10(B)の例では、実物体100−1,100−2の形状に合わせてテンプレートを用いた非空き領域101−1,101−2が選択されている。第2実施例において設定される非空き領域101は、例えばセキュリティ強度に対応させて、画面上の実物体よりも大きく設定したり、小さく設定したりすることができる。例えば、非空き領域を実物体よりも広く設定した場合には、物体認識に用いる特徴点の数を増加させることができるため、セキュリティ強度は高くなる。また、実物体よりも小さく設定した場合には、特徴点の数を減少させることができるため、セキュリティ強度は低くなる。設定部35は、非空き領域の大きさにより物体認識の範囲に影響がでるため、上述したセキュリティ強度の調整を行うことができる。また、非空き領域とする物体は、撮影した画像中に含まれる全ての実物体でなくてもよく、選択された少なくとも1つの物体であればよい。上述の設定により得られるARマーカや空き領域等の各領域(位置情報)は、例えばマーカの中心位置を基準としたマーカ座標系(X,Y,Z)で管理されるが、これに限定されるものではく、例えば撮影画像を基準にしたスクリーン座標系で管理してもよい。
<第3実施例における空き領域の設定処理の一例>
図11は、第3実施例における空き領域の設定処理の一例を示すフローチャートである。図11に示す第3実施例は、上述した第1実施例における設定手法を第1モードとし、第2実施例における設定手法を第2モードとして、管理者等がモード選択により選択可能とするものである。
図11の例において、端末装置12は、管理者や作業者等のユーザが撮影した画像中のARマーカを認識したか否かを判断する(S21)。端末装置12は、ARマーカを認識していない場合(S21において、NO)、ARマーカを認識するまで待機する。
また、撮影した画像中からARマーカを認識した場合(S21において、YES)、予め設定された画面等により、管理者等からのモード選択を受け付ける(S22)。次に、設定部35は、S22の処理から、設定モードで第1モードが選択されたか否かを判断し(S23)、第1モードが選択された場合(S23において、YES)、上述した第1モード(第1実施例)での設定を行う(S24)。また、S23の処理において、設定モードで第1モードが選択されていない場合(S23において、NO)、上述した第2モード(第2実施例)での設定を行う(S25)。なお、モードについては、これに限定されるものではなく、3以上のモードがある場合には、それぞれのモードの選択結果に対応するモードを実行する。
<データ例>
次に、上述した本実施形態におけるデータ例について図を用いて説明する。なお、以下のデータ例では、位置情報等を示す座標系の例として三次元座標系を用いているが、これに限定されるものではなく、例えば二次元座標系(X,Y)であってもよい。図12は、端末装置が有するデータ例を示す図である。図12(A)は、データ管理テーブルの一例を示している。図12(B)は、ARコンテンツ管理テーブルの一例を示している。
図12(A)に示すデータ管理テーブルの項目としては、例えば「マーカID」、「ARコンテンツID」、「空き領域情報」、「判定位置情報」、「判定用物体情報」等があるが、これに限定されるものではない。
「マーカID」は、ARマーカを識別するための情報である。「ARコンテンツID」は、マーカIDに対応付けられて設定されたARコンテンツを識別するための情報である。1つのマーカIDに対して1又は複数のARコンテンツIDを設定することができる。また、マーカIDに対するコンテンツIDは必要に応じて変更することができる。「空き領域情報」は、撮影画像の三次元空間(仮想空間)上における空き領域の座標である。なお、「空き領域情報」には、非空き領域の情報を記憶してもよい。その場合には、どちらの領域であるか示すフラグ等も記憶される。「判定位置情報」は、判定するARマーカの位置情報の座標である。「判定用物体情報」は、判定物体情報であり、例えば空き領域の判定位置における判定用の物体の特徴点の座標値等であるが、これに限定されるものではない。
図12(B)に示すARコンテンツ管理テーブルの項目としては、例えば「ARコンテンツID」と、「座標値」と、「回転角度」、「拡縮率」、「テクスチャパス」等があるが、これに限定されるものではない。例えば、第2実施例に示すような形状のテンプレートを用いて設定を行った場合には、そのテンプレートの識別情報を有していてもよい。
「ARコンテンツID」は、ARコンテンツを識別するための識別情報であり、図12(A)に示すデータ管理テーブルのARコンテンツIDと関連付けられている。「座標値」は、ARコンテンツを撮影画像の三次元空間(仮想空間)上に表示するための座標である。図12(B)の例では、ARコンテンツの中心の座標値が設定されているが、これに限定されるものではない。「回転角度」は、例えば予め正面等の所定の位置を基準にした基準角度から、三次元空間上にどの程度回転しているかを示す情報である。「拡縮率」は、基準となる大きさに対する拡縮率を示す情報である。「テクスチャパス」は、例えばARコンテンツに設定するイメージファイル等の格納先アドレスを示す情報である。なお、ARコンテンツの格納先へは、例えば上述した通信ネットワーク13を介してアクセスしてもよいが、これに限定されるものではない。格納先は、例えばサーバ11等であるが、これに限定されるものではなく、例えばウェブ上で公開される画像ファイル等でもよい。
図13は、サーバが有するデータ例を示す図である。図13(A)は、マーカID管理テーブルの一例を示している。図13(B)は、ARコンテンツ管理テーブルの一例を示している。図13(C)は、判定位置情報管理テーブルの一例を示している。図13(D)は、空き領域情報管理テーブルの一例を示している。図13(E)は、判定用物体位置情報管理テーブルの一例を示している。
図13(A)に示すマーカID管理テーブルの項目としては、例えば「マーカID」、「ARコンテンツID」、「判定位置情報ID」、「空き領域ID」、「判定物体位置情報ID」等があるが、これに限定されるものではない。図13(A)に示すマーカID管理テーブルには、マーカIDに対応付けられた1又は複数のARコンテンツと、ARコンテンツを表示するための判定条件に対応する特徴情報(「判定位置情報ID」、「空き領域ID」、「判定物体位置情報ID」)が記憶されている。これらの特徴情報は、ARマーカの位置情報、空き領域、判定物体の位置情報のうち、少なくとも1つを有していればよいが、特徴情報については、これに限定されるものではない。
図13(B)に示すARコンテンツ管理テーブルの項目としては、例えば上述した図12(B)に示すように、「ARコンテンツID」、「座標値」、「回転角度」、「拡縮率」、「テクスチャパス」等があるが、これに限定されるものではない。例えば、第2実施例に示すような形状のテンプレートを用いて設定を行った場合には、そのテンプレートの識別情報を有していてもよい。
図13(C)に示す空き領域情報管理テーブルの項目としては、例えば「空き領域情報ID」、「空き領域の座標値」等があるが、これに限定されるものではない。空き領域情報管理テーブルにより、空き領域毎の位置情報を取得することができる。
図13(D)に示す判定位置情報管理テーブルの項目としては、例えば「判定位置情報ID」、「ARマーカの四隅の座標値」等があるが、これに限定されるものではない。判定位置情報管理テーブルにより、ARマーカの位置情報を取得することができる。
図13(E)に示す判定用物体位置情報管理テーブルの項目としては、例えば「判定用物体位置情報ID」、「物体の特徴点の座標値」等があるが、これに限定されるものではない。判定用物体位置情報管理テーブルにより、判定用物体の位置情報を取得することができる。
なお、図13に示す上述したサーバ11が有するデータ例は、1又は複数の端末装置12から得られる情報である。したがって、例えば端末装置12を識別するための識別情報(端末ID)と共に上述した各データを管理してもよい。
ここで、図14は、各テーブルで設定した座標値を説明するための図である。図14(A)は、ARマーカの座標値を示している。図14(B)は、ARコンテンツの座標値を示している。図14(C)は、非空き領域の座標値を示している。図14(D)は、認識用物体位置情報管理テーブルにおける物体の特徴点の一例を示している。
図14(A)では、ARマーカ90を位置付ける三次元空間上の四隅の座標値が上述したテーブルで管理される。なお、ARマーカ90の座標値は、これに限定されるものではなく、例えばARマーカ90の中心座標であってもよい。
図14(B)では、ARコンテンツを位置付ける三次元空間上の中心座標値が上述したテーブルで管理される。なお、図14(B)の例では、ARコンテンツの一例として、ARマーカ90に対応付けられた対象物を操作するための手順を示しているが、ARコンテンツについては、これに限定されるものではない。
図14(C)に示す例では、三次元空間上における複数の非空き領域を各領域毎に四隅の座標値を設定する。図14(C)の例では、2つの実物体に対応させて2つの非空き領域の四隅の座標値が上述したテーブルで管理される。
図14(D)に示す例では、撮影画像中に存在する実物体を判定に利用する場合に、その物体の三次元空間上の特徴点を予め設定しておき、その特徴点の座標値をテーブルに設定しておく。これにより、適切な位置でARマーカを撮影しているかを判定する際に、この実物体の情報(特徴点の座標値)を判定条件の一つとして利用することができる。
なお、上述した各座標値は、上述したマーカ座標系でもよく、スクリーン座標系でもよく、これらを組み合わせたり、座標変換等により所定の座標系に変換した値でもよい。
<表示制御処理の一例>
次に、例えば管理者等が設定した判定条件に基づいて、作業員等が実際に撮影したARマーカに対応付けられたARコンテンツを表示するときの表示制御処理の一例について、フローチャートを用いて説明する。
図15は、表示制御処理の一例を示すフローチャートである。図15の例において、例えば作業者等のユーザが端末装置12の撮像部32で撮影した画像中に存在するARマーカを認識したか否かを判断する(S31)。端末装置12の認識部36は、ARマーカを認識していない場合(S31において、NO)、S31の処理に戻り、ARマーカを認識するまで待機する。なお、所定時間以上ARマーカを認識できない場合には、処理を終了してもよい。
S31の処理において、認識部36は、画像中に存在するARマーカを認識した場合(S31において、YES)、空き領域判定用のマーカ枠を表示する(S32)。このマーカ枠を画面上に表示することで、その枠内にARマーカを入れて撮影した画像に基づいて、空き領域(非空き領域)や判定用物体等の特徴情報等を用いた整合判定(一致・不一致判定)を行うように、ユーザにナビゲーションすることができる。また、マーカ枠は、上述した図13(D)に示す判定位置情報管理テーブル等から取得することができ、複数の方向からマーカを撮影して、適切な場所(現場)で撮影されているか否かを判定する場合には、複数のマーカ枠が表示される。
次に、判定部38は、現在認識しているARマーカに対して取得した特徴情報と、予め設定された特徴情報との整合を行う。例えば、判定部38は、現在認識しているARマーカとマーカ枠の座標値及び空き領域等の座標値が一致したか否かを判断する(S33)。なお、S33の処理では、例えば、上述した空き領域(又は非空き領域)やARコンテンツを設定する処理において予め設定されたARマーカの座標値や空き領域(又は非空き領域)を使用する。また、現在認識しているARマーカに対する空き領域等の情報は、撮影画像に対する判定用物体の位置や特徴点抽出、輝度差情報等を用いて取得することができるが、これに限定されるものではない。
また、S33の処理では、座標値の完全一致は困難であると考えられるため、予め許容範囲を設け、その許容範囲内に座標値が含まれる場合(座標値とある程度近似している場合)に一致していると判定してもよい。また、S33の処理では、空き領域に限定されずに、例えば撮影画像中に存在する判定用物体(実物体)の特徴情報の座標値を用いて一致しているか否かの判定を行ってもよく、空き領域と判定用物体とを用いてが一致しているか否かの判定を行ってもよい。
判定部38は、S33の処理において、判定部28は、現在認識しているマーカとマーカ枠の座標値及び空き領域等の座標値が一致していない場合(S33において、NO)、S31の処理に戻る。このとき、エラーメッセージを画面に表示してもよい。また、判定部38は、現在認識しているマーカとマーカ枠の座標値及び空き領域等の座標値が一致した場合(S33において、YES)、適切な場所から撮影されたものと判断し、一致したマーカ枠を非表示にする(S34)。
次に、判定部38は、認識中のマーカに設定されている全マーカ枠座標でマーカ認識済みか否かを判断し(S35)、認識済みでない場合(S35において、NO)、S33の処理に戻り、他のマーカ枠と座標値の比較による整合判定を行う。また、判定部38は、全マーカ枠座標で認識済みである場合(S35において、YES)、認識中のARマーカの識別情報(マーカID)に基づき、ARマーカに対応するARコンテンツをサーバ11等から取得して、画面上の所定の位置に表示する(S36)。なお、S36の処理では、新たなARコンテンツを設定する処理を行ってもよい。これにより、適切な撮影位置で撮影されたARマーカに対応付けて適切な位置にARコンテンツを表示したり、登録することができる。
ここで、上述した表示制御処理では、例えばS33の処理における座標値の比較を端末装置12側で行ったが、本実施形態については、これに限定されるものではなく、サーバ11側で行ってもよい。この場合、認識したARマーカの識別情報(マーカID)と関連する特徴情報(座標値等)とをサーバ11に送信し、サーバ11の抽出部24が、マーカIDに対応付けられたARコンテンツを記憶部22から抽出する場合に、座標値に基づいて判定を行ってもよい。
<撮影位置のナビゲーション例>
ここで、上述したマーカ枠を用いた撮影位置のナビゲーション例について説明する。図16は、撮影位置のナビゲーション例を示す図である。図16(A)は、上述したマーカ枠の表示例を示し、図16(B)は、マーカ枠に入れて撮影した画像に対する特徴情報を用いた整合判定結果後の動作例を示している。
図16(A)において、端末装置12の画面110には、上述した実物体100−1,100−2と、実物体100−1,100−2に対応付けた操作手順や注意事項等のコンテンツを表示させるためのARマーカ90とを有している。
例えば、本実施形態における表示制御時には、図16(A)に示すように、判定を行う際のマーカ認識位置におけるマーカ枠(マーカの外形枠)120が画面に表示される。マーカ枠120の領域と、実際に認識したARマーカの画面中の形状(座標値)が一致した位置が、事前に空き領域(非空き領域)等を設定した位置となるため、その位置で撮影された画像を用いて、空き領域(非空き領域)や判定用物体等を用いた判定処理が行われる。
判定の結果、例えば非空き領域や画像中にある物体の位置等を用いた特徴情報が一致した場合、図16(B)に示すようにマーカ枠120−1が画面110から消える。また、他のマーカ枠120−2,120−3でも同様に判定を行う旨の指示情報が画面表示されたり、音声出力されてユーザに通知される。そして、全てのマーカ枠で特徴情報が一致した場合には、既に登録されたARコンテンツが画面110に表示される。
また、図16(B)において、例えば非空き領域等を用いた判定結果が不一致であった場合には、マーカ枠120−1の領域は、消えないままとなる。この場合、端末装置12は、ARマーカを再度認識されるようにユーザに促す情報やエラーメッセージを画面110に表示する。このように、本実施形態では、マーカ枠を表示することで、空き領域等の特徴情報が画角に含まれるように誘導する制御を行うことができる。
なお、図16の例では、3つのマーカ枠120−1〜120−3を示しており、それぞれの角度で撮影するようにナビゲーションしているが、撮影位置については、これに限定されるものではない。また、マーカ枠120は、ARマーカ90の外枠と一致していなくてもよく、予め設定された許容範囲内に含まれていればよい。
また、本実施形態では、例えばARマーカ90を入れるマーカ枠120の順序等を予め設定しておき、所定の順序でマーカ枠に入れない場合に不一致判定を行うように制御を行ってもよい。
<判定用物体を用いた判定例>
次に、判定用物体を用いた判定例について図を用いて説明する。図17は、判定用物体を用いた判定例を示す図である。図17の例では、端末装置12の撮像部32により得られる撮影画像に含まれる実物体(時計等)を判定用物体130として判定に用いる。
例えば、撮影画像全体において非空き領域が占める割合が少ない場合には、非空き領域を用いて、その場所で撮影されたものであるか否かの判定精度が低下する可能性がある。これは、撮影画像中における物体が小さいことによる物体認識精度が低下することも関係している。そのため、本実施形態では、撮影画像中に含まれる非空き領域以外に撮影されている他の物体(図17の例では、時計)を判定用物体130として設定し、その判定用物体の範囲からなる特徴情報(座標値)131等を利用して判定を行うことで、判定精度を向上させることができる。
図17の例では、端末装置12に画面110に表示された撮影画像において、画像全体における非空き領域101が占める割合(例えば、画面の面積比率)が所定値より小さい場合に、ARマーカ90からの相対位置で特定の物体(判定用物体130)を設定する。また、設定した判定用物体130の特徴情報131を利用することで判定の精度を向上させることができる。また、本実施形態では、ARマーカ90からの相対位置で判定用物体130の設定を行うことにより、物体認識の精度・処理時間を向上させることができる。
<端末装置12における表示画面例>
次に、上述した端末装置12における表示画面例について、図を用いて説明する。図18は、端末装置の表示画面例を示す図である。図18の例において、端末装置12は、画面110上に実物体100−1,100−2と、それらに対応するARマーカ90が設定されている。図18に示す例では、画面110上の実物体100−1,100−2に対してそれぞれ非空き領域101−1,101−2が設定されている。なお、判定時には、上述した非空き領域101−1,101−2は、画面110には表示されない。図18に示すARコンテンツ141,142は、非空き領域101と重ならない位置に表示される。
本実施形態では、図18に示すように、ARマーカ90に対応付けられたARコンテンツとして、例えばその実物体100−1,100−2に対する操作手順を示すARコンテンツ141や、注意、コメント等のARコンテンツ142等が画面110に表示される。これらのARコンテンツは、1又は複数のユーザ(管理者や作業者)等がARマーカに対応付けて設定することができ、予め設定した三次元空間上の位置に表示される。これにより、複数のユーザに情報を提供して共有することができる。なお、上述したARコンテンツは、例えばマーカ座標系に基づく予め設定された空き領域上に表示される。
また、ARコンテンツの内容としては、図18の例に限定されるものではなく、例えば、図18に示すARコンテンツを画面110から選択(タッチ)することで、そのARコンテンツ情報に対応する映像や音声、詳細情報等のコンテンツを出力することができる。上述したARコンテンツは、予め設定された空き領域上に表示される。
<ARコンテンツの表示例>
図19は、空き領域に対するコンテンツの表示例を示す図である。例えば、ARマーカに対応付けられたARコンテンツは、上述したように予め設定された空き領域上に表示される。この空き領域は、例えばARマーカの正面方向に対して設定される。ここで、ARマーカの右側に回り込んで撮影した場合には、空き領域の四隅の座標P1〜P4による四角形は歪んだ四角形となる。
そのため、ARコンテンツの表示例としては、例えば図19(A)に示すように、マーカ座標系で、空き領域の歪んだ四角形の領域にコンテンツC1〜C3のそれぞれをマッピングし、マッピングされたコンテンツC1〜C3のそれぞれの投影画像を生成する。したがって、ARコンテンツC1〜C3は、図19(A)に示すように、あたかも壁に取り付けられた画像のように表示される。
また、他の例として、例えば、図20(B)に示すように、スクリーン座標系で、四角形の空き領域内にARコンテンツC1〜C3のそれぞれをマッピングする。図19(B)のようにコンテンツを表示することで、各コンテンツが画面(スクリーン)に対して正面を向くため、表示される情報が見やすくなる。
ここで、本実施形態における空き領域等は、例えばARコンテンツとして編集されてもよく、画像の特徴等に基づいて生成されてもよい。また、本実施形態では、空き領域を含むか否かの判定を端末装置12で行う場合には、端末装置12とサーバ11とが接続されていない状態(オフライン環境)であってもよい。この場合、例えばマーカIDに対応するARコンテンツを端末装置12で予め保持しておき、マーカIDに対応する判定についてサーバ11を介さずに端末装置12が行い、その判定結果に応じて端末装置12に保持されたARコンテンツを表示してもよい。また、本実施形態では、他のユーザがARマーカに関するARコンテンツを登録中であるときに、ARコンテンツの参照を抑止するようにしてもよい。また、本実施形態では、端末装置12のGPS等から得られる位置情報と組み合わせて撮影位置の判定を行ってもよい。
上述したように、本実施形態によれば、適切な表示制御を実現することができる。例えば、本実施形態によれば、ARマーカの配置状況に基づいて、ARマーカの認識に応じて行われる表示内容を制御することができる。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した実施例の一部又は全部を組み合わせることも可能である。
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
入力画像に含まれる基準物を認識する認識部と、
前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定する判定部と、
前記判定部による判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する画像生成部とを有することを特徴とする端末装置。
(付記2)
前記判定部は、
複数の方向から撮影された前記基準物の認識に用いられた入力画像を用いて、前記空き領域情報又は前記非空き領域情報に基づく特徴情報を含むかの判定を行うことを特徴とする付記1に記載の端末装置。
(付記3)
前記判定部は、
前記認識部による前記基準物の認識に用いられた前記入力画像の特徴情報が、前記認識された基準物の識別情報と対応付けて設定された判定用物体の特徴情報を含むかを判定することを特徴とする付記1又は2に記載の端末装置。
(付記4)
前記認識部による前記基準物の認識に用いられた前記入力画像に対し、前記基準物の位置情報に対応付けて前記空き領域情報又は非空き領域情報に基づく特徴情報及び前記コンテンツを設定する設定部を有することを特徴とする付記1乃至3の何れか1項に記載の端末装置。
(付記5)
前記空き領域又は前記非空き領域情報は、前記基準物からの相対座標で定義される領域情報であることを特徴とする付記1乃至4の何れか1項に記載の端末装置。
(付記6)
端末装置で入力画像に含まれる基準物を認識した際、前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定し、判定した結果に基づいて前記識別情報に対応付けられたコンテンツを抽出する抽出部と、
前記抽出部により抽出されたコンテンツを前記端末装置に送信する通信部とを有することを特徴とする情報処理装置。
(付記7)
端末装置が、
入力画像に含まれる基準物を認識し、
前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定し、
判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成することを特徴とする表示制御方法。
(付記8)
入力画像に含まれる基準物を認識し、
前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定し、
判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する、処理をコンピュータに実行させる表示制御プログラム。
10 情報処理システム
11 サーバ(情報処理装置)
12 端末装置
13 通信ネットワーク
21,31 通信部
22,33 記憶部
23 登録部
24 抽出部
25,41 制御部
32 撮像部
34,63 表示部
35 設定部
36 認識部
37 取得部
38 判定部
39 コンテンツ生成部
40 画像生成部
51 入力装置
52 出力装置
53,72 ドライブ装置
54,69 補助記憶装置
55,70 主記憶装置
56,71 CPU
57 ネットワーク接続装置
58,73 記録媒体
61 マイク
62 スピーカ
64 操作部
65 センサ部
66 電力部
67 無線部
68 近距離通信部
80 パイプ(配管)
81 バルブ(弁)
82 サーバラック
90 ARマーカ(基準物)
100 実物体
101 非空き領域
110 画面
120 マーカ枠
130 判定用物体
131 特徴情報
141,142 ARコンテンツ

Claims (7)

  1. 入力画像に含まれる基準物を認識する認識部と、
    前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定する判定部と、
    前記判定部による判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する画像生成部とを有することを特徴とする端末装置。
  2. 前記判定部は、
    複数の方向から撮影された前記基準物の認識に用いられた入力画像を用いて、前記空き領域情報又は前記非空き領域情報に基づく特徴情報を含むかの判定を行うことを特徴とする請求項1に記載の端末装置。
  3. 前記判定部は、
    前記認識部による前記基準物の認識に用いられた前記入力画像の特徴情報が、前記認識された基準物の識別情報と対応付けて設定された判定用物体の特徴情報を含むかを判定することを特徴とする請求項1又は2に記載の端末装置。
  4. 前記認識部による前記基準物の認識に用いられた前記入力画像に対し、前記基準物の位置情報に対応付けて前記空き領域情報又は非空き領域情報に基づく特徴情報及び前記コンテンツを設定する設定部を有することを特徴とする請求項1乃至3の何れか1項に記載の端末装置。
  5. 端末装置で入力画像に含まれる基準物を認識した際、前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定し、判定した結果に基づいて前記識別情報に対応付けられたコンテンツを抽出する抽出部と、
    前記抽出部により抽出されたコンテンツを前記端末装置に送信する通信部とを有することを特徴とする情報処理装置。
  6. 端末装置が、
    入力画像に含まれる基準物を認識し、
    前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定し、
    判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成することを特徴とする表示制御方法。
  7. 入力画像に含まれる基準物を認識し、
    前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けて設定された空き領域情報又は非空き領域情報に基づく特徴情報を含むかを判定し、
    判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する、処理をコンピュータに実行させる表示制御プログラム。
JP2014026640A 2014-02-14 2014-02-14 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム Expired - Fee Related JP6217437B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014026640A JP6217437B2 (ja) 2014-02-14 2014-02-14 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
US14/600,530 US20150235425A1 (en) 2014-02-14 2015-01-20 Terminal device, information processing device, and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014026640A JP6217437B2 (ja) 2014-02-14 2014-02-14 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2015153169A JP2015153169A (ja) 2015-08-24
JP6217437B2 true JP6217437B2 (ja) 2017-10-25

Family

ID=53798565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014026640A Expired - Fee Related JP6217437B2 (ja) 2014-02-14 2014-02-14 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム

Country Status (2)

Country Link
US (1) US20150235425A1 (ja)
JP (1) JP6217437B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6255706B2 (ja) * 2013-04-22 2018-01-10 富士通株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび情報提供システム
JP6244954B2 (ja) * 2014-02-06 2017-12-13 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
US10026228B2 (en) * 2015-02-25 2018-07-17 Intel Corporation Scene modification for augmented reality using markers with parameters
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP2018061651A (ja) * 2016-10-12 2018-04-19 株式会社ユニバーサルエンターテインメント 遊技機
JP7078989B2 (ja) * 2018-08-22 2022-06-01 国立大学法人信州大学 食育及び栄養の指導・学習支援システムおよび食育教材作成ツール
US11374808B2 (en) 2020-05-29 2022-06-28 Corning Research & Development Corporation Automated logging of patching operations via mixed reality based labeling
US11295135B2 (en) * 2020-05-29 2022-04-05 Corning Research & Development Corporation Asset tracking of communication equipment via mixed reality based labeling
JP7528621B2 (ja) * 2020-08-05 2024-08-06 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
US12229622B1 (en) 2023-02-03 2025-02-18 Block, Inc. Extended reality tags in an extended reality platform

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697761B2 (en) * 2000-09-19 2004-02-24 Olympus Optical Co., Ltd. Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system
US6765569B2 (en) * 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US7277572B2 (en) * 2003-10-10 2007-10-02 Macpearl Design Llc Three-dimensional interior design system
JP2005157610A (ja) * 2003-11-25 2005-06-16 Canon Inc 画像処理装置および方法
SE525826C2 (sv) * 2004-06-18 2005-05-10 Totalfoersvarets Forskningsins Interaktivt förfarande för att presentera information i en bild
ATE428154T1 (de) * 2005-05-03 2009-04-15 Seac02 S R L Augmented-reality-system mit identifizierung der realen markierung des objekts
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
JP2009015648A (ja) * 2007-07-05 2009-01-22 Canon Inc 画像処理装置、画像処理方法
US8542906B1 (en) * 2008-05-21 2013-09-24 Sprint Communications Company L.P. Augmented reality image offset and overlay
EP2457627B1 (en) * 2008-06-30 2014-06-25 Sony Computer Entertainment Inc. Portable type game device and method for controlling portable type game device
US20100048290A1 (en) * 2008-08-19 2010-02-25 Sony Computer Entertainment Europe Ltd. Image combining method, system and apparatus
US8502835B1 (en) * 2009-09-02 2013-08-06 Groundspeak, Inc. System and method for simulating placement of a virtual object relative to real world objects
US9164577B2 (en) * 2009-12-22 2015-10-20 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
US20110234631A1 (en) * 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
JP5055402B2 (ja) * 2010-05-17 2012-10-24 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
US8860760B2 (en) * 2010-09-25 2014-10-14 Teledyne Scientific & Imaging, Llc Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
US10133950B2 (en) * 2011-03-04 2018-11-20 Qualcomm Incorporated Dynamic template tracking
US10242456B2 (en) * 2011-06-23 2019-03-26 Limitless Computing, Inc. Digitally encoded marker-based augmented reality (AR)
JP5821526B2 (ja) * 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2013210793A (ja) * 2012-03-30 2013-10-10 Ntt Data Corp Ar表示最適化のためのシステム、方法、およびプログラム
US20140002443A1 (en) * 2012-06-29 2014-01-02 Blackboard Inc. Augmented reality interface
US20140123507A1 (en) * 2012-11-02 2014-05-08 Qualcomm Incorporated Reference coordinate system determination
US9898844B2 (en) * 2013-12-31 2018-02-20 Daqri, Llc Augmented reality content adapted to changes in real world space geometry

Also Published As

Publication number Publication date
US20150235425A1 (en) 2015-08-20
JP2015153169A (ja) 2015-08-24

Similar Documents

Publication Publication Date Title
JP6217437B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP6244954B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP6326996B2 (ja) 端末装置、情報処理システム、及び表示制御プログラム
JP6344029B2 (ja) 表示方法、表示プログラム、及び表示装置
JP6573755B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
US10163266B2 (en) Terminal control method, image generating method, and terminal
US11054918B2 (en) Position-based location indication and device control
JP6424601B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP6543924B2 (ja) 情報処理方法、情報処理プログラム、及び情報処理装置
JP6524706B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP7511532B2 (ja) プログラム、画像処理方法及び画像処理システム
JP6413521B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
KR102260193B1 (ko) 3차원 공간에 대한 보안기능을 제공하는 증강현실 원격 통신방법 및 시스템
JP6374203B2 (ja) 表示システム及びプログラム
JP6447251B2 (ja) 情報処理装置、表示制御方法、及び表示制御プログラム
JP6261038B2 (ja) 空間認識システム及び空間認識方法
JP2018156416A (ja) 情報処理装置、情報処理方法、プログラム
JP6528566B2 (ja) 表示制御方法、情報処理装置および表示制御プログラム
JP2015069512A (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170911

R150 Certificate of patent or registration of utility model

Ref document number: 6217437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees