JP6244954B2 - 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム - Google Patents

端末装置、情報処理装置、表示制御方法、及び表示制御プログラム Download PDF

Info

Publication number
JP6244954B2
JP6244954B2 JP2014021589A JP2014021589A JP6244954B2 JP 6244954 B2 JP6244954 B2 JP 6244954B2 JP 2014021589 A JP2014021589 A JP 2014021589A JP 2014021589 A JP2014021589 A JP 2014021589A JP 6244954 B2 JP6244954 B2 JP 6244954B2
Authority
JP
Japan
Prior art keywords
information
marker
content
image
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014021589A
Other languages
English (en)
Other versions
JP2015148957A (ja
Inventor
奨 古賀
奨 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014021589A priority Critical patent/JP6244954B2/ja
Priority to US14/601,624 priority patent/US9990773B2/en
Publication of JP2015148957A publication Critical patent/JP2015148957A/ja
Application granted granted Critical
Publication of JP6244954B2 publication Critical patent/JP6244954B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Description

本発明は、端末装置、情報処理装置、表示制御方法、及び表示制御プログラムに関する。
端末装置の撮像手段により撮像された撮像画像の一部にコンテンツ情報を重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。AR技術を用いて提供されるコンテンツ(以下、「ARコンテンツ」という)は、ARコンテンツ毎に、現実空間に対応する仮想空間上の表示位置が設定される。また、端末装置とARコンテンツとの位置関係の判断基準(基準物)として、ARマーカが用いられる。ARマーカと端末装置との位置関係は、端末装置の撮像画像に写り込んだARマーカの像に基づいて判断される。
端末装置で認識したARマーカに基づいて表示される重畳画像等のARコンテンツは、予め管理者の操作により登録されるもののみでなく、作業員等の操作により登録されるものもある。この登録操作により、管理者や作業員等のユーザは、ARマーカからの相対位置にARコンテンツを設定することができる。
特表2010−531089号公報 国際公開2005/119539号
上述したように、従来手法におけるARコンテンツの表示は、ARマーカの認識に基づいて行われる。そのため、ARマーカが認識できれば、認識時の状況に関係なくARコンテンツが表示される。したがって、複製されたARマーカや、不正な位置に移動されたARマーカに対しても、ARマーカに対応付けられたARコンテンツの表示が行われてしまう。また、ARコンテンツの登録が行われる場合には、その登録が本来ARマーカが配置されるべき位置(例えば、現場等)でARマーカを認識したことに応じて行われたのかを確認することができない。
一つの側面では、本発明は、適切な表示制御を実現することを目的とする。
一態様における端末装置は、入力画像に含まれる基準物を認識する認識部と、前記入力画像のうち、前記基準物とは異なる領域の特徴情報が、前記認識された基準物の識別情報に対応付けられた特徴情報を含むかを判定する判定部と、前記判定部による判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する画像生成部とを有する。
適切な表示制御を実現することができる。
情報処理システムの概略構成の一例を示す図である。 サーバの機能構成例を示す図である。 端末装置の機能構成の一例を示す図である。 サーバのハードウェア構成の一例を示す図である。 端末装置のハードウェア構成の一例を示す図である。 実物体にARマーカを設置した例を示す図である。 第1実施例における判定条件及びARコンテンツの設定処理を示すフローチャートである。 明暗領域設定の具体例を説明するための図である。 第1実施例において端末装置が有するデータ例を示す図である。 第1実施例においてサーバが有するデータ例を示す図である。 二値化画像の一例を示す図である。 二値化画像に対する分割領域の設定例を示す図である。 複数のARマーカを用いた明暗領域の第1の設定例を示す図である。 複数のARマーカを用いた明暗領域の第2の設定例を示す図である。 第1実施例における判定処理を示すフローチャートである。 第1実施例における表示画面例を示す図である。 時間情報を利用したときの端末装置が有するデータ例を示す図である。 時間情報を利用したときのサーバが有するデータ例を示す図である。 時間情報を利用したときの判定内容と表示されるARコンテンツの一例を示す図である。 第2実施例における判定条件及びARコンテンツの設定処理を示すフローチャートである。 物体の特徴情報設定の具体例を説明するための図である。 第2実施例において端末装置が有するデータ例を示す図である。 第2実施例においてサーバが有するデータ例を示す図である。 第2実施例における判定処理を示すフローチャートである。 第2実施例における表示画面例を示す図である。
以下、図面に基づいて実施形態を説明する。
<情報処理システムの概略構成例>
図1は、情報処理システムの概略構成の一例を示す図である。図1に示す情報処理システム10は、情報処理装置の一例としてのサーバ11と、1又は複数の端末装置12−1〜12−n(以下、必要に応じて「端末装置12」と総称する)とを有する。サーバ11及び端末装置12は、例えば通信ネットワーク13によりデータの送受信が可能な状態で接続されている。
サーバ11は、基準物の一例としてのARマーカや各ARマーカに対応付けて登録された1又は複数のARコンテンツ、端末装置12の表示制御に対する判定条件(例えば、画像の特徴情報)等を管理する。ここで、ARマーカとは、例えばARコンテンツ等の各種コンテンツ情報の内容や表示する位置等を指定するための標識となるものである。ARマーカは、例えば二次元コード等のように、所定の領域内に所定の模様や文字パターン等が形成された画像等であるが、これに限定されるものではない。
ARコンテンツとは、例えば現実空間に対応する三次元の仮想空間上に配置された三次元物体のモデルデータ等であり、例えば端末装置12で撮影された画像に重畳されて表示される重畳情報である。また、ARコンテンツは、例えば撮影画像中に含まれるARマーカを基準とした相対座標(マーカ座標系)で設定された位置に表示される。本実施形態のARコンテンツは、例えばARマーカ等に対応付けられており、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像等の様々な形態が含まれる。また、ARコンテンツは、表示出力されるものに限定されず、例えば音声等の情報であってもよい。
また、上述した画像の特徴とは、例えば予め(事前に)ARマーカを含んで撮影された画像から得られる特徴であり、画像内の明暗領域(例えば、ARマーカの周囲(背景部分)の明暗領域)や画像中の物体に対する特徴点情報等であるが、これに限定されるものではない。
サーバ11は、例えば端末装置12からARマーカに関する情報(例えば、マーカID)を受信すると、マーカIDに対応するARコンテンツや適切な撮影位置(現場)で撮影されたか否かを判定する判定条件を端末装置12に送信する。適切な撮影位置とは、例えばARマーカに対応付けてARコンテンツを登録する際に、管理者等の登録者が設定した位置である。
なお、本実施形態では、これに限定されるものではなく、例えばサーバ11は、端末装置12からマーカIDや位置情報、撮影画像等を受信して、サーバ11側で予め設定された判定条件に基づいて上述した判定を行ってもよい。また、サーバ11は、判定結果に基づいてマーカIDに対応付けられたARコンテンツを抽出して端末装置12に送信するようにしてもよい。
サーバ11は、例えばPersonal Computer(PC)等でもよいが、これに限定されるものではなく、例えば一以上の情報処理装置を有するクラウドコンピューティングにより構成されるクラウドサーバ等であってもよい。
端末装置12は、ARマーカに対応付けてARコンテンツの登録を行ったり、撮影したARマーカや判定条件等に基づき、例えば適切な場所からARマーカを撮影しているか否かの判定を行い、その判定結果に応じたARコンテンツを画面に表示する。
例えば、端末装置12は、内蔵カメラ等の撮像部により撮影された画像から、その画像に含まれるARマーカの認識(以下、「マーカ認識」という)を行う。また、端末装置12は、マーカ認識により認識されたARマーカを撮影した画像の特徴情報が、そのARマーカを含んで事前に撮影された画像の特徴情報(判定条件)を含んでいるか否かを判定する。また、端末装置12は、判定結果に応じてARマーカに対応付けられたARコンテンツ等の重畳情報の出力の制御(例えば、出力有無の制御、出力内容の制御)等を行う。また、端末装置12は、マーカ認識により認識されたARマーカの情報や位置情報等の情報をサーバ11に送信し、サーバ11側で行われた判定結果に基づき、対応する表示制御を行ってもよい。なお、本実施形態では、上述した適切な撮影位置(現場)で撮影されたと判定された場合(判定結果がOKの場合)と、適切な撮影位置で撮影されていないと判定された場合(判定結果がNGの場合)とで、異なるARコンテンツを表示してもよい。
ここで、本実施形態におけるマーカ認識において、例えばARマーカを1つのアングル(例えば、ARマーカの正面方向)から撮影した場合における画像の特徴(例えば、画像内の明暗領域)を用いた判定だけでは、他の場所でARマーカを撮影した場合にも偶然同じ条件になる可能性がある。この場合には、意図する条件でないのに、正しい位置で撮影されたと判定され、ARマーカに対応付けられたARコンテンツが表示できてしまう。
そこで、本実施形態では、端末装置12が複数の方向(例えば、3アングル等)から撮影した画像に対してARマーカと画像の特徴とを用いた判定を行ってもよい。例えば、端末装置12は、画像の特徴情報の特殊性(例えば、画像中における明暗領域の割合、位置)等に応じて、撮影方向を1アングルにするか複数アングルにするかを使い分けてもよい。
端末装置12は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。
通信ネットワーク13は、例えばインターネットやLocal Area Network(LAN)等であるが、これに限定されるものではない。また、通信ネットワーク13は、有線でも無線でもよく、これらの組み合わせでもよい。
図1に示す情報処理システム10は、サーバ11と端末装置12とは1対nの構成となっているが、これに限定されるものではなく、例えば複数のサーバを有していてもよい。
<サーバ11の機能構成例>
次に、上述したサーバ11の機能構成例について図を用いて説明する。図2は、サーバの機能構成例を示す図である。サーバ11は、通信部21と、記憶部22と、登録部23と、抽出部24と、制御部25とを有する。
通信部21は、通信ネットワーク13を介して端末装置12や他のコンピュータ等との間でデータの送受信を行う。通信部21は、例えば端末装置12からのARコンテンツ等の登録要求、及びARマーカに対応付けて登録するARコンテンツや画像の特徴情報等の判定条件を受信する。また、通信部21は、登録されたARマーカの識別情報(例えば、マーカID)等を受信し、対応する判定条件、及びARコンテンツを端末装置12に送信する。
記憶部22は、本実施形態における表示制御処理に必要な各種情報(例えば、マーカID管理テーブル、ARコンテンツ管理テーブル、明暗領域管理テーブル、設定時間帯別データ管理テーブル、物体管理テーブル等)を記憶する。記憶部22は、例えば端末装置12でARコンテンツ作成時に生成された設定情報、及びARマーカ毎に設定された画像の特徴情報、1又は複数のARコンテンツ、時間情報、判定用物体情報等の判定条件を記憶する。
登録部23は、端末装置12から得られたARコンテンツ等の各種登録情報等を登録する。例えば、登録部23は、ARマーカを識別する識別情報(マーカID)と、マーカIDに対して設定された判定条件と、ARコンテンツ情報とを対応付けて登録する。登録された情報は、記憶部22に記憶される。
抽出部24は、端末装置12から得られた識別情報(マーカID)に基づいて記憶部22を参照し、対応する判定条件とARコンテンツ情報とを抽出する。抽出部24により抽出された判定条件やARコンテンツ等は、通信部21によりマーカIDを送信した端末装置12に送信される。
なお、抽出部24は、端末装置12からマーカIDだけでなく、位置情報等を取得した場合には、マーカIDに対応付けられた判定条件に基づき、適切な位置で撮影されたARマーカであるか否かの判定を行ってもよい。例えば、抽出部24は、端末装置12で、入力画像に含まれる基準物(例えば、ARマーカ)を認識した際、そのARマーカの認識に用いられた入力画像の特徴情報が、認識されたARマーカの識別情報(例えば、マーカID)に対応付けられた特徴情報を含むかを判定する。また、抽出部24は、判定結果に基づいて、例えば適切な位置で撮影されたと判定された場合に、マーカIDに対応付けられたARコンテンツ情報を端末装置12に送信する処理を行ってもよい。
制御部25は、サーバ11内の各構成全体を制御する。制御部25は、例えば通信部21による各種情報の送受信、記憶部22によるデータ記憶、登録部23によるARコンテンツや判定条件等の登録、抽出部24によるARコンテンツや判定条件等の抽出等の処理を行う。制御部25が行う制御内容については、これに限定されるものではない。
<端末装置12の機能構成の一例>
次に、上述した端末装置12の機能構成例について、図を用いて説明する。図3は、端末装置の機能構成の一例を示す図である。端末装置12は、通信部31と、撮像部32と、記憶部33と、表示部34と、設定部35と、認識部36と、取得部37と、判定部38と、コンテンツ生成部39と、画像生成部40と、制御部41とを有する。
通信部31は、通信ネットワーク13を介してサーバ11や他のコンピュータ等とデータの送受信を行う。例えば、通信部31は、例えばARマーカと対応付けたARコンテンツ情報、画像の特徴情報等の判定条件等の各種設定情報をサーバ11等に送信する。また、通信部31は、マーカ認識により認識されたマーカIDをサーバ11に送信し、送信したマーカIDに対応する判定条件やARコンテンツ等を受信する。
撮像部32は、予め設定されたフレーム間隔で画像を撮像する。撮像部32は、撮像した画像を制御部41へ出力したり、記憶部33に記憶させる。
記憶部33は、本実施形態における表示制御に必要な各種情報(例えば、データ管理テーブル、ARコンテンツ管理テーブル、明暗領域管理テーブル、設定時間帯別管理テーブル、物体管理テーブル等)を記憶する。記憶部33は、例えばARコンテンツの登録時におけるARマーカと、判定条件、判定結果に応じて表示されるARコンテンツ等を記憶する。判定条件としては、例えば画像の特徴情報(画像内の明暗領域又は特徴点情報)、時間情報、判定用物体に関する情報等であるが、これに限定されるものではない。また、記憶部33は、例えば判定状況(現在判定がどの程度行われているか)等を一時的に記憶してもよい。なお、これらの情報は、端末装置12が設定した情報だけでなく、サーバ11から取得した情報も含まれる。また、設定時の情報は、サーバ11へ送信した後に削除されてもよい。
表示部34は、判定部38による判定結果に基づき、画像生成部40により生成される撮影画像にARコンテンツを登録する画面や登録されたコンテンツが撮影画像に重畳された重畳画像、その他の各種設定画像等を表示する。また、表示部34がタッチパネル等である場合には、表示部34は、タッチパネル上のタッチ位置座標を取得することもできる。また、表示部34は、制御部41の制御により、例えばマーカ認識時にユーザによるARマーカの撮影位置をナビゲートするためのナビゲーション用の枠を表示してもよい。
設定部35は、ARマーカの読取後に、そのARマーカに対して、どのような判定条件に基づき表示させるARコンテンツや、各ARコンテンツをどの位置に表示させるか等を設定する。設定部35は、設定された各種情報をサーバ11に送信して登録を行う。
また、設定部35は、判定条件として、上述したような画像の特徴情報(例えば、明暗情報)の設定、時間情報の設定、判定用物体に関する情報の設定等を行うことができるが、設定する内容については、これに限定されるものではない。
また、設定部35は、撮影画像中に複数のARマーカを含む場合に、ARマーカの組み合わせの設定を行ってもよい。ARマーカの組み合わせの設定とは、例えば撮影画像中に複数のARマーカが存在する場合に、そのうちのどのARマーカが同時に撮影された場合に、共通の画像の特徴情報等を設定するかを指定するものである。
認識部36は、入力画像に含まれる基準物(例えば、ARマーカ)等を認識する。例えば、認識部36は、撮像部32により得られる撮影画像に対して画像認識を行い、その認識結果から、ARマーカや現実空間上の物体(対象物)の情報を取得する。また、認識部36は、ARマーカの撮像部32からの位置(座標)を取得したりARマーカの識別情報(マーカID)を取得する。なお、本実施形態では、複数の異なる基準物(ARマーカ)から同じ識別情報が得られる場合もある。
本実施形態では、例えば撮影画像中に含まれる現実空間上の物体(対象物)に対してARマーカを付与しておくことで、ARマーカの識別情報に対応付けられたARコンテンツとして、その物体の使用方法や作業手順、注意事項等を撮影画像に重畳して表示させることができる。
なお、本実施形態における基準物は、ARマーカに限定されるものではなく、例えば予め登録された物体を基準物としてもよい。この場合、認識部36は、入力画像から登録された物体を認識し、認識した物体に対応する識別情報を取得する。
取得部37は、認識部36により読み取られたARマーカ(基準物)を基準とする座標で定義される画像領域内の特徴情報を取得する。特徴情報とは、上述した設定部35により設定される情報であり、例えば画像中に含まれる明暗領域情報(第1の特徴情報)又は特徴点情報(第2の特徴情報)等の判定条件に対応する1又は複数の異なる特徴情報であるが、これに限定されるものではない。また、特徴情報は、予めデータ化されていてもよい。
例えば、取得部37は、ARマーカ、ARマーカに対応して表示内容を設定している対象物(実物体)、判定部38による判定時に利用する判定用物体等を、特徴抽出や輝度差抽出等による物体認識手法を用いて認識してもよい。例えば、取得部37は、撮影された画像中の所定の領域中の明度のうち、最大値と最小値を取得し、最大値と最小値との差(輝度差)に基づいて、その領域における特徴量から物体を認識してもよい。また、取得部37は、認識したARマーカを識別するID、及びマーカの位置・回転(角度)情報を取得してもよい。また、取得部37は、例えば予めARマーカ又は物体の形状を規定したテンプレートを記憶部33に記憶しておき、そのテンプレートとマッチングを行うことでARマーカ又は物体を認識してもよい。なお、取得部37は、認識部36による認識処理を行った後、すぐに取得処理を行ってもよく、別々のタイミングで処理を行ってもよい。また、別の端末装置で認識された画像を用いて、上述した取得部37による特徴情報の取得を行ってもよい。
判定部38は、認識部36及び取得部37により得られる基準物(例えば、ARマーカ)等の認識に用いられた入力画像の特徴情報が、認識された基準物の識別情報に対応付けられた判定条件(例えば、明暗領域情報又は特徴点情報等の画像の特徴情報)を含むか否かを判定する。例えば、判定部38は、ARマーカの認識に用いられた入力画像の特徴情報と、そのARマーカの識別情報に対応付けられた特徴情報との一致度判定を行うことで、適切な位置でARマーカを撮影したか否かを判定することができるが、これに限定されるものではない。なお、上述の判定には、時間情報を含んでいてもよい。適切な位置でARマーカを撮影したか否かを判定することは、ARマーカに対応付けたARコンテンツを画面に表示してもよいか否かを判定することと言い換えることもできる。
また、判定部38は、複数の方向から撮影されたARマーカを含む画像を用いて、画像の特徴情報による判定を行ってもよい。また、判定部38は、時間情報(例えば、時間帯)に対応して設定された画像の特徴情報を用いて判定を行ってもよい。
コンテンツ生成部39は、判定部38による判定結果に基づいて、ARマーカに対応付けて表示されるARコンテンツを生成する。ARコンテンツは、例えば予め設定された画像中の空き領域に対して所定の位置に表示させる。なお、位置情報は、コンテンツ生成部39によりユーザが画面上で指定した点を、ARマーカの位置を基準とした座標系(マーカ座標系)に変換することで、その変換後の座標値をARマーカに基づく相対位置情報とすることができるが、これに限定されるものではない。
画像生成部40は、例えばARマーカや画像の特徴情報等を用いた判定処理の結果に応じたARコンテンツを、撮影画像に重畳させて重畳画像(合成画像)を生成する。画像生成部40は、例えば判定部38による判定結果がOKの場合やNGの場合で異なるARコンテンツを重畳させる。また、画像生成部40は、取得した時間情報に応じて異なるARコンテンツを重畳させてもよい。画像生成部40は、例えばARマーカからの相対位置を基準にARコンテンツを重畳させて画面に表示することができるが、これに限定されるものではない。
制御部41は、端末装置12が有する各構成における処理全体を制御する。制御部41は、撮像部32によって画像を撮影させたり、表示部34によって各種情報を端末装置12の画面に表示させたり、設定部35によって本実施形態における表示制御に関する各種設定を行わせる等の処理を行う。
また、制御部41は、設定部35による表示制御に関する各種設定、認識部36による撮影画像に含まれるARマーカや物体情報の認識、取得部37による画像中に含まれる特徴情報の取得、判定部38による撮影画像の特徴情報と、判定条件とに基づく判定、コンテンツ生成部39によるARコンテンツの生成、画像生成部40による重畳画像の生成等の処理を行う。
<サーバ11のハードウェア構成例>
次に、サーバ11のハードウェア構成例について、図を用いて説明する。図4は、サーバのハードウェア構成の一例を示す図である。図4の例において、サーバ11は、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、主記憶装置55と、Central Processing Unit(CPU)56と、ネットワーク接続装置57とを有し、これらはシステムバスBで相互に接続されている。
入力装置51は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスや、マイクロフォン等の音声入力デバイスを有しており、ユーザ等からのプログラムの実行指示、各種操作情報、ソフトウェア等を起動するための情報等の入力を受け付ける。
出力装置52は、本実施形態における処理を行うためのコンピュータ本体(サーバ11)を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイ等を有する。出力装置52は、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
ここで、本実施形態において、例えばコンピュータ本体にインストールされる実行プログラムは、記録媒体58等により提供される。記録媒体58は、ドライブ装置53にセット可能である。CPU56からの制御信号に基づき、記録媒体58に格納された実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。
補助記憶装置54は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段等である。補助記憶装置54は、CPU56からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置54は、CPU56からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。主記憶装置55は、Read Only Memory(ROM)やRandom Access Memory(RAM)等である。
CPU56は、Operating System(OS)等の制御プログラム、及び主記憶装置55に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現する。プログラムの実行中に必要な各種情報等は、補助記憶装置54から取得することができ、また実行結果等を格納することもできる。
具体的には、CPU56は、例えば入力装置51から得られるプログラムの実行指示等に基づき、補助記憶装置54にインストールされたプログラムを実行させることにより、主記憶装置55上でプログラムに対応する処理を行う。例えば、CPU56は、表示制御プログラムを実行させることで、上述した登録部23によるARコンテンツやARコンテンツを出力させるか否かの判定条件(例えば、画像内の明暗領域又は特徴点情報)等の登録、抽出部24による各種情報の抽出、制御部25による表示制御等の処理を行う。CPU56における処理内容は、上述した内容に限定されるものではない。CPU56により実行された内容は、必要に応じて補助記憶装置54等に記憶される。
ネットワーク接続装置57は、上述した通信ネットワーク13を介して、端末装置12や他の外部装置との通信を行う。ネットワーク接続装置57は、CPU56からの制御信号に基づき、通信ネットワーク13等と接続することにより、実行プログラムやソフトウェア、設定情報等を外部装置等から取得する。また、ネットワーク接続装置57は、プログラムを実行することで得られた実行結果を端末装置12等に提供したり、本実施形態における実行プログラム自体を外部装置等に提供してもよい。
記録媒体58は、上述したように実行プログラム等が格納されたコンピュータで読み取り可能な記録媒体である。記録媒体58は、例えばフラッシュメモリ等の半導体メモリやCD−ROM、DVD等の可搬型の記録媒体であるが、これに限定されるものではない。
図4に示すハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。
<端末装置12のハードウェア構成例>
次に、端末装置12のハードウェア構成例について図を用いて説明する。図5は、端末装置のハードウェア構成の一例を示す図である。図5の例において、端末装置12は、マイクロフォン(以下、「マイク」という)61と、スピーカ62と、表示部63と、操作部64と、センサ部65と、電力部66と、無線部67と、近距離通信部68と、補助記憶装置69と、主記憶装置70と、CPU71と、ドライブ装置72とを有し、これらはシステムバスBで相互に接続されている。
マイク61は、ユーザが発した音声や、その他の音を入力する。スピーカ62は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク61及びスピーカ62は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。
表示部63は、ユーザに対してOSや各種アプリケーションで設定された画面を表示する。また、表示部63は、タッチパネルディスプレイ等でもよく、その場合には表示部63は、入出力部としての機能を有する。
表示部63は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。
操作部64は、表示部63の画面に表示された操作ボタンや端末装置12の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。
ユーザは、例えば表示部63の画面上で所定の操作を行ったり、上述した操作ボタンを押すことで、表示部63により画面上のタッチ位置が検出される。また、表示部63は、画面上にアプリ実行結果やコンテンツやアイコン、カーソル等を表示することができる。
センサ部65は、端末装置12のある時点又は継続的な動作を検出する。例えば、センサ部65は、端末装置12の傾き角度、加速度、方向、位置等を検出するが、これに限定されるものではない。なお、センサ部65としては、例えば傾きセンサや加速度センサ、ジャイロセンサ、Global Positioning System(GPS)等であるが、これに限定されるものではない。
電力部66は、端末装置12の各構成に対して電力を供給する。電力部66は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部66は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
無線部67は、例えばアンテナ等を用いて基地局からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。無線部67により、通信ネットワーク13を介して基地局等からサーバ11とデータの送受信を行うことができる。
近距離通信部68は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の端末装置12等のコンピュータと近距離通信を行うことができる。上述した無線部67及び近距離通信部68は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。
補助記憶装置69は、例えばHDDやSSD等のストレージ手段である。補助記憶装置69は、各種のプログラム等を記憶し、必要に応じてデータの入出力を行う。
主記憶装置70は、CPU71からの指示により補助記憶装置69から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置70は、例えばROMやRAM等であるが、これに限定されるものではない。
CPU71は、OS等の制御プログラム、及び主記憶装置70に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、表示制御における各処理を実現する。
具体的には、CPU71は、例えば操作部64等から得られるプログラムの実行指示等に基づき、補助記憶装置69にインストールされたプログラムを実行させることにより、主記憶装置70上でプログラムに対応する処理を行う。例えば、CPU71は、表示制御プログラムを実行させることで、上述した設定部35によるARコンテンツや判定条件等の設定、認識部36によるARマーカ等の基準物の認識等の処理を行う。また、CPU71は、取得部37による特徴情報の取得、判定部38による判定、コンテンツ生成部39によるARコンテンツの生成、画像生成部40による画像生成等の処理を行う。CPU71における処理内容は、上述した内容に限定されるものではない。CPU71により実行された内容は、必要に応じて補助記憶装置69等に記憶される。
ドライブ装置72は、例えば記録媒体73等を着脱自在にセットすることができ、セットした記録媒体73に記録された各種情報を読み込んだり、所定の情報を記録媒体73に書き込むことができる。ドライブ装置72は、例えば媒体装填スロット等であるが、これに限定されるものではない。
記録媒体73は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体73は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体73は、USBメモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。
また、上述した表示制御処理に対応する表示制御プログラムは、例えば装置上で常駐している状態であってもよく、起動指示により起動させてもよい。
<ARマーカ例>
次に、本実施形態におけるARマーカ例について図を用いて説明する。図6は、実物体にARマーカを設置した例を示す図である。例えば、図6(A)の例では、現実空間にある実物体(対象物)の一例としてパイプ(配管)80が設置されている。パイプ80は、複数のバルブ(弁)81−1〜81−5を有する。本実施形態では、例えば上述したパイプ80と共に撮影できる位置にARマーカ90が取り付けられている。
本実施形態では、ARマーカ90をパイプ80と共に、端末装置12の撮像部32で撮影し、認識部36が画像認識によりARマーカ90の識別情報を読み取る。また、取得部37は、認識部36により得られた識別情報と対応付けられ、ARマーカ90を基準とする座標値で定義される特徴情報(例えば、明暗情報(第1の特徴情報)、特徴点情報(第2の特徴情報)等)を取得する。判定部38は、認識部36による識別情報の認識に用いられた入力画像の特徴情報が、認識部36により認識されたARマーカ90の識別情報に対応付けられた特徴情報(判定条件)を含むか否かを判定する。例えば、判定部38は、撮像部32により撮像された撮像画像のうち、対応する画像領域の特徴が、第1の特徴情報に示される特徴と一致するか否かを判定する。
判定部38による判定結果がOKの場合(一致する場合)、正しい位置から撮影された画像であると判定され、コンテンツ生成部39は、例えばARマーカの識別情報に対応付けて設定された対象物であるパイプ80に設けられたバルブ(弁)81−1〜81−5の使用方法等を示すARコンテンツ等を、撮影中又は撮影した画像上に重畳表示したり、新たなARコンテンツを登録する。また、判定部38による判定結果がNGの場合、NG用のARコンテンツを重畳表示する。
これにより、ユーザ(作業者等)は、端末装置12の画面に表示されたARコンテンツ情報に基づいてバルブ(弁)81−1〜81−5を直接操作して、パイプ80の制御等を行うことができる。また、複数のユーザがARコンテンツ情報を共有することができる。
また、ARマーカ90から得られるARコンテンツ情報としては、上述した操作内容に限定されるものではなく、例えばパイプ80がひび割れ等の破損をしている場合や修理が必要である場合等に、その情報や注意事項等をユーザ等に通知するための情報でもよい。
ARマーカ90は、1つの対象物(例えば、パイプ80)に対して1以上設けてもよく、複数の対象物に対して1つのARマーカ90であってもよい。また、画像中に複数のARマーカが存在する場合には、それらのARマーカに対して共通の判定条件を用いて判定を行い、その判定結果に応じたARコンテンツを表示してもよい。
また、ARマーカ90は、図6(B)に示すように、例えばサーバ等のコンピュータを収納するサーバラック82等の機器(対象物)に対して、その操作内容やメンテナンス情報(稼働スケジュール、故障時の連絡先)等の各種情報を、そのサーバラックと共に撮影可能な位置に取り付けられたARマーカ90の画像を撮影し、その画像に対して画像認識することで取得することができる。
ARマーカ90の例としては、例えばバーコード、QRコード(登録商標)等の二次元コードでもよく、カラー等を用いた多次元コードでもよいが、これらに限定されるものではない。なお、ARマーカ90によりARコンテンツを表示させる対象物については、これに限定されるものではない。
<端末装置12における処理の一例>
次に、上述した端末装置12における処理の一例について、フローチャートを用いて説明する。なお、端末装置12における処理としては、例えば、管理者や作業者のユーザ等がARマーカに対応付けて判定条件(画像の特徴情報)やARコンテンツを設定する場合と、ARマーカを認識して対応付けられたARコンテンツを表示する場合とがある。なお、上記の場合には、1台の端末装置12を管理者及び作業者が用いてもよく、例えば複数の端末装置12をそれぞれの所有者(管理者、作業者)に割り当てて、処理を行ってもよい。以下の説明では、上記の各場合における処理例を分けて説明する。
<第1実施例における判定条件及びARコンテンツの設定処理例>
図7は、第1実施例における判定条件及びARコンテンツの設定処理を示すフローチャートである。図7の例において、端末装置12の認識部36は、例えば管理者や作業者等のユーザが撮像部32により撮影した画像中のARマーカを認識したか否かを判断する(S01)。端末装置12の認識部36は、ARマーカを認識していない場合(S01において、NO)、ARマーカを認識するまで待機する。なお、所定時間以上ARマーカを認識できない場合には、処理を終了してもよい。
また、ARマーカを認識した場合(S01において、YES)、端末装置12の設定部35は、同時に認識したARマーカ数が1つか否かを判断する(S02)。端末装置12の設定部35は、ARマーカ数が1つでない場合(S02において、NO)、同時に認識した複数のARマーカに対して個別に明暗領域を設定するか否かを判断する(S03)。S03の処理では、ユーザからの入力により判断してもよく、予め設定された情報に基づいて判断してもよい。
端末装置12の設定部35は、同時に認識したARマーカに個別に明暗領域を設定しない場合(S03において、NO)、複数のARマーカに対して1つの明暗領域を設定するために、同時に認識したARマーカの組み合わせを設定する(S04)。ARマーカの組み合わせの設定とは、例えば撮影画像中に複数のARマーカが存在する場合に、そのうちのどのARマーカが同時に撮影された場合に、共通の画像の特徴情報等を設定するかを指定するものである。S04の処理は、例えばユーザからの入力により設定される。
また、端末装置12の設定部35は、S03の処理において、同時に認識したARマーカに個別に明暗領域を設定する場合(S03において、YES)、又は、S04の処理後、明暗領域を設定するか否かを判断する(S05)。端末装置12の設定部35は、明暗領域を設定する場合(S05において、YES)、それぞれのARマーカ又はARマーカの組み合わせに対応させて明暗領域を任意の箇所に設定する(S06)。S06の処理において、明暗領域を設定する場合には、例えば撮影画像を二値化し、二値化した画像に基づいて明暗領域を設定する。明暗領域設定の具体例については、後述する。次に、端末装置12の設定部35は、認識したARマーカに対応付けたARコンテンツを設定する(S07)。なお、ARコンテンツは、コンテンツ生成部39により生成することができる。また、ARコンテンツの設定は、S06の処理により設定された明暗領域による判定条件を用いた判定結果がOKの場合とNGの場合とで異なるARコンテンツを設定することができる。
また、端末装置12の設定部35は、S05の処理において、明暗領域を設定しない場合(S05において、NO)、又は、S07の処理後、認識したARマーカ全てに対して設定が完了したか否かを判断する(S07)。端末装置12の設定部35は、ARマーカ全てに対して設定が完了していない場合(S08において、NO)、S05の処理に戻る。また、端末装置12の設定部35は、ARマーカ全てに情報設定が完了した場合(S08において、YES)、処理を終了する。
<明暗領域設定の具体例>
図8は、明暗領域設定の具体例を説明するための図である。図8の例では、端末装置12で撮影された画像100中に含まれるARマーカ90(基準物)の中心を基準とした三次元座標系(X,Y,Z)(マーカ座標系)を基準に暗領域及び明領域の一方又は両方を設定する。なお、座標系は、三次元座標系に限定されるものではなく、例えば二次元座標系(X,Y)であってもよい。
例えば、図8の例では、ARマーカ90の中心を基準に画像を上下に区切り、区切られた上下の領域における各画素の輝度の平均を取得し、輝度値に基づいて区切られた領域間で比較を行い、暗い(輝度値が小さい)領域を暗領域とし、明るい(輝度値の大きい)領域を明領域としてそれぞれの領域を示す情報(例えば、矩形の角の座標等)を取得する。また、輝度値と予め設定された閾値とを比較し、閾値よりも大きい場合に明領域とし、閾値以下の場合に暗領域として設定してもよい。
なお、上述したARマーカ90を基準とした画像領域の区切り方については、これに限定されるものではなく、例えば、ARマーカ90の中心として左右の領域で分けてもよく、上下左右の4等分の領域で分けてもよい。例えば、4等分の領域に分けた場合には、それぞれの領域内の平均輝度値を比較し、輝度が明るい2つの領域を明領域、輝度が暗い2つの領域を暗領域として、その各領域を示す情報を取得してもよい。また、4等分した輝度のうち、最も暗い領域を暗領域とし、最も明るい領域を明領域として設定してもよい。また、上述したように、予め設定された閾値に基づいて明暗領域を設定してもよい。
また、本実施形態では、画像の特徴情報としての明暗領域が設定された場合に、その特徴情報の判定条件を満たすか否かに応じてARコンテンツ101の内容と表示位置を設定する。表示位置は、例えばARマーカ90の中心を基準にしたマーカ座標系により設定されてもよく、また撮影された画像のある位置を基準にしたスクリーン座標系により設定されてもよい。また、ARコンテンツ101は、撮影画像に重畳することで、撮影画像に含まれる物体が隠れることがないように、画像中の空き領域内で表示位置を設定することが好ましいが、これに限定されるものではない。
<第1実施例におけるデータ例>
次に、第1実施例におけるデータ例について説明する。図9は、第1実施例において端末装置が有するデータ例を示す図である。図10は、第1実施例においてサーバが有するデータ例を示す図である。
図9に示す端末装置12が有するデータ例において、図9(A)は、データ管理テーブルの一例を示し、図9(B)は、ARコンテンツ管理テーブルの一例を示し、図9(C)は、明暗領域管理テーブルの一例を示している。
図9(A)に示すデータ管理テーブルの項目としては、例えば「マーカID」、「OK時表示ARコンテンツID」、「NG時表示ARコンテンツID」、「明暗領域ID」等があるが、これに限定されるものではない。
マーカIDとは、ARマーカの識別情報である。OK時表示ARコンテンツIDは、判定結果において、適切な位置(管理者等が設定した位置)からARマーカが撮影されていると判定された場合(判定結果がOKの場合)に、表示されるARコンテンツの識別情報である。NG時表示ARコンテンツIDは、判定結果において、適切な位置からARマーカが撮影されていないと判定された場合(判定結果がNGの場合)に表示されるARコンテンツの識別情報である。明暗領域IDとは、画像の特徴情報の一例である明暗領域を識別するための情報(例えば、座標値)である。明暗領域IDに基づいて、例えば図9(C)に示す明暗領域管理テーブルから領域の詳細情報(例えば、位置情報等)を取得する。
図9(B)に示すARコンテンツ管理テーブルの項目としては、例えば「ARコンテンツID」、「座標値」、「回転角度」、「拡縮率」、「テクスチャパス」等であるが、これに限定されるものではない。
「ARコンテンツID」は、ARコンテンツを識別するため識別情報であり、図9(A)に示すデータ管理テーブルの「OK時表示ARコンテンツID」、「NG時表示ARコンテンツID」等と関連付けられている。「座標値」は、ARコンテンツを撮影画像の三次元空間(仮想空間)上に表示するための座標である。図9(B)の例では、ARコンテンツの中心の座標値が設定されているが、これに限定されるものではない。「回転角度」は、例えば予め正面等の所定の位置を基準にした基準角度から、三次元空間上にどの程度回転しているかを示す情報である。「拡縮率」は、基準となる大きさに対する拡縮率を示す情報である。「テクスチャパス」は、例えばARコンテンツに設定するイメージファイル等の格納先アドレスを示す情報である。なお、ARコンテンツの格納先へは、例えば上述した通信ネットワーク13を介してアクセスしてもよいが、これに限定されるものではない。格納先は、例えばサーバ11等であるが、これに限定されるものではなく、例えばウェブ上で公開される画像ファイル等でもよい。
図9(C)に示す明暗領域管理テーブルの項目としては、例えば「明暗領域ID」、「座標値」、「明暗値」等があるが、これに限定されるものではない。「明暗領域ID」は、図9(A)に示す明暗領域IDと関連付けられた情報である。「座標値」は、各領域の位置を示す情報である。これらの座標は、上述した図8に示すようにARマーカ90の基準位置に基づいて設定される。
また、これらの情報は、設定の終了後、サーバ11に送信され、サーバ11側で管理さる。サーバ11へ適切に送信された後は、端末装置12に記憶された各データは削除されてもよい。
図10に示すサーバ11が有するデータ例において、図10(A)は、マーカID管理テーブルの一例を示し、図10(B)は、ARコンテンツ管理テーブルの一例を示し、図10(C)は、明暗領域管理テーブルの一例を示している。
図10(A)に示すマーカID管理テーブルの項目としては、例えば「マーカID」、「OK時表示ARコンテンツID」、「NG時表示ARコンテンツID」、「明暗領域情報」等であるが、これに限定されるものではない。
図10(B)に示すARコンテンツ管理テーブルの項目としては、例えば「ARコンテンツID」、「座標値」、「回転角度」、「拡縮率」、「テクスチャパス」等があるが、これに限定されるものではない。
図10(C)に示す明暗領域管理テーブルの項目としては、例えば「明暗領域ID」、「座標値」、「明暗値」等があるが、これに限定されるものではない。なお、図10(A)に示す「マーカID」に格納された"1/2"は、マーカIDが1と2の複数のARマーカに対して共通の明暗領域が設定されている場合に、そのことが分かるように記述したものであるが、記述形式については、これに限定されるものではない。
図10(A)〜図10(C)に示すデータ例は、上述した図9(A)〜図9(C)に示す内容と同様の項目であるが、サーバ11は、1又は複数の端末装置12から上述した各種情報を取得して管理する。したがって、図10に示すような各テーブルを管理する際には、例えば登録した端末装置12の識別情報も含めて管理してもよい。
<明暗情報について>
ここで、上述した本実施形態における明暗情報の設定について具体的に説明する。本実施形態では、判定条件設定時に、ARマーカとその背景画像を二値化し、画像中の明暗情報をサーバ11等へ登録する。
また、判定時には、判定部38は、マーカを認識したときに背景画像を二値化し、画像中の明暗情報を取得する。例えば、通常のマーカIDの認識処理中に二値化処理を実施する。また、判定部38は、取得した背景画像の明暗情報と、サーバ11に予め(事前に)登録された背景画像の明暗情報とを比較し、その結果、背景画像の明暗情報が一致した場合と不一致の場合で、重畳情報(ARコンテンツ)を切り替えて表示する。
ここで、図11は、二値化画像の一例を示す図である。図11(A)は、二値化処理前の画像例を示し、図11(B)は、二値化処理後の画像例を示している。図11(A)の例に示す撮影画像100には、上述した図6(A)のパイプ(配管)80が対象物として撮影されている。また、撮影画像100には、基準物の一例であるARマーカ90も含まれている。
本実施形態において、端末装置12の取得部37は、この画像を、一般的な画像処理により二値化画像110を生成する。二値化画像110は、撮影画像100を画素毎の輝度情報に基づいて、所定の閾値(例えば、輝度値123等)に基づいて白又は黒を設定する。以下に、二値化後の画像に対する明暗の判定条件の具体例について説明する。なお、以下の計算式で用いる表色系は、明度(輝度)の計算が可能であれば、他の表色系を使用しても計算可能である。二値化処理では、例えばRGB表色系を用いて、フルカラー(RGB各色の表現範囲が0〜255)の画像に対して計算を行う。例えば、画像中の各画素において、明度(白・黒)は以下の計算式で算出することができる。
明度=(√R+√G+√B)/3
また、画像中の各画素の最小値(黒:暗)と最大値(白:明)は以下のように算出される。
黒=(√0+√0+√0)/3
白=(√255+√255+√255)/3
また、上記の2つの式により、明度の平均値は127(又は128)と一意に決定する。この平均値を画像中の画素を明暗の何れかに二値化する際の閾値として使用することにより、画像の二値化を行う。例えば、任意の画素値1〜3は、閾値を用いて以下のように判断される。
画素1=(√255+√0+√0)/3=85 → 「暗(0)」と判断
画素2=(√255+√255+√0)/3=170 → 「明(1)」と判断
画素3=(√127+√255+√255)/3=212 → 「明(1)」と判断
図12は、二値化画像に対する分割領域の設定例を示す図である。図12(A)〜図12(C)の例は、二値化画像に対する分割領域の設定と、設定された各領域に対する明暗領域の設定例を示している。例えば、図12(A)は、ARマーカ90の中心を通る横軸を境界線とした上下2分割の例を示し、図12(B)は、ARマーカ90の中心を通る縦軸を境界線とした左右2分割の例を示し、図12(C)は、上述した横軸、縦軸を境界線とした上下左右の4つ分割領域の例を示している。
本実施形態では、分割領域における明(明度値:1)と暗(明度値:0)の単位領域あたりの出現数を計算し、出現数が多い方を採用する。例えば領域内で0より1が多い場合は明領域とし、1より0が多い場合は暗領域とする。また、0と1の出現数が同数の場合には、予め設定された明、暗の何れかの領域(例えば、明領域)とする。また、同様に図12(B)の左右分割、図12(C)に示す上下左右の4分割についても同様に設定することができる。
なお、本実施形態における分割領域の明度値の出現数の計算については、領域中の全ての画素を用いて判定してもよく、一定の間隔で画素を抽出し、その明度値を使用してもよい。例えば一定の間隔で画素を抽出することにより、明暗判定に関する処理時間を高速化させることができる。明暗の各領域は、座標値等を用いて特定される。
なお、上述した分割領域の設定は、設定部35により行われる。設定部35は、分割領域を画像処理精度や判定精度等により、適宜変更することができる。また、設定部35は、上述したようにARマーカの位置を基準とせずに、例えば撮影画像100の中心を基準にして上下左右の軸で分かれる4つの分割領域に対して明暗領域を設定してもよい。
分割領域の設定手法は、例えばプログラムによる設定変更やユーザ入力による設定変更を行うことができるが、これに限定されるものではない。また、画像中に含まれる明領域又は暗領域は、例えば円形や楕円形、矩形、三角以上の多角形の予め設定された形状(テンプレート)等を用いて設定してもよい。
判定部38は、ARマーカ90を認識した際、予め図12(A)〜図12(C)に設定された判定条件(明暗情報)との比較を行うことで、その場所で撮影されたARマーカであるか否かを判断することができ、その判定結果に応じて適切な情報(ARコンテンツ)を表示することができる。
<撮影画像中に複数のARマーカを含む場合の明暗領域の設定例>
次に、撮影画像中に複数のARマーカを含む場合の明暗領域の設定例について、図を用いて説明する。図13は、複数のARマーカを用いた明暗領域の第1の設定例を示す図である。第1設定例では、撮影画像100に存在する複数のARマーカに対し、それぞれ独立して明暗領域(判定条件)を設定する。
第1の設定例では、撮像部32により撮影された撮影画像100に複数のARマーカ(図13の例では、2つのARマーカ90−1,90−2)が撮影されている。本実施形態では、設定部35は、明暗領域の設定の際に撮影画像100に対して二値化処理を実施し、二値化画像110を取得する。また、設定部35は、二値化画像110に含まれる各ARマーカ90−1,90−2に対して、それぞれARマーカ毎に明暗領域(判定条件)を設定する(設定画像111−1,111−2)。なお、ARマーカ90−1に対しては、上下の2つの分割領域に対する明暗領域を設定し、ARマーカ90−2に対しては、上下左右の4つの分割領域に対する明暗領域を設定しているが、これに限定されるものではない。
これにより、撮影画像に複数のARマーカが存在する場合であっても個々のARマーカに対して、それぞれの判定条件に基づき判定を行うため、判定結果がOKであったARマーカに対応付けられたARコンテンツを表示することができる。なお、ARコンテンツの表示については、全てのARマーカ90−1,90−2に対する判定結果がOKであった場合にのみARコンテンツを表示するようにしてもよい。また、複数のARマーカのうち、何れかのARマーカの判定結果がNGであった場合には、ARコンテンツを全て表示しないようにしてもよい。
図14は、複数のARマーカを用いた明暗領域の第2の設定例を示す図である。図14に示す第2の設定例では、上述した第1の設定例と同様に撮影画像中に複数のARマーカ90−1,90−2を認識した場合の明暗領域の設定例を示している。第2の設定例では、撮影画像100に複数のARマーカ90−1,90−2が存在する場合に、二値化処理が実施された二値化画像110に対して、複数のARマーカを同時に判定するための共通の明暗領域を設定する。なお、図14に示す設定画像111−3では、画像の中心を基準にして上下左右の軸で分かれる4つの分割領域に対して明暗領域を設定しているが、領域の分割手法は、これに限定されるものではない。
第2の設定例により、例えば撮影画像100から2つのARマーカ90−1,90−2を認識した時点で、上述した判定条件に基づいて判定が行われ、判定条件を満たす場合(判定結果がOKの場合)に、2つのARマーカ90−1,90−2に対応付けられたARコンテンツが表示される。図14の例では、画像中に多数のARマーカを同時認識した場合でも、1回の明暗領域の判定処理により、判定結果を取得することができる。また、撮影画像中に複数のARマーカが存在する場合には、各ARマーカの組み合わせを設定し、設定された組み合わせに対応させてARマーカに対して共通の判定条件を設定してもよい。
<第1実施例における判定処理例>
図15は、第1実施例における判定処理を示すフローチャートである。図15の例において、端末装置12の認識部36は、例えば撮像部32によるカメラ撮影を開始し、撮影中の画像からARマーカを認識したか否かを判断する(S11)。端末装置12の認識部36は、ARマーカを認識していない場合(S11において、NO)、ARマーカを認識するまで待機する。なお、所定時間以上ARマーカを認識できない場合には、処理を終了してもよい。
また、S11の処理において、ARマーカを認識した場合(S11において、YES)、端末装置12の判定部38は、明暗領域が事前に設定されているか否かを判断する(S12)。事前に設定されているか否かは、例えば、ARマーカの認識により得られたマーカID(識別情報)をサーバ11に送信し、マーカIDに対応する判定条件及び判定結果に対応して表示されるARコンテンツの内容を取得し、その判定条件に明暗領域情報が含まれているか否かで判断することができるが、これに限定されるものではない。
端末装置12の判定部38は、明暗領域が事前に設定されている場合(S12において、YES)、事前に設定された明暗領域が、現在の撮影画像の明暗領域と一致するか否かを判断する(S13)。なお、S13の処理では、明暗領域に対応する特徴点の座標値(領域の座標値)が一致するか否かについては、完全に一致していなくても座標値同士の差分値が所定の許容範囲内にある場合には、一致しているとみなしてもよい。また、S13の処理では、現在の撮影画像の明暗領域が、事前に設定された明暗領域を含んでいるか否かを判断し、含んでいれば一致しているとみなしてもよい。
S12の処理において、明暗領域が事前に設定されていない場合(S12において、NO)、又は、S13の処理において、明暗領域が現在の撮影画像の明暗情報と一致しない場合(S13において、NO)、端末装置12は、画像生成部40により生成された判定結果がNG時のARコンテンツを表示する(S14)。なお、S14の処理では、ARコンテンツを表示させない処理を行ってもよい。
また、S13の処理において、明暗領域が現在の撮影画像の明暗情報と一致する場合(S13において、YES)、端末装置12は、画像生成部40により生成された判定結果がOK時のARコンテンツを表示する(S15)。
これにより、第1実施例では、ARマーカとその周囲(背景)の明暗情報とを用いてユーザの撮影場所が適切であるか否かを判定することで、単純にマーカIDのみを認識した場合であっても、重畳情報の出力を抑止することができる。また、現場での重畳情報の出力状態を切り替えることができる。これにより、本実施形態では、ARマーカの不正コピーや、システムの不正利用による、重畳情報の出力を抑止することができる。
<第1実施例における表示画面例>
図16は、第1実施例における表示画面例を示す図である。図16(A)の例に示すような端末装置12が撮影した撮影画像からARコンテンツの対象物であるパイプ(配管)80に取り付けられたARマーカ90を認識すると、そのマーカIDをサーバ11に送信し、対応する判定条件及び判定結果に対応して表示されるARコンテンツ等を取得する。次に、取得した判定条件に基づいて判定を行う。判定結果がNGである場合には、図16(B)の例に示すようなARコンテンツ120−1が画面に表示される。図16(B)の例では、「正しい作業場所でマーカを認識して下さい。」等のメッセージ(ARコンテンツ)が撮影画像100に重畳されて画面表示されるが、表示される内容については、これに限定されるものではない。これにより、マーカIDに設定された機密情報等が不正ユーザに閲覧されることを防止することができる。
また、判定結果がOKであった場合には、図16(C)の例に示すようにARマーカ90に対応付けられたARコンテンツ120−2〜120−5が、撮影画像100に重畳されて画面表示される。具体的には、パイプ80に設けられたバルブ81の操作手順や内容、方向を示すテキスト情報やアイコン等が表示されるが、これに限定されるものではなく、例えばパイプ80に対して「ひび割れ注意!」等の注意事項を表示してもよい。
なお、上述した第1実施例において明暗情報を用いるにあたり、ARマーカの設置場所が室外であったり、室内であっても窓からの日差しが入りやすい場所である場合には、天候や時間帯(日中、夜間)等によって輝度(明暗領域)が異なる。そこで、本実施形態では、撮影位置の判定時において、時間情報(例えば、時間帯)も事前に設定しておき、その時間情報に応じて判定条件やARコンテンツの内容を設定してもよい。
図17は、時間情報を利用したときの端末装置が有するデータ例を示す図である。図18は、時間情報を利用したときのサーバが有するデータ例を示す図である。
図17に示す端末装置が有するデータ例において、図17(A)は、マーカ管理テーブルの一例を示し、図17(B)は、ARコンテンツ管理テーブルの一例を示し、図17(C)は、設定時間帯別データ管理テーブルの一例を示し、図17(D)は、明暗領域管理テーブルの一例を示している。
図17(A)に示すマーカ管理テーブルの項目としては、例えば「マーカID」、「設定時間帯1」、「設定時間帯2」等があるが、これに限定されるものではない。マーカIDは、ARマーカを識別するための情報である。また、「設定時間帯1」、「設定時間帯2」は、明暗領域の設定内容が異なる時間帯(時間情報)が設定される。そのため、設定時間帯は、複数の時間帯を設定することができ、図17(A)に示すように2つの時間帯に限定されるものではない。
図17(B)に示すARコンテンツ管理テーブルの項目としては、「ARコンテンツID」、「座標値」、「回転角度」、「拡縮率」、「テクスチャパス」等であるが、これに限定されるものではない。図17(B)の各項目は、上述した図9(B)に示すテーブルの各項目と同様である。
図17(C)に示す設定時間帯別データ管理テーブルの項目としては、例えば「設定時間帯ID」、「OK時表示ARコンテンツID」、「NG時表示ARコンテンツID」、「明暗領域ID」等であるが、これに限定されるものではない。
「設定時間帯ID」は、図17(A)に示す設定時間帯を識別するための情報であり、上述した設定時間帯1,2が、それぞれ設定時間帯ID1,2に対応する。また、図17(C)の例では、各設定時間帯に応じて、判定条件に基づく判定結果がOK時の表示内容(ARコンテンツ)と、NG時の表示内容と、明暗領域の識別情報(明暗領域ID)とが設定されている。
図17(D)に示す明暗領域管理テーブルの項目としては、例えば「明暗領域ID」、「座標値」、「明暗値」等であるが、これに限定されるものではない。図17(D)の各項目は、上述した図9(C)に示すテーブルの各項目と同様である。
また、図18に示すサーバが有するデータ例において、図18(A)は、マーカID管理テーブルの一例を示し、図18(B)は、設定時間帯別データ管理テーブルの一例を示し、図18(C)は、ARコンテンツ管理テーブルの一例を示し、図18(D)は、明暗領域管理テーブルの一例を示している。
図18(A)に示すマーカID管理テーブルの項目としては、例えば「マーカID」、「設定時間帯ID」等であるが、これに限定されるものではない。図18(A)の例では、マーカID毎に判定条件が設定された時間帯が記憶されている。
図18(B)に示す設定時間帯別データ管理テーブルの項目としては、例えば「設定時間帯ID」、「設定時間帯」、「OK時表示ARコンテンツID」、「NG時表示ARコンテンツID」、「明暗領域ID」等であるが、これに限定されるものではない。
図18(B)の例では、設定時間帯ID毎に、設定時間帯と、その設定時間帯に対して、判定条件となる明暗領域と、判定結果に応じて表示されるARコンテンツとが設定されている。ARコンテンツは、判定結果がOK時に表示されるARコンテンツと、NG時に表示されるARコンテンツとが設定されているが、これに限定されるものではなく、NG時には、何も表示しない設定であってもよい。
図18(C)の示すARコンテンツ管理テーブルの項目としては、例えば「ARコンテンツID」、「座標値」、「回転角度」、「拡縮率」、「テクスチャパス」等であるが、これに限定されるものではない。図18(C)の各項目は、上述した図10(C)に示すテーブルの各項目と同様である。
図18(D)に示す明暗領域管理テーブルの項目としては、例えば「明暗領域ID」、「座標値」、「明暗値」等があるが、これに限定されるものではない。図18(D)の各項目は、上述した図10(D)に示すテーブルの各項目と同様である。
このように、時間帯を判定条件に含め、設定された時間帯に応じて明暗領域を設定することで、その判定結果に応じて異なるARコンテンツを表示することができる。図19は、時間情報を利用したときの判定内容と表示されるARコンテンツの一例を示す図である。図19(A),図19(B)の例は、時間帯(例えば、日光や照明による明度変化が生じる状況下)を利用したARコンテンツの表示内容を変更する例を示している。
例えば、図19(A)に示すように、日中の時間帯等のように窓から入り込む太陽光等によりARマーカ90が設置された部屋全体の輝度が高い場合には、図19(A)に示すような明暗領域が設定され(設定画像111)、日中の時間帯にこの明暗領域の条件を満たす場合に、撮影画像100に対して、ARコンテンツ120が表示される。図19(A)の例では、ARマーカ90の中心を基準とした相対位置(マーカ座標系)により設定された位置(座標値)に、ARマーカ90に対応付けられたARコンテンツ120が表示されている。図19(A)に示すARコンテンツは、対象物であるパイプ80に設けられたバルブ81−4の開け方を表示するコンテンツであるが、これに限定されるものではない。
また、図19(B)の例では、夕方や夜間の時間帯における明暗領域が設定され(設定画像111)、この明暗領域の条件を満たす場合に、撮影画像に対して、マーカ座標系に基づきARコンテンツ120が表示されている。図19(B)に示すARコンテンツは、対象物である配管に設けられたバルブ81−4の閉め方を表示するコンテンツであるが、これに限定されるものではない。図19(A)、(B)の例では、昼間の時間帯では、バルブ81−4を開けるように作業者に指示することができ、夕方や夜間の時間帯では、バルブ81−4を閉めるように指示することができる。
つまり、上述の例では、同一のARマーカを同じ場所で撮影したとしても、判定時の時間等の条件に応じて異なる判定条件を設定することができる。また、各判定条件による判定結果がOKである場合には、各判定条件に対応付けられた異なるARコンテンツを表示することができる。
なお、上述した第1実施例に示すように、明暗領域のみを用いた判定条件の場合には、例えば、1方向(例えば、正面)から撮影された画像の明暗領域が、たまたま同じになってしまう可能性もある。そのため、同じARマーカを予め設定された複数の角度(アングル)から撮影し、各アングルで設定された明暗領域に基づいて判定を行ってもよい。この場合、1つの角度から撮影された画像を用いて判定を行うか、複数の角度から撮影された画像を用いて判定を行うかは、管理者等が任意に設定するか、画像の特徴情報の特殊性に応じて使い分けてもよい。また、複数の角度からARマーカを撮影する場合には、その位置(角度)から撮影するのかをナビゲートする情報を表示してもよい。ナビゲートする情報とは、例えばARマーカの撮影時に、ARマーカを入れるマーカ枠を画面に表示したり、撮影位置へ移動する方向を示す矢印を画面に表示する等があるが、これに限定されるものではない。
<第2実施例における判定条件及びARコンテンツの設定処理例>
次に、第2実施例における判定条件及びARコンテンツの設定処理例について説明する。第2実施例では、判定条件として上述した明暗情報(第1の特徴情報)だけでなく、撮影画像中に存在する実物体の特徴情報(第2の特徴情報)を利用してARコンテンツの表示内容を変更する。
図20は、第2実施例における判定条件及びARコンテンツの設定処理を示すフローチャートである。図20の例において、端末装置12の認識部36は、例えば管理者や作業者等のユーザが撮影した画像中のARマーカを認識したか否かを判断する(S21)。端末装置12の認識部36は、ARマーカを認識していない場合(S21において、NO)、ARマーカを認識するまで待機する。また、ARマーカを認識した場合(S21において、YES)、端末装置12の設定部35は、認識したARマーカ数が1つか否かを判断する(S22)。
端末装置12の設定部35は、ARマーカ数が1つでない場合(S22において、NO)、同時に認識した複数のARマーカに対して個別に明暗領域を設定するか否かを判断する(S23)。端末装置12の設定部35は、同時に認識したARマーカに個別に明暗領域を設定しない場合(S23において、NO)、複数のARマーカに対して1つの明暗領域を設定するために、同時に認識したARマーカの組み合わせを設定する(S24)。
また、端末装置12の設定部35は、S23の処理において、同時に認識したARマーカに個別に明暗領域を設定する場合(S23において、YES)、又は、S24の処理後、明暗領域(例えば、第1の特徴情報)を設定するか否かを判断する(S25)。端末装置12の設定部35は、明暗領域を設定する場合(S25において、YES)、それぞれのARマーカ又はARマーカの組み合わせに対応させて明暗領域を任意の箇所に設定する(S26)。S26の処理において、明暗領域を設定する場合には、例えば撮影画像を二値化し、二値化した画像に基づいて明暗領域を設定する。
また、端末装置12の設定部35は、S25の処理において、明暗領域を設定しない場合(S25において、NO)、又は、S26の処理後、撮影画像中に含まれる物体に対する特徴情報(例えば、第2の特徴情報)を設定するか否かを判断する(S27)。物体に対する特徴情報を設定する場合(S27において、YES)、物体に対する特徴情報を設定し(S28)、ARコンテンツを設定する(S29)。S29の処理では、例えば明暗領域及び物体の特徴情報に対して両方の判定結果がOKの場合、一方の判定結果のみがOKの場合、両方の判定結果がNGの場合について、それぞれ設定することができるが、これに限定されるものではない。
次に、端末装置12の設定部35は、他の物体に対する特徴情報を設定するか否かを判断し(S30)、他の物体を設定する場合(S30において、YES)、S28の処理に戻る。また、S27の処理において、物体に対する特徴情報を設定しない場合(S27において、NO)、又は、S30の処理において、他の物体に対する特徴情報を設定しない場合(S30において、NO)、認識したARマーカ全てに対して設定が完了したか否かを判断する(S31)。端末装置12の設定部35は、ARマーカ全てに対して設定が完了していない場合(S31において、NO)、S25の処理に戻る。また、端末装置12の設定部35は、ARマーカ全てに情報設定が完了した場合(S31において、YES)、処理を終了する。
<物体の特徴情報設定の具体例>
図21は、物体の特徴情報設定の具体例を説明するための図である。図21の例では、上述した図8の例と同様に、端末装置12で撮影された撮影画像100中に含まれるARマーカ90(基準物)の中心を基準とした三次元座標系(X,Y,Z)(マーカ座標系)を基準に暗領域及び明領域の一方又は両方を設定する。更に、図21の例では、撮影画像100に含まれる物体(実物体)130に対する特徴情報を設定する。物体130は、撮影画像中に含まれる物体であればよく、例えばARコンテンツを表示する対象物でもよい。なお、座標系は、三次元座標系に限定されるものではなく、例えば二次元座標系(X,Y)であってもよい。
図21の例では、撮影画像100に存在する物体(PC本体)130を、ユーザが適切な位置で撮影されたか否かを判定する物体(判定用物体)として設定し、その物体が存在する領域を示す物体領域(例えば、物体座標値)と、判定時の特徴点情報(例えば、特徴点座標値)を設定する。また、特徴点情報としては、例えば物体領域内において、特徴抽出や輝度差抽出等による物体認識手法を用いて1又は複数の座標を取得することができるが、これに限定されるものではない。また、特徴点情報として、例えば予め判定用物体に対応する形状テンプレートを設定してもよい。
また、第2実施例では、画像の特徴情報としての明暗領域や判定用物体に対する特徴点情報等が設定された場合に、それらの判定条件を満たすか否かに応じてARコンテンツ101の内容と表示位置を設定する。表示位置は、例えばARマーカ90の中心を基準にしたマーカ座標系により設定されてもよく、また撮影された画像のある位置を基準にしたスクリーン座標系により設定されてもよい。
<第2実施例におけるデータ例>
次に、第2実施例におけるデータ例について説明する。図22は、第2実施例において端末装置が有するデータ例を示す図である。図23は、第2実施例においてサーバが有するデータ例を示す図である。
図22に示す端末装置12が有するデータ例において、図22(A)は、データ管理テーブルの一例を示し、図22(B)は、ARコンテンツ管理テーブルの一例を示し、図22(C)は、明暗領域管理テーブルの一例を示している。
図22(A)に示すデータ管理テーブルの項目としては、例えば「マーカID」、「OK時表示ARコンテンツID」、「NG時表示ARコンテンツID」、「明暗領域ID」、「物体ID」等であるが、これに限定されるものではない。図22(A)の例では、上述した図9(A)に示すデータ管理テーブルと比較すると、「物体ID」を有している。物体IDは、上述した判定用物体を識別するための情報である。
図22(B)に示すARコンテンツ管理テーブルの項目としては、例えば「ARコンテンツID」、「座標値」、「回転角度」、「拡縮率」、「テクスチャパス」等があるが、これに限定されるものではない。図22(B)の各項目は、上述した図9(B)に示すテーブルの各項目と同様である。
図22(C)に示す明暗領域管理テーブルの項目としては、例えば「明暗領域ID」、「座標値」、「明暗値」等であるが、これに限定されるものではない。図22(C)の各項目は、上述した図9(C)に示すテーブルの各項目と同様である。
図22(D)に示す物体管理テーブルの項目としては、例えば「物体ID」、「物体座標値」、「OK時表示ARコンテンツID」、「特徴点座標値」等であるが、これに限定されるものではない。
物体IDは、上述した判定用物体を識別するための情報である。物体座標値は、例えば判定用物体が存在する領域の情報であり、マーカ座標系等を用いて設定される。OK時表示ARコンテンツIDは、判定用物体の特徴情報を用いた判定結果がOKであった場合に、表示されるARコンテンツを識別するための情報である。特徴点座標値は、物体IDに対応する判定用物体の特徴情報であり、物体認識により取得される特徴点の情報が設定されている。なお、特徴点座標値の場所や数は、ユーザが指定することで設定してもよく、物体ID毎に異なっていてもよい。なお、図22(D)に示す物体管理テーブルは、例えばNG時表示ARコンテンツを設定してもよい。
図23に示すサーバ11が有するデータ例において、図23(A)はマーカID管理テーブルの一例を示し、図23(B)は、ARコンテンツ管理テーブルの一例を示し、図23(C)は、マーカID管理テーブルの一例を示し、図23(D)は、物体管理テーブルの一例を示している。
図23(A)に示すマーカID管理テーブルの項目としては、「マーカID」、「OK時表示ARコンテンツID」、「NG時表示ARコンテンツID」、「明暗領域ID」、「物体ID」等であるが、これに限定されるものではない。図23(A)の例では、上述した図10(A)に示すマーカID管理テーブルと比較すると、「物体ID」を有している。物体IDは、上述した判定用物体を識別するための情報である。
図23(B)に示すARコンテンツ管理テーブルの項目としては、例えば「ARコンテンツID」、「座標値」、「回転角度」、「拡縮率」、「テクスチャパス」等があるが、これに限定されるものではない。図23(B)の各項目は、上述した図10(B)に示すARコンテンツ管理テーブルの各項目と同様である。
図23(C)に示す明暗領域管理テーブルの項目としては、例えば「明暗領域ID」、「座標値」、「明暗値」等があるが、これに限定されるものではない。なお、図23(C)の各項目は、上述した図10(C)に示す明暗領域管理テーブルの各項目と同様である。
図23(D)に示す物体管理テーブルの項目としては、例えば「物体ID」、「物体座標値」、「OK時表示ARコンテンツID」、「特徴点座標値」等であるが、これに限定されるものではない。
図23(A)〜図23(D)に示すデータ例は、上述した図22(A)〜図22(D)に示す内容と同様の項目であるが、サーバ11には、1又は複数の端末装置12から情報を取得することができる。したがって、図23に示すような各テーブルを管理する際には、例えば登録した端末装置12の識別情報も含めて管理してもよい。
<第2実施例における判定処理>
図24は、第2実施例における判定処理を示すフローチャートである。図24の例において、端末装置12の認識部36は、例えば撮像部32によるカメラ撮影を開始し、撮影中の画像からARマーカを認識したか否かを判断する(S41)。端末装置12の認識部36は、ARマーカを認識していない場合(S41において、NO)、ARマーカを認識するまで待機する。
また、S41の処理において、ARマーカを認識した場合(S41において、YES)、端末装置12の判定部38は、明暗領域が事前に設定されているか否かを判断する(S42)。事前に設定されているか否かは、例えば上述した第1実施例と同様に、ARマーカの認識により得られたマーカIDに基づいてサーバ11に問い合わせを行い、取得した判定条件に明暗領域情報が含まれているか否かで判断することができる。
端末装置12の判定部38は、明暗領域が事前に設定されている場合(S42において、YES)、事前に設定された明暗領域(例えば、第1の特徴情報)が、現在の撮影画像の明暗領域と一致するか否かを判断する(S43)。S43の処理では、明暗領域に対応する特徴点の座標値(領域の座標値)が一致するか否かについては、完全に一致していなくても座標値同士の差分値が所定の許容範囲内にある場合には、一致しているとみなしてもよい。また、S43の処理では、現在の撮影画像の明暗領域が、事前に設定された明暗領域を含んでいるか否かを判断し、含んでいれば一致しているとみなしてもよい。
S42の処理において、明暗領域が事前に設定されていない場合(S42において、NO)、又は、S43の処理において、明暗領域が現在の撮影画像の明暗情報と一致しない場合(S43において、NO)、端末装置12は、画像生成部40により生成された判定結果がNG時のARコンテンツを表示する(S44)。なお、S44の処理では、ARコンテンツを表示させない処理を行ってもよい。
また、S43の処理において、明暗領域が現在の撮影画像の明暗情報と一致する場合(S43において、YES)、次に、端末装置12の判定部38は、物体の特徴情報が事前に設定されているか否かを判断する(S45)。ここで、物体の特徴情報とは、上述したように撮影画像内に存在する実物体(判定用物体)の特徴点の情報等であるが、これに限定されるものではない。また、物体の特徴情報が事前に設定されているか否かは、サーバ11から取得した判定条件に物体の特徴情報が含まれているか否かにより判断することができるが、これに限定されるものではない。
物体の特徴情報が事前に設定されている場合(S45において、YES)、端末装置12の判定部38は、物体の特徴情報(例えば、第2の特徴情報)が現在の撮影画像の物体の特徴情報と一致するか否かを判断する(S46)。物体の特徴情報の一致については、上述したように特徴点の差分値に対する所定の許容範囲を設けて、その許容範囲内であれば、一致していると判定することができるが、これに限定されるものではない。また、S46の処理では、現在の撮影画像の物体の特徴情報が、事前に設定された物体の特徴情報を含んでいるか否かを判断し、含んでいれば一致しているとみなしてもよい。
また、端末装置12の判定部38は、物体の特徴情報の取得は、予め設定された物体領域の中のみで物体認証を行うことで、画像全体に対して物体認証を行うよりも迅速に物体の特徴情報を取得することができる。
S45の処理において、物体の特徴情報が事前に設定されていない場合(S45において、NO)、又は、S46の処理において、物体の特徴情報が現在の撮影画像の物体の特徴情報と一致しない場合(S46において、NO)、端末装置12は、画像生成部40により生成された明暗情報の判定結果がOK時のARコンテンツを表示する(S47)。また、物体の特徴情報が現在の撮影画像の物体の特徴情報と一致する場合(S46において、YES)、画像生成部40により生成された明暗領域及び物体の特徴情報の判定結果がOK時のARコンテンツを表示する(S48)。
これにより、撮影されたARマーカの周囲の明暗情報と、判定用物体の特徴情報とを用いて判定を行うことで、ARマーカに対応する情報(例えば、ARコンテンツ等)を適切にユーザに提供することができる。例えば、第2実施例では、マーカIDとARマーカの背景画像の明暗情報や、重畳情報の内容を切り替える判定用物体を利用することで、重畳情報の出力を抑止することができ、現場での重畳情報の出力状態を切り替えることができる。これにより、第2実施例では、ARマーカの不正コピーや、システムの不正利用による重畳情報の出力を抑止することができる。
<第2実施例における表示画面例>
図25は、第2実施例における表示画面例を示す図である。図25(A)の例に示すような端末装置12が撮影した撮影画像からARコンテンツを表示する対象物であるパイプ80に取り付けられたARマーカ90を認識すると、そのマーカIDをサーバ11に送信し、対応する判定条件及び判定結果に応じて表示されるARコンテンツ等を取得する。なお、マーカIDに対応するARコンテンツは、端末装置12が予め保持しておいてもよい。また、マーカIDに対応する判定についても、サーバ11を介さずに端末装置12が行い、端末装置12に保持されたARコンテンツを取得してもよい。なお、第2実施例における判定条件は、明暗情報と判定用物体(実物体)の特徴情報である。
次に、取得した判定条件に基づいて判定を行う。明暗情報と判定用物体の両方の判定結果がNGである場合には、上述した図16(B)の例に示すようなエラーメッセージ(ARコンテンツ120−1)が画面に表示される。また、明暗領域の判定結果がOKで、物体を用いた判定結果がNGであった場合には、図16(C)と同様に図25(B)に示すようにARマーカ90に対応付けられたARコンテンツ120−2〜120−5が、撮影画像100に重畳されて画面表示される。この場合、判定用の物体130に対するARコンテンツは表示されない。
また、明暗領域及び物体の特徴情報の両方の判定結果がOKであった場合には、図25(C)に示すように、明暗判定時のARコンテンツ120−2〜120−5と共に、判定用の物体130に対応付けられたARコンテンツ120−6が表示される。
なお、上述した図25(B)の例においては、明暗領域と物体の特徴情報の両方の判定結果がOKでない場合には、OK時のARコンテンツを表示しないように設定してもよい。
なお、表示内容としては、これに限定されるものではなく、例えば判定時の時間情報やユーザ識別情報等に対応させて、スケジュール情報や、個別の内容等をARコンテンツとして表示させてもよい。
このように、マーカIDとマーカの背景画像の明暗情報や、重畳情報の表示内容を切り替える判定用物体を利用することで、単純にマーカIDのみを認識した場合に、重畳情報(ARコンテンツ)の出力を抑止することができる。
なお、本実施形態における表示制御は、上述した第1及び第2実施例に限定されるものではなく、例えば上述した第1及び第2実施例の一部又は全部を組み合わせてもよい。例えば、第2実施例では、明暗領域及び判定用物体の特徴情報を適切な位置でARマーカを撮影したかを判定するための判定条件としたが、これに限定されるものではなく、例えば、判定用物体の特徴情報のみを用いて判定を行ってもよい。
ここで、本実施形態で用いられる画像の特徴情報としては、上述したような明暗情報や判定用物体の特徴情報に限定されるものではない。例えば、明暗情報であれば、明度が閾値以上の領域が存在するか否か、画像中に含まれる明領域又は暗領域の数、明度が均一な領域が存在するか否か等を有してもよく、これらの条件を組み合わせたものでもよい。また、判定用物体の特徴情報であれば、画像中における物体の数、物体の大きさ、形状等を有してもよく、これらの条件を組み合わせたものでもよい。
これに限定されるものではない。
上述したように、本実施形態によれば、適切な表示制御を実現することができる。例えば、端末装置12によりARマーカの認識が行われると、マーカ認識に伴い取得された画像情報が、マーカを含んで事前に撮影された画像の特徴(画像内の明暗情報又は特徴点情報)と一致するか否かを判定し、判定結果に応じてマーカと対応付けられた重畳情報の出力の制御(出力有無の制御、出力内容の制御)を行う。なお、上記の判定は、端末装置12が行ってもよく、サーバ11で行ってもよい。
また、本実施形態では、明暗情報による重畳情報の切り替えを行う際、画像の2値化という簡素な処理による明暗情報を用いることで、重畳切り替えの複雑度を低くすることができる。また、上述したように、判定用の物体を用いた表示制御では、物体の認識精度は特徴点等を利用した認識であるため低くなり、重畳切り替えの複雑度は物体を用いた判定により高くなる。
このように、マーカIDとマーカの背景画像の明暗情報や、重複情報の出力状態を切り替える判定用物体を利用することで、単純にマーカIDのみを認識した場合に、重畳情報(ARコンテンツ)の出力を抑止することができる。また、本実施形態では、例えばマーカの不正コピーやシステムの不正使用による重畳情報の出力を抑止し、出力状態を切り替える物体や、マーカ背景の明暗状態を現場で変更することで適切な表示制御を実現することができる。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した実施例の一部又は全部を組み合わせることも可能である。
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
入力画像に含まれる基準物を認識する認識部と、
前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けられた特徴情報を含むかを判定する判定部と、
前記判定部による判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する画像生成部とを有することを特徴とする端末装置。
(付記2)
前記入力画像の特徴情報は、前記入力画像の明暗情報又は前記画像に含まれる物体の特徴点情報であることを特徴とする付記1に記載の端末装置。
(付記3)
前記判定部は、
複数の方向から撮影された前記基準物の認識に用いられた入力画像の特徴情報を用いて前記判定を行うことを特徴とする付記1又は2に記載の端末装置。
(付記4)
前記判定部は、
時間情報に対応して設定された前記入力画像の特徴情報を用いて前記判定を行うことを特徴とする付記1乃至3の何れか1項に記載の端末装置。
(付記5)
前記画像生成部は、
前記判定部の判定結果に応じて前記時間情報に対応して設定されたコンテンツを前記画像に重畳することを特徴とする付記4に記載の端末装置。
(付記6)
前記認識部による前記識別情報の読み取りに伴い取得した入力画像に対し、前記基準物に対応付けて前記入力画像の特徴情報及び前記コンテンツを設定する設定部を有することを特徴とする付記1乃至5の何れか1項に記載の端末装置。
(付記7)
端末装置で入力画像に含まれる基準物を認識した際、前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けられた特徴情報を含むかを判定し、判定した結果に基づいて前記識別情報に対応付けられたコンテンツを抽出する抽出部と、
前記抽出部により抽出されたコンテンツを前記端末装置に送信する通信部とを有することを特徴とする情報処理装置。
(付記8)
端末装置が、
入力画像に含まれる基準物を認識し、
前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けられた特徴情報を含むかを判定し、
判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成することを特徴とする表示制御方法。
(付記9)
入力画像に含まれる基準物を認識し、
前記基準物の認識に用いられた入力画像の特徴情報が、前記認識された基準物の識別情報に対応付けられた特徴情報を含むかを判定し、
判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する、処理をコンピュータに実行させる表示制御プログラム。
10 情報処理システム
11 サーバ(情報処理装置)
12 端末装置
13 通信ネットワーク
21,31 通信部
22,33 記憶部
23 登録部
24 抽出部
25,41 制御部
32 撮像部
34,63 表示部
35 設定部
36 認識部
37 取得部
38 判定部
39 コンテンツ生成部
40 画像生成部
51 入力装置
52 出力装置
53,72 ドライブ装置
54,69 補助記憶装置
55,70 主記憶装置
56,71 CPU
57 ネットワーク接続装置
58,73 記録媒体
61 マイク
62 スピーカ
64 操作部
65 センサ部
66 電力部
67 無線部
68 近距離通信部
80 パイプ(配管)
81 バルブ(弁)
82 サーバラック
90 ARマーカ(基準物)
100 撮影画像
101,120 ARコンテンツ
110 二値化画像
111 設定画像
130 物体

Claims (8)

  1. 入力画像に含まれる基準物を認識する認識部と、
    前記入力画像のうち、前記基準物とは異なる領域の特徴情報が、前記認識された基準物の識別情報に対応付けられた特徴情報を含むかを判定する判定部と、
    前記判定部による判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する画像生成部と
    を有することを特徴とする端末装置。
  2. 前記入力画像のうち、前記基準物とは異なる領域の特徴情報は、前記入力画像のうち、前記基準物とは異なる領域の明暗情報又は前記基準物とは異なる領域に含まれる物体の特徴点情報であることを特徴とする請求項1に記載の端末装置。
  3. 前記判定部は、
    複数の方向から撮影された前記入力画像の前記基準物とは異なる領域の特徴情報を用いて前記判定を行うことを特徴とする請求項1又は2に記載の端末装置。
  4. 前記判定部は、
    時間情報に対応して設定された前記入力画像の前記基準物とは異なる領域の特徴情報を用いて前記判定を行うことを特徴とする請求項1乃至3の何れか1項に記載の端末装置。
  5. 前記基準物の識別情報に対応付けて前記入力画像の前記基準物とは異なる領域の特徴情報及び前記コンテンツを設定する設定部を有することを特徴とする請求項1乃至4の何れか1項に記載の端末装置。
  6. 端末装置で入力画像に含まれる基準物を認識した際、前記入力画像のうち、前記基準物とは異なる領域の特徴情報が、前記認識された基準物の識別情報に対応付けられた特徴情報を含むかを判定し、判定した結果に基づいて前記識別情報に対応付けられたコンテンツを抽出する抽出部と、
    前記抽出部により抽出されたコンテンツを前記端末装置に送信する通信部とを有することを特徴とする情報処理装置。
  7. 端末装置が、
    入力画像に含まれる基準物を認識し、
    前記入力画像のうち、前記基準物とは異なる領域の特徴情報が、前記認識された基準物の識別情報に対応付けられた特徴情報を含むかを判定し、
    判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する
    ことを特徴とする表示制御方法。
  8. 入力画像に含まれる基準物を認識し、
    前記入力画像のうち、前記基準物とは異なる領域の特徴情報が、前記認識された基準物の識別情報に対応付けられた特徴情報を含むかを判定し、
    判定結果に基づいて、前記入力画像に前記識別情報に対応付けられたコンテンツを重畳した画像を生成する、
    処理をコンピュータに実行させる表示制御プログラム。
JP2014021589A 2014-02-06 2014-02-06 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム Active JP6244954B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014021589A JP6244954B2 (ja) 2014-02-06 2014-02-06 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
US14/601,624 US9990773B2 (en) 2014-02-06 2015-01-21 Terminal, information processing apparatus, display control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014021589A JP6244954B2 (ja) 2014-02-06 2014-02-06 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2015148957A JP2015148957A (ja) 2015-08-20
JP6244954B2 true JP6244954B2 (ja) 2017-12-13

Family

ID=53755284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014021589A Active JP6244954B2 (ja) 2014-02-06 2014-02-06 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム

Country Status (2)

Country Link
US (1) US9990773B2 (ja)
JP (1) JP6244954B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6256430B2 (ja) * 2015-08-17 2018-01-10 コニカミノルタ株式会社 コンテンツ提供サーバ、コンテンツ提供方法、およびコンピュータプログラム
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
KR20180041890A (ko) * 2016-10-17 2018-04-25 삼성전자주식회사 가상 객체를 표시하는 방법 및 장치
US20180268614A1 (en) * 2017-03-16 2018-09-20 General Electric Company Systems and methods for aligning pmi object on a model
US10489651B2 (en) * 2017-04-14 2019-11-26 Microsoft Technology Licensing, Llc Identifying a position of a marker in an environment
US20180357826A1 (en) * 2017-06-10 2018-12-13 Tsunami VR, Inc. Systems and methods for using hierarchical relationships of different virtual content to determine sets of virtual content to generate and display
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
KR102199686B1 (ko) * 2018-10-24 2021-01-07 디에스글로벌(주) 위치정보 및 시간정보 기반의 ar 컨텐츠 제공 방법 및 시스템
US11145123B1 (en) * 2018-04-27 2021-10-12 Splunk Inc. Generating extended reality overlays in an industrial environment
US11847773B1 (en) 2018-04-27 2023-12-19 Splunk Inc. Geofence-based object identification in an extended reality environment
JP6640294B1 (ja) * 2018-08-24 2020-02-05 株式会社Cygames 複合現実システム、プログラム、携帯端末装置、及び方法
WO2020163218A1 (en) * 2019-02-04 2020-08-13 Beam Therapeutics Inc. Systems and methods for implemented mixed reality in laboratory automation
JP7449672B2 (ja) 2019-11-05 2024-03-14 ユニ・チャーム株式会社 表示制御装置、表示制御方法及び表示制御プログラム
US11295135B2 (en) * 2020-05-29 2022-04-05 Corning Research & Development Corporation Asset tracking of communication equipment via mixed reality based labeling
US11374808B2 (en) * 2020-05-29 2022-06-28 Corning Research & Development Corporation Automated logging of patching operations via mixed reality based labeling

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697761B2 (en) 2000-09-19 2004-02-24 Olympus Optical Co., Ltd. Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system
US6765569B2 (en) 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
JP2003281297A (ja) 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology 情報提示装置および情報提示方法
US8064650B2 (en) 2002-07-10 2011-11-22 Hewlett-Packard Development Company, L.P. File management of digital images using the names of people identified in the images
US7427996B2 (en) 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US7876359B2 (en) 2003-01-17 2011-01-25 Insitu, Inc. Cooperative nesting of mechanical and electronic stabilization for an airborne camera system
US9002497B2 (en) 2003-07-03 2015-04-07 Kla-Tencor Technologies Corp. Methods and systems for inspection of wafers and reticles using designer intent data
US7277572B2 (en) 2003-10-10 2007-10-02 Macpearl Design Llc Three-dimensional interior design system
JPWO2005119539A1 (ja) 2004-06-04 2008-04-03 三菱電機株式会社 動作環境を証明する証明書発行サーバ及び証明システム
SE525826C2 (sv) 2004-06-18 2005-05-10 Totalfoersvarets Forskningsins Interaktivt förfarande för att presentera information i en bild
US8004574B2 (en) 2004-07-21 2011-08-23 Nokia Corporation Portable electronic devices with picture in picture capability
EP1720131B1 (en) 2005-05-03 2009-04-08 Seac02 S.r.l. An augmented reality system with real marker object identification
JP4743522B2 (ja) 2006-03-15 2011-08-10 株式会社日立プラントテクノロジー 画像データ記録方法、画像データによる作業実績記録方法、画像データ記録装置、並びに画像データによる作業実績記録システム
KR100914515B1 (ko) * 2006-06-23 2009-09-02 주식회사 칼라짚미디어 색상 기반 이미지 코드의 색상 판별 방법
US20080071559A1 (en) 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
FR2911707B1 (fr) * 2007-01-22 2009-07-10 Total Immersion Sa Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video.
US20080266323A1 (en) 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
JP4607208B2 (ja) 2007-05-23 2011-01-05 コワングウーン ユニバーシティー リサーチ インスティテュート フォー インダストリー コーオペレーション 立体映像ディスプレイ方法
US20080310686A1 (en) 2007-06-15 2008-12-18 Martin Kretz Digital camera system and method of storing image data
JP4788732B2 (ja) 2008-04-18 2011-10-05 コニカミノルタビジネステクノロジーズ株式会社 表示操作部を備えた装置
US8542906B1 (en) 2008-05-21 2013-09-24 Sprint Communications Company L.P. Augmented reality image offset and overlay
EP2457627B1 (en) 2008-06-30 2014-06-25 Sony Computer Entertainment Inc. Portable type game device and method for controlling portable type game device
US20100048290A1 (en) 2008-08-19 2010-02-25 Sony Computer Entertainment Europe Ltd. Image combining method, system and apparatus
JP5298984B2 (ja) 2009-03-17 2013-09-25 株式会社リコー ヘルプ情報提供システム、サーバ装置、対象機器、携帯通信端末、ヘルプ情報提供方法、プログラム及び記録媒体
WO2011004534A1 (ja) 2009-07-09 2011-01-13 株式会社 日立ハイテクノロジーズ 半導体欠陥分類方法,半導体欠陥分類装置,半導体欠陥分類プログラム
US8502835B1 (en) 2009-09-02 2013-08-06 Groundspeak, Inc. System and method for simulating placement of a virtual object relative to real world objects
US8451266B2 (en) * 2009-12-07 2013-05-28 International Business Machines Corporation Interactive three-dimensional augmented realities from item markers for on-demand item visualization
US9164577B2 (en) 2009-12-22 2015-10-20 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
JP2013141049A (ja) * 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末
US20110234631A1 (en) 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
US8982156B2 (en) * 2010-06-10 2015-03-17 Sartorius Stedim Biotech Gmbh Assembling method, operating method, augmented reality system and computer program product
JP4914528B1 (ja) * 2010-08-31 2012-04-11 新日鉄ソリューションズ株式会社 拡張現実提供システム、情報処理端末、情報処理装置、拡張現実提供方法、情報処理方法、及びプログラム
US9483677B2 (en) * 2010-09-20 2016-11-01 Hid Global Corporation Machine-readable symbols
US8860760B2 (en) * 2010-09-25 2014-10-14 Teledyne Scientific & Imaging, Llc Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
US10909564B2 (en) 2010-11-17 2021-02-02 PicScore, Inc. Fast and versatile graphical scoring device and method
JP2012128578A (ja) * 2010-12-14 2012-07-05 Ntt Docomo Inc 携帯端末および画像処理方法
JP5859843B2 (ja) 2010-12-24 2016-02-16 新日鉄住金ソリューションズ株式会社 情報処理装置、情報処理方法、及びプログラム
KR20120073726A (ko) * 2010-12-27 2012-07-05 주식회사 팬택 증강 현실 정보 제공을 위한 인증 장치 및 방법
JP5799521B2 (ja) 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
US10133950B2 (en) 2011-03-04 2018-11-20 Qualcomm Incorporated Dynamic template tracking
JP5752959B2 (ja) 2011-03-10 2015-07-22 株式会社三共 遊技機関連情報配信システム、遊技機関連情報配信装置および携帯端末用アプリケーションプログラム
US20120249588A1 (en) * 2011-03-22 2012-10-04 Panduit Corp. Augmented Reality Data Center Visualization
JP2012215989A (ja) 2011-03-31 2012-11-08 Toppan Printing Co Ltd 拡張現実表示方法
US10242456B2 (en) 2011-06-23 2019-03-26 Limitless Computing, Inc. Digitally encoded marker-based augmented reality (AR)
US8872852B2 (en) * 2011-06-30 2014-10-28 International Business Machines Corporation Positional context determination with multi marker confidence ranking
KR101832959B1 (ko) 2011-08-10 2018-02-28 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
US8749396B2 (en) * 2011-08-25 2014-06-10 Satorius Stedim Biotech Gmbh Assembling method, monitoring method, communication method, augmented reality system and computer program product
JP5821526B2 (ja) 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP5783885B2 (ja) * 2011-11-11 2015-09-24 株式会社東芝 情報提示装置、その方法及びそのプログラム
JP6226510B2 (ja) 2012-01-27 2017-11-08 キヤノン株式会社 画像処理システム、処理方法及びプログラム
JP2013165366A (ja) 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP6045796B2 (ja) 2012-02-27 2016-12-14 京セラ株式会社 映像処理装置、映像処理方法、および映像表示システム
US9087178B2 (en) 2012-04-25 2015-07-21 Convivial Corporation System and method for posting content to network sites
US20140002443A1 (en) 2012-06-29 2014-01-02 Blackboard Inc. Augmented reality interface
US9448758B2 (en) * 2012-07-18 2016-09-20 The Boeing Company Projecting airplane location specific maintenance history using optical reference points
TWI475474B (zh) 2012-07-30 2015-03-01 Mitac Int Corp Gesture combined with the implementation of the icon control method
US20140123507A1 (en) 2012-11-02 2014-05-08 Qualcomm Incorporated Reference coordinate system determination
US8887991B2 (en) * 2012-12-27 2014-11-18 Ciena Corporation Method and apparatus for configuring and validating telecom and datacom systems
US9336629B2 (en) * 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
US9269011B1 (en) 2013-02-11 2016-02-23 Amazon Technologies, Inc. Graphical refinement for points of interest
US9946963B2 (en) * 2013-03-01 2018-04-17 Layar B.V. Barcode visualization in augmented reality
US9418378B2 (en) 2013-03-15 2016-08-16 Gilt Groupe, Inc. Method and system for trying out a product in relation to a real world environment
US9898844B2 (en) 2013-12-31 2018-02-20 Daqri, Llc Augmented reality content adapted to changes in real world space geometry
JP6217437B2 (ja) * 2014-02-14 2017-10-25 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
US20150277686A1 (en) 2014-03-25 2015-10-01 ScStan, LLC Systems and Methods for the Real-Time Modification of Videos and Images Within a Social Network Format

Also Published As

Publication number Publication date
US9990773B2 (en) 2018-06-05
US20150221134A1 (en) 2015-08-06
JP2015148957A (ja) 2015-08-20

Similar Documents

Publication Publication Date Title
JP6244954B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
AU2017203098B2 (en) Information processing system and display control method
US10163266B2 (en) Terminal control method, image generating method, and terminal
US10043314B2 (en) Display control method and information processing apparatus
JP6217437B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP6424601B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
US20160012612A1 (en) Display control method and system
US20180214767A1 (en) Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects
US20150302623A1 (en) Display control method and system
US9854148B2 (en) Micro-location of devices within a wireless network using room boundary images
US20160284130A1 (en) Display control method and information processing apparatus
US20220311950A1 (en) Systems and methods for placing annotations in an augmented reality environment using a center-locked interface
CN110800314B (zh) 计算机系统、远程操作通知方法以及记录介质
JP6543924B2 (ja) 情報処理方法、情報処理プログラム、及び情報処理装置
CN110738185B (zh) 表单对象的识别方法、装置及存储介质
JP2017163195A (ja) 画像処理システム、プログラム、画像処理方法
JP6524706B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
KR102260193B1 (ko) 3차원 공간에 대한 보안기능을 제공하는 증강현실 원격 통신방법 및 시스템
JP6413521B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
US20210329099A1 (en) Electronic apparatus and data transmission method thereof
KR102214292B1 (ko) 모바일 마케팅 어플리케이션 통합 시스템
JP2014119811A (ja) 情報処理装置、システム、情報処理方法、及びプログラム
CN114856527A (zh) 丛式井中井口间距的确定方法、装置及计算机存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6244954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150