JP6264834B2 - ガイド方法、情報処理装置およびガイドプログラム - Google Patents

ガイド方法、情報処理装置およびガイドプログラム Download PDF

Info

Publication number
JP6264834B2
JP6264834B2 JP2013221644A JP2013221644A JP6264834B2 JP 6264834 B2 JP6264834 B2 JP 6264834B2 JP 2013221644 A JP2013221644 A JP 2013221644A JP 2013221644 A JP2013221644 A JP 2013221644A JP 6264834 B2 JP6264834 B2 JP 6264834B2
Authority
JP
Japan
Prior art keywords
image
imaging
information
guide
reference object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013221644A
Other languages
English (en)
Other versions
JP2015082830A (ja
Inventor
歩美 上野
歩美 上野
竜太 小松
竜太 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013221644A priority Critical patent/JP6264834B2/ja
Priority to AU2014250736A priority patent/AU2014250736A1/en
Priority to US14/518,850 priority patent/US9390488B2/en
Priority to CN201410564548.9A priority patent/CN104574267B/zh
Priority to EP14189682.9A priority patent/EP2866197A3/en
Publication of JP2015082830A publication Critical patent/JP2015082830A/ja
Priority to US15/146,310 priority patent/US9760987B2/en
Application granted granted Critical
Publication of JP6264834B2 publication Critical patent/JP6264834B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本発明は、観察対象の画像を撮像する際のガイドを行う技術に関する。
保守管理業務を容易化するために、複数の画像データを重ね合わせ、一枚の静止画を生成する表示装置が知られている(例えば、特許文献1)。当該表示装置は、各画像の絶対的な位置および複数の画像データ間での相対的な位置を判断しつつ、互いの位置が対応するように、静止画を生成する。なお、ビデオカメラを所定の方向に向けた後、ビデオカメラを搭載する自動車が被写体に沿って走行することで、複数の画像データが採取される。当該表示装置は、建物や道路・橋などの保守管理業務において、橋梁から道路、のり面などの構造物を一枚の静止画として管理することを目的とする。
特開2001−14316号公報
点検業務等においては、対象物を異なる時刻に撮像した複数の画像を比較することが行われる。この場合には、複数の画像が略同一の位置から撮像されていることが、比較作業を正確かつ容易に行うためには好ましい。
そこで、例えば、複数の画像を略同一の位置から撮像するために、カメラを物理的に固定する手法が考えられる。しかしながら、撮像対象が複数存在する場合には、撮像対象それぞれにカメラを設けなくてはならない。
また、特許文献1に開示の表示装置が静止画を合成する際には、合成のもととなる複数の画像データは、作業者がビデオカメラを所定の方向に向けることで採取される。しかし、ビデオカメラの方向は作業者の裁量に起因するため、合成される静止画は、必ずしも、比較作業に適した静止画となるとは限らない。
そこで、本実施例に開示の技術は、特定の対象物の経時変化を観察するために、対象物の画像を特定の撮像条件下で撮像させることを目的とする。
上記課題を解決する為に、ひとつの実施態様において、コンピュータが、撮像装置から第一の画像を取得し、前記第一の画像から基準物が認識された場合に、該基準物に紐づけられた観察対象が存在するかを判定し、前記観察対象が存在することが判定された場合に、前記基準物の像に基づき推定される該第一の画像の第一の撮像条件と予め指定された第二の撮像条件との違いに関するガイド情報、および、前記基準物に対応付けられたコンテンツを含む第一の合成画像を出力し、前記観察対象が存在しないことが判定された場合に、前記ガイド情報を含まず、前記コンテンツを含む第二の合成画像を出力する処理を実行することを特徴とする。
本発明の一観点によれば、対象物の画像を特定の撮像条件下で撮像させることで、特定の対象物の経時変化を、容易に観察することができる。
図1Aおよび図1Bは、異なる時刻に、同じ観察対象を撮像した2枚の画像を示す。 図2は、合成画像のイメージ図である。 図3は、カメラ座標系とマーカー座標系との関係を示す。 図4は、カメラ座標系とマーカー座標系とにおけるARオブジェクトEの例を示す。 図5は、マーカー座標系からカメラ座標系への変換行列Mと、変換行列M内の回転行列Rを示す。 図6は、回転行列R1、R2およびR3を示す。 図7Aおよび図7Bは、異なる撮像条件で撮像された画像を示す。 図8は、第一の実施例にかかるシステム構成図である。 図9は、第一の実施例にかかる情報処理装置の機能ブロック図である。 図10は、テンプレート情報テーブルを示す。 図11は、コンテンツ情報テーブルを示す。 図12は、撮像条件情報テーブルを示す。 図13は、保存用画像テーブルを示す。 図14は、管理装置の機能ブロック図である。 図15は、第一の実施例にかかるガイド処理のフローチャートを示す。 図16は、ガイド表示を含む合成画像の例である。 図17Aおよび図17Bは、第二の実施例にかかるガイド表示を説明するための図である。 図18は、第二の実施例にかかる情報処理装置の機能ブロック図である。 図19は、第二の実施例における撮像条件情報テーブルを示す。 図20は、第二の実施例にかかる、ガイド処理のフローチャートを示す。 図21は、変型例1における撮像条件情報テーブルを示す。 図22は、ユーザの移動軌跡がマッピングされた地図データのイメージ図である。 図23は、各実施例の情報処理装置のハードウェア構成例である。 図24は、コンピュータ1000で動作するプログラムの構成例を示す。 図25は、管理装置のハードウェア構成例である。
以下詳細な本発明の実施例に関して説明する。なお、以下の各実施例は、処理の内容を矛盾させない範囲で適宜組み合わせることが可能である。以下、図面に基づいて各実施例について説明する。
まず、初めに、点検業務や保守管理業務において、特定の対象の経時変化を観察する作業について説明する。なお、観察される対象は、以下、観察対象と称する。図1Aおよび図1Bは、異なる時刻に、同じ観察対象を撮像した2枚の画像を示す。
図1Aおよび図1Bは、同じ観察対象である配管上のヒビを撮像した画像であるが、2つの画像各々の撮像条件が異なる。なお、本実施例における撮像条件は、撮像位置および撮像方向である。撮像位置は、カメラの位置である。撮像方向は、画像を撮像する際のカメラの光軸の向きである。
具体的には、図1Aの画像100においては、配管102上に存在するヒビ104が、図1Bの画像106においては、配管108上に存在するヒビ110が含まれる。画像106は画像100の後に撮像されたとすると、観察を行う作業者は、ヒビ110の大きさや位置がヒビ104の状態から変化しているのか、感覚的に把握しにくい。なお、実際には、配管102と配管108は、同一の物体であって、ヒビ102とヒビ104も同一の物体である。
仮に、画像106が、画像100が撮像された際の撮像条件と同様の撮像条件で撮像された画像であれば、作業者は、画像100と画像106とを目視で比較するだけで、ヒビ104に変化があるのか確認することができる。画像処理によって、画像100と画像106とを比較容易な画像に変換することも考えらえるが、画像処理技術の導入が必要となる。
一方、現在、点検業務や保守管理業務等、さまざまな業務の効率化を目的として、拡張現実(Augmented Reality:AR)技術が導入されるケースが増えている。AR技術は、現実空間に対応する3次元の仮想空間を仮想的に設定し、仮想空間上に3次元の物体のモデルデータを配置する。そして、AR技術は、カメラが撮像した撮像画像に、モデルデータが配置された仮想空間を重ね合わせることで、ある視点(カメラ位置)から見たモデルデータが、現実空間の撮像画像に重畳表示された合成画像を生成する。つまり、合成画像を閲覧するユーザは、合成画像が表示されるディスプレイを通して、現実空間に実在しないモデルデータが、現実空間に存在するかのように認識することができる。
このように、AR技術によれば、人間の知覚(視覚など)により収集される情報が拡張する。たとえば、モデルデータが、現実空間に存在する物体に関する説明情報や、作業内容の指示情報、注意喚起情報等を示す場合、ユーザは、これらの情報を把握することができる。
図2は、合成画像のイメージ図である。合成画像200には、現実空間に存在する配管202およびヒビ204とともに、現実空間には存在しないARオブジェクトEが含まれる。なお、配管202およびヒビ204は、各々図1Aの配管102およびヒビ104に対応する。なお、ARオブジェクトEは、仮想空間上に配置される三次元モデルデータである。また、合成画像200には、現実空間に存在するマーカーMが含まれる。なお、マーカーMとAR技術の関係については後述する。
AR技術が点検業務に適用されている場合、合成画像200を点検業務の作業者が閲覧することで、配管202上の特定の位置にヒビ204が存在することを把握することができる。つまり、作業者が現実空間を直接目視しているときと比較して、作業者はヒビ204の存在を容易に把握することができる。このように、申し送り事項や作業内容を共有するためのツールとして、AR技術を導入することで、施設内の点検作業等の効率化が図られている。
つぎに、図2におけるマーカーMについて説明する。図2におけるヒビ204の位置にARオブジェクトEを表示するためには、ヒビ204が存在する現実空間と、ARオブジェクトが配置される仮想空間との位置関係を対応付ける必要がある。現実空間と仮想空間との位置関係を対応付けるために、マーカーMが用いられる。
ARオブジェクトEが配置される仮想空間は、マーカーMを基準とする三次元空間である。つまり、マーカーに対する配置位置や配置姿勢が、ARオブジェクトに設定される。一方、マーカーMは現実空間にも実在するため、現実空間を撮像した撮像画像からマーカーMが認識されると、マーカーMを介して、仮想空間と現実空間とが対応付けられる。なお、AR技術においては、マーカーMのように仮想空間の基準となる物体を、基準物と称する。
つまり、ARオブジェクトが仮想空間上に配置される一方で、カメラが撮像した撮像画像内に写り込んだ基準物の見え方(像)に基づいて、カメラと基準物との現実空間における位置関係が求められる。そして、現実空間内に存在する基準物を基準とする仮想空間上の座標と、現実空間におけるカメラと基準物との位置関係により、現実空間に対応する3次元の仮想空間上でのカメラとARオブジェクトの各点の座標との位置関係が求められる。これらの位置関係に基づいて、仮想空間上でカメラが基準物を撮像した場合に得られるARオブジェクトの像が決定される。そして、ARオブジェクトの像が、撮像画像に重畳して表示される。
ここで、合成画像を生成するために、ARオブジェクトの像を演算する方法について、詳細を説明する。図3は、カメラ座標系とマーカー座標系との関係を示す。図3に例示されるマーカーMは、正方形形状をしており、予めサイズが定められている(例えば1辺の長さが5cmなど)。なお、図3に示されるマーカーMは正方形形状であるが、複数の視点のうち、いずれの視点から撮像して得られる像に基づいても、カメラからの相対的な位置および向きが判別可能な形状の他の物体が、基準物に用いられてもよい。
カメラ座標系は、(Xc,Yc,Zc)の3次元で構成され、例えばカメラの焦点を原点(原点Oc)とする。例えば、カメラ座標系のXc−Yc平面はカメラの撮像素子面と平行な面であり、Zc軸は撮像素子面に垂直な軸である。
マーカー座標系は、(Xm,Ym,Zm)の3次元で構成され、例えばマーカーMの中心を原点(原点Om)とする。例えば、マーカー座標系のXm−Ym平面はマーカーMと平行な面であり、Zm軸はマーカーMの面と垂直である。原点Omは、カメラ座標系においては、座標V1c(X1c,Y1c,Z1c)で示される。なお、マーカー座標系で構成される空間が、仮想空間である。
また、カメラ座標系(Xc,Yc,Zc)に対するマーカー座標系(Xm,Ym,Zm)の回転角は、回転座標G1c(P1c,Q1c,R1c)で示される。P1cはXc軸回りの回転角であり、Q1cはYc軸回りの回転角であり、R1cはZc軸回りの回転角である。図3に例示されるマーカー座標系は、Ym軸回りにのみ回転しているため、P1cおよびR1cは0である。なお、各々の回転角は、既知の形状を有する基準物が、処理対象となる撮像画像において、どのような像として撮像されているかに基づき、算出される。
図4は、カメラ座標系とマーカー座標系とにおけるARオブジェクトEの例を示す。図4に示すARオブジェクトEは、吹き出し形状のオブジェクトであり、吹き出し内に「ヒビあり!」というテキストデータを含む。
ARオブジェクトEの吹き出しの先の黒丸は、ARオブジェクトEの基準点を示す。基準点のマーカー座標系における座標は、V2m(X2m,Y2m,Z2m)とする。さらにARオブジェクトEの向きは回転座標G2m(P2m,Q2m,R2m)で定められ、ARオブジェクトEのサイズは倍率D(Jx,Jy,Jz)で定められる。なお、ARオブジェクトEの回転座標G2mは、マーカー座標系に対してARオブジェクトがどの程度回転した状態で配置されるのかを示す。例えば、G2mが(0,0,0)である場合には、マーカーMと平行にARオブジェクトがAR表示されることとなる。
ARオブジェクトEを構成する各点の座標は、ARオブジェクトEの雛型である定義データ(ARテンプレート)に定義されている各点の座標が、基準点の座標V2m、回転座標G2mおよび倍率Dに基づいて調整された座標である。
ARテンプレートにおいては、基準点の座標を(0,0,0)として、各点の座標が定義される。よって、当該ARテンプレートを採用したARオブジェクトの基準点V2mが設定されると、ARテンプレートを構成する各点の座標は、座標V2mに基づいて平行移動される。
さらに、ARテンプレートに含まれる各座標は、設定された回転座標G2mに基づいて回転され、倍率Dで拡縮される。つまり、図4のARオブジェクトEは、ARテンプレートに定義された各点が、基準点の座標V2m、回転座標G2mおよび倍率Dに基づいて調整された点に基づいて構成された状態を示している。
また、初めに、基準点の座標V2mおよび倍率Dに基づき調整された点の集合であるARオブジェクトE’が生成され、その後、ARオブジェクトE’の各軸を、回転座標G2mに従って回転させることで、ARオブジェクトEが生成されてもよい。
次に、マーカー座標系にARオブジェクトEが配置されると、ARオブジェクトEの各点の座標は、マーカー座標系からカメラ座標系に変換される。さらに、ARオブジェクトEを撮像画像に投影するために、カメラ座標系からスクリーン座標系への変換が行われる。つまり、撮像画像に、ARオブジェクトEを重畳表示するための像が生成される。
以下、座標系を変換する処理について説明する。まず、マーカー座標系をカメラ座標系へ変換するモデル・ビュー変換について説明する。ARオブジェクトEに含まれる各点について、マーカー座標系における座標を、マーカーの原点Omのカメラ座標系における座標V1cおよび、カメラ座標系に対するマーカー座標系の回転座標G1cに基づき座標変換することで、カメラ座標系における座標は算出される。
例えば、モデル・ビュー変換が、ARオブジェクトEの基準点V2mに対して行なわれることにより、マーカー座標系で規定された基準点が、カメラ座標系におけるどの点に対応するのかが求められる。なお、実際には、V2mに対応する、カメラ座標系の座標V2cが求められる。
図5は、マーカー座標系からカメラ座標系への変換行列Mと、変換行列M内の回転行列Rを示す。変換行列Mは、4×4の行列である。変換行列Mと、マーカー座標系の座標Vmに関する列ベクトル(Xm,Ym,Zm,1)との積により、カメラ座標系の対応する座標Vcに関する列ベクトル(Xc,Yc,Zc,1)が得られる。
すなわち、列ベクトル(Xm,Ym,Zm,1)に、モデル・ビュー変換対象となるマーカー座標系の点座標を代入して、行列演算を行なうことにより、カメラ座標系の点座標を含む列ベクトル(Xc,Yc,Zc,1)が得られる。
変換行列Mの1〜3行目且つ1〜3列の部分行列(回転行列R)がマーカー座標系の座標に作用することにより、マーカー座標系の向きとカメラ座標系との向きを合わせるための回転操作が行なわれる。変換行列Mの1〜3行目且つ4列目の部分行列が作用することにより、マーカー座標系の向きとカメラ座標系との位置を合わせるための並進操作が行なわれる。
図6は、回転行列R1、R2およびR3を示す。なお、図5に示す回転行列Rは、回転行列R1、R2およびR3の積(R1・R2・R3)により算出される。また、回転行列R1は、Xc軸に対するXm軸の回転を示す。回転行列R2は、Yc軸に対するYm軸の回転を示す。回転行列R3は、Zc軸に対するZm軸の回転を示す。
回転行列R1、R2およびR3は、撮像画像内の基準物の像に基づき、生成される。つまり、回転角P1c、Q1c、R1cは、先に述べたとおり、既知の形状を有する基準物が、処理対象となる撮像画像において、どのような像として撮像されているかに基づき、算出される。そして、回転角P1c、Q1c、R1cに基づき、各回転行列R1、R2およびR3は生成される。
以上のとおり、ARオブジェクトEを構成する各点のマーカー座標系の座標(Xm,Ym,Zm)は、変換行列Mに基づくモデル・ビュー変換により、カメラ座標系の座標(Xc,Yc,Zc)に変換される。モデル・ビュー変換により得られた座標(Xc,Yc,Zc)は、ARオブジェクトEが存在する仮想的な空間に、仮想的にカメラが存在するとした場合のカメラからの相対的な位置を示す。
つぎに、ARオブジェクトEの各点のカメラ座標系の座標は、スクリーン座標系に変換される。なお、カメラ座標系をスクリーン座標系へ変換することを、透視変換と称する。スクリーン座標系は、(Xs,Ys)の2次元で構成される。また、スクリーン座標系(Xs,Ys)は、例えばカメラの撮像処理により得られる撮像画像の中心を原点(原点Os)とする。透視変換により得られる各点のスクリーン座標系の座標に基づいて、ARオブジェクトEを撮像画像に重畳表示する為の像が生成される。
透視変換は、例えば、カメラの焦点距離fに基づいて行なわれる。カメラ座標系における座標(Xc,Yc,Zc)に対応するスクリーン座標系の座標のXs座標は、以下の式1で求められる。また、カメラ座標系における座標(Xc,Yc,Zc)に対応するスクリーン座標系の座標のYs座標は、以下の式2で求められる。
Xs=f・Xc/Zc (式1)
Ys=f・Yc/Zc (式2)
透視変換により得られる座標に基づいて、ARオブジェクトEの像が生成される。ARオブジェクトEは、ARオブジェクトEを構成する複数の点を補間して得られる面にテクスチャをマッピングすることにより生成される。ARオブジェクトEの元になるARテンプレートには、どの点を補間して面を形成するか、どの面にどのテクスチャをマッピングするかが定義される。
上述のモデル・ビュー変換および透視変換により、マーカー座標系の座標に対応する撮像画像上の座標が算出され、その座標を利用することで、カメラの視点に応じたARオブジェクトEの像が生成される。なお、生成されるARオブジェクトEの像は、ARオブジェクトEの投影画像と呼ばれる。ARオブジェクトEの投影画像が撮像画像に合成されることで、合成画像が生成される。そして、合成画像は、ユーザに提供される視覚的な情報を拡張する。
また、他の態様では、透過型ディスプレイにARオブジェクトEの投影画像が表示される。この態様においても、ユーザがディスプレイを透過して得られる現実空間の像と、ARオブジェクトEの投影画像とが整合するので、ユーザに提供される視覚的な情報が拡張される。
ここで、発明者は、画像における基準物の像を利用することで、基準物に対する撮像位置および撮像方向を推定可能であることに着目した。そして、発明者は、基準物と観察対象物との位置関係が不変である限り、AR技術を利用することで、観察対象の複数の画像を、特定の撮像条件にて撮像させることが可能であることに気が付いた。
そこで、本実施例にかかる技術は、予め指定された撮像位置および撮像方向(撮像条件)と、入力画像の撮像位置および撮像方向(撮像条件)との差分を把握可能な態様で、ガイドを実行する。よって、本実施例にかかる技術は、ガイドを受けるユーザを、予め指定された撮像位置および撮像方向へ、誘導する。なお、基準物に対する撮像位置および撮像方向は、観察対象物に対する撮像位置および撮像方向とみなすことができる。
図7Aおよび図7Bは、異なる撮像条件で撮像された画像を示す。なお、図7Aおよび図7Bは、図1Aおよび図1Bと同様の現実空間を撮像する撮像画像である。ただし、図1Aおよび図1Bとは異なり、AR技術を適用するためのマーカーが、配管に添付されている。
さらに、本実施例においては、カメラが一定のフレーム間隔で撮像する画像を撮像画像と称する。撮像画像は一時的に情報処理装置(後述)のバッファに記憶されるが、観察対象の経時変化を観察するための画像は、別途、保存用画像として、メモリに記憶される。
図7Aにおける画像300は、観察対象であるヒビ304の経時変化を観察する際の基準となる画像である。したがって、作業者は、画像300におけるヒビ304が拡大していないかを確認するために、他の画像と比較する。ここで、他の画像は、先に述べたとおり、画像300と同様の撮像条件にて撮像されることが好ましい。なお、画像300は、配管302、ヒビ304、マーカー306を含む。
次に、図7Bにおける画像308は、観察対象であるヒビ312を含む画像であるが、画像300と比較するための画像としては適切ではない。なぜなら、画像300におけるマーカー306の像と、画像308におけるマーカー314の像とが、異なる大きさおよび異なる位置に存在するため、画像308は、画像300と異なる撮像位置で撮像されたことが推測されるためである。なお、撮像方向も異なる場合には、マーカー306の像の形状とマーカー308の像の形状も異なることとなる。
そこで、本実施例に開示の技術は、基準となる画像300の撮像条件と一致する撮像条件で撮像するように、作業者を誘導する。ただし、本実施例における「一致」とは、完全一致ではなく、略一致も含む。つまり、観察対象の経時変化を観察する人間が、比較する複数の画像が同一の撮像条件下で撮像された画像であると認識できる程度であればよい。
[第一の実施例]
まず、第一の実施例に係る詳細な処理および情報処理装置等の構成について説明する。図8は、第一の実施例にかかるシステム構成図である。システムは、通信端末1−1および通信端末1−2、管理装置2を含む。なお、以下、通信端末1−1および通信端末1−2を総称して、情報処理装置1とする。
情報処理装置1は、例えば、カメラを有する、タブレットPCやスマートフォンなどのコンピュータである。たとえば、情報処理装置1は、点検作業を行う作業者により携帯される。情報処理装置1は、合成画像を生成するとともに、撮像条件のガイドを実行する。さらに、情報処理装置1は、ネットワークNを介して、管理装置2と通信する。管理装置2は、例えば、サーバコンピュータであって、複数の情報処理装置1を管理する。ネットワークNは、例えば、インターネットである。
まず、情報処理装置1は、撮像画像内に基準物を認識した場合、認識した基準物を識別する識別情報(たとえば、マーカーID)を、管理装置2へ送信する。管理装置2は、情報処理装置1から識別情報を受信すると、当該識別情報に対応する撮像条件情報を情報処理装置1に提供する。なお、撮像条件情報は、基準となる撮像位置や撮像方向を示す情報である。
情報処理装置1は、撮像画像から認識した基準物の像に基づき、撮像条件を推定するとともに、推定された撮像条件と基準となる撮像条件との差分を作業者が把握できるように、ガイドを実行する。
例えば、情報処理装置1は、推定された撮像位置と基準となる撮像位置との差分を求め、差分を埋める方向への移動を促す矢印を、ガイドとして、撮像画像上に表示する。作業者がガイド表示に従って撮像位置を変更することで、新たな撮像位置と基準となる撮像位置とが略一致した場合、情報処理装置1は、略一致した時点の撮像画像を保存用画像として取得する。また、略一致した場合に、情報処理装置1は、現在の撮像位置で撮像決定入力を行うように、作業者に指示する。たとえば、情報処理装置1は、シャッターボタンの押下を指示する。
そして、情報処理装置1は、取得した保存用画像および取得した日時を、管理装置2へ送信する。管理装置2は、情報処理装置1から受信した保存用画像とともに保存する。
また、本実施例においては、管理装置2は、撮像条件情報とともに、合成画像を生成するために必要な情報(コンテンツ情報、およびテンプレート情報)を、情報処理装置1に提供する。詳細については、後述する。情報処理装置1は、先に述べた方法で合成画像を生成するとともに、ディスプレイに表示する。すると、作業者は、ARコンテンツ(たとえば、図4のオブジェクトEが投影された投影画像)を閲覧して、ヒビの存在位置を把握することができる。なお、「ヒビを撮像」という作業内容を示すメッセージを含むARコンテンツが、さらに表示されるようにしてもよい。
なお、撮像条件情報、コンテンツ情報、およびテンプレート情報等が管理装置2から情報処理装置1に提供されるタイミングは、情報処理装置1において基準物が認識された後に限られない。たとえば、複数の基準物にかかわる撮像条件情報等が、基準物の認識前に、管理装置2から情報処理装置1に提供されてもよい。
次に、情報処理装置1の機能的構成について説明する。図9は、第一の実施例にかかる情報処理装置の機能ブロック図である。情報処理装置1は、通信部11、撮像部12、表示部13、記憶部14、制御部15を含む。
通信部11は、他のコンピュータと通信を行う。例えば、通信部11は、管理装置2から撮像条件情報やコンテンツ情報、テンプレート情報を受信する。また、通信部11は、保存用画像が保存されたのちには、当該保存用画像を管理装置2へ送信する。
撮像部12は、一定のフレーム間隔で画像を撮像する。上記カメラは、撮像部12に相当する。そして、撮像部12は、撮像した画像を、制御部15へ入力する。表示部13は、画像を表示する。たとえば、表示部13は、ARオブジェクトの投影画像を含む合成画像や、ガイド表示を含む合成画像を表示する。
記憶部14は、制御部15の制御の下、各種情報を記憶する。記憶部14は、コンテンツ情報、テンプレート情報、撮像条件情報等を記憶する。さらに、記憶部14は、制御部15の制御の下、保存用画像を記憶する。
制御部15は、情報処理装置1全体の各種処理を制御する。なお、制御部15は、認識部16、ガイド実行部17、画像生成部18を含む。認識部16は、入力画像から基準物を認識する。本実施例においては、認識部16は、マーカーを認識する。例えば、認識部16は、マーカーの形状を既定した認識用テンプレートを用い、テンプレートマッチングを行うことでマーカーを認識する。
さらに、認識部16は、基準物を識別する識別情報を取得する。例えば、マーカーIDが取得される。マーカーIDの読みとりは、例えば、マーカーに該当する画像領域内の輝度情報に基づいて行なわれる。例えば、マーカーが四角形状である場合、認識部16は、マーカーとして認識された四角形の画像領域を分割した各領域について、輝度が所定値以上の領域を「1」とし、輝度が所定値未満の領域を「0」として、各領域を所定の順序で、「1」または「0」のいずれであるかを判定し、判定して得られた情報の列をマーカーIDとする。
また、例えば、輝度が所定値以上の領域と所定値未満の領域の四角形枠内での配置をパターン化しておき、認識部16は、パターンに対応するマーカーIDを用いることとしてもよい。さらに、マーカーIDとして採用される数値範囲が予め定められており、読みとったマーカーIDがその数値範囲内でない場合には、マーカーIDが読みとれなかったと判定することとしてもよい。
つぎに、認識部16は、基準物の像に基づいて、基準物の位置座標および回転座標を算出する。なお、基準物の位置座標および回転座標は、カメラ座標系での値である。さらに、認識部16は、基準物の位置座標および回転座標に基づき、変換行列Mを生成する。詳細は、すでに説明したとおりである。
ガイド実行部17は、入力画像における基準物の像に基づき推定される第一の撮像条件と、予め指定された第二の撮像条件との差分を把握可能なガイド情報を生成する。たとえば、ガイド実行部17は、入力画像における基準物の像に基づき、入力画像の撮像位置を推定する。そして、ガイド実行部17は、撮像条件情報にて設定されている適切な撮像位置と、入力画像の撮像位置との差分を演算する。そして、ガイド実行部17は、当該差分を埋める方向を示す矢印を描画するためのガイド情報を生成する。なお、差分の大きさに応じて、矢印の長さ等が調整されてもよい。
ここで、撮像条件の一つである撮像位置を推定する方法について説明する。第一の方法としては、認識部16により算出される基準物の位置(Xc1,Yc1,Zc1)が利用される。なお、基準物の位置(Xc1,Yc1,Zc1)は、カメラの焦点を原点とするカメラ座標系における基準物の位置である。
図3に示す通り、カメラ座標系における基準物の位置が(Xc1,Yc1,Zc1)である場合、基準物の中心を原点とするマーカー座標系においては、カメラの焦点の位置は、逆に、(−Xc1,−Yc1,−Zc1)となる。つまり、ガイド実行部17は、(−Xc1,−Yc1,−Zc1)をマーカー座標系における撮像位置(カメラの焦点の位置)と推定することができる。
第二の方法としては、認識部16が生成した変換行列Mが利用される。具体的には、ガイド実行部17は、マーカー座標系からカメラ座標系への変換行列Mの逆行列M−1と、列ベクトルAc(Xc,Yc,Zc,1)との積により、列ベクトルAm(Xm,Ym,Zm,1)を求める。具体的には、ガイド実行部17は、は、以下の式3により、列ベクトルAm(Xm,Ym,Zm,1)を求める。
Figure 0006264834
なお、撮像位置は、カメラ座標系の原点と略一致すると考えると、撮像位置は(0,0,0)である。よって、Acに列ベクトル(0,0,0,1)を代入する事で、ガイド実行部17は、式3により、カメラ座標系の原点が、マーカー座標系のどの点に対応するのかを求めることができる。つまり、ガイド実行部17は、マーカー座標系における撮像位置を推定することができる。
次に、撮像条件の一つである撮像方向について説明する。ガイド実行部17は、認識部16により算出される基準物の回転座標(P1c,Q1c,R1c)に基づき、入力画像の撮像方向を、(−P1c,−Q1c,−R1c)と推定することができる。
以上のように、ガイド実行部17は、入力画像の撮像条件を推定することができる。以下、入力画像の撮像位置を(Xcm,Ycm,Zcm)とする。たとえば、(Xcm,Ycm,Zcm)は、(−Xc1,−Yc1,−Zc1)である。また、撮像条件情報に含まれる撮像位置を、(Xcon,Ycon,Zcon)とする。また、入力画像の撮像方向を(Pcm,Qcm,Rcm)とする。たとえば、(Pcm,Qcm,Rcm)は、(−Pc1,−Qc1,−Rc1)である。また、撮像条件情報に含まれる撮像方向を、(Pcon,Qcon,Rcon)とする。
次に、ガイド実行部17は、入力画像の撮像条件と、撮像条件情報に含まれる撮像条件との差分を算出する。なお、撮像条件として撮像位置および撮像方向のいずれかのみが採用される場合は、撮像位置または撮像方向のいずれかについてのみ、差分が算出される。
たとえば、ガイド実行部17は、マーカー座標系の各座標値について、差分(Xcon−Xcm,Ycon−Ycm,Zcon−Zcm)を演算する。X軸の差分の値が正の値である場合には、ガイド実行部17は、情報処理装置1が有する表示部13(ディスプレイ)と平行な面に対して、左方向を示す矢印を生成する。また、X軸の差分の値が負の値である場合には、ガイド実行部17は、右方向を示す矢印を生成する。
Y軸の差分の値が正の値である場合には、ガイド実行部17は、情報処理装置1が有する表示部13(ディスプレイ)と平行な面に対して、上方向を示す矢印を生成する。Y軸の差分の値が負の値である場合には、ガイド実行部17は、下方向を示す矢印を生成する。
Z軸の差分の値が正の値である場合には、ガイド実行部17は、情報処理装置1が有する表示部13(ディスプレイ)と垂直な面に対して、手前方向を示す矢印を生成する。Z軸の差分の値が負の値である場合には、ガイド実行部17は、奥方向を示す矢印を生成する。
さらに、ガイド実行部17は、矢印の代わりに、ガイド情報として、撮像条件の変更を促す音声を生成してもよい。たとえば、X軸の差分の値が正の値である場合には、ガイド実行部17は、「左へ移動してください」という音声を生成する。この場合、生成されたガイド情報は、たとえば、スピーカーのような音声出力部(図示せず)から出力される。
さらに、ガイド実行部17は、撮像方向に関しても、各回転軸に関して、入力画像の回転座標(Pcm,Qcm,Rcm)と、撮像条件情報において設定された適切な回転座標(Pcon,Qcon,Rcon)との差分を演算する。そして、ガイド実行部17は、回転座標の差分に応じて、情報処理装置の回転を促すガイド情報を生成する。たとえば、P1cがXc軸回りの回転角を示すため、Pcon−Pcmの値が正である場合には、カメラの撮像素子面と平行な面と構成する縦軸に関して、反時計回りに、情報処理装置1を回転させるようなガイド情報を生成する。
さらに、ガイド実行部17は、差分が閾値以下となった場合に、保存用画像を取得する。たとえば、差分が閾値以下となったときの入力画像を、保存用画像として、記憶部14へ保存する。さらに、表示部13を介して、ガイド実行部17は、観察対象の撮像が終了した旨のメッセージを作業者へ出力してもよい。
または、ガイド実行部17は、差分が閾値以下となった場合に、表示部13を介して、当該撮像位置にて、観察対象を撮像するために決定ボタンを押下するように、作業者へ要求してもよい。そして、ガイド実行部17は、撮像部12から画像を取得し、保存用画像として、記憶部14へ保存する。
ガイド実行部17は、保存用画像の画像データと、撮像日時を対応付けて、記憶部14へ記憶する。さらに、ガイド実行部17は、マーカーIDや、当該保存用画像の撮像条件を示す情報も、記憶部14へ記憶してもよい。
次に、画像生成部18は、表示部13に表示する画像を生成する。たとえば、画像生成部18は、ARコンテンツを撮像画像に重畳表示した合成画像を生成する。なお、合成画像は、認識部16が出力する変換行列Mおよび、通信部11が管理装置2から取得したコンテンツ情報およびテンプレート情報に基づき、生成される。
また、画像生成部18は、ガイド実行部17により生成されたガイド情報に基づき、ガイド情報を表示する画像を生成する。たとえば、画像生成部18は、撮像画像に、ガイド表示を合成する。なお、画像生成部18は、ARオブジェクトの投影画像を含む合成画像に、ガイド表示を合成してもよい。
次に、記憶部14が記憶する各種情報について説明する。管理装置2から、テンプレート情報、コンテンツ情報、撮像条件情報が、情報処理装置1に提供されるものとする。そして、提供された各種情報が、記憶部14に記憶される。
図10は、テンプレート情報テーブルを示す。テンプレート情報テーブルは、ARオブジェクトのモデルデータとして適用される各テンプレートを定義するためのテンプレート情報を格納する。テンプレート情報は、テンプレートの識別情報(テンプレートID)、テンプレートを構成する各頂点の座標情報T21、およびテンプレートを構成する各面の構成情報T22(頂点順序およびテクスチャIDの指定)を含む。
頂点順序は、面を構成する頂点の順序を示す。テクスチャIDは、面にマッピングされるテクスチャの識別情報を示す。テンプレートの基準点は例えば0番目の頂点である。テンプレート情報テーブルに示される情報により、3次元モデルの形状および模様が定められる。
図11は、コンテンツ情報テーブルを示す。コンテンツ情報テーブルは、ARコンテンツに関するコンテンツ情報を格納する。コンテンツ情報テーブルには、ARコンテンツのコンテンツID、マーカー座標系における基準点の位置座標(Xm,Ym,Zm)、マーカー座標系における回転座標(Pm,Qm,Rm)、ARテンプレートを基準とする倍率D(Jx,Jy,Jz)、ARテンプレートのテンプレートID、マーカーIDおよび追加情報が格納される。
画像生成部18がARオブジェクトEの投影画像を生成する際には、図10に示されるARテンプレートが、コンテンツ情報(位置、向きおよびサイズ)に基づいて調整される。すなわちARオブジェクトEの位置・姿勢・サイズの指定は、コンテンツ情報テーブルで管理される情報の設定により行なわれる。また、追加情報は、ARオブジェクトEに追加される情報である。追加情報として、テキストや、Webページやファイルへのアクセス情報などが用いられる。
例えば、図11に示されたコンテンツIDが「C1」のARコンテンツは、ARテンプレート「T1」に定義される各頂点座標が、Xm、Ym、Zm方向のそれぞれに拡縮され、回転座標(Pm1,Qm1,Rm1)で回転され、位置座標(Xm1、Ym1、Zm1)に応じて並進されて得られる各頂点により構成される。ARコンテンツは、さらにARオブジェクトEを構成する面に追加情報のマッピングを行なう。
次に、図12は、撮像条件情報テーブルを示す。撮像条件情報テーブルは、観察対象を撮像する際の基準となる撮像条件に関する撮像条件情報を格納する。撮像条件情報テーブルには、マーカーID、撮像位置に関する撮像条件(Xcon,Ycon,Zcon)、撮像方向に関する撮像条件(Pcon,Qcon,Rcon)が格納される。
撮像条件は、あらかじめ管理者が設定した情報であってもよいし、観察対象が初めて撮像された画像の撮像位置や撮像方向であってもよい。たとえば、図7Aに示すように、作業者が、ヒビ304の存在に気が付き、画像300を撮像したとする。このとき、画像300におけるマーカー306(基準物)の像に基づき、基準とする撮像条件が生成される。なお、撮像条件は、ガイド実行部17が入力画像の撮像位置を推定する際の算出方法と同様の方法で、生成される。
次に、保存用画像を格納する保存用画像テーブルについて説明する。図13は、保存用画像テーブルを示す。保存用画像テーブルは、マーカーID、画像データ、撮像日時、保存用画像が撮像された撮像条件を対応付けて格納する。図13の例では、撮像条件として、撮像位置および撮像方向が記憶される。なお、画像データは、画像データそのものではなく、画像データが格納された場所を示す情報であってもよい。
次に、第一の実施例にかかる管理装置2の機能的構成について説明する。図14は、管理装置の機能ブロック図である。管理装置2は、通信部21、制御部22、記憶部23を有する。通信部21は、他のコンピュータと通信する処理部である。たとえば、通信部21は、情報処理装置1と通信を行う。
制御部22は、管理装置2全体の各種処理を制御する処理部である。たとえば、制御部22は、情報処理装置1からの要求に応じて、記憶部23からコンテンツ情報や、テンプレート情報、撮像条件情報を読み出す。なお、要求には、情報処理装置1が認識した基準物の識別情報(マーカーID)が含まれる。具体的には、制御部22は、識別情報に対応するコンテンツ情報および撮像条件情報を、記憶部23から読み出す。また、コンテンツに適用されるテンプレートのテンプレート情報も併せて読み出される。
そして、制御部22は、通信部21を制御して、読み出した各種情報を、情報処理装置1へ送信する。また、通信部21を介して、情報処理装置1から保存用画像を受信した場合、制御部22は、記憶部23に、保存用画像を記憶する。
記憶部23は、各種情報を記憶する。たとえば、記憶部23は、図10と同様のテンプレート情報テーブルによって、テンプレート情報を記憶する。また、記憶部23は、図11と同様のコンテンツ情報テーブルによって、コンテンツ情報を記憶する。さらに、記憶部23は、図12と同様の撮像条件情報テーブルによって、撮像条件情報を記憶する。また、記憶部23は、図13と同様の保存用画像テーブルによって、保存用画像を記憶する。
次に、ガイドプログラムにより実行されるガイド処理の流れについて説明する。図15は、ガイド処理のフローチャートを示す。ガイドプログラムは、情報処理装置1の制御部15により実行されるガイド処理の手順が定義されたプログラムである。
なお、制御部15は、ガイド処理の実行に先駆けて、前処理を行なう。前処理においては、テンプレート情報や、コンテンツ情報、撮像条件情報が管理装置2から取得される。また、AR表示モードの起動指示が行われる。制御部15は、例えば撮像部12に所定時間間隔での撮像を開始させ、撮像された画像について認識部16にマーカー検知処理を開始させる。さらに、制御部15は、表示部13に、撮像部12により撮像された撮像画像を表示させる。
撮像部12は、制御部15から撮像を指示されると、撮像素子により生成される画像を所定の時間間隔で取得し、取得した画像を記憶部14に記憶する。記憶部14には、複数枚の画像を格納するバッファが設けられ、撮像部12により撮像された画像は、そのバッファに格納される。例えば、記憶部14に設けられるバッファは、表示部13が表示させる画像が格納される表示用バッファである。表示用バッファに格納される画像は、順次、表示部13に表示される。
認識部16は、記憶部14に設けられたバッファに格納された画像を取得する(Op.1)。なお、ここで取得された画像が、入力画像となる。認識部16は、入力画像から、マーカーを認識したか判定する(Op.3)。例えば、認識部16は、マーカーの形状を既定したテンプレートを用い、テンプレートマッチングを行うことでマーカーを認識する。
また、マーカーの認識(Op.3)においては、認識部16は、マーカーのマーカーIDの読みとりを行なう。また、認識部16は、入力画像におけるマーカーの像に基づき、カメラ座標系における基準物の位置(Xc1,Yc1,Zc1)、基準物の回転座標(P1c,Q1c,R1c)を算出する。また、認識部16は、基準物の位置(Xc1,Yc1,Zc1)、基準物の回転座標(P1c,Q1c,R1c)に基づき、変換行列Mを生成する。
マーカーが認識されない場合は(Op.3No)、認識部16は、Op.1に戻る。一方、マーカーが認識された場合には(Op.3Yes)、認識部16は、認識したマーカーのマーカーIDをガイド実行部17へ出力し、ガイド実行部17は、観察対象の有無を判定する(Op.5)。つまり、ガイド実行部17は、撮像条件情報テーブルを参照し、取得したマーカーIDに対応する撮像条件が格納されているかを判定する。格納されている場合には、入力画像から認識したマーカーに紐づいた観察対象が存在することが判定される。
観察対象がない場合は(Op.5No)、画像生成部18は、コンテンツ情報、テンプレート情報、変換行列Mを用いて、入力画像に対してARコンテンツの投影画像を重畳させた合成画像を生成する(Op.7)。そして、表示部13は、合成画像を表示する(Op.9)。そして、処理を終了する。
ここで、観察対象がない場合に(Op.5No)、ガイド実行部17は、観察対象の追加を実行するか否かを判定してもよい。たとえば、ユーザが新たにヒビを発見した場合に、ヒビを、観察対象として追加する旨の入力を実行する。ガイド実行部17は、認識部16による出力を用いて、撮像条件を生成する。なお、生成された撮像条件は、マーカーIDとともに管理装置2へ送信され、管理される。
一方、観察対象が存在する場合には(Op.5Yes)、ガイド実行部17は、認識部16から取得したカメラ座標系における基準物の位置(Xc1,Yc1,Zc1)および回転座標(P1c,Q1c,R1c)を用いて、撮像位置および撮像方向を算出する(Op.11)。たとえば、ガイド実行部17は、カメラ座標系における基準物の位置(Xc1,Yc1,Zc1)に基づき、入力画像の撮像位置(Xcm,Ycm,Zcm)として、(−Xc1,−Yc1,−Zc1)を算出する。
そして、ガイド実行部17は、基準となる撮像条件と、算出した撮像条件とが一致するか比較する(Op.13)。ここで、一致とは完全一致であってもよいし、略一致であってもよい。一致するか否かの判定閾値は、人間の目視の精度を考慮した値が設定される。
基準となる撮像条件と、算出した撮像条件とが一致しない場合には(Op.13No)、ガイド実行部17は、ガイド情報を生成する(Op.15)。たとえば、ガイド情報は、撮像条件に含まれる撮像位置と、算出した撮像位置との差分を埋める方向への移動を促す矢印を描画するための情報である。
次に、画像生成部18は、コンテンツ情報、テンプレート情報、変換行列Mを用いて、合成画像を生成するとともに、ガイド情報に基づき、合成画像上にガイド表示を描画する(Op.17)。なお、ガイド情報の描画位置は任意である。たとえば、合成画像の中央付近等にガイド表示が行われる。
そして、ガイド表示を含む合成画像を、表示部13が表示する(Op.19)。その後、制御部15は、は、処理を終了するか判定する(Op.21)。例えば、ユーザにより、処理終了の入力が行われた場合には、処理の終了が判定される。処理を終了する場合には(Op.21Yes)、そのまま一連のガイド処理を終了する。一方、処理を終了しない場合には(Op.21No)、Op.1に戻る。
また、Op.13において、基準となる撮像条件と、算出した撮像条件とが一致した場合には(Op.13Yes)、ガイド実行部17は、Op.1で取得した入力画像を、保存用画像として保存する(Op.25)。なお、ガイド実行部17は、別途、作業者に撮像操作を実行させたのちに、新たな画像を保存用画像として保存してもよい。
そして、制御部15は、通信部11を介して、保存用画像を、管理装置2へ送信する(Op.27)。なお、送信処理は、他のタイミングで実行されてもよい。たとえば、通信部11は、一連の業務が終了した旨の入力を作業者から受け付けた場合、一連の業務の中で保存されたすべての保存用画像を、管理装置2へ送信してもよい。なお、保存用画像とともに、図13に示した保存用画像テーブルに記憶された各種情報も併せて、管理装置2へ送信される。
図16は、ガイド表示を含む合成画像の例である。ガイド表示を含む合成画像400は、配管402、ヒビ404、マーカー406、ARオブジェクトE、ガイド表示408、ガイド表示410を含む。図16の例では、作業者に対して「左」および「後」への移動を示すガイド表示がなされている。
図16は、基準となる撮像条件と、算出した撮像条件との差分が、Xの値が正の値であって、Zの値が正の値である場合のガイド表示の例である。ユーザは、ガイド表示にしたがって、情報処理装置1が基準となる撮影位置と実際の撮影位置とが一致したと判定するまで、左および後ろへの移動を行うことで、基準となる撮像位置と一致する位置で保存用画像を撮像することができる。
以上のように、本実施例における情報処理装置1は、AR技術における基準物相対の撮像位置や撮像方向を用いることで、基準物との位置関係が不変である観察対象を撮像する複数の画像について、撮像位置や撮像方向を推定することができる。そして、情報処理装置1は、撮像位置や撮像方向について、基準と現在の差分を示すガイドを実行することで、作業者に、観察対象を撮像する複数の画像を、ほぼ同一の撮像条件にて撮像させることができる。ひいては、管理装置2は、情報処理装置1から、ほぼ同一の撮像条件にて撮像された保存用画像を収集することができる。したがって、観察対象の経時変化を、人間の目であっても容易に比較することができる。
[第二の実施例]
第一の実施例においては、マーカーの像からマーカー座標系における撮像条件を推定し、ガイドを実行する情報処理装置1を示した。第二の実施例においては、画像における基準物の像の領域から撮像条件を推定し、ガイドを実行する情報処理装置3について説明する。
なお、第二の実施例は、第一の実施例と同様に、基準物と観察対象との位置関係が不変であって、基準物と観察対象がひとつの画像内に撮像されることを前提とする。第二の実施例は、同一の撮像条件で第一の画像と第二の画像が撮像される場合には、第一の画像における基準物の像と、第二の画像における基準物の像とは同じ大きさおよび同じ形状となることに着目する。
情報処理装置3は、基準となる画像から基準物の領域を抽出し、抽出した領域の情報を撮像条件として利用する。なお、基準となる画像は、基準物および観察対象が含まれる。そして、新たに観察対象が撮像される際には、基準となる画像における基準物の領域を示すガイド表示が表示される。たとえば、ガイド表示は、基準物を当てはめる枠である。作業者は、当該枠に、基準物が当てはまる位置に移動し、観察対象を撮像する。
図17Aおよび図17Bは、第二の実施例にかかるガイド表示を説明するための図である。図17Aは、基準となる画像500を示す。情報処理装置3は、画像500におけるマーカー506(基準物)の像の領域を用いて、撮像条件を生成する。なお、画像500には、観察対象であるヒビ504、配管502も含まれる。
情報処理装置3は、画像500から認識したマーカー506の像の領域を、ヒビ504の撮像条件として利用する。なお、先に説明したとおり、マーカー506の像の領域は、ヒビ504の撮像位置および撮像方向を推定可能な情報である。
図17Bは、ガイド表示516を含む合成画像508を示す。なお、合成画像508には、撮像時点でのマーカー514の像、配管510、ヒビ512が含まれる。ガイド表示516は、基準となる画像500におけるマーカー506の像の領域を示す。作業者が、ガイド表示516を参照しながら、マーカー514をガイド表示516に当てはめるように、移動することで、画像500と同様の撮像条件で画像を撮像することができる。
第二の実施例にかかるシステムは、情報処理装置3と管理装置2とを含む。次に、第二の実施例にかかる情報処理装置3の機能的構成について説明する。図18は、第二の実施例にかかる情報処理装置の機能ブロック図である。なお、第一の実施例にかかる情報処理装置1と同様の処理を行う処理部については、同一の符号を付すとともに、説明を省略する。
情報処置装置3は、通信部11、撮像部12、表示部13、記憶部31、制御部32を含む。さらに、制御部25は、認識部33、条件生成部34、ガイド実行部35、画像生成部36を含む。
認識部33は、認識部16と同様の方法で、入力画像から基準物を認識するとともに、基準物を識別する識別情報を取得する。さらに、認識部33は、認識部16と同様に、変換行列Mを生成する。また、認識部33は、入力画像における基準物の領域情報を生成する。たとえば、領域情報として、基準物の特徴点に相当する画素の位置を取得する。
条件生成部34は、基準となる画像の撮像条件を生成する。たとえば、作業者により新たな観察対象の追加が命令された場合、条件生成部34は、基準となる画像における領域情報を認識部33から取得する。そして、条件生成部34は、領域情報と、マーカーIDとを対応付けて、撮像条件情報を生成する。なお、生成された撮像条件情報は、通信部11を介して、管理装置2へ送信される。
次に、ガイド実行部35は、ガイド実行部17と同様に、入力画像における基準物の像に基づき推定される第一の撮像位置と、予め指定された第二の撮像位置との差分を把握可能なガイド情報を生成する。ただし、ガイド実行部27は、基準となる画像における基準物の領域情報を表示するためのガイド情報を生成する。
画像生成部36は、画像生成部18と同様に、合成画像を生成する。また、画像生成部36は、ガイド情報に基づき、基準物を当てはめるべき枠を、入力画像上に描画する。
記憶部31は、第一の実施例と同様に、テンプレート情報テーブル、コンテンツ情報テーブル、撮像条件情報テーブル、保存用画像テーブルを有する。ただし、撮像条件情報テーブルのデータ構成が、第一の実施例とは異なる。
図19は、第二の実施例における撮像条件情報テーブルを示す。第二の実施例においては、撮像条件情報として、基準物であるマーカーの領域を示す領域情報が、マーカーIDと対応付けて格納される。
領域情報は、たとえば、基準物を構成する複数の特徴点に相当する画素の位置を示す情報である。マーカーMのように正方形の基準物が採用される場合、図19に示すように、マーカーの4つの角に相当する画素が特徴点とされる。そして、各特徴点の位置が、第一の特徴点位置、第二の特徴点位置、第三の特徴点位置、および第四の特徴点位置として、撮像条件情報テーブルに格納される。ここで、各特徴点の位置として格納される座標値は、いずれの座標系による値であってもよい。ただし、スクリーン座標系の座標値が採用されている場合には、座標変換することなく、ガイド表示の枠を描画することができる。
また、第二の実施例にかかる管理装置2の記憶部23にも、図19と同様のデータ構成の撮像条件情報テーブルが保持される。
次に、第二の実施例に関する各種処理の流れについて説明する。図20は、第二の実施例にかかる、ガイド処理のフローチャートを示す。ガイドプログラムは、制御部32により実行されるガイド処理の手順が定義されたプログラムである。なお、制御部32は、本ガイド処理に先駆けて、前処理を行なう。前処理は、第一の実施例と同様の処理である。
認識部33は、記憶部31に設けられたバッファに格納された画像を取得する(Op.31)。なお、ここで取得された画像が、入力画像となる。認識部33は、入力画像から、マーカーを認識したか判定する(Op.33)。また、認識部33は、Op.3と同様に、マーカーIDを読み取る。さらに、認識部33は、Op.3と同様に、位置座標(Xc1,Yc1,Zc1)および回転座標(P1c,Q1c,R1c)を算出し、変換行列Mを生成する。また、認識部33は、入力画像における、基準物の像の領域情報を生成する。
マーカーが認識されない場合は(Op.33No)、認識部33は、Op.31に戻る。一方、マーカーが認識された場合には(Op.33Yes)、認識部33はマーカーIDをガイド実行部35へ出力し、ガイド実行部35は、観察対象の有無を判定する(Op.35)。
観察対象がない場合は(Op.35No)、画像生成部36は、コンテンツ情報、テンプレート情報、変換行列Mを用いて、合成画像を生成する(Op.37)。そして、表示部13は、合成画像を表示する(Op.39)。そして、処理を終了する。ここで、第一の実施例と同様に、観察対象がない場合に、ガイド実行部35は、新たな観察対象の追加を実行するかを判定してもよい。
一方、観察対象が存在する場合には(Op.35Yes)、ガイド実行部35は、記憶部31から、認識したマーカーIDに対応する撮像条件情報を取得する(Op.41)。撮像条件情報は、図19に示すように、基準となる画像における基準物の領域情報である。
次に、画像生成部36は、コンテンツ情報、テンプレート情報、変換行列Mを用いて、入力画像に対してARコンテンツを投影した合成画像を生成するとともに、ガイド実行部35から出力された撮像条件情報に基づきガイド表示を描画する(Op.43)。
そして、ガイド表示を含む合成画像を、表示部13が表示する(Op.45)。次に、ガイド実行部35は、ユーザから画像を保存する旨の決定入力を受け付けたか否かを判定する(Op.47)。ユーザは、ガイド表示に、現在入力されている画像における基準物が略一致した場合に、当該入力画像を保存用画像とする旨の決定入力を実行する。なお、決定入力用のボタンが、Op.45にて表示される合成画像上に設けられてもよい。
決定入力を受け付けない場合(Op.47No)、制御部32は、処理を終了するか判定する(Op.49)。例えば、ユーザにより、処理終了の入力が行われた場合には(Op.49Yes)、処理の終了が判定される。処理を終了する場合には、そのまま一連のガイド処理を終了する。一方、処理を終了しない場合には(Op.49No)、Op.31に戻る。
Op.47において、決定入力を受け付けた場合には(Op.47Yes)、ガイド実行部35は、Op.31で取得した入力画像を、保存用画像として保存する(Op.53)。そして、制御部32は、通信部11を介して、保存用画像を、管理装置2へ送信する(Op.55)。そして、一連の処理を終了する。
なお、Op.47において、ガイド実行部35は、ユーザからの入力に基づき、決定入力の有無を判定することとしたが、第一の実施例と同様に、ガイド表示として表示される基準物の領域情報と、入力画像における基準物の領域情報とが一致した場合に、保存用画像を保存することとしてもよい。
具体的には、ガイド実行部35は、撮像条件として規定された基準物の領域情報と、入力画像における基準物の領域情報とを比較する。ガイド実行部35は、マーカーMの複数の特徴点各々につき、位置が略一致するかを判定する。たとえば、4つすべての特徴点について略一致が判定された場合に、ガイド実行部35は、入力画像を保存用画像として、記憶部31に保存する。
以上のように、第二の実施例にかかる情報処理装置3は、基準画像における基準物の領域情報を、保存用画像の撮像位置および撮像方向を示す情報として、表示する。作業者は、基準画像における基準物の領域情報に基づき、撮像位置や撮像方向を調整することで、情報処理装置3は、基準画像と同様の撮像条件で撮像された画像を保存することができる。
[変型例1]
第一の実施例および第二の実施例の変型例として、一つの基準物に対して複数の撮像条件情報が対応付けられていてもよい。たとえば、点検業務と保守管理業務とにおいて、ある基準物とともに撮像されるべき観察対象が異なる場合がある。よって、変型例1は、業務種別ごとに、異なる撮像条件情報を管理する。なお、業務種別を識別する情報として、シナリオIDが利用される。
はじめに、作業者が、あらかじめ自身が実行する業務内容を識別するシナリオIDを入力することで、基準物の識別情報(マーカーID)およびシナリオIDに応じた撮像条件情報が一意に特定される。なお、管理装置2は、情報処理装置1または情報処理装置3から、撮像条件情報の要求を受け付ける際、マーカーIDとともにシナリオIDを取得する構成としてもよいし、予めシナリオIDの指定を受け付ける構成としてもよい。
また、点検業務の中でも、点検業務Aと点検業務Bとの間で、ある基準物とともに撮像されるべき観察対象が異なる場合がある。変型例1は、さらに、同一の業務種別であっても、具体的な作業内容に応じて、撮像条件情報を管理する。なお、作業内容を識別する情報として、シーンIDが利用される。作業者はシナリオIDを選択した後に、さらにシーンIDを選択することで、業務内容および作業内容に対応する撮像条件情報が一意に特定される。
以上のように、変型例1は、シナリオおよびシーンを利用して、ある基準物に対して、複数の撮像条件を設定することができる。よって、シナリオおよびシーンごとに、基準物を設置することなく、一つの基準物に対して、複数の撮像条件を設定し、基準物の設置負荷を低減することができる。
図21は、変型例1における撮像条件情報テーブルを示す。なお、図21の例は、第一の実施例にかかる撮像条件情報テーブルに変型例1を適用した場合を示す。撮像条件情報テーブルは、マーカーID、シナリオID、シーンID、撮像条件を対応付けて記憶する。なお、撮像条件は、撮像位置と撮像方向である。変型例にかかる情報処理装置1は、マーカーID「M1」に対する撮像条件を、シナリオIDおよびシーンIDに応じて、切り替えることができる。なお、シナリオIDおよびシーンIDのいずれかのみが設定される態様であってもよい。
[変型例2]
管理装置2がガイド処理を実行してもよい。管理装置2の制御部22は、たとえば、図15に示す、Op.1、Op.3、Op.5、Op.7、Op.9、Op.11、Op.13、Op.15、Op.17、Op.19、Op.21.Op.25を実行する。なお、Op.9およびOp.19においては、合成画像が情報処理装置1に送信され、情報処理装置1にて表示される。Op.1および.21においては、情報処理装置1から入力画像が受信される。同様に、第二の実施例にかかるガイド処理が、管理装置の制御部22によって実行されてもよい。
変型例2においては、テンプレート情報、コンテンツ情報、撮像条件情報は、情報処理装置1へ提供されなくともよい。情報処理装置1または情報処理装置3は、画像の撮像および画像の表示を行うのみであるため、処理負荷が軽減される。
[変型例3]
第一の実施例にかかる情報処理装置1は、さらに、マーカーに対する撮像位置や撮像方向をログ情報とて記録し、ユーザの移動軌跡を生成してもよい。具体的には、情報処理装置は、基準物を認識するとともに、第一の実施例と同様の方法で、基準物相対の撮像位置および撮像方向を求める。そして、情報処理装置1は、認識した基準物の識別情報(マーカーID)と、撮像位置および撮像方向と、撮像日時とを対応付けて、ログ情報として記録する。さらに、ユーザを識別するユーザIDもログ情報に含まれるとしてもよい。
なお、ログ情報の記録は、あるマーカーが認識されてから認識が終了するまで継続されるとともに、新たなマーカーが認識されると、新たなマーカーIDを含むログ情報の記録が開始される。このように、情報処理装置1は、マーカーが認識されている間におけるユーザの移動(マーカーに対する撮像位置)に関するログ情報を収集することができる。
さらに、本変型例にかかる情報処理装置1は、収集したログ情報に基づき、ユーザの移動軌跡を生成してもよい。具体的には、予め各マーカーの現実空間における位置情報(施設内での設置位置の情報)と、施設の地図情報とが対応付けられた地図データが用意される。そして、情報処理装置は、各マーカーに対するユーザの位置(撮像位置)を、地図上にプロットすることで、地図データ上にユーザの位置の変化が、移動軌跡として、マッピングされる。
ユーザの移動軌跡はマーカー座標系に、マーカー相対座標として記録される。地図データはグローバル座標系で設定され、マーカー位置・方向をグローバル座標で保持する。情報処理装置は、ユーザの移動軌跡のマーカー相対座標を、地図データ上のマーカー位置を基準としてグローバル座標系に座標変換することで、地図データ上に移動軌跡をプロットする。
図22は、ユーザの移動軌跡がマッピングされた地図データのイメージ図である。図22は、作業場600および、作業場600に設置されたマーカーM1、M2、M3、M4、M5、M6を含む地図データに、ユーザの移動軌跡602、604、606、608、610、612がマッピングされた例である。なお、マーカーの配置間隔を狭くすることでユーザの移動軌跡を、途切れることなく追跡することも可能である。
移動軌跡602は、マーカーM1のマーカーIDを含むログ情報から生成される。移動軌跡604は、マーカーM2のマーカーIDを含むログ情報から生成される。移動軌跡606は、マーカーM3のマーカーIDを含むログ情報から生成される。移動軌跡608は、マーカーM4のマーカーIDを含むログ情報から生成される。移動軌跡610は、マーカーM5のマーカーIDを含むログ情報から生成される。移動軌跡612は、マーカーM6のマーカーIDを含むログ情報から生成される。
具体的には、移動軌跡602は、マーカーM1のマーカーIDを含むログ情報について、ログ情報の撮像位置をプロットされたものである。さらに、プロットされた各点が、ログ情報内の撮像日時が早い順に接続される。
このように、各マーカーを認識している間に生成されたログ情報を、地図データ上にマッピングすることで、ユーザの滞留場所や移動軌跡を、視認することができる。例えば、図22において、614で示した範囲に、ユーザが滞在していることがわかる。さらに、地図データには、ユーザの滞在日時が、合わせて表示されてもよい。
[他の適用例]
実施例の開示の技術は、観察対象の画像を撮像する撮像条件を制御する以外にも適用されうる。ここでは、他の適用例について説明する。
撮像画像においてマーカーが認識されたとしても、ARオブジェクトが撮像画像に重畳表示されない場合がある。これは、ARオブジェクトの配置位置が撮像画像に重畳表示可能な範囲を超えている場合である。具体的には、作業者がマーカーに接近した状態にあるときには、マーカーから離れたところに設定されたARコンテンツは、合成画像内に含まれない。よって、ユーザは、ARコンテンツを把握することができない。
このような事態を回避するために、上記実施例が適用される。つまり、ユーザに対して、適切な撮像条件をガイドする。具体的には、予め撮像位置や撮像方向にかかる撮像条件を、管理者が設定する。そして、作業者が撮像した撮像画像から推測される撮像条件と、予め設定された撮像条件との差分が把握可能な態様で、ガイド表示が実行される。作業者が、ガイド表示に従って移動を行うことで、基準物に対応付けられたARオブジェクトが、撮像条件の影響で表示されないという事態を回避することができる。
[ハードウェア構成例]
各実施例に示した情報処理装置1および管理装置2のハードウェア構成について説明する。図23は、各実施例の情報処理装置のハードウェア構成例である。情報処理装置1および情報処理装置3は、コンピュータ1000によって、実現される。つまり、図9及び図18に示す機能ブロックは、例えば、図23に示すハードウェア構成により実現される。
コンピュータ1000は、例えば、プロセッサ1001、Random Access Memory(RAM)1002、Read Only Memory(ROM)1003、ドライブ装置1004、記憶媒体1005、入力インターフェース(入力I/F)1006、入力デバイス1007、出力インターフェース(出力I/F)1008、出力デバイス1009、通信インターフェース(通信I/F)1010、カメラモジュール1011、加速度センサ1012、角速度センサ1013、表示インターフェース(表示I/F)1014、表示デバイス1015およびバス1016などを含む。それぞれのハードウェアはバス1016を介して接続されている。
通信インターフェース1010はネットワークNを介した通信の制御を行なう。通信インターフェース1010が制御する通信は、無線通信を利用して、無線基地局を介してネットワークNにアクセスする態様でもよい。通信インターフェース1010の一例は、ネットワーク・インタフェース・カード(NIC)である。入力インターフェース1006は、入力デバイス1007と接続されており、入力デバイス1007から受信した入力信号をプロセッサ1001に伝達する。出力インターフェース1008は、出力デバイス1009と接続されており、出力デバイス1009に、プロセッサ1001の指示に応じた出力を実行させる。入力インターフェース1006および出力インターフェース1008の一例は、I/Oコントローラである。
入力デバイス1007は、操作に応じて入力信号を送信する装置である。入力信号は、例えば、キーボードやコンピュータ1000の本体に取り付けられたボタンなどのキー装置や、マウスやタッチパネルなどのポインティングデバイスである。出力デバイス1009は、プロセッサ1001の制御に応じて情報を出力する装置である。出力デバイス1009は、例えば、スピーカーなどの音声出力装置などである。
表示インターフェース1014は、表示デバイス1015と接続されている。表示インターフェース1014は、表示インターフェース1014に設けられた表示用バッファにプロセッサ1001により書き込まれた画像情報を、表示デバイス1015に表示させる。表示インターフェース1014の一例は、グラフィックカードやグラフィックチップである。表示デバイス1015は、プロセッサ1001の制御に応じて情報を出力する装置である。表示デバイス1015は、ディスプレイなどの画像出力装置や、透過型ディスプレイなどが用いられる。
透過型ディスプレイが用いられる場合には、ARコンテンツの投影画像は、撮像画像と合成されるのではなく、例えば透過型ディスプレイ内の適切な位置に表示されるように制御されてもよい。これにより、ユーザは、現実空間とARコンテンツが整合した状態の視覚が得られる。また、例えば、タッチスクリーンなどの入出力装置が、入力デバイス1007及び表示デバイス1015として用いられる。また、入力デバイス1007及び表示デバイス1015が、コンピュータ1000内部に組み込まれる代わりに、例えば、入力デバイス1007及び表示デバイス1015が、コンピュータ1000に外部から接続されてもよい。
RAM1002は読み書き可能なメモリ装置であって、例えば、SRAM(Static RAM)やDRAM(Dynamic RAM)などの半導体メモリ、またはRAM以外にもフラッシュメモリなどが用いられてもよい。ROM1003は、PROM(Programmable ROM)なども含む。
ドライブ装置1004は、記憶媒体1005に記憶された情報の読み出しか書き込みかの少なくともいずれか一方を行なう装置である。記憶媒体1005は、ドライブ装置1004によって書き込まれた情報を記憶する。記憶媒体1005は、例えば、ハードディスク、SSD(Solid State Drive)、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスクなどの種類の記憶媒体のうちの少なくとも1つである。また、例えば、コンピュータ1000は、コンピュータ1000内の記憶媒体1005の種類に対応したドライブ装置1004を含む。
カメラモジュール1011は、撮像素子(イメージセンサ)を含み、撮像素子が光電変換して得られたデータを、カメラモジュール1011に含まれる入力画像用の画像バッファに書き込む。加速度センサ1012は、加速度センサ1012に対して作用する加速度を計測する。角速度センサ1013は、角速度センサ1013による動作の角速度を計測する。
プロセッサ1001は、ROM1003や記憶媒体1005に記憶されたプログラムをRAM1002に読み出し、読み出されたプログラムの手順に従って処理を行なう。例えば、制御部15の機能は、プロセッサ1001が、第一の実施例にかかるガイドプログラムに基づいて、他のハードウェアの制御を行なうことにより実現される。例えば、制御部32の機能は、プロセッサ1001が、第二の実施例にかかるガイドプログラムに基づいて、他のハードウェアの制御を行なうことにより実現される。
通信部11の機能は、プロセッサ1001が、通信インターフェース1010を制御してデータ通信を実行させ、受信したデータを記憶媒体1005に格納させることにより実現される。
記憶部14および記憶部31の機能は、ROM1003および記憶媒体1005がプログラムファイルやデータファイルを記憶すること、また、RAM1002がプロセッサ1001のワークエリアとして用いられることによって実現される。例えば、コンテンツ情報、テンプレート情報、撮像条件情報などがRAM1002に格納される。
撮像部12の機能は、カメラモジュール1011が入力画像用の画像バッファに画像データを書込み、入力画像用の画像バッファ内の画像データをプロセッサ1001が読み出すことにより実現される。画像データは、モニタリングモードにおいては、例えば、入力画像用の画像バッファに書き込まれるとともに、表示デバイス1015の表示用バッファに並行して書き込まれる。
また、表示部13の機能は、プロセッサ1001により生成された画像データが表示インターフェース1014に備えられた表示用バッファに書き込まれ、表示デバイス1015が表示用バッファ内の画像データの表示を行なうことにより実現される。
次に、図24は、コンピュータ1000で動作するプログラムの構成例を示す。コンピュータ1000において、ハードウェア群の制御を行なうOS(オペレーティング・システム)3002が動作する。OS3002に従った手順でプロセッサ1001が動作して、HW(ハードウェア)3001の制御・管理が行なわれることで、AP(アプリケーションプログラム)3004やMW(ミドルウェア)3003による処理がHW3001上で実行される。
コンピュータ1000において、OS3002、MW3003及びAP3004などのプログラムは、例えば、RAM1002に読み出されてプロセッサ1001により実行される。また、各実施例に示したガイドプログラムは、例えば、MW3003としてAP3004から呼び出されるプログラムである。
または、例えば、ガイドプログラムを含むAR制御プログラムは、AP3004としてAR機能を実現させるプログラムである。AR制御プログラムは、記憶媒体1005に記憶される。記憶媒体1005は、本実施例に係るガイドプログラム単体または、ガイドプログラムを含むAR制御プログラムを記憶した状態で、コンピュータ1000本体と切り離して流通され得る。
次に、各実施例における管理装置2のハードウェア構成について説明する。図25は、管理装置のハードウェア構成例である。管理装置2は、コンピュータ2000によって、実現される。管理装置2は、例えば、図25に示すハードウェア構成により実現される。コンピュータ2000は、例えば、プロセッサ2001、RAM2002、ROM2003、ドライブ装置2004、記憶媒体2005、入力インターフェース(入力I/F)2006、入力デバイス2007、出力インターフェース(出力I/F)2008、出力デバイス2009、通信インターフェース(通信I/F)2010、SAN(Storage Area Network)インターフェース(SAN I/F)2011及びバス2012などを含む。それぞれのハードウェアはバス2012を介して接続されている。
例えば、プロセッサ2001はプロセッサ1001と同様なハードウェアである。RAM2002は、例えばRAM1002と同様なハードウェアである。ROM2003は、例えばROM1003と同様なハードウェアである。ドライブ装置2004は、例えばドライブ装置1004と同様なハードウェアである。記憶媒体2005は、例えば記憶媒体1005と同様なハードウェアである。入力インターフェース(入力I/F)2006は、例えば入力インターフェース1006と同様なハードウェアである。入力デバイス2007は、例えば入力デバイス1007と同様なハードウェアである。
出力インターフェース(出力I/F)2008は、例えば出力インターフェース1008と同様なハードウェアである。出力デバイス2009は、例えば出力デバイス1009と同様なハードウェアである。通信インターフェース(通信I/F)2010は、例えば通信インターフェース1010と同様なハードウェアである。SAN(Storage Area Network)インターフェース(SAN I/F)2011は、コンピュータ2000をSANに接続するためのインターフェースであり、HBA(Host Bus Adapter)を含む。
プロセッサ2001は、ROM2003や記憶媒体2005に記憶されたプログラムをRAM2002に読み出し、読み出されたプログラムの手順に従って処理を行なう。その際にRAM2002はプロセッサ2001のワークエリアとして用いられる。なお、プログラムは、管理装置2における各種処理に係るプログラムを含む。たとえば、当該プログラムは、コンピュータ1000へ提供するテンプレート情報、コンテンツ情報、撮像条件情報を選択する処理等が、記述されたプログラムである。
ROM2003および記憶媒体2005が、プログラムファイルやデータファイルを記憶すること、もしくは、RAM2002がプロセッサ2001のワークエリアとして用いられることによって、管理装置2は、各種情報を記憶する。また、プロセッサ2001が、通信インターフェース2010を制御して通信処理を行なう。
1 情報処理装置
11 通信部
12 撮像部
13 表示部
14 記憶部
15 制御部
16 認識部
17 ガイド実行部
18 画像生成部
2 管理装置
21 通信部
22 制御部
23 記憶部
3 情報処理装置
31 記憶部
32 制御部
33 認識部
34 条件生成部
35 ガイド実行部
36 画像生成部

Claims (9)

  1. コンピュータが、
    撮像装置から第一の画像を取得し、
    前記第一の画像から基準物が認識された場合に、該基準物に紐づけられた観察対象が存在するかを判定し、
    前記観察対象が存在することが判定された場合に、前記基準物の像に基づき推定される該第一の画像の第一の撮像条件と予め指定された第二の撮像条件との違いに関するガイド情報、および、前記基準物に対応付けられたコンテンツを含む第一の合成画像を出力し、前記観察対象が存在しないことが判定された場合に、前記ガイド情報を含まず、前記コンテンツを含む第二の合成画像を出力する
    処理を実行することを特徴とするガイド方法。
  2. 前記第一の撮像条件は、前記第一の画像の第一の撮像位置および第一の撮像方向の少なくとも一つであって、前記第二の撮像条件は、前記第一の画像よりも前に撮像される第二の画像の第二の撮像位置および第二の撮像方向の少なくとも一つである
    ことを特徴とする請求項1に記載のガイド方法。
  3. 前記第二の撮像条件は、前記第二の画像における前記基準物の他の像に基づき生成される
    ことを特徴とする請求項2に記載のガイド方法。
  4. 前記コンピュータは、
    前記基準物の前記像に基づき、前記基準物を基準とする空間における前記第一の撮像位置および前記第一の撮像方向の少なくとも一つを算出し、
    前記第一の撮像位置と前記第二の撮像位置との第一の差分、前記第一の撮像方向と前記第二の撮像方向との第二の差分の少なくとも一つを算出し、
    前記第一の差分または前記第二の差分に基づき、前記ガイド情報を生成する
    ことを特徴とする請求項2または3のいずれか一項に記載のガイド方法。
  5. 前記ガイド情報は、前記第一の撮像位置を前記第二の撮像位置に一致させる方向または、前記第一の撮像方向を前記第二の撮像方向に一致させる方向を示す矢印を含む
    ことを特徴とする請求項4に記載のガイド方法。
  6. 前記ガイド情報は、前記第二の画像における前記基準物の領域を表示する情報である
    ことを特徴とする請求項2または3のいずれか一項に記載のガイド方法。
  7. 前記ガイド情報は、前記第一の画像上に、前記第二の画像における前記基準物の前記領域を示す矩形を、前記領域と同じ位置に表示する情報である
    ことを特徴とする請求項6記載のガイド方法。
  8. 第一の画像を撮像する撮像部と、
    前記第一の画像から基準物が認識された場合に、該基準物に紐づけられた観察対象が存在するかを判定し、前記観察対象が存在することが判定された場合に、前記基準物の像に基づき推定される該第一の画像の第一の撮像条件と予め指定された第二の撮像条件との違いに関するガイド情報、および、前記基準物に対応付けられたコンテンツを含む第一の合成画像を出力し、前記観察対象が存在しないことが判定された場合に、前記ガイド情報を含まず、前記コンテンツを含む第二の合成画像を出力する制御部と
    を有することを特徴とする情報処理装置。
  9. コンピュータに、
    撮像装置から第一の画像を取得し、
    前記第一の画像から基準物が認識された場合に、該基準物に紐づけられた観察対象が存在するかを判定し、
    前記観察対象が存在することが判定された場合に、前記基準物の像に基づき推定される該第一の画像の第一の撮像条件と予め指定された第二の撮像条件との違いに関するガイド情報、および、前記基準物に対応付けられたコンテンツを含む第一の合成画像を出力し、前記観察対象が存在しないことが判定された場合に、前記ガイド情報を含まず、前記コンテンツを含む第二の合成画像を出力する
    処理を実行させることを特徴とするガイドプログラム。
JP2013221644A 2013-10-24 2013-10-24 ガイド方法、情報処理装置およびガイドプログラム Expired - Fee Related JP6264834B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013221644A JP6264834B2 (ja) 2013-10-24 2013-10-24 ガイド方法、情報処理装置およびガイドプログラム
AU2014250736A AU2014250736A1 (en) 2013-10-24 2014-10-20 Guiding method and information processing apparatus
US14/518,850 US9390488B2 (en) 2013-10-24 2014-10-20 Guiding method and information processing apparatus
CN201410564548.9A CN104574267B (zh) 2013-10-24 2014-10-21 引导方法和信息处理设备
EP14189682.9A EP2866197A3 (en) 2013-10-24 2014-10-21 Guiding method and information processing apparatus
US15/146,310 US9760987B2 (en) 2013-10-24 2016-05-04 Guiding method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013221644A JP6264834B2 (ja) 2013-10-24 2013-10-24 ガイド方法、情報処理装置およびガイドプログラム

Publications (2)

Publication Number Publication Date
JP2015082830A JP2015082830A (ja) 2015-04-27
JP6264834B2 true JP6264834B2 (ja) 2018-01-24

Family

ID=51794735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013221644A Expired - Fee Related JP6264834B2 (ja) 2013-10-24 2013-10-24 ガイド方法、情報処理装置およびガイドプログラム

Country Status (5)

Country Link
US (2) US9390488B2 (ja)
EP (1) EP2866197A3 (ja)
JP (1) JP6264834B2 (ja)
CN (1) CN104574267B (ja)
AU (1) AU2014250736A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6121647B2 (ja) 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
JP6264834B2 (ja) * 2013-10-24 2018-01-24 富士通株式会社 ガイド方法、情報処理装置およびガイドプログラム
JP6044522B2 (ja) * 2013-11-19 2016-12-14 横河電機株式会社 緩徐変化検出システム
KR101610148B1 (ko) * 2014-11-17 2016-04-08 현대자동차 주식회사 차체 검사 시스템 및 방법
JP6274097B2 (ja) * 2014-12-17 2018-02-07 カシオ計算機株式会社 商品識別装置および商品認識ナビゲーション方法
JP6833366B2 (ja) * 2016-07-06 2021-02-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2018067851A (ja) * 2016-10-20 2018-04-26 富士通株式会社 撮像制御プログラム、撮像制御方法および情報処理装置
JP6214746B1 (ja) * 2016-11-17 2017-10-18 株式会社シーエーシー 球状物体間距離測定をするためのシステム、方法及びプログラム
WO2018101135A1 (ja) * 2016-12-01 2018-06-07 シャープ株式会社 撮影調整情報導出装置、撮影装置、撮影調整情報導出方法、制御プログラム、および記録媒体
US10504220B2 (en) * 2017-05-25 2019-12-10 General Electric Company Neural network feature recognition system
JP6933125B2 (ja) * 2017-12-25 2021-09-08 富士通株式会社 情報処理装置,撮影ガイド表示プログラム,撮影ガイド表示方法
CN108197621A (zh) * 2017-12-28 2018-06-22 北京金堤科技有限公司 企业信息获取方法及系统和信息处理方法及系统
JP7311963B2 (ja) * 2018-12-14 2023-07-20 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP7387261B2 (ja) * 2018-11-27 2023-11-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2020110576A1 (ja) * 2018-11-27 2020-06-04 キヤノン株式会社 情報処理装置
US20220076399A1 (en) * 2019-01-10 2022-03-10 Nec Corporation Photographing guide device
CN113396361B (zh) * 2019-02-07 2023-04-18 富士胶片株式会社 摄影系统、摄影部位设定装置、摄影装置及摄影方法
EP3706076B1 (en) * 2019-03-07 2021-02-24 Siemens Healthcare GmbH Method and device to determine the dimensions and distance of a number of objects in an environment
JPWO2020225843A1 (ja) * 2019-05-07 2020-11-12
JP7360854B2 (ja) 2019-09-04 2023-10-13 neuet株式会社 プログラム、情報処理方法、及び情報処理装置
US11682068B2 (en) * 2019-09-16 2023-06-20 Mercari, Inc. Automating the creation of listings using augmented reality computer technology
EP4001735B1 (de) * 2020-11-18 2024-04-10 Georg Fischer Rohrleitungssysteme AG Überwachung von rohrleitungssystemen
JPWO2023021668A1 (ja) * 2021-08-19 2023-02-23
WO2024047884A1 (ja) * 2022-08-29 2024-03-07 技術開発合同会社 電子拡大鏡

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0829701A (ja) * 1994-07-18 1996-02-02 Olympus Optical Co Ltd 立体視内視鏡システム
JP2001014316A (ja) 1999-04-28 2001-01-19 Aizu Doken Corp 建築土木用データベース生成装置及び表示装置
JP2004048674A (ja) 2002-05-24 2004-02-12 Olympus Corp 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ
CN1777233A (zh) * 2004-11-16 2006-05-24 上海镁原信息技术有限公司 使用gps对数码相片进行拍摄位置定位的方法
EP2030558B1 (en) * 2006-05-31 2017-05-03 National University Corporation Chiba University Three-dimensional image forming device, three-dimensional image forming method and program
JP5216274B2 (ja) * 2007-08-17 2013-06-19 株式会社日立ハイテクノロジーズ パターン評価方法及びその装置
WO2009148411A1 (en) * 2008-06-06 2009-12-10 Agency For Science, Technology And Research Method and system for maintaining a database of reference images
US8803992B2 (en) 2010-05-12 2014-08-12 Fuji Xerox Co., Ltd. Augmented reality navigation for repeat photography and difference extraction
JP5698551B2 (ja) * 2011-02-04 2015-04-08 キヤノン株式会社 情報処理装置、及びその制御方法
JP5603835B2 (ja) * 2011-06-27 2014-10-08 クラリオン株式会社 車両周囲監視装置
JP2013042250A (ja) * 2011-08-12 2013-02-28 Sony Corp 撮像装置および撮像方法
JP2013074376A (ja) * 2011-09-27 2013-04-22 Sony Corp 撮像ガイド装置、撮像装置、撮像ガイド方法、プログラム
JP2013165366A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP6264834B2 (ja) * 2013-10-24 2018-01-24 富士通株式会社 ガイド方法、情報処理装置およびガイドプログラム

Also Published As

Publication number Publication date
CN104574267A (zh) 2015-04-29
JP2015082830A (ja) 2015-04-27
CN104574267B (zh) 2019-01-08
AU2014250736A1 (en) 2015-05-14
EP2866197A3 (en) 2015-07-22
US9760987B2 (en) 2017-09-12
US20160247269A1 (en) 2016-08-25
US9390488B2 (en) 2016-07-12
US20150117752A1 (en) 2015-04-30
EP2866197A2 (en) 2015-04-29

Similar Documents

Publication Publication Date Title
JP6264834B2 (ja) ガイド方法、情報処理装置およびガイドプログラム
US9710971B2 (en) Information processing device, position designation method and storage medium
US10074217B2 (en) Position identification method and system
JP6299234B2 (ja) 表示制御方法、情報処理装置、および表示制御プログラム
JP5991423B2 (ja) 表示装置、表示方法、表示プログラムおよび位置設定システム
JP6264972B2 (ja) 表示装置、表示制御プログラム、および表示制御方法
JP6314394B2 (ja) 情報処理装置、設定方法、設定プログラム、システムおよび管理装置
TW201915943A (zh) 對圖像內目標物體進行自動標註的方法、裝置及系統
JP6500355B2 (ja) 表示装置、表示プログラム、および表示方法
JP6160290B2 (ja) 情報処理装置、判定方法および判定プログラム
EP2866088B1 (en) Information processing apparatus and method
JP6394107B2 (ja) キャリブレーション装置、キャリブレーション方法、表示制御装置および表示制御方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171211

R150 Certificate of patent or registration of utility model

Ref document number: 6264834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees