JP2005115500A - 情報処理装置及び情報処理方法 - Google Patents
情報処理装置及び情報処理方法 Download PDFInfo
- Publication number
- JP2005115500A JP2005115500A JP2003346458A JP2003346458A JP2005115500A JP 2005115500 A JP2005115500 A JP 2005115500A JP 2003346458 A JP2003346458 A JP 2003346458A JP 2003346458 A JP2003346458 A JP 2003346458A JP 2005115500 A JP2005115500 A JP 2005115500A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- information
- image
- position information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 GPSやジャイロセンサーを用いることなく、ユーザの現在地と向きを正確に測定し、位置および向きに関連した情報を提示可能な装置を実現する。
【解決手段】 所定の位置に配置され、自身の位置が記述された位置情報マーカーをカメラ13が撮影し、画像・映像キャプチャ部2が撮影された画像をキャプチャし、位置情報マーカー認識部3がキャプチャされた画像から位置情報マーカーの画像を切り出し、切り出した位置情報マーカーの画像からカメラ位置(マーカーとカメラとの距離)、角度(マーカーに対するカメラの角度)を判別するとともに、マーカーの記述を読み取り、情報獲得部4が読み取られたマーカーの記述からマーカーの位置に関連する情報を情報提示DB5から取得し、情報重畳部6がカメラ位置、角度に適合させて、取得された情報とキャプチャされた画像とを重畳し、画像・映像表示部7を介してディスプレイ14に表示させる。
【選択図】 図1
【解決手段】 所定の位置に配置され、自身の位置が記述された位置情報マーカーをカメラ13が撮影し、画像・映像キャプチャ部2が撮影された画像をキャプチャし、位置情報マーカー認識部3がキャプチャされた画像から位置情報マーカーの画像を切り出し、切り出した位置情報マーカーの画像からカメラ位置(マーカーとカメラとの距離)、角度(マーカーに対するカメラの角度)を判別するとともに、マーカーの記述を読み取り、情報獲得部4が読み取られたマーカーの記述からマーカーの位置に関連する情報を情報提示DB5から取得し、情報重畳部6がカメラ位置、角度に適合させて、取得された情報とキャプチャされた画像とを重畳し、画像・映像表示部7を介してディスプレイ14に表示させる。
【選択図】 図1
Description
この発明は、GPS(Global Positioning System)やジャイロセンサーを用いることなく、ユーザの現在地と向きを正確に測定し、位置および向きに関連した情報を提示可能な装置に関するものである。
・特開2003−28661号公報「帰路案内装置」
通路に沿う各地点に設置された位置標識から位置情報を経路順に読み取って記憶する装置である。ただし、位置標識の大きさ・傾きから位置標識までの距離・方向を画像から推定する構成となっていないため、たとえばカメラの映像上に3次元の位置関連情報(道案内の矢印など)を映像に合わせて合成することができない。
通路に沿う各地点に設置された位置標識から位置情報を経路順に読み取って記憶する装置である。ただし、位置標識の大きさ・傾きから位置標識までの距離・方向を画像から推定する構成となっていないため、たとえばカメラの映像上に3次元の位置関連情報(道案内の矢印など)を映像に合わせて合成することができない。
・特開2003−121195号公報「目標位置探索装置、目標位置探索方法及びプログラム」
カメラの撮影方位、現在位置、撮影画角ならびに目標物の位置情報に基いて、撮影画像中の目標物の位置を特定し、撮影画像に重ねて表示する装置である。ただし、現在位置の取得にGPSを、方向の推定に磁気センサなどの位置測位のための特別な装置を用いている。
カメラの撮影方位、現在位置、撮影画角ならびに目標物の位置情報に基いて、撮影画像中の目標物の位置を特定し、撮影画像に重ねて表示する装置である。ただし、現在位置の取得にGPSを、方向の推定に磁気センサなどの位置測位のための特別な装置を用いている。
・特開平11−53583号公報「景観ラベル利用型通信装置およびシステム」
カメラの位置、角度、焦点距離に関する情報と、地図情報とに基いて、画像中に存在する構造物のラベル情報を作成し、重畳して表示する装置である。ただし、「特開2003−121195」同様、現在位置の取得にGPSを、方向の推定に磁気センサなどの位置測位のための特別な装置を用いている。
特開2003−28661号公報
特開2003−121195号公報
特開平11−53583号公報
カメラの位置、角度、焦点距離に関する情報と、地図情報とに基いて、画像中に存在する構造物のラベル情報を作成し、重畳して表示する装置である。ただし、「特開2003−121195」同様、現在位置の取得にGPSを、方向の推定に磁気センサなどの位置測位のための特別な装置を用いている。
従来のGPSなどの測位装置を用いた情報提示装置は、GPS衛星を捕捉するまで時間がかかり、かつ、ビルの谷間など衛星を捕捉することが困難な場所では正確な測位ができないという問題点があった。また、利用場所が屋外に限られることから、屋内でのナビゲーションができないという問題があった。
この発明は上記のような問題点を解決するためになされたもので、GPSやジャイロセンサーなどの特別な装置を用いずに利用者の現在地および向きを正確に測定し、かつ、屋内屋外を問わず利用可能とすることを目的とする。
本発明に係る情報処理装置は、
所定の形状を有し自身の位置が記述された位置情報マーカーを撮影可能な撮影装置と、接続可能な情報処理装置であって、
前記撮影装置が撮影した、位置情報マーカーの画像が含まれる撮影画像をキャプチャする画像キャプチャ部と、
前記画像キャプチャ部がキャプチャした撮影画像の中から位置情報マーカーの画像を抽出し、抽出した位置情報マーカーの画像の形状から位置情報マーカーと前記撮影装置との距離及び位置情報マーカーに対する前記撮影装置の角度の少なくともいずれかを判別するとともに、位置情報マーカーの記述を読み取るマーカー画像処理部とを有することを特徴とする。
所定の形状を有し自身の位置が記述された位置情報マーカーを撮影可能な撮影装置と、接続可能な情報処理装置であって、
前記撮影装置が撮影した、位置情報マーカーの画像が含まれる撮影画像をキャプチャする画像キャプチャ部と、
前記画像キャプチャ部がキャプチャした撮影画像の中から位置情報マーカーの画像を抽出し、抽出した位置情報マーカーの画像の形状から位置情報マーカーと前記撮影装置との距離及び位置情報マーカーに対する前記撮影装置の角度の少なくともいずれかを判別するとともに、位置情報マーカーの記述を読み取るマーカー画像処理部とを有することを特徴とする。
本発明によれば、GPSやジャイロセンサーなどの特別な装置を用いずに利用者の現在地および向きを正確に測定し、利用者の現在地及び向きに関連した情報を提示することができ、また屋内屋外を問わず利用者の現在地及び向きを正確に測位し、利用者の現在地及び向きに関連した情報を提示することができる。
実施の形態1.
図1は本実施の形態に係る位置関連情報提示装置(情報処理装置)を示す構成図である。
図1は本実施の形態に係る位置関連情報提示装置(情報処理装置)を示す構成図である。
図において、1は位置関連情報提示装置である。2は、カメラで撮影した画像や映像をキャプチャする画像・映像キャプチャ部である。3は、キャプチャした画像や映像から位置情報が記述されているマーカーを切り出し、マーカーに記述されている情報を認識し、さらに、カメラの撮影位置(カメラとマーカーとの距離)および角度(マーカーに対するカメラの角度)を求めるための位置情報マーカー認識部である。4は、位置情報マーカー認識部3で認識した位置情報を基に、その関連情報を取得する情報獲得部である。5は、情報獲得部4で獲得する情報を格納する提示情報DB(データベース)である。6はカメラの位置、角度に適合させて、情報獲得部4で獲得した情報をキャプチャ画像や映像に重畳して表示するための情報重畳部である。7は情報重畳部6で作成した画像あるいは映像を表示するための画像・映像表示部である。13は画像や映像をキャプチャするためのカメラ、14は情報を表示するためのディスプレイである。ここで、位置情報マーカーとは、所定の形状を有し、自身の位置が記述されたマーカーであり、例えば、図2の16に示すマーカーである。本実施の形態では、位置情報マーカーが任意の位置、例えば店舗等の建物や美術館の作品の隣等に配置され、位置関連情報提供装置1のカメラ13にてこの位置情報マーカーを撮影することを前提としている。
図1において、画像・映像キャプチャ部2は、画像キャプチャ部の例に相当し、位置情報マーカー認識部3は、マーカー画像処理部の例に相当し、情報獲得部4は、情報取得部の例に相当し、提示情報DB5は、表示情報データベースの例に相当し、情報重畳部6は、表示情報加工部の例に相当し、画像・映像表示部7は表示処理部の例に相当する。また、カメラ13は撮影装置の例に相当し、ディスプレイ14は表示装置の例に相当する。
位置情報マーカー認識部3はさらに、画像・映像キャプチャ部2でキャプチャした画像や映像から、位置情報マーカーの画像を切り出すためのマーカー切り出し部8、カメラの撮影位置や角度を認識するためのカメラ位置・角度認識部9、マーカーに記述された情報を認識するためのマーカー認識部10から構成される。
情報重畳部6はさらに、情報獲得部4で獲得した情報をキャプチャ画像や映像に重畳するために画像化する重畳画像作成部11と、重畳画像作成部11で作成した重畳画像をキャプチャ画像や映像に重畳する画像重畳部12から構成される。
なお、位置関連情報提示装置1は、図示していないが、例えばマイクロプロセッサ等のCPU、半導体メモリ等や磁気ディスク等の記録手段を有する計算機により実現することができる。記録手段には、位置関連情報提示装置1に含まれる各構成要素の機能を実現するプログラムが記録されており、CPUがこれらのプログラムを読み込むことにより位置関連情報提示装置1の動作を制御し、各構成要素の機能を実現することができる。
次に本発明の実施の形態1の動作を図2および図3を用いて説明する。
次に本発明の実施の形態1の動作を図2および図3を用いて説明する。
図2は本発明の実施の形態1の位置関連情報提示装置1の動作の一例を示した図である。図3は、動作を説明するためのフローチャートである。
本実施の形態では、例えば屋外および屋内の様々な場所に図2の16に示すような位置情報マーカーが貼り付けられているとする。利用者は、本実施の形態に係る位置関連情報提示装置1が組み込まれた携帯電話やPDAなどの情報機器15を用いて任意の位置および方向から位置情報マーカー16を撮影する。
利用者が位置情報マーカー16を撮影すると、画像・映像キャプチャ部2でその画像をキャプチャし(ステップS1−1)、キャプチャした画像を位置情報マーカー認識部3に引き渡す。位置情報マーカー認識部3では、まずマーカー切り出し部8において画像中から位置情報マーカーの画像17を探索し(ステップS1−2)、検出したマーカーの画像17をキャプチャした画像から切り出す(ステップS1−3)。次に、カメラ位置・角度認識部においてカメラの位置および角度に応じて歪んだマーカー18を、マーカー認識部10において認識しやすいように、マーカー18を正面から撮影した場合の状態を推定し、同時に情報重畳部6において情報を適切に重畳するために上記カメラ位置・角度を推定する。
まずカメラ位置・角度を推定するため、検出したマーカーの端点を求める(ステップS1−4)。そして、求めた端点の位置関係から3次元の幾何計算を行うことによりカメラの位置(マーカーとカメラとの距離)および角度(マーカーに対するカメラの角度)を求める(S1−5)。この情報は、射影行列と呼ばれる、3次元の物体を2次元の平面に投影するための幾何情報である。この情報を用いてマーカーを正面で撮影した際の状態を再現し、マーカー画像を認識するためにマーカー画像を正規化(マーカー上の1ドットが画像の1画素になるように拡大縮小する)する(ステップS1−6)。
以上で正規化したマーカー画像をマーカー認識部10で認識し(マーカーの記述を読み取り)(ステップS1−7)、マーカーに記述された情報を基に情報獲得部4を用いて提示情報DB5から提示情報を取得し(ステップS1−8)、情報重畳部6で提示画像を作成し(ステップS1−9)、カメラ位置、角度に適合させて提示画像をキャプチャ画像と重畳し(ステップS1−10)、ディスプレイ14に表示する(ステップS1−11)。
図16及び図17は、ディスプレイ14に表示する情報の例であり、図16では地図情報が表示され、図17では道案内情報が表示されている。図16の140は、位置関連情報提示装置1(カメラ付き情報機器)の利用者の位置を示す表示であり、位置情報マーカー認識部3で認識したカメラ位置・角度に基づいて利用者の位置、向きを表示している。また、図17の道案内情報では、リアルタイムに利用者が見ている映像上に、位置情報マーカー認識部3で認識したカメラ位置・角度に基づいて道案内の矢印を表示している。また、美術館の作品の隣にマーカーが貼り付けられていれば、作品を説明するための情報や、店舗の陳列に貼り付けられていれば商品情報など、位置に関連するあらゆる情報を表示対象とすることができる。
次にマーカー切り出し部8の動作を図4および図5を用いて詳細に説明する。
図4は、マーカー切り出し部8の動作手順を説明するための図である。図5は動作を説明するためのフローチャートである。
本発明の実施の形態1では、位置情報マーカーは白黒で印刷された2次元バーコードを想定する。
マーカー切り出し部8では、まずマーカーを検出するためにキャプチャ画像21を2値化する(ステップS2−1)。2値化の方法には、輝度の閾値を設定し、輝度値が閾値以下の画素を黒、それ以外を白とするものや、各画素の周辺画素の平均値を閾値とするものなど、画素を2値化可能な手段であればどれを用いてもよい。
画像を2値化した結果22に対して、マーカーの端点を求めるために「3次元ビジョン」(徐 剛、辻 三郎著,1998年4月20日発行,共立出版株式会社)のp.34、p.36に記載のヘッセ行列あるいはSUSANオペレータなどのコーナー検出フィルタを適用し端点の候補を求める(ステップS2−2)。
上記コーナー検出フィルタを用いて検出した結果23から、次にコーナーの位置の周囲に対してハフ変換処理を行い検出したコーナーを通る直線を検出する(ステップS2−3、ステップS2−4)。
ハフ変換とは、直線をρ=xcosθ+ysinθで表現し、上記2値化後のマーカー画像の座標値(x、y)を通る直線の(ρ、θ)の組合せをρとθのパラメータ空間上の座標とみなし、カウントするものである。もし、ある直線が存在する場合、その直線を表現するためのパラメータ(ρ、θ)におけるカウント数が多くなる。この性質を利用してρとθのパラメータ空間上の各座標に対するカウント数の極大点を求めれば、画像中の直線を検出することができる。
図4の24は直線を検出した結果を示している。
次に、検出したコーナーの内、同じコーナーで交差する直線が2本以上存在するコーナーを選択する(ステップS2−5)。これは、マーカーが四角形であるため、マーカーの端点を通る直線は必ず2つ存在する。よって、上記条件でステップS2−2で検出した端点の候補を選別することができる。
以上で検出および選別したマーカーの端点に対して次の処理を行う(ステップS2−6)。
まず、現在注目している端点25を通る2つの直線上に乗る別の端点26、27が存在するかを求める(ステップS2−7)。ここで、キャプチャ画像のノイズなどの影響により、マーカーの端点が正確にマーカーの稜辺に乗ることは困難であることから、ここでは、直線と点との距離が閾値以下でかつ着目している端点との距離が最も短いものを直線上に乗る端点であるとする。
マーカーは四角形であるため、1つの端点を通る2直線上に必ず点が必ず2点26、27存在する。よって2点が存在するか否かを判定し(ステップS2−8)、2点存在するのであれば次に検出した2点を通る別の2直線との交点にステップS2−5で検出した端点が存在するか否か、つまり、現在注目している端点と対角に存在する点28であるか否かを判定し(ステップS2−9)、もし存在するのであれば、上記で求めた4点をマーカー上の端点であるとみなし、その外接矩形で画像を切り出す(ステップS2−10)。最後に検出した4点を対象端点から除外する。
次にカメラ位置・角度認識部9の動作を図6〜図8を用いて詳細に説明する。
図6は、カメラで撮影された画像と3次元空間上の物体との関係を表す図である。図7は推定した角度の誤差を補正する処理を説明するための図である。図8はカメラ位置・角度認識部9の動作を説明するためのフローチャートである。
カメラで撮影された画像と3次元空間上のオブジェクトとの関係は図6のようになっている。図において29は、マーカー切り出し部8で切り出したマーカー平面で、30はカメラ画像平面、31はカメラの設置位置を表す。
3次元空間上のマーカー平面29の座標系における点(Xf、Yf、Zf)と、それに対応するカメラ座標系30における点は次式の関係がある。
一方、カメラ座標系における3次元空間上の点とカメラ平面30における2次元の点とは、次式に示す関係がある。
さて、マーカーの上下と左右の辺は平行している。この二組の平行した辺から矩形の3次元空間上の上下方向と左右方向の方向ベクトル(X軸、Y軸)を求めることができる。
平行する辺のカメラ平面上における直線の方程式を
a1x+b1y+c1=0 (式3)
a2x+b2y+c2=0 (式4)
とすると、カメラ座標系31における各直線を含む3次元の平面の方程式は次式であらわすことができる。
a1P11Xc+(a1P12+b1P22)Yc+(a1P13+b1P23+c1)Zc=0(式5)
a2P11Xc+(a2P12+b2P22)Yc+(a2P13+b2P23+c2)Zc=0(式6)
これら2つの平面の法線ベクトル(X、Y、Zの係数)の外積を求めると上記方向ベクトルを求めることができる。
a1x+b1y+c1=0 (式3)
a2x+b2y+c2=0 (式4)
とすると、カメラ座標系31における各直線を含む3次元の平面の方程式は次式であらわすことができる。
a1P11Xc+(a1P12+b1P22)Yc+(a1P13+b1P23+c1)Zc=0(式5)
a2P11Xc+(a2P12+b2P22)Yc+(a2P13+b2P23+c2)Zc=0(式6)
これら2つの平面の法線ベクトル(X、Y、Zの係数)の外積を求めると上記方向ベクトルを求めることができる。
以上で、カメラ座標系31における矩形のX軸、Y軸に相当する方向ベクトルを求めることができるが、画像から得られる情報の誤差により、得られた方向ベクトルが図7に示すように直交していない場合がある。そこで、求めたベクトルをS1、S2としたときそのベクトルを基に直交ベクトルV1、V2を求める。
Z軸方向のベクトルは、求めたV1とV2の外積から求められる。
この3つの方向ベクトルが式1における回転成分Rとなる。
回転成分が分かれば、2次元座標と3次元座標の対応点を式1と式2に代入することにより並進成分Tを求めることができる。なお、マーカー平面29の座標系における点(Xf、Yf、Zf)をマーカーの端点とし、マーカーを正方形でかつ1辺の長さを予め決めておけば、4点(Xf、Yf、Zf)を事前に式1に与えることができる。
カメラ位置・角度認識部9では、マーカー切り出し部8で求めたマーカーの端点から式3および式4に示す各辺の直線パラメータ(方程式)を求め(ステップS3−1)、求めたパラメータを用い式5および式6を用いて、マーカーの3次元空間におけるX軸、Y軸29を求める(ステップS3−2)。そして前述の通り求めた軸が直交するように修正し、回転行列を求め(ステップS3−3)、さらに並進行列(ステップS3−4)を求める。
以上で求めた投影行列を用いて実際に3次元空間上のマーカーの端点をカメラ画像平面に投影したときの誤差に応じて投影行列を修正し(ステップS3−5、ステップS3−6)、誤差が閾値以下になったときの並進ベクトルおよび回転を求めそれをカメラの位置および角度とする(ステップS3−7)。
次にマーカー認識部10の動作を図9〜図11を用いて説明する。
図9は、マーカー認識部10において撮影したマーカー画像を、正面から撮影したものになるように歪み補正をした結果を示したものである。図10は、マーカーを認識しやすいように正規化した結果を示したものである。図11は動作を説明するためのフローチャートである。
マーカー認識部10では、マーカーを認識しやすいようにまず、カメラ位置・角度認識部9で求めた投影行列を用いて、マーカーを正面から撮影した画像を再現する。
マーカーの3次元座標とカメラで撮影されたマーカーの2次元座標の間には次式で示す関係がある。
よって、Pの逆行列を求め、それを両辺に左から掛け合わせれば、マーカー上のドットの3次元座標値がえられる。この3次元座標とは図6の29で示したマーカー座標系であり、マーカー座標系における各ドットのZ座標は0であることから、ここで求められる座標値は、マーカーを正面で撮影した時のドットの2次元座標(Xf、Yf)とみなすことができる。
よって、マーカー認識部10では、まずカメラ位置・角度認識部9で求めた投影行列の逆行列を求め(ステップS4−1)、その行列を基にマーカーを正面から撮影した場合の画像を推定する(ステップS4−2)。例えば、図9に示す歪んだマーカー画像36を正面から撮影した画像37を推定することができる。
以上で推定した画像37を、図10に示すようにマーカーの1ドットが1画素となるように画像を拡大縮小し正規化する(ステップS4−3)。
最後に各ドットを読み取りマーカーに記述された情報を獲得する(ステップS4−4)。
例えばバーコードであった場合、このドットがビット情報を表すことになる。
なお、マーカーとして使用するものとして2次元バーコードでも良い。文字コードの場合は、文字認識処理を導入することによりマーカーを認識することができる。
次に、図12を用いて情報重畳部6の動作を説明する。
図12は情報重畳部6の動作を説明するためのフローチャートである。
情報重畳部6では、情報獲得部4で獲得した情報の種類を判断し(ステップS5−1)、もし情報が文字である場合は、重畳画像作成部11において、文字を画像に変換する(ステップS5−2)。文字を画像に変換するためには、フォント情報を用いる。そして、文字上の画素を不透過、それ以外を透過となるように画素値を設定する。そして、画像重畳部12において、上記で生成した文字画像の中心ををキャプチャ画像の中心に合わせ、不透過画素のみキャプチャ画像に重ねあわせる(ステップS5−4)。
情報が画像である場合、そのまま画像重畳部12において各画素の透過・不透過情報を基にキャプチャ画像に重ね合わせる(ステップS5−4)。
情報が3次元モデルである場合、重畳画像作成部11においてカメラ位置・角度認識部9で求めた投影行列を用いて3次元モデルをレンダリングし、重畳画像を作成する(ステップS5−3)。この重畳画像も、オブジェクト上の画素が不透過、背景が透過となるように画素値を設定する。そして、画像重畳部12においてキャプチャ画像と重ね合わせを行う(ステップS5−4)。
以上の処理を行うことにより、図16や図17に示すようにリアルタイム映像に位置に関連した情報を表示することが可能となる。
本発明の実施の形態1によれば、以下に示す効果を得ることができる。
GPSやジャイロセンサーなどの特別な装置を用いることなく位置情報が獲得可能になる。
屋内および屋外を問わず利用可能になる。
マーカーの撮影位置・角度を認識することにより撮影映像に合わせて3次元情報も提示可能となる(道案内の矢印など)。
実施の形態2.
実施の形態1では、位置関連情報を装置に内蔵するようにしたものであったが、ネットワークを介して取得するようにしてもよい。
実施の形態1では、位置関連情報を装置に内蔵するようにしたものであったが、ネットワークを介して取得するようにしてもよい。
図13は本発明の実施の形態2の位置関連情報提示装置である。図において41はネットワーク上のサーバにアクセスするための通信部、42は位置関連情報を提供する位置関連情報サーバ(表示情報保有装置)である。
次に図14を用いて動作を説明する。図14は本発明の実施の形態2の動作を説明するためのフローチャートである。
利用者が位置情報マーカーを撮影すると、画像・映像キャプチャ部2でその画像をキャプチャし(ステップS6−1)、キャプチャした画像を位置情報マーカー認識部3に引き渡す。位置情報マーカー認識部3では、まずマーカー切り出し部8においてキャプチャ画像中からマーカーの画像17を探索し(ステップS6−2)、検出したマーカーの画像17をキャプチャ画像から切り出す(ステップS6−3)。次に、カメラ位置・角度認識部においてカメラの位置および角度に応じて歪んだマーカーを、マーカー認識部10において認識しやすいように、マーカーを正面から撮影した場合の状態を推定し、同時に情報重畳部6において情報を適切に重畳するために上記カメラ位置・角度を推定する。
まずカメラ位置・角度を推定するため、検出したマーカーの端点を求める(ステップS6−4)。そして、求めた端点の位置関係から3次元の幾何計算を行うことによりカメラの位置および角度を求める(ステップS6−5)。この情報は、射影行列と呼ばれる、3次元の物体を2次元の平面に投影するための幾何情報である。この情報を用いてマーカーを正面で撮影した際の状態を再現し、マーカー画像を認識するためにマーカー画像を正規化(マーカー上の1ドットが画像の1画素になるように拡大縮小する)する(ステップS6−6)。
以上で正規化したマーカー画像をマーカー認識部10で認識し(ステップS6−7)、マーカーに記述された情報を取得する。ここまでの処理は、実施の形態1で説明した処理と同様である。
ここで、マーカーには情報を引き出すためのIDの他に、どのサーバにアクセスするかを示すアドレスが記述されているとする。
通信部41では、マーカーに記述されたアドレスを基に位置関連情報サーバにアクセスし、マーカーに記述された情報IDを基に関連情報を取得する(ステップS6−8、S6−9)。
そして、情報重畳部6で提示画像を作成し(ステップS6−10)、提示画像をキャプチャ画像と重畳し(ステップS1−11)、ディスプレイ14に表示する(ステップS6−12)。
以上のように、情報を内蔵することがないので、装置のリソースを節約することができ、かつ、マーカーに記述されたサーバアドレスに応じて様々な情報を自由に取得することが可能となる。
実施の形態3.
例えば、パンフレットに本発明で利用するマーカーを添付し、携帯端末でアニメーションなどの付加広告(商品情報)を見ることができる。
例えば、パンフレットに本発明で利用するマーカーを添付し、携帯端末でアニメーションなどの付加広告(商品情報)を見ることができる。
図15に示すように、例えば車のパンフレットの場合、パンフレットに印刷された写真は静止しているが、同ページに印刷されたマーカー(商品情報取得マーカー)を携帯端末で写すことにより、動画像の広告を表示したりすることが可能となる。
具体的には、実施の形態2に示した手順と同様の手順にて実現可能であり、利用者がパンフレットに印刷されたマーカーを撮影すると、画像・映像キャプチャ部2でその画像をキャプチャし、キャプチャした画像を位置情報マーカー認識部3に引き渡す。位置情報マーカー認識部3では、まずマーカー切り出し部8において画像中からマーカーを探索し、検出したマーカーを画像から切り出す。次に、カメラ位置・角度認識部においてカメラの位置および角度に応じて歪んだマーカーを、マーカー認識部10において認識しやすいように、マーカーを正面から撮影した場合の状態を推定し、マーカー画像を正規化した後、マーカー認識部10がマーカー画像を認識し、マーカーに記述された情報を取得する。マーカーには情報を引き出すためのIDの他に、アクセスすべきサーバのアドレスが記述されているため、通信部41がマーカーに記述されたアドレスを基に該当するサーバにアクセスし、マーカーに記述された情報IDを基にアニメーションによる付加広告を取得し、ディスプレイ14に表示する。
このように、本実施の形態によれば、パンフレット等に印刷されたマーカーの記述に基づいて商品の付加広告を容易に取得することができる。
ここで、実施の形態1〜3に示した位置関連情報提示装置の特徴を以下にて再言する。
実施の形態1記載の位置関連情報提示装置は、画像・映像キャプチャ部と位置情報マーカー認識部と情報獲得部と位置関連情報DBと情報重畳部と画像映像表示部を備え、GPSやジャイロなどの特別な位置測位装置を用いるかわりに、矩形マーカーの歪み度を認識することにより利用者の位置情報と方向を正確に測位し、関連情報をキャプチャした画像や映像に合わせて重畳することを特徴とする。
実施の形態1記載の位置関連情報提示装置において、位置情報マーカー認識部は、コーナー検出処理と直線抽出処理を用いて画像中のマーカーを正確に抽出可能とするマーカー切り出し部を備えることを特徴とする。
実施の形態1記載の位置関連情報提示装置において、位置情報マーカー認識部は、切り出したマーカーの端点の座標からマーカーを撮影したカメラの位置や角度を正確に推定するカメラ位置・角度認識部を備えたことを特徴とする。
実施の形態1記載の位置関連情報提示装置において、位置情報マーカー認識部は、カメラの位置や角度の情報を基に、撮影されたマーカーの歪みを補正し、認識を容易にするマーカー認識部を備えたことを特徴とする。
実施の形態1記載の位置関連情報提示装置において、情報重畳部は、カメラの位置や角度の情報を基に、撮影した映像や画像中の構造物に合わせて、情報を重畳する重畳画像作成部を備えたことを特徴とする。
実施の形態2記載の位置関連情報提示装置は、通信部を備え、ネットワークを介して情報を獲得できるようにすることを特徴とする。
実施の形態3記載の位置関連情報提示装置は、例えば静止画広告の隣にマーカーを貼り付けることにより、端末を介して静止画に関連するアニメーションや動画の広告を見ることを可能とする。
1 位置関連情報提示装置、2 画像・映像キャプチャ部、3 位置情報マーカー認識部、4 情報獲得部、5 提示情報DB、6 情報重畳部、7 画像・映像表示部、8 マーカー切り出し部、9 カメラ位置・角度認識部、10 マーカー認識部、11 重畳画像作成部、12 画像重畳部、13 カメラ、14 ディスプレイ、39 通信部、40 位置関連情報サーバ。
Claims (13)
- 所定の形状を有し自身の位置が記述された位置情報マーカーを撮影可能な撮影装置と、接続可能な情報処理装置であって、
前記撮影装置が撮影した、位置情報マーカーの画像が含まれる撮影画像をキャプチャする画像キャプチャ部と、
前記画像キャプチャ部がキャプチャした撮影画像の中から位置情報マーカーの画像を抽出し、抽出した位置情報マーカーの画像の形状から位置情報マーカーと前記撮影装置との距離及び位置情報マーカーに対する前記撮影装置の角度の少なくともいずれかを判別するとともに、位置情報マーカーの記述を読み取るマーカー画像処理部とを有することを特徴とする情報処理装置。 - 前記情報処理装置は、所定の表示情報を表示可能な表示装置に接続可能であり、
前記情報処理装置は、更に、
前記マーカー画像処理部により読み取られた位置情報マーカーの記述に基づき、位置情報マーカーの位置に関連する表示情報を取得する情報取得部と、
前記マーカー画像処理部により判別された位置情報マーカーと前記撮影装置との距離及び位置情報マーカーに対する前記撮影装置の角度の少なくともいずれかに基づいて、前記情報取得部により取得された表示情報を加工する表示情報加工部と、
前記表示情報加工部により加工された表示情報を前記表示装置に出力する表示処理部とを有することを特徴とする請求項1に記載の情報処理装置。 - 前記撮影装置は、矩形の位置情報マーカーを撮影可能であり、
前記マーカー画像処理部は、
前記画像キャプチャ部がキャプチャした撮影画像に含まれるコーナー部分を検出するコーナー検出処理、及び前記画像キャプチャ部がキャプチャした撮影画像に含まれる直線部分を検出する直線検出処理を行って、前記画像キャプチャ部がキャプチャした撮影画像の中から矩形の位置情報マーカーの画像を抽出することを特徴とする請求項1に記載の情報処理装置。 - 前記撮影装置は、矩形の位置情報マーカーを撮影可能であり、
前記マーカー画像処理部は、
前記画像キャプチャ部がキャプチャした撮影画像の中から矩形の位置情報マーカーの画像を抽出するとともに、抽出した矩形の位置情報マーカーの画像について各端点の座標を求め、各端点の座標に基づき、位置情報マーカーと前記撮影装置との距離及び位置情報マーカーに対する前記撮影装置の角度の少なくともいずれかを判別することを特徴とする請求項1に記載の情報処理装置。 - 前記マーカー画像処理部は、
判別した位置情報マーカーと前記撮影装置との距離及び位置情報マーカーに対する前記撮影装置の角度の少なくともいずれかに基づき、位置情報マーカーの画像の歪みを補正し、歪み補正後の位置情報マーカーの画像から位置情報マーカーの記述を読み取ることを特徴とする請求項1に記載の情報処理装置。 - 前記表示情報加工部は、
前記情報取得部が取得した表示情報と前記画像キャプチャ部がキャプチャした撮影画像とを重畳して重畳表示情報を生成し、
前記表示処理部は、前記表示情報加工部により生成された重畳表示情報を前記表示装置に出力することを特徴とする請求項2に記載の情報処理装置。 - 前記表示情報加工部は、
前記マーカー画像処理部により判別された位置情報マーカーと前記撮影装置との距離及び位置情報マーカーに対する前記撮影装置の角度の少なくともいずれかに適合させて前記情報取得部が取得した表示情報と前記画像キャプチャ部がキャプチャした撮影画像とを重畳して重畳表示情報を生成することを特徴とする請求項6に記載の情報処理装置。 - 前記情報処理装置は、更に、
複数の表示情報を保有する表示情報データベースを有し、
前記情報取得部は、
位置情報マーカーの位置に関連する表示情報を前記表示情報データベースから取得することを特徴とする請求項2に記載の情報処理装置。 - 前記情報処理装置は、更に、
複数の表示情報を保有する表示情報保有装置と通信可能な通信部を有し、
前記情報取得部は、
位置情報マーカーの位置に関連する表示情報を、前記通信部を介して前記表示情報保有装置から取得することを特徴とする請求項2に記載の情報処理装置。 - 前記撮影装置は、商品情報の取得のための記述がなされた商品情報取得マーカーを撮影可能であり、
前記画像キャプチャ部は、
前記撮影装置が撮影した、商品情報取得マーカーの画像が含まれる撮影画像をキャプチャし、
前記マーカー画像処理部は、
前記画像キャプチャ部がキャプチャした撮影画像の中から商品情報取得マーカーの画像を抽出し、抽出した商品情報取得マーカーの画像から商品情報取得マーカーの記述を読み取り、
前記情報取得部は、
前記マーカー画像処理部により読み取られた商品情報取得マーカーの記述に基づき、商品情報取得マーカーに関連する商品情報を取得し、
前記表示処理部は、
前記情報取得部により取得された商品情報を前記表示装置に出力することを特徴とする請求項2に記載の情報処理装置。 - 前記情報処理装置は、
位置を測位するための位置測位装置を用いることなく、位置情報マーカーと前記撮影装置との距離及び位置情報マーカーに対する前記撮影装置の角度の少なくともいずれかを判別するとともに、位置情報マーカーの記述を読み取ることを特徴とする請求項1に記載の情報処理装置。 - 前記情報処理装置は、
前記撮影装置及び前記表示装置を備えることを特徴とする請求項2に記載の情報処理装置。 - 所定の形状を有し自身の位置が記述された位置情報マーカーを所定の撮影装置を用いて撮影する撮影ステップと、
前記撮影ステップにより撮影された、位置情報マーカーの画像が含まれる撮影画像をキャプチャする画像キャプチャステップと、
前記画像キャプチャステップによりキャプチャされた撮影画像の中から位置情報マーカーの画像を抽出し、抽出した位置情報マーカーの画像の形状から位置情報マーカーと前記撮影装置との距離及び位置情報マーカーに対する前記撮影装置の角度の少なくともいずれかを判別するとともに、位置情報マーカーの記述を読み取るマーカー画像処理ステップとを有することを特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003346458A JP2005115500A (ja) | 2003-10-06 | 2003-10-06 | 情報処理装置及び情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003346458A JP2005115500A (ja) | 2003-10-06 | 2003-10-06 | 情報処理装置及び情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005115500A true JP2005115500A (ja) | 2005-04-28 |
Family
ID=34539374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003346458A Withdrawn JP2005115500A (ja) | 2003-10-06 | 2003-10-06 | 情報処理装置及び情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005115500A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007333679A (ja) * | 2006-06-19 | 2007-12-27 | Mitsubishi Electric Corp | 3次元位置補正装置 |
US7904238B2 (en) * | 2002-12-30 | 2011-03-08 | Mapquest, Inc. | Presenting a travel route using more than one presentation style |
JP2011193157A (ja) * | 2010-03-12 | 2011-09-29 | Fujitsu Ltd | 撮像装置、撮像方法および撮像プログラム |
US8335646B2 (en) | 2002-12-30 | 2012-12-18 | Aol Inc. | Presenting a travel route |
EP2575105A2 (en) | 2011-09-29 | 2013-04-03 | Casio Computer Co., Ltd. | Information acquisition device, information acquisition method, program, and information acquisition system |
EP2665251A2 (en) | 2012-05-18 | 2013-11-20 | Yokogawa Electric Corporation | Information display device and information display method |
EP2814239A2 (en) | 2013-06-13 | 2014-12-17 | Yokogawa Electric Corporation | Information display apparatus and information display method |
CN105433950A (zh) * | 2015-10-31 | 2016-03-30 | 芜湖市振华戎科智能科技有限公司 | 基于北斗导航的野外单兵作战用移动终端 |
US9378558B2 (en) | 2013-09-11 | 2016-06-28 | Ricoh Company, Ltd. | Self-position and self-orientation based on externally received position information, sensor data, and markers |
-
2003
- 2003-10-06 JP JP2003346458A patent/JP2005115500A/ja not_active Withdrawn
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8954274B2 (en) | 2002-12-30 | 2015-02-10 | Facebook, Inc. | Indicating a travel route based on a user selection |
US7904238B2 (en) * | 2002-12-30 | 2011-03-08 | Mapquest, Inc. | Presenting a travel route using more than one presentation style |
US8335646B2 (en) | 2002-12-30 | 2012-12-18 | Aol Inc. | Presenting a travel route |
US10113880B2 (en) | 2002-12-30 | 2018-10-30 | Facebook, Inc. | Custom printing of a travel route |
US9599487B2 (en) | 2002-12-30 | 2017-03-21 | Mapquest, Inc. | Presenting a travel route |
US8977497B2 (en) | 2002-12-30 | 2015-03-10 | Aol Inc. | Presenting a travel route |
JP2007333679A (ja) * | 2006-06-19 | 2007-12-27 | Mitsubishi Electric Corp | 3次元位置補正装置 |
JP2011193157A (ja) * | 2010-03-12 | 2011-09-29 | Fujitsu Ltd | 撮像装置、撮像方法および撮像プログラム |
EP2575105A2 (en) | 2011-09-29 | 2013-04-03 | Casio Computer Co., Ltd. | Information acquisition device, information acquisition method, program, and information acquisition system |
US9241110B2 (en) | 2012-05-18 | 2016-01-19 | Yokogawa Electric Corporation | Information display device and information device system |
EP2665251A2 (en) | 2012-05-18 | 2013-11-20 | Yokogawa Electric Corporation | Information display device and information display method |
EP2814239A3 (en) * | 2013-06-13 | 2015-03-04 | Yokogawa Electric Corporation | Information display apparatus and information display method |
CN104238980A (zh) * | 2013-06-13 | 2014-12-24 | 横河电机株式会社 | 信息显示设备和信息显示方法 |
EP2814239A2 (en) | 2013-06-13 | 2014-12-17 | Yokogawa Electric Corporation | Information display apparatus and information display method |
US9704455B2 (en) | 2013-06-13 | 2017-07-11 | Yokogawa Electric Corporation | Information display apparatus and information display method for superimposing additional information on an image |
CN104238980B (zh) * | 2013-06-13 | 2018-01-09 | 横河电机株式会社 | 信息显示设备和信息显示方法 |
US9378558B2 (en) | 2013-09-11 | 2016-06-28 | Ricoh Company, Ltd. | Self-position and self-orientation based on externally received position information, sensor data, and markers |
CN105433950A (zh) * | 2015-10-31 | 2016-03-30 | 芜湖市振华戎科智能科技有限公司 | 基于北斗导航的野外单兵作战用移动终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11080885B2 (en) | Digitally encoded marker-based augmented reality (AR) | |
JP4958497B2 (ja) | 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体 | |
US10134196B2 (en) | Mobile augmented reality system | |
US10198661B2 (en) | System for determining alignment of a user-marked document and method thereof | |
US7286725B2 (en) | Information presentation apparatus for suggesting a presentation accuracy of related information and information presentation method | |
US20140285523A1 (en) | Method for Integrating Virtual Object into Vehicle Displays | |
CN110969592B (zh) | 图像融合方法、自动驾驶控制方法、装置和设备 | |
US20060008268A1 (en) | Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method | |
US20160292888A1 (en) | Image measurement device, and recording medium | |
JP4242529B2 (ja) | 関連情報呈示装置及び関連情報呈示方法 | |
JP2009140402A (ja) | 情報表示装置、情報表示方法、情報表示プログラム及び情報表示プログラムを記録した記録媒体 | |
JP2005115500A (ja) | 情報処理装置及び情報処理方法 | |
JP5262232B2 (ja) | 画像上方位表示方法及び装置並びに写真 | |
CN101180657A (zh) | 信息终端 | |
CN115731304A (zh) | 一种道路数据生成方法、装置及设备 | |
CN111512120A (zh) | 用于显示增强现实poi信息的方法、装置和系统 | |
JP3912638B2 (ja) | 3次元画像処理装置 | |
KR20140128647A (ko) | 증강현실 제공 장치 및 그 방법 | |
KR101463906B1 (ko) | 영상 부가정보를 이용한 위치보정 방법 | |
KR101224176B1 (ko) | 아웃도어 증강현실의 정확도 향상 시스템 및 그 방법 | |
CN113536854A (zh) | 一种高精地图路牌的生成方法、装置及服务器 | |
JP2016161445A (ja) | 屋根勾配推定システム及び屋根勾配推定方法 | |
US9245192B2 (en) | Ad collateral detection | |
JP5168313B2 (ja) | 画像表示装置 | |
Wang et al. | Estimating heights of buildings from geotagged photos for data enrichment on OpenStreetMap |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060907 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090316 |