JP2013134538A - 情報処理端末、情報処理方法、およびプログラム - Google Patents

情報処理端末、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2013134538A
JP2013134538A JP2011283007A JP2011283007A JP2013134538A JP 2013134538 A JP2013134538 A JP 2013134538A JP 2011283007 A JP2011283007 A JP 2011283007A JP 2011283007 A JP2011283007 A JP 2011283007A JP 2013134538 A JP2013134538 A JP 2013134538A
Authority
JP
Japan
Prior art keywords
identifier
information processing
processing terminal
unit
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011283007A
Other languages
English (en)
Other versions
JP5387668B2 (ja
Inventor
Takatoshi Nakamura
隆俊 中村
Atsushi Shionozaki
敦 塩野崎
Koshiro Mitsuya
光史朗 三屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011283007A priority Critical patent/JP5387668B2/ja
Priority to US13/705,456 priority patent/US9269004B2/en
Priority to CN201210554904.XA priority patent/CN103198286B/zh
Publication of JP2013134538A publication Critical patent/JP2013134538A/ja
Application granted granted Critical
Publication of JP5387668B2 publication Critical patent/JP5387668B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】識別子を認識できなくなった場合でも、識別子に対応する情報を表示させ続けることができるようにする
【解決手段】本技術の一側面の情報処理端末は、画像に写る識別子を認識する認識部と、前記識別子に対応するオブジェクトのデータを取得する取得部と、前記画像に基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変えるとともに、前記識別子を認識できなくなった場合、センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変える処理部と、前記識別子と情報処理端末自身の位置関係に応じて向きを変えた前記オブジェクトを前記画像に重ねて表示させる表示制御部とを備える。本技術は、カメラと表示部を備える携帯端末に適用することができる。
【選択図】図9

Description

本技術は、情報処理端末、情報処理方法、およびプログラムに関し、特に、識別子を認識できなくなった場合でも、識別子に対応する情報を表示させ続けることができるようにした情報処理端末、情報処理方法、およびプログラムに関する。
近年、拡張現実感(AR(Augmented Reality))に関する技術が注目されている。ARのアプリケーションには、いわゆるスマートフォンなどでユーザによって撮影された画像に写る対象を認識し、認識した対象に関する情報を撮影画像に重ねて表示するものがある。
ユーザは、例えば商品の広告のポスターに印刷された二次元マーカーを撮影したときにディスプレイ上のポスターの画像に重ねて表示される情報から、商品の詳細を確認することができる。二次元マーカーは、白の領域と黒の領域のパターンによって所定の情報を表すものである。表現したい情報をコード化することによって、白の領域と黒の領域のパターンが決定される。
特開2011−204047号公報
二次元マーカーを認識して情報を表示するようなマーカー型ARのアプリケーションにおいては、当然、撮影した画像に二次元マーカーが写っている必要がある。
従って、例えば二次元マーカーを認識している間、二次元マーカーに対応する情報を表示し続けるような場合、それまで写っていた二次元マーカーが画像から外れてしまうと、二次元マーカーの認識が途切れてしまい、情報の表示が終了してしまう。
本技術はこのような状況に鑑みてなされたものであり、識別子を認識できなくなった場合でも、識別子に対応する情報を表示させ続けることができるようにするものである。
本技術の一側面の情報処理端末は、画像に写る識別子を認識する認識部と、前記識別子に対応するオブジェクトのデータを取得する取得部と、前記画像に基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変えるとともに、前記識別子を認識できなくなった場合、センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変える処理部と、前記識別子と情報処理端末自身の位置関係に応じて向きを変えた前記オブジェクトを前記画像に重ねて表示させる表示制御部とを備える。オブジェクトの向きだけでなく、オブジェクトの表示サイズを変更することも可能である。
撮影部をさらに設けることができる。この場合、前記認識部には、前記撮影部により撮影された前記画像に写る前記識別子を認識させることができる。
前記処理部には、前記識別子を認識できなくなった場合、最後に前記識別子を認識できたとき以降に検出された前記センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変えさせることができる。
前記センサデータを検出するセンサ部をさらに設けることができる。
前記センサ部はジャイロセンサにより構成されるようにすることができる。
前記識別子は、色の異なる領域から構成される二次元のコードであるようにすることができる。
本技術の一側面においては、画像に写る識別子が認識され、前記識別子に対応するオブジェクトのデータが取得される。また、前記画像に基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変えるとともに、前記識別子を認識できなくなった場合、センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変える処理が行われ、前記識別子と情報処理端末自身の位置関係に応じて向きを変えた前記オブジェクトが前記画像に重ねて表示される。
本技術によれば、識別子を認識できなくなった場合でも、識別子に対応する情報を表示させ続けることができる。
情報処理端末の正面の構成例を示す図である。 情報処理端末の背面の構成例を示す図である。 二次元マーカーの例を示す図である。 3Dオブジェクトの例を示す図である。 二次元マーカーが印刷された紙が置かれている実空間を示す斜視図である。 表示部の表示例を示す図である。 表示部の他の表示例を示す図である。 表示部のさらに他の表示例を示す図である。 情報処理端末と二次元マーカーの位置の関係について説明する図である。 表示部の表示例を示す図である。 情報処理端末のハードウェア構成例を示す図である。 ジャイロセンサが計測する角速度について説明する図である。 制御部の機能構成例を示すブロック図である。 情報処理端末による3Dオブジェクト表示処理について説明するフローチャートである。 図14のステップS6において行われる回転行列計算処理について説明するフローチャートである。 座標系の例を示す図である。 センサデータに基づく回転行列の計算について説明する図である。 コンピュータの構成例を示すブロック図である。
<情報処理端末の外観構成>
図1は、本技術の一実施形態に係る情報処理端末の外観の例を示す図である。
情報処理端末1はいわゆるスマートフォンなどの、ユーザが片手で把持可能な大きさの筐体を有する携帯端末である。情報処理端末1の筐体の正面1AにはLCD(Liquid Crystal Display)などよりなる表示部11が設けられる。表示部11にはタッチパネルが積層して設けられており、ユーザは、表示部11に表示されるボタンなどに指で直接触れて各種の操作を行うことができる。
情報処理端末1の筐体の背面1Bには、図2に示すようにカメラ12が設けられる。カメラ12により取り込まれた画像(キャプチャ画像)は表示部11にリアルタイムで表示される。ユーザは、表示部11の表示を見て、キャプチャ画像に写る対象を確認することができる。
このような外観構成を有する情報処理端末1には二次元マーカーの認識機能が搭載されている。キャプチャ画像に写る二次元マーカーを認識したとき、情報処理端末1は、認識した二次元マーカーに対応する情報を取得し、取得した情報をキャプチャ画像に重ねて表示させる。
後述するように、二次元マーカーに対応する情報として3Dオブジェクトのデータがインターネットなどを介して取得され、キャプチャ画像に重ねて表示される。3Dオブジェクトの向きと位置が、二次元マーカーと情報処理端末1の位置関係によって変化する。
<二次元マーカーの例>
図3は、二次元マーカーの例を示す図である。
二次元マーカー21は、破線で示す範囲内に白の領域と黒の領域が配置されることによって構成される。ほぼ正方形の形状を有する黒の領域であるマークM1は二次元マーカー21の左上隅を表し、マークM2は二次元マーカー21の左下隅を表す。マークM3は二次元マーカー21の右下隅を表し、マークM4は二次元マーカー21の右上隅を表す。マークM2とマークM3の下に配置され、長手方向の長さが二次元マーカー21の左右方向の長さとほぼ同じ長さの長方形の形状を有するマークM5は、二次元マーカー21の向きの基準を表す。
情報処理端末1は、キャプチャ画像に二次元マーカー21が写っている場合、マークM1〜M4の位置から、実空間上の二次元マーカー21の範囲を特定することができる。また、情報処理端末1は、マークM5の位置から、実空間上の二次元マーカー21の向きを特定することができる。
マークM1とマークM2の間に配置されるマークM11の形状と、マークM2とマークM3の間に配置されるマークM12の形状が識別情報を表す。情報処理端末1は、マークM11の形状とマークM12の形状を認識し、認識した形状により表される識別情報に対応する3Dオブジェクトのデータを二次元マーカー21に対応する情報として取得する。なお、二次元マーカー21による識別情報の表現方法はマークM12の形状を用いた方法に限定されるものではなく、他の方法であってもよい。また、特定の3Dオブジェクトだけを表示する場合、識別情報は不要となる。
<3Dオブジェクトの表示例>
図4は、3Dオブジェクトの例を示す図である。
図4に示すオブジェクト31は、デジタルスチルカメラの外観を有する3Dオブジェクトである。情報処理端末1には、図4のデジタルスチルカメラを様々な角度から見たときの外観のデータがオブジェクト31のデータとしてインターネットなどを介して取得され、用意されている。オブジェクト31の正面にはレンズなどが設けられ、上面にはシャッタボタンが設けられている。
例えば、ユーザが情報処理端末1のカメラ12を図3の二次元マーカー21に向けたとき、キャプチャ画像に写る二次元マーカー21が情報処理端末1により認識される。情報処理端末1の表示部11には、キャプチャ画像上に図4のオブジェクト31が重ねて表示される。
図5は、二次元マーカー21が印刷された紙が置かれている実空間を示す斜視図である。
机などの水平面上に置かれた紙Pには、マークM5の長手方向の辺が紙Pの下辺とほぼ平行になるように二次元マーカー21が印刷されている。ユーザは、このような状態で用意される二次元マーカー21にカメラ12を向け、二次元マーカー21を情報処理端末1に認識させることになる。
以下、適宜、図5の左右方向をX軸方向(右方向を+、左方向を−)、左下から右上に向かう方向をY軸方向(右上方向を+、左下方向を−)、上下方向をZ軸方向(上方向を+、下方向を−)として説明する。カメラ12の位置を基準とすると、白抜き矢印#1の方向は二次元マーカー21を斜め上から+Y方向に見る方向であり、白抜き矢印#2の方向は二次元マーカー21を斜め上から−X方向に見る方向である。
図6は、図5の二次元マーカー21が認識されたときの表示部11の表示例を示す図である。
図6は、表示部11のほぼ中央に二次元マーカー21がくるように、カメラ12を図5の白抜き矢印#3の方向に向けた状態で撮影が行われた場合の表示例を示している。二次元マーカー21が認識されることによって、キャプチャ画像中の二次元マーカー21が写っている位置の近くには、実空間上で二次元マーカー21上に若干浮いているような状態のオブジェクト31が表示されている。
オブジェクト31の向きは、レンズなどが設けられている正面がマークM5に向くような向きになっている。オブジェクト31は、常に、正面がマークM5に向くような状態で表示される。これにより、ユーザは、図5に示す状態の二次元マーカー21を撮影することによって、オブジェクト31が表すデジタルスチルカメラの正面を若干右斜め上の位置から見ることができる。
図7は、表示部11のほぼ中央に二次元マーカー21がくるように、カメラ12を図5の白抜き矢印#1の方向に向けた状態で撮影が行われた場合の表示例を示している。この例の場合、キャプチャ画像に重ねて表示されるオブジェクト31は、デジタルスチルカメラのほぼ正面を、斜め上の位置から見たものになる。
図8は、表示部11のほぼ中央に二次元マーカー21がくるように、カメラ12を図5の白抜き矢印#2の方向に向けた状態で撮影が行われた場合の表示例を示している。この例の場合、キャプチャ画像に重ねて表示されるオブジェクト31は、デジタルスチルカメラの右側面を、斜め上の位置から見たものになる。
このように、情報処理端末1にはデジタルスチルカメラを様々な位置から見たときのデータが用意されており、キャプチャ画像に重ねて表示されるオブジェクト31の向きと位置が、情報処理端末1と二次元マーカー21の位置関係に応じて変化する。
ユーザは、撮影位置を変え、紙Pに印刷された二次元マーカー21を様々な位置から撮影することによって、その位置に応じたデジタルスチルカメラの外観を見ることができる。図示は省略するが、例えばマークM5を奥にして、マークM1とマークM4が手前にくるようにして二次元マーカー21を撮影することによって、ユーザは、デジタルスチルカメラの背面を見ることができる。
図6〜図8のようなオブジェクト31の表示は、二次元マーカー21が認識されている間、リアルタイムで続けて行われる。撮影範囲から二次元マーカー21が外れないように位置を変えてキャプチャ画像の撮影が行われている場合、キャプチャ画像に写る二次元マーカー21の向きに応じて、順次、異なる方向から見たオブジェクト31が表示されることになる。
また、オブジェクト31の表示は、二次元マーカー21を認識できなくなった後においても、ジャイロセンサなどのセンサデータより推定される情報処理端末1と二次元マーカー21の位置関係に応じて続けられる。情報処理端末1にはジャイロセンサなどのセンサが設けられている。
図9は、情報処理端末1と二次元マーカー21の位置の関係について説明する図である。図9は、図5の環境を、机の上面の高さと同じ高さから−X方向に見た断面図である。
例えば、二次元マーカー21を真正面から撮影可能な位置である位置p1に情報処理端末1がある場合、表示部11には、真上から見た状態のオブジェクト31がキャプチャ画像に重ねて表示される。位置p1は、カメラ12の光軸Lが、二次元マーカー21面(二次元マーカー21が印刷された紙Pが置かれた水平面)の垂線と平行になる位置である。なお、図9に示すオブジェクト31は実空間にあるものではなく、情報処理端末1からの見え方を説明するために示すものである。
二次元マーカー21との距離を固定とし、カメラ12を二次元マーカー21に向けたまま、矢印A1で示すように情報処理端末1の位置を位置p1から水平面に近づけた場合について説明する。この場合、オブジェクト31の見え方は、キャプチャ画像から特定される情報処理端末1と二次元マーカー21の位置関係に応じて、オブジェクト31の正面が徐々に見えてくるように変化する。例えばカメラ12が位置p2にあるとき、表示部11には、図7に示す見え方のオブジェクト31が表示される。
情報処理端末1を水平面に近づけ、情報処理端末1の位置が位置p3を超えたとき、情報処理端末1は、キャプチャ画像に写る二次元マーカー21を認識できなくなる。位置p3は、カメラ12の光軸Lと水平面との角度が角度αとなる位置である。キャプチャ画像に写る二次元マーカー21の歪みが大きくなることによって、位置p3が、二次元マーカー21を認識できる限界の位置となる。
位置p3を超えたとき、情報処理端末1は、最後に二次元マーカー21を認識できたとき以降の自身の位置の変化をセンサデータに基づいて特定し、現在の情報処理端末1と二次元マーカー21の位置関係に応じてオブジェクト31の表示を続ける。
図10は、情報処理端末1の位置が位置p3より低い位置にあるときの表示部11の表示例を示す図である。この場合、キャプチャ画像に重ねて表示されるオブジェクト31は、図7の位置より低い位置から、デジタルスチルカメラのほぼ真正面を見たものになる。
これにより、情報処理端末1は、二次元マーカー21の認識限界位置である位置p3より低い位置から見た状態のオブジェクト31を表示させることが可能になる。すなわち、ジャイロセンサなどのセンサの計測値が、キャプチャ画像に基づいて特定された二次元マーカー21と情報処理端末1の位置関係の補正に用いられ、オブジェクト31の表示が続けられることになる。
以上のようにしてオブジェクト31を表示させる情報処理端末1の一連の処理についてはフローチャートを参照して後述する。
<情報処理端末1の構成例>
図11は、情報処理端末1のハードウェア構成例を示す図である。
情報処理端末1には、上述した表示部11、カメラ12の他に、制御部51、ジャイロセンサ52、メモリ53、および通信部54が設けられる。
制御部51は、メモリ53などに記憶されているプログラムを実行し、情報処理端末1の全体の動作を制御する。例えば、制御部51は、カメラ12から供給されたキャプチャ画像に写る二次元マーカー21を認識できたとき、二次元マーカー21により表される識別情報に対応する3Dオブジェクトのデータを取得する。制御部51は、情報処理端末1と二次元マーカー21の位置の関係をキャプチャ画像に基づいて特定し、特定した関係に応じて向きと位置を変えた3Dオブジェクトをキャプチャ画像に重ねて表示部11に表示させる。
また、制御部51は、二次元マーカー21を認識できなくなったとき、最後に二次元マーカー21を認識できたときの状態を基準として、現在の情報処理端末1と二次元マーカー21の位置関係をジャイロセンサ52の出力に基づいて特定する。制御部51は、情報処理端末1と二次元マーカー21の位置関係に応じて3Dオブジェクトの向きと位置を変え、3Dオブジェクトをキャプチャ画像に重ねて表示部11に表示させることを、二次元マーカー21を認識できなくなった後も続ける。
ジャイロセンサ52は、図12に示すように、X軸、Y軸、Z軸のそれぞれの軸周りに生じた角速度を計測し、計測値をセンサデータとして制御部51に出力する。
メモリ53はフラッシュメモリなどよりなり、制御部51により実行されるプログラムや、インターネット上のサーバから送信されてきた3Dオブジェクトのデータを記憶する。メモリ53に記憶されたデータは制御部51により適宜読み出される。
通信部54は、制御部51による制御に従って外部の装置と通信を行う。例えば、通信部54は、インターネットを介してサーバと通信を行い、二次元マーカー21により表される識別情報に対応する3Dオブジェクトのデータの送信を要求する。通信部54は、要求に応じてサーバから送信されてきたデータを受信し、制御部51に出力する。制御部51に出力されたデータは、表示部11の表示に用いられるとともに、メモリ53に供給され、保存される。
図13は、制御部51の機能構成例を示すブロック図である。図13に示す機能部のうちの少なくとも一部は、図11の制御部51により所定のプログラムが実行されることによって実現される。
制御部51においては、画像解析部61、マーカー認識部62、オブジェクトデータ取得部63、回転行列計算部64、回転処理部65、および表示制御部66が実現される。カメラ12により取り込まれたキャプチャ画像は画像解析部61と表示制御部66に入力される。
画像解析部61は、キャプチャ画像を解析し、二次元マーカー21の位置を取得する。画像解析部61により取得される二次元マーカー21の位置の情報には、二次元マーカー21を構成するそれぞれの黒の領域の位置に関する情報が含まれる。画像解析部61により取得された二次元マーカー21の位置に関する情報は、キャプチャ画像の解析結果としてマーカー認識部62と回転行列計算部64に供給される。
マーカー認識部62は、画像解析部61の解析結果に基づいて二次元マーカー21の認識を行う。マーカー認識部62は、二次元マーカー21を認識できたとき、そのことを表す情報を回転行列計算部64に出力するとともに、二次元マーカー21により表される識別情報をオブジェクトデータ取得部63に出力する。また、マーカー認識部62は、二次元マーカー21を認識できなくなったとき、そのことを表す情報を回転行列計算部64に出力する。
オブジェクトデータ取得部63は、マーカー認識部62から供給された識別情報に対応する3Dオブジェクトのデータをメモリ53から読み出すことによって、または、通信部54を制御してサーバと通信を行うことによって取得する。オブジェクトデータ取得部63は、取得した3Dオブジェクトのデータを回転処理部65に出力する。
回転行列計算部64は、マーカー認識部62により二次元マーカー21の認識が行われている場合、画像解析部61の解析結果に基づいて、キャプチャ画像に重ねて表示させる3Dオブジェクトの向きの回転量と位置の変換量を表す回転行列を計算する。マーカー認識部62により二次元マーカー21の認識が行われている場合に求められる回転行列は、キャプチャ画像に基づいて特定される、情報処理端末1と二次元マーカー21の位置の関係に応じたものになる。回転行列の計算については後述する。
また、回転行列計算部64は、二次元マーカー21を認識できなくなった場合、ジャイロセンサ52から供給されるセンサデータに基づいて回転行列を計算する。二次元マーカー21の認識ができなくなった場合に求められる回転行列は、センサデータに基づいて特定される現在の情報処理端末1と二次元マーカー21の位置の関係に応じたものになる。
回転行列計算部64は、計算により求めた回転行列を回転処理部65に出力する。
回転処理部65は、回転行列計算部64により求められた回転行列を、オブジェクトデータ取得部63から供給されたデータにより表される3Dオブジェクトに適用し、回転行列適用後の3Dオブジェクトのデータを表示制御部66に出力する。回転行列を適用することによって、3Dオブジェクトの向きと位置が情報処理端末1と二次元マーカー21の位置の関係に応じて変わることになる。
表示制御部66は、回転処理部65から供給された回転行列適用後の3Dオブジェクトをキャプチャ画像に重ねて表示部11に表示させる。
<情報処理端末1の動作>
ここで、図14のフローチャートを参照して、情報処理端末1による3Dオブジェクトの表示処理について説明する。
図14の処理は、例えば、表示部11に表示されるメニュー画面から、二次元マーカー21の認識機能を有するアプリケーションの起動が指示された後に開始される。アプリケーションが起動したとき、カメラ12によるキャプチャ画像の取り込みが開始される。ジャイロセンサ52においては所定の周期で角速度が繰り返し計測される。
ステップS1において、カメラ12はキャプチャ画像を取得する。
ステップS2において、画像解析部61は、カメラ12により取得されたキャプチャ画像を解析し、二次元マーカー21の位置を取得する。
ステップS3において、マーカー認識部62は、画像解析部61の解析結果に基づいて二次元マーカー21の認識を行う。
ステップS4において、マーカー認識部62は、二次元マーカー21を認識できたか否かを判定する。
二次元マーカー21を認識できたとステップS4において判定された場合、ステップS5において、オブジェクトデータ取得部63は、二次元マーカー21により表される識別情報に対応する3Dオブジェクトのデータを取得する。二次元マーカー21を認識できた場合、マーカー認識部62からオブジェクトデータ取得部63に対しては、二次元マーカー21の認識結果である識別情報が供給される。
ステップS6において、回転行列計算部64は回転行列計算処理を行う。回転行列計算処理については図15のフローチャートを参照して後述する。回転行列計算処理により、3Dオブジェクトの向きの回転と位置の変換に用いられる行列が回転行列計算部64により求められる。
ステップS7において、回転処理部65は、回転行列計算処理により求められた回転行列を、オブジェクトデータ取得部63から供給されたデータにより表される3Dオブジェクトに適用する。
ステップS8において、表示制御部66は、回転行列適用後の3Dオブジェクトをキャプチャ画像に重ねて表示部11に表示させる。
一方、二次元マーカー21を認識できなかったとステップS4において判定された場合、ステップS9において、回転行列計算部64は、ジャイロ補正、すなわちジャイロセンサ52の出力に基づく情報処理端末1と二次元マーカー21の位置関係の補正を行う期間であるか否かを判定する。例えば、二次元マーカー21を最後に認識できたタイミングから所定の時間内の期間、または、所定の値以上の角速度が計測されるまでの期間が、ジャイロ補正を行う期間として設定される。
ジャイロ補正を行う期間内であるとステップS9において判定した場合、ステップS10において、回転行列計算部64は、ジャイロセンサ52の現在の測定値と直前の測定値との差分を計算する。
ステップS11において、回転行列計算部64は、計算により求めた差分に基づいて回転行列を計算する。ここで求められる回転行列は、ジャイロセンサ52の測定値の差分により表される情報処理端末1の位置の変化から推定される、現在の情報処理端末1と二次元マーカー21の位置関係に応じた3Dオブジェクトの向きの回転量と位置の変換量を表すものになる。3Dオブジェクトの回転の基軸は、二次元マーカー21を最後に認識できたときのもので固定しておいてもよい。
ジャイロセンサ52の現在の測定値と直前の測定値との差分に基づいて回転行列が求められた後、ステップS7以降の処理が行われる。すなわち、現在の測定値と直前の測定値との差分に基づいて求められた回転行列が3Dオブジェクトに適用され、回転行列適用後の3Dオブジェクトがキャプチャ画像に重ねて表示される。
回転行列適用後の3DオブジェクトがステップS8においてキャプチャ画像に重ねて表示された後、または、ステップS9においてジャイロ補正を行う期間内ではないと判定された場合、処理は終了される。
以上の処理が、キャプチャ画像が取得される毎に繰り返し行われ、図6〜図8、および図9を参照して説明したようなオブジェクト31の表示が実現される。ユーザは、キャプチャ画像に基づく二次元マーカー21の認識限界位置である位置p3より低い位置にカメラ12の位置を移動させた場合であっても、その位置から見た状態のオブジェクト31を表示させ、確認することが可能になる。
次に、図15のフローチャートを参照して、図14のステップS6において行われる回転行列計算処理について説明する。
回転行列計算処理は、三次元空間(実空間)における二次元マーカー21の座標系であるマーカー座標系を、同じ三次元空間における情報処理端末1の座標系であるカメラ座標系に変換するための4×4行列を計算する処理である。
ここで、二次元マーカー21の四隅を示すマークM1〜M4のキャプチャ画像における中心位置の座標が、画像解析部61による解析結果に基づいて特定されているものとする。
また、変換先となるカメラ座標系を、キャプチャ画像の右方向を+X方向、キャプチャ画像の下方向を+Y方向、キャプチャ画像の奥行き方向を+Z方向で表される座標系とする。原点はカメラ12の位置である。
さらに、変換元となるマーカー座標系を、図3の向きを基準として二次元マーカー21の右方向を+X方向、二次元マーカー21の下方向を+Y方向、二次元マーカー21の表面から裏面へ向かう方向を+Z方向で表される座標系とする。原点は二次元マーカー21の中央である。二次元マーカー21のサイズを長さ1×1で表されるサイズとする。
キャプチャ画像の2次元の座標を、右方向を+X方向、下方向を+Y方向で表される座標とする。キャプチャ画像の中央位置を原点とする。
三次元空間におけるカメラ位置をOとする。また、二次元マーカー21の左上隅のマークM1、左下隅のマークM2、右下隅のマークM3、および右上隅のマークM4をそれぞれ点A,B,C,Dとする。マーカー座標系では、点A,B,C,DはそれぞれA=(-0.5,-0.5), B=(-0.5,0.5), C=(0.5,0.5), D=(0.5,-0.5)で表される。点A,B,C,Dを、キャプチャ画像中では点A2,B2,C2,D2とする。
ステップS21において、回転行列計算部64は、図16に示すようにカメラ座標系にZ=Z1(Z1は正の定数)の平面を規定し、この平面上に点A2,B2,C2,D2を投影する。投影した平面上の点をそれぞれ点A3,B3,C3,D3とする。カメラ位置Oと点A3,B3,C3,D3より、△OA3B3, OB3C3, OC3D3, OD3A3の4つの三角形が規定される。
ステップS22において、回転行列計算部64は、規定した4つの三角形の法線ベクトルを外積計算により求める。△OA3B3, OB3C3, OC3D3, OD3A3のそれぞれの法線ベクトルをVab, Vbc, Vcd, Vdaとする。
ステップS23において、回転行列計算部64は、外積Vab×VcdとVbc×Vdaを計算し、それぞれの計算結果をV1, V2とする。また、回転行列計算部64はV1×V2を行い、計算結果をV3とする。ベクトルV3が、平面ABCDの法線ベクトル、すなわちマーカー座標系のZ軸となる。
ステップS24において、回転行列計算部64は、カメラ位置Oと、点A3とC3を結ぶ対角線の両端より△OA3C3を規定するとともに、カメラ位置Oと、点B3とD3を結ぶ対角線の両端より△OB3D3を規定する。また、回転行列計算部64は、規定した2つの三角形の法線ベクトルを外積計算によって求め、求めた法線ベクトルをそれぞれVac, Vbdとする。
ステップS25において、回転行列計算部64は、外積Vac×V3とVbd×V3を計算し、それぞれの計算結果を対角線ベクトルV4, V5とする。
ステップS26において、回転行列計算部64は、対角線ベクトルV4, V5の和V4+V5を求め、ベクトルABとする。ベクトルABがマーカー座標系のY軸となる。
ステップS27において、回転行列計算部64は、対角線ベクトルV4, V5の差V4−V5を求め、ベクトルADとする。ベクトルADがマーカー座標系のX軸となる。これにより、二次元マーカー21のX,Y,Z軸の各方向の単位ベクトルが求められた状態になる。
ステップS28において、回転行列計算部64は、それぞれの単位ベクトルを3方向の要素成分により(x1,x2,x3), (y1,y2,y3), (z1,z2,z3)とし、以下の(1)の4×4行列である回転行列を求める。その後、図14のステップS6に戻り、それ以降の処理が行われる。
Figure 2013134538
<4×4行列について>
以上のようにして求められる4×4行列について説明する。4×4行列は、三次元座標における回転と平行移動(座標の変換)を示すために使用される表現の一つである。
4×4行列の作成手順は以下の3つのステップからなる。
1.回転変換を構成する3×3行列の作成
2.平行移動を構成する3×1行列の作成
3.2つの行列を合成して4×4行列の作成
[1.回転変換を構成する3×3行列の作成]
三次元座標をx,y,zの三つの成分を持つ3行1列ベクトルで表現すると、回転前の3×1ベクトルを回転後の3×1ベクトルに変換する計算は、3×3行列の右側に回転前ベクトルを掛け合わせる下式(2)として表される。
Figure 2013134538
[2.平行移動を構成する3×1行列の作成]
[x' y' z']の3成分を持つベクトルを平行移動することは、平行移動成分[x1 y1 z1]のベクトルを加算することに等しい。移動後ベクトル[x'' y'' z'']は下式(3)として表される。
Figure 2013134538
[3.2つの行列を合成して4×4行列の作成]
回転変換と平行移動を一度の行列計算で行う手法が存在する。3次元ベクトルに4つ目の成分1を加えて4×1ベクトル[x y z 1]が作成される。4×4行列の1〜3行目かつ1〜3列目に3×3の回転変換行列が代入され、1〜3行目かつ4列目の1〜3行目に平行移動ベクトルが代入される。4×4行列の4行目には、1〜3列目に0が代入され、4列目に1が代入される。結果として求まる行列は、4×1ベクトル[x y z 1]を回転した後に平行移動して[x'' y'' z'' 1]に変換する行列として作用することになる。[x'' y'' z'' 1]への変換式は下式(4)のようになる。
Figure 2013134538
<センサデータに基づく回転行列の計算>
ここで、センサデータに基づく回転行列の計算について説明する。図17は、センサデータに基づく回転行列の計算と、計算により求めた回転行列を用いた描画の流れの具体例を示す図である。
図17の処理(1)は現在のジャイロセンサ52の計測値を取得する処理である。また、処理(2)はジャイロセンサ52の現在の計測値と直前の計測値から回転を表す3×3行列を計算する処理である。処理(1)と(2)を合わせた処理が、上述した図14のステップS10,S11の処理に相当する。
処理(2)により求められる回転を表す3×3行列は下の(5)として表される。
Figure 2013134538
図17の処理(3)は、回転を表す回転行列の値から4×4行列を作成する処理である。処理(3)により求められる4×4行列は下の(6)として表される。
Figure 2013134538
図17の処理(4)は、4×4行列を用いた3Dオブジェクトの描画処理である。処理(4)が、図14のステップS10,S11の処理が行われた後に行われるステップS7,S8の処理に相当する。
<変形例>
デジタルスチルカメラの外観を有するオブジェクト31の表示の切り替えについて説明したが、当然、二次元マーカー21を認識したときに表示される3Dオブジェクトはデジタルカメラの外観を有するオブジェクトに限られるものではない。
また、二次元マーカー21を認識できなくなった後に情報処理端末1と二次元マーカー21の位置関係の補正に用いるセンサデータがジャイロセンサ52の出力であるものとしたが、加速度センサや地磁気センサなどの他のセンサの出力であってもよい。
認識する対象が二次元マーカーであるものとしたが、キャプチャ画像に写る他の識別子を認識し、認識した識別子に対応する3Dオブジェクトを表示する場合にも上述した技術は適用可能である。識別子として認識する対象には、一次元のバーコードの他に、キャプチャ画像に写る人の顔や建物などがある。
3Dオブジェクトの向きと位置の変換が4×4行列を用いて行われるものとしたが、3Dオブジェクトの向きと位置を情報処理端末1と二次元マーカー21の位置関係に応じて変えるものであれば他の方法を用いて行われるようにしてもよい。
[コンピュータの構成例]
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107が接続される。また、入出力インタフェース105には、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、リムーバブルメディア111を駆動するドライブ110が接続される。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを入出力インタフェース105及びバス104を介してRAM103にロードして実行することにより、上述した一連の処理が行われる。
CPU101が実行するプログラムは、例えばリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部108にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
[構成の組み合わせ例]
本技術は、以下のような構成をとることもできる。
(1)
画像に写る識別子を認識する認識部と、
前記識別子に対応するオブジェクトのデータを取得する取得部と、
前記画像に基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変えるとともに、前記識別子を認識できなくなった場合、センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変える処理部と、
前記識別子と情報処理端末自身の位置関係に応じて向きを変えた前記オブジェクトを前記画像に重ねて表示させる表示制御部と
を備える情報処理端末。
(2)
撮影部をさらに備え、
前記認識部は、前記撮影部により撮影された前記画像に写る前記識別子を認識する
前記(1)に記載の情報処理端末。
(3)
前記処理部は、前記識別子を認識できなくなった場合、最後に前記識別子を認識できたとき以降に検出された前記センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変える
前記(1)または(2)に記載の情報処理端末。
(4)
前記センサデータを検出するセンサ部をさらに備える
前記(1)乃至(3)のいずれかに記載の情報処理端末。
(5)
前記センサ部はジャイロセンサにより構成される
前記(4)に記載の情報処理端末。
(6)
前記識別子は、色の異なる領域から構成される二次元のコードである
前記(1)乃至(5)のいずれかに記載の情報処理端末。
(7)
画像に写る識別子を認識し、
前記識別子に対応するオブジェクトのデータを取得し、
前記画像に基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変えるとともに、前記識別子を認識できなくなった場合、センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変え、
前記識別子と情報処理端末自身の位置関係に応じて向きを変えた前記オブジェクトを前記画像に重ねて表示させる
ステップを含む情報処理方法。
(8)
画像に写る識別子を認識し、
前記識別子に対応するオブジェクトのデータを取得し、
前記画像に基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変えるとともに、前記識別子を認識できなくなった場合、センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変え、
前記識別子と情報処理端末自身の位置関係に応じて向きを変えた前記オブジェクトを前記画像に重ねて表示させる
ステップを含む処理をコンピュータに実行させるプログラム。
1 情報処理端末, 11 表示部, 12 カメラ, 51 制御部, 52 ジャイロセンサ, 53 メモリ, 54 通信部, 61 画像解析部, 62 マーカー認識部, 63 オブジェクトデータ取得部, 64 回転行列計算部, 65 回転処理部, 66 表示制御部

Claims (8)

  1. 画像に写る識別子を認識する認識部と、
    前記識別子に対応するオブジェクトのデータを取得する取得部と、
    前記画像に基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変えるとともに、前記識別子を認識できなくなった場合、センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変える処理部と、
    前記識別子と情報処理端末自身の位置関係に応じて向きを変えた前記オブジェクトを前記画像に重ねて表示させる表示制御部と
    を備える情報処理端末。
  2. 撮影部をさらに備え、
    前記認識部は、前記撮影部により撮影された前記画像に写る前記識別子を認識する
    請求項1に記載の情報処理端末。
  3. 前記処理部は、前記識別子を認識できなくなった場合、最後に前記識別子を認識できたとき以降に検出された前記センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変える
    請求項1に記載の情報処理端末。
  4. 前記センサデータを検出するセンサ部をさらに備える
    請求項1に記載の情報処理端末。
  5. 前記センサ部はジャイロセンサにより構成される
    請求項4に記載の情報処理端末。
  6. 前記識別子は、色の異なる領域から構成される二次元のコードである
    請求項1に記載の情報処理端末。
  7. 画像に写る識別子を認識し、
    前記識別子に対応するオブジェクトのデータを取得し、
    前記画像に基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変えるとともに、前記識別子を認識できなくなった場合、センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変え、
    前記識別子と情報処理端末自身の位置関係に応じて向きを変えた前記オブジェクトを前記画像に重ねて表示させる
    ステップを含む情報処理方法。
  8. 画像に写る識別子を認識し、
    前記識別子に対応するオブジェクトのデータを取得し、
    前記画像に基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変えるとともに、前記識別子を認識できなくなった場合、センサデータに基づいて特定される前記識別子と情報処理端末自身の位置関係に応じて前記オブジェクトの向きを変え、
    前記識別子と情報処理端末自身の位置関係に応じて向きを変えた前記オブジェクトを前記画像に重ねて表示させる
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2011283007A 2011-12-26 2011-12-26 情報処理端末、情報処理方法、およびプログラム Active JP5387668B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011283007A JP5387668B2 (ja) 2011-12-26 2011-12-26 情報処理端末、情報処理方法、およびプログラム
US13/705,456 US9269004B2 (en) 2011-12-26 2012-12-05 Information processing terminal, information processing method, and program
CN201210554904.XA CN103198286B (zh) 2011-12-26 2012-12-19 信息处理终端、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011283007A JP5387668B2 (ja) 2011-12-26 2011-12-26 情報処理端末、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2013134538A true JP2013134538A (ja) 2013-07-08
JP5387668B2 JP5387668B2 (ja) 2014-01-15

Family

ID=48654077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011283007A Active JP5387668B2 (ja) 2011-12-26 2011-12-26 情報処理端末、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US9269004B2 (ja)
JP (1) JP5387668B2 (ja)
CN (1) CN103198286B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046381A (ko) * 2018-10-24 2020-05-07 디에스글로벌 (주) 위치정보 및 시간정보 기반의 ar 컨텐츠 제공 방법 및 시스템

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013273722A1 (en) * 2013-12-19 2015-07-09 Canon Kabushiki Kaisha Method, system and apparatus for removing a marker projected in a scene
CN106326251B (zh) * 2015-06-23 2019-05-17 阿里巴巴集团控股有限公司 待展示对象的全尺寸适配方法及装置
CN107590484A (zh) * 2017-09-29 2018-01-16 百度在线网络技术(北京)有限公司 用于呈现信息的方法和装置
US11857335B1 (en) * 2017-10-25 2024-01-02 Mindmaze Group Sa Systems, methods, and apparatuses for rehabilitation and training
US10599964B1 (en) * 2019-01-15 2020-03-24 Capital One Services, Llc System and method for transmitting financial information via color matrix code
US11182576B1 (en) * 2019-07-31 2021-11-23 Splunk Inc. Techniques for using tag placement to determine 3D object orientation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5834749A (en) * 1994-08-30 1998-11-10 Durbin; Dennis A. Optical image capture system for reading targets at oblique angles
US6988660B2 (en) * 1999-06-07 2006-01-24 Metrologic Instruments, Inc. Planar laser illumination and imaging (PLIIM) based camera system for producing high-resolution 3-D images of moving 3-D objects
JP4743283B2 (ja) * 2009-01-28 2011-08-10 ソニー株式会社 情報処理装置、情報処理方法、プログラム、システム及び撮像対象生成装置
JP4995934B2 (ja) 2010-03-26 2012-08-08 株式会社コナミデジタルエンタテインメント 拡張現実システム、マーカ端末、撮影端末、拡張現実方法、ならびに、情報記録媒体
US8384770B2 (en) * 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
CN201828930U (zh) * 2010-11-03 2011-05-11 深圳中林瑞德科技有限公司 一种二维条码数据终端
JP5735861B2 (ja) * 2011-06-01 2015-06-17 任天堂株式会社 画像表示プログラム、画像表示装置、画像表示方法、画像表示システム、マーカ

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200100152001; 藤井博文,神原誠之,岩佐英彦,竹村治雄,横矢直和: '拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ' 電子情報通信学会技術研究報告PRMU99-192 第99巻 第574号, 20000120, p1-8, 社団法人電子情報通信学会 *
JPN6013032409; 藤井博文,神原誠之,岩佐英彦,竹村治雄,横矢直和: '拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ' 電子情報通信学会技術研究報告PRMU99-192 第99巻 第574号, 20000120, p1-8, 社団法人電子情報通信学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046381A (ko) * 2018-10-24 2020-05-07 디에스글로벌 (주) 위치정보 및 시간정보 기반의 ar 컨텐츠 제공 방법 및 시스템
KR102199686B1 (ko) 2018-10-24 2021-01-07 디에스글로벌(주) 위치정보 및 시간정보 기반의 ar 컨텐츠 제공 방법 및 시스템

Also Published As

Publication number Publication date
CN103198286A (zh) 2013-07-10
US9269004B2 (en) 2016-02-23
US20130162674A1 (en) 2013-06-27
CN103198286B (zh) 2017-04-12
JP5387668B2 (ja) 2014-01-15

Similar Documents

Publication Publication Date Title
JP5387668B2 (ja) 情報処理端末、情報処理方法、およびプログラム
WO2018188499A1 (zh) 图像、视频处理方法和装置、虚拟现实装置和存储介质
US9161027B2 (en) Method and apparatus for providing camera calibration
JP4508049B2 (ja) 360°画像撮影装置
CN109829981B (zh) 三维场景呈现方法、装置、设备及存储介质
US9696543B2 (en) Information processing apparatus and information processing method
JP6299234B2 (ja) 表示制御方法、情報処理装置、および表示制御プログラム
US9268410B2 (en) Image processing device, image processing method, and program
JP2015114818A (ja) 情報処理装置、情報処理方法及びプログラム
CN104574267A (zh) 引导方法和信息处理设备
CN110738736B (zh) 图像处理装置、图像处理方法和存储介质
US20100188355A1 (en) Apparatus and method for detecting an object pointed by a user
JP2017106959A (ja) 投影装置、投影方法及び投影用コンピュータプログラム
JP5233709B2 (ja) ロボットシミュレーション画像表示システム
CN112348968B (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
US20240071016A1 (en) Mixed reality system, program, mobile terminal device, and method
CN110807814A (zh) 摄影机位姿计算方法、装置、设备及存储介质
JPWO2021076757A5 (ja)
JP5847610B2 (ja) Ar技術を用いたコンピュータ・グラフィックス画像処理システム及び方法
CN112017242A (zh) 显示方法及装置、设备、存储介质
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム
JP2020014075A (ja) 画像投影システム、画像投影方法、及びプログラム
CN114201028B (zh) 扩增实境系统与其锚定显示虚拟对象的方法
JP7401245B2 (ja) 画像合成装置、画像合成装置の制御方法およびプログラム
WO2011027534A1 (ja) 画像生成システム、画像生成方法、コンピュータプログラムおよびコンピュータプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130923

R151 Written notification of patent or utility model registration

Ref document number: 5387668

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250