JP5480777B2 - オブジェクト表示装置及びオブジェクト表示方法 - Google Patents

オブジェクト表示装置及びオブジェクト表示方法 Download PDF

Info

Publication number
JP5480777B2
JP5480777B2 JP2010249869A JP2010249869A JP5480777B2 JP 5480777 B2 JP5480777 B2 JP 5480777B2 JP 2010249869 A JP2010249869 A JP 2010249869A JP 2010249869 A JP2010249869 A JP 2010249869A JP 5480777 B2 JP5480777 B2 JP 5480777B2
Authority
JP
Japan
Prior art keywords
display
marker
image
real space
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010249869A
Other languages
English (en)
Other versions
JP2012103789A (ja
Inventor
康夫 森永
学 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2010249869A priority Critical patent/JP5480777B2/ja
Priority to PCT/JP2011/073549 priority patent/WO2012063593A1/ja
Priority to CN201180053101.XA priority patent/CN103189827B/zh
Priority to US13/879,701 priority patent/US9171388B2/en
Priority to EP11839897.3A priority patent/EP2639684A4/en
Publication of JP2012103789A publication Critical patent/JP2012103789A/ja
Application granted granted Critical
Publication of JP5480777B2 publication Critical patent/JP5480777B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、オブジェクト表示装置及びオブジェクト表示方法に関する。
近年において、AR(Augmented Reality:拡張現実)技術を用いたサービスが開発・提供されている。例えば、移動端末のカメラにより取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられた仮想オブジェクトを現実空間の画像に重畳してディスプレイに表示する技術が知られている。また、時間的に異なる複数画像から撮影部と撮像対象との空間的位置関係の変化を推定し、かかる変化に基づき表示部におけるスクロール等の制御を行う端末装置が知られている。(例えば、特許文献1参照)。
特開2010−67090号公報
カメラ等により捉えられた現実空間の画像から検出したマーカに基づき仮想オブジェクトを現実空間の画像に重畳表示する技術では、何らかの原因によりマーカを検出できなかった場合には、仮想オブジェクトを表示できない。一方、現実空間中に存在するマーカを撮影する場合において、撮像範囲にマーカが存在する場合であっても、カメラとマーカとの位置関係、及び明るさ等の撮像条件といった様々な要因により、マーカを検出できない場合がある。
そこで、本発明は、上記問題点に鑑みてなされたものであり、何らかの原因により現実空間におけるマーカを検出できない場合であっても、仮想オブジェクトを表示することが可能なオブジェクト表示装置及びオブジェクト表示方法を提供することを目的とする。
上記課題を解決するために、本発明のオブジェクト表示装置は、撮像手段により取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられた仮想オブジェクトを現実空間の画像に重畳して表示手段に表示するオブジェクト表示装置であって、マーカを検出できなかった場合に、マーカを検出できていた過去と現在との間における、表示手段に表示される現実空間の画像の変化を取得する表示補完手段と、表示補完手段により取得された表示手段に表示される現実空間の画像の変化に基づき、仮想オブジェクトの表示位置及び表示態様を決定する表示決定手段とを備え、表示手段は、表示決定手段により決定された仮想オブジェクトの表示位置及び表示態様に基づき、仮想オブジェクトを現実空間の画像に重畳して表示し、表示決定手段は、表示手段に表示される現実空間の画像の変化に基づき、表示手段に表示される現実空間の画像におけるマーカの位置及び形状を推定し、推定されたマーカの位置及び形状に基づき、仮想オブジェクトの表示位置及び表示態様を決定する、ことを特徴とする。
また、上記課題を解決するために、本発明のオブジェクト表示方法は、撮像手段により取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられた仮想オブジェクトを現実空間の画像に重畳して表示手段に表示するオブジェクト表示装置におけるオブジェクト表示方法であって、マーカを検出できなかった場合に、マーカを検出できていた過去と現在との間における、表示手段に表示される現実空間の画像の変化を取得する表示補完ステップと、表示補完ステップにおいて取得された表示手段に表示される現実空間の画像の変化に基づき、仮想オブジェクトの表示位置及び表示態様を決定する表示決定ステップと、表示決定ステップにおいて決定された仮想オブジェクトの表示位置及び表示態様に基づき、仮想オブジェクトを現実空間の画像に重畳して表示する表示ステップと、を有し、表示決定ステップにおいて、表示手段に表示される現実空間の画像の変化に基づき、表示手段に表示される現実空間の画像におけるマーカの位置及び形状を推定し、推定されたマーカの位置及び形状に基づき、仮想オブジェクトの表示位置及び表示態様を決定することを特徴とする。
本発明のオブジェクト表示装置及びオブジェクト表示方法によれば、現在においてマーカを検出できなかった場合に、マーカを検出できていた過去と現在との間における、表示手段に表示される現実空間の画像の変化が取得される。仮想オブジェクトは、現実空間の画像におけるマーカの位置及び形状に基づき表示されるものであるので、仮想オブジェクトの表示位置及び表示態様も、現実空間の画像の変化に応じて変化すべきものである。このため、当該過去と現在との間における現実空間の画像の変化に基づき、当該過去における仮想オブジェクトの表示位置及び表示態様から、現在における仮想オブジェクトの表示位置及び表示態様を決定できる。従って、何らかの原因により現実空間におけるマーカを検出できない場合であっても、仮想オブジェクトを表示できる。
また、表示手段に表示される現実空間の画像の変化に基づき、仮想オブジェクトの表示位置及び表示態様を決定するための根拠となるマーカの現実空間における位置及び形状が推定されるので、仮想オブジェクトの現在の表示位置及び表示態様を適切に決定できる。
また、本発明のオブジェクト表示装置では、表示補完手段は、現実空間の画像から特定形状を抽出し、マーカを検出できていた過去と現在とにおける特定形状の形状及び位置の変化を認識する特定形状認識手段を備え、特定形状認識手段により認識された特定形状の形状及び位置の変化に基づき、表示手段に表示される現実空間の画像の変化を取得することを特徴とする。
この場合には、現実空間の画像から抽出された特定形状の形状及び位置の変化に基づき、表示手段に表示される現実空間の画像の変化が取得される。特定形状の形状及び位置の変化は、仮想オブジェクトの表示位置及び表示態様を決定するためのマーカと同様に、現実空間の画像中から抽出されるものであるので、表示手段に表示される現実空間の画像の変化が高精度に取得される。従って、過去の仮想オブジェクトの表示位置及び表示態様に基づき、現在の表示位置及び表示態様を高精度に決定できる。
また、表示手段に表示される現実空間の画像の変化を取得するための特定形状には、所定の物の形状を用いることができる。この場合には、表示手段に表示される現実空間の画像の変化を確実に取得できる。
また、表示手段に表示される現実空間の画像の変化を取得するための特定形状には、所定の図形及び線並びに同一色を有する一定の領域のうちの少なくともいずれか1つを用いることができる。この場合には、特定形状認識手段による特定形状の抽出の確率が向上する。
また、本発明のオブジェクト表示装置では、表示補完手段は、オブジェクト表示装置の位置及び撮像方向の変化を検知する端末姿勢検知手段を備え、表示決定手段は、表示補完手段が表示手段に表示される画像の変化を取得できなかった場合に、端末姿勢検知手段により認識されたオブジェクト表示装置の位置及び撮像方向の変化に基づき、仮想オブジェクトの表示位置及び表示態様を決定することを特徴とする。
この場合には、オブジェクト表示装置の位置及び撮像方向の変化に基づき、仮想オブジェクトの表示位置及び表示態様が決定されるので、現実空間の画像から特定形状を抽出できない場合であっても、仮想オブジェクトの表示が可能となる。
AR技術を利用したサービスにおいて、何らかの原因により現実空間におけるマーカを検出できない場合であっても、仮想オブジェクトを表示することが可能となる。
オブジェクト表示装置の機能的構成を示すブロック図である。 オブジェクト表示装置のハードブロック図である。 表示部における、マーカに基づく仮想オブジェクトの表示例、及びマーカ非検出時における、仮想オブジェクトの表示が不可能な状態の例を示す図である。 マーカデータベースの構成及び記憶されているデータの例を示す図である。 オブジェクトデータベースの構成及び記憶されているデータの例を示す図である。 オブジェクト表示装置とマーカとの位置関係を示す模式図、及びかかる位置関係にある場合における表示画像の例を示す図である。 表示部における特定形状の変化及びマーカの形状の変化に基づく仮想オブジェクトの表示例を示す図である。 フレームごとの、オブジェクト表示装置の姿勢データ、マーカ位置及び推定マーカ形状のデータの例を示す図である。 オブジェクト表示方法の処理内容を示すフローチャートである。
本発明に係るオブジェクト表示装置及びオブジェクト表示方法の実施形態について図面を参照して説明する。なお、可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
図1は、オブジェクト表示装置1の機能的構成を示すブロック図である。本実施形態のオブジェクト表示装置1は、撮像手段により取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられた仮想オブジェクトを現実空間の画像に重畳して表示手段に表示する装置である。
マーカは、現実空間に所在する所定の標識である。オブジェクト表示装置1は、マーカに対応付けて表示させる仮想オブジェクトのデータを予め記憶している。オブジェクト表示装置1は、現実空間の画像からマーカを検出すると、当該マーカの形状(ゆがみ)及び大きさに基づき、仮想オブジェクトの表示位置及び表示態様を決定し、決定された表示位置及び表示態様に従って仮想オブジェクトを現実空間の画像に重畳してディスプレイに表示させる。なお、オブジェクト表示装置1は、仮想オブジェクトのデータを通信により取得することとしてもよい。
仮想オブジェクトは、現実空間の画像に重畳表示させることにより、オブジェクト表示装置1のユーザに対して種々の情報を提供するための仮想的なオブジェクトである。
図2に示すように、オブジェクト表示装置1は、機能的には、カメラ2(撮像手段)、画像取得部3、マーカ認識部4、マーカデータベース5、表示決定部6(表示決定手段)、オブジェクトデータベース7、表示部8(表示手段)及び表示補完部9(表示補完手段)を備える。
図2は、オブジェクト表示装置1のハードウエア構成図である。オブジェクト表示装置1は、物理的には、図2に示すように、CPU101、主記憶装置であるRAM102及びROM103、データ送受信デバイスである通信モジュール104、ハードディスク、フラッシュメモリ等の補助記憶装置105、入力デバイスであるキーボード等の入力装置106、ディスプレイ等の出力装置107などを含むコンピュータシステムとして構成されている。図1に示した各機能は、図2に示すCPU101、RAM102等のハードウエア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール104、入力装置106、出力装置107を動作させるとともに、RAM102や補助記憶装置105におけるデータの読み出し及び書き込みを行うことで実現される。再び、図1を参照し、オブジェクト表示装置1の各機能部について詳細に説明する。
カメラ2は、現実空間の画像を撮影する撮像手段である。カメラ2は、撮影した現実空間の画像を画像取得部3に送出する。なお、現実空間の画像は、静止画及び動画を含む。
画像取得部3は、カメラ2により撮影された現実空間の画像を取得する部分である。画像取得部3は、取得した現実空間の画像をマーカ認識部4及び表示補完部9に送出する。
マーカ認識部4は、マーカデータベース5に登録されているマーカの画像データに基づき、現実空間の画像からマーカを認識する部分である。マーカの認識は、例えば当業者に既知のパターンマッチングといった画像処理技術により行われる。より具体的には、マーカ認識部4は、現実空間の画像からマーカを抽出し、さらに、現実空間の画像におけるマーカの位置及び形状を認識する。現実空間の画像におけるマーカの形状は、カメラ2とマーカとの位置関係に応じたゆがみを有するので、マーカの形状に基づき現実空間の画像におけるマーカの向きを判断することが可能である。マーカ認識部4は、認識したマーカを識別する情報と共に、現実空間の画像における当該マーカの位置及び形状に関する情報を表示補完部9及び表示決定部6に送出する。
また、マーカ認識部4は、現実空間の画像からマーカを認識できなかった場合には、その旨の情報を表示補完部9及び表示決定部6に送出する。図3は、マーカ認識部4が現実空間の画像からマーカを認識できない場合の例を示す図である。
図3(a)は、オブジェクト表示装置1とマーカMとの位置関係が図3(b)の模式図に示すような状態にある場合の、表示部8に表示される画像fの例である。本実施形態のマーカMは、アルファベットの「i」の文字が平面上に表された標識である。図3(b)に示すように、オブジェクト表示装置1は、マーカMの斜め上方からマーカMを撮影しているので、マーカ認識部4は、画像fからマーカMを認識可能である。マーカMが認識されると、図3(a)に示すように、表示部8は、このマーカMに対応付けられた仮想オブジェクトOを現実空間の画像に重畳表示する。
一方、図3(c)は、オブジェクト表示装置1とマーカMとの位置関係が図3(d)の模式図に示すような状態にある場合の、表示部8に表示される画像fの例である。図3(d)では、オブジェクト表示装置1がマーカMを捉えるための撮影方向とマーカMの上面に対して成す角度が小さいため、図3(c)に示すように、カメラ2及び画像取得部3により捉えられた画像fにおけるマーカMの形状のゆがみの程度が図3(a)と比較して大きくなる。このように、画像fにおけるマーカMの形状のゆがみの程度が大きい場合には、マーカ認識部4は、現実空間の画像fからマーカMを認識できない。かかる場合には、図3(c)に示されるように、表示部8は、仮想オブジェクトOを重畳表示しない。
マーカ認識部4が現実空間の画像からマーカを認識できない場合は、図3(c),(d)に示すようなマーカMの形状のゆがみの程度が大きい場合の他、ストロボ発光によるいわゆる白飛びが発生した場合、及び撮影のための光量が不足した場合等が想定される。
マーカデータベース5は、マーカのデータを記憶しているデータベースである。マーカのデータは、より具体的には、マーカの画像データである。図4は、マーカデータベース5の構成及び記憶されているデータの例を示す図である。図4に示すように、マーカデータベース5は、マーカを識別するIDに対応付けて、マーカのデータを記憶している。
表示決定部6は、マーカ認識部4から送出されたマーカを識別する情報に基づき当該マーカに対応付けられた仮想オブジェクトのデータをオブジェクトデータベースから抽出すると共に、マーカ認識部4から送出されたマーカの位置及び形状に関する情報に基づき、表示部に表示される画像における当該仮想オブジェクトの表示位置及び表示態様を決定する部分である。
仮想オブジェクトの表示位置及び表示態様は、当該仮想オブジェクトが対応付けられているマーカとの相対的な位置関係により規定される。本実施形態では、仮想オブジェクトとマーカとの位置関係は、後述するように、オブジェクトデータベース7におけるオフセットとして記憶されている。オフセットのデータは、例えば、マーカの位置を基準とした仮想オブジェクトの相対的な位置を示す情報及び表示する際の向きに関する情報を含む。
表示決定部6は、仮想オブジェクトの表示位置及び表示態様(向きに関する情報を含む)に関する情報を当該仮想オブジェクトの画像データと共に表示部8に送出する。
また、マーカを検出できなかった場合には、表示決定部6は、マーカを検出できていた過去と現在との間の表示部8に表示される現実空間の画像の変化を表示補完部9から取得し、取得された現実空間の画像の変化に基づき、表示部に表示される画像における仮想オブジェクトの表示位置及び表示態様を決定する。マーカを検出できなかった場合における、仮想オブジェクトの表示位置及び表示態様を決定する処理の詳細については後述する。
オブジェクトデータベース7は、仮想オブジェクトに関するデータを記憶しているデータベースである。図5は、オブジェクトデータベース7の構成及び記憶されているデータの例を示す図である。図5に示すように、オブジェクトデータベース7は、仮想オブジェクトを識別するオブジェクトIDに対応付けて、オブジェクトデータ、対応マーカ及びオフセットを記憶している。オブジェクトデータは、仮想オブジェクトの画像データである。対応マーカは、当該仮想オブジェクトを対応づけて表示させるマーカのIDである。オフセットは、現実空間の画像に当該仮想オブジェクトを重畳表示させる際の、マーカとの位置関係を示すデータである。
表示部8は、表示決定部6により決定された仮想オブジェクトの表示位置及び表示態様に基づき、当該仮想オブジェクトを現実空間の画像に重畳して表示する部分であって、例えば、ディスプレイといった装置により構成される。
表示補完部9は、マーカを検出できなかった場合に、マーカを検出できていた過去と現在との間における、表示部8に表示される現実空間の画像の変化を取得する部分であって、特定形状認識部91(特定形状認識手段)、センサ92及び端末姿勢検知部93(端末姿勢検知手段)を備える。
具体的には、特定形状認識部91は、現実空間の画像から所定の特定形状を抽出し、マーカを検出できていた過去と現在との間における特定形状の形状及び位置の変化を認識する。さらに具体的には、特定形状認識部91は、マーカを検出できていた過去における特定形状の形状及び位置を所定のメモリに記憶させておき、現在においてマーカを認識できなかった場合に、現在における現実空間の画像から取得した特定形状の形状及び位置を、マーカを検出できていた直近の過去における特定形状の形状及び位置と比較し、その変化を認識する。
そして、表示補完部9は、特定形状認識部91により認識された特定形状の形状及び位置の変化に基づき、表示部8に表示される現実空間の画像の変化を取得し、取得された現実空間の画像の変化に関する情報を表示決定部6に送出する。
続いて、図6を参照して、抽出された特定形状に基づく仮想オブジェクトの重畳表示処理を詳細に説明する。
図6(a)は、オブジェクト表示装置1とマーカMとの位置関係が図6(b)の模式図に示すような状態にある場合の、表示部8に表示される画像fの例である。図6(b)に示すように、オブジェクト表示装置1は、マーカMの斜め上方からマーカMを撮影しており、オブジェクト表示装置1からマーカMを撮影するための撮影方向とマーカMの上面とが成す角度が大きいので、図6(a)に示される例では、マーカ認識部4は、画像fからマーカMを認識可能である。この場合には、表示決定部6は、マーカ認識部4により認識されたマーカMに対応付けられた仮想オブジェクトOをオブジェクトデータベース7から抽出し、マーカMの位置及び形状に基づき、仮想オブジェクトOの表示位置及び表示態様を決定し、仮想オブジェクトOをマーカMに対応付けながら表示部8に重畳表示させる。
一方、 図6(c)は、オブジェクト表示装置1とマーカMとの位置関係が図6(d)の模式図に示すような状態にある場合の、表示部8に表示される画像fの例である。図6(d)に示すように、オブジェクト表示装置1からマーカMを撮影するための撮影方向とマーカMの上面とにより形成される角度が小さいため、図6(c)に示すように、表示部8に表示される画像fにおけるマーカMの形状のゆがみの程度が図6(a)と比較して大きい。このように、画像fにおけるマーカMの形状のゆがみの程度が大きい場合には、マーカ認識部4は、マーカMを認識できない。この場合には、マーカ認識部4は、マーカを認識できなかった旨の情報を表示補完部9及び表示決定部6に送出する。
表示補完部9の特定形状認識部91は、マーカを認識できなかった旨の情報を取得すると、画像fから特定形状Sを抽出し、マーカを検出できていた過去の画像f(図6(a))における特定形状Sと、現在の画像fにおける特定形状Sとの間の形状及び位置の変化を認識する。表示補完部9は、特定形状認識部91により認識された特定形状Sの形状及び位置の変化を、現実空間の画像の変化に関する情報として表示決定部6に送出する。
表示決定部6は、表示補完部9から送出された現実空間の画像の変化に関する情報、並びにマーカMを検出できていた過去の画像fにおけるマーカMの位置及び形状に基づき、現在の画像fにおけるマーカMの位置及び形状を推定する。そして、表示決定部6は、推定したマーカMの位置及び形状に基づき、仮想オブジェクトOの表示位置及び表示態様を決定する。より具体的には、表示決定部6は、過去の画像fにおける特定形状Sと現在の画像fにおける特定形状Sとの間の位置及び形状の相対的な変化に基づき、両画像f,f間におけるマーカMの位置及び形状の相対的な変化を推定する。
なお、図6に示す例では、特定形状認識部91は、特定形状Sとして、花瓶の形状を抽出しているが、特定形状Sとして認識する対象は、このような物体の形状には限定されない。例えば、特定形状Sは、所定の物の形状であってもよい。かかる物としては、当業者に周知の画像認識技術により認識可能であれば如何なる物でも採用可能であって、所定のロゴ、標識、顔、テーブル等といった物を採用できる。また、特定形状Sは、所定の図形及び線並びに同一色を有する一定の領域のうちの少なくともいずれか1つであってもよい。かかる特定形状Sとしては、画像中に存在する四角形、垂直線及び水平線、並びに水平線及び垂直線により形成される格子等が例示される。なお、特定形状Sに関するデータは、例えば、オブジェクト表示装置1に備えられた所定の記憶手段に予め記憶されていることとしてもよい。また、特定形状Sが、当業者に既知の画像認識技術により所定の特徴点として認識可能なものであれば、特定形状Sに関するデータを予め記憶手段に有していなくてもよい。
なお、特定形状認識部91は、特定形状Sの形状及び位置の変化の認識処理に先立って、現実空間の画像の変化を取得するための特定形状を画像取得部3により取得された画像から抽出できるか否かの判定処理を実施する。
次に、図6を参照して説明した処理のバリエーションとして、図7を参照して、特定形状及びマーカの形状の変化から取得される学習情報に基づく仮想オブジェクトの重畳処理を説明する。
図7(a)は、オブジェクト表示装置1とマーカMとの位置関係が図7(b)の模式図に示すような状態にある場合の、表示部8に表示される画像fの例である。図7(b)に示すように、オブジェクト表示装置1は、マーカMの斜め上方からマーカMを撮影しており、オブジェクト表示装置1からマーカMを撮影するための撮影方向とマーカMの上面とが成す角度が大きいので、図7(a)に示される例では、マーカ認識部4は、画像fからマーカMを認識できる。マーカMを認識すると、表示決定部6は、マーカ認識部4により認識されたマーカMに対応付けられた仮想オブジェクトOをオブジェクトデータベース7から抽出し、マーカMの位置及び形状に基づき、仮想オブジェクトOの表示位置及び表示態様を決定し、仮想オブジェクトOをマーカMに対応付けながら表示部8に重畳表示させている。
続いて、図7(c)は、オブジェクト表示装置1とマーカMとの位置関係が図7(d)の模式図に示すような状態にある場合の、表示部8に表示される画像fの例である。
図7(d)では、オブジェクト表示装置1がマーカMを捉えるための撮影方向とマーカMの上面とが成す角度が図7(b)と比較してやや小さくなっているため、図7(c)に示すように、カメラ2及び画像取得部3により捉えられた画像fにおけるマーカMの形状のゆがみの程度が図7(a)と比較して大きくなる。しかしながら、図7(c)に示されるゆがみの程度において、マーカ認識部4がマーカMを認識可能であるとすると、表示決定部6は、認識されたマーカMに基づき仮想オブジェクトOの表示位置及び表示態様を決定し、決定された表示位置及び表示態様に基づき仮想オブジェクトOを表示部8に重畳表示させている。
ここで、マーカ認識部4は、図7(a)に示す画像fから、図7(c)に示す画像fに表示が遷移する際における、マーカMの位置及び形状の変化を取得し、取得したマーカMの位置及び形状の変化に関する情報を表示決定部6に送出する。また、特定形状認識部91は、図7(a),(c)に示す画像fから直方体の形状を有する物体である特定形状Bを抽出、認識する。そして、特定形状認識部91は、図7(a)に示す画像fから、図7(c)に示す画像fに表示が遷移する際における、特定形状Bの位置及び形状の変化を取得し、取得した特定形状Bの位置及び形状の変化に関する情報を表示決定部6に送出する。
表示決定部6は、図7(a)に示す画像fから、図7(c)に示す画像fに表示が遷移する際における、マーカMの位置及び形状の変化に関する情報をマーカ認識部4から取得すると共に、特定形状Bの位置及び形状の変化に関する情報を特定形状認識部91から取得する。そして、表示決定部6は、特定形状Bの位置及び形状の変化に応じたマーカMの位置及び形状の変化を学習情報として取得し、所定のメモリに記憶する。マーカ認識部4がマーカMを認識できなかった場合に、表示決定部6は、特定形状B及びマーカMの位置及び形状に関する学習情報に基づき、マーカMの位置及び形状を推定できる。
即ち、オブジェクト表示装置1とマーカMとの位置関係が図7(f)の模式図に示すような状態にある場合には、オブジェクト表示装置1がマーカMを捉えるための撮影方向とマーカMの上面とが成す角度が非常に小さいため、図7(e)に示すように、画像fにおけるマーカMの形状のゆがみの程度が大きくなり、マーカ認識部4は、マーカMを認識できない。一方、図7(f)に示される位置関係にある場合であっても、特定形状認識部91は、特定形状Bを認識できるので、特定形状認識部91は、図7(e)に示す画像fにおける特定形状Bの位置及び形状を表示決定部6に送出する。そして、表示決定部6は、図7(e)における特定形状Bの位置及び形状並びに特定形状B及びマーカMの位置及び形状に関する学習情報に基づき、図7(e)におけるマーカMの位置及び形状を推定する。表示決定部6は、推定したマーカMの位置及び形状に基づき、仮想オブジェクトOの表示位置及び表示態様を決定し、表示部8に表示させる。
再び図2を参照して、端末姿勢検知部93の機能を説明する。端末姿勢検知部93は、センサ92から取得される各種の情報に基づき、オブジェクト表示装置1の位置及び撮像方向の変化を検知する。センサ92は、例えば、加速度センサ及び地磁気センサといったセンサを含み、これらのセンサにより取得される加速度及び地磁気の方向に関する情報を端末姿勢検知部93に送出する。そして、表示補完部9が表示部8に表示される画像の変化を取得できなかった場合に、表示決定部6は、端末姿勢検知部93により認識されたオブジェクト表示装置1の位置及び撮像方向の変化に基づき、仮想オブジェクトの表示位置及び表示態様を決定する。
図8を参照して、端末姿勢検知部93による処理内容を具体的に説明する。図8は、表示部8に表示される画像におけるフレームごとの姿勢データ、マーカ位置及び推定マーカ形状を対応付けたテーブルの例を示す図である。
図8におけるフレームNoは、フレームを識別するデータである。姿勢データ(向き)は、対応するフレームの画像が取得された時点におけるオブジェクト表示装置1の向きを示すデータであって、フレームNo「100」の画像が取得された時点における姿勢データ(向き)「D」を初期状態として、向きを示すデータの「D」に対する差分値を「D」,「D」として記憶している。姿勢データ(向き)は、例えば、所定の3次元座標系における、各軸に対する回転角により表すことが可能である。
また、姿勢データ(位置)は、対応するフレームの画像が取得された時点におけるオブジェクト表示装置1の位置を示すデータであって、フレームNo「100」の画像が取得された時点における姿勢データ(位置)「P」を初期状態として、向きを示すデータの「P」に対する差分値を「P」,「P」として記憶している。端末姿勢検知部93は、姿勢データ(向き)及び姿勢データ(位置)を表示決定部6に送出する。姿勢データ(位置)は、例えば、所定の3次元座標系における座標値により表すことができる。
図8に示すテーブルにおけるマーカ位置は、対応するフレームの画像が取得された時点のマーカの表示位置を示すデータであって、例えば、表示部8の表示領域に設定された所定の座標系により表現される。また、推定マーカ形状は、表示決定部6により推定された、表示部8に表示された際のマーカ形状である。
表示決定部6は、姿勢データ(向き)及び姿勢データ(位置)基づき、マーカ位置を推定する。具体的には、表示決定部6は、姿勢データ(向き)「D」及び姿勢データ(位置)「P」並びにマーカ位置「M」に基づき、マーカ位置「M」を推定できる。同様に、表示決定部6は、姿勢データ(向き)「D」及び姿勢データ(位置)「P」並びにマーカ位置「M」に基づき、マーカ位置「M」を推定できる。
さらに、表示決定部6は、姿勢データ(向き)及び姿勢データ(位置)基づき、表示部8にマーカが表示される際のマーカの形状のゆがみを算出し、推定マーカ形状を推定することができる。
なお、表示決定部6は、図8のテーブルに示されるマーカ位置を推定することにより、マーカ認識部4がマーカを検出できなかった場合において、表示部8の画角の範囲にマーカが存在するか否かを判定することができる。この判定処理は、例えば、マーカ位置の座標値が所定の値の範囲にあるか否かを判定することにより実現できる。これにより、マーカが表示部8の画角の範囲に存在しないと判定された場合には、仮想オブジェクトの重畳表示のための処理を省略するように制御することが可能となる。
続いて、図9を参照して、本実施形態のオブジェクト表示方法におけるオブジェクト表示装置1の動作の例について説明する。図9は、オブジェクト表示装置1において実施される処理内容を示すフローチャートである。
まず、画像取得部3は、カメラ2により撮影された現実空間の画像を取得する(S1)。続いて、マーカ認識部4は、マーカデータベース5に登録されているマーカの画像データに基づき、現実空間の画像からマーカの検出を試みる(S2)。マーカを検出できた場合には、マーカ認識部4は、認識したマーカを識別する情報と共に、現実空間の画像における当該マーカの位置及び形状に関する情報を表示決定部6に送出する。そして、処理手順はステップS3に進められる。
ステップS3において、表示決定部6は、マーカ認識部4から送出されたマーカを識別する情報に基づきオブジェクトデータベース7を検索し、当該マーカに対応付けて表示させるべき仮想オブジェクトの有無を判定する(S3)。当該マーカに対応付けて表示させるべき仮想オブジェクトがあると判定されなかった場合には、処理手順は終了する。一方、当該マーカに対応付けて表示させるべき仮想オブジェクトがあると判定された場合には、処理手順はステップS4に進められる。
ステップS4において、表示決定部6は、当該マーカに対応付けられた仮想オブジェクトのデータをオブジェクトデータベースから抽出すると共に、マーカ認識部4から送出されたマーカの位置及び形状に関する情報に基づき、表示部に表示される画像における当該仮想オブジェクトの表示位置及び表示態様を決定する(S4)。
一方、ステップS2においてマーカを検出できなかった場合には、マーカ認識部4は、その旨の情報を表示補完部9及び表示決定部6に送出する。そして、処理手順はステップS5に進められる。ステップS5において、マーカ認識部4は、表示部8に直前に表示されていたフレームにおいて、マーカが検出され、且つ仮想オブジェクトが表示されていたか否かを判定する(S5)。マーカの検出及び仮想オブジェクトの表示が実施されていたと判定された場合には、処理手順はステップS6に進められる。一方、マーカの検出及び仮想オブジェクトの表示が実施されていたと判定されなかった場合には、処理手順は終了する。
ステップS6において、表示補完部9の端末姿勢検知部93は、センサ92から取得される各種の情報に基づき、オブジェクト表示装置1の位置及び撮像方向の変化を検知する。オブジェクト表示装置1の位置及び撮像方向は、例えば、図8の姿勢データ(位置)及び姿勢データ(向き)により例示される。
続いて、表示決定部6は、オブジェクト表示装置1の位置及び撮像方向の変化、及び直前のフレームにおけるマーカの位置に基づき、表示部8に表示される現実空間の画像における現在のマーカの位置を推定する(S6)。そして、表示決定部6は、表示部8の画角の範囲にマーカが存在するか否かを判定する(S7)。画角の範囲にマーカが存在すると判定された場合には、処理手順はステップS8に進められる。一方、画角の範囲にマーカが存在すると判定されなかった場合には、処理手順は終了する。なお、ステップS6及びS7に処理は、本実施形態において必須の処理ではない。
ステップS8において、表示補完部9の特定形状認識部91は、現実空間の画像から所定の特定形状の検出を試みる(S8、表示補完ステップ)。特定形状を検出できた場合には、処理手順はステップS9に進められる。一方、特定形状を検出できなかった場合には、処理手順はステップS10に進められる。
ステップS9において、特定形状認識部91は、直前のフレームと現在のフレームとの間における特定形状の変化(ゆがみ)及び位置の変化を認識する。続いて、表示補完部9は、特定形状認識部91により認識された特定形状の形状及び位置の変化に基づき、表示部8に表示される現実空間の画像の変化を取得し、取得された現実空間の画像の変化に関する情報を表示決定部6に送出する(表示補完ステップ)。さらに、表示決定部6は、表示補完部9から送出された現実空間の画像の変化に関する情報、並びにマーカを検出できていた過去のフレームにおけるマーカの位置及び形状に基づき、現在のフレームにおけるマーカの位置及び形状を推定する。そして、表示決定部6は、推定したマーカの位置及び形状に基づき、仮想オブジェクトの表示位置及び表示態様を決定する(S9、表示決定ステップ)。
一方、ステップS10において、端末姿勢検知部93は、マーカを検出できていた過去のフレームの画像取得時と現在との間におけるオブジェクト表示装置1の位置及び姿勢の変化を取得する。続いて、表示決定部6は、オブジェクト表示装置1の位置及び姿勢の変化、並びにマーカを検出できていた過去のフレームにおけるマーカの位置及び形状に基づき、現在のフレームにおけるマーカの位置及び形状を推定する。そして、表示決定部6は、推定したマーカの位置及び形状に基づき、仮想オブジェクトの表示位置及び表示態様を決定する(S10)。
ステップS11において、表示決定部6は、決定した仮想オブジェクトの表示位置及び表示態様に基づき、撮影された現実空間の画像に仮想オブジェクトを重畳させた画像を表示部8に表示させる(S11)。こうして、本実施形態の処理を終了する。
以上説明した本実施形態のオブジェクト表示装置1及びオブジェクト表示方法では、現在においてマーカを検出できなかった場合に、マーカを検出できていた過去と現在との間における、表示部8に表示される現実空間の画像の変化が取得される。仮想オブジェクトは、現実空間の画像におけるマーカの位置及び形状に基づき表示されるものであるので、仮想オブジェクトの表示位置及び表示態様も、現実空間の画像の変化に応じて変化すべきものである。このため、表示決定部6は、当該過去と現在との間における現実空間の画像の変化に基づき、当該過去における仮想オブジェクトの表示位置及び表示態様から、現在における仮想オブジェクトの表示位置及び表示態様を決定できる。従って、何らかの原因により現実空間におけるマーカを検出できない場合であっても、仮想オブジェクトを表示できる。
また、本実施形態のオブジェクト表示装置1では、表示補完部9の特定形状認識部91により、現実空間の画像から抽出された特定形状の形状及び位置の変化に基づき、表示部8に表示される現実空間の画像の変化が取得される。特定形状の形状及び位置の変化は、仮想オブジェクトの表示位置及び表示態様を決定するためのマーカと同様に、現実空間の画像中から抽出されるものであるので、表示部8に表示される現実空間の画像の変化が高精度に取得される。従って、表示決定部6は、過去の仮想オブジェクトの表示位置及び表示態様に基づき、現在の表示位置及び表示態様を高精度に決定できる。
また、本実施形態のオブジェクト表示装置1では、表示補完部9の端末姿勢検知部93により、オブジェクト表示装置1の位置及び撮像方向の変化が取得され、さらに、表示補完部9により表示部8に表示される現実空間の画像の変化が取得される。従って、特定形状認識部91が現実空間の画像から特定形状を抽出できない場合であっても、表示補完部9は、表示部8に表示される現実空間の画像の変化が取得できる。
また、本実施形態のオブジェクト表示装置1では、表示決定部6により、表示部8に表示される現実空間の画像の変化に基づき、仮想オブジェクトの表示位置及び表示態様を決定するための根拠となるマーカの現実空間における位置及び形状が推定されるので、仮想オブジェクトの現在の表示位置及び表示態様を適切に決定できる。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
1…オブジェクト表示装置、2…カメラ、3…画像取得部、4…マーカ認識部、5…マーカデータベース、6…表示決定部、7…オブジェクトデータベース、8…表示部、9…表示補完部、91…特定形状認識部、92…センサ、93…端末姿勢検知部、S,B…特定形状、M…マーカ、O…仮想オブジェクト。

Claims (6)

  1. 撮像手段により取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられた仮想オブジェクトを前記現実空間の画像に重畳して表示手段に表示するオブジェクト表示装置であって、
    前記マーカを検出できなかった場合に、前記マーカを検出できていた過去と現在との間における、前記表示手段に表示される現実空間の画像の変化を取得する表示補完手段と、
    前記表示補完手段により取得された前記表示手段に表示される現実空間の画像の変化に基づき、仮想オブジェクトの表示位置及び表示態様を決定する表示決定手段とを備え、
    前記表示手段は、
    前記表示決定手段により決定された前記仮想オブジェクトの表示位置及び表示態様に基づき、前記仮想オブジェクトを現実空間の画像に重畳して表示し
    前記表示決定手段は、前記表示手段に表示される現実空間の画像の変化に基づき、前記表示手段に表示される現実空間の画像におけるマーカの位置及び形状を推定し、推定されたマーカの位置及び形状に基づき、仮想オブジェクトの表示位置及び表示態様を決定する、
    ことを特徴とするオブジェクト表示装置。
  2. 前記表示補完手段は、
    現実空間の画像から特定形状を抽出し、前記マーカを検出できていた過去と現在との間における前記特定形状の形状及び位置の変化を認識する特定形状認識手段を備え、
    前記特定形状認識手段により認識された前記特定形状の形状及び位置の変化に基づき、前記表示手段に表示される現実空間の画像の変化を取得する
    ことを特徴とする請求項1に記載のオブジェクト表示装置。
  3. 前記特定形状は、所定の物の形状であることを特徴とする請求項2に記載のオブジェクト表示装置。
  4. 前記特定形状は、所定の図形及び線並びに同一色を有する一定の領域のうちの少なくともいずれか1つであることを特徴とする請求項2または3に記載のオブジェクト表示装置。
  5. 前記表示補完手段は、
    前記オブジェクト表示装置の位置及び撮像方向の変化を検知する端末姿勢検知手段を備え、
    前記表示決定手段は、前記表示補完手段が前記表示手段に表示される画像の変化を取得できなかった場合に、前記端末姿勢検知手段により認識された前記オブジェクト表示装置の位置及び撮像方向の変化に基づき、前記仮想オブジェクトの表示位置及び表示態様を決定する
    ことを特徴とする請求項1〜4のいずれか1項に記載のオブジェクト表示装置。
  6. 撮像手段により取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられた仮想オブジェクトを前記現実空間の画像に重畳して表示手段に表示するオブジェクト表示装置におけるオブジェクト表示方法であって、
    前記マーカを検出できなかった場合に、前記マーカを検出できていた過去と現在との間における、前記表示手段に表示される現実空間の画像の変化を取得する表示補完ステップと、
    前記表示補完ステップにおいて取得された前記表示手段に表示される現実空間の画像の変化に基づき、仮想オブジェクトの表示位置及び表示態様を決定する表示決定ステップと、
    前記表示決定ステップにおいて決定された前記仮想オブジェクトの表示位置及び表示態様に基づき、前記仮想オブジェクトを現実空間の画像に重畳して表示する表示ステップと、を有し、
    前記表示決定ステップにおいて、前記表示手段に表示される現実空間の画像の変化に基づき、前記表示手段に表示される現実空間の画像におけるマーカの位置及び形状を推定し、推定されたマーカの位置及び形状に基づき、仮想オブジェクトの表示位置及び表示態様を決定する、
    ことを特徴とするオブジェクト表示方法。
JP2010249869A 2010-11-08 2010-11-08 オブジェクト表示装置及びオブジェクト表示方法 Active JP5480777B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010249869A JP5480777B2 (ja) 2010-11-08 2010-11-08 オブジェクト表示装置及びオブジェクト表示方法
PCT/JP2011/073549 WO2012063593A1 (ja) 2010-11-08 2011-10-13 オブジェクト表示装置及びオブジェクト表示方法
CN201180053101.XA CN103189827B (zh) 2010-11-08 2011-10-13 对象显示装置以及对象显示方法
US13/879,701 US9171388B2 (en) 2010-11-08 2011-10-13 Object display device and object display method
EP11839897.3A EP2639684A4 (en) 2010-11-08 2011-10-13 OBJECT DISPLAY DEVICE AND OBJECT DISPLAY METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010249869A JP5480777B2 (ja) 2010-11-08 2010-11-08 オブジェクト表示装置及びオブジェクト表示方法

Publications (2)

Publication Number Publication Date
JP2012103789A JP2012103789A (ja) 2012-05-31
JP5480777B2 true JP5480777B2 (ja) 2014-04-23

Family

ID=46050746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010249869A Active JP5480777B2 (ja) 2010-11-08 2010-11-08 オブジェクト表示装置及びオブジェクト表示方法

Country Status (5)

Country Link
US (1) US9171388B2 (ja)
EP (1) EP2639684A4 (ja)
JP (1) JP5480777B2 (ja)
CN (1) CN103189827B (ja)
WO (1) WO2012063593A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5734700B2 (ja) * 2011-02-24 2015-06-17 京セラ株式会社 携帯情報機器および仮想情報表示プログラム
JP6021568B2 (ja) * 2012-10-02 2016-11-09 任天堂株式会社 画像処理用プログラム、画像処理装置、画像処理システム、および画像処理方法
JP6281495B2 (ja) * 2013-02-01 2018-02-21 ソニー株式会社 情報処理装置、端末装置、情報処理方法及びプログラム
TWI525553B (zh) * 2013-10-23 2016-03-11 Inst Information Industry Expansion of the real system and methods
JP6314564B2 (ja) * 2014-03-17 2018-04-25 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
CN103970500B (zh) * 2014-03-31 2017-03-29 小米科技有限责任公司 一种图片显示的方法及装置
US9619016B2 (en) 2014-03-31 2017-04-11 Xiaomi Inc. Method and device for displaying wallpaper image on screen
JP6344029B2 (ja) 2014-04-16 2018-06-20 富士通株式会社 表示方法、表示プログラム、及び表示装置
KR102276847B1 (ko) * 2014-09-23 2021-07-14 삼성전자주식회사 가상 오브젝트 제공 방법 및 그 전자 장치
US9734634B1 (en) * 2014-09-26 2017-08-15 A9.Com, Inc. Augmented reality product preview
US20160163063A1 (en) * 2014-12-04 2016-06-09 Matthew Ashman Mixed-reality visualization and method
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
JP6609994B2 (ja) 2015-05-22 2019-11-27 富士通株式会社 表示制御方法、情報処理装置及び表示制御プログラム
JP6582626B2 (ja) 2015-07-02 2019-10-02 富士通株式会社 送信制御方法、表示端末および送信制御プログラム
WO2017081920A1 (ja) * 2015-11-10 2017-05-18 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP2018041201A (ja) * 2016-09-06 2018-03-15 富士通株式会社 表示制御プログラム、表示制御方法および情報処理装置
US10547776B2 (en) 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
US11030980B2 (en) * 2017-03-14 2021-06-08 Nec Corporation Information processing apparatus, information processing system, control method, and program
JP6621565B2 (ja) * 2017-03-29 2019-12-18 楽天株式会社 表示制御装置、表示制御方法、及びプログラム
JPWO2018186255A1 (ja) * 2017-04-06 2019-06-27 日鉄ソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、及び、記録媒体
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
US20210064334A1 (en) * 2018-01-18 2021-03-04 Mitsubishi Electric Corporation Device operation apparatus, device operation system and device operation method
US11232636B2 (en) * 2018-02-08 2022-01-25 Edx Technologies, Inc. Methods, devices, and systems for producing augmented reality
US11354815B2 (en) * 2018-05-23 2022-06-07 Samsung Electronics Co., Ltd. Marker-based augmented reality system and method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3927168B2 (ja) * 2002-11-25 2007-06-06 日本電信電話株式会社 実世界オブジェクト認識方法および実世界オブジェクト認識システム
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
US7295220B2 (en) * 2004-05-28 2007-11-13 National University Of Singapore Interactive system and method
JP4773170B2 (ja) * 2005-09-14 2011-09-14 任天堂株式会社 ゲームプログラムおよびゲームシステム
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
JP5080409B2 (ja) 2008-09-11 2012-11-21 Kddi株式会社 情報端末装置
JP2010118019A (ja) * 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体
JP5236546B2 (ja) * 2009-03-26 2013-07-17 京セラ株式会社 画像合成装置
CN101571748A (zh) * 2009-06-04 2009-11-04 浙江大学 一种基于增强现实的脑机交互系统
KR101695809B1 (ko) * 2009-10-09 2017-01-13 엘지전자 주식회사 이동 단말기 및 그 제어방법

Also Published As

Publication number Publication date
JP2012103789A (ja) 2012-05-31
WO2012063593A1 (ja) 2012-05-18
EP2639684A1 (en) 2013-09-18
US20130201217A1 (en) 2013-08-08
US9171388B2 (en) 2015-10-27
EP2639684A4 (en) 2016-09-07
CN103189827B (zh) 2016-04-27
CN103189827A (zh) 2013-07-03

Similar Documents

Publication Publication Date Title
JP5480777B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
CN108932051B (zh) 增强现实图像处理方法、装置及存储介质
CN104885098B (zh) 基于移动装置的文本检测及跟踪
CN109584307B (zh) 改进摄像机固有参数校准的系统和方法
JP3951984B2 (ja) 画像投影方法、及び画像投影装置
JP5279875B2 (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP6634502B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JPWO2005096130A1 (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
KR101509105B1 (ko) 증강현실 제공 장치 및 그 방법
US20180061135A1 (en) Image display apparatus and image display method
JP2011071746A (ja) 映像出力装置及び映像出力方法
JP2011205321A (ja) 撮像装置及び被写体検出方法
JP2017067737A (ja) 寸法計測装置、寸法計測方法およびプログラム
JP6915125B1 (ja) 電子装置およびプログラム
WO2018061430A1 (ja) 計測装置、計測方法、計測プログラム、及び記録媒体
JP2012128578A (ja) 携帯端末および画像処理方法
JP5636966B2 (ja) 誤差検出装置及び誤差検出プログラム
CN109977746B (zh) 用于登记面部姿态以用于面部识别的设备和方法
JP2024127233A (ja) 情報処理システム及びプログラム
JP2020201821A (ja) 画像処理装置及びその制御方法並びにプログラム
JP2019057014A (ja) 被写体特定情報処理装置並びにその制御方法及び制御プログラム
JP2011059854A (ja) 画像表示装置及び画像表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140214

R150 Certificate of patent or registration of utility model

Ref document number: 5480777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250