JP5279875B2 - オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム - Google Patents

オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム Download PDF

Info

Publication number
JP5279875B2
JP5279875B2 JP2011156024A JP2011156024A JP5279875B2 JP 5279875 B2 JP5279875 B2 JP 5279875B2 JP 2011156024 A JP2011156024 A JP 2011156024A JP 2011156024 A JP2011156024 A JP 2011156024A JP 5279875 B2 JP5279875 B2 JP 5279875B2
Authority
JP
Japan
Prior art keywords
image
real space
marker
shadow
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011156024A
Other languages
English (en)
Other versions
JP2013025326A (ja
Inventor
康夫 森永
学 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2011156024A priority Critical patent/JP5279875B2/ja
Priority to EP12811924.5A priority patent/EP2733675B1/en
Priority to US13/880,218 priority patent/US9153202B2/en
Priority to PCT/JP2012/065396 priority patent/WO2013008584A1/ja
Priority to CN201280004128.4A priority patent/CN103262127B/zh
Publication of JP2013025326A publication Critical patent/JP2013025326A/ja
Application granted granted Critical
Publication of JP5279875B2 publication Critical patent/JP5279875B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • G06T5/94
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムに関する。
近年において、AR(Augmented Reality:拡張現実)技術を用いたサービスが開発・提供されている。例えば、移動端末の所在位置の周辺に配置されたオブジェクトを取得し、移動端末に備えられたカメラにより取得した現実空間の画像に種々の情報や画像を含むオブジェクトを重畳表示する技術が知られている。また、移動端末のカメラにより取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられたオブジェクトを現実空間の画像に重畳してディスプレイに表示する技術が知られている。一方、様々な条件で撮影された画像から良好にマーカを検出するために、マーカの登録画像から、色彩、輝度、コントラスト、解像度、ピントを変化させたマーカの画像を生成し、生成した画像に基づき、マーカの検出を行う装置が知られている(例えば、特許文献1参照)。また、撮影した現実空間の画像に対して2値化処理を行ってマーカを検出する技術であって、マーカを検出できなかった場合に2値化の際の閾値を変更して検出を試みる装置が知られている。(例えば、特許文献2参照)。
特開2007−304733号公報 特開2007−304732号公報
かかるAR技術を用いたサービスにおいて、移動端末は、現実空間の画像を様々な条件下で撮影する。特に、マーカを利用したAR技術において、現実空間の画像が屋外で撮影される場合には、光源となる太陽の位置に依存して、現実空間の画像中に影が生じる。この影は、マーカの画像に対して、部分的に大きな変化を生じさせる。移動端末は、予め有しているマーカの画像に基づき現実空間の画像を探索することによりマーカを検出するので、現実空間の画像におけるマーカの画像に変化があると、マーカの検出が困難になる。また、上記特許文献に記載された技術は、マーカ全体又は現実空間画像全体の調整を行なうことによりマーカの検出精度を向上させるものであるので、部分的に色調に変化が生じたマーカの画像を検出できない。
そこで、本発明は、上記問題点に鑑みてなされたものであり、AR技術において、現実空間の画像において影が生じている場合であっても、マーカを検出することが可能なオブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムを提供することを目的とする。
上記課題を解決するために、本発明のオブジェクト表示装置は、仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置であって、現実空間の画像を取得する画像取得手段と、現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得手段と、陰影取得手段により取得された陰影情報に基づき、画像取得手段により取得された現実空間の画像及びオブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理手段と、画像処理手段により少なくとも一方が補正された現実空間の画像及びマーカを用いて、現実空間の画像からマーカを抽出する検知手段と、検知手段により検出されたマーカにオブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、現実空間の画像に重畳した重畳画像を表示する表示手段と、を備え、画像処理手段は、陰影取得手段により取得された陰影情報に基づき、オブジェクト情報記憶手段に所在位置を示す位置情報と対応付けられて記憶されたマーカに対して、当該マーカの所在位置に応じて、影の色調成分を付加する補正を行い、検知手段は、画像取得手段により取得された現実空間の画像から、画像処理手段により補正されたマーカを抽出する
また、上記課題を解決するために、本発明のオブジェクト表示方法は、仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置におけるオブジェクト表示方法であって、現実空間の画像を取得する画像取得ステップと、現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得ステップと、陰影取得ステップにおいて取得された陰影情報に基づき、画像取得ステップにおいて取得された現実空間の画像及びオブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理ステップと、画像処理ステップにおいて少なくとも一方が補正された現実空間の画像及びマーカを用いて、現実空間の画像からマーカを抽出する検知ステップと、検知ステップにおいて検出されたマーカにオブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、現実空間の画像に重畳した重畳画像を表示する表示ステップと、を有し、画像処理ステップにおいて、陰影取得ステップにおいて取得された陰影情報に基づき、オブジェクト情報記憶手段に所在位置を示す位置情報と対応付けられて記憶されたマーカに対して、当該マーカの所在位置に応じて、影の色調成分を付加する補正を行い、検知ステップにおいて、画像取得ステップにおいて取得された現実空間の画像から、画像処理ステップにおいて補正されたマーカを抽出する
また、上記課題を解決するために、本発明のオブジェクト表示プログラムは、仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置として機能させるためのオブジェクト表示プログラムであって、コンピュータに、現実空間の画像を取得する画像取得機能と、現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得機能と、陰影取得機能により取得された陰影情報に基づき、画像取得機能により取得された現実空間の画像及びオブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理機能と、画像処理機能により少なくとも一方が補正された現実空間の画像及びマーカを用いて、現実空間の画像からマーカを抽出する検知機能と、検知機能により検出されたマーカにオブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、現実空間の画像に重畳した重畳画像を表示する表示機能と、を実現させ、画像処理機能は、陰影取得機能により取得された陰影情報に基づき、オブジェクト情報記憶手段に所在位置を示す位置情報と対応付けられて記憶されたマーカに対して、当該マーカの所在位置に応じて、影の色調成分を付加する補正を行い、検知機能は、画像取得機能により取得された現実空間の画像から、画像処理機能により補正されたマーカを抽出する
本発明のオブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムによれば、現実空間における影の発生位置を示す陰影情報が取得され、取得された陰影情報に基づき、影の影響が排除されるように、現実空間の画像又は予め記憶しているマーカの画像が補正されるので、影が生じていない現実空間の画像と同様にマーカの検出処理を実施できる。従って、影が生じている現実空間の画像からのマーカの検出が可能となる。また、陰影情報に基づき、現実空間に所在するマーカにおいて影に覆われた部分が発生している場合において、その影の状態及び位置が推定され、推定された影の状態及び位置に基づき検出処理の基準とするためのマーカの画像に対して影の色調成分が付加される。現実空間の画像において、マーカに影に覆われた部分が生じていても、その状態を推定したマーカに基づき検出処理を実施するので、マーカの検出が可能となる。
また、本発明のオブジェクト表示装置では、画像処理手段は、陰影取得手段により取得された陰影情報に基づき、画像取得手段により取得された現実空間の画像から影の色調成分を除去する補正を行い、検知手段は、画像処理手段により補正された現実空間の画像から、マーカを抽出することとしてもよい。
上記構成によれば、陰影情報に基づき、現実空間の画像における影の発生位置から、影の色調成分が除去されるので、影が生じていない現実空間の画像からのマーカの検出処理と同様に、マーカの検出が可能となる。
また、本発明のオブジェクト表示装置は、仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置であって、現実空間の画像を取得する画像取得手段と、現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得手段と、陰影取得手段により取得された陰影情報に基づき、画像取得手段により取得された現実空間の画像及びオブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理手段と、画像処理手段により少なくとも一方が補正された現実空間の画像及びマーカを用いて、現実空間の画像からマーカを抽出する検知手段と、検知手段により検出されたマーカにオブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、現実空間の画像に重畳した重畳画像を表示する表示手段と、を備え、陰影取得手段は、現実空間における構造物の3次元の形状及び位置を表す情報を含む3次元地図情報、及び現在の日時を表す日時情報に基づき、陰影情報を推定する。
また、本発明のオブジェクト表示方法は、仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置におけるオブジェクト表示方法であって、現実空間の画像を取得する画像取得ステップと、現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得ステップと、陰影取得ステップにおいて取得された陰影情報に基づき、画像取得ステップにおいて取得された現実空間の画像及びオブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理ステップと、画像処理ステップにおいて少なくとも一方が補正された現実空間の画像及びマーカを用いて、現実空間の画像からマーカを抽出する検知ステップと、検知ステップにおいて検出されたマーカにオブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、現実空間の画像に重畳した重畳画像を表示する表示ステップと、を有し、陰影取得ステップにおいて、現実空間における構造物の3次元の形状及び位置を表す情報を含む3次元地図情報、及び現在の日時を表す日時情報に基づき、陰影情報を推定する。
また、本発明のオブジェクト表示プログラムは、仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置として機能させるためのオブジェクト表示プログラムであって、コンピュータに、現実空間の画像を取得する画像取得機能と、現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得機能と、陰影取得機能により取得された陰影情報に基づき、画像取得機能により取得された現実空間の画像及びオブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理機能と、画像処理機能により少なくとも一方が補正された現実空間の画像及びマーカを用いて、現実空間の画像からマーカを抽出する検知機能と、検知機能により検出されたマーカにオブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、現実空間の画像に重畳した重畳画像を表示する表示機能と、を実現させ、陰影取得機能は、現実空間における構造物の3次元の形状及び位置を表す情報を含む3次元地図情報、及び現在の日時を表す日時情報に基づき、陰影情報を推定する。
上記構成によれば、現時点における影の発生位置が適切に推定される。
また、本発明のオブジェクト表示装置では、陰影取得手段は、当該オブジェクト表示装置の所在位置を示す位置情報及び現在の日時を表す日時情報に基づき、当該オブジェクト表示装置のユーザにより生じる影の発生位置を推定し、陰影情報に含めることとしてもよい。
上記構成によれば、当該オブジェクト表示装置を保持するユーザが光源からの光を遮ることにより生じる影が考慮されるので、陰影情報の精度が向上する。
また、本発明のオブジェクト表示装置では、画像処理手段は、現実空間の画像から、陰影情報に示される陰の発生位置の色調情報を取得し、現実空間の画像において該色調情報と略同様の色調情報を有する領域から、影の色調成分を除去する補正を行うこととしてもよい。
この場合には、現実空間に恒常的に存在する構造物により発生する影だけでなく、現実空間中を一時的に通過した物等により生じた影の領域が検出され、この領域から影の色調成分が除去される。従って、マーカの検出精度が向上する。
AR技術において、現実空間の画像において影が生じている場合であっても、マーカを検出することが可能となる。
オブジェクト表示装置の機能的構成を示すブロック図である。 オブジェクト表示装置のハードブロック図である。 位置情報、日時情報及び姿勢情報の例を示す図である。 陰影演算部により推定される陰影情報の例を示す図である。 オブジェクト情報記憶部の構成及び記憶されているデータの例を示す図である。 画像処理部による補正処理の例を示す図である。 表示部により出力及び表示された重畳画像の例を示す図である。 画像処理部による補正処理の他の例を示す図である。 オブジェクト表示方法の処理内容を示すフローチャートである。 オブジェクト表示プログラムの構成を示す図である。
本発明に係るオブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムの実施形態について図面を参照して説明する。なお、可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
図1は、オブジェクト表示装置1の機能的構成を示すブロック図である。本実施形態のオブジェクト表示装置1は、仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しており、マーカを現実空間の画像から抽出し、抽出されたマーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示する装置である。オブジェクト表示装置1は、例えば、移動体通信網を介した通信が可能な携帯端末である。
移動端末等の装置を用いたAR技術によるサービスとしては、例えば、移動端末のカメラにより取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられたオブジェクトを現実空間の画像に重畳してディスプレイに表示するものがある。マーカは、現実空間中に予め人為的に設けられた物であってもよいし、現実空間中に存在する建物及び看板等の構造物並びにロゴマーク等であってもよい。また、同様のサービスとしては、移動端末が所在する位置情報に基づき移動端末の所在位置の周辺に配置されたオブジェクトを取得し、移動端末に備えられたカメラにより取得した現実空間の画像中の位置に対応付けてオブジェクトを重畳表示するものがある。本実施形態のオブジェクト表示装置1では、マーカを用いて仮想オブジェクトを表示する態様が想定される。
図1に示すように、オブジェクト表示装置1は、機能的には、位置情報取得部11、日時情報管理部12、地図記憶部13、陰影演算部14(陰影取得手段)、画像取得部15(画像取得手段)、姿勢検知部16、オブジェクト情報記憶部17(オブジェクト記憶手段)、画像突合部18、画像処理部19(画像処理手段)、マーカ検知部20(検知手段)、オブジェクト表示演算部21及び表示部22(表示手段)を含む。
図2は、オブジェクト表示装置1のハードウエア構成図である。オブジェクト表示装置1は、物理的には、図2に示すように、CPU101、主記憶装置であるRAM102及びROM103、データ送受信デバイスである通信モジュール104、ハードディスク、フラッシュメモリ等の補助記憶装置105、入力デバイスであるキーボード等の入力装置106、ディスプレイ等の出力装置107などを含むコンピュータシステムとして構成されている。図1に示した各機能は、図2に示すCPU101、RAM102等のハードウエア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール104、入力装置106、出力装置107を動作させるとともに、RAM102や補助記憶装置105におけるデータの読み出し及び書き込みを行うことで実現される。再び、図1を参照し、オブジェクト表示装置1の各機能部について詳細に説明する。
位置情報取得部11は、オブジェクト表示装置1の所在位置を示す位置情報を取得する部分であって、例えばGPS装置により構成される。図3(a)は、位置情報取得部11により取得される位置情報の例を示す図である。図3(a)に示すように、位置情報取得部11は、例えば、緯度及び経度を位置情報として取得する。位置情報取得部11は、取得した位置情報を陰影演算部14に送出する。
日時情報管理部12は、現在の日時を示す日時情報を管理する部分である。日時情報管理部12は、例えば、オブジェクト表示装置1に備えられた時計であってもよいし、図示しない外部装置から通信により日時情報を取得することとしてもよい。図3(b)は、日時情報管理部12により管理される日時情報の例を示す図である。図3(b)に示すように、日時情報管理部12は、例えば、日及び時刻を日時情報として管理する。日時情報管理部12は、日時情報を陰影演算部14に送出する。
地図記憶部13は、現実空間における構造物の3次元の形状及び位置を表す情報を含む3次元の地図情報を記憶しているデータベースである。構造物は、建物等の人工的な構造物及び自然の地形の両方を含む。
陰影演算部14は、現在の現実空間における影の発生位置を示す陰影情報を取得する部分である。具体的には、陰影演算部14は、現実空間における構造物の3次元の形状及び位置を表す情報を含む3次元地図情報、及び現在の日時を表す日時情報に基づき、陰影情報を推定する。図4は、陰影演算部14により推定される陰影情報の例を示す図である。
陰影演算部14は、オブジェクト表示装置1の所在位置周辺の地図情報を取得すると共に、日時情報に基づき、光源である太陽の位置を取得する。そして、陰影演算部14は、構造物により太陽の光が遮断されて発生する影の発生位置を算出する。図4(a)は、このように算出された影A1示す図である。即ち、陰影演算部14は、太陽Lの位置及び構造物Bの形状に基づき、影A1の発生位置を算出する。そして、陰影演算部14は、算出または取得した陰影情報を画像突合部18に送出する。
また、陰影演算部14は、オブジェクト表示装置1の所在位置を示す位置情報及び現在の日時を表す日時情報に基づき、当該オブジェクト表示装置1のユーザにより生じる影の発生位置を推定し、陰影情報に含めてもよい。即ち、図4(b)に示すように、陰影演算部14は、太陽Lの位置及びユーザYの位置に基づき、ユーザYにより太陽の光が遮断されて発生する影A2の発生位置を算出できる。ユーザYの位置は、位置情報取得部11からの位置情報により表される。
なお、陰影演算部14は、オブジェクト表示装置1ではなく、オブジェクト表示装置1と通信可能な他の装置に備えられることとしてもよい。この場合には、オブジェクト表示装置1は、当該他の装置により算出された陰影情報を取得する。また、地図記憶部13及び日時情報管理部12も同様に、オブジェクト表示装置1と通信可能な他の装置に備えられることとしてもよい。
画像取得部15は、現実空間の画像を取得する部分であって、例えば、カメラといった装置により構成される。画像取得部15は、現実空間の画像を画像突合部に送出する。
姿勢検知部16は、オブジェクト表示装置1の姿勢を検知する部分であって、例えば、加速度センサ及び地磁気センサといった装置により構成される。図3(c)は、姿勢検知部16により検知される姿勢を表す姿勢情報の例を示す図である。図3(c)に示すように、姿勢検知部16は、例えば、ロール角、ピッチ角及びヨー角といった情報を姿勢情報として検知する。姿勢検知部16は、姿勢情報を画像突合部18に送出する。
オブジェクト情報記憶部17は、仮想オブジェクトに関するデータを記憶しているデータベースである。図5は、オブジェクト情報記憶部17の構成及び記憶されているデータの例を示す図である。図5に示すように、オブジェクト情報記憶部17は、マーカを識別するマーカIDに対応付けて、マーカデータ、オブジェクトデータを記憶している。また、オブジェクト情報記憶部17は、例えば、現実空間に存在する建物やロゴマーク等の、位置を予め特定できる物をマーカとする場合には、当該マーカの所在位置を示す位置情報を更に有することができる。マーカデータは、当該マーカの画像データであって、現実空間の画像からの当該マーカの抽出に用いられる。オブジェクトデータは、当該マーカに対応付けて現実空間の画像に重畳表示させるオブジェクトの画像データである。
画像突合部18は、画像取得部15により取得された現実空間の画像と、地図情報等及び陰影情報に基づく推定画像とを突合する部分である。画像突合部18は、3次元の地図情報、オブジェクト表示装置1の位置情報及び姿勢検知部により取得された姿勢情報に基づき、画像取得部15により取得されるはずの現実空間の画像を推定し、更に、この画像に対して陰影情報に基づく影を付加することにより、推定画像を生成する。そして、画像突合部18は、推定画像と現実空間の画像との建物(構造物)等の位置及び形状がマッチングするか否かを判定する。画像突合部18は、画像取得部15により取得された現実空間の画像と推定画像とを突合(マッチング)することにより、現実空間の画像における影の発生部分を陰影情報に基づき判別できる。また、画像突合部18は、現実空間の画像における影の発生部分の色調成分を抽出することにより、影の色調に関する情報も取得できる。画像突合部18は、画像取得部15からの現実空間の画像と共に、当該画像の影の発生位置に関する情報及び影の色調に関する情報を画像処理部19に送出する。
画像処理部19は、陰影演算部14により取得された陰影情報に基づき、画像取得部15により取得された現実空間の画像及びオブジェクト情報記憶部17に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する部分である。現実空間の画像が補正される場合の補正処理を、図6を参照して具体的に説明する。図6は、画像処理部19による補正処理の例を説明するための図である。
画像処理部19は、陰影情報に基づき、画像取得部15により取得された現実空間の画像から影の色調成分を除去する補正を行う。具体的には、画像処理部19は、陰影演算部14からの陰影情報に基づく、現実空間の画像における影の発生位置及び色調に関する情報を、現実空間の画像と共に、画像突合部18から取得する。図6(a)は、このときに取得される現実空間の画像の例を示す図である。図6(a)に示すように、現実空間の画像には、マーカM及び影Aが含まれている。そして、画像処理部19は、影の発生位置及び色調に関する情報に基づき、画像突合部18を介して取得した現実空間の画像から、影の色調成分を除去する補正を行う。図6(b)は、補正された現実空間の画像の例を示す図である。即ち、画像処理部19は、影の発生位置及び色調に関する情報を有しているので、これらの情報に基づき、図6(a)に示される画像から、影の色調成分を除去する補正を行い、図6(b)に示されるような画像を生成できる。
また、画像処理部19は、現実空間の画像において、画像突合部18から取得した影の色調情報と略同様の色調情報を有する領域から、影の色調成分を除去する補正を行うこととしてもよい。この補正により、現実空間に恒常的に存在する構造物により発生する影だけでなく、現実空間中を一時的に通過した人や物等により生じた影を除去できる。画像処理部19は、補正された現実空間の画像をマーカ検知部20に送出する。
マーカ検知部20は、画像処理部19から取得した現実空間の画像から、マーカを検知する部分である。具体的には、マーカ検知部20は、オブジェクト情報記憶部17から、オブジェクト情報に含まれるマーカデータを取得し、取得したマーカデータに基づき現実空間の画像をサーチし、現実空間の画像におけるマーカの位置及び大きさといった情報を検知結果として出力できる。画像処理部19から取得した現実空間の画像は、影が除去されているので、マーカ検知部20は、オブジェクト情報記憶部17に記憶されたマーカデータに基づくサーチによりマーカを検出できる。
マーカ検知部20は、検知したマーカに対応付けられているオブジェクトデータをオブジェクト情報記憶部17から取得し、当該オブジェクトデータ及び現実空間の画像と共に、マーカの検知結果をオブジェクト表示演算部21に送出する。
オブジェクト表示演算部21は、マーカの検知結果に基づき、当該マーカに対応付けて表示する仮想オブジェクトの向き及び大きさを演算する部分である。オブジェクト表示演算部21は、現実空間の画像及びオブジェクトデータと共に、演算結果を表示部22に送出する。
表示部22は、マーカ検知部20により検出されたマーカにオブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、現実空間の画像に重畳した重畳画像を表示する部分である。
具体的には、表示部22は、オブジェクト表示演算部21からの演算結果に基づき仮想オブジェクトの大きさ及び向きを決定し、当該仮想オブジェクトの画像を現実空間の画像に重畳して、重畳画像を生成する。仮想オブジェクトの重畳位置は、マーカの位置を基準とした相対位置により規定される。そして、表示部22は、重畳画像を例えばディスプレイといった装置に出力する。図7は、表示部22により出力及び表示された重畳画像の例を示す図である。図7に示す例では、図5に示したオブジェクト情報においてマーカID「1」のマーカに対応付けられた仮想オブジェクトVが、マーカMに対応付けられて表示されている。
また、画像処理部19は、上述したように、陰影取得手段により取得された陰影情報に基づきオブジェクト情報記憶部17に記憶されたマーカに影の色調を付加する補正を行うことにより、影の影響を排除したマーカの抽出が可能になるようにしてもよい。この補正処理を、図8を参照して具体的に説明する。図8は、画像処理部19による補正処理の例を説明するための図である。
画像処理部19は、オブジェクト情報記憶部17に記憶されたマーカに対して、当該マーカの所在位置に応じて、影の色調成分を付加する補正を行う。具体的には、画像処理部19は、陰影演算部14からの陰影情報に基づく、現実空間の画像における影の発生位置及び色調に関する情報を、現実空間の画像と共に、画像突合部18から取得する。また、画像処理部19は、マーカの所在位置を示す位置情報をオブジェクト情報記憶部17から取得する。これらの情報に基づき、画像処理部19は、現実空間における影の発生位置とマーカの位置との位置関係を推定する。図8(a)は、画像処理部に推定された影A3の発生位置とマーカMの位置との位置関係を模式的に示す図である。なお、マーカMは、図5のオブジェクト情報記憶部17において、マーカID「2」として記憶されている。マーカID「2」のマーカMは位置情報(XX,YY)を有しているので、画像処理部19は、画像突合部18により推定された現実空間の推定画像中に、マーカMを配置できる。
そして、画像処理部19は、影の発生位置及びマーカの位置に基づき、現実空間においてマーカ上に発生する影を推定できる。即ち、画像処理部19は、現実空間に配置されたマーカ上において影が発生している領域を推定し、オブジェクト情報記憶部17から取得したマーカデータにおける影の発生領域に影の色調成分を付加する。図8(b)は、影A3、マーカM及びユーザYの位置関係を示す図であり、図8(c)は、図8(b)に示す位置関係において、画像処理部19により生成されたマーカデータMの例を模式的に示す図である。図8(c)に示されるように、画像処理部19は、マーカデータMの右側の領域Aに、影の色調成分を付加することができる。
画像処理部19は、現実空間の画像と共に、影の色調成分が付加されたマーカデータをマーカ検知部20に送出する。そして、マーカ検知部20は、画像処理部19により影の色調成分が付されたマーカデータに基づき、現実空間の画像からマーカを検知できる。このように、現実空間の画像に配置されたマーカ上に他の構造物等に起因する影が生じている場合であっても、画像処理部19は、その影の状態を反映したマーカデータを生成し、マーカ検知部20は、そのマーカデータに基づき、現実空間の画像からマーカを抽出できる。
続いて、オブジェクト表示装置1におけるオブジェクト表示方法の処理内容を説明する。図9は、オブジェクト表示方法の処理内容を示すフローチャートである。
まず、位置情報取得部11は、オブジェクト表示装置1の所在位置を示す位置情報を取得する(S1)。続いて、陰影演算部14は、日時情報管理部12により管理されている日時情報及び位置情報に基づき、現在における太陽の位置を算出する。そして、陰影演算部14は、オブジェクト表示装置1の所在位置周辺の3次元の地図情報を取得し、ステップS2において算出された太陽の位置に基づき、現実空間における影の発生位置(陰影情報)を推定する(S3)。
次に、画像取得部15は、現実空間の画像を取得する(S4)。続いて、画像突合部18は、地図情報等及び陰影情報に基づき推定画像を生成する。さらに、画像突合部18は、生成した推定画像と、画像取得部15により取得された現実空間の画像とをマッチング(突合)する(S5)。ここで、画像突合部18は、推定画像と現実空間の画像との建物(構造物)等の位置及び形状がマッチングするか否かを判定する(S6)。マッチングすると判定された場合には、処理手順はステップS7に進められる。一方、マッチングすると判定されなかった場合には、処理手順はステップS1に戻る。
ステップS7において、画像処理部19は、陰影情報に基づき、画像取得部15により取得された現実空間の画像又はオブジェクト情報記憶部17に記憶されたマーカの画像を補正する(S7)。具体的には、画像処理部19は、現実空間の画像における影が発生している領域から、影の色調成分を除去する。この場合に、画像処理部19は、現実空間の画像において、陰影情報における影の色調情報と略同様の色調を有する領域から、影の色調成分を除去する補正を行ってもよい。または、画像処理部19は、現実空間に存在するマーカにおいて影に覆われている領域があると推定された場合に、マーカデータの当該領域に影の色調成分を付加する。
続いて、マーカ検知部20は、ステップS7において少なくとも一方が補正された現実空間の画像及びマーカデータを用いて、現実空間の画像からマーカを検知及び抽出する(S8)。そして、オブジェクト表示演算部21は、マーカの検知結果に基づき、当該マーカに対応付けて表示する仮想オブジェクトの向き及び大きさを演算し、表示部22は、マーカの検知結果に基づき演算された、当該マーカに対応付けて表示する仮想オブジェクトの向き及び大きさに基づき、仮想オブジェクトを現実空間の画像の所定位置に重畳した重畳画像を生成及び表示する(S9)。
次に、コンピュータを、本実施形態のオブジェクト表示装置1として機能させるためのオブジェクト表示プログラムについて説明する。図10は、図1に示したオブジェクト表示装置1に対応するオブジェクト表示プログラム1mの構成を示す図である。
オブジェクト表示プログラム1mは、オブジェクト表示処理を統括的に制御するメインモジュール10m、位置情報取得モジュール11m、日時情報管理モジュール12m、地図記憶モジュール13m、陰影演算モジュール14m、画像取得モジュール15m、姿勢検知モジュール16m、オブジェクト情報記憶モジュール17m、画像突合モジュール18m、画像処理モジュール19m、マーカ検知モジュール20m、オブジェクト表示演算モジュール21m及び表示モジュール22mを含む。そして、各モジュール10m〜22mにより、オブジェクト表示装置1における各機能部11〜22のための各機能が実現される。なお、オブジェクト表示プログラム1mは、通信回線等の伝送媒体を介して伝送される態様であってもよいし、図10に示されるように、記録媒体1dのプログラム格納領域1rに記憶される態様であってもよい。
本実施形態のオブジェクト表示装置1、オブジェクト表示方法及びオブジェクト表示プログラム1mによれば、現実空間における影の発生位置を示す陰影情報が取得され、取得された陰影情報に基づき、影の影響が排除されるように、現実空間の画像又は予め記憶しているマーカの画像が補正されるので、影が生じていない現実空間の画像と同様にマーカの検出処理を実施できる。従って、影が生じている現実空間の画像からのマーカの検出が可能となる。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
1…オブジェクト表示装置、1m…オブジェクト表示プログラム、1d…記録媒体、10m…メインモジュール、11…位置情報取得部、11m…位置情報取得モジュール、12…日時情報管理部、12m…日時情報管理モジュール、13…地図記憶部、13m…地図記憶モジュール、14…陰影演算部、14m…陰影演算モジュール、15…画像取得部、15m…画像取得モジュール、16…姿勢検知部、16m…姿勢検知モジュール、17…オブジェクト情報記憶部、17m…オブジェクト情報記憶モジュール、18…画像突合部、18m…画像突合モジュール、19…画像処理部、19m…画像処理モジュール、20…マーカ検知部、20m…マーカ検知モジュール、21…オブジェクト表示演算部、21m…オブジェクト表示演算モジュール、22…表示部、22m…表示モジュール。

Claims (9)

  1. 仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、前記マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置であって、
    現実空間の画像を取得する画像取得手段と、
    現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得手段と、
    前記陰影取得手段により取得された陰影情報に基づき、前記画像取得手段により取得された現実空間の画像及び前記オブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理手段と、
    前記画像処理手段により少なくとも一方が補正された現実空間の画像及びマーカを用いて、前記現実空間の画像から前記マーカを抽出する検知手段と、
    前記検知手段により検出されたマーカに前記オブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、前記現実空間の画像に重畳した重畳画像を表示する表示手段と、を備え、
    前記画像処理手段は、前記陰影取得手段により取得された陰影情報に基づき、前記オブジェクト情報記憶手段に所在位置を示す位置情報と対応付けられて記憶されたマーカに対して、当該マーカの所在位置に応じて、影の色調成分を付加する補正を行い、
    前記検知手段は、前記画像取得手段により取得された現実空間の画像から、前記画像処理手段により補正されたマーカを抽出する、
    オブジェクト表示装置。
  2. 仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、前記マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置であって、
    現実空間の画像を取得する画像取得手段と、
    現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得手段と、
    前記陰影取得手段により取得された陰影情報に基づき、前記画像取得手段により取得された現実空間の画像及び前記オブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理手段と、
    前記画像処理手段により少なくとも一方が補正された現実空間の画像及びマーカを用いて、前記現実空間の画像から前記マーカを抽出する検知手段と、
    前記検知手段により検出されたマーカに前記オブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、前記現実空間の画像に重畳した重畳画像を表示する表示手段と、を備え、
    前記陰影取得手段は、現実空間における構造物の3次元の形状及び位置を表す情報を含む3次元地図情報、及び現在の日時を表す日時情報に基づき、前記陰影情報を推定する、
    オブジェクト表示装置。
  3. 前記画像処理手段は、前記陰影取得手段により取得された陰影情報に基づき、前記画像取得手段により取得された現実空間の画像から影の色調成分を除去する補正を行い、
    前記検知手段は、前記画像処理手段により補正された現実空間の画像から、前記マーカを抽出する、
    請求項1または2に記載のオブジェクト表示装置。
  4. 前記陰影取得手段は、当該オブジェクト表示装置の所在位置を示す位置情報及び現在の日時を表す日時情報に基づき、当該オブジェクト表示装置のユーザにより生じる影の発生位置を推定し、前記陰影情報に含める、
    請求項2に記載のオブジェクト表示装置。
  5. 前記画像処理手段は、前記現実空間の画像から、前記陰影情報に示される陰の発生位置の色調情報を取得し、前記現実空間の画像において該色調情報と略同様の色調情報を有する領域から、影の色調成分を除去する補正を行う、
    請求項3に記載のオブジェクト表示装置。
  6. 仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、前記マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置におけるオブジェクト表示方法であって、
    現実空間の画像を取得する画像取得ステップと、
    現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得ステップと、
    前記陰影取得ステップにおいて取得された陰影情報に基づき、前記画像取得ステップにおいて取得された現実空間の画像及び前記オブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理ステップと、
    前記画像処理ステップにおいて少なくとも一方が補正された現実空間の画像及びマーカを用いて、前記現実空間の画像から前記マーカを抽出する検知ステップと、
    前記検知ステップにおいて検出されたマーカに前記オブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、前記現実空間の画像に重畳した重畳画像を表示する表示ステップと、を有し、
    前記画像処理ステップにおいて、前記陰影取得ステップにおいて取得された陰影情報に基づき、前記オブジェクト情報記憶手段に所在位置を示す位置情報と対応付けられて記憶されたマーカに対して、当該マーカの所在位置に応じて、影の色調成分を付加する補正を行い、
    前記検知ステップにおいて、前記画像取得ステップにおいて取得された現実空間の画像から、前記画像処理ステップにおいて補正されたマーカを抽出する、
    オブジェクト表示方法。
  7. 仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、前記マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置におけるオブジェクト表示方法であって、
    現実空間の画像を取得する画像取得ステップと、
    現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得ステップと、
    前記陰影取得ステップにおいて取得された陰影情報に基づき、前記画像取得ステップにおいて取得された現実空間の画像及び前記オブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理ステップと、
    前記画像処理ステップにおいて少なくとも一方が補正された現実空間の画像及びマーカを用いて、前記現実空間の画像から前記マーカを抽出する検知ステップと、
    前記検知ステップにおいて検出されたマーカに前記オブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、前記現実空間の画像に重畳した重畳画像を表示する表示ステップと、を有し、
    前記陰影取得ステップにおいて、現実空間における構造物の3次元の形状及び位置を表す情報を含む3次元地図情報、及び現在の日時を表す日時情報に基づき、前記陰影情報を推定する、
    オブジェクト表示方法。
  8. 仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、前記マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置として機能させるためのオブジェクト表示プログラムであって、
    コンピュータに、
    現実空間の画像を取得する画像取得機能と、
    現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得機能と、
    前記陰影取得機能により取得された陰影情報に基づき、前記画像取得機能により取得された現実空間の画像及び前記オブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理機能と、
    前記画像処理機能により少なくとも一方が補正された現実空間の画像及びマーカを用いて、前記現実空間の画像から前記マーカを抽出する検知機能と、
    前記検知機能により検出されたマーカに前記オブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、前記現実空間の画像に重畳した重畳画像を表示する表示機能と、を実現させ、
    前記画像処理機能は、前記陰影取得機能により取得された陰影情報に基づき、前記オブジェクト情報記憶手段に所在位置を示す位置情報と対応付けられて記憶されたマーカに対して、当該マーカの所在位置に応じて、影の色調成分を付加する補正を行い、
    前記検知機能は、前記画像取得機能により取得された現実空間の画像から、前記画像処理機能により補正されたマーカを抽出する、
    オブジェクト表示プログラム。
  9. 仮想オブジェクトに関する仮想オブジェクト情報を、現実空間に所在する所定の標識であるマーカに対応付けて記憶しているオブジェクト情報記憶手段を備え、前記マーカを現実空間の画像から抽出し、抽出された該マーカに対応付けられた仮想オブジェクトを、現実空間の画像に重畳表示するオブジェクト表示装置として機能させるためのオブジェクト表示プログラムであって、
    コンピュータに、
    現実空間の画像を取得する画像取得機能と、
    現在の現実空間における影の発生位置を示す陰影情報を取得する陰影取得機能と、
    前記陰影取得機能により取得された陰影情報に基づき、前記画像取得機能により取得された現実空間の画像及び前記オブジェクト情報記憶手段に記憶されたマーカの少なくとも一方を、影の影響を排除したマーカの抽出が可能になるように補正する画像処理機能と、
    前記画像処理機能により少なくとも一方が補正された現実空間の画像及びマーカを用いて、前記現実空間の画像から前記マーカを抽出する検知機能と、
    前記検知機能により検出されたマーカに前記オブジェクト情報記憶手段において対応付けられた仮想オブジェクトの画像を、前記現実空間の画像に重畳した重畳画像を表示する表示機能と、を実現させ、
    前記陰影取得機能は、現実空間における構造物の3次元の形状及び位置を表す情報を含む3次元地図情報、及び現在の日時を表す日時情報に基づき、前記陰影情報を推定する、
    オブジェクト表示プログラム。
JP2011156024A 2011-07-14 2011-07-14 オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム Active JP5279875B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011156024A JP5279875B2 (ja) 2011-07-14 2011-07-14 オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
EP12811924.5A EP2733675B1 (en) 2011-07-14 2012-06-15 Object display device, object display method, and object display program
US13/880,218 US9153202B2 (en) 2011-07-14 2012-06-15 Object display device, object display method, and object display program
PCT/JP2012/065396 WO2013008584A1 (ja) 2011-07-14 2012-06-15 オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
CN201280004128.4A CN103262127B (zh) 2011-07-14 2012-06-15 物体显示装置、以及物体显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011156024A JP5279875B2 (ja) 2011-07-14 2011-07-14 オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム

Publications (2)

Publication Number Publication Date
JP2013025326A JP2013025326A (ja) 2013-02-04
JP5279875B2 true JP5279875B2 (ja) 2013-09-04

Family

ID=47505882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011156024A Active JP5279875B2 (ja) 2011-07-14 2011-07-14 オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム

Country Status (5)

Country Link
US (1) US9153202B2 (ja)
EP (1) EP2733675B1 (ja)
JP (1) JP5279875B2 (ja)
CN (1) CN103262127B (ja)
WO (1) WO2013008584A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2622072C1 (ru) * 2016-01-11 2017-06-09 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Пензенский государственный университет" (ФГБОУ ВПО "Пензенский государственный университет") Способ утилизации отработанного медно-аммиачного раствора

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014137337A1 (en) * 2013-03-06 2014-09-12 Intel Corporation Methods and apparatus for using optical character recognition to provide augmented reality
JP2015119277A (ja) * 2013-12-17 2015-06-25 オリンパスイメージング株式会社 表示機器、表示方法及び表示プログラム
JP6291989B2 (ja) * 2014-04-15 2018-03-14 コニカミノルタ株式会社 コンテンツ表示装置およびコンテンツ表示装置の制御プログラム
EP3869469A1 (en) 2014-07-28 2021-08-25 Panasonic Intellectual Property Management Co., Ltd. Augmented reality display system, terminal device and augmented reality display method
WO2016079960A1 (en) * 2014-11-18 2016-05-26 Seiko Epson Corporation Image processing apparatus, control method for image processing apparatus, and computer program
KR20160070874A (ko) * 2014-12-10 2016-06-21 브이앤아이 주식회사 모바일 기기를 이용한 위치기반 시설물 관리 시스템
CN104735516A (zh) * 2015-02-28 2015-06-24 湖北视纪印象科技股份有限公司 扩充图像服务信息的方法及系统
JP7098870B2 (ja) * 2016-07-25 2022-07-12 富士フイルムビジネスイノベーション株式会社 測色システム、画像生成装置、および、プログラム
US10319127B2 (en) 2016-09-22 2019-06-11 International Business Machines Corporation Spatial and hierarchical placement of images at runtime
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
WO2019087581A1 (ja) * 2017-11-06 2019-05-09 ソニー株式会社 情報処理装置と情報処理方法およびプログラム
EP3608873B1 (en) 2017-12-14 2021-06-09 Canon Kabushiki Kaisha Generation device, generation method and program for three-dimensional model
US11776503B2 (en) * 2020-05-28 2023-10-03 Apple Inc. Generating display data based on modified ambient light luminance values

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05266170A (ja) * 1992-03-19 1993-10-15 Nec Home Electron Ltd 3次元画像処理装置
JP2003287434A (ja) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk 画像情報検索システム
JP2004048674A (ja) * 2002-05-24 2004-02-12 Olympus Corp 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ
JP4253567B2 (ja) 2003-03-28 2009-04-15 オリンパス株式会社 データオーサリング処理装置
CN100356407C (zh) 2003-03-28 2007-12-19 奥林巴斯株式会社 数据创建设备
JP4550769B2 (ja) 2006-05-09 2010-09-22 日本電信電話株式会社 画像検出装置および画像検出方法
JP4550768B2 (ja) 2006-05-09 2010-09-22 日本電信電話株式会社 画像検出方法および画像検出装置
JP4774346B2 (ja) * 2006-08-14 2011-09-14 日本電信電話株式会社 画像処理方法、画像処理装置およびプログラム
JP5162928B2 (ja) * 2007-03-12 2013-03-13 ソニー株式会社 画像処理装置、画像処理方法、画像処理システム
US20090109240A1 (en) * 2007-10-24 2009-04-30 Roman Englert Method and System for Providing and Reconstructing a Photorealistic Three-Dimensional Environment
KR100912264B1 (ko) * 2008-02-12 2009-08-17 광주과학기술원 사용자 반응형 증강 영상 생성 방법 및 시스템
US20100066750A1 (en) * 2008-09-16 2010-03-18 Motorola, Inc. Mobile virtual and augmented reality system
US20100177095A1 (en) * 2009-01-14 2010-07-15 Harris Corporation Geospatial modeling system for reducing shadows and other obscuration artifacts and related methods
JP5218168B2 (ja) * 2009-03-11 2013-06-26 ソニー株式会社 撮像装置、動体検知方法、動体検知回路、プログラム、及び監視システム
CN101520904B (zh) * 2009-03-24 2011-12-28 上海水晶石信息技术有限公司 带有现实环境估算的增强现实的方法及其系统
US8405658B2 (en) * 2009-09-14 2013-03-26 Autodesk, Inc. Estimation of light color and direction for augmented reality applications
US20110234631A1 (en) * 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2622072C1 (ru) * 2016-01-11 2017-06-09 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Пензенский государственный университет" (ФГБОУ ВПО "Пензенский государственный университет") Способ утилизации отработанного медно-аммиачного раствора

Also Published As

Publication number Publication date
JP2013025326A (ja) 2013-02-04
EP2733675B1 (en) 2018-03-28
CN103262127A (zh) 2013-08-21
EP2733675A4 (en) 2015-05-20
WO2013008584A1 (ja) 2013-01-17
EP2733675A1 (en) 2014-05-21
US20130201201A1 (en) 2013-08-08
US9153202B2 (en) 2015-10-06
CN103262127B (zh) 2015-12-09

Similar Documents

Publication Publication Date Title
JP5279875B2 (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP5480777B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
JP5055402B2 (ja) オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
JP4958497B2 (ja) 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
CN108932051B (zh) 增强现实图像处理方法、装置及存储介质
JP6334927B2 (ja) 付加情報表示装置および付加情報表示プログラム
US9361731B2 (en) Method and apparatus for displaying video on 3D map
JP2012174116A (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP5552892B2 (ja) 画像処理装置および画像処理プログラム
US20140139552A1 (en) Object display device, object display method, and object display program
US10726262B2 (en) Imaging support system, device and method, and imaging terminal
JP2012103790A (ja) オブジェクト表示装置及びオブジェクト表示方法
JP5230778B2 (ja) オブジェクト情報提供装置、オブジェクト情報提供システム、端末及びオブジェクト情報提供方法
KR20150125862A (ko) 3차원 정합을 이용한 증강현실 장치 및 그 방법
JP6165422B2 (ja) 情報処理システム、情報処理装置、サーバ、端末装置、情報処理方法、及びプログラム
CN109034214B (zh) 用于生成标记的方法和装置
JP2019061702A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP4896762B2 (ja) 画像処理装置および画像処理プログラム
JP2020122697A (ja) 三次元計測装置および三次元計測プログラム
US9324176B2 (en) Apparatus and method for saving and updating image file
US9245192B2 (en) Ad collateral detection
JP2011164701A (ja) オブジェクト表示制御装置及びオブジェクト表示制御方法
JP2023066479A (ja) 計測装置、計測システム、計測方法及びプログラム
JP2014030092A (ja) 情報提供装置、情報提供方法、及びそのプログラム
JP2019057014A (ja) 被写体特定情報処理装置並びにその制御方法及び制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130521

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5279875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250