JP5377537B2 - オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム - Google Patents

オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム Download PDF

Info

Publication number
JP5377537B2
JP5377537B2 JP2011027631A JP2011027631A JP5377537B2 JP 5377537 B2 JP5377537 B2 JP 5377537B2 JP 2011027631 A JP2011027631 A JP 2011027631A JP 2011027631 A JP2011027631 A JP 2011027631A JP 5377537 B2 JP5377537 B2 JP 5377537B2
Authority
JP
Japan
Prior art keywords
image
real space
acquired
display device
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011027631A
Other languages
English (en)
Other versions
JP2012168642A (ja
Inventor
学 太田
康夫 森永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2011027631A priority Critical patent/JP5377537B2/ja
Priority to US13/993,360 priority patent/US20130278636A1/en
Priority to PCT/JP2012/050204 priority patent/WO2012108219A1/ja
Priority to EP12744752.2A priority patent/EP2674920A4/en
Priority to CN201280007950.6A priority patent/CN103348387B/zh
Publication of JP2012168642A publication Critical patent/JP2012168642A/ja
Application granted granted Critical
Publication of JP5377537B2 publication Critical patent/JP5377537B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムに関する。
近年において、AR(Augmented Reality:拡張現実)技術を用いたサービスが開発・提供されている。例えば、移動端末の所在位置の周辺に配置されたオブジェクトを取得し、移動端末に備えられたカメラにより取得した現実空間の画像に種々の情報や画像を含むオブジェクトを重畳表示する技術が知られている。また、オブジェクトを現実空間の画像に重畳する際の、オブジェクトの色調を考慮するための技術として現実空間に配置されたマーカの色調に基づきオブジェクトの色調を補正する技術が知られている(例えば、特許文献1参照)。
特開2010−170316号公報
しかしながら、通常のAR技術では、撮影した現実空間の画像にオブジェクトの画像を単に重畳させるのみであったので、両画像の画質等の相違に起因して合成された画像に違和感が生じる場合があった。
そこで、本発明は、上記問題点に鑑みてなされたものであり、AR技術において、現実空間の画像にオブジェクトを重畳表示させた際の違和感を軽減することが可能なオブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムを提供することを目的とする。
上記課題を解決するために、本発明のオブジェクト表示装置は、現実空間の画像の所定位置にオブジェクトを重畳表示するオブジェクト表示装置であって、当該オブジェクト表示装置の所在位置を取得する位置測定手段と、位置測定手段により取得された当該オブジェクト表示装置の所在位置に基づき、オブジェクトの現実空間における配置位置に関する位置情報を含むオブジェクト情報を取得するオブジェクト情報取得手段と、オブジェクト情報取得手段により取得されたオブジェクトの位置情報に基づき、当該オブジェクト表示装置の所在位置からオブジェクトまでの距離を算出するオブジェクト距離算出手段と、オブジェクト距離算出手段により算出された距離に基づき、現実空間の画像の取得のための、少なくとも焦点距離を含み、取得される現実空間の画像においてオブジェクトが重畳される位置に焦点が合うような設定値を決定する設定値決定手段と、設定値決定手段により決定された設定値を用いて、現実空間の画像を取得する画像取得手段と、画像取得手段により取得された現実空間の画像に、オブジェクト情報取得手段により取得されたオブジェクトを重畳した画像を生成する画像合成手段と、画像合成手段により生成された画像を表示する表示手段とを備えることを特徴とする。
また、上記課題を解決するために、本発明のオブジェクト表示方法は、現実空間の画像の所定位置にオブジェクトを重畳表示するオブジェクト表示装置におけるオブジェクト表示方法であって、当該オブジェクト表示装置の所在位置を取得する位置測定ステップと、位置測定ステップにおいて取得された当該オブジェクト表示装置の所在位置に基づき、オブジェクトの現実空間における配置位置に関する位置情報を含むオブジェクト情報を取得するオブジェクト情報取得ステップと、オブジェクト情報取得ステップにおいて取得されたオブジェクトの位置情報に基づき、当該オブジェクト表示装置の所在位置からオブジェクトまでの距離を算出するオブジェクト距離算出ステップと、オブジェクト距離算出ステップにおいて算出された距離に基づき、現実空間の画像の取得のための、少なくとも焦点距離を含み、取得される現実空間の画像においてオブジェクトが重畳される位置に焦点が合うような設定値を決定する設定値決定ステップと、設定値決定ステップにおいて決定された設定値を用いて、現実空間の画像を取得する画像取得ステップと、画像取得ステップにおいて取得された現実空間の画像に、オブジェクト情報取得ステップにおいて取得されたオブジェクトを重畳した画像を生成する画像合成ステップと、画像合成ステップにおいて生成された画像を表示する表示ステップとを有することを特徴とする。
また、上記課題を解決するために、本発明のオブジェクト表示プログラムは、コンピュータを、現実空間の画像の所定位置にオブジェクトを重畳表示するオブジェクト表示装置として機能させるためのオブジェクト表示プログラムであって、コンピュータに、当該オブジェクト表示装置の所在位置を取得する位置測定機能と、位置測定機能により取得された当該オブジェクト表示装置の所在位置に基づき、オブジェクトの現実空間における配置位置に関する位置情報を含むオブジェクト情報を取得するオブジェクト情報取得機能と、オブジェクト情報取得機能により取得されたオブジェクトの位置情報に基づき、オブジェクトまでの距離を算出するオブジェクト距離算出機能と、オブジェクト距離算出機能により算出された距離に基づき、現実空間の画像の取得のための、少なくとも焦点距離を含み、取得される現実空間の画像においてオブジェクトが重畳される位置に焦点が合うような設定値を決定する設定値決定機能と、設定値決定機能により決定された設定値を用いて、現実空間の画像を取得する画像取得機能と、画像取得機能により取得された現実空間の画像に、オブジェクト情報取得機能により取得されたオブジェクトを重畳した画像を生成する画像合成機能と、画像合成機能により生成された画像を表示する表示機能とを実現させることを特徴とする。
本発明のオブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムによれば、オブジェクトまでの距離に基づき、現実空間の画像を取得するための焦点距離を含む設定値が算出され、算出された焦点距離により現実空間の画像が取得されるので、オブジェクトの重畳位置に焦点が合わされると共に、オブジェクトが重畳された位置から遠ざかるに従ってピントがずれていく画像が取得される。これにより、ピントが合わされた現実空間の画像にオブジェクトが重畳されることとなるので、現実空間の画像の画質とオブジェクトの画質との相違が小さくなり、合成された画像における違和感が軽減される。また、オブジェクトが重畳された位置から遠ざかるにつれて、現実空間の画像のピントがずれていくので、ユーザにとっての注目の対象であるオブジェクトが強調される。
また、本発明のオブジェクト表示装置では、設定値決定手段は、オブジェクト情報取得手段により複数のオブジェクト情報が取得された場合に、取得された複数のオブジェクト情報から1以上のオブジェクト情報を選択し、選択されたオブジェクト情報に基づき算出された当該オブジェクトまでの距離に基づき設定値を決定することを特徴とする。
この場合には、複数のオブジェクトまでの距離に基づき、焦点距離を含む設定値が決定されるので、重畳画像において当該複数のオブジェクトが強調されると共に、重畳画像全体における違和感が軽減される。
また、本発明のオブジェクト表示装置は、設定値決定手段により決定された焦点距離と、オブジェクト距離算出手段により算出されたオブジェクトまでの距離との差に応じて、当該オブジェクトの画像に対して、撮影対象が焦点距離からずれた位置に存在する場合に取得される画像を模すためのぼかし加工をするオブジェクト加工手段を更に備え、画像合成手段は、オブジェクト加工手段により加工されたオブジェクトを現実空間の画像に重畳することを特徴とする。
この場合には、決定された焦点距離によりピントが合わない位置にオブジェクトが所在する場合に、当該オブジェクトに対してぼかし加工が施される。これにより、現実空間における焦点が合っていない領域に、ぼかし加工が施されたオブジェクトが重畳されるので、違和感の軽減された重畳画像が得られる。
また、本発明のオブジェクト表示装置では、設定値決定手段は、焦点距離及び被写界深度を設定値として決定することを特徴とする。
上記構成によれば、焦点距離に加えて被写界深度が設定値として決定されるので、ユーザにとっての注目の対象であるオブジェクトがより好適に強調されると共に、重畳画像における違和感がより軽減される。
AR技術において、現実空間の画像にオブジェクトを重畳表示させた際の違和感を軽減することが可能となる。
オブジェクト表示装置の機能的構成を示すブロック図である。 オブジェクト表示装置のハードブロック図である。 仮想オブジェクト格納部の構成及び記憶されているデータの例を示す図である。 現実空間の画像に仮想オブジェクトが重畳された画像の例を示す図である。 オブジェクト表示方法の処理内容を示すフローチャートである。 現実空間の画像に複数の仮想オブジェクトが重畳された画像の例を示す図である。 現実空間の画像に複数の仮想オブジェクトが重畳された画像の例を示す図である。 複数の仮想オブジェクトが重畳される場合におけるオブジェクト表示方法の処理内容を示すフローチャートである。 オブジェクト表示プログラムの構成を示す図である。
本発明に係るオブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムの実施形態について図面を参照して説明する。なお、可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
図1は、オブジェクト表示装置1の機能的構成を示すブロック図である。本実施形態のオブジェクト表示装置1は、現実空間の画像の所定位置にオブジェクトを重畳表示する装置であって、例えば、移動体通信網を介した通信が可能な携帯端末である。
移動端末等の装置を用いたAR技術によるサービスとしては、例えば、移動端末のカメラにより取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられたオブジェクトを現実空間の画像に重畳してディスプレイに表示するものがある。また、同様のサービスとしては、移動端末の所在位置の周辺に配置されたオブジェクトを取得し、移動端末に備えられたカメラにより取得した現実空間の画像中の位置に対応付けてオブジェクトを重畳表示するものがある。本実施形態のオブジェクト表示装置1は、後者のサービスの提供を受けるものに相当するが、これには限定されない。
図1に示すように、オブジェクト表示装置1は、機能的には、位置測定部10、方位測位部11、仮想オブジェクト格納部12、仮想オブジェクト抽出部13(オブジェクト情報取得手段)、仮想オブジェクト距離算出部14(オブジェクト距離算出手段)、カメラ設定値決定部15(設定値決定手段)、撮像部16(画像取得手段)、仮想オブジェクト加工部17(仮想オブジェクト加工手段)、画像合成部18(画像合成手段)及び表示部19(表示手段)を備える。
図2は、オブジェクト表示装置1のハードウエア構成図である。オブジェクト表示装置1は、物理的には、図2に示すように、CPU101、主記憶装置であるRAM102及びROM103、データ送受信デバイスである通信モジュール104、ハードディスク、フラッシュメモリ等の補助記憶装置105、入力デバイスであるキーボード等の入力装置106、ディスプレイ等の出力装置107などを含むコンピュータシステムとして構成されている。図1に示した各機能は、図2に示すCPU101、RAM102等のハードウエア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール104、入力装置106、出力装置107を動作させるとともに、RAM102や補助記憶装置105におけるデータの読み出し及び書き込みを行うことで実現される。再び、図1を参照し、オブジェクト表示装置1の各機能部について詳細に説明する。
位置測定部10は、オブジェクト表示装置1の所在位置を測位し、測位した所在位置に関する情報を位置情報として取得する部分である。オブジェクト表示装置1の所在位置は、例えば、GPS装置といった測位手段により測位される。位置測定部10は、位置情報を仮想オブジェクト抽出部13に送出する。
方位測位部11は、撮像部16の撮像方位を測位する部分であって、例えば地磁気センサといった装置により構成される。方位測位部11は、測位した方位情報を仮想オブジェクト抽出部13に送出する。なお、方位測位部11は、本発明における必須の構成ではない。
仮想オブジェクト格納部12は、仮想オブジェクトに関する情報である仮想オブジェクト情報を記憶している記憶手段である。図3は、仮想オブジェクト格納部12の構成及び記憶されているデータの例を示す図である。図3に示すように、仮想オブジェクト情報は、オブジェクトを識別するオブジェクトIDに対応付けられたオブジェクトデータ、位置情報といったデータを含む。
オブジェクトデータは、例えば、オブジェクトの画像データである。また、オブジェクトデータは、当該オブジェクトを表すための3Dオブジェクトのデータであってもよい。位置情報は、現実空間における当該オブジェクトの配置位置を示す情報であって、例えば、3次元の座標値により表される。
仮想オブジェクト格納部12は、仮想オブジェクト情報を予め記憶していることとしてもよい。また、仮想オブジェクト格納部12は、位置測定部10により取得された位置情報に基づき、仮想オブジェクト情報を記憶、管理しているサーバ(図示せず)から所定の通信手段(図示せず)を介して取得されたオブジェクト情報を蓄積することとしてもよい。この場合には、仮想オブジェクト情報を記憶、管理しているサーバは、オブジェクト表示装置1の周辺に配置された仮想オブジェクトの仮想オブジェクト情報を提供する。
仮想オブジェクト抽出部13は、オブジェクト表示装置1の所在位置に基づき、仮想オブジェクト格納部12からオブジェクト情報を取得する部分である。具体的には、仮想オブジェクト抽出部13は、位置測定部10により測定された位置情報及び方位測位部11により測位された方位情報に基づき、表示部19に表示される現実空間の範囲を判定し、その範囲に配置位置が含まれる仮想オブジェクトを抽出する。表示部に表示される現実空間の範囲に複数の仮想オブジェクトの配置位置が含まれる場合には、仮想オブジェクト抽出部13は、当該複数の仮想オブジェクトを抽出する。
なお、仮想オブジェクト抽出部13は、方位情報を用いないで仮想オブジェクトの抽出を実施することとしてもよい。仮想オブジェクト抽出部13は、抽出した仮想オブジェクト情報を仮想オブジェクト距離算出部14、カメラ設定値決定部15及び仮想オブジェクト加工部17に送出する。
仮想オブジェクト距離算出部14は、仮想オブジェクト抽出部13により取得された仮想オブジェクトの位置情報に基づき、オブジェクト表示装置1から仮想オブジェクトまでの距離を算出する部分である。具体的には、仮想オブジェクト距離算出部14は、位置測定部10により測定された位置情報及び仮想オブジェクト情報に含まれる仮想オブジェクトの位置情報に基づき、オブジェクト表示装置1から仮想オブジェクトまでの距離を算出する。また、仮想オブジェクト抽出部13により複数の仮想オブジェクトが抽出された場合には、仮想オブジェクト距離算出部14は、オブジェクト表示装置1から各々の仮想オブジェクトまでの距離を算出する。
カメラ設定値決定部15は、仮想オブジェクト距離算出部14により算出された距離に基づき、現実空間の画像の取得のための、少なくとも焦点距離を含む設定値を決定する部分である。カメラ設定値決定部15は、決定した設定値を撮像部16に送出する。なお、設定値には、焦点距離の他に、被写界深度が含まれることとしてもよい。
仮想オブジェクト抽出部13により抽出された仮想オブジェクトが1つの場合には、カメラ設定値決定部15は、仮想オブジェクト距離算出部14により算出された当該仮想オブジェクトまでの距離を焦点距離に設定することができる。
仮想オブジェクト抽出部13により抽出された仮想オブジェクトが複数の場合には、カメラ設定値決定部15は、複数の仮想オブジェクトから強調すべき仮想オブジェクトを1以上選択し、選択した仮想オブジェクトに基づき設定値を決定する。
カメラ設定値決定部15は、種々の方法により強調すべき仮想オブジェクトを選択できる。例えば、カメラ設定値決定部15は、ユーザによる選定を受け付けることにより強調すべき仮想オブジェクトを選択できる。具体的には、カメラ設定値決定部15は、タッチパネルを含んで構成される表示部19において選択操作された仮想オブジェクトを強調すべき仮想オブジェクトとして設定したり、表示部19における中央部を含む所定範囲に含まれる仮想オブジェクトを強調すべき仮想オブジェクトとして設定したりすることができる。
また、仮想オブジェクト情報に、その仮想オブジェクトに対するユーザの趣味嗜好の程度を判断可能な属性情報が含まれている場合には、カメラ設定値決定部15は、オブジェクト表示装置1内に予め保持されたユーザの属性情報(図示せず)と、仮想オブジェクトの属性情報とを照合し、その合致の程度が高い仮想オブジェクトを、強調すべき仮想オブジェクトとして設定することができる。
また、仮想オブジェクト情報に、その仮想オブジェクトの表示に関する優先の程度を示す数値情報が含まれている場合には、カメラ設定値決定部15は、仮想オブジェクト情報の当該数値情報を参照して、数値情報が所定値以上の仮想オブジェクトを、強調すべき仮想オブジェクトとして設定することができる。
強調すべき仮想オブジェクトが1つ選択された場合には、カメラ設定値決定部15は、仮想オブジェクト距離算出部14により算出された当該仮想オブジェクトまでの距離を焦点距離に設定することができる。この場合における被写界深度は、予め設定された所定値であってもよいし、ユーザにより入力されることとしてもよい。
強調すべき仮想オブジェクトが複数選択された場合には、カメラ設定値決定部15は、当該複数の仮想オブジェクトの配置位置の全てが焦点が合う領域に含まれるように、焦点距離及び被写界深度を決定する。具体的には、例えば、カメラ設定値決定部15は、選択された複数の仮想オブジェクトの配置位置の全てを含む領域を設定し、その領域の重心位置までの距離を焦点距離として設定し、その領域の大きさを被写界深度として設定することができる。
撮像部16は、カメラ設定値決定部15により決定された設定値を用いて、現実空間の画像を取得する部分であって、例えばカメラにより構成される。具体的には、撮像部16は、カメラ設定値決定部15により決定された焦点距離及び被写界深度を用いて現実空間の画像を取得し、取得した画像のデータを画像合成部18に送出する。なお、被写界深度は予め設定された所定値であってもよい。
仮想オブジェクト加工部17は、カメラ設定値決定部15により決定された焦点距離と、仮想オブジェクト距離算出部により算出された仮想オブジェクトまでの距離との差に応じて、当該オブジェクトの画像に対して、撮影対象が焦点距離からずれた位置に存在する場合に取得される画像を模すためのぼかし加工をする部分である。
仮想オブジェクト加工部17は、例えば、仮想オブジェクト抽出部13により抽出された仮想オブジェクトのうち、カメラ設定値決定部15により強調する仮想オブジェクトに選択されなかった仮想オブジェクトに対してぼかし加工を実施する。仮想オブジェクト加工部17は、周知の画像処理技術を用いてぼかし加工を実施することができる。以下のその一例を説明する。
仮想オブジェクト加工部17は、ボケの大きさBを以下の式(1)により算出できる。
B=(mD/W)(T/(L+T)) ・・・(1)
B:ボケの大きさ
D:有効口径=焦点距離/F値
W:撮影範囲の対角線長
L:カメラから被写体までの距離
T:被写体から背景までの距離
m:許容錯乱円径とイメージセンサの対角線長さの比
仮想オブジェクト加工部17は、ボケの大きさBに基づき、ぼかし加工のぼかし量を決定し、仮想オブジェクトのぼかし加工を実施する。このぼかし加工については、図6及び図7を参照して後述する。なお、仮想オブジェクト加工部17は、本発明における必須の構成ではない。
画像合成部18は、撮像部16により取得された現実空間の画像に、仮想オブジェクト抽出部13により取得された仮想オブジェクトを重畳した画像を生成する部分である。具体的には、画像合成部18は、仮想オブジェクトの配置位置を示す位置情報に基づき、現実空間の画像における当該配置位置に仮想オブジェクトを重畳した重畳画像を生成する。また、画像合成部18は、仮想オブジェクト加工部17により加工されたオブジェクトも同様に現実空間の画像に重畳する。
表示部19は、画像合成部18により生成された画像を表示する部分であって、例えばディスプレイといった装置により構成される。なお、表示部19は、タッチパネルをさらに備えることとしてもよい。
次に、図4及び図5を参照して、仮想オブジェクト抽出部13により抽出された仮想オブジェクトが1つの場合における仮想オブジェクトの表示処理を説明する。図4は、抽出された仮想オブジェクトが1つの場合における、現実空間の画像に仮想オブジェクトが重畳された画像の例を示す図であって、仮想オブジェクト抽出部13により仮想オブジェクトVが抽出された場合の例を示している。この場合には、仮想オブジェクト距離算出部14により、オブジェクト表示装置1から仮想オブジェクトVまでの距離が算出され、カメラ設定値決定部15により、算出された距離に基づき焦点距離が決定される。続いて、決定された焦点距離の情報に基づき、撮像部16が現実空間の画像を取得する。ここで取得された現実空間の画像では、仮想オブジェクトVの配置位置までの距離が焦点距離に設定されているので、現実空間の画像における仮想オブジェクトVの配置位置を含む領域Rに焦点が合わされることとなる。一方、オブジェクト表示装置1からの距離が領域Rより近い領域R、及び領域Rより遠い領域Rには焦点が合わされないこととなるので、領域R及び領域Rの画像は、いわゆるピントがぼけた状態となる。画像合成部18は、領域Rに焦点が合わされた現実空間の画像に、仮想オブジェクトVを重畳した重畳画像を生成する。そして、表示部19は、図4に示されるような重畳画像を表示する。
図5は、仮想オブジェクト抽出部13により抽出された仮想オブジェクトが1つの場合における仮想オブジェクトの表示処理を示すフローチャートである。
まず、仮想オブジェクト抽出部13は、オブジェクト表示装置1の所在位置に基づき、仮想オブジェクト格納部12からオブジェクト情報を抽出する(S1、オブジェクト情報取得ステップ)。即ち、仮想オブジェクト抽出部13は、表示部19に表示される現実空間の範囲を判定し、その範囲に配置位置が含まれる仮想オブジェクトを抽出する。ここで、表示させるべき仮想オブジェクトがない場合には処理を終了する(S2)。一方、表示させるべき仮想オブジェクトが有る場合には、処理手順はステップS3に進む(S2)。
次に、仮想オブジェクト距離算出部14は、仮想オブジェクト抽出部13により取得された仮想オブジェクトの位置情報に基づき、オブジェクト表示装置1から仮想オブジェクトまでの距離を算出する(S3、オブジェクト距離算出ステップ)。続いて、カメラ設定値決定部15は、仮想オブジェクト距離算出部14により算出された距離に基づき、撮像部16のための焦点距離及び被写界深度を決定する(S4、設定値決定ステップ)。
次に、撮像部16は、ステップS4において決定された焦点距離及び被写界深度を用いて現実空間の画像を取得する(S5、画像取得ステップ)。続いて、画像合成部18は、撮像部16により取得された現実空間の画像に、仮想オブジェクト抽出部13により取得された仮想オブジェクトを重畳した重畳画像を生成する(S6、画像合成ステップ)。そして、表示部19は、ステップS6において生成された重畳画像を表示する(S7、表示ステップ)。
なお、図5のフローチャートに示される処理では、仮想オブジェクト加工部17の機能は用いられない。即ち、仮想オブジェクト抽出部13により抽出された仮想オブジェクトのデータは、仮想オブジェクト加工部17において加工されることなく、画像合成部18に送出される。
次に、図6〜8を参照して、仮想オブジェクト抽出部13により抽出された仮想オブジェクトが複数の場合における仮想オブジェクトの表示処理を説明する。図6は、抽出された仮想オブジェクトが2つの場合における、現実空間の画像に仮想オブジェクトが重畳された画像の例を示す図であって、仮想オブジェクト抽出部13により仮想オブジェクトV及びVが抽出されると共に、仮想オブジェクトV及びVのうち仮想オブジェクトVが強調すべき仮想オブジェクトとして選択された場合の例を示している。
この場合には、仮想オブジェクト距離算出部14により、オブジェクト表示装置1から仮想オブジェクトVまでの距離が算出され、カメラ設定値決定部15により、算出された距離に基づき焦点距離が決定される。続いて、決定された焦点距離の情報に基づき、撮像部16が現実空間の画像を取得する。ここで取得された現実空間の画像では、仮想オブジェクトVの配置位置までの距離が焦点距離に設定されているので、現実空間の画像における仮想オブジェクトVの配置位置を含む領域Rに焦点が合わされることとなる。一方、オブジェクト表示装置1からの距離が領域Rより近い領域R、及び領域Rより遠い領域Rには焦点が合わされないこととなるので、領域R及び領域Rの画像は、いわゆるピントがぼけた状態となる。
さらに、仮想オブジェクトVは、焦点が合わされない領域Rに配置される仮想オブジェクトであるので、仮想オブジェクト加工部17は、仮想オブジェクトVの配置位置に基づき決定された焦点距離と、仮想オブジェクト距離算出部14により算出された仮想オブジェクトVまでの距離との差に応じて、仮想オブジェクトVの画像に対してぼかし加工を実施する。これにより、仮想オブジェクトVの画像は、領域Rにおける現実空間の画像と同程度にピントがぼけた画像となる。
画像合成部18は、領域Rに焦点が合わされた現実空間の画像に、仮想オブジェクトV及びVを重畳した重畳画像を生成する。そして、表示部19は、図6に示されるような重畳画像を表示する。
図6に示される例では、決定された焦点距離によりピントが合わない位置にオブジェクトが所在する場合に、当該オブジェクトに対してぼかし加工が施される。これにより、現実空間における焦点が合わされていない領域に、ぼかし加工が施されたオブジェクトが重畳されるので、違和感の軽減された重畳画像が得られる。
図7は、抽出された仮想オブジェクトが4つの場合における、現実空間の画像に仮想オブジェクトが重畳された画像の例を示す図であって、仮想オブジェクト抽出部13により仮想オブジェクトV〜Vが抽出されると共に、仮想オブジェクトV〜Vのうち仮想オブジェクトV〜Vが強調すべき仮想オブジェクトとして選択された場合の例を示している。
この場合には、カメラ設定値決定部15は、仮想オブジェクトV〜Vの配置位置の全てが焦点が合う領域に含まれるように、焦点距離及び被写界深度を決定する。具体的には、カメラ設定値決定部15は、選択された複数の仮想オブジェクトの配置位置の全てを含む領域Rを設定し、領域Rの重心位置までの距離を焦点距離として設定し、領域Rの大きさを被写界深度として設定する。
続いて、決定された焦点距離及び被写界深度の情報に基づき、撮像部16が現実空間の画像を取得する。ここで取得された現実空間の画像では、領域Rまでの距離が焦点距離に設定されているので、現実空間の画像における領域Rの位置を含む領域Rに焦点が合わされることとなる。一方、オブジェクト表示装置1からの距離が領域Rより遠い領域Rには焦点が合わされないこととなるので、領域Rの画像は、いわゆるピントがぼけた状態となる。
さらに、仮想オブジェクトVは、強調すべき仮想オブジェクトとして選択されず、焦点が合わされない領域Rに配置される仮想オブジェクトであるので、仮想オブジェクト加工部17は、領域Rの位置に基づき決定された焦点距離と、仮想オブジェクト距離算出部14により算出された仮想オブジェクトVまでの距離との差に応じて、仮想オブジェクトVの画像に対してぼかし加工を実施する。これにより、仮想オブジェクトVの画像は、領域Rにおける現実空間の画像と同程度にピントがぼけた画像となる。
画像合成部18は、領域Rに焦点が合わされた現実空間の画像に、仮想オブジェクトV〜Vを重畳した重畳画像を生成する。そして、表示部19は、図7に示されるような重畳画像を表示する。
図8は、仮想オブジェクト抽出部13により抽出された仮想オブジェクトが1つまたは複数の場合における仮想オブジェクトの表示処理を示すフローチャートである。
ステップS10〜S11における処理は、図5に示したフローチャートのステップS1〜S2と同様である。続くステップS12において、仮想オブジェクト抽出部13は、抽出された仮想オブジェクトが複数であるか否かを判定する(S12)。抽出された仮想オブジェクトが複数であると判定された場合には、処理手順はステップS16に進められる。一方、抽出された仮想オブジェクトが複数であると判定されなかった場合には、処理手順はステップS13に進められる。
ステップS13〜S15における処理は、図5に示したフローチャートのステップS3〜S5と同様である。一方、ステップS16において、カメラ設定値決定部15は、抽出された複数の仮想オブジェクトから、強調すべき仮想オブジェクトを選択する(S16)。続いて、カメラ設定値決定部15は、選択された複数の仮想オブジェクトの配置位置の全てを含む領域を設定する(S17)。そして、カメラ設定値決定部15は、ステップS17において設定した領域に基づき、焦点距離及び被写界深度を決定する(S18)。さらに、仮想オブジェクト加工部17は、焦点が合わされない領域に配置される仮想オブジェクトに対して、ステップS18において決定された焦点距離及び被写界深度に基づき、ぼかし加工を実施する(S19)。
続くステップS20〜S21における処理は、図5に示したフローチャートのステップS6〜S7と同様である。
次に、コンピュータを、本実施形態のオブジェクト表示装置1として機能させるためのオブジェクト表示プログラムについて説明する。図9は、オブジェクト表示プログラム1mの構成を示す図である。
オブジェクト表示プログラム1mは、オブジェクト表示処理を統括的に制御するメインモジュール100m、位置測定モジュール10m、方位測位モジュール11m、仮想オブジェクト格納モジュール12m、仮想オブジェクト抽出モジュール13m、仮想オブジェクト距離算出モジュール14m、カメラ設定値決定モジュール15m、撮像モジュール16m、仮想オブジェクト加工モジュール17m、画像合成モジュール18m及び表示モジュール19mを備えて構成される。そして、各モジュール10m〜19mにより、オブジェクト表示装置1における各機能部10〜19のための各機能が実現される。なお、オブジェクト表示プログラム1mは、通信回線等の伝送媒体を介して伝送される態様であってもよいし、図9に示されるように、記録媒体1dのプログラム格納領域1rに記憶される態様であってもよい。
以上説明した本実施形態のオブジェクト表示装置1、オブジェクト表示方法及びオブジェクト表示プログラムでは、仮想オブジェクト距離算出部14により算出された仮想オブジェクトまでの距離に基づき、カメラ設定値決定部15により現実空間の画像を取得するための焦点距離を含む設定値が算出され、算出された焦点距離を用いて撮像部16により現実空間の画像が取得されるので、仮想オブジェクトの重畳位置に焦点が合わされると共に、仮想オブジェクトが重畳された位置から遠ざかるに従ってピントがずれていく画像が取得される。このように取得された現実空間の画像に仮想オブジェクトが重畳されるので、ユーザにとっての注目の対象である仮想オブジェクトが強調されると共に、重畳画像における違和感が軽減される。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
1…オブジェクト表示装置、10…位置測定部、11…方位測位部、12…仮想オブジェクト格納部、13…仮想オブジェクト抽出部、14…仮想オブジェクト距離算出部、15…カメラ設定値決定部、16…撮像部、17…仮想オブジェクト加工部、18…画像合成部、19…表示部、1m…オブジェクト表示プログラム、10m…位置測定モジュール、11m…方位測位モジュール、12m…仮想オブジェクト格納モジュール、13m…仮想オブジェクト抽出モジュール、14m…仮想オブジェクト距離算出モジュール、15m…カメラ設定値決定モジュール、16m…撮像モジュール、17m…仮想オブジェクト加工モジュール、18m…画像合成モジュール、19m…表示モジュール、100m…メインモジュール、V〜V…仮想オブジェクト。

Claims (6)

  1. 現実空間の画像の所定位置にオブジェクトを重畳表示するオブジェクト表示装置であって、
    当該オブジェクト表示装置の所在位置を取得する位置測定手段と、
    前記位置測定手段により取得された当該オブジェクト表示装置の所在位置に基づき、オブジェクトの現実空間における配置位置に関する位置情報を含むオブジェクト情報を取得するオブジェクト情報取得手段と、
    前記オブジェクト情報取得手段により取得されたオブジェクトの位置情報に基づき、当該オブジェクト表示装置の所在位置から前記オブジェクトまでの距離を算出するオブジェクト距離算出手段と、
    前記オブジェクト距離算出手段により算出された距離に基づき、現実空間の画像の取得のための、少なくとも焦点距離を含み、取得される現実空間の画像において前記オブジェクトが重畳される位置に焦点が合うような設定値を決定する設定値決定手段と、
    前記設定値決定手段により決定された設定値を用いて、現実空間の画像を取得する画像取得手段と、
    前記画像取得手段により取得された現実空間の画像に、前記オブジェクト情報取得手段により取得されたオブジェクトを重畳した画像を生成する画像合成手段と、
    前記画像合成手段により生成された画像を表示する表示手段と
    を備えることを特徴とするオブジェクト表示装置。
  2. 前記設定値決定手段は、前記オブジェクト情報取得手段により複数のオブジェクト情報が取得された場合に、取得された複数のオブジェクト情報から1以上のオブジェクト情報を選択し、選択されたオブジェクト情報に基づき算出された当該オブジェクトまでの距離に基づき設定値を決定する
    ことを特徴とする請求項1に記載のオブジェクト表示装置。
  3. 前記設定値決定手段により決定された焦点距離と、前記オブジェクト距離算出手段により算出されたオブジェクトまでの距離との差に応じて、当該オブジェクトの画像に対して、撮影対象が焦点距離からずれた位置に存在する場合に取得される画像を模すためのぼかし加工をするオブジェクト加工手段を更に備え、
    前記画像合成手段は、前記オブジェクト加工手段により加工されたオブジェクトを前記現実空間の画像に重畳する
    ことを特徴とする請求項2に記載のオブジェクト表示装置。
  4. 前記設定値決定手段は、焦点距離及び被写界深度を設定値として決定することを特徴とする請求項1〜3のいずれか1項に記載のオブジェクト表示装置。
  5. 現実空間の画像の所定位置にオブジェクトを重畳表示するオブジェクト表示装置におけるオブジェクト表示方法であって、
    当該オブジェクト表示装置の所在位置を取得する位置測定ステップと、
    前記位置測定ステップにおいて取得された当該オブジェクト表示装置の所在位置に基づき、オブジェクトの現実空間における配置位置に関する位置情報を含むオブジェクト情報を取得するオブジェクト情報取得ステップと、
    前記オブジェクト情報取得ステップにおいて取得されたオブジェクトの位置情報に基づき、当該オブジェクト表示装置の所在位置から前記オブジェクトまでの距離を算出するオブジェクト距離算出ステップと、
    前記オブジェクト距離算出ステップにおいて算出された距離に基づき、現実空間の画像の取得のための、少なくとも焦点距離を含み、取得される現実空間の画像において前記オブジェクトが重畳される位置に焦点が合うような設定値を決定する設定値決定ステップと、
    前記設定値決定ステップにおいて決定された設定値を用いて、現実空間の画像を取得する画像取得ステップと、
    前記画像取得ステップにおいて取得された現実空間の画像に、前記オブジェクト情報取得ステップにおいて取得されたオブジェクトを重畳した画像を生成する画像合成ステップと、
    前記画像合成ステップにおいて生成された画像を表示する表示ステップと
    を有することを特徴とするオブジェクト表示方法。
  6. コンピュータを、現実空間の画像の所定位置にオブジェクトを重畳表示するオブジェクト表示装置として機能させるためのオブジェクト表示プログラムであって、
    前記コンピュータに、
    当該オブジェクト表示装置の所在位置を取得する位置測定機能と、
    前記位置測定機能により取得された当該オブジェクト表示装置の所在位置に基づき、オブジェクトの現実空間における配置位置に関する位置情報を含むオブジェクト情報を取得するオブジェクト情報取得機能と、
    前記オブジェクト情報取得機能により取得されたオブジェクトの位置情報に基づき、前記オブジェクトまでの距離を算出するオブジェクト距離算出機能と、
    前記オブジェクト距離算出機能により算出された距離に基づき、現実空間の画像の取得のための、少なくとも焦点距離を含み、取得される現実空間の画像において前記オブジェクトが重畳される位置に焦点が合うような設定値を決定する設定値決定機能と、
    前記設定値決定機能により決定された設定値を用いて、現実空間の画像を取得する画像取得機能と、
    前記画像取得機能により取得された現実空間の画像に、前記オブジェクト情報取得機能により取得されたオブジェクトを重畳した画像を生成する画像合成機能と、
    前記画像合成機能により生成された画像を表示する表示機能と
    を実現させることを特徴とするオブジェクト表示プログラム。
JP2011027631A 2011-02-10 2011-02-10 オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム Active JP5377537B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011027631A JP5377537B2 (ja) 2011-02-10 2011-02-10 オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
US13/993,360 US20130278636A1 (en) 2011-02-10 2012-01-06 Object display device, object display method, and object display program
PCT/JP2012/050204 WO2012108219A1 (ja) 2011-02-10 2012-01-06 オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
EP12744752.2A EP2674920A4 (en) 2011-02-10 2012-01-06 Object display device, object display method, and object display program
CN201280007950.6A CN103348387B (zh) 2011-02-10 2012-01-06 对象显示装置和对象显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011027631A JP5377537B2 (ja) 2011-02-10 2011-02-10 オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム

Publications (2)

Publication Number Publication Date
JP2012168642A JP2012168642A (ja) 2012-09-06
JP5377537B2 true JP5377537B2 (ja) 2013-12-25

Family

ID=46638439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011027631A Active JP5377537B2 (ja) 2011-02-10 2011-02-10 オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム

Country Status (5)

Country Link
US (1) US20130278636A1 (ja)
EP (1) EP2674920A4 (ja)
JP (1) JP5377537B2 (ja)
CN (1) CN103348387B (ja)
WO (1) WO2012108219A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6056178B2 (ja) * 2012-04-11 2017-01-11 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
JP6007712B2 (ja) * 2012-09-28 2016-10-12 ブラザー工業株式会社 ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
EP3734555A1 (en) 2012-12-10 2020-11-04 Sony Corporation Display control apparatus, display control method, and program
WO2015117043A1 (en) * 2014-01-31 2015-08-06 Magic Leap, Inc. Multi-focal display system and method
US20160246488A1 (en) * 2015-02-24 2016-08-25 Jonathan Sassouni Media Reveal Feature
CN108369482B (zh) * 2015-12-14 2021-09-28 索尼公司 信息处理设备、信息处理方法和程序
US10044925B2 (en) * 2016-08-18 2018-08-07 Microsoft Technology Licensing, Llc Techniques for setting focus in mixed reality applications
US20180149826A1 (en) * 2016-11-28 2018-05-31 Microsoft Technology Licensing, Llc Temperature-adjusted focus for cameras
KR101991401B1 (ko) * 2017-10-12 2019-06-20 에스케이텔레콤 주식회사 증강 현실 표시 방법 및 장치
DE112018006197T5 (de) * 2017-12-04 2020-08-20 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahrenund aufzeichnungsmedium
EP3877831A4 (en) 2018-11-09 2022-08-03 Beckman Coulter, Inc. MAINTENANCE GOGGLES WITH SELECTIVE DATA SUPPLY
US11241624B2 (en) * 2018-12-26 2022-02-08 Activision Publishing, Inc. Location-based video gaming with anchor points

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3318680B2 (ja) * 1992-04-28 2002-08-26 サン・マイクロシステムズ・インコーポレーテッド 画像生成方法及び画像生成装置
US7721307B2 (en) * 1992-12-09 2010-05-18 Comcast Ip Holdings I, Llc Method and apparatus for targeting of interactive virtual objects
US6690338B1 (en) * 1993-08-23 2004-02-10 Francis J. Maguire, Jr. Apparatus and method for providing images of real and virtual objects in a head mounted display
US5737533A (en) * 1995-10-26 1998-04-07 Wegener Internet Projects Bv System for generating a virtual reality scene in response to a database search
WO2001055969A1 (fr) * 2000-01-28 2001-08-02 Namco Ltd. Systeme de jeu et procede de creation d'image
US6956576B1 (en) * 2000-05-16 2005-10-18 Sun Microsystems, Inc. Graphics system using sample masks for motion blur, depth of field, and transparency
JP2002334097A (ja) * 2001-02-09 2002-11-22 Seiko Epson Corp サービス提供システム、管理端末、移動体、サービス提供プログラム及びサービス提供方法
JP3450833B2 (ja) * 2001-02-23 2003-09-29 キヤノン株式会社 画像処理装置及びその方法並びにプログラムコード、記憶媒体
JP3873272B2 (ja) * 2001-11-09 2007-01-24 フジノン株式会社 被写体距離表示装置
US20040058732A1 (en) * 2002-06-14 2004-03-25 Piccionelli Gregory A. Method, system and apparatus for location based gaming
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
CN100356407C (zh) * 2003-03-28 2007-12-19 奥林巴斯株式会社 数据创建设备
US8301159B2 (en) * 2004-12-31 2012-10-30 Nokia Corporation Displaying network objects in mobile devices based on geolocation
JP4847184B2 (ja) * 2006-04-06 2011-12-28 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
CN101191979A (zh) * 2006-11-28 2008-06-04 华晶科技股份有限公司 自动对焦方法及系统
FR2911707B1 (fr) * 2007-01-22 2009-07-10 Total Immersion Sa Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video.
US7676146B2 (en) * 2007-03-09 2010-03-09 Eastman Kodak Company Camera using multiple lenses and image sensors to provide improved focusing capability
US7859588B2 (en) * 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US20090054084A1 (en) * 2007-08-24 2009-02-26 Motorola, Inc. Mobile virtual and augmented reality system
US9013505B1 (en) * 2007-11-27 2015-04-21 Sprint Communications Company L.P. Mobile system representing virtual objects on live camera image
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
US10133438B2 (en) * 2008-09-17 2018-11-20 Nokia Technologies Oy User interface for augmented reality
CN101764925B (zh) * 2008-12-25 2011-07-13 华晶科技股份有限公司 数字图像的浅景深模拟方法
TW201026034A (en) * 2008-12-31 2010-07-01 Altek Corp Automatic focusing method in high-noise environment and the device thereof
JP4834116B2 (ja) 2009-01-22 2011-12-14 株式会社コナミデジタルエンタテインメント 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
JP4963124B2 (ja) * 2009-03-02 2012-06-27 シャープ株式会社 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム
US8994645B1 (en) * 2009-08-07 2015-03-31 Groundspeak, Inc. System and method for providing a virtual object based on physical location and tagging
DE102009049073A1 (de) * 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
JP4816789B2 (ja) * 2009-11-16 2011-11-16 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
US9122707B2 (en) * 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
CN103201731B (zh) * 2010-12-02 2016-01-20 英派尔科技开发有限公司 增强现实系统
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US20130088413A1 (en) * 2011-10-05 2013-04-11 Google Inc. Method to Autofocus on Near-Eye Display

Also Published As

Publication number Publication date
EP2674920A4 (en) 2017-09-20
WO2012108219A1 (ja) 2012-08-16
US20130278636A1 (en) 2013-10-24
JP2012168642A (ja) 2012-09-06
CN103348387A (zh) 2013-10-09
CN103348387B (zh) 2015-12-09
EP2674920A1 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
JP5377537B2 (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
WO2012114639A1 (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP6167703B2 (ja) 表示制御装置、プログラム及び記録媒体
JP2011232330A (ja) 撮像装置、長さ測定方法、及びプログラム
JP2019083402A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN104252712A (zh) 图像生成装置及图像生成方法
JP5809607B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2017027520A (ja) 3dデータ生成装置及び方法、プログラム、記憶媒体
US10255664B2 (en) Image processing device and method
KR20160125715A (ko) 3차원 스캐너 및 스캐닝 방법
JP2006012042A (ja) 画像生成方法及び装置
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2018141943A (ja) 画像処理装置、画像処理方法及びプログラム
KR101845340B1 (ko) 골프 플레이 지원 시스템
JPWO2018189880A1 (ja) 情報処理装置、情報処理システム、および画像処理方法
JPWO2016158119A1 (ja) 医療用観察装置、情報処理方法、プログラム、及びビデオ顕微鏡装置
JPWO2016158184A1 (ja) 医療用観察装置、レンズ駆動制御装置、レンズ駆動制御方法、プログラム、及びビデオ顕微鏡装置
JP2011217229A (ja) 撮像装置および表示方法
KR20200003597A (ko) 증강현실 영상 보정 장치 및 방법
JP6685814B2 (ja) 撮像装置およびその制御方法
JP2015213261A (ja) 撮像装置、画像処理システム、ならびにそれらの制御方法
JP5734080B2 (ja) 情報処理装置、その処理方法及びプログラム
JP2012068062A (ja) 位置合わせ装置、位置合わせシステム及び位置合わせプログラム
JP6404525B2 (ja) 全天球カメラ撮像画像表示システム、全天球カメラ撮像画像表示方法及びプログラム
JP2013037476A (ja) 観察装置、観察方法、及び撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130924

R150 Certificate of patent or registration of utility model

Ref document number: 5377537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250