JP2012174116A - オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム - Google Patents
オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム Download PDFInfo
- Publication number
- JP2012174116A JP2012174116A JP2011037211A JP2011037211A JP2012174116A JP 2012174116 A JP2012174116 A JP 2012174116A JP 2011037211 A JP2011037211 A JP 2011037211A JP 2011037211 A JP2011037211 A JP 2011037211A JP 2012174116 A JP2012174116 A JP 2012174116A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- real space
- information
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
【課題】AR技術において、現実空間の画像にオブジェクトを重畳表示させた際の違和感を軽減する。
【解決手段】オブジェクト表示装置1は、撮像部13が現実空間の画像の取得に際して参照する撮像情報に基づき、オブジェクトを加工する仮想オブジェクト加工部15と、加工されたオブジェクトを現実空間の画像に重畳する画像合成部16及び重畳画像を表示する表示部17を備える。これにより、現実空間の画像の特徴が、重畳されるオブジェクトに反映される。従って、現実空間の画像にオブジェクトを重畳表示させた際の違和感が軽減される。
【選択図】図1
【解決手段】オブジェクト表示装置1は、撮像部13が現実空間の画像の取得に際して参照する撮像情報に基づき、オブジェクトを加工する仮想オブジェクト加工部15と、加工されたオブジェクトを現実空間の画像に重畳する画像合成部16及び重畳画像を表示する表示部17を備える。これにより、現実空間の画像の特徴が、重畳されるオブジェクトに反映される。従って、現実空間の画像にオブジェクトを重畳表示させた際の違和感が軽減される。
【選択図】図1
Description
本発明は、オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムに関する。
近年において、AR(Augmented Reality:拡張現実)技術を用いたサービスが開発・提供されている。例えば、移動端末の所在位置の周辺に配置されたオブジェクトを取得し、移動端末に備えられたカメラにより取得した現実空間の画像に種々の情報や画像を含むオブジェクトを重畳表示する技術が知られている。また、移動端末のカメラにより取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられたオブジェクトを現実空間の画像に重畳してディスプレイに表示する技術が知られている。一方、オブジェクトを現実空間の画像に重畳する際の、オブジェクトの色調を考慮するための技術として現実空間に配置されたマーカの色調に基づきオブジェクトの色調を補正する技術が知られている(例えば、特許文献1参照)。
しかしながら、通常のAR技術では、撮影した現実空間の画像にオブジェクトの画像や3Dのオブジェクトを単に重畳させるのみであったので、両画像の画質等の相違に起因して合成された画像に違和感が生じる場合があった。また、特許文献1に記載される技術では、特定のマーカが必要であると共に、そのマーカの色調に関する情報を端末が予め保持する必要があり、その実施は容易ではなかった。
そこで、本発明は、上記問題点に鑑みてなされたものであり、AR技術において、現実空間の画像にオブジェクトを重畳表示させた際の違和感を容易に軽減することが可能なオブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムを提供することを目的とする。
上記課題を解決するために、本発明のオブジェクト表示装置は、現実空間の画像にオブジェクトを重畳表示するオブジェクト表示装置であって、表示されるオブジェクトに関するオブジェクト情報を取得するオブジェクト情報取得手段と、現実空間の画像を取得する撮像手段と、撮像手段が現実空間の画像の取得に際して参照する撮像情報を取得する撮像情報取得手段と、撮像情報取得手段により取得された撮像情報に基づき、オブジェクト情報取得手段により取得されたオブジェクトを加工するオブジェクト加工手段と、撮像手段により取得された現実空間の画像に、オブジェクト加工手段により加工されたオブジェクトを重畳した画像を生成する画像合成手段と、画像合成手段により生成された画像を表示する表示手段とを備えることを特徴とする。
また、上記課題を解決するために、本発明のオブジェクト表示方法は、現実空間の画像にオブジェクトを重畳表示するオブジェクト表示装置におけるオブジェクト表示方法であって、表示されるオブジェクトに関するオブジェクト情報を取得するオブジェクト情報取得ステップと、現実空間の画像を取得する撮像ステップと、撮像ステップにおける現実空間の画像の取得に際して参照される撮像情報を取得する撮像情報取得ステップと、撮像情報取得ステップにおいて取得された撮像情報に基づき、オブジェクト情報取得ステップにおいて取得されたオブジェクトを加工するオブジェクト加工ステップと、撮像ステップにおいて取得された現実空間の画像に、オブジェクト加工ステップにおいて加工されたオブジェクトを重畳した画像を生成する画像合成ステップと、画像合成ステップにおいて生成された画像を表示する表示ステップとを有することを特徴とする。
また、上記課題を解決するために、本発明のオブジェクト表示プログラムは、コンピュータを、現実空間の画像にオブジェクトを重畳表示するオブジェクト表示装置として機能させるためのオブジェクト表示プログラムであって、コンピュータに、表示されるオブジェクトに関するオブジェクト情報を取得するオブジェクト情報取得機能と、現実空間の画像を取得する撮像機能と、撮像機能が現実空間の画像の取得に際して参照する撮像情報を取得する撮像情報取得機能と、撮像情報取得機能により取得された撮像情報に基づき、オブジェクト情報取得機能により取得されたオブジェクトを加工するオブジェクト加工機能と、撮像機能により取得された現実空間の画像に、オブジェクト加工機能により加工されたオブジェクトを重畳した画像を生成する画像合成機能と、画像合成機能により生成された画像を表示する表示機能とを実現させることを特徴とする。
本発明のオブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムによれば、撮像手段が現実空間の画像の取得に際して参照する撮像情報に基づきオブジェクトが加工され、加工されたオブジェクトが現実空間の画像に重畳及び表示されるので、取得された現実空間の画像の特徴が表示されたオブジェクトに反映される。従って、現実空間の画像にオブジェクトを重畳表示させた際の違和感が容易に軽減される。
また、本発明のオブジェクト表示装置は、当該オブジェクト表示装置の所在位置を測定する位置測定手段と、オブジェクト距離算出手段とを更に備え、オブジェクト情報は、当該オブジェクトの現実空間における配置位置を示す位置情報を含み、撮像情報は、焦点距離を含み、オブジェクト距離算出手段は、オブジェクト情報取得手段により取得されたオブジェクトの位置情報、及び位置測定手段により測定されたオブジェクト表示装置の所在位置に基づき、当該オブジェクト表示装置からオブジェクトまでの距離を算出し、オブジェクト加工手段は、撮像情報取得手段により取得された撮像情報に含まれる焦点距離と、オブジェクト距離算出手段により算出されたオブジェクトまでの距離との差に応じて、当該オブジェクトに対して、撮像対象が焦点距離からずれた位置に存在する場合に取得される画像を模すためのぼかし加工をすることを特徴とする。
上記構成によれば、撮像手段が用いた焦点距離により、現実空間の画像における焦点が合わない位置にオブジェクトが所在する場合に、当該オブジェクトに対していわゆるぼかし加工が施される。ぼかし加工は、撮像対象が焦点距離からずれた位置に存在する場合に取得される画像を模すための画像加工処理である。これにより、現実空間における焦点が合っていない領域に、ぼかし加工が施されたオブジェクトが重畳されるので、違和感の軽減された重畳画像が得られる。
また、本発明のオブジェクト表示装置では、撮像情報は、現実空間の画像を取得する際の画質に関わる設定値を含み、オブジェクト加工手段は、撮像情報取得手段により取得された撮像情報に含まれる設定値に応じて、オブジェクトを加工することを特徴とする。
上記構成によれば、撮像手段における、現実空間の画像の画質に関わる設定値に応じてオブジェクトが加工されるので、取得された現実空間の画像の画質が、加工されたオブジェクトの画質に反映される。従って、現実空間の画像にオブジェクトを重畳表示させた際の違和感が軽減される。
また、本発明のオブジェクト表示装置では、撮像情報は、撮像手段における受光感度を決定する受光感度情報を含み、オブジェクト加工手段は、撮像情報取得手段により取得された撮像情報に含まれる受光感度情報に応じて、オブジェクトに所定のノイズを付加するノイズ加工を実施することを特徴とする。
撮像手段により取得される画像には、撮像手段における受光感度に応じてノイズが発生する場合がある。上記構成によれば、現実空間の画像に発生したノイズと同様のノイズが受光感度情報に応じてオブジェクトに付加されるので、現実空間の画像にオブジェクトを重畳表示させた際の違和感が軽減される。
また、本発明のオブジェクト表示装置では、撮像情報は、撮像手段において取得される画像の色調を補正する色調補正情報を含み、オブジェクト加工手段は、撮像情報取得手段により取得された撮像情報に含まれる色調補正情報に応じて、オブジェクトの色調を補正する色調補正加工を実施することを特徴とする。
この場合には、撮像手段が画像の取得に用いる色調補正情報に応じてオブジェクトの色調を補正する加工が実施される。これにより、オブジェクトの色調が、撮像手段により取得された現実空間の画像の色調に近づけられる。従って、現実空間の画像にオブジェクトを重畳表示させた際の違和感が軽減される。
AR技術において、現実空間の画像にオブジェクトを重畳表示させた際の違和感を容易に軽減することが可能となる。
本発明に係るオブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラムの実施形態について図面を参照して説明する。なお、可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
(第1実施形態)
図1は、オブジェクト表示装置1の機能的構成を示すブロック図である。本実施形態のオブジェクト表示装置1は、現実空間の画像にオブジェクトを重畳表示する装置であって、例えば、移動体通信網を介した通信が可能な携帯端末である。
図1は、オブジェクト表示装置1の機能的構成を示すブロック図である。本実施形態のオブジェクト表示装置1は、現実空間の画像にオブジェクトを重畳表示する装置であって、例えば、移動体通信網を介した通信が可能な携帯端末である。
移動端末等の装置を用いたAR技術によるサービスとしては、例えば、移動端末のカメラにより取得された現実空間の画像から所定のマーカを検出し、当該マーカに対応付けられたオブジェクトを現実空間の画像に重畳してディスプレイに表示するものがある。また、同様のサービスとしては、移動端末の所在位置の周辺に配置されたオブジェクトを取得し、移動端末に備えられたカメラにより取得した現実空間の画像中の位置に対応付けてオブジェクトを重畳表示するものがある。本実施形態では、オブジェクト表示装置1が前者のサービスの提供を受けるものとして以降の説明を記すが、これには限定されない。
図1に示すように、オブジェクト表示装置1は、機能的には、仮想オブジェクト格納部11、仮想オブジェクト抽出部12(オブジェクト情報取得手段)、撮像部13(撮像手段)、カメラ情報取得部14(撮像情報取得手段)、仮想オブジェクト加工部15(オブジェクト加工手段)、画像合成部16(画像合成手段)及び表示部17(表示手段)を備える。
図2は、オブジェクト表示装置1のハードウエア構成図である。オブジェクト表示装置1は、物理的には、図2に示すように、CPU101、主記憶装置であるRAM102及びROM103、データ送受信デバイスである通信モジュール104、ハードディスク、フラッシュメモリ等の補助記憶装置105、入力デバイスであるキーボード等の入力装置106、ディスプレイ等の出力装置107などを含むコンピュータシステムとして構成されている。図1に示した各機能は、図2に示すCPU101、RAM102等のハードウエア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール104、入力装置106、出力装置107を動作させるとともに、RAM102や補助記憶装置105におけるデータの読み出し及び書き込みを行うことで実現される。再び、図1を参照し、オブジェクト表示装置1の各機能部について詳細に説明する。
仮想オブジェクト格納部11は、仮想オブジェクトに関する情報である仮想オブジェクト情報を記憶している記憶手段である。図3は、仮想オブジェクト格納部11の構成及び記憶されているデータの例を示す図である。図3に示すように、仮想オブジェクト情報は、オブジェクトを識別するオブジェクトIDに対応付けられたオブジェクトデータ、マーカ情報といったデータを含む。
オブジェクトデータは、例えば、オブジェクトの画像データである。また、オブジェクトデータは、当該オブジェクトを表すための3Dオブジェクトのデータであってもよい。マーカ情報は、当該オブジェクトが対応付けられたマーカに関する情報であって、例えば、当該マーカの画像データまたは3Dオブジェクトデータを含む。即ち、本実施形態では、マーカ情報により表されるマーカが現実空間の画像から抽出された場合に、当該マーカ情報に対応付けられたオブジェクトが、現実空間の画像中のマーカに対応付けられて、重畳表示される。
仮想オブジェクト抽出部12は、仮想オブジェクト格納部11からオブジェクト情報を取得する部分である。具体的には、仮想オブジェクト抽出部12は、まず、撮像部13により取得された現実空間の画像からマーカの検出を試みる。マーカに関するマーカ情報は仮想オブジェクト格納部11に記憶されているので、仮想オブジェクト抽出部12は、仮想オブジェクト格納部11からマーカ情報を取得し、取得したマーカ情報に基づき現実空間の画像を探索し、マーカの抽出を試みる。現実空間の画像からマーカが検出された場合には、仮想オブジェクト抽出部12は、仮想オブジェクト格納部11において当該マーカに対応付けられたオブジェクト情報を抽出する。
撮像部13は、現実空間の画像を取得する部分であって、例えばカメラにより構成される。撮像部13は、現実空間の画像の取得に際して撮像情報を参照する。撮像部13は、取得した現実空間の画像を仮想オブジェクト抽出部12及び画像合成部16に送出する。また、撮像部13は、カメラ情報取得部14に撮像情報を送出する。
カメラ情報取得部14は、撮像部13が現実空間の画像の取得に際して参照する撮像情報を撮像部13から取得する部分である。また、カメラ情報取得部14は、取得した撮像情報を仮想オブジェクト加工部15に送出する。
撮像情報は、例えば、現実空間の画像を取得する際の画質に関わる設定値を含む。この設定値は、例えば、撮像部13における受光感度を決定する受光感度情報を含む。受光感度情報は、例えば、いわゆるISO感度に例示される。また、設定値は、例えば、撮像部13において取得される画像の色調を補正する色調補正情報を含む。色調補正情報は、例えば、ホワイトバランスに関する情報を含む。また、色調補正情報は、その他の周知の色調を補正するためのパラメータを含んでも良い。また、撮像情報は、焦点距離及び被写界深度といったパラメータを含んでもよい。
仮想オブジェクト加工部15は、カメラ情報取得部14により取得された撮像情報に基づき、仮想オブジェクト抽出部12により取得されたオブジェクトを加工する部分である。
具体的には、仮想オブジェクト加工部15は、カメラ情報取得部14により取得された撮像情報に含まれる設定値に応じてオブジェクトを加工する。続いて、図4及び図5を参照して、オブジェクトの加工処理の例を説明する。
仮想オブジェクト加工部15は、例えば、カメラ情報取得部14により取得された撮像情報に含まれる受光感度情報に応じて、オブジェクトに所定のノイズを付加するノイズ加工を実施する。図4は、オブジェクトにノイズ加工処理を実施した場合における画像の表示例を示す図である。一般に、光量が少ない環境下で、高い受光感度により撮像された画像には、ノイズが発生する場合がある。所定のノイズは、かかる状況において発生するノイズを模すものである。仮想オブジェクト加工部15は、かかる場合に発生するノイズを模した画像パターンをオブジェクトに重畳する画像処理をノイズ加工として実施する。
仮想オブジェクト加工部15は、例えば、オブジェクトに付加するノイズの形状、量、密度といった情報を受光感度情報の値に対応付けて保持しておくことができる(図示せず)。そして、仮想オブジェクト加工部15は、カメラ情報取得部14からの受光感度情報の値に応じたノイズをオブジェクトに付加することができる。
図4(a)は、ノイズ加工が実施されていないオブジェクトが重畳された現実空間の画像の例である。図4(a)に示すように、ノイズが発生した現実空間の画像に、ノイズが付加されていないオブジェクトV1が重畳されているので、オブジェクトV1が表示された領域とオブジェクトV1以外の領域との間の画質が相違しており、違和感が生じる。
一方、図4(b)は、ノイズ加工が実施されたオブジェクトが重畳された現実空間の画像の例である。図4(b)に示すように、ノイズが発生した現実空間の画像に、ノイズが付加されたオブジェクトV2が重畳されているので、オブジェクトV2が表示された領域の画質がオブジェクトV2以外の領域の画質に近づけられるので、画像全体からの違和感が軽減される。
また、仮想オブジェクト加工部15は、例えば、カメラ情報取得部14により取得された撮像情報に含まれる色調補正情報に応じて、オブジェクトの色調を補正する色調補正加工を実施する。
図5は、オブジェクトに色調補正加工処理を実施した場合における画像の表示例を示す図である。一般に、センサにより取得される撮像環境の光量等の情報や、撮像された画像の解析により得られる当該画像の色調に関する情報に基づき、取得された画像の色調を補正処理する技術が知られている。この色調補正のための情報としては、ホワイトバランスに関する情報や、照度情報といったものが例示される。撮像部13は、かかる色調補正情報を用いて、取得した現実空間の画像の色調を補正し、色調を補正した画像を画像合成部16に送出している。
仮想オブジェクト加工部15は、撮像部13が用いた色調補正情報をカメラ情報取得部14を介して取得し、取得した色調補正情報に基づきオブジェクトの色調を補正する色調補正加工を実施できる。こうして加工されたオブジェクトの色調は、現実空間の画像の色調と同様または類似した色調となる。
図5(a)は、色調補正加工が実施されていないオブジェクトが重畳された現実空間の画像の例である。図5(a)に示すように、ある色調処理が施された現実空間の画像に、色調が補正されていないオブジェクトV3が重畳されているので、オブジェクトV3が表示された領域とオブジェクトV3以外の領域の色調が相違しており、違和感が生じる。
一方、図5(b)は、色調補正加工が実施されたオブジェクトが重畳された現実空間の画像の例である。図5(b)に示すように、ある色調処理が施された現実空間の画像に、色調補正加工が実施されたオブジェクトV4が重畳されているので、オブジェクトV4が表示された領域の色調がオブジェクトV4以外の領域の色調に近づけられるので、画像全体からの違和感が軽減される。
画像合成部16は、撮像部13により取得された現実空間の画像に、仮想オブジェクト加工部15により画像加工されたオブジェクトを重畳した画像を生成する部分である。具体的には、画像合成部16は、現実空間の画像中のマーカの位置により規定される位置にオブジェクトを重畳した重畳画像を生成する。また、画像合成部16は、生成した重畳画像を表示部17に送出する。
表示部17は、画像合成部16により生成された画像を表示する部分であって、例えばディスプレイといった装置により構成される。
続いて、オブジェクト表示装置1におけるオブジェクト表示方法の処理内容を説明する。図6は、オブジェクト表示方法の処理内容を示すフローチャートである。
まず、オブジェクト表示装置1は、撮像部13を起動する(S1)。続いて、撮像部13は、現実空間の画像を取得する(S2)。次に、仮想オブジェクト抽出部12は、仮想オブジェクト格納部11から取得したマーカ情報に基づき現実空間の画像を探索し、マーカの抽出を試みる(S3)。そして、マーカが抽出された場合には処理手順はステップS4に進められる。一方、マーカが抽出されなかった場合には処理手順はステップS10に進められる。
ステップS4において、仮想オブジェクト抽出部12は、抽出したマーカに対応付けられたオブジェクト情報を仮想オブジェクト格納部11から取得する(S4)。次に、カメラ情報取得部14は、撮像情報を撮像部13から取得する(S5)。続いて、仮想オブジェクト加工部15は、ステップS5において取得された撮像情報に基づき、オブジェクトの加工処理が必要か否かを判断する(S6)。仮想オブジェクト加工部15は、例えば、取得した撮像情報の値が所定の閾値以上であるか否かといった基準により、オブジェクトの加工処理の要否を判断できる。オブジェクトの加工処理が必要と判断された場合には、処理手順はステップS7に進められる。一方、オブジェクトの加工処理が必要と判断されなかった場合には、処理手順はステップS9に進められる。
ステップS7において、仮想オブジェクト加工部15は、カメラ情報取得部14により取得された撮像情報に含まれる設定値に応じて、ノイズ加工及び色調補正加工といった加工処理をオブジェクトに対して実施する(S7)。
画像合成部16は、撮像部13により取得された現実空間の画像に、ステップS7において加工処理されたオブジェクトを重畳した重畳画像を生成する(S8)。一方、ステップS9では、画像合成部16は、撮像部13により取得された現実空間の画像に、加工処理されていないオブジェクトを重畳した重畳画像を生成する(S9)。そして、表示部17は、ステップS8またはS9において画像合成部16により生成された重畳画像、またはオブジェクトが重畳されていない現実空間の画像を表示する(S10)。
本実施形態のオブジェクト表示装置及びオブジェクト表示方法によれば、撮像部13が現実空間の画像の取得に際して参照する撮像情報に基づきオブジェクトが加工され、加工されたオブジェクトが現実空間の画像に重畳及び表示されるので、取得された現実空間の画像の特徴が、表示されたオブジェクトに反映される。また、撮像部13における、現実空間の画像の画質に関わる設定値に応じてオブジェクトが加工されるので、取得された現実空間の画像の画質が、加工されたオブジェクトの画質に反映される。従って、現実空間の画像にオブジェクトを重畳表示させた際の違和感が軽減される。
(第2実施形態)
第2実施形態におけるオブジェクト表示装置1では、AR技術によるサービスとして、移動端末の所在位置の周辺に配置されたオブジェクトを取得し、移動端末に備えられたカメラにより取得した現実空間の画像中の位置に対応付けてオブジェクトを重畳表示するものを想定しているが、これには限定されない。図7は、第2実施形態におけるオブジェクト表示装置1の機能的構成を示すブロック図である。第2実施形態のオブジェクト表示装置1は、第1実施形態のオブジェクト表示装置1(図1参照)が備えていた各機能部に加えて、位置測定部18(位置測定手段)、方位測位部19及び仮想オブジェクト距離算出部20(オブジェクト距離算出手段)を備える。
第2実施形態におけるオブジェクト表示装置1では、AR技術によるサービスとして、移動端末の所在位置の周辺に配置されたオブジェクトを取得し、移動端末に備えられたカメラにより取得した現実空間の画像中の位置に対応付けてオブジェクトを重畳表示するものを想定しているが、これには限定されない。図7は、第2実施形態におけるオブジェクト表示装置1の機能的構成を示すブロック図である。第2実施形態のオブジェクト表示装置1は、第1実施形態のオブジェクト表示装置1(図1参照)が備えていた各機能部に加えて、位置測定部18(位置測定手段)、方位測位部19及び仮想オブジェクト距離算出部20(オブジェクト距離算出手段)を備える。
位置測定部18は、オブジェクト表示装置1の所在位置を測位し、測位した所在位置に関する情報を位置情報として取得する部分である。オブジェクト表示装置1の所在位置は、例えば、GPS装置といった測位手段により測位される。位置測定部18は、位置情報を仮想オブジェクト抽出部12に送出する。
方位測位部19は、撮像部13の撮像方位を測位する部分であって、例えば地磁気センサといった装置により構成される。方位測位部19は、測位した方位情報を仮想オブジェクト抽出部12に送出する。なお、方位測位部19は、本発明における必須の構成ではない。
第2実施形態における仮想オブジェクト格納部11は、第1実施形態における仮想オブジェクト格納部11とは異なる構成を有する。図8は、第2実施形態における仮想オブジェクト格納部11の構成及び記憶されているデータの例を示す図である。図8に示すように、仮想オブジェクト情報は、オブジェクトを識別するオブジェクトIDに対応付けられたオブジェクトデータ、位置情報といったデータを含む。
オブジェクトデータは、例えば、オブジェクトの画像データである。また、オブジェクトデータは、当該オブジェクトを表すための3Dオブジェクトのデータであってもよい。位置情報は、現実空間における当該オブジェクトの配置位置を示す情報であって、例えば、3次元の座標値により表される。
仮想オブジェクト格納部11は、オブジェクト情報を予め記憶していることとしてもよい。また、仮想オブジェクト格納部11は、位置測定部18により取得された位置情報に基づき、オブジェクト情報を記憶、管理しているサーバ(図示せず)から所定の通信手段(図示せず)を介して取得されたオブジェクト情報を蓄積することとしてもよい。この場合には、オブジェクト情報を記憶、管理しているサーバは、オブジェクト表示装置1の周辺に配置された仮想オブジェクトのオブジェクト情報を提供する。
仮想オブジェクト抽出部12は、オブジェクト表示装置1の所在位置に基づき、仮想オブジェクト格納部11からオブジェクト情報を取得する。具体的には、仮想オブジェクト抽出部12は、位置測定部18により測定された位置情報及び方位測位部19により測位された方位情報に基づき、表示部17に表示される現実空間の範囲を判定し、その範囲に配置位置が含まれる仮想オブジェクトを抽出する。表示部17に表示される現実空間の範囲に複数の仮想オブジェクトの配置位置が含まれる場合には、仮想オブジェクト抽出部12は、当該複数の仮想オブジェクトを抽出する。
なお、仮想オブジェクト抽出部12は、方位情報を用いないで仮想オブジェクトの抽出を実施することとしてもよい。仮想オブジェクト抽出部12は、抽出したオブジェクト情報を仮想オブジェクト距離算出部20及び仮想オブジェクト加工部15に送出する。
仮想オブジェクト距離算出部20は、仮想オブジェクト抽出部12により取得された仮想オブジェクトの位置情報に基づき、オブジェクト表示装置1から仮想オブジェクトまでの距離を算出する部分である。具体的には、仮想オブジェクト距離算出部20は、位置測定部18により測定された位置情報及び仮想オブジェクト情報に含まれる仮想オブジェクトの位置情報に基づき、オブジェクト表示装置1から仮想オブジェクトまでの距離を算出する。また、仮想オブジェクト抽出部12により複数の仮想オブジェクトが抽出された場合には、仮想オブジェクト距離算出部20は、オブジェクト表示装置1から各々の仮想オブジェクトまでの距離を算出する。また、仮想オブジェクト距離算出部20は、算出した距離を仮想オブジェクト加工部15に送出する。
カメラ情報取得部14は、撮像部13が現実空間の画像の取得に際して参照する撮像情報を撮像部13から取得する。ここで取得される撮像情報は、第1実施形態と同様に、現実空間の画像を取得する際の画質に関わる設定値を含む。この設定値は、例えば、撮像部13における受光感度を決定する受光感度情報及び色調補正情報を含む。また、撮像情報は、焦点距離及び被写界深度といったパラメータを含む。
仮想オブジェクト加工部15は、カメラ情報取得部14により取得された撮像情報に基づき、仮想オブジェクト抽出部12により取得されたオブジェクトを加工する。第2実施形態における仮想オブジェクト加工部15も、第1実施形態と同様に、受光感度情報に応じたノイズ加工、及び色調補正情報に応じた色調補正加工を実施できる。
また、第2実施形態における仮想オブジェクト加工部15は、撮像情報に含まれる焦点距離と、仮想オブジェクト距離算出部20により算出された仮想オブジェクトまでの距離との差に応じて、当該オブジェクトの画像に対して、撮影対象が焦点距離からずれた位置に存在する場合に取得される画像を模すためのぼかし加工を実施できる。
撮像部13は、ユーザによる設定等による所定の焦点距離を用いて現実空間の画像を取得するので、取得される画像には、撮像対象までの距離と焦点距離との合致による鮮明な画像の領域と、撮像対象までの距離と焦点距離との不一致による不鮮明な画像の領域とが存在する場合がある。この不鮮明な画像は、いわゆるぼけた画像と言われる場合がある。即ち、仮想オブジェクト加工部15は、現実空間の画像におけるぼけた画像の領域に重畳されるオブジェクトに対して、当該画像の領域と同程度のボケを施すためのぼかし加工を実施する。仮想オブジェクト加工部15は、周知の画像処理技術を用いてぼかし加工を実施することができる。以下のその一例を説明する。
仮想オブジェクト加工部15は、ボケの大きさBを以下の式(1)により算出できる。
B=(mD/W)(T/(L+T)) ・・・(1)
B:ボケの大きさ
D:有効口径=焦点距離/F値
W:撮影範囲の対角線長
L:カメラから被写体までの距離
T:被写体から背景までの距離
m:許容錯乱円径とイメージセンサの対角線長さの比
仮想オブジェクト加工部15は、ボケの大きさBに基づき、ぼかし加工のぼかし量を決定し、仮想オブジェクトのぼかし加工を実施する。なお、仮想オブジェクト加工部15は、オブジェクト毎のぼかし加工の要否及びぼかし量を、焦点距離に加えて被写界深度を用いて決定することとしてもよい。
B=(mD/W)(T/(L+T)) ・・・(1)
B:ボケの大きさ
D:有効口径=焦点距離/F値
W:撮影範囲の対角線長
L:カメラから被写体までの距離
T:被写体から背景までの距離
m:許容錯乱円径とイメージセンサの対角線長さの比
仮想オブジェクト加工部15は、ボケの大きさBに基づき、ぼかし加工のぼかし量を決定し、仮想オブジェクトのぼかし加工を実施する。なお、仮想オブジェクト加工部15は、オブジェクト毎のぼかし加工の要否及びぼかし量を、焦点距離に加えて被写界深度を用いて決定することとしてもよい。
図9は、本実施形態において生成される重畳画像の例を示す図である。図9に示される現実空間の画像では、焦点距離が遠方に存在する山の位置に合うように設定されているので、領域R1の画像は鮮明に取得されている。一方、焦点距離とずれた位置に存在する撮像対象を捉えた領域R2の画像は、不鮮明であって、いわゆるぼけた画像となっている。かかる場合において、仮想オブジェクト加工部15は、領域R1に重畳されるオブジェクトV5,V6に対して、ぼかし加工を実施しない。一方、仮想オブジェクト加工部15は、領域R2に重畳されるオブジェクトV7に対して、ぼかし加工を実施する。このとき、仮想オブジェクト加工部15は、オブジェクトV7の位置と焦点距離とのずれに基づきぼかし量を設定できる。
画像合成部16は、撮像部13により取得された現実空間の画像に、仮想オブジェクト加工部15により画像加工されたオブジェクトを重畳した重畳画像を生成する。表示部17は、画像合成部16により生成された画像を表示する。
続いて、第2実施形態におけるオブジェクト表示装置1におけるオブジェクト表示方法の処理内容を説明する。図10は、第1実施形態と同様のノイズ加工及び色調補正加工等をオブジェクト表示装置1が実施する場合のオブジェクト表示方法の処理内容を示すフローチャートである。
まず、オブジェクト表示装置1は、撮像部13を起動する(S21)。続いて、撮像部13は、現実空間の画像を取得する(S22)。次に、位置測定部18は、オブジェクト表示装置1の所在位置を測位し、測位した所在位置に関する情報を位置情報として取得し(S23)、取得した位置情報を仮想オブジェクト抽出部12に送出する。また、ステップS23において、方位測位部19は、撮像部13の撮像方位を測位することとしてもよい。
次に、仮想オブジェクト抽出部12は、オブジェクト表示装置1の位置情報に基づき、表示部17に表示される現実空間の範囲を判定し、その範囲に配置位置が含まれる仮想オブジェクトの仮想オブジェクト情報を仮想オブジェクト格納部11から取得する(S24)。続いて、仮想オブジェクト抽出部12は、表示させるべき仮想オブジェクトが有るか否かを判定する(S25)。即ち、ステップS24においてオブジェクト情報が取得された場合には、仮想オブジェクト抽出部12は、表示させるべき仮想オブジェクトが有ると判定する。表示させるべき仮想オブジェクトが有ると判定された場合には、処理手順はステップS26に進められる。一方、表示させるべき仮想オブジェクトが有ると判定されなかった場合には、処理手順はステップS31に進められる。
続くステップS26〜S31の処理内容は、第1実施形態の処理内容を示したフローチャート(図6)のステップS5〜S10と同様である。
次に、図11のフローチャートを参照して、オブジェクト表示装置1がぼかし加工を実施する場合のオブジェクト表示方法の処理内容を説明する。
まず、図11のフローチャートにおけるステップS41〜S45の処理内容は、図10のフローチャートにおけるステップS21〜S25の処理内容と同様である。
続いて、カメラ情報取得部14は、撮像部13が用いた焦点距離を含む撮像情報を取得する(S46)。この撮像情報は、被写界深度の情報を含んでいても良い。次に、仮想オブジェクト距離算出部20は、位置測定部18により測定された位置情報及び仮想オブジェクト情報に含まれる仮想オブジェクトの位置情報に基づき、オブジェクト表示装置1から仮想オブジェクトまでの距離を算出する(S47)。
次に、仮想オブジェクト加工部15は、オブジェクト毎のぼかし加工の要否を判断する(S48)。即ち、仮想オブジェクトの配置位置が現実空間の画像における焦点距離が合わされた領域に含まれる場合には、仮想オブジェクト加工部15は、当該オブジェクトに対するぼかし加工の必要がないと判断し、仮想オブジェクトの配置位置が現実空間の画像における焦点距離が合わされた領域に含まれない場合には、仮想オブジェクト加工部15は、当該オブジェクトに対するぼかし加工の必要があると判断する。ぼかし加工の必要があると判断された場合には、処理手順はステップS49に進められる。一方、ぼかし加工の必要があると判断されたオブジェクトがなかった場合には、処理手順はステップS51に進められる。
ステップS49において、仮想オブジェクト加工部15は、仮想オブジェクトに対してぼかし加工を実施する(S49)。続いて、画像合成部16は、撮像部13により取得された現実空間の画像に、ステップS7において加工処理されたオブジェクトを重畳した重畳画像を生成する(S50)。一方、ステップS51では、画像合成部16は、撮像部13により取得された現実空間の画像に、加工処理されていないオブジェクトを重畳した重畳画像を生成する(S51)。そして、表示部17は、ステップS50またはS51において画像合成部16により生成された重畳画像、またはオブジェクトが重畳されていない現実空間の画像を表示する(S52)。
以上説明した第2実施形態のオブジェクト表示装置及びオブジェクト表示方法によれば、第1実施形態におけるノイズ加工及び色調補正加工といった加工処理に加えて、撮像部13が用いた焦点距離により、現実空間の画像における焦点が合わない位置にオブジェクトが所在する場合に、当該オブジェクトに対していわゆるぼかし加工が施される。これにより、現実空間における焦点が合っていない領域に、ぼかし加工が施されたオブジェクトが重畳されるので、違和感の軽減された重畳画像が得られる。
なお、図10を参照して、撮像情報に含まれる設定値に基づきノイズ加工及び色調補正加工が実施される場合を説明し、図11を参照して、焦点距離等のパラメータに基づきぼかし加工が実施される場合をそれぞれ説明したが、これらの加工処理が一つのオブジェクトに対して併せて行われることとしてもよい。
次に、コンピュータを、本実施形態のオブジェクト表示装置1として機能させるためのオブジェクト表示プログラムについて説明する。図12は、図1に示したオブジェクト表示装置1に対応するオブジェクト表示プログラム1mの構成を示す図である。
オブジェクト表示プログラム1mは、オブジェクト表示処理を統括的に制御するメインモジュール10m、仮想オブジェクト格納モジュール11m、仮想オブジェクト抽出モジュール12m、撮像モジュール13m、カメラ情報取得モジュール14m、仮想オブジェクト加工モジュール15m、画像合成モジュール16m及び表示モジュール17mを備えて構成される。そして、各モジュール10m〜17mにより、オブジェクト表示装置1における各機能部11〜17のための各機能が実現される。なお、オブジェクト表示プログラム1mは、通信回線等の伝送媒体を介して伝送される態様であってもよいし、図12に示されるように、記録媒体1dのプログラム格納領域1rに記憶される態様であってもよい。
また、図13は、図7に示したオブジェクト表示装置1に対応するオブジェクト表示プログラム1mの構成を示す図である。図13に示すオブジェクト表示プログラム1mは、図12に示した各モジュール10m〜17mに加えて、位置測定ジュール18m、方位測位ジュール19m及び仮想オブジェクト距離算出ジュール20mを備える。各モジュール18m〜20mにより、オブジェクト表示装置1における各機能部18〜20のための各機能が実現される。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
1…オブジェクト表示装置、11…仮想オブジェクト格納部、12…仮想オブジェクト抽出部、13…撮像部、14…カメラ情報取得部、15…仮想オブジェクト加工部、16…画像合成部、17…表示部、18…位置測定部、19…方位測位部、20…仮想オブジェクト距離算出部、1m…オブジェクト表示プログラム、1d…記録媒体、10m…メインモジュール、11m…仮想オブジェクト格納モジュール、12m…仮想オブジェクト抽出モジュール、13m…撮像モジュール、14m…カメラ情報取得モジュール、15m…仮想オブジェクト加工モジュール、16m…画像合成モジュール、17m…表示モジュール、18m…位置測定ジュール、19m…方位測位ジュール、20m…仮想オブジェクト距離算出ジュール、V1,V2,V3,V4,V5,V6,V7…オブジェクト。
Claims (7)
- 現実空間の画像にオブジェクトを重畳表示するオブジェクト表示装置であって、
表示されるオブジェクトに関するオブジェクト情報を取得するオブジェクト情報取得手段と、
現実空間の画像を取得する撮像手段と、
前記撮像手段が現実空間の画像の取得に際して参照する撮像情報を取得する撮像情報取得手段と、
前記撮像情報取得手段により取得された撮像情報に基づき、前記オブジェクト情報取得手段により取得されたオブジェクトを加工するオブジェクト加工手段と、
前記撮像手段により取得された現実空間の画像に、前記オブジェクト加工手段により加工されたオブジェクトを重畳した画像を生成する画像合成手段と、
前記画像合成手段により生成された画像を表示する表示手段と
を備えることを特徴とするオブジェクト表示装置。 - 当該オブジェクト表示装置の所在位置を測定する位置測定手段と、
オブジェクト距離算出手段とを更に備え、
前記オブジェクト情報は、当該オブジェクトの現実空間における配置位置を示す位置情報を含み、
前記撮像情報は、焦点距離を含み、
オブジェクト距離算出手段は、前記オブジェクト情報取得手段により取得されたオブジェクトの位置情報、及び前記位置測定手段により測定されたオブジェクト表示装置の所在位置に基づき、当該オブジェクト表示装置から前記オブジェクトまでの距離を算出し、
前記オブジェクト加工手段は、前記撮像情報取得手段により取得された撮像情報に含まれる焦点距離と、前記オブジェクト距離算出手段により算出された前記オブジェクトまでの距離との差に応じて、当該オブジェクトに対して、撮像対象が焦点距離からずれた位置に存在する場合に取得される画像を模すためのぼかし加工をする、
ことを特徴とする請求項1に記載のオブジェクト表示装置。 - 前記撮像情報は、現実空間の画像を取得する際の画質に関わる設定値を含み、
前記オブジェクト加工手段は、前記撮像情報取得手段により取得された撮像情報に含まれる前記設定値に応じて、前記オブジェクトを加工する
ことを特徴とする請求項1または2に記載のオブジェクト表示装置。 - 前記撮像情報は、前記撮像手段における受光感度を決定する受光感度情報を含み、
前記オブジェクト加工手段は、前記撮像情報取得手段により取得された撮像情報に含まれる前記受光感度情報に応じて、前記オブジェクトに所定のノイズを付加するノイズ加工を実施する
ことを特徴とする請求項3に記載のオブジェクト表示装置。 - 前記撮像情報は、前記撮像手段において取得される画像の色調を補正する色調補正情報を含み、
前記オブジェクト加工手段は、前記撮像情報取得手段により取得された撮像情報に含まれる前記色調補正情報に応じて、前記オブジェクトの色調を補正する色調補正加工を実施する
ことを特徴とする請求項3または4に記載のオブジェクト表示装置。 - 現実空間の画像にオブジェクトを重畳表示するオブジェクト表示装置におけるオブジェクト表示方法であって、
表示されるオブジェクトに関するオブジェクト情報を取得するオブジェクト情報取得ステップと、
現実空間の画像を取得する撮像ステップと、
前記撮像ステップにおける現実空間の画像の取得に際して参照される撮像情報を取得する撮像情報取得ステップと、
前記撮像情報取得ステップにおいて取得された撮像情報に基づき、前記オブジェクト情報取得ステップにおいて取得されたオブジェクトを加工するオブジェクト加工ステップと、
前記撮像ステップにおいて取得された現実空間の画像に、前記オブジェクト加工ステップにおいて加工されたオブジェクトを重畳した画像を生成する画像合成ステップと、
前記画像合成ステップにおいて生成された画像を表示する表示ステップと
を有することを特徴とするオブジェクト表示方法。 - コンピュータを、現実空間の画像にオブジェクトを重畳表示するオブジェクト表示装置として機能させるためのオブジェクト表示プログラムであって、
前記コンピュータに、
表示されるオブジェクトに関するオブジェクト情報を取得するオブジェクト情報取得機能と、
現実空間の画像を取得する撮像機能と、
前記撮像機能が現実空間の画像の取得に際して参照する撮像情報を取得する撮像情報取得機能と、
前記撮像情報取得機能により取得された撮像情報に基づき、前記オブジェクト情報取得機能により取得されたオブジェクトを加工するオブジェクト加工機能と、
前記撮像機能により取得された現実空間の画像に、前記オブジェクト加工機能により加工されたオブジェクトを重畳した画像を生成する画像合成機能と、
前記画像合成機能により生成された画像を表示する表示機能と
を実現させることを特徴とするオブジェクト表示プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011037211A JP2012174116A (ja) | 2011-02-23 | 2011-02-23 | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム |
PCT/JP2011/080073 WO2012114639A1 (ja) | 2011-02-23 | 2011-12-26 | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム |
US13/993,470 US20130257908A1 (en) | 2011-02-23 | 2011-12-26 | Object display device, object display method, and object display program |
CN201180067931.8A CN103370732A (zh) | 2011-02-23 | 2011-12-26 | 对象显示装置、对象显示方法和对象显示程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011037211A JP2012174116A (ja) | 2011-02-23 | 2011-02-23 | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012174116A true JP2012174116A (ja) | 2012-09-10 |
Family
ID=46720439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011037211A Pending JP2012174116A (ja) | 2011-02-23 | 2011-02-23 | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20130257908A1 (ja) |
JP (1) | JP2012174116A (ja) |
CN (1) | CN103370732A (ja) |
WO (1) | WO2012114639A1 (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014203326A (ja) * | 2013-04-08 | 2014-10-27 | 任天堂株式会社 | 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法 |
KR20150095633A (ko) * | 2012-12-18 | 2015-08-21 | 삼성전자주식회사 | 디스플레이 장치 및 이의 이미지 처리 방법 |
WO2015182227A1 (ja) * | 2014-05-30 | 2015-12-03 | ソニー株式会社 | 情報処理装置および情報処理方法 |
JP2016081209A (ja) * | 2014-10-15 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP2016218547A (ja) * | 2015-05-15 | 2016-12-22 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP2017192106A (ja) * | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | 撮像装置およびその制御方法 |
WO2020031742A1 (ja) * | 2018-08-10 | 2020-02-13 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US10650601B2 (en) | 2016-03-29 | 2020-05-12 | Sony Corporation | Information processing device and information processing method |
WO2021131806A1 (ja) * | 2019-12-25 | 2021-07-01 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US11170511B2 (en) | 2017-03-31 | 2021-11-09 | Sony Semiconductor Solutions Corporation | Image processing device, imaging device, and image processing method for replacing selected image area based on distance |
JP6976395B1 (ja) * | 2020-09-24 | 2021-12-08 | Kddi株式会社 | 配信装置、配信システム、配信方法及び配信プログラム |
EP4425305A1 (en) | 2023-02-28 | 2024-09-04 | FUJIFILM Corporation | Processor, image processing method, and image processing program |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5325267B2 (ja) * | 2011-07-14 | 2013-10-23 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム |
JP2015002423A (ja) * | 2013-06-14 | 2015-01-05 | ソニー株式会社 | 画像処理装置、サーバ及び記憶媒体 |
WO2015099683A1 (en) * | 2013-12-23 | 2015-07-02 | Empire Technology Development, Llc | Suppression of real features in see-through display |
US9805454B2 (en) * | 2014-07-15 | 2017-10-31 | Microsoft Technology Licensing, Llc | Wide field-of-view depth imaging |
EP3065104A1 (en) * | 2015-03-04 | 2016-09-07 | Thomson Licensing | Method and system for rendering graphical content in an image |
JP6344311B2 (ja) * | 2015-05-26 | 2018-06-20 | ソニー株式会社 | 表示装置、情報処理システム及び制御方法 |
JP6693223B2 (ja) * | 2016-03-29 | 2020-05-13 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10559087B2 (en) * | 2016-10-14 | 2020-02-11 | Canon Kabushiki Kaisha | Information processing apparatus and method of controlling the same |
CN107390875B (zh) * | 2017-07-28 | 2020-01-31 | 腾讯科技(上海)有限公司 | 信息处理方法、装置、终端设备和计算机可读存储介质 |
JP6785983B2 (ja) * | 2017-09-25 | 2020-11-18 | 三菱電機株式会社 | 情報表示装置及び方法、並びにプログラム及び記録媒体 |
US11308652B2 (en) * | 2019-02-25 | 2022-04-19 | Apple Inc. | Rendering objects to match camera noise |
US11288873B1 (en) * | 2019-05-21 | 2022-03-29 | Apple Inc. | Blur prediction for head mounted devices |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000270203A (ja) * | 1999-03-18 | 2000-09-29 | Sanyo Electric Co Ltd | 撮像装置及び画像合成装置並びに方法 |
JP2001175884A (ja) * | 1999-12-17 | 2001-06-29 | Namco Ltd | 画像生成システム及び情報記憶媒体 |
JP2002251634A (ja) * | 2001-02-23 | 2002-09-06 | Mixed Reality Systems Laboratory Inc | 画像処理装置及びその方法並びにプログラムコード、記憶媒体 |
JP2007180615A (ja) * | 2005-12-26 | 2007-07-12 | Canon Inc | 撮像装置及びその制御方法 |
JP2007280046A (ja) * | 2006-04-06 | 2007-10-25 | Canon Inc | 画像処理装置及びその制御方法、プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1956830A4 (en) * | 2005-11-29 | 2010-09-29 | Panasonic Corp | REPRODUCTION DEVICE |
JP4834116B2 (ja) | 2009-01-22 | 2011-12-14 | 株式会社コナミデジタルエンタテインメント | 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム |
-
2011
- 2011-02-23 JP JP2011037211A patent/JP2012174116A/ja active Pending
- 2011-12-26 US US13/993,470 patent/US20130257908A1/en not_active Abandoned
- 2011-12-26 WO PCT/JP2011/080073 patent/WO2012114639A1/ja active Application Filing
- 2011-12-26 CN CN201180067931.8A patent/CN103370732A/zh not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000270203A (ja) * | 1999-03-18 | 2000-09-29 | Sanyo Electric Co Ltd | 撮像装置及び画像合成装置並びに方法 |
JP2001175884A (ja) * | 1999-12-17 | 2001-06-29 | Namco Ltd | 画像生成システム及び情報記憶媒体 |
JP2002251634A (ja) * | 2001-02-23 | 2002-09-06 | Mixed Reality Systems Laboratory Inc | 画像処理装置及びその方法並びにプログラムコード、記憶媒体 |
JP2007180615A (ja) * | 2005-12-26 | 2007-07-12 | Canon Inc | 撮像装置及びその制御方法 |
JP2007280046A (ja) * | 2006-04-06 | 2007-10-25 | Canon Inc | 画像処理装置及びその制御方法、プログラム |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104871205B (zh) * | 2012-12-18 | 2018-11-02 | 三星电子株式会社 | 显示设备和用于处理该显示设备的图像的方法 |
JP2016511852A (ja) * | 2012-12-18 | 2016-04-21 | サムスン エレクトロニクス カンパニー リミテッド | ディスプレイ装置及びそのイメージ処理方法 |
KR20150095633A (ko) * | 2012-12-18 | 2015-08-21 | 삼성전자주식회사 | 디스플레이 장치 및 이의 이미지 처리 방법 |
CN104871205A (zh) * | 2012-12-18 | 2015-08-26 | 三星电子株式会社 | 显示设备和用于处理该显示设备的图像的方法 |
KR102124398B1 (ko) * | 2012-12-18 | 2020-06-18 | 삼성전자주식회사 | 디스플레이 장치 및 이의 이미지 처리 방법 |
JP2014203326A (ja) * | 2013-04-08 | 2014-10-27 | 任天堂株式会社 | 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法 |
US10636185B2 (en) | 2014-05-30 | 2020-04-28 | Sony Corporation | Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint |
WO2015182227A1 (ja) * | 2014-05-30 | 2015-12-03 | ソニー株式会社 | 情報処理装置および情報処理方法 |
JP2016081209A (ja) * | 2014-10-15 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP2016218547A (ja) * | 2015-05-15 | 2016-12-22 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
US11004273B2 (en) | 2016-03-29 | 2021-05-11 | Sony Corporation | Information processing device and information processing method |
US10650601B2 (en) | 2016-03-29 | 2020-05-12 | Sony Corporation | Information processing device and information processing method |
JP2017192106A (ja) * | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | 撮像装置およびその制御方法 |
US11170511B2 (en) | 2017-03-31 | 2021-11-09 | Sony Semiconductor Solutions Corporation | Image processing device, imaging device, and image processing method for replacing selected image area based on distance |
WO2020031742A1 (ja) * | 2018-08-10 | 2020-02-13 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
WO2021131806A1 (ja) * | 2019-12-25 | 2021-07-01 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP6976395B1 (ja) * | 2020-09-24 | 2021-12-08 | Kddi株式会社 | 配信装置、配信システム、配信方法及び配信プログラム |
JP2022053334A (ja) * | 2020-09-24 | 2022-04-05 | Kddi株式会社 | 配信装置、配信システム、配信方法及び配信プログラム |
EP4425305A1 (en) | 2023-02-28 | 2024-09-04 | FUJIFILM Corporation | Processor, image processing method, and image processing program |
Also Published As
Publication number | Publication date |
---|---|
US20130257908A1 (en) | 2013-10-03 |
CN103370732A (zh) | 2013-10-23 |
WO2012114639A1 (ja) | 2012-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012114639A1 (ja) | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム | |
JP5377537B2 (ja) | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム | |
US8786718B2 (en) | Image processing apparatus, image capturing apparatus, image processing method and storage medium | |
JP5055402B2 (ja) | オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法 | |
JP5325267B2 (ja) | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム | |
JP5279875B2 (ja) | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム | |
CN109247068A (zh) | 用于滚动快门补偿的方法和设备 | |
JP5569357B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6020471B2 (ja) | 画像処理方法、画像処理装置および画像処理プログラム | |
JP2015073185A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2013031154A (ja) | 画像処理装置、画像処理方法、撮像装置およびプログラム | |
WO2018189880A1 (ja) | 情報処理装置、情報処理システム、および画像処理方法 | |
JP2007295375A (ja) | 投影映像補正装置及び投影映像補正プログラム | |
CN112385207A (zh) | 拍摄计划提示装置及方法 | |
JP2007288295A (ja) | 観察位置追従式映像提示装置及び観察位置追従式映像提示プログラム,映像提示装置及び映像提示プログラム | |
CN113344789A (zh) | 图像拼接方法及装置、电子设备、计算机可读存储介质 | |
JP2014071870A (ja) | 仮想視点画像合成装置、仮想視点画像合成方法及び仮想視点画像合成プログラム | |
JP6426594B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP5590680B2 (ja) | 映像合成装置、映像合成方法、および映像合成プログラム | |
JP5689693B2 (ja) | 描画処理装置 | |
JP6404525B2 (ja) | 全天球カメラ撮像画像表示システム、全天球カメラ撮像画像表示方法及びプログラム | |
JP2020086651A (ja) | 画像処理装置および画像処理方法 | |
JP6433154B2 (ja) | 画像処理装置および撮像装置 | |
JP6930011B2 (ja) | 情報処理装置、情報処理システム、および画像処理方法 | |
CN112446910A (zh) | 一种深度图像获得方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120809 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131008 |