JP6674192B2 - 画像処理装置と画像処理方法 - Google Patents

画像処理装置と画像処理方法 Download PDF

Info

Publication number
JP6674192B2
JP6674192B2 JP2015005838A JP2015005838A JP6674192B2 JP 6674192 B2 JP6674192 B2 JP 6674192B2 JP 2015005838 A JP2015005838 A JP 2015005838A JP 2015005838 A JP2015005838 A JP 2015005838A JP 6674192 B2 JP6674192 B2 JP 6674192B2
Authority
JP
Japan
Prior art keywords
illumination
information
virtual
lighting
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015005838A
Other languages
English (en)
Other versions
JP2016006627A (ja
Inventor
穎 陸
穎 陸
康孝 平澤
康孝 平澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015005838A priority Critical patent/JP6674192B2/ja
Priority to PCT/JP2015/002674 priority patent/WO2015182134A1/en
Priority to US15/115,510 priority patent/US10204404B2/en
Publication of JP2016006627A publication Critical patent/JP2016006627A/ja
Application granted granted Critical
Publication of JP6674192B2 publication Critical patent/JP6674192B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

この技術は、画像処理装置と画像処理方法に関し、所望の照明環境下での被写体画像を生成する際に照明環境の設定を容易に行えるようにする。
従来、撮影時とは異なる照明環境での照明効果を算出するリライティングと呼ばれる画像処理技術が画像の加工等で用いられている。
リライティングでは、被写体の照明に関連する被写体情報例えば被写体の形状や反射特性と、照明情報例えば照明位置や照明強度等が必要とされている。これらの情報は、一般的な3次元コンピュータグラフィクスの描画に用いられる要素と同じである。被写体の形状は、例えば複数カメラを用いたステレオマッチングにより奥行きを推定して、各画素に対応した3次元座標の集合からモデルを復元する方法が用いられる。被写体の反射特性および光源位置については、例えば球面ミラーにおける光源の反射を用いた手法が提案されている。
また、適切なリライティング画像を生成するため、例えば特許文献1では、光源の強度を自動調整することが開示されている。
特開2009−223906号公報
ところで、所望のリライティング画像を生成するには、特許文献1によって調整される光源の強度だけでなく、照明位置や照明方向等も調整できることが望ましい。照明位置や照明方向等の調整は、例えばコンピュータグラフィクス等では、表示装置の画面を見ながらマウス等の操作することで行われている。また、三次元座標等を直接入力することで、照明位置や照明方向等を設定することも行われている。しかし、このような従来の方法では、照明位置や照明方向等をユーザが直感的に把握することが困難であるため、照明を適切な場所に配置することが容易でない。
そこで、この技術では、所望の照明環境下での被写体画像を生成する際に照明環境の設定を容易に行える画像処理装置と画像処理方法を提供することを目的とする。
この技術の第1の側面は、被写体の照明に関連する被写体情報と、照明体の代替物として実空間内に設けた仮想照明体の種類と前記実空間内における三次元情報によって示される前記仮想照明体の位置や姿勢およびその変化に基づいて、照明の位置や方向,強度,種類を設定する照明情報とから、前記照明情報に基づいた照明環境下における前記被写体の画像を生成する画像生成部を備える画像処理装置にある。
この技術において、実空間内の仮想照明体に基づいて照明情報を取得する照明情報取得部は、仮想照明体が置かれる実空間の情報を取得する実空間情報取得部と、仮想照明体の特徴量を予め記憶した特徴量記憶部と、特徴量記憶部に記憶されている特徴量に基づき、実空間情報取得部が取得した実空間の情報から仮想照明体を検出して、検出した仮想照明体の照明情報を生成する仮想照明体検出部を有している。また、照明情報取得部は、仮想照明体が置かれる実空間の情報を取得する実空間情報取得部と、仮想照明体の特徴量を学習する仮想照明体学習部と、仮想照明体学習部で学習された特徴量を記憶する特徴量記憶部と、特徴量記憶部に記憶されている特徴量に基づき、実空間情報取得部が取得した実空間の情報から仮想照明体を検出して、検出した仮想照明体の照明情報を生成する仮想照明体検出部を備えている。また、照明情報取得部は、仮想照明体が置かれる実空間の情報を取得する実空間情報取得部と、ユーザが実空間情報から手動で指定した仮想照明体の領域を取得する仮想照明体領域取得部と、取得した仮想照明体の照明情報を生成する仮想照明体検出部を備えている。また、照明情報取得部は、仮想照明体と通信を行う通信部と、通信部で仮想照明体からの通信信号を受信して得られた受信データに基づいた照明情報を生成して出力するデータ処理部とを有している。照明情報取得部には、実空間内の仮想照明体の三次元情報を取得する撮像部が設けられている。データ処理部は、受信データで示された仮想照明体の位置や姿勢およびその変化に基づいて照明情報を生成する。照明情報は、照明の三次元位置,照明方向,照明強度および種類の少なくともいずれかの情報を含むように生成される。また、画像処理装置には、撮像画像から被写体の照明に関連する被写体情報を取得する被写体情報取得部が設けられる。
この技術の第2の側面は、画像生成部で、被写体の照明に関連する被写体情報と、照明体の代替物として実空間内に設けた仮想照明体の種類と前記実空間内における三次元情報によって示される前記仮想照明体の位置や姿勢およびその変化に基づいて、照明の位置や方向,強度,種類を設定する照明情報とから、前記照明情報に基づいた照明環境下における前記被写体の画像を生成する工程を含む画像処理方法にある。
この技術によれば、実空間内の仮想照明体に基づいて照明情報が取得されて、この照明情報と被写体の照明に関連する被写体情報から、照明情報に基づいた照明環境下における被写体の画像が生成される。このため、所望の照明環境下での被写体画像を生成する場合の照明環境の設定を、実空間内に設けた仮想照明体の位置や向き等を利用して容易に行えるようになる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
画像処理装置の構成を示す図である。 双方向反射率分布関数を用いた反射モデルを示す図である。 実空間の座標系とコンピュータグラフィクスの座標系を例示した図である。 レンダリングの原理を説明するための図である。 照明情報取得部の第1の実施の形態の構成を例示した図である。 実空間情報取得部の構成を例示した図である。 仮想照明体を例示した図である。 マーカー領域の画像の検出動作を説明するための図である。 マーカー認識動作を説明するための図である。 マーカーの三次元情報の推定動作を説明するための図である。 撮像画像の二次元画像座標系を示す図である。 座標変換行列の回転行列を計算する方法を説明するための図である。 マーカーの実空間における三次元情報とコンピュータグラフィクスのワールド座標系における照明情報との対応関係を説明するための図である。 第1の実施の形態の動作を示すフローチャートである。 実空間情報の検出動作を示すフローチャートである。 三次元情報の推定動作を示すフローチャートである。 マーカーを自在に移動や回転させることが可能に配置例を示す図である。 照明情報取得部の第2の実施の形態の構成を例示した図である。 学習に用いるマーカーを例示した図である。 学習動作を説明するための図である。 第2の実施の形態の動作を示すフローチャートである。 照明情報取得部の第3の実施の形態の構成を例示した図である。 第3の実施の形態の動作を示すフローチャートである。 仮想照明体(例えばスマートフォンを用いた場合)の構成を例示した図である。 仮想照明体における三次元情報の生成についての説明図である。 照明設定画面を例示した図である。 照明情報取得部の第4の実施の形態の構成を例示した図である。 第4の実施の形態の動作を示すフローチャートである。
以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
1.画像処理装置の概要
2.照明情報取得部の第1の実施の形態
3.照明情報取得部の第2の実施の形態
4.照明情報取得部の第3の実施の形態
5.照明情報取得部の第4の実施の形態
<1.画像処理装置の概要>
図1は、この技術の画像処理装置の構成を示している。画像処理装置10は、例えばリライティング処理を行い、撮像画像から撮影時とは異なる照明環境で撮像を行った場合の撮像画像に相当するリライティング画像を生成する。
画像処理装置10は、被写体情報取得部20と照明情報取得部30および画像生成部50を有している。
被写体情報取得部20は被写体情報を取得する。被写体情報は、被写体の照明に関連する被写体情報である。例えば被写体を撮像する場合、照明が一定であっても被写体の三次元形状や反射特性が異なると、得られる撮像画像は異なった画像となる。したがって、被写体情報取得部20は、被写体の照明に関連する被写体情報である被写体の三次元形状や反射特性等を示す情報を被写体情報として取得する。被写体情報取得部20は、画像生成部50でリライティング画像を生成する場合、撮像画像から被写体情報を取得する。被写体情報取得部20は、取得した被写体情報を画像生成部50に出力する。
照明情報取得部30は、実空間の仮想照明体に基づき照明情報を取得する。仮想照明体は、照明光を出射する照明体の代替えとして照明情報を取得する際に用いられる物体である。照明情報取得部30は、仮想照明体の実空間における三次元情報例えば三次元位置および向きや仮称照明体の種類等に基づき、照明の三次元位置,照明方向,照明強度や種類等の情報を含む照明情報を生成する。したがって、仮想照明体としては、認識できる任意の物体例えば平面状のマーカー、スマートフォン、ユーザの所持物等を用いることができる。なお、照明情報は、照明の三次元位置,照明方向,照明強度および種類等の少なくともいずれかを含む情報であってもよい。照明情報取得部30は、実空間の仮想照明体に基づいて取得した照明情報を画像生成部50に出力する。
画像生成部50は、被写体情報取得部20で取得された被写体情報と照明情報取得部30で取得された照明情報に基づきレンダリング等を行い、照明情報に基づいた照明環境下における被写体の画像を生成する。例えば、画像生成部50は、撮像画像から取得した被写体情報を用いることで、撮像画像の被写体を照明情報に基づく新たな照明環境下で撮像した場合に相当するリライティング画像を生成する。
次に、画像処理装置の動作について説明する。被写体情報取得部20における三次元形状の取得では、例えばステレオカメラや多視点カメラ、TOF(Time-of-Flight)法を用いた画像センサ、ストラクチャードライト(structured light)法を用いた3Dスキャナ等のデバイスを用いて被写体を撮像する。被写体情報取得部20は撮像結果からデプスマップまたは三次元の点群(Point Cloud)、もしくはポリゴンメッシュ等の三次元形状情報を取得する。
次に、被写体情報取得部20における反射特性の取得について説明する。物体表面の反射特性とは、物体表面に入射した光の強度が、どのように変化して反射されるかを示す特性であり、物体の材料や形状、観察方向等によって異なる。反射特性を表現するモデルの一つとして、双方向反射率分布関数(BRDF: Bidirectional Reflectance Distribution Function)が知られている。双方向反射率分布関数は、入射光の角度および出射光の角度の関数であり、ある角度で入射してきた光の強度が、ある角度へどの程度の反射率で出射するか示している。双方向反射率分布関数を用いた反射モデルの多くは、図2に示すように拡散反射と鏡面反射を含んでいる。なお、図2の(A)は拡散反射の反射方向(細線の矢印方向)と出射光の強度(細線の矢印の長さ)、図2の(B)は鏡面反射の反射方向(細線の矢印方向)と出射光の強度(細線の矢印の長さ)を示している。入射光の表面法線に対する方向と入射光の強度が一定である場合、拡散反射の出射光はどの角度で反射しても強度が不変であり、鏡面反射の出射光は鏡面反射方向に近いほど強度が強くなり、鏡面反射方向から離れるほど強度が弱くなる。図2の(C)は、拡散反射と鏡面反射を含んだ反射方向(細線の矢印方向)と出射光の強度(細線の矢印の長さ)を示している。なお、説明を容易とするため、以下の説明では拡散反射のみの反射モデルについて説明する。
拡散反射のみのBRDF反射モデルは、ランバート(Lambert)モデルが広く用いられている。ランバートモデルは、式(1)に示すように、三原色画像の画素値Idが、その画素に対応する三次元物体表面の点の法線方向Nと光源の方向Lの内積と、光源の強度Ipおよびその点の拡散反射率Kdに基づいて算出される。
Id=KdIp(N・L) ・・・(1)
ランバートモデルのパラメータである拡散反射率Kdは、図2の(A)に示す反射特性に対応しており、拡散反射率Kdは被写体の素材などにより(例えば金属や布)大きく異なる。また、ランバートモデルから、光の入射方向Lと法線方向Nが近づけると画素値Idが大きくなることが分かる。また、画素値Idは観察方向によって変化することがない。なお、鏡面反射も考慮した反射モデルを用いる場合、上述のように、観察方向が光の鏡面反射方向に近づくと画素値が大きくなり、観察方向が光の鏡面反射方向から離れると画素値が小さくなる。
拡散反射率Kdは波長に応じて異なり、一般的には赤色と緑色および青色の三原色毎に拡散反射率Kdを定義する。ランバートモデルに基づいて、被写体表面の拡散反射率Kdを取得する場合、被写体の三原色画像と三次元形状、および光源の方向と強度が必要となり、これらの情報を用いて式(2)の演算を行うことで色毎に、各画素の物体表面の拡散反射率Kdを算出できる。なお、光源の方向は、例えば光源が点光源である場合、撮影時にメジャーなどを使って被写体に対する点光源の相対位置を実測することで取得できる。光源の強度は照度計などを用いて計測することで取得できる。
Kd=Id/Ip(N・L) ・・・(2)
被写体情報取得部20は、以上のような処理を行うことで取得した被写体情報を画像生成部50に出力する。
なお、被写体情報取得部は画像処理装置10と別個に設けられてもよい。この場合、被写体情報取得部で取得された被写体情報を記憶する被写体情報記憶部25を画像処理装置10に設ける。
次に、照明情報取得部30における照明情報の取得について説明する。照明情報は、リライティングを行うために必要な情報であり、画像生成部50でレンダリング等を行う場合の照明の位置や向き,強度,種類などの設定を示す情報である。照明情報取得部30は実空間上に存在する仮想照明体を認識して,実空間における仮想照明体の三次元位置や向きなどの情報を取得する。その後、照明情報取得部30は、取得した情報を照明情報へ変換する。例えば、画像処理装置10を被写体と見なす場合、実空間の任意の場所に置かれた仮想照明体と画像処理装置との位置関係が、レンダリング等のコンピュータグラフィクス(CG)における照明の設定値に反映される。すなわち、ユーザは、画像処理装置を被写体と見なして、照明体と見なした仮想照明体でこの被写体(画像処理装置)を照らすようにして、照明体と被写体を実際に用意しなくとも、直感的に照明体を所望の位置に配置した場合に相当する照明情報を生成できる。
ここで、画像処理装置と仮想照明体の位置関係を、コンピュータグラフィクスにおける照明情報の三次元位置として反映することについて説明する。
図3は、実空間の座標系とコンピュータグラフィクスの座標系を例示している。実空間には、画像処理装置10と仮想照明体60が設けられている。実空間のワールド座標系は例えば画像処理装置10の中心を原点にして、画像処理装置10の右方向、上方向、正面方向をワールド座標系のX,Y,Z軸方向とする。また、実空間のワールド座標系における仮想照明体の三次元情報のX,Y,Z座標は座標値(x,y,z)で表して、回転方向は(Vx,Vy,Vz)で表す。
また、コンピュータグラフィクスにおいて、新たな照明環境下の画像が生成される処理対象被写体と、新たな照明の配置等に関する情報があるとする。この新たな照明の情報は、実空間に置かれる仮想照明体から得られる。また、処理対象被写体の三次元形状は上述のように被写体情報取得部20で取得される。このため、コンピュータグラフィクスのワールド座標系は、例えば処理対象被写体の中心を原点にして、処理対象被写体の右方向、上方向、正面方向をコンピュータグラフィクスのワールド座標系のX,Y,Z軸方向とする。また、コンピュータグラフィクスのワールド座標系における新たな照明のX,Y,Z軸方向の座標値(x’,y’,z’)と、実空間のワールド座標系における仮想照明体のX,Y,Z軸方向の座標値(x,y,z)の関係は、(x’,y’,z’)=(x,y,z)とする。また、(x’,y’,z’)=(Jx,Jy,Jz)としてもよい。係数「J」は、実空間のワールド座標系とコンピュータグラフィクスのワールド座標系のスケール関係を示しており、例えば予め所定の値またはユーザによる設定値とされる。
コンピュータグラフィクスのワールド座標系における新たな照明の向き(X軸周りの角度V’xとY軸周りの角度V’y)と実空間のワールド座標系における仮想照明体の回転方向(Vx,Vy,Vz)の関係はV’x=Vx,V’Y=Vyにする。この場合、照明情報取得部30が出力する照明の三次元位置は座標値(x’,y’,z’)であって、照明の向きのX軸周りの角度はV’xであり、Y軸周りの角度はV’yである。
照明情報取得部30が仮想照明体から照明の強度および種類等を取得する動作に関しては後述する。
画像生成部50は、被写体情報取得部20で取得された被写体情報と照明情報取得部30で取得された照明情報に基づいてレンダリングを行い例えばリライティング画像を生成する。
図4は、コンピュータグラフィクスにおけるレンダリングの原理を説明するための図である。コンピュータグラフィクスで物体の画像をレンダリングする場合、その物体の外見を決定する三種類のデータ(三次元形状、表面の反射特性、照明)をもとにレンダリングを行う。具体的には、物体の表面の一点に入射した照明からの入射光が、表面の反射特性によって定まる強度で反射される。撮像装置のセンサにおいて、物体の一点に対応している画素の画素値(信号レベル)は、反射された光である出射光の強度で決まる。コンピュータグラフィクスではその入射光の強度と表面の形状、表面の反射特性をユーザが設定することで、画素値が自動的に計算される。同様に、リライティング処理においても、被写体の三次元形状と反射特性および照明の三種類のデータが必要であり、レンダリングと同様にして画素値を計算する。なお、コンピュータグラフィクスでは、三種類のデータを全部設定する。しかし、リライティング処理では被写体の三次元形状と反射特性が被写体情報として被写体情報取得部20によって取得されている。したがって、リライティング処理では、照明情報によって新たな照明環境を設定することで、撮影時と同じ構図であるが、照明条件の異なる画像がリライティング画像として生成される。
なお、画像処理装置10と別個に設けられた被写体情報取得部20で取得された被写体情報が被写体情報記憶部25に記憶されている場合、画像生成部50は、被写体情報記憶部25に記憶されている被写体情報を用いてレンダリングを行う。
<2.照明情報取得部の第1の実施の形態>
図5は、照明情報取得部の第1の実施の形態の構成を例示している。照明情報取得部30は、実空間情報取得部31と特徴量記憶部32および照明情報生成処理部35を有している。
実空間情報取得部31は、仮想照明体が置かれる実空間の情報を取得して照明情報生成処理部35に出力する。仮想照明体が置かれる実空間の情報は、実空間における仮想照明体の例えば三次元位置や向き等を取得するための情報である。特徴量記憶部32は、予め設定した仮想照明体毎の特徴量が予め記憶されている。照明情報生成処理部35は、特徴量記憶部32に記憶されている特徴量と実空間情報取得部31が取得した実空間の情報に基づき、仮想照明体の三次元位置や向き等の情報を取得して、取得した情報を照明情報に変換して画像生成部50に出力する。
図6は、実空間情報取得部の構成を例示している。実空間情報取得部31は、撮像部311と仮想照明体検出部312を有している。
撮像部311は、仮想照明体が設けられている実空間の撮像画像を仮想照明体検出部312に出力する。
図7は仮想照明体を例示した図であり、認識できる任意の物体である仮想照明体は、二次元物体または三次元物体のいずれであってもよい。二次元物体としては、図7の(A)に示すように拡張現実(Augmented Reality)の分野で広く利用されているマーカーや、図7の(B)に示すような各種のチラシ等を用いることができる。三次元物体としては、図7の(C)に示すような人間の手や、図7の(D)に示すような三次元形状のおもちゃ等を用いることができる。以下、この技術の理解を容易とするため、仮想照明体としてマーカーを用いた場合について説明する。
ARToolKit等で用いられるマーカーは、正方形で黒枠内に白領域が設けられており、黒枠と白領域は所定の割合とされて、黒枠でマーカー領域の検出を行い、白領域内のパターンに応じてマーカーを判別できるように構成されている。以下、パターンが含まれる領域をパターン領域とする。
撮像部311は、実空間に設けられたマーカーを撮像して、撮像画像を仮想照明体検出部312に出力する。
仮想照明体検出部312は、撮像画像からマーカー領域の画像を検出する。図8は、マーカー領域の画像の検出動作を説明するための図である。仮想照明体検出部312は、撮像画像をグレースケール画像に変換したのち、予め設定されている閾値と比較して二値化画像(白黒画像)を生成する。図8の(A)は二値化画像を例示している。次に、仮想照明体検出部312は、二値化画像の白黒反転処理を行う。図8の(B)は白黒反転画像を例示している。仮想照明体検出部312は、反転画像から図8の(C)に示すように白色の四角形を検出する。仮想照明体検出部312は、反転画像における白色の四角形の4つの頂点の座標に基づき、射影変換を用いて、白色の四角形を図8の(D)に示すように白色の正方形に変換する。さらに、仮想照明体検出部312は、変換された白色の正方形の領域の内における黒領域の縦横の辺の長さを比較してマーカー領域の画像であるか検出する。仮想照明体検出部312は、長さが同じであれば当該黒領域はパターン領域であると判定して、長さが異なる場合はパターン領域ではないと判定する。
ここで、射影変換を用いて、白色の四角形を正方形に変換する方法について説明する。白色の四角形の4つの頂点の反転画像における座標をそれぞれp1 uv=(u1,v1),p2 uv=(u2,v2),p3 uv=(u3,v3),p4 uv=(u4,v4)とする。変換後の正方形の各辺の長さは任意に設定することができる。例えば正方形の各辺の長さを「200」と設定する場合、四角形の各頂点pi uv(i=1〜4)の座標は射影により(−100,100)、(100,100)、(100,−100)、(−100,−100)となる。この射影変換は、ホモグラフィ行列Hを用いて式(3)〜(6)として表すことができる。なお、式(7)はホモグラフィ行列Hを示している。
Figure 0006674192
仮想照明体検出部312は、式(8)に示す射影変換式を用いて、射影変換行列の9つの変数hijを算出する。そして、白色の四角形の中の点(u,v)を射影変換行列を用いて、白色の正方形の中の点(u’,v’)に変換する。
Figure 0006674192
照明情報生成処理部35は、マーカーの認識を行う。照明情報生成処理部35は、実空間情報取得部31で検出されたマーカーにおけるパターン領域と、予め登録されているマーカーのパターン領域の画像を比較して、撮像画像にいずれのマーカーが含まれているか認識する。図9は、マーカー認識動作を説明するための図である。実空間情報取得部31は、例えば検出したマーカーのパターン領域の画像を予め登録されているマーカーのパターン領域の画像と等しい解像度で分割して数値化する。なお、図9の(A)は検出したマーカーのパターン領域の画像、図9の(B)は画像の分割、図9の(C)は数値化データを示している。照明情報生成処理部35は、数値化パターンと予め記憶されているマーカーの数値化パターンを比較して、一致率が最も高くかつ一致率が予め設定された閾値よりも高いマーカーを撮像画像に含まれているマーカーと認識する。
次に、照明情報生成処理部35は、マーカーの三次元情報を推定する。図10は、マーカーの三次元情報の推定動作を説明するための図である。
照明情報生成処理部35は、認識されたマーカーと予め記憶されているマーカーの黒枠の正方形の一辺の長さから、実空間におけるマーカーの三次元情報を推定する。
まず初めに座標系の定義を説明する。実空間のワールド座標系は例えば撮像装置の中心を原点にして、撮像部311の右方向、上方向、正面方向をX,Y,Z軸とする。実空間におけるマーカーの中心を原点にしているマーカー座標系も考えられている。マーカー座標系は例えばマーカーの中心を原点として、マーカーの右方向、上方向、マーカーの平面に対して垂直で裏面を指す方向を、それぞれX,Y,Z軸とする。撮像部311から取得した撮像画像の二次元画像座標系は、例えば図11に示すように、二次元画像の中心を原点にして、二次元画像の右方向はu軸、二次元画像の上方向がv軸とする。
マーカー座標系の座標P(P ,P ,P )からワールド座標系の座標P(P ,P ,P )への変換は、式(9)の座標変換行列式で示すことができる。また、図10において、マーカー座標系における「sz」は、マーカーの縦幅および横幅の「1/2」のサイズを示している。
Figure 0006674192
照明情報生成処理部35は、座標変換行列の回転行列Rと移動行列Tを計算して、マーカーの三次元情報を生成する。図12は、座標変換行列の回転行列を計算する方法を説明するための図である。
まずマーカーの各頂点の記号について説明する。マーカーの各頂点p(i=1,2,3,4)およびマーカーの位置を表すマーカーの中心点pのワールド座標系における座標は図10に示すようにp で表す。また、マーカーの各頂点P(i=1,2,3,4)およびマーカーの位置を表すマーカーの中心点Pのマーカー座標系における座標は10に示すようにP で表す。マーカーの各頂点Pの二次元画像上に対応する頂点pの二次元画像座標系における座標は図11に示すようにp uvで表し、頂点pのワールド座標系における座標値はp で表す。図12では、撮像部311、三次元空間上にあるマーカーの頂点P,P,P,Pおよび三次元空間上のマーカーの頂点P,P,P,Pが二次元画像上に映されたマーカーの頂点p,p,p,pを示している。
照明情報生成処理部35は、マーカーの画像からマーカーを認識して、画像におけるマーカーの四角形の辺p,p,p,pを取得できたら、撮像装置の視点Oを通る面Op,Op,Op,Opを実空間に延長する。この時、各面は実空間におけるマーカーの四辺P,P,P,Pもそれぞれ通ることになり、視点Oと二次元画像のマーカーの辺と三次元のマーカーの辺を繋ぐ面となる。
次に、照明情報生成処理部35は、この4つの面の法線を計算する。ワールド座標系は上述のように定義されており、ワールド座標系における撮像部311の視点Oの座標値は原点(0,0,0)である。撮像画像面のマーカーの頂点p,p,p,pのワールド座標系における座標は、撮影画像面がワールド座標系におけるZ=焦点距離(撮像部311の焦点距離f)の平面であるので、各頂点p,p,p,pのZ座標値も焦点距離になる。また、頂点p(i=1,2,3,4)のワールド座標系におけるX座標値pxi は、各点の二次元画像座標系におけるu座標uに画素ピッチpitchを乗算した値になる。すなわちX座標値pxi =u×pitchとなる。さらに、頂点p(i=1,2,3,4)のワールド座標系におけるY座標値pYi は、各点の二次元画像座標系におけるv座標vに画素ピッチpitchを乗算した値になる。すなわちY座標値pYi =v×pitchとなる。視点Oおよびマーカーの頂点pの座標が得られれば、面Op,Op,Op,Op(すなわち面OP,OP,OP,OP)はワールド座標系において、式(10)乃至(13)で表すことができる。
Figure 0006674192
ここで、面Op,Op,Op,Opに対して垂直なベクトル(面の法線)は、N12=(NX12,NY12,NZ12),N23=(NX23,NY23,NZ23),N34=(NX34,NY34,NZ34),N41=(NX41,NY41,NZ41)と表すことができる。
次に、照明情報生成処理部35は向かい合った面同士の法線(面Opの法線N12、面Opの法線N34、面Opの法線N23、面Opの法線N41)から、外積を計算する。外積は2つの法線方向に対し垂直になり、さらにマーカー座標系の一つの軸を表すベクトルになる。ここで、図12のマーカー座標系を図10に示すマーカー座標系と同様に定義する場合、面OPの法線N12と面OPの法線N34の外積V=N12×N34はワールド座標系において、マーカー座標系のX軸を表すベクトルになる。また、面OPの法線N23と面OPの法線N41の外積V=N23×N41はワールド座標系において、マーカー座標系のY軸を表すベクトルになる。さらに、照明情報生成処理部35で計算した2つの外積から外積V=V×Vを計算する。計算された外積Vはワールド座標系において、マーカー座標系のZ軸を表すベクトルになる。
ベクトルV,V,Vは、3×1のサイズであって、これらのベクトルを横に並べて組み合わせた式(14)に示す3×3の行列[V]は座標変換行列の回転行列Rになる。
Figure 0006674192
次に、移動行列Tの計算について説明する。照明情報生成処理部35は、式(9)に示す座標変換行列式を用いて座標変換行列の残りの移動行列Tを計算する。マーカー座標系におけるマーカーの4つの頂点の座標P (i=1,2,3,4)は、それぞれP =(−sz,sz,0)、P =(sz,sz,0)、P =(sz,−sz,0)、P =(−sz,−sz,0)になる。なお、上述のように、マーカー座標系における「sz」は、マーカーの縦幅および横幅の「1/2」のサイズを示している。
ワールド座標系におけるマーカーの各頂点のX座標値Pxi とY座標値PYi は、ワールド座標系におけるマーカーの各頂点のZ座標値Pzi 、および二次元画像上の位置(u,v)を用いて、下記の式(15)〜(18)のように表せる。なお、式(15)〜(18)において「f」は撮像部311の焦点距離である。
Figure 0006674192
マーカーの各頂点のマーカー座標系における座標とワールド座標系における座標を式(3)に代入することで、下記の式(19)から(22)を得ることができる。
Figure 0006674192
4つの座標変換行列式では、マーカーの4つの頂点のワールド座標系におけるZ座標Pzi と移動行列(T11,T12,T13で、合わせて7つの未知数がある。また、一つの座標変換行列式は3つの方程式があり、4つの座標変換行列式では合計12の方程式があることから、これらの方程式を用いて7つの未知数を算出することで、照明情報生成処理部35は座標変換行列の移動行列Tを算出する。
ここで、回転行列Rと移動行列Tについてマーカーの三次元情報との関係を説明する。ワールド座標系において、マーカーの三次元情報の三次元位置で表すマーカーの中心の座標値(Px0 ,Py0 ,Pz0 )は、移動行列T=(T11,T12,T13)と同様で、(Px0 ,Py0 ,Pz0 )=(T11,T12,T13)である。回転方向は、回転行列R=(R11,R12,R13;R21,R22,R23;R31,R32,R33)と同様となる。または、照明情報生成処理部35は、3×3の回転行列RからX軸、Y軸、Z軸周りのXYZオイラー角度R=(R,R,R)に変形した回転方向になる。
照明情報生成処理部35は、以上のような処理を行うことにより得たマーカーの三次元情報を照明情報に変換する。マーカーの三次元情報と照明情報の対応関係は予め設定されていて、照明情報生成処理部35は、対応関係に基づいてマーカーの三次元情報から照明情報への変換を行う。図13は、マーカーの実空間における三次元情報とコンピュータグラフィクスのワールド座標系における照明情報との対応関係を説明するための図である。実空間のワールド座標系におけるマーカーのX軸周りの回転角度は、コンピュータグラフィクスのワールド座標系における照明のX軸周りの回転角度と対応している。また、実空間のワールド座標系におけるマーカーのY軸周りの回転角度は、コンピュータグラフィクスのワールド座標系における照明のY軸周りの回転角度と対応している。さらに、実空間のワールド座標系におけるマーカーのZ軸周りの回転角度は、コンピュータグラフィクスのワールド座標系における照明の強度と対応している。マーカーの三次元情報から照明情報への変換方法は、コンピュータグラフィクスのワールド座標系の定義によって異なる。例えばコンピュータグラフィクスのワールド座標系が、図3に示すようにリライティングする被写体の中心を原点にする場合、照明の三次元座標(x’,y’,z’)はマーカーの実空間の三次元座標の座標値(Pxo ,Py0 ,Pz0 )のK倍になる、すなわち(x’,y’,z’)=(KPxo ,KPy0 ,KPz0 )となる。なお「K」は、実空間のワールド座標系とコンピュータグラフィクスのワールド座標系のスケール関係を示しており、予め所定の値またはユーザによって変更可能に設定されている。
ここで、コンピュータグラフィクスのワールド座標系は、リライティングする被写体の中心を原点として、かつコンピュータグラフィクスのワールド座標系と実空間のワールド座標系が同じ左手系の座標系であるとする。この場合、マーカーの実空間におけるX,Y軸周りの回転方向はそのまま照明の向きのX,Y軸周りの回転方向となる。また、コンピュータグラフィクスのワールド座標系の原点がリライティングする被写体の中心ではない場合、リライティングする被写体のコンピュータグラフィクスのワールド座標系における三次元座標と回転方向を考慮して、マーカーの三次元座標と回転方向から、照明のコンピュータグラフィクスのワールド座標系における三次元座標と回転方向へ変換する必要がある。例えば、コンピュータグラフィクスのワールド座標系において、リライティングする被写体の中心の三次元位置と回転角度をそれぞれTobjectとRobjectとする。この場合、照明のコンピュータグラフィクスのワールド座標系における三次元座標T’と回転方向R’は式(23)のように変換される。
Figure 0006674192
照明の強度変化に関しては、例えばマーカーの実空間のZ軸周りの回転方向が時計回りの方向であるときには強度を強くして、逆時計回りの方向であるときは強度を弱くする。
図14は、第1の実施の形態の動作を示すフローチャートである。ステップST1で照明情報取得部30は、実空間情報の検出を行う。照明情報取得部30は、仮想照明体が置かれる実空間の情報を検出する。
図15は、実空間情報の検出動作を示すフローチャートである。ステップST11で照明情報取得部30は、マーカーを撮像する。照明情報取得部30は、仮想照明体であるマーカーを撮像してステップST12に進む。
ステップST12で照明情報取得部30は、マーカー領域の画像を検出する。照明情報取得部30は、ステップST11で生成された撮像画像に対して、上述のように二値化画像を生成する処理やマーカーに対応する領域例えば所定の割合の枠領域を含む四角形の被写体領域の画像を検出する処理等を行う。照明情報取得部30は、このような処理を行うことでマーカー領域の画像を検出する。
図14に戻り、ステップST2で照明情報取得部30は、参照特徴量を取得する。照明情報取得部30は、予めマーカー毎に生成されて記憶されているパターンファイルである参照特徴量をメモリ等から取得してステップST3に進む。なお、参照特徴量は、マーカー毎にマーカーのパターン領域を所定の解像度で分割して、分割領域毎の画像を数値化したパターンファイルである。
ステップST3で照明情報取得部30は、仮想照明体の認識処理を行う。照明情報取得部30は、ステップST1で検出されたマーカー領域の画像から枠領域の画像を除いたパターン領域の画像を、参照特徴量の算出時と等しい解像度で分割して分割領域毎の画像を数値化して特徴量であるパターンファイルを生成する。照明情報取得部30は、この特徴量(パターンファイル)とステップST2で取得した参照特徴量(パターンファイル)を照合して、検出したマーカーに最も類似した参照特徴量のマーカーを判別する。照明情報取得部30は、検出したマーカーに最も類似した参照特徴量のマーカーを仮想照明体と認識してステップST4に進む。
ステップST4で照明情報取得部30は、三次元情報の推定を行う。照明情報取得部30は、仮想照明体の実空間における三次元情報を推定する。
図16は、三次元情報の推定動作を示すフローチャートである。ステップST21で照明情報取得部30は、視点とマーカーの辺で面を構成する。照明情報取得部30は、図12を用いて説明したように、視点Oと二次元画像のマーカーの辺と三次元のマーカーの辺を繋ぐ面を構成してステップST22に進む。
ステップST22で照明情報取得部30は、各面の法線を算出する。照明情報取得部30は、ステップST21で構成された面毎に法線を算出してステップST23に進む。
ステップST23で照明情報取得部30は、向かい合った面の法線から外積を算出する。照明情報取得部30は、向かい合った面の法線から外積を算出することで、例えば上述のようにマーカー座標系のX軸を表すベクトルとY軸を表すベクトルを取得してステップST24に進む。
ステップST24で照明情報取得部30は、外積同士から外積を算出する。照明情報取得部30は、向かい合った面の法線から算出した外積同士の外積を算出することで、例えば上述のようにマーカー座標系のZ軸を表すベクトルを取得してステップST25に進む。なお、ステップST21からステップST24の処理は、座標変換行列の回転行列Rの推定に相当する。
ステップST25で照明情報取得部30は、座標変換行列式を用いて行列の残り値を算出する。照明情報取得部30は、上述した移動行列Tの計算と同様にして、行列の残り値を算出することで三次元情報を推定する。
図14に戻り、ステップST5で照明情報取得部30は、三次元情報を照明情報に変換する。照明情報取得部30は、マーカーの三次元情報と照明情報の対応関係を予め設定して、ステップST4で推定した三次元情報を画像生成部50で用いる照明情報に変換する。
ところで、上述の実施の形態では、1種類のマーカーを利用して、照明情報の照明位置(三次元座標)と照明方向および照明強度を設定する場合について説明しており、照明の種類の変更は行われていない。そこで、照明の種類の変更する場合には、照明の種類に対応したマーカーを用いて照明情報の生成を行えばよい。例えばマーカーAを白い点光源の照明、マーカーBを黄色の平面光源の照明にそれぞれ予め設定する。ここで、照明情報生成処理部35で、マーカーAを認識した場合には、白い点光源が照明として用いられているとして照明情報を生成する。また、マーカーAとマーカーBを認識した場合には、白い点光源と黄色の平面光源が照明として用いられているとして照明情報を生成する。
なお、マーカー等を用いる場合、マーカーがテーブルの上に置かれるとマーカーはX軸周りの回転とY軸周りの回転ができない。しかし、図17に示すように、テーブル上に本やコップ等を積み上げて、仮想照明体60をコップにもたれるようにすることで、マーカーを自在に移動や回転させることが可能となる。また、マーカーを印刷している紙が立てられない場合は、例えば硬い板などに貼り付けてからコップなどにもたれるようにしてもよい。また、マーカーが貼り付けられた板を、ユーザが所望の位置となるように把持してもよく、三脚等を用いて所望の位置に保持させてもよい。
また、照明情報取得部30における実空間情報取得部31の構成は、仮想照明体の種類により異なる構成としてもよい。仮想照明体として平面状のマーカーを用いる場合、実空間の情報としてマーカーの撮像画像を取得すれば、上述のような処理を行うことで、実空間におけるマーカーの三次元位置や向き等に応じて照明情報を生成できる。しかし、仮想照明体が図7の(D)に示すおもちゃの場合、マーカーの場合と同様な処理で実空間におけるおもちゃの三次元位置や向き等を判別することは困難である。そこで、仮想照明体が三次元形状において特徴を有する場合、実空間情報取得部31は、例えばデプス取得部と特徴点検出部を用いた構成とする。デプス取得部は、三次元情報を取得する撮像部、例えばステレオカメラや多視点カメラ、TOF(Time-of-Flight)法を用いた画像センサ、ストラクチャードライト(structured light)法を用いた3Dスキャナ等を用いて構成する。デプス取得部は、三次元情報を取得する撮像部を用いて、実空間における仮想照明体のデプスマップを生成する。特徴点検出部は、実空間の画像から実空間における仮想照明体の特徴点を検出する。このように実空間情報取得部31を構成した場合、照明情報生成処理部35が適用する手法も、実空間情報取得部31の構成に応じて異なる手法とする。例えば、照明情報生成処理部35は、実空間情報取得部31の特徴点検出部から得られた実空間における仮想照明体の特徴点と予め記憶されている仮想照明体の特徴点を用いて特徴点マッチングを行い、実空間の画像から仮想照明体を認識する。その後、照明情報生成処理部35は、認識した仮想照明体とデプスマップから実空間における仮想照明体の三次元位置や向き等を検出して、検出結果に基づき照明情報を生成する。
以上の第1の実施の形態によれば、実空間内の仮想照明体に基づいて照明情報が取得されて、この照明情報と被写体の照明に関連する被写体情報から、照明情報に基づいた照明環境下における被写体の画像が生成される。このように、実空間内の仮想照明体に基づいて照明情報が取得されるので、仮想照明体すなわち照明器具と見なした物体の位置や向き等によって直感的に照明位置や照明方向等を把握できる。したがって、所望の照明環境下の被写体画像を生成する場合に照明環境の設定を容易に行うことができる。
<3.照明情報取得部の第2の実施の形態>
ところで、第1の実施の形態では、予め参照特徴量が記憶されている物体を仮想照明体として用いる場合について説明したが、第2の実施の形態では、任意の物体を仮想照明体として用いる場合について説明する。
第2の実施の形態では、仮想照明体とする被写体を用いて学習を行い、学習結果を示す特徴量をメモリ等に記憶させる。また、メモリ等に記憶された特徴量を用いて仮想照明体を認識する。
図18は、照明情報取得部の第2の実施の形態の構成を例示している。照明情報取得部30は、実空間情報取得部31、仮想照明体学習部33、特徴量記憶部34および照明情報生成処理部35を有している。
実空間情報取得部31は、仮想照明体が置かれる実空間の情報を取得して照明情報生成処理部35に出力する。
仮想照明体学習部33は、仮想照明体として用いる物体について特徴量を算出して、算出した特徴量を特徴量記憶部34に記憶させる。なお、特徴量記憶部34には、予め設定した仮想照明体に関する特徴量が記憶されていてもよい。
照明情報生成処理部35は、特徴量記憶部34に記憶されている特徴量に基づき、実空間情報取得部31が取得した実空間情報から仮想照明体を検出して、検出した仮想照明体の照明情報を画像生成部50に出力する。
以下、学習に用いる仮想照明体としてマーカーを用いる場合について説明する。学習に用いるマーカーは、例えば図19に示すように所定サイズ(2sz×2sz)の正方形として、幅が「sz(例えばsz=40mm)」の黒枠を設ける。また、黒枠内をパターン領域として、パターン領域にアルファベットや文字や図等を記載することでマーカーを作成する。
仮想照明体学習部33は、マーカーの撮像画像から特徴量例えばパターンファイルを作成する。図20は、学習動作を説明するための図である。仮想照明体学習部33は、作成したマーカーの撮像画像を取得する。図20の(A)は撮像画像を例示している。仮想照明体学習部33は、取得した撮像画像のマーカーが、正面から撮像した場合の形状となるように射影変換を行い、図20の(B)に示すように、マーカーの正対画像を作成する。仮想照明体学習部33は、正対画像から枠領域を削除して、パターン領域の画像を抽出する。図20の(C)は、パターン領域の画像を例示している。仮想照明体学習部33は、パターン領域の画像を所定の解像度で分割する。図20の(D)は、8×8のブロックにパターン領域の画像を分割する場合を例示している。さらに、仮想照明体学習部33は、ブロック毎に画像を数値化してパターンファイルを生成する。なお、図20の(E)は、パターンデータを例示している。
次に、正対画像の作成について説明する。撮像画像の二次元画像座標系は、図11に示すように定義されている。仮想照明体学習部33は、撮像画像から正方形状のマーカーの四隅の点の座標を取得する。ここで、四隅の点の座標を例えば(u,v),(u,v),(u,v),(u,v)とする。また、マーカーの四辺の一番短い辺の長さを「l」に定義して、座標を取得した四隅の点が、大きさ「l」の正方形の四隅の点に射影変換されるようなホモグラフィ行列を求める。なお、マーカーの四隅の点の射影変換後の座標はそれぞれ(−l/2,l/2),(l/2,l/2),(l/2,−l/2),(−l/2,−l/2)になる。
ホモグラフィ行列は、上述の式(7)に示すように3×3のマトリックスとする。
マーカーの各点を撮像画像から正対画像に射影変換する式は、ホモグラフィ行列を用いることで式(24)〜(27)となる。この際、h33=1になっている。
Figure 0006674192
仮想照明体学習部33は、式(24)〜(27)の12の方程式からホモグラフィ行列の8つの変数を算出して、この算出したホモグラフィ行列を用いて、撮像画像の射影変換を行い、射影変換後の画像からマーカーの画像を抽出することで、正対画像を作成する。
図21は、第2の実施の形態の動作を示すフローチャートである。ステップST31で照明情報取得部30は、マーカーの撮像画像を取得する。照明情報取得部30は、仮想照明体として用いるマーカーの撮像画像を取得してステップST32に進む。
ステップST32で照明情報取得部30は、パターン領域の画像を抽出する。照明情報取得部30は、取得した撮像画像のマーカーが、正面から撮像した場合の形状となるように射影変換を行い、射影変換後の正対画像から、枠領域を削除してパターン領域の画像を抽出してステップST33に進む。
ステップST33で照明情報取得部30は、特徴量を作成する。照明情報取得部30は、抽出したパターン領域の画像を所定の解像度で分割して、分割領域毎に画像を数値化することで、特徴量であるパターンデータを作成してステップST34に進む。
ステップST34で照明情報取得部30は、参照特徴量として記憶する。照明情報取得部30は、作成した特徴量を後述する照合で利用できるように参照特徴量としてメモリ等に記憶させてステップST41に進む。
ステップST41からステップST45までの処理は第1の実施の形態におけるステップST1からステップST5までの処理と同様である。
ステップST41で照明情報取得部30は、実空間情報を検出する。照明情報取得部30は、照明情報取得部30は、照明情報取得部30は、仮想照明体が置かれる実空間の情報を検出してステップST42に進む。
ステップST42で照明情報取得部30は、参照特徴量を取得する。照明情報取得部30は、ステップST34で記憶した参照特徴量をメモリから読み出してステップST43に進む。
ステップST43で照明情報取得部30は、仮想照明体の認識処理を行う。照明情報取得部30は、ステップST41で検出されたマーカー領域におけるパターン画像の特徴量とステップST42で取得した参照特徴量を照合して、最も類似した参照特徴量のマーカーを判別する。照明情報取得部30は、最も類似した参照特徴量のマーカーを仮想照明体と認識してステップST44に進む。
ステップST44で照明情報取得部30は、三次元情報の推定を行う。照明情報取得部30は、仮想照明体の実空間における三次元情報を推定してステップST45に進む。
ステップST45で照明情報取得部30は、三次元情報を照明情報に変換する。照明情報取得部30は、マーカーの三次元情報と照明情報の対応関係を予め設定して、ステップST44で推定した三次元情報を画像生成部50で用いる照明情報に変換する。
このような第2の実施の形態によれば、第1の実施の形態と同様に、実空間内の仮想照明体に基づいて照明情報が取得されるので、仮想照明体すなわち照明器具と見なした物体の位置や向き等によって直感的に照明位置や照明方向等を把握できる。したがって、所望の照明環境下の被写体画像を生成する場合に照明環境の設定を容易に行うことができる。
また、第2の実施の形態では、学習によって任意の物体を仮想照明体として利用することが可能となる。したがって、予め指定されているマーカー等を仮想照明体として用いる第1の実施の形態に比べて、照明環境の設定における自由度を高めることができる。
<4.照明情報取得部の第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態では、第2の実施の形態のように仮想照明体とする被写体を用いた学習を行わなくとも、ユーザが仮想照明体を例えば画面上で指定することで、照明情報を取得できるようにする。
図22は、照明情報取得部の第3の実施の形態の構成を例示している。照明情報取得部30は、実空間情報取得部31a、照明情報生成処理部35および仮想照明体指定操作部38を有している。
実空間情報取得部31aは、被写体が設けられている実空間情報を取得して照明情報生成処理部35と仮想照明体指定操作部38に出力する。実空間情報取得部31aは、撮像部を有しており、被写体が設けられている実空間の撮像画像を実空間情報として仮想照明体検出部312に出力する。
仮想照明体指定操作部38は、実空間の情報をユーザに提示する機能とユーザ操作を受け付ける機能を有している。例えば仮想照明体指定操作部38は、表示部の画面上にタッチパネルを設けた構成、または表示部と表示部の画面上の位置をカーソル等で指定可能とする操作部を用いた構成とされている。仮想照明体指定操作部38は、実空間の情報を表示部に表示して、表示された情報に応じてユーザが行った仮想照明体の指定操作に応じた操作信号を生成して照明情報生成処理部35に出力する。
照明情報生成処理部35は、実空間情報取得部31が取得した実空間の情報と仮想照明体指定操作部38からの操作信号に基づき仮想照明体を決定して、決定した仮想照明体に応じた照明情報を生成して画像生成部50に出力する。
なお、仮想照明体の指定操作は、例えば四角形状である被写体の領域を指定して、この指定された領域を仮想照明体の領域としてもよく、ユーザが指定した被写体例えば四角形状である被写体や人物の顔等を仮想照明体としてもよい。
図23は、第3の実施の形態の動作を示すフローチャートである。ステップST51で照明情報取得部30は、実空間情報を取得する。照明情報取得部30は、例えば被写体が設けられている実空間の撮像画像を実空間の情報として取得してステップST52に進む。
ステップST52で照明情報取得部30は、仮想照明体を決定する。照明情報取得部30は、取得されている実空間情報である撮像画像をユーザに提示する。また、照明情報取得部30は、提示された撮像画像に対してユーザが行った仮想照明体の指定操作に基づき仮想照明体を決定してステップST53に進む。
ステップST53で照明情報取得部30は、三次元情報の推定を行う。照明情報取得部30は、撮像画像における仮想照明体の位置に基づき、仮想照明体の実空間における三次元情報を推定してステップST54に進む。
ステップST54で照明情報取得部30は、三次元情報を照明情報に変換する。照明情報取得部30は、仮想照明体の三次元情報と照明情報の対応関係を予め設定して、ステップST54で推定した三次元情報を画像生成部50で用いる照明情報に変換する。
このように、第3の実施の形態によれば、照明情報取得部は、仮想照明体が置かれる実空間の情報を取得して提示し、提示した情報からユーザが仮想照明体として指定した実空間の情報に基づき照明情報を生成する。したがって、第2の実施の形態と同様に、実空間内の仮想照明体に基づいて照明情報が生成されるので、仮想照明体すなわち照明器具と見なした物体や人物の顔等の位置や向きによって直感的に照明位置や照明方向等を把握できる。このため、所望の照明環境下の被写体画像を生成する場合に照明環境の設定を容易に行うことができる。
さらに、第3の実施の形態では、ユーザが仮想照明体を指定するため、予め仮想照明体の特徴量の保存や仮想照明体の学習が不要になる。したがって、予め指定されているマーカー等を仮想照明体として用いる第1の実施の形態、及び学習されているマーカー等を仮想照明体として用いる第2の実施の形態に比べて、照明環境の設定における便利性を高めることができる。
<5.照明情報取得部の第4の実施の形態>
次に、第4の実施の形態では、三次元情報の生成が可能な機器を仮想照明体として用いることで、照明情報を生成する場合について説明する。
第4の実施の形態における仮想照明体としては、三次元情報等の生成および画像処理装置との通信を行う機能を有した電子機器を用いる。画像処理装置と電子機器との通信は、有線または無線のいずれであってもよい。以下、三次元情報等の生成および画像処理装置との通信を行う機能を有した電子機器として、例えばスマートフォン等の携帯通信端末を用いた場合について説明する。
図24は、仮想照明体(例えばスマートフォンを用いた場合)の構成を例示している。仮想照明体60は、通信部61、音声入出力部62、記憶部63、記録再生部64、電源部65、計時部66、表示部67、操作入力部68、センサ部69、位置情報取得部70、制御部75を有している。また、仮想照明体60には、記録媒体77が着脱可能に設けられている。
通信部61は、制御部75による制御にしたがい外部機器と例えば無線通信を行う。通信部61は、無線通信において、近距離無線通信例えばBluetooth(登録商標)、無線LAN、赤外線通信等の少なくともいずれかの通信規格に対応した通信を行う。また、仮想照明体がスマートフォンである場合、セルラーフォンの通信規格に対応した通信を行う。
音声入出力部62は、スピーカおよびマイクロフォンを用いて構成されている。音声入出力部62は、通信部61を介して行われる音声通話の音声入出力を行う。また、音声入出力部62は、記憶部63や記録媒体77に記録されている音楽コンテンツや動画コンテンツの再生音を出力する。
記憶部63は、RAM(Random Access Memory)およびROM(Read Only Memory)などの記録媒体である。RAMは、例えば制御部75の作業領域として利用される。また、ROMには、例えば制御部75で種々の制御を実行するためのプログラム等が記憶されている。また、ROMやRAMには、制御部75で種々の制御を行うために用いられる制御情報等が記憶される。さらにRAMには、音楽コンテンツや動画コンテンツ、各種アプリケーションのプログラム、メール情報等も記録可能とされている。
記録再生部64は、記録媒体77を用いて、各種情報の記録および記録された情報の読み出しを行う。記録再生部64は、例えば音楽コンテンツや動画コンテンツ、撮像画像、メール情報、無線通信で用いる他者のアドレス情報等を記録媒体77に記録する。また、記録再生部64は記録媒体77に記録されている種々の情報の読み出しを行う。
電源部65は、バッテリおよび電源回路で構成されている。電源部65は仮想照明体60の各部へ電力供給を行う。
表示部67は、液晶ディスプレイや有機ELディスプレイなどの表示素子を用いて構成されている。表示部67は制御部75の制御により、GUI(Graphical User Interface)画面、アプリケーションの動作に応じた文字や画像等を表示する。
操作入力部68は、操作スイッチやタッチパネルを用いて構成されている。タッチパネルは、表示部67の表示画面上に設けられており、表示画面の表示に応じて機能が割り当てられる構成とされている。操作入力部68は、ユーザ操作に応じた操作信号を生成して制御部75へ出力する。
センサ部69は、加速度センサやジャイロセンサを用いて構成されている。センサ部69は、仮想照明体60の平行移動や回転に応じたセンサ信号を生成して制御部75に出力する。
位置情報取得部70は、測位信号例えば全地球測位システム(GPS:Global Positioning System)の測位信号を受信して、仮想照明体60の現在位置を示す情報を生成して制御部75に出力する。
制御部75は、記憶部63に記録されているプログラムを実行して、操作入力部68から供給された操作信号や記憶部63に記憶されている制御情報等に基づいて制御信号を生成する。制御部75は、生成した制御信号を各部へ出力して、ユーザ操作に応じた動作が仮想照明体60で行われるように、通信制御、表示制御、記録再生制御等を行う。また、制御部75は、通信部61を制御して、画像処理装置10と無線通信を行う。さらに、制御部75は、画像処理装置10との通信に基づき所定のアプリケーションプログラムを起動させる処理、プログラムの起動後に、操作信号に基づき制御信号を生成する処理等を行う。また、制御部75は、センサ部69からのセンサ信号やユーザ操作に基づき、三次元情報やユーザ設定の情報を含む照明設定通信情報を生成して画像処理装置10へ送信する処理等を行う。
ここで、図25を用いて仮想照明体60における三次元情報の生成について説明する。仮想照明体60のセンサ部69は、仮想照明体60の図25の(A)に示すようなX軸方向(±X方向)の移動、Y軸方向(±Y方向)の移動、Z軸方向(±Z方向)の移動を例えば加速度センサで検出して、検出結果を制御部75に出力する。また、センサ部69は、図25の(B)に示す仮想照明体60のX方向を軸とした回転(±Xr回転方向)、Y方向を軸とした回転(±Yr回転方向)の移動、Z方向を軸とした回転(±Zr回転方向)の移動を例えばジャイロセンサで検出する。センサ部69は、検出結果を制御部75に出力する。制御部75は、センサ部69からのセンサ信号に基づき移動後の位置や仮想照明体60の向きを示す三次元情報を生成する。仮想照明体60は、例えば三次元情報の生成を開始した時の位置および姿勢を初期状態として、この初期状態からの移動位置や姿勢変化を三次元情報で判別可能とする。このようにすれば、初期状態の位置および姿勢を、画像生成時における照明の所定の位置および照明方向とすることで、初期状態から仮想照明体60を移動させることで、画像生成時における照明の位置を所定位置から移動させることが可能となる。また、初期状態から仮想照明体60の姿勢を変化させることで、画像生成時における照明方向を所定の方向から新たな方向に変更することが可能となる。
また、仮想照明体60は、照明の強度や種類を設定するための照明設定画面を表示部67に表示して、操作入力部68におけるユーザ操作に応じて照明の強度や種類を設定する。図26は、照明設定画面を例示しており、照明の強度はユーザがスライダーを移動することで調整可能とされている。また、照明の種類は、例えば予め作成した点光源や面光源等の種類毎のプリセットボタンをユーザが選択することで照明の種類が指定可能とされている。制御部75は、照明設定画面に対するユーザ操作に応じて設定された照明の強度情報や種類情報をユーザ設定の情報とする。なお、制御部75は、ユーザ設定の情報として予め設定されている強度情報や種類情報を用いてもよい。
図27は、照明情報取得部の第4の実施の形態の構成を例示している。照明情報取得部30は、通信部36とデータ処理部37を有している。
通信部36は、仮想照明体60から送信された通信信号を受信して得られた受信データをデータ処理部37に出力する。データ処理部37は、受信データを通信規格に応じてデコードする。
データ処理部37は、受信データで示された仮想照明体の位置や姿勢およびその変化に基づいて照明情報を生成して画像生成部50に出力する。データ処理部37は、例えば受信データに含まれている照明設定通信情報で示された仮想照明体の位置や姿勢およびその変化に基づいて、リライティング処理における照明の位置や方向,強度を設定する照明情報を生成する。また、データ処理部37は、例えば照明設定通信情報で示された仮想照明体におけるユーザ設定に基づき、例えばリライティング処理における照明の強度と種類を設定する照明情報を生成する。
図28は、第4の実施の形態の動作を示すフローチャートである。ステップST61で照明情報取得部30は、通信信号を受信する。照明情報取得部30は、仮想照明体からの通信信号を受信してステップST62に進む。
ステップST62で照明情報取得部30は、照明設定通信情報を抽出する。照明情報取得部30は、通信信号を受信して得られた受信データから、仮想照明体の三次元位置や向き、照明の強度や種類を示す情報が含まれた照明設定通信情報を抽出してステップST63に進む。
ステップST63で照明情報取得部30は、照明設定通信情報に基づき照明情報を生成する。照明情報取得部30は、照明設定通信情報によって示された仮想照明体の位置や姿勢を、例えばリライティング処理における照明の三次元位置と向きに対応させて照明情報を生成する。また、照明情報取得部30は、照明設定通信情報によって示された照明の強度や種類を、例えばリライティング処理で用いる照明の強度と種類に対応させて照明情報を生成する。
このような第4の実施の形態によれば、第1の実施の形態と同様に、実空間内の仮想照明体に基づいて照明情報が取得されるので、仮想照明体すなわち照明器具と見なした物体の位置や向き等によって直感的に照明位置や照明方向等を把握できる。したがって、所望の照明環境下の被写体画像を生成する場合に照明環境の設定を容易に行うことができる。
また、第4の実施の形態では、仮想照明体から三次元情報等が画像処理装置に供給されて、画像処理装置では、仮想照明体から供給された三次元情報等に基づき照明の位置や向き等が設定される。したがって、仮想照明体を撮像した画像から仮想照明体の三次元情報等を取得する第1の実施の形態や第2の実施の形態に比べて、照明環境を設定するための照明情報の生成を容易に行うことができる。
なお、上述の実施の形態では、リライティング画像の生成に用いる照明情報を生成する場合について説明したが、上述の実施の形態のように生成した照明情報を用いてコンピュータグラフィクスにおける照明の設定を行うようにしてもよい。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
また、本技術の画像処理装置は以下のような構成も取ることができる。
(1) 被写体の照明に関連する被写体情報と、実空間内の仮想照明体に基づいて取得した照明情報とから、前記照明情報に基づいた照明環境下における前記被写体の画像を生成する画像生成部を
備える画像処理装置。
(2) 前記実空間内の仮想照明体に基づいて前記照明情報を取得する照明情報取得部をさらに備える(1)に記載の画像処理装置。
(3) 前記照明情報取得部は、前記実空間における前記仮想照明体の三次元情報に基づいて前記照明情報を取得する(2)に記載の画像処理装置。
(4) 前記照明情報取得部は、
前記仮想照明体が置かれる実空間の情報を取得する実空間情報取得部と、
前記仮想照明体の特徴量を記憶した特徴量記憶部と、
前記特徴量記憶部に記憶されている特徴量と前記実空間情報取得部が取得した前記実空間の情報に基づき前記仮想照明体を判別して、判別した前記仮想照明体の実空間の情報に基づき照明情報を生成する照明情報生成処理部と
を有する(2)または(3)に記載の画像処理装置。
(5) 前記照明情報取得部は、
前記仮想照明体が置かれる実空間の情報を取得する実空間情報取得部と、
前記仮想照明体の特徴量を学習する仮想照明体学習部と、
前記仮想照明体学習部で学習された前記特徴量を記憶する特徴量記憶部と、
前記特徴量記憶部に記憶されている特徴量と前記実空間情報取得部が取得した前記実空間の情報に基づき前記仮想照明体を判別して、判別した前記仮想照明体の実空間の情報に基づき照明情報を生成する照明情報生成処理部と
を有する(2)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記照明情報取得部は、撮像部から前記実空間内の仮想照明体の三次元情報を取得する(2)乃至(5)のいずれかに記載の画像処理装置。
(7) 前記照明情報取得部は、前記仮想照明体が置かれる実空間の情報を取得して提示した情報から、ユーザが前記仮想照明体として指定した実空間の情報に基づき、前記照明情報を生成する照明情報生成処理部を有する(2)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記照明情報取得部は、
前記仮想照明体との通信を行う通信部と、
前記通信部で前記仮想照明体からの通信信号を受信して得られた受信データに基づき前記照明情報を生成するデータ処理部とを有する(2)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記データ処理部は、前記受信データで示された前記仮想照明体の位置や姿勢およびその変化に基づいて前記照明情報を生成する(8)に記載の画像処理装置。
(10) 前記データ処理部は、前記受信データで示された前記仮想照明体の位置や姿勢およびその変化に基づいて照明の位置や方向,強度を設定する前記照明情報を生成する(9)に記載の画像処理装置。
(11) 前記データ処理部は、前記仮想照明体におけるユーザ設定に基づいて、照明の強度や種類を設定する前記照明情報を生成する(9)に記載の画像処理装置。
(12) 前記照明情報は、照明の三次元位置と照明方向および照明強度と種類の少なくともいずれかの情報を含む(1)乃至(11)のいずれかに記載の画像処理装置。
(13) 前記仮想照明体は、認識できる任意な物体である(1)乃至(12)のいずれかに記載の画像処理装置。
(14) 前記認識できる任意な物体は、平面に矩形状の枠領域を設けて、前記枠領域内に所定のパターンを描画したマーカーである(13)に記載の画像処理装置。
(15) 撮像画像から前記被写体の照明に関連する被写体情報を取得する被写体情報取得部をさらに備える(1)乃至(14)のいずれかに記載の画像処理装置。
この技術の画像処理装置と画像処理方法では、実空間内の仮想照明体に基づいて照明情報が取得されて、この照明情報と被写体の照明に関連する被写体情報から、照明情報に基づいた照明環境下における被写体の画像が生成される。このため、所望の照明環境下での被写体画像の生成における照明環境の設定を、実空間内に設けた仮想照明体の位置や向き等を利用して容易に行えるようになる。したがって、新たな照明環境下で被写体を撮像した場合に相当するリライティング画像を生成する機能を有した機器に適している。
10・・・画像処理装置
20・・・被写体情報取得部
25・・・被写体情報記憶部
30・・・照明情報取得部
31・・・実空間情報取得部
32,34・・・特徴量記憶部
33・・・仮想照明体学習部
35・・・照明情報生成処理部
36・・・通信部
37・・・データ処理部
38・・・仮想照明体指定操作部
50・・・画像生成部
60・・・仮想照明体
311・・・撮像部
312・・・仮想照明体検出部

Claims (14)

  1. 被写体の照明に関連する被写体情報と、照明体の代替物として実空間内に設けた仮想照明体の種類と前記実空間内における三次元情報によって示される前記仮想照明体の位置や姿勢およびその変化に基づいて、照明の位置や方向,強度,種類を設定する照明情報とから、前記照明情報に基づいた照明環境下における前記被写体の画像を生成する画像生成部を備える
    画像処理装置。
  2. 前記実空間内の仮想照明体に基づいて前記照明情報を取得する照明情報取得部をさらに備える
    請求項1に記載の画像処理装置。
  3. 前記照明情報取得部は、
    前記仮想照明体が置かれる実空間の情報を取得する実空間情報取得部と、
    前記仮想照明体の特徴量を記憶した特徴量記憶部と、
    前記特徴量記憶部に記憶されている特徴量と前記実空間情報取得部が取得した前記実空間の情報に基づき前記仮想照明体を判別して、判別した前記仮想照明体の実空間の情報に基づき照明情報を生成する照明情報生成処理部とを有する
    請求項2に記載の画像処理装置。
  4. 前記照明情報取得部は、
    前記仮想照明体が置かれる実空間の情報を取得する実空間情報取得部と、
    前記仮想照明体の特徴量を学習する仮想照明体学習部と、
    前記仮想照明体学習部で学習された前記特徴量を記憶する特徴量記憶部と、
    前記特徴量記憶部に記憶されている特徴量と前記実空間情報取得部が取得した前記実空間の情報に基づき前記仮想照明体を判別して、判別した前記仮想照明体の実空間の情報に基づき照明情報を生成する照明情報生成処理部とを有する
    請求項2に記載の画像処理装置。
  5. 前記照明情報取得部は、撮像部から前記実空間内の仮想被写体の三次元情報を取得する請求項2に記載の画像処理装置。
  6. 前記照明情報取得部は、前記仮想照明体が置かれる実空間の情報を取得して提示した情報から、ユーザが前記仮想照明体として指定した実空間の情報に基づいて前記仮想照明体を決定して、決定した前記仮想照明体に基づいて前記照明情報を生成する照明情報生成処理部を有する
    請求項2に記載の画像処理装置。
  7. 前記照明情報取得部は、
    前記仮想照明体との通信を行う通信部と、
    前記通信部で前記仮想照明体からの通信信号を受信して得られた受信データに基づき前記照明情報を生成するデータ処理部とを有する
    請求項2に記載の画像処理装置。
  8. 前記データ処理部は、前記受信データで示された前記仮想照明体の位置や姿勢およびその変化に基づいて前記照明情報を生成する
    請求項7に記載の画像処理装置。
  9. 前記データ処理部は、前記仮想照明体におけるユーザ設定に基づいて、照明の強度や種類を設定する前記照明情報を生成する
    請求項8に記載の画像処理装置。
  10. 前記照明情報は、照明の三次元位置と照明方向および照明強度と種類の少なくともいずれかの情報を含む
    請求項1に記載の画像処理装置。
  11. 前記仮想照明体は、認識できる任意な物体である
    請求項1に記載の画像処理装置。
  12. 前記認識できる任意な物体は、平面に矩形状の枠領域を設けて、前記枠領域内に所定のパターンを描画したマーカーである
    請求項に記載の画像処理装置。
  13. 撮像画像から前記被写体の照明に関連する被写体情報を取得する被写体情報取得部をさらに備える
    請求項1に記載の画像処理装置。
  14. 画像生成部で、被写体の照明に関連する被写体情報と、照明体の代替物として実空間内に設けた仮想照明体の種類と前記実空間内における三次元情報によって示される前記仮想照明体の位置や姿勢およびその変化に基づいて、照明の位置や方向,強度,種類を設定する照明情報とから、前記照明情報に基づいた照明環境下における前記被写体の画像を生成する工程を含む画像処理方法。
JP2015005838A 2014-05-28 2015-01-15 画像処理装置と画像処理方法 Expired - Fee Related JP6674192B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015005838A JP6674192B2 (ja) 2014-05-28 2015-01-15 画像処理装置と画像処理方法
PCT/JP2015/002674 WO2015182134A1 (en) 2014-05-28 2015-05-27 Improved setting of virtual illumination environment
US15/115,510 US10204404B2 (en) 2014-05-28 2015-05-27 Image processing device and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014110386 2014-05-28
JP2014110386 2014-05-28
JP2015005838A JP6674192B2 (ja) 2014-05-28 2015-01-15 画像処理装置と画像処理方法

Publications (2)

Publication Number Publication Date
JP2016006627A JP2016006627A (ja) 2016-01-14
JP6674192B2 true JP6674192B2 (ja) 2020-04-01

Family

ID=53404828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015005838A Expired - Fee Related JP6674192B2 (ja) 2014-05-28 2015-01-15 画像処理装置と画像処理方法

Country Status (3)

Country Link
US (1) US10204404B2 (ja)
JP (1) JP6674192B2 (ja)
WO (1) WO2015182134A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6486096B2 (ja) * 2014-12-18 2019-03-20 キヤノン株式会社 プリントデータ生成装置、プリントデータ生成方法およびプログラム
EP3057067B1 (en) * 2015-02-16 2017-08-23 Thomson Licensing Device and method for estimating a glossy part of radiation
JP6727816B2 (ja) * 2016-01-19 2020-07-22 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記憶媒体
JP2017134775A (ja) * 2016-01-29 2017-08-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6700840B2 (ja) * 2016-02-18 2020-05-27 キヤノン株式会社 画像処理装置、撮像装置、制御方法及びプログラム
US10372229B2 (en) * 2016-02-25 2019-08-06 Nec Corporation Information processing system, information processing apparatus, control method, and program
US20180268614A1 (en) * 2017-03-16 2018-09-20 General Electric Company Systems and methods for aligning pmi object on a model
JP2018163648A (ja) * 2017-03-27 2018-10-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019109709A (ja) * 2017-12-18 2019-07-04 株式会社東芝 画像処理装置、画像処理方法およびプログラム
US11240441B2 (en) 2018-03-05 2022-02-01 Omron Corporation Method, device, system and computer-program product for setting lighting condition and storage medium
JP7059076B2 (ja) * 2018-03-30 2022-04-25 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体
CN110567469B (zh) * 2018-06-05 2021-07-20 北京市商汤科技开发有限公司 视觉定位方法、装置、电子设备及系统
EP4083991A4 (en) * 2019-12-23 2023-06-28 Sony Group Corporation Image generation device, image generation method, and image generation program
CN117716396A (zh) * 2021-07-26 2024-03-15 京瓷株式会社 训练模型生成方法、用户环境估计方法、训练模型生成设备、用户环境估计设备和训练模型生成系统
CN114022607B (zh) * 2021-11-19 2023-05-26 腾讯科技(深圳)有限公司 一种数据处理方法、装置以及可读存储介质
JP2023091492A (ja) * 2021-12-20 2023-06-30 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6018350A (en) 1996-10-29 2000-01-25 Real 3D, Inc. Illumination and shadow simulation in a computer graphics/imaging system
JP2004213583A (ja) * 2003-01-09 2004-07-29 Sony Corp 情報処理装置および方法、並びにプログラム
EP1720131B1 (en) * 2005-05-03 2009-04-08 Seac02 S.r.l. An augmented reality system with real marker object identification
JP5123353B2 (ja) * 2010-05-06 2013-01-23 株式会社スクウェア・エニックス リアルタイムシーンを照明し,発見するバーチャルフラッシュライト
JP5984327B2 (ja) * 2010-07-24 2016-09-06 キヤノン株式会社 情報処理方法及びその装置、プログラム
JP2013025762A (ja) * 2011-07-26 2013-02-04 Canon Inc 画像処理装置および画像処理方法、プログラム
JP6021568B2 (ja) 2012-10-02 2016-11-09 任天堂株式会社 画像処理用プログラム、画像処理装置、画像処理システム、および画像処理方法
EP3264246A4 (en) * 2015-02-27 2018-09-05 Sony Corporation Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
US20170011496A1 (en) 2017-01-12
JP2016006627A (ja) 2016-01-14
WO2015182134A1 (en) 2015-12-03
US10204404B2 (en) 2019-02-12

Similar Documents

Publication Publication Date Title
JP6674192B2 (ja) 画像処理装置と画像処理方法
JP7344974B2 (ja) マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム
US9443353B2 (en) Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects
US9659381B2 (en) Real time texture mapping for augmented reality system
JP4032776B2 (ja) 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
KR100953606B1 (ko) 화상 표시 장치, 화상 표시 방법 및 명령 입력 방법
US11100719B2 (en) Method and apparatus for overlaying a reproduction of a real scene with virtual image and audio data, and a mobile device
CN106062862A (zh) 用于沉浸式和交互式多媒体生成的系统和方法
JP5299173B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
CN110926334B (zh) 测量方法、装置、电子设备及存储介质
CN111737547A (zh) 商户信息的获取系统、方法、装置、设备及存储介质
JP5756322B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置および情報処理システム
CN111742281B (zh) 用于针对显示在显示器上的第一内容提供根据外部对象的移动的第二内容的电子装置及其操作方法
US20210255328A1 (en) Methods and systems of a handheld spatially aware mixed-reality projection platform
CN112581571B (zh) 虚拟形象模型的控制方法、装置、电子设备及存储介质
US11582409B2 (en) Visual-inertial tracking using rolling shutter cameras
JPWO2019069575A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN109906600A (zh) 模拟景深
CN112912936A (zh) 混合现实系统、程序、移动终端装置和方法
JP2014029566A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN112308103B (zh) 生成训练样本的方法和装置
CN111640190A (zh) Ar效果的呈现方法、装置、电子设备及存储介质
US12014645B2 (en) Virtual tutorials for musical instruments with finger tracking in augmented reality
CN113412612A (zh) 信息处理装置、信息处理方法和记录介质
JP7287408B2 (ja) 表示方法、情報処理装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180829

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180906

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20181005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200306

R150 Certificate of patent or registration of utility model

Ref document number: 6674192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees