JP7300517B2 - 入射光情報取得方法、入射光情報取得システム、および情報処理装置 - Google Patents
入射光情報取得方法、入射光情報取得システム、および情報処理装置 Download PDFInfo
- Publication number
- JP7300517B2 JP7300517B2 JP2021558122A JP2021558122A JP7300517B2 JP 7300517 B2 JP7300517 B2 JP 7300517B2 JP 2021558122 A JP2021558122 A JP 2021558122A JP 2021558122 A JP2021558122 A JP 2021558122A JP 7300517 B2 JP7300517 B2 JP 7300517B2
- Authority
- JP
- Japan
- Prior art keywords
- incident light
- light
- luminance distribution
- image
- reference object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 59
- 238000000034 method Methods 0.000 title claims description 35
- 238000009826 distribution Methods 0.000 claims description 171
- 238000003384 imaging method Methods 0.000 claims description 39
- 239000000463 material Substances 0.000 claims description 38
- 230000000903 blocking effect Effects 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 9
- 230000010287 polarization Effects 0.000 claims description 6
- 238000002834 transmittance Methods 0.000 claims description 6
- 239000004973 liquid crystal related substance Substances 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000009877 rendering Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
- G01N21/55—Specular reflectivity
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/42—Photometry, e.g. photographic exposure meter using electric radiation detectors
-
- G—PHYSICS
- G02—OPTICS
- G02F—OPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
- G02F1/00—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
- G02F1/01—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour
- G02F1/13—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour based on liquid crystals, e.g. single liquid crystal display cells
- G02F1/137—Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour based on liquid crystals, e.g. single liquid crystal display cells characterised by the electro-optical or magneto-optical effect, e.g. field-induced phase transition, orientation effect, guest-host interaction or dynamic scattering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/72—Combination of two or more compensation controls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Chemical & Material Sciences (AREA)
- Nonlinear Science (AREA)
- Biochemistry (AREA)
- Health & Medical Sciences (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Analytical Chemistry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Immunology (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Crystallography & Structural Chemistry (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
本発明は、撮影画像を利用して対象物の情報を取得するのに用いる入射光情報の取得方法、それを実行する入射光情報取得システム、および情報処理装置に関する。
ユーザの頭部など体の一部をビデオカメラで撮影し、目、口、手などの所定の領域を抽出して別の画像で置換した表示画像を利用するゲームが知られている(例えば、特許文献1参照)。また、ビデオカメラで撮影された口や手の動きをアプリケーションの操作指示として受け取るユーザインタフェースシステムも知られている。このように、実世界を撮影し、実物体の存在や動きを反映させた仮想世界を表示させたり、何らかの情報処理に利用したりする技術は、小型の携帯端末からレジャー施設まで、規模によらず幅広い分野で利用されている。
撮影画像に基づき実物体の形状や材質を取得し、その3Dモデルを仮想世界へ取り込んだり情報処理を実施したりする技術においては、撮影環境に起因して処理の精度が不安定になりやすいという課題がある。例えば周囲の照明や自然光の具合によって撮影画像上の像が変化すると、画像解析の結果に多大な影響を与え得る。実物体の情報を高精度に取得するには、照明環境を厳密に制御したスタジオなどに撮影場所を限定したり、光の強度を全方位に渡り測定したうえでの撮影が要求されたりして、汎用性、容易性の点で問題となる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、撮影画像を用いた対象物の情報取得を容易に高精度化できる技術を提供することにある。
本発明のある態様は入射光情報取得方法に関する。この入射光情報取得方法は、入射光の一部を遮蔽した状態で、形状および材質が既知のリファレンス用物体を撮影した画像を取得するステップと、入射光の遮蔽方向が異なる複数の撮影画像における、リファレンス用物体の像に基づき、一部が遮蔽された部分的な入射光の輝度分布を所定のモデル式により取得するステップと、部分的な入射光の輝度分布同士を演算することにより、入射光全体の輝度分布を取得するステップと、を含むことを特徴とする。
本発明の別の態様は入射光情報取得システムに関する。この入射光情報取得システムは、形状および材質が既知のリファレンス用物体と、入射光の一部を遮蔽した状態のリファレンス用物体を撮影する撮像装置と、撮影画像を用いて入射光の輝度分布を取得する情報処理装置と、を含み、情報処理装置は、入射光の遮蔽方向が異なる複数の撮影画像における、リファレンス用物体の像に基づき、一部が遮蔽された部分的な入射光の輝度分布を所定のモデル式により取得する部分入射光情報取得部と、部分的な入射光の輝度分布同士を演算することにより、入射光全体の輝度分布を取得する全体入射光情報取得部と、を備えたことを特徴とする。
本発明のさらに別の態様は情報処理装置に関する。この情報処理装置は、入射光の一部を遮蔽した状態で、形状および材質が既知のリファレンス用物体を撮影した画像を取得する撮影画像取得部と、入射光の遮蔽方向が異なる複数の撮影画像における、リファレンス用物体の像に基づき、一部が遮蔽された部分的な入射光の輝度分布を所定のモデル式により取得する部分入射光情報取得部と、部分的な入射光の輝度分布同士を演算することにより、入射光全体の輝度分布を取得する全体入射光情報取得部と、を備えたことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置などの間で変換したものもまた、本発明の態様として有効である。
本発明によると、撮影画像を用いた対象物の情報取得を容易に高精度化できる。
図1は、本実施の形態を適用できる情報処理システムの構成例を示している。この情報処理システムは、被写体8を所定のフレームレートで撮影する撮像装置112、その撮影画像のデータを取得し所定の情報処理を行う情報処理装置110、および情報処理の結果を出力する表示装置116を含む。情報処理システムにはさらに、情報処理装置110に対する操作をユーザから受け付ける入力装置が含まれていてもよい。情報処理装置110はさらに、インターネットなどのネットワークに接続することでサーバなど外部の装置と通信可能としてもよい。
情報処理装置110と撮像装置112および表示装置116とは、有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。また情報処理装置110、撮像装置112、表示装置116のいずれか2つ以上を組み合わせて一体的な装置としてもよい。例えばそれらを装備したカメラや携帯端末などで情報処理システムを実現してもよい。あるいは表示装置116を、ユーザが頭部に装着することで眼前に画像を表示させるヘッドマウントディスプレイとし、当該ヘッドマウントディスプレイに、ユーザの視線に対応する画像を撮影するように撮像装置112を設けてもよい。いずれにしろ情報処理装置110、撮像装置112、表示装置116の外観形状は図示するものに限らない。
このようなシステムにおいて情報処理装置110は少なくとも、撮像装置112が撮影した画像のデータを取得し、それを解析することにより3次元形状や材質などの被写体情報を取得する。そして情報処理装置110は、取得した被写体情報に基づいて情報処理を実施する。例えば情報処理装置110は、当該被写体情報に基づき被写体を認識したり、被写体の動きを追跡したりする。あるいは情報処理装置110は、被写体が表れる仮想世界を描画して表示装置116に出力する。
図示する例では、被写体8のうち球体を模したオブジェクト118を仮想世界に描画している。ここで描画する画像の内容や目的は特に限定されない。例えば実物体を模したオブジェクトが登場する映画など鑑賞用の画像を生成してもよいし、ユーザが実物体を動かし、それを模したオブジェクトが表示上で連動することにより敵オブジェクトと戦うようなゲームを実現してもよい。このような態様においては、実物体の形状や材質を正確に取得しておくことにより、あたかも実物体が画面内に入り込んだかのような、よりリアルな表現が可能になる。
ただし情報処理装置110は、実物体を画像世界に融合させるのに限らず、実物体の動きに応じて情報処理を実施したり、実物体を別の仮想オブジェクトに置換した画像を表示させたりしてもよい。この場合も、実物体の形状や材質を正確に取得しておくことにより、その動きを追跡したり、他の物と区別したりすることを精度よく行える。なお被写体8は、人の顔や手など生体であってもよい。この場合、情報処理装置110は、例えば撮像装置112の視野に入った人の顔や手の動きを認識したり、人を忠実に再現したコンピュータグラフィクスのオブジェクトを、表示装置116に表示させたりすることができる。
図1で示したようなシステムにおいて、撮影画像から被写体の形状や材質を取得するための様々な手法が提案されている。そのうちの一つとして、コンピュータグラフィクス描画において一般的に利用されるレンダリング方程式の逆問題を解くインバースレンダリングが広く知られている。一般的なコンピュータグラフィクスでは、ワールド座標系において、反射特性が設定されたオブジェクトを配置し、光源とカメラ座標系を設定することにより、オブジェクト表面からの光の輝度分布を計算する。このとき、次のレンダリング方程式によって、オブジェクト表面上の位置xoにおいて方向ωoへ放射される光の輝度Lo(ro,ωo)を求める。
ここで関数Sは双方向散乱面反射率分布関数(BSSRDF:Bidirectional Scattering-Surface Reflectance Distribution Function)であり、位置xiに方向ωiから輝度Liで入射した光が、物体表面下での光の散乱を含め位置xoで方向ωoへ出射する割合を表す。またベクトルnはオブジェクト表面の法線、Aは表面下での散乱光が影響する範囲を示す。すなわち関数Sはオブジェクトの材質に依存し、ベクトルnはオブジェクトの形状に依存する。
したがって描画対象のオブジェクトの材質および形状の設定に基づき関数Sとベクトルnを決定し、入射光の輝度分布Li(xi,ωi)を与えることにより、オブジェクト表面の各位置xoにおける出射光の輝度分布Lo(ωo)が得られる。そして当該出射光のうち、視点に応じたビュースクリーンへ入射する光の輝度を計算すれば、オブジェクトの材質や周囲の光による影響を反映させたオブジェクトを描画できる。インバースレンダリングはこの関係を利用して、撮影画像が表す被写体の像の輝度値を左辺に与えることにより、右辺に含まれるいずれかのパラメータを求めるものである。
一般的には、被写体を多方向から撮影し、式1の方程式を複数立てることにより、それらを同時に満たすようにパラメータを推定していく。ここで既知のパラメータを増やすほど、未知のパラメータの推定精度を向上させることができる。例えば被写体の形状と材質を精度よく得るため、入射光の輝度分布Li(xi,ωi)を既知としておくことが考えられる。しかしながら一般的な環境では、窓や照明の配置、数、それぞれからの光の輝度などが様々であり、それらを全て特定するのは困難である。
初期処理として、撮像装置112を壁や天井に向けて撮影することで、それらの情報を特定することが考えられるが、これには多大な労力を要する。すなわち複数の撮影画像から個々に得られる情報を、統一された座標系で表すため、撮像装置112の正確な位置合わせが必要となる。また、全方位を撮影する、もしくは間隔を設けて撮影した結果を補間する、といった作業が必要となる。一方、形状および材質が既知の物体を撮影し、インバースレンダリングにより入射光の輝度分布Li(xi,ωi)を取得することも考えられる。
しかしながら輝度分布Li(xi,ωi)自体の自由度があまりに高く、多数の撮影が必要なうえ、それぞれについて立てた方程式を全て満たすような解が得られない不良設定問題となる可能性が高い。そこで本実施の形態では、入射光の一部を遮蔽した状態で、形状および材質が既知のリファレンス用物体を撮影し、インバースレンダリングにより部分的な入射光の輝度分布を取得する。当該輝度分布は、少なくとも方向ωiが限定されるため、少ない方程式で解が得られやすい。この処理を、遮蔽方向を異ならせて繰り返し、その情報を統合することにより、遮蔽のない状態での被写空間への入射光の輝度分布を取得する。
図2は、本実施の形態において入射光の輝度分布を取得する原理を説明するための図である。同図は、球面状の遮光用物体82の内部空間に、球体のリファレンス用物体80が存在する状態を断面で示している。リファレンス用物体80への入射光を、放射状の線で模式的に示している。遮光用物体82は光を透過させない素材や色を有する面で構成され、当該面の一部に、位置が可変の入光部84を備える。ここで「入光部」とは光の入り口であり、面が開口している場合のほか、部分的に透明として光を透過させるようにした場合も含まれる。
遮光用物体82に入光部84を設けることにより、本来の入射光のうちの一部がリファレンス用物体80に入射する。原理的には式1において、入光部84に対応する立体角に対する入射光のみを考慮すれば、その状態で観測される、リファレンス用物体80の像の輝度が得られる。すなわち下記の等式が成り立つ。
ここでN=1、2、3、・・・は添え字であり、入光部84の位置を識別する自然数である。また式1における関数S、および輝度分布Lo、Liを与える変数を省略している。例えば(a)の状態をN=1とすると、そのときのリファレンス用物体80への入射光の輝度分布Li(1)は、リファレンス用物体80からの出射光の輝度分布Lo(1)との間に、式2の関係を有する。入光部84の位置を異ならせた(b)の状態を、N=2とすると、リファレンス用物体80への入射光の輝度分布Li(2)は、リファレンス用物体80からの出射光の輝度分布Lo(2)との間に、式2の関係を有する。
(c)の状態も同様に、リファレンス用物体80に対する入射光の輝度分布Li(3)と出射光の輝度分布Lo(3)は式2を満たす。入光部84の方向が異なる各状態(以後、遮光状態とも呼ぶ)における、リファレンス用物体80からの出射光の輝度分布Lo(N)は、撮像装置の姿勢と、撮影画像における像の輝度から取得できる。その値を式2の左辺に代入することにより、各遮光状態における、リファレンス用物体80への入射光の輝度分布Li(N)が求められる。
実際には次式のように、入射光の輝度分布Li(N)を仮定して算出した出射光の輝度分布Lo(N)simと、実際に観測された出射光の輝度分布Lo(N)obsとの差が最小になるように入射光Li(N)を調整して最終解を得る。
ここで「argmin」は括弧内の数値を最小とするための調整処理を示し、「Err」は括弧内の分布の差を示す。この計算により、各遮光状態においてリファレンス用物体80へ入射する光の輝度分布が得られることになる。原理的には入光部84を、重なりのないように全方位に向けて配置し、それぞれの状態での入射光の輝度分布を得れば、遮光用物体82がない状態での本来の入射光の分布が次のように得られる。
図3は、本実施の形態において入射光の輝度分布を取得する原理を別の観点から説明するための図である。図の表し方は図2と同様である。図の上部に示すように、図の上側を0°とし時計回りに角度θを定義したとき、(a)の状態において、遮光用物体82の入光部84の範囲は-90°≦θ<90°であるのに対し、(b)の状態では入光部84の範囲が0°≦θ<90°である。ただし実際には立体角となる。
この場合も上述と同様に、それぞれの状態についてリファレンス用物体80からの出射光の輝度分布Lo(1)、Lo(2)を観測すると、入光部84が広い前者の方が全体的な輝度値が高くなる。すなわちそれらの差分Lo(1)-Lo(2)は、後者において遮蔽されていた、-90°≦θ<0°からの入射光による寄与ということになる。そこで当該差分を観測値として式3に導入すれば、-90°≦θ<0°に入光部84を設けた状態を撮影することなく、-90°≦θ<0°の範囲の入射光の輝度分布を取得できる。
0°≦θ<90°の範囲の入射光の輝度分布については、図2で説明したのと同様にLo(2)から求められる。本実施の形態ではこのように、入射光の一部を遮蔽した状態でリファレンス用物体80を撮影して得られる、部分的な入射光の輝度分布同士を、遮光状態に合わせて演算することにより、被写空間への入射光の輝度分布を取得することを基本とする。なお入射光の輝度分布と出射光の輝度分布の関係を表すモデル式は式1に限らず様々なものが提案されており、本実施の形態ではそのいずれを採用してもよい。
本実施の形態の場合、遮光用物体82に設ける入光部84の縁部分(例えば図3における縁部分85)における回折現象や、遮光用物体の外面および内面における多重反射をモデル式に含めることにより、入射光の輝度分布の精度をより高めることができる。なお光吸収性の高い素材や色で遮光用物体82を形成することにより、多重反射の影響を抑えてもよい。また図2、3では、リファレンス用物体80を球体、遮光用物体82を球面としていたが、それぞれの形状は限定されない。なお遮光用物体82には、リファレンス用物体80を観測(撮影)するための開口をさらに設けるか、遮光用物体82の内面に撮像センサを設けるものとする。
図4は、本実施の形態の入射光情報取得システムの構成例を示している。入射光情報取得システムは、リファレンス用物体80と遮光用物体86を撮影する撮像装置12、撮影画像を用いて入射光の輝度分布の情報を取得する情報処理装置10、必要な遮光状態をユーザに通知するための表示装置16を含む。撮像装置12および表示装置16はそれぞれ、図1で示した撮像装置112および表示装置116と同じであってもよい。情報処理装置10は図1で示した情報処理装置110の一部であってもよい。
撮像装置12は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを備えた一般的なカメラである。あるいは撮像装置12は、レンズの前面または撮像素子内に偏光子を備えた偏光カメラであってもよい。この場合、複数方向の偏光画像を撮影することにより、偏光方向ごとに出射光の輝度分布が得られる。それぞれに対し方程式を立てると、偏光方向ごとに入射光の輝度分布が得られるため、それらを加算することで、非偏光の入射光の輝度分布が得られる。このように偏光成分を分離しそれぞれについて解を求めることにより、最終的に取得する入射光の輝度分布の精度を高められる。
図示する例では、図2、3と同様、リファレンス用物体80を球体とする一方、遮光用物体86は撮像装置12側の面が遮蔽されない立方体の面としている。またこの例では、運用時に形状や材質を取得する対象物がテーブルに置かれることを想定し、リファレンス用物体80と遮光用物体86も同じテーブル88の上に置いている。これによりテーブル88からの反射光を入射光として、その輝度分布を同様に取得できる。なおテーブル88からの反射光をモデル式に含めるため、テーブルの材質や色などの情報はリファレンス情報記憶部52にあらかじめ格納しておく。
当該情報が未知の場合、入射光情報取得部54は、その場でそれらの情報を取得してもよい。例えば遮光用物体86の内壁などに、等方性、あるいはそれに近い特性の光源を設けておき、情報処理装置10がその点灯/消灯を切り替えるよう制御する。内壁の複数箇所に光源を設け、点灯位置を切り替えてもよい。入射光情報取得部54は、リファレンス用物体80のない状態での遮光用物体86の撮影画像に基づき、テーブル88からの出射光の輝度分布を取得する。この場合、入射光の輝度分布が既知となるため、対象物の情報を得るのと同様の計算で、テーブル88の反射特性を得ることができる。
なお遮光用物体86とリファレンス用物体80を載置する面はテーブルに限らず、床や棚などでも同様に反射特性を求められる。いずれにしろ入射光の輝度分布を取得する段階においても、運用時に形状や材質を求める対象物と可能な限り同じ環境にリファレンス用物体80を置くことで、対象物への入射光情報を精度よく推定し、ひいては対象物の情報の取得精度を向上させることができる。また、底面など運用時に必要でない面への入射光の輝度分布を取得対象外とすることで、処理を簡略化できる。
図示する状態においてユーザは、遮光用物体86の1つまたは複数の面を取り外したり元に戻したりして入光部の位置ひいては方向を変化させたうえで、撮像装置12により撮影する。そのため遮光用物体86の各面は、人手により取り外し可能な構造とする。各遮光状態において複数の方向から撮影画像を得ることにより、出射光の輝度分布を広い範囲で取得でき、結果として入射光の輝度分布の取得精度が上がる。撮像装置12をビデオカメラとすることにより方向を変化させて動画を撮影し、得られたフレームから情報処理装置10が解析対象を選択してもよい。
また情報処理装置10と遮光用物体86を電気的に接続し、必要な位置に入光部が設けられるように情報処理装置10が遮光用物体86を制御してもよい。例えば情報処理装置10は、遮光用物体86の各面に設けたシャッターを開閉させる。あるいは遮光用物体86の各面を液晶パネルで形成し、情報処理装置10が電圧印加によって配向を変化させることにより、遮光用物体86の面を黒色と透明で切り替えてもよい。黒と透明の2階調に限らず、光透過性を3階調以上としてもよい。遮光用物体86の光透過性を面内で徐々に変化させることにより、入射光の輝度をグラデーション状としてもよい。
この場合、本来の入射光の輝度に、面内分布を有する既知の透過率を乗算した値が、リファレンス用物体80への入射光の輝度になる。透過率を様々に設定したうえでリファレンス用物体80からの出射光を取得することで、撮像装置12の姿勢を変化させずに撮影した画像を用いて、多数の方程式を立てることができる。また情報処理装置10は、撮像装置12の撮影タイミングや姿勢を制御してもよい。この場合、情報処理装置10は、必要な位置に入光部が設けられたのに合わせて撮影したり、各遮光状態に対し所定の複数の姿勢で撮影したりするよう撮像装置12を制御してよい。
遮光用物体86は、内部に空間を有する複数の平面または曲面で構成されればよく、これまで述べた球面や立方体の面のほか、直方体の面、多面体、円筒の面などのいずれでもよい。また入光部の形状も限定されず、矩形、円形、多角形、スリット形状などのいずれでもよい。あるいは後述するように、遮光用物体86は、ユーザの手、ユーザが動かす板などの物体、近傍を通過する人や動物など、入射光の一部を遮る物であればよい。この場合、それらの物に遮られない全ての範囲(方向)から光が入射可能となるが、本実施の形態では当該範囲も広義の「入光部」とする。
図5は、情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)23、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、必要に応じて表示装置16へデータを出力する出力部36、撮像装置12や図示しない入力装置からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。
CPU23は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU23はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU23からの描画命令に従って描画処理を行い、図示しないフレームバッファに表示画像のデータを格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
図6は、本実施の形態の情報処理装置10の機能ブロックの構成を示している。情報処理装置10は、撮像装置12から撮影画像のデータを取得する撮影画像取得部50、リファレンス用物体80の形状および材質に係る情報を格納するリファレンス情報記憶部52、入射光の輝度分布に係る情報を取得する入射光情報取得部54、取得した輝度分布の情報を格納する入射光情報記憶部56、および輝度分布の情報を利用して対象物の情報を取得する対象物情報取得部66を含む。
なお図示する機能ブロックは、リファレンス用実物体の撮影画像を用いて入射光の輝度分布を取得する機能と、その結果と対象物の撮影画像を用いて当該対象物の情報を取得す機能を含んでいる。入射光の輝度分布を取得することを目的とする場合、対象物情報取得部66を省略できる。対象物の情報も取得する場合、対象物情報取得部66は、図1で示したように被写体に対象物を含めることによって機能する。これに引き続き、対象物を用いてゲームなどを実施する場合、対象物の情報を用いて情報処理を行ったり、その結果を表す画像を描画したりする機能を適宜設けてよい。
また図示する各機能ブロックは、ハードウェア的には、図5で示したCPU23、GPU24、メインメモリ26などで実現でき、ソフトウェア的にはハードディスクや記録媒体からメインメモリ26にロードされたコンピュータプログラムなどで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
撮影画像取得部50は、撮像装置12から撮影画像のデータを取得する。この撮影画像は上述のとおり、入射光の一部を遮蔽した状態でリファレンス用物体80を撮影した画像であり、撮影画像取得部50は、入射光の遮蔽方向が異なる複数の撮影画像のデータを取得する。リファレンス情報記憶部52には、リファレンス用物体80の形状および材質の情報をあらかじめ格納しておく。リファレンス用物体80の候補を複数種類、準備する場合は、それらの識別情報と、形状および材質の情報を対応づけて格納しておき、実際に用いるリファレンス用物体80をユーザが指定できるようにしてもよい。
入射光情報取得部54は、像抽出部58、部分入射光情報取得部60、全体入射光情報取得部62、および遮光状態制御部64を含む。像抽出部58は、リファレンス情報記憶部52から取得したリファレンス用物体80の形状や色などの特徴に基づき、撮影画像からリファレンス用物体80の像を、パターンマッチングなどにより抽出する。像抽出部58は、抽出した像の形状や、テーブル88など周囲の物の像の形状などに基づき、リファレンス用物体80に対する撮像面の姿勢も取得する。当該情報は、撮像装置12が内蔵するモーションセンサの計測値に基づき取得してもよい。
像抽出部58はさらに、遮光用物体86の像から、入光部の位置、ひいては遮光状態を取得する。当該情報は、ユーザが入力装置を介して入力してもよい。あるいは上述のとおり遮光状態制御部64が制御してもよい。部分入射光情報取得部60は、抽出した像の輝度分布に基づき、実空間でのリファレンス用物体80からの出射光の輝度分布を取得する。そして式3により、撮影された遮光状態での部分的な入射光の輝度分布を推定する。この際、部分入射光情報取得部60は、リファレンス情報記憶部52から取得したリファレンス用物体80の形状および材質の情報を適用する。
全体入射光情報取得部62は、式4のように、部分的な入射光の輝度分布同士を演算することにより、遮光用物体86のない状態での入射光全体の輝度分布を取得する。ただし入光部の設け方によって、入射光全体の輝度分布を取得する数式は様々となる。すなわち図3に示したように、出射光の輝度分布を演算してから入射光の輝度分布を取得する場合もある。また後述するように、異なる遮光状態において入光部の範囲に重複がある場合、輝度分布は単なる合計でなく、重複分を減算したり除算したりする必要がある。
遮光状態制御部64は、部分的な入射光の輝度分布の取得状況に応じて、撮影が必要な位置に入光部が設けられるように制御する。例えば遮光用物体86のある面からの入射光の分布が得られていないことが判明したら、その面を外すように画像および音声の少なくともいずれかでユーザに通知する。また輝度の変化が所定値以上大きい領域が判明したら、当該領域の開口範囲をより狭くするようにユーザに通知する。これにより、細かい単位で部分的な入射光の輝度分布を取得し、全体的な入射光の輝度分布の精度を向上させることができる。
あるいは上述のとおり、遮光状態制御部64が遮光用物体86を電気的に制御してもよい。遮光用物体86を液晶パネルとする場合、上述のように光透過性を変化させるほか、所定の微細幅のストライプ状に透過部分が形成されるように制御することにより、遮光用物体86の少なくとも一部の面を偏光子に変化させてもよい。この場合、撮像装置12を偏光カメラとしたときと同様の効果が得られる。なお遮光状態制御部64は、遮光用物体86の一部の面を偏光子に取り替える作業を実施するよう、ユーザに通知してもよい。さらに遮光状態制御部64は、部分的な入射光の輝度分布の取得状況に応じて、必要な方向を遮蔽するようにユーザに通知してもよい。
入射光情報取得部54は、複数のリファレンス用物体80に対し同様の処理を実施してもよい。遮光用物体86の内面における二次反射を考慮しない場合、入射光の輝度分布は基本的に、リファレンス用物体80の材質によらないが、当該二次反射などに起因して、材質や形状に依存した誤差が含まれ得る。そこで形状や材質の異なるリファレンス用物体80を用いて入射光の輝度分布を取得し、それを平均化するなどして最終的な輝度分布とすることで誤差を最小限にできる。
入射光情報取得部54は、取得した入射光全体の輝度分布の情報を、入射光情報記憶部56に格納する。対象物情報取得部66は、格納された入射光の輝度分布と、対象物を撮影した画像に基づき、当該対象物の形状および材質のうち必要な情報を取得する。この場合、撮影画像取得部は撮像装置12から、対象物を撮影した画像のデータを取得し対象物情報取得部66に供給する。当該撮影画像を用いて、対象物の形状や材質を求める手法は特に限定されないが、例えば式1を用いてインバースレンダリングを行うことが考えられる。
なおリファレンス用物体80および遮光用物体86を対象物の近傍に配置し、それらを同時に撮影することにより、対象物情報取得部66が機能している期間に、入射光情報取得部54が並行して入射光の輝度分布を取得することもできる。例えば対象物情報取得部66は、当該期間に撮影されたリファレンス用物体の像に基づいて、初期に取得した入射光の輝度分布の変化を検出し、必要に応じて、入射光の輝度分布を修正したり取得し直したりしてもよい。
図7は、立方体形状の遮光用物体86の入光部について説明するための図である。遮光用物体86は図の手前側の面を撮影用に常時開口させるとする。遮光用物体86のその他の面A、B、C、Dは遮光可能な面である。まず当該4面全てに板を配した状態を状態(1)とすると、部分入射光情報取得部60により、手前からの入射光の輝度分布Li(1)が得られる。面Aの板を除いたり透明にしたりして当該方向を入光部とした状態を状態(2)とすると、手前および上面からの入射光の輝度分布Li(2)が得られる。
同様に、面Bの方向を入光部とした状態を状態(3)、面Cの方向を入光部とした状態を状態(4)、面Dの方向を入光部とした状態を状態(5)とすると、部分入射光情報取得部60により、それぞれの状態における入射光の輝度分布Li(3)、Li(4)、Li(5)が得られる。上記のとおり全ての遮光状態で撮影用の開口部が設けられているため、輝度分布Li(2)、Li(3)、Li(4)、Li(5)には全てLi(1)が含まれる。そこで全体入射光情報取得部62は、入射光全体の輝度分布Liを、次のように決定する。
Li=Li(2)+Li(3)+Li(4)+Li(5)-3Li(1)
Li=Li(2)+Li(3)+Li(4)+Li(5)-3Li(1)
この例は立方体の面を1つずつ入光部としたが、2つ以上の面を同時に入光部としてもよい。例えば面A、Bの方向を入光部とした状態を状態(6)、面B、Cの方向を入光部とした状態を状態(7)、面C、Dの方向を入光部とした状態を状態(8)、面D、Aの方向を入光部とした状態を状態(9)とし、それぞれの状態において得られた入射光の輝度分布をLi(6)、Li(7)、Li(8)、Li(9)とすると、入射光全体の輝度分布Liは次のように算出できる。
Li={Li(6)+Li(7)+Li(8)+Li(9)}/2-Li(1)
Li={Li(6)+Li(7)+Li(8)+Li(9)}/2-Li(1)
図8は本実施の形態で利用できる遮光用物体の別の例を示している。遮光用物体90は球体の面に撮影用の開口部92と入光部94を備えた構成を有する。この遮光用物体90は、内壁がリファレンス用物体を兼ねている。すなわち撮像装置12は、開口部92から遮光用物体90の内壁の少なくとも一部を撮影する。撮像装置12を開口部92の箇所にはめ込み、開口を塞ぐようにしてもよい。いずれにしろ撮像装置12は入光部94からの入射光による物体からの出射光を観測する点で、これまでの説明と同様となる。
ここで遮光用物体90を回転させると、入光部94の向きが変化するため、板を外したり透明にしたりして入光部を設けるのと同様に、様々な方向からの部分的な入射光の輝度を得ることができる。ユーザが遮光用物体90を転がす場合、例えば遮光用物体90にロータリーエンコーダなどの回転角センサを設け、部分入射光情報取得部60がその計測値を無線通信などにより取得することにより、入光部94の方向を取得してもよい。または部分入射光情報取得部60は、撮影画像の枠の回転角に基づき入光部94の方向を取得してもよい。
あるいは遮光用物体90自体に動力を設け、遮光状態制御部64が遮光用物体90を回転させてもよい。なお入光部94は1つでも複数でもよい。上述のとおり、図7で示したような遮光用物体86とリファレンス用物体80の組、あるいは図8で示したようなリファレンス用物体を兼ねた遮光用物体86を、ゲームなどの運用時に対象物の近傍に置いておいておくことにより、入射光の輝度分布の変化を監視してもよい。
例えば徐々に照度が高くなる照明や窓からの光の変化、周囲にある物の移動などに起因して、入射光が経時変化する可能性がある場合、初期処理として取得した入射光の輝度分布を随時修正することにより、対象物の形状や材質の取得精度を維持できる。この場合、入射光情報取得部54は、基本的にはこれまで説明したのと同様の手順により、リファレンス用物体80の像に基づき定期的に入射光の輝度分布を取得し、前のタイミングで取得した輝度分布との差を求める。
この際、用いる撮影画像は、対象物の形状や材質を取得するために撮影された画像でもよい。この場合、初期処理で得られる撮影画像より、撮像装置12の姿勢や遮光状態のバリエーションが限られる可能性がある。入射光情報取得部54は、その限られた条件下で得られた結果を比較し、差が誤差の範囲内と判定したら元の入射光情報をそのまま維持する。差に有意性があっても所定の基準より小さければ、限られた条件下で得られた結果のみを反映させるように輝度分布を更新する。差が所定の基準以上であれば、入射光情報取得部54は、初期処理と同様の条件で再度、入射光全体の輝度分布を取得する。
最終的に入射光の輝度分布を取得し直すことを前提とすれば、入射光情報取得部54は、厳密に入射光の輝度分布を取得し続ける代わりに、リファレンス用物体80からの出射光の変化に基づき間接的に入射光の輝度分布の変化を検出するのでもよい。あるいは図8で示したようなリファレンス用物体を兼ねた遮光用物体86を、遮光状態制御部64の制御のもと、転がし続けたり、空中を飛行させたりして、運用中も常に入射光の輝度分布を取得し続けてもよい。あるいは運用中に人や動物がリファレンス用物体80の近傍を通過した際、それを遮光用物体と見なしてもよい。
すなわち図3において説明したように、人や動物により入射光が遮蔽される前後における、リファレンス用物体80からの出射光の差は、遮蔽された方向の入射光の寄与を示している。そこで部分入射光情報取得部60は、遮蔽前後の出射光の差から、式2、3を用いて、遮蔽された方向の入射光の輝度分布Liを取得する。この部分的な入射光の輝度分布と、入射光情報記憶部56に格納されている入射光全体の輝度分布のうち当該部分との差に基づき、上述のとおり部分的な修正あるいは全体的な修正を実施する。
図9は、遮光用物体を人手として入射光輝度分布を取得する態様を説明するための図である。この例では、リファレンス用物体96を片方の手98aで把持したうえ、入射光をもう一方の手98bにより遮蔽する。この場合も、遮蔽前後のリファレンス用物体96からの出射光の変化により、手98bの方向からの入射光の輝度分布を得ることができる。したがって情報処理装置10は、リファレンス用物体96に対する手98aの方向を様々に変化させて撮影した画像を取得すれば、これまで述べたのと同様に、入射光全体の輝度分布を取得できる。
この際、部分入射光情報取得部60は、遮光する手98bの位置や姿勢を、撮影画像からパターンマッチングなどにより取得する。遮光に供する物は人手に限らず、板などでもよい。この例で人がリファレンス用物体96を把持することにより、対象物をコントローラとして用いる場合と同様の環境を作り出せる。また運用時に人の顔の造作や肌の状態を得るための前処理として入射光の輝度分布を取得する場合に、リファレンス用物体96を顔の高さに掲げるなど、対象物に想定される高さや位置に自由に合わせることができる。
なお図7、8で示したような遮光用物体とリファレンス用物体を人が把持するようにしても同様の効果が得られる。また上述のとおり人の顔を対象物とする場合、肩や胸などからの反射も入射光となり得るため、好適には上半身に近い形状のリファレンス用物体を準備することにより、運用時の状態により近づけることができる。
図10は遮光状態制御部64が、入射光を遮蔽すべき方向をユーザに通知する際の表示画面の例を示している。この例で遮光状態誘導画面100は、現在の状態を示す画像に、どの方向を遮蔽すべきかを示す矢印102を重畳表示させた構成を有する。ここで現在の状態を示す画像は、図9で示したような状態を撮像装置12が撮影した画像、あるいはそれをユーザから見た状態に再構成した画像などである。
上述のとおり部分入射光情報取得部60は、解析対象の撮影画像における、入射光を遮蔽している手や物の像などに基づき、入射光の遮蔽方向を取得する。遮光状態制御部64は当該情報と、各遮光状態で得られている入射光の輝度分布、あるいはそれらを演算した全体的な入射光の輝度分布の途中経過を参照し、新たに撮影が必要な遮蔽方向をユーザに通知する。例えば遮光状態制御部64は、輝度分布が得られていない方向、分布が不連続など誤差が大きいと判定される方向、輝度分布の変化が大きく、分布の取得単位を細分化する必要があると判定される方向などを特定する。
対象物情報取得部66が対象物の形状や材質を取得中であれば、当該対象物のうち情報をより詳細に取得する必要がある部分への入射光の方向を取得してもよい。そして遮光状態制御部64は、取得した方向の入射光の輝度分布が得られるように、遮蔽すべき方向を導出し、遮光する手を当該方向に移動させるための矢印102を表示画像に描画する。追加で情報が必要な入射光の方向と、遮蔽すべき方向との関係は、それまで得られている部分的な入射光の輝度分布によって様々となる。
なお図示する例は人手による遮光を想定しているが、遮光用物体のうち入光部を設けるべき方向を矢印などにより示してもよい。ユーザがそれに従い遮光したり入光部を設けたりしたことが撮影画像により判定されたら、部分入射光情報取得部60は、その状態で撮影された画像を用いて、部分的な入射光の輝度分布を取得する。そして全体入射光情報取得部62は、追加で取得された部分的な入射光の輝度分布を演算に組み入れることにより、入射光全体の輝度分布を精度よく求める。
次に、これまで述べた構成によって実現できる情報処理装置10の動作について説明する。図11は、情報処理装置10が入射光の輝度分布を取得する処理手順を示すフローチャートである。なお同図では、取得した入射光の輝度分布を利用して対象物の情報を取得する処理も含めて示している。このフローチャートは、ユーザが入射光の一部を遮蔽した状態のリファレンス用物体を準備し、撮像装置12がそれを撮影している状態で開始される。
撮影画像取得部50は、準備された遮光状態での撮影画像のデータを撮像装置12から取得する(S10)。すると入射光情報取得部54は、撮影画像におけるリファレンス用物体の像に基づき、当該遮光状態での部分的な入射光の輝度分布を取得する(S12)。入射光情報取得部54はこの際、遮光されている方向あるいは入光部の方向を撮影画像などから取得しておく。そして入射光情報取得部54は、部分的な入射光の輝度分布を演算することにより、得られている情報の範囲で入射光全体の輝度分布を算出する(S14)。ただし初回はS14の処理を省略する。
必要な方向の部分的な輝度分布が全て得られていなければ(S16のN)、入射光情報取得部54は、不足している情報を得るために必要な遮光状態、すなわち遮蔽の方向または入光部の方向を、表示装置16を介してユーザに通知する(S18)。ただし情報処理装置10が電気的に遮光物体を制御することで、必要な遮光状態を作り出してもよい。そして撮影画像取得部50は、新たな遮光状態での撮影画像のデータを取得し、入射光情報取得部54がその状態での輝度分布を取得することで、得られている情報の範囲で入射光全体の輝度分布を算出する(S10~S14)。
S10からS18の処理を繰り返し、必要な方向の部分的な輝度分布が全て得られたら(S16のY)、入射光情報取得部54はその時点で取得されている、入射光全体の輝度分布の情報を、対象物情報取得部66に格納する(S20)。そして対象物情報取得部66は、当該輝度分布の情報を用いて対象物の形状や材質の取得を開始する(S22)。なお厳密にはS22の処理には、撮影画像取得部50が、対象物を撮影した画像を撮像装置12から取得する処理が含まれる。
この段階でも入射光情報取得部54は、撮影画像中のリファレンス用物体の像に基づき入射光の輝度分布の変化を監視する(S24のN、S26)。対象物の情報を取得している期間に輝度分布に基準以上の変化が生じたら(S24のN、S26のY)、入射光情報取得部54は、S10からS18の処理を再び実施することにより、入射光全体の輝度分布を取得し直す(S20)。なお上述のように、S10からS18の処理を行う代わりに、S26の監視により得られた部分的な入射光の輝度分布を反映させる小規模な修正としてもよい。
輝度分布に基準以上の変化が生じなければ、対象物の情報取得を継続する(S26のN、S22)。このように、必要に応じて入射光の輝度分布を修正しながら対象物の情報を取得していき、情報の取得が完了したら、全ての処理を終了させる(S24のY)。
以上述べた本実施の形態によれば、撮影画像を用いて対象物の形状や材質を取得する際に必要な、入射光の輝度分布を、同じ場でリファレンス用立体物を撮影した画像を用いて取得する。この際、入射光の一部を遮蔽した状態で撮影することにより、輝度分布の自由度が限定的となり、反射モデルを表す方程式を用いた際の解を導出しやすくなる。そのようにして得られた部分的な入射光の輝度分布同士を演算することにより、入射光全体の輝度分布を容易かつ正確に導出できる。
入射光の一部を遮蔽するため、位置が可変の入光部を有する遮光物体を導入したり、必要な遮光方向をユーザに通知したりすることにより、一般的なユーザでも必要な遮光状態を容易に作り出すことができる。また形状や材質を取得する対象物と同じ状況で、手軽にリファレンス用物体を撮影できるため、対象物の情報を精度よく取得でき、ひいてはそれを用いた情報処理の精度も容易に向上させることができる。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 情報処理装置、 12 撮像装置、 16 表示装置、 23 CPU、 24 GPU、 26 メインメモリ、 50 撮影画像取得部、 52 リファレンス情報記憶部、 54 入射光情報取得部、 56 入射光情報記憶部、 58 像抽出部、 60 部分入射光情報取得部、 62 全体入射光情報取得部、 64 遮光状態制御部、 66 対象物情報取得部。
以上のように本発明は、画像処理装置、ゲーム装置、携帯端末、パーソナルコンピュータなど各種情報処理装置と、それを含むシステムなどに利用可能である。
Claims (15)
- 入射光の一部を遮蔽した状態で、形状および材質が既知のリファレンス用物体を撮影した画像を取得するステップと、
入射光の遮蔽方向が異なる複数の撮影画像における、前記リファレンス用物体の像に基づき、一部が遮蔽された部分的な入射光の輝度分布を所定のモデル式により取得するステップと、
前記部分的な入射光の輝度分布同士を演算することにより、入射光全体の輝度分布を取得するステップと、
を含むことを特徴とする入射光情報取得方法。 - 前記画像を取得するステップは、位置が可変の入光部を有する遮光用物体の内部空間にある前記リファレンス用物体の撮影画像を取得することを特徴とする請求項1に記載の入射光情報取得方法。
- 前記部分的な入射光の輝度分布の取得状況に応じて、撮影が必要な位置に前記入光部が設けられるように前記遮光用物体を制御するステップをさらに含むことを特徴とする請求項2に記載の入射光情報取得方法。
- 前記制御するステップは、前記遮光用物体を構成する液晶パネルの光透過性を、印加電圧の制御によって部分的に変化させることにより、前記入光部の位置を変化させることを特徴とする請求項3に記載の入射光情報取得方法。
- 前記制御するステップは、前記遮光用物体を構成する液晶パネルを、所定幅のストライプ状に光の透過部分が形成されるように制御することにより、前記遮光用物体の少なくとも一部の面を偏光子に変化させることを特徴とする請求項3に記載の入射光情報取得方法。
- 前記画像を取得するステップは、位置が可変の入光部を有する遮光用物体の内壁を、前記リファレンス用物体として撮影した画像を取得することを特徴とする請求項1に記載の入射光情報取得方法。
- 前記画像を取得するステップは、前記遮光用物体の回転により、前記入光部の方向が異なる状態で撮影された複数の画像を取得することを特徴とする請求項6に記載の入射光情報取得方法。
- 前記撮影画像における、入射光を遮蔽している物体の像に基づき、入射光の前記遮蔽方向を取得するステップと、
前記部分的な入射光の輝度分布の取得状況に応じて、撮影が必要な遮蔽方向をユーザに通知するステップをさらに含むことを特徴とする請求項1または2に記載の入射光情報取得方法。 - 前記入射光の輝度分布に基づき、撮影画像に写る対象物の形状および材質の少なくともいずれかを取得する期間において撮影された、前記リファレンス用物体の像に基づいて、前記入射光の輝度分布の変化を検出するステップと、
前記輝度分布の変化に応じて前記入射光の輝度分布の情報を修正するステップと、
をさらに含むことを特徴とする請求項1から8のいずれかに記載の入射光情報取得方法。 - 前記画像を取得するステップは、複数方向の偏光画像を取得し、
前記輝度分布を取得するステップは、偏光方向ごとに前記部分的な入射光の輝度分布を取得したうえ、それらを加算して前記部分的な入射光の輝度分布を取得することを特徴とする請求項1から9のいずれかに記載の入射光情報取得方法。 - 前記遮光用物体の内壁に設けた光源を点灯させ、前記リファレンス用物体がない状態での撮影画像における、前記遮光用物体が載置される面の像に基づき、当該面の反射特性を取得し、前記モデル式に反映させるステップをさらに含むことを特徴とする請求項2から5のいずれかに記載の入射光情報取得方法。
- 前記部分的な入射光の輝度分布を取得するステップは、複数の遮蔽方向での前記リファレンス用物体の像に基づき得られた、前記リファレンス用物体からの出射光の輝度分布同士を演算することにより、撮影されていない遮蔽方向における前記リファレンス用物体からの出射光の輝度分布を算出し、それに基づき部分的な入射光の輝度分布を取得することを特徴とする請求項1から11のいずれかに記載の入射光情報取得方法。
- 形状および材質が既知のリファレンス用物体と、
入射光の一部を遮蔽した状態の前記リファレンス用物体を撮影する撮像装置と、
撮影画像を用いて入射光の輝度分布を取得する情報処理装置と、
を含み、
前記情報処理装置は、
入射光の遮蔽方向が異なる複数の撮影画像における、前記リファレンス用物体の像に基づき、一部が遮蔽された部分的な入射光の輝度分布を所定のモデル式により取得する部分入射光情報取得部と、
前記部分的な入射光の輝度分布同士を演算することにより、入射光全体の輝度分布を取得する全体入射光情報取得部と、
を備えたことを特徴とする入射光情報取得システム。 - 入射光の一部を遮蔽した状態で、形状および材質が既知のリファレンス用物体を撮影した画像を取得する撮影画像取得部と、
入射光の遮蔽方向が異なる複数の撮影画像における、前記リファレンス用物体の像に基づき、一部が遮蔽された部分的な入射光の輝度分布を所定のモデル式により取得する部分入射光情報取得部と、
前記部分的な入射光の輝度分布同士を演算することにより、入射光全体の輝度分布を取得する全体入射光情報取得部と、
を備えたことを特徴とする情報処理装置。 - 入射光の一部を遮蔽した状態で、形状および材質が既知のリファレンス用物体を撮影した画像を取得する機能と、
入射光の遮蔽方向が異なる複数の撮影画像における、前記リファレンス用物体の像に基づき、一部が遮蔽された部分的な入射光の輝度分布を所定のモデル式により取得する機能と、
前記部分的な入射光の輝度分布同士を演算することにより、入射光全体の輝度分布を取得する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/045648 WO2021100177A1 (ja) | 2019-11-21 | 2019-11-21 | 入射光情報取得方法、入射光情報取得システム、および情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021100177A1 JPWO2021100177A1 (ja) | 2021-05-27 |
JP7300517B2 true JP7300517B2 (ja) | 2023-06-29 |
Family
ID=75980462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021558122A Active JP7300517B2 (ja) | 2019-11-21 | 2019-11-21 | 入射光情報取得方法、入射光情報取得システム、および情報処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11910095B2 (ja) |
JP (1) | JP7300517B2 (ja) |
WO (1) | WO2021100177A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100134516A1 (en) | 2008-11-28 | 2010-06-03 | Sony Corporation | Image processing system |
US20110063295A1 (en) | 2009-09-14 | 2011-03-17 | Eddy Yim Kuo | Estimation of Light Color and Direction for Augmented Reality Applications |
JP2013515307A (ja) | 2009-12-21 | 2013-05-02 | トムソン ライセンシング | 環境マップを生成する方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR9906453A (pt) | 1998-05-19 | 2000-09-19 | Sony Computer Entertainment Inc | Dispositivo e método do processamento de imagem, e meio de distribuição. |
JP2007018173A (ja) | 2005-07-06 | 2007-01-25 | Canon Inc | 画像処理方法、画像処理装置 |
IT201600103146A1 (it) * | 2016-10-13 | 2018-04-13 | Osram Gmbh | Procedimento per identificare sorgenti luminose, sistema e prodotto informatico corrispondenti |
US10609286B2 (en) * | 2017-06-13 | 2020-03-31 | Adobe Inc. | Extrapolating lighting conditions from a single digital image |
CN110533707B (zh) * | 2018-05-24 | 2023-04-14 | 微软技术许可有限责任公司 | 照明估计 |
US11288844B2 (en) * | 2019-10-16 | 2022-03-29 | Google Llc | Compute amortization heuristics for lighting estimation for augmented reality |
CN116134487A (zh) * | 2020-06-30 | 2023-05-16 | 交互数字Ce专利控股有限公司 | 对相对于参照对象和参照虚拟视点的3d照明参数进行基于阴影的估计 |
KR20230011045A (ko) * | 2021-07-13 | 2023-01-20 | 삼성전자주식회사 | 빛 추정 방법 및 장치 |
-
2019
- 2019-11-21 JP JP2021558122A patent/JP7300517B2/ja active Active
- 2019-11-21 WO PCT/JP2019/045648 patent/WO2021100177A1/ja active Application Filing
- 2019-11-21 US US17/775,998 patent/US11910095B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100134516A1 (en) | 2008-11-28 | 2010-06-03 | Sony Corporation | Image processing system |
US20110063295A1 (en) | 2009-09-14 | 2011-03-17 | Eddy Yim Kuo | Estimation of Light Color and Direction for Augmented Reality Applications |
JP2013515307A (ja) | 2009-12-21 | 2013-05-02 | トムソン ライセンシング | 環境マップを生成する方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220394165A1 (en) | 2022-12-08 |
US11910095B2 (en) | 2024-02-20 |
WO2021100177A1 (ja) | 2021-05-27 |
JPWO2021100177A1 (ja) | 2021-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108885799B (zh) | 信息处理设备,信息处理系统以及信息处理方法 | |
JP7529668B2 (ja) | マルチカメラクロスリアリティデバイス | |
CN106662917B (zh) | 眼睛跟踪校准系统和方法 | |
EP2854099B1 (en) | Information processing device and information processing method | |
CN105264478B (zh) | 全息锚定和动态定位 | |
JP5467303B1 (ja) | 注視点検出装置、注視点検出方法、個人パラメータ算出装置、個人パラメータ算出方法、プログラム、及びコンピュータ読み取り可能な記録媒体 | |
US20210342578A1 (en) | Polarization Imaging for Facial Recognition Enhancement System and Method | |
CN108629830A (zh) | 一种三维环境信息显示方法及设备 | |
US20140176591A1 (en) | Low-latency fusing of color image data | |
CN108136258A (zh) | 基于跟踪眼部运动来调整图像帧 | |
US20150029322A1 (en) | Method and computations for calculating an optical axis vector of an imaged eye | |
TW201301081A (zh) | 全自動動態鉸接模型校準 | |
JP6799155B2 (ja) | 情報処理装置、情報処理システム、および被写体情報特定方法 | |
Gruber et al. | Image-space illumination for augmented reality in dynamic environments | |
Hernandez et al. | Near laser-scan quality 3-D face reconstruction from a low-quality depth stream | |
US20200393896A1 (en) | System and method for gaze estimation | |
WO2019003383A1 (ja) | 情報処理装置および材質特定方法 | |
US11327329B2 (en) | Information processing apparatus and surface roughness acquisition method | |
JP6934575B2 (ja) | 情報処理装置および物体検出方法 | |
JP5805013B2 (ja) | 撮像画像表示装置、撮像画像表示方法、プログラム | |
JP7300517B2 (ja) | 入射光情報取得方法、入射光情報取得システム、および情報処理装置 | |
CN116382473A (zh) | 一种基于自适应时序分析预测的视线校准、运动追踪及精度测试方法 | |
CN113138066A (zh) | 外部畸变检测方法及其系统和平台以及电子设备 | |
WO2018173183A1 (ja) | 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム | |
US20240314432A1 (en) | Methods, storage media, and systems for detecting a persisting or sustained blur condition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7300517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |