JP7304985B2 - 光学画像表現をシミュレートする方法 - Google Patents
光学画像表現をシミュレートする方法 Download PDFInfo
- Publication number
- JP7304985B2 JP7304985B2 JP2022014035A JP2022014035A JP7304985B2 JP 7304985 B2 JP7304985 B2 JP 7304985B2 JP 2022014035 A JP2022014035 A JP 2022014035A JP 2022014035 A JP2022014035 A JP 2022014035A JP 7304985 B2 JP7304985 B2 JP 7304985B2
- Authority
- JP
- Japan
- Prior art keywords
- lens
- image
- ray
- simulated
- data record
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title description 42
- 238000000034 method Methods 0.000 claims description 110
- 238000004088 simulation Methods 0.000 claims description 64
- 238000003384 imaging method Methods 0.000 claims description 33
- 230000009466 transformation Effects 0.000 claims description 24
- 230000000694 effects Effects 0.000 claims description 23
- 230000000903 blocking effect Effects 0.000 claims description 17
- 210000001747 pupil Anatomy 0.000 claims description 17
- 238000012634 optical imaging Methods 0.000 claims description 8
- 238000013213 extrapolation Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 18
- 230000004075 alteration Effects 0.000 description 12
- 238000005457 optimization Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000010276 construction Methods 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000013178 mathematical model Methods 0.000 description 4
- 238000001454 recorded image Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 238000011144 upstream manufacturing Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000031700 light absorption Effects 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010010071 Coma Diseases 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000013041 optical simulation Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000033458 reproduction Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/02—Non-photorealistic rendering
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0012—Optical design, e.g. procedures, algorithms, optimisation routines
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
- G03B17/12—Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B9/00—Exposure-making shutters; Diaphragms
- G03B9/02—Diaphragms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/75—Circuitry for compensating brightness variation in the scene by influencing optical camera components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Lenses (AREA)
- Image Generation (AREA)
Description
-開口絞り:少なくとも1つの概ね円形の絞りがレンズに搭載され、上記絞りの光学的透過直径はユーザによって変えることができる。多くの場合、これは虹彩絞りとして知られるもので作られる。
-フォーカスを設定するために、レンズは、画像検出面に対して光軸に沿って変位可能であり、好ましくは他の光学要素に対しても変位可能な1つ又は複数のレンズ要素を装備し得る。
-焦点距離を可変調整するために、レンズは、画像検出面に対して光軸に沿って変位可能であり、好ましくは他の光学要素に対しても変位可能な1つ又は複数のレンズ要素を装備し得る。焦点距離の代わりに、レンズの倍率は連続入力変数として使用することもできる。倍率は、センサ又はフィルム面上の物体の画像のサイズとこのイメージングされフォーカスされた物体のサイズとの比率から生じるスケーリングファクタである。入力変数としての倍率の選択が、本発明による方法に特によく適することが分かった。
-フィールド曲率を可変調整するために、レンズは、画像検出面に対して光軸に沿って変位可能であり、好ましくは他の光学要素に対しても変位可能な1つ又は複数のレンズ要素を装備し得る。
-レンズを通る光の波面を可変操作するために、レンズは変位可能自由形態要素を装備し得る。例として、これらは、光軸に垂直に変位可能な1つ又は2つのいわゆるアルバレス(Alvarez)要素であることができる。
-複数の光線及びフォーカス距離又は焦点距離等の調整可能な1つ又は複数のパラメータの複数の設定について、シミュレートされるレンズの厳密な光学構築を用いてレイトレーシングが実行される。
-データ記録1010が最適化アルゴリズムによって計算される。このために、従来技術からの既知の反復最適化アルゴリズム又はフィットアルゴリズムを利用することができる。特に適したアルゴリズムは「直交マッチング追跡」アルゴリズムとして既知である。このフィッティング又は最適化プロセスの結果はデータ記録1010であり、第2のデータ記録1020を考慮に入れながら、所与の入力光線及び所与の調整可能レンズパラメータでの出力光線の位置及び方向を供給する。
-この最適化プロセスに加えて、シミュレートされるレンズ1において1つ又は複数の場所を識別し得、上記場所で光線は、例えばレンズの筐体内又は絞り内に入るため、遮光され、それ故、吸収される。直径及び/又は形状を選ぶことができる開口絞り3は、別個にラベリングされた好ましい絞り又は遮光面210である。多くのレンズはそのような絞りを含む。考慮される全ての遮光面210についての情報は、複数の部分データ記録1030が形成されることにより、データ記録の一部になる。これらの部分データ記録1030のそれぞれは、センサ面から各遮光面210までのシミュレートされるレンズの部分シミュレーションに適した係数についての情報を含む。これらの遮光面210の実際の軸方向位置は関連しない。光線位置はパラメータ化手法によって各遮光面210に指定することができ、パラメータは例えば、方位角及び半径、又は仰角、又は特に好ましくは正規化半径からなる。
-データ記録1010は少なくとも、センサ面から仮想前面1011、レンズ前面、又はレンズ1の入射瞳までの光線路をシミュレートするのに適する係数についての情報を含まなければならない。
-仮想前面1011は事前に定義し得る。しかしながら、データ記録1010の最適化プロセスの一環として、仮想前面1011を最適化することもまた可能である。
-仮想前面の曲率半径:13.365mm
-仮想前面とセンサとの間の距離:60.0mm
-最小F値:Fmin=2.87
-サポートされる焦点範囲:d=507mmから無限
-焦点距離:f=50.0mm
-xs、ys:センサの光線位置、定義範囲-18.0mm≦xs≦18.0mm及び-12mm≦ys≦12mm
-xa、ya:仮想絞りでの光線位置、定義範囲:F値Fについてxa 2+ya 2<(Fmin/F)2
-β=f/(f-d)
-xf、yf:mm単位の仮想前面の頂点における接平面に投影される光線位置
-uf、vf:光線点における仮想前面の接平面に投影される光線位置
-xv1、yv1、xv2、yv2:遮光面上の光線位置。ビネッティングを生成する遮光面の1つにおいてx2+y2>1である場合、光線は遮光される。
-図9に示すような、例えばいわゆるフィボナッチ螺旋の形態の一定密度の固定された螺旋格子。そのようなピンホールカメラの位置は好ましくは、入射面3000の透過領域内に配置される。
-図10に示すような純粋にランダムな配置。
-入射瞳、前面、又は仮想前面1011が、ピンホールカメラの位置によって記述される多角形内にあるような、入射面3000の透過領域外の位置に少なくとも3台のピンホールカメラ。
A)第1の表面(110)上に配置された画像レコーダ(100)と、レンズ(1)とを備えた光学イメージングシステムを使用してシーンの画像表現をシミュレートすることによって画像の画素の輝度寄与を生成する方法であって、
-シミュレートされるレンズ(1)の光線(800)への効果を記述するデータを含む第1のデータ記録(1010)を提供するステップと、
-画像レコーダ(100)への光線(800)の入射点(111)及び仮想前面(1011)についてのデータを含む第2のデータ記録(1020)を提供するステップと、
-変換規則(900)を提供するステップと、
-変換規則(900)を第1のデータ記録(1010)及び第2のデータ記録(1020)に適用することにより、仮想前面(1011)との光線(800)の第1の交点(1013)及び第1の交点(1013)での光線(800)の方向を計算するステップと、
-光線(800)の輝度寄与を決定するステップと、
-光線(800)の計算された輝度寄与に関する情報項目を記憶するステップと、
を含み、
-第1のデータ記録(1020)は第2の表面(200)についてのデータを含み、
-第2のデータ記録は、第2の表面(200)との光線(800)の第2の交点(201)についてのデータを含む、方法。
-第2のデータ記録(1020)は、レンズ(1)の少なくとも1つの調整可能なイメージングパラメータ(1022、1023)についての情報項目を含む、A)に記載の方法。
第2の表面(200)は、絞り、好ましくは開口絞り(3)と一致する、A)、B)、又はC)に記載の方法。
-レンズ(1)における少なくとも1つの遮光エリア(210)に関連するデータ及び
-少なくとも1つの光線(800)に対する、少なくとも1つの遮光エリア(210)と画像レコーダ(100)との間に延在するレンズ(1)の一部の効果に関連するデータ
を含み、方法は、少なくとも1つの光線(800)の輝度寄与を記憶する前、
-少なくとも1つの遮光エリア(210)との第3の交点(211)を計算するステップと、
-少なくとも1つの光線(800)が第3の交点(211)によって吸収されるか、それとも透過するかをチェックするステップと、
-少なくとも1つの光線(800)が吸収される場合、光線(800)を破棄するか、又は輝度寄与をゼロに設定するステップと、
を含む、A)~F)の何れか一つに記載の方法。
-画像レコーダ(100)への光線(800)の入射点(111)を選択するステップと、
-第2の表面(200)への複数の異なる第2の交点(201)を選択するステップと、
-第2の交点(201)のそれぞれについて、A)~G)に記載のレイトレーシングを実行するステップと、
-生じた輝度寄与を合算するステップと、
-合算の結果を記憶するステップと、
を含む方法。
-画像レコーダ上の複数の画素を選択するステップと、
-H)に記載の方法を使用して、画素のそれぞれに入射する光線(800)の輝度寄与を計算するステップと、
-結果を記憶するステップと、
を特徴とする方法。
画像の性質は、第1の交点(1013)のそれぞれに配置されたピンホールカメラによって生成される画像に対応するようなものである、J)に記載の方法。
-実際のカメラによって記録された実際の画像を提供するステップと、
-K)、L)、M)、又はP)の何れか一つに記載の方法により生成された仮想画像を提供するステップと、
-実際の画像の少なくとも一部と仮想画像の少なくとも一部を融合又は重ねるステップと、
-作成された画像を記憶するステップと、
を含み、
シミュレーションに使用される調整可能なレンズパラメータは少なくとも概ね、実際の記録中に使用される調整可能なレンズパラメータに対応する、方法。
-仮想シーンを提供するステップと、
-仮想シーンに関連したカメラ位置を提供するステップと、
-K)、L)、M)、P)、又はQ)の何れか一つに記載の方法の1つに従って、画像シーケンスの個々の画像を計算するステップと、
-画像シーケンスを記憶するステップと、
を含む方法。
2 レンズ要素
3 開口絞り
4 マウント
5 ピクセル
100 画像レコーダ/センサ
110 センサ面
111 センサへのシミュレートされる光線の入射点
112 センサに入射した光線に関する方向情報項目
200 第2の表面
201 第2の交点
210 遮光面
211 第3の交点
300 コンピュータ
800 シミュレートされる光線
900 変換規則
901 仮想レンズ
1000 入力データ記録
1010 第1のデータ記録(「仮想レンズ」)
1010r、1010g、1010b 異なる色の部分データ記録
1011 仮想前面
1012 対称軸
1013 第1の交点
1020 第2のデータ記録
1021 シミュレートされる光線に関する情報項目
1022 設定された絞りに関する情報項目
1023 レンズで調整可能な更なるイメージングパラメータに関する情報項目
1024 シミュレートされる光の波長又は色に関する情報項目
1030 部分データ記録
2000 出力データ記録
2010 入射光線
3000 入射面
Claims (16)
- 第1の表面(110)上に配置された画像レコーダ(100)と、レンズ(1)とを備えた光学イメージングシステムを使用してシーンの画像表現をシミュレートすることによって画像の画素の輝度寄与を生成する方法であって、
-シミュレートされる前記レンズ(1)の光線(800)への効果を記述するデータを含む第1のデータ記録(1010)を提供するステップと、
-前記画像レコーダ(100)への光線(800)の入射点(111)及び仮想前面(1011)についてのデータを含む第2のデータ記録(1020)を提供するステップと、
-変換規則(900)を提供するステップと、
-前記変換規則(900)を前記第1のデータ記録(1010)及び前記第2のデータ記録(1020)に適用することにより、前記仮想前面(1011)との前記光線(800)の第1の交点(1013)及び前記第1の交点(1013)での前記光線(800)の方向を計算するステップと、
-前記光線(800)の前記輝度寄与を決定するステップと、
-前記光線(800)の前記計算された輝度寄与に関する情報項目を記憶するステップと、
を含み、
-前記第1のデータ記録(1010)は第2の表面(200)についてのデータを含み、
-前記第2のデータ記録(1020)は、前記第2の表面(200)との前記光線(800)の第2の交点(201)についてのデータを含む、方法。 - -前記レンズ(1)は、少なくとも1つの調整可能なイメージングパラメータ(1022、1023)を有し、
-前記第2のデータ記録(1020)は、前記レンズ(1)の前記少なくとも1つの調整可能なイメージングパラメータ(1022、1023)についての情報項目を含む、請求項1に記載の方法。 - 前記調整可能なイメージングパラメータ(1023)は、前記レンズ(1)のフォーカス設定、及び/又は、焦点距離、及び/又は、倍率、及び/又はフィールド曲率を含む、請求項2に記載の方法。
- 前記レンズ(1)は、開口絞り(3)を備え、
前記第2の表面(200)は、前記開口絞り(3)と一致する、請求項1~3の何れか一項に記載の方法。 - 前記調整可能なイメージングパラメータの1つ(1022)は、前記開口絞り(3)の寸法の少なくとも1つを記述する、請求項2を引用する請求項4に記載の方法。
- 前記開口絞り(3)は少なくとも円形であり、前記第2の表面(200)との前記光線(800)の前記第2の交点(201)に関する前記情報項目は、正規化半径を含む、請求項5に記載の方法。
- 前記第1のデータ記録(1010)は、
-前記レンズ(1)における少なくとも1つの遮光エリア(210)に関連するデータ及び
-少なくとも1つの前記光線(800)に対する、前記少なくとも1つの遮光エリア(210)と前記画像レコーダ(100)との間に延在する前記レンズ(1)の一部の効果に関連するデータ
を含み、前記方法は、前記少なくとも1つの前記光線(800)の前記輝度寄与を記憶する前、
-前記少なくとも1つの遮光エリア(210)との第3の交点(211)を計算するステップと、
-前記少なくとも1つの前記光線(800)が前記第3の交点(211)によって吸収されるか、それとも透過するかをチェックするステップと、
-前記少なくとも1つの前記光線(800)が吸収される場合、前記光線(800)を破棄するか、又は前記輝度寄与をゼロに設定するステップと、
を含む、請求項1~6の何れか一項に記載の方法。 - 画像の画素を生成する方法であって、
-画像レコーダ(100)への光線(800)の入射点(111)を選択するステップと、
-第2の表面(200)への複数の異なる第2の交点(201)を選択するステップと、
-前記第2の交点(201)のそれぞれについて、請求項1~7の何れか一項に記載の方法を実行するステップと、
-生じた前記輝度寄与を合算するステップと、
-前記合算の結果を記憶するステップと、
を含む方法。 - 画像を生成する方法であって、
-画像レコーダ上の複数の画素を選択するステップと、
-請求項8に記載の方法を使用して、前記画素のそれぞれに入射する光線(800)の輝度寄与を計算するステップと、
結果を記憶するステップと、
を特徴とする方法。 - 第1の交点(1013)において仮想前面(1011)と交わる、このためにシミュレートされる前記光線(800)のそれぞれの前記輝度寄与は、各事例でピンホールカメラ画像を用いて決定され、
前記画像の性質は、前記第1の交点(1013)のそれぞれに配置されたピンホールカメラによって生成される画像に対応するようなものである、請求項9に記載の方法。 - 前記仮想前面(1011)及びレンズの入射瞳は同時にシミュレートされる、請求項10に記載の方法。
- 前記第2の表面(200)は前記仮想前面と一致する、請求項11に記載の方法。
- 前記ピンホールカメラ画像の少なくとも1つは、他のピンホールカメラ画像からの補間又は外挿によって計算された、請求項10~12の何れか一項に記載の方法。
- 画像を生成する方法であって、
-実際のカメラによって記録された実際の画像を提供するステップと、
-請求項10~13の何れか一項に記載の方法により仮想画像を生成するステップと、
-前記実際の画像の少なくとも一部と前記仮想画像の少なくとも一部を融合又は重ねるステップと、
を含み、
シミュレーションに使用される調整可能なレンズパラメータは少なくとも、前記実際の記録中に使用される調整可能なレンズパラメータに対応する、方法。 - 個々の画像からなる画像シーケンスを生成する方法であって、
-仮想シーンを提供するステップと、
-前記仮想シーンに関連したカメラ位置を提供するステップと、
-請求項10~14の何れか一項に記載の方法の1つに従って、前記画像シーケンスの前記個々の画像を計算するステップと、
-前記画像シーケンスを記憶するステップと、
を含む方法。 - コンピュータにロードされた後、コンピュータに、請求項1~15の何れか一項に記載の方法を実行させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021200965.4A DE102021200965A1 (de) | 2021-02-03 | 2021-02-03 | Verfahren zur Simulation einer optischen Abbildung |
DE102021200965.4 | 2021-02-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022119203A JP2022119203A (ja) | 2022-08-16 |
JP7304985B2 true JP7304985B2 (ja) | 2023-07-07 |
Family
ID=80448910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022014035A Active JP7304985B2 (ja) | 2021-02-03 | 2022-02-01 | 光学画像表現をシミュレートする方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20220247906A1 (ja) |
EP (1) | EP4040396A1 (ja) |
JP (1) | JP7304985B2 (ja) |
KR (1) | KR20220112206A (ja) |
CN (1) | CN114926580A (ja) |
AU (1) | AU2022200296B2 (ja) |
CA (1) | CA3148635A1 (ja) |
DE (1) | DE102021200965A1 (ja) |
NZ (1) | NZ784361A (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009230699A (ja) | 2008-03-25 | 2009-10-08 | Seiko Epson Corp | シミュレーション装置、シミュレーションプログラムおよびシミュレーションプログラムを記録した記録媒体 |
WO2020021121A1 (de) | 2018-07-27 | 2020-01-30 | Carl Zeiss Ag | Verfahren und datenverarbeitungssystem zur synthese von bildern |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1786916A (en) | 1927-09-29 | 1930-12-30 | Zeiss Carl Fa | Objective corrected spherically, chromatically, astigmatically, and for coma |
DD263604A1 (de) | 1987-09-02 | 1989-01-04 | Zeiss Jena Veb Carl | Kompaktes spiegellinsenobjektiv |
US4965840A (en) * | 1987-11-27 | 1990-10-23 | State University Of New York | Method and apparatus for determining the distances between surface-patches of a three-dimensional spatial scene and a camera system |
US5193124A (en) * | 1989-06-29 | 1993-03-09 | The Research Foundation Of State University Of New York | Computational methods and electronic camera apparatus for determining distance of objects, rapid autofocusing, and obtaining improved focus images |
US6028606A (en) * | 1996-08-02 | 2000-02-22 | The Board Of Trustees Of The Leland Stanford Junior University | Camera simulation system |
SE0302065D0 (sv) * | 2003-07-14 | 2003-07-14 | Stefan Carlsson | Video - method and apparatus |
US8358354B2 (en) * | 2009-01-26 | 2013-01-22 | The Board Of Trustees Of The Leland Stanford Junior University | Correction of optical abberations |
EP3071928B1 (de) * | 2014-01-20 | 2017-09-06 | Carl Zeiss Industrielle Messtechnik GmbH | Bildaufnahmesimulation in einem koordinatenmessgerät |
WO2016175046A1 (ja) * | 2015-04-28 | 2016-11-03 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
WO2016175045A1 (ja) * | 2015-04-28 | 2016-11-03 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
DE102016200225B4 (de) * | 2016-01-12 | 2017-10-19 | Siemens Healthcare Gmbh | Perspektivisches Darstellen eines virtuellen Szenebestandteils |
CN107665501A (zh) * | 2016-07-29 | 2018-02-06 | 北京大学 | 一种实时变焦光线追踪渲染引擎 |
CN109597275A (zh) * | 2018-11-29 | 2019-04-09 | 同济大学 | 一种基于双楔形棱镜的轴向分布式三维成像方法 |
-
2021
- 2021-02-03 DE DE102021200965.4A patent/DE102021200965A1/de active Pending
-
2022
- 2022-01-18 NZ NZ784361A patent/NZ784361A/en unknown
- 2022-01-18 AU AU2022200296A patent/AU2022200296B2/en active Active
- 2022-01-28 CN CN202210106797.8A patent/CN114926580A/zh active Pending
- 2022-01-31 EP EP22154149.3A patent/EP4040396A1/de active Pending
- 2022-02-01 JP JP2022014035A patent/JP7304985B2/ja active Active
- 2022-02-02 CA CA3148635A patent/CA3148635A1/en active Pending
- 2022-02-03 KR KR1020220014098A patent/KR20220112206A/ko not_active Application Discontinuation
- 2022-02-03 US US17/592,342 patent/US20220247906A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009230699A (ja) | 2008-03-25 | 2009-10-08 | Seiko Epson Corp | シミュレーション装置、シミュレーションプログラムおよびシミュレーションプログラムを記録した記録媒体 |
WO2020021121A1 (de) | 2018-07-27 | 2020-01-30 | Carl Zeiss Ag | Verfahren und datenverarbeitungssystem zur synthese von bildern |
Also Published As
Publication number | Publication date |
---|---|
JP2022119203A (ja) | 2022-08-16 |
KR20220112206A (ko) | 2022-08-10 |
NZ784361A (en) | 2023-12-22 |
US20220247906A1 (en) | 2022-08-04 |
CN114926580A (zh) | 2022-08-19 |
EP4040396A1 (de) | 2022-08-10 |
AU2022200296B2 (en) | 2023-03-16 |
DE102021200965A1 (de) | 2022-08-04 |
CA3148635A1 (en) | 2022-08-03 |
AU2022200296A1 (en) | 2022-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7961970B1 (en) | Method and apparatus for using a virtual camera to dynamically refocus a digital image | |
US20230419460A1 (en) | Method and apparatus for calibrating augmented reality headsets | |
Steinert et al. | General spectral camera lens simulation | |
US10924727B2 (en) | High-performance light field display simulator | |
Wu et al. | Rendering realistic spectral bokeh due to lens stops and aberrations | |
JP6674643B2 (ja) | 画像処理装置及び画像処理方法 | |
WO2016175043A1 (ja) | 画像処理装置及び画像処理方法 | |
Michels et al. | Simulation of plenoptic cameras | |
Hach et al. | Cinematic bokeh rendering for real scenes | |
JP6674644B2 (ja) | 画像処理装置及び画像処理方法 | |
JP7304985B2 (ja) | 光学画像表現をシミュレートする方法 | |
JP6684454B2 (ja) | 画像処理装置及び画像処理方法 | |
Kakimoto et al. | Interactive simulation of the human eye depth of field and its correction by spectacle lenses | |
Hasinoff | Variable-aperture photography | |
WO2012146303A1 (en) | Method and system for real-time lens flare rendering | |
Dey et al. | Image formation model of a 3D translucent object observed in light microscopy | |
RU2785988C1 (ru) | Система формирования изображений и способ обработки изображений | |
Keshmirian | A physically-based approach for lens flare simulation | |
RU2806729C1 (ru) | Система и способ реконструкции свойств поверхности и определения положения оцифрованных 3d объектов | |
Kakimoto et al. | An eyeglass simulator using conoid tracing | |
Mandl et al. | Neural Bokeh: Learning Lens Blur for Computational Videography and Out-of-Focus Mixed Reality | |
JP2022159118A (ja) | 物体の画像を形成する方法、コンピュータプログラム製品、及びその方法を実行するための画像形成システム | |
Willi et al. | Multi-Lens Cameras in appleseed | |
Reelfs | Physically-Based Real-Time Lens Flare Rendering | |
Ehmann | Manipulating 4D light fields for creative photography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7304985 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |