JP2022175419A - 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システム - Google Patents
画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システム Download PDFInfo
- Publication number
- JP2022175419A JP2022175419A JP2021081785A JP2021081785A JP2022175419A JP 2022175419 A JP2022175419 A JP 2022175419A JP 2021081785 A JP2021081785 A JP 2021081785A JP 2021081785 A JP2021081785 A JP 2021081785A JP 2022175419 A JP2022175419 A JP 2022175419A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- machine learning
- learning model
- refocus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 21
- 238000012545 processing Methods 0.000 title claims description 94
- 238000000034 method Methods 0.000 title claims description 19
- 238000004519 manufacturing process Methods 0.000 title claims description 6
- 238000010801 machine learning Methods 0.000 claims abstract description 44
- 238000013528 artificial neural network Methods 0.000 claims description 41
- 238000003384 imaging method Methods 0.000 claims description 38
- 230000003287 optical effect Effects 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 3
- 210000001747 pupil Anatomy 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 2
- 230000004907 flux Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 15
- 238000013135 deep learning Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/676—Bracketing for image capture at varying focusing conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0088—Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】DLを用いて2視点画像から高精度にリフォーカス画像を生成する画像処理方法を提供する。【解決手段】画像処理方法は、視差情報を有する少なくとも1枚の第1の画像とリフォーカス情報とを取得する第1の工程(S201、S202)と、第1の画像とリフォーカス情報とを機械学習モデルに入力し、リフォーカス情報に基づいて第1の画像の合焦位置を移動した第2の画像を生成する第2の工程(S203)とを有し、リフォーカス情報は、第1の画像と第2の画像の合焦位置の間隔に関する情報である。【選択図】図5
Description
本発明は、機械学習DL(Deep Learning)を用いて2視点画像から高精度にリフォーカス(Refocus)画像を生成する画像処理方法に関する。
非特許文献1には、DLを用いて2視点画像からデプスを推定した後、そのデプスに基づいて2視点画像のどちらかをデプス方向に分解し、デプス毎にぼけを加えて足し合わせることで、リフォーカス画像を生成する方法が開示されている。ここで、リフォーカスとは、2視点画像の合焦位置(Focus Plane)を仮想的に移動した画像を推定する画像処理である。また、2視点画像とは、同一被写体を左右の異なる視点から撮影された画像、すなわち横方向に視差の付いた画像である。
Benjamin Busam、Matthieu Hog、Steven McDonagh、 "SteReFo: Efficient Image Refocusing with Stereo Visin"、 ICCV (2019年).
非特許文献1に開示された方法では、DLの学習に2視点画像と対応したデプスマップが必要となる。一般にデプスマップは有限の分解能を有するものであるため、特許文献1に開示された方法では、任意の合焦位置にリフォーカスさせたリフォーカス画像を生成することが難しい。このため、高精度なリフォーカス画像を生成することができない。
そこで本発明は、DLを用いて2視点画像から高精度にリフォーカス画像を生成する画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システムを提供することを目的とする。
本発明の一側面としての画像処理方法は、視差情報を有する少なくとも1枚の第1の画像とリフォーカス情報とを取得する第1の工程と、前記第1の画像と前記リフォーカス情報とを機械学習モデルに入力し、前記リフォーカス情報に基づいて前記第1の画像の合焦位置を移動した第2の画像を生成する第2の工程とを有し、前記リフォーカス情報は、前記第1の画像と前記第2の画像の合焦位置の間隔に関する情報である。
本発明の他の目的及び特徴は、以下の実施例において説明される。
本発明によれば、DLを用いて2視点画像から高精度にリフォーカス画像を生成する画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システムを提供することができる。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。
まず、実施例の具体的な説明を行う前に、各実施例の要旨を説明する。 各実施例は、DLを用いて2視点画像から高精度にリフォーカス画像を生成する。DLによる画像処理では、ニューラルネットワークを用いる。ニューラルネットワークでは、画像に対して畳み込むフィルタと足し合わせるバイアス、非線形変換する活性化関数を用いる。フィルタおよびバイアスはウエイトと呼ばれ、訓練画像から学習により生成される。各実施例では、訓練画像として2視点画像とそれに対応したフォーカスブラケット画像を用いる。ここで、フォーカスブラケット画像とは、2視点画像の合焦位置を実際に移動して撮影した複数枚の画像である。画像に対してフィルタを畳み込み、バイアスを足し合わせ、非線形変換することを繰り返した結果、ニューラルネットワークの中間層で得られる多次元配列は、特徴マップ(feature map)と呼ばれる。特徴マップの次元のうち、1次元目と2次元目は縦横、3次元目は深さまたはチャンネルと呼ばれる。
次に、図10を参照して、各実施例の概要に関して説明する。各実施例では、2視点画像(第1の画像)とリフォーカス情報をニューラルネットワークに入力しリフォーカス画像(第2の画像)を生成する。ここで、リフォーカス画像は2視点画像の合焦位置を仮想的に移動した画像である。または、2視点画像の合焦位置を実際に移動して撮影した複数枚のフォーカスブラケット画像のうち、1枚を推定した画像がリフォーカス画像と見てもよい。合焦位置の移動量はリフォーカス情報で指定される。
各実施例では、ニューラルネットワークを用いて、2視点画像から抽出した横方向の視差情報とリフォーカス情報から、正解画像であるフォーカスブラケット画像が有する縦方向の視差情報を推定することで、高精度にリフォーカス画像を生成する。なお、前述の画像処理方法は一例であり、各実施例はこれに限定されるものではない。その他の画像処理方法などの詳細は、以下の各実施例で述べる。
まず、本発明の実施例1における画像処理システムに関して説明する。本実施例では、ニューラルネットワークを用いて2視点画像からリフォーカス画像を生成する画像処理を学習、実行させる。
図2は、本実施例における画像処理システム100のブロック図である。図3は、画像処理システム100の外観図である。画像処理システム100は、学習装置101、撮像装置102、画像推定装置103、表示装置104、記録媒体105、入力装置106、出力装置107、およびネットワーク108を有する。
学習装置(画像処理装置)101は、記憶部101a、画像取得部101b、リフォーカス情報取得部101c、および学習部101dを有する。
撮像装置102は、光学系102aおよび撮像素子102bを有する。光学系102aは、被写体から撮像装置102へ向かう光を集光する。撮像素子102bは、光学系102aを介して形成された被写体の光学像を受光して撮像画像(2視点画像)を取得する。撮像素子102bは、例えば撮像面位相差センサである。ここで、撮像面位相差センサとは、1つの画素が1つのマイクロレンズと複数の光電変換素子(フォトダイオードなど)により形成されたイメージセンサである。光学系(撮像光学系)の異なる瞳領域を通過した光束を光電変換素子が記録することで、複数視点の画像を同時に取得することができる。なお、本実施例では1画素が左右に独立した2個の光電変換素子で構成され、右目と左目で同一被写体を見た2視点画像が同時に取得することができるとする。なお、撮像面位相差センサを備えた撮像装置102は、被写体に自動で焦点を合わせる(オートフォーカス)目的で主に用いられている。なお本実施例の撮像装置102は、このような構成に限定されるものではなく、2視点画像が取得可能であれば、例えばステレオカメラでもよい。その場合、撮像素子102bは、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal-Oxide Semiconductor)センサなどである。また、取得した2視点画像を保存する記憶部や表示する表示部、外部に送信する送信部、外部の記憶媒体に保存させる出力部、などは不図示である。また、撮像装置102の各部を制御する制御部も不図示である。
画像推定装置(画像処理装置)103は、記憶部103a、画像取得部103b、リフォーカス情報取得部103c、および画像処理部(生成部)103dを有する。画像推定装置103は、画像取得部103bが取得した2視点画像と、リフォーカス情報取得部103cが取得したリフォーカス情報とに基づいて、画像処理部103dがリフォーカス画像を生成する画像処理を行う。なお2視点画像は、撮像装置102で撮影された画像でもよいし、記録媒体105に保存された画像でもよい。
リフォーカス情報は、2視点画像の合焦位置を移動する量である。すなわち、2視点画像の合焦位置を仮想的に移動して、リフォーカス画像を生成する際の、合焦位置の移動量がリフォーカス情報である。または、リフォーカス画像はフォーカスブラケット画像のうち1枚の推定なので、2視点画像と異なる合焦位置で同一被写体を撮影して複数枚のフォーカスブラケット画像を得ることを考え、その際の合焦位置の移動量のうち1つをリフォーカス情報としてもよい。リフォーカス情報は既定の量を用いてもよいし、入力装置106を介してユーザから指定された量を用いてもよい。
画像処理には、ニューラルネットワークを使用し、ウエイトの情報は記憶部103aから読み出される。ウエイトは学習装置101で学習されたものであり、画像推定装置103は、事前にネットワーク108を介して記憶部101aからウエイトの情報を読み出し、記憶部103aに保存している。保存されるウエイトの情報は、ウエイトの数値そのものでもよいし、符号化された形式でもよい。ウエイトの学習、およびウエイトを用いた画像処理に関する詳細は、後述する。
リフォーカス画像は、表示装置104、記録媒体105、および出力装置107の少なくとも1つに出力される。表示装置104は、例えば液晶ディスプレイやプロジェクタなどである。ユーザは、表示装置104を介して、処理途中の画像を確認しながら編集作業などを行うことができる。記録媒体105は、例えば半導体メモリ、ハードディスク、ネットワーク上のサーバなどである。出力装置107は、プリンタなどである。画像推定装置103は、必要に応じて現像処理やその他の画像処理(深度拡大など)を行う機能を有する。
次に、図1および図4を参照して、本実施例における学習装置101により実行されるウエイトの学習方法(学習済みモデルの製造方法)に関して説明する。図1は、ニューラルネットワークのウエイトの学習の流れ(機械学習モデル)を示す図である。図4は、ウエイトの学習に関するフローチャートである。図4の各ステップは、主に、画像取得部101b、リフォーカス情報取得部101c、および学習部101dにより実行される。
まず、図4のステップS101において、画像取得部101bは、2視点パッチ(第1の画像)と、2視点パッチに対応する複数枚のフォーカスブラケットパッチ(正解画像)を取得する。本実施例において、2視点パッチは、同一被写体を異なる2視点で撮影した画像、フォーカスブラケットパッチは、2視点パッチとは合焦位置が互いに異なる1つ以上の合焦位置で同一被写体を撮影した画像である。2視点パッチは2枚の画像であるが、本実施例はこれに限定されるものではない。例えば、2視点パッチの画素値を横方向に交互に配置して1枚の画像としてもよい。その場合、2視点パッチはフォーカスブラケットパッチより横長になるため、後述するニューラルネットワーク内部で横方向にダウンサンプリングするなどによりサイズを合わせればよい。フォーカスブラケットパッチの視点は2視点パッチの中間の視点であるが、本実施例はこれに限定されるものではない。例えば、2視点のうち左視点の合焦位置を移動した画像がフォーカスブラケットパッチであってもよい。2視点パッチとフォーカスブラケットパッチは、例えば撮像装置のフォーカスリングを複数回回して撮影(フォーカスブラケット撮影)することで取得される。また、パッチとは既定の画素数(例えば、128×128画素など)を有する画像である。
続いてステップS102において、リフォーカス情報取得部101cは、リフォーカス情報を取得する。本実施例において、リフォーカス情報は、2視点パッチとフォーカスブラケットパッチをフォーカスブラケット撮影した際の、合焦位置の移動量を撮像装置の像面の移動量として表した量を用いる。例えば、2視点パッチの合焦位置を基準として、像面を±80μm移動してフォーカスブラケットパッチを撮影した場合、リフォーカス情報は±80でもよい。また、撮像光学系の絞り値Fと許容錯乱円の径δで与えられる焦点深度Fδで規格化した量をリフォーカス情報として用いてもよい。例えば、撮像光学系の絞り値が4、許容錯乱円の径が20μmで、像面を±80μm移動してフォーカスブラケットパッチを撮影した場合、リフォーカス情報は±1でもよい。また、基準の合焦位置である2視点パッチのリフォーカス情報は0でもよい。
続いてステップS103において、学習部101dは、第1のニューラルネットワーク(第1の機械学習モデル)を用いて、2視点パッチ(第1の画像)の各々から特徴マップを生成し、それらを比較する。これにより学習部101dは、2視点パッチの対応点に関する情報、すなわち2視点パッチの視差情報を抽出する。なお本実施例では、特徴マップの比較方法は行列積であるが、本実施例はこれに限定されるものではない。例えば、SIFTやSURF、HoGなど位置合わせに用いられてきた古典的な特徴量を用いてもよいし、特徴マップを相対的に横方向にシフトした後にチャンネル方向に連結してもよい。または、2視点パッチの一方を固定して他方を相対的に横方向にシフトした後にチャンネル方向に連結して、第1のニューラルネットワークへ入力することで、2視点パッチの視差情報を抽出してもよい。または、2視点パッチの画素値を横方向に交互に配置した1枚の画像を第1のニューラルネットワークへ入力することで、2視点パッチの視差情報を抽出してもよい。
続いてステップS104において、学習部101dは、第2のニューラルネットワーク(第2の機械学習モデル)を用いて、リフォーカスパッチ(第2の画像)202を生成する。より具体的には、学習部101dは、ステップS102で得られたリフォーカス情報204と、第2のニューラルネットワークを用いて、ステップS103で得られた視差情報205とに基づいてリフォーカスパッチ202を生成する。なお本実施例では、リフォーカス情報204を画素値として有する画像と、視差情報205である特徴マップとをチャンネル方向に連結した後、第2のニューラルネットワークへ入力しているが、本実施例はこれに限定されるものではない。また、リフォーカスパッチ202はフォーカスブラケットパッチ200の推定であり、理想的には両者は一致する。
なお本実施例では、図1に示されるニューラルネットワークの構成を使用するが、本実施例はこれに限定されるものではない。例えば、第1のニューラルネットワークと第2のニューラルネットワークの機能を有する1つのニューラルネットワークを用いて、2視点パッチ(第1の画像)201とリフォーカス情報204とに基づいてリフォーカスパッチ(第2の画像)202を生成してもよい。なお図1において、前半の分岐したネットワークが第1のニューラルネットワーク(第1の機械学習モデル)、後半のネットワークが第2のニューラルネットワーク(機械学習モデル)を表す。
図1中のCNは畳み込み層を表す。CNは、入力とフィルタの畳み込み、およびバイアスとの和が算出され、その結果を活性化関数によって非線形変換する。フィルタの各成分とバイアスの初期値は任意であり、本実施例では乱数によって決定する。活性化関数は、例えばReLU(Rectified Linear Unit)やシグモイド関数などを使うことができる。最終層を除く各層で出力される多次元配列が特徴マップである。そのため、本実施例では視差情報205も特徴マップである。スキップコネクション203は、連続していない層から出力された特徴マップを合成する。特徴マップの合成は要素ごとの和をとってもよいし、チャンネル方向に連結(concatenation)してもよい。本実施例では要素ごとの和を採用する。
図1中の206は、2視点パッチ(第1の画像)201の各々から第1のニューラルネットワーク(特徴量生成部)により生成される特徴マップ(第1の特徴量)を比較する比較部である。前述したように、本実施例では特徴マップの比較方法は行列積であるが、本実施例はこれに限定されるものではない。
図1中の点線枠内の要素(ブロックまたはモジュール)は残差ブロック(Residual Block)を表す。残差ブロックを多層化したネットワークは残差ネットワークと呼ばれており、DLによる画像処理において広く用いられている。ただし、本実施例はこれに限定されるものではない。例えば、互いに異なる畳み込みフィルタサイズを有する畳み込み層を並置し、得られる複数の特徴マップを統合して最終的な特徴マップとするインセプションモジュール(Inception Module)を構成してもよい。または、密にスキップコネクションを有するデンスブロック(Dense Block)など、その他の要素を多層化しネットワークを構成してもよい。
また、入力に近い層で特徴マップをダウンサンプリング、出力に近い層で特徴マップをアップサンプリングし、中間層での特徴マップのサイズを小さくすることで処理負荷(~畳み込み回数)を軽減させてもよい。ここで、特徴マップのダウンサンプリングには、プーリング(Pooling)やストライド(Stride)、逆ピクセルシャッフル(De―Pixel Shuffle)などを使うことができる。また、特徴マップのアップサンプリングには、逆畳み込み(DeconvolutionまたはTransposed Convolution)、ピクセルシャッフル(Pixel Shuffle)、補間などを使うことができる。
図1中の点線枠内の要素(ブロックまたはモジュール)は残差ブロック(Residual Block)を表す。残差ブロックを多層化したネットワークは残差ネットワークと呼ばれており、DLによる画像処理において広く用いられている。ただし、本実施例はこれに限定されるものではない。例えば、互いに異なる畳み込みフィルタサイズを有する畳み込み層を並置し、得られる複数の特徴マップを統合して最終的な特徴マップとするインセプションモジュール(Inception Module)を構成してもよい。または、密にスキップコネクションを有するデンスブロック(Dense Block)など、その他の要素を多層化しネットワークを構成してもよい。
また、入力に近い層で特徴マップをダウンサンプリング、出力に近い層で特徴マップをアップサンプリングし、中間層での特徴マップのサイズを小さくすることで処理負荷(~畳み込み回数)を軽減させてもよい。ここで、特徴マップのダウンサンプリングには、プーリング(Pooling)やストライド(Stride)、逆ピクセルシャッフル(De―Pixel Shuffle)などを使うことができる。また、特徴マップのアップサンプリングには、逆畳み込み(DeconvolutionまたはTransposed Convolution)、ピクセルシャッフル(Pixel Shuffle)、補間などを使うことができる。
続いて、図4のステップS105において、学習部101dは、フォーカスブラケットパッチ200とその推定であるリフォーカスパッチ(第2の画像)202との誤差に基づいて、図1に示されるニューラルネットワークのウエイトを更新する。ここで、ウエイトは、各層のフィルタの成分とバイアスを含む。ウエイトの更新には誤差逆伝搬法(Backpropagation)を使用するが、本実施例はこれに限定されるものではない。ミニバッチ学習では、複数のフォーカスブラケットパッチ200とそれらに対応するリフォーカスパッチ202の誤差を求め、ウエイトを更新する。誤差関数(Loss function)には、例えばL2ノルムやL1ノルムなどを用いればよい。ウエイト更新方法(学習方法)はミニバッチ学習に限らず、バッチ学習でもオンライン学習でもよい。なお、以前に学習した第1のニューラルネットワークのウエイトを用いて、第2のニューラルネットワークだけ学習してもよい。すなわち、第1のニューラルネットワークのウエイトは学習せずに固定し、第2のニューラルネットワークだけ学習してもよい。
続いてステップS106において、学習部101dは、ウエイトの学習が完了したか否かを判定する。完了は、学習(ウエイトの更新)の反復回数が規定値に達したか、または、更新時のウエイトの変化量が規定値より小さいかなどにより判定することができる。未完と判定された場合、ステップS101へ戻り、新たな2視点パッチ(第1の画像)201とフォーカスブラケットパッチ200を複数枚取得する。一方、完了と判定された場合、学習装置101は学習を終了し、ウエイトの情報を記憶部101aに保存する。
次に、図5を参照して、本実施例における画像推定装置103で実行されるリフォーカス画像の生成に関して説明する。図5は、リフォーカス画像の生成に関するフローチャートである。図5の各ステップは、主に、画像推定装置103の画像取得部103b、リフォーカス情報取得部103c、および画像処理部103dにより実行される。
まずステップS201において、画像取得部103bは、撮像画像を取得する。撮像画像は、学習と同様に2視点画像であり、本実施例では撮像装置102から送信される。
続いてステップS202において、リフォーカス情報取得部103cは、リフォーカス情報を取得する。リフォーカス情報は例えばユーザが任意に設定する。リフォーカス情報は、撮像画像である2視点画像の合焦位置を仮想的に移動する量であり、学習と同様に撮像装置の像面の移動量として表した量を用いる。
続いてステップS203において、画像処理部103dは、ニューラルネットワークを用いて、撮像画像とリフォーカス情報から、リフォーカス画像(出力画像)を生成する。リフォーカス画像は、撮像画像と異なる合焦位置で仮にフォーカスブラケット撮影したとして、得られるフォーカスブラケット画像のうち1枚の推定である。リフォーカス画像の生成には、図1に示される構成と同様のニューラルネットワークを使用する。ウエイト情報は学習装置101から送信されて記憶部103aに保存されたものである。ニューラルネットワークへ撮像画像を入力する際は、学習時に使用した2視点パッチと同サイズに切り出す必要はないが、処理の高速化のため、撮影画像を互いに重複した複数枚のパッチに分解したのち処理してもよい。この場合、処理後に得られるパッチを融合してリフォーカス画像とすればよい。
本実施例において、任意に設定可能なリフォーカス情報を用いてリフォーカス画像の推定を行う。このため、リフォーカスに対するユーザの要求を高精度に反映させることができる。このため本実施例によれば、DLを用いて2視点画像から高精度にリフォーカス画像を生成することが可能である。
最後に、従来技術に対する本実施例のその他の優位性について説明する。特許文献1には、DLを用いずに2視点画像からリフォーカス画像を生成する方法が開示されている。しかし、特許文献1に開示された方法では、2視点画像には横方向の視差情報しかなく、縦方向の視差情報がないため、縦方向にはぼけが変化せず、ぼけが不自然となる。一方、本実施例によれば、2視点画像から抽出した横方向の視差情報とリフォーカス情報から、正解画像であるフォーカスブラケット画像が有する縦方向の視差情報を推定することができるため、高精度にリフォーカス画像を生成することが可能である。
次に、非特許文献1に開示された方法では、撮影画像をデプス方向に分解しデプス毎にぼけを加えている。しかし、一般にデプスの分解能は低いため撮影画像をデプス方向に連続的に分解することができず、合焦位置を連続的に(任意に)移動させたリフォーカス画像を生成することは難しい。一方、本実施例では、合焦位置を連続的に移動したフォーカスブラケット画像を正解画像として用いて学習する。これにより、リフォーカス情報を指定すれば、合焦位置を連続的に(任意に)移動したリフォーカス画像を生成することができる。
また、非特許文献1に開示された方法では、撮影画像をデプス方向に分解しデプス毎にぼけを加えるため、撮影画像が全焦点画像である必要があり、一般の画像において高精度にリフォーカス画像が生成できない。一方、本実施例では、視差情報とリフォーカス情報に基づいて、例えば撮影画像の前景を先鋭化して背景を平滑化などするため、撮像画像が全焦点画像である必要がない。このため本実施例によれば、前景・背景にさまざまなぼけが加わった一般の画像からでも高精度にリフォーカス画像が生成できる。
また、非特許文献1に開示された方法では、学習に撮像画像と対応したデプスマップが必要となり、これが原因で高精度に処理できない。それに対して、本実施例では高精度にリフォーカス画像が生成できるように2視点画像から抽出する情報が視差情報なので、正解の視差(~デプス)画像が必要ない。これにより、用意することの難しい正解の視差画像が必要ないため、高精度な処理が可能である。
なお本実施例では、学習装置101と画像推定装置103とが別体である場合を例に説明したが、これに限定されるものではない。学習装置101と画像推定装置103とが一体に構成されていてもよい。すなわち、一体の装置内で学習(図4に示す処理)と推定(図5に示す処理)を行ってもよい。
以上のように、本実施例において、画像処理装置(画像推定装置103)は、取得部(画像取得部103b、リフォーカス情報取得部103c)および生成部(画像処理部103d)を有する。取得部は、視差情報を有する少なくとも1枚の第1の画像(撮影画像など)とリフォーカス情報とを取得する。生成部は、第1の画像とリフォーカス情報とを機械学習モデルに入力し、リフォーカス情報に基づいて第1の画像の合焦位置を移動した第2の画像(リフォーカス画像)を生成する。ここでリフォーカス情報は、第1の画像と第2の画像の合焦位置の間隔に関する情報である。好ましくは、第1の画像は、同一被写体を異なる2つの視点で撮影したステレオ画像、光学系の異なる2つの瞳領域を通過した光束を記録して生成される2つの視差画像、または、ステレオ画像もしくは2つの視差画像を1枚にまとめた画像である。
また本実施例において、画像処理装置(学習装置101)は、画像取得部101b、リフォーカス情報取得部101c、および学習部101dを有する。画像取得部は、視差情報を有する少なくとも1枚の第1の画像と正解画像(フォーカスブラケット画像など)とを取得する。リフォーカス情報取得部は、第1の画像と正解画像の合焦位置の間隔に関するリフォーカス情報を取得する。学習部は、第1の画像とリフォーカス情報とを機械学習モデルに入力して生成された第2の画像と正解画像とを用いて機械学習モデルを学習する。また学習部は、第1の画像を機械学習モデルに入力し、リフォーカス情報に基づいて第1の画像の合焦位置を移動した第2の画像を生成し、第2の画像と正解画像との誤差に基づいて機械学習モデルを学習する。
次に、本発明の実施例2における画像処理システムに関して説明する。本実施例では、実施例1と同様に、ニューラルネットワークを用いて2視点画像からリフォーカス画像を推定するDL画像処理を学習、実行させる。本実施例の画像処理システムは、撮像装置が撮像画像(2視点画像)を取得して画像処理を行う点で、実施例1と異なる。
図6は、本実施例における画像処理システム300のブロック図である。図7は、画像処理システム300の外観図である。画像処理システム300は、ネットワーク303を介して接続された学習装置301と撮像装置302とを含む。なお、学習装置301と撮像装置302は、ネットワーク303を介して常に接続されている必要はない。
学習装置301は、記憶部311、画像取得部312、リフォーカス情報取得部313、および学習部314を有する。これらを用いて、2視点画像からリフォーカス画像を推定する画像処理を行うため、ニューラルネットワークのウエイトを学習する。
撮像装置302は、被写体空間を撮像して撮像画像(2視点画像)を取得し、2視点画像からリフォーカス画像を生成する。撮像装置302で実行される画像処理に関する詳細は後述する。撮像装置302は、光学系321および撮像素子322を有する。画像推定部323は、画像取得部323a、リフォーカス情報取得部323b、および画像処理部323cを有する。
なお本実施例において、学習装置301で実行される、ニューラルネットワークのウエイトの学習は実施例1と同様である。撮像装置302で実行される画像処理に関する詳細のみ後述する。
ニューラルネットワークのウエイトの情報は、学習装置301で事前に学習され、記憶部311に保存されている。撮像装置302は、記憶部311からネットワーク303を介してウエイトの情報を読み出し、記憶部324に保存する。画像推定部323は、記憶部324に保存された学習済みのニューラルネットワークのウエイトの情報と、リフォーカス情報取得部323bが取得したリフォーカス情報を用いて、画像処理部323cで2視点画像からリフォーカス画像を生成する。生成されたリフォーカス画像は、記録媒体325aに保存される。ユーザからリフォーカス画像の表示に関する指示が出された場合、保存された画像が読み出され、表示部325bに表示される。なお、記録媒体325aに保存される撮像画像を読み出して、画像推定部323でリフォーカス画像の生成を行ってもよい。また、ユーザから指示が出された場合、合焦位置の異なる複数枚のリフォーカス画像を合成した深度拡大画像を生成してもよい。以上の一連の制御は、システムコントローラ327によって行われる。
次に、本実施例における画像推定部323で実行されるリフォーカス画像の生成に関して説明する。画像処理の手順は実施例1の図5とほぼ同様である。画像処理の各ステップは、主に、画像推定部323の画像取得部323a、リフォーカス情報取得部323b、および画像処理部323cにより実行される。
まずステップS201において、画像取得部323aは、撮像画像(2視点画像)を取得する。2視点画像は、撮像装置302で取得され、記憶部324に保存されている。
続いてステップS202において、リフォーカス情報取得部323bは、リフォーカス情報を取得する。リフォーカス情報は、撮像画像である2視点画像の合焦位置を仮想的に移動する量であり、入力部326を介してユーザから指示された量を用いてもよいし、記憶部324に保存された既定の量を用いてもよい。
続いてステップS203において、画像処理部323cは、ニューラルネットワークを用いて、撮像画像とリフォーカス情報とに基づいて、リフォーカス画像を生成する。ニューラルネットワークの学習済みのウエイトは、記憶部324に保存されたものを用いる。本実施例のニューラルネットワークは、図1に示される構成と同様である。
本実施例によれば、2視点画像から高精度にリフォーカス画像を生成する画像処理システムを提供することが可能である。
本実施例によれば、2視点画像から高精度にリフォーカス画像を生成する画像処理システムを提供することが可能である。
次に、本発明の実施例3における画像処理システムに関して説明する。本実施例の画像処理システムは、画像推定装置に対して画像処理の対象である撮像画像(2視点画像)を送信し処理済みの出力画像(リフォーカス画像)を画像推定装置から受信する処理装置(コンピュータ)を有する点で、実施例1、2と異なる。
図8は、本実施例における画像処理システム400のブロック図である。画像処理システム400は、学習装置401、撮像装置402、画像推定装置(第2の装置)403、およびコンピュータ(処理装置、第1の装置)404を有する。学習装置401および画像推定装置403は、例えばサーバである。コンピュータ404は、例えばユーザ端末(パーソナルコンピュータまたはスマートフォン)である。コンピュータ404は、ネットワーク405を介して画像推定装置403に接続されている。画像推定装置403は、ネットワーク406を介して学習装置401に接続されている。すなわち、コンピュータ404と画像推定装置403とは通信可能に構成され、画像推定装置403と学習装置401とは通信可能に構成されている。
学習装置401の構成は、実施例1の学習装置101と同様のため説明を省略する。また、撮像装置402の構成は、実施例1の撮像装置102と同様のため説明を省略する。
画像推定装置403は、記憶部403a、画像取得部403b、リフォーカス情報取得部403c、画像処理部403d、および通信部(受信部)403eを有する。記憶部403a、画像取得部403b、リフォーカス情報取得部403c、および画像処理部403dは、実施例1の画像推定装置103の記憶部103a、画像取得部103b、リフォーカス情報取得部103c、および画像処理部103dとそれぞれ同様である。通信部403dは、コンピュータ404から送信される要求を受信する機能、および、画像推定装置403によって生成された出力画像(リフォーカス画像)をコンピュータ404に送信する機能を有する。
コンピュータ404は、通信部(送信部)404a、表示部404b、入力部404c、画像処理部404d、および記録部404eを有する。通信部404aは、撮像画像(2視点画像)に対する処理を画像推定装置403に実行させるための要求を画像推定装置403に送信する機能、および、画像推定装置403によって処理された出力画像(リフォーカス画像)を受信する機能を有する。表示部404bは、種々の情報を表示する機能を有する。表示部404bによって表示される情報は、例えば、画像推定装置403に送信する撮像画像(2視点画像)、および画像推定装置403から受信した出力画像(リフォーカス画像)を含む。入力部404cは、ユーザから画像処理開始の指示などが入力される。画像処理部404dは、画像推定装置403から受信した出力画像(リフォーカス画像)に対してさらに画像処理を施す機能を有する。ここで画像処理として、合焦位置の異なる複数枚のリフォーカス画像を合成する深度拡大などが含まれる。記録部404eは、撮像装置402から取得した撮像画像、画像推定装置403から受信した出力画像などを保存する。
次に、本実施例における画像処理について説明する。本実施例における画像処理は、実施例1に説明した画像処理(図5)と同等である。
図9に示される画像処理は、コンピュータ404を介してユーザにより画像処理開始の指示が成されたことを契機として開始される。まず、コンピュータ404における動作について説明する。
まずステップS401において、コンピュータ404は、撮像画像(2視点画像)に対する処理の要求を画像推定装置403へ送信する。なお、処理対象である2視点画像を画像推定装置403に送信する方法は問わない。例えば、2視点画像はステップS401と同時に画像推定装置403にアップロードされてもよく、または、ステップS401以前に画像推定装置403にアップロードされていてもよい。また、2視点画像は、画像推定装置403とは異なるサーバ上に保存された画像でもよい。なおステップS401において、コンピュータ404は2視点画像に対する処理の要求と共に、ユーザを認証するIDや、撮像条件に関する情報などを送信してもよい。
続いてステップS402において、コンピュータ404は、画像推定装置403内で生成された出力画像(リフォーカス画像)を受信する。
次に、画像推定装置403の動作について説明する。まずステップS501において、画像推定装置403は、コンピュータ404から送信された撮像画像(2視点画像)に対する処理の要求を受信する。画像推定装置403は、2視点画像に対する処理が指示されたと判定し、ステップS502以降の処理を実行する。
続いてステップS502において、画像取得部403bは、撮像画像を取得する。撮像画像は、コンピュータ404から送信される。続いてステップS503において、リフォーカス情報取得部403cは、リフォーカス情報を取得する。リフォーカス情報は、撮像画像である2視点画像の合焦位置を仮想的に移動する量である。リフォーカス情報は、入力部404cを介してユーザの指示された量を用いてもよく、または、記憶部403aに保存された既定の量を用いてもよい。続くステップS504は、実施例1のステップS203と同様である。続いてステップS505において、画像推定装置403は、出力画像(リフォーカス画像)をコンピュータ404へ送信する。
以上のように、画像推定装置403は、画像推定装置403と通信可能に接続されたコンピュータ404を用いて制御されるように構成してもよい。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例において、リフォーカス情報は、ユーザが任意に設定可能であるため、リフォーカスに対するユーザの要求を高精度に反映させることができる。このため各実施例によれば、DLを用いて2視点画像から高精度にリフォーカス画像を生成する画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システムを提供することができる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
103 画像推定装置(画像処理装置)
103b 画像取得部(取得部)
103c リフォーカス取得部(取得部)
103d 画像処理部(生成部)
103b 画像取得部(取得部)
103c リフォーカス取得部(取得部)
103d 画像処理部(生成部)
Claims (17)
- 視差情報を有する少なくとも1枚の第1の画像とリフォーカス情報とを取得する第1の工程と、
前記第1の画像と前記リフォーカス情報とを機械学習モデルに入力し、前記リフォーカス情報に基づいて前記第1の画像の合焦位置を移動した第2の画像を生成する第2の工程と、を有し、
前記リフォーカス情報は、前記第1の画像と前記第2の画像の合焦位置の間隔に関する情報であることを特徴とする画像処理方法。 - 前記機械学習モデルは、第1の機械学習モデルと第2の機械学習モデルとを含み、
前記第2の工程は、
前記第1の画像から得られる2枚の視点画像を前記第1の機械学習モデルに入力し、前記視差情報を抽出する工程と、
前記視差情報と前記リフォーカス情報とを前記第2の機械学習モデルに入力し、前記リフォーカス情報に基づいて前記第2の画像を生成する工程と、を有することを特徴とする請求項1に記載の画像処理方法。 - 前記第1の画像は、同一被写体を異なる2つの視点で撮影したステレオ画像、光学系の異なる2つの瞳領域を通過した光束を記録して生成される2つの視差画像、または、前記ステレオ画像もしくは前記2つの視差画像を1枚にまとめた画像であることを特徴とする請求項1または2に記載の画像処理方法。
- 前記第2の工程において、前記第1の画像、または前記第1の画像を前記機械学習モデルに入力して得られる特徴マップの少なくとも1つと、前記第1の画像と前記第2の画像の合焦位置の前記間隔を画素値として有する画像に関する前記リフォーカス情報とを、チャンネル方向に連結して前記機械学習モデルで処理することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。
- 前記第2の工程において、前記第1の画像の前記視差情報に関する特徴マップと、前記第1の画像と第2の画像の合焦位置の間隔を画素値として有する画像に関する前記リフォーカス情報とを、チャンネル方向に連結して前記機械学習モデルに入力することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。
- 前記機械学習モデルは、
前記第1の画像から得られる2枚の視点画像をニューラルネットワークに入力し、2つの特徴マップに関する第1の特徴量を生成する特徴量生成部と、
前記第1の特徴量を比較して前記視差情報を生成する比較部と、を有することを特徴とする請求項2に記載の画像処理方法。 - 前記第2の工程において、前記比較は前記2つの特徴マップの行列積に基づく処理により前記第1の特徴量を比較することを特徴とする請求項6に記載の画像処理方法。
- 前記第2の工程において、前記第1の画像から得られる2枚の視点画像をチャンネル方向に連結して前記機械学習モデルに入力することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。
- 前記第2の工程において、前記第1の画像から得られる2つの視点画像のうち一方を固定して他方をシフトしチャンネル方向に連結して前記機械学習モデルに入力することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。
- 前記合焦位置の間隔は、前記第1の画像と異なる合焦位置で同一被写体を撮影した前記第2の画像を、仮想的にフォーカスブラケット撮影で取得した際の、撮像装置の撮像面の移動量に基づく量であることを特徴とする請求項1乃至9のいずれか一項に記載の画像処理方法。
- 請求項1乃至10のいずれか一項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
- 視差情報を有する少なくとも1枚の第1の画像とリフォーカス情報とを取得する取得部と、
前記第1の画像と前記リフォーカス情報とを機械学習モデルに入力し、前記リフォーカス情報に基づいて前記第1の画像の合焦位置を移動した第2の画像を生成する生成部と、を有し、
前記リフォーカス情報は、前記第1の画像と前記第2の画像の合焦位置の間隔に関する情報であることを特徴とする画像処理装置。 - 視差情報を有する少なくとも1枚の第1の画像と正解画像とを取得する画像取得部と、
前記第1の画像と前記正解画像の合焦位置の間隔に関するリフォーカス情報を取得するリフォーカス情報取得部と、
前記第1の画像と前記リフォーカス情報とを機械学習モデルに入力して生成された第2の画像と前記正解画像とを用いて前記機械学習モデルを学習する学習部と、を有し、
前記学習部は、前記第1の画像を前記機械学習モデルに入力し、前記リフォーカス情報に基づいて前記第1の画像の合焦位置を移動した前記第2の画像を生成し、前記第2の画像と前記正解画像との誤差に基づいて前記機械学習モデルを学習することを特徴とする画像処理装置。 - 前記機械学習モデルは、第1の機械学習モデルと第2の機械学習モデルとを含み、
前記学習部は、
前記第1の画像から得られる2枚の視点画像を前記第1の機械学習モデルに入力して前記視差情報を抽出し、
前記視差情報と前記リフォーカス情報とを前記第2の機械学習モデルに入力して前記第2の画像を生成し、
前記第2の画像と前記正解画像との誤差に基づいて、前記第1の機械学習モデルと前記第2の機械学習モデルとを学習することを特徴とする請求項13に記載の画像処理装置。 - 前記正解画像は、前記第1の画像と異なる合焦位置で同一被写体を撮影したフォーカスブラケット画像であることを特徴とする請求項13または14に記載の画像処理装置。
- 視差情報を有する少なくとも1枚の第1の画像と正解画像とを取得する第1の工程と、
前記第1の画像と前記正解画像の合焦位置の間隔に関するリフォーカス情報を取得する第2の工程と、
前記第1の画像と前記リフォーカス情報とを機械学習モデルに入力して生成された第2の画像と前記正解画像とを用いて前記機械学習モデルを学習する第3の工程と、を有し、
前記第3の工程において、前記第1の画像を前記機械学習モデルに入力し、前記リフォーカス情報に基づいて前記第1の画像の合焦位置を移動した前記第2の画像を生成し、前記第2の画像と前記正解画像との誤差に基づいて前記機械学習モデルを学習することを特徴とする学習済みモデルの製造方法。 - 第1の装置と、前記第1の装置と通信可能な第2の装置とを有する画像処理システムであって、
前記第1の装置は、視差情報を有する少なくとも1枚の第1の画像に対する処理を前記第2の装置に実行させるための要求を送信する送信部を有し、
前記第2の装置は、
前記送信部により送信された前記要求を受信する受信部と、
前記第1の画像とリフォーカス情報とを取得する取得部と、
前記第1の画像と前記リフォーカス情報とを機械学習モデルに入力し、前記リフォーカス情報に基づいて前記第1の画像の合焦位置を移動した第2の画像を生成する生成部と、を有し、
前記リフォーカス情報は、前記第1の画像と前記第2の画像の合焦位置の間隔に関する情報であることを特徴とする画像処理システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021081785A JP2022175419A (ja) | 2021-05-13 | 2021-05-13 | 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システム |
US17/732,609 US20220368877A1 (en) | 2021-05-13 | 2022-04-29 | Image processing method, image processing apparatus, storage medium, manufacturing method of learned model, and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021081785A JP2022175419A (ja) | 2021-05-13 | 2021-05-13 | 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022175419A true JP2022175419A (ja) | 2022-11-25 |
JP2022175419A5 JP2022175419A5 (ja) | 2023-12-12 |
Family
ID=83998150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021081785A Pending JP2022175419A (ja) | 2021-05-13 | 2021-05-13 | 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220368877A1 (ja) |
JP (1) | JP2022175419A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109561257B (zh) * | 2019-01-18 | 2020-09-18 | 深圳看到科技有限公司 | 画面对焦方法、装置、终端及对应的存储介质 |
CN117132646B (zh) * | 2023-10-26 | 2024-01-05 | 湖南自兴智慧医疗科技有限公司 | 基于深度学习的分裂相自动对焦系统 |
CN117372274B (zh) * | 2023-10-31 | 2024-08-23 | 珠海横琴圣澳云智科技有限公司 | 扫描图像重聚焦方法、装置、电子设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4706882B2 (ja) * | 2009-02-05 | 2011-06-22 | ソニー株式会社 | 撮像装置 |
US11024046B2 (en) * | 2018-02-07 | 2021-06-01 | Fotonation Limited | Systems and methods for depth estimation using generative models |
JP6946255B2 (ja) * | 2018-11-13 | 2021-10-06 | 株式会社東芝 | 学習装置、推定装置、学習方法およびプログラム |
EP4014484A4 (en) * | 2019-12-27 | 2022-10-12 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND ITS CONTROL METHOD |
US11605174B2 (en) * | 2020-12-03 | 2023-03-14 | Black Sesame Technologies Inc. | Depth-of-field simulation via optical-based depth extraction |
-
2021
- 2021-05-13 JP JP2021081785A patent/JP2022175419A/ja active Pending
-
2022
- 2022-04-29 US US17/732,609 patent/US20220368877A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220368877A1 (en) | 2022-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6112824B2 (ja) | 画像処理方法および装置、プログラム。 | |
US20200280714A1 (en) | Method for performing out-focus using depth information and camera using the same | |
JP2022175419A (ja) | 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システム | |
JP2021196951A (ja) | 画像処理装置、画像処理方法、プログラム、学習済みモデルの製造方法、および画像処理システム | |
CN102208116B (zh) | 三维建模装置以及三维建模方法 | |
JP6347675B2 (ja) | 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム | |
JP2020144489A (ja) | 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および、画像処理システム | |
JP6047025B2 (ja) | 撮像装置及びその制御方法 | |
Takeda et al. | Fusing depth from defocus and stereo with coded apertures | |
JP2016129289A (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 | |
JP7378219B2 (ja) | 撮像装置、画像処理装置、制御方法、及びプログラム | |
US11967096B2 (en) | Methods and apparatuses of depth estimation from focus information | |
JP2019062340A (ja) | 像振れ補正装置および制御方法 | |
JP2020194454A (ja) | 画像処理装置および画像処理方法、プログラム、並びに記憶媒体 | |
JP6702755B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム | |
CN111292380B (zh) | 图像处理方法及装置 | |
CN112950698B (zh) | 基于双目散焦图像的深度估计方法、装置、介质和设备 | |
JP7455574B2 (ja) | 画像処理方法、プログラム、学習済みモデルの製造方法、画像処理装置、および、画像処理システム | |
JP2021096747A (ja) | 画像処理方法、プログラム、学習済みモデルの製造方法、画像処理装置、および、画像処理システム | |
JP2022161503A (ja) | 画像処理方法、機械学習モデルの製造方法、画像処理装置、画像処理システム、及びプログラム | |
JP7009219B2 (ja) | 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体 | |
JP7013205B2 (ja) | 像振れ補正装置およびその制御方法、撮像装置 | |
CN112862880A (zh) | 深度信息获取方法、装置、电子设备和存储介质 | |
WO2022014148A1 (ja) | 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、および、画像処理システム | |
CN112866674B (zh) | 深度图获取方法、装置、电子设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240917 |