JP2021531566A - 画像処理方法および装置、電子機器ならびに記憶媒体 - Google Patents
画像処理方法および装置、電子機器ならびに記憶媒体 Download PDFInfo
- Publication number
- JP2021531566A JP2021531566A JP2021500554A JP2021500554A JP2021531566A JP 2021531566 A JP2021531566 A JP 2021531566A JP 2021500554 A JP2021500554 A JP 2021500554A JP 2021500554 A JP2021500554 A JP 2021500554A JP 2021531566 A JP2021531566 A JP 2021531566A
- Authority
- JP
- Japan
- Prior art keywords
- optimization
- images
- original images
- feature matrix
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 739
- 230000008569 process Effects 0.000 claims abstract description 684
- 238000013528 artificial neural network Methods 0.000 claims abstract description 197
- 238000013507 mapping Methods 0.000 claims abstract description 50
- 238000005457 optimization Methods 0.000 claims description 662
- 239000011159 matrix material Substances 0.000 claims description 343
- 238000012545 processing Methods 0.000 claims description 132
- 238000012549 training Methods 0.000 claims description 127
- 230000006870 function Effects 0.000 claims description 66
- 238000012805 post-processing Methods 0.000 claims description 19
- 238000007781 pre-processing Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 17
- 238000003702 image correction Methods 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 abstract description 5
- 238000001994 activation Methods 0.000 description 80
- 230000004913 activation Effects 0.000 description 78
- 238000010586 diagram Methods 0.000 description 18
- 238000012544 monitoring process Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012886 linear function Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 101100194362 Schizosaccharomyces pombe (strain 972 / ATCC 24843) res1 gene Proteins 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
本開示は画像処理分野に関し、特に画像処理方法および装置、電子機器ならびに記憶媒体に関する。
ここの図面は、明細書の一部として組み込まれて、本開示に適合する実施例を示したものであり、かつ明細書と共に本開示の技術的解決手段を説明するために用いられる。
ニューラルネットワークによって前記複数の元画像に最適化処理を行い、信号対雑音比が前記元画像よりも高い前記複数の元画像に対する複数の最適化画像を出力することと、
前記複数の最適化画像に後処理を行い、前記複数の元画像に対応する深度マップを得ることと、を含む。
ここで、dは深度マップを表し、cは光速を表し、fはカメラの調整パラメータを表し、
、
、
および
はそれぞれ各元画像における第i行第j列の特徴値であり、iおよびjはそれぞれN以下の正整数であり、Nは元画像の次元(N*N)を表す。
S203:複数の前記元画像に第一の最適化プロセス群を実行し、該複数の元画像の特徴情報を融合した第一特徴行列を得ることと、
S204:前記第一特徴行列に第二の最適化プロセス群を実行し、特徴情報が前記第一特徴行列の特徴情報よりも多い第二の特徴行列を得ることと、
S205:前記第二特徴行列に第三の最適化プロセス群を実行し、特徴情報が前記第二特徴行列の特徴情報よりも多い前記最適化特徴行列の出力結果を得ることと、を含んでもよい。
S2031:一番目の第一サブ最適化プロセスによって複数の元画像の第一畳み込み処理を実行し、第一畳み込み特徴を得て、該第一畳み込み特徴に第一非線形マッピング処理を実行することで第一最適化特徴行列を得ることと、
S2032:i番目の第一サブ最適化プロセスによってi−1番目の第一サブ最適化プロセスで得られた第一最適化特徴行列の第一畳み込み処理を実行し、該第一畳み込み処理によって得られた第一畳み込み特徴に第一非線形マッピング処理を実行することでi番目の第一サブ最適化プロセスに対する第一最適化特徴行列を得ることと、
S2033:N番目の第一サブ最適化プロセスで得られた第一最適化特徴行列によって前記第一特徴行列を特定することと、を含んでもよく、ここでiは1よりも大きくかつN以下の正整数であり、Nは第一サブ最適化プロセスの数を表す。
S2041:一番目の第二サブ最適化プロセスによって前記第一特徴行列の第二畳み込み処理を実行し、第二畳み込み特徴を得て、該第二畳み込み特徴に第二非線形マッピング処理を実行することで一番目の第二サブ最適化プロセスに対する第二最適化特徴行列を得ることと、
S2042:j番目の第二サブ最適化プロセスによってj−1番目の第二サブ最適化プロセスで得られた第二最適化特徴行列の第二畳み込み処理を実行し、該第二畳み込み処理によって得られた第二畳み込み特徴に第二非線形マッピング処理を実行することでj番目の第二サブ最適化プロセスに対する第二最適化特徴行列を得ることと、
S2043:M番目の第二サブ最適化プロセスで得られた第二最適化特徴行列に基づいて前記第二特徴行列を特定することと、含んでもよく、ここでjは1よりも大きくかつM以下の正整数であり、Mは第二サブ最適化プロセスの数を表す。
j番目の第二サブ最適化プロセスによってj−1番目の第二サブ最適化プロセスで得られた第二最適化特徴行列の第二畳み込み処理を実行し、該第二畳み込み処理によって得られた第二畳み込み特徴に第二非線形マッピング処理を実行することでj番目の第二サブ最適化プロセスの第二最適化特徴行列を得て、M番目の第二サブ最適化プロセスで得られた第二最適化特徴行列に基づいて前記第二特徴行列を得てもよく、ここでjは1よりも大きくかつM以下の正整数であり、Mは第二サブ最適化プロセスの数を表す。
S2051:一番目の第三サブ最適化プロセスによって前記第二特徴行列の第三畳み込み処理を実行し、第三畳み込み特徴を得て、該第三畳み込み特徴に第三非線形マッピング処理を実行することで一番目の第三サブ最適化プロセスに対する第三最適化特徴行列を得ることと、
S2052:k−1番目の第三サブ最適化プロセスで得られた第三最適化特徴行列およびG−k+2番目の第一サブ最適化プロセスで得られた第一最適化特徴行列をk番目の第三サブ最適化プロセスの入力情報とし、k番目の第三サブ最適化プロセスによって該入力情報の第三畳み込み処理を実行し、該第三畳み込み処理によって得られた第三畳み込み特徴に第三非線形マッピング処理を実行することでk番目の第三サブ最適化プロセスに対する第三最適化特徴行列を得ることと、
S2053:G番目の第三サブ最適化プロセスが出力した第三最適化特徴行列に基づいて前記出力結果に対応する最適化特徴行列を特定することと、を含み、ここでkは1よりも大きくかつG以下の正整数であり、Gは第三サブ最適化プロセスの数を表す。
ここで、
はネットワーク損失(即ち深度損失)を表し、Nは元画像の次元(N*N次元)を表し、iおよびjはそれぞれ画素点の位置を表し、
は実深度マップにおける第i行第j列の画素点の実深度値を表し、
は予測深度マップにおける第i行第j列の画素点の予測深度値を表し、iおよびjはそれぞれ1以上N以下の整数である。
S401:訓練サンプルセットを取得する。前記訓練サンプルセットは複数の訓練サンプルを含み、各訓練サンプルは複数の第一サンプル画像、複数の第一サンプル画像に対応する複数の第二サンプル画像、および複数の第二サンプル画像に対応する深度マップを含んでもよく、第二サンプル画像および対応する第一サンプル画像は同一対象に対する画像であり、かつ第二サンプル画像は第一サンプル画像よりも信号対雑音比が高い。
S402:前記ニューラルネットワークによって前記訓練サンプルセットに前記最適化処理を実行し、前記訓練サンプルセット内の第一サンプル画像に対する最適化結果を得て、ひいては第一ネットワーク損失および第二ネットワーク損失を得る。前記第一ネットワーク損失は、前記ニューラルネットワークが前記訓練サンプルに含まれる複数の第一サンプル画像を処理することによって得た複数の予測最適化画像と、前記訓練サンプルに含まれる複数の第二サンプル画像との差異に基づいて得られ、前記第二ネットワーク損失は、前記複数の予測最適化画像に後処理を行うことによって得られた予測深度マップと、前記訓練サンプルに含まれる深度マップとの差異に基づいて得られる。
S403:前記第一ネットワーク損失および第二ネットワーク損失に基づいてニューラルネットワークのネットワーク損失を得て、前記ネットワーク損失に基づいて前記ニューラルネットワークのパラメータを、所定の要件を満たすまで調整する。
ここで、
は第一ネットワーク損失を表し、Nは第一サンプル画像、第二サンプル画像、予測最適化画像の次元(N*N)を表し、
、
、
および
は訓練サンプルにおける4つの第一サンプル画像の第i行第j列の実特徴値をそれぞれ表し、
、
、
および
は4つの第一サンプル画像に対応する4つの予測最適化画像の第i行第j列の予測特徴値をそれぞれ表す。
ここで、Lはニューラルネットワークのネットワーク損失を表し、
および
はそれぞれ第一ネットワーク損失および第二ネットワーク損失の重みであり、重み値は必要に応じて設定してもよく、例えば全て1に設定してもよいし、または
と
との和を1にするように設定してもよく、本開示はこれを具体的に限定しない。
S501:訓練サンプルセットを取得する。該訓練サンプルセットは複数の訓練サンプルを含み、各訓練サンプルは複数の第一サンプル画像および該複数の第一サンプル画像に対応する複数の第二サンプル画像、ならびに複数の第二サンプル画像に対応する深度マップを含んでもよい。
S502:前記ニューラルネットワークによって前記訓練サンプルに前記最適化処理を実行し、最適化結果を得る。
いくつかの可能な実施形態では、得られた最適化結果はニューラルネットワークによって得られた、第一サンプル画像に対応する予測最適化画像であってもよいし、または第一サンプル画像に対応する予測深度マップであってもよい。
S503:前記最適化結果および対応する監視サンプル(第二サンプル画像または深度マップ)を敵対的ネットワークに入力し、前記敵対的ネットワークによって該最適化結果と監視サンプルの真偽判定を行い、前記敵対的ネットワークにより生成される判定値が第一判定値である場合、前記敵対的ネットワークの前記第一最適化画像および前記標準画像に対する判定値が第二判定値になるまで、前記最適化処理プロセスに採用されるパラメータをフィードバックして調整する。
S10:飛行時間TOFセンサによって1回の露光プロセスにおいて収集した、信号対雑音比が第一の値よりも低くかつ画像における同じ画素点に対応する位相パラメータ値が異なる複数の元画像を取得する。
S20:ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、前記複数の元画像に対応する深度マップを得る。ここで、ニューラルネットワークは訓練サンプルセットによって訓練して得られ、前記訓練サンプルセットに含まれる複数の訓練サンプルのうちの各訓練サンプルは複数の第一サンプル画像、前記複数の第一サンプル画像に対応する複数の第二サンプル画像および前記複数の第二サンプル画像に対応する深度マップを含み、前記第二サンプル画像および対応する第一サンプル画像は同一対象に対する画像であり、かつ第二サンプル画像は対応する前記第一サンプル画像よりも信号対雑音比が高い。
前記複数の元画像を第一の最適化プロセス群の入力情報とし、前記第一の最適化プロセス群によって処理して前記第一の最適化プロセス群に対する最適化特徴行列を得ることと、
第nの最適化プロセス群が出力した最適化特徴行列を第n+1の最適化プロセス群の入力情報として最適化処理を行うか、または前のn個の最適化プロセス群が出力した最適化特徴行列を第n+1の最適化プロセス群の入力情報として最適化処理を行う(nは1よりも大きくかつQよりも小さい整数である)ことと、
第Qの最適化プロセス群により処理された最適化特徴行列に基づき、出力結果を得ることと、を含む。
いくつかの可能な実施形態では、前記Q個の最適化プロセス群は順に実行されるダウンサンプリング処理、残差処理およびアップサンプリング処理を含み、ニューラルネットワークによって前記複数の元画像に最適化処理を実行することは、前記複数の元画像に前記ダウンサンプリング処理を実行し、前記複数の元画像の特徴情報を融合した第一特徴行列を得ることと、前記第一特徴行列に前記残差処理を実行し、第二特徴行列を得ることと、前記第二特徴行列に前記アップサンプリング処理を実行し、最適化特徴行列を得ることと、を含み、前記ニューラルネットワークの出力結果は前記最適化特徴行列に基づいて得られる。いくつかの可能な実施形態では、前記方法は、前記第二特徴行列に前記アップサンプリング処理を実行し、最適化特徴行列を得る前に、さらに、
前記ダウンサンプリング処理プロセスで得られた特徴行列により前記第二特徴行列に前記アップサンプリング処理を実行し、前記最適化特徴行列を得ることを含む。
飛行時間TOFセンサによって1回の露光プロセスにおいて収集した、信号対雑音比が第一の値よりも低くかつ画像における同じ画素点に対応する位相パラメータ値が異なる複数の元画像を取得するための取得モジュール10と、
ニューラルネットワークによって前記複数の元画像に対して、少なくとも一回の畳み込み処理および少なくとも一回の非線形関数マッピング処理を含む最適化処理を実行し、前記複数の元画像に対応する深度マップを得るための最適化モジュール20と、を含む。
飛行時間TOFセンサによって1回の露光プロセスにおいて収集した、信号対雑音比が第一の値よりも低くかつ画像における同じ画素点に対応する位相パラメータ値が異なる複数の元画像を取得するための取得モジュール100と、
ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、前記複数の元画像に対応する深度マップを得るための最適化モジュール200と、を含んでもよい。ニューラルネットワークは訓練サンプルセットによって訓練して得られ、前記訓練サンプルセットに含まれる複数の訓練サンプルのうちの各訓練サンプルは複数の第一サンプル画像、前記複数の第一サンプル画像に対応する複数の第二サンプル画像および前記複数の第二サンプル画像に対応する深度マップを含み、前記第二サンプル画像および対応する第一サンプル画像は同一対象に対する画像であり、かつ第二サンプル画像は対応する前記第一サンプル画像よりも信号対雑音比が高い。
Claims (38)
- 飛行時間TOFセンサによって1回の露光プロセスにおいて収集した、信号対雑音比が第一の値よりも低くかつ画像における同じ画素点に対応する位相パラメータ値が異なる複数の元画像を取得することと、
ニューラルネットワークによって前記複数の元画像に対して、少なくとも一回の畳み込み処理および少なくとも一回の非線形関数マッピング処理を含む最適化処理を実行し、前記複数の元画像に対応する深度マップを得ることと、を含むことを特徴とする画像処理方法。 - ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、複数の前記元画像に対応する深度マップを得ることは、
ニューラルネットワークによって前記複数の元画像に最適化処理を行い、信号対雑音比が前記元画像よりも高い前記複数の元画像に対する複数の最適化画像を出力することと、
前記複数の最適化画像に後処理を行い、前記複数の元画像に対応する深度マップを得ることと、を含むことを特徴とする請求項1に記載の方法。 - ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、複数の前記元画像に対応する深度マップを得ることは、
ニューラルネットワークによって前記複数の元画像に最適化処理を行い、前記複数の元画像に対応する深度マップを出力することを含むことを特徴とする請求項1に記載の方法。 - ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、複数の前記元画像に対応する深度マップを得ることは、
前記複数の元画像をニューラルネットワークに入力して最適化処理を行い、前記複数の元画像に対応する深度マップを得ることを含むことを特徴とする請求項1から3の少なくとも一項に記載の方法。 - 前記複数の元画像に対して、画像キャリブレーション、画像補正、任意の二つの元画像間の線形処理、及び任意の二つの元画像間の非線形処理の少なくとも一つを含む前処理を実行し、前処理された前記複数の元画像を得ることをさらに、含み、
ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、複数の前記元画像に対応する深度マップを得ることは、
前処理された前記複数の元画像を前記ニューラルネットワークに入力して最適化処理を実行し、複数の前記元画像に対応する深度マップを得ることを含むことを特徴とする請求項1から3の少なくとも一項に記載の方法。 - 前記ニューラルネットワークが実行する最適化処理は順に実行されるQ個の最適化プロセス群を含み、各最適化プロセス群は少なくとも一回の畳み込み処理および/または少なくとも一回の非線形マッピング処理を含み、
ニューラルネットワークによって前記複数の元画像に最適化処理を実行することは、
前記複数の元画像を第一の最適化プロセス群の入力情報とし、前記第一の最適化プロセス群によって処理して前記第一の最適化プロセス群に対する最適化特徴行列を得ることと、
第nの最適化プロセス群が出力した最適化特徴行列を第n+1の最適化プロセス群の入力情報として最適化処理を行うか、または前のn個の最適化プロセス群が出力した最適化特徴行列を第n+1の最適化プロセス群の入力情報として最適化処理を行う(nは1よりも大きくかつQよりも小さい整数である)ことと、
第Qの最適化プロセス群により処理された最適化特徴行列に基づき、出力結果を得ることと、を含むことを特徴とする請求項1から5のいずれか一項に記載の方法。 - 前記Q個の最適化プロセス群は順に実行されるダウンサンプリング処理、残差処理およびアップサンプリング処理を含み、ニューラルネットワークによって前記複数の元画像に最適化処理を実行することは、
前記複数の元画像に前記ダウンサンプリング処理を実行し、前記複数の元画像の特徴情報を融合した第一特徴行列を得ることと、
前記第一特徴行列に前記残差処理を実行し、第二特徴行列を得ることと、
前記第二特徴行列に前記アップサンプリング処理を実行し、最適化特徴行列を得ることと、を含み、
前記ニューラルネットワークの出力結果は前記最適化特徴行列に基づいて得られることを特徴とする請求項6に記載の方法。 - 前記第二特徴行列に前記アップサンプリング処理を実行し、最適化特徴行列を得ることは、
前記ダウンサンプリング処理プロセスで得られた特徴行列により前記第二特徴行列に前記アップサンプリング処理を実行し、前記最適化特徴行列を得ることを含むことを特徴とする請求項7に記載の方法。 - 前記ニューラルネットワークは訓練サンプルセットによって訓練して得られ、前記訓練サンプルセットに含まれる複数の訓練サンプルのうちの各訓練サンプルは複数の第一サンプル画像、前記複数の第一サンプル画像に対応する複数の第二サンプル画像および前記複数の第二サンプル画像に対応する深度マップを含み、前記第二サンプル画像および対応する第一サンプル画像は同一対象に対する画像であり、かつ第二サンプル画像は前記第一サンプル画像よりも信号対雑音比が高く、
前記ニューラルネットワークは訓練によって得られた敵対的生成ネットワークのうちの生成ネットワークであり、
前記ニューラルネットワークのネットワーク損失値は第一ネットワーク損失と第二ネットワーク損失との加重和であり、
前記第一ネットワーク損失は前記ニューラルネットワークが前記訓練サンプルに含まれる複数の第一サンプル画像を処理することによって得た複数の予測最適化画像と、前記訓練サンプルに含まれる複数の第二サンプル画像との差異に基づいて得られ、
前記第二ネットワーク損失は前記複数の予測最適化画像に後処理を行うことによって得られた予測深度マップと、前記訓練サンプルに含まれる深度マップとの差異に基づいて得られることを特徴とする請求項1から8のいずれか一項に記載の方法。 - 飛行時間TOFセンサによって1回の露光プロセスにおいて収集した、信号対雑音比が第一の値よりも低くかつ画像における同じ画素点に対応する位相パラメータ値が異なる複数の元画像を取得することと、
ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、前記複数の元画像に対応する深度マップを得ることと、を含み、
ニューラルネットワークは訓練サンプルセットによって訓練して得られ、前記訓練サンプルセットに含まれる複数の訓練サンプルのうちの各訓練サンプルは複数の第一サンプル画像、前記複数の第一サンプル画像に対応する複数の第二サンプル画像および前記複数の第二サンプル画像に対応する深度マップを含み、前記第二サンプル画像および対応する第一サンプル画像は同一対象に対する画像であり、かつ第二サンプル画像は対応する前記第一サンプル画像よりも信号対雑音比が高いことを特徴とする画像処理方法。 - ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、複数の前記元画像に対応する深度マップを得ることは、
ニューラルネットワークによって前記複数の元画像に最適化処理を行い、信号対雑音比が前記元画像よりも高い前記複数の元画像に対する複数の最適化画像を出力することと、
前記複数の最適化画像に後処理を行い、前記複数の元画像に対応する深度マップを得ることと、を含むことを特徴とする請求項10に記載の方法。 - ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、複数の前記元画像に対応する深度マップを得ることは、
ニューラルネットワークによって前記複数の元画像に最適化処理を行い、前記複数の元画像に対応する深度マップを出力することを含むことを特徴とする請求項10に記載の方法。 - ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、複数の前記元画像に対応する深度マップを得ることは、
前記複数の元画像をニューラルネットワークに入力して最適化処理を行い、前記複数の元画像に対応する深度マップを得ることを含むことを特徴とする請求項10から12の少なくとも一項に記載の方法。 - 前記複数の元画像に対して、画像キャリブレーション、画像補正、任意の二つの元画像間の線形処理、及び任意の二つの元画像間の非線形処理の少なくとも一つを含む前処理を実行し、前処理された前記複数の元画像を得ることをさらに、含み、
ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、複数の前記元画像に対応する深度マップを得ることは、
前処理された前記複数の元画像を前記ニューラルネットワークに入力して最適化処理を実行し、複数の前記元画像に対応する深度マップを得ることを含むことを特徴とする請求項1から3の少なくとも一項に記載の方法。 - 前記ニューラルネットワークが実行する最適化処理は順に実行されるQ個の最適化プロセス群を含み、各最適化プロセス群は少なくとも一回の畳み込み処理および/または少なくとも一回の非線形マッピング処理を含み、
ニューラルネットワークによって前記複数の元画像に最適化処理を実行することは、
前記複数の元画像を第一の最適化プロセス群の入力情報とし、前記第一の最適化プロセス群によって処理して前記第一の最適化プロセス群に対する最適化特徴行列を得ることと、
第nの最適化プロセス群が出力した最適化特徴行列を第n+1の最適化プロセス群の入力情報として最適化処理を行うか、または前のn個の最適化プロセス群が出力した最適化特徴行列を第n+1の最適化プロセス群の入力情報として最適化処理を行う(nは1よりも大きくかつQよりも小さい整数である)ことと、
第Qの最適化プロセス群により処理された最適化特徴行列に基づき、出力結果を得ることと、を含むことを特徴とする請求項10から14のいずれか一項に記載の方法。 - 前記Q個の最適化プロセス群は順に実行されるダウンサンプリング処理、残差処理およびアップサンプリング処理を含み、ニューラルネットワークによって前記複数の元画像に最適化処理を実行することは、
前記複数の元画像に前記ダウンサンプリング処理を実行し、前記複数の元画像の特徴情報を融合した第一特徴行列を得ることと、
前記第一特徴行列に前記残差処理を実行し、第二特徴行列を得ることと、
前記第二特徴行列に前記アップサンプリング処理を実行し、最適化特徴行列を得ることと、を含み、
前記ニューラルネットワークの出力結果は前記最適化特徴行列に基づいて得られることを特徴とする請求項15に記載の方法。 - 前記第二特徴行列に前記アップサンプリング処理を実行し、最適化特徴行列を得ることは、
前記ダウンサンプリング処理プロセスで得られた特徴行列により前記第二特徴行列に前記アップサンプリング処理を実行し、前記最適化特徴行列を得ることを含むことを特徴とする請求項16に記載の方法。 - 前記ニューラルネットワークは訓練によって得られた敵対的生成ネットワークのうちの生成ネットワークであり、
前記ニューラルネットワークのネットワーク損失値は第一ネットワーク損失と第二ネットワーク損失との加重和であり、
前記第一ネットワーク損失は前記ニューラルネットワークが前記訓練サンプルに含まれる複数の第一サンプル画像を処理することによって得た複数の予測最適化画像と、前記訓練サンプルに含まれる複数の第二サンプル画像との差異に基づいて得られ、
前記第二ネットワーク損失は前記複数の予測最適化画像に後処理を行うことによって得られた予測深度マップと、前記訓練サンプルに含まれる深度マップとの差異に基づいて得られることを特徴とする請求項10から17のいずれか一項に記載の方法。 - 飛行時間TOFセンサによって1回の露光プロセスにおいて収集した、信号対雑音比が第一の値よりも低くかつ画像における同じ画素点に対応する位相パラメータ値が異なる複数の元画像を取得するための取得モジュールと、
ニューラルネットワークによって前記複数の元画像に対して、少なくとも一回の畳み込み処理および少なくとも一回の非線形関数マッピング処理を含む最適化処理を実行し、前記複数の元画像に対応する深度マップを得るための最適化モジュールと、を含むことを特徴とする画像処理装置。 - 前記最適化モジュールはさらに、ニューラルネットワークによって前記複数の元画像に最適化処理を行い、信号対雑音比が前記元画像よりも高い前記複数の元画像に対する複数の最適化画像を出力し、
前記複数の最適化画像に後処理を行い、前記複数の元画像に対応する深度マップを得るために用いられることを特徴とする請求項19に記載の装置。 - 前記最適化モジュールはさらに、ニューラルネットワークによって前記複数の元画像に最適化処理を行い、前記複数の元画像に対応する深度マップを出力するために用いられることを特徴とする請求項19に記載の装置。
- 前記最適化モジュールはさらに、前記複数の元画像をニューラルネットワークに入力して最適化処理を行い、前記複数の元画像に対応する深度マップを得るために用いられることを特徴とする請求項19から22のいずれか一項に記載の方法。
- 前記複数の元画像に対して、画像キャリブレーション、画像補正、任意の二つの元画像間の線形処理、及び任意の二つの元画像間の非線形処理の少なくとも一つを含む前処理を実行し、前処理された前記複数の元画像を得るための前処理モジュールをさらに含み、
前記最適化モジュールはさらに、前処理された前記複数の元画像を前記ニューラルネットワークに入力して最適化処理を実行し、複数の前記元画像に対応する深度マップを得るために用いられることを特徴とする請求項19から21のいずれか一項に記載の装置。 - 前記最適化モジュールが実行する前記最適化処理は順に実行されるQ個の最適化プロセス群を含み、各最適化プロセス群は少なくとも一回の畳み込み処理および/または少なくとも一回の非線形マッピング処理を含み、かつ
前記最適化モジュールはさらに、前記元画像を第一の最適化プロセス群の入力情報とし、前記第一の最適化プロセス群によって処理して該第一の最適化プロセス群に対する最適化特徴行列を得るために、および
第nの最適化プロセス群が出力した最適化特徴行列を第n+1の最適化プロセス群の入力情報として最適化処理を行い、または前のn個の最適化プロセス群が出力した最適化特徴行列を第n+1の最適化プロセス群の入力情報として最適化処理を行い、第Qの最適化プロセス群により処理された最適化特徴行列に基づき、出力結果を得るために用いられ、
nは1よりも大きくかつQよりも小さい整数であり、Qは最適化プロセス群の数であることを特徴とする請求項19から23のいずれか一項に記載の装置。 - 前記Q個の最適化プロセス群は順に実行されるダウンサンプリング処理、残差処理およびアップサンプリング処理を含み、前記最適化モジュールは、
前記複数の元画像に前記ダウンサンプリング処理を実行し、前記複数の元画像の特徴情報を融合した第一特徴行列を得るための第一最適化ユニットと、
前記第一特徴行列に前記残差処理を実行し、第二特徴行列を得るための第二最適化ユニットと、
前記第二特徴行列に前記アップサンプリング処理を実行し、最適化特徴行列を得るための第三最適化ユニットと、を含み、
前記ニューラルネットワークの出力結果は前記最適化特徴行列に基づいて得られることを特徴とする請求項13または14に記載の装置。 - 前記第三最適化ユニットはさらに、前記ダウンサンプリング処理プロセスで得られた特徴行列により前記第二特徴行列に前記アップサンプリング処理を実行し、前記最適化特徴行列を得るために用いられることを特徴とする請求項25に記載の装置。
- 前記ニューラルネットワークは訓練サンプルセットによって訓練して得られ、前記訓練サンプルセットに含まれる複数の訓練サンプルのうちの各訓練サンプルは複数の第一サンプル画像、前記複数の第一サンプル画像に対応する複数の第二サンプル画像および前記複数の第二サンプル画像に対応する深度マップを含み、前記第二サンプル画像および対応する第一サンプル画像は同一対象に対する画像であり、かつ第二サンプル画像は前記第一サンプル画像よりも信号対雑音比が高く、
前記ニューラルネットワークは訓練によって得られた敵対的生成ネットワークのうちの生成ネットワークであり、
前記ニューラルネットワークのネットワーク損失値は第一ネットワーク損失と第二ネットワーク損失との加重和であり、
前記第一ネットワーク損失は前記ニューラルネットワークが前記訓練サンプルに含まれる複数の第一サンプル画像を処理することによって得た複数の予測最適化画像と、前記訓練サンプルに含まれる複数の第二サンプル画像との差異に基づいて得られ、
前記第二ネットワーク損失は前記複数の予測最適化画像に後処理を行うことによって得られた予測深度マップと、前記訓練サンプルに含まれる深度マップとの差異に基づいて得られることを特徴とする請求項19から26のいずれか一項に記載の装置。 - 飛行時間TOFセンサによって1回の露光プロセスにおいて収集した、信号対雑音比が第一の値よりも低くかつ画像における同じ画素点に対応する位相パラメータ値が異なる複数の元画像を取得するための取得モジュールと、
ニューラルネットワークによって前記複数の元画像に最適化処理を実行し、前記複数の元画像に対応する深度マップを得るための最適化モジュールと、を含み、
ニューラルネットワークは訓練サンプルセットによって訓練して得られ、前記訓練サンプルセットに含まれる複数の訓練サンプルのうちの各訓練サンプルは複数の第一サンプル画像、前記複数の第一サンプル画像に対応する複数の第二サンプル画像および前記複数の第二サンプル画像に対応する深度マップを含み、前記第二サンプル画像および対応する第一サンプル画像は同一対象に対する画像であり、かつ第二サンプル画像は対応する前記第一サンプル画像よりも信号対雑音比が高いことを特徴とする画像処理装置。 - 前記最適化モジュールはさらに、ニューラルネットワークによって前記複数の元画像に最適化処理を行い、信号対雑音比が前記元画像よりも高い前記複数の元画像に対する複数の最適化画像を出力し、
前記複数の最適化画像に後処理を行い、前記複数の元画像に対応する深度マップを得るために用いられることを特徴とする請求項28に記載の装置。 - 前記最適化モジュールはさらに、ニューラルネットワークによって前記複数の元画像に最適化処理を行い、前記複数の元画像に対応する深度マップを出力するために用いられることを特徴とする請求項28に記載の装置。
- 前記最適化モジュールはさらに、前記複数の元画像をニューラルネットワークに入力して最適化処理を行い、前記複数の元画像に対応する深度マップを得るために用いられることを特徴とする請求項28から30のいずれか一項に記載の装置。
- 前記複数の元画像に対して、画像キャリブレーション、画像補正、任意の二つの元画像間の線形処理、及び任意の二つの元画像間の非線形処理の少なくとも一つを含む前処理を実行し、前処理された前記複数の元画像を得るための前処理モジュールをさらに、含み、
前記最適化モジュールはさらに、前処理された前記複数の元画像を前記ニューラルネットワークに入力して最適化処理を実行し、複数の前記元画像に対応する深度マップを得るために用いられることを特徴とする請求項28から30のいずれか一項に記載の装置。 - 前記ニューラルネットワークが実行する最適化処理は順に実行されるQ個の最適化プロセス群を含み、各最適化プロセス群は少なくとも一回の畳み込み処理および/または少なくとも一回の非線形マッピング処理を含み、
前記最適化モジュールはさらに、
前記複数の元画像を第一の最適化プロセス群の入力情報とし、前記第一の最適化プロセス群によって処理して前記第一の最適化プロセス群に対する最適化特徴行列を得るために、
第nの最適化プロセス群が出力した最適化特徴行列を第n+1の最適化プロセス群の入力情報として最適化処理を行うか、または前のn個の最適化プロセス群が出力した最適化特徴行列を第n+1の最適化プロセス群の入力情報として最適化処理を行うために(nは1よりも大きくかつQよりも小さい整数である)、
第Qの最適化プロセス群により処理された最適化特徴行列に基づき、出力結果を得るために用いられることを特徴とする請求項28から32のいずれか一項に記載の装置。 - 前記Q個の最適化プロセス群は順に実行されるダウンサンプリング処理、残差処理およびアップサンプリング処理を含み、前記最適化モジュールは、
前記第一特徴行列に前記残差処理を実行し、第二特徴行列を得るための第一最適化ユニットと、
前記第二特徴行列に前記アップサンプリング処理を実行し、最適化特徴行列を得るための第二最適化ユニットと、を含み、
前記ニューラルネットワークの出力結果は前記最適化特徴行列に基づいて得られることを特徴とする請求項33に記載の装置。 - 前記ニューラルネットワークは訓練によって得られた敵対的生成ネットワークのうちの生成ネットワークであり、
前記ニューラルネットワークのネットワーク損失値は第一ネットワーク損失と第二ネットワーク損失との加重和であり、
前記第一ネットワーク損失は前記ニューラルネットワークが前記訓練サンプルに含まれる複数の第一サンプル画像を処理することによって得た複数の予測最適化画像と、前記訓練サンプルに含まれる複数の第二サンプル画像との差異に基づいて得られ、
前記第二ネットワーク損失は前記複数の予測最適化画像に後処理を行うことによって得られた予測深度マップと、前記訓練サンプルに含まれる深度マップとの差異に基づいて得られることを特徴とする請求項28から34のいずれか一項に記載の装置。 - 請求項1から9のいずれか一項に記載の方法または請求項10から18のいずれか一項に記載の方法を実行するように構成されたプロセッサ、および
プロセッサにより実行可能な命令を記憶するためのメモリを含むことを特徴とする電子機器。 - コンピュータプログラム命令が記憶されているコンピュータ読み取り可能記憶媒体であって、前記コンピュータプログラム命令はプロセッサに実行される時に請求項1から9のいずれか一項に記載の方法または請求項10から18のいずれか一項に記載の方法を実現することを特徴とするコンピュータ読み取り可能記憶媒体。
- コンピュータ読み取り可能コードを含み、前記コンピュータ読み取り可能コードが電子機器において運用される時、前記電子機器内のプロセッサに請求項1から9のいずれか一項に記載の方法または10から18のいずれか一項に記載の方法を実行させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811536144.3 | 2018-12-14 | ||
CN201811536144.3A CN109658352B (zh) | 2018-12-14 | 2018-12-14 | 图像信息的优化方法及装置、电子设备和存储介质 |
PCT/CN2019/087637 WO2020119026A1 (zh) | 2018-12-14 | 2019-05-20 | 图像处理方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021531566A true JP2021531566A (ja) | 2021-11-18 |
JP7072119B2 JP7072119B2 (ja) | 2022-05-19 |
Family
ID=66114280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021500554A Active JP7072119B2 (ja) | 2018-12-14 | 2019-05-20 | 画像処理方法および装置、電子機器ならびに記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210110522A1 (ja) |
JP (1) | JP7072119B2 (ja) |
KR (1) | KR102538164B1 (ja) |
CN (1) | CN109658352B (ja) |
SG (1) | SG11202012776VA (ja) |
TW (1) | TWI717865B (ja) |
WO (1) | WO2020119026A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109658352B (zh) * | 2018-12-14 | 2021-09-14 | 深圳市商汤科技有限公司 | 图像信息的优化方法及装置、电子设备和存储介质 |
CN110426560B (zh) * | 2019-06-28 | 2020-08-25 | 北京大学 | 一种脉冲阵列信号时空上采样器生成方法 |
KR102652117B1 (ko) * | 2019-07-10 | 2024-03-27 | 삼성전자주식회사 | 이미지 보정 방법 및 이미지 보정 시스템 |
CN112532858A (zh) * | 2019-09-18 | 2021-03-19 | 华为技术有限公司 | 一种图像处理方法、图像采集方法及相关装置 |
US11763450B1 (en) * | 2019-11-14 | 2023-09-19 | University Of South Florida | Mitigating adversarial attacks on medical imaging understanding systems |
CN111358430B (zh) * | 2020-02-24 | 2021-03-09 | 深圳先进技术研究院 | 一种磁共振成像模型的训练方法及装置 |
CN111127371B (zh) * | 2020-03-30 | 2020-07-07 | 南京安科医疗科技有限公司 | 图像增强参数自动优化方法、存储介质和x射线扫描装置 |
CN111612689B (zh) * | 2020-05-28 | 2024-04-05 | 上海联影医疗科技股份有限公司 | 医学图像处理方法、装置、计算机设备和可读存储介质 |
CN111539899A (zh) * | 2020-05-29 | 2020-08-14 | 深圳市商汤科技有限公司 | 图像修复方法及相关产品 |
TWI775128B (zh) * | 2020-08-13 | 2022-08-21 | 蔡明勳 | 手勢控制裝置及其控制方法 |
CN112318107A (zh) * | 2020-10-23 | 2021-02-05 | 西北工业大学 | 一种基于深度相机的大型零部件孔轴自动装配对中测量方法 |
CN114821288A (zh) * | 2021-01-29 | 2022-07-29 | 中强光电股份有限公司 | 图像辨识方法以及无人机系统 |
CN116260983A (zh) * | 2021-12-03 | 2023-06-13 | 华为技术有限公司 | 图像编解码方法和装置 |
US20230177173A1 (en) * | 2021-12-05 | 2023-06-08 | PUFsecurity Corporation | Electronic device and method for performing permission management of storage device |
CN114723691B (zh) * | 2022-03-28 | 2022-12-23 | 江苏新之阳新能源科技有限公司 | 基于人工智能的液压系统漏油故障程度检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012226745A (ja) * | 2011-04-19 | 2012-11-15 | Mitsubishi Electric Research Laboratories Inc | 奥行き画像内の物体を検出する方法およびシステム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631403B (zh) * | 2015-12-17 | 2019-02-12 | 小米科技有限责任公司 | 人脸识别方法及装置 |
CN105657402B (zh) * | 2016-01-18 | 2017-09-29 | 深圳市未来媒体技术研究院 | 一种深度图恢复方法 |
US9760837B1 (en) * | 2016-03-13 | 2017-09-12 | Microsoft Technology Licensing, Llc | Depth from time-of-flight using machine learning |
US10841491B2 (en) | 2016-03-16 | 2020-11-17 | Analog Devices, Inc. | Reducing power consumption for time-of-flight depth imaging |
CN106295707B (zh) * | 2016-08-17 | 2019-07-02 | 北京小米移动软件有限公司 | 图像识别方法和装置 |
KR102618542B1 (ko) * | 2016-09-07 | 2023-12-27 | 삼성전자주식회사 | ToF (time of flight) 촬영 장치 및 ToF 촬영 장치에서 깊이 이미지의 블러 감소를 위하여 이미지를 처리하는 방법 |
TWI607412B (zh) * | 2016-09-10 | 2017-12-01 | 財團法人工業技術研究院 | 多維度尺寸量測系統及其方法 |
JP2018067294A (ja) * | 2016-10-14 | 2018-04-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 学習データ作成支援方法、学習データ作成支援装置、およびプログラム |
CN108229673B (zh) * | 2016-12-27 | 2021-02-26 | 北京市商汤科技开发有限公司 | 卷积神经网络的处理方法、装置和电子设备 |
US11113800B2 (en) * | 2017-01-18 | 2021-09-07 | Nvidia Corporation | Filtering image data using a neural network |
US20180227566A1 (en) * | 2017-02-06 | 2018-08-09 | Microsoft Technology Licensing, Llc | Variable field of view and directional sensors for mobile machine vision applications |
US10360732B2 (en) * | 2017-03-23 | 2019-07-23 | Intel Corporation | Method and system of determining object positions for image processing using wireless network angle of transmission |
US10489887B2 (en) * | 2017-04-10 | 2019-11-26 | Samsung Electronics Co., Ltd. | System and method for deep learning image super resolution |
US10325184B2 (en) * | 2017-04-12 | 2019-06-18 | Youspace, Inc. | Depth-value classification using forests |
CN107358576A (zh) * | 2017-06-24 | 2017-11-17 | 天津大学 | 基于卷积神经网络的深度图超分辨率重建方法 |
CN107992848B (zh) * | 2017-12-19 | 2020-09-25 | 北京小米移动软件有限公司 | 获取深度图像的方法、装置及计算机可读存储介质 |
CN108492248A (zh) * | 2018-01-30 | 2018-09-04 | 天津大学 | 基于深度学习的深度图超分辨率方法 |
CN108765333B (zh) * | 2018-05-24 | 2021-08-10 | 华南理工大学 | 一种基于深度卷积神经网络的深度图完善方法 |
CN108961184B (zh) * | 2018-06-28 | 2021-04-20 | 北京邮电大学 | 一种深度图像的校正方法、装置及设备 |
CN108846842B (zh) * | 2018-07-04 | 2021-04-27 | 武汉斗鱼网络科技有限公司 | 一种图像噪声检测方法、装置及电子设备 |
CN109658352B (zh) * | 2018-12-14 | 2021-09-14 | 深圳市商汤科技有限公司 | 图像信息的优化方法及装置、电子设备和存储介质 |
-
2018
- 2018-12-14 CN CN201811536144.3A patent/CN109658352B/zh active Active
-
2019
- 2019-05-20 KR KR1020207036791A patent/KR102538164B1/ko active IP Right Grant
- 2019-05-20 SG SG11202012776VA patent/SG11202012776VA/en unknown
- 2019-05-20 WO PCT/CN2019/087637 patent/WO2020119026A1/zh active Application Filing
- 2019-05-20 JP JP2021500554A patent/JP7072119B2/ja active Active
- 2019-10-16 TW TW108137267A patent/TWI717865B/zh not_active IP Right Cessation
-
2020
- 2020-12-21 US US17/129,189 patent/US20210110522A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012226745A (ja) * | 2011-04-19 | 2012-11-15 | Mitsubishi Electric Research Laboratories Inc | 奥行き画像内の物体を検出する方法およびシステム |
Non-Patent Citations (1)
Title |
---|
KURC,MACIEJ,ET AL.: "Transformation of Depth Maps Produced by ToF Cameras", 2014 INTERNATIONAL CONFERENCE ON SIGNALS AND ELECTRONIC SYSTEMS (ICSES), JPN6022013491, 13 September 2014 (2014-09-13), US, ISSN: 0004749238 * |
Also Published As
Publication number | Publication date |
---|---|
KR20210013149A (ko) | 2021-02-03 |
KR102538164B1 (ko) | 2023-05-30 |
TW202027033A (zh) | 2020-07-16 |
WO2020119026A1 (zh) | 2020-06-18 |
CN109658352B (zh) | 2021-09-14 |
TWI717865B (zh) | 2021-02-01 |
US20210110522A1 (en) | 2021-04-15 |
SG11202012776VA (en) | 2021-02-25 |
JP7072119B2 (ja) | 2022-05-19 |
CN109658352A (zh) | 2019-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7072119B2 (ja) | 画像処理方法および装置、電子機器ならびに記憶媒体 | |
US20210326587A1 (en) | Human face and hand association detecting method and a device, and storage medium | |
US11532180B2 (en) | Image processing method and device and storage medium | |
CN111462268B (zh) | 图像重建方法及装置、电子设备和存储介质 | |
JP7125541B2 (ja) | ビデオ修復方法および装置、電子機器、ならびに記憶媒体 | |
US20210019562A1 (en) | Image processing method and apparatus and storage medium | |
TWI706379B (zh) | 圖像處理方法及裝置、電子設備和儲存介質 | |
JP7026257B2 (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
CN109922372B (zh) | 视频数据处理方法及装置、电子设备和存储介质 | |
US20220262012A1 (en) | Image Processing Method and Apparatus, and Storage Medium | |
JP2021528742A (ja) | 画像処理方法及び装置、電子機器、並びに記憶媒体 | |
JP2021516838A (ja) | キーポイント検出方法、装置、電子機器及び記憶媒体 | |
KR20210090238A (ko) | 비디오 처리 방법 및 장치, 전자 기기, 및 기억 매체 | |
TWI778313B (zh) | 圖像處理方法、電子設備和儲存介質 | |
CN109145970B (zh) | 基于图像的问答处理方法和装置、电子设备及存储介质 | |
EP4203459A1 (en) | Method, apparatus, and device for determining exposure parameter of head-mounted device | |
CN113506229B (zh) | 神经网络训练和图像生成方法及装置 | |
CN111523555A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN113506324B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN113506321B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN112200745A (zh) | 遥感影像的处理方法及装置、电子设备和存储介质 | |
CN110796202A (zh) | 一种网络集成的训练方法及装置、电子设备和存储介质 | |
CN113658038B (zh) | 基于空间误差自适应的网络训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7072119 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |