JP2022544665A - 画像処理方法、機器、非一時的コンピュータ可読媒体 - Google Patents

画像処理方法、機器、非一時的コンピュータ可読媒体 Download PDF

Info

Publication number
JP2022544665A
JP2022544665A JP2022509143A JP2022509143A JP2022544665A JP 2022544665 A JP2022544665 A JP 2022544665A JP 2022509143 A JP2022509143 A JP 2022509143A JP 2022509143 A JP2022509143 A JP 2022509143A JP 2022544665 A JP2022544665 A JP 2022544665A
Authority
JP
Japan
Prior art keywords
image
quality
region
data
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022509143A
Other languages
English (en)
Other versions
JP7264310B2 (ja
Inventor
ユィポン ジャン
ダオジン リ
誠 小田巻
ホォン イ
リイェヌ リィウ
ホアヌ ジィア
ウェイ ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2022544665A publication Critical patent/JP2022544665A/ja
Application granted granted Critical
Publication of JP7264310B2 publication Critical patent/JP7264310B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

開示画像処理方法であって、複数のトレーニングデータセットを取得するステップであって、各トレーニングデータセットは第1及び第2画像のデータを含み、前記第2画像の画質は前記第1画像の画質より高く、前記第1画像の撮影コンテンツは前記第2画像の撮影コンテンツと同じである、ステップと、画像拡張モデルを構成し、前記第1画像のデータを前記モデルに入力させ、前記複数のトレーニングデータセットを使用して、前記モデルの出力と前記第2画像のデータとの間の差分特徴値が最小になるまで、前記モデルをトレーニングするステップと、処理されるべき第3画像のデータを前記モデルに入力するステップであって、画像拡張後の第4画像のデータを出力し、前記第4画像の画質は前記第3画像の画質より高い、ステップと、を含む画像処理方法が開示される。

Description

本発明は、画像処理の分野に関し、特に、画像処理方法及び機器、並びに非一時的コンピュータ可読媒体及びコンピュータプログラムに関する。
パノラマカメラにより撮影されるパノラマ画像は、通常、180度以上の視界を有する。しかしながら、(デジタルSLR(Single-Lens Reflex)カメラのような)高画質カメラによりキャプチャされる平面画像(planar image)と比べて、パノラマ画像は、鮮明さ、解像度、色相差、等の観点で粗悪である。
本願の目的は、画質を向上することのできる、画像処理方法及び機器並びに非一時的コンピュータ可読媒体及びコンピュータプログラムを提供することである。
本発明の第1の態様によると、画像処理方法であって、
複数のトレーニングデータセットを取得するステップであって、各トレーニングデータセットは第1画像のデータ及び第2画像のデータを含み、前記第2画像の画質は前記第1画像の画質より高く、前記第1画像の撮影コンテンツは前記第2画像の撮影コンテンツと同じである、ステップと、
画像拡張モデルを構成し、前記第1画像のデータを前記画像拡張モデルに入力させ、前記複数のトレーニングデータセットを使用して、前記画像拡張モデルの出力と前記第2画像のデータとの間の差分特徴値が最小になるまで、前記画像拡張モデルに対してトレーニングを行うステップと、
処理されるべき第3画像のデータを前記画像拡張モデルに入力するステップであって、画像拡張後の第4画像のデータを出力し、前記第4画像の画質は前記第3画像の画質より高い、ステップと、
を含む画像処理方法が提供される。
任意的に、前記第1画像は正距円筒図法又は透視図法であり、前記第2画像も正距円筒図法又は透視図法である。
任意的に、複数のトレーニングデータセットを生成する前記ステップは、
パノラマカメラを第1位置に固定し、前記パノラマカメラを使用してパノラマ画像を撮影し、前記パノラマ画像を透視図法に変換するステップと、
平面カメラを第2位置に固定し、前記平面カメラを回転して複数の平面画像をキャプチャし、前記複数の平面画像を利用して前記透視図法に対応する高画質画像を取得するステップであって、前記平面カメラは前記パノラマカメラの非平行点に揃えられ、前記高画質画像の画質は前記透視図法の画質より高く、前記高画質画像の撮影コンテンツは前記透視図法の全部の撮影コンテンツを含む、ステップと、
前記透視図法内の第1領域に対応する前記高画質画像内の第2領域を決定するステップであって、前記第1領域の位置は前記第2領域の位置に一致する、ステップと、
前記第1領域及び前記第2領域を用いて、N個の画像セットを生成するステップであって、各画像セットは前記第1画像及び前記第2画像を含み、Nは1より大きい正数である、ステップと、
を含む。
任意的に、前記第1領域及び前記第2領域を用いて、N個の画像セットを取得する前記ステップは、
前記第2領域をN個の第2部分に分割するステップであって、任意の2個の隣接する第2部分は重なり合わない、ステップと、
前記第1領域をN個の第1部分に分割するステップであって、任意の2個の隣接する第1部分は重なり合う領域を有する、ステップと、
前記N個の第2部分の中からi番目の第2部分及び前記N個の第1部分の中から前記i番目の第2部分に一致するi番目の第1部分を選択するステップであって、前記i番目の第1部分の撮影コンテンツは前記i番目の第2部分の撮影コンテンツを含み、前記i番目の第1部分のサイズは前記i番目の第2部分のサイズより大きく、iは1以上且つN以下の整数である、ステップと、
前記i番目の第2部分及び前記i番目の第1部分にピクセルマッチングを実行し、前記i番目の第1部分を利用してi番目の第3部分を獲得するステップであって、前記i番目の第3部分のサイズは前記i番目の第2部分のサイズと同じである、ステップと、
前記i番目の第3部分及び前記i番目の第2部分のマッチング精度を計算し、前記マッチング精度が所定の閾値より大きい場合に、前記i番目の第3部分を前記第1画像とし及び前記i番目の第2部分を前記第2画像とするステップと、
前記マッチング精度が前記所定の閾値より大きくない場合に、パターンマッチングを採用して、前記i番目の第1部分から前記i番目の第2部分に一致するi番目の第4部分を取得し、前記i番目の第4部分を前記第1画像として機能させ、前記i番目の第2部分を前記第2画像として機能させるステップであって、前記i番目の第4部分のサイズは前記i番目の第2部分のサイズと同じである、ステップと、
を含む。
任意的に、前記画像拡張モデルに入力される画像のデータは、前記画像の意味情報及び位置情報のうちの少なくとも1つを含む。
任意的に、データが前記画像拡張モデルに入力される画像の位置情報を決定するステップが更に含まれる。このステップは、前記画像の品質スコアを計算するステップと、前記品質スコアに対応する領域識別を決定するステップと、前記領域識別を前記位置情報にするステップと、を含む。
任意的に、前記第2画像の画質が前記第1画像の画質より高いことは、
前記第2画像の解像度が前記第1画像の解像度より高いケース、
前記第2画像の信号対雑音比が前記第1画像の信号対雑音比より高いケース、
前記第2画像の色相差が前記第1画像の色相差より低いケース、
のうちの少なくとも1つを含む。
任意的に、前記画像拡張モデルは、畳み込みニューラルネットワーク及び敵対的生成ネットワークのうちのいずれか1つを採用する。
本発明の第2の態様によると、画像処理機器であって、
複数のトレーニングデータセットを取得するよう構成される部分であって、各トレーニングデータセットは第1画像のデータ及び第2画像のデータを含み、前記第2画像の画質は前記第1画像の画質より高く、前記第1画像の撮影コンテンツは前記第2画像の撮影コンテンツと同じである、部分と、
画像拡張モデルを構成し、前記第1画像のデータを前記画像拡張モデルに入力させ、前記複数のトレーニングデータセットを使用して、前記画像拡張モデルの出力と前記第2画像のデータとの間の差分特徴値が最小になるまで、前記画像拡張モデルに対してトレーニングを行うよう構成される部分と、
処理されるべき第3画像の入力データを前記画像拡張モデルに入力し、画像拡張後の第4画像のデータを出力し、前記第4画像の画質は前記第3画像の画質より高い、部分と、
を含む画像処理機器が提供される。
本発明の第3の態様によると、コンピュータ実行可能命令が格納されている非一時的コンピュータ可読媒体が提供される。コンピュータ実行可能命令は、プロセッサにより実行されると、該プロセッサに、上述の画像処理方法を達成させる、コンピュータ実行可能命令。
低画質画像データと高画質画像データを含む複数のトレーニングデータセットを取得し、及び複数のトレーニングデータセットを利用して画像拡張モデルトレーニングを実施することにより、画質を向上することのできる画像拡張モデルを得ることが可能である。その後、処理されるべき画像データを画像拡張モデルに入力することにより、より高品質の画像データを生成することが可能であり、それにより、画質を改善することができる。
本発明の実施形態による画像処理方法のフローチャートである。 複数のトレーニングデータセットを取得する処理のフローチャートである。 本発明の実施形態による画像処理機器のブロック図である。 本発明の実施形態による画像処理のための電子機器のブロック図である。 本発明の別の実施形態による画像処理方法のフローチャートである。 パノラマカメラ及び高画質カメラにより撮影された例示的な画像を示す。 透視図法及び高画質画像を取得する処理、並びに透視図法及び高画質画像に基づき取得される第1及び第2領域を示す。 第1及び第2画像として機能する一致した第1及び第2画像ブロックのペアを示す。 マッチング結果を示す。 一致した第1及び第2領域、並びに一致した第1及び第2画像を示す。 ピクセルマッチングアプローチにより取得された小さな画像ブロックのセットを示す。 パターンマッチングアプローチを利用することにより取得された小さな画像ブロックのセットを示す。 複数の小さな画像ブロックのセットを示す。 低画質画像及びその拡張画像を示す。 別の低画質画像及びその拡張画像を示す。 異なるアプローチを使用することにより低画質画像に対する拡張の実行の比較を示す。 正距円筒図法を異なる領域に分割する例を示す。
当業者に本発明をより理解させるために、以下では、本発明の実施形態は、図面を参照して具体的に説明される。しかしながら、留意すべきことに、明細書及び図面において同じ符号は基本的に同じ機能及び構造を有する構成要素を表し、該構成要素の説明の繰り返しは省略される。
説明されるように、パノラマカメラにより撮影されるパノラマ画像は、通常、180度以上の視界を有する。しかしながら、(デジタルSLRカメラのような)高画質カメラによりキャプチャされる平面画像(planar image)と比べて、パノラマ画像は、鮮明さ、解像度、色相差、等の観点で粗悪である。
画像拡張及び超解像度(super resolution (SR))は、パノラマ画像の品質を向上するために使用されてよい。画像拡張は、画像鮮明化、ノイズ除去、ブラー除去、コントラスト向上、色相差補正、等を含む。画像超解像度は、画像の解像度を増大することにより、画質を良くすることができる。しかしながら、従来の画像拡張及び超解像度のアプローチは、パノラマ画質向上に限定的な効果しか有しない。
上述の問題を解決するために、本発明の実施形態は、画質が改善され得る、画像処理方法及び機器、画像処理のための電子機器、コンピュータ可読媒体、及びコンピュータプログラムを提供する。
[第1の実施形態]
本実施形態では、画像処理方法が提供される。
図1は、画像処理方法のフローチャートである。
図1に示すように、画像処理方法は、ステップS101~S103を含む。
ステップS101で、複数のトレーニングデータセットが取得される。各トレーニングデータセットは、第1画像のデータ及び第2画像のデータを含む。第2画像の画質は第1画像の画質より高く、第1画像の撮影コンテンツは第2画像の撮影コンテンツと同じである。
ここで、第1画像及び第2画像の両方は、正距円筒図法(equirectangular projection)又は透視図法(perspective view)であってよく;第1画像は正距円筒図法であってよく、第2画像は透視図法であってよく;或いは、第1画像は透視図法であってよく、第2画像は正距円筒図法であってよい。勿論、第1及び第2画像は、正距円筒図法及び/又は透視図法に限定されない。それは、それらが他の種類の画像であってよいことを意味する。
トレーニングデータを取得するために、予め同じコンテンツを撮影するために、異なる画質を有するカメラを使用することが可能である。例えば、高画質を有するカメラは、高画質画像を取得するためにコンテンツAの写真を撮るために利用されてよく、次に、低画質を有するカメラが、低画質画像を取得するために同じコンテンツAを撮影するために採用されてよい。次に、第1画像及び第2画像を生成するために、高画質画像及び低画質画像に対して、マッチング処理が実行されてよい。
画質を測定するパラメータは、解像度、信号対雑音比、及び色相差を含んでよい。第2画像の画質は、第1画像の画質より高い。これは、少なくとも以下のケースのうちの少なくとも1つが含まれることを意味する:第2画像の解像度が第1画像の解像度より高いケース;第2画像の信号対雑音比が第1画像の信号対雑音比より高いケース;第2画像の色相差が第1画像の色相差より低いケース。
例では、高画質を有するカメラは、デジタルSLRカメラのような平面カメラを採用してよく、低画質を有するカメラはパノラマカメラを利用してよい。
図2は、複数のトレーニングデータセットを取得する処理のフローチャートである。
図2に示すように、複数のトレーニングデータセットを取得する処理は、ステップS1011~S1013を含む。
ステップS1011で、パノラマカメラは、パノラマ画像をキャプチャするために第1位置に固定され、パノラマ画像は透視図法に変換される。平面カメラは第2位置に固定され、平面カメラはパノラマカメラの非平行点に揃えられる。複数の平面画像が、平面カメラを回転することにより撮影され、透視図法に対応する高画質画像が、複数の平面画像を用いて取得される。高画質画像の画質は透視図法の画質より高く、高画質画像の撮影コンテンツは透視図法の全部の撮影コンテンツを含む。
ステップS1012で、透視図法内の第1領域に対応する、高画質画像内の第2領域が決定される。第1領域の位置は、第2領域の位置と一致する。
ステップS1013で、第1及び第2領域は、N個の画像セットを取得するために利用される。各画像セットは、第1画像及び第2画像を含む。ここで、Nは、1より大きい整数である。
第1及び第2領域を用いてN個の画像セットを取得するとき、第1領域をN個の第1部分に、第2領域をN個の第2部分に分割することが可能である。任意の2つの隣接する第1部分の間には重なり合う領域があるが(ここで、重なり合う領域の幅は予め決定され、例えば数個のピクセルであってよい)、任意の2つの隣接する第2部分の間には重なり合う領域がない。i番目の第2部分が、N個の第2部分から選択され、i番目の第2部分に一致するi番目の第1部分がN個の第1部分から選択される。i番目の第1部分の撮影コンテンツは、i番目の第2部分の撮影コンテンツを含み、i番目の第1部分のサイズはi番目の第2部分のサイズより大きい。ここで、iは、1以上且つN以下の整数である。次に、i番目の第2部分及びi番目の第1部分に対して、ピクセルマッチングが実行され、i番目の第1部分を用いて、i番目の第3部分が取得される。ここで、i番目の第3部分のサイズは、i番目の第2部分のサイズと同じである。次に、i番目の第3部分及びi番目の第2部分のマッチング精度が計算される。マッチング精度が所定の閾値より大きい場合には、i番目の第3部分は、第1画像として機能し、i番目の第2部分は第2画像として機能する。マッチング精度が所定の閾値より大きくない場合には、パターンマッチング処理を利用することにより、i番目の第2部分に一致するi番目の第4部分が、i番目の第1部分から取得される。この場合、i番目の第4部分は第1画像として機能し、i番目の第2部分は第2画像として機能する。ここで、i番目の第4部分のサイズは、i番目の第2部分のサイズと同じである。
留意すべきことに、実際の必要に従い、所定の閾値の値範囲を設定することが可能である。具体的に、PSNR(Peak Signal-to-Noise Ratio、ピーク信号対雑音比)が、閾値を計算するために使用されてよい。つまり、第1及び第2画像内の同じ位置にあるi番目の部分が、2つの部分の元のPSNR(PSNR_oriと表す)を計算するために利用され、次に一致するPSNR値が計算される。一致するPSNR値がPSNR_oriより小さい場合、閾値要件が満たされないと考えられる。
再び図1を参照すると、ステップS102は、画像拡張モデルを構成し、第1画像のデータを画像拡張モデルの入力にし、複数のトレーニングデータセットを利用して、画像拡張モデルの出力と第2画像のデータとの間の差分特徴値が最小になるまで、画像拡張モデルをトレーニングする。
ここで、画像拡張モデルは、畳み込みニューラルネットワーク及び敵対的生成ネットワークを採用してよい。画像拡張モデルは、数千個のパラメータを含む。低画質画像を画像拡張モデルに入力することにより、拡張画像を生成することが可能である。参照画像として機能する高画質画像は、損失関数の値を計算するために使用されてよい。損失関数の値は、拡張画像と参照画像との間の差が最小になるまで、連続的に更新される。
画像拡張モデルの性能を向上するために、画像拡張モデルに入力される画像のデータは、意味情報、位置情報、等のような画像の情報を含んでよい。
画像の位置情報は、以下のように決定されてよい。先ず、画像の品質スコアが計算され、次に、品質スコアに対応する領域識別が決定され、これは位置情報として機能する。
次に、図1のステップS103で、処理されるべき画像のデータは、画像拡張モデルに入力され、画像拡張後の第4画像のデータを出力する。第4画像の画質は、第3画像の画質より高い。
ここで、第3画像及び第4画像の両方は、正距円筒図法又は透視図法であってよく;第3画像は正距円筒図法であってよく、第4画像は透視図法であってよく;或いは、第3画像は透視図法であってよく、第4画像は正距円筒図法であってよい。勿論、第3及び第4画像は、正距円筒図法及び/又は透視図法に限定されない。つまり、それらは他の種類の画像であってよい。
第3画像が低画質を有するカメラによりキャプチャされた後に、第3画像のデータを画像拡張モデルに入力することにより、拡張画像のデータを出力することが可能である。次に、第4画像が、拡張画像のデータに基づき生成されてよい。ここで、第4画像の画質は、第3画像の画質より高い。このように、画質が向上される。
上述のように、画質を測定するパラメータは、解像度、信号対雑音比、及び色相差を含んでよい。第4画像の画質は、第3画像の画質より高い。それは、少なくとも以下のケースのうちの少なくとも1つが含まれることを意味する:第4画像の解像度が第3画像の解像度より高いケース;第4画像の信号対雑音比が第3画像の信号対雑音比より高いケース;第4画像の色相差が第3画像の色相差より低いケース。
本実施形態では、低画質画像データと高画質画像データを含む複数のトレーニングデータセットを獲得し、及び複数のトレーニングデータセットを利用して画像拡張モデルトレーニングを実施することにより、画質を向上することのできる画像拡張モデルを得ることが可能である。その後、処理を待っている画像データを画像拡張モデルに入力することにより、より高品質の画像データを取得することが可能であり、それにより、画質を改善することができる。
[第2の実施形態]
本実施形態では、画像処理機器が説明される。
ここで、留意すべきことに、画像処理機器は、第1の実施形態による画像処理方法を実行してよい。
図3は、本実施形態による画像処理機器20のブロック図である。
図3に示されるように、3つの部分、つまり、取得部21、構成部22、及び処理部23が、画像処理機器20に含まれる。勿論、画像処理機器20は、他の部分を更に含んでよい。しかしながら、これらの種類の部分は、本実施形態に密接に関連しないので、それらの図示及び説明はここでは便宜上省略される。
特に、取得部21、構成部22、及び処理部23は、第1の実施形態による画像処理方法のステップS101~S103(図1に示す)を行うよう構成されてよい。ここで、留意すべきことに、これらのステップは、第1の実施形態による画像処理方法において詳細に説明された。つまり、ステップS101~S103に関する更なる情報については、第1の実施形態を参照することができ、従って、これらのステップの詳細もここでは便宜上省略される。
本実施形態では、低画質画像データと高画質画像データを含む複数のトレーニングデータセットを取得し、及び複数のトレーニングデータセットを利用して画像拡張モデルトレーニングを実行することにより、画質を向上することのできる画像拡張モデルを得ることが可能である。その後、処理されるべき画像データを画像拡張モデルに入力することにより、より高品質の画像データを生成することが可能であり、それにより、画質を改善することができる。
[第3の実施形態]
本実施形態では、画像処理のための電子機器が提供される。
図4は、本実施形態による画像処理のための電子機器30のブロック図である。
図4に示すように、電子機器30は、少なくとも1つのプロセッサ32、及びプロセッサ32に接続された記憶装置34を含む。
具体的に、プロセッサ32はCPU(中央処理ユニット)又はデータ処理能力及び/又は命令実施能力を有する任意の他の処理部であってよく、記憶装置34に格納されたコンピュータプログラムを実行して、本実施形態では便宜上詳細が省略される第1の実施形態による画像処理方法のステップS101~S103を達成するよう構成されてよい。
記憶装置34は、プロッピーディスク(登録商標)、ハードディスク、CDROM、磁気テープ装置、又は固体メモリ装置、のようなプロセッサ可読コンピュータプログラムを格納する任意の記憶媒体であってよい。
例では、図4に示されるように、記憶装置34は、オペレーティングシステム341及びアプリケーションプログラム342を含む。オペレーティングシステム341は、任意の従来の種類のオペレーティングシステムであってよい。アプリケーションプログラム342は、第1の実施形態による画像処理方法を達成するコンピュータプログラムを含んでよい。
更に、電子機器30は、図4に示されるように、ネットワークインタフェース31、入力装置33、ハードディスク35、及びディスプレイ装置36を更に含んでよい。これらの4個の部分は、例えば従来のものと同じであってよい。
本実施形態では、低画質画像データと高画質画像データを含む複数のトレーニングデータセットを獲得し、及び複数のトレーニングデータセットを利用して画像拡張モデルトレーニングを実施することにより、画質を向上することのできる画像拡張モデルを得ることが可能である。その後、処理を待っている画像データを画像拡張モデルに入力することにより、より高品質の画像データを取得することが可能であり、それにより、画質を改善することができる。
[第4の実施形態]
本実施形態では、コンピュータプログラム及び非一時的コンピュータ可読媒体が以下に簡単に説明される。
コンピュータプログラムは、コンピュータに、第1の実施形態による画像処理方法を実施させてよい。
更に、非一時的コンピュータ可読媒体は、プロセッサ又は処理システムを含むコンピュータによる実行のためのコンピュータ実行可能命令(つまり、コンピュータプログラム)を格納してよい。コンピュータ実行可能命令は、実行されると、プロセッサ又は処理システムに、第1の実施形態による画像処理方法を実行させてよい。
[第5の実施形態]
本実施形態では、第1の実施形態による画像処理方法に基づく画像処理方法が提供される。
図5は、本実施形態による画像処理方法のフローチャートである。
本実施形態では、低画質画像を取得するためにパノラマカメラが使用され、高画質画像を取得するためにデジタルSLRカメラのような高画質カメラが利用される。
図5に示すように、本実施形態による画像処理方法は、ステップS501~S505を含む。
ステップS501で、パノラマカメラは第1位置に固定され、パノラマ画像はパノラマカメラによりキャプチャされる。高画質カメラは、パノラマカメラのNPP(Non-Parallel Point)に揃えられるように、第2位置に固定され、高画質カメラを回転させることにより複数の平面画像が撮影される。
ここで、各平面画像の画質はパノラマ画像の画質より高く、複数の平面画像の撮影コンテンツの和はパノラマ画像の撮影コンテンツをカバーする必要がある
図6に一例が示され、パノラマカメラ及び高画質カメラにより撮影された例示的な画像を示す。
図6に示されるように、画像1はパノラマカメラにより撮影されたパノラマ画像であり、画像2は、高画質カメラ3をNPPの周りに回転させることによりキャプチャされた、パノラマカメラの異なる視点に対応する高画質画像である。特に、高画質カメラ3は、左から右へ及び上から下へと回転し、異なる角度で高画質画像(つまり、画像2)をキャプチャしてよい。
図5のステップS502で、パノラマ画像は透視図法に変換され、透視図法に対応する高画質画像を生成するために、複数の平面画像が利用される。高画質画像の画質は透視図法の画質より高く、高画質画像の撮影コンテンツは透視図法の全部の撮影コンテンツを含む。
図7に例が示され、透視図法及び高画質画像を取得する処理、並びに透視図法及び高画質画像に基づき取得される第1及び第2領域を示す。
図7に示されるように、画像4はパノラマ画像(つまり、正距円筒図法)である。パノラマ画像は、透視図法(つまり、この図では画像5)に変換されてよい。透視図法は、パノラマ画像内の点線の枠内の部分に対応し、低画質画像である。他方で、高画質カメラにより撮影された複数の平面画像は、高画質画像(つまり、この図の画像6)を取得するために利用されてよい。高画質画像の撮影コンテンツは透視図法の撮影コンテンツと同じであるが、高画質画像の画質は透視図法の画質より有意に高い。
図5のステップS503で、透視図法内の第1領域に対応する、高画質画像内の第2領域が決定される。第1領域及び第2領域の位置は一致する。次に、第1領域及び第2領域を利用して、N個の画像セットが取得される。各画像セットは、第1画像及び第2画像を含む。ここで、Nは、1より大きい整数である。
画像拡張モデルに対してトレーニングを実行するとき、複数のトレーニングデータセットを取得する必要がある。画像拡張モデルは、低画質画像を利用して高画質画像を出力することを目的とする。そのため、画像拡張モデルのトレーニングデータは、一致する第1及び第2画像の複数のセットを含む必要がある。第1画像は低画質画像から取り入れられ、第2画像は高画質画像から取り入れられ、第1画像の撮影コンテンツは第2画像の撮影コンテンツと同じである。
先ず、透視図法内の第1領域を高画質画像内の第2領域と一致させる必要がある。第1領域及び第2領域は、同じ撮影コンテンツに対応する。次に、第1領域は複数の第1画像ブロックに分割され、第2領域も同じように複数の第2画像ブロックに分割される。次に、第1領域内の第1画像ブロック及び第2領域内の第1画像ブロックに対してマッチング処理が実行されて、第1画像及び第2画像として機能する一致した第1及び第2画像ブロックのペアを出力する。
例えば、図7に示されるように、第1領域は画像7により示されてよく、第2領域は画像8により示されてよい。
図8は、第1及び第2画像として機能する一致した第1及び第2画像ブロックのペアを示す。
図8に示すように、左の画像は第1画像ブロックであり、右の画像は、第1画像ブロックとマッチングされた第2画像ブロックである。第1画像ブロックは、歪みを有する低画質画像、つまり第1画像である。第2画像ブロックは、高画質画像、つまり第2画像である。
高精度のマッチング結果を得るために、第1画像及び第1画像と一致する第2画像を取得することは以下の2つのステップを含む。第1ステップは、高画質画像及び高画質画像に一致する歪み補正後の低画質画像(透視図法)を取得することである。歪み補正された低画質画像は、歪みを有する元の低画質パノラマ画像から抽出される。第2ステップは、ブロックマッチング処理を用いて、小さな(例えば、所定のサイズを有する)画像ブロックを、歪み補正された低画質画像及び高画質画像から抽出することである。ここで、第1ステップの後に一致した第1及び第2領域を、及び第2ステップの後に一致した小さな画像ブロック(つまり、第1画像及び第1画像に一致する第2画像)を取得することが可能である。
歪みを有する元の低画質パノラマ画像及び高画質画像について、特徴マッチングが成功し、対応する視角が分かった後に、位置が一致する第1及び第2領域が取得できる。
図9は、第1ステップのマッチング結果を示す。
図9に示されるように、上側の2つの画像は低画質正距円筒図法(左側)及び高画質画像(右側)であり、下側の2つの画像は一致した第1及び第2領域である。第1領域は、歪みを有する元の低画質パノラマ画像から抽出され、その歪みは補正されている。
図10は、一致した第1及び第2領域、並びに一致した第1及び第2画像を示す。
図10に示されるように、上側の2つの画像は、位置が一致する第1及び第2領域であり、下側の2つの画像は、一致した第1及び第2画像である。第1画像は、第1領域から取り入れられ、第2画像は第2領域から取り入れられ、第1領域及び第1画像の両方は、歪みを有する画像から変換される。上側の2つの画像に比べて、下側の2つの画像はより狭い視界を有する。通常、視界が広いほど、より深刻な画像歪みが存在する。結果として、大きな画像の歪みは、小さな画像の歪みよりも深刻である。マッチング精度を向上するために、位置が一致する第1及び第2領域を取得した後に、第1及び第2領域は、それぞれ、複数の小さな画像ブロックに分割されて、第1及び第2画像として機能する。このように、歪みを有する画像を透視図法へと変換するときに生成されたエラーを小さくすることができる。
第1及び第2領域を利用して第1及び第2画像を取得するとき、高画質画像の第2領域をN個の小さな画像ブロックに分割することが可能であり、任意の2つの隣接する小さな画像ブロックの間に重なり合いがない。ここで、Nは、正整数であってよく、例えばNは9であってよい。同様に、第2領域に一致する第1領域も、N個の小さな画像領域に分割される必要があるが、任意の2つの隣接する小さなブロックの間に重なり合う領域が存在する(ここで、重なり合う領域の幅は予め定められ、例えば数個のピクセルであってよい)。高画質を有する各々の小さな画像ブロックは、低画質を有する対応する小さな画像ブロックと一致する。高画質を有する画像ブロックは、第2画像として出力され、高画質を有する画像ブロックに一致する低画質を有する画像ブロックは、第2画像と一致する第1画像として出力される。全体のマッチング処理は、変換行列Mを計算し、変換行列Mを使用して歪み補正後の一致した画像を取得し、最終的に低画質を有する一致した大きな画像を取得することを含んでよい。
第1画像及び第2画像にマッチング処理を実行するとき、先ず、小さな画像ブロックが高画質画像の第2領域から選択され、次に、小さな画像ブロックも、低画質画像の対応する位置から選択される。ここで、低画質を有する小さな画像ブロックのピクセル数は、高画質を有する小さな画像ブロックのピクセル数よりも僅かに(所定のピクセル数(例えば、数個のピクセル))大きい。これらの2つの小さな画像ブロックに対してピクセルマッチングを実行することにより、同じサイズを有する2つの一致した小さな画像ブロックを取得することができる。次に、この小さな画像セットのマッチング精度が決定される。マッチング精度が所定の要件を満たす場合(例えば、所定の閾値より大きい)、この小さな画像セットが出力される。その他の場合、パターンマッチングアルゴリズムが採用されて、2つの小さな画像ブロックに関してマッチング処理を行い、一致する小さな画像ブロックのセットを出力する。ここで、最初にピクセルマッチングを選択する理由は、そのマッチング効果がパターンマッチングの効果より高いからである。しかしながら、画像特徴が均等に分布していない場合、ピクセルマッチングは歪みを生じるが、パターンマッチングは歪みを生じない。これに基づき、ピクセルマッチングが適切ではない場合、パターンマッチングが代わりに使用されてよい。
図11Aは、ピクセルマッチングアプローチにより取得された小さな画像ブロックのセットを示す。図11Bは、パターンマッチングアプローチを利用することにより取得された小さな画像ブロックのセットを示す。
画像特徴の分布が一様ではない場合、ピクセルマッチングアプローチは歪みを生じ、パターンマッチングアプローチはずれ(misalignment)を生じ得る。パターンマッチングアプローチの効果はピクセルマッチングアプローチの効果ほど良好ではないが、パターンマッチングアプローチは、後続の処理に僅かな影響しか与えない。従って、ピクセルマッチング精度が所定の要件を満たさないとき、パターンマッチングアプローチを候補ソリューションとして選択することができる。
図12は、このステップを実行した後に必要とされる、複数の小さな画像ブロックのセットを示す。
図12に示されるように、各々の点線の枠は、小さな画像ブロックのセットを取り囲む。ここで、左の画像は高画質画像、つまり第2画像であり、右の画像は低画質画像、つまり第1画像である。
再び図5を参照すると、ステップS504で、画像拡張モデルをトレーニングするために、N個の画像セットが利用される。
特に画像拡張モデルは、ニューラルネットワークを採用してよい。画像拡張モデルは、低画質画像ブロックから高画質画像ブロックへのマッピングモデルであり、数千個のパラメータを含む。低画質画像、つまり第1画像は、拡張画像を生成するために画像拡張モデルに入力され、高画質画像、つまり第2画像は、参照のための実際の画像であり、損失関数の値を計算するために使用される。損失関数の値は、画像拡張モデルにより生成される拡張画像と参照のための画像との間の差が最小になるまで、連続的に更新される。
画像拡張モデルを利用して超解像度を達成するために、取得されたトレーニングデータは、第2画像の解像度が第1画像の解像度より大きいという条件を満たす必要がある。従って、画像拡張モデルは、低解像度画像ブロックから高解像度画像ブロックへのマッピングモデルを学習してよい。低画質画像、つまり第1画像は、超解像度画像を生成するために画像拡張モデルに入力され、高画質画像、つまり第2画像は、参照のための実際の画像であり、損失関数の値を計算するために使用される。損失関数の値は、画像拡張モデルにより生成される拡張画像と参照のための画像との間の差が最小になるまで、連続的に更新される。
次に、図5のステップS505で、画像拡張モデル及び低画質画像は、高画質画像を生成するために利用される。
画像拡張モデルがトレーニングされた後に、処理されるべき低画質画像のデータを画像拡張モデルに入力して、高画質画像データを出力し、及び高画質画像データを利用して高画質を有する画像を生成することができる。
図13は、低画質画像及びその拡張画像を示す。
図13に示されるように、左側にあるのは、処理を待っている(屋内でキャプチャされた)低画質正距円筒図法であり、右側にあるのは、本実施形態による技術ソリューションを用いて取得された拡張画像である。この図から、画質が改善されたことが明らかである。
図14も、低画質画像及びその拡張画像を示す。
図14に示されるように、左側にある画像は、処理されるべき(屋外でキャプチャされた)低画質正距円筒図法であり、右側にある画像は、本実施形態による技術ソリューションを用いて取得された拡張画像である。図14から、画質が改善されたことが明らかである。
図15は、異なるアプローチを使用することにより低画質画像に対する拡張の実行の比較を示す。
図15に示されるように、鮮明化フィルタを用いて低画質を有する画像を処理した結果は左側にあり、本実施形態による技術ソリューションを利用して低画質を有する画像を処理した結果は右側にある。この図から、鮮明化フィルタを用いることと比べて、本実施形態による技術ソリューションを用いて画質を向上できることが明らかである。
更に、画質を更に良好に向上するために、画像拡張モデルに対してトレーニングを行うとき、画像拡張モデルに入力される画像データは、画像の位置情報を含んでよい。具体的に、関連するパノラマ画像内の小さな画像のペアに対応する視野の角度を位置情報として機能させ、位置情報を定義するために1ホット(one hot)ベクトルを使用し、それを画像拡張モデルの生成器(G)及び識別器(D)にリンクすることが可能である。
図16は、正距円筒図法を異なる領域に分割する例を示す。
図16に示されるように、正距円筒図法を、異なる画質に従い異なる領域に分割することができる。この図では、正距円筒図法は3個の領域に分割される。同じ番号(つまり、1、2、又は3)を有する各画像は、同じ画質を有し、その対応する角度は正距円筒図法の下に示される。
小さな画像ブロックの品質スコアを計算することにより、小さな画像ブロックのペアが属する領域を決定することができる。例えば、小さな画像ブロックのPSNR(Peak Signal-to-Noise Ratio)及び/又はSSIM(Structural SIMilarity)インデックスは、品質スコアとして機能するために計算されてよい。品質スコアが第1閾値より大きい又は等しい場合、小さな画像ブロックの関連するペアは、領域1に属すると決定されてよく、最良の画質を有する。品質スコアが第2閾値より大きい又は等しいが第1閾値より小さい場合、小さな画像ブロックの関連するペアは、領域2に属すると決定されてよく、良好な画質を有する。品質スコアが第3閾値より大きい又は等しいが第2閾値より小さい場合、小さな画像ブロックの関連するペアは、領域3に属すると決定されてよく、最も悪い画質を有する。小さな画像ブロックに対応する領域識別は、小さな画像ブロックの位置情報のピースとして機能してよい。
更に、画質を更に改善するために、画像拡張モデルに対してトレーニングを実行するとき、画像拡張モデルに入力される画像データは、画像の位置情報に加えて、画像の意味情報を含んでよい。例えば、意味情報の異なるピースに従い、正距円筒図法を、空、木、草、のような異なる領域に分割することができる。画像拡張モデルをトレーニングするとき、画像ブロックに対応する意味情報も、画像拡張モデルに入力される。
本実施形態による技術ソリューションを利用して、パノラマ画像の画質は、SLRカメラによりキャプチャされた対応する平面画像の画質に等しくなるよう向上され得る。
更に、本実施形態では、第1画像は、正距円筒図法を採用し、第2画像は透視図法を使用した。しかしながら、本実施形態による技術ソリューションは、これに限定されない。例えば、第1画像は透視図法を使用してよく、第2画像は正距円筒図法を採用してよい。この場合、第2画像のソースとして機能するようにするために、高画質カメラにより撮影される高画質画像を正距円筒図法に変換する必要がある。
ここで、留意すべきことに、本発明の実施形態は、任意の都合のよい形式で、例えば専用のハードウェア又は専用ハードウェアとソフトウェアとの混合を用いて実装されてよい。本発明の実施形態は、1つ以上のネットワーク接続された処理機器により実行されるコンピュータソフトウェアとして実装されてよい。ネットワークは、従来の地上波又はインターネットのような無線通信ネットワークを含んでよい。処理機器は、汎用コンピュータ、パーソナルデジタルアシスタント、携帯電話機(例えば、WAP又は3G準拠電話機)等のような任意の適切にプログラミングされた機器を含んでよい。本発明の実施形態はソフトウェアとして実装できるので、本発明の各々の全ての態様は、プログラマブル装置に実装可能なコンピュータソフトウェアを包含する。
コンピュータソフトウェアは、プロッピーディスク(登録商標)、ハードディスク、CDROM、磁気テープ装置、又は固体メモリ装置、のようなプロセッサ可読コードを格納する任意の記憶媒体を使用するプログラマブル装置に提供されてよい。
ハードウェアプラットフォームは、例えば、中央処理ユニット(CPU)、ランダムアクセスメモリ(RAM)、及びハードディスクドライブ(HDD)を含む任意の専用ハードウェアリソースを含む。CPUは、任意の所望の種類及び数のプロセッサを含んでよい。RAMは、任意の所望の揮発性又は不揮発性メモリを含んでよい。HDDは、大容量データを格納できる任意の所望の不揮発性メモリを含んでよい。ハードウェアリソースは、機器の種類に従い、入力装置、出力装置、及びネットワーク装置を更に含んでよい。HDDは、HDDが機器からアクセス可能である限り、機器の外部に設けられてよい。この場合、CPU、例えばCPUのキャッシュメモリ、及びRAMは、機器の物理メモリ又は1次メモリとして動作してよく、一方で、HDDは、機器の2次メモリとして動作してよい。
本発明は説明の目的で選択された特定の実施形態を参照して説明されたが、本発明はこれらの実施形態に限定されず、本発明の基本概念及び技術的範囲から逸脱することなく当業者により種々の変更がそれに行われ得ることが理解されるべきである。
本願は、参照により全内容がここに組み込まれる、2019年8月15日に出願した中国特許出願番号201910753276.Xに基づき、その優先権の利益を主張する。

Claims (11)

  1. 画像処理方法であって、
    複数のトレーニングデータセットを取得するステップであって、各トレーニングデータセットは第1画像のデータ及び第2画像のデータを含み、前記第2画像の画質は前記第1画像の画質より高く、前記第1画像の撮影コンテンツは前記第2画像の撮影コンテンツと同じである、ステップと、
    画像拡張モデルを構成し、前記第1画像のデータを前記画像拡張モデルに入力させ、前記複数のトレーニングデータセットを使用して、前記画像拡張モデルの出力と前記第2画像のデータとの間の差分特徴値が最小値に達するまで、前記画像拡張モデルに対してトレーニングを行うステップと、
    処理されるべき第3画像のデータを前記画像拡張モデルに入力するステップであって、画像拡張後の第4画像のデータを出力し、前記第4画像の画質は前記第3画像の画質より高い、ステップと、
    を含み、
    複数のトレーニングデータセットを取得する前記ステップは、
    パノラマカメラを第1位置に固定し、前記パノラマカメラを使用してパノラマ画像を撮影し、前記パノラマ画像を透視図法に変換するステップと、
    平面カメラを第2位置に固定し、前記平面カメラを回転して複数の平面画像をキャプチャし、前記複数の平面画像を利用して前記透視図法に対応する高画質画像を取得するステップであって、前記平面カメラは前記パノラマカメラの非平行点に揃えられ、前記高画質画像の画質は前記透視図法の画質より高く、前記高画質画像の撮影コンテンツは前記透視図法の全部の撮影コンテンツを含む、ステップと、
    前記透視図法内の第1領域に対応する前記高画質画像内の第2領域を決定するステップであって、前記第1領域の位置は前記第2領域の位置に一致する、ステップと、
    前記第1領域及び前記第2領域を用いて、N個の画像セットを取得するステップであって、各画像セットは前記第1画像及び前記第2画像を含み、Nは1より大きい正数である、ステップと、
    を含む、画像処理方法。
  2. 前記第1画像は正距円筒図法又は透視図法であり、前記第2画像も正距円筒図法又は透視図法である、請求項1に記載の画像処理方法。
  3. 前記第1領域及び前記第2領域を用いて、N個の画像セットを取得する前記ステップは、
    前記第2領域をN個の第2部分に分割するステップであって、任意の2個の隣接する第2部分は重なり合わない、ステップと、
    前記第1領域をN個の第1部分に分割するステップであって、任意の2個の隣接する第1部分は重なり合う領域を有する、ステップと、
    前記N個の第2部分の中からi番目の第2部分及び前記N個の第1部分の中から前記i番目の第2部分に一致するi番目の第1部分を選択するステップであって、前記i番目の第1部分の撮影コンテンツは前記i番目の第2部分の撮影コンテンツを含み、前記i番目の第1部分のサイズは前記i番目の第2部分のサイズより大きく、iは1以上且つN以下の整数である、ステップと、
    前記i番目の第2部分及び前記i番目の第1部分にピクセルマッチングを実行し、前記i番目の第1部分を利用してi番目の第3部分を獲得するステップであって、前記i番目の第3部分のサイズは前記i番目の第2部分のサイズと同じである、ステップと、
    前記i番目の第3部分及び前記i番目の第2部分のマッチング精度を計算し、前記マッチング精度が所定の閾値より大きい場合に、前記i番目の第3部分を前記第1画像とし及び前記i番目の第2部分を前記第2画像とするステップと、
    前記マッチング精度が前記所定の閾値より大きくない場合に、パターンマッチングを採用して、前記i番目の第1部分から前記i番目の第2部分に一致するi番目の第4部分を取得し、前記i番目の第4部分を前記第1画像として機能させ、前記i番目の第2部分を前記第2画像として機能させるステップであって、前記i番目の第4部分のサイズは前記i番目の第2部分のサイズと同じである、ステップと、
    を含む請求項1に記載の画像処理方法。
  4. 前記画像拡張モデルに入力される画像のデータは、前記画像の意味情報及び位置情報のうちの少なくとも1つを含む、請求項1に記載の画像処理方法。
  5. 前記画像の前記位置情報を決定するステップを更に含み、
    前記画像の前記位置情報を決定するステップは、
    前記画像の品質スコアを計算し、前記品質スコアに対応する領域識別を決定し、前記領域識別を前記位置情報にするステップを含む、請求項4に記載の画像処理方法。
  6. 前記第2画像の画質が前記第1画像の画質より高いことは、
    前記第2画像の解像度が前記第1画像の解像度より高いケース、
    前記第2画像の信号対雑音比が前記第1画像の信号対雑音比より高いケース、
    前記第2画像の色相差が前記第1画像の色相差より低いケース、
    のうちの少なくとも1つを含む、請求項1に記載の画像処理方法。
  7. 前記画像拡張モデルは、畳み込みニューラルネットワーク及び敵対的生成ネットワークのうちのいずれか1つを採用する、請求項1に記載の画像処理方法。
  8. 画像処理機器であって、
    複数のトレーニングデータセットを取得するよう構成される取得部であって、各トレーニングデータセットは第1画像のデータ及び第2画像のデータを含み、前記第2画像の画質は前記第1画像の画質より高く、前記第1画像の撮影コンテンツは前記第2画像の撮影コンテンツと同じである、取得部と、
    画像拡張モデルを構成し、前記第1画像のデータを前記画像拡張モデルに入力させ、前記複数のトレーニングデータセットを使用して、前記画像拡張モデルの出力と前記第2画像のデータとの間の差分特徴値が最小値に達するまで、前記画像拡張モデルに対してトレーニングを行うよう構成される構成部と、
    処理されるべき第3画像のデータを前記画像拡張モデルに入力し、画像拡張後の第4画像のデータを出力するよう構成される処理部であって、前記第4画像の画質は前記第3画像の画質より高い、処理部と、
    を含み、
    前記取得部は、
    パノラマカメラを第1位置に固定し、前記パノラマカメラを使用してパノラマ画像を撮影し、前記パノラマ画像を透視図法に変換することと、
    平面カメラを第2位置に固定し、前記平面カメラを回転して複数の平面画像をキャプチャし、前記複数の平面画像を利用して前記透視図法に対応する高画質画像を取得することであって、前記平面カメラは前記パノラマカメラの非平行点に揃えられ、前記高画質画像の画質は前記透視図法の画質より高く、前記高画質画像の撮影コンテンツは前記透視図法の全部の撮影コンテンツを含む、ことと、
    前記透視図法内の第1領域に対応する前記高画質画像内の第2領域を決定することであって、前記第1領域の位置は前記第2領域の位置に一致する、ことと、
    前記第1領域及び前記第2領域を用いて、N個の画像セットを取得することであって、各画像セットは前記第1画像及び前記第2画像を含み、Nは1より大きい正数である、ことと、
    を実行する、画像処理機器。
  9. 画像処理のための電子機器であって、
    コンピュータ実行可能命令を格納する記憶装置と、
    前記記憶装置に接続されるプロセッサと、
    を含み、
    前記コンピュータ実行可能命令は、実行されると、前記プロセッサに、請求項1~7のいずれか一項に記載の画像処理方法を実施させる、電子機器。
  10. プロセッサによる実行のためのコンピュータ実行可能命令を格納する非一時的コンピュータ可読媒体であって、前記コンピュータ実行可能命令は、実行されると、前記プロセッサに、請求項1~7のいずれか一項に記載の画像処理方法を実行させる非一時的コンピュータ可読媒体。
  11. コンピュータに請求項1~7のいずれか一項に記載の画像処理方法を実施させるためのコンピュータプログラム。
JP2022509143A 2019-08-15 2020-08-12 画像処理方法、機器、非一時的コンピュータ可読媒体 Active JP7264310B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910753276.X 2019-08-15
CN201910753276.XA CN112396558A (zh) 2019-08-15 2019-08-15 图像处理方法、装置及计算机可读存储介质
PCT/JP2020/030707 WO2021029423A2 (en) 2019-08-15 2020-08-12 Image processing method and apparatus and non-transitory computer-readable medium

Publications (2)

Publication Number Publication Date
JP2022544665A true JP2022544665A (ja) 2022-10-20
JP7264310B2 JP7264310B2 (ja) 2023-04-25

Family

ID=72292597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022509143A Active JP7264310B2 (ja) 2019-08-15 2020-08-12 画像処理方法、機器、非一時的コンピュータ可読媒体

Country Status (4)

Country Link
US (1) US20220253981A1 (ja)
JP (1) JP7264310B2 (ja)
CN (1) CN112396558A (ja)
WO (1) WO2021029423A2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230025347A1 (en) * 2021-07-19 2023-01-26 Mediatek Inc. Graphics fusion technology scene detection and resolution controller
CN114584675B (zh) * 2022-05-06 2022-08-02 中国科学院深圳先进技术研究院 一种自适应视频增强方法和装置
CN115639605B (zh) * 2022-10-28 2024-05-28 中国地质大学(武汉) 基于深度学习的高分辨率断层的自动识别方法和装置
CN115527050A (zh) * 2022-11-29 2022-12-27 南方科技大学 图像特征匹配方法、计算机设备和可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035509A (ja) * 2009-07-30 2011-02-17 Fujifilm Corp 複眼撮影装置及びその制御方法
JP2011254436A (ja) * 2010-06-04 2011-12-15 Toshiba Alpine Automotive Technology Corp 移動体検出装置及び移動体検出方法
JP2018195069A (ja) * 2017-05-17 2018-12-06 キヤノン株式会社 画像処理装置および画像処理方法
US20190026958A1 (en) * 2012-02-24 2019-01-24 Matterport, Inc. Employing three-dimensional (3d) data predicted from two-dimensional (2d) images using neural networks for 3d modeling applications and other applications
WO2019019086A1 (zh) * 2017-07-27 2019-01-31 深圳市大疆创新科技有限公司 增强图像对比度的方法、设备及存储介质
JP2020507879A (ja) * 2018-01-15 2020-03-12 株式会社ストリス 魚眼レンズおよび全方位映像の歪み除去のための装置および方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4964054B2 (ja) * 2007-07-31 2012-06-27 三洋電機株式会社 ディジタルカメラ
US10334158B2 (en) * 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
EP3585044A4 (en) * 2017-02-20 2020-01-15 Sony Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM
CN108399600A (zh) * 2018-02-23 2018-08-14 清华-伯克利深圳学院筹备办公室 一种全景成像系统及方法
CN112106343A (zh) * 2018-03-29 2020-12-18 索尼公司 信息处理装置、信息处理方法、程序和信息处理系统
US11222415B2 (en) * 2018-04-26 2022-01-11 The Regents Of The University Of California Systems and methods for deep learning microscopy
KR102507711B1 (ko) * 2018-06-15 2023-03-10 캐논 가부시끼가이샤 의료용 화상 처리 장치, 의료용 화상 처리 방법, 및 컴퓨터 판독가능 매체
CN108900766A (zh) * 2018-06-15 2018-11-27 北京华捷艾米科技有限公司 一种全景图像自动增强装置和方法、以及应用该装置的全景相机
CN108876745B (zh) * 2018-06-27 2020-09-01 厦门美图之家科技有限公司 图像处理方法及装置
WO2020075345A1 (ja) * 2018-10-10 2020-04-16 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
US11265446B2 (en) * 2018-10-18 2022-03-01 Sony Corporation Frame handling for ML-based upscaling
CN109493297B (zh) * 2018-11-01 2020-08-18 重庆中科云从科技有限公司 低质量人脸图像增强方法、系统、设备及存储介质
JP2020129276A (ja) * 2019-02-08 2020-08-27 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN111667398B (zh) * 2019-03-07 2023-08-01 株式会社理光 图像处理方法、装置和计算机可读存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035509A (ja) * 2009-07-30 2011-02-17 Fujifilm Corp 複眼撮影装置及びその制御方法
JP2011254436A (ja) * 2010-06-04 2011-12-15 Toshiba Alpine Automotive Technology Corp 移動体検出装置及び移動体検出方法
US20190026958A1 (en) * 2012-02-24 2019-01-24 Matterport, Inc. Employing three-dimensional (3d) data predicted from two-dimensional (2d) images using neural networks for 3d modeling applications and other applications
JP2018195069A (ja) * 2017-05-17 2018-12-06 キヤノン株式会社 画像処理装置および画像処理方法
WO2019019086A1 (zh) * 2017-07-27 2019-01-31 深圳市大疆创新科技有限公司 增强图像对比度的方法、设备及存储介质
JP2020507879A (ja) * 2018-01-15 2020-03-12 株式会社ストリス 魚眼レンズおよび全方位映像の歪み除去のための装置および方法

Also Published As

Publication number Publication date
CN112396558A (zh) 2021-02-23
US20220253981A1 (en) 2022-08-11
JP7264310B2 (ja) 2023-04-25
WO2021029423A3 (en) 2021-03-25
WO2021029423A4 (en) 2021-05-20
WO2021029423A2 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
JP7264310B2 (ja) 画像処理方法、機器、非一時的コンピュータ可読媒体
Ignatov et al. Dslr-quality photos on mobile devices with deep convolutional networks
Zeng et al. Learning image-adaptive 3d lookup tables for high performance photo enhancement in real-time
US11151690B2 (en) Image super-resolution reconstruction method, mobile terminal, and computer-readable storage medium
US8576295B2 (en) Image processing apparatus and image processing method
US10395341B2 (en) Panoramic image generation method and apparatus for user terminal
Zaragoza et al. As-projective-as-possible image stitching with moving DLT
US8447140B1 (en) Method and apparatus for estimating rotation, focal lengths and radial distortion in panoramic image stitching
US9824486B2 (en) High resolution free-view interpolation of planar structure
RU2706891C1 (ru) Способ формирования общей функции потерь для обучения сверточной нейронной сети для преобразования изображения в изображение с прорисованными деталями и система для преобразования изображения в изображение с прорисованными деталями
CN110611767B (zh) 图像处理方法、装置和电子设备
CN107240082B (zh) 一种拼接线优化方法及设备
WO2014110954A1 (en) Method, device and computer-readable storage medium for panoramic image completion
US10482571B2 (en) Dual fisheye, hemispherical image projection and stitching method, device and computer-readable medium
Zhang et al. Self-supervised learning for real-world super-resolution from dual zoomed observations
WO2024027583A1 (zh) 图像处理方法、装置、电子设备和可读存储介质
WO2013161111A1 (ja) 画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム
CN114549329A (zh) 图像修补方法、设备及介质
CN108573470B (zh) 图像拼接方法及装置
WO2021164329A1 (zh) 图像处理方法、装置、通信设备及可读存储介质
US11893704B2 (en) Image processing method and device therefor
Bright et al. Mitigating Motion Blur for Robust 3D Baseball Player Pose Modeling for Pitch Analysis
CN112508801A (zh) 图像处理方法及计算设备
CN112419172A (zh) 倾斜图像校正去模糊的遥感图像处理方法
Yang et al. An end‐to‐end perceptual enhancement method for UHD portrait images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R151 Written notification of patent or utility model registration

Ref document number: 7264310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151