JP2019532566A - 映像処理装置及び記録媒体 - Google Patents

映像処理装置及び記録媒体 Download PDF

Info

Publication number
JP2019532566A
JP2019532566A JP2019512635A JP2019512635A JP2019532566A JP 2019532566 A JP2019532566 A JP 2019532566A JP 2019512635 A JP2019512635 A JP 2019512635A JP 2019512635 A JP2019512635 A JP 2019512635A JP 2019532566 A JP2019532566 A JP 2019532566A
Authority
JP
Japan
Prior art keywords
patch
video
pixel
processing apparatus
patches
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019512635A
Other languages
English (en)
Other versions
JP7110178B2 (ja
Inventor
ユ,ソクボン
リム,ヒョンジュン
キム,ギヨン
ムン,ヨンス
アン,テギョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019532566A publication Critical patent/JP2019532566A/ja
Application granted granted Critical
Publication of JP7110178B2 publication Critical patent/JP7110178B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes

Abstract

映像処理装置は、入力映像を受信する信号受信部と、入力映像を処理して出力映像を生成する映像処理部と、入力映像の第1ピクセルに対応する第1パッチを記憶する記憶部と、第1ピクセルに記憶部に記憶された第1パッチを適用して出力映像を生成するように映像処理部を制御する制御部と、を備える。【選択図】図2

Description

本発明は、コンテンツソースから提供される入力映像の映像信号が出力映像として表示され得るように当該映像信号を処理する映像処理装置及び記録媒体に関する。
所定の情報を特定プロセスにしたがって演算及び処理するために、演算のためのCPU、チップセット、メモリなどの電子部品を基本的に含む電子装置は、処理対象となる情報によって様々に区別できる。例えば、電子装置には、汎用の情報を処理するPCやサーバーなどの情報処理装置があり、映像情報を処理する映像処理装置がある。
映像処理装置は、映像データを含むコンテンツ信号を外部から受信し、コンテンツ信号から抽出される映像データを様々な映像処理プロセスにしたがって処理する。映像処理装置は処理された映像データを、自分のディスプレイパネル(display panel)上に映像として表示するか、又はディスプレイパネルを有する他のディスプレイ装置で映像として表示されるように当該ディスプレイ装置に出力する。ディスプレイパネルを有さない映像処理装置の代表例には、セットトップボックス(set−top box)がある。ディスプレイパネルを有する映像処理装置を特にディスプレイ装置といい、その例示には、TV、モニタ、携帯用マルチメディア再生機、タブレット(tablet)、モバイルフォン(mobile phone)などがある。
技術が発展するに伴ってUHD級の高解像度を支援するディスプレイパネルがディスプレイ装置に適用されており、最近では4K UHD級を超えて8K UHD級の超高解像度ディスプレイパネルも発売されている。ところが、ディスプレイ装置に提供される入力映像はこのように非常に高い解像度のディスプレイパネルに相応する高品質、高解像度のコンテンツではなく、相対的に低品質のコンテンツであることがある。例えば、UHD級のディスプレイパネルを有するTVに、FHD級の入力映像が提供される場合がある。このような状態でディスプレイ装置が入力映像を表示するためには低解像度の入力映像を高解像度の出力映像にアップスケーリングする一方で、アップスケーリング過程で出力映像のディテールを強化させることによって、出力映像の精細さ及び鮮明度を向上させることが好ましい。
ただし、このようにディテールを強化させるプロセッサを適用する場合に2つの問題点が発生し得るが、その一つは、映像フレーム間の時間的な一貫性の欠如によるフリッカー(flicker)現象の発生であり、もう一つは、一つの映像フレーム内における空間的な相関度の低下によるノイズの発生である。ディスプレイ装置又は映像処理装置が原本の入力映像のディテールを強化させて出力映像を提供する上で出力映像の品質を保障するにはこのような問題点を解決しなければならない。
本発明の実施例に係る映像処理装置は、入力映像を受信する信号受信部と、前記入力映像を処理して出力映像を生成する映像処理部と、前記入力映像の第1ピクセルに対応する第1パッチを記憶する記憶部と、前記記憶部に記憶された前記第1パッチを前記第1ピクセルに適用して前記出力映像を生成するように前記映像処理部を制御する制御部とを含む。
前記第1パッチは、複数のピクセル値にそれぞれ対応するように備えられた複数のパッチのうちの一つであり、前記複数のパッチのそれぞれは、前記パッチが適用される領域に近接しているピクセルの位置にそれぞれ対応する複数のパッチ値を含み、前記制御部は、前記第1ピクセルのピクセル値に基づいて前記第1パッチを判断する。
前記制御部は、前記第1ピクセルよりも大きい領域に前記第1パッチを適用する。
前記第1パッチは7x7の行列形態の領域に適用されるように備えられ得る。
前記制御部は、前記複数のパッチが重なるように前記入力映像のそれぞれの前記ピクセルに対して前記複数のパッチを適用し、前記それぞれのピクセルに対して重なった前記複数のパッチ値の平均を算出して前記出力映像を生成する。
1つの前記パッチ内の前記複数のパッチ値間の相関度は0である。
前記複数のパッチのうちの少なくとも一つは、予め設定された乱数アルゴリズムに基づいて判断され、前記複数のパッチの残りは、線形補間法に基づいて生成される。
前記制御部は、前記入力映像の前記各ピクセルに対して前記複数のパッチを適用することによって生成されたテクスチャを、前記入力映像に基づいてガイデッドフィルタリング(guided filtering)して補正されたテクスチャに変換させ、前記入力映像と前記補正されたテクスチャとを結合させることによって前記出力映像を生成する。
前記制御部は、前記入力映像にスムージングフィルタ(smoothing filter)を適用し、該スムージングフィルタが適用された前記入力映像に前記第1パッチを適用する。
本発明の実施例に係る映像処理装置のプロセッサによって実行可能な方法のプログラムコードを記憶する不揮発性記録媒体において、前記方法は、入力映像を受信する段階と、第1ピクセルに対応する第1パッチを取得する段階と、前記第1ピクセルに前記第1パッチを適用して出力映像を生成する段階とを含む。
前記第1パッチは、複数のピクセル値にそれぞれ対応するように備えられた複数のパッチのうちの一つであり、前記複数のパッチのそれぞれは、前記パッチが適用される領域に近接しているピクセルの位置にそれぞれ対応する複数のパッチ値を含み、前記出力映像を生成する段階は、前記第1ピクセルのピクセル値に基づいて前記第1パッチを判断する段階を含む。
前記第1パッチは、前記第1ピクセルよりも大きい領域に適用され得る。
いずれか1つのパッチは7x7の行列形態の領域に適用されるように備えられ得る。
前記出力映像を生成する段階は、前記複数のパッチが重なるように前記入力映像のそれぞれの前記ピクセルに対して前記複数のパッチを適用する段階と、前記それぞれのピクセルに対して重なった前記複数のパッチ値の平均を算出して前記出力映像を生成する段階とを含む。
1つの前記パッチ内の前記複数のパッチ値間の相関度は0である。
前記複数のパッチのうちの少なくとも一つは、予め設定された乱数アルゴリズムに基づいて判断され、前記複数のパッチの残りは、線形補間法に基づいて生成され得る。
前記第1パッチは、複数のピクセル値にそれぞれ対応する複数のパッチのうちの一つであり、前記出力映像を生成する段階は、前記各ピクセルに対して前記複数のパッチを適用することによって生成されたテクスチャを、前記入力映像に基づいてガイデッドフィルタリングして補正されたテクスチャに変換させる段階と、前記入力映像と前記補正されたテクスチャとを結合させることによって前記出力映像を生成する段階とを含む。
前記出力映像を生成する段階は、前記入力映像にスムージングフィルタを適用する段階と、前記スムージングフィルタが適用された前記入力映像に前記第1パッチを適用する段階とを含む。
本発明の実施例に係る映像プロセッサは、複数のピクセル値にそれぞれ対応する複数のパッチを含むメモリと、映像の第1ピクセルの第1ピクセル値に基づいて前記複数のパッチから第1パッチを判断し、前記第1ピクセルと該第1ピクセルに隣接した映像の第2ピクセルに前記第1パッチを印加することによって出力映像を生成する少なくとも一つのプロセッサとを含む。
前記少なくとも一つのプロセッサは、前記第2ピクセルの第2ピクセル値に基づいて前記複数のパッチから第2パッチを判断し、前記第1ピクセルに前記第1パッチ及び前記第2パッチを印加し、前記第2ピクセルに前記第1パッチ及び前記第2パッチを印加することによって出力映像を生成する。
前記第1パッチは第1ブロック及び第2ブロックを含み、前記第2パッチは第1ブロック及び第2ブロックを含み、前記少なくとも一つのプロセッサは、前記第1パッチの前記第1ブロック及び前記第2パッチの前記第1ブロックを前記第1ピクセルに印加し、前記第1パッチの前記第2ブロック及び前記第2パッチの前記第2ブロックを前記第2ピクセルに印加する。
前記少なくとも一つのプロセッサは、リバイズされたテクスチャを生成するように前記出力映像のテクスチャをフィルタリングし、前記リバイズされたテクスチャを前記映像に結合させることによって前記出力映像を生成する。
本発明の実施例に係る映像処理装置の構成ブロック図である。 本発明の実施例に係る映像処理装置が入力映像をディテール強化された出力映像に変換する過程を示すフローチャートである。 本発明の実施例に係る映像処理装置に適用されるパッチの形式を示す例示図である。 本発明の実施例に係る映像処理装置がシードパッチに基づいてデータベースを構築する原理を示す例示図である。 本発明の実施例に係る映像処理装置が入力映像の各ピクセルにパッチを適用して初期テクスチャを生成する原理を示す例示図である。 本発明の映像処理装置が初期テクスチャを入力映像に基づいて補正する原理を示す例示図である。 本発明の映像処理装置が入力映像の映像フレームのディテールを強化させる過程を示すフローチャートである。 映像処理装置が入力映像を出力映像に変換させた時に時間的に隣接した2映像フレームのプロファイル変化を示すグラフである。 本発明の実施例に係る映像処理装置がパッチのデータベースを表示するための入力映像の例示図である。 本発明の実施例に係る映像処理装置が図9の入力映像に基づいて表示する出力映像の例示図である。 本発明の映像処理装置に適用されるパッチが乱数に基づいて生成されたものか否かを判断する原理を示す例示図である。 本発明の実施例に係る映像処理装置が処理する入力映像及び出力映像のそれぞれの高周波成分を比較した例示図である。
以下では添付の図面を参照し本発明に係る実施例に関して詳しく説明する。以下、実施例の説明では添付の図面に記載された事項を参照するが、各図で提示した同一の参照番号又は符号は実質的に同一の機能を果たす構成要素を表す。
万一、実施例において第1構成要素、第2構成要素などのように序数を含む用語があれば、それらの用語は様々な構成要素を説明するために使われるものであり、用語は一つの構成要素を他の構成要素と区別するために使われるので、それらの構成要素は用語によってその意味が限定されない。実施例で使用する用語は当該実施例を説明するために適用されるもので、本発明の思想を限定するものではない。
図1は、本発明の実施例に係る映像処理装置の構成ブロック図である。
図1に示すように、本発明の実施例に係る映像処理装置100は、様々なコンテンツソース10からコンテンツ信号が提供される。本実施例では映像処理装置100をTVなどのディスプレイ装置とする。本実施例に係る映像処理装置100はディスプレイ部130を有さないセットトップボックスであってもよい。または、コンテンツ信号を処理してコンテンツ映像を表示できるタブレット(tablet)、PC、モバイルフォン(mobile phone)、ウェアラブルデバイス(wearable device)などを含む種々のディスプレイ装置に本発明の思想が適用されてもよい。
映像処理装置100は、コンテンツソース10からコンテンツ信号を受信する信号受信部110と、信号受信部110から受信されたコンテンツ信号を処理する信号処理部120と、信号処理部120によって処理されるコンテンツ信号によるコンテンツ映像を表示するディスプレイ部130と、信号処理部120によって処理されるコンテンツ信号によるコンテンツ音響を出力するスピーカー140と、ユーザによる入力動作が行われるユーザ入力部150と、データが記憶される記憶部160と、信号処理部120の処理のための演算及び映像処理装置100の諸般動作の制御を行う制御部170とを備える。これらの構成要素はシステムバスを介して相互接続される。
信号受信部110はコンテンツソース10のような外部装置からコンテンツ信号を受信するための通信モジュールを含む。信号受信部110は基本的に外部からの信号やデータを受信するための構成であるが、これに限定されず、両方向通信を具現してもよい。信号受信部110は、例えば、RF放送信号を指定された周波数にチューニングするように設けられたチューニングチップ(tuning chip)、インターネットからパケットデータを有線で受信するイーサネット(登録商標)(Ethernet)モジュール、パケットデータをワイファイ又はブルトゥースなどのような様々な規格にしたがって無線で受信する無線通信モジュール、USBメモリのような外部メモリが接続される接続ポートなどの構成要素のうち少なくとも一つを含む。すなわち、信号受信部110は種々の通信プロトコルにそれぞれ対応する通信モジュール又はポートなどが組み合わせられたデータ入力インターフェースを含む。
信号処理部120は、信号受信部110に受信されるコンテンツ信号に対して様々なプロセスを行うことによってコンテンツを再生する。信号処理部120は印刷回路基板上に装着されるチップセット、バッファ、回路などによって具現されるハードウェアプロセッサを含み、設計方式によってはSOC(system on chip)によって具現されてもよい。基本的に、信号処理部120は、コンテンツ映像がディスプレイ部130に表示され、コンテンツオーディオがスピーカー140から出力されるようにコンテンツ信号を処理する。
信号処理部120は、コンテンツ信号の映像信号を映像処理プロセスにしたがって処理することによってディスプレイ部130にコンテンツ映像が表示されるようにする映像処理部123と、コンテンツ信号のオーディオ信号をオーディオ信号プロセスにしたがって処理することによってスピーカー140からコンテンツオーディオが出力されるようにする音響処理部125を含む。
映像処理部123はハードウェアプロセッサチップによって具現され、映像信号に対してデコーディング、映像強化、スケーリングなどの映像処理プロセスを行い、ディスプレイ部130に出力する。映像処理部123は設計方式によって複数のプロセッサチップの組合せを含んでもよい。
音響処理部125はハードウェアDSPによって具現され、オーディオ信号に対してチャネル別区分、増幅、ボリューム調整などのオーディオ処理プロセスを行い、スピーカー140に出力する。スピーカー140が複数個の単位スピーカーを含む場合に、音響処理部125はオーディオ信号をチャネル別に区分及び処理し、処理されたチャネル別信号を個別単位スピーカーにそれぞれ出力する。
本実施例では信号処理部120が映像処理部123及び音響処理部125を含むとしたが、構造によっては様々な変更実施例が可能である。例えば、映像処理部123、記憶部160、制御部170が一つのチップによって具現されてもよい。
ディスプレイ部130は映像処理部123によって処理される映像信号を映像として表示する。ディスプレイ部130の具現方式は限定されず、液晶方式のような受光構造又はOLED方式のような自発光構造のディスプレイパネルを含むことができる。また、ディスプレイ部130は具現方式によって付加的な構成をさらに含んでもよい。例えば、ディスプレイ部130のディスプレイパネルが液晶方式である場合に、ディスプレイ部130は、光を供給するバックライトユニットと、ディスプレイパネルを駆動させるパネル駆動基板などを含む。
スピーカー140は信号処理部120によって処理されるオーディオデータを音響として出力する。スピーカー140は、いずれか一つのオーディオチャネルのオーディオデータに対応するように設けられた単位スピーカーを含み、複数のオーディオチャネルのオーディオデータにそれぞれ対応するように複数の単位スピーカーを含むことができる。
ユーザ入力部150は、ユーザの操作又は入力に応じて予め設定された様々な制御コマンド又は情報を制御部170に伝達する。すなわち、ユーザ入力部150はユーザの意図に応じてユーザの操作によって発生する様々なイベントを信号処理部120に伝達することによって、制御部170が当該イベントに対応して動作するようにする。
ユーザ入力部150は、情報の入力方式によって様々な形態とすることができ、例えばユーザ入力部150は、映像処理装置100の外側に設けられたキー、ディスプレイ部130に設けられたタッチスクリーン、ユーザの発話が入力されるマイクロホン、ユーザのジェスチャなどを撮影又は感知するためのカメラ、センサーなどのような、映像処理装置100に設けられたユーザインターフェース環境を含む。リモートコントローラもユーザインターフェース環境の一構成と見做してもよい。ただし、リモートコントローラは映像処理装置100の本体と分離された構成であるので、映像処理装置100の本体に設けられた別の制御信号受信部を介して映像処理装置100に制御信号を伝送する。
記憶部160は、信号処理部120及び制御部170の処理及び制御によって様々なデータが記憶される。記憶部160は信号処理部120及び制御部170によってアクセスされて、データの読取、記録、修正、削除、更新などが行われる。記憶部160は映像処理装置100のシステム電源提供の有無に関係なくデータを保持できるようにフラッシュメモリ(flash−memory)、ハードディスクドライブ(hard−disc drive)、SSD(solid−state drive)などのような不揮発性メモリと、信号処理部120によって処理されるデータが臨時にローディングされるためのバッファ、RAMなどのような揮発性メモリを含む。
制御部170はCPU、マイクロプロセッサなどによって具現され、信号処理部120をはじめとする映像処理装置100内の構成要素の動作を制御する。
このような構造下で、映像処理装置100はコンテンツソース10から提供されるコンテンツ信号から映像信号を抽出し、抽出した映像信号を処理し映像として表示する。すなわち、映像処理装置100は、映像信号の入力映像を映像処理プロセスにしたがって出力映像に変換させ、変換された出力映像をディスプレイ部130に表示する。入力映像が出力映像に変換される過程で、映像処理装置100はディスプレイ部130が支援する解像度に合わせて入力映像の解像度を調整して出力映像を生成する。
入力映像の解像度がディスプレイ部130の支援解像度に比べて高いと、映像処理装置100は入力映像の解像度を下げるダウンスケーリングを行うことによって出力映像をディスプレイ部130の支援解像度に合わせて調整する。
一方、入力映像の解像度がディスプレイ部130の支援解像度に比べて低いと、映像処理装置100は入力映像の解像度を上げるアップスケーリングを行う。入力映像が出力映像に比べて低品質であるので、アップスケーリング時にはダウンスケーリング時とは違い、入力映像のディテール強化が重要な問題となる。もし入力映像のディテール強化無しで入力映像が出力映像に変換されると、最終表示される出力映像はユーザにとって画質の低下が著しく感じられることがある。
入力映像のディテールを強化させる関連技術は、いくつかのものが提案されている。入力映像のディテールを強化させることによって出力映像の画質の鮮明度及び精細さを向上させるために、入力映像の高周波成分を強化させる方法がある。
ここで、いずれか一映像において高周波成分の役割は次の通りである。映像中に含まれるピクセル分布の側面において、全体的に相互隣接する2ピクセル間のピクセル値の差が相対的に小さく現れると、当該映像内では低周波成分が相対的に高いといえる。一方、全体的に相互隣接する2ピクセル間のピクセル値の差が相対的に大きく現れると、当該映像内では高周波成分が相対的に高いといえる。したがって、映像内で高周波成分が相対的に多ければ映像はそれだけ精細に表現される。映像内で現れる代表的な高周波成分の例示は、映像におけるオブジェクトのエッジ(edge)である。
一方法によれば、映像処理装置は入力映像の低周波成分に関する係数値を用いて高周波成分を生成することによって高周波成分のテクスチャ(texture)を生成し、生成されたテクスチャを原本の入力映像に結合させることによってディテール強化された出力映像を得ることができる。このような方式を周波数リフティング(frequency lifting)方式と呼ぶ。例えば、映像処理装置は2D DCT(discrete cosine transform)を用いて入力映像を周波数ドメインに変換させ、低周波成分を高周波帯域に複写することによって高周波成分を新しく生成し、2D IDCTを用いて空間ドメインに変換させてテクスチャを得る。
他の方法によれば、映像処理装置はホワイトノイズベースでテクスチャを生成する。例えば、映像処理装置は入力映像の高周波成分を抽出し、予め設定された方式で生成されたホワイトノイズを高周波成分に追加して、ホワイトノイズの追加された高周波成分を位相変換させてテクスチャを生成する。そして、映像処理装置は生成されたテクスチャを原本の入力映像に結合させる。
しかし、周波数リフティングベース方式において入力映像の周波数ドメインで付加される成分は、高周波帯域と関係ない低周波帯域の係数値である。また、ホワイトノイズベース方式において既存の高周波成分に付加されるホワイトノイズも原本の入力映像とは関係ない。このため、ディテール強化のために生成されたテクスチャを原本の入力映像と結合させる際、入力映像及びテクスチャ間の相関度が大きく低下する場合があり、この場合に、実際に表示される出力映像にはノイズが現れる。
また、入力映像及びテクスチャ間の相関度が低いと、時間的に連続する各映像フレーム間にも一貫性が低下する。これは、出力映像が表示される間にユーザにとってフリッカー現象を感じる原因となる。
そこで、本実施例に係る映像処理装置は、入力映像の解像度がディスプレイ部の支援可能な解像度より低ければ、入力映像をディスプレイ部の解像度に合わせてアップスケーリングし、映像特性にしたがってテクスチャを生成して入力映像に結合させることによって、ディテールの強化された出力映像を生成する。ここで、映像処理装置は、入力映像のピクセルが有し得る複数のピクセル値にそれぞれ対応する複数のパッチを記憶する。1つのパッチは入力映像の複数のピクセルにそれぞれ対応する複数のパッチ値を含む。パッチは機能を考慮して適用した便宜上の用語であり、パッチという用語の他に様々な用語を本実施例に適用してもよい。例えば、各パッチは、複数のパッチ値がピクセル単位の行列形態で配列される構造を有し、このような形態を考慮してマスク(mask)と呼ぶこともできる。
すなわち、映像処理装置は入力映像の各ピクセルに対して、該当のピクセルを含むピクセル領域単位のパッチによる演算を行うことによってテクスチャを生成する。
これによって、映像処理装置は入力映像及びテクスチャ間の相関度を上げることによって出力映像におけるノイズを最小化し、時間的に連続する各映像フレーム間の一貫性を上げることによってフリッカー現象を抑制する。以下、本発明の実施例に関して具体的に説明する。
図2は、本発明の実施例に係る映像処理装置が入力映像をディテール強化された出力映像に変換する過程を示すフローチャートである。
図2に示すように、映像処理装置は入力映像にテクスチャを結合させることによって入力映像をディテール強化された出力映像に変換する。具体的に、映像処理装置は、入力映像に対して事前フィルタリング(pre−filtering)する事前フィルタリング段階(S110)、乱数に基づいてピクセル対応パッチのデータベースを構築(building)するパッチ構築段階(S120)、入力映像の各ピクセルに対してデータベースのピクセル別パッチを適用することによって初期テクスチャ(initial texture)を生成するパッチ適用段階(S130)、初期テクスチャを原本の入力映像に調和させることによって補正されたテクスチャを生成するテクスチャ調和(harmonization)段階(S140)、補正されたテクスチャを入力映像に結合させることによって出力映像を生成するテクスチャ適用段階(S150)、のプロセスを順に行う。
以下、各段階に関して具体的に説明する。
事前フィルタリング段階(S110)は、入力映像を出力映像に変換するプロセスの最初の段階であり、実質的なプロセスを行う前の事前作業に該当する。映像処理装置はこの段階で入力映像に基本的に含まれるか、又は目立つノイズを除去する。万一このようなノイズを除去しなければ、以降の段階において当該ノイズが予測出できない形態で現れることがあり、この段階ではこのような可能性を極力排除する。もし入力映像に目立つノイズがないなどの状況によってこの段階は行われなくてもよい。
事前フィルタリング段階(S110)において、映像処理装置は例えば、入力映像にスムージングフィルタ(Smoothing Filter)を適用する。スムージングフィルタにはガウシアンスムージングフィルタなどの種々の技術を適用する。
パッチ構築段階(S120)は、入力映像の有効ピクセル値にそれぞれ対応するパッチのデータベースを事前に準備する作業である。この段階は、事前フィルタリング段階(S110)後に行うが、一般的には、入力映像を出力映像に変換するプロセス以前に行う。すなわち、データベースは事前に構築及び格納され、映像処理装置はS120段階で既に格納されたデータベースを呼び出す。また、データベースは、映像処理装置が演算によって直接生成し格納してもよく、映像処理装置の製造過程で製造者によってデータベースが映像処理装置に格納されてもよい。
映像処理装置は8ビット入力映像を処理する場合に、データベースから0乃至255番目のピクセル値のそれぞれに対応するパッチを取得する。いずれか1つのピクセル値に対応するパッチはmxn、演算の便宜のために好ましくはnxnのブロックを含むマトリクス形態を有する。ここで、m又はnは予め設定された整数である。1ブロックは1ピクセルに対応するので、パッチ内の複数のブロックはそれぞれ映像のピクセルに個別的に対応する。1つのパッチ内のブロックは乱数アルゴリズムに基づく任意の値を含み、パッチに関する具体的な説明は後述する。
パッチ適用段階(S130)は、事前に備えられたデータベースからパッチを取得し、入力映像の各ピクセルに対して適用する作業である。データベースのパッチはピクセル値別に備えられており、映像処理装置は入力映像の各ピクセルのピクセル値を判断し、判断したピクセル値に対応するパッチを該当のピクセルに反映する。具体的には、映像処理装置はパッチの複数のブロックのうち中央のブロックが該当のピクセルに対応するようにパッチを配置し、このような作業を入力映像の全ピクセルに対して行う。結果的に、いずれか一つのピクセルに対して最大で(nxn)個のパッチのブロックが積層され、映像処理装置はピクセルに対して積層されるブロックの値の平均値を取得する。映像処理装置は全ピクセルに対する上記の平均値によって初期テクスチャを生成する。
テクスチャ調和段階(S140)は初期テクスチャにガイデッドフィルタリング(Guided Filtering)を適用することによって初期テクスチャを入力映像に調和させる作業である。すなわち、ガイデッドフィルタリングのガイダンス(guidance)映像は入力映像となる。映像処理装置はガイデッドフィルタリングによって初期テクスチャと入力映像との相関度を強化させて、初期テクスチャを補正されたテクスチャに変換させる。ガイデッドフィルタリングに関する具体的な内容に関しては後述する。
テクスチャ適用段階(S150)は、補正されたテクスチャを入力映像と結合させることによって最終的に入力映像を出力映像に変換させる作業である。それ以前の段階によって導出される補正されたテクスチャは入力映像に適応的に強化された高周波成分を含み、入力映像と補正されたテクスチャとの結合の結果である出力映像は入力映像に比べて高周波成分が強化される。ここで、関連技術において単純に高周波成分が強化されたのとは異なり、本実施例による補正されたテクスチャは、入力映像に適応的に処理及び生成された結果である。したがって、出力映像では関連技術に見られる時間的な一貫性及び空間的な相関度の低下を最小化できる。
これによって、本実施例に係る映像処理装置はアップスケーリングから生じ得る出力映像におけるフリッカー現象又はノイズ現象を最小化させ、出力映像の品質を保障する。
以下、パッチのデータベースの構築方法に関して説明する。
図3は、本発明の実施例に係る映像処理装置に適用されるパッチの形式を示す例示図である。
図3に示すように、いずれか1つのピクセル値に対応するパッチ210はnxn個のブロックを含むマトリクス形態を有する。n=7のとき、1つのパッチ210はA01乃至A49の総49個のブロックを含み、各ブロックは1つのピクセルの位置に対応する。すなわち、当該パッチ210は入力映像の1ピクセルに適用される時、該当のピクセルの他に該当のピクセルの周囲にある48個のピクセルにも適用される。
ここで、パッチ210の大きさ、すなわちパッチ210が含むブロックの個数は、設計方式によって様々な数値を指定できる。パッチ210の大きさが相対的に大きくなると、出力映像の精細さ及び鮮明度は増加するが、フリッカー現象が増加することがあり、処理時に必要なメモリ及び負荷が増加する。パッチ210の大きさが相対的に小さくなると、出力映像の精細さ及び鮮明度は減少するが、フリッカー現象が減少し、処理時に必要なメモリ及び負荷が減少する。
同図のパッチ210において、最左上端のブロックがA01であり、その右側のブロックがA02であり、ブロックは一つずつ移動しながら順次にA03,A04などと呼ばれる。最右下端のブロックはA49と呼ばれる。このようなブロック名はパッチ210内で特定位置のブロックを簡潔に示すために便宜上導入したものに過ぎない。
パッチ210が入力映像のいずれかのピクセルに適用される時、パッチ210に含まれる複数のブロックのうちのいずれか1つのブロックが、適用対象となるピクセルに対応するように適用される基準ブロックとなり、残りのブロックは相対位置によって適用対象となるピクセル周囲のピクセルにそれぞれ対応するように適用される。パッチ210におけるブロックのいずれのブロックが基準ブロックになるかに関しては、設計方式によって様々な形態が可能である。例えば、基準ブロックはA01位置に該当するブロックになってもよく、A07やA49の位置に該当するブロックになってもよい。
ただし、演算の便利などを考慮すれば、基準ブロックはパッチ210内で中央に位置するブロック、すなわちA25位置に該当するブロックになることが好ましい。
以下、パッチ210の各ブロックが有する値に関して説明する。ここで、パッチ210のデータベースは入力映像の全ピクセル値に対応するパッチ210を含むので、8ビット入力映像に対応して0乃至255番の総256個のパッチ210を含み、10ビット入力映像に対応して0乃至1023の総1024個のパッチ210を含む。データベースは支援する入力映像のビット数に応じて種々のパッチ210を含むことができる。
映像処理装置はデータベースの構築段階で、まず、予め設定された個数のパッチ210を1次に生成し、1次に生成されたパッチ210に基づいて残りのパッチ210を2次に生成する。1次に生成されるパッチ210をシード(seed)パッチと呼ぶ。全ピクセル値に対応するパッチ210を生成する方法に関しては後述する。
映像処理装置は特定の条件下で乱数アルゴリズムによって導出された任意の値(arbitrary value)をパッチ210における各ブロックに付与する。このような各ブロックの値をパッチ値と呼び、1つのパッチ210は複数のパッチ値を含む。すなわち、パッチ210の複数のブロックの値は任意の値であるが、Min/Max/Mean/Standard Deviationなどの条件で作られるので、完全に無作為に決定される乱数値ではない。
特定の条件として、1つのパッチ210における複数ブロックの値は平均値が予め設定された目標値となるように備えられるので、複数のパッチ210における各ブロックの値が同一の標準偏差を有するように備えられる。ここで、平均値の目標値は設計方式によって色々な数値を適用し得るが、好ましくは0とする。また、同一の標準偏差を有するということは、予め設定された標準偏差値をσという時、パッチ210のブロックの値kが−σ≦k≦σを満たすことを意味する。また、平均値は、幾何平均、調和平均など様々な数学的意味の平均公式を適用でき、例えば本実施例では算術平均方式に基づいて平均値を導出する。
このような方式によって、映像処理装置は各シードパッチを生成する。以下、シードパッチに基づいて全ピクセル値に対応するパッチを生成する方法に関して説明する。
図4は、本発明の実施例に係る映像処理装置がシードパッチに基づいてデータベースを構築する原理を示す例示図である。
図4に示すように、映像処理装置は入力映像のピクセル値の下限である0から上限であるp番までの範囲内でN個のシードパッチ220を生成する。例えば、8ビット入力映像の場合にp=255である。0乃至255番までの範囲内でいずれのピクセル値に対してシードパッチ220を生成するかは設計方式によって色々な数値が可能であり、例えば、シードパッチ220はQの倍数に該当するピクセル値に対して生成される。Qは所定の整数値であり、Qが決定されるとNも決定される。
シードパッチ220に対応するピクセル値以外の残りピクセル値に対応するパッチ230を導出するために、線形補間法(linear interpolation)が適用される。例えば、映像処理装置はピクセル値0のシードパッチ220及びピクセル値Qのシードパッチ220から線形補間法によって0とQとの間のピクセル値のパッチ230を導出する。もちろん、既にシードパッチ220が存在するピクセル値に対しては、シードパッチ220がまさしくパッチ230となる。映像処理装置はこのように全シードパッチ220に基づいて線形補間法を適用することによって、全ピクセル値に対応するパッチ230のデータベースを構築する。
以下、線形補間法の原理に関して簡単に説明する。
線形補間法は、任意の2つの端点の値が与えられたとき、直線距離による線形的計算によってそれら2つの端点の間の値を推定する方法である。例えば、2つの端点(x0,y0)と(x1,y1)が与えられたとき、これらの間に位置している(x,y)は、次のような比例式によって推定できる。
[数1]
(y−y0)/(x−x0)=(y1−y0)/(x1−x0)
y=y0+(y1−y0){(x−x0)/(x1−x0)}
このような原理を一般化させると次の通りである。2地点p1,p2におけるデータ値がそれぞれf(p1),f(p2)のとき、p1,p2間の任意の地点pにおけるデータ値f(p)は、次の数式によって計算できる。
[数2]
f(p)={d2/(d1+d2)}f(p1)+{d1/(d1+d2)}f(p2)
ここで、d1はpからp1までの距離であり、d2はpからp2までの距離である。
もし距離の比を合計が1となるように正規化すれば、すなわちd1+d2=1にすれば、この数式は、次のように単純化できる。
[数3]
f(p)=d2f(p1)+d1f(p2)
本実施例ではこのように線形補間法によってシードパッチ220から全ピクセル値に対するパッチ230を取得する方法に関して説明した。しかし、これは一例に過ぎないもので、必ずしも線形補間法が適用されるわけではなく、2地点の間の1地点を推定できる様々な補間法を本発明の思想に適用できる。
以下、映像処理装置が入力映像にパッチ230を適用する方法に関して説明する。
図5は、本発明の実施例に係る映像処理装置が入力映像の各ピクセルにパッチを適用して初期テクスチャを生成する原理を示す例示図である。
図5に示すように、映像処理装置は入力映像310の各ピクセルのピクセル値を判断する。映像処理装置は所定のピクセルP0のピクセル値に対応するパッチ320をデータベースから検索し、検索されたパッチ320を当該ピクセルP0に適用する。
パッチ320をピクセルP0に適用する方法として、映像処理装置はパッチ320の基準ブロックP1がピクセルP0に対応するようにパッチ320を入力映像310に適用する。すなわち、パッチ320の基準ブロックP1の位置をピクセルP0に合わせると、パッチ320の残りのブロックはピクセルP0周囲の各ピクセルに対応する位置に配置される。パッチ320が(nxn)個のブロックを含むと、パッチ320の各ブロックは入力映像310のピクセルP0を中心とする(nxn)個のピクセルにそれぞれ対応するように適用される。
このような方式によって、映像処理装置は入力映像310の全ピクセルに対してパッチを適用する。この過程が終わると、入力映像310の各ピクセル上には複数のパッチのブロックが重なる。例えば、ピクセルP0上には複数のパッチのブロックであるP1,P2,...,P(q−1),Pqが重なる。ここで、q値はパッチ320の全ブロック数に対応し、ピクセルの入力映像310内の位置によっては当該ピクセルに対応するブロックの個数が他のピクセルに比べて少ないこともある。
映像処理装置はいずれか1つのピクセルP0に対して、当該ピクセルP0に対応するように重なった複数のパッチのブロックP1,P2,...,P(q−1),Pqの値の平均値を算出する。このような平均値を全ピクセルに対して算出し、映像処理装置はそれら平均値による初期テクスチャを生成する。
以下、初期テクスチャを原本の入力映像に調和させて補正する方法に関して説明する。
図6は、本発明の映像処理装置が初期テクスチャを入力映像に基づいて補正する原理を示す例示図である。
図6に示すように、映像処理装置は初期テクスチャが生成されると、初期テクスチャを原本映像、すなわち入力映像に基づいてガイデッドフィルタリングを適用することによって、補正されたテクスチャを生成する。以下、ガイデッドフィルタリングの原理に関して説明する。
ガイデッドフィルタリングはノイズ除去(Denoising)、マルチスケールディテール抽出(Multi−scale Detail Extraction)などの分野に用いられる方法であり、基本的には、所定の入力を予め設定されたガイダンス(guidance)に対比させてフィルタリングすることによってガイダンスに対応する出力を得る。
ガイダンス映像I、フィルタリング入力映像p、フィルタリング出力映像qに関する一般的な線形変換可変(linear translation−variant)フィルタリングプロセスにおいて、I及びqは事前に与えられる値である。ピクセルiにおけるフィルタリング出力映像qiは、次のような加重平均(weighted average)で表現できる。
[数4]
qi=Σ{Wij(I)pj}
式中、Σの初項はjである。i及びjはピクセルインデックスである。フィルタカーネルWijはガイダンス映像Iの関数であり、pに対して独立的である。このフィルタはpに対して線形的である。
ガイデッドフィルタの主要前提は、ガイダンスI及びフィルタリング出力映像q間のローカル線形モデルである。次の数式のように、qはピクセルkを中央に置くウィンドウωkにおいて、Iの線形変形と見なされる。ここで、ウィンドウはガイデッドフィルタリングにおけるパッチを意味する。
[数5]
qi=akIi+bk,∀i∈ωk
(ak,bk)は、ωkにおいて一定のものと見なされる線形係数である。線形係数(ak,bk)を判断するためには、フィルタリング入力映像pからの制限が必要である。次の数式のように、ノイズ/テクスチャのような不要な成分nを引いたフィルタリング入力映像pとしてフィルタリング出力映像qをモデリングできる。
[数6]
qi=pi−ni
上記の数式5のような線形モデルを維持する間にqとp間の差異を最小化するためのソリューションが要求される。特に、ウィンドウωkにおいて次のようなコスト(cost)関数が最小化する。
[数7]
E(ak,bk)=Σ{(akIi+bk−pi)2+εak2}
数式中、シグマ演算の初項は(i∈ωk)である。εは正規化パラメータである。この式は線形リッジ回帰(linear ridge regression)モデルであり、そのソリューションは次の数式の通りである。
[数8]
ak={(1/|ω|)Σ(Iipi−μkPk)}/(σk2+ε)
bk=Pk−akμk
式中、シグマ演算の初項は(i∈ωk)である。μk及びσk2は、ωkにおいてIの平均及び分散(mean and variance)を表す。|ω|はωkにおいてピクセルの個数であり、Pk={(1/|ω|)Σpi}はωkにおいてpの平均である。線形係数(ak,bk)が取得されると、ガイデッドフィルタリングプロセスにしたがってフィルタリング出力映像qiが算出され得る。
ところが、ピクセルiはIをカバーする全てのオーバーラッピングウィンドウωkに関連するので、数式5においてqiの値は、異なるウィンドウで算出された時には同一でない。簡単な方法は、qiの全ての可能な値の平均値を求めることである。映像で全てのウィンドウωkに対する(ak,bk)を算出した後、次の式によってフィルタリング出力を算出できる。
[数9]
qi=(1/|ω|)Σ(akIi+bk)
数式中、シグマ演算の初項は(k|i∈ωk)である。ここで、ボックスウィンドウの対称性によって、初項が(k|i∈ωk)であるΣakは初項が(k∈ωi)であるΣakと同一なので、この式は、次の数式として整理できる。
[数10]
qi=AiIi+Bi
数式中、Ai=(1/|ω|)Σak及びBi=(1/|ω|)Σbkは、Iをオーバーラッピングする全ウィンドウの平均係数である。ここで、Ai及びBiのシグマ演算の初項はいずれも(k∈ωi)である。以上説明したような数式8及び数式10がガイデッドフィルタの定義となる。
このような原理のガイデッドフィルタを用いて、映像処理装置はパッチの適用によって生成された初期テクスチャを補正されたテクスチャに変換させる。初期テクスチャは入力映像との相関度が保障された状態でないことから、初期テクスチャを入力映像に結合させて出力映像が生成されると、本出力映像は相関度の問題によってノイズが発生し得る。このため、映像処理装置は初期テクスチャを入力映像に対比させてガイデッドフィルタリングすることによって、入力映像に対応する補正されたテクスチャを得ることができる。映像処理装置はこのように補正されたテクスチャを入力映像と結合させて出力映像を生成することによって、一貫性及び相関度の向上した出力映像を得ることができる。
以下、映像処理装置が入力映像の映像フレームをディテール強化された出力映像の映像フレームに変換する過程に関して説明する。
図7は、本発明の映像処理装置が入力映像の映像フレームのディテールを強化させることを示すフローチャートである。
図7に示すように、S210段階で、映像処理装置は入力映像を取得する。より具体的には、映像処理装置は入力映像において映像フレーム単位にディテールを強化するプロセスを行う。
S220段階で映像処理装置は事前に備えられたパッチのデータベースを呼び出す。このデータベースは映像処理装置内に格納されたり、映像処理装置と別個の外部装置又はサーバーから映像処理装置に受信されたり、又は映像処理装置で新規に生成され得る。
S230段階で映像処理装置は1次にノイズを除去するために入力映像をスムージングフィルタリングする。本実施例によって、この段階は、入力映像に若干のノイズが含まれる場合に行い、入力映像が閾値以下のノイズを含む場合にこの段階は省略されてもよい。
S240段階で映像処理装置はデータベースから入力映像のピクセル値に対応するパッチを選択する。
S250段階で映像処理装置は選択したパッチを対応のピクセルに適用する。
全ピクセルに対してパッチが適用されると、S260段階で映像処理装置は、各ピクセルに適用された複数のパッチのブロックの平均値を算出する。
S270段階で映像処理装置は、算出された各ピクセル別平均値に基づいて初期テクスチャを生成する。
S280段階で映像処理装置は初期テクスチャを入力映像に基づいてガイデッドフィルタリングし、補正されたテクスチャを生成する。
S290段階で映像処理装置は、補正されたテクスチャを入力映像に結合させる。
これによって、映像処理装置はディテールの強化された出力映像を生成できる。
以下、本発明の実施例に係る映像処理装置が入力映像のディテールを強化する場合と、比較例示に係る映像処理装置が入力映像のディテールを強化する場合の結果例示に関して簡単に説明する。
図8は、映像処理装置が入力映像を出力映像に変換させた時に、時間的に隣接した2つの映像フレームのプロファイル変化を示すグラフである。
図8に示すように、映像処理装置は、入力映像の時間的に連続する(t−1)フレームとtフレームをそれぞれ関連技術によってディテールを強化させる。同図の左グラフは入力映像を示し、右グラフはディテールが強化された出力映像を示す。各グラフで横軸はピクセルの相対位置又はピクセルのインデックス値を表し、縦軸は輝度値を表す。
入力映像において(t−1)フレームのカーブとtフレームのカーブとの間には若干の差異があるが、この差異が大きくなるほどユーザにとってフリッカー現象が著しく感じられる。出力映像は入力映像の場合に比べてカーブが激しくなり、これは、入力映像の高周波成分が追加されるか又は増幅されることから生じる現象である。ところが、出力映像において(t−1)フレームのカーブとtフレームのカーブとの差異は、入力映像の場合に比べて大きくなったことが分かる。このため、ユーザはフリッカー現象を大きく感じることがある。
これに比べて、本実施例に係る映像処理装置では、出力映像において(t−1)フレームのカーブとtフレームのカーブとの間にほとんど差異がない。これは、ディテール強化プロセスによって映像フレームの一貫性及び相関度が低下しなかったことを意味し、ユーザがこのような出力映像を見る際にフリッカー現象及びノイズ現象は最小限に抑制され得る。
以下、本実施例に係る映像処理装置においてパッチのデータベースを肉眼で確認する方法に関して説明する。
図9に示すように、パッチのデータベースを肉眼で確認するために、データベースの映像を表示するための入力映像410を備える。
この入力映像410の構造は次の通りである。まず、入力映像410の背景は白色のような単色を含む。このような背景上に、1つのピクセルをそれぞれ含む複数個のドットが上下左右に予め設定された間隔で配置される。各ドットのピクセルは個別のピクセル値を有し、該当のドットのピクセル値に対応するパッチが後で出力映像に表示される。この入力映像410では8x8の合計64個のドットが表れているが、これは一例示に過ぎず、ユーザが確認しようとするパッチの個数に対応してドットの個数は様々に決定され得る。ただし、入力映像410内の各ドットは個別のピクセル値を有する。
ここで、左右に隣接する2ピクセルB01及びB02間の距離d1と、上下に隣接する2ピクセルB01及びB03間の距離d2は、いずれか1つのパッチが含むブロックの行方向個数及び列方向個数によって決定される。具体的には、1つのパッチが含むブロックがnxnであれば、d1及びd2は(n+1)個のピクセルよりも大きくなる必要がある。例えば、パッチが含むブロックが7x7であれば、入力映像410においてd1及びd2は少なくとも8ピクセル以上にならなければならない。万一d1及びd2がn個のピクセルよりも小さければ、後に表示される出力映像において隣接する2パッチが重なり合って表れることになる。万一d1及びd2がn個のピクセルと同じであれば、隣接する2パッチが境界線無しで接触して表れるので2パッチ間の区分が困難である。
この実施例では入力映像410内の各ドットが互いに等間隔に行列を作って配置されているとしたが、必ずしもこのような形態になる必要はない。すなわち、後に表示される出力映像において隣接する2パッチが重なり合わないように、入力映像410内で各ドットが相互十分の距離を保って配置されるだけでいい。
図10は、本発明の実施例に係る映像処理装置が図9の入力映像に基づいて表示する出力映像の例示図である。
図10に示すように、映像処理装置は複数のパッチC01,C02,C03を表す出力映像420を表示する。出力映像420に表れたパッチC01,C02,C03は図9に示した入力映像410におけるドットに対応し、例えば、パッチC01はドットB01に、パッチC02はドットB02に、パッチC03はドットB03にそれぞれ対応する。各パッチC01,C02,C03は入力映像の対応ドットを中心に出力映像420の背景上に配置される。同図ではパッチC01,C02,C03を単純な正方形で表現したが、実際の出力映像420では複数のブロックを含む元来の形態で表れる。
万一映像処理装置が本実施例によって入力映像のディテールを強化すれば、このような方法によって、ピクセル値に対応するパッチC01,C02,C03が存在するか否か、及びパッチC01,C02,C03の内容を肉眼で判断できる。
以下、パッチがあるとき、当該パッチが乱数に基づいて生成されたものか否かを判断する方法に関して説明する。
図11は、本発明の映像処理装置に適用されるパッチが乱数に基づいて生成されたものか否かを判断する原理を示す例示図である。
図11に示すように、いずれか1つのパッチが任意の値によって生成されたものかを判断するためには、パッチ内の各ブロックの値、すなわちパッチ値が相互に相関関係を有してはならない。もちろん、1つのパッチ内の各パッチ値は前述のように特定条件下で選択されるものではあるが、各々の値は任意に選択されたものである。
所定のパッチXtがあるとすれば、パッチ内のパッチ値の相関係数を導出するように自己相関(Auto−correlation)によるR(n)の演算を行うことができる。R(n)の公式において、Eは期待値演算子(expected value operator)、μは平均値、σは分散(variance)値である。R(n)の公式において、X(t+n)はXtをnピクセルだけ移動させた場合であるから、t=0であればパッチ自身を意味する。
万一いずれかのブロックが自分に対して相関度が1であり、自分以外のブロックに対して相関度が実質的に0であれば、当該パッチは乱数に基づいて生成されたといえる。一方、この場合、いずれかのブロックが、自分以外のブロックに対して相関度が0ではなく所定値以上の値を表すと、当該パッチは乱数に基づいて生成されていないといえる。
図12は、本発明の実施例に係る映像処理装置が処理する入力映像及び出力映像のそれぞれの高周波成分を比較した例示図である。
図12に示すように、映像処理装置が本実施例によって処理する前の入力映像から高周波成分を抽出した映像510は、概ね単色の背景にオブジェクトの輪郭(contour)が表現される。これは、高周波成分の特性上、映像のエッジで著しく表れるためである。
映像処理装置が入力映像を本実施例によって処理すれば、入力映像の高周波成分が強化されることを意味するので、出力映像の高周波成分を抽出した映像520は、オブジェクトの輪郭が映像510の場合に比べて顕著に強化され、よりディテールが鮮明に表れる。
本発明の例示的な実施例に係る方法は、様々なコンピュータ手段によって実行可能なプログラム命令形態で具現され、コンピュータ読取り可能媒体に記録され得る。このようなコンピュータ読取り可能媒体はプログラム命令、データファイル、データ構造などを単独で又は組合せで含む。例えば、コンピュータ読取り可能媒体は削除可能又は書き換えの可否にかかわらず、ROMなどの記憶装置のような揮発性又は不揮発性記憶装置、又は例えばRAM、メモリチップ、装置又は集積回路のようなメモリ、又は例えばCD、DVD、磁気ディスク又は磁気テープなどのような光学又は磁気的に記録可能であると同時に機械(例えば、コンピュータ)で読み込み可能な記憶媒体に記憶され得る。移動端末内に組み込み可能なメモリは、本発明の実施例を具現する指示を含むプログラム又はプログラムを記憶するのに適する機械で読み取り可能な記憶媒体の一例であることが理解できるだろう。この記憶媒体に記録されるプログラム命令は本発明のために特別に設計されて構成されたものであってもよく、コンピュータソフトウェアの技術分野で熟練した技術者にとって使用可能な公知のものであってもよい。
以上の実施例は例示的なものに過ぎず、当該技術の分野における通常の知識を有する者であれば、様々な変形及び同等な他の実施例が可能である。したがって、本発明の真の技術的保護範囲は添付の特許請求の範囲に記載された発明の技術的思想によって定められるべきであろう。
10 コンテンツソース
100 映像処理装置
110 信号受信部
120 信号処理部
123 映像処理部
125 音響処理部
130 ディスプレイ部
140 スピーカー
150 ユーザ入力部
160 記憶部
170 制御部
210、230、320 パッチ
220 シードパッチ
310、410 入力映像
420 出力映像
510、520 映像


Claims (15)

  1. 映像処理装置であって、
    入力映像を受信する信号受信部と、
    前記入力映像を処理して出力映像を生成する映像処理部と、
    前記入力映像の第1ピクセルに対応する第1パッチを記憶する記憶部と、
    前記記憶部に記憶された前記第1パッチを前記第1ピクセルに適用して前記出力映像を生成するように前記映像処理部を制御する制御部と、
    を備えることを特徴とする映像処理装置。
  2. 前記第1パッチは、複数のピクセル値にそれぞれ対応するように備えられた複数のパッチのうちの1つであり、
    前記複数のパッチのそれぞれは、前記パッチが適用される領域に近接しているピクセルの位置にそれぞれ対応する複数のパッチ値を含み、
    前記制御部は、前記第1ピクセルのピクセル値に基づいて前記第1パッチを判断することを特徴とする、請求項1に記載の映像処理装置。
  3. 前記制御部は、前記第1ピクセルよりも大きい領域に前記第1パッチを適用することを特徴とする、請求項2に記載の映像処理装置。
  4. 前記第1パッチは7x7の行列形態の領域に適用されるように備えられたことを特徴とする、請求項3に記載の映像処理装置。
  5. 前記制御部は、前記複数のパッチが重なるように前記入力映像のそれぞれの前記ピクセルに対して前記複数のパッチを適用し、前記それぞれのピクセルに対して重なった前記複数のパッチ値の平均を算出して前記出力映像を生成することを特徴とする、請求項3に記載の映像処理装置。
  6. 1つの前記パッチ内の前記複数のパッチ値間の相関度は0であることを特徴とする、請求項5に記載の映像処理装置。
  7. 前記複数のパッチのうちの少なくとも一つは、予め設定された乱数アルゴリズムに基づいて判断され、
    前記複数のパッチのうちの残りは、線形補間法に基づいて生成されることを特徴とする、請求項2に記載の映像処理装置。
  8. 前記制御部は、前記入力映像の各ピクセルに対して前記複数のパッチを適用することによって生成されたテクスチャを、前記入力映像に基づいてガイデッドフィルタリング(guided filtering)して補正されたテクスチャに変換させ、前記入力映像と前記補正されたテクスチャとを結合させることによって前記出力映像を生成することを特徴とする、請求項2に記載の映像処理装置。
  9. 前記制御部は、前記入力映像にスムージングフィルタ(smoothing filter)を適用し、前記スムージングフィルタが適用された前記入力映像に前記第1パッチを適用することを特徴とする、請求項1に記載の映像処理装置。
  10. 映像処理装置のプロセッサによって実行可能な方法のプログラムコードを記憶する不揮発性記録媒体であって、
    前記方法は、
    入力映像を受信する段階と、
    第1ピクセルに対応する第1パッチを取得する段階と、
    前記第1ピクセルに前記第1パッチを適用して出力映像を生成する段階と、を含むことを特徴とする記録媒体。
  11. 前記第1パッチは、複数のピクセル値にそれぞれ対応するように備えられた複数のパッチのうちの1つであり、
    前記複数のパッチのそれぞれは、前記パッチが適用される領域に近接しているピクセルの位置にそれぞれ対応する複数のパッチ値を含み、
    前記出力映像を生成する段階は、前記第1ピクセルのピクセル値に基づいて前記第1パッチを判断する段階を含むことを特徴とする、請求項10に記載の記録媒体。
  12. 前記第1パッチは前記第1ピクセルよりも広い領域に適用されることを特徴とする、請求項11に記載の記録媒体。
  13. 前記出力映像を生成する段階は、
    前記複数のパッチが重なるように前記入力映像のそれぞれのピクセルに前記複数のパッチを適用する段階と、
    前記それぞれの前記ピクセルに対して重なった前記複数のパッチ値の平均を算出して前記出力映像を生成する段階と、を含むことを特徴とする、請求項11に記載の記録媒体。
  14. 1つの前記パッチ内の前記複数のパッチ値間の相関度は0であることを特徴とする、請求項13に記載の記録媒体。
  15. 前記複数のパッチのうちの少なくとも一つは、予め設定された乱数アルゴリズムによって判断され、
    前記複数のパッチの残りは、線形補間法に基づいて生成されることを特徴とする、請求項11に記載の記録媒体。
JP2019512635A 2016-09-07 2017-09-05 映像処理装置及び記録媒体 Active JP7110178B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020160115104A KR102580519B1 (ko) 2016-09-07 2016-09-07 영상처리장치 및 기록매체
KR10-2016-0115104 2016-09-07
PCT/KR2017/009686 WO2018048171A1 (en) 2016-09-07 2017-09-05 Image processing apparatus and recording medium

Publications (2)

Publication Number Publication Date
JP2019532566A true JP2019532566A (ja) 2019-11-07
JP7110178B2 JP7110178B2 (ja) 2022-08-01

Family

ID=61280730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019512635A Active JP7110178B2 (ja) 2016-09-07 2017-09-05 映像処理装置及び記録媒体

Country Status (6)

Country Link
US (2) US10650779B2 (ja)
EP (1) EP3472801B1 (ja)
JP (1) JP7110178B2 (ja)
KR (1) KR102580519B1 (ja)
CN (1) CN109690612B (ja)
WO (1) WO2018048171A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10643307B2 (en) * 2017-11-10 2020-05-05 Intel Corporation Super-resolution based foveated rendering
JP7030493B2 (ja) * 2017-11-30 2022-03-07 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
KR20200080926A (ko) 2018-12-27 2020-07-07 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
US10909700B2 (en) 2019-04-02 2021-02-02 Samsung Electronics Co., Ltd. Display apparatus and image processing method thereof
CN110991463B (zh) * 2019-11-04 2023-05-02 同济大学 一种超像素图引导下的多尺度引导滤波特征提取方法
CN111275139B (zh) * 2020-01-21 2024-02-23 杭州大拿科技股份有限公司 手写内容去除方法、手写内容去除装置、存储介质
CN111933024B (zh) * 2020-08-10 2021-02-02 张峻豪 一种视觉传达设计用的展示装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187964A (ja) * 1996-12-20 1998-07-21 Dainippon Screen Mfg Co Ltd 画像フィルタリング方法および画像フィルタリング装置並びに画像の輪郭強調処理装置
JPH1198364A (ja) * 1997-09-22 1999-04-09 Fuji Photo Film Co Ltd シャープネス強調方法
JP2001339731A (ja) * 2000-05-24 2001-12-07 Sony Corp 画像信号処理装置及び画像信号処理方法
JP2009152968A (ja) * 2007-12-21 2009-07-09 Sony Corp 画像処理装置および方法、学習装置および方法、プログラム、並びに記録媒体
US20150016720A1 (en) * 2013-07-12 2015-01-15 Barco N.V. Guided image filtering for image content

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6340994B1 (en) * 1998-08-12 2002-01-22 Pixonics, Llc System and method for using temporal gamma and reverse super-resolution to process images for use in digital display systems
US6456340B1 (en) * 1998-08-12 2002-09-24 Pixonics, Llc Apparatus and method for performing image transforms in a digital display system
US7109981B2 (en) * 2003-07-31 2006-09-19 Hewlett-Packard Development Company, L.P. Generating and displaying spatially offset sub-frames
US7668398B2 (en) * 2004-06-15 2010-02-23 Hewlett-Packard Development Company, L.P. Generating and displaying spatially offset sub-frames using image data with a portion converted to zero values
EP2202673B1 (en) * 2004-07-06 2012-03-14 Canon Kabushiki Kaisha Mask generation method for color ink jet printing
US7751641B2 (en) * 2005-04-28 2010-07-06 Imagenomic, Llc Method and system for digital image enhancement
US7715658B2 (en) * 2005-08-03 2010-05-11 Samsung Electronics Co., Ltd. Apparatus and method for super-resolution enhancement processing
US8144161B2 (en) * 2006-12-08 2012-03-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Texture synthesis
US8731318B2 (en) * 2007-07-31 2014-05-20 Hewlett-Packard Development Company, L.P. Unified spatial image processing
US8233734B2 (en) * 2008-09-22 2012-07-31 Microsoft Corporation Image upsampling with training images
US20110205227A1 (en) * 2008-10-31 2011-08-25 Mani Fischer Method Of Using A Storage Switch
WO2010122502A1 (en) * 2009-04-20 2010-10-28 Yeda Research And Development Co. Ltd. Super-resolution from a single signal
JP5506273B2 (ja) * 2009-07-31 2014-05-28 富士フイルム株式会社 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム
KR20110065997A (ko) * 2009-12-10 2011-06-16 삼성전자주식회사 영상처리장치 및 영상처리방법
CN102770887A (zh) * 2010-01-28 2012-11-07 耶路撒冷希伯来大学伊森姆研究发展有限公司 用于从输入图像产生像素分辨率提高的输出图像的方法和系统
US20110317770A1 (en) * 2010-06-24 2011-12-29 Worldplay (Barbados) Inc. Decoder for multiple independent video stream decoding
US20120281923A1 (en) * 2011-05-02 2012-11-08 Yeda Research And Development Co., Ltd. Device, system, and method of image processing utilizing non-uniform image patch recurrence
JP5306563B2 (ja) * 2011-07-08 2013-10-02 オリンパス株式会社 撮像装置及び画像生成方法
US8687923B2 (en) 2011-08-05 2014-04-01 Adobe Systems Incorporated Robust patch regression based on in-place self-similarity for image upscaling
US8917948B2 (en) 2011-09-16 2014-12-23 Adobe Systems Incorporated High-quality denoising of an image sequence
US8861893B2 (en) * 2011-09-27 2014-10-14 The Boeing Company Enhancing video using super-resolution
US8718407B2 (en) * 2011-11-18 2014-05-06 Stmicroelectronics (Canada), Inc. High-quality single-frame superresolution training and reconstruction engine
US9324133B2 (en) * 2012-01-04 2016-04-26 Sharp Laboratories Of America, Inc. Image content enhancement using a dictionary technique
EP2615579A1 (en) * 2012-01-12 2013-07-17 Thomson Licensing Method and device for generating a super-resolution version of a low resolution input data structure
WO2013131929A1 (en) * 2012-03-05 2013-09-12 Thomson Licensing Method and apparatus for performing super-resolution
US9652830B2 (en) * 2012-03-05 2017-05-16 Thomson Licensing Dtv Method and apparatus for performing hierarchical super-resolution of an input image
EP2680221B1 (en) * 2012-06-28 2016-05-11 Alcatel Lucent Method and system for generating a high-resolution video stream
FR2994307B1 (fr) * 2012-08-06 2015-06-05 Commissariat Energie Atomique Procede et dispositif pour la reconstruction d'images a super-resolution
WO2014032020A2 (en) * 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US8675999B1 (en) 2012-09-28 2014-03-18 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Apparatus, system, and method for multi-patch based super-resolution from an image
US20140119456A1 (en) * 2012-11-01 2014-05-01 Microsoft Corporation Encoding video into lower resolution streams
CN104813362B (zh) * 2012-11-06 2018-02-16 日本电气株式会社 图像处理设备及图像处理方法
US20150324953A1 (en) * 2013-01-24 2015-11-12 Thomas Licensing Method and apparatus for performing single-image super-resolution
EP2779147B1 (en) * 2013-03-14 2016-03-02 Ignis Innovation Inc. Re-interpolation with edge detection for extracting an aging pattern for AMOLED displays
US9349188B2 (en) * 2013-03-15 2016-05-24 Samsung Electronics Co., Ltd. Creating details in an image with adaptive frequency strength controlled transform
EP2979242B1 (en) * 2013-03-27 2018-01-10 Thomson Licensing Method and apparatus for generating a super-resolved image from a single image
WO2014156669A1 (ja) * 2013-03-29 2014-10-02 コニカミノルタ株式会社 画像処理装置および画像処理方法
KR102080859B1 (ko) * 2013-04-08 2020-02-24 삼성전자주식회사 이미지 프로세서 및 이미지 프로세서의 이미지 처리 방법
WO2014174087A1 (en) * 2013-04-25 2014-10-30 Thomson Licensing Method and device for performing super-resolution on an input image
US9984440B2 (en) * 2013-06-18 2018-05-29 Adobe Systems Incorporated Iterative patch-based image upscaling
US9123138B2 (en) * 2013-06-18 2015-09-01 Adobe Systems Incorporated Adaptive patch-based image upscaling
US10311773B2 (en) * 2013-07-26 2019-06-04 Darwin Hu Circuitry for increasing perceived display resolutions from an input image
US9142009B2 (en) * 2013-07-30 2015-09-22 Adobe Systems Incorporated Patch-based, locally content-adaptive image and video sharpening
GB201313682D0 (en) * 2013-07-31 2013-12-18 Mbda Uk Ltd Method and apparatus for tracking an object
US9569684B2 (en) * 2013-09-09 2017-02-14 Adobe Systems Incorporated Image enhancement using self-examples and external examples
US9875523B2 (en) * 2013-12-03 2018-01-23 Mitsubishi Electric Corporation Image processing apparatus and image processing method
KR20150090515A (ko) * 2014-01-29 2015-08-06 삼성전자주식회사 고주파수 성분의 위상 변조를 통한 영상 질감 향상 방법 및 그 장치
CN106415657A (zh) * 2014-01-30 2017-02-15 汤姆逊许可公司 用于增强图像质量的方法和设备
JP6338391B2 (ja) * 2014-02-10 2018-06-06 キヤノン株式会社 校正装置、校正装置の制御方法、及び、プログラム
EP2908285A1 (en) * 2014-02-13 2015-08-19 Thomson Licensing Method for performing super-resolution on single images and apparatus for performing super-resolution on single images
US9734558B2 (en) * 2014-03-20 2017-08-15 Mitsubishi Electric Research Laboratories, Inc. Method for generating high-resolution images using regression patterns
JP2015232869A (ja) * 2014-05-16 2015-12-24 株式会社リコー 画像処理装置、画像処理方法及び画像処理プログラム
WO2016002068A1 (ja) * 2014-07-04 2016-01-07 三菱電機株式会社 画像拡大装置、画像拡大方法、及び監視カメラ、並びにプログラム及び記録媒体
US9396522B2 (en) * 2014-07-24 2016-07-19 Adobe Systems Incorporated Scalable massive parallelization of overlapping patch aggregation
US9489720B2 (en) * 2014-09-23 2016-11-08 Intel Corporation Non-local means image denoising with detail preservation using self-similarity driven blending
CN106852190B (zh) * 2014-10-23 2019-03-19 国立大学法人东京工业大学 图像处理单元、拍摄装置及图像处理方法
US10600164B2 (en) * 2014-12-02 2020-03-24 Seek Thermal, Inc. Image adjustment based on locally flat scenes
US9538126B2 (en) * 2014-12-03 2017-01-03 King Abdulaziz City For Science And Technology Super-resolution of dynamic scenes using sampling rate diversity
EP3038049A1 (en) * 2014-12-22 2016-06-29 Thomson Licensing Method for upscaling an image and apparatus for upscaling an image
GB201603144D0 (en) * 2016-02-23 2016-04-06 Magic Pony Technology Ltd Training end-to-end video processes
US10839483B2 (en) * 2015-06-30 2020-11-17 Korea Advanced Institute Of Science And Technology Method of converting low-resolution image to high-resolution image and image conversion device performing method
US9743024B2 (en) * 2015-07-01 2017-08-22 Massachusetts Institute Of Technology Method and apparatus for on-chip per-pixel pseudo-random time coded exposure
JP6614843B2 (ja) * 2015-07-30 2019-12-04 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
US9681109B2 (en) * 2015-08-20 2017-06-13 Qualcomm Incorporated Systems and methods for configurable demodulation
US9633274B2 (en) * 2015-09-15 2017-04-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for denoising images using deep Gaussian conditional random field network
EP3166068B1 (en) * 2015-11-06 2020-08-12 Thomson Licensing Method for upscaling an image and apparatus for upscaling an image
EP3166072A1 (en) * 2015-11-06 2017-05-10 Thomson Licensing Method for denoising an image and apparatus for denoising an image
RU2694021C1 (ru) * 2015-12-14 2019-07-08 Моушен Метрикс Интернешэнл Корп. Способ и устройство идентификации частей фрагментированного материала в пределах изображения
US10296605B2 (en) * 2015-12-14 2019-05-21 Intel Corporation Dictionary generation for example based image processing
KR20170073088A (ko) * 2015-12-18 2017-06-28 삼성전자주식회사 패치에 기반하여 연기 난류를 모델링하는 방법 및 장치
US10282814B2 (en) * 2016-01-07 2019-05-07 Mediatek Inc. Method and apparatus of image formation and compression of cubic images for 360 degree panorama display
US9996902B2 (en) * 2016-01-19 2018-06-12 Google Llc Image upscaling
WO2017143392A1 (en) * 2016-02-22 2017-08-31 GenMe Inc. A video background replacement system
US9836820B2 (en) * 2016-03-03 2017-12-05 Mitsubishi Electric Research Laboratories, Inc. Image upsampling using global and local constraints
JP2017183914A (ja) * 2016-03-29 2017-10-05 パナソニックIpマネジメント株式会社 画像処理装置
US10462459B2 (en) * 2016-04-14 2019-10-29 Mediatek Inc. Non-local adaptive loop filter
GB2552323B (en) * 2016-07-18 2020-04-29 Imagination Tech Ltd Mip map compression
EP3507773A1 (en) * 2016-09-02 2019-07-10 Artomatix Ltd. Systems and methods for providing convolutional neural network based image synthesis using stable and controllable parametric models, a multiscale synthesis framework and novel network architectures
AU2016266019A1 (en) * 2016-11-30 2018-06-14 Canon Kabushiki Kaisha Image registration method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187964A (ja) * 1996-12-20 1998-07-21 Dainippon Screen Mfg Co Ltd 画像フィルタリング方法および画像フィルタリング装置並びに画像の輪郭強調処理装置
JPH1198364A (ja) * 1997-09-22 1999-04-09 Fuji Photo Film Co Ltd シャープネス強調方法
JP2001339731A (ja) * 2000-05-24 2001-12-07 Sony Corp 画像信号処理装置及び画像信号処理方法
JP2009152968A (ja) * 2007-12-21 2009-07-09 Sony Corp 画像処理装置および方法、学習装置および方法、プログラム、並びに記録媒体
US20150016720A1 (en) * 2013-07-12 2015-01-15 Barco N.V. Guided image filtering for image content

Also Published As

Publication number Publication date
KR20180027885A (ko) 2018-03-15
EP3472801A4 (en) 2019-05-08
US20180068634A1 (en) 2018-03-08
CN109690612A (zh) 2019-04-26
JP7110178B2 (ja) 2022-08-01
US20200243040A1 (en) 2020-07-30
EP3472801A1 (en) 2019-04-24
EP3472801B1 (en) 2020-09-02
KR102580519B1 (ko) 2023-09-21
US10650779B2 (en) 2020-05-12
US11393427B2 (en) 2022-07-19
CN109690612B (zh) 2024-02-09
WO2018048171A1 (en) 2018-03-15

Similar Documents

Publication Publication Date Title
JP2019532566A (ja) 映像処理装置及び記録媒体
KR102425302B1 (ko) 번-인 통계 및 번-인 보상
US9892716B2 (en) Image display program, image display method, and image display system
US9661296B2 (en) Image processing apparatus and method
CN106412720B (zh) 视频水印去除的方法和装置
WO2017211250A1 (zh) 图像的叠加显示方法和系统
CN103003870B (zh) 图像显示系统、图像处理设备及其控制方法
US20210158488A1 (en) Image edge processing method, electronic device, and computer readable storage medium
CN107293265B (zh) 显示屏画面调整方法、显示终端及可读存储介质
KR102661879B1 (ko) 영상 처리 장치 및 그 영상 처리 방법
WO2019101005A1 (zh) 像素补偿方法、装置和终端设备
US11954765B2 (en) Applying random patches to pixel block of an image utilizing different weights
WO2019091196A1 (zh) 图像处理的方法和装置
US11373340B2 (en) Display apparatus and controlling method thereof
CN113660516A (zh) 视频显示方法、装置、设备及介质
CN114973344A (zh) 人脸检测方法、装置、终端设备和计算机可读存储介质
CN104104935A (zh) 图像处理装置、图像处理方法和电子装置
US20130124489A1 (en) Compressing a multivariate dataset
CN111010525B (zh) 动态调整图像清晰度的方法及其图像处理装置
CN117745613A (zh) 图像处理方法及其装置
CN107481212B (zh) 一种基于小波的感知图像融合方法
KR20240034010A (ko) 전자 장치 및 그 영상 처리 방법
KR20240058071A (ko) 영상 처리 장치 및 그 영상 처리 방법
US20180260087A1 (en) Display device for recognizing user interface and controlling method thereof
KR20230068894A (ko) 디스플레이 장치 및 그 동작방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220720

R150 Certificate of patent or registration of utility model

Ref document number: 7110178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150