JP2005129070A - 画質を評価するシステム及び方法 - Google Patents
画質を評価するシステム及び方法 Download PDFInfo
- Publication number
- JP2005129070A JP2005129070A JP2004310776A JP2004310776A JP2005129070A JP 2005129070 A JP2005129070 A JP 2005129070A JP 2004310776 A JP2004310776 A JP 2004310776A JP 2004310776 A JP2004310776 A JP 2004310776A JP 2005129070 A JP2005129070 A JP 2005129070A
- Authority
- JP
- Japan
- Prior art keywords
- image quality
- target object
- image
- object region
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/004—Diagnosis, testing or measuring for television systems or their details for digital television systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
Abstract
【課題】 画質を評価するシステム及び方法を提供する。
【解決手段】 画質を評価する方法において、入力画像中のターゲットオブジェクト領域24を検出するステップと、画質特徴空間中のターゲットオブジェクト領域24を表す画質特徴ベクトル36を生成するステップと、画質特徴ベクトル36を画質の測度12にマッピングするステップとを含む。
【選択図】 図2
【解決手段】 画質を評価する方法において、入力画像中のターゲットオブジェクト領域24を検出するステップと、画質特徴空間中のターゲットオブジェクト領域24を表す画質特徴ベクトル36を生成するステップと、画質特徴ベクトル36を画質の測度12にマッピングするステップとを含む。
【選択図】 図2
Description
本発明は、画質を評価するシステム及び方法に関する。
画質を評価する方法は、多くの様々な画像処理アプリケーションにおいて使用されている。例えば、画質測定を用いて、カメラ又はビデオ電子会議システムの事前処理及び事後処理構成要素等、画像処理システムの構成要素のアルゴリズム及びパラメータ設定を最適化し、自動的に調整することができる。画質評価方法は、複数の撮像システムの中から特定の撮像作業に最良なものを判定するためにも用いることができる。
用途によっては人による主観的な画質評価方法が用いられるが、こういった方法は、大半の用途には時間がかかりすぎ、また高価すぎるという傾向がある。この理由により、人による主観的な画質の評価を自動的に予測する客観的な画質評価方法が開発された。自動客観的画質評価手法には、ピーク信号対雑音比(PSNR)及び平均二乗誤差(MSE)が一般に用いられる。手法によっては、テストビデオシーケンスが同じシーケンスの基準コピーと比較され、テストビデオシーケンスの品質を評価する。このような基準ベースの手法は、多くの場合、人による主観的なビデオ品質の評価を正確かつ確実に予測する。しかし、多くの用途では、画像又はビデオシーケンスの基準コピーは、比較画質評価の実行に容易に利用することができない。例えば、大量の画像データベースの閲覧及び管理,ビデオのキーフレーム選択,並びに自動写真レイアウト設計等の消費者デジタル撮像用途では、基準画像を利用することができない。
本発明は、画質を評価するシステム及び方法を特徴とする。
一態様において、本発明は、画質を評価するシステム及び方法を特徴とする。これらの発明のシステム及び方法によれば、入力画像中においてターゲットオブジェクト領域が検出される。画質特徴空間中のターゲットオブジェクト領域を表す画質特徴ベクトルが生成される。画質特徴ベクトルは、画質の測度にマッピングされる。
さらに別の態様において、本発明は、画質を評価するシステム及び方法を特徴とする。これらの発明のシステム及び方法によれば、複数の入力画像中においてターゲットオブジェクト領域が検出される。画質特徴空間中のターゲットオブジェクト領域を表す画質特徴ベクトルが生成される。画質特徴ベクトルは、入力画像に割り当てられた画質の各測度に相関付けられる。画質特徴ベクトルと割り当てられた画質の測度との間のマッピングが計算される。
本発明の他の特徴及び利点は、図面と特許請求項を含む、以下の説明から明らかになるであろう。
以下の説明では、同様の参照番号を使用して同様の要素を識別する。さらに、図面は、例示的な実施形態の主要な特徴を線図で示すことを意図したものである。図面は、実際の実施形態のあらゆる特徴を示すことも、また図示されている要素の相対的な寸法を示すことも意図されておらず、一定の比率で拡大縮小して描かれていない。
一般に、本明細書に記載する画質評価実施形態は、通常限られた処理資源及びメモリ資源を有する埋め込み環境を含め、このような機能が望まれる任意のシステム又は方法に組み込むことができる。こういったシステム及び方法は、画像内で検出される1つ又は複数のターゲットオブジェクト領域に基づいて画質を評価する。こういった領域は、人による主観的な画質の評価(アセスメント)に特に関連するものとして通常選択されるオブジェクトを包含する。例えば、いくつかの実施態様によっては、ターゲットオブジェクト領域は、人の顔に対応し、人の顔の外観は、通常、人の主観的な画質の評価を左右する。さらに、このようなターゲットオブジェクトは、また、客観的画質評価に使用することができる測定(例えば、高周波スペクトル画像成分)と異なる客観的な測定(例えば、低周波スペクトル画像成分)に基づいて検出することもできる。このようにして、ターゲットオブジェクト領域検出プロセスは、実質的に画像評価プロセスから切り離すことができ、画質評価結果の正確性が向上する。
図1は、入力画像14の品質の定量的評価(測度)12を生成するように構成された画質評価システム10の一実施形態を示す。この画質評価システム10は、ターゲットオブジェクト領域検出モジュール16,特徴抽出モジュール18,及び画質評価モジュール20を備える。一般に、ターゲットオブジェクト領域検出モジュール16,特徴抽出モジュール18,及び画質評価モジュール20は、任意特定のハードウェア又はソフトウェア構成に限定されず、デジタル電子回路又はコンピュータハードウェア,ファームウェア,デバイスドライバ,又はソフトウェアを含む任意の計算環境又は処理環境において実施することができる。例えば、実施態様によっては、こういったモジュール16〜20は、デジタルカメラ,プリンタ,及びポータブル電子デバイス(例えば、携帯電話及び個人情報端末)を含む多種多様な電子デバイスのいずれのハードウェアにも埋め込むことができる。
入力画像14は、ロゴ(例えば、企業のロゴ),グラフィックス,写真,テキスト,画像,又は視覚的に有意な任意のパターンを含む任意の種類の画像コンテンツを含むことができる。画像コンテンツは、入力画像14の境界領域,前景,又は背景に現れることができる。画像コンテンツは、また、2進画像(例えば、白黒のドットパターン),マルチレベル画像(例えば、グレーレベル画像),又はマルチレベルカラー画像の形であってもよい。入力画像14は、デジタル静止画像カメラ,デジタルビデオカメラ,ビットマップグラフィックスエンジン,ベクトルグラフィックスエンジン,及び従来のデスクトップ光学スキャナ(例えば、米国カリフォルニア州パロアルトに所在のHewlett-Packard Companyから入手可能なScanJet(登録商標)スキャナ),ポータブルスキャナ(例えば、米国カリフォルニア州パロアルトに所在のHewlett-Packard Companyから入手可能なCapShare(登録商標)ポータブルスキャナ),又は従来のファクシミリ機等のスキャナを含め、任意のデジタル画像形成プロセス又は装置により生成することができる。
図1,図2,及び図3を参照すると、いくつかの実施態様では、画質評価システム10は、以下のように入力画像14の品質の定量的評価12を生成する。
ターゲットオブジェクト領域検出モジュール16は、入力画像14に現れているターゲットオブジェクトを包含する入力画像14の領域(ターゲット画像領域)を自動的に検出する(図2のステップ22参照)。いくつかの実施態様では、入力画像14におけるターゲットオブジェクトの外観は、人による主観的な入力画像の全体的な品質の評価を左右する確率が高い。例えば、ターゲットオブジェクトは、入力画像14の主要な主題に対応してよい。消費者撮像用途環境では、人々が、通常、画像の主要な主題である。従って、このような用途環境では、人物の少なくとも1つの検出可能な態様をターゲットオブジェクトとして選択することができる。この用途環境に対する例示的な一実施態様では、ターゲットオブジェクトは、人の顔である。他の用途環境では、異なるターゲットオブジェクト、ひいては異なる、対応する検出アルゴリズムが使用され得る。例えば、植物用途環境では、ターゲットオブジェクトは、花又は葉等、植物の1つ又は複数の特徴に対応し得る。建築用途環境では、ターゲットオブジェクトは、建物の1つ又は複数の特徴に対応し得る。ターゲットオブジェクト領域検出モジュール16は、1つ又は複数の各用途環境に特に合わせることができる。
図3を参照すると、消費者撮像用途環境での使用に適した例示的な一実施態様では、ターゲットオブジェクト領域検出モジュール16は、入力画像14において、人の顔の少なくとも一部に対応するターゲットオブジェクト領域24を自動的に検出する。一般に、ターゲットオブジェクト領域検出モジュール16は、特徴ベースの顔検出方法及びニューラルネットワークベースの顔検出方法を含め、多種多様な異なる顔検出方法のいずれを実施してもよい。例示的な特徴ベースの顔検出手法については、Viola及びJones著「Robust Real-Time Object Detection」 Second International Workshop of Statistical and Computation theories of Vision-Modeling, Learning, Computing, and Sampling, Vancouver, Canada (July 13, 2001)に述べられている。例示的なニューラルネットワークベースの顔検出方法については、Rowley等著「Neural Network-Based Face Detection」IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 20, No. 1 (January 1998)に述べられている。
図4Aを参照すると、これら実施態様のいくつかでは、ターゲットオブジェクト領域検出分類器27が、固定サイズを有する画像テンプレートに関してトレーニングされる。例えば、例示的な一実施態様では、テンプレートサイズは、(幅18ピクセル)×(高さ18ピクセル)の正方形である。図4Aは、通常、予め規定された画像テンプレートよりも大きい画像領域Iがターゲットオブジェクト領域に対応するか否かを判定する例示的なプロセスを示す。このプロセスでは、画像領域Iは、テンプレートサイズに縮小される。画像領域Iは、標準画像サブサンプリングプロセスに従って縮小することができる。縮小された画像領域は、正規化(例えば、ヒストグラム正規化)され、画像テンプレートに対応する画像領域I’が生成される。画像領域I’は、予めトレーニングされている分類器に送られ、この分類器は、画像領域I’をターゲットオブジェクト領域或いはフォールスアラーム(false alarm)として分類する。いくつかの実施態様では、最終的な、縮小されて正規化された画像領域I’のみがオブジェクト検出結果を左右する。さらに、ダウンサンプリングプロセスにより、元の画像領域IからI’へのマッピングは一対一ではない。従って、Iの信号特徴の全てがIからI’へのマッピングにおいて保持されるわけではなく、元の画像領域Iの信号特徴の一部のみが、領域をターゲット領域又はフォールスアラームとして分類する際に使用される。
図4Bにおいて線図で示すように、いくつかの実施形態では、オブジェクト検出に使用された画像領域Iの信号特徴(特徴セット1)は、画質の評価に使用される画像領域Iの特徴(特徴セット2)から実質的に切り離される(例えば、直交する)。図4Aの実施形態では、縮小プロセスがローパスフィルタに対応する。従って、オブジェクト検出に使用される特徴(特徴セット1)は、主に、入力画像領域Iの低周波スペクトル成分を含む。この理由により、いくつかの実施形態では、画像領域Iの高周波成分が、品質評価の主要特徴として使用される。
再び図1及び図2を参照すると、いくつかの実施態様では、ターゲットオブジェクト領域検出モジュール16は、検出されたターゲットオブジェクト領域24を、サブサンプリングされた画像26の解像度から入力画像14の元の解像度にアップ・サンプリングする。図示の実施形態では、ターゲットオブジェクト領域検出モジュール16の出力は、入力画像14におけるターゲットオブジェクト領域24の位置である。
特徴抽出モジュール18は、予め規定されている画質特徴空間においてターゲットオブジェクト領域を表す画質特徴ベクトルを生成する(図2のステップ28参照)。図5は、入力画像データ30が、特徴定義セット32に従って特徴空間内に射影される一実施形態を示す。入力画像データ30は、入力画像ピクセルの色値,入力画像14におけるターゲットオブジェクト領域24の位置34,及び特徴の重みの計算に必要な入力画像14から導出される他の情報を含め、入力画像14に関するいずれの情報も含む。各特徴は、特徴セット32が広がる特徴空間中のターゲット領域24の表現に対する特徴の寄与に対応するターゲットオブジェクト領域24の各重み(wi、但しiは0〜Nの範囲の整数値を有する)の計算方法又は測定方法を記述した規則により定義される。ターゲットオブジェクト領域24に計算された重みのセットが、特徴ベクトル(画質特徴ベクトル)36を構成する。
図6は、特徴抽出モジュール18の一実施態様においてターゲットオブジェクト領域24の特徴ベクトル36を生成する方法の一実施形態における情報フローの図を示す。この実施形態では、特徴ベクトル36の重みのいくつかは、ターゲットオブジェクト領域24のスペクトル解析に基づいて計算される。特に、図示の実施形態では、特徴ベクトルは、ターゲットオブジェクト領域を、輝度特徴定義40,少なくとも1つのスペクトル特徴定義42のセット,及び1つ又は複数の雑音特徴定義44のセットを含む特徴定義セット32に射影することによって計算される。
顔検出ベースの画質評価システム10の例示的な一実施態様では、10次元特徴ベクトルが、検出された各ターゲット顔領域について計算される。特徴ベクトルは、1つの輝度(DC)成分,7つのスペクトル成分,及び2つの雑音成分を含む。
いくつかの実施形態では、DC成分(w0)及びスペクトル成分(w1,w2,……,w7)は、検出された顔領域の周波数領域変換から得られる。周波数領域変換は、ウェーブレット分解変換及び離散コサイン変換を含め、多種多様な異なる周波数領域変換のいずれにも対応することができる。例示的な一実施態様では、DC成分及びスペクトル成分は、検出された顔領域のウェーブレット分解に基づいて計算される。ウェーブレット分解は、検出された顔領域に直接実行してもよく、また検出された顔領域のグレースケール表現又は検出された顔領域の特定の色平面(例えば、検出された顔領域のCIE Lab色空間表現におけるL平面)等、検出された顔領域から導出された画像平面に対して実行してもよい。2レベルのデシメートされた5/3ウェーブレット分解を用いて、検出された顔領域を7つのサブバンドに分解する(例えば、M. D. Adams及びF. Kossentini著「Reversible Integer-to-integer wavelet transforms for image compression: performance evaluation and analysis」IEEE Trans. on Image Processing, vol. 9, no. 6, 2000参照)。特徴ベクトル36の各スペクトル成分は、ウェーブレット分解の各サブバンドのパワーの推定値に対応する。例えば、一実施態様では、所与のサブバンドのパワーは、所与のサブバンドの二乗係数の和に対応することができる。
雑音成分は、画像雑音のいずれの測度に基づいても計算することができる。例えば、特徴ベクトル36の雑音成分は、検出された顔領域から直接推定してもよく、また検出された顔領域の高周波特徴の空間分布の解析に基づいて推定してもよい。
1つの例示的な雑音成分は、検出された顔領域の上の複数の位置に配置される窓に基づいて、検出された顔領域から直接推定される。例示的な一実施態様では、検出された顔領域は(高さdピクセル)×(幅dピクセル)の正方形領域であり、窓は、(高さsピクセル)×(幅sピクセル)の正方形領域である。但し、s=d/5である。各位置において、グレースケール標準偏差が計算される。計算された標準偏差が最小のものは、「minDev」と示される。minDevに対応する位置は、ガウスローパスフィルタによりフィルタリングされ、フィルタリングされた画像領域のグレースケール標準偏差が計算され、「lowDev」と示される。特徴ベクトル36の雑音成分(w8)は、下記の式(1)により計算される。
上記の式(1)中、mは、特異点を回避するために用いられる小さな定数である。
別の例示的な雑音成分は、検出された顔領域の高周波特徴の空間分布の解析に基づいて計算される。例示的な一実施態様では、雑音成分は、上記ウェーブレット分解の高周波成分の空間一様性の推定値である。この雑音測度は高忠実度画像と雑音の多い画像を区別する。これは、両方の種類の画像も実質的に高周波信号パワーを有するが、高周波特徴の空間分布は異なるためである。例えば、雑音の多い画像の高周波特徴は一様に分布する傾向がある一方で、高忠実度顔領域の高周波特徴は、目及び口等、顔の特徴の位置に集中する傾向がある。一実施態様では、空間一様性は、各高周波サブバンド信号をしきい値処理して二値画像を生成することによって測定される。窓(例えば、s×s正方形窓)が、検出された顔領域の各ピクセル位置(i,j)に配置される。標準偏差(Dev(i,j,s))が各窓位置sにおいて計算される。空間分布雑音成分(w9)は、下記の式(2)により計算される。
ここで、I,J,及びSは、i,j,及びsの各範囲である。
計算された特徴の重み(w0,w1,……,wN)は、組み合わせられて、計算特徴ベクトル36を形成する(図6のステップ46参照)。
再び図1及び図2を参照すると、特徴ベクトル36は、画質評価モジュール20に入力され、画質評価モジュール20は、画質特徴ベクトルを画質の定量的測度にマッピングする(図2のステップ50参照)。いくつかの実施形態では、画質評価モジュール20は、図7及び図8に関連して以下において詳細に説明するように、計算された特徴ベクトル36と、人間である専門家(又は管理者)によりトレーニング画像セットに割り当てられた定量的評価との間の関数的関係を捕捉する、機械学習ベースの分類エンジンである。直接関数近似(又は補間)方法及び統計学的分布推定方法を含め、多種多様な異なる機械学習方法のいずれも、画質評価エンジン20の生成に用いることができる。
例示的な直接関数近似ベースの一手法では、画質評価モジュール20は、動径基底関数(RBF)ベースの機械学習方法を実施する。この実施態様では、関数Fは、オブジェクト領域の特徴ベクトルV={w0,w1,……,w9}を品質評価値gに、
g=F(V) …… (3)
としてマッピングするように定義される。このRBF実施形態では、動径基底関数ネットワークがモデリングされて、標準的な方法で未知のマッピング関数Fを近似する(例えば、参照により本明細書に援用されるI. Nabney著「Netlab: Algorithms for Pattern Recognition」Springer Verlag; 1st edition (November 28, 2001)参照)。
g=F(V) …… (3)
としてマッピングするように定義される。このRBF実施形態では、動径基底関数ネットワークがモデリングされて、標準的な方法で未知のマッピング関数Fを近似する(例えば、参照により本明細書に援用されるI. Nabney著「Netlab: Algorithms for Pattern Recognition」Springer Verlag; 1st edition (November 28, 2001)参照)。
例示的な統計学的分布推定の一方法では、画質評価方法20は、ガウスベースの機械学習方法を混合したものを実施する。この実施態様では、特徴ベクトルは、先のマッピング関数Fの入力及び出力の組み合わせとして定義される。
V’={g,w0,w1,……,w9} …… (4)
V’={g,w0,w1,……,w9} …… (4)
特徴ベクトルV’の分布は、ガウスモデルの標準混合を使用してモデリングされる(例えば、I. Nabney著「Netlab: Algorithms for Pattern Recognition」Springer Verlag; 1st edition (November 28, 2001)参照)。例えば、いくつかの実施態様では、特徴ベクトルV’の分布は関数Gによりモデリングされ、品質評価値g0は以下のように計算される。
式(5)に表した式では、gは、5つの整数値の中の1つであると想定される。一般に、変数gに割り当てることができる値の数は、可能な画像評価値の数に対応する。
図7及び図8を参照すると、いくつかの実施態様では、画質評価モジュール20は、以下のようにトレーニングされる。トレーニング画像60が、まず、ターゲットオブジェクト領域検出モジュール16により処理されて、検出ターゲットオブジェクト領域62のセットが生成される(ステップ64参照)。各ターゲットオブジェクト領域62には、人である専門家(又は管理者)により、検出ターゲットオブジェクト領域の品質の定量的評価66が手動でラベル付けられる(ステップ68)。例示的な一実施形態では、各ターゲットオブジェクト領域には、1〜5の範囲の値を有し、高い品質スコアほど高画質に対応する品質スコアが割り当てられる。特徴ベクトル36は、各検出ターゲットオブジェクト領域について計算される(ステップ70)。結果として得られるトレーニングデータ36,66(図7参照)が機械学習モデルに送られて画質評価モジュール20をトレーニングし、画質評価モジュール20は、画質特徴ベクトル36に画質のそれぞれの測度66を相関付ける(ステップ72参照)。トレーニング中、画質評価モジュール20は、画質特徴ベクトルと画質測度66の間のマッピング74を計算する(ステップ76参照)。このマッピング74は、図5の実施形態において画質を自動的に評価する際に用いられる。
他の実施形態も特許請求の範囲内にある。
本明細書に記載のシステム及び方法は、任意特定のハードウェア又はソフトウェア構成に限定されず、デジタル電子回路、又はコンピュータハードウェア,ファームウェア,若しくはソフトウェアを含め、いずれの計算環境又は処理環境でも実施することができる。システムは、部分的に、コンピュータプロセッサにより実行される、機械可読記憶装置に有形に具現されるコンピュータプロセス製品で実施することができる。いくつかの実施形態では、これらシステムは、好ましくは、高水準手続き言語又はオブジェクト指向処理言語で実施されるが、アルゴリズムは、所望であればアセンブリ言語又は機械語で実施してもよい。いずれの場合でも、処理言語はコンパイル言語又はインタプリタ言語であり得る。本明細書に記載の方法は、例えば、入力データに対して動作し、出力を生成することにより、これら方法を実行する命令を実行するようにプロセスモジュールに編成されるコンピュータプロセッサにより実行することができる。適したプロセッサとしては、例えば、汎用マイクロプロセッサ及び専用マイクロプロセッサが両方とも挙げられる。一般に、プロセッサは、命令及びデータを読み取り専用メモリ及び/又はランダムアクセスメモリから受け取る。コンピュータプロセス命令を有形に具現するのに適した記憶装置としては、例えば、EPROM,EEPROM,及びフラッシュメモリデバイス等の半導体メモリデバイス;内部ハードディスク及び取り外し可能ディスク等の磁気ディスク;磁気光学ディスク;及びCD−ROMを含むすべての形の不揮発性メモリが挙げられる。上記技術のいずれも、特別に設計されたASIC(特定用途向け集積回路)により補足しても、またASICに組み込んでもよい。
以上を要約すると、次の通りである。すなわち、ここでは、画質を評価するためのシステム及び方法が記載されている。画質を評価するための1つの構成においては、ターゲットオブジェクト領域24が入力画像14において検出される。画質特徴空間中のターゲットオブジェクト領域24を表す画質特徴ベクトル36が生成される。この画質特徴ベクトル36は、画質の測度12にマッピングされる。画質評価エンジンを生成するための1つの構成では、ターゲットオブジェクト領域62が複数の入力画像60において検出される。画質特徴空間中のターゲットオブジェクト領域62を表す画質特徴ベクトル36が生成される。画質特徴ベクトル36は、入力画像60に割り当てられた画質のそれぞれの測度66に相関付けられる。画質特徴ベクトル36と割り当てられた画質の測度66との間のマッピング74が計算される。
10 画質評価システム
12 定量的評価(測度)
14 入力画像
16 ターゲットオブジェクト領域検出モジュール
18 特徴抽出モジュール
20 画質評価モジュール
24,62 ターゲットオブジェクト領域
26 画像
36 画質特徴ベクトル
66 測度
12 定量的評価(測度)
14 入力画像
16 ターゲットオブジェクト領域検出モジュール
18 特徴抽出モジュール
20 画質評価モジュール
24,62 ターゲットオブジェクト領域
26 画像
36 画質特徴ベクトル
66 測度
Claims (10)
- 画質を評価する方法であって、
入力画像中のターゲットオブジェクト領域を検出するステップと、
画質特徴空間中の前記ターゲットオブジェクト領域を表す画質特徴ベクトルを生成するステップと、
前記画質特徴ベクトルを画質の測度にマッピングするステップと、
を含むことを特徴とする方法。 - 前記ターゲットオブジェクト領域は、人物の顔に対応することを特徴とする請求項1に記載の方法。
- 前記ターゲットオブジェクト領域は、前記入力画像をサブサンプリングしたものに基づいて検出され、前記画質特徴ベクトルは、前記ターゲットオブジェクト領域の前記入力画像の解像度のものに基づいて生成されることを特徴とする請求項1に記載の方法。
- 前記ターゲットオブジェクト領域は、前記入力画像の第1の特徴セットに基づいて検出され、前記画質特徴ベクトルは、前記第1の特徴セットと異なる前記入力画像の第2の特徴セットに基づいて生成されることを特徴とする請求項1に記載の方法。
- 前記画質特徴空間には、前記ターゲットオブジェクト領域に固有の各輝度を記述する少なくとも1つの輝度特徴、並びに、前記ターゲットオブジェクト領域に固有の各空間周波数を記述する少なくとも1つのスペクトル特徴を含む複数の特徴が広がることを特徴とする請求項1に記載の方法。
- 前記画質特徴ベクトルを生成するステップは、前記ターゲットオブジェクト領域を複数のウェーブレット変換サブバンドに分解するステップを含むことを特徴とする請求項5に記載の方法。
- 各スペクトル特徴は、各ウェーブレット変換サブバンドにおけるエネルギーを記述することを特徴とする請求項6に記載の方法。
- 前記画質特徴空間には、前記ターゲットオブジェクト領域に固有の各雑音を記述する少なくとも1つの雑音特徴を含む複数の特徴が広がることを特徴とする請求項1に記載の方法。
- 画質を評価するシステムであって、
入力画像中のターゲットオブジェクト領域を検出するように動作可能なターゲットオブジェクト領域検出モジュールと、
画質特徴空間中の前記ターゲットオブジェクト領域を表す画質特徴ベクトルを生成するように動作可能な特徴抽出モジュールと、
前記画質特徴ベクトルを画質の測度にマッピングするように動作可能な画質評価モジュールと、
を備えることを特徴とするシステム。 - 画質評価エンジンを生成する方法であって、
複数の入力画像中のターゲットオブジェクト領域を検出するステップと、
画質特徴空間中の前記ターゲットオブジェクト領域を表す画質特徴ベクトルを生成するステップと、
前記画質特徴ベクトルを、前記入力画像に割り当てられた画質の各測度に相関付けるステップと、
画質特徴ベクトルと割り当てられた画質の測度との間のマッピングを計算するステップと、
を含むことを特徴とする方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/694,143 US7512286B2 (en) | 2003-10-27 | 2003-10-27 | Assessing image quality |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005129070A true JP2005129070A (ja) | 2005-05-19 |
Family
ID=34522536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004310776A Pending JP2005129070A (ja) | 2003-10-27 | 2004-10-26 | 画質を評価するシステム及び方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7512286B2 (ja) |
JP (1) | JP2005129070A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008084047A (ja) * | 2006-09-28 | 2008-04-10 | Fujifilm Corp | 画像評価装置および方法並びにプログラム |
JP2010500687A (ja) * | 2006-08-11 | 2010-01-07 | フォトネーション ビジョン リミテッド | デジタル画像取得装置におけるリアルタイムの顔探知 |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US7953251B1 (en) | 2004-10-28 | 2011-05-31 | Tessera Technologies Ireland Limited | Method and apparatus for detection and correction of flash-induced eye defects within digital images using preview or other reference images |
US8050465B2 (en) | 2006-08-11 | 2011-11-01 | DigitalOptics Corporation Europe Limited | Real-time face tracking in a digital image acquisition device |
US8155397B2 (en) | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
JP2013520037A (ja) * | 2010-02-12 | 2013-05-30 | エコール・ドゥ・テクノロジー・スュペリュール | 画像のマルチレベル分解を利用して画質計測値を決定する方法およびシステム |
US8509496B2 (en) | 2006-08-11 | 2013-08-13 | DigitalOptics Corporation Europe Limited | Real-time face tracking with reference images |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
JP2014056442A (ja) * | 2012-09-12 | 2014-03-27 | Samsung R&D Institute Japan Co Ltd | 画質推定装置、画質推定方法および画質推定プログラム |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
WO2021040347A1 (ko) * | 2019-08-30 | 2021-03-04 | 삼성전자 주식회사 | 컴퓨팅 장치 및 그 동작 방법 |
JP2021174532A (ja) * | 2020-04-23 | 2021-11-01 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 画像を処理するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム |
Families Citing this family (104)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7949488B2 (en) * | 1994-11-21 | 2011-05-24 | Nike, Inc. | Movement monitoring systems and associated methods |
US8332401B2 (en) * | 2004-10-01 | 2012-12-11 | Ricoh Co., Ltd | Method and system for position-based image matching in a mixed media environment |
US8144921B2 (en) * | 2007-07-11 | 2012-03-27 | Ricoh Co., Ltd. | Information retrieval using invisible junctions and geometric constraints |
US7702673B2 (en) | 2004-10-01 | 2010-04-20 | Ricoh Co., Ltd. | System and methods for creation and use of a mixed media environment |
US8335789B2 (en) * | 2004-10-01 | 2012-12-18 | Ricoh Co., Ltd. | Method and system for document fingerprint matching in a mixed media environment |
US8086038B2 (en) * | 2007-07-11 | 2011-12-27 | Ricoh Co., Ltd. | Invisible junction features for patch recognition |
US9384619B2 (en) * | 2006-07-31 | 2016-07-05 | Ricoh Co., Ltd. | Searching media content for objects specified using identifiers |
US8195659B2 (en) * | 2005-08-23 | 2012-06-05 | Ricoh Co. Ltd. | Integration and use of mixed media documents |
US8156116B2 (en) * | 2006-07-31 | 2012-04-10 | Ricoh Co., Ltd | Dynamic presentation of targeted information in a mixed media reality recognition system |
US8856108B2 (en) * | 2006-07-31 | 2014-10-07 | Ricoh Co., Ltd. | Combining results of image retrieval processes |
US8825682B2 (en) * | 2006-07-31 | 2014-09-02 | Ricoh Co., Ltd. | Architecture for mixed media reality retrieval of locations and registration of images |
US8276088B2 (en) * | 2007-07-11 | 2012-09-25 | Ricoh Co., Ltd. | User interface for three-dimensional navigation |
US9373029B2 (en) * | 2007-07-11 | 2016-06-21 | Ricoh Co., Ltd. | Invisible junction feature recognition for document security or annotation |
US8510283B2 (en) * | 2006-07-31 | 2013-08-13 | Ricoh Co., Ltd. | Automatic adaption of an image recognition system to image capture devices |
US7639387B2 (en) * | 2005-08-23 | 2009-12-29 | Ricoh Co., Ltd. | Authoring tools using a mixed media environment |
US7920759B2 (en) * | 2005-08-23 | 2011-04-05 | Ricoh Co. Ltd. | Triggering applications for distributed action execution and use of mixed media recognition as a control input |
US7672543B2 (en) * | 2005-08-23 | 2010-03-02 | Ricoh Co., Ltd. | Triggering applications based on a captured text in a mixed media environment |
US8838591B2 (en) * | 2005-08-23 | 2014-09-16 | Ricoh Co., Ltd. | Embedding hot spots in electronic documents |
US8156427B2 (en) * | 2005-08-23 | 2012-04-10 | Ricoh Co. Ltd. | User interface for mixed media reality |
US8868555B2 (en) * | 2006-07-31 | 2014-10-21 | Ricoh Co., Ltd. | Computation of a recongnizability score (quality predictor) for image retrieval |
US8369655B2 (en) | 2006-07-31 | 2013-02-05 | Ricoh Co., Ltd. | Mixed media reality recognition using multiple specialized indexes |
US10192279B1 (en) | 2007-07-11 | 2019-01-29 | Ricoh Co., Ltd. | Indexed document modification sharing with mixed media reality |
US8005831B2 (en) * | 2005-08-23 | 2011-08-23 | Ricoh Co., Ltd. | System and methods for creation and use of a mixed media environment with geographic location information |
US7812986B2 (en) * | 2005-08-23 | 2010-10-12 | Ricoh Co. Ltd. | System and methods for use of voice mail and email in a mixed media environment |
US8184155B2 (en) * | 2007-07-11 | 2012-05-22 | Ricoh Co. Ltd. | Recognition and tracking using invisible junctions |
US9171202B2 (en) * | 2005-08-23 | 2015-10-27 | Ricoh Co., Ltd. | Data organization and access for mixed media document system |
US7991778B2 (en) * | 2005-08-23 | 2011-08-02 | Ricoh Co., Ltd. | Triggering actions with captured input in a mixed media environment |
US8600989B2 (en) * | 2004-10-01 | 2013-12-03 | Ricoh Co., Ltd. | Method and system for image matching in a mixed media environment |
US7885955B2 (en) * | 2005-08-23 | 2011-02-08 | Ricoh Co. Ltd. | Shared document annotation |
US8176054B2 (en) * | 2007-07-12 | 2012-05-08 | Ricoh Co. Ltd | Retrieving electronic documents by converting them to synthetic text |
US7587412B2 (en) * | 2005-08-23 | 2009-09-08 | Ricoh Company, Ltd. | Mixed media reality brokerage network and methods of use |
US8521737B2 (en) * | 2004-10-01 | 2013-08-27 | Ricoh Co., Ltd. | Method and system for multi-tier image matching in a mixed media environment |
US9530050B1 (en) | 2007-07-11 | 2016-12-27 | Ricoh Co., Ltd. | Document annotation sharing |
US9405751B2 (en) * | 2005-08-23 | 2016-08-02 | Ricoh Co., Ltd. | Database for mixed media document system |
US7970171B2 (en) * | 2007-01-18 | 2011-06-28 | Ricoh Co., Ltd. | Synthetic image and video generation from ground truth data |
US7669148B2 (en) * | 2005-08-23 | 2010-02-23 | Ricoh Co., Ltd. | System and methods for portable device for mixed media system |
US8949287B2 (en) * | 2005-08-23 | 2015-02-03 | Ricoh Co., Ltd. | Embedding hot spots in imaged documents |
US8385589B2 (en) | 2008-05-15 | 2013-02-26 | Berna Erol | Web-based content detection in images, extraction and recognition |
US7917554B2 (en) * | 2005-08-23 | 2011-03-29 | Ricoh Co. Ltd. | Visibly-perceptible hot spots in documents |
US7769772B2 (en) * | 2005-08-23 | 2010-08-03 | Ricoh Co., Ltd. | Mixed media reality brokerage network with layout-independent recognition |
US7697752B2 (en) * | 2005-12-20 | 2010-04-13 | General Instrument Corporation | Method and apparatus for performing object detection |
JP4367424B2 (ja) * | 2006-02-21 | 2009-11-18 | 沖電気工業株式会社 | 個人識別装置,個人識別方法 |
US8379154B2 (en) * | 2006-05-12 | 2013-02-19 | Tong Zhang | Key-frame extraction from video |
US20070288973A1 (en) * | 2006-06-02 | 2007-12-13 | Logitech Europe S.A. | Intelligent image quality engine |
US8073263B2 (en) * | 2006-07-31 | 2011-12-06 | Ricoh Co., Ltd. | Multi-classifier selection and monitoring for MMR-based image recognition |
US8676810B2 (en) * | 2006-07-31 | 2014-03-18 | Ricoh Co., Ltd. | Multiple index mixed media reality recognition using unequal priority indexes |
US9176984B2 (en) * | 2006-07-31 | 2015-11-03 | Ricoh Co., Ltd | Mixed media reality retrieval of differentially-weighted links |
US8201076B2 (en) * | 2006-07-31 | 2012-06-12 | Ricoh Co., Ltd. | Capturing symbolic information from documents upon printing |
US8489987B2 (en) * | 2006-07-31 | 2013-07-16 | Ricoh Co., Ltd. | Monitoring and analyzing creation and usage of visual content using image and hotspot interaction |
US9063952B2 (en) * | 2006-07-31 | 2015-06-23 | Ricoh Co., Ltd. | Mixed media reality recognition with image tracking |
US9020966B2 (en) * | 2006-07-31 | 2015-04-28 | Ricoh Co., Ltd. | Client device for interacting with a mixed media reality recognition system |
JP4211838B2 (ja) * | 2006-11-09 | 2009-01-21 | ソニー株式会社 | 撮像装置および画像処理方法 |
JP4881199B2 (ja) * | 2007-03-23 | 2012-02-22 | 富士フイルム株式会社 | 画像評価装置および方法並びにプログラム |
FR2915301A1 (fr) * | 2007-04-20 | 2008-10-24 | Groupe Ecoles Telecomm | Procede de comparaison d'images d'une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l'image d e reference |
WO2009023188A2 (en) * | 2007-08-15 | 2009-02-19 | Thomson Licensing | Method and apparatus for improved video encoding using region of interest (roi) information |
US7847380B2 (en) * | 2007-09-20 | 2010-12-07 | Samsung Electronics Co., Ltd. | Tape substrate and semiconductor module for smart card, method of fabricating the same, and smart card |
US8086007B2 (en) | 2007-10-18 | 2011-12-27 | Siemens Aktiengesellschaft | Method and system for human vision model guided medical image quality assessment |
US8126197B2 (en) * | 2007-11-29 | 2012-02-28 | Certifi-Media Inc. | Method for image quality assessment using quality vectors |
WO2009065151A2 (en) * | 2007-11-15 | 2009-05-22 | Certifi Media Inc. | Method for image quality assessment using quality vectors |
US8488834B2 (en) * | 2007-11-15 | 2013-07-16 | Certifi-Media Inc. | Method for making an assured image |
US8442279B2 (en) * | 2008-06-27 | 2013-05-14 | Lockheed Martin Corporation | Assessing biometric sample quality using wavelets and a boosted classifier |
US8189866B1 (en) * | 2008-08-26 | 2012-05-29 | Adobe Systems Incorporated | Human-action recognition in images and videos |
US8270695B2 (en) * | 2008-10-07 | 2012-09-18 | Carestream Health, Inc. | Diagnostic image processing with automatic self image quality validation |
KR101033098B1 (ko) * | 2009-02-09 | 2011-05-06 | 성균관대학교산학협력단 | 실시간 얼굴 검출 장치 |
US8788498B2 (en) * | 2009-06-15 | 2014-07-22 | Microsoft Corporation | Labeling data samples using objective questions |
US8385660B2 (en) * | 2009-06-24 | 2013-02-26 | Ricoh Co., Ltd. | Mixed media reality indexing and retrieval for repeated content |
US8493499B2 (en) * | 2010-04-07 | 2013-07-23 | Apple Inc. | Compression-quality driven image acquisition and processing system |
US8396269B2 (en) | 2010-04-08 | 2013-03-12 | Digital Pathco LLC | Image quality assessment including comparison of overlapped margins |
US8977629B2 (en) * | 2011-05-24 | 2015-03-10 | Ebay Inc. | Image-based popularity prediction |
US9058331B2 (en) | 2011-07-27 | 2015-06-16 | Ricoh Co., Ltd. | Generating a conversation in a social network based on visual search results |
US8488907B1 (en) * | 2011-08-19 | 2013-07-16 | Google Inc. | Hybrid images for maps combining low frequency map data and high frequency satellite image data |
CN103020947B (zh) | 2011-09-23 | 2016-04-06 | 阿里巴巴集团控股有限公司 | 一种图像的质量分析方法及装置 |
CN102708567B (zh) * | 2012-05-11 | 2014-12-10 | 宁波大学 | 一种基于视觉感知的立体图像质量客观评价方法 |
CN102708568B (zh) * | 2012-05-11 | 2014-11-05 | 宁波大学 | 一种基于结构失真的立体图像客观质量评价方法 |
US8441548B1 (en) * | 2012-06-15 | 2013-05-14 | Google Inc. | Facial image quality assessment |
US9042674B2 (en) * | 2013-03-15 | 2015-05-26 | Digitalglobe, Inc. | Automated geospatial image mosaic generation |
US10026010B2 (en) * | 2014-05-14 | 2018-07-17 | At&T Intellectual Property I, L.P. | Image quality estimation using a reference image portion |
CN104113687A (zh) * | 2014-06-24 | 2014-10-22 | 中兴通讯股份有限公司 | 一种图片处理方法及电子设备 |
CN104182983B (zh) * | 2014-08-27 | 2017-03-22 | 重庆大学 | 基于角点特征的高速公路监控视频清晰度的检测方法 |
CN104361574B (zh) * | 2014-10-14 | 2017-02-15 | 南京信息工程大学 | 一种基于稀疏表示的无参考彩色图像质量评价方法 |
US10172285B2 (en) | 2015-10-23 | 2019-01-08 | Carnegie Mellon University | System for evaluating agricultural material |
US10188036B2 (en) | 2015-10-23 | 2019-01-29 | Carnegie Mellon University | System for evaluating agricultural material |
US9922411B2 (en) * | 2015-11-30 | 2018-03-20 | Disney Enterprises, Inc. | Saliency-weighted video quality assessment |
US10235608B2 (en) | 2015-12-22 | 2019-03-19 | The Nielsen Company (Us), Llc | Image quality assessment using adaptive non-overlapping mean estimation |
US10423830B2 (en) * | 2016-04-22 | 2019-09-24 | Intel Corporation | Eye contact correction in real time using neural network based machine learning |
US10664949B2 (en) | 2016-04-22 | 2020-05-26 | Intel Corporation | Eye contact correction in real time using machine learning |
WO2018121523A1 (en) | 2016-12-28 | 2018-07-05 | Zhejiang Dahua Technology Co., Ltd. | Methods, systems, and media for evaluating images |
US10467507B1 (en) * | 2017-04-19 | 2019-11-05 | Amazon Technologies, Inc. | Image quality scoring |
EP3635626A1 (en) * | 2017-05-31 | 2020-04-15 | The Procter and Gamble Company | System and method for guiding a user to take a selfie |
DE102017212339A1 (de) * | 2017-07-19 | 2019-01-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Bewertung von Bildausschnitten für eine Korrespondenzbildung |
TWI635462B (zh) * | 2017-10-18 | 2018-09-11 | 大猩猩科技股份有限公司 | 一種評估影像品質之方法 |
US20190147620A1 (en) * | 2017-11-14 | 2019-05-16 | International Business Machines Corporation | Determining optimal conditions to photograph a point of interest |
CN107945175A (zh) * | 2017-12-12 | 2018-04-20 | 百度在线网络技术(北京)有限公司 | 图像的评价方法、装置、服务器及存储介质 |
US10958807B1 (en) * | 2018-02-08 | 2021-03-23 | Digimarc Corporation | Methods and arrangements for configuring retail scanning systems |
US11995511B2 (en) | 2018-02-08 | 2024-05-28 | Digimarc Corporation | Methods and arrangements for localizing machine-readable indicia |
CN110458790B (zh) * | 2018-05-03 | 2022-07-12 | 阿里巴巴(中国)有限公司 | 一种图像检测方法、装置及计算机存储介质 |
US10880451B2 (en) | 2018-06-08 | 2020-12-29 | Digimarc Corporation | Aggregating detectability metrics to determine signal robustness |
US20200021815A1 (en) * | 2018-07-10 | 2020-01-16 | Fastvdo Llc | Method and apparatus for applying deep learning techniques in video coding, restoration and video quality analysis (vqa) |
US11423262B2 (en) * | 2018-08-08 | 2022-08-23 | Nec Corporation | Automatically filtering out objects based on user preferences |
CN110858286B (zh) | 2018-08-23 | 2023-08-11 | 杭州海康威视数字技术股份有限公司 | 一种用于目标识别的图像处理方法及装置 |
CN110874547B (zh) * | 2018-08-30 | 2023-09-12 | 富士通株式会社 | 从视频中识别对象的方法和设备 |
CN109272498B (zh) * | 2018-09-20 | 2021-11-23 | 易诚高科(大连)科技有限公司 | 一种枯叶图图卡视频的实时细节自动分析方法 |
US11120536B2 (en) | 2018-12-12 | 2021-09-14 | Samsung Electronics Co., Ltd | Apparatus and method for determining image sharpness |
CN114648646B (zh) * | 2022-05-20 | 2023-04-18 | 合肥英特灵达信息技术有限公司 | 一种图像分类方法及装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5400667A (en) | 1990-09-26 | 1995-03-28 | Televerket | Means for measuring picture quality |
JP2815045B2 (ja) * | 1996-12-16 | 1998-10-27 | 日本電気株式会社 | 画像特徴抽出装置,画像特徴解析装置,および画像照合システム |
DE69934478T2 (de) * | 1999-03-19 | 2007-09-27 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen |
US6285797B1 (en) | 1999-04-13 | 2001-09-04 | Sarnoff Corporation | Method and apparatus for estimating digital video quality without using a reference video |
US6792135B1 (en) | 1999-10-29 | 2004-09-14 | Microsoft Corporation | System and method for face detection through geometric distribution of a non-intensity image property |
US6798919B2 (en) * | 2000-12-12 | 2004-09-28 | Koninklijke Philips Electronics, N.V. | System and method for providing a scalable dynamic objective metric for automatic video quality evaluation |
US7023580B2 (en) | 2001-04-20 | 2006-04-04 | Agilent Technologies, Inc. | System and method for digital image tone mapping using an adaptive sigmoidal function based on perceptual preference guidelines |
US7068841B2 (en) * | 2001-06-29 | 2006-06-27 | Hewlett-Packard Development Company, L.P. | Automatic digital image enhancement |
US7200270B2 (en) | 2001-12-13 | 2007-04-03 | Kabushiki Kaisha Toshiba | Pattern recognition apparatus and method using distributed model representation of partial images |
US6992697B2 (en) * | 2002-06-19 | 2006-01-31 | Koninklijke Philips Electronics N.V. | Method and apparatus to measure video quality on any display device with any image size starting from a know display type and size |
-
2003
- 2003-10-27 US US10/694,143 patent/US7512286B2/en active Active
-
2004
- 2004-10-26 JP JP2004310776A patent/JP2005129070A/ja active Pending
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7953251B1 (en) | 2004-10-28 | 2011-05-31 | Tessera Technologies Ireland Limited | Method and apparatus for detection and correction of flash-induced eye defects within digital images using preview or other reference images |
US8135184B2 (en) | 2004-10-28 | 2012-03-13 | DigitalOptics Corporation Europe Limited | Method and apparatus for detection and correction of multiple image defects within digital images using preview or other reference images |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US8050465B2 (en) | 2006-08-11 | 2011-11-01 | DigitalOptics Corporation Europe Limited | Real-time face tracking in a digital image acquisition device |
US8055029B2 (en) | 2006-08-11 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Real-time face tracking in a digital image acquisition device |
US7864990B2 (en) | 2006-08-11 | 2011-01-04 | Tessera Technologies Ireland Limited | Real-time face tracking in a digital image acquisition device |
US8385610B2 (en) | 2006-08-11 | 2013-02-26 | DigitalOptics Corporation Europe Limited | Face tracking for controlling imaging parameters |
US8509496B2 (en) | 2006-08-11 | 2013-08-13 | DigitalOptics Corporation Europe Limited | Real-time face tracking with reference images |
JP2010500687A (ja) * | 2006-08-11 | 2010-01-07 | フォトネーション ビジョン リミテッド | デジタル画像取得装置におけるリアルタイムの顔探知 |
JP4680161B2 (ja) * | 2006-09-28 | 2011-05-11 | 富士フイルム株式会社 | 画像評価装置および方法並びにプログラム |
US8090158B2 (en) | 2006-09-28 | 2012-01-03 | Fujifilm Corporation | Image evaluation apparatus, method, and program |
JP2008084047A (ja) * | 2006-09-28 | 2008-04-10 | Fujifilm Corp | 画像評価装置および方法並びにプログラム |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US9767539B2 (en) | 2007-06-21 | 2017-09-19 | Fotonation Limited | Image capture device with contemporaneous image correction mechanism |
US8155397B2 (en) | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
JP2013520037A (ja) * | 2010-02-12 | 2013-05-30 | エコール・ドゥ・テクノロジー・スュペリュール | 画像のマルチレベル分解を利用して画質計測値を決定する方法およびシステム |
JP2014056442A (ja) * | 2012-09-12 | 2014-03-27 | Samsung R&D Institute Japan Co Ltd | 画質推定装置、画質推定方法および画質推定プログラム |
WO2021040347A1 (ko) * | 2019-08-30 | 2021-03-04 | 삼성전자 주식회사 | 컴퓨팅 장치 및 그 동작 방법 |
JP2021174532A (ja) * | 2020-04-23 | 2021-11-01 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 画像を処理するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム |
US11734809B2 (en) | 2020-04-23 | 2023-08-22 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for processing image |
Also Published As
Publication number | Publication date |
---|---|
US7512286B2 (en) | 2009-03-31 |
US20050089246A1 (en) | 2005-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7512286B2 (en) | Assessing image quality | |
Min et al. | Blind quality assessment based on pseudo-reference image | |
Zhan et al. | No-reference image sharpness assessment based on maximum gradient and variability of gradients | |
Li et al. | Content-partitioned structural similarity index for image quality assessment | |
Liang et al. | No-reference perceptual image quality metric using gradient profiles for JPEG2000 | |
Saad et al. | Blind image quality assessment: A natural scene statistics approach in the DCT domain | |
EP1374168B1 (en) | Method and apparatus for determining regions of interest in images and for image transmission | |
US6738494B1 (en) | Method for varying an image processing path based on image emphasis and appeal | |
Narwaria et al. | Fourier transform-based scalable image quality measure | |
JP4739355B2 (ja) | 統計的テンプレートマッチングによる高速な物体検出方法 | |
Kim et al. | Gradient information-based image quality metric | |
Zhang et al. | Opinion-unaware blind quality assessment of multiply and singly distorted images via distortion parameter estimation | |
CN111612741B (zh) | 一种基于失真识别的精确无参考图像质量评价方法 | |
EP2889833A1 (en) | Method and apparatus for image quality assessment | |
Luo | A training-based no-reference image quality assessment algorithm | |
US20040240733A1 (en) | Image transmission system, image transmission unit and method for describing texture or a texture-like region | |
Liu et al. | An efficient no-reference metric for perceived blur | |
Sharma et al. | Spliced Image Classification and Tampered Region Localization Using Local Directional Pattern. | |
Barland et al. | Blind quality metric using a perceptual importance map for JPEG-20000 compressed images | |
Scott et al. | Image utility estimation using difference-of-gaussian scale space | |
Li et al. | Blur-specific no-reference image quality assessment: A classification and review of representative methods | |
CN107798282B (zh) | 一种活体人脸的检测方法和装置 | |
JP2009258770A (ja) | 画像処理方法、画像処理装置、画像処理プログラム、撮像装置 | |
US8433144B2 (en) | Systems and methods for detecting red-eye artifacts | |
Tomaszewska | Blind noise level detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060328 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060829 |