JP2012226744A - 画質評価 - Google Patents

画質評価 Download PDF

Info

Publication number
JP2012226744A
JP2012226744A JP2012087667A JP2012087667A JP2012226744A JP 2012226744 A JP2012226744 A JP 2012226744A JP 2012087667 A JP2012087667 A JP 2012087667A JP 2012087667 A JP2012087667 A JP 2012087667A JP 2012226744 A JP2012226744 A JP 2012226744A
Authority
JP
Japan
Prior art keywords
image
descriptor
quality
feature
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012087667A
Other languages
English (en)
Other versions
JP5782404B2 (ja
JP2012226744A5 (ja
Inventor
Marchetti Luca
ルカ・マルケソッティ
Nkoutche Rodrigue
ロドリグ・ンクッチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JP2012226744A publication Critical patent/JP2012226744A/ja
Publication of JP2012226744A5 publication Critical patent/JP2012226744A5/ja
Application granted granted Critical
Publication of JP5782404B2 publication Critical patent/JP5782404B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像の画質を予測するコンピュータで実行するシステム及び方法を開示する。
【解決手段】入力画像に関して、この方法は、画像に関する意味内容情報に基づいて第一の記述子を生成する工程と、画像から抽出される美的特徴に基づいて第二の記述子を生成する工程とを含む。第一の記述子及び第二の記述子に基づいて訓練されて品質値を画像割り当てるカテゴライザを用いて第一の記述子及び第二の記述子に基づいて品質値を画像に割り当て、出力する。
【選択図】図1

Description

本明細書に開示されている例示的な実施形態の様態は、写真画像の品質を評価するシステム及び方法に関し、美的特徴だけでなくコンテンツ特徴にも基づいて画質を予測する、自動システムにおける特定な用途を見出すものである。
プロやアマチュアの写真家により作られるデジタル写真画像は、ますます増えてきている。公衆のウェブサイトを通じてこれらの画像にアクセスすることができ、ウェブサイトの閲覧者がその品質やその他の特徴を評価することができる。
画像品質評価の分野では、知覚画質を自動的に予測できる品質測定法を考案するために相当な努力がなされてきた。1つの目的は人間の好みと良い相関を有するデジタル画像から記述子を抽出することであった。過去には不規則な又は計画されたノイズ(例えば、ごま塩ノイズ、JPEGアーティファクト、リンギング)及びブラー等の特定の信号レベルの劣化の有無が、写真画像の品質を規定するうえで一般に使用されてきた。しかし、現在では高解像度デジタルセンサが容易に使用でき、写真家はこれらの劣化を克服できる。最近の画像品質評価では、低いレベルの画像品質よりも、高いレベルの特徴を評価することに焦点があてられてきている。以下を参照されたい。2006年ECCV(3)でのR.Datta et al.による「Studying aesthetics in photographic images using a computational approach」の288〜301ページ(以下「Datta2006」とする)、2007年MULTIMEDIA ’07: Proc. 15th Intern’l Conf. on MultimediaでのR. Datta et al.による「Learning the consensus on visual quality for next−generation image management」の533〜536ページ(以下「Datta2007」とする)、2008年10月15th IEEE Intern’l Conf. on image ProcessingでのR. Datta et al.による「Algorithmic inferencing of aesthetics and emotion in natural images: An exposition,」の105〜108ページ。
画質に関する特徴は、画像のコンテンツには直接かかわりはなく、画像の知覚品質に影響を与える配色、構図、構成等の特定な視覚要素をとらえるために考案されているために、よく美的特徴と呼ばれる。
訓練データとして使用可能な、ソーシャルネットワーク、写真共有ウェブサイト等を通じてアクセスできる注釈付の画像データが増えてきているが、ハイレベルの品質評価に関する課題は依然として残っている。第一にこれらのデータは大抵、固有のノイズと共に注釈を付けられているが、人間の好みを扱う場合、全員が一致することはあまりない。
第二の課題は人間の好みをとらえるための特徴を考案することである。現時点で使用されている特徴は、人間の知覚と密接にかかわりあっているとは限らない。すなわち、それらは閲覧者が画質を評価するのに使用する全ての視覚情報をとらえるのに十分なほど強力ではない。
自動の画像品質評価を改善できるシステム及び方法の必要性が残されている。
例示的な実施形態の一様態によると、画像の画質を予測する方法は入力画像に関して、画像に関する意味内容情報に基づく第一の記述子を生成する工程と、画像から抽出される美的特徴に基づく第二の記述子を生成する工程とを含む。第一の記述子及び第二の記述子に基づいて品質値を画像に割り当てるために訓練されたカテゴライザを用いて、第一の記述子及び第二の記述子に基づいて品質値を画像に割り当て、画質値を出力する。
第一の記述子は、画像及び画像の画像データに関連する文字情報のうちの少なくとも1つから生じ得る。
文字情報は画像及び画像に組み込まれたメタデータに関連する文字標識のうちの少なくとも一方を含むことができる。
第一の記述子は複数のコンテンツカテゴリ毎に値を含むことができる。
この方法は入力画像からローカル特徴のセット抽出する工程と、ローカル特徴の分布を示す画像表現を生成する工程と、及び画像表現に基づいて複数のコンテンツカテゴリ毎に値を割り当てる工程とを含むことができる。
第二の記述子を生成する工程は画像のパッチから複数の美的特徴を抽出することを含むことができる。
第二の記述子は、指向勾配のヒストグラム(HOG)特徴、スケール不変特徴変換(SIFT)特徴、及びガボール特徴のうちの少なくとも1つを含む一般特徴をさらに含むことができる。
ガボール特徴は、ガウスエンベローブにより変調された特定な周波数及び方向性を持つ正弦平面でよい。
品質値を割り当てる工程は、随意に重み付けされた第一の記述子及び第二の記述子の組み合わせである組み合わせ記述子を生成することを含むことができる。
組み合わせ記述子を以下の形をとる集計関数と組み合わせてもよい。
但し
は第一の記述子を示す
は第二の記述子を示す
0<α<1
品質値を割り当てる工程は、の分類子のセットを用いて第二の記述子をコンテンツカテゴリごとに1つ分類して、コンテンツカテゴリ毎に各分類子スコアを生成し、重み付けした分類子スコアの組み合わせに基づく品質値を生成することを含むことができ、分類子スコア毎の重みは第一の記述子の各特徴の値から生じる。
方法は訓練画像のセットを用いてカテゴライザを訓練することをさらに含むことができ、各訓練画像は関連する品質情報を有し、訓練には訓練画像毎に、
a)品質情報から品質値を生成することと、
b)コンテンツ特徴の記述子を生成することであって、
i)画像に関連するコンテンツ情報、及び
ii)画像の画像データに基づいて意味的カテゴライザにより出力されるカテゴリ情報のうちの少なくとも一方に基づいて生成すること、
c)画像から抽出される美的特徴に基づいて美的特徴の記述子を生成することと、
訓練セット内の各画像の品質値、コンテンツ特徴の記述子、及び美的特徴の記述子上のカテゴライザを訓練することが含まれる。
品質情報には、画像毎に閲覧者の入力による品質に関連する序列又は画像の評価のうちの少なくとも1つが含まれ得る。
方法は情報検索システムにおける画像の検索のためのパラメータとして品質値を使用する工程をさらに含むことができる。
コンピュータプログラム製品は、コンピュータで実行したとき上記の方法を行う命令を符号化する非一時的記憶媒体を含むことができる。
上記の方法を行うシステムは、方法を行う命令を格納する非一時的メモリ及び命令を実行するコンピュータプロセッサを含むことができる。
別の様態では、画像に関する画像品質評価を生成するシステムは入力画像に関するコンテンツ情報に基づいて第一の記述子を生成するコンテンツ特徴エクストラクタと、画像から抽出される美的特徴に基づいて第二の記述子を生成する美的特徴エクストラクタと、第一の記述子及び第二の記述子に基づいて品質値を画像に割り当てるために訓練されたカテゴライザとを格納するメモリを含む。コンピュータプロセッサは、エクストラクタとカテゴライザを実装するメモリと通信する。
カテゴライザは、少なくとも1つ分類子と、前期融合及び後期融合のうちの一方を行う融合モジュールと、を含むことができる。
融合モジュールは、組み合わせ記述子を生成することを含む前期融合を行うことができ、この組み合わせ記述子とは、第一の記述子と第二の記述子の随意的に重み付けされた組み合わせであり分類子に入力される。
少なくとも1つの分類子は複数のコンテンツカテゴリのうちの1つ毎に1つの分類子を含む複数の分類子を含むことができる。融合モジュールは、第二の記述子に基づいて複数の分類子により出力される複数の分類子スコアの重み付けされた組み合わせに基づいて品質値を生成することを含む後期融合を行い、それぞれの分類子スコアに関する重みは第一の記述子の各特徴値から生じる。
別の様態では、画像の画質を予測する方法が訓練画像のセットを受け取る工程を含み、セットの各画像は関連する画像の意味内容を示す文字情報と、ユーザにより提供される画質情報に基づく画質値とを有する。カテゴライザは、画像から抽出される画像の標識、その画質値、及び特徴に基づいて訓練される。文字情報を有するが画質値のない入力画像に関して、この方法は画像の画像データから特徴を抽出する工程と、カテゴライザを用いて文字情報及び抽出される特徴に基づいて品質値を画像に割り当てる工程とを含んでいる。画質値が出力値である。
訓練中及び使用中における例示的なカテゴライザへの入力の概略図である。 例示的な実施形態の一様態による画像品質評価に関するシステムの機能ブロック図である。 例示的な実施形態の別の様態による画像品質評価の方法を示すフローチャートである。 例示的な方法及び比較の方法により生成された結果を示すグラフである。 後期融合法における異なるαの値を選択する影響を示すグラフである。 異なる数の方向を用いたガボール特徴の使用の精度への影響を示すグラフである。
例示的な実施形態は画像品質評価のためのコンピュータで実行するシステム及び方法に関する。例示的なシステム及び方法は画像品質評価における特徴の組み合わせ及び異種の情報の統合を組み込む。画像の全特性を示す低レベルの画像特徴、及び画像領域の特性を示す高レベルの特徴の2種類の特徴が考えられる。2つの異なる種類の特徴に基づいて分類を組み合わせるために、2つの分類子融合法が提案される。第一に、組み合わせは低レベルの特徴とハイレベルの特徴の随意的に重み付けされた融合として実現される。第二に、組み合わせはコンテンツのクラス特定のスコアの後期融合における重みを付けて実現される。
データから直接人間の好みを自動予測することが有効であり得る事例が数多く存在する。例えば、画像検索システムでは、従来のコンテンツベースの検索方法の結果を例示的なシステムを用いて改良又はまとめることができる。また、システムを直接カメラに配置して所与のシーンに写し出されたものに対してリアルタイムで提案を行うことも可能である。
図1は例示的な実施形態の様態を概略的に示す。図2は画像品質評価を画像12に割り当てる例示的なシステム10を示す。図3は画像品質評価を画像に割り当てる例示的な方法を示し、この画像は平均的な閲覧者の知覚画質を一致する知覚画質を提供することを目的とする。図1に示す通り、実行時間では、例示的なシステム10はコンテンツ特徴14と美的特徴16の両方を含むことができ、分類される画像12に関する特徴のセットを生成する。組合せカテゴライザ18は、画像品質評価20を入力画像12に割り当てるために訓練されている。評価は、コンテンツ特徴(ハイレベル特徴)14と美的特徴(低レベル特徴)16の関数である品質値20の形をとる。
従って、画像品質評価20は一連の人間の閲覧者により知覚される画質を予測する、画像12の品質の自動評価である。本システムにより出力される画像品質評価20は、例えば、0は最も低い画質、すなわち非常に悪い画像を示し、1は最も高い画像、すなわち非常に良い画像を示す0から1の段階等の、所定の最大値と最小値の範囲内の実数の値であるスコアでよい。つまり星評価(例えば、1つ星は最も低くK星は最も高い、Kは5〜10の所定の最大値)のような量子化されたスコアである。別の実施形態では、値20は序列(例えば、1最も高い画質に対応し、その他の画像は高い値を有するに従って低い序列に対応する)又は可能な言語による表現(「低品質」、「平均品質」、「良品質」、及び「優良品質」等の)の有限集合から選択される画質の言語による表現でよい。
コンテンツ特徴14とはカテゴリにより画像の目で見える知覚コンテンツを示す。意味内容のカテゴリのセットを規定することができ、それぞれいくつかの入力画像12内に存在することが期待され得る概念を示す。一例として、あるカテゴリのセットは以下の概念を表すことができる。動物、風景、人々、都市、花、対象等。少なくとも5つのカテゴリ等のあらゆる数のカテゴリを提供できることを理解されたい。例えば、10のコンテンツカテゴリまででもよく、またいくつかの実施形態では20まであり、又は100コンテンツカテゴリまでよく、それより多くてもよい。画像12には、1つ以上のコンテンツ特徴14に基づいてカテゴリ毎に値を含む特徴ベクトルの形をとるコンテンツ特徴の記述子22を割り当てることができる。画像のコンテンツ上の意味、画像に組み込まれるメタデータ及び/又は画像に関連するGPS又はその他の位置情報を示す文字標識等の画像12に関連する文字情報23からコンテンツ特徴14を抽出することができる。あるいは又はさらに、以下に記載する通りコンテンツ特徴を画像データ自体、すなわち画像画素から、例えば、意味的カテゴライザを用いて抽出することもできる。コンテンツ特徴の記述子を形成する値は、量子化することができる、例えば、二値(0又は1)又は[0,1]の範囲等の所定の範囲内の実数の値でよい。
美的特徴16は画像の画素に基づいて抽出することができる特徴である。全ての好適な美的特徴の組み合わせを選択することができ、それによりブラー、粒状感、コントラスト、彩度、配色、三分割法の順守、独自性、補色の使用、被写界深度、美しい形状の外観、画像サイズ、画像アスペクト比、赤目又は他のアーティファクトの存在等の知覚画質問題の範囲を評価する。
カテゴライザ18は、100から100万の訓練画像等の訓練画像30、32、34のセットを用いて訓練される。各訓練画像30、32、34は画素の配列を有する画像データ36を含む。訓練画像はそれぞれ人間の批評家により割り当てられるスコア(又は複数のスコア)等の品質情報38で標識される。訓練画像30、32、34を、批評家により割り当てられるカテゴリ等のコンテンツ情報40(情報23に類似する)で標識することができる。品質情報38及びコンテンツ情報40のうちの1つ以上に基づいて訓練画像の削減したセット42を訓練のめに選択することができる。
コンテンツ特徴50及び美的特徴52等の特徴と正規化された品質値54が画像毎に生成される。コンテンツと美的特徴の記述子56、58(分類される画像12の特徴14、16と同じ形で)がカテゴライザ18に入力される。カテゴライザ18は、入力された特徴の記述子56、58及び訓練画像30、32、34等のそれぞれの関連する品質値54に基づいて、品質値20を新しい画像12に割り当てることを覚える。
次に図2を参照すると、画質システム10が動作する典型的な環境が示されている。システム10は図示されたサーバコンピュータ等の1つ以上のコンピュータ装置を備え、メインメモリ60及びデータメモリ62として図示されているメモリ、コンピュータのCPU等のプロセッサ64、及び他の装置と通信するための1つ以上のネットワークインターフェース(I/O)66を含み、全てデータ/コミュニケーションバス68により通信可能に接続されている。コンピュータは、デスクトップ、ラップトップ等のPC、パームトップコンピュータ、携帯情報端末(PDA)、デジタルカメラ、サーバコンピュータ、携帯電話、タブレットコンピュータ、ポケットベル、又は例示的な方法を行うための命令を実行できるその他のコンピュータ装置でよい。
デジタルプロセッサ64をシングルコアプロセッサ、デュアルコアプロセッサ(又はより一般的にマルチコアプロセッサにより)、デジタルプロセッサ及び協働数値演算プロセッサ、デジタルコントローラ等によりさまざまに組み込むことができる。
メモリ又は一連のメモリ60、62は、ランダム・アクセス・メモリ(RAM)、リード・オンリー・メモリ(ROM)、磁気ディスク又はテープ、光ディスク、フラッシュメモリ、又はホログラムメモリ、又はそれらの組み合わせ等のあらゆる種類の非一時的コンピュータ可読媒体でよい。下記に示す通り、メモリ60はサーバコンピュータの動作及び画質を評価する例示的な方法を行うための命令を格納することができる。メモリ62は、例示的な方法により処理される画像12及び処理されたデータ20を格納する。
ネットワークインターフェース66は、コンピュータがコンピュータネットワーク70、例えばローカル・エリア・ネットワーク(LAN)、インターネット、電話回線、有線接続、又はそれらの組み合わせ等のワイド・エリア・ネットワーク(WAN)等の有線又は無線接続を介して、他の装置と通信することを可能にし、変調器/復調器(MODEM)を含むことができる。
分類される画像12は、PC、ラップトップ、カメラ、携帯電話等の汎用又は専用コンピュータ装置等の画像のソース80から、又はフラッシュドライブ、ディスク、ポータブル・ハード・ドライブ、カメラ・メモリ・スティック等の非一時的メモリ格納装置からシステム10に入力される。例示的な実施形態では、ソース80は画像12及びサーバコンピュータにホストされたウェブポータルに画像をアップロードするためのウェブブラウザ84を格納するメモリ82を含むクライアントのコンピュータ装置であり、プロセッサ86により実行される。メモリ82及びプロセッサ86をメモリ60、62及びプロセッサ64と同じように設定することができる。1つ以上のインターフェース88、90により、コンピュータ80はシステム10及びコンピュータモニタ、LCDスクリーン等のディスプレイ装置92、及びタッチスクリーン、キーボード、キーパッド、カーソルコントロール・装置又はそれらの組み合わせ等の1つ以上のユーザ入力装置94と通信することができる。
訓練画像32、34、36等の訓練画像のセットは、データベース(又は複数のデータベース)100内に格納される。データベース100をメモリ62又は、システム10に(例えば、ネットワーク70を介して)アクセス可能なメモリ内に格納することができる。
システム10は、画像12、32、34、36を、JPEG、TIFF、GIF、JBIG、BMP又はその他の画像に使用される共通のファイル形式等のあらゆる便宜なファイル形式で受け取ることができ、処理をする前にそれらを随意的に別の好適な形式に変換することができる。画像は、文字/図及び写真等を含む各写真、ビデオ画像、三次元画像、組合せ画像でよい。一般に、各入力デジタル画像は、画像を形成する画素の配列に関する画像データを含む。画像データは、RGB等の色分解のセットごとにグレースケール値等の色の値を含むことができる、又は、画像データを異なる色で表すことができる異なる色空間で表すことができる。一般に、「グレースケール」とは、あらゆる単一の色分解の光学濃度の値のことを指すが、表示される(RGB、L、YCbCr、等)。例示的なシステム及び方法はモノクロ画像(単一色分解)及び多色画像(複数の色分解)に適用できる。本明細書に使用される通り、メタデータ、HTML標識、関連するファイル内の情報等として、画像データ添付される文字情報23、40は「画像データ」には含まれない。
システム10、図3に示す例示的な方法を行うための、メインメモリ60に格納されたソフトウェア命令を含む。これらの命令はプロセッサ64により実行され、次の一連の構成要素として示されている。品質値エクストラクタ102、コンテンツ特徴エクストラクタ104、美的特徴エクストラクタ106、及び組合せカテゴライザ18。組合せカテゴライザ18は、1つ以上の特徴の分類子110及び融合モジュール112を含むことができる。
簡単に言うと、品質値エクストラクタ102は訓練画像32、34、36毎に品質値54を抽出する。品質値は単純に人間の批評家により提供され、情報画像に関連する品質情報38における情報から生じる数字の実数の値でよい。例えば、批評家は1〜10の整数を各画像32、34、36に割り当て、10を最も高い品質又は序列(1は最も高い)とすることができる。いくつかの訓練画像32、34、36は数人の批評家により評価されたものでもよく、その場合、品質値54平均は又は批評家スコア38の別の関数でよい。カテゴライザ18が訓練されたら、構成要素102はもはや必要ないことを理解されたい。
コンテンツ特徴エクストラクタ104は、画像12、32、34、36に関するコンテンツ特徴14、50を抽出し、画像の意味内容を表現するコンテンツ特徴14又は50に基づいて各画像に関するコンテンツ特徴の記述子22、56を生成する。ある実施形態では、コンテンツ特徴エクストラクタ104は意味的カテゴライザ114を含む、又はアクセスする。この意味的カテゴライザ114は画像12、32、34、36の画像データからのコンテンツ特徴14、50のいくつかの又は全てを抽出する。従って、例示的なコンテンツ特徴の記述子22、56は、美的特徴のいずれにも基づいていない。
美的特徴エクストラクタ106は、画像12、32、34、36に関する美的特徴16、52を抽出し、画像に関する特徴16、52から各美的特徴の記述子24、58を生成し、この美的特徴の記述子24、58が画像の美的外観を少なくとも部分的に予測する。従って、例示的な美的特徴記述子24、58はコンテンツ特徴のどれにも基づいていない。
コンテンツ特徴の記述子56、美的特徴の記述子58及び品質値54を用いて訓練された組合せカテゴライザ18は、コンテンツ及び美的特徴の記述子22、24(従って、いずれの関連する品質情報に基づいていない)に基づいて新しい画像12(関連する品質情報を持たない)分類することができる。融合モジュール112は二つ以上の分類子110から結果を融合する、又は例えば、後期融合法又は前期融合法をそれぞれ用いて分類子110を入力する前に記述子22、24を融合する。ある実施形態では、融合モジュール112は、分類子110を入力する前に、特徴の記述子22及び24(又は訓練中の56及び58)を単一の記述子に融合させる前期融合モジュールである。別の実施形態では、融合モジュール112は、各分類子110によりカテゴリ毎に1つ出力されるスコアを受け取り、分類子110により出力される、重み付けされたスコアの関数として全体の品質スコア20を生成する後期融合モジュールである。
様々なソフトウェアの構成要素102、104、106、18、114が、独立したモジュールとして記載されているが、これらのうちの1つ以上を分離して追加モジュールする、又は組み合わせることができることを理解されたい。構成要素のうちのいくつかは、前のモジュールの入力上で機能することができる。いくつかのケースでは、それから抽出される画像データ又は情報を、さらに処理するために前のモジュールに戻すことができる。
本明細書で使用される用語「ソフトウェア」は、コンピュータ又はその他のデジタルシステムを設定して、ソフトウェアの目的とする作業を行うために、コンピュータ又はその他のデジタルシステムにより実行できる、あらゆる命令の集まり又はセットを包含することを意図する。本明細書に使用される用語「ソフトウェア」は、ローカル又はリモートの記憶媒体に格納されるそのような命令を包含することを意図する。
図3は、図2のシステムを用いて行われる画像品質評価の方法を示す。方法はS100から始まる。
S102で、訓練画像32、34、36のセットが提供される。訓練画像32、34、36はコンテンツ情報品質スコアを含む文字情報38、40と関連することができる。
S104で、訓練画像毎に品質値54が、例えば品質情報38(エクストラクタ102により)から抽出される。ある実施形態では、(平均の)ユーザスコアが量子化され得る。例えば、閾値スコアthを選択し、画像<閾値の場合、不良(例えば、−1)と標識し、その他の画像、すなわちそれらの画像≧閾値thの場合、良(例えば、+1)と標識することにより二値化される。別の実施形態では、訓練画像を随意的にフィルタ(S106)にかけて、例えば、第一の閾品質値を超えた画像、及び第二の高い閾値より低い画像を取り除くことにより、訓練画像42の削減したセットを供給する。これにより、ボーダラインの画像を取り除く。S104では、残った画像が、第一の閾値の以下の場合、不良(例えば、−1)で標識し、その他の画像、すなわち、それらの画像が第二の閾値以上の場合、良(例えば、+1)で標識する。
S108で、(随意的にフィルタにかけられた)訓練画像32、34、36のセットからコンテンツ特徴50が(エクストラクタ104により)抽出される。例えば、i)手動で適用された標識40と、ii)画像データに基づいて意味的カテゴライザ114により出力される、コンテンツの値のうちの1つ以上から、これらの特徴を抽出することができる。
S110で、抽出されるコンテンツ特徴50に基づいてコンテンツ特徴の記述子56が画像32、34、36ごとに(エクストラクタ104により)生成される。
S112で、訓練画像32、34、36から美的特徴52が(エクストラクタ106により)抽出される。
S114で、抽出された美的特徴52に基づいて美的特徴の記述子58が訓練画像32、34、36ごとに(エクストラクタ106により)生成される。
S116で、S104で抽出された品質値54及び各コンテンツ及びS110及びS114で生成された美的特徴の記述子56、58に基づいて分類子110が訓練される。特に、訓練された分類子110のパラメータはメモリ60内に格納される。
S118で、あらゆる品質情報38を持たない新しい画像12(テスト画像)がシステム10に入力される。
S120で、コンテンツ特徴14が新しい画像12から(エクストラクタ104により)抽出される。
S122で、S120で(エクストラクタ104により)抽出されたコンテンツ特徴14に基づいてコンテンツ特徴の記述子22が新しい画像12に対して生成される。
S124で、美的特徴16が新しい画像12から(エクストラクタ106により)抽出される。
S126で、S124で抽出された美的特徴16に基づいて美的特徴の記述子24が新しい画像12に対して(エクストラクタ106により)生成される。
S128で、新しい画像12に関する美的記述子24及びコンテンツ記述子22に基づいて品質値20が訓練されたカテゴライザ18を用いて生成される。上記に記載した通り、品質値20は、例えば、画像12を品質に関して良、又は不良として指定する量子化された二進値(例えば、+1、−1)でよい、又は、例えば、0から1又は1から10の範囲の実数の値でよい。
S130で、品質値20が、例えば、サーバコンピュータ10上に常駐するメモリ格納装置62に出力される又はI/O装置66を介して、外部メモリ、クライアント装置80、又はプリンタ、ディスプレイ装置92、又はその他の外部の出力装置等の外部の装置に出力される。
S132で、処理を実行する別のコンピュータへ品質スコア20を入力することができる。方法はS134で完了する。
一度カテゴライザ18訓練されたら、新しい画像に関してステップS104〜S116を繰り返す必要はないことを理解されたい。また、全てのステップが示された順番で行われる必要もない。例えば、ステップS108とS112は入れ替える又は同時に行うことができる。
図3に示される方法は、コンピュータ上で実行されるコンピュータプログラム製品内で実行することができる。コンピュータプログラム製品は、ディスク、ハードドライブ等の方法を実行する制御プログラムが記録されている非一時的コンピュータ可読記憶媒体を含むことができる。
あるいは、電波通信及び赤外線通信の間に生成される音波又は光波等の伝送媒体を用いたデータ信号として制御プログラムが組み込まれた伝送搬送波等の一時的媒体内で、この方法を実行することもできる。
次に、システム及び方法の様々な様態をより詳細に説明する。
コンテンツ特徴の抽出
例示的な実施形態は、画像12に割り当てられた画質値20が、画像の意味内容に部分的に依存することを前提とする。従って、下記の例で証明される通り、画像12の主題を示すコンテンツ特徴14を用いることにより、その品質の評価を改善することができる。画像の意味内容14は、手書きの注釈23、その画像と別の画像の類似性に基づいて文字情報を別の画像から画像に組み込む自動モデルにより作られる文字標識、メタデータ、GPS又はその他の位置情報、分類スコア等のうちの1つ以上から生じ、それらうちのいくつかは画像のコンテンツベースの記述子を生成するために用いられる。
画像12、32、34、36は、N個のセットの異なる概念又はコンテンツカテゴリを用いて示される。各画像X(i)に特徴ベクトルx(i)22、56の形をとる第一の記述子を次のように割り当てることができる。|x|=N(すなわち、カテゴリ毎に1特徴)、ここで各次元は特定の概念が画像X(i)内に表されている可能性を示す。
但し各特徴の可能性(重みw)は二進値又は実数の値でよい。
第一の記述子X(i)において、全ての重みを正規化することができ、その合計は1となる。
例えば、コンテンツ情報23、40が画像のテキストの記述を含む人間により割り当てられるカテゴリ又は標識上の情報の場合、コンテンツ特徴エクストラクタ104は、コンテンツ特徴記述子22、56を生成する際に、この情報を用いることができる。
一実施形態では、このテキストコンテンツ情報は、閲覧者カテゴリの所定のセットから選ばれる。例えば、ユーザが見る画像は、セット内の1つ以上の(しかし一般には全部ではない)閲覧者カテゴリを選択に限定される。閲覧者カテゴリをシステム10により用いられるコンテンツカテゴリと連携させることができ、そのため各閲覧者カテゴリはコンテンツカテゴリのうちの各1つに対応する(いくつかのケースでは、二つ以上の閲覧者カテゴリを同じコンテンツカテゴリに連携させることができる)。従って、例えば、閲覧者が「風景」の標識だけを画像に添付した場合、1の特徴値wjが対応する「風景」コンテンツ特徴に割り当てられ、(0、1、0、0、0、0、0)等の第一の記述子を生成することができる。コンテンツカテゴリは、例えば、動物、風景、人々、都市、花、対象等である。
標識23、40が自由形式の場合、すなわち、どのカテゴリにも限定されていない場合、システム10は構文解析を行って文字情報23、40を分析してコンテンツカテゴリとして認識されるテキストを識別することができる。例えば、「これは赤いバラです」という文を例にとると、システムは、バラ(名詞)を抽出し画像をコンテンツカテゴリ「花」に1の特徴の重みwjとともに割り当てる。
追加的に又は代替的に、コンテンツ特徴記述子22、56は、画像12、32、34、36の画像データ(画素)から抽出される特徴に基づく。この場合、コンテンツ特徴の記述子の生成子は、1つ以上の視覚コンテンツ分類子を含むことができる意味的カテゴライザ114にアクセスすることができる。カテゴライザ114は、画像を単一の最も可能性の高いカテゴリ又は確率的に全てのカテゴリに割り当てることができる。従って、第一の記述子は、テキストコンテンツ及び/又はテキストコンテンツ及び画像データコンテンツの両方の関数である画像データベースの重み又は一連の重みを含むことができる。
例示的な意味内容の特徴の記述子22、56を生成するために使用することができる、画像の視覚コンテンツを分類するための方法は、例えば、米国公開広報第2007005356号、第20070258648号、第20080069456号、第20080317358号、第20090144033号、第20100040285号、第20100092084号、第20100098343号、第20100318477号、米国特許出願第12/512,209号、第12/693,795号、第12/960,018号、及びPerronnin, F., Dance, Cによる2007年CVPRでの「Fisher Kernels on Visual Vocabularies for image Categorization」に記載されている。
例えば、意味的カテゴライザ114はパッチエクストラクタを含み、画像12、32、34、36の形状、質感、色等のパッチの特徴に関連するコンテンツが抽出及び分析される。パッチは、画像の区分化すること、特に関心のあるポイントを検出すること、規則的な格子を考慮すること、又は単に画像パッチを不規則にサンプリングすることにより得ることができる。各パッチから抽出される低レベルの特徴(ベクトル等)を融合して画像の印として機能する特徴ベクトルを形成することができる。別の方法では、画像の特徴ベクトルをクラスタに割り当てることができる。例えば、K平均法等を用いて訓練画像から抽出された低レベルの特徴をクラスタリングすることにより視覚の語彙を前もって得る。次いで、各パッチベクトルが最も近いクラスタに割り当てられ、割り当てのヒストグラムを生成することができる。他の方法では、確率論的枠組みが用いられる。例えば、混合ガウス分布モデル(GMM)等の基本的な発生モデルが存在することを前提とし、そこから全てのベクトルが放射される。この場合、期待値最大化(EM)アルゴリズムを用いて視覚ボキャブラリを放出することができる。いずれの場合でも、語彙内の各視覚単語は、一般的な低レベルの特徴のグループに対応する。視覚単語はそれぞれ、視覚(デジタルよりむしろ)対象の種類(例えば、ボール又は球、ロッド又はシャフト等)、特徴のある背景(例えば、星空、青空、草原等)等の中間レベルの画像特徴に(おおよそ)対応できる。分類される画像を考慮すると、確率論的モデルの場合は、抽出される各特徴ベクトルは前もって訓練された語彙又は全ての視覚単語の中からその最も近い視覚単語に確率的な方法で割り当てられる。この割り当てに基づいて、単一のコンテンツカテゴリを割り当てることができる、又は全てのコンテンツカテゴリに対する確率的な割り当てを行うことができる。
美的特徴の抽出
美的特徴エクストラクタ106は、画像12、32、34、36毎に、直接画像上で評価される特徴から成るベクトルx(i)24、58の形をとる第二の特徴記述子を規定する。
美的特徴は、低レベルの特徴、すなわち画像の全範囲の特性をとらえる特徴、及び画像内のローカル領域に焦点を合わせる高レベルの特徴を含むことができる。
低レベルの特徴を抽出する技術には、配色、露光又はエッジ分布、明度、モーションブラー、ダイナミックレンジ、焦点外背景、白黒、明暗対照法、ロングシャッタースピード、三分割法、マクロ/クローズアップ写真、対称性とパターン、リード線、オフセンタ被写体、自然構成、視点変化等のうちの1つ以上が含まれ得る。画像内のローカル領域の特徴を示す高レベルの記述子は、K平均法の区分化、特徴抽出法によりその領域を抽出し、幾何学的コンテキストを用いることができる。理由は優勢領域又は写真の主題の位置を見ることにより構図及び構成の特性をとらえるためである。当技術分野で多くの特徴機構が実行及びテストされているが、画像分類の文字に使用される典型的な記述子はこのコンテキストには用いられていない。
例示的な低レベルの美的特徴うちの少なくともいくつかをDatta2006に記載された方法に従って演算することができる。Datta2006の特徴には、f1:光の使用の特徴を示す平均画素明度、f2:マルチカラー画像モノクロから区別する相対的配色、セピア又は単に低コントラスト画像、f3平均彩度、f4平均色相、f5、f6及びf7三分割法特徴、(f2、f3及びf4に類似するが三分割法に従う画像に対して画像が人間の好みに合うかどうか評価するため画像の領域を考慮している。)f8及びf9:画像と他の画像を比較して主題がより親しみがあるかどうか評価し、親しみのない(すなわちオリジナル)画像に対して高い値が得られる親しみの測定、f10〜f21:Daubechiesのウェーブレット変換を用いて演算される粒状感の特徴、f22:画像の2つの寸法の合計である画像サイズ、f23:画像の2つの寸法の比であるアスペクト比、f24〜f47+:画素をクラスタリングして類似色のパッチ及び補色パッチの配列にすることを記載した区分化に関連する特徴、f54、f55:被写界深度に関連する特徴、及びf56:完全な月のような形状に対して高い値が得られ、凹又は複雑な形状に関しては低い値が得られるスコアによる凸形状に関連する特徴、が含まれる。さらに、これらの各特徴の非線形の累乗を用いてこの一連の特徴を増大させることができる。すなわちそれらを二乗、三乗、及び平方根して、各画像を示すD=224の次元特徴ベクトルを得ることができる。以上Datta2007、及び/又はY.Ke、 X. Tang、 and F. Jing.の2006年6月「The design of High−levelfeatures for photo quality assessment Vol.」のページ419〜426(以後本明細書ではKe2006と呼ぶ)に記載されている特徴を参照。Keの特徴は、エッジの空間分布、ブラー、その配色ヒストグラムとプロ画像及びスナップ写真の配色の間の距離、簡単、コントラスト、及び明度の測定としての色相カウントである。
画像カテゴリのうちの少なくともいくつかは、特徴値を正規化して[0、1]の範囲にすることができ、高い値のスコアは高い知覚品質と関連する傾向にある。使用される特徴のうちのいくつかは、他の特徴と実質的に重複してもよく、例示的な実施形態では、カテゴライザ18の重みを特徴に割り当てるため、それにより方法が損なわれることはない。
指向勾配(HOG)の特徴のヒストグラム、スケール不変特徴変換(SIFT)特徴(又は、その他の勾配ベースの特徴)、及びガボール特徴のうちの1つ以上等のより、高レベルの記述子の特徴を有する美的特徴の記述子24、58では、これらの美的特徴を組み合わせることができる。HOG、SIFT及びガボール特徴により画像の構造及びそれらの質感の特性をとらえることができる。これら三つの特徴は美的特徴よりは一般的であるが、それらは美的分類に関して上記の美的記述子の特徴を補うことができる。
例えば、ガボールフィルタは質感の区分化、顔認識、対象検知等に有用である。ガボールフィルタは、人間の視覚システムと類似する周波数及び方向の表現を有する線形フィルタである。空間領域では、2Dガボールフィルタは、x軸及びy軸にそれぞれ沿って変動する、x軸及びy軸にそれぞれ沿って空間センタ周波数を有する正弦平面波により変調されたガウスカーネル関数である。ガボールフィルタは自己相似であり、したがって1つのマザーウェーブレットから全てのフィルタを拡張及び回転することにより生成することができる。各ガボールフィルタは方向性を有し、従って複数の方向性のそれぞれを用いて例示的な記述子に関する特徴を提供することができる。
ガボールフィルタはガウスエンベローブ(関数)により変調された、特定の周波数及び方向性の正弦平面とみなすことができ、下記のように表される。:
及びその周波数応答:
これはガウス関数を周波数領域内の(u、v)により変換することと同等である。従って、ガボール関数を周波数内の位置(u、v)に、すなわち、オリジナルから
の距離で
の方向にシフトしたガウス関数とみなすことができる。上記の方程式2及び3において、
(u、v)はガボールフィルタ空間センタ周波数である。パラメータ(σ、σ)はガウスエンベローブのx方向とy方向に沿った標準偏差である。σ、σはフィルタの帯域幅を決定し、jは指数関数の複雑度を表す。
入力画像データからガボールフィルタを生成する様々なソフトウェア・アプリケーション(例えば、Matlabで実行されている)が市販されており、それらは例示的な実施形態において、例えば、σ、σのデフォルト値を用いて例示的な記述子に関する1つ以上の特徴を生成している。値u、vは美的特徴として使用することができる。異なるガボールフィルタ方向性により、異なる画像の端を検知する。
1999年のInternational Conference on Computer Vision (ICCV)で「Object Recognition From Local Scale−Invariant Features」の中でLoweにより記載された通り、例示的な勾配ベースの特徴はSIFT記述子であり、各パッチに関して演算される。SIFT記述子は、例えば、空間的位置の44のグリッド上の8つの配向面で演算され、128次元ベクトル(つまり、この実施形態では特徴ベクトルごとに128の特徴)を与えるガウス導関数等の近隣の画像のマルチ画像表現である。SIFT特徴を用いたある説明例では、5階級の規則的な格子上(16画素毎に)の32×32画素パッチから特徴を抽出して128次元のSIFT記述子を提供する。特徴の数は随意的に減少する、例えば主成分分析(PCA)を用いて例えば64次元まで減少する。
訓練に使用する品質値の抽出
例示的な実施形態では、訓練画像32、34、36の品質値54は、写真共有ウェブサイトから得た画像に関連する品質情報38(例えば、品質スコア、序列)から生じる。ソーシャルネットワークには、大抵テキストラベル(「好き」、「嫌い」)又は数値の段階(評価)を含む注釈ポリシがある。例えば、写真ネットのウェブサイト上では、ユーザは1(見苦しい)から7(美しい)の間のスコアで画像を評価することできる。このウェブサイトのユーザはサイトの運営管理者から次のようなガイドラインを提供されている。「7に近い評価の理由:a)見た目が良い、b)魅力的/注意を引く、c)面白い構図、d)色使いが良い、e)(フォトジャーナリズム場合)ドラマがある、ユーモアがある、インパクトがある、f)(スポーツの場合)絶頂期、アスリートの頑張り」。評価が、「好き」等の選択可能なテキスト回答の形をとれば、その評価をスコアに換算することができる。
いくつかの実施形態では、訓練に使用される画像32、34、36のうちの少なくともいくつか又は全てが、少なくとも5又は少なくともの10スコア/序列38を有する画像等のように複数のスコア/序列を有する。中間、中央、又はそれらのスコアのモード等の平均を、品質値54としてとることができる。いくつかの実施形態では、異常値、例えば中間から1つ又は2つより多い標準偏差分異なるスコア38を品質値54の演算から除外することができる。
標識からの素のスコア3を用いてカテゴライザ18を訓練することができる、又はスコアを二値化あるいは量子化(例えば、3つ以上の量子化レベルに)することができる。ある実施形態では、画像(i)について、この画像qav(i)に関して得られるスコア38の平均を画像毎に算出する。2つの閾値θ=μ+δ/2及びθ=μ−δ/2が規定され、μは平均スコア等のユーザスコアの範囲のほぼ中間の値をとることができ、δは、不確定スコアを有するいくつかの画像を除去して選択した数字(又は他の因子)であり、どの画像の割合が中間、中間範囲なのかを決定する好適な数字である。これにより基本的に3つの範囲が作られる。次いで各画像は、qav(i)≧θの場合、ラベル「良」(+1)で注記され、qav(i)≦θの場合、「不良」(−1)で注記される。従ってθ<qav(i)<θの中間範囲内の画像32、34、36は、カテゴライザを訓練する目的のため除去され、無視される。δの値は訓練セットのサイズに依存する。δが大きすぎる場合、適切な数の良と不良の画像を有することはできない。小さすぎる場合、セット内の不確定画像が多くなりすぎる可能性があり、分類子システムを正確に訓練することができない。例として、可能性のあるスコアの範囲が1〜7の場合、μは約3〜6、例えば約5でよく、δは、1〜2等の0.5から3でよい。この場合、δ<4又は良に分類される画像がない可能性がある。ユーザにより割り当てられるスコアの範囲に基づいて閾値を設定するために用いられるスコア(この例では5)を変えることができ、「良」と「不良」で標識されるスコアqav(i)
が、ほぼ同数になるように選択できることを理解されたい。
カテゴライザ
画像品質評価に関して、例示的なカテゴライザ18は複数のソース(画像、手動の注釈、及び文字標識)から生じ得る異種の特徴(視覚及び文字)の組み合わせを、入力として受け取ることができる。具体的には、通常コンテンツベースの分類に関して用いられる特徴14は、コンテンツに依存する画像品質評価を提供する品質の分析のために特に考案された、別の特徴16と組み合わされる。画像12の主題に関する情報の使用により、より正確な画像の品質の予測が可能となる。具体的には、分類の枠組みの中のコンテンツ特徴と美的特徴の融合に関して、2つのソリューション(前期融合及び後期融合)が考えられる。
カテゴライザ分類子110は、スパースロジスティック回帰、単純ベイズ、線形判別分析、サポートベクタマシン(SVM)、線形回帰、又はその他の好適なマシン学習法等のあらゆる好適な線形又は非線形訓練アルゴリズムで訓練された二値分類子である。例示的な実施形態では、例えば、Datta2006に記載されている放射基底関数(RBF)カーネルを用いたSVMが用いられる。これにより、Dattaの結果と直接比較することが可能である。しかし、別の分類子学習法も検討できることを理解されたい。
特徴の記述子54、56又は22、24を二つ方法、前期融合と後期融合のうち1つにより組み合わせることができる。
1.前期融合
この実施形態では、特徴の記述子x及びxを単一のベクトルxに融合することにより、特徴レベルの美的情報とコンテンツの情報とを組み合わせる。この実施形態では、異なるソース(例えば、画像の視覚分析からのx、文字標識、手書きの注記、及び自動分類のうちの1つ以上のからのx、)から生じる可能性のある、異なる階級を有する特徴の記述子を組み合わせることができる。このため、線形正規化を記述子の各特徴に別々に適用することができる。
特徴の2つのセットに重みを付けるため、重み付けされた集計関数を2つの記述子の線形重み付けされた組み合わせ等のxとxの混合に適用して画像の品質の特徴を示す単一の記述子xを生成する。分類子110をxに供給し、品質コア20を出力する。
集計関数(融合モジュール112により適用される)は以下の形をとる。
ここで、αは0〜1の実数の値である。
方程式4は、それらの各重みが合計して同じ値、例えば1、になるように記述子x及びxがそれぞれ正規化される制約に基づくことができる。例えば、美的記述子の特徴(重み)はx=(wa1、wa2、wa3、・・・wna)で表され、コンテンツ記述子の特徴(重み)x=(wc1、wc2、wc3、・・・wnc)はで表される。
ここで、wa1+wa2+wa3+、・・・wna=1、及びwa1+fa2+wa3+、・・・wna=1。
方程式4においてαを0とした場合、美的特徴16だけを用いて分類し、α=1の場合、画像のコンテンツ特徴14だけを用いて品質を評価することは明らかである。例示的なカテゴライザ18は、0<α<1の動作のモードの少なくとも1つを有するため、両方の特徴が考慮される。ある例示的な実施形態では、0.01≦α、例えば、0.03≦α、であり、ある実施形態では、0.05≦α又は0.1≦αである。別の例示的な実施形態では、α≦0.9、例えばα≦0.8であり、ある特定な実施形態では、α≦0.6又はα≦0.5である。例示的な一実施形態では0.05≦α≦0.5である。
αの最適値、すなわちコンテンツ特徴なしで実現できる精度よりも少なくとも高い精度を提供する値は、選択される特徴及び画像データのセットに部分的に依存することができる。従って、例示的な方法では、所与のデータベースに関するαの最適値を確認するためのαの異なる値を用いてシステム10の結果をテストする。
次いで、画像32、34、36毎に組み合わせた記述子x、及び対応する品質値54は分類子110に入力されて分類子を訓練する。新しい画像12に関して、組み合わされた記述子xを入力して分類子110を訓練し、画像12に関する品質スコアq出力し、それを品質値20として用いることができる。
2.後期融合
この実施形態では、特徴レベルでコンテンツと視覚情報を組み合わせる代わりに、融合モジュール112によりコンテンツ従属記述子56を用いて訓練された複数の分類子110の出力を直接組み合わせることができる。例えば、コンテンツカテゴリ毎にN個の異なる分類子110が用いられ、各コンテンツカテゴリjの画像32、34、36だけを用いて各分類子のパラメータ(随意的に、ハイパーパラメータのセットλを含む)が評価される。従って、訓練中、分類子110に入力された特徴ベクトル58だけがxである。テスト中、記述子24を全ての訓練されたN個の分類子110に入力することにより、新しい画像X(i)が分類される。分類スコアsの対応する数が集められる。最終スコアqは、各分類子スコア及びそれらの関連する重みの関数のスコアである。例えば、qは各分類子スコアをx記述子22各の特徴の重みで重み付けすることにより得られる。平均スコアは重み付けされたスコアの合計をコンテンツカテゴリの数で割ることにより得られる
ここで各wは、特徴の重みxのwc1、wc2、wc3、・・・wncの各1つを表す。別の実施形態では、全ての重みx所与の同じ値である。
次いで、値qを画像の品質スコア20として用いることができる。実際には、別のセット/特徴の種類により、異なる結果がでる可能性はあったものの、この方法が前期融合法を改良した結果を提供することが分かった。
品質値の使用
システム10により出力された品質値20は様々な用途で使用することできる(S132にて)。例えば、画像12の品質スコア20を単独又は他のパラメータと組み合わせ使用して、サーチエンジンが、ユーザにより入力されるクエリに応答して検索した、そのような画像12のセットをランク付けすることができる情報検索処理において品質スコア20を使用することができる。この実施形態では、セット内の各画像12は品質スコア20を持ち、このパラメータに基づいてスコアが高いほど、その画像は最初にユーザへ提示される画像の中に含まれている可能性が高い。
別の実施形態では、品質値20を使用して画像を品質値に基づく配列で(例えば、最も高いスコアの画像を最初に示すよう)ディスプレイ92に表示することができる。
またさらに別の実施形態では、全部ではないが少なくとも1つのそれぞれにシステムにより品質値20を割り当てられた画像12のセットがその品質値に基づいて選ぶことができる。例えば、文書に貼り付ける、ウェブコンテンツを作る等のために画像を選択することができる。例えば、最も高いスコアの画像を選択する。
別の実施形態では、スコア20に基づく標識、例えば、1つ星〜5つ星の星評価をユーザ’の画像コレクションに割り当てることができる。次いで、ユーザは、例えば、少なくとも4つ星又は少なくとも5つ星の星評価の画像を検索することができる。
別の実施形態では、品質スコア20を使用して新しいカテゴライザの訓練に使用する一連の画像を選択することができる。例えば、少なくとも閾値の品質スコアを有する画像12だけをカテゴライザに入力する。カテゴライザは、分類子114に関して記載した意味的カテゴライザでよい。
別の実施形態では、訓練されたカテゴライザ18を写真用カメラに直接配置して画像12を撮影する前でさえもリアルタイムの提案をユーザに行うことができる。例えば、カメラのスクリーンの中の画像12を処理して品質スコアを決定する。画像12が撮影されたときその品質が芳しくなさそうな場合(例えば、閾値より低い場合)、カメラはそのスクリーン上に警告を表示する。
例示的な実施形態の趣旨を制限することなく、以下の事例は実行する例示的な方法の実施を示している。
実施例
プロトタイプのシステム10は最初下記文献に記載された美的分類にリスト化された全ての特徴を使用して実行される。Datta2006(56特徴)、Ke2006(7特徴)、及びECCV(3)(2008年)でのY. LuoとX. Tangによる「Photo and video quality evaluation: Focusing on the subject、」内のページ386〜399。Luoの参考文献に記載された5つの特徴は、他の63の特徴に比べて改善と見なされず、放棄された。
画像データのセット:訓練画像100及び画像12の両方に関して、写真ネット1のデータセットが使用された。このデータベースのセットは、公的ウェブサイトの写真ネットからランダムに選択した3、581枚の写真のセットである。しかし、何枚かはオリジナルの画像とハイパーリンクされているため、すでに入力の対象ではなく、それらの画像のうちの3、118枚だけがダウンロード可能であった。これら画像を使用してテストを実施した。写真ネット1のデータセット内の画像に1.0から7.0の間(7が最も高い品質スコア)の値でスコアを付け、画像毎に複数の投票を可能にした。画像の被写体は非常に多岐に及ぶ。画像のタイトル及び写真ネットウェブサイトにより行われた画像の分類を調査することにより、7つの主なコンテンツカテゴリを識別した。次いで手作業で各画像に、7つカテゴリのうちの1つを標識した。カテゴリ毎の画像の数を表1に示す。
分類子110として、標準のサポートベクタマシン分類のツールキットを使用した。(libSVMツールキット、C.−C. ChangとC.−J. Linによる、LIBSVM:サポートベクタマシンに関するライブラリ、2001年、ソフトウェアはhttp://www.csie.ntu.edu.tw/〜cjlin/libsvm.で入手可能)
訓練画像及びテスト画像を提供するために、全部で3118枚の画像を五つのフォルダに分け、各フォルダは続いてセットされた5つフォルダのクロス検証で画像12をテストするために使用する。
画質注記プロトコルを作成する。2つの美的品質カテゴリ(良、不良)を規定することにより画質に関する二項分類を確立する。データベース内の各画像iに割り当てる平均美的スコアq(i)(すなわち、1〜7の値)。2つの閾値θ=5+δ/2及びθ=5−δ/2をセットする。各画像が、qav(i)≧θの場合「良」(=1)の標識で注記を付けられ、qav(i)≦θの場合、「不良」(=−1)で注記を付けられる。δは数字である。これらの標識は訓練画像関して用いられ、正確に評価するためにも用いられる。
Datta2006の同じ分類枠組みも使用し、それには下記の形のRBFカーネル関数を有するSVM含まれる。
以下の実験では、放射基底関数のパラメータに関して、γ=3.7、コストc=1.0、uとvをカーネル関数に入力した。
α=0.15又はα=0.35を用いてコンテンツ特徴及び美的特徴を前期融合において組み合わせることによりカテゴライザを訓練した(「前期融合」と標識される)。訓練及びテスト中に用いたコンテンツ記述子は、表1に示した7つカテゴリのうちの1つだけを画像に手書きで注記することにより生成された7つ特徴ベクトルである。
システムの精度は、テスト画像ごとに、二項分類でシステムにより出力されたその画像に関する品質値を比較し、エラー、すなわち2つの値の間の差を決定することにより決定される。次いでフォルダ内の全てのテスト画像に関するエラーを平均化して0〜1の値にしてパーセンテージで表すことができる。いくつかの実施形態では、5つのフォルダに関するパーセンテージを平均化することができる。100%の精度は全ての画像が二項品質分類と一致する品質スコアを有していることを意味する。しかし、実際にはユーザにより適用されるスコアにばらつきがあるため、これは期待できない。
図4には、α=0.35を用いた例示的なシステムの結果が示されている。結果を「基本線」システム(コンテンツ特徴が使用され、融合の必要がないときを除いた「前期融合」と同じ)及び、「最適化基本線」システム(SVMのハイパーパラメータが最適化されたときを除いた「基本」と同じ)と比較する。図4の結果では基本線システム及び最適化基本線システムに対して、精度が改善されていることが示されている。
図5には、変動するαの前期融合の結果に対する影響が示されている。この例では比較的単純なコンテンツ特徴を用いており改善は0.05〜0.55の範囲に渡って示されているが、αの最適値は約1.5である。
図6では、基本の結果と様々な数のガボール特徴(2、3、及び6個の方向)を加えることにより得られた結果とを比較している。ガボール特徴を追加することにより、基本の結果が改善されている。方向性の数は著しく精度に影響しないようである。
ガボール特徴と例示的なコンテンツ特徴を組み合わせることにより精度がさらに改善されることが期待できる。

Claims (10)

  1. 画像の画質を予測する方法であって、
    入力画像に関して、
    前記画像に関する意味内容の情報に基づいて第一の記述子を生成する工程と、
    前記画像から抽出される美的特徴に基づいて第二の記述子を生成する工程と、
    前記第一の記述子及び前記第二の記述子に基づいて訓練されて品質値を画像に割り当てるカテゴライザを用いて、前記第一の記述子及び前記第二の記述子に基づいて品質値を前記画像に割り当てる工程と、
    前記画質値を出力する工程と、を含む方法。
  2. 前記第一の記述子が前記画像及び画像の画像データに関連する文字情報のうちの少なくとも1つから生じる、請求項1に記載の方法。
  3. 前記文字情報が、前記画像に関連する文字標識及び前記画像に組み込まれたメタデータのうちの少なくとも1つを含む、請求項2に記載の方法。
  4. 前記第一の記述子が、複数のコンテンツカテゴリ毎に値を含む、
    請求項1に記載の方法。
  5. 前記入力画像からローカル特徴のセットを抽出する工程と、前記ローカル特徴の分布を示す画像表現を生成する工程と、前記画像表現に基づいて前記第一の記述子内の前記複数のコンテンツカテゴリ毎に前記値を割り当てる工程と、を含む請求項4に記載の方法。
  6. 前記第二の記述子を生成する前記工程には、前記画像のパッチから複数の美的特徴を抽出することが含まれる、請求項1に記載の方法。
  7. 前記第二の記述子が、指向勾配(HOG)特徴のヒストグラム、スケール不変特徴変換(SIFT)特徴、及びガボール特徴のうちの少なくとも1つが含まれる一般特徴をさらに含む、請求項1に記載の方法。
  8. 前記品質値を割り当てる前記工程には、随意的に重み付けされた前記第一の記述子及び前記第二の記述子の組み合わせである組み合わせ記述子を生成することが含まれる、請求項1に記載の方法。
  9. 訓練画像のセットを用いて前記カテゴライザを訓練する工程をさらに含み、前記各訓練画像は関連する品質情報を有し、前記訓練する工程には、
    訓練画像毎に、
    a)前記品質情報から品質値を生成することと、
    b)コンテンツ特徴記述子を生成することであって、
    i)前記画像に関連するコンテンツ情報及び
    ii)前記画像の画像データに基づいて意味的カテゴライザにより出力されるカテゴリ情報のうちの少なくとも一方に基づいて生成することと、
    c)画像から抽出される美的特徴に基づいて美的特徴の記述子を生成することと、
    前各記画像の前記品質値、コンテンツ特徴の記述子、及び美的特徴の記述子上の前記カテゴライザを訓練セット内で訓練することと、が含まれる、請求項1に記載の方法。
  10. 画像に関する画像品質評価を生成するシステムであって、
    入力画像に関する意味内容情報に基づいて第一の記述子を生成するコンテンツ特徴エクストラクタと、
    前記画像から抽出される美的特徴に基づいて第二の記述子を生成する美的特徴エクストラクタと、
    前記第一の記述子及び前記第二の記述子に基づいて訓練されて品質値を画像に割り当てるカテゴライザと、
    前記エクストラクタ及び前記カテゴライザを実行する、前記メモリと通信するコンピュータプロセッサと、を格納するメモリを含むシステム。
JP2012087667A 2011-04-19 2012-04-06 画質評価 Expired - Fee Related JP5782404B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/089,460 2011-04-19
US13/089,460 US8712157B2 (en) 2011-04-19 2011-04-19 Image quality assessment

Publications (3)

Publication Number Publication Date
JP2012226744A true JP2012226744A (ja) 2012-11-15
JP2012226744A5 JP2012226744A5 (ja) 2015-05-14
JP5782404B2 JP5782404B2 (ja) 2015-09-24

Family

ID=47002424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012087667A Expired - Fee Related JP5782404B2 (ja) 2011-04-19 2012-04-06 画質評価

Country Status (3)

Country Link
US (1) US8712157B2 (ja)
JP (1) JP5782404B2 (ja)
FR (1) FR2974433A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154551A (ja) * 2019-03-19 2020-09-24 株式会社日立製作所 行動解析装置、及び、行動解析方法

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2839778C (en) * 2011-06-26 2019-10-29 Universite Laval Quality control and assurance of images
US8804815B2 (en) * 2011-07-29 2014-08-12 Dialogic (Us) Inc. Support vector regression based video quality prediction
US9069850B2 (en) * 2011-11-08 2015-06-30 Comcast Cable Communications, Llc Content descriptor
US9798733B1 (en) * 2011-12-08 2017-10-24 Amazon Technologies, Inc. Reducing file space through the degradation of file content
GB201122082D0 (en) * 2011-12-22 2012-02-01 Rolls Royce Deutschland Method and apparatus for inspection of components
US8903182B1 (en) * 2012-03-08 2014-12-02 Google Inc. Image classification
US9571864B2 (en) * 2012-03-30 2017-02-14 Intel Corporation Techniques for media quality control
US9036888B2 (en) * 2012-04-30 2015-05-19 General Electric Company Systems and methods for performing quality review scoring of biomarkers and image analysis methods for biological tissue
US9535996B1 (en) 2012-08-30 2017-01-03 deviantArt, Inc. Selecting content objects for recommendation based on content object collections
US9317531B2 (en) * 2012-10-18 2016-04-19 Microsoft Technology Licensing, Llc Autocaptioning of images
WO2014064266A1 (en) * 2012-10-26 2014-05-01 Oce-Technologies B.V. Method for semantic image enhancement
US9235875B2 (en) * 2012-11-01 2016-01-12 Google Inc. Image enhancement using learned non-photorealistic effects
US9240184B1 (en) * 2012-11-15 2016-01-19 Google Inc. Frame-level combination of deep neural network and gaussian mixture models
US9116924B2 (en) 2013-01-14 2015-08-25 Xerox Corporation System and method for image selection using multivariate time series analysis
US9082047B2 (en) 2013-08-20 2015-07-14 Xerox Corporation Learning beautiful and ugly visual attributes
CN103559504B (zh) * 2013-11-04 2016-08-31 北京京东尚科信息技术有限公司 图像目标类别识别方法及装置
US9275306B2 (en) * 2013-11-13 2016-03-01 Canon Kabushiki Kaisha Devices, systems, and methods for learning a discriminant image representation
US20150253730A1 (en) * 2014-03-04 2015-09-10 Korea Electronics Technology Institute Method and apparatus for generating/converting digital hologram
US10002310B2 (en) 2014-04-29 2018-06-19 At&T Intellectual Property I, L.P. Method and apparatus for organizing media content
US10595805B2 (en) 2014-06-27 2020-03-24 Sunnybrook Research Institute Systems and methods for generating an imaging biomarker that indicates detectability of conspicuity of lesions in a mammographic image
US9659384B2 (en) * 2014-10-03 2017-05-23 EyeEm Mobile GmbH. Systems, methods, and computer program products for searching and sorting images by aesthetic quality
KR20160103398A (ko) * 2015-02-24 2016-09-01 삼성전자주식회사 이미지의 품질 측정 방법 및 장치
US10289940B2 (en) * 2015-06-26 2019-05-14 Here Global B.V. Method and apparatus for providing classification of quality characteristics of images
US11537262B1 (en) 2015-07-21 2022-12-27 Monotype Imaging Inc. Using attributes for font recommendations
US10410330B2 (en) * 2015-11-12 2019-09-10 University Of Virginia Patent Foundation System and method for comparison-based image quality assessment
US9922411B2 (en) * 2015-11-30 2018-03-20 Disney Enterprises, Inc. Saliency-weighted video quality assessment
US9779492B1 (en) 2016-03-15 2017-10-03 International Business Machines Corporation Retinal image quality assessment, error identification and automatic quality correction
WO2017166137A1 (zh) * 2016-03-30 2017-10-05 中国科学院自动化研究所 基于多任务深度学习的自然图像美感质量评估方法
US10002415B2 (en) * 2016-04-12 2018-06-19 Adobe Systems Incorporated Utilizing deep learning for rating aesthetics of digital images
EP3445250B1 (en) 2016-04-21 2021-09-15 The University of British Columbia Echocardiographic image analysis
CN114241593A (zh) * 2016-04-21 2022-03-25 索尼移动通信株式会社 信息处理设备和程序
US10402436B2 (en) * 2016-05-12 2019-09-03 Pixel Forensics, Inc. Automated video categorization, value determination and promotion/demotion via multi-attribute feature computation
US10043088B2 (en) * 2016-06-23 2018-08-07 Siemens Healthcare Gmbh Image quality score using a deep generative machine-learning model
CN106228556B (zh) * 2016-07-22 2019-12-06 北京小米移动软件有限公司 图像质量分析方法和装置
US10410108B2 (en) * 2016-08-08 2019-09-10 EyeEm Mobile GmbH Systems, methods, and computer program products for searching and sorting images by aesthetic quality personalized to users or segments
US10366278B2 (en) * 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
US20180121733A1 (en) * 2016-10-27 2018-05-03 Microsoft Technology Licensing, Llc Reducing computational overhead via predictions of subjective quality of automated image sequence processing
US10489589B2 (en) * 2016-11-21 2019-11-26 Cylance Inc. Anomaly based malware detection
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US10834406B2 (en) * 2016-12-12 2020-11-10 Netflix, Inc. Device-consistent techniques for predicting absolute perceptual video quality
EP3336800B1 (de) * 2016-12-19 2019-08-28 Siemens Healthcare GmbH Bestimmen einer trainingsfunktion zum generieren von annotierten trainingsbildern
WO2018119406A1 (en) 2016-12-22 2018-06-28 Aestatix LLC Image processing to determine center of balance in a digital image
US10515289B2 (en) * 2017-01-09 2019-12-24 Qualcomm Incorporated System and method of generating a semantic representation of a target image for an image processing operation
EP3574409B1 (en) * 2017-01-24 2023-04-19 The Trustees of Princeton University Method for energy efficient sensors with compression, artificial intelligence, and security
EP3595286B1 (en) * 2017-03-10 2022-03-16 Sony Group Corporation Information-processing device, information-processing method, and information-processing program
US10909429B2 (en) 2017-09-27 2021-02-02 Monotype Imaging Inc. Using attributes for identifying imagery for selection
US10762165B2 (en) 2017-10-09 2020-09-01 Qentinel Oy Predicting quality of an information system using system dynamics modelling and machine learning
US10540589B2 (en) * 2017-10-24 2020-01-21 Deep North, Inc. Image quality assessment using similar scenes as reference
WO2019089578A1 (en) 2017-10-30 2019-05-09 Monotype Imaging Inc. Font identification from imagery
US11210556B2 (en) 2018-01-25 2021-12-28 Hewlett-Packard Development Company, L.P. Classification of records in a data set
US10043255B1 (en) 2018-02-20 2018-08-07 Capital One Services, Llc Utilizing a machine learning model to automatically visually validate a user interface for multiple platforms
US10997746B2 (en) 2018-04-12 2021-05-04 Honda Motor Co., Ltd. Feature descriptor matching
US11836597B2 (en) * 2018-08-09 2023-12-05 Nvidia Corporation Detecting visual artifacts in image sequences using a neural network model
US10751029B2 (en) 2018-08-31 2020-08-25 The University Of British Columbia Ultrasonic image analysis
WO2020041881A1 (en) * 2018-08-31 2020-03-05 The University Of British Columbia Ultrasonic image analysis
CN110889410B (zh) * 2018-09-11 2023-10-03 苹果公司 浅景深渲染中语义分割的稳健用途
US11526713B2 (en) * 2018-09-28 2022-12-13 Intel Corporation Embedding human labeler influences in machine learning interfaces in computing environments
CN109615607B (zh) * 2018-11-09 2023-05-16 福建和盛高科技产业有限公司 一种基于单张图像自定义特征的噪声检测方法
CN109740667B (zh) * 2018-12-29 2020-08-28 中国传媒大学 一种基于质量排序网络和语义分类的图像质量评价方法
US11531840B2 (en) 2019-02-08 2022-12-20 Vizit Labs, Inc. Systems, methods, and storage media for training a model for image evaluation
US10467504B1 (en) * 2019-02-08 2019-11-05 Adhark, Inc. Systems, methods, and storage media for evaluating digital images
US11715043B2 (en) * 2019-03-01 2023-08-01 Apple Inc. Semantics preservation for machine learning models deployed as dependent on other machine learning models
US11080601B2 (en) 2019-04-03 2021-08-03 Mashtraxx Limited Method of training a neural network to reflect emotional perception and related system and method for categorizing and finding associated content
US11604818B2 (en) * 2019-05-06 2023-03-14 Apple Inc. Behavioral curation of media assets
CN110163161A (zh) * 2019-05-24 2019-08-23 西安电子科技大学 基于尺度不变的多特征融合行人检测方法
US11636117B2 (en) 2019-06-26 2023-04-25 Dallas Limetree, LLC Content selection using psychological factor vectors
US11170271B2 (en) * 2019-06-26 2021-11-09 Dallas Limetree, LLC Method and system for classifying content using scoring for identifying psychological factors employed by consumers to take action
CN110533097B (zh) * 2019-08-27 2023-01-06 腾讯科技(深圳)有限公司 一种图像清晰度识别方法、装置、电子设备及存储介质
WO2021057046A1 (en) * 2019-09-24 2021-04-01 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image hash for fast photo search
CN110889817B (zh) * 2019-11-19 2022-04-26 中国人民解放军海军工程大学 图像融合质量评价方法及装置
EP3826311A1 (en) 2019-11-22 2021-05-26 MK Systems USA Inc. Systems and methods for measuring visual quality degradation in digital content
CN112132775B (zh) * 2020-08-05 2023-10-31 浙江万里学院 一种基于Fisher编码的屏幕内容图像无参考质量评价方法
WO2022031288A1 (en) * 2020-08-06 2022-02-10 Google Llc Evaluating visual quality of digital content
GB2599441B (en) 2020-10-02 2024-02-28 Emotional Perception Ai Ltd System and method for recommending semantically relevant content
WO2022074017A1 (en) * 2020-10-05 2022-04-14 Kellify S.P.A. A computer-implemented method for estimating the popularity of an input image
CN112348809B (zh) * 2020-11-30 2023-05-23 天津大学 基于多任务深度学习的无参考屏幕内容图像质量评价方法
US11861875B2 (en) * 2021-01-29 2024-01-02 Tata Consultancy Limited Services System and method for adaptive image transformation
CN113222996A (zh) * 2021-03-03 2021-08-06 中南民族大学 心脏分割质量评估方法、装置、设备及存储介质
CN113838029B (zh) * 2021-09-24 2024-04-30 南京中赢医疗科技有限公司 医疗影像评价方法及系统
CN113936320B (zh) * 2021-10-21 2022-03-25 北京的卢深视科技有限公司 人脸图像质量评价方法、电子设备及存储介质
CN116612466B (zh) * 2023-07-20 2023-09-29 腾讯科技(深圳)有限公司 基于人工智能的内容识别方法、装置、设备及介质
CN116996680B (zh) * 2023-09-26 2023-12-12 上海视龙软件有限公司 一种用于视频数据分类模型训练的方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087442A (ja) * 2001-09-14 2003-03-20 Fuji Photo Film Co Ltd 画像評価方法および装置並びにプログラム
US20110075917A1 (en) * 2009-09-25 2011-03-31 Cerosaletti Cathleen D Estimating aesthetic quality of digital images

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5357352A (en) 1993-10-04 1994-10-18 Xerox Corporation Image-dependent color shifting of strongly color shifted images
US5414538A (en) 1993-10-07 1995-05-09 Xerox Corporation Image-dependent exposure enhancement
US5450502A (en) 1993-10-07 1995-09-12 Xerox Corporation Image-dependent luminance enhancement
US5371615A (en) 1993-10-22 1994-12-06 Xerox Corporation Image-dependent color correction using black point and white point in a natural scene pictorial image
US5347374A (en) 1993-11-05 1994-09-13 Xerox Corporation Cascaded image processing using histogram prediction
US5363209A (en) 1993-11-05 1994-11-08 Xerox Corporation Image-dependent sharpness enhancement
US5450217A (en) 1994-05-23 1995-09-12 Xerox Corporation Image-dependent color saturation correction in a natural scene pictorial image
DE19536691B4 (de) * 1995-09-30 2008-04-24 Bts Holding International B.V. Verfahren und Anordnung zur Korrektur von Bildstandsfehlern bei der fernsehmäßigen Filmabtastung
US5802214A (en) 1995-12-08 1998-09-01 Xerox Corporation Method for determining and loading an image-dependent look-up table for generating an enhanced image representation
US5862451A (en) * 1996-01-22 1999-01-19 Motorola, Inc. Channel quality management in a cable telephony system
JPH11112791A (ja) * 1997-04-10 1999-04-23 Ricoh Co Ltd 画像形成装置
DE60213016D1 (de) * 2001-03-09 2006-08-24 Vitesse Semiconductor Corp Zeitabhängige Planung für Datenpakete und Verfahren zur Sortierung
US7031534B2 (en) 2001-10-31 2006-04-18 Xerox Corporation Enhancement of compressed image data
JP4428159B2 (ja) * 2003-11-05 2010-03-10 セイコーエプソン株式会社 画像データ生成装置、画質補正装置、画像データ生成方法および画質補正方法
US20080205789A1 (en) * 2005-01-28 2008-08-28 Koninklijke Philips Electronics, N.V. Dynamic Photo Collage
US7711211B2 (en) * 2005-06-08 2010-05-04 Xerox Corporation Method for assembling a collection of digital images
US7756341B2 (en) 2005-06-30 2010-07-13 Xerox Corporation Generic visual categorization method and system
US7680341B2 (en) 2006-05-05 2010-03-16 Xerox Corporation Generic visual classification with gradient components-based dimensionality enhancement
US20070283269A1 (en) * 2006-05-31 2007-12-06 Pere Obrador Method and system for onboard camera video editing
US7885466B2 (en) 2006-09-19 2011-02-08 Xerox Corporation Bags of visual context-dependent words for generic visual categorization
US8015053B2 (en) * 2007-03-20 2011-09-06 Xerox Corporation Processor, system and method for accommodating high priority print jobs
US7933454B2 (en) 2007-06-25 2011-04-26 Xerox Corporation Class-based image enhancement system
US7885794B2 (en) 2007-11-30 2011-02-08 Xerox Corporation Object comparison, retrieval, and categorization methods and apparatuses
US8111923B2 (en) 2008-08-14 2012-02-07 Xerox Corporation System and method for object class localization and semantic class based image segmentation
US8463051B2 (en) 2008-10-16 2013-06-11 Xerox Corporation Modeling images as mixtures of image models
US8249343B2 (en) 2008-10-15 2012-08-21 Xerox Corporation Representing documents with runlength histograms
US8280828B2 (en) 2009-06-12 2012-10-02 Xerox Corporation Fast and efficient nonlinear classifier generated from a trained linear classifier
US8380647B2 (en) 2009-08-14 2013-02-19 Xerox Corporation Training a classifier by dimension-wise embedding of training data
US8379999B2 (en) * 2011-01-18 2013-02-19 Chanan Gabay Methods, circuits, devices, apparatuses and systems for providing image composition rules, analysis and improvement
US8493863B2 (en) * 2011-01-18 2013-07-23 Apple Inc. Hierarchical fabric control circuits
US8594385B2 (en) * 2011-04-19 2013-11-26 Xerox Corporation Predicting the aesthetic value of an image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087442A (ja) * 2001-09-14 2003-03-20 Fuji Photo Film Co Ltd 画像評価方法および装置並びにプログラム
US20110075917A1 (en) * 2009-09-25 2011-03-31 Cerosaletti Cathleen D Estimating aesthetic quality of digital images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154551A (ja) * 2019-03-19 2020-09-24 株式会社日立製作所 行動解析装置、及び、行動解析方法

Also Published As

Publication number Publication date
JP5782404B2 (ja) 2015-09-24
US8712157B2 (en) 2014-04-29
FR2974433A1 (fr) 2012-10-26
US20120269441A1 (en) 2012-10-25

Similar Documents

Publication Publication Date Title
JP5782404B2 (ja) 画質評価
US8594385B2 (en) Predicting the aesthetic value of an image
CN108021601B (zh) 使用数字画布来进行数字视觉媒体的空间语义搜索
Tian et al. Query-dependent aesthetic model with deep learning for photo quality assessment
US8837820B2 (en) Image selection based on photographic style
KR102004058B1 (ko) 모바일 컴퓨팅 디바이스 상에 저장된 사진들을 편성하기 위한 시스템, 방법 및 장치
US10176196B2 (en) System, method and apparatus for scene recognition
US9082047B2 (en) Learning beautiful and ugly visual attributes
Zerr et al. Privacy-aware image classification and search
EP2551792B1 (en) System and method for computing the visual profile of a place
US6748097B1 (en) Method for varying the number, size, and magnification of photographic prints based on image emphasis and appeal
JP5309155B2 (ja) イメージ検索における対話型概念学習
US20070196013A1 (en) Automatic classification of photographs and graphics
US20120294514A1 (en) Techniques to enable automated workflows for the creation of user-customized photobooks
CN111062871A (zh) 一种图像处理方法、装置、计算机设备及可读存储介质
FR2955681A1 (fr) Systeme pour navigation et exploration d'images de creation
CN103988202A (zh) 基于索引和搜索的图像吸引力
JP5018614B2 (ja) 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム
US11854119B2 (en) Automatic object re-colorization
Boato et al. Exploiting visual saliency for increasing diversity of image retrieval results
Yang et al. Learning the synthesizability of dynamic texture samples
Adly et al. Development of an Effective Bootleg Videos Retrieval System as a Part of Content-Based Video Search Engine
Xue et al. ISD-SSD: image splicing detection by using modified single shot MultiBox detector
Ge et al. A scene recognition algorithm based on covariance descriptor
Cerosaletti et al. Investigating two features of aesthetic perception in consumer photographic images: clutter and center

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150326

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150326

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150717

R150 Certificate of patent or registration of utility model

Ref document number: 5782404

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees