JP2022051008A - 情報処理装置及びプログラム - Google Patents
情報処理装置及びプログラム Download PDFInfo
- Publication number
- JP2022051008A JP2022051008A JP2020157247A JP2020157247A JP2022051008A JP 2022051008 A JP2022051008 A JP 2022051008A JP 2020157247 A JP2020157247 A JP 2020157247A JP 2020157247 A JP2020157247 A JP 2020157247A JP 2022051008 A JP2022051008 A JP 2022051008A
- Authority
- JP
- Japan
- Prior art keywords
- probability
- correction
- image data
- image processing
- correct answer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 20
- 238000012937 correction Methods 0.000 claims abstract description 252
- 238000012545 processing Methods 0.000 claims abstract description 230
- 238000000034 method Methods 0.000 description 31
- 238000009499 grossing Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 12
- 230000015654 memory Effects 0.000 description 12
- 235000012736 patent blue V Nutrition 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000002708 enhancing effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 229920006395 saturated elastomer Polymers 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20008—Globally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30144—Printing quality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Processing Of Color Television Signals (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像データを補正する画像処理を画像データに実行する場合において、常に一定の補正度合いに従って画像データを補正する場合と比べて、画像データに適合する画像処理を画像データに実行することを目的とする。【解決手段】プロセッサは、画像データに表されている対象物を推定するための学習モデルを用いて、処理対象の画像データに表されている対象物を推定し、対象物の推定の正解の確率に応じて、画像データを補正する補正処理のその補正の度合いを変えて、画像データに画像処理を実行する。【選択図】図1
Description
本発明は、情報処理装置及びプログラムに関する。
画像データを出力する場合(例えば画像データを印刷する場合)、画像データを補正する画像処理(例えばスムージングや彩度補正や肌補正等)が実行されることがある。
特許文献1には、画像データを解析し、その解析結果をホワイトバランスの補正に利用する装置が記載されている。
特許文献2には、分類対象データの信頼度である第1信頼度と、分類対象データに関連付けられたラベルの信頼度である第2信頼度とに基づいて、分類対象データとラベルとを含む学習データの信頼度である学習データ信頼度を算出し、複数の学習データと学習データ信頼度とに基づいて、分類対象データにラベル付けを行う分類モデルを構築する装置が記載されている。
特許文献3には、画像データの付帯情報に基づいて、画像を複数の小領域に分割し、分割された小領域のそれぞれについて特徴量を抽出し、抽出された特徴量に基づいて、小領域それぞれのカテゴリを判別する装置が記載されている。
ところで、より好ましい画像データ(例えば、ユーザの意図した印象に近い印象を有する画像データや、対象物が鮮明に表現される画像データ等)が出力されるように、画像データの特徴(例えば、色やシーン(例えば屋内や屋外)等)を判定し、ある一定の補正の度合いに従って、その特徴に応じた補正を画像データに実行することが考えられる。しかし、画像データが複雑な場合(例えば、複数の対象物が画像データに表されている場合や、対象物やシーンの判定が困難な場合等)、特徴の判定を誤ることがある。その場合、誤った判定に応じた補正が画像データに実行されたり、実行されるべき補正が画像データに実行されなかったりして、必ずしも、より好ましい画像データが得られるとは限らない。
本発明の目的は、画像データを補正する画像処理を画像データに実行する場合において、常に一定の補正度合いに従って画像データを補正する場合と比べて、画像データに適合する画像処理を画像データに実行することにある。
請求項1に係る発明は、プロセッサを有し、前記プロセッサは、画像データに表されている対象物を推定するための学習モデルを用いて、処理対象の画像データに表されている対象物を推定し、前記対象物の推定の正解の確率に応じて、前記画像データを補正する画像処理のその補正の度合いを変えて、前記画像データに画像処理を実行する、情報処理装置である。
請求項2に係る発明は、前記プロセッサは、正解の確率が下がるほど、補正の度合いを低くする、ことを特徴とする請求項1に記載の情報処理装置である。
請求項3に係る発明は、前記プロセッサは、前記対象物に応じて補正の度合いを変える、ことを特徴とする請求項1又は請求項2に記載の情報処理装置である。
請求項4に係る発明は、補正の度合いを決定するための調整量であって正解の確率に応じた調整量が定められており、正解の第1確率に対応する第1調整量は、前記第1確率よりも低い確率である第2確率に対応する第2調整量以上であり、前記第1確率と前記第2確率との間の確率に対応する調整量は、一定、又は、前記第1確率から前記第2確率にかけて増大し、前記プロセッサは、正解の確率に対応する調整量に基づいて決定された度合いに従って、前記画像データを補正する、ことを特徴とする請求項1に記載の情報処理装置である。
請求項5に係る発明は、前記プロセッサは、更に、前記対象物に応じて前記調整量を変える、ことを特徴とする請求項4に記載の情報処理装置である。
請求項6に係る発明は、前記プロセッサは、更に、前記対象物に応じて画像処理を変える、ことを特徴とする請求項1から請求項5のいずれか一項に記載の情報処理装置である。
請求項7に係る発明は、前記プロセッサは、更に、ユーザが補正の度合いを調整するためのユーザインターフェースを提供し、正解の確率に応じた補正の度合いを、前記ユーザインターフェースに反映させる、ことを特徴とする請求項1から請求項6のいずれか一項に記載の情報処理装置である。
請求項8に係る発明は、コンピュータが、画像データに表されている対象物を推定するための学習モデルを用いて、処理対象の画像データに表されている対象物を推定し、前記対象物の推定の正解の確率に応じて、前記画像データを補正する画像処理のその補正の度合いを変えて、前記画像データに画像処理を実行する、ように動作させるためのプログラムである。
請求項1,4,8に係る発明によれば、画像データを補正する画像処理を画像データに実行する場合において、常に一定の補正度合いに従って画像データを補正する場合と比べて、画像データに適合する画像処理が画像データに実行される。
請求項2に係る発明によれば、正解の確率に関わらず一定の度合いを用いる場合と比べて、画像データに適合する画像処理が画像データに実行される。
請求項3に係る発明によれば、対象物に関わらず一定の度合いを用いる場合と比べて、対象物に適合する画像処理が画像データに実行される。
請求項5に係る発明によれば、対象物に関わらず一定の調整量を用いる場合と比べて、対象物に適合する画像処理が画像データに実行される。
請求項6に係る発明によれば、対象物に適合する画像処理が画像データに実行される。
請求項7に係る発明によれば、正解の確率に応じた補正の度合いが反映されたユーザインターフェースがユーザに提供される。
図1を参照して、本実施形態に係る画像処理装置について説明する。図1には、本実施形態に係る画像処理装置10のハードウェアの構成の一例が示されている。
画像処理装置10は、情報処理装置の一例であり、例えば、ワークステーション、パーソナルコンピュータ(以下、「PC」と称する)、タブレットPC、スマートフォン、又は、その他の装置(例えば、プリンタや、スキャナや、これらを含む複合機等)であってもよい。また、画像処理装置10は、プリンタや複合機等の装置に組み込まれてもよい。
画像処理装置10は、例えば、インターネットやLAN(Local Area Network)等の通信経路、又は、記憶場体等を介して、画像データを受け付け、その受け付けた画像データに対して画像処理を実行し、画像処理が実行された画像データを出力する。例えば、画像処理が実行された画像データは、プリンタや複合機に出力されてプリントされてもよいし、ディスプレイに出力されて表示されてもよいし、画像処理装置10又は外部装置のメモリに記憶されてもよい。
図1に示すように、画像処理装置10は、一例として、通信装置12と、UI14と、メモリ16と、プロセッサ18とを含む。
通信装置12は、通信チップや通信回路等を有する通信インターフェースであり、他の装置に情報を送信する機能、及び、他の装置から送信されてきた情報を受信する機能を有する。通信装置12による通信は、有線通信であってもよいし、無線通信であってもよい。
UI14はユーザインターフェースであり、ディスプレイと操作装置とを含む。ディスプレイは、液晶ディスプレイやELディスプレイ等である。操作装置は、キーボードや入力キーやマウスや操作パネル等である。UI14は、ディスプレイと操作装置とを兼ね備えたタッチパネル等のUIであってもよい。
メモリ16は、各種の情報を記憶する1又は複数の記憶領域を構成する装置である。メモリ16は、例えば、ハードディスクドライブ、各種のメモリ(例えばRAMやDRAMやROM等)、その他の記憶装置(例えば光ディスク等)、又は、それらの組み合わせである。1又は複数のメモリ16が、画像処理装置10に含まれている。
プロセッサ18は、画像処理装置10の各部の動作を制御するように構成されている。プロセッサ18は、メモリを有してもよい。
例えば、プロセッサ18は、画像データに表されている対象物を推定するための学習モデルを用いて、処理対象の画像データに表されている対象物を推定し、当該対象物の推定の正解の確率に応じて、当該処理対象の画像データを補正する画像処理のその補正の度合いを変えて、当該処理対象の画像データに画像処理を実行するように構成されている。また、プロセッサ18は、推定された対象物に応じた画像処理を決定する。
以下、図2を参照して、プロセッサ18による処理について詳しく説明する。図2には、画像処理装置10の機能的な構成の一例が示されている。
画像処理装置10は、一例として、学習モデル20と、判別部22と、画像処理部24とを含む。学習モデル20を用いた処理、判別部22、及び、画像処理部24は、プロセッサ18によって実現される。その実現のためにメモリ16が用いられてもよい。
学習モデル20は、画像データに表されている対象物を推定するためのモデルであり、例えば、ディープラーニングモデル等の機械学習モデルである。もちろん、機械学習モデル以外のモデルが学習モデル20として用いられてもよい。公知の学習モデルが用いられてもよい。例えば、画像DB(データベース)26に記憶されている複数の画像データを学習することで学習モデル20が作成される。画像DB26には、対象物を推定するための学習用の複数の画像データが記憶されており、当該複数の画像データを学習することで学習モデル20が作成される。インターネット等の通信経路を介して取得された画像データが学習用の画像データとして用いられることで、学習モデル20が作成されてもよい。
判別部22は、処理対象の画像データ28を受け付け、学習モデル20を用いて、画像データ28に表されている対象物を推定するように構成されている。その推定のために人工知能(AI)が用いられてもよい。推定される対象物は、どのような物であってもよい。例えば、対象物は、人、人以外の動物、植物、又は、建物や車や植物等の物体である。また、対象物の概念の範疇に、画像データに表されているシーンが含まれてもよい。シーンは、例えば屋内や屋外や風景等である。これらの対象物が画像データ28から推定されるように、学習モデル20が作成される。処理対象の画像データ28は、例えばユーザによって指定される。もちろん、ユーザの指定によらずに、処理対象の画像データ28が選択されてもよい。
また、判別部22は、推定した対象物の推定の正解の確率を算出する。推定の正解の確率は、推定の確からしさ、つまり、推定の可能性の高さである。判別部22による処理、つまり、学習モデル20を用いて対象物を推定する処理は、公知の技術が用いられてもよい。例えば、排他予測、又は、マルチラベル予測が、対象物を推定する処理として用いられる。
排他予測は、画像データ28から推定された全対象物の正解の確率の合計が、「1.0(つまり100%)」になるように、各対象物の正解の確率を算出する予測処理である。
マルチラベル予測は、画像データ28に表されている個々の対象物毎に個別的に正解の確率を算出する予測処理であって、全対象物の正解の確率の合計が必ずしも「1.0」になるとは限らない予測処理である。マルチラベル予測においては、例えば、予め定められた確率(つまり閾値)以上の確率が得られる推定結果を、対象物の推定結果として扱ってもよい。
また、判別部22は、画像データ28から推定された対象物に応じた画像処理を決定する。画像処理は、画像データ28を補正する処理である。例えば、対象物毎に、実行される画像処理が予め定められており、対象物と当該対象物に実行される画像処理との対応付けを示す情報が、メモリ16に予め記憶されている。画像処理は、例えば、ホワイトバランス調整、コントラスト調整、シャープネス調整、スムージング処理、彩度強調、又は、対象物の色補正(例えば、肌の色補正や空の色補正等)等である。もちろん、これら以外の処理が、本実施形態に係る画像処理の概念の範疇に含まれてもよい。例えば、対象物「人」に実行される画像処理は、肌色補正やスムージング処理であり、対象物「空」に実行される画像処理は、空色補正やスムージング処理であり、対象物「金属物」に実行される画像処理は、シャープネス処理であり、対象物「食品」に実行される画像処理は、彩度補正であり、対象物「動物」に実行される画像処理は、シャープネス処理である。
画像処理部24は、処理対象の画像データ28に対して、判別部22によって決定され画像処理(つまり、画像データを補正する処理)を実行するように構成されている。例えば、画像処理部24は、画像データ28から推定された各対象物に対して、対象物に応じた画像処理を実行する。画像処理部24は、対象物の推定の正解の確率に応じて、補正の度合いを変えて、画像データを補正する画像処理を画像データ28に実行する。
補正の度合いは、補正の強度や補正量等で定められてもよい。例えば、補正の度合いは、予め定められた基準の度合い(例えば、推定の正解の確率が「1.0」のときの度合い)に、確率に応じた調整量を乗算することで得られる度合いである。その乗算は、判別部22によって行われる。
確率と調整量とが1:1の線形の関係を有している場合、調整量は確率の値そのものであり、基準の度合いに調整量を乗算することは、基準の度合いに確率の値を乗算することと等しい。例えば、対象物の推定の正解の確率が「1.0(つまり100%)」である場合、最大の度合いによって、画像データ28に表されている対象物が補正される。一方、対象物の推定の正解の確率が「0.0(つまり0%)」である場合、画像データ28に表されている対象物は補正されない。また、対象物の推定の正解の確率が「0.5(つまり50%)」である場合、最大の度合いの半分の度合いによって、画像データ28に表されている対象物が補正される。
確率と調整量とが1:1の線形の関係を有していない場合(例えば、その関係が、ステップ状の関係や曲線の関係である場合)、確率に対応する調整量が決定され、その決定された調整量が基準の度合いに乗算されることで、対象物に適用される補正の度合いが算出される。
判別部22は、画像データ28から対象物を推定する度に、その推定された対象物に適用される補正の度合いを算出してもよい。別の例として、推定の正解の確率に応じた補正の度合いが、予め定められていてもよい。この場合、判別部22は、都度、補正の度合いを算出しない。例えば、正解の確率毎の補正の度合いを表す補正曲線やフィルタ等が、予め定められてもよい。
また、画像データ28に適用される色変換処理が、画像データ28を補正する画像処理として画像データ28に実行されてもよい。色変換処理は、例えば、LUT(ルックアップテーブル)を用いて実行される。例えば、判別部22は、推定の正解の確率に応じたLUTを算出してもよいし、確率毎のLUTが予め定められてもよい。画像処理部24は、確率に応じたLUTを画像データ28に適用することで画像データ28の色変換を行ってもよい。
処理対象の画像データ28に対して画像処理部24によって画像処理が実行されることで、画像データ30が生成される。画像データ30は、例えば、プリンタや複合機に出力されてプリントされてもよいし、ディスプレイに出力されて表示されてもよいし、メモリに記憶されてもよい。
以下、図3を参照して、画像処理装置10による処理の流れの一例について説明する。図3には、その処理の流れを示すフローチャートが示されている。
まず、判別部22は、処理対象の画像データ28を受け付け、学習モデル20を用いて処理対象の画像データ28を分析する(S01)。より詳しく説明すると、判別部22は、処理対象の画像データ28に表されている各対象物を推定し、各対象物の推定の正解の確率を算出する。
判別部22は、推定された各対象物に実行される画像処理を決定する(S02)。また、判別部22は、対象物毎に、推定の正解の確率に応じた補正の度合いを決定する(S03)。ステップS02,S03の処理の順番は逆であってもよいし、同時であってもよい。
画像処理部24は、判別部22によって決定された補正の度合いに従って、判別部22によって決定された画像処理を、処理対象の画像データ28に対して実行する(S04)。つまり、画像処理部24は、対象物に応じて画像処理を変えて、処理対象の画像データ28に対して画像処理を実行する。これにより、画像データ30が生成される。
対象物毎に画像処理が定められ、推定の正解の確率に応じた度合いに従って、対象物に応じた画像処理が実行されることで、例えば、対象物がより対象物らしく表現されたり(例えば、人の肌の色がより理想的な色に近い色で表現されたり、空の色がより理想的な色に近い色で表現されたりする)、対象物がよりくっきり表現されたり、対象物がより鮮明に表現されたりする。もちろん、これらは一例に過ぎず、実行される画像処理に応じた結果が得られる。
以下、具体例を挙げて、本実施形態について更に詳しく説明する。
図4を参照して、画像データ28の推定の結果について説明する。図4には、判別部22によって画像データ28から推定されたシーンと対象物とが示されている。具体的には、シーン及び対象物のそれぞれの推定の正解の確率と、シーン又は対象物に実行される画像処理とが、図4に示されている。
屋内、空がない屋外、及び、空がある屋外のそれぞれの推定の正解の確率が、画像データ28に表されているシーンの推定の正解の確率として算出されている。シーンの推定の正解の確率は、例えば、排他予測による処理の結果である。シーン「屋内」の正解の確率は「0.0(つまり0.0%)」であり、シーン「空がない屋外」の正解の確率は「1.0(つまり100%)」であり、シーン「空がある屋外」の正解の確率は「0.0(つまり0.0%)」である。つまり、画像データ28に表されているシーンは、空がない屋外であると推定される。
シーン「屋内」に対応する画像処理は、ホワイトバランス調整である。シーン「空がない屋外」に対応する画像処理は、コントラスト調整である。シーン「空がある屋外」に対応する画像処理は、空の記憶色補正である。図4に示す例では、シーン「空がない屋外」の正解の確率が「1.0」であるため、処理対象の画像データ28に表されているシーンには、正解の確率である「1.0」に対応する補正の度合いに従って、コントラスト調整が行われる。シーン「屋内」及び「空がない屋外」のそれぞれの正解の確率が「0.0」であるため、処理対象の画像データ28には、ホワイトバランス調整と空の色補正は行われない。
また、人、光沢な物品、マットな物品、及び、食品のそれぞれの推定の正解の確率が、画像データ28に表されている対象物の推定の正解の確率として算出されている。対象物の推定の正解の確率は、例えば、マルチラベル予測による処理の結果である。対象物「人」の正解の確率は「1.0(つまり100%)」であり、対象物「光沢な物品」の正解の確率は「0.6(つまり60%)」であり、対象物「マットな物品」の正解の確率は「0.4(つまり40%)」であり、対象物「食品」の正解の確率は「0.0(つまり0.0%)」である。例えば、画像データ28には、100%の確率で「人」が表されており、60%の確率で「光沢な物品」が表されており、40%の確率で「マットな物品」が表されており、0%の確率で「食品」が表されている。
対象物「人」に対応する画像処理は、肌の記憶色補正である。対象物「光沢な物品」に対応する画像処理は、シャープネス処理である。対象物「マットな物品」に対応する画像処理は、スムージング処理である。対象物「食品」に対応する画像処理は、彩度強調である。図4に示す例では、処理対象の画像データ28に表されていると推定される対象物「人」に、正解の確率である「1.0」に対応する補正の度合いに従って、肌の記憶色補正が行われる。また、処理対象の画像データ28に表されていると推定される対象物「光沢な物品」に、正解の確率である「0.6」に対応する補正の度合いに従って、シャープネス処理が実行される。また、処理対象の画像データ28に表されていると推定される対象物「マットな物品」に、正解の確率である「0.4」に対応する補正の度合いに従って、スムージング処理が実行される。また、処理対象の画像データ28には、対象物「食品」が表されていないと推定されているため、彩度強調処理は実行されない。
以下、推定の正解の確率と、補正の度合いを決定するための調整量との関係について説明する。
図5には、推定の正解の確率と調整量との関係を表すグラフの一例が示されている。図5中のグラフの横軸は、推定の正解の確率を示しており、縦軸は調整量を示している。
図5に示す例では、推定の正解の確率と調整量は、1:1の線形の関係を有しており、正解の確率が高くなるほど、調整量が多くなる。ここでは一例として、正解の確率が「0.0」である場合、調整量は「0.0」であり、正解の確率が「1.0」である場合、調整量は「1.0」である。
対象物の正解の確率に対応する調整量が、予め定められた基準の補正の度合いに乗算されることで、当該対象物に対して実行される画像処理の補正の度合いが算出される。正解の確率が上がるほど、線形的に調整量が大きくなり、その結果、補正の度合いは高くなる。換言すると、正解の確率が下がるほど、線形的に調整量が小さくなり、その結果、補正の度合いは低くなる。
図6には、推定の正解の確率と調整量との別の関係を表すグラフが示されている。図6に示す例では、正解の確率が「0.0」~「0.4」の範囲では調整量は一定の「0.0」であり、正解の確率が「0.4」~「1.0」の範囲では、正解の確率に応じて調整量が線形的に増加する。つまり、正解の確率が「0.0」~「0.4」の範囲では、その確率を有する対象物に対して画像処理は実行されない。正解の確率が「0.4」~「1.0」の範囲では、正解の確率が上がるほど、線形的に調整量が大きくなり、その結果、補正の度合いは高くなる。また、正解の確率が「1.0」のとき調整量は「1.0」である。調整量が一定となる確率の範囲は、ユーザによって変更されてもよい。
図7には、推定の正解の確率と調整量との更に別の関係を表すグラフが示されている。図5に示す例では、調整量の最大値は「1.0」であるが、図7に示すように、調整量の最大値は、「1.0」未満の値(例えば「0.7」)であってもよい。図6に示す例においても同様である。また、調整量の最大値は、ユーザによって変更されてもよい。
図8には、推定の正解の確率と調整量との更に別の関係を表すグラフが示されている。図8に示す例では、調整量が、正解の確率が応じてステップ状に変わる。例えば、正解の確率が「0.0」~「0.4」の範囲では調整量は「0.0」であり、その確率を有する対象物に対して画像処理は実行されない。正解の確率が「0.4」~「0.7」の範囲では、調整量は一定の「0.3」であり、その確率を有する対象物に対して、その調整量に応じた補正の度合いに従って画像処理が実行される。正解の確率が「0.7」~「1.0」の範囲では、調整量は一定の「0.6」であり、その確率を有する対象物に対して、その調整量に応じた補正の度合いに従って画像処理が実行される。なお、これらの数値は一例に過ぎず、ユーザによって変更されてもよい。
図5から図8に示す例では、各グラフは線形のグラフ(つまり直線状のグラフ)であるが、各グラフは、非線形のグラフ(例えば曲線状のグラフ)であってもよいし、直線と曲線とを含むグラフであってもよい。例えば、各グラフは、下凸の形状を有しないグラフであればよい。
図5から図8に示されている関係は一例に過ぎない。例えば、正解の第1確率に対応する第1調整量が、第1確率よりも低い確率である第2確率に対応する第2調整量以上であり、第1確率と第2確率との間の確率に対応する調整量は、一定、又は、第1確率から第2確率にかけて増大してもよい。つまり、正解の確率と調整量との関係において、調整量が一定となる正解の確率の範囲が定められてもよいし、調整量が一定となる正解の確率の範囲が定められなくてもよい。また、調整量が一定となる確率の範囲が定められるか否かに関わらず、調整量は、全体として正解の確率に応じて増大する。
判別部22は、処理対象の画像データ28に表されている対象物に応じて、補正の度合いを変えてもよい。判別部22は、同じ画像処理が実行される場合であっても、対象物に応じて補正の度合いを変えてもよい。例えば、判別部22は、対象物に応じて、推定の正解の確率に応じた調整量を変える。具体例を挙げて説明すると、判別部22は、対象物「花」と対象物「食品」とで調整量を変えてもよい。例えば、図5から図8のいずれかに示されているグラフが用いられる場合において、対象物「花」の調整量の最大値が「0.9」であり、対象物「食品」の調整量の最大値が「1.0」であってもよい。対象物によって、表現されるべき色彩の強度等が異なるため、そのような条件を考慮して、対象物毎に調整量が定められてもよい。別の例として、画像データ28に表されているシーンが「昼」と「夜」とで、調整量の最大値を変えてもよい。対象物に応じて調整量を変えることで、対象物に応じて補正の度合いが変わる。画像処理として色変換処理が実行される場合、判別部22は、対象物に応じて、その色変換処理に用いられるLUTを変えてもよい。
以下、画像処理の具体例について説明する。
図9から図11を参照して、画像処理の一例であるホワイトバランス調整について説明する。図9から図11にはそれぞれ、補正前の画素値(つまり、ホワイトバランス調整が行われる前の画素値)と、補正後の画素値(つまり、ホワイトバランス調整が行われた後の画素値)とが示されている。横軸は補正前の画素値を示しており、縦軸は補正後の画素値を示している。ここでは画素値の一例として、R(赤)、G(緑)及びB(青)が用いられる。別の例として、Y(イエロー)、M(マゼンタ)、C(シアン)及びK(ブラック)等が用いられてもよい。
図9から図11のそれぞれにおいて、実線は、補正前のRの値と補正後のRの値との対応関係を示すグラフであり、点線は、補正前のGの値と補正後のGの値との対応関係を示すグラフであり、破線は、補正前のBの値と補正後のBの値との対応関係を示すグラフである。
図9には、推定の正解の確率が「1.0(つまり100%)」のときのホワイトバランス調整用のグラフが示されている。例えば、調整量は「1.0」であり、ホワイトバランス調整の基準の補正の度合いに調整量「1.0」を乗算することで、図9に示されているグラフが得られる。正解の確率が「1.0」のときの補正後のR,G,Bのそれぞれの値は、補正前のR,G,Bのそれぞれの値とは異なる値である。したがって、ホワイトバランス調整が実行されると、その実行前とは異なる画素値が得られる。図9に示されているグラフは線形のグラフ(つまり直線状のグラフ)であるが、当該グラフは、非線形のグラフ(例えば曲線状のグラフ)であってもよいし、直線と曲線とを含むグラフであってもよい。なお、図9に示されているグラフに対応するLUTが予め用意されてもよい。例えば、画像が全体的にオレンジ色である場合、ホワイトバランス調整を実行することで、R及びGの値を減らす。なお、このホワイトバランスの調整方法は一例に過ぎず、他の公知の方法が用いられてもよい。
図10には、推定の正解の確率が「0.5(つまり50%)」のときのホワイトバランス調整用のグラフが示されている。例えば、調整量は「0.5」であり、ホワイトバランス調整の基準の補正の度合いに調整量「0.5」を乗算することで、図10に示されるグラフが得られる。例えば、正解の確率が「0.5」のときのホワイトバランス調整の補正の度合いは、正解の確率が「1.0」のときのホワイトバランス調整の補正の度合いの半分である。なお、半分の値は一例に過ぎず、補正関数等を用いることで、補正の度合いを決定してもよい。正解の確率が「0.5」のときの補正後のR,G,Bのそれぞれの値は、補正前のR,G,Bのそれぞれの値とは異なる値である。したがって、ホワイトバランス調整が実行されると、その実行前とは異なる画素値が得られる。図10に示されているグラフは線形のグラフ(つまり直線状のグラフ)であるが、当該グラフは、非線形のグラフ(例えば曲線状のグラフ)であってもよいし、直線と曲線とを含むグラフであってもよい。また、図10に示されているグラフに対応するLUTが予め用意されてもよい。
図11には、推定の正解の確率が「0.0(0.0%)」のときのホワイトバランス調整用のグラフが示されている。調整量は「0.0」であり、ホワイトバランス調整の補正の度合いは「0.0」である。補正後のR,G,Bのそれぞれの値は、補正前のR,G,Bのそれぞれの値と同じ値である。つまり、正解の確率が「0.0」である対象物には、ホワイトバランス調整は実行されない。
正解の確率が上記以外の確率である場合も、その確率に応じた調整量に従って、ホワイトバランス調整用のグラフが作成される。
ホワイトバランス調整の対象となる対象物の推定の正解の確率が「1.0」である場合、画像処理部24は、図9に示されているグラフに従って、対象物に対してホワイトバランス調整を実行する。より詳しく説明すると、画像処理部24は、処理対象の画像データ28を補正前の画像データとして受け付け、その画像データ28に表されている対象物であってホワイトバランス調整の対象となる対象物のRの値(つまり補正前のRの値)を、補正前のRの値と補正後のRの値との対応関係に従って、補正後のRの値に変える。つまり、画像処理部24は、補正前のRの値を入力値として受け付け、その補正前のRの値に対応する補正後のRの値を出力値として出力する。同様に、画像処理部24は、補正前のGの値を、補正前のGの値と補正後のGの値との対応関係に従って、補正後のGに変える。つまり、画像処理部24は、補正前のGの値を入力値として受け付け、その補正前のGの値に対応する補正後のGの値を出力値として出力する。同様に、画像処理部24は、補正前のBの値を、補正前のBの値と補正後のBの値との対応関係に従って、補正後のBに変える。つまり、画像処理部24は、補正前のBの値を入力値として受け付け、その補正前のBの値に対応する補正後のBの値を出力値として出力する。画像処理部24は、補正後のR,G,Bの値を有する画像データ30を生成し、その画像データ30を出力する。
ホワイトバランス調整の対象となる対象物の推定の正解の確率が「0.5」である場合、画像処理部24は、図10に示されているグラフに従って、対象物に対してホワイトバランス調整を実行する。画像処理部24は、正解の確率が「1.0」の場合と同様に、補正前のR,G,Bのそれぞれの値を補正後のR,G,Bのそれぞれの値に変えて、補正後のR,G,Bの値を有する画像データ30を出力する。
ホワイトバランス調整の対象となる対象物の推定の正解の確率が「0.0」である場合、画像処理部24は、ホワイトバランス調整を実行しない。つまり、補正前のR,G,Bの値(つまり入力値)と、補正後のR,G,Bの値(つまり出力値)は、同じ値であり、画像処理部24は、入力値をそのまま出力値として出力する。
以下、図12を参照して、画像処理の一例であるコントラスト調整について説明する。図12には、補正前の画素値(つまり、コントラスト調整が行われる前の画素値)と、補正後の画素値(つまり、コントラスト調整が行われた後の画素値)とが示されている。横軸は補正前の画素値を示しており、縦軸は補正後の画素値を示している。ここでは画素値の一例として、R(赤)、G(緑)及びB(青)が用いられる。別の例として、Y(イエロー)、M(マゼンタ)、C(シアン)及びK(ブラック)等が用いられてもよい。
図12に示されている実線は、対象物の推定の正解の確率が「1.0(つまり100%)」のときのコントラスト調整用のグラフであって、補正前のR,G,Bのそれぞれの値と補正後のR,G,Bのそれぞれの値との対応関係を示すグラフである。例えば、調整量は「1.0」であり、コントラスト調整用の基準の補正の度合いに調整量「1.0」を乗算することで、実線で示すグラフが得られる。正解の確率が「1.0」のときのグラフは曲線状のグラフであるが、当該グラフは、線形のグラフ(つまり直線状のグラフ)であってもよいし、直線と曲線とを含むグラフであってもよい。なお、実線で示すグラフに対応するLUTが予め用意されてもよい。
図12に示されている破線は、対象物の推定の正解の確率が「0.5(つまり50%)」のときのコントラスト調整用のグラフであって、補正前のR,G,Bのそれぞれの値と補正後のR,G,Bのそれぞれの値との対応関係を示すグラフである。例えば、調整量は「0.5」であり、コントラスト調整用の基準の補正の度合いに調整量「0.5」を乗算することで、破線で示すグラフが得られる。例えば、正解の確率が「0.5」のときのコントラスト調整用の補正の度合いは、正解の確率が「1.0」のときのコントラスト調整用の補正の度合いの半分である。なお、半分の値は一例に過ぎず、補正関数等を用いることで、補正の度合いを決定してもよい。正解の確率が「0.5」のときのグラフは曲線状のグラフであるが、当該グラフは、線形のグラフ(つまり直線状のグラフ)であってもよいし、直線と曲線とを含むグラフであってもよい。また、破線で示すグラフに対応するLUTが予め用意されてもよい。
図12に示されている点線は、対象物の推定の正解の確率が「0.0(つまり0.0%)」のときのコントラスト調整用のグラフであって、補正前のR,G,Bのそれぞれの値と補正後のR,G,Bのそれぞれの値との対応関係を示すグラフである。調整量は「0.0」であり、コントラスト調整用の補正の度合いは「0.0」である。補正後のR,G,Bのそれぞれの値は、補正前のR,G,Bのそれぞれの値と同じ値である。つまり、正解の確率が「0.0」である対象物には、コントラスト調整は実行されない。
正解の確率が上記以外の確率である場合も、その確率に応じた調整量に従って、コントラスト調整用のグラフが作成される。
コントラスト調整の対象となる対象物の推定の正解の確率が「1.0」である場合、画像処理部24は、実線で示すグラフに従って、対象物に対してコントラスト調整を実行する。より詳しく説明すると、画像処理部24は、処理対象の画像データ28を補正前の画像データとして受け付け、その画像データ28に表されている対象物であってコントラスト調整の対象となる対象物のRの値(つまり補正前のRの値)を、補正前のRの値と補正後のRの値との対応関係に従って、補正後のRの値に変える。つまり、画像処理部24は、補正前のRの値を入力値として受け付け、その補正前のRの値に対応する補正後のRの値を出力値として出力する。G,Bの値についても同様である。画像処理部24は、補正後のR,G,Bの値を有する画像データ30を生成し、その画像データ30を出力する。
コントラスト調整の対象となる対象物の推定の正解の確率が「0.5」である場合、画像処理部24は、破線で示すグラフに従って、対象物に対してコントラスト調整を実行する。画像処理部24は、正解の確率が「1.0」の場合と同様に、補正前のR,G,Bのそれぞれの値を補正後のR,G,Bのそれぞれの値に変えて、補正後のR,G,Bの値を有する画像データ30を出力する。
コントラスト調整の対象となる対象物の推定の正解の確率が「0.0」である場合、画像処理部24は、コントラスト調整を実行しない。つまり、補正前のR,G,Bの値(つまり入力値)と、補正後のR,G,Bの値(つまり出力値)は、同じ値であり、画像処理部24は、入力値をそのまま出力値として出力する。
以下、図13から図15を参照して、画像処理の一例である彩度強調について説明する。図13から図14にはそれぞれ、補正前の画素値(つまり、彩度強調が行われる前の画素値)と、補正後の画素値(つまり、彩度強調が行われた後の画素値)とが示されている。横軸は補正前の画素値を示しており、縦軸は補正後の画素値を示している。ここでは画素値の一例として、R(赤)、G(緑)及びB(青)が用いられる。別の例として、Y(イエロー)、M(マゼンタ)、C(シアン)及びK(ブラック)等が用いられてもよい。
図13には、対象物の推定の正解の確率が「1.0(つまり100%)」のときの彩度強調用のグラフであって、補正前のR,G,Bのそれぞれの値と補正後のR,G,Bのそれぞれの値との対応関係を示すグラフが示されている。例えば、調整量は「1.0」であり、彩度強調の基準の補正の度合いに調整量「1.0」を乗算することで、図13に示されているグラフが得られる。図13に示されているグラフは、線形のグラフ(つまり直線状のグラフ)である。ここで、補正前の画素値を規定する横軸を基準とし、その横軸に対するグラフの傾きをθと定義すると、正解の確率が「1.0」のときのグラフの傾きは「θ1」である。傾きθ1は45度ではない。そのため、補正後のR,G,Bのそれぞれの値は、補正前のR,G,Bのそれぞれの値と異なる値になる。なお、当該グラフは、非線形のグラフ(例えば曲線状のグラフ)であってもよいし、直線と曲線とを含むグラフであってもよい。また、図13に示されているグラフに対応するLUTが予め用意されてもよい。
図14には、対象物の推定の正解の確率が「0.5(つまり50%)」のときの彩度強調用のグラフであって、補正前のR,G,Bのそれぞれの値と補正後のR,G,Bのそれぞれの値との対応関係を示すグラフが示されている。例えば、調整量は「0.5」であり、彩度強調の基準の補正の度合いに調整量「0.5」を乗算することで、図14に示されているグラフが得られる。図14に示されているグラフは、線形のグラフ(つまり直線状のグラフ)である。正解の確率が「0.5」のときのグラフの傾きは「θ2」である。例えば、傾きθ2は、正解の確率が「1.0」のときの傾きθ1の半分の傾きである。傾きθ2は45度でない。そのため、補正後のR,G,Bのそれぞれの値は、補正前のR,G,Bのそれぞれの値と異なる値となる。なお、当該グラフは、非線形のグラフ(例えば曲線状のグラフ)であってもよいし、直線と曲線とを含むグラフであってもよい。また、図14に示されているグラフに対応するLUTが予め用意されてもよい。
図15には、対象物の推定の正解の確率が「0.0(つまり0.0%)」のときの彩度強調用のグラフであって、補正前のR,G,Bのそれぞれの値と補正後のR,G,Bのそれぞれの値との対応関係を示すグラフが示されている。調整量は「0.0」であり、彩度強調の補正の度合いは「0.0」である。正解の確率が「0.0」のときのグラフの傾きθ3は、45度である。したがって、補正後のR,G,Bのそれぞれの値は、補正前のR,G,Bのそれぞれの値と同じである。つまり、正解の確率が「0.0」である対象物には、彩度強調は実行されない。
正解の確率が上記以外の確率である場合も、その確率に応じた調整量に従って、彩度強調用のグラフが作成される。
彩度強調の対象となる対象物の推定の正解の確率が「1.0」である場合、画像処理部24は、図13に示されているグラフに従って、対象物に対して彩度強調を実行する。より詳しく説明すると、画像処理部24は、処理対象の画像データ28を補正前の画像データとして受け付け、その画像データ28に表されている対象物であって彩度強調の対象となる対象物のRの値(つまり補正前のRの値)を、補正前のRの値と補正後のRの値との対応関係に従って、補正後のRの値に変える。つまり、画像処理部24は、補正前のRの値を入力値として受け付け、その補正前のRの値に対応する補正後のRの値を出力値として出力する。G,Bの値についても同様である。画像処理部24は、補正後のR,G,Bの値を有する画像データ30を生成し、その画像データ30を出力する。
彩度強調の対象となる対象物の推定の正解の確率が「0.5」である場合、画像処理部24は、図14に示されているグラフに従って、対象物に対して彩度強調を実行する。画像処理部24は、正解の確率が「1.0」の場合と同様に、補正前のR,G,Bのそれぞれの値を補正後のR,G,Bのそれぞれの値に変えて、補正後のR,G,Bの値を有する画像データ30を出力する。
彩度強調の対象となる対象物の推定の正解の確率が「0.0」である場合、画像処理部24は、彩度強調を実行しない。つまり、補正前のR,G,Bの値(つまり入力値)と、補正後のR,G,Bの値(つまり出力値)は、同じ値であり、画像処理部24は、入力値をそのまま出力値として出力する。
以下、図16を参照して、画像処理の一例である色補正について説明する。ここでは一例として、肌色補正について説明する。図16には、画素値によって規定される色空間の一例が示されている。ここでは画素値の一例として、R(赤)、G(緑)及びB(青)が用いられており、図16には、R,G,Bによって形成される3次元の色空間が示されている。別の例として、Y(イエロー)、M(マゼンタ)、C(シアン)及びK(ブラック)等が画素値として用いられてもよい。
符号32が指し示す画素値(R1,G1,B1)は、処理対象の画像データ28に表されている対象物の画素値であって、肌色補正の対象となる対象物(例えば人の顔)の画素値である。つまり、画素値(R1,G1,B1)は、肌色補正が実行される前の肌の画素値である。
符号34が指し示す画素値(R2,G2,B2)は、理想的な肌の色を表現するための画素値であって、肌色補正が実行された後の肌の画素値である。理想的な肌の色、及び、その色を表現するための画素値は、予め定められている。
符号36が指し示す補正量ベクトル(dR,dG,dB)は、補正前の画素値(R1,G1,B1)を、理想的な画素値である補正後の画素値(R2,G2,B2)に変換するためのベクトルである。
肌色補正の対象となる対象物の推定の正解の確率が「1.0(つまり100%)」である場合、画像処理部24は、符号36が指し示す補正量ベクトル(dR,dG,dB)に従って、対象物に対して肌色補正を実行する。
肌色補正の対象となる対象物の推定の正解の確率が「0.5(つまり50%)」である場合、画像処理部24は、符号36が指し示す補正量ベクトル(dR,dG,dB)に「0.5」を乗算することで得られる補正量ベクトルに従って、対象物に対して肌色補正を実行する。
肌色補正の対象となる対象物の推定の正解の確率が「0.0(つまり0.0%)」である場合、画像処理部24は、肌色補正を実行しない。
正解の確率が上記以外の確率である場合も、その確率に応じた調整量に従って、補正量ベクトルが算出される。
例えば、対象物が「人」であると推定された場合、その推定の正解の確率が「0.5」であれば、確率が「1.0」のときよりも程度の低い度合いに従って、その対象物の色が肌色補正される。その対象物が「人」である場合、肌色補正を全く行わない場合と比べて、その対象物の色が、より肌色に近い色で表現される。確率が「1.0」のときの度合いと比べると肌色補正の程度は弱くなるが、肌色補正を全く行わない場合と比べて、より肌色に近い色で対象物が表現される。仮に、その対象物が「人」ではない場合、肌色補正を行うべきではない対象物に対して肌色補正を行うことになるが、確率が「1.0」のときの度合いに従って肌色補正が行われる場合と比べて、画像処理の不適切さが低減される。このように、正解の確率に応じて補正の度合いを変えることで、肌色補正を行うときには確率が「1.0」のときの度合いに従って肌色補正を行う、又は、肌色補正を全く行わない、といった処理と比べて、対象物をより適切に表現する画像データが生成され得る。
上記の例では、肌色補正について説明したが、空色補正についても同様に実行されてもよい。この場合、符号32が指し示す画素値(R1,G1,B1)は、画像データ28に表されている対象物の画素値であって、空色補正の対象となる対象物(例えば空)の画素値である。符号34が指し示す画素値(R2,G2,B2)は、理想的な空の色を表現するための画素値である。理想的な空の色、及び、その色を表現するための画素値は、予め定められている。画像処理部24は、肌色補正と同様に、空色補正の対象となる対象物の推定の正解の確率に応じた補正量ベクトルに従って、対象物に対して空色補正を実行する。
上述したホワイトバランス調整、コントラスト調整、彩度強調、及び、色補正は、画像処理の一例に過ぎない。これら以外の画像処理として、例えば、シャープネス処理やスムージング処理が、処理対象の画像データ28に対して実行されてもよい。
例えば、理想的なシャープネス処理を実行するためのシャープネスフィルタや、理想的なスムージング処理を実行するためのスムージングフィルタが作成される。
シャープネス処理の対象となる対象物の推定の正解の確率が「1.0(つまり100%)」である場合、画像処理部24は、理想的なシャープネスフィルタを対象物に適用する。シャープネス処理の対象となる対象物の推定の正解の確率が「0.5(つまり50%)」である場合、画像処理部24は、理想的なシャープネスフィルタに調整量「0.5」を乗算することで得られるフィルタを対象物に適用する。シャープネス処理の対象となる対象物の推定の正解の確率が「0.0(つまり0.0%)」である場合、画像処理部24は、シャープネス処理を実行しない。
スムージング処理についても同様である。つまり、画像処理部24は、スムージング処理の対象となる対象物の推定の正解の確率が「1.0」である場合、理想的なスムージングフィルタを対象物に適用し、その確率が「0.5」である場合、理想的なスムージングフィルタに調整量「0.5」を乗算することで得られるフィルタを対象物に適用し、その確率が「0.0」である場合、スムージング処理を実行しない。確率がこれら以外の値の場合も同様である。
以下、図17から図22を参照して、本実施形態にて提供されるユーザインターフェースについて説明する。図17から図22には、ユーザインターフェースの一例である画面が示されている。
プロセッサ18は、ユーザが補正の度合いを調整するためのユーザインターフェース(例えば画面)を提供する。当該ユーザインターフェースは、例えば、画像処理装置10のディスプレイに表示される。当該ユーザインターフェースのデータが、画像処理装置10からユーザが利用する端末装置(例えばPC)に送信され、当該ユーザインターフェースが、当該端末装置のディスプレイに表示されてもよい。プロセッサ18は、更に、対象物の正解の確率に応じた補正の度合いを、当該ユーザインターフェースに反映させてもよい。
図17に示されている画面38は、画像処理装置10が処理対象の画像データ28を受け付ける前の状態を表す画面であり、ディスプレイに表示される。
画面38には表示領域40が設けられている。画像処理装置10が処理対象の画像データ28を受け付けると、その画像データ28に基づく画像が、表示領域40に表示される。
また、画面38には、ボタン42,44,46,48が表示されている。
ボタン42は、画像データ28の読み込みを指示するためのボタンである。ユーザによってボタン42が押されると、画像処理装置10は、処理対象の画像データ28を読み込む。その画像データ28に基づく画像が、表示領域40に表示される。
ボタン44は、画像変換の実施(つまり、上述した画像処理の実行)を指示するためのボタンである。ユーザによってボタン44が押されると、画像処理装置10は、処理対象の画像データ28に対して、上述した画像処理を実行する。
ボタン46は、画面38上で設定された画像処理の条件をリセットするためのボタンである。ボタン48は、画面38上で設定された画像処理の条件を保存するためのボタンである。画像処理の条件は、例えば、画像処理を実行するか否かについての条件と、補正の度合いとを含む。ユーザによってボタン46が押されると、画面38上で設定された画像処理の条件がリセットされる。ユーザによってボタン48が押されると、画面38上で設定された画像処理の条件が保存される。
また、画面38には、画像処理の度合いを設定する項目50,52,54,56が表示されている。項目50は、スムージング処理の度合いを設定する項目である。項目52は、シャープネス処理の度合いを設定する項目である。項目54は、肌色補正の度合いを設定する項目である。項目56は、空色補正の度合いを設定するための項目である。例えば、ユーザによって、各画像処理の度合いが設定される。各項目は、画像処理を実行するか否かを指示するためのチェックボックスと、補正の度合いを設定するための設定バーとを含む。
画像処理装置10によって画像データ28が読み込まれていない場合、プロセッサ18は、例えば、ボタン42を操作の対象として表示し、ボタン42以外のボタン及び項目を、操作できない対象として表示する。例えば、プロセッサ18は、ボタン42以外のボタン及び項目をグレーアウトで表示し、ボタン42をグレーアウトではなく、操作できる通常の表示形態で表示する。図17には、その様子が示されている。プロセッサ18は、ボタン42に対する押下を受け付けるが、ボタン42以外のボタンに対する押下、及び、各項目の設定を受け付けない。なお、プロセッサ18は、ボタン42以外のボタン及び項目を画面38上に表示しなくてもよい。
ユーザがボタン42を押すと、プロセッサ18は、処理対象の画像データ28を読み込む。例えば、原稿がスキャンされることで画像データ28が生成され、プロセッサ18は、そのスキャンによって生成された画像データ28を受け付けてもよい。別の例として、プロセッサ18は、インターネット等の通信経路、又は、記憶媒体を介して、処理対象の画像データ28を受け付けてもよい。
画像処理装置10によって画像データ28が読み込まれると、図18に示すように、その画像データ28に基づく画像58が画面38に表示される。ここでは一例として、画像58には、人及びその他の物体が表されており、画像58に表されているシーンは、空のない屋外である。この段階で表示されている画像58は、画像処理が実行される前の画像である。
画像データ28が画像処理装置10によって読み込まれた後であり、かつ、画像処理が実行される前においては、プロセッサ18は、ボタン42,44を操作の対象として表示し、ボタン42,44以外のボタンを、操作できない対象として表示する。例えば、プロセッサ18は、ボタン42,44以外のボタンをグレーアウトで表示し、ボタン42,44をグレーアウトではなく、操作できる通常の表示形態で表示する。
また、プロセッサ18は、項目50,52,54,56のそれぞれについて、各項目の画像処理を実行するか否かを指示するためのチェックボックスを操作の対象として表示し、補正の度合いを設定するための設定バーを、操作できない対象として表示する。例えば、プロセッサ18は、設定バーをグレーアウトで表示し、チェックボックスをグレーアウトではなく、操作できる通常の表示形態で表示する。図18に示す例では、各項目のチェックボックスにて、「画像処理を実行しない」という内容が指定されている。
図18に示されている画面38上において、ユーザによってボタン44が押されることで、画像処理の実行が指示された場合、プロセッサ18は、処理対象の画像データ28に対して画像処理を実行することで、画像処理が実行された後の(つまり補正された後の)画像データ30を生成する。
図19に示すように、画像処理が実行された後の画像データ30に基づく画像60が、表示領域40に表示される。
プロセッサ18は、画像データ28を受け付けた後、上述した判別部22による処理を実行する。つまり、プロセッサ18は、画像データ28に表されている各対象物を推定し、その推定の正解の確率を算出する。更に、プロセッサ18は、推定された対象物に対応する画像処理を決定し、正解の確率に応じた調整量を特定し、その特定された調整量に基づいて補正の度合いを算出する。なお、上述したように、正解の確率に応じた補正の度合いが予め定められてもよい。判別部22による処理は、プロセッサ18が画像データ28を受け付けた後、ボタン44が押される前に実行されてもよいし、ボタン44が押された後に実行されてもよい。
更に、プロセッサ18は、上述した画像処理部24による処理を実行する。つまり、プロセッサ18は、画像データ28に表されている対象物毎に、対象物の推定の正解の確率に応じた補正の度合いに従って、当該対象物に対応する画像処理を、当該対象物に対して実行する。その結果、画像データ30が生成され、その画像データ30に基づく画像60が、表示領域40に表示される。
画像処理が実行された後、プロセッサ18は、ボタン42,44,46,48を操作の対象として表示する。例えば、プロセッサ18は、ボタン42,44,46,48をグレーアウトではなく、操作できる通常の表示形態で表示する。
また、プロセッサ18は、判別部22による処理の結果を、ユーザインターフェースである画面38に反映させる。例えば、プロセッサ18は、画像処理の実行の有無、及び、補正の度合いを、画面38に反映させる。
図19に示す例では、判別部22によって、スムージング処理及び空色補正を実行しないと判定されている。つまり、スムージング処理の対象となる対象物の推定の正解の確率が「0.0%」であり、同様に、空色補正の対象となる対象物の推定の正解の確率が「0.0%」であると判定されている。換言すると、処理対象の画像データ28には、スムージング処理の対象となる対象物が表されていないと推定されており、同様に、空色補正の対象となる対象物(例えば空)が表されていないと推定されている。この場合、スムージング処理及び空色補正のそれぞれのチェックボックスにて、「画像処理を実行しない」とう内容が自動的に選択される。また、プロセッサ18は、スムージング処理及び空色補正のそれぞれの設定バーを、操作できない対象として表示する(例えばグレーアウトで表示する)。
また、判別部22によって、シャープネス処理及び肌色補正を実行すると判定されている。つまり、シャープネス処理の対象となる対象物の推定の正解の確率が、「0.0%」を超える値であり、同様に、肌色補正の対象となる対象物の推定の正解の確率が、「0.0%」を超える値であると判定されている。換言すると、処理対象の画像データ28には、シャープネス処理の対象となる対象物が表されていると推定されており、同様に、肌色補正の対象となる対象物が表されていると推定されている。この場合、シャープネス処理及び肌色補正のそれぞれのチェックボックスにて、「画像処理を実行する」という内容が自動的に選択される。
また、プロセッサ18は、シャープネス処理及び肌色補正のそれぞれの設定バーを、操作の対象として表示する。つまり、プロセッサ18は、シャープネス処理及び肌色補正のそれぞれの設定バーをグレーアウトで表示せずに、操作できる通常の表示形態で表示する。
また、プロセッサ18は、判別部22によって決定された、シャープネス処理及び肌色補正のそれぞれの補正の度合いを、それぞれの設定バーに反映させる。補正の度合いが高いほど、設定バー上にて、より「強い」側の設定が選択される。例えば、シャープネス処理の補正の度合いは低いため、その設定バー上にて、より「弱い」側の設定が選択されている。また、肌色補正の度合いは高いため、その設定バー上にて、より「強い」側の設定が選択されている。
例えば、画像データ28には、人と車が対象物として表されていると推定されている。対象物「人」に対応する画像処理は肌色補正であり、対象物「車」に対応する画像処理はシャープネス処理である。また、対象物「人」の正解の確率は高い。それ故、肌色補正の度合いが高く設定される。対象物「車」の正解の確率は低い。それ故、シャープネス処理の補正の度合いが低く設定される。このような設定が、画面38上の各項目に反映される。画像処理部24は、この設定に従って、処理対象の画像データ28に対して、シャープネス処理と肌色補正を実行する。
なお、図19に示されている画面38上にて、ユーザが、スムージング処理のチェックボックスを操作することで、スムージング処理の実行を指示し、スムージング処理用の設定バーによって、補正の度合いを設定した場合、画像処理部24は、その設定に従って、処理対象の画像データ28に対してスムージング処理を実行する。
図19に示されている画面38上にて、ユーザが、リセットのボタン46を押すと、画面38は、図18に示されている画面38に戻る。また、ボタン44,46が、画像処理の実行の有無を指示するためのボタンとして用いられてもよい。
図19に示されている画面38上にて、シャープネス処理の補正の度合い、及び、肌色補正の度合いが、ユーザによって変更されてもよい。図20には、補正の度合いがユーザによって変更された後の状態が示されている。ここでは一例として、シャープネス処理及び肌色補正の両方の度合いが、より「強い」側に設定されている。
図20に示すように、ユーザによって補正の度合いが変更されると、プロセッサ18は、その変更後の度合いに従って、処理対象の画像データ28に対してシャープネス処理及び肌色補正を実行し、補正後の画像データ30を生成する。その画像データ30に基づく画像60が、表示領域40に表示される。このとき表示される画像60は、ユーザによって指定された補正の度合いが反映された画像である。
また、図21に示すように、プロセッサ18は、補正前の画像58と補正後の画像60とを並べて画面38上に表示してもよい。画面38には、補正前の画像が表示される表示領域40Aと、補正後の画像が表示される表示領域40Bとが、並べて設けられる。補正前の画像58は表示領域40Aに表示され、補正後の画像60は表示領域40Bに表示される。このように、画像58,60を見比べることができるように、画像58,60を並べて表示してもよい。
処理対象の画像データ28は、複数のページを含む画像データであってもよい。この場合、画面38上には、当該複数のページの全部又は一部のページの画像が表示される。以下、図22を参照して、この処理について説明する。
図22に示すように、画面38上には、表示領域40Aと表示領域40Bとが設定されている。表示領域40Aには、補正前の画像データ28に含まれる各ページの画像(例えば、画像58A,58B)が表示される。表示領域40Bには、補正後の画像データ30に含まれる各ページの画像(例えば、画像60A,60B)が表示される。表示領域40A,40Bには、全ページの画像が表示されてもよいし、一部のページの画像が表示されてもよい。
補正後の画像60Aは、補正前の画像58Aに対して、判別部22によって決定された画像処理を実行することで生成された画像である。補正後の画像62Aは、補正前の画像58Bに対して、判別部22によって判定された画像処理を実行することで生成された画像である。
また、ユーザが画面38上で補正後の画像を指定すると、プロセッサ18は、その補正後の画像を生成するために補正前の画像に対して実行された画像処理と、そのときの補正の度合いとを、画面38に反映させる。
例えば、符号62が指し示すように、補正後の画像60Aがユーザによって指定されている。この場合、プロセッサ18は、補正前の画像58Aに対して実行された画像処理と、そのときの補正の度合いとを、画面38に反映させる。例えば、シャープネス処理と肌色補正が実行されている。シャープネス処理の補正の度合いが、項目52の設定バーに反映され、肌色補正の度合いが、項目54の設定バーに反映される。
上記各実施形態において、プロセッサとは広義的なプロセッサを指し、汎用的なプロセッサ(例えばCPU: Central Processing Unit、等)や、専用のプロセッサ(例えばGPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。また上記各実施形態におけるプロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は上記各実施形態において記載した順序のみに限定されるものではなく、適宜変更してもよい。
10 画像処理装置、18 プロセッサ、20 学習モデル、22 判定部、24 画像処理部。
Claims (8)
- プロセッサを有し、
前記プロセッサは、
画像データに表されている対象物を推定するための学習モデルを用いて、処理対象の画像データに表されている対象物を推定し、
前記対象物の推定の正解の確率に応じて、前記画像データを補正する画像処理のその補正の度合いを変えて、前記画像データに画像処理を実行する、
情報処理装置。 - 前記プロセッサは、
正解の確率が下がるほど、補正の度合いを低くする、
ことを特徴とする請求項1に記載の情報処理装置。 - 前記プロセッサは、
前記対象物に応じて補正の度合いを変える、
ことを特徴とする請求項1又は請求項2に記載の情報処理装置。 - 補正の度合いを決定するための調整量であって正解の確率に応じた調整量が定められており、
正解の第1確率に対応する第1調整量は、前記第1確率よりも低い確率である第2確率に対応する第2調整量以上であり、前記第1確率と前記第2確率との間の確率に対応する調整量は、一定、又は、前記第1確率から前記第2確率にかけて増大し、
前記プロセッサは、
正解の確率に対応する調整量に基づいて決定された度合いに従って、前記画像データを補正する、
ことを特徴とする請求項1に記載の情報処理装置。 - 前記プロセッサは、更に、
前記対象物に応じて前記調整量を変える、
ことを特徴とする請求項4に記載の情報処理装置。 - 前記プロセッサは、更に、
前記対象物に応じて画像処理を変える、
ことを特徴とする請求項1から請求項5のいずれか一項に記載の情報処理装置。 - 前記プロセッサは、更に、
ユーザが補正の度合いを調整するためのユーザインターフェースを提供し、
正解の確率に応じた補正の度合いを、前記ユーザインターフェースに反映させる、
ことを特徴とする請求項1から請求項6のいずれか一項に記載の情報処理装置。 - コンピュータが、
画像データに表されている対象物を推定するための学習モデルを用いて、処理対象の画像データに表されている対象物を推定し、
前記対象物の推定の正解の確率に応じて、前記画像データを補正する画像処理のその補正の度合いを変えて、前記画像データに画像処理を実行する、
ように動作させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020157247A JP2022051008A (ja) | 2020-09-18 | 2020-09-18 | 情報処理装置及びプログラム |
US17/224,128 US11669591B2 (en) | 2020-09-18 | 2021-04-07 | Information processing apparatus and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020157247A JP2022051008A (ja) | 2020-09-18 | 2020-09-18 | 情報処理装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022051008A true JP2022051008A (ja) | 2022-03-31 |
Family
ID=80741630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020157247A Pending JP2022051008A (ja) | 2020-09-18 | 2020-09-18 | 情報処理装置及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11669591B2 (ja) |
JP (1) | JP2022051008A (ja) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5846356B2 (ja) | 2011-07-12 | 2016-01-20 | 富士ゼロックス株式会社 | 白色調整装置及び白色調整プログラム |
US9165190B2 (en) * | 2012-09-12 | 2015-10-20 | Avigilon Fortress Corporation | 3D human pose and shape modeling |
JP6639113B2 (ja) | 2015-06-05 | 2020-02-05 | キヤノン株式会社 | 画像認識装置、画像認識方法及びプログラム |
US10607321B2 (en) * | 2016-06-22 | 2020-03-31 | Intel Corporation | Adaptive sharpness enhancement control |
JP7027070B2 (ja) | 2017-08-31 | 2022-03-01 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
KR102644126B1 (ko) * | 2018-11-16 | 2024-03-07 | 삼성전자주식회사 | 영상 처리 장치 및 그 동작 방법 |
US11895409B2 (en) * | 2020-08-20 | 2024-02-06 | Qualcomm Incorporated | Image processing based on object categorization |
-
2020
- 2020-09-18 JP JP2020157247A patent/JP2022051008A/ja active Pending
-
2021
- 2021-04-07 US US17/224,128 patent/US11669591B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20220092363A1 (en) | 2022-03-24 |
US11669591B2 (en) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8929681B2 (en) | Image processing apparatus and image processing method | |
JP5205968B2 (ja) | 階調補正方法、階調補正装置、階調補正プログラム及び画像機器 | |
US20070036429A1 (en) | Method, apparatus, and program for object detection in digital image | |
US8649625B2 (en) | Method, device and program for measuring image quality adjusting ability, and method, device and program for adjusting image quality | |
US20080240605A1 (en) | Image Processing Apparatus, Image Processing Method, and Image Processing Program | |
JP2004320701A (ja) | 画像処理装置、画像処理プログラムおよび記憶媒体 | |
US8319853B2 (en) | Image processing apparatus, image processing method, and computer program | |
US10580122B2 (en) | Method and system for image enhancement | |
JP2000123164A (ja) | 画像処理装置及びその方法 | |
JP4208396B2 (ja) | 画像処理方法、装置および記録媒体 | |
US20130004070A1 (en) | Skin Color Detection And Adjustment In An Image | |
US6642930B1 (en) | Image processing apparatus, method and computer-readable memory | |
CN114187222A (zh) | 一种低照度图像的增强方法、系统及可存储介质 | |
US8351724B2 (en) | Blue sky color detection technique | |
JP2022051008A (ja) | 情報処理装置及びプログラム | |
TWI707307B (zh) | 影像調整方法 | |
US9852531B2 (en) | Electronic apparatus and method for controlling the same | |
US20050163371A1 (en) | Controlled moving window adaptive histogram equalization | |
JP6486082B2 (ja) | 画像処理装置及び画像処理方法、プログラム | |
US11032446B2 (en) | Image processing device, image processing method, and program for correcting color in an image | |
US10750055B2 (en) | Image processing apparatus with color conversion for reduced consumption of color materials, image processing method, and storage medium | |
US20160247049A1 (en) | Monochrome Profile Generation Mechanism | |
JP2000032287A (ja) | 画像処理装置及び画像処理方法 | |
JP6375778B2 (ja) | 画像処理方法および画像処理装置 | |
CN111200699B (zh) | 影像调整方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230830 |