JP2014164656A - 画像処理方法およびプログラム - Google Patents

画像処理方法およびプログラム Download PDF

Info

Publication number
JP2014164656A
JP2014164656A JP2013036993A JP2013036993A JP2014164656A JP 2014164656 A JP2014164656 A JP 2014164656A JP 2013036993 A JP2013036993 A JP 2013036993A JP 2013036993 A JP2013036993 A JP 2013036993A JP 2014164656 A JP2014164656 A JP 2014164656A
Authority
JP
Japan
Prior art keywords
model
image
input image
color
gmm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013036993A
Other languages
English (en)
Inventor
Takeshi Suzuki
剛 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013036993A priority Critical patent/JP2014164656A/ja
Priority to US14/190,544 priority patent/US9305359B2/en
Publication of JP2014164656A publication Critical patent/JP2014164656A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

【課題】入力画像から特定領域を高精度に抽出する。
【解決手段】前処理部1は、原画像とマスク画像に解像度変換を施し、原画像のみにノイズ除去と色空間変換を行う。確率モデル計算部2は、色変換後の原画像の内、マスク画像を通過した領域の画素情報から確率密度を計算し、確率密度分布モデルを作成し、モデルリポジトリ3に登録する。顔認識部5は、入力画像から顔領域を認識し、計算部2は、顔領域の画素情報から確率密度を計算し、確率密度分布モデルを作成し、登録されているモデルと比較し、領域分割部6は、最も類似しているモデルを用いて入力画像を分割し、特定領域を抽出する。
【選択図】図3

Description

本発明は、特定領域を抽出する画像処理方法およびプログラムに関する。
従来の肌領域抽出方法は、多数の人の肌領域の色情報を利用して学習したモデルを利用した方法が一般的である。このような例としては、例えば、非特許文献1、2がある。
これらの方法はいずれも特定の色空間における一定の範囲を肌色の領域と定め、これをモデルとして入力画像を分割するため、モデル作成時に様々な照明条件、人種、個体差などが誤差として入り込んでしまうため、高い精度が期待できない。
これに対して、複数のモデルを予め用意し、入力に対して適当に切り替えることで対応する方法として、非特許文献3などがある。この手法では、一般化肌色モデルを用いて入力データを分類し、適応的モデルを後段で用いることで2段階のフィルタリングを行い、精度を高めている。この方法はあくまでも画素の色情報のみに基づいて処理が行われるため、真の肌領域かどうかの判断は色情報に基づいて行われる。つまり肌と同じ色が、肌以外の領域にあった場合にもサンプルデータとして利用されてしまうため、後段の適応的モデルの学習にノイズが混入することが避けられず、結果として精度が低下する。
他の方法としては、例えば非特許文献4のように、肌領域を色以外の情報で同定し、その情報を用いて適応的処理を行う手法がある。この例では、一般化肌色モデルを用いて追跡領域を決め、その動きを基に局所的なフィルタを作成し、これにより最終的な領域抽出を行う。これは、例えばビデオのような動物体がヒトである場合には有効だが、静止画像や一般的な画像系列では利用できない。また、ビデオ情報であったとしても、最終的な領域分割手段が適応的な色相の閾値処理だけであるため、十分な精度が出ない。
上記したように、従来の技術では、照明条件、ヒトの個体差などにより大きく変動する肌色領域などの特定領域を安定して抽出できない。
本発明は上記した課題に鑑みてなされたもので、
本発明の目的は、入力画像から特定領域を高精度に抽出する画像処理方法およびプログラムを提供することにある。
本発明は、特定の特徴を持つ画素を抽出する画像処理方法において、所定の入力画像から色以外の画像特徴を基に、特定の特徴を持つ画素が属する物体の画素群を抽出する第1のステップと、前記画素群から主要色を抽出する第2のステップと、前記抽出された主要色を用いて、予め学習された複数の色分布モデルを保持するリポジトリを検索し、前記抽出された主要色と前記リポジトリに保持された色分布モデルとの間の距離指標が最も近い色分布モデルを特定する第3のステップと、前記特定された色分布モデルを用いて、前記入力画像の画素を判別し、領域を分割する第4のステップを含むことを最も主要な特徴とする。
本発明によれば、入力画像から特定領域を高精度に抽出することができる。
本発明の概要を説明する図である。 本発明のシステム構成を示す。 本発明の画像処理方法を実施するための機能構成を示す。 本発明の学習段階における、単一画像のGMM作成のフローチャートを示す。 入力画像、マスク画像を示す。 3次元特徴空間における肌画素の確率密度分布の例、分布をGMMによりモデル化した例を示す。 本発明の学習段階における、複数画像のGMM作成のフローチャートを示す。 本発明の認識段階のフローチャートを示す。 本発明の顔認識失敗時、コンポーネント閾値処理失敗時のフローチャートを示す。 モデル整形前の確率密度分布モデルの例、整形後の確率密度分布モデルの例を示す。 モデル比較処理のフローチャートに示す。 モデル整形処理のフローチャートに示す。 肌領域抽出結果を示す。
以下、発明の実施の形態について図面により詳細に説明する。
本発明の基本となる考え方は、以下の通りである。本発明では、肌、空、植生などの特定の色(記憶色)を持つ画像中の領域を切りだす手段を提供する。特に肌については、被写体に特化した画像補正を行う上で重要な領域である。人肌は、色などの領域の情報、顔などの物体としての認識、エッジ量などで表される肌の肌理の情報など、複数の情報が利用できるため高い精度が期待される。しかし、画像中の肌領域は、照明条件、人種、個人差などの変動により、特徴空間を工夫しても、実際には肌以外の領域と正確に切り分けることが難しい。
上記の変動を除いた特徴を、任意の入力画像から抽出できれば高い精度が期待できるが、オートホワイトバランスで補正できる照明条件には限界がある。また、人種や個人差による肌画像情報の変動は大きく、これを1つのモデルとして吸収することは極めて困難である。
図1は、本発明の概要を説明する図である。本発明では、学習段階において、様々な環境、人種、個人の肌領域から肌領域画像情報を予め取得し、これらをそれぞれにモデル化する。認識段階において、新たな入力画像が与えられた場合、該入力画像から顔領域を抽出し、この抽出範囲の主要色から、これに対応する距離指標が最も近いモデルを類推する。当該モデルを用いて入力画像全体を分割することで、特定の条件(照明条件、人種、個人など)で作成された肌領域画像情報モデルを利用し、高い精度で入力画像から肌領域を抽出することができる。入力画像から顔領域が抽出できなかった場合には、予め学習しておいた一般化肌モデルを用いて肌領域を抽出する。
図2は、本発明のシステム構成を示す。本発明のシステムは、一般的なパーソナルコンピュータ(PC)上のソフトウェア(プログラム)として実装することが可能であり、これを画像処理装置とする。画像処理装置101は、内部に計算用のCPU102、情報一次蓄積用のメモリ103、長期蓄積用の記憶装置104、外部との通信用の通信装置105などがシステムバス(内部バス)106により接続されている。この画像処理装置101は、更にネットワーク110を介して他のシステム(画像取得装置107、プリンタなどの画像出力装置108、NASなどの記憶装置109)と接続されている。
図3は、本発明の画像処理方法を実施するための機能構成を示す。画像処理装置101は、前処理部1、確率モデル計算部2、モデルリポジトリ3、特徴抽出部4、顔認識部5、領域分割部6からなる。
本発明の構成上の特徴は、予め学習された複数の色分布モデルを保持するモデルリポジトリ3を備えている点と、確率モデル計算部2にモデル整形を行う機能を備えている点である。これらの機能ブロックは、システム構成の記憶装置からメモリ上に展開されて実現される。
前処理部1は、解像度変換部11、ノイズ除去部12、色空間変換部13からなり、入力された原画像及びマスク画像に同等スケールの解像度変換を施し、原画像のみにノイズ除去と色空間変換を行う。ここでは、HSV色空間に変換する例を説明する。本発明のシステムは、特定の色空間に基づくものではないため他の色空間でもよい。
確率モデル計算部2は、確率密度計算部21、確率密度近似部22、モデル比較計算部23、モデル整形部24からなる。確率密度計算部21では、色空間変換後の原画像のうち、マスク画像を通過した領域から画素情報を集め、確率密度を計算する。確率密度近似部22では、確率密度を予め定められたモデル化手法によりモデル化する。本発明では、混合ガウスモデル(Gaussian Mixture Model:GMM)を用いてモデル化を行う(GMMについては、例えば非特許文献5を参照)。
モデル比較計算部23では、与えられた2つのモデルの間の距離を計算する。この距離はモデル間の類似度を示す指標として利用される。モデル間距離の定義及び計算方法は多数あるが、本発明では、以下に述べる方法でモデル間距離に基づく評価値Eを計算する。
本発明で利用するモデルは、確率密度分布を複数のガウシアンの混合で近似したものである。混合数(モデルで利用するガウシアンの数)をnとすると各モデルは、n個の平均μ、分散σ、重みmの組み、及びnx特徴次元数の共分散行列で表される。モデルA及びBの距離はモデルAの各ガウシアンコンポーネントの平均値を、モデルBに入力した場合に得られる出力の平均値の逆数とする。この距離を評価値Eとして利用する。ただし、出力の平均値が0の場合は、評価値EをNULLとする。この評価値は対称性が無いため正確には距離の定義を満たしていないが、本発明では対称性を必要としないため問題とならない。また評価値Eの定義はこれ以外でもよく、例えばモデルAの各ガウシアンの平均値と、モデルBのガウシアンの平均値の最小値の平均値などを用いても良い。また計算量が増えることが許容されるならば、モデルA、B双方から適当な数のデータ点を選び、それらの分布間の距離(例えばバタチャリヤ距離など)を用いて評価値Eを定義しても良い。
モデル整形部24では、入力された2つのGMMモデルの比較を行い、以下の計算で各コンポーネントの評価値を計算し、評価値の小さいコンポーネントを削除し、この結果に基づいて同モデルのGMMコンポーネント重み付けを修正する。
既存モデルをA、入力モデルをBとし、モデルBの各GMMコンポーネントの評価値Fを計算する。この評価値Fは単純に同コンポーネント平均をモデルAに入力した出力を用いる。モデルBの各コンポーネントの評価値を比較し、予め定められた閾値を下回る評価値を持つコンポーネントを削除する。GMMモデルでは、各コンポーネントの重みの合計が1になるように重み付けされている。この整合性を保つため、コンポーネントを削除した場合には、残りのコンポーネントの重みを修正(再定義)する必要がある。残存コンポーネントの重みの比率に従って重みを再設定することができる。
複数の色分布モデルを保持するモデルリポジトリ3は、通常のデータベースとして実装されている。そのため、内部に入出力管理部31と蓄積部32を持つ。特徴抽出部4は、エッジ計算部41、標準偏差計算部42からなる。前者は例えばSobelオペレータなどで入力画像のエッジ量を計算する。後者は標準偏差を計算する。
顔認識部5では、入力画像から顔領域(色以外の特定の画像特徴を持つ画素が属する物体)を抽出する。顔認識処理は任意の処理が利用できるが、例えば非特許文献6に示す技術を利用することができる。顔認識処理部51は、通常、顔を含む矩形領域を指定する。矩形処理部52では、この矩形情報を利用し、入力画像を切り出す。
領域分割部6は、領域分割部61と後処理部62からなる。領域分割部61は入力画像の各画素に対して、前記の特徴量を計算し、これを領域分割用のモデルに入力した出力を得る。後処理部62では、各画素で計算されたモデル出力を利用し、孤立点除去などの後処理を行う。孤立点除去は、例えば非特許文献7に示す方法で行うことができる。
次に、本発明の学習段階、認識段階について説明する。図4は、本発明の学習段階における、単一画像のGMM作成のフローチャートを示し、図7は、本発明の学習段階における、複数画像のGMM作成のフローチャートを示す。なお、補助的な情報として各ステップで利用されるデータ及び出力されるデータをフローチャートの右側に併記した。
学習段階では、複数の入力画像から、画像ごとの肌特徴量GMMモデルを作成し(ステップ201〜208)、モデルリポジトリ3に記録する(ステップ209)。これと合わせて全ての画像の肌領域情報を利用した一般化肌特徴量GMMモデルも作成する。
例えば、入力画像を図5(a)に示す画像とし、マスク画像を図5(b)に示す画像とした場合の学習処理を説明する。なお、マスク画像の白色の部分に対応する入力画像領域の画素を、肌領域に属する画素として学習の対象とする。
学習処理において、色空間変換後(ステップ204)の色空間がHSV色空間である場合、HSVの3次元に加え、エッジ量と標準偏差がそれぞれの次元で計算されるため(ステップ205、206)、併せて9次元の肌画素の確率密度分布となる(ステップ207)。簡単のため3次元に縮退させた確率密度分布を図6(a)に示す。図6(a)は、3次元特徴空間における肌画素の確率密度分布の例を示し、図6(b)は、図6(a)における分布をGMMによりモデル化した例を示す。
ここでは、仮にコンポーネントの数nを20とし、図示できないがそれぞれに色分けしてプロットした。図中の球の大きさは確率の高さを示す。各ガウシアンコンポーネントはその平均値を特徴次元と同じ次元数のベクトルとして保持する。図7は、本発明の学習段階における、複数画像のGMM作成のフローチャートを示す。図4と同じように確率密度を計算するが、複数の画像から得られた肌情報を統合して(ステップ201〜206)、確率密度分布およびそのモデルを作成する(ステップ207〜209)。
図8は、本発明の認識段階のフローチャートを示す。入力画像から顔領域を認識処理し(ステップ301〜304)、顔認識に成功したとき(ステップ305でYes)、矩形の顔領域を切り出し、学習処理と同様にして顔領域の画像のGMMモデルを作成し(ステップ306〜312)、肌モデルリポジトリとモデルを比較し(ステップ313)、入力画像から得られるGMMモデルを整形し(ステップ314〜316)、最も類似したGMMモデルまたは整形されたGMMモデルを用いて入力画像の領域分割処理を行う(ステップ317)。
本発明では、肌モデルリポジトリの検索の結果、最も類似したGMMモデルを用いて、入力画像の領域分割処理を行う。また、類似したGMMモデルが見つからない場合(検索に失敗したとき)は、入力画像から得られるGMMモデルを整形し、整形されたGMMモデルを用いて入力画像の領域分割処理を行う。
図9は、顔認識失敗時及びコンポーネント閾値処理失敗時のフローチャートを示す。顔認識に失敗したとき(ステップ305でNo)、一般化肌モデルを用いて入力画像の領域分割処理を行う(ステップ318〜321)。
図8のステップ313のモデル比較処理の詳細を、図11のフローチャートに示す。評価値Eの計算方法には、例えば以下のようなものがある。既存肌モデルをA、入力肌モデルをBとする。A、Bはそれぞれ既定数nのコンポーネントからなるGMMモデルとする。入力xに対するモデルAの出力をA(x)、モデルAのコンポーネントmの重み付き出力をAm(x)とする。モデルAのコンポーネントmの平均値をAμmとする(ステップ405)。
各モデルは確率密度分布をGMMで近似したものであるから、入力xに対する出力は、xにおける確率の値となっている。そこで確率の逆数を距離尺度(距離指標)として利用し、以下の評価値Eを定義し、計算する(ステップ406)。
評価値Eが最小のモデルnを選択する(ステップ407、408)。
図8のステップ14のモデル整形処理の詳細を、図12のフローチャートに示す。評価値Fを計算し(ステップ501〜506)、評価値Fが所定の閾値TH未満のコンポーネントを削除する(ステップ507〜509)。ここで、評価値Fは、F=A(Bμn)のように定義する。
図10(a)は、モデル整形前の確率密度分布モデルの例を示し、図10(b)は、整形後の確率密度分布モデルの例を示す。この例では、7つのGMMコンポーネントが予め定められた閾値を下回ったため削除された。
例えば、図5(a)に示す入力画像を与えた場合には、出力の領域分割結果は、図13に示すようになる。図13は、肌領域抽出結果(肌領域の画素が判別され、領域に分割される)を示す。後処理として施した孤立点除去の結果、細かい粒状のノイズは低減されている。
以上説明したように、本発明では、特定の条件(照明条件、人種、個人など)で作成された肌領域画像情報モデルを利用し、高い精度で入力画像から肌領域を抽出することができる。また、本発明は、電子写真における特定領域を抽出する画像分割技術に好適である。
1 前処理部
2 確率モデル計算部
3 モデルリポジトリ
4 特徴抽出部
5 顔認識部
6 領域分割部
K.Sobottka and I.Pitas,"Face localization and facial feature extraction based on shape and color information" Proceedings of the IEEE International Conference on Image Processing,Lausanne,Switzerland,September 1996,vol.3,pp.236-241. A.Albiol,et.al."Optimum Color Spaces for Skin Detection" IEEE 2001,Proceedings,International Conference on Image Processing Q.Zhu,at.el."An adaptive skin model and its application to objectionable image filtering",Proceedings of the 12th annual ACM international conference on Multimedia,pp.56-63. F.Dadgostar and A.Sarrafzadeh,"An adaptive real-time skin detector based on Hue thresholding:A comparison on two motion tracking models",Pattern Recognition Letters,2006 MH Yang,and N.Ahuja,Proceedings SPIE digital library,"Gaussian Mixture Model for Human Skin Color and Its Applications in Image and Video Databases",1999. OpenCV 物体検出:http://opencv.jp/sample/object_detection.html 宮田他、「色空間Wienerフィルタによるノイズ画像の画質改善」、日本写真学会学会誌2000年2月25日、63巻1号18−27ページ

Claims (8)

  1. 特定の特徴を持つ画素を抽出する画像処理方法において、所定の入力画像から色以外の画像特徴を基に、特定の特徴を持つ画素が属する物体の画素群を抽出する第1のステップと、前記画素群から主要色を抽出する第2のステップと、前記抽出された主要色を用いて、予め学習された複数の色分布モデルを保持するリポジトリを検索し、前記抽出された主要色と前記リポジトリに保持された色分布モデルとの間の距離指標が最も近い色分布モデルを特定する第3のステップと、前記特定された色分布モデルを用いて、前記入力画像の画素を判別し、領域を分割する第4のステップを含むことを特徴とする画像処理方法。
  2. 前記特定の特徴を持つ画素が属する物体はヒトの顔であり、前記第1のステップは、顔領域を抽出する処理を含むことを特徴とする請求項1記載の画像処理方法。
  3. 前記第2のステップは、所定の色空間における画素値の分布から確率密度分布を作成し、前記確率密度分布をガウシアンミクスチャモデル(以下、GMM)で近似する処理を含むことを特徴とする請求項1記載の画像処理方法。
  4. 前記距離指標として、前記入力画像から得られた複数の主要色を前記リポジトリに保持された色分布モデルに入力して得られた出力値としての確率密度分布の逆数を利用することを特徴とする請求項1記載の画像処理方法。
  5. 前記入力画像から得られたGMMの各コンポーネントの評価値に基づいて、前記入力画像から得られたGMMを整形する第5のステップを含むことを特徴とする請求項1または3記載の画像処理方法。
  6. 前記検索に失敗したとき、前記整形されたGMMを用いて、前記入力画像の画素を判別し、領域を分割する第6のステップを含むことを特徴とする請求項1または5記載の画像処理方法。
  7. 前記第5のステップにおいて、前記評価値として、前記入力画像のGMMのコンポーネントの平均値を、前記リポジトリに保持されたGMMに入力して得られた出力を利用し、前記入力画像のGMMの各コンポーネントの評価値を比較し、所定の閾値以下の評価値のコンポーンネントを、前記入力画像のGMMから削除し、残りのコンポーネントの重みを、合計が1となるように再定義することを特徴とする請求項5記載の画像処理方法。
  8. 請求項1乃至7のいずれか1項に記載の画像処理方法をコンピュータに実現させるためのプログラム。
JP2013036993A 2013-02-27 2013-02-27 画像処理方法およびプログラム Pending JP2014164656A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013036993A JP2014164656A (ja) 2013-02-27 2013-02-27 画像処理方法およびプログラム
US14/190,544 US9305359B2 (en) 2013-02-27 2014-02-26 Image processing method, image processing apparatus, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013036993A JP2014164656A (ja) 2013-02-27 2013-02-27 画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2014164656A true JP2014164656A (ja) 2014-09-08

Family

ID=51388223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013036993A Pending JP2014164656A (ja) 2013-02-27 2013-02-27 画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US9305359B2 (ja)
JP (1) JP2014164656A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018106692A (ja) * 2016-12-23 2018-07-05 雨暹 李 移動オブジェクト仮想情報遠隔管理方法及び移動オブジェクト仮想情報遠隔管理システム
WO2018174493A1 (ko) * 2017-03-24 2018-09-27 삼성전자 주식회사 피부에 해당하는 이미지 처리 영역을 보정하는 방법 및 전자 장치
CN112001249A (zh) * 2020-07-21 2020-11-27 山东师范大学 一种在物理世界通过生成贴纸构造可取消生物特征的方法
US11544853B2 (en) 2020-03-23 2023-01-03 Fujifilm Business Innovation Corp. Image processing apparatus and non-transitory computer readable medium for preparing color conversion model using color data
JP7540593B2 (ja) 2021-05-28 2024-08-27 日本電気株式会社 色判定装置、色判定方法及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6148426B1 (ja) * 2016-05-27 2017-06-14 楽天株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US10015504B2 (en) * 2016-07-27 2018-07-03 Qualcomm Incorporated Compressing image segmentation data using video coding
CN111062126B (zh) * 2019-12-10 2022-04-12 湖北民族大学 基于图案实例的土家织锦设计与外观模拟方法
US12086986B2 (en) * 2020-08-11 2024-09-10 Cortina Health, Inc. Systems and methods for using artificial intelligence for skin condition diagnosis and treatment options
CN114511811A (zh) * 2022-01-28 2022-05-17 北京百度网讯科技有限公司 视频处理方法、装置、电子设备和介质
US11954030B1 (en) * 2022-11-21 2024-04-09 Bank Of America Corporation Real-time dynamic caching platform for metaverse environments using non-fungible tokens
CN117412450B (zh) * 2023-12-13 2024-04-02 深圳市千岩科技有限公司 氛围灯设备及其灯效配色方法和相应的装置、介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102113014A (zh) * 2008-07-31 2011-06-29 惠普开发有限公司 图像的感知分割
US8345974B2 (en) * 2009-07-14 2013-01-01 Hewlett-Packard Development Company, L.P. Hierarchical recursive image segmentation
JP5531836B2 (ja) 2009-11-10 2014-06-25 株式会社リコー 画像処理装置及びプログラム
JP5845797B2 (ja) 2011-03-18 2016-01-20 株式会社リコー 画像処理装置、画像処理方法およびプログラム
JP5429336B2 (ja) 2011-09-16 2014-02-26 株式会社リコー 画像処理装置、画像処理方法およびプログラム
JP2013182027A (ja) 2012-02-29 2013-09-12 Ricoh Co Ltd 画像形成装置、画像形成方法、プログラムおよび記録媒体

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018106692A (ja) * 2016-12-23 2018-07-05 雨暹 李 移動オブジェクト仮想情報遠隔管理方法及び移動オブジェクト仮想情報遠隔管理システム
US10606886B2 (en) 2016-12-23 2020-03-31 Yu-Hsien Li Method and system for remote management of virtual message for a moving object
WO2018174493A1 (ko) * 2017-03-24 2018-09-27 삼성전자 주식회사 피부에 해당하는 이미지 처리 영역을 보정하는 방법 및 전자 장치
KR20180108322A (ko) * 2017-03-24 2018-10-04 삼성전자주식회사 피부에 해당하는 이미지 처리 영역을 보정하는 방법 및 전자 장치
KR102287109B1 (ko) * 2017-03-24 2021-08-06 삼성전자주식회사 피부에 해당하는 이미지 처리 영역을 보정하는 방법 및 전자 장치
US11263790B2 (en) 2017-03-24 2022-03-01 Samsung Electronics Co., Ltd. Method for correcting image processing region corresponding to skin and electronic device
US11544853B2 (en) 2020-03-23 2023-01-03 Fujifilm Business Innovation Corp. Image processing apparatus and non-transitory computer readable medium for preparing color conversion model using color data
CN112001249A (zh) * 2020-07-21 2020-11-27 山东师范大学 一种在物理世界通过生成贴纸构造可取消生物特征的方法
CN112001249B (zh) * 2020-07-21 2022-08-26 山东师范大学 一种在物理世界通过生成贴纸构造可取消生物特征的方法
JP7540593B2 (ja) 2021-05-28 2024-08-27 日本電気株式会社 色判定装置、色判定方法及びプログラム

Also Published As

Publication number Publication date
US9305359B2 (en) 2016-04-05
US20140241625A1 (en) 2014-08-28

Similar Documents

Publication Publication Date Title
JP2014164656A (ja) 画像処理方法およびプログラム
US9798956B2 (en) Method for recognizing target object in image, and apparatus
JP5657113B2 (ja) 映像内のオブジェクトの意味解析
CN110088805B (zh) 用于检测和分割多个前景对象的方法
US9569855B2 (en) Apparatus and method for extracting object of interest from image using image matting based on global contrast
KR101896357B1 (ko) 객체를 검출하는 방법, 디바이스 및 프로그램
JP2008059197A (ja) 画像照合装置、画像照合方法、コンピュータプログラム及び記憶媒体
JP2007072620A (ja) 画像認識装置及びその方法
JP2006338313A (ja) 類似画像検索方法,類似画像検索システム,類似画像検索プログラム及び記録媒体
CN111652317A (zh) 基于贝叶斯深度学习的超参数图像分割方法
JP7173309B2 (ja) 学習方法、学習プログラム、および、学習装置
US20160148070A1 (en) Image processing apparatus, image processing method, and recording medium
WO2015068417A1 (ja) 画像照合システム、画像照合方法およびプログラム
CN117496570A (zh) 一种基于多尺度卷积的人脸识别方法及系统
CN110580462B (zh) 一种基于非局部网络的自然场景文本检测方法和系统
Ghandour et al. Building shadow detection based on multi-thresholding segmentation
CN110570450A (zh) 一种基于级联的上下文感知框架的目标跟踪方法
CN113095185B (zh) 人脸表情识别方法、装置、设备及存储介质
Gupta et al. Wild animal detection using discriminative feature-oriented dictionary learning
CN114783042A (zh) 基于多移动目标的人脸识别方法、装置、设备及存储介质
Chen et al. Video foreground detection algorithm based on fast principal component pursuit and motion saliency
JP2013218530A (ja) 特徴点検出装置、特徴点検出方法、特徴点検出プログラム及び記録媒体
Paul et al. Automatic adaptive facial feature extraction using CDF analysis
CN112580475A (zh) 一种人脸检测方法及系统
Xu et al. A Probability-Driven Framework for Open World 3D Point Cloud Semantic Segmentation