JPWO2017203705A1 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JPWO2017203705A1
JPWO2017203705A1 JP2017515261A JP2017515261A JPWO2017203705A1 JP WO2017203705 A1 JPWO2017203705 A1 JP WO2017203705A1 JP 2017515261 A JP2017515261 A JP 2017515261A JP 2017515261 A JP2017515261 A JP 2017515261A JP WO2017203705 A1 JPWO2017203705 A1 JP WO2017203705A1
Authority
JP
Japan
Prior art keywords
image
combination
image processing
target
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017515261A
Other languages
English (en)
Other versions
JP6148426B1 (ja
Inventor
永男 蔡
永男 蔡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of JP6148426B1 publication Critical patent/JP6148426B1/ja
Publication of JPWO2017203705A1 publication Critical patent/JPWO2017203705A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

画像処理装置は、処理対象の画像である対象画像を取得する画像取得手段と、画素値の所定の色類似性に基づくクラスタリングにより、対象画像から複数の部分領域を抽出する抽出手段と、複数の部分領域のうちの1以上の部分領域の組み合わせからなる組み合わせ画像を複数生成する生成手段と、組み合わせ画像を構成する部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを示すスコアを、組み合わせ画像のそれぞれに対して算出する算出手段と、スコアが最も高い組み合わせ画像を、対象画像におけるオブジェクトが表されているオブジェクト領域として特定する処理対象領域情報を出力する出力手段と、を備える。

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
従来より、画像から所定のオブジェクトを抽出する技術がある。例えば、Grabcutという技術では、複数の色からなるオブジェクトを画像から抽出することができる(例えば、非特許文献1参照)。
GrabCut - Interactive Foreground Extraction using Iterated Graph Cuts、SIGGRAPH '04 ACM SIGGRAPH 2004 Papers、Pages 309-314、[online]、[2016年4月20日検索]、インターネット<http://cvg.ethz.ch/teaching/cvl/2012/grabcut-siggraph04.pdf>
上記した従来の技術では、抽出対象のオブジェクトが大部分を占めるような領域を予め指定する必要があった。従って、この領域の指定のための手間がかかっていた。
そこで本発明は、抽出対象のオブジェクトが大部分を占めるような領域を自動的に画像から抽出することを目的とする。
上記課題を解決するために、本発明の一形態に係る画像処理装置は、処理対象の画像である対象画像を取得する画像取得手段と、画素値の所定の色類似性に基づくクラスタリングにより、対象画像から複数の部分領域を抽出する抽出手段と、複数の部分領域のうちの1以上の部分領域の組み合わせからなる組み合わせ画像を複数生成する生成手段と、組み合わせ画像を構成する部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを示すスコアを、組み合わせ画像のそれぞれに対して算出する算出手段と、スコアが最も高い組み合わせ画像を、対象画像におけるオブジェクトが表されているオブジェクト領域として特定する処理対象領域情報を出力する出力手段と、を備える。
本発明の一形態に係る画像処理方法は、画像処理装置における画像処理方法であって、処理対象の画像である対象画像を取得する画像取得ステップと、画素値の所定の色類似性に基づくクラスタリングにより、対象画像から複数の部分領域を抽出する抽出ステップと、複数の部分領域のうちの1以上の部分領域の組み合わせからなる組み合わせ画像を複数生成する生成ステップと、組み合わせ画像を構成する部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを示すスコアを、組み合わせ画像のそれぞれに対して算出する算出ステップと、スコアが最も高い組み合わせ画像を、対象画像におけるオブジェクトが表されているオブジェクト領域として特定する処理対象領域情報を出力する出力ステップと、を有する。
本発明の一形態に係る画像処理プログラムは、コンピュータを、処理対象の画像である対象画像を取得する画像取得手段、画素値の所定の色類似性に基づくクラスタリングにより、対象画像から複数の部分領域を抽出する抽出手段、複数の部分領域のうちの1以上の部分領域の組み合わせからなる組み合わせ画像を複数生成する生成手段、組み合わせ画像を構成する部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを示すスコアを、組み合わせ画像のそれぞれに対して算出する算出手段、及び、スコアが最も高い組み合わせ画像を、対象画像におけるオブジェクトが表されているオブジェクト領域として特定する処理対象領域情報を出力する出力手段、として機能させる。
上記の形態によれば、画素値の色類似性に基づくクラスタリングにより、抽出対象のオブジェクトの一部を構成する可能性がある部分領域が対象画像から抽出され、1以上の部分領域を組み合わせることにより、オブジェクトの大部分の領域を形成する可能性がある組み合わせ画像が複数生成される。そして、各組み合わせ画像に含まれる部分領域により形成される形状の、当該オブジェクトの形状としての尤もらしさが算出され、算出された尤もらしさが最も高い組み合わせ画像をオブジェクトが表されているオブジェクト領域として特定する処理対象領域情報が出力される。従って、オブジェクトの大部分を占める領域に関する情報を、自動的に取得することが可能となる。例えば、このように得られる処理対象領域情報に基づいてGrabcutを実施することにより、対象画像から所望のオブジェクトを高精度に抽出することができる。
別の形態に係る画像処理装置では、生成手段は、対象画像における外縁部に位置する部分領域を組み合わせ画像の生成に用いないこととしてもよい。
抽出対象のオブジェクトが対象画像の外縁部に表されている可能性が低いことに鑑みて、上記の形態によれば、対象画像の外縁部に位置する部分領域が組み合わせ画像の生成に用いられないので、オブジェクトが表されていない可能性が高い部分領域を含む組み合わせ画像が生成されない。従って、組み合わせ画像に含まれる部分領域により形成される形状の、オブジェクトの形状としての尤もらしさを算出する処理に関する処理負荷が軽減される。
別の形態に係る画像処理装置では、生成手段は、所定範囲の画素値の画素を含む部分領域を組み合わせ画像の生成に用いないこととしてもよい。
上記形態によれば、抽出対象のオブジェクトに含まれる可能性が低い画素値を有する画素を含む部分領域が組み合わせ画像の生成に用いられないので、オブジェクトが表されていない可能性が高い部分領域を含む組み合わせ画像が生成されない。従って、組み合わせ画像に含まれる部分領域により形成される形状の、オブジェクトの形状としての尤もらしさを算出する処理に関する処理負荷が軽減される。
別の形態に係る画像処理装置では、所定範囲の画素値は、人の肌の色を表す画素値であることとしてもよい。
上記形態によれば、人の肌の色を表す画素値を有する画素を含む部分領域が組み合わせ画像の生成に用いられないので、人又は人の一部が表された部分領域を含む組み合わせ画像が生成されない。例えば、衣服等のアイテムを身につけた人が表されている対象画像から、そのアイテムを抽出対象のオブジェクトとする場合において、オブジェクトが表されていない可能性が高い部分領域を含む組み合わせ画像の生成を防止できる。従って、組み合わせ画像に含まれる部分領域により形成される形状の、オブジェクトの形状としての尤もらしさを算出する処理に関する処理負荷が軽減される。
さらに別の形態に係る画像処理装置では、算出手段は、組み合わせ画像を構成する複数の部分領域の位置が所定の程度以上互いに離間している場合には、該組み合わせ画像のスコアを算出しないこととしてもよい。
対象画像において、抽出対象のオブジェクトが互いに離間した複数の領域により表されている可能性が低いことに鑑みて、上記形態によれば、組み合わせ画像を構成する複数の部分領域の位置が互いに所定の程度以上離間している場合には、当該組み合わせ画像に関するオブジェクトの形状としての尤もらしさを算出する処理が実施されない。従って、組み合わせ画像に含まれる部分領域により形成される形状の、オブジェクトの形状としての尤もらしさを算出する処理に関する処理負荷が軽減される。
さらに別の形態に係る画像処理装置では、処理対象領域情報に基づいて、対象画像からオブジェクトを抽出するオブジェクト抽出手段をさらに有することとしてもよい。
上記形態によれば、オブジェクトの大部分を占める領域に関する情報を含む処理対象領域情報に基づいてオブジェクトの抽出を実施できるので、対象画像から所望のオブジェクトを高精度に抽出することができる。
上記形態において、画像処理装置では、オブジェクト抽出手段は、Grabcut法によりオブジェクトを抽出することとしてもよい。
上記形態によれば、オブジェクトの大部分を占める領域に関する情報を含む処理対象領域情報に基づいて、Grabcutによるオブジェクトの抽出を実施できるので、対象画像から所望のオブジェクトの高精度な抽出が実現される。
さらに別の形態に係る画像処理装置では、算出手段は、予め記憶しているオブジェクトの形状に対する、部分領域により形成される形状の一致の度合いに基づいて、スコアを算出することとしてもよい。
上記形態によれば、部分領域により形成される形状と予め記憶しているオブジェクトの形状との一致の度合いに基づいてスコアの算出が実施されるので、オブジェクトの形状としての尤もらしさが適切に表されたスコアが算出される。
別の形態に係る画像処理装置では、出力手段は、算出手段により算出された各組み合わせ画像のスコアのうち最も高いスコアが所定値以上である場合に、処理対象領域情報を出力し、算出手段により算出された各組み合わせ画像のスコアのうち最も高いスコアが所定値未満である場合に、対象画像に抽出対象のオブジェクトが表されていないと判断し、処理対象領域情報を出力しないこととしてもよい。
上記形態によれば、所定値以上のスコアを有する組み合わせ画像が生成されていない場合に、対象画像にオブジェクトが表されていないと判断し、処理対象領域情報が出力されない。これにより、例えば、所望のオブジェクトが表されていない可能性が高い対象画像に対して、オブジェクトを抽出する処理が実施されることが防止される。一方、所定値以上のスコアを有する組み合わせ画像に関する処理対象領域情報が出力されることとなるので、オブジェクトを抽出する処理が適切に実施される。
上記形態において、出力手段は、対象画像に抽出対象のオブジェクトが表されていないことを通知する情報を出力してもよい。
上記形態によれば、対象画像に抽出対象のオブジェクトが表されていないことをユーザに認識させることができる。
本発明の一側面によれば、抽出対象のオブジェクトが大部分を占めるような領域を自動的に画像から抽出することが可能となる。
画像処理装置の機能構成を示すブロック図である。 画像処理装置のハードウェア構成を示す図である。 対象画像の例を示す図である。 対象画像から抽出された部分領域を示す図である。 生成部により生成された組み合わせ画像の例を示す図である。 対象画像の外縁部に位置する部分領域を組み合わせ画像の生成に用いない場合の例を示す図である。 組み合わせ画像に含まれる複数の部分領域が互いに離間しているか否かを判定する処理の例を説明する図である。 組み合わせ画像に含まれる複数の部分領域が互いに離間しているか否かの判定の結果の例を示す図である。 オブジェクト形状情報記憶部に記憶されている、オブジェクトの形状を表すテンプレートの例を示す図である。 テンプレートの他の例を示す図である。 Sliding Window法によるスコア算出を概略的に説明する図である。 処理対象領域情報の例を示す図である。 画像処理装置において実施される画像処理方法の処理内容を示すフローチャートである。 画像処理プログラムの構成を示す図である。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
図1は、本実施形態に係る画像処理装置1の機能的構成を示すブロック図である。画像処理装置1は、画像から所望のオブジェクトを抽出する装置であって、特に、オブジェクトの抽出に先立って、抽出対象のオブジェクトが大部分を占めるような領域を、自動的に画像から抽出する。
オブジェクトの抽出に供する画像は、所望のオブジェクトが表された画像であれば限定されないが、本実施形態では、抽出対象のオブジェクトを衣服として、衣服が表された画像を処理対象の画像とする。処理対象の画像は、衣服を身につけた人物が表されている画像であってもよい。
処理対象の画像には、予めカテゴリ情報が関連付けられている。カテゴリ情報は、抽出対象のオブジェクトが属するカテゴリに関する情報であって、例えば、衣服の一種である「シャツ」等であってもよい。本実施形態の画像処理装置1は、カテゴリ情報に基づいて、処理対象の画像から、抽出対象のオブジェクトが表されている領域を特定して、特定した領域に関する処理対象領域情報を出力する。処理対象領域情報に基づいて、処理対象の画像から、例えばGrabcutという方法により、オブジェクトが抽出される。本実施形態では、オブジェクトが表されている領域に関する情報である処理対象領域情報を用いることにより、オブジェクトを高精度に抽出できる。そして、例えば、抽出されたオブジェクトのカテゴリをさらに細分化する処理を実施できる。抽出されたオブジェクトが例えばシャツである場合には、色、柄、形等のカテゴリを細分化できる。
図1に示すように、画像処理装置1は、機能的には、画像取得部11(画像取得手段)、抽出部12(抽出手段)、生成部13(生成手段)、算出部14(算出手段)、出力部15(出力手段)及びオブジェクト抽出部16(オブジェクト抽出手段)を備える。
また画像処理装置1は、オブジェクト形状情報記憶部21といった記憶手段にアクセス可能である。オブジェクト形状情報記憶部21は、画像処理装置1に備えられることとしてもよいし、画像処理装置1からのアクセスが可能に設けられた外部の記憶手段として構成されてもよい。
図2は、画像処理装置1のハードウェア構成図である。画像処理装置1は、物理的には、図2に示すように、CPU101、RAM及びROMといったメモリにより構成される主記憶装置102、ハードディスク等で構成される補助記憶装置103、通信制御装置104などを含むコンピュータシステムとして構成されている。画像処理装置1は、入力デバイスであるキーボード、タッチパネル、マウス等の入力装置105及びディスプレイ等の出力装置106をさらに含むこととしてもよい。
図1に示した各機能は、図2に示すCPU101、主記憶装置102等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信制御装置104等を動作させるとともに、主記憶装置102や補助記憶装置103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶装置102や補助記憶装置103内に格納される。
続いて、画像処理装置1の各機能部を説明する。画像取得部11は、処理対象の画像である対象画像を取得する。図3は、対象画像の例を示す図である。図3に示すように、対象画像TPには、抽出対象のオブジェクトである衣服を身につけた人物が表されている。図3に示されるシャツは、均一な色を有するが、光の当たり方に依存して異なる色により表された部分を含む。また、背景の壁も、光の当たり方により、異なる色により表された部分を含む。
抽出部12は、対象画像から複数の部分領域を抽出する。具体的には、抽出部12は、画素値の所定の色類似性に基づくクラスタリングにより、複数の部分領域を抽出する。抽出部12は、例えば、K−means法によりクラスタリングを行う。K−means法は、同様の色を有する領域をクラスタリングする技術であって、本実施形態の技術分野において周知の技術である。
図4は、対象画像TPから抽出された部分領域PA1〜PA5を示す図である。部分領域PA1〜PA3はそれぞれ、抽出対象のオブジェクトであるシャツの一部に該当するが、異なる色を有する別の領域として抽出されている。部分領域PA4は、シャツを身につけた人物の髪の部分に相当する。部分領域PA5は、背景の一部に相当する。なお、抽出部12は、図4に示すように、抽出した各部分領域PA1〜PA5を二値化処理してもよい。これにより、以後の処理負荷が軽減される。
生成部13は、複数の部分領域のうちの1以上の部分領域の組み合わせからなる組み合わせ画像を複数生成する。図5は、生成部13により生成された組み合わせ画像の例を示す図である。例えば、生成部13は、図4に示した部分領域PA1〜PA5のうちの1以上の部分領域を組み合わせて、図5に示すような組み合わせ画像CP1〜CP15を生成する。例えば、生成部13は、部分領域PA2と部分領域PA5とを組み合わせて、組み合わせ画像CP1を生成する。
生成部13は、抽出部12により抽出された全ての部分領域を用いた組み合わせの全てのケースに基づいて、組み合わせ画像を生成できる。従って、生成可能な組み合わせ画像の数が非常に大きくなり、算出部14等における処理負荷の増大を招く可能性がある。そこで、例えば、対象画像において、抽出対象のオブジェクトが画像の中央付近に表されていることが予め判明している場合等には、抽出対象のオブジェクトが対象画像の外縁部に表されている可能性が低いことに鑑みて、生成部13は、対象画像における外縁部に位置する部分領域を組み合わせ画像の生成に用いないこととしてもよい。
図6は、対象画像の外縁部に位置する部分領域を組み合わせ画像の生成に用いない場合の例を示す図である。図6に示すように、生成部13は、部分領域PA1〜PA5のうち、対象画像の外縁部に位置する部分領域PA5を抽出し、部分領域PA5を組み合わせ画像の生成に用いないことを判断する。生成部13は、例えば、部分領域と対象画像の外縁と接する部分の長さが、所定の長さ以上である場合、又は、外縁の全周の長さに対する割合が所定以上である場合に、当該部分領域が対象画像の外縁部に位置すると判定してもよい。
生成部13が部分領域PA5を組み合わせ画像の生成に用いないと判断することにより、組み合わせ画像CP1〜CP3,CP7〜CP9,CP13〜CP15が生成されないこととなる。このように、対象画像の外縁部に位置する部分領域が組み合わせ画像の生成に用いられないことにより、オブジェクトが表されていない可能性が高い部分領域を含む組み合わせ画像の生成を抑止できる。従って、算出部14により行われる、組み合わせ画像に含まれる部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを算出する処理に関する処理負荷が軽減される。
また、大量の組み合わせ画像が生成されることを防止するために、生成部13は、所定範囲の画素値の画素を含む部分領域を組み合わせ画像の生成に用いないこととしてもよい。即ち、抽出対象のオブジェクトの色に関する情報が予め判明している場合には、抽出対象のオブジェクトに含まれる可能性が低い画素値を有する画素を含む部分領域を組み合わせ画像の生成に用いないことにより、オブジェクトが表されていない可能性が高い部分領域を含む組み合わせ画像の生成を防止できる。
本実施形態では、抽出対象のオブジェクトはシャツ(衣服)であるので、生成部13は、所定範囲の画素値を人の肌の色を表す画素値とすることにより、人の肌が表された部分領域を組み合わせ画像の生成に用いないようにすることができる。従って、算出部14により行われる、組み合わせ画像に含まれる部分領域により形成される形状の、オブジェクトの形状としての尤もらしさを算出する処理に関する処理負荷を軽減することが可能となる。
算出部14は、組み合わせ画像を構成する部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを、組み合わせ画像のそれぞれに対して算出する。具体的には、算出部14は、抽出対象のオブジェクトの形状としての尤もらしさを示すスコアを算出する。
なお、スコア算出の処理にかかる処理負荷は大きいので、スコア算出の対象となる組み合わせ画像の数を抑制するために、対象画像において抽出対象のオブジェクトが互いに離間した複数の領域により表されている可能性が低いことに鑑みて、算出部14は、組み合わせ画像を構成する複数の部分領域の位置が所定の程度以上互いに離間している場合には、当該組み合わせ画像のスコアを算出しないこととしてもよい。スコアの算出処理の説明に先立って、スコア算出対象としない組み合わせ画像の抽出に関する処理を説明する。
図7は、組み合わせ画像に含まれる複数の部分領域が互いに離間しているか否かを判定する処理の例を説明する図である。図7では、組み合わせ画像CP5に対する判定処理を示す。まず、算出部14は、組み合わせ画像CP5に含まれる部分領域PA51,PA52を抽出し、それぞれの部分領域PA51,PA52に外接するバウンダリーボックスB11,B21を設定する。続いて、算出部14は、バウンダリーボックスB11,B21のそれぞれを所定の程度拡大(例えば1.1倍)して、拡大バウンダリーボックスB12,B22を生成する。
そして、算出部14は、拡大バウンダリーボックスB12,B22が互いに重なる場合には、組み合わせ画像に含まれる複数の部分領域が互いに離間していないと判定し、拡大バウンダリーボックスB12,B22が互いに重ならない場合には、組み合わせ画像に含まれる複数の部分領域が互いに離間していると判定する。図7に示す組み合わせ画像CP5の例では、拡大バウンダリーボックスB12,B22が互いに重ならないので、算出部14は、組み合わせ画像CP5に含まれる複数の部分領域が互いに離間していると判定し、組み合わせ画像CP5のスコアを算出しないこととする。
図8は、組み合わせ画像に含まれる複数の部分領域が互いに離間しているか否かの判定の結果の例を示す図である。図8に示す例では、部分領域PA1〜PA4に基づいて生成された組み合わせ画像CP4,CP5,CP6,CP10,CP11,CP12が示されている。算出部14は、図7を参照して説明した判定方法により、組み合わせ画像CP4,CP5,CP6,CP10,CP11,CP12のうち、組み合わせ画像CP5,CP6,CP11,CP12のそれぞれに含まれる複数の部分領域が互いに離間していると判定する。そして、算出部14は、組み合わせ画像CP5,CP6,CP11,CP12のスコアを算出しないこととする。
このように、組み合わせ画像を構成する複数の部分領域の位置が互いに所定の程度以上離間している場合には、当該組み合わせ画像に関する、抽出対象のオブジェクトの形状としての尤もらしさを示すスコアを算出する処理が実施されないので、スコア算出に係る組み合わせ画像の数が抑制され、スコア算出処理に関する処理負荷が軽減される。
続いて、算出部14による、組み合わせ画像を構成する部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを示すスコアの算出を説明する。算出部14は、抽出対象のオブジェクトの形状に対する、部分領域により形成される形状の一致の度合いに基づいて、組み合わせ画像のスコアを算出する。本実施形態では、算出部14は、例えば、Sliding Window法により、スコアを算出する。
Sliding Window法は、あるサイズのウィンドウを設定し、設定したウィンドウ内の領域に対して所定の画像処理を行うものであって、処理対象の画像の全面に亘るウィンドウの走査を、ウィンドウの大きさを徐々に変更しながら繰り返し行う技術である。本実施形態では、算出部14は、組み合わせ画像において設定するウィンドウ内の領域に含まれる部分領域の形状と、抽出対象のオブジェクトの形状との一致の度合いを算出する処理を行う。算出部14は、この算出処理を、ウィンドウの大きさを徐々に変更しながら組み合わせ画像の全面に亘るウィンドウの走査を行って実施する。
抽出対象のオブジェクトの形状は、図1に示すオブジェクト形状情報記憶部21に予め記憶されている。図9は、オブジェクト形状情報記憶部21に記憶されている、オブジェクトの形状を表すテンプレートの例を示す図である。本実施形態では、対象画像からシャツを抽出対象のオブジェクトとして抽出するので、オブジェクト形状情報記憶部21は、図9に示すようなシャツの形状を表すテンプレートTW1を記憶している。
図10は、テンプレートの他の例を示す図である。オブジェクト形状情報記憶部21は、図10に示すようなテンプレートTW21,TW22,TW31,TW32を記憶していてもよい。テンプレートTW21,TW22は、抽出対象のオブジェクトがスカートである場合に用いられるテンプレートの例である。また、テンプレートTW31,TW32は、抽出対象のオブジェクトがパンツである場合に用いられるテンプレートの例である。
図11は、Sliding Window法によるスコア算出を概略的に説明する図である。図11に示す例では、算出部14は、組み合わせ画像CP10のスコアを算出する。算出部14は、ウィンドウに相当するテンプレートTW1を組み合わせ画像CP10の全面に亘って走査させながら、テンプレートTW1に表されたオブジェクトの形状と部分領域の形状との一致の度合いを示すスコアを算出する。
例えば、算出部14は、テンプレートTW1が組み合わせ画像CP10中のある位置に設定された状態において、テンプレートTW1に含まれる全画素数に対する部分領域の画素数の割合を、スコアとして算出する。あるサイズに設定されたテンプレートTW1による組み合わせ画像CP10の全面に亘る走査を行いながらのスコアの算出が終了すると、算出部14は、テンプレートTW1のサイズを変更して再び走査を行う。算出部14は、このように算出されたスコアのうち、最も高いスコアを組み合わせ画像CP10のスコアとして決定する。そして、算出部14は、生成された組み合わせ画像または処理対象の組み合わせ画像の全てについてのスコアを決定する。
なお、本実施形態で実施されるSliding Window法では、あるサイズ及び位置に設定されたウィンドウにおけるスコア算出にかかる処理負荷が高い。従って、スコア算出に先立って、算出部14は、設定されたウィンドウ内における抽出対象のオブジェクトを表している可能性がある部分領域の画素(有効画素)の数を算出し、有効画素の画素数が当該ウィンドウ全体の画素に対して所定の割合未満である場合に、当該ウィンドウにおけるスコア算出を実施しないこととしてもよい。有効画素の算出には、例えば、Integral Imageという技術を用いてもよい。Integral Imageは、ある領域内における所定の条件を満たす画素の数を効率良くカウントする技術であって、当業者に知られた技術である。
出力部15は、スコアが最も高い組み合わせ画像を、対象画像におけるオブジェクトが表されているオブジェクト領域として特定する処理対象領域情報を出力する。具体的には、出力部15は、算出部14により決定された各組み合わせ画像のスコアのうち、最も高いスコアを有する組み合わせ画像を、オブジェクト領域として特定する処理対象領域情報を出力する。図12は、処理対象領域情報の例を示す図である。図12に示すように、出力部15は、算出部14により算出されたスコアが最も高い組み合わせ画像CP10を、抽出対象のシャツが表されているオブジェクト領域FAとして特定する処理対象領域情報TAを出力する。
なお、出力部15は、算出部14により算出された各組み合わせ画像のスコアのうち最も高いスコアが所定値以上である場合に、処理対象領域情報を出力し、算出部14により算出された各組み合わせ画像のスコアのうち最も高いスコアが所定値未満である場合に、対象画像に抽出対象のオブジェクトが表されていないと判断し、処理対象領域情報を出力しないこととしてもよい。これにより、所望のオブジェクトが表されていない可能性が高い対象画像に対して、オブジェクトを抽出する処理が実施されることが防止される。また、このような場合に、出力部15は、対象画像に抽出対象のオブジェクトが表されていないことを通知する情報を出力してもよい。これにより、対象画像に抽出対象のオブジェクトが表されていないことをユーザに認識させることができる。一方、所定値以上のスコアを有する組み合わせ画像に関する処理対象領域情報が出力されることとなるので、オブジェクトを抽出する処理が適切に実施される。
オブジェクト抽出部16は、処理対象領域情報に基づいて、対象画像からオブジェクトを抽出する。具体的には、オブジェクト抽出部16は、図12に示した処理対象領域情報TAに基づいて、図3に示した対象画像TPから、シャツのオブジェクトを抽出する。オブジェクト抽出部16は、例えば、Grabcut法によりオブジェクトを抽出してもよい。Grabcut法は、画像からオブジェクトを抽出する技術であって、当業者に知られた技術である。
次に、図13を参照して、本実施形態の画像処理装置1の動作について説明する。図13は、画像処理装置1において実施される画像処理方法の処理内容を示すフローチャートである。
まず、画像取得部11は、処理対象の画像である対象画像TPを取得する(S1)。次に、抽出部12は、色に関する画素値の所定の類似性に基づくクラスタリングにより、対象画像TPから複数の部分領域を抽出する(S2)。
続いて、生成部13は、複数の部分領域のうちの1以上の部分領域の組み合わせからなる組み合わせ画像を生成する(S3)。次に、算出部14は、組み合わせ画像を構成する部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを、組み合わせ画像のそれぞれに対して算出する(S4)。
続いて、出力部15は、最も尤もらしさが高い組み合わせ画像を、対象画像におけるオブジェクトが表されているオブジェクト領域として特定する処理対象領域情報を出力する(S5)。
そして、オブジェクト抽出部16は、ステップS5において出力された処理対象領域情報に基づいて、対象画像TPからオブジェクトを抽出する(S6)。
次に、図14を参照して、コンピュータを画像処理装置1として機能させるための画像処理プログラムを説明する。画像処理プログラムp1は、メインモジュールm10、画像取得モジュールm11、抽出モジュールm12、生成モジュールm13、算出モジュールm14、出力モジュールm15及びオブジェクト抽出モジュールm16を備える。
メインモジュールm10は、画像処理を統括的に制御する部分である。画像取得モジュールm11、抽出モジュールm12、生成モジュールm13、算出モジュールm14、出力モジュールm15及びオブジェクト抽出モジュールm16を実行することにより実現される機能はそれぞれ、図1に示される画像処理装置1の画像取得部11、抽出部12、生成部13、算出部14、出力部15及びオブジェクト抽出部16の機能と同様である。
画像処理プログラムp1は、例えば、磁気ディスクや光ディスクまたは半導体メモリ等の非一時的な記憶媒体d1によって提供される。また、画像処理プログラムp1は、搬送波に重畳されたコンピュータデータ信号として通信ネットワークを介して提供されてもよい。
以上説明した本実施形態の画像処理装置1、画像処理方法及び画像処理プログラムp1によれば、画素値の色類似性に基づくクラスタリングにより、抽出対象のオブジェクトの一部を構成する可能性がある部分領域が対象画像から抽出され、1以上の部分領域を組み合わせることにより、オブジェクトの大部分の領域を形成する可能性がある組み合わせ画像が複数生成される。そして、各組み合わせ画像に含まれる部分領域により形成される形状の、当該オブジェクトの形状としての尤もらしさが算出され、算出された尤もらしさが最も高い組み合わせ画像をオブジェクトが表されているオブジェクト領域として特定する処理対象領域情報が出力される。従って、オブジェクトの大部分を占める領域に関する情報を、自動的に取得することが可能となる。例えば、このように得られる処理対象領域情報に基づいてGrabcutを実施することにより、対象画像から所望のオブジェクトを高精度に抽出することができる。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
1…画像処理装置、11…画像取得部、12…抽出部、13…生成部、14…算出部、15…出力部、16…オブジェクト抽出部、21…オブジェクト形状情報記憶部、d1…記憶媒体、m10…メインモジュール、m11…画像取得モジュール、m12…抽出モジュール、m13…生成モジュール、m14…算出モジュール、m15…出力モジュール、m16…オブジェクト抽出モジュール、p1…画像処理プログラム。

Claims (12)

  1. 処理対象の画像である対象画像を取得する画像取得手段と、
    画素値の所定の色類似性に基づくクラスタリングにより、前記対象画像から複数の部分領域を抽出する抽出手段と、
    前記複数の部分領域のうちの1以上の部分領域の組み合わせからなる組み合わせ画像を複数生成する生成手段と、
    前記組み合わせ画像を構成する前記部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを示すスコアを、前記組み合わせ画像のそれぞれに対して算出する算出手段と、
    前記スコアが最も高い組み合わせ画像を、前記対象画像における前記オブジェクトが表されているオブジェクト領域として特定する処理対象領域情報を出力する出力手段と、
    を備える画像処理装置。
  2. 前記生成手段は、前記対象画像における外縁部に位置する部分領域を前記組み合わせ画像の生成に用いない、
    請求項1に記載の画像処理装置。
  3. 前記生成手段は、所定範囲の画素値の画素を含む部分領域を前記組み合わせ画像の生成に用いない、
    請求項1または2に記載の画像処理装置。
  4. 前記所定範囲の画素値は、人の肌の色を表す画素値である、請求項3に記載の画像処理装置。
  5. 前記算出手段は、前記組み合わせ画像を構成する複数の部分領域の位置が所定の程度以上互いに離間している場合には、該組み合わせ画像の前記スコアを算出しない、
    請求項1〜4のいずれか一項に記載の画像処理装置。
  6. 前記処理対象領域情報に基づいて、前記対象画像から前記オブジェクトを抽出するオブジェクト抽出手段をさらに有する、
    請求項1〜5のいずれか一項に記載の画像処理装置。
  7. 前記オブジェクト抽出手段は、Grabcut法により前記オブジェクトを抽出する、
    請求項6に記載の画像処理装置。
  8. 前記算出手段は、予め記憶している前記オブジェクトの形状に対する、前記部分領域により形成される形状の一致の度合いに基づいて、前記スコアを算出する、
    請求項1〜7のいずれか一項に記載の画像処理装置。
  9. 前記出力手段は、
    前記算出手段により算出された各組み合わせ画像の前記スコアのうち最も高いスコアが所定値以上である場合に、前記処理対象領域情報を出力し、
    前記算出手段により算出された各組み合わせ画像の前記スコアのうち最も高いスコアが所定値未満である場合に、前記対象画像に抽出対象のオブジェクトが表されていないと判断し、前記処理対象領域情報を出力しない、
    請求項1〜8のいずれか一項に記載の画像処理装置。
  10. 前記出力手段は、前記対象画像に抽出対象のオブジェクトが表されていないことを通知する情報を出力する、請求項9に記載の画像処理装置。
  11. 画像処理装置における画像処理方法であって、
    処理対象の画像である対象画像を取得する画像取得ステップと、
    画素値の所定の色類似性に基づくクラスタリングにより、前記対象画像から複数の部分領域を抽出する抽出ステップと、
    前記複数の部分領域のうちの1以上の部分領域の組み合わせからなる組み合わせ画像を複数生成する生成ステップと、
    前記組み合わせ画像を構成する前記部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを示すスコアを、前記組み合わせ画像のそれぞれに対して算出する算出ステップと、
    前記スコアが最も高い組み合わせ画像を、前記対象画像における前記オブジェクトが表されているオブジェクト領域として特定する処理対象領域情報を出力する出力ステップと、
    を有する画像処理方法。
  12. コンピュータを、
    処理対象の画像である対象画像を取得する画像取得手段、
    画素値の所定の色類似性に基づくクラスタリングにより、前記対象画像から複数の部分領域を抽出する抽出手段、
    前記複数の部分領域のうちの1以上の部分領域の組み合わせからなる組み合わせ画像を複数生成する生成手段、
    前記組み合わせ画像を構成する前記部分領域により形成される形状の、抽出対象のオブジェクトの形状としての尤もらしさを示すスコアを、前記組み合わせ画像のそれぞれに対して算出する算出手段、及び、
    前記スコアが最も高い組み合わせ画像を、前記対象画像における前記オブジェクトが表されているオブジェクト領域として特定する処理対象領域情報を出力する出力手段、
    として機能させる画像処理プログラム。

JP2017515261A 2016-05-27 2016-05-27 画像処理装置、画像処理方法及び画像処理プログラム Active JP6148426B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/065771 WO2017203705A1 (ja) 2016-05-27 2016-05-27 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP6148426B1 JP6148426B1 (ja) 2017-06-14
JPWO2017203705A1 true JPWO2017203705A1 (ja) 2018-06-07

Family

ID=59061275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017515261A Active JP6148426B1 (ja) 2016-05-27 2016-05-27 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (4)

Country Link
US (1) US10810744B2 (ja)
EP (1) EP3467769B1 (ja)
JP (1) JP6148426B1 (ja)
WO (1) WO2017203705A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7019007B1 (ja) * 2020-09-28 2022-02-14 楽天グループ株式会社 照合システム、照合方法及びプログラム

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6952286B2 (en) * 2000-12-07 2005-10-04 Eastman Kodak Company Doubleprint photofinishing service with the second print having subject content-based modifications
JP3621065B2 (ja) * 2000-12-25 2005-02-16 松下電器産業株式会社 画像検出装置、プログラムおよび記録媒体
KR100450793B1 (ko) * 2001-01-20 2004-10-01 삼성전자주식회사 영역 분할된 영상의 영역 특징치 정합에 기초한객체추출장치 및 그 방법
US20020186875A1 (en) * 2001-04-09 2002-12-12 Burmer Glenna C. Computer methods for image pattern recognition in organic material
US8068595B2 (en) * 2002-03-15 2011-11-29 Intellisist, Inc. System and method for providing a multi-modal communications infrastructure for automated call center operation
JP2005250786A (ja) * 2004-03-03 2005-09-15 Tateyama Machine Kk 画像認識方法
JP2010055194A (ja) * 2008-08-26 2010-03-11 Sony Corp 画像処理装置および方法、学習装置および方法、並びにプログラム
JP5684488B2 (ja) * 2009-04-20 2015-03-11 富士フイルム株式会社 画像処理装置、画像処理方法およびプログラム
JP5284863B2 (ja) * 2009-04-30 2013-09-11 独立行政法人理化学研究所 画像処理装置、画像処理方法およびプログラム
JP2011090466A (ja) * 2009-10-21 2011-05-06 Sony Corp 情報処理装置及び方法、並びにプログラム
US20120230583A1 (en) * 2009-11-20 2012-09-13 Nec Corporation Object region extraction device, object region extraction method, and computer-readable medium
WO2011091717A1 (en) * 2010-01-29 2011-08-04 The Hong Kong University Of Science And Technology Architectural pattern detection and modeling in images
JP5615088B2 (ja) * 2010-08-18 2014-10-29 キヤノン株式会社 画像処理装置及びその方法、プログラム、並びに撮像装置
JP5567448B2 (ja) * 2010-10-15 2014-08-06 Kddi株式会社 画像領域分割装置、画像領域分割方法および画像領域分割プログラム
US8675957B2 (en) * 2010-11-18 2014-03-18 Ebay, Inc. Image quality assessment to merchandise an item
JP5537492B2 (ja) * 2011-05-12 2014-07-02 富士重工業株式会社 環境認識装置
JP5726646B2 (ja) * 2011-06-10 2015-06-03 株式会社東芝 画像処理装置、方法、及びプログラム
WO2013044407A1 (en) * 2011-09-27 2013-04-04 Hewlett-Packard Development Company, L.P. Retrieving visual media
JP4922472B1 (ja) * 2011-09-29 2012-04-25 楽天株式会社 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体
JP5840940B2 (ja) * 2011-12-16 2016-01-06 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像領域抽出装置、画像領域抽出方法、および画像領域抽出プログラム
US9025876B2 (en) * 2012-03-05 2015-05-05 Thomson Licensing Method and apparatus for multi-label segmentation
GB2501473A (en) * 2012-04-23 2013-10-30 Clothes Network Ltd Image based clothing search and virtual fitting
JP5968098B2 (ja) * 2012-06-14 2016-08-10 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP6183038B2 (ja) * 2012-11-15 2017-08-23 株式会社リコー 領域抽出装置、領域抽出方法およびプログラム
JP2014164656A (ja) * 2013-02-27 2014-09-08 Ricoh Co Ltd 画像処理方法およびプログラム
JP2014203157A (ja) * 2013-04-02 2014-10-27 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
EP2790152B1 (en) * 2013-04-12 2015-12-02 Alcatel Lucent Method and device for automatic detection and tracking of one or multiple objects of interest in a video
US9460518B2 (en) * 2013-04-17 2016-10-04 Yahoo! Inc. Visual clothing retrieval
US20150317511A1 (en) * 2013-11-07 2015-11-05 Orbeus, Inc. System, method and apparatus for performing facial recognition
US9129191B2 (en) * 2013-12-16 2015-09-08 Adobe Systems Incorporated Semantic object selection
CN105940392B (zh) * 2014-02-19 2019-09-27 高通股份有限公司 装置的图像编辑技术
US20150363660A1 (en) * 2014-06-12 2015-12-17 Asap54.Com Ltd System for automated segmentation of images through layout classification
WO2016004330A1 (en) * 2014-07-03 2016-01-07 Oim Squared Inc. Interactive content generation
US9092691B1 (en) * 2014-07-18 2015-07-28 Median Technologies System for computing quantitative biomarkers of texture features in tomographic images
WO2016029399A1 (en) * 2014-08-28 2016-03-03 Qualcomm Incorporated Object selection based on region of interest fusion
US9443162B2 (en) * 2014-09-25 2016-09-13 Aricent Holdings Luxembourg S.A.R.L. Intelligent background selection and image segmentation
CN105631455B (zh) * 2014-10-27 2019-07-05 阿里巴巴集团控股有限公司 一种图像主体提取方法及系统
US9483704B2 (en) * 2014-12-10 2016-11-01 Ricoh Co., Ltd. Realogram scene analysis of images: superpixel scene analysis
US10127439B2 (en) * 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
WO2016123538A1 (en) * 2015-01-29 2016-08-04 Clear Research Corporation Mobile visual commerce system
CN105989174B (zh) * 2015-03-05 2019-11-01 欧姆龙株式会社 关注区域提取装置以及关注区域提取方法
CN106295666B (zh) * 2015-05-14 2020-03-03 佳能株式会社 获取分类器、检测对象的方法和装置及图像处理设备
US9563962B2 (en) * 2015-05-19 2017-02-07 Personify, Inc. Methods and systems for assigning pixels distance-cost values using a flood fill technique
US10311302B2 (en) * 2015-08-31 2019-06-04 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
US9741125B2 (en) * 2015-10-28 2017-08-22 Intel Corporation Method and system of background-foreground segmentation for image processing
US11568627B2 (en) * 2015-11-18 2023-01-31 Adobe Inc. Utilizing interactive deep learning to select objects in digital visual media
JP6204634B1 (ja) * 2015-12-25 2017-09-27 楽天株式会社 形状弁別装置、形状弁別方法及び形状弁別プログラム
JP2017126304A (ja) * 2016-01-15 2017-07-20 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
US9972092B2 (en) * 2016-03-31 2018-05-15 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation
JP6565951B2 (ja) * 2017-02-09 2019-08-28 トヨタ自動車株式会社 画像領域抽出方法および画像領域抽出プログラム

Also Published As

Publication number Publication date
JP6148426B1 (ja) 2017-06-14
WO2017203705A1 (ja) 2017-11-30
EP3467769A4 (en) 2019-11-13
US20190304096A1 (en) 2019-10-03
EP3467769A1 (en) 2019-04-10
US10810744B2 (en) 2020-10-20
EP3467769B1 (en) 2024-08-28

Similar Documents

Publication Publication Date Title
JP5298831B2 (ja) 画像処理装置及びプログラム
US10991104B2 (en) Image processing device, image processing method, and program
JP2017045441A (ja) 画像生成方法及び画像生成システム
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP2009169925A (ja) 画像検索装置および画像検索方法
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP2019220014A (ja) 画像解析装置、画像解析方法及びプログラム
JP6542406B1 (ja) 読取システム、読取方法、プログラム、及び記憶媒体
JP6148426B1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6247103B2 (ja) 帳票項目認識方法、帳票項目認識装置及び帳票項目認識プログラム
JP2011258036A (ja) 3次元形状検索装置、3次元形状検索方法、及びプログラム
JP6337680B2 (ja) 画像処理システム、画像処理装置、プログラム及び画像処理方法
JP2011175347A (ja) 情報処理装置および情報処理方法
JP6609181B2 (ja) 文字属性推定装置、及び文字属性推定プログラム
JP2018182504A (ja) 画像処理装置及びプログラム
JP6717769B2 (ja) 情報処理装置及びプログラム
JP2019145182A (ja) 読取システム、読取方法、プログラム、及び記憶媒体
JP2008158626A (ja) テンプレート作成装置,テンプレート作成方法,その方法を実装したテンプレート作成プログラム,そのプログラムを格納した記憶媒体と、テンプレートマッチング装置,テンプレートマッチング方法,その方法を実装したテンプレートマッチングプログラム,そのプログラムを格納した記憶媒体
JP2016045744A (ja) 画像処理装置、画像処理方法、およびプログラム
CN117635763B (zh) 基于人像部件分析的自动换装方法、装置、设备及介质
JP7369247B2 (ja) 情報処理装置、情報処理方法およびプログラム
US11508083B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20240037449A1 (en) Teaching device, teaching method, and computer program product
JP5343584B2 (ja) 情報処理装置及びプログラム
JP2010092159A (ja) 画像データ判定装置、画像データ判定システム、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170317

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170317

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170518

R150 Certificate of patent or registration of utility model

Ref document number: 6148426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250