JP2019504430A - 画像処理方法及びデバイス - Google Patents

画像処理方法及びデバイス Download PDF

Info

Publication number
JP2019504430A
JP2019504430A JP2018557180A JP2018557180A JP2019504430A JP 2019504430 A JP2019504430 A JP 2019504430A JP 2018557180 A JP2018557180 A JP 2018557180A JP 2018557180 A JP2018557180 A JP 2018557180A JP 2019504430 A JP2019504430 A JP 2019504430A
Authority
JP
Japan
Prior art keywords
image
sub
images
target
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018557180A
Other languages
English (en)
Other versions
JP6937782B2 (ja
JP2019504430A5 (ja
Inventor
リン,トン
Original Assignee
アリババ グループ ホウルディング リミテッド
アリババ グループ ホウルディング リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アリババ グループ ホウルディング リミテッド, アリババ グループ ホウルディング リミテッド filed Critical アリババ グループ ホウルディング リミテッド
Publication of JP2019504430A publication Critical patent/JP2019504430A/ja
Publication of JP2019504430A5 publication Critical patent/JP2019504430A5/ja
Application granted granted Critical
Publication of JP6937782B2 publication Critical patent/JP6937782B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

本願は、画像処理方法を提供する。前記方法は:複数のサンプル画像を得るために、複数の方法を用いて原画像から干渉因子を除去するステップと;所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化するステップと;同じ属性を有するサンプル副画像からターゲット副画像を特定するステップと;異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるステップと;を含む。本願において、実像に最も類似したターゲット副画像は同じ属性を有する複数のサンプル副画像から特定でき、次いで、異なる属性を有する複数のターゲット副画像は、ターゲット画像に組み合わせることができる。このため、取得されたターゲット画像は高い精度で実像を復元して、後続の画像認識の精度を向上できる。

Description

本願は、画像処理技術の分野に関し、特に、画像処理方法及びデバイスに関する。
インターネット技術の急速な発展により、顔認識及び認証画像認識等の画像認識がより一層ネットワークサービスにおいて用いられている。しかし、多くの画像には網目模様や透かしが付されている。その結果、画像認識効率が低下し、画像認識の困難は増す。
本願の主な目的は、画像処理方法及びデバイスを提供することにある。
本願は、以下の技術的解決策によって実施される。
画像処理方法が提供される。前記方法は:複数のサンプル画像を得るために、複数の方法を用いて原画像から干渉因子を除去するステップと;所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化(分割)するステップと;同じ属性を有するサンプル副画像からターゲット副画像を特定するステップと;異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるステップと;を含む。
好ましくは、同じ属性を有するサンプル副画像からターゲット副画像を特定する前記ステップは:各サンプル副画像の数学的パラメータを特定するステップと;クラスタリングアルゴリズムを用いて、前記数学的パラメータに基づいて同じ属性を有する前記サンプル副画像を、複数の画像セットに分割するステップであって、各画像セットは1つ以上のサンプル副画像を含む、分割するステップと;サンプル副画像の最大数を含む画像セットから前記ターゲット副画像を特定するステップと;を含む。
好ましくは、各サンプル副画像の数学的パラメータを特定する前記ステップは:前記サンプル副画像の前記数学的パラメータとしてRGBベクトルを用い、前記サンプル副画像内の各ピクセルのRGB情報に基づいて前記サンプル副画像のための前記RGBベクトルを生成するステップを含む。
好ましくは、サンプル副画像の最大数を含む画像セットから前記ターゲット副画像を特定する前記ステップは:サンプル副画像の最大数を含む前記画像セットからの前記ターゲット副画像として、クラスタリング後に取得された前記画像セット内の、中心点に対応するサンプル副画像を特定するステップを含む。
好ましくは、異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるステップは:前記ターゲット副画像内の各ピクセルの位置座標に基づいて、異なる属性を有する前記複数のターゲット副画像を前記ターゲット画像に組み合わせるステップを含む。
画像処理デバイスが提供され、前記デバイスは:複数のサンプル画像を取得するために、複数の方法を用いて原画像から干渉因子を除去するように構成された干渉除去ユニットと;所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化するように構成された画像セグメント化ユニットと;同じ属性を有するサンプル副画像からターゲット副画像を特定するように構成されたターゲット特定ユニットと;異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるように構成されたターゲット組み合わせユニットと;を含む。
好ましくは、前記ターゲット特定ユニットは:各サンプル副画像の数学的パラメータを特定するように構成されたパラメータ特定サブユニットと;クラスタリングアルゴリズムを用いて、前記数学的パラメータに基づいて同じ属性を有する前記サンプル副画像を複数の画像セットに分割するように構成され、各画像セットが1つ以上のサンプル副画像を含む、セット分割サブユニットと;サンプル副画像の最大数を含む画像セットから前記ターゲット副画像を特定するように構成されたターゲット特定サブユニットと;を含む。
好ましくは、前記パラメータ特定サブユニットは、前記サンプル副画像の前記数学的パラメータとしてRGBベクトルを用い、前記サンプル副画像内の各ピクセルのRGB情報に基づいて前記サンプル副画像のための前記RGBベクトルを生成するよう構成される。
好ましくは、前記ターゲット特定サブユニットは、サンプル副画像の最大数を含む前記画像セットからの前記ターゲット副画像として、クラスタリング後に取得された前記画像セット内の、中心点に対応するサンプル副画像を特定するように構成される。
好ましくは、前記ターゲット組み合わせユニットは、前記ターゲット副画像内の各ピクセルの位置座標に基づいて、異なる属性を有する前記複数のターゲット副画像を前記ターゲット画像に組み合わせるように構成される。
本願において、原画像内の干渉因子は、複数の方法を用いて最初に除去され、複数のサンプル画像が得られることが分かる。次に、複数のサンプル画像のそれぞれは、所定のセグメント化規則に基づいて複数のサンプル副画像にセグメント化することができる。次に、ターゲット副画像は、同じ属性を有するサンプル副画像から特定できるので、実像に最も類似するターゲット副画像を、同じ属性を有する複数のサンプル副画像から特定できる。次に、異なる属性を有する複数のターゲット副画像を、ターゲット画像に組み合わせることができる。このため、得られたターゲット画像は高い精度で実像を復元し、後続の画像認識の精度を向上できる。
図1は、本願の実施の例による画像処理方法を示す概略フロー図である。
図2は、本願の実施の例によるサンプル画像のセグメント化を示す概略図である。
図3は、本願の実施の例による、同じ属性を有するサンプル副画像からターゲット副画像を特定するための手順を示す概略図である。
図4は、本願の実施の例による画像処理デバイスを示す概略構造図である。
図5は、本願の実施の例による画像処理デバイスを示す概略構造図である。
実施の例はここで詳細に説明され、実施の例は添付の図面に示されている。以下の説明が添付の図面を参照するとき、他に指定されない限り、異なる添付の図面における同じ番号は、同一又は類似の要素を表す。以下の実施の例で説明される実施は、本願と一致する全ての実施を表すものではない。それどころか、それらは、添付の特許請求の範囲に詳細に記載され、本願のいくつかの態様と一致するデバイス及び方法の例にすぎない。
本願で使用される用語は、単に実施を説明するために使用されており、本願を限定するものではない。本願及び添付の特許請求の範囲で使用される単数形の「1つの(a)」、「前記(said)」及び「前記(the)」という用語は、文脈で別段の指定がない限り、複数形も含むことが意図される。また、ここで使用される「及び/又は」という用語は、1つ又は複数の関連するアイテムの任意の又は全ての可能な組み合わせを示し、含むことを理解されたい。
「第1」、「第2」、「第3」などの用語は、様々なタイプの情報を説明するために本願で使用することができるが、情報は用語によって限定されないことを理解されたい。これらの用語は、単に同じタイプの情報を区別するために使用される。例えば、本願の範囲から逸脱することなく、第1の情報を第2の情報と呼び、同様に第2の情報を第1の情報と呼んでもよい。文脈に応じて、例えば、ここで使用される「もし(if)」という単語は、「〜の間(while)」、「〜とき(when)」、又は「特定に応答して(in response to determining)」と説明することができる。
関連技術においては、フォトショップ(登録商標)等、何らかの画像処理アルゴリズム又は画像処理ツールを用いて原画像内の網目模様又は透かしを除去できる。しかし、このような場合、網目模様又は透かしを除去して得られる像は、原画像の実像を復元できないのが普通である。その結果、画像認識精度は悪影響を受けるだろう。
図1は、本願の実施の例による画像処理方法を示す概略フロー図である。
図1を参照すると、この画像処理方法は端末デバイスに適用できる。端末デバイスとして、スマートフォン、タブレットコンピュータ、携帯情報端末(PDA)、及びPC等のインテリジェントデバイスを挙げることができる。この画像処理方法は、サーバにも適用でき、本願において限定されない。この画像処理方法は以下のステップを含むことができる。
ステップ101:複数のサンプル画像を取得するために、複数の方法を用いて原画像から干渉因子を除去する。
本実施において、原画像は、通常、認識対象画像である。原画像は1つ以上の干渉因子を含むことができる。干渉因子は、通常、実像に加えられる網目模様や透かし等の干渉パタ−ンである。
本実施において、複数のサンプル画像を取得するために、関連技術で提供される異なる干渉因子除去方法を用いて原画像内の干渉因子を除去できる。例えば、原画像内の干渉因子は、フォトショップ(登録商標)等の画像処理ソフトウェアを用いて除去できる。
ステップ102:所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化する。
ステップ101に基づいて複数のサンプル画像が得られた後、各サンプル画像は所定のセグメント化規則に基づいて複数の副画像にセグメント化することができる。説明を簡単にするために、セグメント化後に得られる副画像を、サンプル副画像と称する。
本実施において、所定のセグメント化規則は開発者によって設定できる。所定のセグメント化規則において、セグメント化で用いられる単位は、サンプル副画像のサイズであってもサンプル副画像の数であってもよく、本願では限定しない。例えば、所定のセグメント化規則により、サンプル画像を25個のサンプル副画像にセグメント化、例を挙げるなら、5×5規則に基づいてサンプル画像を25個のサンプル副画像にセグメント化、であってもよい。
本実施において、原画像内の干渉因子がステップ101におけるN個の異なる方法を用いて除去された場合に、N個のサンプル画像が取得できる。更に、各サンプル画像がM個のサンプル副画像にセグメント化された場合に、合計N×M個のサンプル副画像を取得できる。M及びNは1よりも大きい自然数である。
ステップ103:同じ属性を有するサンプル副画像からターゲット副画像を特定する。
本実施において、各サンプル副画像は対応する属性を有する。この属性を用いて、サンプル副画像を含むサンプル画像内のサンプル副画像の位置情報を示すことができる。図2を参照すると、画像Aは、原画像内の干渉を除去することによって得られたサンプル画像であると仮定する。サンプル画像は、所定のセグメント化規則に基づいて3×3個のサンプル副画像にセグメント化することができる。9個のサンプル副画像の属性は、それぞれ、A11、A12、A13、A21、・・・、及びA33である。
本実施において、図2に示すセグメント化規則を一例として用いる。N個のサンプル画像を得るために、原画像内の干渉因子がN個の異なる方法を用いて除去された場合に、合計N×9個のサンプル副画像を取得できる。A11乃至A33のうちの1つの属性を有するサンプル副画像がN個存在する。このステップにおいて、属性A11を有するターゲット副画像は、属性A11を有するN個のサンプル副画像から特定でき、属性A12を有するターゲット副画像は属性A12を有するN個のサンプル副画像から特定でき、属性A11乃至A33を有する9個のターゲット副画像は同様に特定できる。
ステップ104:異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせる。
ステップ103に基づいて、ターゲット副画像が、同じ属性を有するサンプル副画像から特定された場合、異なる属性を有する複数のターゲット副画像はターゲット画像に組み合わせることができる。例えば、複数のターゲット副画像は各ターゲット副画像の属性に基づいてターゲット画像に組み合わせることができる、又は、複数のターゲット副画像は各ターゲット副画像内の各ピクセルの位置座標に基づいてターゲット画像に組み合わせることができ、本願においては限定しない。
例えば、図2に示すセグメント化規則は一例として用いられる。本ステップにおいて、属性A11乃至A33を有する9個のターゲット副画像を1つのターゲット画像に組み合わせることができる。
先の説明から分かることは、原画像内の干渉因子は複数の方法を用いることによって最初に除去されて複数のサンプル画像を取得できるという点である。次に、複数のサンプル画像のそれぞれは、所定のセグメント化規則に基づいて複数のサンプル副画像にセグメント化することができる。次に、ターゲット副画像は、同じ属性を有するサンプル副画像から特定でき、その結果、実像に最も類似するターゲット副画像を、同じ属性を有する複数のサンプル副画像から特定できる。次に、異なる属性を有する複数のターゲット副画像を、ターゲット画像に組み合わせることができる。このため、取得されたターゲット画像は高い精度で実像を復元して、後続の画像認識の精度を向上させる。
任意ではあるが、本願の実施例において、図3を参照すると、同じ属性を有するサンプル副画像からターゲット副画像を特定する工程は、以下のステップを含むことができる。
ステップ301:各サンプル副画像の数学的パラメータを特定する。
本実施において、サンプル画像が複数のサンプル副画像にセグメント化された後、各サンプル副画像の数学的パラメータを、後続の計算のために特定できる。
任意ではあるが、本願の実施例において、サンプル副画像の数学的パラメータとしてRGBベクトルを用い、サンプル副画像内の各ピクセルのRGB情報に基づいてサンプル副画像のためのRGBベクトルを生成できる。例えば、最初に、サンプル副画像内の各ピクセルのRGB値等のRGB情報を取得できる。次に、RGBベクトルを各ピクセルのRGB情報に基づいて生成できる。サンプル副画像のRGBベクトルは、サンプル副画像がK個のピクセルを含む場合、{R,R,・・・,R}であってもよく、ここでi番目のピクセルのRGB値はRであり、iの値は1乃至Kである。
ステップ302:クラスタリングアルゴリズムを用いることによって、数学的パラメータに基づいて同じ属性を有するサンプル副画像を複数の画像セットに分割するが、ここで各画像セットは1つ以上のサンプル副画像を含む。
本実施において、同じ属性を有する複数のサンプル副画像を、クラスタリングアルゴリズムを用い、サンプル副画像の数学的パラメータに基づいて複数の画像セットに分割できる。クラスタリングアルゴリズムとして、DBSCAN(Density-Based Spatial Clustering of Applications with Noise)クラスタリングアルゴリズム、K平均法クラスタリングアルゴリズム等を挙げることができ、本願において限定しない。
例えば、DBSCANクラスタリングアルゴリズムが用いられている場合、走査半径(eps)と点の最小数(minPts)は、予め特定できる。各サンプル副画像はクラスタリング工程における1点に対応する。点の最小数は、分割後に得られる画像セットに含まれ得るサンプル副画像の最小数である。クラスタリング工程において、関連する計算は、サンプル副画像の数学的パラメータに基づいて行うことができる。例えば、2つのサンプル副画像のRGBベクトル間の距離は2つのサンプル副画像間の距離として用いることができる。
ステップ303:サンプル副画像の最大数を含む画像セットからターゲット副画像を特定する。
ステップ302に基づいて、同じ属性を有するサンプル副画像が複数の画像セットに分割された後、各画像セットに含まれるサンプル副画像の数が特定され、次に、ターゲット副画像が、サンプル副画像の最大数を含む画像セットから特定されることができる。
任意ではあるが、本願の実施例において、クラスタリング後に取得された画像セット内の、中心点に対応するサンプル副画像は、サンプル副画像の最大数を含む画像セットからターゲット副画像として特定できる。
本実施において、クラスタリングアルゴリズムは同じ属性を有するサンプル副画像からターゲット副画像を特定するために用いられて、特定されたターゲット副画像が実像に、より類似することを確保できる。
画像処理方法の実施に対応して、本願は、更に、画像処理デバイスの実施を提供する。
本願における画像処理デバイスの実施は端末デバイス又はサーバに適用できる。このデバイスの実施は、ソフトウェア、ハードウェア、又はその両方を用いて実施できる。ソフトウェアによる実施を実施例として用いる。論理装置として、本デバイスは、不揮発性メモリ内の対応するコンピュータプログラム命令を、本デバイスが配置される端末デバイス又はサーバのプロセッサによってメモリ内に読み取ることによって、形成される。図4に示すようなハードウェアの見地からすると、図4は、本願における画像処理デバイスが配置される端末デバイス又はサーバのハードウェアを示す構造図である。図4に示すプロセッサ、メモリ、ネットワークインターフェース、及び不揮発性メモリに加えて、本実施におけるデバイスが配置される端末デバイス又はサーバは、通常、端末デバイス又はサーバの実際の機能に基づく他のハードウェアを含むことができる。詳細はここでは繰り返さない。
図5は、本願の実施の例による画像処理デバイスを示す概略構造図である。
図5を参照すると、画像処理デバイス400は、図4に示す端末デバイス又はサーバに適用でき、干渉除去ユニット401、画像セグメント化ユニット402、ターゲット特定ユニット403、及びターゲット組み合わせユニット404を含む。ターゲット特定ユニット403は、更に、パラメータ特定サブユニット4031、セット分割サブユニット4032、及びターゲット特定サブユニット4033を含むことができる。
干渉除去ユニット401は、複数のサンプル画像を取得するために、複数の方法を用いて原画像から干渉因子を除去するように構成される。
画像セグメント化ユニット402は、所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化するように構成される。
ターゲット特定ユニット403は、同じ属性を有するサンプル副画像からターゲット副画像を特定するように構成される。
ターゲット組み合わせユニット404は、異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるように構成される。
パラメータ特定サブユニット4031は、各サンプル副画像の数学的パラメータを特定するよう構成される。
セット分割サブユニット4032は、クラスタリングアルゴリズムを用いて、数学的パラメータに基づいて同じ属性を有するサンプル副画像を複数の画像セットに分割するように構成される。各画像セットは1つ以上のサンプル副画像を含む。
ターゲット特定サブユニット4033は、サンプル副画像の最大数を含む画像セットからターゲット副画像を特定するように構成される。
任意ではあるが、パラメータ特定サブユニット4031は、サンプル副画像の数学的パラメータとしてRGBベクトルを用い、サンプル副画像内の各ピクセルのRGB情報に基づいてサンプル副画像のためのRGBベクトルを生成するように構成される。
任意ではあるが、ターゲット特定サブユニット4033は、サンプル副画像の最大数を含む画像セットからのターゲット副画像として、クラスタリング後に取得された画像セット内の、中心点に対応するサンプル副画像を特定するように構成される。
任意ではあるが、ターゲット組み合わせユニット404は、ターゲット副画像内の各ピクセルの位置座標に基づいて、異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるように構成される。
デバイス内のユニットの機能及び役割の実施工程については、対応するステップの実施工程を参照できる。詳細はここでは説明しない。
デバイスの実施は、概して、方法の実施に対応している。このため、関連する説明のために、方法の実施の説明を参照できる。説明したデバイスの実施は単なる実施例である。別部品として説明したユニットは物理的に分離していてもいなくてもよく、また、ユニットとして説明した部品は物理的なユニットであってもなくてもよい。それらは一箇所に位置していてもよく、複数のネットワークユニット上に分散していてもよい。モジュールのうちの一部又は全ては、本願の解決策の目的を達成するために、実際のニーズに従って選択できる。当業者は、創意工夫をすることなく、本発明の実施を理解し、実施できる。
前述の説明は、本願の実施の単なる例である。それらは、本願を限定するものではない。本願の精神及び原理から逸脱することなくなされた任意の修正、均等物の置換、又は改良は、本願の保護範囲内に入るものとする。

Claims (10)

  1. 複数のサンプル画像を得るために、複数の方法を用いて原画像から干渉因子を除去するステップと;
    所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化するステップと;
    同じ属性を有するサンプル副画像からターゲット副画像を特定するステップと;
    異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるステップと;を備える、
    画像処理方法。
  2. 同じ属性を有するサンプル副画像からターゲット副画像を特定する前記ステップは:
    各サンプル副画像の数学的パラメータを特定するステップと;
    クラスタリングアルゴリズムを用いて、前記数学的パラメータに基づいて同じ属性を有する前記サンプル副画像を、複数の画像セットに分割するステップであって、各画像セットは1つ以上のサンプル副画像を含む、分割するステップと;
    サンプル副画像の最大数を含む画像セットから前記ターゲット副画像を特定するステップと;を備える、
    請求項1に記載の方法。
  3. 各サンプル副画像の数学的パラメータを特定する前記ステップは:
    前記サンプル副画像の前記数学的パラメータとしてRGBベクトルを用い、前記サンプル副画像内の各ピクセルのRGB情報に基づいて前記サンプル副画像のための前記RGBベクトルを生成するステップを備える、
    請求項2に記載の方法。
  4. サンプル副画像の最大数を含む画像セットから前記ターゲット副画像を特定する前記ステップは:
    サンプル副画像の最大数を含む前記画像セットからの前記ターゲット副画像として、クラスタリング後に取得された前記画像セット内の、中心点に対応するサンプル副画像を特定するステップを備える、
    請求項2に記載の方法。
  5. 異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせる前記ステップは:
    前記ターゲット副画像内の各ピクセルの位置座標に基づいて、異なる属性を有する前記複数のターゲット副画像を前記ターゲット画像に組み合わせるステップを備える、
    請求項1に記載の方法。
  6. 複数のサンプル画像を取得するために、複数の方法を用いて原画像から干渉因子を除去するように構成された干渉除去ユニットと;
    所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化するように構成された画像セグメント化ユニットと;
    同じ属性を有するサンプル副画像からターゲット副画像を特定するように構成されたターゲット特定ユニットと;
    異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるように構成されたターゲット組み合わせユニットと;を備える、
    画像処理デバイス。
  7. 前記ターゲット特定ユニットは:
    各サンプル副画像の数学的パラメータを特定するように構成されたパラメータ特定サブユニットと;
    クラスタリングアルゴリズムを用いて、前記数学的パラメータに基づいて同じ属性を有する前記サンプル副画像を複数の画像セットに分割するように構成され、各画像セットが1つ以上のサンプル副画像を備える、セット分割サブユニットと;
    サンプル副画像の最大数を備える画像セットから前記ターゲット副画像を特定するように構成されたターゲット特定サブユニットと;を備える、
    請求項6に記載のデバイス。
  8. 前記パラメータ特定サブユニットは、前記サンプル副画像の前記数学的パラメータとしてRGBベクトルを用い、前記サンプル副画像内の各ピクセルのRGB情報に基づいて前記サンプル副画像のための前記RGBベクトルを生成するよう構成された、
    請求項7に記載のデバイス。
  9. 前記ターゲット特定サブユニットは、サンプル副画像の最大数を含む前記画像セットからの前記ターゲット副画像として、クラスタリング後に取得された前記画像セット内の、中心点に対応するサンプル副画像を特定するように構成される、
    請求項7に記載のデバイス。
  10. 前記ターゲット組み合わせユニットは、前記ターゲット副画像内の各ピクセルの位置座標に基づいて、異なる属性を有する前記複数のターゲット副画像を前記ターゲット画像に組み合わせるように構成された、
    請求項6に記載のデバイス。
JP2018557180A 2016-01-25 2017-01-16 画像処理方法及びデバイス Active JP6937782B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610049672.0 2016-01-25
CN201610049672.0A CN106997580B (zh) 2016-01-25 2016-01-25 图片处理方法和装置
PCT/CN2017/071256 WO2017128977A1 (zh) 2016-01-25 2017-01-16 图片处理方法和装置

Publications (3)

Publication Number Publication Date
JP2019504430A true JP2019504430A (ja) 2019-02-14
JP2019504430A5 JP2019504430A5 (ja) 2020-08-13
JP6937782B2 JP6937782B2 (ja) 2021-09-22

Family

ID=59397393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018557180A Active JP6937782B2 (ja) 2016-01-25 2017-01-16 画像処理方法及びデバイス

Country Status (10)

Country Link
US (2) US10706555B2 (ja)
EP (1) EP3410389A4 (ja)
JP (1) JP6937782B2 (ja)
KR (1) KR102239588B1 (ja)
CN (1) CN106997580B (ja)
MY (1) MY192394A (ja)
PH (1) PH12018501579A1 (ja)
SG (1) SG11201806345QA (ja)
TW (1) TWI711004B (ja)
WO (1) WO2017128977A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106997580B (zh) * 2016-01-25 2020-09-01 阿里巴巴集团控股有限公司 图片处理方法和装置
CN113516328B (zh) * 2020-07-13 2022-09-02 阿里巴巴集团控股有限公司 数据处理方法、服务提供方法、装置、设备和存储介质
KR102473506B1 (ko) * 2022-06-16 2022-12-05 김태진 뉴럴 네트워크를 이용하여 워터마크가 삽입된 데이터를 제공하는 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196297A (ja) * 1997-09-17 1999-04-09 Hitachi Ltd 帳票画像処理方法及び帳票画像処理装置
JP2002190945A (ja) * 2000-10-12 2002-07-05 Canon Inc 情報処理装置及びその制御方法及び記憶媒体
US7024043B1 (en) * 1998-12-11 2006-04-04 Fujitsu Limited Color document image recognizing apparatus
JP2013084071A (ja) * 2011-10-07 2013-05-09 Hitachi Computer Peripherals Co Ltd 帳票認識方法および帳票認識装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
AU2003903728A0 (en) * 2003-07-21 2003-07-31 Hao Hang Zheng Method and system for performing combined image classification storage and rapid retrieval on a computer database
US8014590B2 (en) 2005-12-07 2011-09-06 Drvision Technologies Llc Method of directed pattern enhancement for flexible recognition
US7586646B2 (en) * 2006-04-12 2009-09-08 Xerox Corporation System for processing and classifying image data using halftone noise energy distribution
TW201002048A (en) * 2008-06-30 2010-01-01 Avermedia Information Inc Document camera and image processing method thereof
US20120065518A1 (en) * 2010-09-15 2012-03-15 Schepens Eye Research Institute Systems and methods for multilayer imaging and retinal injury analysis
CN102436589B (zh) * 2010-09-29 2015-05-06 中国科学院电子学研究所 一种基于多类基元自主学习的复杂目标自动识别方法
KR20130021616A (ko) * 2011-08-23 2013-03-06 삼성전자주식회사 다중 측위를 이용한 단말의 측위 장치 및 방법
CN103839275B (zh) 2014-03-27 2016-11-16 中国科学院遥感与数字地球研究所 高光谱图像的道路提取方法及装置
CN105450411B (zh) * 2014-08-14 2019-01-08 阿里巴巴集团控股有限公司 利用卡片特征进行身份验证的方法、装置及系统
CN106997580B (zh) * 2016-01-25 2020-09-01 阿里巴巴集团控股有限公司 图片处理方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196297A (ja) * 1997-09-17 1999-04-09 Hitachi Ltd 帳票画像処理方法及び帳票画像処理装置
US7024043B1 (en) * 1998-12-11 2006-04-04 Fujitsu Limited Color document image recognizing apparatus
JP2002190945A (ja) * 2000-10-12 2002-07-05 Canon Inc 情報処理装置及びその制御方法及び記憶媒体
JP2013084071A (ja) * 2011-10-07 2013-05-09 Hitachi Computer Peripherals Co Ltd 帳票認識方法および帳票認識装置

Also Published As

Publication number Publication date
US10706555B2 (en) 2020-07-07
JP6937782B2 (ja) 2021-09-22
CN106997580A (zh) 2017-08-01
EP3410389A4 (en) 2019-08-21
EP3410389A1 (en) 2018-12-05
SG11201806345QA (en) 2018-08-30
US20200126238A1 (en) 2020-04-23
MY192394A (en) 2022-08-18
KR20180105210A (ko) 2018-09-27
US20190005651A1 (en) 2019-01-03
CN106997580B (zh) 2020-09-01
TWI711004B (zh) 2020-11-21
TW201732733A (zh) 2017-09-16
WO2017128977A1 (zh) 2017-08-03
PH12018501579A1 (en) 2019-04-08
US10769795B2 (en) 2020-09-08
KR102239588B1 (ko) 2021-04-15

Similar Documents

Publication Publication Date Title
US10936911B2 (en) Logo detection
JP7429542B2 (ja) 拡張現実、仮想現実、ロボティクスに適したグラフィカルな基準マーカ識別
WO2021017261A1 (zh) 识别模型训练方法、图像识别方法、装置、设备及介质
CN107633526B (zh) 一种图像跟踪点获取方法及设备、存储介质
JP6099793B2 (ja) 1つ以上の画像処理アルゴリズムの自動選択のための方法およびシステム
CN111523468B (zh) 人体关键点识别方法和装置
CN110648397A (zh) 场景地图生成方法、装置、存储介质及电子设备
CN104657709B (zh) 人脸图像识别方法、装置及服务器
JP6997369B2 (ja) プログラム、測距方法、及び測距装置
CN111881804B (zh) 基于联合训练的姿态估计模型训练方法、系统、介质及终端
CN110390327B (zh) 前景提取方法、装置、计算机设备及存储介质
US9870647B2 (en) System and method for processing color of three-dimensional object
JP6937782B2 (ja) 画像処理方法及びデバイス
TW202011266A (zh) 用於圖片匹配定位的神經網路系統、方法及裝置
CN110827301B (zh) 用于处理图像的方法和装置
CN112101386A (zh) 文本检测方法、装置、计算机设备和存储介质
KR101853211B1 (ko) 모바일 gpu 환경에서 차영상 정보를 이용한 sift 알고리즘의 복잡도 감소 기법
JP2020003879A (ja) 情報処理装置、情報処理方法、透かし検出装置、透かし検出方法、及びプログラム
CN114758145A (zh) 一种图像脱敏方法、装置、电子设备及存储介质
US9361540B2 (en) Fast image processing for recognition objectives system
CN116994002B (zh) 一种图像特征提取方法、装置、设备及存储介质
CN113361545B (zh) 图像特征提取方法、装置、电子设备和存储介质
WO2019082283A1 (ja) 画像解析装置
WO2015162028A2 (en) Method, device, user equipment and computer program for object extraction from multimedia content
CN106599860B (zh) 一种人脸检测的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191224

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20201228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210831

R150 Certificate of patent or registration of utility model

Ref document number: 6937782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150