JP6767966B2 - 微視的差異からの機械学習を使用する物体の真贋鑑定 - Google Patents

微視的差異からの機械学習を使用する物体の真贋鑑定 Download PDF

Info

Publication number
JP6767966B2
JP6767966B2 JP2017504609A JP2017504609A JP6767966B2 JP 6767966 B2 JP6767966 B2 JP 6767966B2 JP 2017504609 A JP2017504609 A JP 2017504609A JP 2017504609 A JP2017504609 A JP 2017504609A JP 6767966 B2 JP6767966 B2 JP 6767966B2
Authority
JP
Japan
Prior art keywords
layer
layers
image
neural network
convolutional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017504609A
Other languages
English (en)
Other versions
JP2017520864A (ja
Inventor
シャルマ アシュレシュ
シャルマ アシュレシュ
スブラマニアン ラクシュミナラヤナン
スブラマニアン ラクシュミナラヤナン
スリニヴァサン ヴィデュス
スリニヴァサン ヴィデュス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Entrupy Inc
Original Assignee
Entrupy Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Entrupy Inc filed Critical Entrupy Inc
Publication of JP2017520864A publication Critical patent/JP2017520864A/ja
Application granted granted Critical
Publication of JP6767966B2 publication Critical patent/JP6767966B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Description

関連出願の相互参照
本願は、2014年4月9日に出願された米国仮特許出願第61/977,423号明細書に基づき、この仮特許出願の内容全体は参照により本明細書に援用される。
本開示は、物体の真贋鑑定に関し、より詳細には、微視的差異からの機械学習を使用して物体の真贋を鑑定することに関する。
物理的製品の偽造は世界的な問題である。世界貿易の7%が偽造品に関わると推定されている。何年にもわたり、ホログラム及びバーコード等の顕在的技術からタガントのような隠在的技術まで、偽造品の問題を軽減しようとする様々な技術的解決策が存在した。しかし、これらの解決策は、最終消費者が物体を真贋鑑定するのに役立つことにおいて限られた価値を提供し、一般に、RFIDマイクロチップ等の埋め込みタガントの使用を含む。
製品を真贋鑑定する他の手法は、真正品を高品質複製から区別する傾向を有する微妙な差異に精通した熟練した専門家の技能を利用することを含み得る。しかし、これら等の技能は不足し得、販売場所では容易に利用可能ではないことがある。さらに、製品が真正であると鑑定された後であっても、真贋鑑定士は、真正性の証明書を提供し得るが、これも偽造されるおそれがある。
市場で偽造品が広まると、正当な製造業者の収入は低減し得、真正品の価格は上昇し得、中古市場等での高級品の中古市場が阻害され得る。したがって、偽造品の広まりは、製造業者、消費者、及び世界経済にとって悪である。
第1の物体の少なくとも一部分を真贋鑑定する例示的なシステムは、第1の物体の少なくとも一部分の少なくとも1つの第1の顕微鏡画像を受信することを含む。任意選択的に製造プロセス又は仕様に基づいてクラスが関連付けられた少なくとも1つの第2の物体の少なくとも一部分の少なくとも1つの顕微鏡画像を含むラベルデータが、受信される。数学的関数を含む機械学習技法は、ラベルデータをトレーニング入力又は比較入力として使用して物体のクラスを認識するようにトレーニングされ、第1の顕微鏡画像は、機械学習技法へのテスト入力として使用されて、第1の物体のクラスを判断する。
例示的な真贋鑑定システムは、低、中、及び高レベル微視的差異及び特徴を捕捉する畳み込み層及びサブサンプリング層を有するnステージ畳み込みニューラルネットワークベースの分類器を使用し得る。
例示的な真贋鑑定システムは、特徴抽出、勾配方向ヒストグラムによるキーポイント記述子生成、及びバッグオブビジュアルワードベースの分類器を含むサポートベクターマシンベースの分類器を使用し得る。本システムは、クラスタの密度推定に基づいて物体を分類する異常検出システムを使用することもできる。顕微鏡画像は、物体の識別に必須の曲線、ブロブ、及び他の特徴を含み得る。
物体は、ハンドバッグ、靴、アパレル、ベルト、時計、ワインボトル、アーティストのサイン、スポーツ用品、ゴルフクラブ、ジャージ、化粧品、薬錠、電子デバイス、電子部品、電子チップ、電子回路、電池、電話、自動車部品、玩具、自動車部品、エアバッグ、航空機部品、ファスナー、通貨、紙幣、マネーオーダー、又は偽造され得る任意の他の物品のうちの任意の1つであり得る。
例示的なシステムは、サポートベクターマシンと、ニューラルネットワークと、異常検出技法との組合せを使用して、物品を真贋鑑定することもできる。幾つかの例示的な実施形態によれば、真贋鑑定は、ハンドヘルド計算デバイス又は顕微鏡装置を有する携帯電話を使用して実行し得る。
本開示の例示的な実施形態のこれら及び他の目的、特徴、並びに態様は、添付される段落と併せて解釈される場合、本開示の例示的な実施形態の以下の詳細な説明を読んだ上で明らかになる。
本開示の更なる目的、特徴、及び態様は、本開示の例示的な実施形態を示す添付図と併せて解釈される以下の詳細な説明から明らかになる。
本開示の例示的な実施形態により、バッグオブビジュアルワードを使用して顕微鏡画像から物体を分類し真贋鑑定する例示的な方法を示すフローチャートである。 本開示の例示的な実施形態により、バッグオブビジュアルワード、畳み込みニューラルネットワーク、及び異常検出に基づく投票処理を使用して、顕微鏡画像から物体を分類し真贋鑑定する例示的な方法を示すフローチャートである。 本開示の例示的な実施形態により、物体から顕微鏡画像を抽出し、機械学習システムから数学的モデルを生成することにより、機械学習システムをトレーニングする例示的な方法を示すフローチャートである。 本開示の例示的な実施形態による、トレーニングされた数学的モデルを使用することによるシステムのテストフェーズの例示的な図を示すフローチャートである。 本開示の例示的な実施形態による例示的な8層畳み込みニューラルネットワークを示すブロック図である。 本開示の例示的な実施形態による例示的な12層畳み込みニューラルネットワークを示すブロック図である。 本開示の例示的な実施形態による例示的な16層畳み込みニューラルネットワークを示すブロック図である。 本開示の例示的な実施形態による例示的な20層畳み込みニューラルネットワークを示すブロック図である。 本開示の例示的な実施形態による例示的な24層畳み込みニューラルネットワークを示すブロック図である。 本開示の例示的な実施形態による偽物画像の第1及び第3の畳み込み層を示す例示的な畳み込みニューラルネットワークパイプラインを示す画像である。 本開示の例示的な実施形態による真正画像の第1及び第3の畳み込み層を示す例示的な畳み込みニューラルネットワークパイプラインを示す画像である。 本開示の例示的な実施形態による真正画像及び偽物画像の例示的な全結合層6を示す画像である。 本開示の例示的な実施形態による真正画像及び偽物画像の例示的な全結合層7を示すグラフである。 複数の畳み込みネットにわたる例示的なマルチスケール処理及び分類を示すブロック図である。 本開示の例示的な実施形態による畳み込みネットワークのアンサンブルにわたり顕微鏡画像を分類する例示的なアンサンブル解決策を示すブロック図である。 本開示の例示的な実施形態による物体を真贋鑑定するモバイルアプリケーションを示す図である。 本明細書に記載される様々な実施形態によるシステム内又はスタンドアロンで使用し得るサーバの例を示す概略図である。 本明細書に記載される様々な実施形態によるクライアントデバイスを示すブロック図である。
図面全体を通して、同じ参照番号及び文字は、示される実施形態の同様の特徴、要素、構成要素、又は部分を示すために使用し得る。さらに、本開示について図を参照してこれより詳細に説明するが、本開示は例示的な実施形態に関連して説明され、図に示される特定の実施形態により限定されない。
本開示の例示的な実施形態による例示的なシステム、方法、及びコンピュータアクセス可能媒体は、微視的差異からの機械学習を使用して物体を真贋鑑定し得る。例示的なシステム、方法、及びコンピュータアクセス可能媒体は、規定又は標準化された方法を使用して製造された物体は、通常は偽造品である非規定の方法で製造される物と比較して顕微鏡レベルで同様の視覚的特徴を有する傾向があるという概念に基づき得る。これらの特徴を使用して、物体の別個のグループを真正又は非真正として分類し区別し得る。
本発明の例示的な実施形態は、ハンドヘルドで低コストのデバイスを使用して、様々な物体の顕微鏡画像を捕捉し得る。次に、微視的領域において、新規の教師付き学習技法を使用し、デバイスから抽出される顕微鏡画像を分類することにより、物体を真贋鑑定し得る。教師付き学習技法の組合せを使用し得る。これらの技法は、以下のうちの1つ又は複数を含み得る:(i)勾配方向ヒストグラムに基づいて特徴を抽出することによりバッグオブビジュアルワードを使用するSVMベースの分類、(ii)カーネル(フィルタ)、サブサンプリング層、及びプーリング層を変更することによりマルチステージ畳み込みニューラルネットワークを使用する分類、ここでは、異なるアーキテクチャ(例えば、ステージの構成)を使用して、テスト誤差率を低減し得る、及び(iii)基底ベクトルからの最近傍距離に対応するベクトルをランク付けることにより異常検出技法を使用する分類。
例示的なバッグオブビジュアルワード
本開示の例示的な実施形態によるシステムは、物品の顕微鏡画像を分類して、真正を確認するに当たり、5段階プロセスを含み得る:(i)パッチ、コーナー、又はブロブベースの画像記述子を使用して特徴を抽出し、(ii)最近傍が、ビジュアルワードを形成する同じ又は付近の領域(バッグ)に入るように、記述子を量子化し、これがビジュアルワードを形成し、(iii)顕微鏡画像候補内のビジュアルワードをヒストグラム化し、(iv)カーネルマップ及び線形SVMを使用して、真正として画像をトレーニング(又は画像を真正としてラベリング)し、(v)テストフェーズ中、同じ手順を使用して新しい顕微鏡画像を分類して、物品の画像、ひいては物品が真正であるか否かを検証し得る。量子化のレベル、特徴抽出パラメータ、及びビジュアルワード数は、微視的差異を探し、顕微鏡レベルで物品の画像を分類する場合、重要であり得る。
例示的な特徴抽出
物品の画像が、顕微鏡撮像ハードウェアを使用して捕捉されると、画像は、処理のためにより小さな画像チャンクに分割し得る。画像をより小さなチャンクに分割することは、(i)顕微鏡撮像ハードウェアの視野が約12mm×10mmと広い(他のオフセルフ顕微鏡撮像ハードウェアと比較して)ことを含め、複数の利点を提供し得る。幾つかの例示的な実施形態によれば、微視的差異は、10μm範囲で解析し得、したがって、好ましくは、画像は、これらの差異の処理を支援するために、より小さな画像に分割し得る。(ii)画像をより小さなチャンクに分割することは、ビジュアルボキャブラリを構築し、微小な差異を説明するのに役立ち得る。
次に、各画像チャンク又はパッチは、異なるスケール(スケール不変性のため)でガウスフィルタのラプラシアンを使用して処理され、ロバストなキーポイント又はブロブ領域を見つけ得る。キーポイント周囲のピクセルの正方形近傍(例えば、幾つかの実施形態では、8×8、16×16、32×32)が選択されて、勾配方向ヒストグラムを計算し得る。回転不変性を達成するために、ヒストグラムは、勾配の主方向の向きに基づいて計算し得る。画像が回転される場合、勾配の主方向は、同じままであり、近傍ヒストグラムの他のあらゆる要素は、非回転画像と同じままである。記述子又はヒストグラムベクトルは、例えば、128次元数であり得、記述子はあらゆるキーポイントについて計算し得、スケール又は回転の変化にロバストな画像の記述子が計算されることになる(記述子又はヒストグラムベクトルはn次元数であり得る)。
ガウスのラプラシアンは実行時間に関して低速であるため、FASTコーナー検出アルゴリズムを使用して、キーポイントの発見プロセスを加速化することもできる。コーナーは、FASTにより良好に表され、エッジ及びブロブは考慮されない。この問題を軽減するために、画像は、重複しない等しい窓に分割され、次に、FAST検出器にこれらの各窓内のキーポイントを強制的に発見させ、それにより、動作するキーポイントの密な格子を与え得る。キーポイントが識別されると、プロセスは、勾配方向ヒストグラムを計算して、1組の記述子を得ることを含む。
例示的な量子化
記述子は、ビジュアルワードの数に基づいて、k平均クラスタリングを使用してクラスタ化し得る。基本的にクラスタの数であるビジュアルワード数を使用して、ビジュアルボキャブラリの形成において必要とされる粒度を制御し得る。例えば、階層画像分類では、物体間分類を用いる高レベルほど、ボキャブラリは小さくすることができ、一方、本発明のような微細粒度画像分類では、ボキャブラリは、異なる微視的差異に対応するために、大きいサイズのものである必要がある。したがって、幾つかの実施形態では、微視的差異の多様性を捕捉し得るように、固定数のビジュアルワードが使用されず、代わりに範囲を使用し得る。例えば、k平均クラスタリングは、固定サイズのクラスタの代わりにある範囲のクラスタに対して実行し得る。k平均クラスタ中心はここで、参照画像が、真正(又は非真正)として分類するのに十分なワードとして否かを見つけることにおいて使用されるビジュアルボキャブラリ又はコードブックを形成する。
例示的なビジュアルワードヒストグラム
アルゴリズムでの次のステップは、画像チャンク内のビジュアルワードのヒストグラムを計算することを含み得る。キーポイント記述子は、クラスタ中心(又はビジュアルワード)にマッピングし得、ヒストグラムは、ビジュアルワードの頻度に基づいて形成し得る。ビジュアルワードのヒストグラムが与えられると、ある物品の画像のビジュアルワードをここで、別の物品の画像と照合しようとし得る。真正又は非真正として分類する必要がある物品の画像候補のビジュアルワードをベースライン又はトレーニング画像(それ自体のビジュアルワードセットを有する)と比較して、画像候補を分類することができる。プロセスは自動化し得、したがって、幾つかの例示的な実施形態では、SVMベースの分類器を使用し得る。
例示的なSVM分類器
1つ又は複数のトレーニング画像のビジュアルワードが得られると、サポートベクターマシン(SVM)を使用して、システムをトレーニングし得る。幾つかの例示的な実施形態によれば、(i)線形SVM、(ii)非線形放射基底関数カーネルSVM、及び(iii)2線形xSVMを含む3つのタイプのSVMを使用し得る。線形SVMは、トレーニングがより高速であるが、非線形及び2線形xSVMは、多数のカテゴリを分類する場合、優れた分類結果を提供し得る。幾つかの実施形態では、システムは、一対多分類を使用して、画像を用いてトレーニングし得るが、この手法は、トレーニングセットが増大する(例えば、カテゴリの数が増大する)につれて、拡張できなくなり得る。他の実施形態では、カテゴリ対が分類される一対一手法等の別の手法。幾つかの例示的な実施形態では、両手法を利用し得、両方とも、異なる状況下で妥当な性能を提供する。
アルゴリズムの第1段階中、特徴抽出前、画像はチャンクに分割し得る。分割又は分離窓のステップサイズは、分割された画像を重複させないか、又は重複させ得る。分割は、様々な窓サイズで実行し得、例示的な学習結果を以下に詳細に示す。
例示的な畳み込みニューラルネットワーク
例示的な畳み込みニューラルネットワークは、教師が殆どいない状態で、画像カテゴリ、ビデオサンプル、及び他の複雑なタスクを分類することにおいて成功し得る。技術的現況の機械認識システムは、何らかの形態の畳み込みニューラルネットワークを使用し、技法は、Caltech−101、CIFAR、及びImageNet等の標準的なビジョンデータベースに適用される場合、今までで最良の結果を達成している。
畳み込みニューラルネットワーク(コンボリューションネット)では、各ステージは、畳み込み手順及びサブサンプリング手順を含み得る。2つ以上のステージが分類を改善し得る場合、ステージ数は分類タスクに基づく。あらゆる分類タスクに適する最適なステージ数はない。したがって、幾つかの例示的な実施形態によれば、1ステージ、2ステージ、及び3ステージコンボリューションネットが、分類精度に基づいて選択される最良ステージと併用し得る。
1ステージコンボリューションネットは、畳み込み層及びサブサンプリング層を含み得、その後、出力は全結合ニューラルネットであり、逆伝搬を使用してトレーニングされる。1ステージコンボリューションネットに伴う問題は、勾配ベースの学習手法が、エッジ、コーナー、及び低レベル特徴を識別するが、ブロブ、曲線、及び他の複雑なパターン等のより高レベルの特徴を学習することができないことである。分類正確率は、より高レベルの特徴が捕捉されないことがあるため、80%超であり得、その上、1ステージコンボリューションネットは、場合によっては、最適未満であるように見え得るが、他の例示的な実施形態において使用し得る。
2ステージコンボリューションネットは、2組の交互になった畳み込み層及びサブサンプリング層を含み得る。最後の2層は、全結合し得、逆伝搬アルゴリズムを使用してトレーニングし得る。2ステージコンボリューションネットは、微視的領域で重要な分類キューであるブロブ、曲線、及び特徴を識別する。表面の顕微鏡画像を観測する場合、エッジ及びコーナーから離れた際立った特徴は、複雑な曲線、ブロブ、及び形状である。これらの特徴は、2ステージコンボリューションネットが使用されたことだけを理由として、捕捉されない。それを達成するには、適切な畳み込み及びサンプリング技法が必要であり得、これについて、このセクションにおいてより詳細に説明する。2ステージコンボリューションネットを用いる場合、90%超の分類精度を達成し得る。
3ステージコンボリューションネットは、3組の交互になった畳み込み層及びサブサンプリング層並びに全結合される2つの最終層を含む。ネットワーク全体は、逆伝搬アルゴリズムを使用してトレーニングし得る。3ステージコンボリューションネットの性能は、分類精度約75%で、1ステージ及び2ステージコンボリューションネットよりも悪い性能であり得る。この挙動の一理由は、複雑な曲線及び形状後に微視的領域により高レベルの特徴がないことである。一般的な画像分類タスクでは、例えば、犬と猫とを分類する場合、2ステージコンボリューションネットは、曲線及び幾つかの形状を識別するが、単なる曲線よりも高いレベルにある鼻、耳、目を識別することは決してできない。これらの分類タスクでは、3ステージ(又は時には4又は5ステージ)コンボリューションネットを使用して、より高レベルの特徴を識別することが好ましいことがある。幾つかの実施形態では、微視的パターンが特定の構造を有さないため、3ステージコンボリューションネットは最適未満であり得るが、他の例示的な実施形態では使用し得る。実際には、最終ステージ(畳み込み及びサブサンプリング)に起因して、分類で必要な特徴の幾つかは失われ得る。
例示的な畳み込み層
バッグオブビジュアルワード法を使用しての物体認識タスクでの特徴抽出は、特徴の識別区別を含み得る。スケール不変性特徴変換(SIFT)、スピードアップロバスト特徴(SURF)、及び他の技法を使用したハンドクラフト特徴抽出を使用し得る。画像統計が既に分かっている場合、ハンドクラフト特徴が特によく適し得る。しかし、画像統計が未知の場合、ハンドクラフト特徴は問題であり得、その理由は、何が示差的特徴セット−−画像の分類に役立つ特徴セット−−であるかが不明確であるためである。この問題を回避するために、複数の畳み込みを画像候補に対して実行して、異なるタイプの特徴を抽出又は捕捉し得る。幾つかの実施形態では、96タイプの畳み込みカーネルを画像候補に対して使用して、畳み込み層の一部として、サイズ96の特徴マップを生成し得る。これらの畳み込みは、顕微鏡画像で生じ得る多様な歪みを捕捉する。画像は物体表面の画像捕捉及び改竄からの変動及び歪みを受けるため、畳み込みを画像に適用して、そのような歪みに対してネットワークをロバストにし得る。また、これらの組のフィルタはトレーニング可能であり、したがって、畳み込み層内のフィルタは、顕微鏡画像に基づいてトレーニングし得る。トレーニング可能なフィルタは、分類アルゴリズムが一定の組のフィルタ/畳み込みに依存しないようにするために必須である。フィルタをトレーニング可能にするために、トレーニング可能なスカラー項は、i番目の特徴マップがm=gtanh(f )であるような非線形関数と共に使用し得、式中、gはスカラー項であり、tanhは非線形関数であり、fはフィルタであり、xは画像である。
例示的なサブサンプリング層
畳み込みが画像に対して実行されると、出力は、1組の特徴マップを含み得る。各特徴マップは次に、最大プーリングされ、コントラスト正規化されて、サイズが低減された特徴マップを生成し得る。これは、サブサンプリングプロセスであり、大きなずれへのロバスト性の改善と共に、特徴マップの次元を低減するために行われ得る。畳み込みは歪みへのロバスト性を提供するが、サブサンプリングは、シフト、並進移動、及び微小な歪みよりも大きな変動に関してのロバスト性を提供する。ステップが4である4×4〜16×16ピクセルのサイズ範囲のスライド窓を使用して、これらの窓パッチの最大プールを計算して、サブサンプリング特徴マップを形成し得る。特徴マップは次に、ガウス窓を使用してコントラスト正規化されて、疑似特徴の影響を低減する。窓サイズ(及びステップサイズ)を変更すると、テスト誤差率が大幅に変化する。窓サイズが増大するにつれて、テスト誤差率は増大する。これは部分的に、小さなエリアとは対照的に大きなエリアから最大プーリングされる場合、より高レベルの特徴が失われるためである。また、局所コントラスト正規化により実行される「平均処理」は、区別可能な特徴がないフラットな特徴を増大生じさせる。したがって、好ましい実施形態では、窓サイズは、サブサンプリング層において特定の限度(例えば、4×4、8×8、又は16×16)内に保たれる。
平均プーリングは、微小な歪み及び疑似特徴の影響を正規化するために実行することもできる。プーリング手順は、視覚認知での複雑な脳細胞をモデリングし、局所コントラスト正規化は特定の神経科学モデルに従う。
最後の2層は全結合され、線形分類器を使用して、最終的な出力値を分類し得る。最後の2層は、隠れ層と、分類のためのロジスティック回帰とを有する多層ニューラルネットワークとして機能する。最終層では、ソフトマックス基準又は交差エントロピーベースの基準を分類に使用することができる。SVMベースの技法を使用して、最終層の出力を分類することもできる。全体が2ステージ8層のコンボルーションネットの例を図5に提示する。図5では、第1のステージは501、502、503、504、及び505であり、506、507、508は第2のステージである。
バッグオブビジュアルワード法を使用する物体認識タスクでの特徴抽出は、示差的特徴の識別を含む。DSIFT、DAISY、及び他の技法を使用するハンドクラフト特徴抽出を使用し得る。画像統計が既に分かっている場合、ハンドクラフト特徴を使用し得る。しかし、画像統計が未知の場合、ハンドクラフト特徴は問題であり、その理由は、何が示差的特徴セット−−画像の分類に役立つ特徴セット−−であるかが不明確であるためである。画像内の微細粒度特徴及びマクロ特徴の両方が失われるおそれがあり、その理由は、ハンドクラフト特徴画、それらを関心領域又は関心点として識別することができないことがあるためである。顕微鏡画像の分類においてこの問題を回避するために、畳み込みニューラルネットワーク(CNN)を使用し得る。
CNNは、画像に対して実行される動作の層である。一般に、使用される層が多いほど、CNNモデルの性能又は精度はよくなる。CNNの深度は、複雑な特徴の分類又は学習の精度を決め得る重要なハイパーパラメータである。表面の顕微鏡画像を観測する場合、エッジ及びコーナーから離れて際立つ特徴は、複雑な曲線、ブロブ、及び形状である。これらのより高レベルの特徴は、特徴検出器、量子化、及びSVM又はk−NN分類器からなる従来のコンピュータビジョンパイプラインでは捕捉されない。浅い層畳み込みネットは、点及びエッジ等の特徴を学習するが、ブロブ及び形状等の中〜高レベルの特徴を学習しない。微視的特徴は、多様な特徴を有する傾向があり、様々なレベル(中〜高レベル)の粒度でこれらの特徴を学習する重要である。ネットワークにこれらのより高レベルの特徴を学習させるために、複数の層を有する十分に深いCNNを使用し得る。
本発明の幾つかの例示的な実施形態によれば、3つのタイプの畳み込みニューラルネットワーク(CNN)アーキテクチャを使用して、材料の様々な顕微鏡画像のデータセットにわたり高レベルの精度を達成し得る。第1のアーキテクチャは、畳み込み層、プーリング層、及び全結合層の8層ネットワークである。第2のアーキテクチャでは、全結合層の1つを削除するが、第1の畳み込み層でのフィルタサイズ及びストライドを低減して、微細粒度特徴の分類を支援する。第3のアーキテクチャ又は技法は、領域ベースのCNN(R−CNN)を使用して画像内の領域を識別するためのものである。領域選択器が、画像内に約2000の領域候補を提供する画像にわたり実行される。次に、各領域は、分類のためにCNNに渡される。
第1のネットワークアーキテクチャは、3つの最大プーリング層及びReLU(正規化線形関数)と共に3つの畳み込み層、その後に続く、2つの独立畳み込み層(最大プーリング層を有さない)及び最終セクションでの3つの全結合層からなる。最終分類器は、全てのクラスにわたるスコア又は確率を与えるソフトマックス関数である。このアーキテクチャを図5に提示する。入力RGB(3チャネル)画像501は、256×256×3にダウンサンプリングされ、次に、227×227×3に中心クロッピングされてから、ネットワークに入る。第1の畳み込み層において、入力画像は、x方向及びy方向の両方においてカーネルサイズ11及びストライド4を有する96の異なるフィルタを用いて畳み込まれる。出力である110×110×96の特徴マップ502が、ReLUを使用して処理され、カーネルサイズ3、ストライド2を用いて最大プーリングされ、局所反応正規化を使用して正規化され、55×55×96の特徴マップを取得する。後続する層で、特徴マップに対して同様の演算を実行し得る。層2において、特徴マップは畳み込まれ、ReLUを使用して処理され、最大プーリングされ、正規化されて、サイズ26×26×256の特徴マップ503を取得する。次の2層(層3、層4)504及び505は、ReLUを有するが、最大プーリング及び正規化を有さない畳み込み層である。出力特徴マップのサイズは13×13×384である。層5は、畳み込み演算、ReLU演算、最大プーリング演算、及び正規化演算からなり、サイズ6×6×256の特徴マップ506を取得する。次の2層(層6、層7)507は全結合し得、4096次元ベクトルを生成し得る。最終層は、Cクラスにわたる確率を出力するC元ソフトマックス関数508である。
様々なタイプの畳み込みカーネルを画像候補に対して使用して、畳み込み層の一部として、異なるサイズの特徴マップを生成し得る。これらの畳み込みは、顕微鏡画像で生じ得る多様な歪みを捕捉する。画像は物体表面の画像捕捉及び改竄からの変動及び歪みを受けるため、畳み込みを画像に適用して、そのような歪みに対してネットワークをロバストにし得る。また、これらの組のフィルタはトレーニング可能であり、したがって、畳み込み層内のフィルタは、顕微鏡画像に基づいてトレーニングし得る。トレーニング可能なフィルタは、分類アルゴリズムが一定の組のフィルタ/畳み込みに依存しないようにするために特に有用であり得る。
畳み込みが画像に対して実行されると、出力は1組の特徴マップであり得る。次に、各特徴マップは、最大プーリングされ、正規化されて、サイズが低減された特徴マップを生成する。これはサブサンプリングのプロセスであり、サブサンプリングは基本的に、大きなずれへのロバスト性の改善と共に、特徴マップの次元を低減するために行われる。畳み込みは、歪みへのロバスト性を提供するが、サブサンプリングは、シフト、並進移動、及び微小な歪みよりも大きな変動に関してのロバスト性を提供する。窓サイズ(及びステップサイズ)を変更すると、テスト誤差率が大幅に変化する。これは部分的に、小さなエリアとは対照的に大きなエリアから最大プーリングされる場合、より高レベルの特徴が失われるためである。また、局所反応正規化により実行される「平均処理」は、区別可能な特徴がないフラットな特徴を増大生じさせる。したがって、窓サイズは、サブサンプリング層において特定の限度内に保たれる。平均プーリングは、微小な歪み及び疑似特徴の影響を正規化するために実行することもできる。
第2のアーキテクチャでは、フィルタサイズ及びストライドは、第1の畳み込み層において低減し得る。カーネルサイズ11の代わりに、カーネルサイズ8を使用し得、ストライド4の代わりに、ストライド2を使用し得る。この変更は、パラメータ数を増大させ、したがって、トレーニングは、はるかに少数のバッチサイズで実行し得る。トレーニングバッチサイズは、250枚の画像から50枚の画像に低減し得る。フィルタサイズを低減し、ストライドを低減するこのタイプの技法は、微細粒度特徴の認識/分類を増大させるために行われる。第1のアーキテクチャと比較した第2のアーキテクチャでの唯一の変更は、第1の畳み込み層でのフィルタ及びストライドサイズの低減である。第1の層が異なるため、予めトレーニングされた重みは使用されない。むしろ、新しい組の重み初期化、バイアス、学習率、及びバッチサイズを使用して、ネットワーク全体を最初からトレーニングし得る。ネットワークの深度に起因して、過剰適合を生じさせやすいため、データ拡張を使用して、データセット内の画像数を増大させ得る。並進移動、シフト、水平及び垂直反転、227×227領域(例えば、元の256×256からの)のランダムクロッピング、及び回転等のラベル保存データ拡張技法を使用し得る。これらの拡張技法を使用して、データセットを50倍、増大させ得る。また、ランダムドロップアウトを最後の2層に使用して、過剰適合を正規化し、低減し得る。
8層CNNは、12層、16層、20層、及び24層深層CNNに拡張し得る。層の数が増大するにつれて、ネットワークは、互いから2つ以上のクラスを区別する微細粒度特徴を学習する。12層CNNのアーキテクチャを図6に提示する。最初の2層601は、最大プーリング層及びReLU(正規化線形関数)と共に畳み込み層、その後に続く4つの独立畳み込み層602(最大プーリング層を有さない)からなる。この後、3組の畳み込み層、最大プーリング層、及びReLU層603及び最終セクション内の2つの全結合層が続く。最終分類器は、全てのクラスにわたるスコア又は確率を与えるソフトマックス関数である。
16層CNNのアーキテクチャを図7に提示する。12層CNNは、最初の2つの110×110×96層702の後に2つの畳み込み層を追加することにより拡張され、26×26×256層703は12層CNNと同じままであり、2つの追加の畳み込み層13×13×384が追加される(704)。
20層CNNは、図8に提示される16層CNNの拡張である。追加の110×110×96層801、26×26×256層802、並びに13×13×384層803及び804、1つの追加の全結合層805が追加されて、アーキテクチャを20層CNNに拡張する。
図9に提示される24層CNNでは、5つの110×110×96層901、5つの26×26×256層902、5つの13×13×256層903、4つの6×6×256層904、4つの全結合層905、及び最後にソフトマックス関数があり得る。一般に、顕微鏡画像を分類することができるn層CNNを使用し得る。
上記提示された各アーキテクチャ(8層、12層、16層、20層、24層)を用いて、マルチスケール手法を使用して、異なるスケール及び画像分解能で顕微鏡画像を処理し得る。マルチスケール手法を図14に提示する。画像は、複数のスケール、分解能、及び画像サイズで畳み込みネットワークに導入される(1401)。畳み込み層でのカーネル(フィルタサイズ)及びストライドは、1402において、1×1から15×15まで複数のストライド(1〜8)で適用され、したがって、画像スケールの変動をこれらの畳み込み層により捕捉する。
CNNアーキテクチャ又はモデルは、画像を分類し、フィルタがネットワーク全体にわたり学習可能であることを示すことができる。また、異なるアーキテクチャを組み合せ得、ソフトマックス確率をこれらのアーキテクチャにわたりプーリングして、画像のクラスを決定し得る。図15に示されるこのアンサンブル手法は、異なるモデル/アーキテクチャにわたる学習特徴を集計し(1502)、画像を分類する包括的な手法を提供する。例えば、最初の8層モデルが曲線を学習して、画像1501を区別する場合、12層モデルは、ブロブ、コーナーを学習して、クラス間の画像を区別し得る。複数のモデルからの結果を結合するこのアンサンブル手法は、複数の特徴にわたり画像クラスを区別するに当たり使用し得る。最終結果は、アンサンブル全体にわたる結果のアベレージ又は平均である。
図10、図11、図12、及び図13は、2枚の画像を分類する動作でのCNNパイプラインを示す。一方は、真正ルイヴィトンモノグラムバッグの表生地の顕微鏡画像1001であり、他方は、偽造ルイヴィトンモノグラムバッグの表生地の顕微鏡画像1101である。裸眼には、両画像とも略同じに見えるため、真正画像と偽物画像とを区別することが難しいことがある。しかし、CNNは、画像を真正クラス及び偽物クラスに区別/分類することに成功する。畳み込み層1 1002及び1102は、各画像の最初の36のフィルタ(96のうちの)を示し、畳み込み層3 1003及び1103は、各画像の384のフィルタを示す。両画像とも同様に見えるが、微小な違いがある。全結合層6(fc6)1201及び1202では、各画像の4096次元ベクトルは異なる。同様に、全結合層7(fc7)1301及び1302では、各画像に対応する4096個のベクトルは異なる(ここで、2つのベクトルを区別することができ、それにより、画像を区別し得る)。fc7後、ソフトマックス関数は、4096ベクトルを入力としてとり、各クラスのスコア/確率を出力する。
並進移動、剪断、回転、反転、鏡像、歪み(狭い窓及び大きい窓内)、膨張、及び複数のカーネルにわたる画像を変換する−−ラベル保存変換−−等のデータ拡張技法を使用して、データセットサイズを増大させ得る。これは、画像のより多くの変換がトレーニングセットの部分であるため、モデルの過剰適合を回避するのに役立つ。
領域ベースのCNN:第3のタイプのアーキテクチャでは、画像の領域候補を取得するR−CNNを使用し得、これらの画像候補は、CNNへの入力として使用される。選択的選択技法を使用して、画像内の領域としてバウンディングボックスを取得し得る。これらの領域候補が識別されると、これらの領域は、画像として抽出し得、CNNへの入力に必要とされる寸法である256×256にスケーリングし得る。選択的選択技法は、画像毎に約2000の領域を与え、したがって、データセットは2000倍、増大する。トレーニングセットの大量の増大に起因して、第1の「微細調整」CNNアーキテクチャを使用して、画像をトレーニングする。領域ベースのCNNの論拠は以下である。一方が真正であり、他方が偽物である2枚の顕微鏡画像が、画像内の特定の一エリアのみで異なる場合、2枚の画像を分類するために、非常に深いネットワークが必要であり得る。代わりに、現在の枠組み又はアーキテクチャを使用し得、領域ベースの選択技法を使用して、領域を識別し、それに従って画像を分類し得る。
このシステムは、以下の物体及び材料にわたり広がる120万の顕微鏡画像で評価し得る:(1)皮:30,000枚の顕微鏡画像を20タイプの皮から捕捉し得る。(2)布地:6,000枚の画像を120タイプの布地から抽出し得る。(3)高級品デザイナーバッグ:20,000枚の画像をオンライン高級品小売サイトから得られた100の高級品デザイナーバッグから抽出し得る。通りの行商人及びオンライン偽物高級品サイトから購入した幾つかの偽物ハンドバッグも使用し得る。これらは、オリジナルのバッグにかなり類似するが、特定の領域で小量だけ異なり得る、いわゆる「スーパーフェイク」を含む。これらの高品質の偽物に起因して、顕微鏡画像をハンドル、他の表面、トリム、裏地、縫い目、ジッパー、内表面、金属ロゴ、及び金属ハードウェアリンク等のバッグのあらゆる領域から抽出し得る。(4)プラスチック:2000枚の画像を15タイプのプラスチック表面から抽出し得る。(5)2000枚の画像を10タイプの紙から抽出し得る。(6)ジャージ:500枚の画像をNFL店から購入した2つの真正NFLジャージ及び通りの行商人から取得した2つの偽物NFLジャージから抽出し得る。(7)錠剤:200枚の画像を幾つかの薬錠剤から抽出して、差異及び分類結果を示し得る。
トレーニングセットが画像の70%を含み、検証セットが画像の20%を含み、テストセットが画像の10%を含むように、各物体/材料データベースを3つのセット:トレーニングセット、検証セット、テストセットにランダムに分割し得る。アルゴリズムをトレーニングセットに対して実行し、検証精度が検証セットでテストされる。学習サイクル(トレーニング、検証)が完了する(早期停止により、又は最大反復に達するまで)と、アルゴリズムをテストセットに対して実行して、テストセット精度を特定する。10分割交差検証精度をテストセットで提供し得る。(データセットはトレーニングセット、検証セット、テストセットに10回分割され、その都度、精度が特定される。10分割交差検証精度は、10回の試行にわたる平均テスト精度である)。
バッグオブビジュアルワードの視点から、4タイプの分類方法を適用し得る。(i)密度特徴抽出にはDSIFT、量子化にはk平均、及び最終分類にはSVM、(ii)密度特徴抽出にはDAISY、量子化にはk平均、及び最終分類にはSVM。残りでは、最終ステップにおいてSVMの代わりにk−NNを使用し得る。
CNNでは、過剰適合を回避し、良好なテスト精度を得るために、データセットのサイズは、4回転、各回転での反転、12の並進移動(サイドラップ及びサイドアップ)、及び256×256入力画像の30のランダムにクロッピングされた227×227領域へのクロッピング等のラベル保存歪みを生成することにより、人為的に増大させ得る。これは、データセットサイズを50倍増大させ、300万枚にする。(なお、このデータ拡張は、データセットがトレーニングセット、検証セット、及びテストセットに分割されると実行される。その他の場合、検証/テストは、同じトレーニングセットの異なる歪みに対して実行される)。
CNNのトレーニングパラメータは以下であり得る。CNNでは、学習率は0.001であり、ステップサイズは20000であり、重み減衰は0.0005であり、モーメンタムは0.9であり、バッチサイズは50である。より深層のCNNでは、学習率は0.0001であり、ステップサイズは200000である。12層、16層、20層、24層CNNは、最初からトレーニングされるため、8層CNNよりも学習率は大幅に低く、ステップサイズは高い。
皮:30,000の皮サンプルにわたるテスト精度は以下であり得る。(データ拡張後、データセットのサイズは150万枚の画像に増大し得る)。バッグオブビジュアルワードモデルでは、10分割交差検証後の平均テスト精度は約93.8%であり得る。k−NNベースの方法は、SVMベースの方法よりも性能が低い傾向があり、DSIFTの性能はDAISY記述子よりもわずかによい。DAISYでの記述子サイズが増大する場合、より高い精度率が達成可能であり得る。CNNでは、平均テスト精度は98.1%であり得る。最後の層は、20タイプの皮を分類する20元ソフトマックス分類器である。
布地:バッグオブワードモデルでの平均テスト精度は92%であり得る。皮サンプルと比較して精度率が低減する理由の1つは、クラスサイズの増大に起因し得る。CNNでのテスト精度は98.3%であり得る。データ拡張及びドロップアウト技法は、バッグオブビジュアルワードモデルと比較して精度率を増大させる。データ拡張に起因して、データセットは300,000枚の画像に増大する。
バッグ:画像は、ブランド毎に分類し得る。データセット内のブランドは、LV、シャネル、グッチ、プラダ、コーチ、マイケルコース、及びクロエであり得る。7元分類器が可能であるが、各ブランドの真正バッグ及び偽物バッグを使用し得るため、二項分類を実行し得る。特定のブランドのバッグの入力画像を所与として、それぞれがそのブランドの真正版であるか、それとも偽物版であるかを判断し得る。マルチクラス分類の代わりに二項分類を使用し得る理由は、以下である。(i)異なるブランドのバッグは同じ材料を使用し得る。したがって、異なるブランドにわたる同じ材料を分類することは、一貫しない結果を生じさせる。(ii)行われた実験は、現実世界の状況を模倣しようとし得る。人は、特定のブランドの高級品デザイナーバッグを購入した場合、ブランド名が与えられたそのバッグの真贋を知りたい。したがって、バッグを全てのブランドにわたり分類する代わりに、二項分類(真正又は偽物)をブランド毎に実行し得る。
20,000枚の画像(データ拡張後、データセットは100万枚の画像に増大する)にわたり、バッグオブビジュアルワードモデルのテスト精度は92.4%であり得る。したがって、SVMベースの方法は、k−NNベースの方法よりもよりよく機能し得る。CNNでは、平均テスト精度は98.5%であり得る。バッグは、皮、布地、カンバスから金属ロゴ、金めっきロゴ、ジッパー等まで及ぶ様々なタイプの表面を有する。データ拡張技法及びCNNの深層アーキテクチャは、精度率の増大に役立つ。
プラスチック:これは、10の異なるタイプのプラスチック材料にわたる10元分類であり得る。バッグオブワードモデルでの平均テスト精度は92.5%であり得る。CNNでは、平均テスト精度は95.3%であり得る。
紙:2000枚の画像及び10タイプの紙にわたる紙の平均テスト精度は、バッグオブワードモデルでは94.3%であり得、CNNでは95.1%であり得る。バッグオブワード及びCNN両方の結果は、紙サンプルの分類に関しては同等である。
ジャージ:NFLジャージを用いても、二項分類を実行し得る。入力画像を所与として、画像が真正であるか、それとも偽物であるかを判断し得る。バッグオブワードモデルでの平均テスト精度は94%であり得、CNNは98.8%であり得る。深層CNNは、画像の幾つかで微細粒度細部を捕捉することが可能であり得、これは、残りの方法と比較して優れた性能を与え得る。
錠剤:このデータセットでは、偽物の錠剤を使用する必要がないため、2つの異なるタイプの錠剤の分類に二項分類を使用し得る。バッグオブワードモデルでの平均テスト精度は96.8%であり得、CNNでは98.5%であり得る。
R−CNN:R−CNNを用いる場合、画像毎に2000の領域を取得し得るため、テストを1000のバッグに対して実行し得る。(なお、ここでデータセットが200万枚の画像である)。10分割交差検証テスト精度は98.9であり、これは8層及び12層CNNよりも高い。これは、R−CNNが、8層及び12層の両方が見逃す微細粒度特徴を分類可能なことを示す。
トレーニングフェーズ:トレーニングフェーズでは、顕微鏡画像を様々な製品又は製品のクラスから抽出して、トレーニングセットを形成し得る。次に、画像はトレーニングされテストされて、真贋鑑定に使用可能なモデルを生成し得る。高級ハンドバッグを真贋鑑定する場合、特定に一ブランドのバッグを取得し得、本明細書に記載されるデバイスを使用して、複数の顕微鏡画像を抽出し得る。ハンドバックのあらゆる領域をスキャンし得る:ダストバッグ、表材料、表の縫い目、内側の皮、内側のジッパー、内側のロゴ、表の皮のトリム、表のジッパー、内側のライナー。画像は、バックエンドサーバにアップロードされ、処理され、トレーニングし得る。この手順は、真正バッグ及び偽造バッグの両方に対して行い得る。トレーニングされると、交差検証されテストされたモデルは、真贋鑑定フェーズに使用可能になり得る。
図16に示されるように、真贋鑑定フェーズ中、ステップは以下のように実行し得る。(i)ユーザはモバイルアプリを開き、物体上にデバイスを配置し、(ii)デバイスは、1601において、WiFiを介して物体の微視的表面のライブビデオをアプリにストリーミングし、(iii)ユーザは、1602において、アプリを使用して画像(又は複数の画像)を捕捉し、それをサーバにアップロードし、(iv)数秒で、サーバは、1603において、物体が「真正」又は「偽物」であったことを伝えるメッセージで応答する。デバイス及びサーバとインターフェースする、APPLE,INC.により提供されるモバイルオペレーティングシステムであるIOS向けに設計されたモバイルアプリ等のモバイルアプリを真贋鑑定フェーズで使用し得る。ハンドバッグ等の場合、ユーザは、真贋をチェックするために、バッグの様々な領域からの複数の画像をアップロードする。いわゆる「スーパーフェイク」バッグが、幾つかの領域で同じ材料を使用する傾向があるため、複数の領域から画像を捕捉し、真贋についてチェックし得る。
本発明の例示的な実施形態は、3つの重要な点で既知の手法と異なり得る。(i)顕在的/隠在的技法では、製品の製作源又は製造源でそれらの技法を適用する必要がある。それに対して、本事例では、テストは製品の製造源で実行する必要がない。インク、バーコード、ホログラム、微細構造等の顕在的技術とは異なり、本発明の例示的な実施形態は、製品又は物体内にいかなる物質も埋め込む必要がない。
本明細書に記載される技法は、非侵襲的であり得、物体を決して変更しない。(ii)一つ一つの物品にタグ付けする必要がない。オリジナル及び複製の分類は、画像から得られる微視的差異に基づき得る。(iii)現在の顕在的/隠在的真贋鑑定技法は、物体を真贋鑑定することができない先にタグ付けされていなかった。本手法では、機械学習技法が使用されるため、物体の新しいインスタンスを真贋鑑定し得る。(iv)ナノプリント、マイクロタガント等の大半の技法は、製品に埋め込むことが高価である。それに加えて、消費者/企業での採用の問題である専用の高価な微視的ハンドヘルドデバイスに基づいて検出。本発明の例示的な実施形態は、携帯電話を用いて機能し、低コストであり、使いやすいデバイス及びクラウドベースの真贋鑑定解決策を使用し得る。
教師付き機械学習、半教師付き学習、及び教師なし学習技法を使用する画像分類は、大規模な画像分類に使用される。SVM及び畳み込みニューラルネットワークは、大規模画像分類で重要な2つの技法である。本発明の例示的な実施形態は、少なくとも3つの点でこれらの手法と異なる:(i)特徴検出及び微視的差異を識別するようなトレーニング、(ii)中レベル及び微細粒度特徴に基づく物体の顕微鏡画像の分類、並びに(iii)複数の技法の組合せ(例えば、BoW、深層コンボリューションネット)及び顕微鏡的撮像ハードウェアを使用しての物体の真贋鑑定。
例示的な異常/ノベルティ検出
入力画像は、様々なサイズのスライド窓を使用して、より小さなチャンクに分割し得る。特徴抽出は各チャンクに対して実行し得る:キーポイントを検出するガウスのラプラシアン及びキーポイントから示差的な記述子を生成する勾配方向ヒストグラム。
幾つかの実施形態では、各記述子は128次元空間でのベクトルであり得る。様々な窓サイズから得られる全ての画像チャンクは、128次元ベクトル空間に射影し得る。同様に、トレーニングセットからの全ての画像も、ベクトル空間に射影し得、テストフェーズ中の後の時点でベクトル候補と比較することができるベクトルのトレーニングセットを形成する。
幾つかの実施形態では、OPTICSアルゴリズム(点を順序付けてクラスタリング構造を識別)を使用することにより、トレーニングベクトルの密度を特定し得る。OPTICSアルゴリズムは、トレーニングセット内でクラスタを見つけ、トレーニングセット内の全てのサブクラスタの密度を結合することにより、トレーニングセット全体は、1つのクラスタとして扱い得る。
トレーニングセットでのクラスタ及びその密度がトレーニングされると、テストフェーズを開始し得る。真正又は非真正として分類する必要がある物品の画像候補は、顕微鏡的撮像に使用されたハードウェアを使用して抽出し得る。特徴抽出アルゴリズムを使用して、記述子ベクトルを生成し得、ベクトルは128次元空間に射影される。これらのテストベクトルの密度は、OPTICSアルゴリズムを使用して計算し得る。
密度比較:トレーニングセット及びテストセットの密度を所与として、閾値を設定して、テストセットがトレーニングの一部であるか否かを判断し得る。これは、トレーニングセットとテストセットとの重複量を特定することもできる。本発明の幾つかの例示的な実施形態によれば、重複が多いほど、テストベクトルが元のトレーニングセットに近い確率が高くなる。
マルチクラス分類では、異常検出技法を使用することが可能ではないことがあり、その理由は、異常検出技法が2クラス分類問題を伴うためである。異常検出技法は、トレーニングデータ内でクラスタを見つけることができるが、分類にはSVM(上述したバッグオブビジュアルワード技法と同様)が使用される。本発明の例示的な実施形態は主に、偽物画像から真正画像を検出し得、したがって、2クラス問題であり、この場合、異常検出は上手く機能し得る。
例示的なシステム
物体を真贋鑑定する全体システムは、複数の学習技法の組合せを使用する。幾つかの実施形態では、ステップは以下を含み得る。
トレーニングフェーズ:トレーニングフェーズでは、顕微鏡画像を様々な製品又は製品のクラスから抽出して、トレーニングセットを形成し得る。抽出された顕微鏡画像はチャンク(重複又は非重複)に分割し得、これらのチャンクは、分類システムへのトレーニングデータセットとして使用し得る。トレーニングデータセットは、製品を記述するクラス又はクラス定義も含む。クラス定義は、製品仕様(名称、製品ライン、ブランド、出所、及びラベル)に基づき得るか、又は製品の製造プロセスに関連し得る。例えば、バッグ、時計のブランド、電子チップの仕様等)であることができる。
画像チャンクは、SVM、コンボリューションネット、及び異常検出システムへの入力として与え得、それに従って分類される。
テストフェーズ:図4において参照されるテストフェーズ又は真贋鑑定フェーズでは、物体の1つ又は複数の顕微鏡画像を抽出し得る。用途に基づいて、物体の様々な領域からの画像を抽出して、多様な画像セットを与え得る。物体の様々な領域からの画像抽出はまた、偽造品を抑止し、偽造品検出率を増大させる。偽造品は、物体の一部分を複製することが可能であり得るが、物体の様々な部分の複製は、経済的に実現不可能であり得る。
図2に示されるように、第1の顕微鏡画像をデバイスから抽出し得る(2001)。抽出された顕微鏡画像は、チャンク(例えば、重複又は非重複)に分割し得る(2002)。各チャンクは、バッグオブビジュアルワードシステム2003、コンボリューションネット2004、及び異常検出2005システムへの入力として使用し得る。
各システムの結果(例えば、分類出力)は、表化し得、過半数がある(2:1以上)場合のみ(2006)、その画像又はチャンクは真正であると見なされる(過半数が示されない場合、画像は非真正として見なされる)。幾つかの実施形態では、閾値は、画像内の真正チャンク数に対して指定し得る。画像内の真正チャンク数が閾値を超える場合、その画像は真正と見なされ、その他の場合、非真正と見なし得る。いずれの場合でも、結果は提供される(2007)。
クラス数が2(例えば、真正又は非真正)よりも大きいマルチクラス分類問題がある幾つかの実施形態では、システムはクラス名を出力し得る。先に述べたように、クラスは、製品名、製品ライン、製品のラベル、ブランド等の製品仕様に基づき得るか、又は製品の製造プロセス(材料、製造工程)に関連し得る。例えば、トレーニングデータセット内に10のクラス/ブランドのバッグがある場合、テストフェーズにおいて、システムは、分類システムの答えとして、10のクラスの中から1つのクラスを出力し得る。
図1は、本発明の例示的な実施形態によるバッグオブビジュアルワードを使用する例示的な分類システムを示す。画像は、物体の部分から、デバイスを使用して抽出され(101)、チャンクに分割し得る(102)。次に、特徴ベクトルが、勾配ヒストグラム及び他の例示的な特徴検出技法を使用して計算され(103)、特徴ベクトルは、k平均クラスタリングを使用してクラスタ化され(104)、画像の特徴ベクトルに対応するクラスタ中心が識別され(105)、空間ヒストグラムが計算され(106)、最後に、これらのヒストグラム特徴は、サポートベクターマシン分類器への入力として使用される(107)。
図3は、機械学習技法に基づく例示的な分類システムを示す。1つ又は複数の顕微鏡画像305が、物体の部分303から抽出され、機械学習技法のトレーニングデータ306使用されるである。物体のブランド、製品ライン、ラベル、製造プロセス、又は仕様に対応するクラス定義304が、トレーニングデータに追加される。機械学習技法は、トレーニングデータを使用して、数学的モデル307を生成し、トレーニングデータ308に合うモデルを計算する。
図4は、機械学習技法に基づく分類システムの例示的なテストフェーズを示す。1つ又は複数の顕微鏡画像402が、物体の部分401から抽出される。この情報は、機械学習技法のテストフェーズ403に供給される。テストフェーズは、トレーニングされた数学的モデル404を使用して、物体405のクラスを予測する。物体のクラスは、ブランド、製品ライン、又は仕様406であり得る。
本発明の例示的な実施形態は、高級品市場において実用性を有する。高級品市場では、偽造品はかなり蔓延している。本明細書に記載のシステムは、ハンドバッグ、靴、アパレル、ベルト、時計、ワインボトル、包装、及び他の付属品の真贋鑑定に役立つことができる。
本発明の例示的な実施形態は、スポーツ用品市場に実用性を有する。スポーツ用品では、本システムは、ジャージ、スポーツアパレル、ゴルフクラブ、及び他のスポーツ付属品を真贋鑑定することができる。
本発明の例示的な実施形態は、化粧品市場に実用性を有する。最近、MACメイクアップキットが偽造されている。本システムは、MACメイクアップキット並びに他のヘルス・ビューティー製品の真贋鑑定に使用し得る。
本発明の例示的な実施形態は、医薬業界に実用性を有する。薬/薬剤の偽造は、世界中で大きな問題である。バイアグラ、シアリス等の処方薬、ジスロマック、タミフル、PREVNAR等の抗生物質、LIPITOR、NORVASC、PLAVIX等の心臓脈管薬、及びCLARITIN、CELEBREX、VICODIN等の他の店頭販売薬は、日常的に偽造されている。本システムを使用することにより、ユーザ/患者は、薬が真正であるか、それとも偽物であるかをチェックすることができる。
本発明の例示的な実施形態は、消費者及び産業電子機器市場で実用性を有する。電子機器の偽造は、基準未満の部品の製造からのみならず、ブラックトッピング及び他のプロセスによりオリジナルの部品を再使用することからも生じる。高価なスマートフォン、電池から、電子チップ及び回路まで。本システムは、サプライチェーンの一部であることができ、電子機器がサプライチェーン内で異なるベンダーを渡る際、電子機器を真贋鑑定することができる。ブラックトッピングされた電子部品及び回路を識別し、分類することができる。
本発明の例示的な実施形態は、自動車及び航空機の部品の市場に実用性を有する。自動車部品業界は常に、偽造部品に悩まされている。ホログラム、ラベル、及びバーコードが、製造業者及びベンダーにより使用されるが、偽造品は常にその裏をかく。航空機部品、エアバッグ、及びバッテリは、市場で最も偽造される部品の幾つかである。
本発明の例示的な実施形態は子供の玩具の分野で実用性を有する。基準未満の玩具は、玩具で遊ぶ子供にとって有害であり得る。安価な玩具の製造には鉛が使用されており、これは重大な健康問題を生じさせるおそれがある。本システムは、玩具の真正をチェッすることができ、それにより、親(又は子供)が偽造ではない本物の玩具を選択するのに役立つ。
本発明の例示的な実施形態は、金融・紙幣の分野で実用性を有する。金融システムは、偽造及び偽物の問題で満ちている。本システムは、通貨、小切手、マネーオーダー、及び他の紙関連偽造問題を偽造についてチェックすることができる。紙表面、文字、インクブロブ、曲線での微視的類似性及び非類似性を調べることにより、物品を真正又は非真正として分類し得る。
幾つかの実施形態では、物体真贋鑑定スペース、関連作業は、2つの組に分類することができる。(i)顕在的及び隠在的技術を使用しての物体真贋鑑定並びに(ii)機械学習を使用する画像分類。
図17を参照すると、例示的な実施形態では、ブロック図はサーバ1700を示し、サーバは、システム306内で使用されてもよく、他のシステムで使用されてもよく、又はスタンドアロンであってもよい。サーバ1700は、ハードウェアアーキテクチャに関して、一般にプロセッサ1702と、入/出力(I/O)インターフェース1704と、ネットワークインターフェース1706と、データストア1708と、メモリ1710とを含むデジタルコンピュータであり得る。図17が、サーバ1700を過度に簡易化して示し、実際の実施形態が、追加の構成要素を含み、本明細書に詳細に記載されない既知又は従来の動作特徴をサポートする処理論理が適宜構成され得ることが当業者には理解されるはずである。構成要素(1702、1704、1706、1708、及び1710)は、ローカルインターフェース1712を介して通信可能に結合される。ローカルインターフェース1712は、限定ではなく例として、当分野で既知のように、1つ若しくは複数のバス又は他の有線若しくは無線接続であり得る。ローカルインターフェース1712は、簡潔にするために省かれている、通信を可能にする、特に、コントローラ、バッファ(キャッシュ)、ドライバ、リピータ、及び受信器等の追加の要素を有し得る。さらに、ローカルインターフェース1712は、上記構成要素の間での適切な通信を可能にするアドレス接続、制御接続、及び/又はデータ接続を含み得る。
プロセッサ1702は、ソフトウェア命令を実行するハードウェアデバイスである。プロセッサ1702は、任意のカスタムメード若しくは市販のプロセッサ、中央演算処理装置(CPU)、サーバ1700に関連付けられた幾つかのプロセッサの中でも補助プロセッサ、半導体ベースのマイクロプロセッサ(マイクロチップ又はチップセットの形態で)、又は一般にソフトウェア命令を実行する任意のデバイスであり得る。サーバ1700が動作中である場合、プロセッサ1702は、メモリ1710内に記憶されたソフトウェアを実行し、データをメモリ1710とやりとりし、一般にソフトウェア命令に従ってサーバ1700の動作を制御するように構成される。I/Oインターフェース1704は、1つ又は複数のデバイス又は構成要素からユーザ入力を受信し、及び/又はシステム出力を提供するのに使用し得る。ユーザ入力は、例えば、キーボード、タッチパッド、及び/又はマウスを介して提供し得る。システム出力は、表示デバイス及びプリンタ(図示せず)を介して提供し得る。I/Oインターフェース1704は、例えば、シリアルポート、パラレルポート、小型コンピュータシステムインターフェース(SCSI)、シリアルATA(SATA)、ファイバチャネル、Infiniband、iSCSI、PCIエクスプレスインターフェース(PCI−x)、赤外線(IR)インターフェース、無線周波数(RF)インターフェース、及び/又はユニバーサルシリアルバス(USB)インターフェースを含み得る。
ネットワークインターフェース1706は、サーバ1700が、インターネット、広域ネットワーク(WAN)、ローカルエリアネットワーク(LAN)等のネットワークで通信できるようにするために使用し得る。ネットワークインターフェース1706は、例えば、Ethernetカード若しくはアダプタ(例えば、10BaseT、高速Ethernet、ギガビットEthernet、10GbE)又は無線ローカルエリアネットワーク(WLAN)カード若しくはアダプタ(例えば、802.11a/b/g/n)を含み得る。ネットワークインターフェース306は、アドレス接続、制御接続、及び/又はデータ接続を含み得、ネットワークでの適切な通信を可能にする。データストア1708を使用して、データを記憶し得る。データストア1708は、任意の揮発性メモリ要素(例えば、ランダムアクセスメモリ(DRAM、SRAM、SDRAM等のRAM))、不揮発性メモリ要素(例えば、ROM、ハードドライブ、テープ、CDROM等)、及びそれらの組合せを含み得る。さらに、データストア1708は、電子媒体、磁気媒体、光学媒体、及び/又は他のタイプの記憶媒体を組み込み得る。一例では、データストア1708は、例えば、サーバ1700内のローカルインターフェース1712に接続された内部ハードドライブ等、サーバ1700の内部に配置し得る。さらに、別の実施形態では、データストア1708は、例えば、I/Oインターフェース1704に接続された外部ハードドライブ(例えば、SCSI又はUSB接続)等、サーバ1700の外部に配置し得る。更なる実施形態では、データストア1708は、例えば、ネットワーク接続ファイルサーバ等、ネットワークを通してサーバ1700に接続し得る。
メモリ1710は、任意の揮発性メモリ要素(任意の揮発性メモリ要素(例えば、ランダムアクセスメモリ(DRAM、SRAM、SDRAM等のRAM))、不揮発性メモリ要素(例えば、ROM、ハードドライブ、テープ、CDROM等)、及びそれらの組合せを含み得る。さらに、メモリ1710は、電子媒体、磁気媒体、光学媒体、及び/又は他のタイプの記憶媒体を組み込み得る。なお、メモリ1710は分散アーキテクチャを有し得、その場合、様々な構成要素は互いからリモートに配置されるが、プロセッサ1702によりアクセスすることができる。メモリ1710内のソフトウェアは、1つ又は複数のソフトウェアプログラムを含み得、各ソフトウェアプログラムは、論理機能を実施する実行可能命令の順序付きリストを含む。メモリ1710内のソフトウェアは、適するオペレーティングシステム(O/S)1714及び1つ又は複数のプログラム1716を含む。オペレーティングシステム1714は基本的に、1つ又は複数のプログラム1716等の他のコンピュータプログラムの実行を制御し、スケジューリング、入出力制御、ファイル及びデータ管理、メモリ管理、並びに通信制御及び関連サービスを提供する。1つ又は複数のプログラム1716は、本明細書に記載される様々なプロセス、アルゴリズム、方法、技法等を実施するように構成し得る。
図18を参照すると、例示的な実施形態では、ブロック図は、システム1800等で使用し得るクライアントデバイス又は時にはモバイルデバイス1800を示す。モバイルデバイス1800は、ハードウェアアーキテクチャに関して、一般にプロセッサ1802、入/出力(I/O)インターフェース1804、無線1806、データストア1808、及びメモリ1810を含むデジタルデバイスであることができる。図18が、過度に簡易化してモバイルデバイス1800を示しており、実際の実施形態が、本明細書に詳述されていない既知又は従来の動作特徴をサポートする追加の構成要素及び適宜構成された処理論理を含み得ることが当業者には理解されるはずである。構成要素(1802、1804、1806、1808、及び1810)は、ローカルインターフェース1812を介して通信可能に結合される。ローカルインターフェース1812は、限定ではなく例として、当分野で既知のように、1つ若しくは複数のバス又は他の有線若しくは無線接続であることができる。ローカルインターフェース1812は、簡潔にするために省かれている、通信を可能にする、特に、コントローラ、バッファ(キャッシュ)、ドライバ、リピータ、及び受信器等の追加の要素を有し得る。さらに、ローカルインターフェース1812は、上記構成要素の間での適切な通信を可能にするアドレス接続、制御接続、及び/又はデータ接続を含み得る。
プロセッサ1802は、ソフトウェア命令を実行するハードウェアデバイスである。プロセッサ1802は、任意のカスタムメード若しくは市販のプロセッサ、中央演算処理装置(CPU)、モバイルデバイス1800に関連付けられた幾つかのプロセッサの中でも補助プロセッサ、半導体ベースのマイクロプロセッサ(マイクロチップ又はチップセットの形態で)、又は一般にソフトウェア命令を実行する任意のデバイスであり得る。モバイルデバイス1800が動作中である場合、プロセッサ1802は、メモリ1810内に記憶されたソフトウェアを実行し、データをメモリ1810とやりとりし、一般にソフトウェア命令に従ってモバイルデバイス1800の動作を制御するように構成される。例示的な実施形態では、プロセッサ1802は、消費電力及びモバイルアプリケーションに向けて最適化される等、モバイル最適化されたプロセッサを含み得る。I/Oインターフェース1804は、からユーザ入力を受信し、及び/又はシステム出力を提供するのに使用することができる。ユーザ入力は、例えば、キーボード、タッチスクリーン、スクロールボール、スクロールバー、ボタン、バーコードスキャナ等を介して提供することができる。システム出力は、液晶ディスプレイ(LCD)、タッチスクリーン等の表示デバイスを介して提供することができる。I/Oインターフェース1804は、例えば、シリアルポート、パラレルポート、小型コンピュータシステムインターフェース(SCSI)、赤外線(IR)インターフェース、無線周波数(RF)インターフェース、ユニバーサルシリアルバス(USB)インターフェース等を含むこともできる。I/Oインターフェース1804は、ユーザがモバイルデバイス1800と対話できるようにするグラフィカルユーザインターフェース(GUI)を含むことができる。さらに、I/Oインターフェース404は、撮像デバイス、すなわち、カメラ、ビデオカメラ等を更に含み得る。
無線1806は、外部アクセスデバイス又はネットワークとの無線通信を可能にする。限定ではなく、RF、IrDA(赤外線)、Bluetooth(登録商標)、ZigBee(及びIEEE802.15プロトコルの他の変形)、IEEE802.11(任意の変形)、IEEE802.16(WiMAX又は任意の他の変形)、直接シーケンススペクトラム拡散、周波数ホッピングスペクトル拡散、ロングタームエボリューション(LTE)、セルラ/無線/コードレス電気通信プロトコル(例えば、3G/4G等)、無線ホームネットワーク通信プロトコル、ページングネットワークプロトコル、磁気誘導、衛星データ通信プロトコル、WMTS帯で動作する等の無線病院又はヘルスケア設備ネットワークプロトコル、GPRS、無線USBの変形等のプロプライエタリ無線データ通信プロトコル、及び無線通用の任意の他のプロトコルを含め、任意の数の適する無線データ通信プロトコル、技法、又は方法論を無線1806によりサポートすることができる。データストア1808を使用して、データを記憶し得る。データストア1808は、任意の揮発性メモリ要素(例えば、ランダムアクセスメモリ(DRAM、SRAM、SDRAM等のRAM))、不揮発性メモリ要素(例えば、ROM、ハードドライブ、テープ、CDROM等)、及びそれらの組合せを含み得る。さらに、データストア1808は、電子媒体、磁気媒体、光学媒体、及び/又は他のタイプの記憶媒体を組み込み得る。
メモリ1810は、任意の揮発性メモリ要素(例えば、ランダムアクセスメモリ(DRAM、SRAM、SDRAM等のRAM))、不揮発性メモリ要素(例えば、ROM、ハードドライブ等)、及びそれらの組合せを含み得る。さらに、メモリ1810は、電子媒体、磁気媒体、光学媒体、及び/又は他のタイプの記憶媒体を組み込み得る。なお、メモリ1810は分散アーキテクチャを有し得、その場合、様々な構成要素は互いからリモートに配置されるが、プロセッサ1802によりアクセスすることができる。メモリ1810内のソフトウェアは、1つ又は複数のソフトウェアプログラムを含み得、各ソフトウェアプログラムは、論理機能を実施する実行可能命令の順序付きリストを含む。図18の例では、メモリ1810内のソフトウェアは、適するオペレーティングシステム(O/S)1814及びプログラム1816を含む。オペレーティングシステム1814は基本的に、他のコンピュータプログラムの実行を制御し、スケジューリング、入出力制御、ファイル及びデータ管理、メモリ管理、並びに通信制御及び関連サービスを提供する。プログラム1816は、モバイルデバイス1800を用いたエンドユーザ機能を提供するように構成された様々なアプリケーション、アドオン等を含み得る。例えば、例示的なプログラム1816は、ウェブブラウザ、ソーシャルネットワーキングアプリケーション、ストリーミングメディアアプリケーション、ゲーム、マッピング及びロケーションアプリケーション、電子メールアプリケーション、金融アプリケーション等を含み得るが、これらに限定されない。典型的な例では、エンドユーザは通常、システム306等のネットワークと共にプログラム1816のうちの1つ又は複数を使用する。
上記は単に、本開示の原理を示す。記載される実施形態への様々な変更及び代替が、本明細書での教示に鑑みて当業者に明らかになる。したがって、当業者が、本明細書に明示的に示され、又は説明されていないが、本開示の原理を具現し、したがって、本開示の趣旨及び範囲内にあることができる多くのシステム、構成、及び手順を考案可能なことが理解される。当業者に理解されるはずであるように、様々な異なる例示的な実施形態を互いと一緒に、及び相互交換可能に使用することができる。

Claims (51)

  1. 顕微鏡画像を分類する方法であって、
    物体から抽出された少なくとも1つの顕微鏡画像を含むトレーニングデータセットと、前記物体に対応する製品仕様に基づく、前記少なくとも1つの顕微鏡画像の関連クラス定義とを受信することと、
    前記トレーニングデータセットに基づいて、前記少なくとも1つの顕微鏡画像を1つ又は複数のクラスに分類するモデルを構築するように、複数の機械学習分類器をトレーニングすることと、
    前記製品仕様に基づいて、前記構築されたモデルを使用して前記少なくとも1つの顕微鏡画像を1つ又は複数のクラスに分類するために、前記少なくとも1つの顕微鏡画像を受信することと、
    受信した前記顕微鏡画像を複数のチャンクに分割することと、
    前記複数の機械学習分類器へのテスト入力として前記複数のチャンクを使用することと、
    前記複数の機械学習分類器に基づく投票処理を使用して、前記チャンクを1つ又は複数のクラスに分類することと、
    を含み、
    前記製品仕様は、ブランド名、製品ライン、又は前記物体のラベル上の他の詳細を含む、方法。
  2. 前記クラス定義は、前記物体がオリジナルであるか、それとも偽造品であるかについての情報を含む、請求項1に記載の方法。
  3. 前記クラス定義は、前記物体の品質についての情報を含む、請求項1に記載の方法。
  4. 前記物体の製造プロセスは、投入原料及び製造パラメータについての情報を含む、請求項1に記載の方法。
  5. 前記顕微鏡画像は、ハンドヘルドコンピュータデバイス又は顕微鏡を有する携帯電話を含む装置を使用して抽出される、請求項1に記載の方法。
  6. 前記顕微鏡画像は、前記物体の識別情報の一部である曲線、ブロブ、又は特徴を含む、請求項1に記載の方法。
  7. 前記機械学習分類器は、特徴抽出、勾配方向ヒストグラムによるキーポイント記述子生成、及びバッグオブビジュアルワードベースの分類器で構成されるサポートベクターマシンベースの分類器を含む、請求項1に記載の方法。
  8. 前記バッグオブビジュアルワード分類器は、k平均クラスタリング技法、画像記述子をk中心としてインデックス付けること、及び空間ヒストグラム生成を含む、請求項7に記載の方法。
  9. 最終分類器は、ベクターマシン又はk最近傍ベースの分類器をサポートする、請求項8に記載の方法。
  10. 前記機械学習分類器は、クラスタの密度推定に基づいて前記物体を分類する異常検出システムを含む、請求項1に記載の方法。
  11. 前記機械学習分類器は、サポートベクターマシンと、ニューラルネットワークと、異常検出技法との組合せを含む、請求項1に記載の方法。
  12. 前記機械学習分類器は、n層畳み込みニューラルネットワークベースの分類器であり、
    低、中、及び高レベル微視的差異及び特徴を捕捉する畳み込み層、サブサンプリング層、最大プーリング層、平均プーリング層、活性化関数を生成することと、
    逆伝搬技法を使用する確率的共役勾配降下を使用して、前記ネットワークをトレーニングすることと、
    畳み込みネットワークでの最終層の1つとして、ソフトマックス関数を使用して、クラス確率を生成することと、
    前記畳み込みニューラルネットワークでのあらゆる層の出力として、トレーニング特徴を生成することと
    を含む、請求項1に記載の方法。
  13. 前記機械学習分類器は、並進移動、回転、剪断、反転、鏡像、異なる領域にわたるクロッピング又は様々なカーネルを用いての膨張、及び他のラベル保存歪みにより、前記トレーニングセットを拡張するデータを含む、請求項1に記載の方法。
  14. 前記機械学習分類器は、低、中、高、及び微細粒度特徴を識別するマルチスケールの畳み込み、フィルタ、及びストライドを含む、請求項1に記載の方法。
  15. 前記機械学習分類器は、前記n層の深度に基づいて示差的特徴を学習するn層畳み込みニューラルネットワークを含む、請求項1に記載の方法。
  16. 前記機械学習分類器は、画像内の特定の領域候補を識別し、少なくとも1つのn層畳み込みニューラルネットワークを使用して前記画像候補を分類する領域ベースの畳み込みニューラルネットワークを含む、請求項1に記載の方法。
  17. 前記機械学習分類器は、n層畳み込みニューラルネットワークを組み立て、前記n層畳み込みネットワークのそれぞれの出力確率の組合せとして前記画像を分類することを含む、請求項1に記載の方法。
  18. 前記分類は前記物体の真贋を判断し、前記物体は、ハンドバッグ、靴、アパレル、ベルト、時計、ワインボトル、包装、ラベル、アクセサリー、ジャージ、スポーツアパレル、ゴルフクラブ、化粧品、医薬品、薬剤、電子チップ、回路、電話、電池、自動車部品、航空機部品、エアバッグ、紙幣、紙文書、玩具、及び食品のうちの1つ又は複数を含む、請求項1に記載の方法。
  19. 前記顕微鏡画像は、紙、プラスチック、金属、合金、皮、ガラス、木、磁器、及び粘土のうちの1つ又は複数の顕微鏡画像を含む、請求項1に記載の方法。
  20. 前記n層畳み込みニューラルネットワークは、8層、12層、16層、20層、又は24層ネットワークである、請求項12に記載の方法。
  21. 前記8層畳み込みニューラルネットワークは、3つの最大プーリング層及びReLU(正規化線形関数)と共に3つの畳み込み層、その後に続く、2つの独立畳み込み層(最大プーリング層を有さない)及び最終セクションでの3つの全結合層、その後に続く、全てのクラスにわたるスコア又は確率を与えるソフトマックス関数を含む、請求項20に記載の方法。
  22. 前記12層畳み込みニューラルネットワークは、最大プーリング層及びReLU(正規化線形関数)と共に畳み込み層からなる2つの層、その後に続く、4つの独立畳み込み層(最大プーリング層を有さない)、その後に続く、最終セクションでの3組の畳み込み層、最大プーリング層、及びReLU層並びに2つの全結合層を含む、請求項20に記載の方法。
  23. 前記16層畳み込みニューラルネットワークは、第1の組の畳み込み層後に2つの畳み込み層が追加され、前記畳み込みネットワークの後部において、2つの追加の畳み込み層を追加した、8層の畳み込みニューラルネットワークを含む、請求項20に記載の方法。
  24. 前記20層畳み込みニューラルネットワークは、8層のCNN、畳み込み層、最大プーリング層、及びReLU層からなる別の組の8層、その後に続く4つの全結合層及びソフトマックス関数を含む、請求項20に記載の方法。
  25. 前記24層畳み込みニューラルネットワークは、1つの最後の全結合層と組み合わせられた3組の8層ネットワークを含む、請求項20に記載の方法。
  26. 顕微鏡画像を分類するシステムであって、
    物体から抽出された少なくとも1つの顕微鏡画像を含むトレーニングデータセットと、製品仕様又は製造プロセス仕様に基づく関連クラス定義とを記憶するトレーニングデータセットユニットと、
    前記トレーニングデータセットを使用して物体のクラスを認識するように複数の機械学習分類器をトレーニングし、前記少なくとも1つの顕微鏡画像を受信し、受信した前記顕微鏡画像を複数のチャンクに分割し、前記複数の機械学習分類器へのテスト入力として前記複数のチャンクを使用し、前記複数の機械学習分類器に基づく投票処理を使用して前記チャンクを分類して前記物体のクラスを特定するように構成される計算デバイスと
    を備える、システム。
  27. 前記製品仕様は、ブランド名、製品ライン、又は前記物体のラベルに含まれる詳細を含む、請求項26に記載のシステム。
  28. 前記クラス定義は、前記物体がオリジナルであるか、それとも偽造品であるかについての情報を含む、請求項26に記載のシステム。
  29. 前記クラス定義は、前記物体の品質についての情報を含む、請求項26に記載のシステム。
  30. 前記製造プロセスは、投入原料及び前記物体を製造するパラメータについての情報を含む、請求項26に記載のシステム。
  31. 前記計算デバイスは、ハンドヘルド計算デバイス又は携帯電話と顕微鏡との装置を含む、請求項26に記載のシステム。
  32. 前記顕微鏡画像は、前記物体の識別情報の一部である曲線、ブロブ、又は特徴を含む、請求項26に記載のシステム。
  33. 前記機械学習分類器は、特徴抽出、勾配方向ヒストグラムによるキーポイント記述子生成、及びバッグオブビジュアルワードベースの分類器で構成されるサポートベクターマシンベースの分類器を含む、請求項26に記載のシステム。
  34. 前記バッグオブビジュアルワード分類器は、k平均クラスタリング技法、画像記述子をk中心としてインデックス付けること、及び空間ヒストグラム生成を含む、請求項26に記載のシステム。
  35. 最終分類器は、サポートベクターマシン又はk最近傍ベースの分類器である、請求項33に記載のシステム。
  36. 前記機械学習分類器は、クラスタの密度推定に基づいて前記物体を分類する異常検出システムを含む、請求項26に記載のシステム。
  37. 前記機械学習分類器は、サポートベクターマシンと、ニューラルネットワークと、異常検出技法との組合せを含む、請求項26に記載のシステム。
  38. 前記機械学習分類器は、n層畳み込みニューラルネットワークベースの分類器を含み、
    低、中、及び高レベル微視的差異及び特徴を捕捉する1つ又は複数の畳み込み層、サブサンプリング層、最大プーリング層、平均プーリング層、活性化関数と、
    逆伝搬技法を使用する確率的共役勾配降下を使用して、前記ネットワークをトレーニングするように構成される計算デバイスと、
    1組の最終層の1つとして、クラス確率を生成するソフトマックス関数と、
    前記畳み込みネットワークでのあらゆる層の出力としてのトレーニング特徴と
    を備える、請求項26に記載のシステム。
  39. 前記機械学習分類器は、並進移動、回転、剪断、反転、鏡像、異なる領域にわたるクロッピング又は様々なカーネルを用いての膨張、及び他のラベル保存歪みにより、前記トレーニングセットを拡張するデータを含む、請求項26に記載のシステム。
  40. 前記機械学習分類器は、低、中、高、及び微細粒度特徴を識別するマルチスケールの畳み込み、フィルタ、及びストライドを含む、請求項26に記載のシステム。
  41. 前記機械学習分類器は、前記n層の深度に基づいて示差的特徴を学習するn層畳み込みニューラルネットワークを含む、請求項26に記載のシステム。
  42. 前記機械学習分類器は、画像内の特定の領域候補を識別し、少なくとも1つのn層畳み込みニューラルネットワークを使用して前記画像候補を分類する領域ベースの畳み込みニューラルネットワークを含む、請求項26に記載のシステム。
  43. 前記機械学習分類器は、n層畳み込みニューラルネットワークの組み立てを含み、前記画像の前記分類は、前記n層畳み込みネットワークのそれぞれの出力確率の組合せである、請求項26に記載のシステム。
  44. 前記分類は、ハンドバッグ、靴、アパレル、ベルト、時計、ワインボトル、包装、ラベル、アクセサリー、ジャージ、スポーツアパレル、ゴルフクラブ、化粧品、医薬品、薬剤、電子チップ、回路、電話、電池、自動車部品、航空機部品、エアバッグ、紙幣、紙文書、玩具、及び食品等の前記物体の真贋を判断する、請求項26に記載のシステム。
  45. 前記顕微鏡画像は、紙、プラスチック、金属、合金、皮、ガラス、木、磁器、及び粘土の顕微鏡画像を含む、請求項26に記載のシステム。
  46. 前記n層畳み込みニューラルネットワークは、8層、12層、16層、20層、又は24層ネットワークである、請求項38に記載のシステム。
  47. 前記8層畳み込みニューラルネットワークは、3つの最大プーリング層及びReLU(正規化線形関数)と共に3つの畳み込み層、その後に続く、2つの独立畳み込み層(最大プーリング層を有さない)及び最終セクションでの3つの全結合層、その後に続く、全てのクラスにわたるスコア又は確率を与えるソフトマックス関数を含む、請求項46に記載のシステム。
  48. 前記12層畳み込みニューラルネットワークは、最大プーリング層及びReLU(正規化線形関数)と共に畳み込み層からなる2つの層、その後に続く、4つの独立畳み込み層(最大プーリング層を有さない)、その後に続く、最終セクションでの3組の畳み込み層、最大プーリング層、及びReLU層並びに2つの全結合層を含む、請求項46に記載のシステム。
  49. 前記16層畳み込みニューラルネットワークは、第1の組の畳み込み層後に2つの畳み込み層が追加され、前記畳み込みネットワークの後部において、2つの追加の畳み込み層を追加した、8層の畳み込みニューラルネットワークを含む、請求項46に記載のシステム。
  50. 前記20層畳み込みニューラルネットワークは、8層のCNN、畳み込み層、最大プーリング層、及びReLU層からなる別の組の8層、その後に続く4つの全結合層及びソフトマックス関数を含む、請求項46に記載のシステム。
  51. 前記24層畳み込みニューラルネットワークは、1つの最後の全結合層と組み合わせられた3組の8層ネットワークを含む、請求項46に記載のシステム。
JP2017504609A 2014-04-09 2015-04-09 微視的差異からの機械学習を使用する物体の真贋鑑定 Active JP6767966B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461977423P 2014-04-09 2014-04-09
US61/977,423 2014-04-09
PCT/US2015/025131 WO2015157526A1 (en) 2014-04-09 2015-04-09 Authenticating physical objects using machine learning from microscopic variations

Publications (2)

Publication Number Publication Date
JP2017520864A JP2017520864A (ja) 2017-07-27
JP6767966B2 true JP6767966B2 (ja) 2020-10-14

Family

ID=54288403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017504609A Active JP6767966B2 (ja) 2014-04-09 2015-04-09 微視的差異からの機械学習を使用する物体の真贋鑑定

Country Status (5)

Country Link
US (1) US20170032285A1 (ja)
EP (1) EP3129896B1 (ja)
JP (1) JP6767966B2 (ja)
CN (1) CN106462549B (ja)
WO (1) WO2015157526A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100210A (zh) * 2022-08-29 2022-09-23 山东艾克赛尔机械制造有限公司 一种基于汽车零部件防伪识别方法
WO2022239671A1 (ja) * 2021-05-11 2022-11-17 ブラザー工業株式会社 画像処理方法、コンピュータプログラム、画像処理装置、および、訓練方法

Families Citing this family (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8774455B2 (en) 2011-03-02 2014-07-08 Raf Technology, Inc. Document fingerprinting
US9443298B2 (en) 2012-03-02 2016-09-13 Authentect, Inc. Digital fingerprinting object authentication and anti-counterfeiting system
US9542626B2 (en) * 2013-09-06 2017-01-10 Toyota Jidosha Kabushiki Kaisha Augmenting layer-based object detection with deep convolutional neural networks
US10036881B2 (en) * 2014-05-23 2018-07-31 Pathonomic Digital microscope system for a mobile device
WO2015176305A1 (zh) * 2014-05-23 2015-11-26 中国科学院自动化研究所 人形图像分割方法
US9892344B1 (en) * 2015-11-30 2018-02-13 A9.Com, Inc. Activation layers for deep learning networks
RU2694021C1 (ru) * 2015-12-14 2019-07-08 Моушен Метрикс Интернешэнл Корп. Способ и устройство идентификации частей фрагментированного материала в пределах изображения
US10402699B1 (en) * 2015-12-16 2019-09-03 Hrl Laboratories, Llc Automated classification of images using deep learning—back end
US10572883B2 (en) 2016-02-19 2020-02-25 Alitheon, Inc. Preserving a level of confidence of authenticity of an object
US10095957B2 (en) 2016-03-15 2018-10-09 Tata Consultancy Services Limited Method and system for unsupervised word image clustering
CN105847968B (zh) * 2016-03-21 2018-12-21 京东方科技集团股份有限公司 基于深度学习的解像方法和系统
US10867301B2 (en) * 2016-04-18 2020-12-15 Alitheon, Inc. Authentication-triggered processes
US10740767B2 (en) 2016-06-28 2020-08-11 Alitheon, Inc. Centralized databases storing digital fingerprints of objects for collaborative authentication
US10915612B2 (en) 2016-07-05 2021-02-09 Alitheon, Inc. Authenticated production
US10706348B2 (en) * 2016-07-13 2020-07-07 Google Llc Superpixel methods for convolutional neural networks
US10083347B2 (en) * 2016-07-29 2018-09-25 NTech lab LLC Face identification using artificial neural network
US10706327B2 (en) * 2016-08-03 2020-07-07 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US10902540B2 (en) 2016-08-12 2021-01-26 Alitheon, Inc. Event-driven authentication of physical objects
US10839528B2 (en) 2016-08-19 2020-11-17 Alitheon, Inc. Authentication-based tracking
US11055735B2 (en) 2016-09-07 2021-07-06 Adobe Inc. Creating meta-descriptors of marketing messages to facilitate in delivery performance analysis, delivery performance prediction and offer selection
US10621747B2 (en) 2016-11-15 2020-04-14 Magic Leap, Inc. Deep learning system for cuboid detection
CN108229509B (zh) 2016-12-16 2021-02-26 北京市商汤科技开发有限公司 用于识别物体类别的方法及装置、电子设备
CN110574041B (zh) * 2017-02-23 2023-06-20 诺基亚技术有限公司 针对深度学习领域的协同激活
US10372600B2 (en) * 2017-03-01 2019-08-06 Salesforce.Com, Inc. Systems and methods for automated web performance testing for cloud apps in use-case scenarios
US11216927B2 (en) * 2017-03-16 2022-01-04 Siemens Aktiengesellschaft Visual localization in images using weakly supervised neural network
CN110770711B (zh) * 2017-03-31 2023-12-22 3M创新有限公司 基于图像的伪造品检测
US10365606B2 (en) * 2017-04-07 2019-07-30 Thanh Nguyen Apparatus, optical system, and method for digital holographic microscopy
CN110573883B (zh) * 2017-04-13 2023-05-30 美国西门子医学诊断股份有限公司 用于在样本表征期间确定标签计数的方法和装置
KR102160184B1 (ko) * 2017-06-02 2020-09-28 동국대학교 산학협력단 Cnn 기반 지정맥 인식 장치 및 인식 방법
US10705017B2 (en) 2017-06-09 2020-07-07 Verivin Ltd. Characterization of liquids in sealed containers
JP6744633B2 (ja) * 2017-06-26 2020-08-19 株式会社Rutilea 物品判定装置、システム、学習方法及びプログラム
GB201710560D0 (en) * 2017-06-30 2017-08-16 Norwegian Univ Of Science And Tech (Ntnu) Detection of manipulated images
EP3649933A4 (en) * 2017-07-07 2021-07-14 Osaka University PAIN DETERMINATION USING TREND ANALYSIS, MEDICAL DEVICE WITH MACHINE LEARNING, ECONOMIC DISCRIMINATION MODEL AND IOT, TAILORED MACHINE LEARNING AND NOVEL BRAIN WAVE CHARACTERISTICS DETERMINATION OF PAIN
JP6710853B2 (ja) * 2017-07-07 2020-06-17 浩一 古川 プローブ型共焦点レーザー顕微内視鏡画像診断支援装置
CN107392147A (zh) * 2017-07-20 2017-11-24 北京工商大学 一种基于改进的生成式对抗网络的图像语句转换方法
EP3435287A3 (en) 2017-07-25 2019-05-01 Alitheon, Inc. Model-based digital fingerprinting
KR101991028B1 (ko) * 2017-08-04 2019-10-01 동국대학교 산학협력단 지정맥 인식 장치 및 방법
CN107463965B (zh) * 2017-08-16 2024-03-26 湖州易有科技有限公司 基于深度学习的面料属性图片采集和识别方法及识别系统
US11106976B2 (en) 2017-08-19 2021-08-31 Wave Computing, Inc. Neural network output layer for machine learning
US10949328B2 (en) 2017-08-19 2021-03-16 Wave Computing, Inc. Data flow graph computation using exceptions
US10769491B2 (en) * 2017-09-01 2020-09-08 Sri International Machine learning system for generating classification data and part localization data for objects depicted in images
JP6951913B2 (ja) * 2017-09-06 2021-10-20 日本放送協会 分類モデル生成装置、画像データ分類装置およびそれらのプログラム
CN107844980A (zh) * 2017-09-30 2018-03-27 广东工业大学 商品真假鉴别方法及装置、计算机存储介质及设备
EP3462373A1 (en) * 2017-10-02 2019-04-03 Promaton Holding B.V. Automated classification and taxonomy of 3d teeth data using deep learning methods
WO2019089553A1 (en) * 2017-10-31 2019-05-09 Wave Computing, Inc. Tensor radix point calculation in a neural network
EP3714397A4 (en) * 2017-11-24 2021-01-13 Truemed Oy METHOD AND SYSTEM FOR IDENTIFYING THE AUTHENTICITY OF AN OBJECT
CN108009574B (zh) * 2017-11-27 2022-04-29 成都明崛科技有限公司 一种轨道扣件检测方法
US11847661B2 (en) * 2017-11-30 2023-12-19 3M Innovative Properties Company Image based counterfeit detection
EP3499459A1 (en) * 2017-12-18 2019-06-19 FEI Company Method, device and system for remote deep learning for microscopic image reconstruction and segmentation
CN111480167A (zh) * 2017-12-20 2020-07-31 艾普维真股份有限公司 多数字表示的认证机器学习
CN109949264A (zh) * 2017-12-20 2019-06-28 深圳先进技术研究院 一种图像质量评价方法、设备及存储设备
US11087013B2 (en) 2018-01-22 2021-08-10 Alitheon, Inc. Secure digital fingerprint key object database
CN108334835B (zh) * 2018-01-29 2021-11-19 华东师范大学 基于卷积神经网络的阴道分泌物显微图像有形成分检测方法
WO2019167007A1 (en) * 2018-03-01 2019-09-06 Infotoo International Limited Methods and apparatus for determining authenticity of an information bearing device
CN108520285B (zh) * 2018-04-16 2021-02-09 图灵人工智能研究院(南京)有限公司 物品鉴别方法、系统、设备及存储介质
CN108804563B (zh) * 2018-05-22 2021-11-19 创新先进技术有限公司 一种数据标注方法、装置以及设备
CN111819580A (zh) * 2018-05-29 2020-10-23 谷歌有限责任公司 用于密集图像预测任务的神经架构搜索
US11561195B2 (en) * 2018-06-08 2023-01-24 Massachusetts Institute Of Technology Monolithic 3D integrated circuit for gas sensing and method of making and system using
US11074592B2 (en) * 2018-06-21 2021-07-27 The Procter & Gamble Company Method of determining authenticity of a consumer good
CN112313718A (zh) * 2018-06-28 2021-02-02 3M创新有限公司 材料样品的基于图像的新颖性检测
CN109063713A (zh) * 2018-07-20 2018-12-21 中国林业科学研究院木材工业研究所 一种基于构造特征图像深度学习的木材鉴别方法和系统
US11645178B2 (en) 2018-07-27 2023-05-09 MIPS Tech, LLC Fail-safe semi-autonomous or autonomous vehicle processor array redundancy which permits an agent to perform a function based on comparing valid output from sets of redundant processors
US11054370B2 (en) 2018-08-07 2021-07-06 Britescan, Llc Scanning devices for ascertaining attributes of tangible objects
US10402691B1 (en) 2018-10-04 2019-09-03 Capital One Services, Llc Adjusting training set combination based on classification accuracy
US11934944B2 (en) 2018-10-04 2024-03-19 International Business Machines Corporation Neural networks using intra-loop data augmentation during network training
US11397804B2 (en) 2018-10-12 2022-07-26 Cynthia Fascenelli Kirkeby System and methods for authenticating tangible products
US11977621B2 (en) 2018-10-12 2024-05-07 Cynthia Fascenelli Kirkeby System and methods for authenticating tangible products
KR102140340B1 (ko) 2018-10-18 2020-07-31 엔에이치엔 주식회사 컨볼루션 뉴럴 네트워크를 통해 이미지 위변조를 탐지하는 시스템 및 이를 이용하여 무보정 탐지 서비스를 제공하는 방법
US11443165B2 (en) * 2018-10-18 2022-09-13 Deepnorth Inc. Foreground attentive feature learning for person re-identification
KR102157375B1 (ko) * 2018-10-18 2020-09-17 엔에이치엔 주식회사 딥러닝 기반 이미지 보정 탐지 시스템 및 이를 이용하여 무보정 탐지 서비스를 제공하는 방법
DE102018217901A1 (de) * 2018-10-18 2020-04-23 Leica Microsystems Cms Gmbh Optimierung von Arbeitsabläufen von Mikroskopen
EP3867919A4 (en) * 2018-10-19 2022-08-31 F. Hoffmann-La Roche AG DEFECT DETECTION IN LYOPHILIZED MEDICINAL PRODUCTS USING NEURAL CONVOLUTIONAL NETWORKS
CN109448007B (zh) * 2018-11-02 2020-10-09 北京迈格威科技有限公司 图像处理方法、图像处理装置及存储介质
KR20230172608A (ko) * 2018-11-07 2023-12-22 트러스티즈 오브 터프츠 칼리지 표면 식별을 위한 원자힘 현미경
CN109253985B (zh) * 2018-11-28 2022-01-11 东北林业大学 基于神经网络的近红外光谱识别古筝面板用木材等级的方法
KR102178444B1 (ko) * 2018-12-19 2020-11-13 주식회사 포스코 미세 조직 분석 장치
US10372573B1 (en) * 2019-01-28 2019-08-06 StradVision, Inc. Method and device for generating test patterns and selecting optimized test patterns among the test patterns in order to verify integrity of convolution operations to enhance fault tolerance and fluctuation robustness in extreme situations
CN109829501B (zh) * 2019-02-01 2021-02-19 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
US10963670B2 (en) 2019-02-06 2021-03-30 Alitheon, Inc. Object change detection and measurement using digital fingerprints
JP2020129439A (ja) 2019-02-07 2020-08-27 株式会社日立製作所 情報処理システムおよび情報処理方法
US11046519B2 (en) * 2019-02-25 2021-06-29 Rehrig Pacific Company Delivery system
CN109871906B (zh) * 2019-03-15 2023-03-28 西安获德图像技术有限公司 一种基于深度卷积神经网络的管纱外观缺陷的分类方法
US11067501B2 (en) * 2019-03-29 2021-07-20 Inspectorio, Inc. Fabric validation using spectral measurement
US11227030B2 (en) 2019-04-01 2022-01-18 Wave Computing, Inc. Matrix multiplication engine using pipelining
US11481472B2 (en) 2019-04-01 2022-10-25 Wave Computing, Inc. Integer matrix multiplication engine using pipelining
EP3948628B1 (en) * 2019-04-02 2024-04-24 Cybord Ltd. System and method for detection of counterfeit and cyber electronic components
EP3734506A1 (en) 2019-05-02 2020-11-04 Alitheon, Inc. Automated authentication region localization and capture
EP3736717A1 (en) 2019-05-10 2020-11-11 Alitheon, Inc. Loop chain digital fingerprint method and system
EP3981008A1 (en) * 2019-06-07 2022-04-13 Leica Microsystems CMS GmbH A system and method for processing biology-related data, a system and method for controlling a microscope and a microscope
US10698704B1 (en) 2019-06-10 2020-06-30 Captial One Services, Llc User interface common components and scalable integrable reusable isolated user interface
US11392800B2 (en) 2019-07-02 2022-07-19 Insurance Services Office, Inc. Computer vision systems and methods for blind localization of image forgery
EP3997506A4 (en) * 2019-07-11 2023-08-16 Sensibility Pty Ltd MACHINE LEARNING-BASED TELEPHONE IMAGING SYSTEM AND ANALYSIS METHOD
CN110442800B (zh) * 2019-07-22 2022-05-20 哈尔滨工程大学 一种融合节点属性和图结构的半监督社区发现方法
CN112446888A (zh) * 2019-09-02 2021-03-05 华为技术有限公司 图像分割模型的处理方法和处理装置
US11961294B2 (en) * 2019-09-09 2024-04-16 Techinvest Company Limited Augmented, virtual and mixed-reality content selection and display
US11205099B2 (en) * 2019-10-01 2021-12-21 Google Llc Training neural networks using data augmentation policies
US11238146B2 (en) 2019-10-17 2022-02-01 Alitheon, Inc. Securing composite objects using digital fingerprints
US11151583B2 (en) * 2019-10-21 2021-10-19 Entrupy Inc. Shoe authentication device and authentication process
US11200659B2 (en) 2019-11-18 2021-12-14 Stmicroelectronics (Rousset) Sas Neural network training device, system and method
US11501424B2 (en) 2019-11-18 2022-11-15 Stmicroelectronics (Rousset) Sas Neural network training device, system and method
US10846436B1 (en) 2019-11-19 2020-11-24 Capital One Services, Llc Swappable double layer barcode
GB2591178B (en) * 2019-12-20 2022-07-27 Procter & Gamble Machine learning based imaging method of determining authenticity of a consumer good
EP3859603A1 (en) 2020-01-28 2021-08-04 Alitheon, Inc. Depth-based digital fingerprinting
EP3885982A3 (en) 2020-03-23 2021-12-22 Alitheon, Inc. Hand biometrics system and method using digital fingerprints
EP3885984A1 (en) 2020-03-23 2021-09-29 Alitheon, Inc. Facial biometrics system and method of using digital fingerprints
WO2021191908A1 (en) * 2020-03-25 2021-09-30 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Deep learning-based anomaly detection in images
US11948377B2 (en) 2020-04-06 2024-04-02 Alitheon, Inc. Local encoding of intrinsic authentication data
US20230129202A1 (en) * 2020-04-10 2023-04-27 Cybord Ltd. System and method for assessing quality of electronic components
US11562371B2 (en) 2020-04-15 2023-01-24 Merative Us L.P. Counterfeit pharmaceutical and biologic product detection using progressive data analysis and machine learning
CN111541632B (zh) * 2020-04-20 2020-11-03 四川农业大学 一种基于主成分分析和残差网络的物理层认证方法
US11663849B1 (en) 2020-04-23 2023-05-30 Alitheon, Inc. Transform pyramiding for fingerprint matching system and method
CN111751133B (zh) * 2020-06-08 2021-07-27 南京航空航天大学 一种基于非局部均值嵌入的深度卷积神经网络模型的智能故障诊断方法
FR3111218A1 (fr) 2020-06-08 2021-12-10 Cypheme Procédé d’identification et dispositif de détection de la contrefaçon par traitement totalement automatisé des caractéristiques des produits photographiés par un appareil muni d’une caméra digitale
WO2021250679A1 (en) * 2020-06-13 2021-12-16 Cybord Ltd System and method for tracing components of electronic assembly
EP3926496A1 (en) 2020-06-17 2021-12-22 Alitheon, Inc. Asset-backed digital security tokens
CN111783338B (zh) * 2020-06-30 2023-04-21 平安国际智慧城市科技股份有限公司 基于人工智能的微观组织金属强度分布预测方法及装置
CN111860672B (zh) * 2020-07-28 2021-03-16 北京邮电大学 一种基于分块卷积神经网络的细粒度图像分类方法
IT202000020218A1 (it) * 2020-08-17 2022-02-17 Certilogo S P A Metodo automatico per determinare l’autenticità di un prodotto
US20220092609A1 (en) * 2020-09-22 2022-03-24 Lawrence Livermore National Security, Llc Automated evaluation of anti-counterfeiting measures
US20220100714A1 (en) * 2020-09-29 2022-03-31 Adobe Inc. Lifelong schema matching
CN112634999B (zh) * 2020-11-30 2024-03-26 厦门大学 一种机器学习辅助优化梯度二氧化钛纳米管微图案的方法
CN112509641B (zh) * 2020-12-04 2022-04-08 河北环境工程学院 一种基于深度学习监测抗生素与金属联合产物的智能方法
KR102588739B1 (ko) * 2020-12-31 2023-10-17 (주)넷코아테크 위조품 판별 서비스를 제공하는 사용자 단말, 방법 및 서버
EP4356316A2 (en) * 2021-06-16 2024-04-24 Microtrace, LLC Classification using artificial intelligence strategies that reconstruct data using compression and decompression transformations
US20230196539A1 (en) * 2021-12-18 2023-06-22 Imageprovision Technology Private Limited Artificial intelligence based method for detection and analysis of image quality and particles viewed through a microscope
EP4242950A1 (en) 2022-03-10 2023-09-13 Nicholas Ives A system and a computer-implemented method for detecting counterfeit items or items which have been produced illicitly
WO2023205526A1 (en) * 2022-04-22 2023-10-26 Outlander Capital LLC Blockchain powered art authentication
WO2023230130A1 (en) * 2022-05-25 2023-11-30 Oino Llc Systems and methods for reliable authentication of jewelry and/or gemstones
EP4328879A1 (en) 2022-08-26 2024-02-28 Alpvision SA Systems and methods for predicting the authentication detectability of counterfeited items

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005042725A2 (en) * 2003-11-03 2005-05-12 Genenews, Inc. Liver cancer biomarkers
CN1295643C (zh) * 2004-08-06 2007-01-17 上海大学 皮肤显微图像症状自动识别方法
US7958063B2 (en) * 2004-11-11 2011-06-07 Trustees Of Columbia University In The City Of New York Methods and systems for identifying and localizing objects based on features of the objects that are mapped to a vector
EP1846869B1 (en) * 2005-01-27 2011-10-05 Cambridge Research & Instrumentation, Inc. Classifying image features
US7630559B2 (en) * 2005-11-21 2009-12-08 Fuji Xerox Co., Ltd. Confirmation system for authenticity of article and confirmation method
US8290275B2 (en) * 2006-01-20 2012-10-16 Kansai Paint Co., Ltd. Effective pigment identification method, identification system, identification program, and recording medium therefor
US9799098B2 (en) * 2007-04-24 2017-10-24 Massachusetts Institute Of Technology Method and apparatus for image processing
US9195898B2 (en) * 2009-04-14 2015-11-24 Qualcomm Incorporated Systems and methods for image recognition using mobile devices
US20120253792A1 (en) * 2011-03-30 2012-10-04 Nec Laboratories America, Inc. Sentiment Classification Based on Supervised Latent N-Gram Analysis
EP2724332B1 (en) * 2011-06-23 2018-04-18 Covectra, Inc. Systems for tracking and authenticating goods
US9290010B2 (en) * 2011-10-06 2016-03-22 AI Cure Technologies, Inc. Method and apparatus for fractal identification
US8893973B2 (en) * 2012-04-06 2014-11-25 Wayne Shaffer Coded articles and systems and methods of identification of the same
CN103679185B (zh) * 2012-08-31 2017-06-16 富士通株式会社 卷积神经网络分类器系统、其训练方法、分类方法和用途
CN103077399B (zh) * 2012-11-29 2016-02-17 西交利物浦大学 基于集成级联架构的生物显微图像分类方法
US20140279613A1 (en) * 2013-03-14 2014-09-18 Verizon Patent And Licensing, Inc. Detecting counterfeit items
CN103632154B (zh) * 2013-12-16 2018-02-02 福建师范大学 基于二次谐波图像纹理分析的皮肤瘢痕图像判断方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239671A1 (ja) * 2021-05-11 2022-11-17 ブラザー工業株式会社 画像処理方法、コンピュータプログラム、画像処理装置、および、訓練方法
CN115100210A (zh) * 2022-08-29 2022-09-23 山东艾克赛尔机械制造有限公司 一种基于汽车零部件防伪识别方法

Also Published As

Publication number Publication date
WO2015157526A1 (en) 2015-10-15
US20170032285A1 (en) 2017-02-02
CN106462549A (zh) 2017-02-22
EP3129896B1 (en) 2024-02-14
JP2017520864A (ja) 2017-07-27
CN106462549B (zh) 2020-02-21
EP3129896C0 (en) 2024-02-14
EP3129896A4 (en) 2017-11-29
EP3129896A1 (en) 2017-02-15

Similar Documents

Publication Publication Date Title
JP6767966B2 (ja) 微視的差異からの機械学習を使用する物体の真贋鑑定
Satpathy et al. LBP-based edge-texture features for object recognition
US20200117886A1 (en) Fast, embedded, hybrid video face recognition system
Jin et al. Tracking with deep neural networks
Zawbaa et al. Automatic fruit image recognition system based on shape and color features
Lin et al. Image retrieval and classification using adaptive local binary patterns based on texture features
Alonso‐Fernandez et al. Facial masks and soft‐biometrics: Leveraging face recognition CNNs for age and gender prediction on mobile ocular images
Wei et al. Visual descriptors for scene categorization: experimental evaluation
Hussain et al. A comprehensive study of the effect of spatial resolution and color of digital images on vehicle classification
Fidler et al. Learning a hierarchical compositional shape vocabulary for multi-class object representation
Thubsaeng et al. Vehicle logo detection using convolutional neural network and pyramid of histogram of oriented gradients
Hotta Local co-occurrence features in subspace obtained by KPCA of local blob visual words for scene classification
Zhao et al. Combining multiple SVM classifiers for adult image recognition
Li et al. Learning cascaded shared-boost classifiers for part-based object detection
Kuang et al. MutualCascade method for pedestrian detection
Han et al. Biomedical imaging modality classification using combined visual features and textual terms
Winarno et al. Analysis of color features performance using support vector machine with multi-kernel for batik classification.
Vashisth et al. Histogram of Oriented Gradients based reduced feature for traffic sign recognition
CN113642540B (zh) 一种基于胶囊网络的人脸表情识别方法及装置
Zhang et al. RO-SVM: Support Vector Machine with Reject Option for Image Categorization.
Dalara et al. Entity Recognition in Indian Sculpture using CLAHE and machine learning
Bianco et al. CURL: Image classification using co-training and unsupervised representation learning
Hosny et al. Fast and accurate face recognition system using MORSCMs-LBP on embedded circuits
Eragi et al. Human identity recognition based on facial images: Via supervised autoencoder features representation
El-Naggar et al. Image Quality Assessment for Effective Ear Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200115

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200115

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20200128

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200305

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200310

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200327

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200331

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200526

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200804

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20200901

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200918

R150 Certificate of patent or registration of utility model

Ref document number: 6767966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250