JP2020091831A - 二次元シンボルを介した機械学習 - Google Patents

二次元シンボルを介した機械学習 Download PDF

Info

Publication number
JP2020091831A
JP2020091831A JP2019132997A JP2019132997A JP2020091831A JP 2020091831 A JP2020091831 A JP 2020091831A JP 2019132997 A JP2019132997 A JP 2019132997A JP 2019132997 A JP2019132997 A JP 2019132997A JP 2020091831 A JP2020091831 A JP 2020091831A
Authority
JP
Japan
Prior art keywords
symbol
features
computing system
machine learning
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019132997A
Other languages
English (en)
Other versions
JP6634181B1 (ja
Inventor
ヤン リン
Ling Yang
ヤン リン
スン バオホワ
Sun Baohua
スン バオホワ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gyrfalcon Technology Inc
Original Assignee
Gyrfalcon Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gyrfalcon Technology Inc filed Critical Gyrfalcon Technology Inc
Application granted granted Critical
Publication of JP6634181B1 publication Critical patent/JP6634181B1/ja
Publication of JP2020091831A publication Critical patent/JP2020091831A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/43Editing text-bitmaps, e.g. alignment, spacing; Semantic analysis of bitmaps of text without OCR

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

【課題】2−Dシンボルを介した機械学習を容易にする方法を提供する。【解決手段】2−Dシンボルを介した機械学習を容易にする方法は、2−Dシンボル作成アプリケーションモジュールがインストールされた第一演算システムにおいて対象物の複数の特徴を受信する工程502と、シンボル作成ルールに基づいて、受信した特徴から多層2−Dシンボルを形成する工程504であって、2−DシンボルがN×N画素データ(Nは正の整数)の行列であり、行列が部分行列に分割され、各部分行列が対応する一つの特徴を備える工程と、第一演算システムで形成された2−Dシンボルを分類するために、2−Dシンボル内に含まれる複合特徴の意味を、第二演算システム内で画像処理技術を用いて学習する工程506を備える。シンボル作成ルールは、2−Dシンボル内の部分行列の重要性の順序、サイズ、及び位置を決定する。【選択図】図5A

Description

本発明は、一般に、機械学習の分野に関し、特に、二次元(2−D)シンボルを介した機械学習に関する。
機械学習は、人工知能の応用である。機械学習においては、コンピュータ即ち演算装置は人間のように思考するようプログラムされ、コンピュータはそれ自体で学習するよう教える。ニューラルネットワークの発展は、人間が行うようにコンピュータが思考し世界を理解するよう教えるための鍵であった。
機械学習は、1950年代に始まって、これまでに多くの画期的な発見や業績がなされてきた。注目すべき発見や業績としては、ロジスティック回帰、サポートベクターマシン(SVM)、勾配ブースティングマシン(GBM)等が挙げられるがこれらに限定されない。その後2010年代に入ると深層学習の実現可能性が高まってきた。注目すべき実装の一つは、セルラーニューラルネットワーク又はセルラー非線形ネットワーク(CNN)ベース演算装置と呼ばれる。CNNベース演算装置は、画像処理を含むがこれに限定されない多くの様々な分野や課題において使用されている。
本明細書のこの節は、本発明の幾つかの態様を要約し、幾つかの好適な実施形態を簡潔に紹介することを目的とする。この節や更には要約や発明の名称において、その目的が不明瞭にならないようにするために、単純化または省略が行われることがある。このような単純化または省略には、本発明の範囲を限定するという意図はない。
2−Dシンボルを介した機械学習を容易にする方法が開示される。本開示の一態様によれば、2−Dシンボル作成アプリケーションモジュールがインストールされた第一演算システムにおいてある対象物の複数の特徴が受信される。シンボル生成ルールセットに基づいて、受信した特徴から多層2−Dシンボルが形成される。2−Dシンボルは、N×N画素(Nは正の整数)の行列であって幾つかの部分行列に分割される。各部分行列は対応する一つの特徴を備える。2−Dシンボル内に含まれる複合特徴の意味が第二演算システムで画像処理技術を用いて学習され、第一演算システムから送信された2−Dシンボルが分類される。
本開示の一態様によれば、シンボル作成ルールセットには、以下の動作が含まれる。機械学習技術の一つに基づいて、複数の特徴の重要性の順序を決定する工程と、重要性の順序に応じて対応する特徴と各部分行列とを関連付ける工程と、対応する特徴に応じて各部分行列のサイズを決定する工程と、サイズと重要性の順序に応じて、各部分行列を2−Dシンボル内の特定の位置に配置する工程と、を備える。
本開示の更なる態様によれば、2−Dシンボル作成アプリケーションモジュールがインストールされた第一演算システムにおいて、自然言語の文字列と文字に関連する複数の特徴が受信される。シンボル生成ルールセットに基づいて、文字と特徴とから多層2−Dシンボルが形成される。2−Dシンボルは、第一部分と第二部分とに分割されたN×N画素データの行列である。第一部分は、文字を含むよう構成され、第二部分は、複数の部分行列に分割され、各部分行列は関連する特徴のうちの一つを含む。Nは、正の整数である。2−Dシンボル内に含まれる自然言語の文字列と関連する特徴との意味は、第二演算システムで画像処理技術を用いて学習され、第一演算システムから送られてきた2−Dシンボルが分類される。シンボル作成ルールは、2−Dシンボル内の部分行列の重要性の順序、サイズ、位置を決定する。
本発明の目的、特徴及び利点については、添付の図面を共に参照しながら、本発明の実施形態についての以下の詳細な説明によって明らかとなるであろう。
これらの及び他の本発明の特徴、態様、及び利点は、以下の説明、添付の請求項並びに次のような添付の図面によってより良く理解されるであろう。
本発明の一実施態様に係る、含まれる複合特徴(combined features)の意味についての機械学習を容易にするための、N×N画素データ行列を含む二次元(2−D)シンボルの例を示す図である。 本発明の一実施形態に係る、図1の2−Dシンボルの例におけるある対象物の特徴を含む2つの例示的スキームを示す図である。 本発明の一実施形態に係る、図1の2−Dシンボルの例におけるある対象物の特徴を含む2つの例示的スキームを示す図である。 本発明の一実施形態に係る、ある対象物の特徴を含む2−Dシンボルの例を示す図である。 本発明の一実施形態に係る、図1の2−Dシンボルの自然言語の文字列と関連する特徴とを保存するための例示的スキームを示す図である。 本発明の一実施形態に係る、図1の2−Dシンボルの自然言語の文字列と関連する特徴とを保存するための例示的スキームを示す図である。 本発明の一実施形態に係る、二次元シンボルに含まれる複合特徴の意味を機械学習するための、例示的なセルラーニューラルネットワーク又はセルラー非線形ネットワーク(CNN)ベース演算システムの例を示すブロック図である。 本発明の一実施形態に係る、畳み込ニューラルネットワークに基づいて画像処理を行うためのCNNベース集積回路の例を示すブロック図である。 本発明の一実施形態に係る、2−Dシンボルを介した機械学習を容易にするプロセスの例を示すフローチャートである。 本発明の一実施形態に係る、2−Dシンボルを介した機械学習を容易にするプロセスの例を示すフローチャートである。 本発明の一実施形態に係る、2−Dシンボル作成ルールの例示的なプロセスを示すフローチャートである。 本発明の一実施形態に係る、画像処理技術を用いた多層二次元シンボルを介した自然言語処理の例を示す概略図である。 本発明の一実施形態に係る畳み込みニューラルネットワークに基づく例示的な画像処理技術を示す概略図である。 本発明の一実施形態に係る、CNNベース集積回路でのCNN処理エンジンの例を示す図である。 本発明の一実施形態に係る、図8の例示的なCNN処理エンジン内での画像データ領域の例を示す図である。 本発明の一実施形態に係る、図9の例示的な画像データ領域内の画素位置の例を示す図である。 本発明の一実施形態に係る、図9の例示的な画像データ領域内の画素位置の例を示す図である。 本発明の一実施形態に係る、図9の例示的な画像データ領域内の画素位置の例を示す図である。 本発明の一実施形態に係る、図8の例示的なCNN処理エンジンでのある画素位置で3×3畳み込みを行うためのデータ配列の例を示す図である。 本発明の一実施形態に係る、2×2プーリング演算の例を示す図である。 本発明の一実施形態に係る、2×2プーリング演算の例を示す図である。 本発明の一実施形態に係る、図8の例示的なCNN処理エンジンでの画像データの2×2プーリング演算を示す図である。 本発明の一実施形態に係る、入力画像内の画像データ領域の幾つかの例を示す図である。 本発明の一実施形態に係る、入力画像内の画像データ領域の幾つかの例を示す図である。 本発明の一実施形態に係る、入力画像内の画像データ領域の幾つかの例を示す図である。 本発明の一実施形態に係る、例示的なクロックスキュー回路を介してループ状に接続した複数のCNN処理エンジンを示す図である。
以下の記載では、本発明を詳しく理解するための細部にわたる詳細な説明を行っている。しかしながら、それらの細部を用いなくとも発明の実施が可能であることは当業者にとって明らかであろう。本明細書での記載及び表現は、当該技術で経験のある者即ち当業者が最も効果的にその作業の本質を他の当業者に伝えるために用いる通常の手段である。他の例では、本発明の態様を不必要に曖昧にすることを回避するために、周知の方法、手順及び部品類について詳細には説明しない。
本明細書における、「一実施形態」、「ある実施形態」という表現は、その実施形態に関連して記載した特定の特徴、構造又は特性が、本発明の少なくとも一つの実施形態において含まれ得ることを示している。本明細書において「一実施形態において」という表現が様々な箇所で使われているが、これは必ずしも同じ一つの実施形態を指すというわけではなく、必ずしも別々の実施形態の相互に排他的な、異なる即ち代替的な実施形態というわけでもない。本明細書で用いる用語「垂直」、「水平」、「対角線」、「左」、「右」、「上部」、「底部」、
「列」、「行」、及び「対角線上の」は、記載上の目的で相対的な位置を示すためのものであって、絶対的な座標系を示すことを意図するものではない。さらに、本明細書中で用いた用語「文字」および「スクリプト」は、互換的に使用される。
本発明の実施形態について、図1〜図15を参照して以下に述べる。但し、これらの図面に関して以下に述べる詳細な記載が説明を目的とするものであり、本発明がこれらの限定された実施形態を超えた範囲に及ぶことを、当業者であれば容易に理解するであろう。
まず図1を参照すると、含まれる複合特徴の意味の機械学習を容易にするための二次元(2−D)シンボル100の例を示す図が示されている。二次元シンボル100は、N×N画素(すなわち、N列×N行)のデータの行列を含む。画素は、次のように最初に行、次に列の順序で並べられる:(1,1),(1,2),(1,3),...(1,N),(2,1),..,(N,1),...(N,N)。例えば、Nは正の整数であって、一実施形態では224である。
図2Aは、図1の2−Dシンボル100の例において、ある対象物の特徴212を保存するための第一スキーム210を示す図である。第一の例示的なスキーム210では、各特徴212は同じサイズを有して均等に配置される。第二の例示的なスキーム220では、第一群の特徴222は大きく、第二群の特徴224は小さい。特徴の総数は正の数又は整数である。
第一の例示的なスキーム210では、全ての特徴212は同じ重要度を有する。第二の例示的なスキーム220では、第一群の特徴222が第二群の特徴224より重要である。特徴群の数やある特定の群における特徴の数には制限がない。即ち、図示しない他のスキームが想定される。
特徴には、数字及びカテゴリの二種類がある。特徴の一つの要件は、各サンプル対象物についての一意の(ユニークな)表現であることである。
数値特徴は、整数、分数を有する数等の様々な形式を取り得る。確実に一意の表現とするために、2−Dシンボルにおいて数値カテゴリを表すために幾つかの技術を使用可能である。一実施形態において、数値特徴は、対応する数字グリフ(例えば、図2Cの年齢)によって表される。別の実施形態において、数値特徴は、2−Dシンボルの各画素で、データで表現し得る色強度(例えば0から255の範囲)に量子化(クォンタイズ)される。更に別の実施形態において、数値特徴は、確実に特徴を一意の表現とするために、特定の数値レベルに量子化される。
カテゴリ特徴に関して確実に一意の表現とするために、更に幾つかの技術がある。一実施形態において、語の最初の文字が使用される(例えば、図2Cにおいてmale(男性)のm)。別の実施形態において、語全体が使用される(例えば、正方形のフォーマット内に配置したUSA)。別の実施形態において、略語が使用される。更に、特徴に未知数(unknown)が含まれる場合(例えば、「回答拒否」、「該当なし、NA、N/A」)、このような場合には特殊なシンボルが使用される。
図2Cに実用的な2−Dシンボル230の例を示す。5つの特徴が含まれており、年齢−30、国籍−USA、婚姻状態−single(独身,s)、性別−male(男性,m)、親であるかどうか−no(いいえ,n)が示される。年齢は数値特徴であるが、その他はカテゴリ特徴である。
対象物に自然言語の文字列が含まれる場合には、文字と関連する特徴の両方を保存するよう別々のスキームで2−Dシンボル100が構成される。一実施形態において、2−Dシンボル100は、文字部分と関連する特徴部分の2つの部分に分割される。2−Dシンボル100を分割する多くのスキームがある。図3A、図3Bに2つの例示的なスキームを示す。自然言語として、英語、フランス語、ドイツ語、スペイン語、イタリア語、中国語、日本語、韓国語等が含まれるが、これらに限定されない。自然言語の文字列は、フレーズ、文章、節、段落、記事(article)等であってよい。
図3Aに示す第一の例示的なスキーム310において、2−Dシンボル100は、第一部分311と第二部分312とに分割される。第一部分311は、自然言語の文字列を含むよう構成される。第二部分312は、この文字に関連する特徴313を含むよう構成される。関連する特徴313を保存するために多くのスキームがある。一実施形態において、図2Aに示し説明したスキームと略同様に、関連する特徴313が同じサイズで第二の部分に均等に配置される。別の実施形態において、図2Bに示し説明したスキームと略同様に、関連する特徴313を重要性の異なる複数の群に分割する。
自然言語の文字列は、左から右、上から下等の様々な手法で第一部分311に含まれる。
図3Bに示す第二の例示的なスキーム320において、第二部分322が2−Dシンボル100の中央にあって、第一部分321が2−Dシンボル100の外周を囲んでいる。ここでも、第二部分322に保存する関連する特徴を、図2A〜図2Bに示して説明したスキームと同様の様々なスキームで構成可能である。
別の実施形態において、第二部分322をキーワード、ヘッドライン、文字の最初の数語等をより目立たせる表現を含むように構成して、アテンションメカニズム(attention mechanism)が実現される。より目立たせる表現とは、より大きなフォントや太字のフォントを含んでもよい。
ここで図4Aを参照すると、二次元シンボルに含まれる複合特徴の意味を機械学習するよう構成された例示的なCNNベース演算システム400を示すブロック図が示されている。
CNNベース演算システム400は、デジタル半導体チップ(例えば、単一半導体ウェハ内のシリコン基板)として集積回路上に実装されてもよく、制御装置410と、少なくとも一つの入力/出力(I/O)データバス420に動作可能に連結した複数のCNN処理ユニット402a〜402bと、を含む。制御装置410は、クロックスキュー回路(例えば図15のクロックスキュー回路1540)でループ状に接続されたCNN処理ユニット402a〜402bの様々な動作を制御するように構成される。
一実施形態では、各CNN処理ユニット402a〜402bは、画像データ、例えば、図1の二次元シンボル100を処理するように構成される。
別の実施形態では、CNNベース演算システムは、拡張可能(extendable)かつスケーラブルであるデジタル集積回路である。例えば、デジタル集積回路の複数のコピーを、図4Bに示すように、単一の半導体チップ上に実装することができる。一実施形態において、単一の半導体チップは、単一の半導体ウェハ内に製造される。
CNN処理エンジンは全て同じものである。説明を簡略化するために、図4Bには少数のCNN処理エンジンのみ(即ち、CNN処理エンジン422a−422h、432a−432h)を示している。本発明において、デジタル半導体チップ上のCNN処理エンジンの数に制限はない。
各CNN処理エンジン422a−422h、432a−432hは、CNN処理ブロック424と、第一メモリバッファセット426と、第二メモリバッファセット428とを備える。第一メモリバッファセット426は、画像データを受け取って、受取済みの画像データをCNN処理ブロック424に供給するよう構成される。第二メモリバッファセット428は、フィルタ係数を保存して、受取済みのフィルタ係数をCNN処理ブロック424に供給するよう構成される。一般に、一つのチップ上のCNN処理エンジンの数は、2である(nは整数(即ち、0、1、2、3,...))。図4Bに示すように、CNN処理エンジン422a〜422hは、第一入力/出力データバス430aに動作可能に連結されており、一方、CNN処理エンジン432a〜432hは、第二入力/出力データバス430bに動作可能に連結されている。各入力/出力データバス430a〜430bは、独立してデータ(即ち、画像データとフィルタ係数と)を送信するよう構成する。一実施形態では、第一及び第二のメモリバッファセットは、ランダムアクセスメモリ(RAM)を含む。ランダムアクセスメモリは、例えば、磁気ランダムアクセスメモリ、静的ランダムアクセスメモリなどのうち一つまたは複数種類の組み合わせであってもよい。第一および第二のセットの各々は、論理的に定義される。換言すれば、第一および第二のセット各々のサイズは、画像データおよびフィルタ係数の各量を収容するように再構成することができる。
ここで示した第一及び第二I/Oデータバス430a〜430bは、CNN処理エンジン422a〜422h、432a〜432hを逐次スキーム(sequential scheme)で接続されている。別の実施形態では、性能向上のためにデータを並列入力及び出力するという同じ目的を達成するために、少なくとも一つのI/Oデータバスは、CNN処理エンジンに対する他の接続スキームを有してもよい。
図5Aは、2−Dシンボルを介した機械学習を容易にする第一の例示的なプロセス500を示すフローチャートである。プロセス500は、動作502で始まり、2−Dシンボル作成アプリケーションモジュールがインストールされた第一演算システムにおいてある対象物の複数の特徴を受信する。
次に、動作504において、シンボル生成ルールセットに基づき、2−Dシンボル作成アプリケーションモジュールを用いて、受信した特徴から多層2−Dシンボルが形成される。2−Dシンボルは、N×N画素データの行列であって、部分行列に分割される。各部分行列は対応する一つの特徴を備える。
次に、動作506において、2−Dシンボルを分類するために画像処理技術を用いて第二演算システム(例えば、CNNベース演算システム400)において複合特徴の意味が学習される。
図5Bは、2−Dシンボルを介した機械学習を容易にする第二の例示的なプロセス510を示すフローチャートである。プロセス510は、動作512で始まり、2−Dシンボル作成アプリケーションモジュールがインストールされた第一演算システムにおいて、自然言語の文字列とその文字に関連する特徴とを受信する。
次に、動作514において、2−Dシンボル作成アプリケーションモジュールを用いて、自然言語の文字列と関連する特徴から多層2−Dシンボルが形成される。シンボルは、N×N画素データの行列であって、行列は第一部分と第二部分とに分割される。第一部分は、自然言語の文字列を含むよう構成され、第二部分は、更に複数の部分行列に分割され、各部分行列が関連する特徴のうちの一つを含む。
次に、動作516において、2−Dシンボルを分類するため、画像処理技術を用いて、第二演算システム(例えば、CNNベース演算システム400)において、2−Dシンボルに含まれる自然言語の文字列と関連する特徴との意味が学習される。
図5Cは、2−Dシンボル作成ルールの例示的なプロセス550を示すフローチャートである。プロセス550は動作552で始まり、機械学習技術の一つに基づいて、複数の特徴の重要性の順序を決定する。機械学習技術としては、ロジスティック回帰、サポートベクターマシン(SVM)、勾配ブースティングマシン(GBM)等が含まれるが、これらに限定されない。
次に、動作554において、重要性の順序に応じて対応する特徴と部分行列とが関連付けられる。次に、動作556において、対応する特徴に応じて、各部分行列のサイズが決定される。一実施形態において、部分行列のサイズは、正方形形状に基づく。別の実施形態において、部分行列のサイズは、矩形形状に基づく。
次に、動作558において、サイズと重要性の順序に応じて、各部分行列が2−Dシンボル内の特定の位置に配置される。
図6は、画像処理技術を用いて多層二次元シンボルを介した自然言語処理を行う例を示す概略図である。
ある対象物の特徴即ち自然言語の文字列とそれに関連する特徴が、第一の演算システム620にインストールされた2−Dシンボル作成アプリケーションモジュール622への入力610である。多層二次元シンボル631a〜631cが入力610から形成される。二次元シンボル631a〜631cは、それぞれ、N×N画素データの行列(例えば、3つの異なる色、赤、緑、青)である。
第一の演算システム620において形成され第二の演算システム640に送信される多層二次元シンボル631a〜631cを分類するために、多層二次元シンボル631a〜631cに含まれる複合特徴の意味が、第二の演算システム640において画像処理技術638を用いて学習される。
多層2−Dシンボル631a〜631cの送信は、例えば有線または無線のネットワークを介して、多くの周知の方法で行うことができる。
一実施形態では、第一の演算システム620および第二の演算システム640は、(図示しない)同じ演算システムである。
さらに別の実施形態では、第一の演算システム620は汎用演算システムであって、一方第二の演算システム640は、図4Aに示す半導体チップ上に集積回路として実装されたCNNベース演算システム400である。
画像処理技術638は、カテゴリ642の集合(例えば、図6に示す「カテゴリ1」、「カテゴリ2」、…「カテゴリX」)の事前定義を含む。画像処理技術638を実行すると、予め定義したカテゴリ642の各々をスーパーキャラクタの意味に関連付ける際のカテゴリの各確率644が決定される。図6に示す例では、「カテゴリ2」について88.08パーセントの最も高い確率が示されている。言い換えれば、多層二次元シンボル631a〜631cは、すべての事前定義カテゴリ642の中で「カテゴリ2」と88.08パーセントの確率で関連する意味を有するスーパーキャラクタを含んでいる。一実施形態では、画像処理技術638は、図7に示される例示的な畳み込みニューラルネットワークを含む。
図7は、本発明の一実施形態に係る畳み込みニューラルネットワークに基づく例示的な画像処理技術を示す概略図である。
畳み込みニューラルネットワークに基づいて、第一のフィルタ又は重み720のセットを用いる畳み込みにより、入力画像データである多層二次元シンボル711a〜711cが処理される。2−Dシンボル711a〜711cの画像データは、フィルタ720より大きいので、画像データの対応する重複サブ領域715がそれぞれ処理される。畳み込み結果が得られた後、第一プーリング演算730の前にアクティベーション(activation)を行ってもよい。一実施形態において、アクティベーションは、正規化線形ユニット(rectified linear unit (ReLU))で実行されるレクティフィケーションで実現される。第一プーリング演算730の結果、画像データが縮小され、縮小画像データ731a〜731cのセットとなる。2×2プーリングの場合、縮小画像データセットは、縮小前のセットの4分の1になる。
先の畳み込み−プーリング手続きが繰り返される。縮小画像データ731a〜731cのセットは、次に、第二フィルタセット740を用いて畳み込みにより処理される。同様に、重複サブ領域735がそれぞれ処理される。第二プーリング演算740の前に別のアクティベーションを行うことができる。幾つかの層について畳み込み−プーリング手続きが繰り返され、最終的に全結合(FC)層760に接続される。画像分類の際、事前定義カテゴリ542の各確率544をFC層760にて演算することができる。
このように繰り返した畳み込み−プーリング手続きは、既知のデータセット又はデータベースを用いて訓練(train)される。画像分類に関して、データセットには事前定義カテゴリが含まれる。画像データを分類するために使用する前に、フィルタ、アクティベーション、及びプーリングの特定のセット、例えば、特定のフィルタ種類の組み合わせ、フィルタの数、フィルタの順序、プーリングの種類、及び/又はいつアクティベーションを行うか等を調整し取得しておくことが可能である。一実施形態では、画像データは、ラテンアルファベットを用いた言語文字列のフォームである多層二次元シンボル711a711cである。
一実施形態において、畳み込みニューラルネットワークは、ビジュアルジオメトリーグループ(Visual Geometry Group)(VGG16)アーキテクチャニューラルネットに基づく。
CNNベースの集積回路内のCNN処理エンジン802の更なる詳細について図8に示す。CNN処理ブロック804は、各メモリバッファからの(Z+2)−画素×(Z+2)−画素領域の画像データと対応するフィルタ係数とを用いてZ×Z画素位置で3×3畳み込みを行うことによって、Z×Z畳み込み演算結果を同時に得るデジタル回路を備える。この(Z+2)−画素×(Z+2)−画素領域は、Z−画素×Z−画素の中央部分であるZxZ画素位置と、この中央部分を囲む一画素境界部とで形成される。Zは正の整数である。一実施形態において、Zは14であり、従って(Z+2)は16であり、ZxZは14x14=196であり、Z/2は7である。
図9は、CNN処理エンジン802で使用する、ZxZ画素位置の中央部分920を備える(Z+2)−画素×(Z+2)−画素領域910を表す図である。
より速く演算するために、CNN処理ブロック804では、少ない数の計算性能向上技術が用いられ実装されてきた。一実施形態において、画像データの表現は、実用上できる限り少ないビット数を用いる(例えば、5ビット表現)。別の実施形態において、各フィルタ係数は、基数点を有する整数として表される。同様に、フィルタ係数を表す整数は、実用上できる限り少ないビット数を用いる(例えば、12ビット表現)。結果として、固定小数点数演算を用いて3×3畳み込みが実行され、より高速な演算を行うことができる。
各3x3畳み込み手続きによって、以下の式に基づく一つの畳み込み演算結果Out(m,n)が得られる。
Figure 2020091831
ここで、m、nは、(Z+2)−画素×(Z+2)−画素領域の内部のどの画像データ(画素)で畳み込み演算が行われるかを同定するための対応する行及び列番号である。
In(m,n,i,j)は、領域内の画素位置(m,n)を中心とする3−画素×3−画素エリアである。
C(i,j)は、9つの重み係数(weight coefficient)C(3x3)のうちの一つを表しており、各重み係数は、3−画素×3−画素エリアのうちの一つに対応する。
bはオフセット係数を表す。
i,jは、重み係数C(i,j)の添え字(indices)である。
各CNN処理ブロック804は、Z×Zの畳み込み演算結果を同時に生成し、全てのCNN処理エンジンが同時演算を行う。一実施形態では、3×3の重み係数またはフィルタ係数は、それぞれ12ビットであり、オフセットまたはバイアス係数は16ビットまたは18ビットである。
図10A〜図10Cは、ZxZ画素位置の3つの異なる例を示す図である。図10Aに示す第一画素位置1031は、(Z+2)−画素×(Z+2)−画素領域内の左上角部の3−画素×3−画素エリアの中心にある。図10Bに示す第二画素位置1032は、第一画素位置1031の右側に一画素分シフトさせたものである。図10Cに示す第三画素位置1033は、典型的な画素位置の例である。ZxZ画素位置として、この(Z+2)−画素×(Z+2)−画素領域内部の複数の重複する3−画素×3−画素エリアを含む。
各サンプリング位置で3×3の畳み込み演算を行うための、データ配列の例を図11に示す。画像データ(即ち、In(3x3))とフィルタ係数(即ち、重み係数C(3x3)とオフセット係数b)とを例示的なCNN3x3回路1100に供給する。式(1)に従って3×3畳み込み演算を行った後、一つの出力結果(即ち、Out(1×1))が生成される。各サンプリング位置において、画像データIn(3×3)は、画素座標(m,n)1105を中心として8つの直接隣接画素1101〜1104、1106〜1109を有する。
画像データは第一メモリバッファセット806に保存され、一方フィルタ係数は第二メモリバッファセット808に保存される。画像データとフィルタ係数とは共に、デジタル集積回路の各クロックで、CNN処理ブロック804に供給される。フィルタ係数(即ち、C(3×3)とb)は、第二メモリバッファセット808からCNN処理ブロック804へと直接供給される。しかしながら、画像データは、第一メモリバッファセット806からマルチプレクサMUX805を介してCNN処理ブロック804へと供給される。マルチプレクサ805は、クロック信号(例えば、パルス812)に基づいて第一メモリバッファセットから画像データを選択する。
別な方法では、マルチプレクサMUX805は、クロックスキュー回路820を介して第一隣接CNN処理エンジンから(図示しない図8の左側から)画像データを選択する。
同時に、CNN処理ブロック804に供給された画像データのコピーが、クロックスキュー回路820を介して第二隣接CNN処理エンジンに(図示しない図8の右側に)送られる。クロックスキュー回路820は、公知の技術(例えば、Dフリップフロップ822)によって実現可能である。
各画像データグループの3×3畳み込みを事前に定義したフィルタ係数の数について行った後、畳み込み演算結果Out(m,n)は、別のクロック信号(例えば、パルス811)に基づいて、別のマルチプレクサMUX807を介して第一メモリバッファセットに送られる。パルス811と812との時間関係を明示するためにクロック周期の例810を示す。図示するようにパルス811はパルス812の一つ前のクロックであり、結果として、特定の画像データブロックがクロックスキュー回路820を介して全てのCNN処理エンジンによって処理された後に、3×3畳み込み演算結果が第一メモリバッファセット内に保存される。
畳み込み演算結果Out(m,n)が式(1)より得られた後に、アクティベーション処理が行われてもよい。畳み込み演算結果Out(m,n)がゼロ未満(即ち負の値)であればゼロと設定される。言い換えると、正の値の出力結果のみが維持される。例えば、正の出力値10.5は10.5のままとし、一方−2.3は0になる。アクティベーションによって、CNNベース集積回路に非線形性が生じる。
2x2プーリング演算が必要ならば、ZxZ出力結果は(Z/2)x(Z/2)に縮小される。(Z/2)x(Z/2)出力結果を第一メモリバッファセットの対応する位置に保存するために、適切なメモリアドレスをたどって4つの(Z/2)x(Z/2)出力結果を一つのCNN処理エンジン内で処理できるようにするような追加的なブックキーピング(bookkeeping)技術が必要である。
2×2プーリング演算について説明するために、2−画素×2−画素のブロックの出力結果を、4つの出力結果のうちの最も大きい値である単一の値10.5に減じる第一の例を図12Aに図示する。図12Aに示す技術を「最大プーリング(max pooling)」と呼ぶ。図12Bに示す、4つの出力結果の平均値4.6を単一値として使用する場合、これを「平均プーリング(average pooling)」と呼ぶ。プーリング演算には、例えば、「最大プーリング」と「平均プーリング」とを組み合わせた「最大平均混合プーリング(mixed max average pooling)」のような他の例がある。プーリング演算の主な目的は、処理する画像データのサイズを縮小することである。図13に、Z×Z画素位置を、2×2プーリング演算によって、(Z/2)×(Z/2)位置に縮小する例を示すが、これによって元のサイズの1/4になる。
入力画像は、通常大量の画像データを含む。画像処理操作を実行するために、例示的な入力画像1400(例えば、図1の二次元シンボル100)が、図14Aに示すようなZ画素×Z画素のブロック1411〜1412に分割される。これらのZ画素×Z画素のブロックのそれぞれに関連する画像データは、次に、各CNN処理エンジンに送られる。特定のZ−画素×Z−画素ブロック内の各ZxZ画素位置において、対応するCNN処理ブロック内で3x3畳み込みが同時に行われる。
本発明において、入力画像が特定の特徴寸法を有する必要はないが、所定の画像処理手順に関して事前に定義した特徴寸法に合うように入力画像のサイズを変更する必要があるかもしれない。ある実施形態では、(2xZ)−画素×(2xZ)−画素の正方形が必要となる。Lは正の整数(1、2、3、4等)である。Zが14でLが4であれば、特徴寸法は224である。別の実施形態において、入力画像は(2xZ)−画素及び(2xZ)−画素の寸法の矩形である。IとJとは正の整数である。
Z−画素×Z−画素ブロックの境界部周辺の画素位置において3×3畳み込みを適切に行うには、隣接ブロックからの追加の画像データが必要である。図14Bは、(Z+2)−画素×(Z+2)−画素領域1430内の(破線で囲んだ)典型的なZ−画素×Z−画素ブロック1420を示す。この(Z+2)−画素×(Z+2)−画素領域は、現在のブロックからのZ−画素×Z−画素ブロックの中央部と、対応する隣接ブロックからの4つの端部(即ち、上、右、下及び左)と4つの角部(即ち、左上、右上、右下及び左下)とによって形成される。
図14Cは、Z−画素×Z−画素ブロック1422〜1424及びこれらに関連付けた(Z+2)−画素×(Z+2)−画素領域1432〜1434の2つの例を示す図である。これら2つの例示的なブロック1422〜1424は、入力画像の周辺に沿って位置している。第一の例であるZ−画素×Z−画素ブロック1422は、左上角部に位置しているので、この第一例のブロック1422は、2つの端部と1つの角部とに隣接部を有する。画像データを形成するために関連付けた(Z+2)−画素×(Z+2)−画素領域1432において、(斜線部で示す)隣接部がない2つの端部と3つの角部には、値「0」が用いられる。同様に、第二例であるブロック1424の関連付けた(Z+2)−画素×(Z+2)−画素領域1434では、上側端部と二つの上側角部に「0」を使用する必要がある。入力画像の周辺に沿った他のブロックも同様に処理される。言い換えると、入力画像の各画素において3×3畳み込みを行うために、入力画像の周辺の外側にゼロ(0)の層を追加する。多くの周知の技術を用いてこれを実現可能である。例えば、第一メモリバッファセットのデフォルト値がゼロに設定される。隣接ブロックから画像データが埋められない場合には、そのような端部や角部の値はゼロとなる。
集積回路上で複数のCNN処理エンジンを構成する場合は、CNN処理エンジンは、クロックスキュー回路を介して第一及び第二隣接CNN処理エンジンと接続される。説明を簡略化するために、画像データ用のCNN処理ブロックとメモリバッファのみを示す。図15に例示的なCNN処理エンジングループ用のクロックスキュー回路1540の例を示す。
CNN処理エンジンは、第二の例示的なクロックスキュー回路1540を介して接続され、ループを形成する。言い換えると、各CNN処理エンジンは、自身の画像データを第一隣接部に送ると同時に、第二隣接部の画像データを受け取る。クロックスキュー回路1540は、周知の方法で実現可能である。例えば、各CNN処理エンジンは、Dフリップフロップ1542で接続される。
本発明についてその具体的な実施形態を参照して記載してきたが、これらの実施形態は単に例示的なものであって本発明を限定するものではない。このように具体的に開示した例示的な実施形態についての様々な修正や変更が当業者には示唆されるであろう。例えば、二次元シンボルについて、224×224ピクセルの行列である具体的な例を用いて説明及び示したが、本発明と略同様の目的を達成するために、896×896等の他のサイズが使用されてもよい。さらに、自然言語の文字列を左から右、上から下のように配置する場合について説明して示したが、下から上、右から左、或いは任意の一貫した組み合わせ等のその他の順序を用いて同じことを実現してもよい。つまり、本発明の範囲は、本明細書に開示した具体的な例としての実施形態に限定されず、当業者にとって容易に示唆される全ての修正が、本出願及び添付の特許請求の範囲の精神及び範囲内に含まれるものである。

Claims (15)

  1. 二次元(2−D)シンボルを介した機械学習を容易にする方法であって、
    2−Dシンボル作成アプリケーションモジュールがインストールされている第一演算システムにおいて対象物の複数の特徴を受信する工程と、
    前記第一演算システム内の前記2−Dシンボル作成アプリケーションモジュールを用いて、シンボル作成ルールセットに基づいて前記複数の特徴から多層2−Dシンボルを形成する工程であって、前記2−Dシンボルは複数の部分行列に区分されるN×N画素行列(Nは正の整数)であって、各部分行列が前記特徴のうちの一つを含む、工程と、
    前記第一演算システムで形成され、第二演算システムに送信された前記2−Dシンボルを分類するため、前記2−Dシンボル内に含まれる複合特徴の意味を前記第二演算システムで画像処理技術を用いて学習する工程と、
    を備え、
    前記シンボル作成ルールセットは、
    機械学習技術の一つに基づいて、前記複数の特徴の重要性の順序を決定する工程と、
    前記重要性の順序に応じて対応する特徴と各前記部分行列とを関連付ける工程と、
    前記対応する特徴に応じて各前記部分行列のサイズを決定する工程と、
    前記サイズと前記重要性の順序に応じて、各前記部分行列を前記2−Dシンボル内の特定の位置に配置する工程と、
    を有する、
    方法。
  2. 前記複数の特徴は、数字グリフによって表される数値特徴を含む、
    請求項1に記載の方法。
  3. 前記複数の特徴は、特定の言語の単語又は略語によって表されるカテゴリ特徴を含む、
    請求項1に記載の方法。
  4. 各前記部分行列が正方形形状を有する、
    請求項1に記載の方法。
  5. 各前記部分行列が矩形形状を有する、
    請求項1に記載の方法。
  6. 前記複数の部分行列は、同じサイズの部分行列を含む、
    請求項1に記載の方法。
  7. 前記複数の部分行列は、複数のサイズの部分行列を含む、
    請求項1に記載の方法。
  8. 前記機械学習技術は、ロジスティック回帰を含む、
    請求項1に記載の方法。
  9. 前記機械学習技術は、サポートベクターマシンを含む、
    請求項1に記載の方法。
  10. 前記機械学習技術は、勾配ブースティングマシンを含む、
    請求項1に記載の方法。
  11. 二次元(2−D)シンボルを介した機械学習を容易にする方法であって、
    2−Dシンボル作成アプリケーションモジュールがインストールされた第一演算システムにおいて、自然言語の文字列と前記文字に関連する複数の特徴を受信する工程と、
    前記第一演算システム内の前記2−Dシンボル作成アプリケーションモジュールを用いて、シンボル作成ルールセットに基づいて前記自然言語の文字列と前記複数の特徴から多層2−Dシンボルを形成する工程であって、前記2−Dシンボルは、第一部分と第二部分とに分割されるN×N画素行列(Nは正の整数)であって、前記第一部分は前記自然言語の文字列を備えるよう構成され、前記第二部分は複数の部分行列に区分され、各部分行列は前記特徴のうちの一つを備える、工程と、
    前記第一演算システムで形成され、第二演算システムに送信された前記2−Dシンボルを分類するために、前記2−Dシンボル内に含まれる前記自然言語の文字列と前記関連する特徴との意味を前記第二演算システム内で画像処理技術を用いて学習する工程と、
    を備え、
    前記シンボル作成ルールセットは、
    機械学習技術の一つに基づいて、前記複数の特徴の重要性の順序を決定する工程と、
    前記重要性の順序に応じて対応する特徴と各前記部分行列とを関連付ける工程と、
    前記対応する特徴に応じて各前記部分行列のサイズを決定する工程と、
    前記自然言語の文字列を前記2−Dシンボルの前記第一部分の特定の位置に配置する工程と、
    前記サイズと前記重要性の順序に応じて、各前記部分行列を前記2−Dシンボル内の前記第二部分の特定の位置に配置する工程と、
    を有する、
    方法。
  12. 前記第一部分及び前記第二部分は、それぞれ、前記2−Dシンボルの半分を占める、
    請求項11に記載の方法。
  13. 前記第一部分は前記2−Dシンボルの外周部分を占め、前記第二部分は前記2−Dシンボルの中央部を占める、
    請求項12に記載の方法。
  14. 前記機械学習技術は、ロジスティック回帰、サポートベクターマシン、又は勾配ブースティングマシンを含む、
    請求項11に記載の方法。
  15. 前記意味は、前記文字についてのセンチメントを含む、
    請求項11に記載の方法。
JP2019132997A 2018-12-05 2019-07-18 二次元シンボルを介した機械学習 Active JP6634181B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/210,759 2018-12-05
US16/210,759 US10331967B1 (en) 2018-12-05 2018-12-05 Machine learning via a two-dimensional symbol

Publications (2)

Publication Number Publication Date
JP6634181B1 JP6634181B1 (ja) 2020-01-22
JP2020091831A true JP2020091831A (ja) 2020-06-11

Family

ID=66001058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019132997A Active JP6634181B1 (ja) 2018-12-05 2019-07-18 二次元シンボルを介した機械学習

Country Status (4)

Country Link
US (1) US10331967B1 (ja)
EP (1) EP3663967A1 (ja)
JP (1) JP6634181B1 (ja)
CN (1) CN110070186B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10275646B2 (en) * 2017-08-03 2019-04-30 Gyrfalcon Technology Inc. Motion recognition via a two-dimensional symbol having multiple ideograms contained therein
JP7302200B2 (ja) * 2019-02-26 2023-07-04 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN110766133B (zh) * 2019-09-18 2020-12-25 开放智能机器(上海)有限公司 嵌入式设备中的数据处理方法、装置、设备和存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7206029B2 (en) * 2000-12-15 2007-04-17 Koninklijke Philips Electronics N.V. Picture-in-picture repositioning and/or resizing based on video content analysis
US6985861B2 (en) * 2001-12-12 2006-01-10 Hewlett-Packard Development Company, L.P. Systems and methods for combining subword recognition and whole word recognition of a spoken input
EP2183685A4 (en) * 2007-08-01 2012-08-08 Ginger Software Inc AUTOMATIC CONTEXT-RELATED LANGUAGE CORRECTION AND EXPANSION USING AN INTERNET CORP
US8321222B2 (en) * 2007-08-14 2012-11-27 Nuance Communications, Inc. Synthesis by generation and concatenation of multi-form segments
AU2009243403B2 (en) * 2009-11-27 2012-04-26 Canon Kabushiki Kaisha Improving anti-tamper using barcode degradation
US8905314B2 (en) * 2010-09-30 2014-12-09 Apple Inc. Barcode recognition using data-driven classifier
US20130002553A1 (en) * 2011-06-29 2013-01-03 Nokia Corporation Character entry apparatus and associated methods
US8533204B2 (en) * 2011-09-02 2013-09-10 Xerox Corporation Text-based searching of image data
US10198648B1 (en) * 2015-04-10 2019-02-05 Digimarc Corporation Decoding 1D-barcodes in digital capture systems
US10169684B1 (en) * 2015-10-01 2019-01-01 Intellivision Technologies Corp. Methods and systems for recognizing objects based on one or more stored training images
US20170200193A1 (en) * 2016-01-13 2017-07-13 On My Wave LLC Systems and methods for customizing electronic indicia
US9547821B1 (en) * 2016-02-04 2017-01-17 International Business Machines Corporation Deep learning for algorithm portfolios
US10083171B1 (en) * 2017-08-03 2018-09-25 Gyrfalcon Technology Inc. Natural language processing using a CNN based integrated circuit
TWI607387B (zh) * 2016-11-25 2017-12-01 財團法人工業技術研究院 字符辨識系統及其字符辨識方法
CN106875011B (zh) * 2017-01-12 2020-04-17 南京风兴科技有限公司 二值权重卷积神经网络加速器的硬件架构及其计算流程

Also Published As

Publication number Publication date
CN110070186B (zh) 2020-07-24
US10331967B1 (en) 2019-06-25
CN110070186A (zh) 2019-07-30
JP6634181B1 (ja) 2020-01-22
EP3663967A1 (en) 2020-06-10

Similar Documents

Publication Publication Date Title
US10083171B1 (en) Natural language processing using a CNN based integrated circuit
US10102453B1 (en) Natural language processing via a two-dimensional symbol having multiple ideograms contained therein
US10311294B1 (en) Motion recognition via a two-dimensional symbol having multiple ideograms contained therein
JP6634181B1 (ja) 二次元シンボルを介した機械学習
US10936943B2 (en) Providing flexible matrix processors for performing neural network convolution in matrix-processor-based devices
US10908877B2 (en) Median value determination in a data processing system
JP2020068027A (ja) アンサンブル学習ベースの画像分類システム
US20190095762A1 (en) Communications Between Internet of Things Devices Using A Two-dimensional Symbol Containing Multiple Ideograms
US10311149B1 (en) Natural language translation device
CN110738317A (zh) 基于fpga的可变形卷积网络运算方法、装置和系统
US10713830B1 (en) Artificial intelligence based image caption creation systems and methods thereof
CN110321974A (zh) 用于识别手写汉字的装置
US20190042899A1 (en) Two-dimensional Symbols For Facilitating Machine Learning Of Combined Meaning Of Multiple Ideograms Contained Therein
CN111274793A (zh) 一种文本处理方法、装置以及计算设备
US20220164381A1 (en) Image retrieval system and image retrieval method
Yoon et al. Layer-Wise Sparse Training of Transformer via Convolutional Flood Filling
US11281911B2 (en) 2-D graphical symbols for representing semantic meaning of a video clip
US20240221375A1 (en) Token pruning in swin transformer architectures
Nagane et al. Segmentation of characters from degraded Brahmi script images
Dey Exploring Complexity Reduction in Deep Learning
Wang et al. LANet: A Ladder Attention Network for Image Semantic Segmentation
Hanyu Chinese Font Style Transfer with Neural Network
Loly* et al. A new class of pandiagonal squares
Henderson et al. LD Jackel, B. Boser, JS Denker, HP Graf, Y. Le Cun, I. Guyon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191111

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191213

R150 Certificate of patent or registration of utility model

Ref document number: 6634181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250