JP6446602B2 - データのカテゴリ分類のための方法およびシステム - Google Patents

データのカテゴリ分類のための方法およびシステム Download PDF

Info

Publication number
JP6446602B2
JP6446602B2 JP2018533601A JP2018533601A JP6446602B2 JP 6446602 B2 JP6446602 B2 JP 6446602B2 JP 2018533601 A JP2018533601 A JP 2018533601A JP 2018533601 A JP2018533601 A JP 2018533601A JP 6446602 B2 JP6446602 B2 JP 6446602B2
Authority
JP
Japan
Prior art keywords
model
category
data
factor
rnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018533601A
Other languages
English (en)
Other versions
JP2018533148A (ja
Inventor
ハ,ジョンウ
ピョ,ヒョンア
キム,ジョンヒ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2018533148A publication Critical patent/JP2018533148A/ja
Application granted granted Critical
Publication of JP6446602B2 publication Critical patent/JP6446602B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Development Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)

Description

以下の説明は、データがテキスト単語あるいは記号のシーケンスを値として有する少なくとも1つ以上の因子で構成されるとき、該当データを自動で分類するディープラーニングモデルおよび学習アルゴリズム技術に関する。
インターネット使用の大衆化に伴い、インターネットショッピングモールを利用した商品および財貨サービスの流通販売が活発化しているなか、最近ではスマートフォンなどを利用したモバイルビジネスの機会が拡大しており、モバイルショッピング市場も急激に増加している。
これに伴い、インターネットショッピングモールの数は幾何級数的に増加している。そんな中、各インターネットショッピングモールでは、ユーザのアクセス容易性を高めるために、モールインモール(mall in mall)方式でインターネットショッピングモールを運営する方式を採択している。ここで、モールインモール方式とは、所定の仲介ショッピングモールを介してユーザが各インターネットショッピングモールにアクセスできるようにする方式を意味する。
一般的に、仲介ショッピングモールのようなショッピングサービスを運営するショッピングシステムでは、購入者が所望とする商品情報を検索するようになっていることから、サイトで販売される商品情報を購入者が容易に見つけ出せるように検索環境を提供している。
ショッピングシステムでは、商品情報を多様なカテゴリに分類して格納しておき、カテゴリに基づく検索によって所望の情報を検索できるようにしている。商品のカテゴリを自動的に分類する技術は、サービス側面においては極めて重要な技術であり、現在は大部分のショッピングシステムで商品カテゴリに対する自動分類システムを構築して運営している。
例えば、韓国特許公開公報第10−2004−0021789号(公開日2004年03月11日)「商品情報登録方法およびシステム」では、複数のショッピングモールから受信した商品情報を、商品情報提供サーバに登録された商品との比較およびマッチング作業によって適切な商品名とカテゴリで自動登録する技術が開示されている。
しかし、時間が経つにつれて登録商品や取扱商品の数が幾何級数的に増加することから、現在使用されている自動分類システムの性能が適切に追従できず、カテゴリ分類の正確度を保障することができなくなっている。
ディープラーニング(Deep learning)は、イメージ、音声認識、パターン認識などのような多様な分類問題において、Support vector machine(SVM)、Bayesian network(BN)、decision tree(DT)、k−th nearest neighbor(kNN)などのような既存の分類モデルに比べて高い正確度を示しており、特に、テキストシーケンス形態で表現されるデータを分類する問題では、Convolutional neural network(CNN)、Recursive neural network、recurrent neural network(RNN)などは、既存のTF/IDFに基づくBag of wordsやn−gramに基づくモデルに比べて優れた性能を示している。しかし、テキストシーケンスが長くなるほど性能が低下するケースが発生しており、データが複数の因子変数で構成され且つ各因子変数のテキスト単語のシーケンスで表現される場合において、これを1つの単語シーケンスとして接合してモデルに入力する場合、意味の模倣性又は類似性およびシーケンス長さの増加によって分類性能が低下する恐れがある。例えば、オンラインショッピングモールの商品情報データは、商品名、ショッピングモール名、商品カテゴリ層情報、ブランド名、製造社名などのような多様なテキスト情報で表現されるが、これを1つの単語シーケンスとして接合させると、その意味が曖昧になる虞がある。
韓国公開特許第10−2004−0021789号公報
ベイジアンネットワーク(Bayesian network)あるいはデシジョンツリー(又は決定木)(decision tree)方式を利用した既存の商品カテゴリ自動分類器の性能限界を克服するために、ディープラーニング技法を利用した新しい方式の商品カテゴリ自動分類器を提供する。
複数の因子で表現されるデータを1つの単語/記号シーケンスとして接合させた後に学習する既存のディープラーニングモデルの限界を克服するために、本発明では、データを構成する各因子別にRNNを割り当て、分類のために複数のRNNの出力値を入力値として使用するFFNNを用いた新たな形態のディープラーニングモデルに基づく自動分類器を提供する。
コンピュータで実現される方法であって、複数の因子で表現されるデータを入力とし、第1モデルで前記データを構成する因子それぞれに対して前記因子に該当する単語のシーケンス学習によって前記因子のシーケンス情報が含まれたワードベクトルを表現する段階、前記第1モデルの出力を入力とし、第2モデルで前記因子のシーケンス情報が含まれたワードベクトルを利用して前記データのカテゴリ分類のためのカテゴリ別の点数を算出する段階、および前記カテゴリ別の点数を利用して前記データに対する少なくても1つのカテゴリを決定する段階を含むことを特徴とする、コンピュータで実現される方法を提供する。
1つ以上のプロセッサを含むサーバのシステムであって、前記1つ以上のプロセッサは、複数の因子で表現されるデータのカテゴリを分類するための学習モデルを提供する学習処理部、および前記学習モデルの学習結果に基づいて前記データのカテゴリを分類するカテゴリ分類部を備え、前記学習処理部は、前記データを入力とし、第1モデルで前記データを構成する因子それぞれに対して前記因子に該当する単語のシーケンス学習によって前記因子のシーケンス情報が含まれたワードベクトルを表現し、前記第1モデルの出力を入力とし、第2モデルで前記因子のシーケンス情報が含まれたワードベクトルを利用して前記データのカテゴリ分類のためのカテゴリ別に点数を算出し、前記カテゴリ分類部は、前記カテゴリ別の点数を利用して前記データに対する少なくても1つのカテゴリを決定することを特徴とする、システムを提供する。
ベイジアンネットワークあるいは決定木方式を利用した既存の商品カテゴリ自動分類器の性能限界を克服するために、ディープラーニング技法を利用した新たな方式の商品カテゴリ自動分類器を提供する。これにより、商品カテゴリに対する自動分類性能が向上し、カテゴリ分類のために発生する費用を減少させることができる上に、カテゴリ分類の正確度を高めることができ、商品を登録する販売者と商品を検索あるいは購入する購入者の両方の満足度を高めることができる。
既存の単一RNNあるいはCNNを用いたディープラーニングモデルが、単語あるいは記号のシーケンスが長くなったりデータが複数の因子で構成されたりすると性能が低下するといった限界を克服するために、複数のRNNおよびFFNNを結合させた新たな形態のテキスト/記号シーケンスデータ自動分類器、およびこれを学習するための学習アルゴリズムを提供する。したがって、向上した自動分類モデルを多様なドメイン問題に適用することでサービス品質の向上を期待することができる。例えば、商品メタデータから詳細カテゴリを自動分類する問題に適用することにより、分類正確度が向上し、商品を登録した販売者と商品を検索あるいは購入する購入者の両方の満足度を高めることができる上に、オンラインニュースの詳細セクションの自動分類によってオンラインニュース独自の満足度を高めることができる。さらに、映画、ニュース、ブログ、商品などに対するユーザコメントの肯定/否定分類に適用することで、コンテンツ推薦の正確度向上にも活用することができる。
本発明の一実施形態における、ネットワーク環境の例を示した図である。 本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。 本発明の一実施形態における、サーバのプロセッサが含むことのできる構成要素の例を示した図である。 本発明の一実施形態における、サーバが実行することのできる方法の例を示したフローチャートである。 本発明の一実施形態における、商品のメタデータからカテゴリを自動分類する過程を説明するための例示図である。 本発明の一実施形態における、メタデータの例に対するモデル構造を示した図である。 本発明の一実施形態における、商品カテゴリ分類のためのRNN−FFNN学習モジュールを示した図である。 本発明の一実施形態における、RNN−FFNN学習モデルを利用した商品カテゴリ分類過程を示した図である。
以下、本発明の実施形態について、添付の図面を参照しながら詳細に説明する。
本実施形態は、複数の因子で表現されるデータを自動で分類する技術に関し、特に、データを構成する各因子別にRNN(Recurrent neural networks)を割り当て、分類のために複数のRNNの出力値を入力値として使用するFFNN(feed forward neural network)を用いた新たな形態のディープラーニングモデルに基づく自動分類器を提供する。
本明細書において、「複数の因子で表現されるデータ」とは、テキスト単語あるいは記号のシーケンスを値として有する少なくとも1つ以上の因子で構成されたデータを意味するが、一例として、商品情報や映画、ニュース、ブログ掲示物のようなコンテンツなどが該当する。以下では「複数の因子で表現されるデータ」の代表的な例として商品情報を挙げ、商品情報メタデータから商品のカテゴリを自動で分類する実施形態について具体的に説明する。
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。
複数の電子機器110、120、130、140は、固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC、ノート型パソコン、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、電子機器1(110)は、無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信してよい。
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を活用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター−バスネットワーク、ツリーまたは層的(hierarchical)ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供するコンピュータ装置または複数のコンピュータ装置で実現されてよい。
一例として、サーバ160は、ネットワーク170を介して接続した電子機器1(110)にアプリケーションのインストールのためのファイルを提供してよい。この場合、電子機器1(110)は、サーバ160から提供されたファイルを利用してアプリケーションをインストールしてよい。また、電子機器1(110)が含むオペレーティングシステム(Operating System:OS)または少なくとも1つのプログラム(一例として、ブラウザや前記インストールされたアプリケーション)の制御にしたがってサーバ150に接続し、サーバ150が提供するサービスやコンテンツの提供を受けてもよい。例えば、電子機器1(110)がアプリケーションの制御にしたがってネットワーク170を介してサービス要請メッセージをサーバ150に送信すると、サーバ150は、サービス要請メッセージに対応するコードを電子機器1(110)に送信してよく、電子機器1(110)は、アプリケーションの制御にしたがってコードに基づいた画面を構成して表示することにより、ユーザにコンテンツを提供してよい。
他の例として、サーバ150は、ショッピングサービスを提供するショッピングサーバシステムで実現されてよい。これにより、サーバ150と関連する他のサーバ160は、サーバ150が提供するショッピングサービスを利用することで、販売される商品のカテゴリを自動で分類する商品カテゴリ分類器の役割を担ってよい。さらに他の例として、サーバ150は、ショッピングサーバシステムであると同時に、商品のカテゴリを自動で分類する商品カテゴリ分類器の役割も共に担うように実現されることも可能である。
図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、1つの電子機器に対する例として第1電子機器110の内部構成を、1つのサーバに対する例としてサーバ150の内部構成を説明する。他の電子機器120、130、140やサーバ160も、同一または類似の内部構成を有してよい。
第1電子機器110とサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、コンピュータで読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永久大容量記憶装置(permanent mass storage device)を含んでよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電気機器1(110)にインストールされ駆動するブラウザや上述したアプリケーションなどのためのコード)が格納されてよい。このようなソフトウェア構成要素は、ドライブメカニズム(drive mechanism)を利用してメモリ211、221とは別のコンピュータで読み取り可能な記録媒体からロードされてよい。このような別のコンピュータで読み取り可能な記録媒体は、フロッピードライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータで読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータで読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。
プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に格納されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
通信モジュール213、223は、ネットワーク170を介して電子機器1(110)とサーバ150とが互いに通信するための機能を提供してもよいし、他の電子機器(一例として、電子機器2(120))または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器1(110)のプロセッサ212がメモリ211のような記録装置に格納されたプログラムコードにしたがって生成した要求が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器1(110)の通信モジュール213を通じて電子機器1(110)に受信されてもよい。例えば、通信モジュール213を通じて受信されたサーバ150の制御信号や命令などは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器1(110)がさらに含むことのできる格納媒体に格納されてよい。
入力/出力インタフェース214、224は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボードまたはマウスなどの装置を、出力装置は、アプリケーションの通信セッションを表示するためのディスプレイのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。より具体的な例として、電子機器1(110)のプロセッサ212は、メモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器2(120)が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。
また、他の実施形態において、電子機器1(110)およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器1(110)は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。
図3は、本発明の一実施形態における、サーバのプロセッサが含むことのできる構成要素の例を示した図であり、図4は、本発明の一実施形態における、サーバが実行することのできる商品カテゴリ分類方法の例を示したフローチャートである。図3ではある1つのサーバのプロセッサが含むことのできる構成要素を示しているが、サーバは、図1と図2を参照しながら説明したサーバ150、160のうちのいずれか1つに該当してよい。図3に示すように、サーバのプロセッサ300は、前処理部310、学習処理部320、およびカテゴリ分類部330を備えてよい。このようなプロセッサ300の構成要素は、図4の商品カテゴリ分類方法が含む段階410〜430を実行するようにサーバを制御してよく、このような制御のために、該当サーバのメモリが含むオペレーティングシステムと少なくとも1つのプログラムのコードを実行するように実現されてよい。
先ず、商品のカテゴリを分類する関連技術について、次のように簡単に説明する。
(1)言語学習(Word embedding)モデル
−神経網(Neural network)モデルを利用してテキスト単語を多次元実数ベクトルで表現し、単語間の意味/構造の類似性を2つのベクトル間の距離で表現可能にした言語モデル。
(2)RNN(Recurrent neural networks)モデル
−神経網の隠れ層(hidden layer)で再帰的な入力が可能なようにモデルを修正することにより、順次的に(sequential)入力されるか因子(feature)の順序(sequence)が入力によって与えられるデータからパターンを効果的に学習することが可能な、時間的側面が考慮された神経網モデル。
(3)FFNN(Feedfoward neural networks)モデル
−神経網モデルの初期に提案され、事前学習(pretraining)技法を使用せずにバックプロパゲーション(backpropagation)方法だけで学習が行われる、典型的な多重層神経網モデル。
(4)この他にも、ユニグラム(Unigram)、SVM(support vector machine)、KNN(k−th nearest neighbor)を利用して階層的な分類技法でメタ情報から商品を自動分類するモデルなどがある。
本発明では、大量の商品を分類するために、商品別に単語あるいは記号値で表現されるメタ情報が与えられるとき、各商品のカテゴリを自動で分類するモデルとしてディープラーニングに基づく方法を適用する。特に、本発明では、上述したモデルのうちの1つ以上のRNNとFFNNを1つのモデルとして併合し、FFNNにおける分類エラー情報がRNNのモデル学習に活用されるようにするE2E(end−to−end)形態の商品カテゴリ分類モデルを提供する。
本発明に係る商品カテゴリ分類モデルでは、単語をワードベクトルで表現する言語学習と分離した形態ではなく、RNNとFFNNを1つに併合することにより、1つのモデルで言語学習はもちろん、学習されたワードベクトルから商品のカテゴリ分類を実行できるようにしたE2Eモデルと、このモデルを学習するための新たなアルゴリズムを含む。
既存のRNNとFFNNの学習のためには、各モデルのための逆伝播(又はバックプロパゲーション)に基づく学習アルゴリズムが広く用いられているが、本発明で提案する学習アルゴリズムは、FFNNで発生したカテゴリ分類エラー情報をRNNに伝達してRNNの加重値学習に用いることにより、ワードベクトルが単語シーケンス情報を表現するだけでなく、カテゴリをより正確に分類するための必要な情報まで反映することができる。
本発明では、シーケンス学習に適したRNNを利用することにより、テキストメタデータ語句(文章)全体の意味を利用するだけでなく、商品名、大分類/中分類情報、ブランド、ショッピングモール、イメージ情報などのような多様な形態の因子に対する別途のRNNを学習することによって性能を高めることができ、新たな単語までも、学習された言語学習方法に基づくベクトル値で容易に表現することができる。
段階410で、前処理部310は、それぞれの商品に対して与えられたメタデータの前処理を言語前処理器で実行してよい。一例として、商品カテゴリ分類の場合に、メタデータは、商品名、ショッピングモール情報(IDまたは名称)、ブランド情報(IDまたは名称)、大分類/中分類などのような因子情報を含み、ニュース記事セクション分類の場合には、タイトル、逆順配置されたタイトル単語シーケンス、本文構成文章などのような因子情報を含む。前処理部310は、形態素分析器や索引語抽出器などのような言語前処理器を利用して与えられたメタデータから無意味なテキスト情報をフィルタリングしてよい。
段階420で、学習処理部320は、RNNとFFNNが1つのモデルとして併合されたRNN−FFNNモデルを利用してメタデータを構成する各因子の単語を実数ベクトルで表現してよく、実数ベクトルによるカテゴリ別の点数を算出してよい。このとき、学習処理部320は、前処理されたメタデータをRNNの入力とし、RNNで因子それぞれに対し、因子に該当する単語のシーケンス学習によって因子のシーケンス情報が含まれたワードベクトルを表現してよく(421)、この後、RNNの出力をFFNNの入力とし、FFNNでシーケンス情報が含まれたワードベクトルを利用してカテゴリ別の点数を算出してよい(422)。
詳細に説明すると、商品のメタデータを構成する各因子の単語は、順にあらかじめ学習された各因子別のRNNの入力によって与えられる。各因子の単語に対して順に入力が完了すると、RNNでは新たな出力実数ベクトル値が生成され、各出力因子ベクトルは1つのベクトルとして接合される。この後、接合された実数ベクトルは、予め学習されたFFNNの入力によって与えられ、FFNNで各カテゴリ別の点数が算出されて出力される。したがって、商品メタ情報の場合には、カテゴリ分類に意味がなかったり必要のないノイズ(例えば、商品と実際には関連がないか関連性の低い単語など)が含まれる場合があるため、このようなメタ情報からカテゴリを正確に分類するために、学習処理部320は、ワードベクトルが単語シーケンス情報を表現するようにRNNを利用してメタ情報に対するシーケンス学習を先に行った後、RNNのシーケンス学習結果をFFNNの入力とし、FFNNでシーケンス情報が含まれたワードベクトルから該当商品のカテゴリを分類することができる。
段階430で、カテゴリ分類部330は、商品のメタデータに対してRNN−FFNNモデルに基づいて出力されたカテゴリ別の点数を利用して該当商品のカテゴリを決定して分類してよい。一例として、カテゴリ分類部330は、商品のメタデータに対して出力されたカテゴリ別の点数のうちで最も高い点数のカテゴリを該当商品のカテゴリとして設定してよい。他の例として、ニュースセクション分類では、野球、サッカー、海外野球、海外サッカー、国会/政党、行政、国防/外交などのような詳細セクションに対する点数が算出され、最も高い点数のセクションに設定可能である。
図5は、商品のメタデータからカテゴリを自動分類する過程を説明するための例示図である。
Step1.商品名、ショッピングモールID、ブランド名、大分類/中分類を因子情報として含むメタデータが与えられる。
<例>商品名(1):ヒラヒラなびく[夏ビーチ]スタイルのスタイリッシュワンピース!!!、ショッピングモール(2):ワンツーモール、ブランド名(3):ABAC、大分類/中分類(4):衣類/女性衣類
Step2.Step1で与えられたメタデータの因子情報別に言語前処理器を利用して前処理を実行する。
<例>商品名:ヒラヒラ[夏ビーチ]スタイルスタイリッシュワンピース!!!、ショッピングモール:ワンツーモール、ブランド名:ABAC、大分類/中分類:衣類/女性衣類
→1.ヒラヒラ夏ビーチスタイルスタイリッシュワンピース、2.ワンツーモール、3.ABAB、4.衣類女性衣類
Step3.Step2で前処理された各因子別の単語は、順に予め学習された各因子別のRNNの入力として与えられる。また、各因子の単語に対してRNN−FFNNモデルでの順次入力が完了すると、RNNでは各単語に対する実数ベクトル値(u)が生成され、各出力因子ベクトルは1つのベクトルとして接合される。
<例>1.ヒラヒラ夏ビーチスタイルスタイリッシュワンピース、2.ワンツーモール、3.ABAB、4.衣類女性衣類
→u(1)={0.1、…、−1.2}/u(2)={−0.3、…、0.4}、/u(3)={0.2、…、0.7}/u(4)={0.4、…、−1.3}
Step4.Step3で接合された実数ベクトル(u)は、予め学習されたFFNNの入力として与えられ、FFNNの出力によって各カテゴリ別の点数(y’’)が算出される。
<例>1.ヒラヒラ夏ビーチスタイルスタイリッシュワンピース、2.ワンツーモール、3.ABAB、4.衣類女性衣類
→u(1)={0.1、…、−1.2}/u(2)={−0.3、…、0.4}、/u(3)={0.2、…、0.7}/u(4)={0.4、…、−1.3}→y’’={シューズ=0.01、…、ワンピース=0.76、…、カメラ=0.02}
図6は、図5の例に対するモデル構造図である。図6に示すように、メタデータの各因子別の単語は、該当因子のRNN(例えば、商品名−RNN、ブランド−RNN、ショッピングモール−RNN)の入力によって与えられて実数ベクトルで表現され、RNNの出力である各出力因子ベクトルは、FFNNの入力となり、FFNNによってカテゴリ別の点数として定義されてよい。
以下、商品カテゴリ分類過程について具体的に説明する。
以下の方法は、図3と図4を参照しながら説明したプロセッサ300の構成要素によって実行されてよい。
プロセッサ300は、与えられた商品メタデータに対し、形態素分析器あるいは索引語抽出器などのような言語前処理器を利用して無意味なテキスト情報をフィルタリングしてよい。一例として、プロセッサ300は、メタデータを構成する各因子別に助詞や助動詞などのような不必要な品詞の単語や特殊記号(例えば、!、?、/など)などを除去し、体言や語根に該当する単語を抽出してよい。
プロセッサ300は、商品名、ブランド名、ショッピングモールID、イメージ因子などのような商品メタデータを構成するそれぞれの因子の順次的データ値を学習するための別途のRNN(商品因子−RNN)を割り当ててよい。例えば、プロセッサ300は、メタデータの因子が商品名、ブランド名、ショッピングモールで構成される場合、各因子に対して学習されたRNN、すなわち、商品名−RNN、ブランド名−RNN、ショッピングモール名−RNNを割り当ててよい。
商品メタデータに対しては、ハングル(より一般的には、言葉を表現するための表音文字)、言語、記号、固有IDなどを区分せず、すべてをテキスト単語として仮定してモデルに入力され、入力された単語は学習によってn次元実数ベクトルで表現される。
商品メタデータがM種類の因子で表現されるとき、m番目のメタデータ因子は、 (m)={X(m) 、…、X(m) }で表現される。このとき、n値は0よりも大きい任意の定数であり、例えば、100、200、300などの値を設定してよいが、これに限定されることはなく、設定された数字は、RNNの最初の隠れ層(hidden layer)のノード数と同じである。
<例1>
シューズ→[0.12、−0.81、…、0.43]
<例2>
13534→[0.54、…、−1.22]
それぞれの商品因子−RNNは、テキスト単語あるいは記号のシーケンスを学習し、入力シーケンスが終了すると、シーケンス全体の情報を表現する多次元実数ベクトルを出力する。このとき、出力される実数ベクトルの大きさは、入力された単語の実数ベクトルの大きさと必ずしも同じである必要はない。
<例>ビーチにぴったりなブーツ→RNN→[−1.34、…、0.22]
商品メタデータがM種類の因子で表現されるとき、商品カテゴリ分類モデルはM個のRNNと1つのFFNNで構成され、それぞれのRNNはRNN(1)、…、RNN(M)と定義し、各RNNから出力されるベクトルは (1)={u(1) 、…、u(1) }、…、u(M)={u(M) 、…、u(M) }と定義する。また、出力されるベクトルは、接合によって1つのM×n次元のベクトル={ (1)、…、 (M)}で表現される。
RNNモジュールから生成された出力ベクトルuは、FFNNの入力として与えられ、FFNNの出力層(output layer)は、商品カテゴリ集合に属するカテゴリと同じ数の出力ノードを含む。
与えられた商品メタ情報xは、RNN−FFNNモデルによって各カテゴリ別の点数として定義されてよい。商品カテゴリの数をKとすると、商品がk番目のカテゴリであるときの点数はf(y|x;θ)と定義されてよく、点数が最も大きいカテゴリが該当商品のカテゴリとして設定されてよい。カテゴリ点数を定義した上述の式において、yはk番目のカテゴリ、xはメタデータのワードベクトル、θはモデルパラメータを意味する。
カテゴリの点数としては、P(y|x)=g(y|x)/(Σy∈Yg(y|x))のように確率が用いられてよいが、これに限定されることはない。上の式において、Yはすべての商品カテゴリ集合であり、関数f(y|x)は、指数(exponential)関数のように最小値が0よりも大きい多様な関数が用いられてよい。
学習過程でエラーを定義するために、商品カテゴリは、|Y|次元のベクトルy={y、…、y|y|}で定義される。例えば、Y={ワンピース、シューズ、カメラ}であるとき、カメラという商品のカテゴリベクトルyは、y={0、0、1}のように表現されてよい。このとき、ベクトルの値が0と1に限定されるのではなく、実際のカテゴリ値とその他の値が異なる値で与えられてもよい。また、実際のカテゴリベクトルをy’、モデルによって分類されたカテゴリベクトルをy’’とすると、E=Σ =1δ(y’、y’’)と定義される。式において、Nは学習に用いられた訓練データの数であり、δ(y’、y’’)は2つのベクトルの差を示す関数であり、学習はエラー値が最小化する方向に進行する。関数としては、クロス−エントロピ(cross−entropy)やユークリッド距離などのような多様な値が用いられてよい。
FFNNの出力ノードで計算されたエラー値は、レイヤを経て下に逆伝播されて各RNNの加重値行列を計算するのに用いられ、これによってRNNとFFNNの学習が同時に進むようになる。
例えば、Y={ワンピース、シューズ、カメラ}であるとき、与えられた商品がシューズである場合はy’={0、1、0}で表現され、モデルがカテゴリベクトルの値を確率で定義するときにはy’’={0.1、0.7、0.2}と仮定する。また、エラーδ(y’、y’’)=1/2(y’−y’’)で定義すると、各カテゴリ別のエラーは{0、005、0.045、0.02}となる。各カテゴリ別のエラーは、一般的に広く使用されるFFNNの逆伝播アルゴリズムによってFFNNの入力層(input layer)まで伝達する。FFNNが10個のノードを含む1個の隠れ層を含むモデルであると仮定するとき、入力層の1番目のノードのエラー情報はδ=(Σ10 k=1δ1k)h’(net)となり、上の式において、δはFFNNの入力層の直ぐ上の層の各ノードに伝達されたエラー情報であり、hはRNNの出力層に用いられた活性化(activation)関数であり、h’は活性化関数の微分を意味する。h関数として、シグモイド(sigmoid)やハイパーボリックタンジェント(又は双曲線正接関数)(tanh)のような微分最大値が1と同じであるか1よりも小さい多様な関数が用いられてよい。また、netは、1番目の入力ノードとして入力されるRNNの下位層出力値および同じ層の直前時間の出力値を含んだRNNのすべての入力情報を意味する。これにより、FFNNのカテゴリエラー情報がRNNに伝達されるようになる。
モデルが2つのRNN(RNN、RNN)で構成され、各RNNの出力ワードベクトルの大きさが2であると仮定すると、FFNNの入力ノードの個数は2×2=4つとなる。また、FFNNの入力ノードのうち、前の2つはRNNの出力ノードに該当し、後ろの2つはRNNの出力ノードに該当する。このとき、伝達されたFFNNの入力ノードエラー情報値が{−0.02、0.03、0.05、−0.03}であるとすると、{−0.02、0.03}はRNNの各層別の加重値を算出するための時間考慮逆伝播アルゴリズムの出力エラー情報値として用いられ、{0.05、−0.03}はRNNの加重値を算出するための出力エラー情報値として用いられる。各RNNの加重値は、出力層ノードに伝達されたエラー値から一般的に広く用いられる時間考慮逆伝播アルゴリズムを利用して学習されてよい。
学習の性能向上のために、RNNとFFNNは複数の層で構成されてよく、下の層の出力値は上位層の入力値として与えられ、隣接する層を構成するノードはエッジ形態で連結し、各エッジ別に加重値が付与される。また、入力データは、モデル学習の性能と効率性を考慮し、全体が一度に与えられずに部分集合に分けられて部分集合単位で学習することが可能である。
上述したように、本発明では、RNNとFFNNを併合したRNN−FFNNモデルを利用することにより、言語学習とアイテム学習、およびカテゴリ分類を同時に実行するモデルを提供することができる
上述したRNN−FFNN学習モジュールは図7のとおりであり、RNN−FFNN学習モジュールを利用した商品カテゴリ分類過程は図8のとおりである。
図7は、本発明の一実施形態における、商品カテゴリ分類のためのRNN−FFNN学習モジュールを示した図である。
図7を参照すると、商品カテゴリ分類のための学習モデル、RNN−FFNN学習モジュール720は、RNNモデルの学習モジュールであるRNNモジュール721とFFNNモデルの学習モジュールであるFFNNモジュール722とが併合されて構成されてよい。商品のメタデータがN個の因子で表現される場合、RNNモジュール721は、N個の商品因子−RNN(商品因子1RNN、…、商品因子nRNN)モデルを含んでよい。
商品カテゴリおよびメタデータDB701から分類対象となる商品のメタデータが与えられるが、このとき、メタデータは、テキスト前処理モジュール710によって無意味なテキスト情報(例えば、助詞、助動詞など)がフィルタリングされた後、前処理されたメタデータテキスト文章/単語DB702に格納および維持されてよい。
前処理されたメタデータは、RNNモジュール721の入力によって与えられるが、このとき、メタデータの各因子別の単語は、該当因子の学習RNN(商品因子1RNN、…、商品因子nRNN)に順に入力される。RNNモジュール721ではメタデータの各因子別の単語を実数ベクトルに変換し、各因子別に1つのベクトルとして接合されたワードベクトルを取得する。
RNNモジュール721から生成されたワードベクトルは、FFNNモジュール722の入力として与えられる。FFNNモジュール722の出力層は、商品カテゴリおよびメタデータDB701に定義されたカテゴリの数だけの出力ノードを含んでよい。FFNNモジュール722は、メタデータに対して生成されたワードベクトルを各カテゴリ別の点数として定義してよいが、このとき、点数が最も大きいカテゴリが商品のカテゴリとして設定されてよい。
特に、FFNNモジュール722で発生したカテゴリエラー情報は、FFNNモジュール722の層(出力層、隠れ層、入力層)を経て逆伝播されてRNNモジュール721の商品因子−RNNモデルに伝達されることにより、RNNモジュール721の加重値学習に用いられてよい。言い換えれば、FFNNモジュール722における分類エラー情報は、RNNモジュール721に伝達され、商品因子−RNNの各層別の加重値を算出するための時間考慮逆伝播アルゴリズムの出力エラー情報値として用いられてよい。
図8は、本発明の一実施形態における、RNN−FFNN学習モデルを利用した商品カテゴリ分類過程を示した図である。図8のカテゴリ分類過程は、図3と図4を参照しながら説明したプロセッサ300の構成要素によって実行されてよい。
プロセッサ300は、商品メタ情報810が与えられると、形態素分析器あるいは索引語抽出器などのような言語前処理器を利用して無意味なテキスト情報をフィルタリングすることにより、メタデータに対する前処理を実行してよい(801)。
プロセッサ300は、RNNとFFNNとが併合されたRNN−FFNNモデル820を利用して前処理されたメタデータを構成する各因子の単語を実数ベクトルで表現してよく、実数ベクトルによるカテゴリ確率(各カテゴリ別の点数)を算出してよい(802)。
プロセッサ300は、商品のメタデータに対するRNN−FFNNモデル820の結果、すなわち、カテゴリ別の点数を利用して該当商品に対して少なくとも1つの最終カテゴリ(例えば、点数が最も高いカテゴリ)830を決定し、決定された最終カテゴリ830を該当商品情報にマッピングしてよい(803)。
このように、本発明の実施形態によると、ベイジアンネットワークあるいは決定木方式を利用した既存の商品カテゴリ自動分類器の性能限界を克服するために、ディープラーニング技法を利用した新たな方式の商品カテゴリ自動分類器を提供する。これにより、商品カテゴリに対する自動分類性能が向上し、カテゴリ分類のために発生する費用を減少させることができる上に、カテゴリ分類正確度を高めることができ、商品を登録した販売者と商品を検索あるいは購入する購入者の両方の満足度を高めることができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)および前記OS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを格納、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ格納媒体または装置、または伝送される信号波に永久的または一時的に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で格納されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータで読み取り可能な記録媒体に格納されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータで読み取り可能な媒体に記録されてよい。前記コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであってもよいし、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータで読み取り可能な記録媒体の例としては、ハードディスク、フロッピーディスク、および磁気テープのような磁気媒体、CD−ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。上述したハードウェア装置は、実施形態の動作を実行するために1つ以上のソフトウェアモジュールとして動作するように構成されてもよく、その逆も同じである。
以上のように、実施形態を、限定された実施形態と図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。

Claims (19)

  1. コンピュータで実現される方法であって、
    複数の因子で表現されるデータを入力とし、第1モデルに基づいて、前記データを構成する因子それぞれに対して前記因子に該当する単語のシーケンス学習によって前記因子のシーケンス情報が含まれたワードベクトルを表現する段階、
    前記第1モデルの出力を入力とし、第2モデルに基づいて、前記因子のシーケンス情報が含まれたワードベクトルを利用して前記データのカテゴリ分類のためのカテゴリ別の点数を算出する段階、および
    前記カテゴリ別の点数を利用して前記データに対する少なくても1つのカテゴリを決定する段階
    を含むことを特徴とする、コンピュータで実現される方法。
  2. 前記データのカテゴリを分類するための学習モデルとして、前記第1モデルであるRNNモデルと前記第2モデルであるFFNNモデルが1つのモデルとして併合されたRNN−FFNNモデルを利用することを特徴とする、請求項1に記載のコンピュータで実現される方法。
  3. 前記RNN−FFNNモデルは、前記FFNNモデルにおけるカテゴリ分類エラー情報が前記RNNモデルに伝達され、前記RNNモデルでの学習に利用されること
    を特徴とする、請求項2に記載のコンピュータで実現される方法。
  4. 前記因子のシーケンス情報が含まれたワードベクトルを表現する段階は、
    前記データを構成する因子別に、各因子に該当する単語の順次的データを学習するための個別RNNを割り当てること
    を特徴とする、請求項2に記載のコンピュータで実現される方法。
  5. 前記因子のシーケンス情報が含まれたワードベクトルを表現する段階は、
    前記第1モデルで前記データを構成する因子それぞれに対し、前記因子のシーケンス情報を表現した多次元実数ベクトルを出力すること
    を特徴とする、請求項1に記載のコンピュータで実現される方法。
  6. 前記因子のシーケンス情報が含まれたワードベクトルを表現する段階は、
    前記データを構成する因子別に、各因子に該当する単語の順次的データを学習するための個別RNNを割り当てる段階、および
    前記因子別に割り当てられた個別RNNで単語の順次入力が完了すると、前記順次入力された単語を実数ベクトルで表現して1つのベクトルとして接合する段階
    を含むことを特徴とする、請求項1に記載のコンピュータで実現される方法。
  7. 言語前処理器を利用して前記データに含まれた一部のテキスト情報をフィルタリングする段階
    をさらに含むことを特徴とする、請求項1に記載のコンピュータで実現される方法。
  8. 前記データのカテゴリ分類のためのカテゴリ別の点数を算出する段階は、
    前記データと関連するカテゴリ集合に対し、前記ワードベクトルと対応するカテゴリ確率を計算すること
    を特徴とする、請求項1に記載のコンピュータで実現される方法。
  9. 前記FFNNモデルにおいて、前記データの実際のカテゴリを示すベクトル値と前記ワードベクトルと対応するカテゴリを示すベクトル値との差を前記カテゴリ分類エラー情報として前記RNNモデルに伝達すること
    を特徴とする、請求項3に記載のコンピュータで実現される方法。
  10. 請求項1〜9のうちのいずれか一項に記載の方法をコンピュータに実行させるコンピュータプログラム。
  11. 1つ以上のプロセッサを含むサーバのシステムであって、
    前記1つ以上のプロセッサは、
    複数の因子で表現されるデータのカテゴリを分類するための学習モデルを提供する学習処理部、および
    前記学習モデルの学習結果に基づいて前記データのカテゴリを分類するカテゴリ分類部
    を備え、
    前記学習処理部は、
    前記データを入力とし、第1モデルに基づいて、前記データを構成する因子それぞれに対して前記因子に該当する単語のシーケンス学習によって前記因子のシーケンス情報が含まれたワードベクトルを表現し、前記第1モデルの出力を入力とし、第2モデルに基づいて、前記因子のシーケンス情報が含まれたワードベクトルを利用して前記データのカテゴリ分類のためのカテゴリ別の点数を算出し、
    前記カテゴリ分類部は、
    前記カテゴリ別の点数を利用して前記データに対する少なくても1つのカテゴリを決定すること
    を特徴とする、システム。
  12. 前記学習処理部は、
    前記データのカテゴリを分類するための学習モデルとして、前記第1モデルであるRNNモデルと前記第2モデルであるFFNNモデルが1つのモデルとして併合されたRNN−FFNNモデルを利用することを特徴とする、請求項11に記載のシステム。
  13. 前記RNN−FFNNモデルは、前記FFNNモデルにおけるカテゴリ分類エラー情報が前記RNNモデルに伝達され、前記RNNモデルにおける学習に利用されること
    を特徴とする、請求項12に記載のシステム。
  14. 前記学習処理部は、
    前記データを構成する因子別に、各因子に該当する単語の順次的データを学習するための個別のRNNを割り当てること
    を特徴とする、請求項12に記載のシステム。
  15. 前記学習処理部は、
    前記第1モデルで前記データを構成する因子それぞれに対し、前記因子のシーケンス情報を表現した多次元実数ベクトルを出力すること
    を特徴とする、請求項11に記載のシステム。
  16. 前記学習処理部は、
    前記データを構成する因子別に、各因子に該当する単語の順次的データを学習するための個別のRNNを割り当てた後、
    前記因子別に割り当てられた個別のRNNで単語の順次入力が完了すると、前記順次入力された単語を実数ベクトルで表現して1つのベクトルとして接合すること
    を特徴とする、請求項12に記載のシステム。
  17. 前記1つ以上のプロセッサは、
    言語前処理器によって前記データに含まれた一部のテキスト情報をフィルタリングする前処理部
    をさらに備えることを特徴とする、請求項11に記載のシステム。
  18. 前記学習処理部は、
    前記データと関連するカテゴリ集合に対し、前記ワードベクトルと対応するカテゴリ確率を計算すること
    を特徴とする、請求項11に記載のシステム。
  19. 前記学習処理部は、
    前記FFNNモデルにおいて、前記データの実際のカテゴリを示すベクトル値と前記ワードベクトルと対応するカテゴリを示すベクトル値との差を前記カテゴリ分類エラー情報として前記RNNモデルに伝達すること
    を特徴とする、請求項13に記載のシステム。
JP2018533601A 2015-10-02 2016-09-29 データのカテゴリ分類のための方法およびシステム Active JP6446602B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2015-0139192 2015-10-02
KR1020150139192A KR101778679B1 (ko) 2015-10-02 2015-10-02 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템
PCT/KR2016/010912 WO2017057921A1 (ko) 2015-10-02 2016-09-29 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템

Publications (2)

Publication Number Publication Date
JP2018533148A JP2018533148A (ja) 2018-11-08
JP6446602B2 true JP6446602B2 (ja) 2018-12-26

Family

ID=58424144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018533601A Active JP6446602B2 (ja) 2015-10-02 2016-09-29 データのカテゴリ分類のための方法およびシステム

Country Status (4)

Country Link
US (1) US10643109B2 (ja)
JP (1) JP6446602B2 (ja)
KR (1) KR101778679B1 (ja)
WO (1) WO2017057921A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101778679B1 (ko) * 2015-10-02 2017-09-14 네이버 주식회사 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템
CN107220220A (zh) * 2016-03-22 2017-09-29 索尼公司 用于文本处理的电子设备和方法
US11537845B2 (en) 2017-04-12 2022-12-27 Yodlee, Inc. Neural networks for information extraction from transaction data
EP3654172A1 (en) * 2017-04-19 2020-05-20 Shanghai Cambricon Information Technology Co., Ltd Fused vector multiplier and method using the same
KR101863615B1 (ko) 2017-05-24 2018-06-01 (주)이스트소프트 신경망 학습 기반의 변종 악성 코드를 탐지하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR101939209B1 (ko) * 2017-06-16 2019-01-16 (주)이스트소프트 신경망 기반의 텍스트의 카테고리를 분류하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
CN107506434A (zh) * 2017-08-23 2017-12-22 北京百度网讯科技有限公司 基于人工智能分类语音输入文本的方法和装置
CN108009847B (zh) * 2017-11-30 2021-06-15 西安电子科技大学 外卖场景下店铺embedding特征提取的方法
CN108170736B (zh) * 2017-12-15 2020-05-05 南瑞集团有限公司 一种基于循环注意力机制的文档快速扫描定性方法
CN110119507A (zh) 2018-02-05 2019-08-13 阿里巴巴集团控股有限公司 词向量生成方法、装置以及设备
CN110310739B (zh) * 2018-03-20 2022-06-24 贺丽君 健康信息处理方法、及其系统
KR102108460B1 (ko) * 2018-04-17 2020-05-07 (주)레몬클라우드 상품 벡터를 이용한 상품 분류 방법 및 장치
CN108549777B (zh) * 2018-04-19 2020-09-22 河海大学 一种中华鲟适宜产卵条件满足度计算方法
KR102047859B1 (ko) * 2018-06-18 2019-11-22 주식회사 비즈부스터 딥 러닝 기반 기업 신용 평가 서버 및 이를 이용한 기업 신용 평가 방법
CA3197098A1 (en) * 2018-06-19 2019-12-26 Thomson Reuters Enterprise Centre Gmbh Systems and methods for determining structured proceeding outcomes
CN109165380B (zh) * 2018-07-26 2022-07-01 咪咕数字传媒有限公司 一种神经网络模型训练方法及装置、文本标签确定方法及装置
CN109190123B (zh) * 2018-09-14 2020-03-27 北京字节跳动网络技术有限公司 用于输出信息的方法和装置
CN111046170A (zh) * 2018-10-15 2020-04-21 北京京东尚科信息技术有限公司 用于输出信息的方法和装置
EP3640855A1 (en) 2018-10-19 2020-04-22 Tata Consultancy Services Limited Systems and methods for conversational based ticket logging
KR20200054600A (ko) 2018-11-12 2020-05-20 삼성전자주식회사 스토리지 장치의 구동 방법, 이를 수행하는 스토리지 장치 및 이를 포함하는 스토리지 시스템
CN109460816B (zh) * 2018-11-16 2020-09-18 焦点科技股份有限公司 一种基于深度学习的用户行为预测方法
JP7333404B2 (ja) * 2019-01-07 2023-08-24 ジェネシス ラボ インコーポレイテッド 面接映像自動評価モデルを管理する方法、システム、及びコンピュータ読取り可能な媒体
CN109857864A (zh) * 2019-01-07 2019-06-07 平安科技(深圳)有限公司 文本情感分类方法、装置、计算机设备及存储介质
JP6918030B2 (ja) * 2019-01-11 2021-08-11 株式会社東芝 学習装置、学習方法、プログラムおよび情報処理システム
KR102002549B1 (ko) * 2019-01-23 2019-07-22 주식회사 솔리드웨어 다단계 분류모델 생성 방법 및 그 장치
US11636330B2 (en) 2019-01-30 2023-04-25 Walmart Apollo, Llc Systems and methods for classification using structured and unstructured attributes
CN109740167B (zh) * 2019-02-01 2020-03-17 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
KR102241486B1 (ko) * 2019-02-14 2021-05-17 엔에이치엔 주식회사 이미지의 태그어에 기반하여 모자이크 이미지를 생성해 제공하는 방법
CN110162783A (zh) * 2019-04-17 2019-08-23 腾讯科技(深圳)有限公司 用于语言处理的循环神经网络中隐状态的生成方法和装置
WO2020218659A1 (ko) * 2019-04-26 2020-10-29 (주)아크릴 인공신경망을 활용한 보험상품 판매 질의응답 자동화 장치
KR102238424B1 (ko) * 2019-07-24 2021-04-09 (주)아인스에스엔씨 빅데이터 기계학습을 이용한 시스템 모델링방법
KR102421397B1 (ko) * 2019-07-25 2022-07-18 주식회사 디에스랩글로벌 프로그래밍 코드 자동생성을 통한 백엔드 구축 방법
CN112396078A (zh) * 2019-08-16 2021-02-23 中国移动通信有限公司研究院 一种服务分类方法、装置、设备及计算机可读存储介质
KR20210023385A (ko) * 2019-08-23 2021-03-04 주식회사 세진마인드 신경망을 이용한 데이터 처리 방법
CN110705298B (zh) * 2019-09-23 2022-06-21 四川长虹电器股份有限公司 一种改进的前缀树与循环神经网络结合的领域分类方法
KR20210094915A (ko) 2020-01-22 2021-07-30 삼성전자주식회사 스토리지 컨트롤러, 이를 포함하는 스토리지 장치 및 스토리지 컨트롤러의동작 방법
US11544661B2 (en) * 2020-04-09 2023-01-03 Mercari, Inc. Estimating shipping costs with machine learning
KR102307598B1 (ko) * 2020-04-27 2021-10-05 주식회사 엔스마트 딥러닝을 활용한 상품 가격 비교 방법 및 시스템
CN111652229B (zh) * 2020-05-25 2023-09-12 泰康保险集团股份有限公司 一种信息输入方法、装置、电子设备及存储介质
CN111651597A (zh) * 2020-05-27 2020-09-11 福建博思软件股份有限公司 一种基于Doc2Vec和卷积神经网络的多源异构商品信息分类方法
KR102535417B1 (ko) * 2020-07-14 2023-05-22 주식회사 엔씨소프트 중요 문서 파일 판별 학습 장치, 중요 문서 파일 판별 학습 방법, 중요 문서 파일 판별 장치 및 중요 문서 파일 판별 방법
CN111737474B (zh) * 2020-07-17 2021-01-12 支付宝(杭州)信息技术有限公司 业务模型的训练和确定文本分类类别的方法及装置
KR102254827B1 (ko) * 2020-08-13 2021-05-21 정진연 딥러닝을 통한 패턴마이닝 이후 레코멘데이션 서비스
CN112328785A (zh) * 2020-10-09 2021-02-05 福建亿榕信息技术有限公司 一种电力领域文本分类的方法和存储设备
CN112417111B (zh) * 2020-11-04 2022-08-23 厦门快商通科技股份有限公司 文本分类方法、问答系统及对话机器人
KR102461665B1 (ko) * 2020-11-19 2022-11-01 (주)아이브릭스 워드 임베딩 및 순환 컨볼루션을 이용한 짧은 문장 분류 방법 및 장치
CA3199731A1 (en) * 2020-11-20 2022-05-27 Aidan Gomez Training transformers using sliceout
KR102443938B1 (ko) * 2020-12-24 2022-09-16 숭실대학교 산학협력단 코드 시퀀스 기반 지능형 핵심코드 식별 방법, 이를 수행하기 위한 기록 매체 및 장치
KR102365875B1 (ko) * 2021-03-31 2022-02-23 주식회사 써니마인드 언어 모델을 기초로 생성된 인공신경망을 이용한 텍스트 분류 및 분석 방법 및 이를 이용한 장치
KR102636082B1 (ko) * 2021-04-02 2024-02-14 주식회사 인핸스 해외 박람회 상품 정보 제공 장치
US20230196112A1 (en) * 2021-12-16 2023-06-22 Korea Advanced Institute Of Science And Technology Meta input method and system and user-centered inference method and system via meta input for recycling of pretrained deep learning model
CN114722207B (zh) * 2022-06-07 2022-08-12 广东海洋大学 一种针对微博的信息分类方法及系统
KR20240016816A (ko) * 2022-07-29 2024-02-06 주식회사 마블러스 메타버스 내 사용자의 상태를 분석하는 시스템 및 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6751621B1 (en) * 2000-01-27 2004-06-15 Manning & Napier Information Services, Llc. Construction of trainable semantic vectors and clustering, classification, and searching using trainable semantic vectors
US7567958B1 (en) * 2000-04-04 2009-07-28 Aol, Llc Filtering system for providing personalized information in the absence of negative data
KR100491250B1 (ko) 2002-09-04 2005-05-25 차상영 상품 정보 등록 방법 및 시스템
JP4460417B2 (ja) * 2004-10-08 2010-05-12 日本電信電話株式会社 自動分類方法、自動分類プログラム、記録媒体、および、自動分類装置
US7603330B2 (en) * 2006-02-01 2009-10-13 Honda Motor Co., Ltd. Meta learning for question classification
US8699796B1 (en) * 2008-11-11 2014-04-15 Trend Micro Incorporated Identifying sensitive expressions in images for languages with large alphabets
EP2369505A1 (en) * 2010-03-26 2011-09-28 British Telecommunications public limited company Text classifier system
US8566270B2 (en) * 2010-09-24 2013-10-22 Nuance Communications, Inc. Sparse representations for text classification
US8527276B1 (en) * 2012-10-25 2013-09-03 Google Inc. Speech synthesis using deep neural networks
JP6039518B2 (ja) * 2013-08-21 2016-12-07 日本電信電話株式会社 情報処理装置、情報抽出装置、及びプログラム
US20150095017A1 (en) * 2013-09-27 2015-04-02 Google Inc. System and method for learning word embeddings using neural language models
JP6588449B2 (ja) 2014-01-31 2019-10-09 グーグル エルエルシー 文書のベクトル表現の生成
JP6312467B2 (ja) * 2014-03-04 2018-04-18 株式会社デンソーアイティーラボラトリ 情報処理装置、情報処理方法、およびプログラム
KR101778679B1 (ko) * 2015-10-02 2017-09-14 네이버 주식회사 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템
US20170213130A1 (en) * 2016-01-21 2017-07-27 Ebay Inc. Snippet extractor: recurrent neural networks for text summarization at industry scale
US10437929B2 (en) * 2016-03-31 2019-10-08 Maluuba Inc. Method and system for processing an input query using a forward and a backward neural network specific to unigrams
KR102523472B1 (ko) * 2016-08-01 2023-04-18 삼성전자주식회사 신규 물질의 구조 생성 방법 및 장치

Also Published As

Publication number Publication date
KR20170039951A (ko) 2017-04-12
KR101778679B1 (ko) 2017-09-14
JP2018533148A (ja) 2018-11-08
US10643109B2 (en) 2020-05-05
WO2017057921A1 (ko) 2017-04-06
US20180225553A1 (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP6446602B2 (ja) データのカテゴリ分類のための方法およびシステム
CN111177569B (zh) 基于人工智能的推荐处理方法、装置及设备
US11983269B2 (en) Deep neural network system for similarity-based graph representations
US11544550B2 (en) Analyzing spatially-sparse data based on submanifold sparse convolutional neural networks
US11562243B2 (en) Machine-learning models based on non-local neural networks
US10726208B2 (en) Consumer insights analysis using word embeddings
US20180349477A1 (en) Tensor-Based Deep Relevance Model for Search on Online Social Networks
CN111966914B (zh) 基于人工智能的内容推荐方法、装置和计算机设备
US11182806B1 (en) Consumer insights analysis by identifying a similarity in public sentiments for a pair of entities
US11232147B2 (en) Generating contextual tags for digital content
JP7083375B2 (ja) 個人化コンテンツ推薦のためのリアルタイムグラフに基づく埋め込み構築方法およびシステム
Liu et al. Background music recommendation based on latent factors and moods
US10558759B1 (en) Consumer insights analysis using word embeddings
JP7150090B2 (ja) ショッピング検索のための商品属性抽出方法
Strat et al. Hierarchical late fusion for concept detection in videos
US20230342833A1 (en) Recommendation method, recommendation network, and related device
WO2024002167A1 (zh) 一种操作预测方法及相关装置
WO2024041483A1 (zh) 一种推荐方法及相关装置
CN111400584A (zh) 联想词的推荐方法、装置、计算机设备和存储介质
JP7427717B2 (ja) マルチモーダルのトランスフォーマベースのアイテム分類システム、データ処理システム、データ処理方法、及びコンピュータ実行方法
CN117217284A (zh) 一种数据处理方法及其装置
KR102119518B1 (ko) 인공지능을 이용하여 생성되는 스타일 공간에 기반한 상품 추천 방법 및 시스템
WO2024012360A1 (zh) 一种数据处理方法及相关装置
Xia An overview of deep learning
CN116484085A (zh) 一种信息投放方法、装置、设备及存储介质、程序产品

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181203

R150 Certificate of patent or registration of utility model

Ref document number: 6446602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250