JP2022529178A - 人工知能推奨モデルの特徴処理方法、装置、電子機器、及びコンピュータプログラム - Google Patents

人工知能推奨モデルの特徴処理方法、装置、電子機器、及びコンピュータプログラム Download PDF

Info

Publication number
JP2022529178A
JP2022529178A JP2021561988A JP2021561988A JP2022529178A JP 2022529178 A JP2022529178 A JP 2022529178A JP 2021561988 A JP2021561988 A JP 2021561988A JP 2021561988 A JP2021561988 A JP 2021561988A JP 2022529178 A JP2022529178 A JP 2022529178A
Authority
JP
Japan
Prior art keywords
feature
atomic
group identifier
identifier
artificial intelligence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021561988A
Other languages
English (en)
Other versions
JP7206419B2 (ja
Inventor
▲亞▼霏 ▲張▼
俊▲ウェイ▼ ▲鐘▼
▲鋒▼ 夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022529178A publication Critical patent/JP2022529178A/ja
Application granted granted Critical
Publication of JP7206419B2 publication Critical patent/JP7206419B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

本願は、人工知能推奨モデルの特徴処理方法、装置、電子機器、及び記憶媒体を提供する。人工知能推奨モデルの特徴処理方法は、入力データを取得し、前記入力データのデータ構造を統一的なインスタンス構造に変換するステップと、人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定するステップと、前記特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値を取得するステップと、前記人工知能推奨モデルに対応する特徴群識別子と、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値とに基づいて、前記人工知能推奨モデルのインスタンスを構築するステップと、を含む。

Description

本願は、2019年8月29日に中国特許庁に提出された、出願番号が第201910810105.6号であり、発明の名称が「人工知能推奨モデルの特徴処理方法、装置、及び電子機器」である、中国特許出願に基づく優先権を主張し、その全ての内容が、参照することにより本願に組み込まれている。
本願は、人工知能の技術に関し、特に人工知能推奨モデルの特徴処理方法、装置、電子機器、及び記憶媒体に関する。
人工知能(AI:Artificial Intelligence)は、デジタルコンピュータ、又はデジタルコンピュータにより制御される機械を用いて、人間の知能のシミュレーション、延長や拡張をし、環境を感知し、知識を取得し、知識を用いて最適な結果を取得する理論、方法、技術、及び応用システムである。機械学習(ML:Machine Learning)は、分野を横断した学際的な学科であり、人工知能のコアであり、コンピュータに知能を持たせる根本的な手段であり、様々な分野にわたって適用されている。
機械学習に依存して構築される人工知能推奨モデル、例えば広告推奨モデルは、使用過程において訓練及び適用の2つの側面に関する。関連技術で提供される構成では、通常、オフラインの場合、ログに保存された訓練データから特徴を抽出して、モデルを訓練し、訓練済みのモデルをオンラインのモデルサービスにプッシュし、次に、オンラインの測定対象のデータから特徴を抽出して、モデルサービスに入力することにより、推奨結果を取得する。上記の構成では、オフラインとオンラインの過程が分離しており、オフラインの特徴抽出過程とオンラインの特徴抽出過程とに潜在的な差異が存在する可能性があり、その結果、同じ内容のデータについては、オフラインの場合とオンラインの場合、抽出された特徴が一貫しない可能性があり、特徴の強い一貫性が悪い。
本願で提供される各種の実施例に基づき、人工知能推奨モデルの特徴処理方法、装置、電子機器、及び記憶媒体を提供する。
本願の実施例の構成は、以下のように実現される。
本願の実施例では、電子機器が実行する、人工知能推奨モデルの特徴処理方法を提供する。前記方法は、
入力データを取得し、前記入力データのデータ構造を統一的なインスタンス構造に変換するステップと、
人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定するステップと、
前記特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値を取得するステップと、
前記人工知能推奨モデルに対応する特徴群識別子と、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値とに基づいて、前記人工知能推奨モデルのインスタンスを構築するステップと、を含む。
本願の実施例では、人工知能推奨モデルの特徴処理装置を提供する。前記装置は、
入力データを取得し、前記入力データのデータ構造を統一的なインスタンス構造に変換する変換モジュールと、
人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定する関数決定モジュールと、
前記特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値を取得する特徴抽出モジュールと、
前記人工知能推奨モデルに対応する特徴群識別子と、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値とに基づいて、前記人工知能推奨モデルのインスタンスを構築する構築モジュールと、を含む。
本願の実施例では、メモリとプロセッサとを備える電子機器を提供する。前記メモリには、コンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令は、前記プロセッサによって実行されると、前記プロセッサに上記の人工知能推奨モデルの特徴処理方法を実行させる。
本願の実施例では、コンピュータ読み取り可能な命令を記憶した1つ又は複数の不揮発性記憶媒体を提供する。前記コンピュータ読み取り可能な命令は、1つ又は複数のプロセッサによって実行されると、1つ又は複数のプロセッサに上記の人工知能推奨モデルの特徴処理方法を実行させる。
本願の1つ又は複数の実施例の詳細は、以下の図面及び説明に記載されている。本願の他の特徴、目的及び利点は、明細書、図面及び特許請求の範囲から明らかになる。
本願の実施例の構成をより明確に説明するために、以下に、実施例の説明に必要な図面を簡単に紹介する。明らかに、以下の説明における図面は本願のいくつかの実施例を示しているに過ぎず、当業者であれば、創造的な労働をすることなく、これらの図面から他の図面を得ることもできる。
関連技術で提供される特徴抽出方式の構成の模式図である。 本願の実施例で提供される人工知能推奨モデルの特徴処理システムの任意選択的な構成の模式図である。 本願の実施例で提供されるサーバの任意選択的な構成の模式図である。 本願の実施例で提供される人工知能推奨モデルの特徴処理方法の任意選択的なフローの模式図である。 本願の実施例で提供される人工知能推奨モデルの特徴処理方法の他の任意選択的なフローの模式図である。 本願の実施例で提供される、人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定するフローの模式図である。 本願の実施例で提供される、特徴抽出関数に基づいて変換後の入力データに対して特徴抽出処理を行うことにより、入力データにおける特徴群識別子、特徴識別子、及び特徴値を取得するフローの模式図である。 本願の実施例で提供される、特徴群識別子、特徴識別子、及び特徴値に基づいて、人工知能推奨モデルのインスタンスを構築するフローの模式図である。 本願の実施例で提供される特徴抽出アーキテクチャの比較模式図である。 本願の実施例で提供される特徴抽出フレームワークの任意選択的な構成の模式図である。
本願の目的、構成、及びメリットをより明確にするために、以下、図面を参照しながら、本願をさらに詳しく説明する。説明する実施例は、本願を制限するものとしてはならない。当業者が創造的な労働をせずに得る全ての他の実施例は、本願の保護範囲に属する。
以下の説明に記載の「いくつかの実施例」は、全ての可能な実施例の部分集合を記述するものである。ただし、理解できるものとして、「いくつかの実施例」は、全ての可能な実施例の同じ部分集合又は異なる部分集合であってもよく、且つ矛盾しない限り、互いに組み合わせることができる。
以下の説明に記載の用語「第1/第2/第3」は、類似した対象を区別するものに過ぎず、対象に対する特定の順序を表すものではない。理解できるものとして、「第1/第2/第3」は、可能な場合、特定の順序又は優先順位を交換してもよい。これにより、ここで説明される本願の実施例は、ここで図示又は説明されるもの以外の順序で実施されることが可能になる。
別に定義しない限り、本明細書で使用される全ての技術的用語及び科学的用語は、当業者が通常理解する意味と同じである。本明細書で使用される用語は、本願の実施例を説明することのみを目的としており、本願を制限することを意図するものではない。
本願の実施例をさらに詳細に説明するに先立って、本願の実施例に係る名詞及び用語を説明する。本願の実施例に係る名詞及び用語は、以下の解釈を適用する。
1)インスタンス(instance):実例(example)とも呼ばれ、人工知能推奨モデルに入力されて、対応するタスクを実行することに用いられる。通常、1つのインスタンスはいくつかの特徴群を含み、1つの特徴群はいくつかの特徴を含む、1つの特徴は特徴識別子と特徴値とを含む。
2)特徴群:特徴ドメインとも呼ばれる。1つの特徴群は、少なくとも1つの特徴を含み、且つ含まれる特徴には、通常、相関関係がある。また、各々の特徴群は1つの特徴群識別子に対応しており、特徴群識別子はgidと略称されてもよい。
3)特徴識別子:特徴群識別子の次のレベルにある特徴識別子である。特徴識別子はfidと略称されてもよい。1つのグローバル特徴を表すには、<gid,fid>の結合が必要となる。特徴識別子は、特徴群識別子から独立して存在することができない。
4)特徴値:特徴の意味を示すためのものである。実際の適用シナリオによって、特徴値は、2値(即ち、0又は1)を取ってもよく、連続したものとしてもよい。特徴値は、浮動小数点数で表され、fvalueと略称されてもよい。
5)原子的特徴:分割不可な最小の特徴を指す。原子的特徴の特徴群識別子は、原子的特徴群識別子と呼ばれ、agidと略称される。原子的特徴の特徴識別子は、原子的特徴識別子と呼ばれ、afidと略称される。原子的特徴の特徴値は、原子的特徴値と呼ばれ、afvalueと略称される。例を挙げると、あるインスタンスが「ユーザ年齢:20:1」である場合、ここでのユーザ年齢は原子的特徴群識別子であり、20は原子的特徴識別子であり、1は原子的特徴値である。原子的特徴値は、数値1の意味が「正しい」であり、数値0の意味が「間違う」であるとすれば、このインスタンスにおいて、ユーザ年齢が20であるという結果は正しい。
6)組み合わせ特徴:任意個の原子的特徴を組み合わせた新特徴である。組み合わせ特徴の特徴群識別子は、組み合わせ特徴群識別子と呼ばれ、cgidと略称される。組み合わせ特徴の特徴識別子は、組み合わせ特徴識別子と呼ばれ、cfidと略称される。組み合わせ特徴の特徴値は、組み合わせ特徴値と呼ばれ、cfvalueと略称される。例を挙げると、あるインスタンスが「ユーザ年齢_ユーザ性別:20_女:1」である場合、ここでのユーザ年齢_ユーザ性別は組み合わせ特徴群識別子であり、20_女は組み合わせ特徴識別子、1は原子的特徴値であり、原子的特徴値は、数値1の意味が「正しい」であり、数値0の意味が「間違う」であるとすれば、このインスタンスにおいて、ユーザ年齢が20であり、ユーザ性別が女であるという結果は正しい。
7)データ構造:コンピュータがデータを記憶・組織する方式であり、例えば、互いに1種又は複数種の特定関係を持つデータ要素の集合である。
発明者らは、本願を実施する過程において、広告や推奨などの業務では、通常、人工知能推奨モデルを用いて関連データを処理することを見出した。業務に係るリコールやソートなどのアルゴリズムタスクは、そのデータフローが通常、図1に示すとおりである。即ち、オフラインの場合、データログからオフラインの訓練データを抽出し、この訓練データがオフラインデータ構造を有し、次に、オフライン特徴フレームワークによって、訓練データに対して特徴抽出処理を行い、訓練データにおける特徴を抽出し、モデル訓練を行い、例えば、図1のモデルa、モデルb、及びモデルcを訓練し、次に、訓練済みのモデルをオンラインのモデルサービスにプッシュする。オンラインの場合、オンライン特徴フレームワークによって、オンラインデータ構造を有する測定対象のデータ、例えば図1に示すユーザプロファイル、ドキュメントインデックス、及びコンテクストデータに対して特徴抽出を行い、抽出した特徴をモデルサービスに入力し、モデルサービスにおけるモデル処理後に返信した結果を取得して、それに対応する業務操作を実行する。ここでの特徴フレームワーク部分は、オフライン特徴フレームワークとオンライン特徴フレームワークとに潜在的な不一貫が存在する可能性がある。例えば、業務者は、業務の要求に基づいて、オフライン特徴フレームワークにおけるある特徴の抽出方式を更新しているが、新たな抽出方式をオンライン特徴フレームワークに同期していない。これにより、内容が同じであるが、データ構造が異なるデータは、オフライン特徴フレームワークとオンライン特徴フレームワークにより抽出されると、取得される特徴が一貫しなく、人工知能推奨モデルの適用へ悪影響を与える。
本願の実施例では、特徴の強い一貫性を高め、特徴抽出の効率性及び柔軟性を高めることができる人工知能推奨モデルの特徴処理方法、装置、電子機器、及び記憶媒体を提供する。以下、本願の実施例で提供される電子機器の例示的な適用を説明する。
本願の実施例で提供される人工知能推奨モデルの特徴処理システム100の任意選択的なアーキテクチャの模式図である図2を参照する。人工知能推奨モデルをサポートする特徴処理の適用を実現するために、端末機器400(端末機器400-1及び端末機器400-2が例示的に示されている)は、ネットワーク300を介してサーバ200に接続される。ネットワーク300は、ワイドエリアネットワーク又はローカルエリアネットワークであってもよく、両者の組み合わせであってもよい。また、サーバ200とデータベース500には、通信接続が存在する。
端末機器400は、グラフィックインタフェース410(グラフィックインタフェース410-1及びグラフィックインタフェース410-2が例示的に示されている)に業務アプリケーションを表示し、ユーザによる業務アプリケーションへの操作に応答して、オンラインの測定対象のデータを生成し、測定対象のデータをサーバ200に送信する。サーバ200は、端末機器400の測定対象のデータを取得し、測定対象のデータのデータ構造を統一的なインスタンス構造に変換し、人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定し、特徴抽出関数に基づいて、変換後の測定対象のデータに対して特徴抽出処理を行うことにより、測定対象のデータにおける特徴群識別子、特徴識別子、及び特徴値を取得し、測定対象のデータにおける特徴群識別子、特徴識別子、及び特徴値に基づいて、測定対象のインスタンスを構築し、人工知能推奨モデルによって、測定対象のインスタンスに対して予測処理を行うことにより、推奨結果を取得し、推奨結果を端末機器400に送信する。端末機器400は、グラフィックインタフェース410の業務アプリケーションに推奨結果を表示する。図2には、広告A、広告B、及び広告Cが例示的に示されている。
これに加えて、サーバ200は、データベース500の訓練データを取得し、訓練データのデータ構造を統一的なインスタンス構造に変換し、人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定し、特徴抽出関数に基づいて、変換後の訓練データに対して特徴抽出処理を行うことにより、訓練データにおける特徴群識別子、特徴識別子、及び特徴値を取得し、訓練データにおける特徴群識別子、特徴識別子、及び特徴値に基づいて、訓練インスタンスを構築し、訓練インスタンスに基づいて人工知能推奨モデルを訓練する。
以下、引き続いて、本願の実施例で提供される電子機器の例示的な適用を説明する。電子機器は、ノートコンピュータ、タブレットコンピュータ、デスクトップコンピュータ、セットトップボックス、モバイル機器(例えば、携帯電話、ポータブル音楽プレーヤー、パーソナル・デジタル・アシスタント、専用メッセージ機器、ポータブルゲーム機器)などの各種タイプの端末機器として実施されてもよいし、サーバとして実施されてもよい。以下、電子機器がサーバである場合を例として説明する。
本願の実施例で提供されるサーバ200(例えば、図2に示すサーバ200であってもよい)のアーキテクチャの模式図である図3を参照する。図3に示すサーバ200は、少なくとも1つのプロセッサ210、メモリ250、少なくとも1つのネットワークインタフェース220、及びユーザインタフェース230を含む。サーバ200の各コンポーネントは、バスシステム240を介して結合されている。理解できるように、バスシステム240は、これらのコンポーネント同士の接続通信を実現する。バスシステム240は、データバスを含むに加えて、電源バス、制御バス、及び状態信号バスを含む。ただし、説明の明瞭さから、図3において、各種のバスをバスシステム240として示している。
プロセッサ210は、信号処理能力を有する集積回路チップ、例えば、汎用プロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、或いは、他のプログラマブルロジックデバイス、ディスクリートゲート又はトランジスタロジックデバイス、ディスクリートハードウェアコンポーネントなどであってもよい。これらのうち、汎用プロセッサは、マイクロプロセッサや一般的な任意のプロセッサなどとしてもよい。
ユーザインタフェース230は、メディアコンテンツを表現できるようにする1つ又は複数の出力装置231を含む。1つ又は複数の出力装置231は、1つ又は複数のスピーカー、及び/又は、1つ又は複数のビジュアルディスプレイを含む。ユーザインタフェース230は、1つ又は複数の入力装置232をさらに含む。入力装置232は、ユーザの入力に役立つユーザインタフェース部材、例えば、キーボード、マウス、マイクロフォン、タッチディスプレイ、カメラ、他の入力ボタンやコントロールを含む。
メモリ250は、取り外し可能なもの、取り外し不可なもの、又はこれらの組み合わせであってもよい。例示的なハードウェア機器には、ソリッドステートメモリ、ハードディスクドライブ、光ディスクドライブなどが含まれる。メモリ250は、任意選択的に、物理位置がプロセッサ210から遠い1つ又は複数の記憶機器を含む。
メモリ250は、揮発性メモリ又は不揮発性メモリを含み、揮発性メモリと不揮発性メモリの両方を含んでもよい。不揮発性メモリは読み出し専用メモリ(ROM:Read Only Memory)であってもよく、揮発性メモリはランダムアクセスメモリ(RAM:Random Access Memory)であってもよい。本願の実施例に記載のメモリ250は、適切なタイプの任意のメモリを含むことを意図している。該コンピュータ機器の不揮発性記憶媒体は、オペレーティングシステムやコンピュータ読み取り可能な命令を記憶することができる。該コンピュータ読み取り可能な命令は、実行されると、プロセッサに人工知能推奨モデルの特徴処理方法を実行させることが可能である。該揮発性メモリも、コンピュータ読み取り可能な命令を記憶することができる。該コンピュータ読み取り可能な命令は、プロセッサによって実行されると、プロセッサに人工知能推奨モデルの特徴処理方法を実行させることが可能である。
いくつかの実施例において、メモリ250は、各種の操作をサポートするためにデータを記憶することができる。これらのデータの例として、プログラム、モジュールやデータ構造、或いはこれらの部分集合又は超集合が含まれる。以下、例示的に説明する。
オペレーティングシステム251は、各種の基本的なシステムサービスを処理し、ハードウェア関連タスクを実行するためのシステムプログラム、例えば、フレームワーク層、コアライブラリ層、ドライバ層などを含み、各種の基礎業務を実現し、ハードウェアに基づくタスクを処理する。
ネットワーク通信モジュール252は、1つ又は複数の(有線又は無線)ネットワークインタフェース220を介して、他のコンピューティングデバイスに到達するためのものである。例示的なネットワークインタフェース220として、ブルートゥース(登録商標)、無線互換性認証(WiFi)やユニバーサルシリアルバス(USB:Universal Serial Bus)などが含まれる。
表現モジュール253は、1つ又は複数のユーザインタフェース230に関連する出力装置231(例えば、ディスプレイ、スピーカーなど)を介して、情報を表現できるようにする(例えば、周辺機器を操作して、コンテンツ及び情報を表示するためのユーザインタフェース)。
入力処理モジュール254は、1つ又は複数の入力装置232のうちの1つからの1つ又は複数のユーザ入力又はインタラクションを検出し、検出した入力又はインタラクションを翻訳する。
いくつかの実施例において、本願の実施例で提供される人工知能推奨モデルの特徴処理装置は、ソフトウェア方式で実現されてもよい。図3は、メモリ250に記憶された人工知能推奨モデルの特徴処理装置255を示している。この人工知能推奨モデルの特徴処理装置255は、プログラムやプラグインなどの形式のソフトウェアであってもよく、ソフトウェアモジュールとして、変換モジュール2551、関数決定モジュール2552、特徴抽出モジュール2553、及び構築モジュール2554を含む。これらのモジュールは、ロジック的なものであるため、実現される機能に応じて、任意に組み合わせたり、さらに分割したりすることが可能である。
以下では、各モジュールの機能を説明する。
他のいくつかの実施例において、本願の実施例で提供される人工知能推奨モデルの特徴処理装置は、ハードウェア方式で実現されてもよい。一例として、本願の実施例で提供される人工知能推奨モデルの特徴処理装置は、ハードウェア復号プロセッサ形式のプロセッサであってもよく、本願の実施例で提供される人工知能推奨モデルの特徴処理方法を実現するようにプログラミングされる。例えば、ハードウェア復号プロセッサ形式のプロセッサとしては、1つ又は複数の特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、DSP、プログラマブルロジックデバイス(PLD:Programmable Logic Device)、複雑なプログラマブルロジックデバイス(CPLD:Complex Programmable Logic Device)、フィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)、又は他の電子素子が採用されてもよい。
本願の実施例で提供される人工知能推奨モデルの特徴処理方法は、上記のサーバによって実行されてもよいし、端末機器(例えば、図2に示す端末機器400-1及び端末機器400-2であってもよい)によって実行されてもよく、又はサーバと端末機器が共同で実行してもよい。
以下、上述した電子機器の例示的な適用及び構成を参照しながら、電子機器において、組み入れられた人工知能推奨モデルの特徴処理装置によって人工知能推奨モデルの特徴処理方法を実現する過程を説明する。
本願の実施例で提供される人工知能推奨モデルの特徴処理方法の任意選択的なフローの模式図である図4Aを参照する。図4Aに示すステップを参照して説明する。
ステップ101では、入力データを取得し、前記入力データのデータ構造を統一的なインスタンス構造に変換する。
ここで、入力データは、測定対象のデータ、又は訓練データであってもよい。例えば、人工知能推奨モデルが広告推奨モデルである場合、測定対象のデータは、ユーザプロファイルデータ、例えば、ユーザ年齢や性別などであってもよく、訓練データは、ユーザプロファイルデータ、及び広告に対するユーザのクリックデータ(例えば、クリック又は未クリック)を含んでもよい。素早く予測してフィードバックすることを可能にするために、測定対象のデータは、通常、オンラインで取得される。訓練データは、通常、ログに記憶される。実際の適用シナリオでは、記憶を容易にするために、ログにおけるデータのデータ構造とオンラインのデータ構造には通常違いがある。このため、本願の実施例では、入力データのデータ構造を統一的なインスタンス構造に変換することにより、データ構造間の差異を克服し、異なる種類の入力データにおけるフィールドの意味の一貫性を確保する。ここで、統一的なインスタンス構造は、クロス言語データフォーマットであり、protobufフォーマット、flatbuffersフォーマット、thriftフォーマット、avroフォーマット、及びmsgpackフォーマットを含むが、これらに限定されない。変換する際に、まず、使用するクロス言語データフォーマットを決定し、次に、それに対応するフォーマットのツールキットを呼び出し、入力データのデータ構造をこのクロス言語データフォーマットに変換する。変換が完了すると、それに対応するフォーマットのファイルが生成され、このファイルには、該クロス言語データフォーマットで記述される入力データが含まれる。
ステップ102では、人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定する。
本願の実施例は、人工知能推奨モデルの種類を限定しない。例えば、人工知能推奨モデルは、線形回帰、サポートベクターマシン、又はニューラルネットワークを用いた推奨モデルであってもよい。本ステップでは、人工知能推奨モデルの設定に対応する特徴群識別子を決定する。該特徴群識別子は、原子的特徴群識別子及び/又は組み合わせ特徴群識別子を含み、実際の適用シナリオに応じて決定される。同じ業務タイプに適用する人工知能推奨モデルは、必要なデータに一定の共通性が存在する。このため、業務タイプごとに、それに対応する特徴群識別子を設定しておき、本ステップでは、人工知能推奨モデルの業務タイプに基づいて、それに対応する設定済みの特徴群識別子を決定するようにしてもよい。例えば、業務タイプは、ゲーム推奨、化粧品推奨、及びテレビドラマ推奨を含む。業務タイプごとに、それに対応する特徴群識別子を設定し、人工知能推奨モデルがゲーム推奨に適用されると決定した場合、ゲーム推奨タイプに対応する特徴群識別子を決定する。人工知能推奨モデルに対応する特徴群識別子を決定するとともに、人工知能推奨モデルに対応する特徴抽出関数を決定する。該特徴抽出関数は、予め設定されるものであり、且つ各々の特徴抽出関数は、1つの原子的特徴群識別子に対応している。特徴抽出関数は、変換後の入力データを解析することにより、原子的特徴群識別子と、原子的特徴群識別子に対応する原子的特徴識別子及び原子的特徴値とを取得するためのものである。特徴抽出関数を設定する際に、例えば、原子的特徴群識別子が「ユーザ年齢」であれば、原子抽出関数に「ユーザ年齢」のフィールドを設定する。このように、原子抽出関数を実行することにより、変換後の入力データから、「ユーザ年齢」である原子的特徴群識別子と、該原子的特徴群識別子に関連する原子的特徴識別子及び原子的特徴値を識別できる。
ステップ103では、前記特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値を取得する。
特徴抽出関数で特徴抽出処理を行うと、変換後の入力データにおける原子的特徴群識別子、原子的特徴識別子、及び原子的特徴値が取得される。もちろん、変換後の入力データには、ある原子的特徴群識別子が含まれない場合、該原子的特徴群識別子に対応する特徴抽出関数で入力データを処理すると、取得された結果はヌルである。説明すべきものとして、決定された特徴抽出関数が少なくとも2つである場合、各特徴抽出関数に基づいて、変換後の入力データに対して特徴抽出処理を行う。
ステップ104では、人工知能推奨モデルに対応する特徴群識別子と、入力データにおける特徴群識別子、特徴識別子、及び特徴値とに基づいて、前記人工知能推奨モデルのインスタンスを構築する。
<特徴群識別子:特徴識別子:特徴値>のトリプルに基づいて、人工知能推奨モデルに入力するための人工知能推奨モデルのインスタンスを構築する。各々の特徴群識別子は、1つの単独したインスタンスに対応している。例えば、原子的特徴群識別子「ユーザ年齢」の場合、構築されたインスタンスは「ユーザ年齢:20:1」である。説明すべきものとして、ステップ103では、原子的特徴群識別子、原子的特徴識別子、及び原子的特徴値だけが取得されるため、人工知能推奨モデルが組み合わせ特徴にも対応する場合、原子的特徴識別子及び原子的特徴値をさらに組み合わせる必要があり、具体的な内容について後述する。
本願の実施例における図4Aの上記の例示的な実施から分かるように、本願の実施例では、統一的なインスタンス構造を基に、人工知能推奨モデルに対応する特徴抽出関数を利用して、入力データに対して特徴抽出を行うことにより、所望のインスタンスを取得する。本願の実施例では、予測データと訓練データとの間のデータ構造の差異が隠され、特徴の強い一貫性が確保され、特徴抽出の柔軟性や効率性が向上する。
いくつかの実施例では、図4Bを参照する。図4Bは、本願の実施例で提供される人工知能推奨モデルの特徴処理方法の任意選択的なフローの模式図である。図4Aを基に、ステップ104の後、ステップ105では、前記入力データが訓練データである場合、前記インスタンスに基づいて前記人工知能推奨モデルを訓練してもよい。
例を挙げると、人工知能推奨モデルは広告推奨モデルであり、入力データに基づいて構築されたインスタンスは「ユーザ年齢_ユーザ性別_広告:20_女_広告A:1」である。ここで、入力データは訓練データであり、特徴値「1」は、該ユーザが広告Aをクリックしたことを表す。このような場合、訓練する際に、ユーザ年齢「20」及びユーザ性別「女」を入力パラメータとして人工知能推奨モデルに入力し、人工知能推奨モデルの出力パラメータとインスタンスの特徴値「1」との間の差異に基づいて、人工知能推奨モデルのパラメータを調整し、これにより、後で新たなインスタンス従って訓練するときに、人工知能推奨モデルの出力パラメータとインスタンスの特徴値との間の差異を減少させ、即ち、人工知能推奨モデルによる予測の正確度を高める。例えば、人工知能推奨モデルが、ニューラルネットワークを用いた推奨モデルである場合、出力パラメータとインスタンスの特徴値「1」との間の差異に基づいて、バックプロパゲーションを行うことにより、ニューラルネットワークの各層の重みパラメータを調整する。
いくつかの実施例において、前記インスタンスに基づいて前記人工知能推奨モデルを訓練する上記ステップは、以下のような方式によって実現されてもよい。即ち、前記人工知能推奨モデルのコピーを作成し、前記インスタンスに基づいて前記人工知能推奨モデルのコピーを訓練する。
ここでは、モデル訓練とモデル予測の過程を分離してもよい。具体的には、人工知能推奨モデルのコピーを作成し、訓練データに対応するインスタンスに基づいて、人工知能推奨モデルのコピーを訓練する。上記の方式によれば、人工知能推奨モデルが2つのタイプのインスタンスを同時に処理することに起因する処理過程の混乱を回避する。
いくつかの実施例において、前記インスタンスに基づいて前記人工知能推奨モデルのコピーを訓練する前記ステップの前に、前記インスタンスに基づいて前記人工知能推奨モデルのコピーの第1正確率を決定するステップをさらに含む。
ここでは、正確率のメカニズムを設定して、人工知能推奨モデルの更新タイミングを決定してもよい。まず、インスタンスに基づいて人工知能推奨モデルのコピーの第1正確率を決定する。例えば、インスタンスは、100個のサブインスタンスを含む。ここで、サブインスタンスとは、<特徴群識別子:特徴識別子:特徴値>のような形式のトリプルを指す。各サブインスタンスの入力パラメータを人工知能推奨モデルのコピーに入力すると、インスタンスにおける70個のサブインスタンスについては、人工知能推奨モデルのコピーの出力パラメータがサブインスタンスの特徴値に合致し、残りの30個のサブインスタンスについては、出力パラメータが特徴値に合致しない場合、第1正確率が70%であると決定できる。
前記インスタンスに基づいて前記人工知能推奨モデルのコピーを訓練する前記ステップの後、新たな訓練データに対応するインスタンスに基づいて、訓練後の前記人工知能推奨モデルのコピーの第2正確率を決定するステップと、前記第2正確率が前記第1正確率を超える場合、訓練後の前記人工知能推奨モデルのコピーに基づいて、前記人工知能推奨モデルを更新するステップとをさらに含む。
人工知能推奨モデルのコピーの訓練が完了すると、新たな訓練データを取得し、インスタンスを構築する。同様に、新たに構築されたインスタンスに基づいて、訓練後の人工知能推奨モデルのコピーの第2正確率を決定する。第2正確率が第1正確率を超える場合、訓練後の人工知能推奨モデルのコピーに基づいて、人工知能推奨モデルを更新し(ここでの人工知能推奨モデルは、測定対象のデータに対応するインスタンスを処理するためのものである)、第2正確率が第1正確率を超えない場合、新たに構築されたインスタンスに基づいて、人工知能推奨モデルのコピーを訓練し続けてもよい。上記の方式によれば、予測用の人工知能推奨モデルの正確率が確保され、訓練データの品質低下による正確率の低減が回避される。
いくつかの実施例において、訓練後の前記人工知能推奨モデルのコピーに基づいて、前記人工知能推奨モデルを更新する上記ステップは、以下のような方式によって実現されてもよい。即ち、訓練データの生成率を取得し、前記生成率が生成率閾値よりも低い場合、訓練後の前記人工知能推奨モデルのコピーに基づいて、前記人工知能推奨モデルを更新する。
例えば、特定の間隔ごとに、新たに取得された訓練データの数を1回統計する。生成率が所定の生成率閾値よりも低い場合、例えば、生成率が1分あたり10個であるが、生成率閾値が1分あたり11個である場合、訓練後の人工知能推奨モデルのコピーに基づいて、人工知能推奨モデルを更新する。上記の方式によって人工知能推奨モデルの更新を実行すると、モデルの更新に起因する業務遅延を低減させる。
いくつかの実施例において、前記インスタンスに基づいて前記人工知能推奨モデルを訓練する前記ステップの前に、特徴調整識別子と、それに対応する調整値とを取得するステップと、前記インスタンスにおいて、前記特徴調整識別子に合致する各群の特徴群識別子、特徴識別子、及び特徴値を調整対象のサブインスタンスとして決定するステップと、前記調整対象のサブインスタンスの重み値を前記調整値に更新するステップとをさらに含み、前記特徴調整識別子は、特徴群識別子と、特徴群識別子及び特徴識別子とのうちの1種である。
例えば、業務の軽重に応じて、特徴調整識別子及び調整値を設定する。ユーザ業務はユーザ年齢が20であるユーザに注目している場合、特徴群識別子及び特徴識別子を含む特徴調整識別子が具体的に<ユーザ年齢:20>であり、それに対応する調整値が2であるように設定する。インスタンスには、<特徴群識別子:特徴識別子:特徴値>のトリプルが含まれている。理解しやすくするために、該トリプルをサブインスタンスと名づける。サブインスタンスの特徴値には、0と1の値がある。これらのうち、0は、対応するユーザが広告Aをクリックしたことを表し、1は、対応するユーザが広告Bをクリックしたことを表す。また、サブインスタンスの重み値(sample_weight)は、デフォルトで1である。このような場合、特徴調整識別子に基づいて、インスタンスにおける、<ユーザ年齢:20>が含まれているサブインスタンスを調整対象のサブインスタンスとして決定し(特徴値を問わず)、調整対象のサブインスタンスの総インスタンスにおける割合を高めるために、調整対象のサブインスタンスの重み値を2に更新する。上記の方式によれば、モデルの訓練の柔軟性が向上し、実際の適用シナリオに応じて各種のサブインスタンスの割合を調整することが可能になる。
ステップ106では、前記入力データが測定対象のデータである場合、前記人工知能推奨モデルによって前記インスタンスに対して予測処理を行うことにより、推奨結果を取得する。
同様に、上記の例を挙げると、特徴抽出によって、入力データに基づいて構築されたインスタンスである「ユーザ年齢_ユーザ性別:20_女:1」が取得される。ここで、入力データは測定対象のデータであり、特徴値「1」は、インスタンスのデータが正しいデータであることを表す。このような場合、予測する際に、インスタンスのユーザ年齢「20」及びユーザ性別「女」を入力パラメータとして人工知能推奨モデルに入力し、人工知能推奨モデルの出力パラメータを、該ユーザが広告Aをクリックする確率とする。これにより、業務ロジックによって、該ユーザへ広告Aを推奨するか否かを決定し、対応する推奨結果を取得する。例えば、確率が70%を超える場合、広告Aを推奨すると決定し、確率が70%を超えない場合、広告Aを推奨しないと決定する。
本願の実施例における図4Bの上記の例示的な実施から分かるように、本願の実施例では、訓練データに対応するインスタンスを訓練インスタンスとして、人工知能推奨モデルを訓練し、測定対象のデータに対応するインスタンスを測定対象のインスタンスとして、人工知能推奨モデルに入力し、推奨結果を取得する。これにより、異なる種類の入力データに対するターゲティング性が向上する。
いくつかの実施例では、図4Cを参照する。図4Cは、本願の実施例で提供される、人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定するフローの模式図である。図4Aを基に、ステップ102は、ステップ201~ステップ206によって実現されてもよい。各ステップを参照して説明する。
ステップ201では、原子的特徴登録情報と、組み合わせ特徴登録情報とを取得し、前記原子的特徴登録情報には、登録済みの原子的特徴群識別子と、それに対応する特徴抽出関数とが含まれ、前記組み合わせ特徴登録情報には、登録済みの組み合わせ特徴群識別子と、それに対応する少なくとも2つの原子的特徴群識別子が含まれる。
本ステップにおいて、原子的特徴登録情報及び組み合わせ特徴登録情報は、人工知能推奨モデルに限定されるものではなく、グローバルな登録情報である。これらのうち、原子的特徴登録情報には、登録済みの原子的特徴群識別子と、それに対応する特徴抽出関数とが含まれ、組み合わせ特徴登録情報には、登録済みの組み合わせ特徴群識別子と、それに対応する少なくとも2つの原子的特徴群識別子が含まれる。例えば、組み合わせ特徴登録情報には、組み合わせ特徴群識別子である「ユーザ年齢_ユーザ性別」と、それに対応する2つの原子的特徴群識別子である「ユーザ年齢」「ユーザ性別」とが含まれる。
ステップ202では、人工知能推奨モデルに対応する特徴群識別子集合を取得し、前記特徴群識別子集合を走査する。
取得された特徴群識別子集合は、ステップ201の登録情報と異なる。該特徴群識別子集合は、グローバルなものではなく、インスタンスの構築要素としての特徴群識別子のみを含む。インスタンスとは、人工知能推奨モデルに対応するインスタンスを指す。特徴群識別子集合には、少なくとも1つの特徴群識別子が含まれる。特徴群識別子集合を取得した後、それに対して走査操作を実行する。
ステップ203では、走査される特徴群識別子が前記原子的特徴登録情報とマッチングする場合、前記原子的特徴登録情報における、前記特徴群識別子に対応する特徴抽出関数を特徴抽出関数チェーンに追加する。
1つの特徴群識別子が走査されるたびに、該特徴群識別子と、原子的特徴登録情報における原子的特徴群識別子とを1つずつマッチングし、特徴群識別子と、原子的特徴登録情報における原子的特徴群識別子とが同じであるか否かを判断し、同じである場合、特徴群識別子が原子的特徴登録情報とマッチングすると決定し、原子的特徴登録情報における、該特徴群識別子対応する特徴抽出関数を所定の特徴抽出関数チェーンに追加する。説明すべきものとして、ここでの特徴抽出関数チェーンとは、特徴抽出関数の集合を指すものであり、ある特定の記憶構造を指すものではない。
ステップ204では、走査される特徴群識別子が、前記原子的特徴登録情報とマッチングしなくて、且つ前記組み合わせ特徴登録情報とマッチングする場合、前記組み合わせ特徴登録情報における、前記特徴群識別子に対応するターゲット原子的特徴群識別子を決定する。
走査される特徴群識別子が、原子的特徴登録情報におけるいずれの原子的特徴群識別子ともマッチングしない場合、該特徴群識別子と、組み合わせ特徴登録情報における各組み合わせ特徴群識別子とを1つずつマッチングし、特徴群識別子と、組み合わせ特徴登録情報における組み合わせ特徴群識別子とが同じであるか否かを判断し、同じである場合、組み合わせ特徴登録情報における、該特徴群識別子に対応する全てのターゲット原子的特徴群識別子を決定する。走査される特徴群識別子が、原子的特徴登録情報とマッチングしなくて、且つ組み合わせ特徴登録情報とマッチングしない場合、処理をしない。
ステップ205では、前記原子的特徴登録情報において、前記ターゲット原子的特徴群識別子に対応するターゲット特徴抽出関数を決定する。
決定されたターゲット原子的特徴群識別子ごとに、原子的特徴登録情報において、それに対応するターゲット特徴抽出関数を決定する。
ステップ206では、前記ターゲット特徴抽出関数が前記特徴抽出関数チェーンに存在しない場合、前記ターゲット特徴抽出関数を前記特徴抽出関数チェーンに追加する。
決定されたターゲット特徴抽出関数が特徴抽出関数チェーンに存在する場合、処理をせず、決定されたターゲット特徴抽出関数が特徴抽出関数チェーンに存在しない場合、ターゲット特徴抽出関数を特徴抽出関数チェーンに追加する。
理解しやすくするために、例を挙げて説明する。特徴抽出関数をfaで表し、特徴抽出関数チェーンをfa_chainで表し、取得された原子的特徴登録情報には、「agid1-fa1」及び「agid2-fa2」が含まれ(「agid1-fa1」は、原子的特徴群識別子agid1と、それに対応する特徴抽出関数fa1とを表す)、取得された組み合わせ特徴登録情報には、「cgid1-(agid1,agid2)」が含まれ、特徴群識別子集合には、特徴群識別子agid1及びcgid1が含まれる場合、番号の形式でfa_chainの構築過程を説明する。
(1)特徴群識別子集合において特徴群識別子agid1が走査され、agid1が原子的特徴登録情報とマッチングすると決定されると、原子的特徴登録情報における、agid1に対応するfa1をfa_chainに追加する。
(2)特徴群識別子集合において特徴群識別子cgid1が走査され、cgid1が原子的特徴登録情報とマッチングしないと決定され、次に、cgid1が組み合わせ特徴登録情報とマッチングすると決定されると、組み合わせ特徴登録情報における、cgid1に対応する2つの原子的特徴群識別子agid1及びagid2を取得する。agid1については、原子的特徴登録情報における、それに対応するfa1がfa_chainに追加されているため、処理をせず、agid2については、原子的特徴登録情報における、それに対応するfa2がfa_chainに存在しないため、fa2をfa_chainに追加する。
(3)特徴群識別子集合における全ての特徴群識別子の走査が完了すると、fa_chainを出力する。
いくつかの実施例では、図4Dを参照する。図4Dは、本願の実施例で提供される、前記特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値を取得するフローの模式図である。図4A及び図4Cを基に、ステップ103は、ステップ207~ステップ208によって実現されてもよい。各ステップを参照して説明する。
ステップ207では、前記特徴抽出関数チェーンを走査する。
特徴抽出関数チェーンに基づいて、変換後の前記入力データに対して特徴抽出処理を行う。まず、特徴抽出関数チェーンを走査する。
ステップ208では、走査される特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける原子的特徴群識別子、原子的特徴識別子、及び原子的特徴値を取得する。
走査が完了するまで、走査される各特徴抽出関数に基づいて、変換後の入力データに対して特徴抽出処理を行う。ここで、特徴抽出関数によって、入力データにおける、該関数に対応する原子的特徴群識別子、並びに、原子的特徴群識別子に関連する原子的特徴識別子及び原子的特徴値しか識別できない。
いくつかの実施例では、図4Eを参照する。図4Eは、本願の実施例で提供される、前記特徴群識別子、特徴識別子、及び特徴値に基づいて、前記人工知能推奨モデルのインスタンスを構築するフローの模式図である。図4A、図4C、及び図4Dを基に、ステップ104は、ステップ209~ステップ214によって実現されてもよい。各ステップを参照して説明する。
ステップ209では、前記特徴群識別子集合を走査する。
人工知能推奨モデルのインスタンスを構築する際に、同様に特徴群識別子集合を走査する。
ステップ210では、走査される特徴群識別子が前記原子的特徴登録情報とマッチングする場合、前記特徴群識別子を追加対象の原子的特徴群識別子として決定し、前記追加対象の原子的特徴群識別子と、それに対応する原子的特徴識別子及び原子的特徴値とをインスタンスに追加する。
走査される特徴群識別子が原子的特徴登録情報におけるある原子的特徴群識別子と同じである場合、該特徴群識別子を原子的特徴群識別子として決定し、該原子的特徴群識別子と、それに対応する原子的特徴識別子及び原子的特徴値(ステップ208によって決定されるもの)をインスタンスに追加する。
ステップ211では、走査される特徴群識別子が、前記原子的特徴登録情報とマッチングしなくて、且つ前記組み合わせ特徴登録情報とマッチングする場合、前記特徴群識別子を組み合わせ特徴群識別子として決定する。
走査される特徴群識別子が、原子的特徴登録情報におけるいずれの原子的特徴群識別子とも異なり、且つ組み合わせ特徴登録情報におけるある組み合わせ特徴群識別子と同じである場合、該特徴群識別子を追加対象の組み合わせ特徴群識別子として決定する。
ステップ212では、前記組み合わせ特徴登録情報における、前記追加対象の組み合わせ特徴群識別子に対応する少なくとも2つの追加対象の原子的特徴群識別子を決定し、前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子及び原子的特徴値を決定する。
説明の便宜上、例えば、走査される特徴群識別子がcgid1であり、組み合わせ特徴登録情報における、cgid1に対応する原子的特徴群識別子がagid1及びagid2を含む場合、ステップ208の特徴抽出結果に基づいて、agid1に対応する原子的特徴識別子afid1及び原子的特徴値afvalue1、並びに、agid2に対応する原子的特徴識別子afid2及び原子的特徴値afvalue2を決定する。
ステップ213では、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子を組み合わせ処理することにより、組み合わせ特徴識別子を取得し、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴値を組み合わせ処理することにより、組み合わせ特徴値を取得する。
例えば、afid1とafid2を組み合わせ処理することにより、組み合わせ特徴識別子cfid1を取得し、afvalue1とafvalue2を組み合わせ処理することにより、組み合わせ特徴値cfvalue1を取得する。
いくつかの実施例において、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子を組み合わせ処理することにより、組み合わせ特徴識別子を取得する上記ステップは、以下のような方式によって実現されてもよい。即ち、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子に対して第1組み合わせ操作を実行することにより、組み合わせ特徴識別子を取得する。ここで、前記第1組み合わせ操作には、ハッシュ操作、ビット論理和操作、ビット論理積操作、ビット排他的論理和操作の少なくとも1つが含まれる。
実際の適用シナリオによって、異なる第1組み合わせ操作を用いて、少なくとも2つの原子的特徴識別子(例えば、上記のafid1とafid2)を組み合わせ処理することにより、組み合わせ特徴識別子(例えば、上記のcfid1)を取得してもよい。第1組み合わせ操作は、ハッシュ操作、ビット論理和操作、ビット論理積操作、及びビット排他的論理和操作を含むが、これらに限定されない。
いくつかの実施例において、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴値を組み合わせ処理することにより、組み合わせ特徴値を取得する上記ステップは、以下のような方式によって実現されてもよい。即ち、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴値に対して第2組み合わせ操作を実行することにより、組み合わせ特徴値を取得する。ここで、前記第2組み合わせ操作には、乗算操作、加算操作の少なくとも1つが含まれる。
実際の適用シナリオによって、異なる第2組み合わせ操作を用いて、少なくとも2つの原子的特徴値(例えば、上記のafvalue1とafvalue2)を組み合わせ処理することにより、組み合わせ特徴値(例えば、上記cfvalue1)を取得してもよい。第2組み合わせ操作は、乗算操作、加算操作を含むが、これらに限定されない。
ステップ214では、前記追加対象の組み合わせ特徴群識別子、前記組み合わせ特徴識別子、及び前記組み合わせ特徴値を前記インスタンスに追加する。
組み合わせ処理によって組み合わせ特徴識別子及び組み合わせ特徴値を取得した後、<組み合わせ特徴群識別子:組み合わせ特徴識別子:組み合わせ特徴値>(例えば、<cgid1:cfid1:cfvalue1>)のようなトリプルの形式で、それらをインスタンスに追加する。
本願の実施例における図4Cの上記の例示的な実施から分かるように、本願の実施例では、登録情報を取得し、人工知能推奨モデルの特徴群識別子集合に基づいて、対応する特徴抽出関数を決定することにより、人工知能推奨モデルに関連するインスタンスの生成が実現され、特徴抽出の柔軟性及び拡張性が向上し、即ち、異なる特徴群識別子集合に基づいて、入力データにおける関連特徴を決定することができる。
本願の実施例で提供される特徴抽出アーキテクチャの比較模式図である図5を参照する。図5の左図は、関連技術で提供される特徴抽出アーキテクチャである。ここで、オフラインの訓練データに対しては、オフライン特徴フレームワークを用いて特徴抽出を行い、抽出された特徴に基づいてモデルを訓練する。オンラインの測定対象のデータに対しては、オンライン特徴フレームワークを用いて特徴抽出を行い、モデルに基づいて、抽出された特徴を処理することにより、結果を取得する。図5の右図は、本願の実施例の特徴処理方法を適用した特徴抽出アーキテクチャである。ここで、オフラインの訓練データであっても、オンラインの測定対象のデータであっても、統一的な特徴フレームワークを用いて抽出を行うことで、フレームワーク間の差異に起因する抽出された特徴が一貫しないことが回避される。
本願の実施例で提供される特徴抽出フレームワークの構成の模式図である図6を参照する。データ構造適応層と、原子的特徴管理層と、組み合わせ特徴管理層と、モデル設定層と、特徴抽出層とを含む。理解しやすくするために、以下、底から上へと、擬似コードを参照して、各層の機能を一々述べる。
特徴フレームワークの第1層であるデータ構造適応層は、異なる種類の入力データのデータ構造に適応して、それらを統一的なインスタンス構造に変換することにより、フィールドの意味の一貫性を確保する。この統一的なインスタンス構造は、汎用のクロス言語データフォーマットとして定義されてもよく、protobuf、flatbuffers、thrift、avro、及びmsgpackを含むが、これらに限定されない。具体的には、対応するクロス言語データフォーマットのツールキットを呼び出して、入力データを処理することにより、データ構造を変換してもよい。
原子的特徴管理層は、原子的特徴登録情報を記憶する。説明の便宜上、原子的特徴登録情報をfa_ruleで表す。fa_ruleには、いくつかの原子的特徴群識別子agidと、各agidとはマッピング関係がある特徴抽出関数faとが含まれる。ここで、faは、統一的なインスタンス構造を用いたデータを処理し、対応するagidと、afidからafvalueへのマッピングとを出力するためのものである。faは、実際の適用シナリオに応じて予め設定され、それに対応するagidとマッピング関係が確立されてもよい。
組み合わせ特徴管理層は、組み合わせ特徴登録情報を記憶する。説明の便宜上、組み合わせ特徴登録情報をfc_ruleで表す。fc_ruleには、組み合わせ特徴群識別子cgidと、cgidとはマッピング関係がある少なくとも2つのagidとが含まれる。説明すべきものとして、データ構造適応層、原子的特徴管理層、及び組み合わせ特徴管理層は、全て「登録」段階に属する。即ち、異なる種類の人工知能推奨モデルに適用される特徴抽出フレームワークは、いずれも統一的なデータ構造適応層、原子的特徴管理層、及び組み合わせ特徴管理層を使用することができる。
「設定」段階については、人工知能推奨モデル自体に関連する設定である。
モデル設定層では、予め登録しておいたfa_rule及びfc_ruleを基に、いくつかの原子的特徴及び/又はいくつかの組み合わせ特徴を選択して、モデル設定として特徴フレームワークに追加する。選択の根拠は、人工知能推奨モデルに対応する特徴群識別子集合(model_ruleと略称)である。特徴フレームワークにおいて、登録済みの原子的特徴及び組み合わせ特徴を参照して、1組のfaチェーン、即ち、fa_chainを生成する。該fa_chainは、後続の特徴抽出に用いられる。生成過程における擬似コードフローは、以下のとおりである。
関数:fa_chainの生成
入力:特徴群識別子集合model_rule(model_ruleは、gidの集合である)
入力:原子的特徴登録情報fa_rule(fa_ruleには、agidからfaへのマッピングが含まれる)
入力:組み合わせ特徴登録情報fc_rule(fc_ruleには、cgidから「agid集合」へのマッピングが含まれる)
出力:faチェーンfa_chain
fa_chainを初期化し、
model_ruleにおけるgidごとに、
gidがfa_ruleにおけるagidである場合、
fa_ruleにおいて、該gidとマッピングがあるfa、即ち、fa_rule[gid]を決定し、fa_rule[gid]をfa_chainに挿入し、
gidが、fa_ruleにおけるagidではなく、fc_ruleにおけるcgidである場合、
fc_ruleにおいて、該gidとマッピングがある「agid集合」、即ち、fc_rule[gid]を決定し、fc_rule[gid]におけるagidごとに、
agidとマッピングがあるfa、即ち、fa_rule[agid]がfa_chainに存在しない場合、
fa_rule[agid]をfa_chainに挿入し、
fa_chainを出力する。
特徴抽出層は、特徴抽出フレームワークのコア層であり、インスタンスの形式で、入力データに存在する一連の特徴を出力する。擬似コードは、以下のとおりである。
関数:インスタンスinstanceの取得
入力:model_rule、fa_rule、fc_rule、及びfa_chain
入力:オンラインの測定対象のデータ、又はオフラインの訓練データ(sで表す)
出力:1つのインスタンスinstance
instanceを初期化し、
sを、統一的なインスタンス構造を有するデータuに変換し、
マッピング配列mapを初期化し、
fa_chainにおけるfaごとに、
faに基づいて、uに対して特徴抽出処理を行うことにより、agidと、afidからafvalueへのマッピング(afid_afvalue_mapで表す)とを取得し、
map[agid]=afid_afvalue_mapのようにし、即ち、afid_afvalue_mapをmap[agid]の値とし、
model_ruleにおけるgidごとに、
gidがfa_ruleにおけるagidである場合、
instance[gid]=map[gid]のようにし、即ち、このgidとafid_afvalue_mapとの間の対応関係をインスタンスに記憶し、
gidが、fa_ruleにおけるagidではなく、fc_ruleにおけるcgidである場合、
組み合わせマッピング配列cross_mapを初期化し、
fc_ruleにおいて、該gidとマッピングがある「agid集合」、即ち、fc_rule[gid]を決定し、fc_rule[gid]におけるagidごとに、
cross_map[agid]=map[agid]のようにし、
instance[gid]=fc(cross_map)のようにし、即ち、組み合わせ特徴をinstanceに追加し(fcは特徴組み合わせ関数である)、
instanceを出力する。
ここで、特徴組み合わせ関数fcの擬似コードは、以下のとおりである。
関数:fc
入力:cross_map(agidから「afid_afvalue_map」へのマッピングを含む)
出力:cfidからcfvalueへのマッピング(cfid_cfvalue_mapで表す)
cross_mapにおける全てのagidを順次にagid_1、agid_2、…、agid_nで表し(nは1よりも大きい整数)、それに対応する「afid_afvalue_map」を順次にafid_afvalue_map_1、afid_afvalue_map_2、…、afid_afvalue_map_nで表し、
cfid_cfvalue_mapを初期化し、
afid_1、afid_2、…、afid_nに対して第1組み合わせ操作を実行することにより(第1組み合わせ操作は、ハッシュ操作、ビット論理和操作、ビット論理積操作、ビット排他的論理和操作を含むが、これらに限定されない)、cfidを取得し、
afvalue_1、afvalue_2、…、afvalue_nに対して第2組み合わせ操作を実行することにより(第2組み合わせ操作は、乗算操作、加算操作を含むが、これらに限定されない)、cfvalueを取得し、
cfid_cfvalue_map[cfid]=cfvalueのようにし、即ち、cfidとcfvalueとの間のマッピング関係を確立し、
cfid_cfvalue_mapを出力する。
上記の統一的な特徴フレームワークによれば、人工知能推奨モデルに対応する特徴群識別子集合に基づいて、変換後の入力データから特徴を抽出して、インスタンスを構成することができる。これにより、モデル訓練又はモデル予測のタスクが実行され、特徴の強い一貫性が向上し、2つのフレームワークを用いることに起因する抽出された特徴の差異が克服される。
以下、引き続いて、本願の実施例で提供される人工知能推奨モデルの特徴処理装置255がソフトウェアモジュールとして実施された例示的な構成を説明する。いくつかの実施例において、図3に示すように、メモリ250に記憶された人工知能推奨モデルの特徴処理装置255のソフトウェアモジュールは、
入力データを取得し、前記入力データのデータ構造を統一的なインスタンス構造に変換する変換モジュール2551と、
人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定する関数決定モジュール2552と、
前記特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値を取得する特徴抽出モジュール2553と、
前記人工知能推奨モデルに対応する特徴群識別子と、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値とに基づいて、前記人工知能推奨モデルのインスタンスを構築する構築モジュール2554と、を含んでもよい。
いくつかの実施例において、関数決定モジュール2552は、さらに、原子的特徴登録情報と、組み合わせ特徴登録情報とを取得し、人工知能推奨モデルに対応する特徴群識別子集合を取得し、前記特徴群識別子集合を走査し、走査される特徴群識別子が前記原子的特徴登録情報とマッチングする場合、前記原子的特徴登録情報における、前記特徴群識別子に対応する特徴抽出関数を特徴抽出関数チェーンに追加し、前記原子的特徴登録情報には、登録済みの原子的特徴群識別子と、それに対応する特徴抽出関数とが含まれ、前記組み合わせ特徴登録情報には、登録済みの組み合わせ特徴群識別子と、それに対応する少なくとも2つの原子的特徴群識別子が含まれる。
いくつかの実施例において、関数決定モジュール2552は、さらに、走査される特徴群識別子が、前記原子的特徴登録情報とマッチングしなくて、且つ前記組み合わせ特徴登録情報とマッチングする場合、前記組み合わせ特徴登録情報における、前記特徴群識別子に対応するターゲット原子的特徴群識別子を決定し、前記原子的特徴登録情報において、前記ターゲット原子的特徴群識別子に対応するターゲット特徴抽出関数を決定し、前記ターゲット特徴抽出関数が前記特徴抽出関数チェーンに存在しない場合、前記ターゲット特徴抽出関数を前記特徴抽出関数チェーンに追加する。
いくつかの実施例において、特徴抽出モジュール2553は、さらに、前記特徴抽出関数チェーンを走査し、走査される特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける原子的特徴群識別子、原子的特徴識別子、及び原子的特徴値を取得する。
いくつかの実施例において、構築モジュール2554は、さらに、前記特徴群識別子集合を走査し、走査される特徴群識別子が前記原子的特徴登録情報とマッチングする場合、前記特徴群識別子を追加対象の原子的特徴群識別子として決定し、前記追加対象の原子的特徴群識別子と、それに対応する原子的特徴識別子及び原子的特徴値とをインスタンスに追加する。
いくつかの実施例において、構築モジュール2554は、さらに、走査される特徴群識別子が、前記原子的特徴登録情報とマッチングしなくて、且つ前記組み合わせ特徴登録情報とマッチングする場合、前記特徴群識別子を追加対象の組み合わせ特徴群識別子として決定し、前記組み合わせ特徴登録情報における、前記追加対象の組み合わせ特徴群識別子に対応する少なくとも2つの追加対象の原子的特徴群識別子を決定し、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子及び原子的特徴値を決定し、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子を組み合わせ処理することにより、組み合わせ特徴識別子を取得し、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴値を組み合わせ処理することにより、組み合わせ特徴値を取得し、前記追加対象の組み合わせ特徴群識別子、前記組み合わせ特徴識別子、及び前記組み合わせ特徴値を前記インスタンスに追加する。
いくつかの実施例において、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子を組み合わせ処理することにより、組み合わせ特徴識別子を取得することは、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子に対して第1組み合わせ操作を実行することにより、組み合わせ特徴識別子を取得することを含み、前記第1組み合わせ操作には、ハッシュ操作、ビット論理和操作、ビット論理積操作、ビット排他的論理和操作の少なくとも1つが含まれ、
少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴値を組み合わせ処理することにより、組み合わせ特徴値を取得することは、少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴値に対して第2組み合わせ操作を実行することにより、組み合わせ特徴値を取得することを含み、前記第2組み合わせ操作には、乗算操作、加算操作の少なくとも1つが含まれる。
いくつかの実施例において、人工知能推奨モデルの特徴処理装置255は、前記入力データが訓練データである場合、前記インスタンスに基づいて前記人工知能推奨モデルを訓練する訓練モジュールと、前記入力データが測定対象のデータである場合、前記人工知能推奨モデルによって前記インスタンスに対して予測処理を行うことにより、推奨結果を取得する予測モジュールと、をさらに含む。
本願の実施例では、メモリとプロセッサとを備える電子機器を提供する。メモリには、コンピュータ読み取り可能な命令が記憶され、コンピュータ読み取り可能な命令は、プロセッサによって実行されると、プロセッサに上記の人工知能推奨モデルの特徴処理方法を実行させる。
本願の実施例では、コンピュータ読み取り可能な命令を記憶した記憶媒体を提供する。この記憶媒体には、コンピュータ読み取り可能な命令が記憶され、コンピュータ読み取り可能な命令は、プロセッサによって実行されると、本願の実施例で提供される人工知能推奨モデルの特徴処理方法、例えば、図4A及び図4Bに示す人工知能推奨モデルの特徴処理方法をプロセッサに実行させる。
いくつかの実施例において、記憶媒体は、FRAM(登録商標)、ROM、PROM、EPROM、EEPROM、フラッシュメモリ、磁気表面メモリ、光ディスク、又はCD-ROMなどのメモリであってもよく、上記のメモリのうちの1つ又は任意の組み合わせを含む各種の機器であってもよい。
いくつかの実施例において、コンピュータ読み取り可能な命令は、プログラム、ソフトウェア、ソフトウェアモジュール、スクリプト、又はコードの形式を採用して、任意の形式のプログラミング言語(コンパイル言語又はインタプリタ言語、或いは、宣言型言語又は手続き型言語を含む)でプログラミングされてもよく、独立したプログラムとして配置されたり、モジュール、コンポーネント、サブルーチン、又はコンピューティング環境に適用可能な他のユニットとして配置されたりする場合を含めて、任意の形式で配置されてもよい。
一例として、コンピュータ読み取り可能な命令は、ファイルシステムにおけるファイルに対応してもよいが、必ずしも、ファイルシステムにおけるファイルに対応するわけではなく、他のプログラム又はデータを保存するファイルの一部に記憶されてもよく、例えば、ハイパーテキストマークアップ言語(HTML:HyperText Markup Language)ドキュメントの1つ又は複数のスクリプトに記憶されたり、検討するプログラムの単一のファイルに記憶されたり、複数のコラボレーションファイル(例えば、1つ又は複数のモジュール、サブプログラム、又はコード部分を記憶するファイル)に記憶されたりしてもよい。
一例として、コンピュータ読み取り可能な命令は、1つのコンピューティングデバイスで実行されたり、1つの場所にある複数のコンピューティングデバイスで実行されたり、複数の場所に分散されて通信ネットワークを介して互いに接続される複数のコンピューティングデバイスで実行されたりするように配置されてもよい。
本願の実施例では、コンピュータプログラム製品又はコンピュータプログラムを提供する。このコンピュータプログラム製品又はコンピュータプログラムには、コンピュータ命令が含まれ、該コンピュータ命令がコンピュータ読み取り可能な記憶媒体に記憶される。コンピュータ機器のプロセッサは、コンピュータ読み取り可能な記憶媒体から、該コンピュータ命令を読み取る。プロセッサは、該コンピュータ命令を実行すると、該コンピュータ機器に上記の各方法の実施例のステップを実行させる。
理解すべきものとして、本願の各実施例における各ステップは、必ずしもステップ番号で示される順序に従って順次実行されるとは限らない。本明細書で明確に説明されない限り、これらのステップの実行順序には、厳しい制限がない。これらのステップは、他の順序で実行されてもよい。また、各実施例における少なくとも一部のステップは、複数のサブステップ又は複数の段階を含んでもよい。これらのサブステップ又は段階は、必ずしも同一の時刻に実行完了するとは限らず、異なる時刻に実行されてもよい。これらのサブステップ又は段階の実行順序も、必ずしも順次に実行するとは限らず、他のステップ、或いは、他のステップのサブステップ又は段階の少なくとも一部と代わる代わる又は交代で実行されてもよい。
上記のように、本願の実施例によれば、異なるソースからの入力データのデータ構造の差異が克服され、特徴抽出関数によって入力データを統一的に処理することにより、特徴抽出の柔軟性及び効率性が向上し、インスタンスにおける特徴の強い一貫性が確保され、大規模かつまばらな広告又は推奨業務のシナリオでは、インスタンス生成効果が良好である。ここでは、「大規模」とは、特徴の数が大きく、規模が億以上になり得ることを指し、「まばら」とは、各々のインスタンスに一部の特徴群の特徴の一部しか含まれず、規模が百又は千になり得ることを指す。
上記は、本願の実施例に過ぎず、本願の保護範囲を限定するものではない。本願の精神および範囲内で行われる種々の修正、均等置換え、及び改善などは全て本願の保護範囲内に含まれるべきである。
当業者であれば理解できるように、上記の実施例における方法のフローの全部又は一部は、コンピュータプログラムを介して関連のハードウェアに指示することにより実行されてもよい。前記プログラムは、不揮発性コンピュータ可読記憶媒体に記憶されてもよい。このプログラムが実行されると、上記のような各方法の実施例のフローが実行される。ここで、本願で提供される各実施例に使用されるメモリ、ストレージ、データベース、又は他の媒体へのいかなる引用でも、不揮発性メモリ及び/又は揮発性メモリを含んでもよい。不揮発性メモリは、読み出し専用メモリ(ROM)、プログラマブルROM(PROM)、電気的プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)、又はフラッシュメモリを含んでもよい。揮発性メモリは、ランダムアクセスメモリ(RAM)、又は外部キャッシュを含んでもよい。限定ではなく説明として、RAMは、例えば、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、エンハンスドSDRAM(ESDRAM)、シンクリンク(Synchlink)DRAM(SLDRAM)、ダイレクト・ラムバス(Rambus)RAM(RDRAM)、ダイレクト・ラムバス・ダイナミックRAM(DRDRAM)、及びラムバス・ダイナミックRAM(RDRAM)などの多くの形態で利用可能である。
100 人工知能推奨モデルの特徴処理システム
200 サーバ
300 ネットワーク
400-1 端末機器
400-2 端末機器
410-1 グラフィックインタフェース
410-2 グラフィックインタフェース
500 データベース
210 プロセッサ
220 ネットワークインタフェース
230 ユーザインタフェース
231 出力装置
232 入力装置
240 バスシステム
250 メモリ
251 オペレーティングシステム
252 ネットワーク通信モジュール
253 表現モジュール
254 入力処理モジュール
255 人工知能推奨モデルの特徴処理装置
2551 変換モジュール
2552 関数決定モジュール
2553 特徴抽出モジュール
2554 構築モジュール
1)インスタンス(instance):実例(example)やサンプル(sample)とも呼ばれ、人工知能推奨モデルに入力されて、対応するタスクを実行することに用いられる。通常、1つのインスタンスはいくつかの特徴群を含み、1つの特徴群はいくつかの特徴を含む、1つの特徴は特徴識別子と特徴値とを含む。
6)組み合わせ特徴:任意個の原子的特徴を組み合わせた新特徴である。組み合わせ特徴の特徴群識別子は、組み合わせ特徴群識別子と呼ばれ、cgidと略称される。組み合わせ特徴の特徴識別子は、組み合わせ特徴識別子と呼ばれ、cfidと略称される。組み合わせ特徴の特徴値は、組み合わせ特徴値と呼ばれ、cfvalueと略称される。例を挙げると、あるインスタンスが「ユーザ年齢_ユーザ性別:20_女:1」である場合、ここでのユーザ年齢_ユーザ性別は組み合わせ特徴群識別子であり、20_女は組み合わせ特徴識別子、1は組み合わせ特徴値であり、組み合わせ特徴値は、数値1の意味が「正しい」であり、数値0の意味が「間違う」であるとすれば、このインスタンスにおいて、ユーザ年齢が20であり、ユーザ性別が女であるという結果は正しい。
本願の実施例は、人工知能推奨モデルの種類を限定しない。例えば、人工知能推奨モデルは、線形回帰、サポートベクターマシン、又はニューラルネットワークを用いた推奨モデルであってもよい。本ステップでは、人工知能推奨モデルの設定に対応する特徴群識別子を決定する。該特徴群識別子は、原子的特徴群識別子及び/又は組み合わせ特徴群識別子を含み、実際の適用シナリオに応じて決定される。同じ業務タイプに適用する人工知能推奨モデルは、必要なデータに一定の共通性が存在する。このため、業務タイプごとに、それに対応する特徴群識別子を設定しておき、本ステップでは、人工知能推奨モデルの業務タイプに基づいて、それに対応する設定済みの特徴群識別子を決定するようにしてもよい。例えば、業務タイプは、ゲーム推奨、化粧品推奨、及びテレビドラマ推奨を含む。業務タイプごとに、それに対応する特徴群識別子を設定し、人工知能推奨モデルがゲーム推奨に適用されると決定した場合、ゲーム推奨タイプに対応する特徴群識別子を決定する。人工知能推奨モデルに対応する特徴群識別子を決定するとともに、人工知能推奨モデルに対応する特徴抽出関数を決定する。該特徴抽出関数は、予め設定されるものであり、且つ各々の特徴抽出関数は、1つの原子的特徴群識別子に対応している。特徴抽出関数は、変換後の入力データを解析することにより、原子的特徴群識別子と、原子的特徴群識別子に対応する原子的特徴識別子及び原子的特徴値とを取得するためのものである。特徴抽出関数を設定する際に、例えば、原子的特徴群識別子が「ユーザ年齢」であれば、特徴抽出関数に「ユーザ年齢」のフィールドを設定する。このように、特徴抽出関数を実行することにより、変換後の入力データから、「ユーザ年齢」である原子的特徴群識別子と、該原子的特徴群識別子に関連する原子的特徴識別子及び原子的特徴値を識別できる。
いくつかの実施例において、前記インスタンスに基づいて前記人工知能推奨モデルのコピーを訓練する前記ステップの前に、上記方法は、前記インスタンスに基づいて前記人工知能推奨モデルのコピーの第1正確率を決定するステップをさらに含む。
前記インスタンスに基づいて前記人工知能推奨モデルのコピーを訓練する前記ステップの後、上記方法は、新たな訓練データに対応するインスタンスに基づいて、訓練後の前記人工知能推奨モデルのコピーの第2正確率を決定するステップと、前記第2正確率が前記第1正確率を超える場合、訓練後の前記人工知能推奨モデルのコピーに基づいて、前記人工知能推奨モデルを更新するステップとをさらに含む。
いくつかの実施例において、前記インスタンスに基づいて前記人工知能推奨モデルを訓練する前記ステップの前に、上記方法は、特徴調整識別子と、それに対応する調整値とを取得するステップと、前記インスタンスにおいて、前記特徴調整識別子に合致する各群の特徴群識別子、特徴識別子、及び特徴値を調整対象のサブインスタンスとして決定するステップと、前記調整対象のサブインスタンスの重み値を前記調整値に更新するステップとをさらに含み、前記特徴調整識別子は、特徴群識別子と、特徴群識別子及び特徴識別子とのうちの1種である。
ステップ211では、走査される特徴群識別子が、前記原子的特徴登録情報とマッチングしなくて、且つ前記組み合わせ特徴登録情報とマッチングする場合、前記特徴群識別子を追加対象の組み合わせ特徴群識別子として決定する。
本願の実施例で提供される特徴抽出フレームワークの構成の模式図である図6を参照する。このフレームワークは、データ構造適応層と、原子的特徴管理層と、組み合わせ特徴管理層と、モデル設定層と、特徴抽出層とを含む。理解しやすくするために、以下、底から上へと、擬似コードを参照して、各層の機能を一々述べる。
本願の実施例では、コンピュータ読み取り可能な命令を記憶した記憶媒体を提供する。コンピュータ読み取り可能な命令は、プロセッサによって実行されると、本願の実施例で提供される人工知能推奨モデルの特徴処理方法、例えば、図4A及び図4Bに示す人工知能推奨モデルの特徴処理方法をプロセッサに実行させる。

Claims (20)

  1. 電子機器が実行する、人工知能推奨モデルの特徴処理方法であって、
    入力データを取得し、前記入力データのデータ構造を統一的なインスタンス構造に変換するステップと、
    人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定するステップと、
    前記特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値を取得するステップと、
    前記人工知能推奨モデルに対応する特徴群識別子と、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値とに基づいて、前記人工知能推奨モデルのインスタンスを構築するステップと、
    を含む特徴処理方法。
  2. 人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定する前記ステップは、
    原子的特徴登録情報と、組み合わせ特徴登録情報とを取得するステップであって、前記原子的特徴登録情報には、登録済みの原子的特徴群識別子と、それに対応する特徴抽出関数とが含まれ、前記組み合わせ特徴登録情報には、登録済みの組み合わせ特徴群識別子と、それに対応する少なくとも2つの原子的特徴群識別子が含まれる、ステップと、
    人工知能推奨モデルに対応する特徴群識別子集合を取得し、前記特徴群識別子集合を走査するステップと、
    走査される特徴群識別子が前記原子的特徴登録情報とマッチングする場合、前記原子的特徴登録情報における、前記特徴群識別子に対応する特徴抽出関数を特徴抽出関数チェーンに追加するステップと、を含む、
    ことを特徴とする請求項1に記載の特徴処理方法。
  3. 走査される特徴群識別子が、前記原子的特徴登録情報とマッチングしなくて、且つ前記組み合わせ特徴登録情報とマッチングする場合、前記組み合わせ特徴登録情報における、前記特徴群識別子に対応するターゲット原子的特徴群識別子を決定するステップと、
    前記原子的特徴登録情報において、前記ターゲット原子的特徴群識別子に対応するターゲット特徴抽出関数を決定するステップと、
    前記ターゲット特徴抽出関数が前記特徴抽出関数チェーンに存在しない場合、前記ターゲット特徴抽出関数を前記特徴抽出関数チェーンに追加するステップと、
    をさらに含むことを特徴とする請求項2に記載の特徴処理方法。
  4. 前記特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値を取得する前記ステップは、
    前記特徴抽出関数チェーンを走査するステップと、
    走査される特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける原子的特徴群識別子、原子的特徴識別子、及び原子的特徴値を取得するステップと、を含む、
    ことを特徴とする請求項2に記載の特徴処理方法。
  5. 前記人工知能推奨モデルに対応する特徴群識別子と、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値とに基づいて、前記人工知能推奨モデルのインスタンスを構築する前記ステップは、
    前記特徴群識別子集合を走査するステップと、
    走査される特徴群識別子が前記原子的特徴登録情報とマッチングする場合、前記特徴群識別子を追加対象の原子的特徴群識別子として決定し、前記追加対象の原子的特徴群識別子と、それに対応する原子的特徴識別子及び原子的特徴値とをインスタンスに追加するステップと、を含む、
    ことを特徴とする請求項4に記載の特徴処理方法。
  6. 走査される特徴群識別子が、前記原子的特徴登録情報とマッチングしなくて、且つ前記組み合わせ特徴登録情報とマッチングする場合、前記特徴群識別子を追加対象の組み合わせ特徴群識別子として決定するステップと、
    前記組み合わせ特徴登録情報における、前記追加対象の組み合わせ特徴群識別子に対応する少なくとも2つの追加対象の原子的特徴群識別子を決定し、前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子及び原子的特徴値を決定するステップと、
    前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子を組み合わせ処理することにより、組み合わせ特徴識別子を取得し、前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴値を組み合わせ処理することにより、組み合わせ特徴値を取得するステップと、
    前記追加対象の組み合わせ特徴群識別子、前記組み合わせ特徴識別子、及び前記組み合わせ特徴値を前記インスタンスに追加するステップと、をさらに含む、
    ことを特徴とする請求項5に記載の特徴処理方法。
  7. 前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子を組み合わせ処理することにより、組み合わせ特徴識別子を取得する前記ステップは、
    前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子に対して第1組み合わせ操作を実行することにより、組み合わせ特徴識別子を取得するステップであって、前記第1組み合わせ操作には、ハッシュ操作、ビット論理和操作、ビット論理積操作、ビット排他的論理和操作の少なくとも1つが含まれる、ステップを含み、
    前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴値を組み合わせ処理することにより、組み合わせ特徴値を取得する前記ステップは、
    前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴値に対して第2組み合わせ操作を実行することにより、組み合わせ特徴値を取得するステップであって、前記第2組み合わせ操作には、乗算操作、加算操作の少なくとも1つが含まれる、ステップを含む、
    ことを特徴とする請求項6に記載の特徴処理方法。
  8. 前記入力データが訓練データである場合、前記インスタンスに基づいて前記人工知能推奨モデルを訓練するステップと、
    前記入力データが測定対象のデータである場合、前記人工知能推奨モデルによって前記インスタンスに対して予測処理を行うことにより、推奨結果を取得するステップと、をさらに含む、
    ことを特徴とする請求項1乃至7のいずれか1項に記載の特徴処理方法。
  9. 前記インスタンスに基づいて前記人工知能推奨モデルを訓練する前記ステップは、
    前記人工知能推奨モデルのコピーを作成するステップと、
    前記インスタンスに基づいて前記人工知能推奨モデルのコピーを訓練するステップと、を含む、
    ことを特徴とする請求項8に記載の特徴処理方法。
  10. 前記インスタンスに基づいて前記人工知能推奨モデルのコピーを訓練する前記ステップの前に、
    前記インスタンスに基づいて前記人工知能推奨モデルのコピーの第1正確率を決定するステップをさらに含み、
    前記インスタンスに基づいて前記人工知能推奨モデルのコピーを訓練する前記ステップの後、
    新たな訓練データに対応するインスタンスに基づいて、訓練後の前記人工知能推奨モデルのコピーの第2正確率を決定するステップと、
    前記第2正確率が前記第1正確率を超える場合、訓練後の前記人工知能推奨モデルのコピーに基づいて、前記人工知能推奨モデルを更新するステップと、をさらに含む、
    ことを特徴とする請求項9に記載の特徴処理方法。
  11. 訓練後の前記人工知能推奨モデルのコピーに基づいて、前記人工知能推奨モデルを更新する前記ステップは、
    訓練データの生成率を取得するステップと、
    前記生成率が生成率閾値よりも低い場合、訓練後の前記人工知能推奨モデルのコピーに基づいて、前記人工知能推奨モデルを更新するステップと、を含む、
    ことを特徴とする請求項10に記載の特徴処理方法。
  12. 前記インスタンスに基づいて前記人工知能推奨モデルを訓練する前記ステップの前に、
    特徴調整識別子と、それに対応する調整値とを取得するステップと、
    前記インスタンスにおいて、前記特徴調整識別子に合致する各群の特徴群識別子、特徴識別子、及び特徴値を調整対象のサブインスタンスとして決定するステップと、
    前記調整対象のサブインスタンスの重み値を前記調整値に更新するステップと、をさらに含み、
    前記特徴調整識別子は、特徴群識別子と、特徴群識別子及び特徴識別子とのうちの1種である、
    ことを特徴とする請求項8に記載の特徴処理方法。
  13. 人工知能推奨モデルの特徴処理装置であって、
    入力データを取得し、前記入力データのデータ構造を統一的なインスタンス構造に変換する変換モジュールと、
    人工知能推奨モデルに対応する特徴群識別子及び特徴抽出関数を決定する関数決定モジュールと、
    前記特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値を取得する特徴抽出モジュールと、
    前記人工知能推奨モデルに対応する特徴群識別子と、前記入力データにおける特徴群識別子、特徴識別子、及び特徴値とに基づいて、前記人工知能推奨モデルのインスタンスを構築する構築モジュールと、
    を含む特徴処理装置。
  14. 前記関数決定モジュールは、さらに、原子的特徴登録情報と、組み合わせ特徴登録情報とを取得し、人工知能推奨モデルに対応する特徴群識別子集合を取得し、前記特徴群識別子集合を走査し、走査される特徴群識別子が前記原子的特徴登録情報とマッチングする場合、前記原子的特徴登録情報における、前記特徴群識別子に対応する特徴抽出関数を特徴抽出関数チェーンに追加し、前記原子的特徴登録情報には、登録済みの原子的特徴群識別子と、それに対応する特徴抽出関数とが含まれ、前記組み合わせ特徴登録情報には、登録済みの組み合わせ特徴群識別子と、それに対応する少なくとも2つの原子的特徴群識別子が含まれる、
    ことを特徴とする請求項13に記載の特徴処理装置。
  15. 前記関数決定モジュールは、さらに、走査される特徴群識別子が、前記原子的特徴登録情報とマッチングしなくて、且つ前記組み合わせ特徴登録情報とマッチングする場合、前記組み合わせ特徴登録情報における、前記特徴群識別子に対応するターゲット原子的特徴群識別子を決定し、前記原子的特徴登録情報において、前記ターゲット原子的特徴群識別子に対応するターゲット特徴抽出関数を決定し、前記ターゲット特徴抽出関数が前記特徴抽出関数チェーンに存在しない場合、前記ターゲット特徴抽出関数を前記特徴抽出関数チェーンに追加する、
    ことを特徴とする請求項14に記載の特徴処理装置。
  16. 前記特徴抽出モジュールは、さらに、前記特徴抽出関数チェーンを走査し、走査される特徴抽出関数に基づいて、変換後の前記入力データに対して特徴抽出処理を行うことにより、前記入力データにおける原子的特徴群識別子、原子的特徴識別子、及び原子的特徴値を取得する、
    ことを特徴とする請求項13に記載の特徴処理装置。
  17. 前記構築モジュールは、さらに、前記特徴群識別子集合を走査し、走査される特徴群識別子が前記原子的特徴登録情報とマッチングする場合、前記特徴群識別子を追加対象の原子的特徴群識別子として決定し、前記追加対象の原子的特徴群識別子と、それに対応する原子的特徴識別子及び原子的特徴値とをインスタンスに追加する、
    ことを特徴とする請求項16に記載の特徴処理装置。
  18. 前記構築モジュールは、さらに、走査される特徴群識別子が、前記原子的特徴登録情報とマッチングしなくて、且つ前記組み合わせ特徴登録情報とマッチングする場合、前記特徴群識別子を追加対象の組み合わせ特徴群識別子として決定し、前記組み合わせ特徴登録情報における、前記追加対象の組み合わせ特徴群識別子に対応する少なくとも2つの追加対象の原子的特徴群識別子を決定し、前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子及び原子的特徴値を決定し、前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴識別子を組み合わせ処理することにより、組み合わせ特徴識別子を取得し、前記少なくとも2つの追加対象の原子的特徴群識別子に対応する原子的特徴値を組み合わせ処理することにより、組み合わせ特徴値を取得し、前記追加対象の組み合わせ特徴群識別子、前記組み合わせ特徴識別子、及び前記組み合わせ特徴値を前記インスタンスに追加する、
    ことを特徴とする請求項17に記載の特徴処理装置。
  19. メモリとプロセッサとを備える電子機器であって、前記メモリには、コンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令は、前記プロセッサによって実行されると、前記プロセッサに前記請求項1乃至12のいずれか1項に記載の方法を実行させる電子機器。
  20. コンピュータ読み取り可能な命令を記憶した1つ又は複数の不揮発性記憶媒体であって、前記コンピュータ読み取り可能な命令は、1つ又は複数のプロセッサによって実行されると、1つ又は複数のプロセッサに前記請求項1乃至12のいずれか1項に記載の方法を実行させる記憶媒体。
JP2021561988A 2019-08-29 2020-07-21 人工知能推奨モデルの特徴処理方法、装置、電子機器、及びコンピュータプログラム Active JP7206419B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910810105.6A CN110516815A (zh) 2019-08-29 2019-08-29 人工智能推荐模型的特征处理方法、装置及电子设备
CN201910810105.6 2019-08-29
PCT/CN2020/103256 WO2021036589A1 (zh) 2019-08-29 2020-07-21 人工智能推荐模型的特征处理方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022529178A true JP2022529178A (ja) 2022-06-17
JP7206419B2 JP7206419B2 (ja) 2023-01-17

Family

ID=68628133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021561988A Active JP7206419B2 (ja) 2019-08-29 2020-07-21 人工知能推奨モデルの特徴処理方法、装置、電子機器、及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US20220020064A1 (ja)
JP (1) JP7206419B2 (ja)
CN (1) CN110516815A (ja)
WO (1) WO2021036589A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102545575B1 (ko) * 2022-07-21 2023-06-21 (주)시큐레이어 고객군별 특성에 따른 이중화 서비스 플로우를 적용한 플랫폼을 통한 ai모델 자동추천 구독 서비스 방법 및 서버

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516815A (zh) * 2019-08-29 2019-11-29 腾讯科技(深圳)有限公司 人工智能推荐模型的特征处理方法、装置及电子设备
CN111144578B (zh) * 2019-12-27 2023-07-28 创新奇智(重庆)科技有限公司 一种分布式环境下的人工智能模型管理系统及管理方法
CN111753994B (zh) * 2020-06-22 2023-11-03 深圳鲲云信息科技有限公司 Ai芯片的数据处理方法、装置和计算机设备
CN112270586B (zh) * 2020-11-12 2024-01-02 广东烟草广州市有限公司 一种基于线性回归的遍历方法、系统、设备和存储介质
CN113641337A (zh) * 2021-07-13 2021-11-12 广州三七互娱科技有限公司 数据处理方法、装置、计算机设备和存储介质
CN116828486A (zh) * 2022-03-21 2023-09-29 华为技术有限公司 一种通信方法及相关装置
CN115099352A (zh) * 2022-07-05 2022-09-23 北京火山引擎科技有限公司 模型训练系统、模型训练方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105589971A (zh) * 2016-01-08 2016-05-18 车智互联(北京)科技有限公司 训练推荐模型的方法、装置及推荐系统
WO2019043163A1 (en) * 2017-08-31 2019-03-07 Kbc Groep Nv ENHANCED ANOMALY DETECTION
JP2019057016A (ja) * 2017-09-20 2019-04-11 日本電信電話株式会社 分類装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056427A (zh) * 2016-05-25 2016-10-26 中南大学 一种基于Spark的大数据混合模型的移动推荐方法
US10970605B2 (en) * 2017-01-03 2021-04-06 Samsung Electronics Co., Ltd. Electronic apparatus and method of operating the same
CN109325167B (zh) * 2017-07-31 2022-02-18 株式会社理光 特征分析方法、装置、设备、计算机可读存储介质
CN107292298B (zh) * 2017-08-09 2018-04-20 北方民族大学 基于卷积神经网络和分类器模型的牛脸识别方法
EP3480714A1 (en) * 2017-11-03 2019-05-08 Tata Consultancy Services Limited Signal analysis systems and methods for features extraction and interpretation thereof
CN109086312B (zh) * 2018-06-26 2020-09-25 湘潭大学 一种区域综合能源系统多能流网络的数据表示方法及系统
CN108879692B (zh) * 2018-06-26 2020-09-25 湘潭大学 一种区域综合能源系统能流分布预测方法及系统
CN109635993A (zh) * 2018-10-23 2019-04-16 平安科技(深圳)有限公司 基于预测模型的操作行为监控方法及装置
CN109902222B (zh) * 2018-11-30 2022-05-13 华为技术有限公司 一种推荐方法及装置
CN110516815A (zh) * 2019-08-29 2019-11-29 腾讯科技(深圳)有限公司 人工智能推荐模型的特征处理方法、装置及电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105589971A (zh) * 2016-01-08 2016-05-18 车智互联(北京)科技有限公司 训练推荐模型的方法、装置及推荐系统
WO2019043163A1 (en) * 2017-08-31 2019-03-07 Kbc Groep Nv ENHANCED ANOMALY DETECTION
JP2019057016A (ja) * 2017-09-20 2019-04-11 日本電信電話株式会社 分類装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102545575B1 (ko) * 2022-07-21 2023-06-21 (주)시큐레이어 고객군별 특성에 따른 이중화 서비스 플로우를 적용한 플랫폼을 통한 ai모델 자동추천 구독 서비스 방법 및 서버

Also Published As

Publication number Publication date
WO2021036589A1 (zh) 2021-03-04
CN110516815A (zh) 2019-11-29
US20220020064A1 (en) 2022-01-20
JP7206419B2 (ja) 2023-01-17

Similar Documents

Publication Publication Date Title
JP2022529178A (ja) 人工知能推奨モデルの特徴処理方法、装置、電子機器、及びコンピュータプログラム
JP7166322B2 (ja) モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
CN109902186B (zh) 用于生成神经网络的方法和装置
US20190005399A1 (en) Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium
US9015657B2 (en) Systems and methods for developing and delivering platform adaptive web and native application content
KR20180091043A (ko) 사용자 포트레이트를 획득하는 방법 및 장치
US20210163874A1 (en) Program for operating cell culture support apparatus, cell culture support apparatus, and method for operating cell culture support apparatus
KR20210040316A (ko) 사용자 상호작용 정보 처리모델 생성방법, 사용자 상호작용 정보 처리방법 및 프로그램
US10810018B2 (en) Device with extensibility
CN109740167B (zh) 用于生成信息的方法和装置
CN111666416B (zh) 用于生成语义匹配模型的方法和装置
JP2023512135A (ja) オブジェクト推薦方法及び装置、コンピュータ機器並びに媒体
CN113762502B (zh) 神经网络模型的训练方法及装置
CN111159220A (zh) 用于输出结构化查询语句的方法和装置
US20190354533A1 (en) Information processing device, information processing method, and non-transitory computer-readable recording medium
CN111783873A (zh) 基于增量朴素贝叶斯模型的用户画像方法及装置
JPWO2018079225A1 (ja) 自動予測システム、自動予測方法および自動予測プログラム
CN114035793A (zh) 页面生成方法、页面生成装置、设备及存储介质
CN114341795A (zh) 用于系统设计的会话设计机器人
CN111090740B (zh) 一种用于对话系统的知识图谱生成方法
US20230012316A1 (en) Automation of leave request process
KR20230065339A (ko) 모델 데이터 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 매체
CN115080039A (zh) 前端代码生成方法、装置、计算机设备、存储介质和产品
KR20210148877A (ko) 전자 장치 및 이의 제어 방법
JP7099254B2 (ja) 学習方法、学習プログラム及び学習装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230104

R150 Certificate of patent or registration of utility model

Ref document number: 7206419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150