JP2023545593A - データ測定方法、装置、電子機器及びコンピュータ可読媒体 - Google Patents

データ測定方法、装置、電子機器及びコンピュータ可読媒体 Download PDF

Info

Publication number
JP2023545593A
JP2023545593A JP2022539397A JP2022539397A JP2023545593A JP 2023545593 A JP2023545593 A JP 2023545593A JP 2022539397 A JP2022539397 A JP 2022539397A JP 2022539397 A JP2022539397 A JP 2022539397A JP 2023545593 A JP2023545593 A JP 2023545593A
Authority
JP
Japan
Prior art keywords
training
target
model
deep learning
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022539397A
Other languages
English (en)
Inventor
敏 張
慶 高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ennew Digital Technology Co Ltd
Original Assignee
Ennew Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ennew Digital Technology Co Ltd filed Critical Ennew Digital Technology Co Ltd
Publication of JP2023545593A publication Critical patent/JP2023545593A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/44Program or device authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2350/00Solving problems of bandwidth in display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Debugging And Monitoring (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【要約】データ測定方法、装置、電子機器及びコンピュータ可読媒体であって、該方法の一実施形態は、データセットを取得することと、データセットを事前トレーニング済みの深層学習ネットワークに入力し、処理結果を出力することと、を含み、深層学習ネットワークは、サンプルセットをトレーニングすることにより得られ、深層学習ネットワークのトレーニングは、対象ユーザーのトレーニング要求を受信したことに応答して、対象ユーザーの身分情報を取得することと、身分情報に対して検証を行い、検証に合格したか否かを確定することと、身分情報の検証に合格したと確定することに応答して、対象トレーニングエンジンがトレーニングを開始するように制御することと、前記処理結果を測定結果として確定するとともに、表示機能を有する対象装置が前記測定結果を表示するように制御することと、を含む。本開示は、データセットを事前トレーニング済みの深層学習ネットワークに入力することにより、ユーザーのニーズに合致する測定結果を取得することができる。ユーザーのデータ計算に対する需要を満たし、ユーザーの後続きのデータ使用に利便性を提供する。【選択図】 図1

Description

本開示の実施例は、コンピュータの技術分野に関し、具体的にデータ測定方法、装置、電子機器及びコンピュータ可読媒体に関する。
インターネット技術の発展に伴い、人々はビッグデータの時代に入る。異なる分野の異なる業界で、異なるデータを生成し、人々は常に得られたデータを利用して計算して業界の発展及び産業生産を理解する。データ量が膨大であるため、一般的にいくつかのプログラム、サービスソフトウェアを介してユーザーのデータ計算に対する需要を満たす。これにより、効率的で、管理しやすいデータ測定方法が要求されている。
本開示の内容部分は簡単な形式で思想を説明するために用いられ、これらの思想はその後の具体的な実施形態部分で詳細に説明される。本開示の内容部分は特許請求している技術的解決手段の重要な構成又は必要な構成を識別することを意図せず、特許請求している技術的解決手段の範囲を制限することを意図しない。
本開示のいくつかの実施例はデータ測定方法、装置、電子機器及びコンピュータ可読媒体を提供することにより、上記背景技術の部分に言及された技術的問題を解決する。
第一態様において、本開示のいくつかの実施例は、データセットを取得すること、前記データセットを処理し、処理結果を取得すること、前記処理結果を測定結果として確定し、且つ表示機能を有する対象装置が前記測定結果を表示するように制御すること、を含むデータ測定方法を提供する。
第二態様において、本開示のいくつかの実施例は、データセットを取得するように配置される取得ユニットと、前記データセットを処理し、処理結果を取得するように配置される処理ユニットと、前記処理結果を測定結果として確定するとともに、表示機能を有する対象装置が前記測定結果を表示するように制御するように配置される表示ユニットと、を含むデータ測定装置を提供する。
第三態様において、本開示のいくつかの実施例は、一つ又は複数のプロセッサと、一つ又は複数のプログラムが記憶された記憶装置と、を含み、一つ又は複数のプログラムが一つ又は複数のプロセッサにより実行されると、一つ又は複数のプロセッサが第一態様に記載の方法を実現する電子機器を提供する。
第四態様において、本開示のいくつかの実施例は、コンピュータプログラムが記憶されるものであって、プログラムがプロセッサにより実行される時に第一態様に記載の方法を実現するコンピュータ可読媒体を提供する。
本開示の上記各実施例のうちの一つの実施例は、以下の有益な効果を有する。データセットを事前トレーニング済みの深層学習ネットワークに入力することにより、ユーザーのニーズに合致する測定結果を取得することができる。ユーザーのデータ計算に対する需要を満たし、ユーザーの後続きのデータ使用に利便性を提供する。
図面を参照して下記の具体的な実施形態を参照すると、本開示の各実施例の上記及びその他の構成、利点及び態様はより明らかになる。添付図面に渡り、同一又は類似の図面符号は同一又は類似の要素を示す。図面は例示的なものであり、素子及び要素は必ずしも割合に応じて描かれないと理解すべきである。
本開示のいくつかの実施例に係るデータ測定方法の一適用シナリオの概略図である。 本開示に係るデータ測定方法のいくつかの実施例のフローチャートである。 本開示に係るデータ測定方法の深層学習ネットワークのトレーニングのいくつかの実施例のフローチャートである。 本開示に係るデータ測定装置のいくつかの実施例の構造概略図である。 本開示のいくつかの実施例を実現するための電子機器の構造概略図である。
以下、添付図面を参照しながら、本開示の実施例をより詳細に説明する。図面において本開示のいくつかの実施例を示すが、理解すべきこととして、本開示は様々な形式で実現することができ、ここで説明された実施例に限定されると解釈すべきではない。逆に、これらの実施例を提供することは本開示をより徹底で完全に理解するためである。理解すべきこととしては、本開示の図面及び実施例は例示的なもののみに用いられ、本開示の保護範囲を限定するものではない。
また、説明する必要があることは、説明しやすくするために、図面には、関連発明に関連する部分のみを示す。干渉しない場合に、本開示における実施例及び実施例における特徴は互いに組み合わせることができる。
注意すべきこととして、本開示に言及された「第一」、「第二」などの概念は異なる装置、モジュール又はユニットを区別するためのみに用いられ、これらの装置、モジュール又はユニットが実行する機能の順序又は相互依存関係を限定するために用いられない。
注意すべきこととして、本開示に言及された「一つ」、「複数」の修飾は例示的で、制限的なものではなく、当業者であれば理解すべきことは、文脈に明確に指摘されない限り、「一つ又は複数」と理解すべきである。
本開示の実施形態における複数の装置間で交換されるメッセージ又は情報の名称は、説明的な目的のみに用いられ、これらのメッセージ又は情報の範囲を制限するものではない。
以下、図面を参照しながら実施例を合わせて本発明を詳細に説明する。
図1は本開示のいくつかの実施例に係るデータ測定方法の一適用シナリオの概略図である。
図1の適用シナリオにおいて、まず、計算装置101はデータセット102を取得することができる。そして、計算装置101はデータセット102を事前トレーニング済みの深層学習ネットワークに入力して処理結果103を出力することができる。最後に、計算装置101は処理結果103を測定結果104として確定することができる。また、計算装置101は、表示機能を有する対象装置が測定結果104を表示するように制御することができる。
説明すべきこととして、上記計算装置101はハードウェアであってもよく、ソフトウェアであってもよい。計算装置がハードウェアである場合には、複数のサーバ又は端末装置から構成された分散クラスタとして実現されてもよく、単一のサーバ又は単一の端末装置として実現されてもよい。計算装置がソフトウェアとして具現化される場合には、上記例示されたハードウェア装置にインストールされることができる。それは、例えば分散サービスを提供するための複数のソフトウェア又はソフトウェアモジュールとして実現されてもよく、単一のソフトウェア又はソフトウェアモジュールとして実現されてもよい。ここで具体的に限定されるものではない。
理解されるように、図1における計算装置の数は単に例示的なものである。実現需要に応じて、任意の数の計算装置があってもよい。
引き続き図2を参照すると、本開示に係るデータ測定方法のいくつかの実施例のフロー200を示す。この方法は、図1の計算装置101により実行されることができる。このデータ測定方法は、以下のステップを含む。
ステップ201であって、データセットを取得する。
いくつかの実施例において、データ測定方法の実行主体(図1に示す計算装置101)は、有線接続方式又は無線接続方式によりデータセットを取得することができる。例えば、上記実行主体はユーザーが入力したデータセットを上記データセットとして受信することができる。また例えば、上記実行主体は有線接続方式又は無線接続方式により他の電子機器に接続され、接続された電子機器のデータベース内のデータセットを上記データセットとして取得することができる。
指摘すべきこととして、上記無線接続方式は3G/4 G接続、WiFi接続、ブルートゥース接続、WiMAX接続、Zigbee接続、UWB(ultra wideband)接続、及び他の現在既知又は将来開発される無線接続方式を含むが、これらに限定されない。
ステップ202であって、前記データセットを事前トレーニング済みの深層学習ネットワークに入力し、処理結果を出力する。
いくつかの実施例において、上記実行主体は、上記データセットを事前トレーニング済みの深層学習ネットワークに入力し、処理結果を出力することができる。ここで、深層学習ネットワークの入力はデータセットであってもよく、出力は処理結果であってもよい。例示として、上記深層学習ネットワークはリカレントニューラルネットワーク(Recurrent Neural Network、RNN)であってもよく、長短期記憶ネットワーク(Long Short-Term Memory networks、LSTM)であってもよい。
例示として、データセットは「煙道ガス温度、煙道ガス流量、煙道ガス湿度、蒸気流量、及びエコノマイザーの出口温度」であってもよい。出力された処理結果はボイラ煙道ガス酸素含有量であってもい。
いくつかの実施例において、上記深層学習ネットワークのトレーニングは、対象ユーザーのトレーニング要求を受信したことに応答して、前記対象ユーザーの身分情報を取得することと、前記身分情報に対して検証を行い、検証に合格したか否かを確定することと、前記身分情報の検証に合格したと確定することに応答して、対象トレーニングエンジンがトレーニングを開始するように制御することと、を含む。
ステップ203であって、前記処理結果を測定結果として確定するとともに、表示機能を有する対象装置が前記測定結果を表示するように制御する。
いくつかの実施例において、上記実行主体は、上記処理結果を測定結果として確定することができる。そして、上記実行主体は、上記測定結果を表示機能を有する対象装置にプッシュするとともに、上記対象装置が上記測定結果を表示するように制御することができる。
本開示の上記各実施例のうちの一つの実施例は、以下の有益な効果を有する。データセットを事前トレーニング済みの深層学習ネットワークに入力することにより、ユーザーのニーズに合致する測定結果を取得することができる。ユーザーのデータ計算に対する需要を満たし、ユーザーの後続きのデータ使用に利便性を提供する。
引き続き図3を参照すると、本開示に係るデータ測定方法の深層学習ネットワークのトレーニングのいくつかの実施例のフローチャート300を示す。この方法は、図1の計算装置101により実行されることができる。このデータ測定方法は、以下のステップを含む。
ステップ301であって、対象ユーザーのトレーニング要求を受信したことに応答して、前記対象ユーザーの身分情報を取得する。
いくつかの実施例において、データ測定方法の実行主体(例えば、図1に示す計算装置101)は、上記対象ユーザーのトレーニング要求を受信したことに応答し、上記実行主体は上記対象ユーザーの身分情報を取得することができる。ここで、トレーニング要求はモデルに対してトレーニングを開始する指令であってもよい。対象ユーザーは、トレーニング要求を有し、予め設定された登録、認証等により検証されたユーザーであってもよい。
ステップ302であって、前記身分情報に対して検証を行い、検証に合格したか否かを確定する。
いくつかの実施例において、上記実行主体は、上記身分情報に対して検証を行い、検証に合格したか否かを確定することができる。例示として、上記実行主体は、上記身分情報に基づいて、予め構築された身分情報ベースを検索し、上記身分情報ベースに上記身分情報が存在するか否かを確定する。存在を確定することに応答して、上記実行主体は、上記検証が成功したことを確定することができる。
ステップ303であって、前記身分情報の検証に合格したと確定することに応答して、対象トレーニングエンジンがトレーニングを開始するように制御する。
いくつかの実施例において、上記身分情報の検証に合格したと確定することに応答して、上記実行主体は対象トレーニングエンジンがトレーニングを開始するように制御することができる。トレーニングエンジンは、様々なアルゴリズム選択モジュールをサポートすることにより、異なるサービスシーンの需要に応じて深層学習ネットワークのトレーニングへサポートを提供するエンジンであってもよい。
ステップ304であって、前記対象ユーザーのトレーニングモデルライブラリにおけるトレーニングモデルに対する選択操作を検出したことに応答して、前記トレーニングエンジンに対して検証を行い、検証に合格したか否かを確定する。
いくつかの実施例において、上記対象ユーザーのトレーニングモデルライブラリにおけるトレーニングモデルに対する選択操作を検出したことに応答して、上記実行主体は、上記対象トレーニングエンジンに対して検証を行うことができる。ここで、トレーニングモデルライブラリはユーザーが選択したユーザーのニーズを満たすためのトレーニングモデルのセットであってもよい。例示として、上記実行主体は、上記対象トレーニングエンジンに対して権限検証を行い、上記対象トレーニングエンジンに、対象ユーザーが選択したトレーニングモデルのトレーニングをサポートする権限があるか否かを確定することができる。
例示として、トレーニングモデルライブラリは、「トレーニングモデルA、トレーニングモデルB、トレーニングモデルC」であってもよい。対象エンジンのトレーニング権限は、「トレーニングモデルA及びトレーニングモデルC」であってもよい。対象ユーザーが選択したトレーニングモデルが「トレーニングモデルB」であれば、上記実行主体は上記対象トレーニングエンジンに対する検証に合格しないと確定することができる。逆に、上記実行主体は上記対象トレーニングエンジンに対する検証に合格したと確定することができる。
ステップ305であって、前記対象トレーニングエンジンの検証に合格したと確定することに応答して、初期モデルを前記対象ユーザーの端末装置に転送する。
いくつかの実施例において、上記対象トレーニングエンジンの検証に合格したと確定することに応じて、上記実行主体は、初期モデルを上記対象ユーザーの端末装置に転送することができる。ここで、上記初期モデルはトレーニングされないモデル、又はトレーニングされた後に所定の条件に達しないモデルであってもよい。上記初期モデルは、ディープニューラルネットワーク構造を有するモデルであってもよい。予めトレーニングされた特徴抽出モデルは、予めトレーニングされた、特徴を抽出するためのニューラルネットワークモデルであってもよい。このニューラルネットワークモデルは、既存の様々なニューラルネットワーク構造を有することができる。例えば、ニューラルネットワーク構造は畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)であってもよい。初期モデルは、極端勾配向上(e Xtreme Gradient Boosting、XGBoost)を採用することができる。初期モデルの格納位置は、本開示においても限定されない。
ステップ306であって、取得したトレーニングサンプルセットを利用して、前記初期モデルをトレーニングし、トレーニング完了の初期モデルを取得する。
いくつかの実施例において、上記実行主体は、上記取得したレーニングサンプルセットを利用して、上記初期モデルに対してトレーニングを開始することができ、トレーニング過程は以下のとおりである。ステップ1では、上記トレーニングサンプルセットからトレーニングサンプルを選択し、ここで、トレーニングサンプルは、サンプルデータセット及びサンプル処理結果を含み、ステップ2では、上記実行主体は、トレーニングサンプルにおけるサンプルデータセットを上記初期モデルに入力することができ、ステップ3では、出力された処理結果を上記サンプル処理結果と比較して、処理結果損失値を取得し、ステップ4では、上記実行主体は、上記処理結果損失値を予め設定された閾値と比較して、比較結果を取得することができ、ステップ5では、比較結果に基づいて上記初期モデルがトレーニングを完了したか否かを確定し、ステップ6では、上記初期トレーニングモデルのトレーニングを完了したことに応答して、上記初期モデルをトレーニング完了の初期モデルとして確定する。ここで、上記取得したトレーニングサンプルセットは対象ユーザーの端末装置のローカルデータであってもよい。
上記処理結果の損失値は、上記出力された処理結果と対応するサンプル処理結果をパラメータとして入力され実行された損失関数から得られた値であってもよい。ここで、損失関数(例えば二乗損失関数、指数損失関数等)は、一般的にモデルの予測値(例えば該サンプルデータセットに対応する上記サンプル処理結果)と真値(例えば上記ステップにより得られた処理結果)との不一致度合を推定するためのものである。これは非負実値関数である。一般的には、損失関数が小さいほど、モデルのロバスト性が高い。損失関数は実際の需要に応じて設定されることができる。例示として、損失関数は交差エントロピー損失関数(Cross Entropy)であってもよい。
いくつかの実施例のいくつかの好ましい実施形態において、上記方法は、初期モデルのトレーニングが完了していないと確定することに応答して、初期モデルにおける関連パラメータを調整するとともに、上記トレーニングサンプルセットからサンプルを再選択し、調整された初期モデルを初期モデルとして使用し、上記トレーニングステップを実行し続けることを更に含む。
いくつかの実施例のいくつかの好ましい実施形態において、上記トレーニング完了の初期モデルは、圧縮プロトコル、安全プロトコルの前提で、上記端末装置と上記対象トレーニングエンジンとの間で継続的にアップロードダウンロードし、継続的に反復して上記トレーニング完了の初期モデルを更新することを保証することができる。
ステップ307であって、前記対象トレーニングエンジンを利用し、前記端末装置に記憶された少なくとも一つのモデルを前記トレーニング完了の初期モデルと統合し、共同トレーニングモデルを取得する。
いくつかの実施例において、上記実行主体は上記対象トレーニングエンジンを利用して、上記端末装置に記憶された少なくとも一つのモデルと上記トレーニング完了の初期モデルとを統合して、共同トレーニングモデルを取得することができる。
いくつかの実施例のいくつかの好ましい実施形態において、上記方法は、上記対象ユーザーの共同終了要求を検出したことに応答して、上記対象トレーニングエンジンがトレーニングを停止するように制御するとともに、トレーニングを停止する時の共同トレーニングモデルを対象モデルライブラリに記憶することを更に含む。ここで、上記実行主体は、上記共同トレーニングモデルに対してインタフェースを生成してから、インタフェースが生成されらた後の共同トレーニングモデルを対象モデルライブラリに記憶することができる。上記実行主体は、上記共同トレーニングモデルに関連するトレーニング記録、トレーニング中の状態情報をクラウドデータベースに記憶することができる。
いくつかの実施例のいくつかの好ましい実施形態において、上記方法は、前記対象ユーザーのクエリ操作を検出したことに応答して、クエリインタフェースを取得することと、前記対象モデルライブラリから、インタフェースと前記クエリインタフェースとが同じであるモデルの履歴記録及び状態情報を抽出するとともに、前記対象装置が前記履歴記録及び前記状態情報を表示するように制御することと、を更に含む。ここで、履歴記録はモデルトレーニング過程において毎回のトレーニング用の情報であってもよい。
図3から分かるように、図2に対応するいくつかの実施例の説明に比べると、図3に対応するいくつかの実施例におけるデータ測定方法のフロー300は、どのように深層学習ネットワークをトレーニングし、共同トレーニングモデルを取得するかというステップを体現する。これにより、これらの実施例に記載の解決的手段はデータセットを処理することにより、ユーザーのニーズに合致する測定結果を取得することができる。ユーザーのデータ計算に対する需要を満たし、ユーザーの後続きのデータ使用に利便性を提供する。また、共同トレーニングモデルによりデータに対して測定計算を行うことは人工計算時の誤差を大幅に回避し、正確な測定結果を取得することができる。ユーザーは異なるサービスシーンに対してトレーニングモデルを選択することができ、モデルの利用率を向上させ、生成された共同トレーニングモデルもユーザーのニーズに更に合致し、側面でユーザー体験を向上させる。
さらに図4を参照すると、上記各図の上記方法の実現として、本開示はデータ測定装置のいくつかの実施例を提供し、これらの装置実施例は図2の上記方法実施例に対応し、該装置は具体的に様々な電子機器に適用することができる。
図4に示すように、いくつかの実施例のデータ測定装置400は、取得ユニット401、処理ユニット402及び表示ユニット403を含む。ここで、取得ユニット401は、データセットを取得するように配置され、処理ユニット402は、前記データセットを事前トレーニング済みの深層学習ネットワークに入力し、処理結果を出力するように配置され、ここで、前記深層学習ネットワークは、サンプルセットをトレーニングすることにより得られ、前記深層学習ネットワークのトレーニングは、対象ユーザーのトレーニング要求を受信したことに応答して、前記対象ユーザーの身分情報を取得することと、前記身分情報に対して検証を行い、検証に合格したか否かを確定することと、前記身分情報の検証に合格したと確定することに応答して、対象トレーニングエンジンがトレーニングを開始するように制御することと、を含み、表示ユニット403は、前記処理結果を測定結果として確定するとともに、表示機能を有する対象装置が前記測定結果を表示するように制御するように配置される。
いくつかの実施例のいくつかの好ましい実施形態において、上記深層学習ネットワークのトレーニングは、前記対象ユーザーのトレーニングモデルライブラリにおけるトレーニングモデルに対する選択操作を検出したことに応答して、前記対象トレーニングエンジンを検証し、検証に合格したか否かを確定することと、前記対象トレーニングエンジンの検証に合格したと確定することに応答して、初期モデルを前記対象ユーザーの端末装置に転送することと、取得したトレーニングサンプルセットを利用し、前記初期モデルをトレーニングし、トレーニング完了の初期モデルを取得することと、前記対象トレーニングエンジンを利用し、前記端末装置に記憶された少なくとも一つのモデルを前記トレーニング完了の初期モデルと統合し、共同トレーニングモデルを取得することと、を含む。
いくつかの実施例のいくつかの好ましい実施形態において、上記トレーニングサンプルセットにおけるトレーニングサンプルは、サンプルデータセット及びサンプル処理結果を含み、前記深層学習ネットワークは、前記サンプルデータセットを入力とし、前記サンプル処理結果を所望の出力としてトレーニングして取得されたものである。
いくつかの実施例のいくつかの好ましい実施形態において、データ測定装置400は、更に前記対象ユーザーの共同終了要求を検出したことに応答して、前記対象トレーニングエンジンがトレーニングを停止するように制御するとともに、トレーニングを停止する時の共同トレーニングモデルを対象モデルライブラリに記憶するように配置される。
いくつかの実施例のいくつかの好ましい実施形態において、データ測定装置400は、更に前記対象ユーザーのクエリ操作を検出したことに応答して、クエリインタフェースを取得し、前記対象モデルライブラリから、インタフェースと前記クエリインタフェースとが同じであるモデルの履歴記録及び状態情報を抽出するとともに、前記対象装置が前記履歴記録及び前記状態情報を表示するように制御するように配置される。
理解できるように、該装置400に記載の各ユニットは図2を参照して説明した方法における各ステップに対応する。これにより、上記、方法について説明された操作、特徴及び生成された有益な効果は同様に装置400及びその中に含まれるユニットに適用され、ここで説明を省略する。
以下に図5を参照し、本開示のいくつかの実施例を実現するための電子機器(例えば図1における計算装置101)500の構造概略図を示す。図5に示すサーバは、一例に過ぎず、本開示の実施例の機能及び使用範囲に任意の制限を与えるべきではない。
図5に示すように、電子機器500は処理装置(例えば中央処理装置、グラフィックプロセッサ等)501を含むことができ、それはリードオンリーメモリ(ROM)502に記憶されたプログラム又は記憶装置508からランダムアクセスメモリ(RAM)503にロードされたプログラムに基づいて様々な適当な動作及び処理を実行することができる。RAM 503には、電子機器500の操作に必要な様々なプログラム及びデータが更に記憶される。処理装置501、ROM502、およびRAM503は、バス504を介して相互に接続される。バス504にも、入出力(I/O)インタフェース505が接続される。
一般的に、以下の装置はI/Oインタフェース505に接続されることができる。例えば、タッチスクリーン、タッチパネル、キーボード、マウス、カメラ、マイクロフォン、加速度計、ジャイロスコープなどの入力装置506を含み、例えば、液晶ディスプレイ(LCD)、スピーカ、振動器等の出力装置507を含み、例えば、磁気テープ、ハードディスクなどの記憶装置508、及び通信装置509を含む。通信装置509は、データを交換するように、電子機器500が他の装置との間で無線または有線による通信を行うことを許容することができる。図5は、様々な装置を有する電子機器500を示すが、理解すべきことは、全ての示す装置を実施するか又は備えることが要求されないことである。代替的に実施するか、或いはそれ以上又はそれ以下の装置を備えてもよい。図5に示す各ブロックは一つの装置を表してもよく、必要に応じて複数の装置を表してもよい。
特に、本開示のいくつかの実施例によれば、上記フローチャートを参照して説明したプロセスは、コンピュータソフトウェアプログラムとして実現されることができる。例えば、本開示のいくつかの実施例は、コンピュータプログラム製品を含み、それはコンピュータ可読媒体に担持されたコンピュータプログラムを含み、該コンピュータプログラムはフローチャートに示す方法を実行するためのプログラムコードを含む。このようないくつかの実施例において、該コンピュータプログラムは通信装置509によりネットワークからダウンロードされてインストールされ、又は記憶装置508からインストールされ、或いはROM502からインストールされることができる。該コンピュータプログラムが処理装置501により実行される場合に、本開示のいくつかの実施例の方法に限定される上記機能を実行する。
説明すべきこととして、本開示のいくつかの実施例の上記コンピュータ可読媒体はコンピュータ可読信号媒体又はコンピュータ可読記憶媒体又は上記両者の任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、例えば電気、磁気、光、電磁、赤外線、又は半導体のシステム、装置又はデバイス、或いは任意の上記の組み合わせであってもよいが、それらに限定されない。コンピュータ可読記憶媒体のより具体的な例は、一つ又は複数の導線を有する電気的接続、携帯式コンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、携帯式コンパクト磁気ディスク読み取り専用メモリ(CD-ROM)、光記憶装置、磁気記憶装置、又は上記任意の適切な組み合わせを含むが、それらに限定されない。本開示のいくつかの実施例において、コンピュータ可読記憶媒体は、プログラムを含むか又は記憶するいかなる有形媒体であってもよく、該プログラムは、指令実行システム、装置又はデバイスによって用いられてもよく、又はそれらと組み合わせて使用されてもよい。本開示のいくつかの実施例において、コンピュータ可読信号媒体は、ベースバンドに含まれるか、或いはキャリアの一部として転送されるデータ信号を含むことができ、その中にコンピュータ可読プログラムコードが担持される。このような伝播されるデータ信号は、様々な形式を採用することができ、電磁信号、光信号又は上記任意の適当な組み合わせを含むが、それらに限定されない。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよく、該コンピュータ可読信号媒体は、指令実行システム、装置又はデバイスによって使用されるか、又はそれと組み合わせて使用されるためのプログラムを送信、伝播又は転送することができる。コンピュータ可読媒体に含まれるプログラムコードは、任意の適当な媒体で転送することができ、電線、光ケーブル、RF(無線周波数)等、又は上記任意の適当な組み合わせを含むが、それらに限定されない。
いくつかの実施形態において、クライアント、サーバはHTTP(Hyper Text Transfer Protocol、ハイパーテキスト転送プロトコル)のような現在既知又は将来開発の任意のネットワークプロトコルで通信することができるとともに、任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)と相互接続することができる。通信ネットワークの例示はローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、インターネット(例えば、インターネット)及びエンドツーエンドのネットワーク(例えば、ad hocエンドツーエンドのネットワーク)、及び現在既知又は将来開発の任意のネットワークを含む。
上記コンピュータ可読媒体は上記装置に含まれてもよく、該電子機器にインストールされず、単独で存在してもよい。上記コンピュータ可読媒体には一つ又は複数のプログラムが担持され、上記一つ又は複数のプログラムが該電子機器により実行される場合に、該電子機器に、データセットを取得し、データセットを事前トレーニング済みの深層学習ネットワークに入力し、処理結果を出力するようにさせ、ここで、深層学習ネットワークは、サンプルセットをトレーニングすることにより得られ、深層学習ネットワークのトレーニングは、対象ユーザーのトレーニング要求を受信したことに応答して、対象ユーザーの身分情報を取得することと、身分情報に対して検証を行い、検証に合格したか否かを確定することと、身分情報の検証に合格したと確定することに応答して、対象トレーニングエンジンがトレーニングを開始するように制御することと、前記処理結果を測定結果として確定するとともに、表示機能を有する対象装置が前記測定結果を表示するように制御することと、を含む。
一種又は複数種のプログラミング言語又はその組み合わせで本開示のいくつかの実施例の操作を実行するためのコンピュータプログラムコードを書くことができ、上記プログラミング言語は、オブジェクト向けのプログラミング言語、例えばJava、Smalltalk、C++を含み、さらに従来のプロセス式プログラミング言語、例えば「C」言語又は類似するプログラミング言語を含む。プログラムコードは、ユーザーコンピュータで完全に実行されてもよく、ユーザーコンピュータで部分的に実行されてもよく、独立したソフトウェアパッケージとして実行されてもよく、一部がユーザーコンピュータで、一部が遠隔コンピュータで実行されてもよく、或いは、遠隔コンピュータ又はサーバで完全に実行されてもよい。遠隔コンピュータに関する場合には、遠隔コンピュータは任意の種類のネットワーク(ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む)を介してユーザーコンピュータに接続されてもよく、又は、外部コンピュータに接続されてもよい(例えばインターネットサービスプロバイダによりインターネットを介して接続される)。
図面におけるフローチャート及びブロック図は、本開示の様々な実施例に係るシステム、方法及びコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能及び操作を示す。この点で、フローチャート又はブロック図における各ブロックは、一つのモジュール、プログラムセグメント、又はコードの一部を表すことができ、該モジュール、プログラムセグメント、又はコードの一部は一つ又は複数の所定の論理機能を実現するための実行可能な指令を含む。注意すべきこととしては、いくつかの代替としての実現において、ブロックにマークされた機能は図面にマークされた順序と異なる順序で発生してもよい。例えば、二つの接続的に表されるブロックは、実際に基本的に並行して実行されてもよく、それらは時々逆の順序で実行されてもよく、これは関連する機能によって決められる。注意すべきこととしては、ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行する専用のハードウェアによるシステムで実現されてもよく、又は専用のハードウェアとコンピュータコマンドとの組み合わせで実現されてもよい。
本開示のいくつかの実施例に説明されたユニットは、ソフトウェアの方式で実現されてもよく、ハードウェアの方式で実現されてもよい。説明されたユニットは、プロセッサに設けられてもよく、例えば、プロセッサは取得ユニット、処理ユニット及び表示ユニットを含むと説明してもよい。ここで、これらのユニットの名称はある場合に該ユニット自体を限定するものではなく、例えば、取得ユニットはさらに「データセットを取得するユニット」として説明されてもよい。
本文で上記説明された機能は、少なくとも一部が一つ又は複数のハードウェアロジックユニットによって実行されてもよい。例えば、非限定的に、使用可能な例示的なハードウェアロジックユニットは、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け製品(ASSP)、システムオンチップ(SOC)、複雑プログラマブル論理機器(CPLD)等を含む。
以上の説明は本開示のいくつかの好ましい実施例及び応用された技術原理に対する説明だけである。当業者であれば理解されるように、本開示の実施例に係る発明範囲は、上記技術的特徴の特定の組み合わせで形成された技術的解決手段に限定されるものではなく、同時に上記発明の概念から逸脱することなく、上記技術的特徴又はその同等の特徴を任意に組み合わせて形成された他の技術的解決手段を含むべきである。例えば、上記の特徴は、本開示の実施例に開示された(ただし、これに限定されるものではない)類似する機能を有する技術的特徴と相互に置換したものである。

Claims (8)

  1. データセットを取得することと、
    前記データセットを事前トレーニング済みの深層学習ネットワークに入力し、処理結果を出力することと、を含むものであって、前記深層学習ネットワークは、サンプルセットをトレーニングすることにより得られ、前記深層学習ネットワークのトレーニングは、
    対象ユーザーのトレーニング要求を受信したことに応答して、前記対象ユーザーの身分情報を取得することと、
    前記身分情報に対して検証を行い、検証に合格したか否かを確定することと、
    前記身分情報の検証に合格したと確定することに応答して、対象トレーニングエンジンがトレーニングを開始するように制御することと、
    前記処理結果を測定結果として確定するとともに、表示機能を有する対象装置が前記測定結果を表示するように制御することと、を含むことを特徴とするデータ測定方法。
  2. 前記深層学習ネットワークのトレーニングは、
    前記対象ユーザーのトレーニングモデルライブラリにおけるトレーニングモデルに対する選択操作を検出したことに応答して、前記対象トレーニングエンジンを検証し、検証に合格したか否かを確定することと、
    前記対象トレーニングエンジンの検証に合格したと確定することに応答して、初期モデルを前記対象ユーザーの端末装置に転送することと、
    取得したトレーニングサンプルセットを利用し、前記初期モデルをトレーニングし、トレーニング完了の初期モデルを取得することと、
    前記対象トレーニングエンジンを利用し、前記端末装置に記憶された少なくとも一つのモデルを前記トレーニング完了の初期モデルと統合し、共同トレーニングモデルを取得することと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記トレーニングサンプルセットにおけるトレーニングサンプルは、サンプルデータセット及びサンプル処理結果を含み、前記深層学習ネットワークは、前記サンプルデータセットを入力とし、前記サンプル処理結果を所望の出力としてトレーニングして取得されたものであることを特徴とする請求項2に記載の方法。
  4. 前記方法は、
    前記対象ユーザーの共同終了要求を検出したことに応答して、前記対象トレーニングエンジンがトレーニングを停止するように制御するとともに、トレーニングを停止する時の共同トレーニングモデルを対象モデルライブラリに記憶することを更に含むことを特徴とする請求項1に記載の方法。
  5. 前記方法は、
    前記対象ユーザーのクエリ操作を検出したことに応答して、クエリインタフェースを取得することと、
    前記対象モデルライブラリから、インタフェースと前記クエリインタフェースとが同じであるモデルの履歴記録及び状態情報を抽出するとともに、前記対象装置が前記履歴記録及び前記状態情報を表示するように制御することと、を更に含むことを特徴とする請求項4に記載の方法。
  6. データセットを取得するように配置される取得ユニットと、
    前記データセットを事前トレーニング済みの深層学習ネットワークに入力し、処理結果を出力するように配置される処理ユニットとと、を含むものであって、前記深層学習ネットワークは、サンプルセットをトレーニングすることにより得られ、前記深層学習ネットワークのトレーニングは、
    対象ユーザーのトレーニング要求を受信したことに応答して、前記対象ユーザーの身分情報を取得することと、
    前記身分情報に対して検証を行い、検証に合格したか否かを確定することと、
    前記身分情報の検証に合格したと確定することに応答して、対象トレーニングエンジンがトレーニングを開始するように制御することと、
    前記処理結果を測定結果として確定するとともに、表示機能を有する対象装置が前記測定結果を表示するように制御するように配置される表示ユニットと、を含むことを特徴とするデータ測定装置。
  7. 一つ又は複数のプロセッサと、
    一つ又は複数のプログラムが記憶された記憶装置と、を含み、
    前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサにより実行されると、前記一つ又は複数のプロセッサは請求項1に記載の方法を実現することを特徴とする電子機器。
  8. コンピュータプログラムが記憶されるものであって、前記プログラムがプロセッサにより実行される時に請求項1に記載の方法を実現することを特徴とするコンピュータ可読媒体。

JP2022539397A 2020-10-14 2021-06-21 データ測定方法、装置、電子機器及びコンピュータ可読媒体 Pending JP2023545593A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011095139.0 2020-10-14
CN202011095139.0A CN114372569A (zh) 2020-10-14 2020-10-14 数据测量方法、装置、电子设备和计算机可读介质
PCT/CN2021/101133 WO2022077946A1 (zh) 2020-10-14 2021-06-21 数据测量方法、装置、电子设备和计算机可读介质

Publications (1)

Publication Number Publication Date
JP2023545593A true JP2023545593A (ja) 2023-10-31

Family

ID=81138480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022539397A Pending JP2023545593A (ja) 2020-10-14 2021-06-21 データ測定方法、装置、電子機器及びコンピュータ可読媒体

Country Status (5)

Country Link
US (1) US20220300858A1 (ja)
EP (1) EP4131082A4 (ja)
JP (1) JP2023545593A (ja)
CN (1) CN114372569A (ja)
WO (1) WO2022077946A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114881180A (zh) * 2022-07-11 2022-08-09 浙江瑞邦科特检测有限公司 混凝土抗压强度数据的管理方法、装置、设备及存储介质
CN115862807B (zh) * 2022-09-02 2024-02-02 深圳市智云医康医疗科技有限公司 基于机器学习的健身训练方法、系统、介质及电子设备
CN115567227B (zh) * 2022-12-02 2023-04-07 华南师范大学 一种基于大数据安全的身份认证方法及系统
CN115640835B (zh) * 2022-12-22 2023-03-31 阿里巴巴(中国)有限公司 深度学习网络结构的生成方法及装置
CN116187587A (zh) * 2023-04-24 2023-05-30 中国科学院地理科学与资源研究所 指数预测方法、装置、设备及计算机可读存储介质
CN116702168B (zh) * 2023-05-19 2024-01-12 国网物资有限公司 供应端信息检测方法、装置、电子设备和计算机可读介质
CN116614757B (zh) * 2023-07-18 2023-09-26 江西斐耳科技有限公司 一种基于深度学习的助听器验配方法及系统
CN116974561A (zh) * 2023-07-31 2023-10-31 中电金信软件有限公司 一种页面展示方法、装置、电子设备及存储介质
CN116757100B (zh) * 2023-08-18 2023-12-15 国科大杭州高等研究院 推力预测模型训练及推力预测方法、装置、设备、介质
CN116894163B (zh) * 2023-09-11 2024-01-16 国网信息通信产业集团有限公司 基于信息安全的充放电设施负荷预测信息生成方法和装置
CN118194159A (zh) * 2024-03-18 2024-06-14 北京德风新征程科技股份有限公司 智能边缘作业设备、边缘环境监测方法、电子设备和介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018075995A1 (en) * 2016-10-21 2018-04-26 DataRobot, Inc. Systems for predictive data analytics, and related methods and apparatus
CN107766940B (zh) * 2017-11-20 2021-07-23 北京百度网讯科技有限公司 用于生成模型的方法和装置
US11817014B2 (en) * 2018-02-20 2023-11-14 Pearson Education, Inc. Systems and methods for interface-based automated custom authored prompt evaluation
CN110543946B (zh) * 2018-05-29 2022-07-05 百度在线网络技术(北京)有限公司 用于训练模型的方法和装置
CN109492771A (zh) * 2018-11-12 2019-03-19 北京百度网讯科技有限公司 交互方法、装置和系统
CN109670600B (zh) * 2018-12-14 2019-10-25 启元世界(北京)信息技术服务有限公司 基于云平台的决策方法和系统
CN111612153B (zh) * 2019-02-22 2024-06-14 华为技术有限公司 训练模型的方法和装置
CN110009059B (zh) * 2019-04-16 2022-03-29 北京字节跳动网络技术有限公司 用于生成模型的方法和装置
CN110263930A (zh) * 2019-06-28 2019-09-20 北京百度网讯科技有限公司 用于发送信息的方法和装置
CN111008704B (zh) * 2019-11-29 2023-08-04 上海能塔智能科技有限公司 电动汽车联邦学习的处理方法、装置、设备与存储介质
CN111401367A (zh) * 2020-03-20 2020-07-10 深圳前海微众银行股份有限公司 基于联邦ocr模型的字符检测方法、装置、设备和介质
CN111340242B (zh) * 2020-05-15 2020-08-04 支付宝(杭州)信息技术有限公司 保护隐私的模型联合训练方法及装置

Also Published As

Publication number Publication date
CN114372569A (zh) 2022-04-19
WO2022077946A1 (zh) 2022-04-21
EP4131082A4 (en) 2023-10-25
EP4131082A1 (en) 2023-02-08
US20220300858A1 (en) 2022-09-22

Similar Documents

Publication Publication Date Title
JP2023545593A (ja) データ測定方法、装置、電子機器及びコンピュータ可読媒体
US10930281B2 (en) Method, apparatus and system for testing intelligent voice device
CN107766940B (zh) 用于生成模型的方法和装置
WO2020087979A1 (zh) 生成模型的方法和装置
KR102308002B1 (ko) 정보 생성 방법 및 장치
US20210133600A1 (en) Systems and methods for validation of artificial intelligence models
CN109684047A (zh) 事件处理方法、装置、设备和计算机存储介质
US20220309405A1 (en) Combined-learning-based internet of things data service method and apparatus, device and medium
JP2018101201A (ja) 施策導入効果予測装置、施策導入効果予測プログラム及び施策導入効果予測方法
CN108959939A (zh) 一种系统权限开启方法、装置、系统和存储介质
CN112309565B (zh) 用于匹配药品信息和病症信息的方法、装置、电子设备和介质
CN112085087A (zh) 业务规则生成的方法、装置、计算机设备及存储介质
JP2022166176A (ja) 情報認証方法、装置、機器及び媒体
CN109783359A (zh) 自动检测接口有效标识的方法、装置和计算机设备
CN110956127A (zh) 用于生成特征向量的方法、装置、电子设备和介质
JP2023551089A (ja) Aiシステムにおけるアクセス認証
US12051074B2 (en) Motion-enabled transaction system using air sign symbols
CN116775438A (zh) 模型测试方法、装置、电子设备及存储介质
WO2020252880A1 (zh) 反向图灵验证方法及装置、存储介质、电子设备
EP3921747A1 (en) Systems and methods for item response modelling of digital assessments
KR20220131807A (ko) 메타 학습 기반 이미지 정합 모델 생성 방법 및 장치
CN111949860B (zh) 用于生成相关度确定模型的方法和装置
KR20230111099A (ko) 딥러닝 모델의 튜닝 방법 및 시스템
CN111523639A (zh) 用于训练超网络的方法和装置
WO2020053863A1 (en) A protocol for exchanging user model data objects among ubiquitous devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240517