JP2022078241A - データ処理方法、装置、電子機器及び記憶媒体 - Google Patents

データ処理方法、装置、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP2022078241A
JP2022078241A JP2022035289A JP2022035289A JP2022078241A JP 2022078241 A JP2022078241 A JP 2022078241A JP 2022035289 A JP2022035289 A JP 2022035289A JP 2022035289 A JP2022035289 A JP 2022035289A JP 2022078241 A JP2022078241 A JP 2022078241A
Authority
JP
Japan
Prior art keywords
data
initial
initial data
batch size
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022035289A
Other languages
English (en)
Other versions
JP7343637B2 (ja
Inventor
シジュン コン,
Shijun Cong
グィビン ワン,
Guibin Wang
シュウ チェン,
Zhijie Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022078241A publication Critical patent/JP2022078241A/ja
Application granted granted Critical
Publication of JP7343637B2 publication Critical patent/JP7343637B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5017Task decomposition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/509Offload
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】データを処理する時のグラフィックプロセッサのメモリ消費を効果的に低減することを支援し、データ処理の効率を効果的に向上させるデータ処理方法、装置、電子機器及び記憶媒体を提供する。【解決手段】方法は、初期データを取得し、初期データのデータ特徴を抽出し、データ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成し、初期メモリ消費量に基づいて推奨処理パラメータを生成し、推奨処理パラメータに基づいて初期データを処理して、ターゲットデータを取得する。【選択図】図1

Description

本開示は、コンピュータ技術の分野に関し、特に深層学習、ビッグデータ処理などの人工知能技術の分野に関し、具体的にはデータ処理方法、装置、電子機器及び記憶媒体に関する。
人工知能は、コンピュータに人間のある思惟過程と知能行為(学習、推理、思考、計画など)をシミュレートさせることを研究する学科であり、ハードウェアレベルの技術とソフトウェアレベルの技術との両方がある。人工知能ハードウェア技術は一般にセンサー、専用人工知能チップ、クラウドコンピューティング、分散記憶、ビッグデータ処理などの技術を含む。人工知能ソフトウェア技術は主にコンピュータビジョン技術、音声認識技術、自然言語処理技術及び機械学習、深層学習、ビッグデータ処理技術、知識グラフ技術などのいくつかの方向を含む。
関連技術では、モデルトレーニングを支援するためにグラフィックプロセッサを採用してデータを処理する場合、グラフィックプロセッサのデータを処理するメモリ消費量が高く、グラフィックプロセッサがデータを処理する効率に影響を与える。
本開示は、データ処理方法、装置、電子機器、記憶媒体及びコンピュータプログラムを提供する。
本開示の第1の態様によれば、データ処理方法を提供し、初期データを取得し、初期データのデータ特徴を抽出するステップと、データ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成するステップと、初期メモリ消費量に基づいて推奨処理パラメータを生成するステップと、推奨処理パラメータに基づいて初期データを処理して、ターゲットデータを取得するステップと、を含む。
本開示の第2の態様によれば、データ処理装置を提供し、初期データを取得し、初期データのデータ特徴を抽出するための取得モジュールと、データ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成するための第1の生成モジュールと、初期メモリ消費量に基づいて推奨処理パラメータを生成するための第2の生成モジュールと、推奨処理パラメータに基づいて初期データを処理して、ターゲットデータを取得するための処理モジュールと、を備える。
本開示の第3の態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、少なくとも1つのプロセッサと通信可能に接続されるメモリと、を備え、メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、命令が、少なくとも1つのプロセッサが本開示の実施例のデータ処理方法を実行できるように、少なくとも1つのプロセッサによって実行される。
本開示の第4の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、コンピュータ命令が、コンピュータに本開示の実施例に開示されるデータ処理方法を実行させる。
本開示の第5の態様によれば、コンピュータプログラムを提供し、該コンピュータプログラムがプロセッサによって実行される場合、本開示の実施例に開示されるデータ処理方法が実現される。
なお、この部分に記載されている内容は、本開示の実施例の肝心または重要な特徴を特定することを意図しておらず、本開示の範囲を限定することも意図していないことを理解されたい。本開示の他の特徴は、以下の説明を通して容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本開示を限定するものではない。
本開示の第1の実施例に係る概略図である。 本開示の実施例における初期データの概略構成図である。 本開示の実施例における別の初期データの概略構成図である。 本開示の第2の実施例に係る概略図である。 本開示の実施例におけるターゲットデータの概略図である。 本開示の実施例における別のターゲットデータの概略図である。 本開示の第3の実施例に係る概略図である。 本開示の第4の実施例に係る概略図である。 本開示の実施例のデータ処理方法を実施するための例示的な電子機器の概略ブロック図である。
以下、図面と併せて本開示の例示的な実施例を説明し、理解を容易にするためにその中には本開示の実施例の様々な詳細事項を含んでおり、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本開示の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確及び簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
図1は本開示の第1の実施例に係る概略図である。
なお、本実施例のデータ処理方法の実行主体はデータ処理装置であり、当該装置はソフトウェア及び/又はハードウェアによって実現されることができ、当該装置は電子機器に配置でき、電子機器は端末、サーバなどを備えることができるが、これらに限定されない。
本開示の実施例は、深層学習、ビッグデータ処理などの人工知能技術の分野に関する。
人工知能(Artificial Intelligence)は、英語でAIと略される。これは人間の知能をシミュレート、延伸、拡張するための理論、方法、技術及び応用システムを研究、開発する新しい技術科学である。
深層学習はサンプルデータの内的法則と表現階層を学習するものであり、これらの学習過程で得られた情報は文字、画像、音声などのデータの解釈に大きく役立つ。深層学習の最終的な目標は機械が人間のように分析学習能力を持ち、文字、画像、音声などのデータを認識できるようにすることである。
ビッグデータ処理とは、人工知能を用いて大規模なデータを分析及び処理するプロセスを指すが、ビッグデータは、データ量が大きい(Volume)、速度が速い(Velocity)、タイプが多い(Variety)、価値(Value)、及び真実性(Veracity)の5つのVにまとめることができる。
本実施例では、データ処理方法の実行主体は、種々の公開、合法的なコンプライアンスの方式によって初期データを取得することができ、例えば、公開データセットから取得してもよく、ユーザの許可を得てユーザから取得してもよい。当該データは特定のユーザの個人情報を反映することができない。
なお、本開示の実施例におけるデータはいずれも関連する法律、法規に適合した場合に取得されるものである。
図1に示すように、当該データ処理方法は以下のステップ101~104を含む。
S101、初期データを取得し、初期データのデータ特徴を抽出する。
ここで、初期データは処理対象のデータであってもよく、データは例えば、音声データ、画像データなどであってもよく、本開示の実施例における初期データは、具体的には、例えば、人工知能モデル用のサンプルをトレーニングするための音声データフレームであってもよく、音声データフレームの数は、1又は複数であってもよく、複数の音声データフレームは上記初期データを構成することができ、これに対して限定しない。
ここで、初期データは、例えば、1つの音声データフレームであってもよいし、複数の音声データフレームであってもよく、すなわち、初期データの数は1つまたは複数であってもよく、これに対して限定しない。
いくつかの実施例では、初期データを取得する場合、サンプルデータプールから複数のデータセグメントを初期データとして取得してもよく、当該データプールは予め構築されてもよく、複数の異なるデータセグメント(異なるデータセグメントが異なるまたは同じデータフレーム長に対応することができる)を含み、サンプルデータプールから複数のデータセグメントを直接取得して初期データとすることができ、または、他の任意の可能な方法で初期データを取得することもでき、これに対して限定しない。
別のいくつかの実施例では、データ入力インターフェース(当該データ入力インターフェースは、例えば、電子機器上に配置されたインターフェースであってもよく、初期データを受信するために使用できる)を介してデータを直接受信して初期データとすることもでき、これに対して限定しない。
本開示の実施例では、初期データは複数の初期データセグメントによって構成されてもよい。例えば、初期データは1つの完全な音声データであってもよく、当該完全な音声データを分割して得られる複数の音声データフレームは、複数の初期データセグメントと呼ぶことができ、異なる音声データフレームは、同じまたは異なるデータフレーム長を有することができる。
ここで、データ特徴は、初期データに対応するデータ特徴、例えば、当該初期データに対応する長さ、含まれる文字数等を説明することができ、これに対して限定しない。
本開示の実施例では、初期データが複数の初期データセグメントから構成される場合、異なる初期データセグメントに対応するデータフレーム長と、複数の初期データセグメントに対応するバッチサイズ(すなわち、第1バッチサイズと呼ぶことができ、例えば複数のデータセグメント数)とをデータ特徴と呼ぶことができ、これに対して限定しない。
本開示の実施例では、当該初期データに対応するデータ特徴は、複数の初期データセグメントの間のフレーム長差異情報であってもよい。フレーム長差異情報は、複数の初期データセグメントの間のフレーム長差異状況を説明することができ、異なる初期データセグメントのデータフレーム長が同じまたは異なるため、複数の初期データセグメントの間のフレーム長差異情報を初期データのデータ特徴とすることができる。
複数の初期データセグメントの間のフレーム長差異情報を初期データのデータ特徴とするため、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量の正確な推定を支援し、より参照性のある推奨処理パラメータの生成を支援することができる。
例えば、初期データには、データセグメントaと、データセグメントbとの2つの初期データセグメントが含まれ、データセグメントaに対応するデータフレーム長は128であり、データセグメントbに対応するデータフレーム長は256であり、データセグメントaとデータセグメントbとの間のデータフレーム長の差異情報を算出し、当該データフレーム長の差異情報を初期データのデータ特徴とすることができる。
図2aに示すように、図2aは本開示の実施例における初期データの概略構成図である。ここで、初期データは、4つの初期データセグメントを含み、4つの初期データセグメントの第1のバッチサイズは4であり、異なる初期データセグメントが異なるデータフレーム長に対応し、当該初期データが1つのグラフィックプロセッサ(Graphics Processing Unit、GPU)0に対応し、ここで、0はグラフィックプロセッサのシーケンス番号と呼ぶことができ、当該初期データが1つのグラフィックプロセッサに対応するとは、グラフィックプロセッサ0が当該初期データに含まれる4つの初期データセグメントを処理するために使用されることができることを指す。
図2bに示すように、図2bは本開示の実施例における別の初期データ概略構成図である。ここで、初期データは、4つの初期データセグメントを含み、4つの初期データセグメントの第1のバッチサイズは4であり、異なる初期データセグメントが異なるデータフレーム長に対応し、当該初期データが1つのグラフィックプロセッサGPU1に対応し、ここで、1はグラフィックプロセッサのシーケンス番号と呼ぶことができ、当該初期データが1つのグラフィックプロセッサに対応するとは、グラフィックプロセッサ1が当該初期データに含まれる4つの初期データセグメントを処理するために使用されることを指す。図2a及び図2bでは、異なるグラフィックプロセッサを採用して入力された初期データを同時に処理することは、モデルトレーニングシナリオに必要なストリーミング並列計算処理シナリオに適用することができ、もちろん、他の任意の可能な応用シナリオに適用することもでき、これに対して限定しない。
上記図2a及び図2bから分かるように、関連技術では、グラフィックプロセッサを採用して初期データを処理する場合、通常、異なる初期データセグメントのデータフレーム長に対して補完処理を行い、補完処理後にモデルトレーニングを行い、このような方式では、データフレーム長の差異情報が大きいと、通常、補完に必要な計算量も大きくなるため、関連技術におけるこのような方式は、グラフィックプロセッサのメモリ消費に影響を与える。
そのため、本開示の実施例では、初期データを分割して得られた複数の初期データセグメントを取得して、初期データセグメントの間のフレーム長差異情報を決定し、フレーム長差異情報を初期データのデータ特徴とすることにより、初期データにおける複数の初期データセグメントのフレーム長差異情報を参照して初期データを処理するため、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量の正確な推定を支援し、より参照性のある推奨処理パラメータの生成を支援することができる。
S102、データ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成する。
ここで、グラフィックプロセッサGPUは、ディスプレイコア、視覚プロセッサ、ディスプレイチップとも呼ばれ、パーソナルコンピュータ、ワークステーション、ゲーム機、及びモバイルデバイス(例えばタブレット、スマートフォンなど)で画像及びグラフィック関連演算を行うためのマイクロプロセッサであり、当該グラフィックプロセッサGPUは初期データを処理するために使用されることができる。
ここで、グラフィックプロセッサが初期データを処理するメモリ消費量は、初期メモリ消費量と呼ぶことができ、メモリ消費量は、データ処理中に初期データを処理する時のメモリ消費の量子化値を説明するために使用されることができる。
なお、グラフィックプロセッサが初期データを処理する過程中に、大量の一時的なデータ(未処理、処理中、処理済み)が生成され、グラフィックプロセッサは通常、記憶領域を構成して前記データを格納し、したがって、前記データが占めるメモリ消費、及び演算リソース消費は、いずれも上記のメモリ消費と呼ぶことができる。
上記初期データを取得し、初期データのデータ特徴を抽出した後、データ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成することができる。
本実施例では、初期データを取得し、初期データのデータ特徴を抽出した後、初期データのデータ特徴に基づいて、一定のアルゴリズムロジックと併せて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を決定することができる。
例えば、初期データのデータ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成する場合、予めトレーニングされたメモリ消費検出モデルによって初期メモリ消費量を決定することができ、例えば、初期データに対応するデータ特徴を予めトレーニングされたメモリ消費検出モデルに入力して、予めトレーニングされたメモリ消費検出モデルから出力された初期メモリ消費量を取得してもよいし、他の任意の可能な方式を採用してデータ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成するステップを実行してもよく、これに対して限定しない。
S103、初期メモリ消費量に基づいて推奨処理パラメータを生成する。
上記データ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成した後、初期メモリ消費量に基づいて推奨処理パラメータを生成することができる。
ここで、推奨処理パラメータは、最適化された初期データを処理する時のグラフィックプロセッサのメモリ消費量が初期メモリ消費量よりも小さくなるように、初期データのデータ特徴に対して最適化処理を行うことができ、これによってデータを処理する時のグラフィックプロセッサのメモリ消費の低減を実現し、データ処理の効率を効果的に向上させる。
例えば、推奨処理パラメータがパラメータAとパラメータBとを含むと仮定すると、初期メモリ消費量に基づいて推奨処理パラメータを生成する場合、初期メモリ消費に対して一定の数学演算を行って、パラメータAとパラメータBとにそれぞれ対応する値を取得してもよく、当該対応する値は推奨処理パラメータであり、または他の任意の可能な方式を採用して初期メモリ消費量を処理して推奨処理パラメータを生成してもよく、最適化された初期データを処理する時のグラフィックプロセッサのメモリ消費量が初期メモリ消費量よりも小さくなるようにすることができればよく、これに対して限定しない。
S104、推奨処理パラメータに基づいて初期データを処理して、ターゲットデータを取得する。
上記初期メモリ消費量に基づいて推奨処理パラメータを生成した後、推奨処理パラメータに基づいて初期データを処理して、処理された初期データを取得し、当該処理された初期データは、ターゲットデータと呼ぶことができる。
本開示の実施例では、上記得られた初期メモリ消費量を組み合わせて推奨処理パラメータを生成することができ、当該推奨処理パラメータはターゲットデータを取得するために初期データに対して対応する処理を行うことを支援することができる。
本開示の実施例では、初期データを取得し、初期データのデータ特徴を抽出し、データ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成し、初期メモリ消費量に基づいて推奨処理パラメータを生成し、推奨処理パラメータに基づいて初期データを処理して、ターゲットデータを取得することにより、データを処理する時のグラフィックプロセッサのメモリ消費を低減することを効果的に支援し、データ処理の効率を効果的に向上させることができる。
図3は本開示の第2の実施例に係る概略図である。
図3に示すように、本実施例の説明に対して、上記図1と組み合わせて、当該データ処理方法は以下のステップ301~310を含む。
S301、複数の初期データセグメントを含む初期データを取得する。
複数の初期データセグメントは初期データを分割して得られたものであり、ここで、初期データ及び複数のデータセグメントの概略は、具体的には上記図2a及び図2bに示されるようなものであり得る。
S301の具体的な説明は、上記実施例を参照することができ、ここでは説明を省略する。
S302、複数の初期データセグメントの第1のバッチサイズを決定する。
ここで、複数の初期データセグメント数は、第1のバッチサイズと呼ばれることができる。
例えば、初期データが初期データセグメントaと初期データセグメントbとを含む場合、対応する第1のバッチサイズは2であってもよく、上記図2に示す第1のバッチサイズは例えば4であってもよい。
本実施例では、初期データを取得し、初期データを複数の初期データセグメントに分割した後、複数の初期データセグメントの第1のバッチサイズを決定することができる。
S303、複数の初期データセグメントにそれぞれ対応する複数のデータフレーム長を決定する。
上記複数の初期データセグメントに対応する第1のバッチサイズを決定した後、複数の初期データセグメントにそれぞれ対応する複数のデータフレーム長を決定することができる。
例えば、初期データが初期データセグメントaと初期データセグメントbとを含み、初期データセグメントa及び初期データセグメントbにそれぞれ対応するフレーム長は、データフレーム長と呼ばれることができる。
S304、第1のバッチサイズと複数のデータフレーム長とに基づいて、複数の初期データセグメントの間のフレーム長差異情報を決定し、フレーム長差異情報を初期データのデータ特徴とする。
上記複数の初期データセグメントの第1のバッチサイズを決定し、複数の初期データセグメントに対応する複数のデータフレーム長を決定した後、第1のバッチサイズと複数のデータフレーム長とに基づいて、複数の初期データセグメントの間のフレーム長差異情報を決定し、フレーム長差異情報を初期データのデータ特徴とすることができる。
本開示の実施例では、複数の初期データセグメント数を決定して第1のバッチサイズとし、その後複数の初期データセグメントにそれぞれ対応するデータフレーム長を決定し、複数の初期データセグメントの第1のバッチサイズと複数のデータフレーム長とに基づいて、フレーム長差異情報を決定することを支援ことにより、異なる初期データセグメントの間のフレーム長差異情報を正確で迅速に決定し、フレーム長差異情報の参照性を大きく向上させるとともに、データ処理効率を向上させることができる。
S305、複数のデータフレーム長の中から最大データフレーム長の初期データセグメントのデータセグメント数を決定する。
上記第1のバッチサイズと複数のデータフレーム長とに基づいて、複数の初期データセグメントの間のフレーム長差異情報を決定し、フレーム長差異情報を初期データのデータ特徴とした後、複数のデータフレーム長の中から最大データフレーム長の初期データセグメントのデータセグメント数を決定することができる。
例えば、初期データが、初期データセグメントa、初期データセグメントb、初期データセグメントc、及び初期データセグメントdを含み、対応するデータフレーム長のサイズがそれぞれ128、156、256、256であると仮定すると、最大データフレーム長は256であり、初期データセグメントc及び初期データセグメントdのデータフレーム長はいずれも最大データフレーム長であり、初期データセグメントc及び初期データセグメントdのデータセグメント数は2である。
S306、第1のバッチサイズとデータセグメント数とに基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成する。
上記複数のデータフレーム長の中から最大データフレーム長の初期データセグメントのデータセグメント数を決定した後、第1のバッチサイズとデータセグメント数とに基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成することができる。
本実施例では、第1のバッチサイズと最大データフレーム長の初期データセグメントのデータセグメント数とを決定した後、いくつかの数学演算方法と併せて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を算出することができ、具体的な演算方式は以下の式のとおりであり、
cost=batch-size*(max_length^n)
ここで、costは初期メモリ消費量であり、batch-sizeは第1のバッチサイズであり、max_length^nは最大データフレーム長の初期データセグメントのデータセグメント数である。
複数のデータフレーム長の中から最大データフレーム長の初期データセグメントのデータセグメント数を決定し、第1のバッチサイズとデータセグメント数とに基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成することにより、複数の初期データセグメントを処理する時のグラフィックプロセッサの初期メモリ消費量を正確に算出し、データ処理の効率を向上させることを効果的に支援することができる。
S307、初期メモリ消費量に基づいて、第2のバッチサイズを生成し、第2のバッチサイズが第1のバッチサイズと同じまたは異なる。
上記第1のバッチサイズとデータセグメント数とに基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成した後、初期メモリ消費量に基づいて、第2のバッチサイズを生成することができ、第2のバッチサイズが第1のバッチサイズと同じまたは異なる。
ここで、第2のバッチサイズとは、初期データに対して対応する処理を行った後に得られたデータセグメント(得られたデータセグメントは、ターゲットデータセグメントと呼ばれることができ、複数のターゲットデータセグメントが下記のターゲットデータを構成することができる)に対応するバッチサイズを指す。
上記図2a及び図2bと併せて示すように、図2a及び図2bにおける複数の初期データセグメントの第1バッチサイズは4であり、図4及び図4bと併せて示される。
図4aは、本開示の実施例におけるターゲットデータの概略図であり、ここで、ターゲットデータは、3つのターゲットデータセグメントを含み、3つのターゲットデータセグメントに対応する第2のバッチサイズは3であり、異なるターゲットデータセグメントが異なるデータフレーム長に対応し、上記図2a及び図2bの初期データセグメントフレーム長に比べて、上記3つのターゲットデータセグメントに対応するデータフレーム長の差異が小さく、当該ターゲットデータが1つのグラフィックプロセッサGPU0に対応し、ここで、0はグラフィックプロセッサのシーケンス番号と呼ぶことができ、当該初期データが1つのグラフィックプロセッサに対応するとは、グラフィックプロセッサ0が当該ターゲットデータに含まれる3つのターゲットデータセグメントを処理するために使用されることができることを指す。
図4bは、本開示の実施例における別のターゲットデータの概略図であり、ここで、ターゲットデータは、5つのターゲットデータセグメントを含み、5つのターゲットデータセグメントに対応する第2のバッチサイズは5であり、異なるターゲットデータセグメントが異なるデータフレーム長に対応し、上記図2a及び図2bの初期データセグメントフレーム長に比べて、上記5つのターゲットデータセグメントに対応するデータフレーム長の差異が小さく、当該ターゲットデータが1つのグラフィックプロセッサGPU1に対応し、ここで、1はグラフィックプロセッサのシーケンス番号と呼ぶことができ、当該初期データが1つのグラフィックプロセッサに対応するとは、グラフィックプロセッサ1が当該ターゲットデータに含まれる5つのターゲットデータセグメントを処理するために使用されることができることを指す。
上記図4a及び図4bから分かるように、本実施例では、グラフィックプロセッサは、初期メモリ消費量に基づいて初期データを処理する時に、第2のバッチサイズを生成し、異なるグラフィックプロセッサにフレーム長の差異が小さいターゲットデータセグメントを割り当てることで、ターゲットデータを取得し、この方式では、後続のデータ処理中に、ターゲットデータセグメントの補完に必要な計算量が少なく、これによってグラフィックプロセッサのメモリ消費を低減することができる。
S308、初期メモリ消費量に基づいて、複数のターゲットフレーム長を生成し、第2のバッチサイズと複数のターゲットフレーム長とを推奨処理パラメータとする。
上記初期メモリ消費量に基づいて、第2のバッチサイズを生成した後、初期メモリ消費量に基づいて、複数のターゲットフレーム長を生成し、第2のバッチサイズと複数のターゲットフレーム長とを推奨処理パラメータとすることができる。
ここで、第2のバッチサイズは、初期データをターゲットデータセグメントに分割する必要な数であってもよく、ターゲットフレーム長は、分割する時にターゲットデータセグメントとするデータフレーム長の参照フレーム長であってもよく、すなわち、第2のバッチサイズと複数のターゲットフレーム長とに基づいて複数のターゲットデータセグメントを取得した場合、初期データを処理して、第2のバッチサイズを取得することができ、データフレーム長は前記ターゲットフレーム長の複数のターゲットデータセグメントである。
すなわち、本開示の実施例では、初期メモリ消費量に基づいて、初期データに含まれるデータセグメント数のデータフレーム長を再割り当てて、割り当てられたデータセグメントを取得することができ、当該割り当てられたデータセグメントはターゲットデータセグメントと呼ばれることができ、上記の第2のバッチサイズと複数のターゲットフレーム長とは推奨処理パラメータと呼ばれることができる。
初期メモリ消費量に基づいて、第2のバッチサイズを生成し、第2のバッチサイズと第1のバッチサイズとが同じまたは異なり、その後に初期メモリ消費量に基づいて、複数のデータフレーム長にそれぞれ対応する複数のターゲットフレーム長を生成し、第2のバッチサイズと複数のターゲットフレーム長とを推奨処理パラメータとすることにより、対応するデータ処理過程に高い参考価値を有する推奨処理パラメータを提供することができ、グラフィックプロセッサが複数のターゲットデータセグメントを処理する時に、低いメモリ消費を得ることができ、比較的簡便な方式で推奨処理パラメータを得ることができ、データ計算過程が実際のデータ処理過程の進度に与える影響を回避することができ、データ処理方法全体の実行効率を向上させ、適時性の要件が高いさまざまなデータ処理アプリケーションシナリオに対応することができる。
S309、複数の初期データセグメントを中間データとしてスプライスする。
例えば、複数の初期データセグメントが初期データを分割して得られたものである場合、初期データを処理する時、まず複数の初期データセグメントを中間データとしてスプライスすることができ、例えば、先頭接続の方式でスプライスし、または、初期段階で直接取得された初期データを中間データとしてもよく、これに対して限定しない。
S310、推奨処理パラメータに基づいて中間データを分割して、複数のターゲットデータセグメントを取得し、複数のターゲットデータセグメントのバッチサイズは第2のバッチサイズであり、前記複数のターゲットデータセグメントにそれぞれ対応する複数のデータフレーム長は複数のターゲットフレーム長であり、複数のターゲットデータセグメントが共にターゲットデータを構成する。
上記初期メモリ消費量に基づいて、複数のデータフレーム長にそれぞれ対応する複数のターゲットフレーム長を生成し、第2のバッチサイズと複数のターゲットフレーム長とを推奨処理パラメータとした後、推奨処理パラメータに基づいて初期データを分割して、複数のターゲットデータセグメントを取得することができる。
すなわち、推奨処理パラメータに基づいて初期データを分割することにより、複数のターゲットデータセグメントを処理する時のグラフィックプロセッサのメモリ消費が初期メモリ消費より小さくなる。
本開示の実施例では、前記複数の初期データセグメントを中間データとしてスプライスし、前記推奨処理パラメータに基づいて前記中間データを分割して、複数のターゲットデータセグメントを取得することにより、推奨処理パラメータに基づいて対応するデータ処理過程を正確に実現することができる。
例えば、初期データが初期データセグメントaと初期データセグメントbとを含み、対応するフレーム長がそれぞれ50、120である場合、第1のバッチサイズは2であり、複数の初期データフレーム長は128と256であり、初期データセグメントaと初期データセグメントbとを首尾スプライスして中間データを取得することができ、初期メモリ消費量に基づいて得られた第2のバッチサイズは3であり、3つのターゲットフレーム長は40、60、70であり、推奨処理パラメータを参照して中間データを3つのターゲットデータセグメントに分割し、3つのターゲットデータセグメントにそれぞれ対応するターゲットフレーム長が40、60、70であるようにすることで、40、60、70の間のフレーム長差情報が50、120の間のフレーム長差情報よりも小さくなるため、整列演算処理ロジックが回避され、グラフィックプロセッサのメモリ消費が低減される。
なお、本開示の実施例は、単一のグラフィックプロセッサのアプリケーションシナリオに応用されてもよく、複数のアプリケーションプロセッサの並列実行処理に応用されてもよく、複数のアプリケーションプロセッサの並列実行処理に応用される場合、上記の初期データは1つまたは複数であってもよく、各グラフィックプロセッサのデータ処理過程に対して、いずれも、本開示の上記実施例に記載されたデータ処理方法を採用することができ、単一のグラフィックプロセッサのメモリ消費を低減するとともに、マルチグラフィックプロセッサのデータ計算量が同じであることを効果的に確保し、マルチグラフィックプロセッサの同期トレーニング中にグラフィックプロセッサが待機する状況を回避することができ、これによってグラフィックプロセッサを用いてモデルをトレーニングする時、モデルトレーニングの効率を効果的に向上させる。
本実施例では、初期データを分割して得られた複数の初期データセグメントを取得し、初期データセグメントの間のフレーム長差異情報を決定し、フレーム長差異情報を初期データのデータ特徴とすることにより、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量の正確な推定を支援し、より参照性のある推奨処理パラメータの生成を支援することができる。複数の初期データセグメント数を決定して第1のバッチサイズとし、その後複数の初期データセグメントにそれぞれ対応するデータフレーム長を決定し、複数の初期データセグメントの第1のバッチサイズと複数のデータフレーム長とに基づいて、フレーム長差異情報を決定することを支援することにより、異なる初期データセグメントの間のフレーム長差異情報を正確で迅速に決定し、フレーム長差異情報の参照性を大きく向上させるとともに、データ処理効率を向上させることができる。複数のデータフレーム長の中から最大データフレーム長の初期データセグメントのデータセグメント数を決定し、第1のバッチサイズとデータセグメント数とに基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成することにより、複数の初期データセグメントを処理する時のグラフィックプロセッサの初期メモリ消費量を正確に算出することができる。初期メモリ消費量に基づいて、第2のバッチサイズを生成し、その後に初期メモリ消費量に基づいて、複数のデータフレーム長にそれぞれ対応する複数のターゲットフレーム長を生成し、第2のバッチサイズと複数のターゲットフレーム長とを推奨処理パラメータとすることにより、対応するデータ処理過程に高い参考価値を有する推奨処理パラメータを提供することができ、グラフィックプロセッサが複数のターゲットデータセグメントを処理する時に、低いメモリ消費を得ることができ、比較的簡便な方式で推奨処理パラメータを得ることができ、データ計算過程が実際のデータ処理過程の進度に与える影響を回避することができ、適時性の要件が高いさまざまなデータ処理アプリケーションシナリオに対応することができる。複数の初期データセグメントを中間データとしてスプライスし、推奨処理パラメータに基づいて中間データを分割して、複数のターゲットデータセグメントを取得することにより、推奨処理パラメータに基づいて対応するデータ処理過程を正確に実現することができる。
図5は本開示の第3の実施例に係る概略図である。
図5に示すように、当該データ処理装置50は、初期データを取得し、初期データのデータ特徴を抽出するための取得モジュール501と、データ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成するための第1の生成モジュール502と、初期メモリ消費量に基づいて推奨処理パラメータを生成するための第2の生成モジュール503と、推奨処理パラメータに基づいて初期データを処理して、ターゲットデータを取得するための処理モジュール504と、を備える。
本開示のいくつかの実施例では、図6に示すように、図6は本開示の第4の実施例に係る概略図であり、当該データ処理装置60は、取得モジュール601、第1の生成モジュール602、第2の生成モジュール603、及び処理モジュール604を備え、取得モジュール601が、初期データを取得するための取得サブモジュール6011と、
複数の初期データセグメントの間のフレーム長差異情報を決定し、フレーム長差異情報を初期データのデータ特徴とするための第1の決定サブモジュール6012と、を備える。
本開示のいくつかの実施例では、第1の決定サブモジュール6012は、具体的には、
複数の初期データセグメントの第1のバッチサイズを決定し、複数の初期データセグメントにそれぞれ対応する複数のデータフレーム長を決定し、第1のバッチサイズと複数のデータフレーム長とに基づいて、複数の初期データセグメントの間のフレーム長差異情報を決定する。
本開示のいくつかの実施例では、第1の生成モジュール602は、複数のデータフレーム長の中から最大データフレーム長の初期データセグメントのデータセグメント数を決定するための第2の決定サブモジュール6021と、第1のバッチサイズとデータセグメント数とに基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成するための第1の生成サブモジュール6022と、を備える。
本開示のいくつかの実施例では、処理モジュール604は、初期メモリ消費量に基づいて、第2のバッチサイズを生成するための第2の生成サブモジュール6041であって、第2のバッチサイズが第1のバッチサイズと同じまたは異なる第2の生成サブモジュール6041と、初期メモリ消費量に基づいて、複数のデータフレーム長にそれぞれ対応する複数のターゲットフレーム長を生成し、第2のバッチサイズと複数のターゲットフレーム長とを推奨処理パラメータとするための第3の生成サブモジュール6042と、を備える。
本開示のいくつかの実施例では、処理モジュール604は、複数の初期データセグメントを中間データとしてスプライスし、推奨処理パラメータに基づいて中間データを分割して、複数のターゲットデータセグメントを取得するための分割サブモジュール6043であって、前記複数のターゲットデータセグメントのバッチサイズは第2のバッチサイズであり、複数のターゲットデータセグメントにそれぞれ対応する複数のデータフレーム長は複数のターゲットフレーム長であり、複数のターゲットデータセグメントが共にターゲットデータを構成する分割サブモジュール6043をさらに備える。
なお、本実施例の図6におけるデータ処理装置60と上記実施例のデータ処理装置50、取得モジュール601と上記実施例の取得モジュール501、第1の生成モジュール602と上記実施例の第1の生成モジュール502、第2の生成モジュール603と上記実施例の第2の生成モジュール503、処理モジュール604と上記実施例の処理モジュール504は、同じ機能と構造を有することができる。
なお、上記のデータ処理方法についての説明は、本実施例のデータ処理装置にも適用され、ここでは説明を省略する。
本開示の実施例では、初期データを取得し、初期データのデータ特徴を抽出し、データ特徴に基づいて、グラフィックプロセッサが初期データを処理する時に必要な初期メモリ消費量を生成し、初期メモリ消費量に基づいて推奨処理パラメータを生成し、推奨処理パラメータに基づいて初期データを処理して、ターゲットデータを取得することにより、データを処理する時のグラフィックプロセッサのメモリ消費を効果的に低減することを支援し、データ処理の効率を効果的に向上させることができる。
本開示の実施例によれば、本開示は、電子機器、及び読み取り可能な記憶媒体をさらに提供する。
本開示の実施例によれば、本開示は、コンピュータプログラムをさらに提供し、前記コンピュータプログラムがプロセッサによって実行される場合、本開示によって提供されるデータ処理方法が実現される。
図7は本開示の実施例に係るデータ処理方法を実施するための例示的な電子機器の概略ブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示される部品、それらの接続と関係、及びそれらの機能は、単なる例であり、本明細書の説明及び/又は要求される本開示の実現を制限することを意図したものではない。
図7に示すように、電子機器700は、読み取り専用メモリ(ROM)702に記憶されているコンピュータプログラムまたは記憶ユニット708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラムに従って様々な適切な動作および処理を実行する計算ユニット701を備える。RAM703には、電子機器700の動作に必要な各種プログラムやデータも記憶されてもよい。計算ユニット701、ROM702、およびRAM703は、バス704を介して互いに接続されている。バス704には、入力/出力(I/O)インターフェース705も接続されている。
電子機器700の複数のコンポーネントはI/Oインターフェース705に接続され、キーボード、マウスなどの入力ユニット706、各タイプのディスプレイ、スピーカなどの出力ユニット707、磁気ディスク、光ディスクなどの記憶ユニット708、およびネットワークカード、モデム、無線通信トランシーバなどの通信ユニット709を備える。通信ユニット709は、電子機器700が、インターネットなどのコンピュータネットワーク及び/または各種の電信ネットワークを介して他のデバイスと情報/データを交換することを可能にする。
計算ユニット701は、処理および計算能力を有する様々な汎用及び/又は専用の処理コンポーネントであってもよい。計算ユニット701のいくつかの例は、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、各種の専用の人工知能(AI)計算チップ、各種のマシン運転学習モデルアルゴリズムの計算ユニット、デジタル信号プロセッサ(DSP)、およびいずれかの適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット701は、上記に記載された各方法及び処理、例えば、データ処理方法を実行する。例えば、いくつかの実施例では、データ処理方法を、記憶ユニット708などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。いくつかの実施例では、コンピュータプログラムの一部または全部はROM702および/または通信ユニット709を介して電子機器700にロードおよび/またはインストールされてもよい。コンピュータプログラムがRAM703にロードされ、計算ユニット701によって実行される場合、前文に記載されたデータ処理方法の1つの或複数のステップが実行されてもよい。代替的に、他の実施例では、計算ユニット701はデータ処理方法を実行するように、他のいずれかの適切な方式(例えば、ファームウェアを介して)によって配置されてもよい。
本明細書で上記記載されたシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックス・プログラマブル・ロジック・デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを備えるプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
本出願の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで書くことができる。これらのプログラムコードは、プロセッサ又はコントローラによって実行された際に、フローチャート及び/又はブロック図に規定された機能/操作が実施されるように、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよい。プログラムコードは、完全に機械上で実行され、部分的に機械上で実行され、スタンドアロンソフトウェアパッケージとして、部分的に機械上で実行され、部分的にリモート機械上で実行され、又は完全にリモート機械又はサーバ上で実行されてもよい。
本開示のコンテクストでは、機械読み取り可能な媒体は、命令実行システム、装置、またはデバイスによって使用されるために、又は命令実行システム、装置、またはデバイスと組み合わせて使用するためのプログラムを含むか、又は記憶することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又はデバイス、または上記内容のいずれかの適切な組み合わせを含むことができるが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記内容のいずれかの適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために使用されることもでき、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを備えるコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを備えるコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを備えるコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施方式とインタラクションできる)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントのいずれかの組み合わせを備えるコンピューティングシステムで実行することができる。いずれかの形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークを含む。
コンピュータシステムは、クライアントとサーバを備えることができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバはクラウドサーバであってもよい、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおける1つのホスト製品であり、従来の物理ホストとVPSサービス(「Virtual Private Server」,または「VPS」と略称する)に存在する管理の難しさ、業務拡張性の弱い欠陥を解決した。サーバは分散システムのサーバであってもよい、ブロックチェーンを組み込んだサーバであってもよい。
なお、上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本開示の保護範囲を制限するものではない。当業者は、設計要求と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができると理解されたい。任意の本開示の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれなければならない。

Claims (15)

  1. 初期データを取得し、初期データのデータ特徴を抽出するステップと、
    前記データ特徴に基づいて、グラフィックプロセッサが前記初期データを処理する時に必要な初期メモリ消費量を生成するステップと、
    前記初期メモリ消費量に基づいて、推奨処理パラメータを生成するステップと、
    前記推奨処理パラメータに基づいて前記初期データを処理して、ターゲットデータを取得するステップと、
    を含むデータ処理方法。
  2. 前記初期データが、前記初期データを分割して得られた複数の初期データセグメントを含み、
    前記初期データのデータ特徴を抽出するステップが、
    前記複数の初期データセグメントの間のフレーム長差異情報を決定し、前記フレーム長差異情報を前記初期データのデータ特徴とするステップを含む請求項1に記載の方法。
  3. 前記複数の初期データセグメントの間のフレーム長差異情報を決定するステップが、
    前記複数の初期データセグメントの第1のバッチサイズを決定するステップと、
    前記複数の初期データセグメントにそれぞれ対応する複数のデータフレーム長を決定するステップと、
    前記第1のバッチサイズと前記複数のデータフレーム長とに基づいて、前記複数の初期データセグメントの間のフレーム長差異情報を決定するステップと、
    を含む請求項2に記載の方法。
  4. 前記データ特徴に基づいて、グラフィックプロセッサが前記初期データを処理する時に必要な初期メモリ消費量を生成するステップが、
    前記複数のデータフレーム長の中から最大データフレーム長の初期データセグメントのデータセグメント数を決定するステップと、
    前記第1のバッチサイズと前記データセグメント数とに基づいて、グラフィックプロセッサが前記初期データを処理する時に必要な初期メモリ消費量を生成するステップと、
    を含む請求項3に記載の方法。
  5. 前記推奨処理パラメータに基づいて前記初期データを処理して、ターゲットデータを取得するステップが、
    前記初期メモリ消費量に基づいて、第2のバッチサイズを生成するステップであって、前記第2のバッチサイズが前記第1のバッチサイズと同じまたは異なるステップと、
    前記初期メモリ消費量に基づいて、複数のターゲットフレーム長を生成し、前記第2のバッチサイズと前記複数のターゲットフレーム長とを前記推奨処理パラメータとするステップと、
    を含む請求項3に記載の方法。
  6. 前記推奨処理パラメータに基づいて前記初期データを処理して、ターゲットデータを取得するステップが、
    前記複数の初期データセグメントを中間データとしてスプライスするステップと、
    前記推奨処理パラメータに基づいて前記中間データを分割して、複数のターゲットデータセグメントを取得するステップであって、前記複数のターゲットデータセグメントのバッチサイズは前記第2のバッチサイズであり、前記複数のターゲットデータセグメントにそれぞれ対応する複数のデータフレーム長は前記複数のターゲットフレーム長であり、前記複数のターゲットデータセグメントが共に前記ターゲットデータを構成するステップと、
    を含む請求項5に記載の方法。
  7. 初期データを取得し、前記初期データのデータ特徴を抽出するための取得モジュールと、
    前記データ特徴に基づいて、グラフィックプロセッサが前記初期データを処理する時に必要な初期メモリ消費量を生成するための第1の生成モジュールと、
    前記初期メモリ消費量に基づいて、推奨処理パラメータを生成するための第2の生成モジュールと、
    前記推奨処理パラメータに基づいて前記初期データを処理して、ターゲットデータを取得するための処理モジュールと、
    を備えるデータ処理装置。
  8. 前記初期データが、前記初期データを分割して得られた複数の初期データセグメントを含み、
    前記取得モジュールが、
    初期データを取得するための取得サブモジュールと、
    前記複数の初期データセグメントの間のフレーム長差異情報を決定し、前記フレーム長差異情報を前記初期データのデータ特徴とするための第1の決定サブモジュールと、
    を備える請求項7に記載の装置。
  9. 前記第1の決定サブモジュールが、
    前記複数の初期データセグメントの第1のバッチサイズを決定し、
    前記複数の初期データセグメントにそれぞれ対応する複数のデータフレーム長を決定し、
    前記第1のバッチサイズと前記複数のデータフレーム長とに基づいて、前記複数の初期データセグメントの間のフレーム長差異情報を決定する請求項8に記載の装置。
  10. 前記第1の生成モジュールが、
    前記複数のデータフレーム長の中から最大データフレーム長の初期データセグメントのデータセグメント数を決定するための第2の決定サブモジュールと、
    前記第1のバッチサイズと前記データセグメント数とに基づいて、グラフィックプロセッサが前記初期データを処理する時に必要な初期メモリ消費量を生成するための第1の生成サブモジュールと、
    を備える請求項9に記載の装置。
  11. 前記処理モジュールが、
    前記初期メモリ消費量に基づいて、第2のバッチサイズを生成するための第2の生成サブモジュールであって、前記第2のバッチサイズが前記第1のバッチサイズと同じまたは異なる第2の生成サブモジュールと、
    前記初期メモリ消費量に基づいて、複数のターゲットフレーム長を生成し、前記第2のバッチサイズと前記複数のターゲットフレーム長とを前記推奨処理パラメータとするための第3の生成サブモジュールと、
    を備える請求項9に記載の装置。
  12. 前記処理モジュールが、
    前記複数の初期データセグメントを中間データとしてスプライスし、前記推奨処理パラメータに基づいて前記中間データを分割して、複数のターゲットデータセグメントを取得するための分割サブモジュールであって、前記複数のターゲットデータセグメントのバッチサイズは前記第2のバッチサイズであり、前記複数のターゲットデータセグメントにそれぞれ対応する複数のデータフレーム長は前記複数のターゲットフレーム長であり、前記複数のターゲットデータセグメントが共に前記ターゲットデータを構成する分割サブモジュールを備える請求項11に記載の装置。
  13. 少なくとも1つのプロセッサと、
    該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
    を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から6のいずれか一項に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。
  14. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が、コンピュータに請求項1から6のいずれか一項に記載の方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。
  15. プロセッサによって実行される場合に、請求項1から6のいずれか一項に記載の方法が実現されるコンピュータプログラム。
JP2022035289A 2021-05-21 2022-03-08 データ処理方法、装置、電子機器及び記憶媒体 Active JP7343637B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110558344.4A CN113362218B (zh) 2021-05-21 2021-05-21 数据处理方法、装置、电子设备及存储介质
CN202110558344.4 2021-05-21

Publications (2)

Publication Number Publication Date
JP2022078241A true JP2022078241A (ja) 2022-05-24
JP7343637B2 JP7343637B2 (ja) 2023-09-12

Family

ID=77527161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022035289A Active JP7343637B2 (ja) 2021-05-21 2022-03-08 データ処理方法、装置、電子機器及び記憶媒体

Country Status (5)

Country Link
US (1) US20220188163A1 (ja)
EP (1) EP4044032A1 (ja)
JP (1) JP7343637B2 (ja)
KR (1) KR20220046526A (ja)
CN (1) CN113362218B (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62166471A (ja) * 1986-01-20 1987-07-22 Mitsubishi Electric Corp 画像デ−タ並列処理方式
US20110057935A1 (en) * 2009-09-10 2011-03-10 Mark Fowler Tiling Compaction in Multi-Processor Systems
US20170032487A1 (en) * 2015-07-30 2017-02-02 International Business Machines Corporation Pipelined approach to fused kernels for optimization of machine learning workloads on graphical processing units

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7961194B2 (en) * 2003-11-19 2011-06-14 Lucid Information Technology, Ltd. Method of controlling in real time the switching of modes of parallel operation of a multi-mode parallel graphics processing subsystem embodied within a host computing system
US8655892B2 (en) * 2010-09-29 2014-02-18 International Business Machines Corporation Data reorganization
CN111316281B (zh) * 2017-07-26 2024-01-23 舒辅医疗 基于机器学习的自然语言情境中数值数据的语义分类方法以及系统
CN108389576B (zh) * 2018-01-10 2020-09-01 苏州思必驰信息科技有限公司 压缩后的语音识别模型的优化方法及系统
CN110610450B (zh) * 2018-06-15 2023-05-05 伊姆西Ip控股有限责任公司 数据处理方法、电子设备和计算机可读存储介质
CN109616093B (zh) * 2018-12-05 2024-02-27 平安科技(深圳)有限公司 端对端语音合成方法、装置、设备及存储介质
CN110008372A (zh) * 2019-02-22 2019-07-12 北京奇艺世纪科技有限公司 模型生成方法、音频处理方法、装置、终端及存储介质
CN110209926A (zh) * 2019-04-22 2019-09-06 北京三快在线科技有限公司 商家推荐方法、装置、电子设备及可读存储介质
CN110717891A (zh) * 2019-09-17 2020-01-21 平安科技(深圳)有限公司 基于分组批量的图片检测方法、装置及存储介质
CN112578995A (zh) * 2019-09-29 2021-03-30 西安诺瓦星云科技股份有限公司 数据集合处理方法、装置和系统
CN111145728B (zh) * 2019-12-05 2022-10-28 厦门快商通科技股份有限公司 语音识别模型训练方法、系统、移动终端及存储介质
CN111881902B (zh) * 2020-07-28 2023-06-27 平安科技(深圳)有限公司 训练样本制作方法、装置、计算机设备及可读存储介质
CN112181659B (zh) * 2020-10-09 2023-07-18 中国人民解放军国防科技大学 云仿真内存资源预测模型构建方法与内存资源预测方法
CN112579595A (zh) * 2020-12-01 2021-03-30 北京三快在线科技有限公司 数据处理方法、装置、电子设备及可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62166471A (ja) * 1986-01-20 1987-07-22 Mitsubishi Electric Corp 画像デ−タ並列処理方式
US20110057935A1 (en) * 2009-09-10 2011-03-10 Mark Fowler Tiling Compaction in Multi-Processor Systems
US20170032487A1 (en) * 2015-07-30 2017-02-02 International Business Machines Corporation Pipelined approach to fused kernels for optimization of machine learning workloads on graphical processing units

Also Published As

Publication number Publication date
CN113362218A (zh) 2021-09-07
JP7343637B2 (ja) 2023-09-12
EP4044032A1 (en) 2022-08-17
KR20220046526A (ko) 2022-04-14
CN113362218B (zh) 2022-09-27
US20220188163A1 (en) 2022-06-16

Similar Documents

Publication Publication Date Title
CN114970522B (zh) 语言模型的预训练方法、装置、设备、存储介质
CN109119067B (zh) 语音合成方法及装置
US20220215177A1 (en) Method and system for processing sentence, and electronic device
KR20210090122A (ko) 분산형 모델 트레이닝 장치, 방법 및 컴퓨터 프로그램
JP6974421B2 (ja) 音声認識方法及び装置
CN113407850B (zh) 一种虚拟形象的确定和获取方法、装置以及电子设备
EP4287074A1 (en) Mixture-of-experts model implementation method and system, electronic device, and storage medium
EP4116859A2 (en) Document processing method and apparatus and medium
JP7394818B2 (ja) メモリ割り当て方法、装置、及び電子機器
JP2023007369A (ja) 翻訳方法、分類モデルの訓練方法、装置、デバイス及び記憶媒体
US20230013796A1 (en) Method and apparatus for acquiring pre-trained model, electronic device and storage medium
KR20210127613A (ko) 대화 생성 방법, 장치, 전자 기기 및 기록 매체
KR20230005079A (ko) 데이터 인터랙션 방법과 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램
JP2022028897A (ja) 文章翻訳方法、装置、電子機器及び記憶媒体
JP2023002690A (ja) セマンティックス認識方法、装置、電子機器及び記憶媒体
US20220128372A1 (en) Method for path planning, electronic device and storage medium
JP2022088540A (ja) ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体
JP2022031854A (ja) 返信内容の生成方法、装置、機器及び記憶媒体
CN114187405A (zh) 确定虚拟形象的方法及装置、设备、介质和产品
EP4254256A1 (en) Spoken language processing method and apparatus, electronic device, and storage medium
JP2023078411A (ja) 情報処理方法、モデルトレーニング方法、装置、機器、媒体及びプログラム製品
US20230111511A1 (en) Intersection vertex height value acquisition method and apparatus, electronic device and storage medium
JP2022078241A (ja) データ処理方法、装置、電子機器及び記憶媒体
JP2022078286A (ja) データ処理モデルのトレーニング方法、装置、電子機器及び記憶媒体
JP2022088586A (ja) 音声認識方法、音声認識装置、電子機器、記憶媒体コンピュータプログラム製品及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230831

R150 Certificate of patent or registration of utility model

Ref document number: 7343637

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150