JP2021026567A - Format conversion device and program - Google Patents

Format conversion device and program Download PDF

Info

Publication number
JP2021026567A
JP2021026567A JP2019144835A JP2019144835A JP2021026567A JP 2021026567 A JP2021026567 A JP 2021026567A JP 2019144835 A JP2019144835 A JP 2019144835A JP 2019144835 A JP2019144835 A JP 2019144835A JP 2021026567 A JP2021026567 A JP 2021026567A
Authority
JP
Japan
Prior art keywords
format
training
telegram
machine learning
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019144835A
Other languages
Japanese (ja)
Inventor
澤田 純一
Junichi Sawada
純一 澤田
博資 山口
Hirosuke Yamaguchi
博資 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MUFG Bank Ltd
Original Assignee
MUFG Bank Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MUFG Bank Ltd filed Critical MUFG Bank Ltd
Priority to JP2019144835A priority Critical patent/JP2021026567A/en
Publication of JP2021026567A publication Critical patent/JP2021026567A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a telegraphic message processing technique capable of reducing burden required for format conversion.SOLUTION: A format conversion device includes: an interface unit for acquiring an individual format telegraphic message of each of a plurality of transmission source systems from the plurality of transmission source systems; and a format conversion unit for converting the acquired individual format telegraphic message into a common format telegraphic message between a plurality of transmission destination systems by a trained machine learning model.SELECTED DRAWING: Figure 2

Description

本発明は、電文処理に関する。 The present invention relates to telegram processing.

ネットワーク化の進展によって、企業、団体、機関などによって運営されている各種コンピュータシステムがインターネットなどのネットワークを介し接続され、電文やメッセージなどの各種データをやりとりしている。例えば、金融機関により利用されているコンピュータシステムは、日本銀行、SWIFT、保管振替機構、証券取引所などの各種決済機関、ロイター、ブルームバーグなどの各種情報提供機関などの外部機関のコンピュータシステムと通信接続され、これら外部機関のコンピュータシステムとの間で各種データが送受信されている。 With the progress of networking, various computer systems operated by companies, organizations, institutions, etc. are connected via networks such as the Internet, and various data such as telegrams and messages are exchanged. For example, the computer system used by financial institutions communicates with the computer systems of various settlement institutions such as the Bank of Japan, SWIFT, Custody and Transfer Organization, stock exchanges, and various information providers such as Reuters and Bloomberg. Various data are transmitted and received to and from the computer systems of these external organizations.

これら外部機関のコンピュータシステムでは、自社のコンピュータシステムと異なるデータフォーマットが採用されているかもしれず、この場合、接続先の各コンピュータシステムで利用されている個別のデータフォーマットは、自社のコンピュータシステムにおいて利用されているデータフォーマットに変換される必要がある。 The computer systems of these external institutions may use different data formats from their own computer systems, in which case the individual data formats used by each connected computer system will be used by their own computer system. It needs to be converted to the data format that is being used.

また、自社のコンピュータシステム内でも様々な種類のコンピュータシステムが利用されている。例えば、金融機関のコンピュータシステムでは、勘定系システム、対顧客チャネルシステム、情報系システムなどが利用され、各システムは一般に独自のデータフォーマットを採用している。 In addition, various types of computer systems are used in the company's computer system. For example, a computer system of a financial institution uses a core banking system, a customer channel system, an information system, and the like, and each system generally adopts its own data format.

このような場合、例えば、各外部機関A,B及びCに独自に採用されている個別フォーマット電文A,B及びCを受信した場合、システムX,Y及びZを有する自社のコンピュータシステムは、図1に示されるように、フォーマット変換装置A,B及びCを利用して、外部機関A,B及びCから受信した個別フォーマット電文をシステムX,Y及びZのそれぞれに採用されているフォーマットX,Y及びZに変換する必要がある。具体的には、外部機関AからフォーマットAのシステムZ宛の個別フォーマット電文を受信すると、フォーマット変換装置Aは、受信した個別フォーマット電文をフォーマットZの個別フォーマット電文に変換し、システムZに転送する。図示された具体例では、フォーマットA→フォーマットX、フォーマットA→フォーマットY、フォーマットA→フォーマットZ、フォーマットB→フォーマットX、フォーマットB→フォーマットY、フォーマットB→フォーマットZ、フォーマットC→フォーマットX、フォーマットC→フォーマットY及びフォーマットC→フォーマットZの9通りのフォーマット変換が必要となる。 In such a case, for example, when the individual format messages A, B and C independently adopted by each external organization A, B and C are received, the company's computer system having the systems X, Y and Z is shown in the figure. As shown in 1, the format conversion devices A, B, and C are used to send the individual format messages received from the external organizations A, B, and C to the formats X, which are adopted in the systems X, Y, and Z, respectively. Need to convert to Y and Z. Specifically, when an individual format telegram addressed to the system Z of the format A is received from the external organization A, the format conversion device A converts the received individual format telegram into the individual format telegram of the format Z and transfers it to the system Z. .. In the illustrated specific example, format A → format X, format A → format Y, format A → format Z, format B → format X, format B → format Y, format B → format Z, format C → format X, format Nine format conversions of C → format Y and format C → format Z are required.

フォーマットの種類が多数ある場合、フォーマット変換の組み合わせも膨大となる。このため、フォーマット変換のためのプログラムを作成する負担が増大すると共に、フォーマットが更新された場合、これに伴って過大なプログラムの修正が必要となり、かなりの維持運用コストが予想される。 When there are many types of formats, the number of combinations of format conversions becomes enormous. For this reason, the burden of creating a program for format conversion increases, and when the format is updated, it is necessary to modify the excessive program accordingly, and a considerable maintenance and operation cost is expected.

上記問題点に鑑み、本発明の課題は、フォーマット変換に要する負担を軽減可能な電文処理技術を提供することである。 In view of the above problems, an object of the present invention is to provide a telegram processing technique capable of reducing the burden required for format conversion.

上記課題を解決するため、本発明の一態様は、複数の送信元システムから、前記送信元システムの各々の個別フォーマット電文を取得するインタフェース部と、訓練済み機械学習モデルによって、前記取得した個別フォーマット電文を複数の送信先システムの間の共通フォーマット電文に変換するフォーマット変換部と、を有するフォーマット変換装置に関する。 In order to solve the above problems, one aspect of the present invention is an interface unit that acquires an individual format message of each of the source systems from a plurality of source systems, and an individual format acquired by a trained machine learning model. The present invention relates to a format conversion device having a format conversion unit for converting a message into a common format message among a plurality of destination systems.

本発明によると、フォーマット変換の組み合わせを低減し、変換プログラムの作成及び維持に係るコストを軽減できる。 According to the present invention, the combination of format conversions can be reduced, and the cost of creating and maintaining a conversion program can be reduced.

従来技術によるコンピュータシステム間の電文処理を示す概略図である。It is a schematic diagram which shows the telegram processing between computer systems by a prior art. 本発明の一実施例によるコンピュータシステム間の電文処理を示す概略図である。It is the schematic which shows the telegram processing between computer systems by one Example of this invention. 本発明の一実施例によるフォーマット変換装置及び訓練装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware structure of the format conversion apparatus and the training apparatus according to one Example of this invention. 本発明の一実施例によるフォーマット変換装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the format conversion apparatus by one Example of this invention. 本発明の一実施例によるフォーマット変換処理を示すフローチャートである。It is a flowchart which shows the format conversion process by one Example of this invention. 本発明の一実施例による訓練装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the training apparatus according to one Example of this invention. 本発明の一実施例による訓練処理を示すフローチャートである。It is a flowchart which shows the training process by one Example of this invention.

以下、図面に基づいて本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

以下の実施例では、コンピュータシステム間でやりとりされる電文のフォーマットを変換するフォーマット変換装置が開示される。 In the following examples, a format conversion device that converts the format of a telegram exchanged between computer systems is disclosed.

後述される実施例を概略すると、図2に示されるように、フォーマット変換システム10のフォーマット変換装置100は、送信元システムである外部機関20A〜Cのそれぞれから送信された送信先システム30X〜Z宛の個別フォーマットA〜Cの個別フォーマット電文を受信すると、フォーマット変換システム10の訓練装置200によって予め訓練された機械学習モデルを利用して、受信した個別フォーマット電文を送信先システム30X〜Zの間で共通に利用される共通フォーマット電文にフォーマット変換し、変換後の共通フォーマット電文を宛先の送信先システム30X〜Zに送信する。 Summarizing the examples described later, as shown in FIG. 2, the format conversion device 100 of the format conversion system 10 is a transmission destination system 30X to Z transmitted from each of the external organizations 20A to 20C which are the transmission source systems. When the individual format messages of the individual formats A to C are received, the received individual format messages are transmitted between the destination systems 30X to Z by using the machine learning model trained in advance by the training device 200 of the format conversion system 10. The format is converted into a common format message commonly used in the above, and the converted common format message is transmitted to the destination systems 30X to Z.

これにより、フォーマット間の各組合わせに対してフォーマット変換プログラムを作成することなく、異なる電文フォーマットを採用する外部機関とのやりとりが可能になり、フォーマット変換のためのプログラムを作成及び維持する負担を低減できる。 This makes it possible to communicate with external organizations that adopt different telegram formats without creating a format conversion program for each combination between formats, and the burden of creating and maintaining a program for format conversion. Can be reduced.

ここで、フォーマット変換装置100及び訓練装置200は、例えば、図3に示されるようなハードウェア構成を有してもよい。すなわち、フォーマット変換装置100及び訓練装置200は、バスBを介し相互接続されるドライブ装置101、補助記憶装置102、メモリ装置103、CPU(Central Processing Unit)104、インタフェース装置105及び通信装置106を有する。 Here, the format conversion device 100 and the training device 200 may have, for example, a hardware configuration as shown in FIG. That is, the format conversion device 100 and the training device 200 include a drive device 101, an auxiliary storage device 102, a memory device 103, a CPU (Central Processing Unit) 104, an interface device 105, and a communication device 106 that are interconnected via the bus B. ..

フォーマット変換装置100及び訓練装置200における後述される各種機能及び処理を実現するプログラムを含む各種コンピュータプログラムは、CD−ROM(Compact Disk−Read Only Memory)などの記録媒体107によって提供されてもよい。プログラムを記憶した記録媒体107がドライブ装置101にセットされると、プログラムが記録媒体107からドライブ装置101を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体107により行う必要はなく、ネットワークなどを介し何れかの外部装置からダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータなどを格納する。メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムやデータを読み出して格納する。プロセッサとして機能するCPU104は、メモリ装置103に格納されたプログラムやプログラムを実行するのに必要なパラメータなどの各種データに従って、後述されるようなフォーマット変換装置100及び訓練装置200の各種機能及び処理を実行する。インタフェース装置105は、ネットワーク又は外部装置に接続するための通信インタフェースとして用いられる。通信装置106は、外部装置と通信するための各種通信処理を実行する。 Various computer programs including programs for realizing various functions and processes described later in the format conversion device 100 and the training device 200 may be provided by a recording medium 107 such as a CD-ROM (Compact Disk-Read Only Memory). When the recording medium 107 storing the program is set in the drive device 101, the program is installed in the auxiliary storage device 102 from the recording medium 107 via the drive device 101. However, the program does not necessarily have to be installed on the recording medium 107, and may be downloaded from any external device via a network or the like. The auxiliary storage device 102 stores the installed program and also stores necessary files and data. The memory device 103 reads and stores a program or data from the auxiliary storage device 102 when a program start instruction is given. The CPU 104, which functions as a processor, performs various functions and processes of the format conversion device 100 and the training device 200 as described later according to various data such as a program stored in the memory device 103 and parameters necessary for executing the program. Execute. The interface device 105 is used as a communication interface for connecting to a network or an external device. The communication device 106 executes various communication processes for communicating with the external device.

しかしながら、フォーマット変換装置100及び訓練装置200は、上述したハードウェア構成に限定されるものでなく、他の何れか適切なハードウェア構成により実現されてもよい。 However, the format conversion device 100 and the training device 200 are not limited to the hardware configuration described above, and may be realized by any other suitable hardware configuration.

まず、図4を参照して、本発明の一実施例によるフォーマット変換装置100を説明する。例えば、フォーマット変換装置100は、銀行などの金融機関のコンピュータシステム内に配置され、決済機関(例えば、日本銀行、SWIFT、保管振替機構、証券取引所など)、情報提供機関(例えば、ロイター、ブルームバーグなど)などの各種外部機関から送信された各外部機関に独自のフォーマットにより作成された個別フォーマット電文を受信する。フォーマット変換装置100は、受信した個別フォーマット電文を訓練装置200によって予め訓練された機械学習モデルに入力し、コンピュータシステム内の各種システム間で共通に利用される共通フォーマット電文を訓練済み機械学習モデルから取得する。そして、フォーマット変換装置100は、受信した個別フォーマット電文から変換された共通フォーマット電文を宛先のシステム(例えば、勘定系システム、対顧客チャネルシステム、情報系システムなど)に転送する。 First, the format conversion device 100 according to the embodiment of the present invention will be described with reference to FIG. For example, the format conversion device 100 is arranged in the computer system of a financial institution such as a bank, and is arranged in a settlement institution (for example, Bank of Japan, SWIFT, Japan Securities Depository Center, Stock Exchange, etc.) and an information providing institution (for example, Reuters, Bloomberg). Etc.), etc., and each external institution receives an individual format message created in its own format. The format conversion device 100 inputs the received individual format message into the machine learning model trained in advance by the training device 200, and inputs the common format message commonly used among various systems in the computer system from the trained machine learning model. get. Then, the format conversion device 100 transfers the common format message converted from the received individual format message to the destination system (for example, accounting system, customer channel system, information system, etc.).

図4は、本発明の一実施例によるフォーマット変換装置100の機能構成を示すブロック図である。図4に示されるように、フォーマット変換装置100は、インタフェース部110及びフォーマット変換部120を有する。 FIG. 4 is a block diagram showing a functional configuration of the format conversion device 100 according to an embodiment of the present invention. As shown in FIG. 4, the format conversion device 100 has an interface unit 110 and a format conversion unit 120.

インタフェース部110は、複数の送信元システム20A〜Cから、送信元システム20A〜Cの各々の個別フォーマット電文を取得する。各送信元システム20A〜Cは、当該送信元システム20A〜Cの運用主体、システム設計主体などによって選択又は設計された何れかのフォーマットに従って電文を記述する。例えば、当該フォーマットは、既知のフォーマットの何れかであってもよいし、あるいは、当該システムで独自に採用しているフォーマットであってもよい。インタフェース部110は、受信した個別フォーマット電文をフォーマット変換部120に転送し、フォーマット変換部120によってフォーマット変換された共通フォーマット電文を宛先の送信先システム30A〜Cに送信する。 The interface unit 110 acquires individual format telegrams of the source systems 20A to C from the plurality of source systems 20A to C. Each of the source systems 20A to C describes a telegram according to any format selected or designed by the operating entity, the system design entity, or the like of the source systems 20A to C. For example, the format may be any of the known formats, or may be a format independently adopted by the system. The interface unit 110 transfers the received individual format telegram to the format conversion unit 120, and transmits the common format telegram format-converted by the format conversion unit 120 to the destination systems 30A to C.

なお、本実施例は、3つの送信元システム20A〜Cと3つの送信先システム30A〜Cとを参照して説明されるが、本発明はこれに限定されることなく、任意数の送信元システム及び送信先システムに適用されてもよい。 The present embodiment will be described with reference to the three source systems 20A to C and the three destination systems 30A to C, but the present invention is not limited to this, and any number of sources is not limited thereto. It may be applied to the system and the destination system.

フォーマット変換部120は、訓練済み機械学習モデルによって、取得した個別フォーマット電文を複数の送信先システム30A〜Cの間の共通フォーマット電文に変換する。当該機械学習モデルは、例えば、ニューラルネットワークとして実現されてもよく、個別フォーマット電文を共通フォーマット電文に変換するように後述される訓練装置200によって予め訓練されている。また、共通フォーマットは、送信先システム30A〜Cの運用主体、システム設計主体などによって選択又は設計された既知のフォーマットの何れかのフォーマット、あるいは、独自に採用されたフォーマットであってもよい。訓練済み機械学習モデルは、電文の内容の全て又は一部を維持したまま、入力された個別フォーマット電文を共通フォーマット電文に変換する。 The format conversion unit 120 converts the acquired individual format telegram into a common format telegram between the plurality of destination systems 30A to C by the trained machine learning model. The machine learning model may be realized as, for example, a neural network, and is pre-trained by a training device 200 described later so as to convert an individual format telegram into a common format telegram. Further, the common format may be any of the known formats selected or designed by the operating entity of the destination systems 30A to C, the system design entity, or the like, or a format independently adopted. The trained machine learning model converts the input individual format telegram into a common format telegram while preserving all or part of the content of the telegram.

共通フォーマット電文への変換が終了すると、フォーマット変換部120は、変換された共通フォーマット電文をインタフェース部110に返し、インタフェース部110は、取得した共通フォーマット電文を宛先の送信先システム30A〜Cに転送する。 When the conversion to the common format telegram is completed, the format conversion unit 120 returns the converted common format telegram to the interface unit 110, and the interface unit 110 transfers the acquired common format telegram to the destination systems 30A to C. To do.

次に、図5を参照して、本発明の一実施例によるフォーマット変換処理を説明する。当該フォーマット変換処理は、上述したフォーマット変換装置100によって実現され、特にフォーマット変換装置100のプロセッサがプログラムを実行することによって実現されうる。図5は、本発明の一実施例によるフォーマット変換処理を示すフローチャートである。 Next, the format conversion process according to the embodiment of the present invention will be described with reference to FIG. The format conversion process is realized by the format conversion device 100 described above, and in particular, it can be realized by the processor of the format conversion device 100 executing a program. FIG. 5 is a flowchart showing a format conversion process according to an embodiment of the present invention.

図5に示されるように、ステップS101において、フォーマット変換装置100は、複数の送信元システム20A〜Cから、送信元システム20A〜Cの各々の個別フォーマット電文を取得する。 As shown in FIG. 5, in step S101, the format conversion device 100 acquires individual format telegrams of the source systems 20A to C from the plurality of source systems 20A to C.

ステップS102において、フォーマット変換装置100は、受信した個別フォーマット電文を訓練済み機械学習モデルに入力する。当該機械学習モデルは、訓練用個別フォーマット電文を訓練前の機械学習モデルに入力し、訓練前の機械学習モデルからの出力と訓練用共通フォーマット電文との間の比較結果に応じて訓練前の機械学習モデルのパラメータを更新することによって取得されうる。当該機械学習モデルは、訓練装置200によって予め訓練され、例えば、ニューラルネットワークなどとして実現されうる。 In step S102, the format converter 100 inputs the received individual format telegram into the trained machine learning model. In the machine learning model, the training individual format message is input to the pre-training machine learning model, and the pre-training machine is based on the comparison result between the output from the pre-training machine learning model and the training common format message. It can be obtained by updating the parameters of the training model. The machine learning model is pre-trained by the training device 200 and can be realized as, for example, a neural network.

ステップS103において、フォーマット変換装置100は、個別フォーマット電文から変換された共通フォーマット電文を訓練済み機械学習モデルから取得し、取得した共通フォーマット電文を宛先の送信先システム30A〜Cに送信する。 In step S103, the format conversion device 100 acquires the common format telegram converted from the individual format telegram from the trained machine learning model, and transmits the acquired common format telegram to the destination systems 30A to C.

次に、図6を参照して、本発明の一実施例による訓練装置200を説明する。訓練装置200は、予め用意された訓練データを利用して、ニューラルネットワークなどとして実現される機械学習モデルを訓練し、訓練後の機械学習モデルをフォーマット変換装置100に提供する。図6は、本発明の一実施例による訓練装置200の機能構成を示すブロック図である。 Next, the training device 200 according to an embodiment of the present invention will be described with reference to FIG. The training device 200 trains a machine learning model realized as a neural network or the like by using the training data prepared in advance, and provides the trained machine learning model to the format conversion device 100. FIG. 6 is a block diagram showing a functional configuration of the training device 200 according to an embodiment of the present invention.

図6に示されるように、訓練装置200は、訓練データ取得部210及びモデル訓練部220を有する。 As shown in FIG. 6, the training device 200 has a training data acquisition unit 210 and a model training unit 220.

訓練データ取得部210は、個別フォーマット電文とこれに対応する共通フォーマット電文とのペアから構成される訓練データを取得する。典型的には、ペアにおける個別フォーマット電文及び対応する共通フォーマット電文は、電文内容の全て又は一部が同一である異なるフォーマットで記述された電文である。当該訓練データは、例えば、フォーマット変換システム10の運営者、設計者などによって予め準備され、データベース(図示せず)などに格納されている。 The training data acquisition unit 210 acquires training data composed of a pair of an individual format telegram and a corresponding common format telegram. Typically, the individual format telegrams in pairs and the corresponding common format telegrams are telegrams written in different formats in which all or part of the telegram content is the same. The training data is prepared in advance by, for example, an operator, a designer, or the like of the format conversion system 10 and stored in a database (not shown) or the like.

モデル訓練部220は、各訓練データに対して、訓練データの個別フォーマット電文を機械学習モデルに入力し、機械学習モデルからの出力結果と当該訓練データの対応する共通フォーマット電文との比較結果に基づき機械学習モデルを訓練する。例えば、機械学習モデルがニューラルネットワークとして実現されている場合、モデル訓練部220は、機械学習モデルからの出力結果と対応する共通フォーマット電文との間の誤差を算出し、算出した誤差に応じて機械学習モデルのパラメータを更新する。用意された訓練データの全て又は所定数について上述したパラメータの更新が終了したなど、所定の終了条件が充足するまで、モデル訓練部220は、上述した処理を繰り返す。 The model training unit 220 inputs the individual format message of the training data into the machine learning model for each training data, and based on the comparison result between the output result from the machine learning model and the corresponding common format message of the training data. Train a machine learning model. For example, when the machine learning model is realized as a neural network, the model training unit 220 calculates the error between the output result from the machine learning model and the corresponding common format message, and the machine is based on the calculated error. Update the parameters of the training model. The model training unit 220 repeats the above-described processing until a predetermined end condition is satisfied, such as the update of the above-mentioned parameters for all or a predetermined number of the prepared training data is completed.

しかしながら、本発明による訓練手法は、これに限定されず、例えば、訓練対象の機械学習モデルのタイプに応じて適切な訓練手法が利用されてもよい。 However, the training method according to the present invention is not limited to this, and for example, an appropriate training method may be used depending on the type of machine learning model to be trained.

次に、図7を参照して、本発明の一実施例による訓練処理を説明する。当該訓練処理は、上述した訓練装置200によって実現され、特に訓練装置200のプロセッサがプログラムを実行することによって実現されうる。図7は、本発明の一実施例による訓練処理を示すフローチャートである。 Next, the training process according to the embodiment of the present invention will be described with reference to FIG. 7. The training process is realized by the training device 200 described above, and in particular, it can be realized by the processor of the training device 200 executing a program. FIG. 7 is a flowchart showing a training process according to an embodiment of the present invention.

図7に示されるように、ステップS201において、訓練装置200は、訓練データを取得する。機械学習モデルが教師有り学習により訓練される場合、訓練データは、個別フォーマット電文と共通フォーマット電文とのペアから構成されてもよい。 As shown in FIG. 7, in step S201, the training device 200 acquires training data. When the machine learning model is trained by supervised learning, the training data may consist of a pair of individual format telegrams and common format telegrams.

ステップS202において、訓練装置200は、訓練データの個別フォーマット電文を機械学習モデルに入力する。 In step S202, the training device 200 inputs an individual format telegram of training data into the machine learning model.

ステップS203において、訓練装置200は、機械学習モデルから出力された共通フォーマット電文と訓練用の共通フォーマット電文とを比較する。具体的には、訓練装置200は、予め用意されている損失関数を利用して、出力された共通フォーマット電文と訓練用の共通フォーマット電文との間の誤差を算出する。 In step S203, the training device 200 compares the common format telegram output from the machine learning model with the common format telegram for training. Specifically, the training device 200 uses a loss function prepared in advance to calculate an error between the output common format telegram and the common format telegram for training.

ステップS204において、訓練装置200は、比較結果に応じて機械学習モデルのパラメータを更新する。具体的には、訓練装置200は、ステップS203において算出された誤差が減少するように機械学習モデルのパラメータを誤差逆伝播法などの適切なアルゴリズムに従って更新する。 In step S204, the training device 200 updates the parameters of the machine learning model according to the comparison result. Specifically, the training device 200 updates the parameters of the machine learning model according to an appropriate algorithm such as an error backpropagation method so that the error calculated in step S203 is reduced.

ステップS205において、訓練装置200は、終了条件を充足したか判定する。具体的には、当該終了条件は、所定数の訓練データに対してステップS201〜S204が実行されたか否かであってもよい。終了条件が充足された場合(S205:YES)、訓練装置200は、当該訓練処理を終了し、終了条件が充足されていない場合(S205:NO)、訓練装置200は、ステップS201に戻り、次の訓練データに対して上述したステップS201〜S204を実行する。 In step S205, the training device 200 determines whether the end condition is satisfied. Specifically, the termination condition may be whether or not steps S201 to S204 have been executed for a predetermined number of training data. When the end condition is satisfied (S205: YES), the training device 200 ends the training process, and when the end condition is not satisfied (S205: NO), the training device 200 returns to step S201 and next. Steps S201 to S204 described above are executed for the training data of.

以上、本発明の実施例について詳述したが、本発明は上述した特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the examples of the present invention have been described in detail above, the present invention is not limited to the above-mentioned specific embodiments, and various modifications are made within the scope of the gist of the present invention described in the claims.・ Can be changed.

10 フォーマット変換システム
100 フォーマット変換装置
110 インタフェース部
120 フォーマット変換部
200 訓練装置
210 訓練データ取得部
220 モデル訓練部
10 Format conversion system 100 Format conversion device 110 Interface unit 120 Format conversion unit 200 Training device 210 Training data acquisition unit 220 Model training unit

Claims (4)

複数の送信元システムから、前記送信元システムの各々の個別フォーマット電文を取得するインタフェース部と、
訓練済み機械学習モデルによって、前記取得した個別フォーマット電文を複数の送信先システムの間の共通フォーマット電文に変換するフォーマット変換部と、
を有するフォーマット変換装置。
An interface unit that acquires individual format telegrams of each of the source systems from a plurality of source systems,
A format conversion unit that converts the acquired individual format telegram into a common format telegram among a plurality of destination systems by a trained machine learning model.
Format conversion device with.
前記訓練済み機械学習モデルは、訓練用個別フォーマット電文を訓練前の機械学習モデルに入力し、前記訓練前の機械学習モデルからの出力と訓練用共通フォーマット電文との間の誤差に応じて前記訓練前の機械学習モデルのパラメータを更新することによって取得される、請求項1記載のフォーマット変換装置。 In the trained machine learning model, the training individual format message is input to the pre-training machine learning model, and the training is performed according to an error between the output from the pre-training machine learning model and the training common format message. The format conversion device according to claim 1, which is obtained by updating the parameters of the previous machine learning model. 前記インタフェース部は、前記共通フォーマット電文を宛先の送信先システムに送信する、請求項1又は2記載のフォーマット変換装置。 The format conversion device according to claim 1 or 2, wherein the interface unit transmits the common format telegram to a destination system of a destination. 複数の送信元システムから、前記送信元システムの各々の個別フォーマット電文を取得する処理と、
訓練済み機械学習モデルによって、前記取得した個別フォーマット電文を複数の送信先システムの間の共通フォーマット電文に変換する処理と、
をコンピュータに実行させるプログラム。
The process of acquiring each individual format telegram of the source system from a plurality of source systems, and
Using the trained machine learning model, the process of converting the acquired individual format telegram into a common format telegram among multiple destination systems, and
A program that causes a computer to run.
JP2019144835A 2019-08-06 2019-08-06 Format conversion device and program Pending JP2021026567A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019144835A JP2021026567A (en) 2019-08-06 2019-08-06 Format conversion device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019144835A JP2021026567A (en) 2019-08-06 2019-08-06 Format conversion device and program

Publications (1)

Publication Number Publication Date
JP2021026567A true JP2021026567A (en) 2021-02-22

Family

ID=74664765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019144835A Pending JP2021026567A (en) 2019-08-06 2019-08-06 Format conversion device and program

Country Status (1)

Country Link
JP (1) JP2021026567A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7320810B1 (en) 2022-10-18 2023-08-04 株式会社サマデイ AI server interface system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0589001A (en) * 1991-09-30 1993-04-09 Fuji Facom Corp Standard formatting system
JP2004133632A (en) * 2002-10-09 2004-04-30 Arkray Inc Data relay device and data management system using it
JP2014507029A (en) * 2011-01-26 2014-03-20 マイクロソフト コーポレーション Formatting data by example

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0589001A (en) * 1991-09-30 1993-04-09 Fuji Facom Corp Standard formatting system
JP2004133632A (en) * 2002-10-09 2004-04-30 Arkray Inc Data relay device and data management system using it
JP2014507029A (en) * 2011-01-26 2014-03-20 マイクロソフト コーポレーション Formatting data by example

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7320810B1 (en) 2022-10-18 2023-08-04 株式会社サマデイ AI server interface system
JP7320809B1 (en) 2022-10-18 2023-08-04 株式会社サマデイ AI server interface system and non-cognitive skill brush-up system
WO2024084996A1 (en) * 2022-10-18 2024-04-25 株式会社サマデイ Ai server interface system
WO2024084995A1 (en) * 2022-10-18 2024-04-25 株式会社サマデイ Ai server interface system and non-cognitive skill brushup system
JP2024059541A (en) * 2022-10-18 2024-05-01 株式会社サマデイ AI server interface system
JP2024059115A (en) * 2022-10-18 2024-05-01 株式会社サマデイ AI server interface system and non-cognitive skill brush-up system

Similar Documents

Publication Publication Date Title
CN102185901B (en) Client message conversion method
GB2576461A (en) Financial derivative contract execution platform, system and method
CN109347917A (en) Block chain data common recognition processing method, system, storage medium and electronic equipment
CN110349004A (en) Risk of fraud method for detecting and device based on user node relational network
CN105446896A (en) MapReduce application cache management method and device
JPH07271777A (en) Character code management system of decentralized information processing system
CN110780979B (en) Control method and device for configuration under micro-service framework, medium and electronic equipment
CN106815329A (en) A kind of data cached update method and device
US20020120770A1 (en) Method for designating communication paths in a network
CN109495392A (en) Message conversion process method and device, electronic equipment, storage medium
CN109218229A (en) A kind of message processing method, the network equipment and storage medium
WO2024092993A1 (en) Service function chain profit maximization mapping method and system
WO2017031430A1 (en) Optimized electronic match engine with external generation of market data using a minimum data set
JP2021026567A (en) Format conversion device and program
CN111127011A (en) Transaction method, system and computer-readable storage medium for checking account based on block chain
CN116112175A (en) Service processing method, device and medium of digital twin network based on block chain
CN110262988A (en) For controlling the method and system of network routing
WO2021004478A1 (en) Distributed ai system
CN107786446A (en) A kind of abstract method and device based on ACTN controller systems
US10885586B2 (en) Methods for automatically generating structured pricing models from unstructured multi-channel communications and devices thereof
US7765465B2 (en) Enhanced electronic data interchange (EDI) reporting with hyperlinks to EDI source information
CN113630476B (en) Communication method and communication device applied to computer cluster
CN109857807A (en) Transaction data synchronization method, apparatus, equipment and medium based on block chain
CN114172958A (en) Private computing node, system, method, apparatus, and storage medium
JP2019200477A (en) Chat system, chat method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231031