WO2023228314A1 - 仕様対応データ推定装置、機械学習方法、仕様対応データ推定方法、及びプログラム - Google Patents

仕様対応データ推定装置、機械学習方法、仕様対応データ推定方法、及びプログラム Download PDF

Info

Publication number
WO2023228314A1
WO2023228314A1 PCT/JP2022/021381 JP2022021381W WO2023228314A1 WO 2023228314 A1 WO2023228314 A1 WO 2023228314A1 JP 2022021381 W JP2022021381 W JP 2022021381W WO 2023228314 A1 WO2023228314 A1 WO 2023228314A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
machine learning
predetermined
estimation
estimation device
Prior art date
Application number
PCT/JP2022/021381
Other languages
English (en)
French (fr)
Inventor
正彬 西野
健吾 中村
宜仁 安田
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2022/021381 priority Critical patent/WO2023228314A1/ja
Publication of WO2023228314A1 publication Critical patent/WO2023228314A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present disclosure relates to a technique that makes it possible to reduce prediction errors while making the input and output data satisfy the predetermined specifications when there are predetermined specifications that should be satisfied by a pair of input and output data for an arbitrary machine learning model.
  • This is an algorithm that selects from H.
  • the input domain X may be a set of N-dimensional real vectors, a set of images, a set of news articles, etc.
  • each output domain Y for each input domain X a set of real numbers, a set of names of objects shown in an image, a set of news categories, etc. can be considered.
  • the hypothesis h ⁇ H is called a multiclass classifier.
  • the problem of estimating the corresponding output domain y ⁇ Y using a hypothesis is called a multiclass classification problem.
  • a document classification problem is a problem of estimating the genre of a news document given as an input, but this problem can be treated as a multi-class classification problem and solved using machine learning technology.
  • Non-Patent Document 1 Normally, it is difficult to guarantee that the hypothesis h ⁇ H estimated from the set of hypotheses H satisfies the specifications (conventions). Therefore, in the past, if such specifications existed, it was necessary to use a specific model such as Markov Logic Networks as a machine learning model (set of hypotheses) that could take the specifications into account. (See Non-Patent Document 1).
  • the present invention has been made in view of the above points, and aims to perform appropriate machine learning according to various specifications.
  • the invention according to claim 1 is a specification-compatible data estimation device that performs machine learning on a machine learning model in accordance with a predetermined specification in a learning phase, the device comprising: an acquisition unit that acquires a specification function that outputs data of a plurality of training examples and whether each of the plurality of training examples satisfies the predetermined specifications; Specification-compatible data comprising: a specification verification unit that verifies data of a predetermined training example that satisfies the predetermined specifications among the data; and a machine learning unit that performs machine learning on the machine learning model using the data of the predetermined training example. It is an estimation device.
  • FIG. 1 is an overall configuration diagram of a communication system according to this embodiment.
  • 1 is an electrical hardware configuration diagram of a specification-compatible data estimating device according to the present embodiment.
  • FIG. FIG. 2 is an electrical hardware configuration diagram of a communication terminal according to the present embodiment.
  • FIG. 2 is a functional configuration diagram of a specification-corresponding data estimation device in a learning phase.
  • FIG. 2 is a functional configuration diagram of a specification-corresponding data estimation device in an estimation phase.
  • 3 is a flowchart showing the processing or operation performed by the specification corresponding data estimation device in the learning phase.
  • 3 is a flowchart showing the processing or operation performed by the specification corresponding data estimation device in the estimation phase.
  • FIG. 1 is an overall configuration diagram of a communication system according to this embodiment.
  • the communication system 1 of this embodiment is constructed by a specification compatible data estimation device 3 and a communication terminal 5.
  • the communication terminal 5 is managed and used by a user.
  • the user refers to the output result of the specification correspondence data estimation device and determines the subsequent response.
  • the specification compatible data estimation device 3 and the communication terminal 5 can communicate via a communication network 100 such as the Internet.
  • the connection form of the communication network 100 may be either wireless or wired.
  • the specification corresponding data estimation device 3 is configured by one or more computers. When the specification corresponding data estimating device 3 is constituted by a plurality of computers, it may be referred to as a "specification corresponding data estimating device” or a “specification corresponding data estimating system.”
  • the specification-compatible data estimation device 3 performs appropriate machine learning and estimation according to various specifications (regulations) such as prohibition of recommending a specific product group to minors.
  • the communication terminal 5 is a computer, and in FIG. 1, a notebook computer is shown as an example.
  • a user operates a communication terminal 5.
  • the specification compatible data estimation device 3 may perform processing alone without using the communication terminal 5.
  • FIG. 2 is an electrical hardware configuration diagram of the specification corresponding data estimation device.
  • the specification compatible data estimation device 3 is a computer that includes a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, a RAM (Random Access Memory) 303, and an SSD (Solid State Drive). ) 304, an external device connection I/F (Interface) 305, a network I/F 306, a media I/F 309, and a bus line 310.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • SSD Solid State Drive
  • the CPU 301 controls the operation of the entire specification-compatible data estimation device 3.
  • the ROM 302 stores programs used to drive the CPU 301, such as IPL (Initial Program Loader).
  • RAM 303 is used as a work area for CPU 301.
  • the SSD 304 reads or writes various data under the control of the CPU 301.
  • an HDD Hard Disk Drive
  • SDD Serial Digital
  • the external device connection I/F 305 is an interface for connecting various external devices.
  • External devices in this case include a display, speaker, keyboard, mouse, USB (Universal Serial Bus) memory, printer, and the like.
  • the network I/F 306 is an interface for data communication via the communication network 100.
  • the media I/F 309 controls reading or writing (storage) of data to a recording medium 309m such as a flash memory.
  • the recording media 309m also include DVDs (Digital Versatile Discs), Blu-ray Discs (registered trademark), and the like.
  • the bus line 310 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 301 shown in FIG. 2.
  • FIG. 3 is an electrical hardware configuration diagram of the communication terminal.
  • the communication terminal 5 is a computer that includes a CPU 501, ROM 502, RAM 503, SSD 504, external device connection I/F (Interface) 505, network I/F 506, display 507, pointing device 508, and media. It includes an I/F 509 and a bus line 510.
  • I/F Interface
  • the CPU 501 controls the entire operation of the communication terminal 5.
  • the ROM 502 stores programs used to drive the CPU 501 such as IPL.
  • RAM 503 is used as a work area for CPU 501.
  • the SSD 504 reads or writes various data under the control of the CPU 501. Note that an HDD (Hard Disk Drive) may be used instead of the SSD 504.
  • HDD Hard Disk Drive
  • the external device connection I/F 505 is an interface for connecting various external devices.
  • External devices in this case include a display, speaker, keyboard, mouse, USB memory, printer, and the like.
  • the network I/F 506 is an interface for data communication via the communication network 100.
  • the display 507 is a type of display means such as liquid crystal or organic EL (Electro Luminescence) that displays various images.
  • the pointing device 508 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. Note that when the user uses a keyboard, the function of the pointing device 508 may be turned off.
  • the media I/F 509 controls reading or writing (storage) of data to a recording medium 509m such as a flash memory.
  • the recording media 509m also include DVDs, Blu-ray Discs (registered trademark), and the like.
  • the bus line 510 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 501 shown in FIG. 4.
  • the hypothetical function h is a function that receives elements of X and outputs elements of Y, and is expressed as h.
  • a loss function is a function that outputs a large value depending on the degree of difference between two inputs, for example, a 0-1 loss.
  • FIG. 4 is a functional configuration diagram of the specification corresponding data estimation device in the learning phase.
  • the specification corresponding data estimation device 3 includes an acquisition section 31, a specification verification section 32, and a machine learning section 35. Each of these units is a function realized by instructions from the CPU 301 in FIG. 2 based on a program. Furthermore, a machine learning model 30a is stored in the RAM 303 or SSD 304.
  • the acquisition unit 31 acquires training example data S (input data x, output data y) and specification function c from the communication terminal 7.
  • the specification function c is a function c(x,y) that receives an input/output data pair (x,y) ⁇ X ⁇ Y and outputs result information indicating whether or not it satisfies a predetermined specification.
  • the predetermined specification A includes an age restriction on the person to whom the products or services are provided, for example, when recommending a specific product group or service group to minors is prohibited.
  • the specification verification unit 32 uses the specification function c acquired by the acquisition unit 31 to verify data S′ of a predetermined training example that satisfies a predetermined specification A among the data S of the plurality of training examples. In this case, the specification verification unit 32 manages (holds) the specification function c for use in the estimation phase. Specifically, the specification verification unit 32 uses the specification function c acquired from the acquisition unit 31 to determine whether the pair (x i , y i ) in the training example S satisfies the predetermined specification A. Verify.
  • the machine learning unit 35 performs machine learning on the machine learning model 30g based on a hypothesis h (input data x, output data y) that minimizes the training loss for the set S' of training examples. Specifically, the machine learning unit 35 receives only a predetermined training example S′ that satisfies a predetermined specification A from the specification verification unit 32, and generates a hypothesis that minimizes the training loss.
  • Conditional probability distributions such as neural networks
  • FIG. 5 is a functional configuration diagram of the specification corresponding data estimation device in the estimation phase.
  • the specification corresponding data estimation device 3 includes an acquisition section 31, a specification verification section 32, an estimation section 37, and an output section 39. Each of these units is a function realized by instructions from the CPU 301 in FIG. 2 based on a program. Furthermore, a trained machine learning model 30b is stored in the RAM 303 or SSD 304. Note that functional configurations similar to those in the learning phase are designated by the same reference numerals and description thereof will be omitted.
  • the estimation unit 37 uses the trained machine learning model 30b and estimates and outputs output data y that satisfies a predetermined specification using the specification function c managed by the specification verification unit 32. Specifically, the estimation unit 37 uses the hypothesis obtained in the learning phase.
  • the output unit 39 outputs estimation result information indicating the output data y that satisfies the predetermined specifications estimated by the estimation unit 37 from the specification corresponding data estimation device 3. Examples of output include displaying on a display connected to external device connection I/F 305 in FIG. 2, and transmitting to an external device via network I/F 306.
  • FIG. 6 is a flowchart showing the processing or operation performed by the specification corresponding data estimation device in the learning phase.
  • the acquisition unit 31 acquires the training example S (input data x, output data y) and the specification function c based on direct input from the communication terminal 7 or to its own device (specification corresponding data estimation device).
  • the specification verification unit 32 outputs a predetermined set of training examples S′ that satisfies the specification function c acquired by the acquisition unit 31 from the training examples S acquired by the acquisition unit 31. In this case, the specification verification unit 32 retains the specification function c for use in the estimation phase.
  • the machine learning unit 35 performs machine learning on the machine learning model 30a based on a hypothesis h (input data x, output data y) that minimizes the training loss for the set data S' of the training example.
  • the machine learning model 30a uses existing algorithms.
  • FIG. 7 is a flowchart showing the processing or operation performed by the specification corresponding data estimation device in the estimation phase.
  • the acquisition unit 31 acquires input data x ⁇ X based on direct input from the communication terminal 7 or to its own device (specification compatible data estimation device 3).
  • the estimation unit 37 uses the trained machine learning model 30b and outputs output data y that satisfies the predetermined specification A using the specification function c managed (maintained) by the specification verification unit 32.
  • the output unit 39 outputs information on the estimation result.
  • the present invention is not limited to the above-described embodiments, and may have the following configuration or processing (operation).
  • the specification corresponding data estimation device 3 can be realized by a computer and a program, but this program can also be recorded on a (non-temporary) recording medium or provided via the communication network 100.
  • other devices server, router, etc.
  • the input unit 31 of the specification compatible data estimation device 3 transmits data to the communication terminal 5, but this transmission process may include other This also includes cases where devices relay data.
  • a notebook computer is shown as an example of the communication terminal 5, but it is not limited to this, and examples include a desktop computer, a tablet terminal, a smartphone, a smart watch, a car navigation device, a refrigerator, A microwave oven or the like may be used.
  • Each CPU 301, 501 may be a single CPU or a plurality of CPUs.
  • Communication system Specification compatible data estimation device 5 Communication terminal 30a Machine learning model 30b Learned machine learning model 31 Acquisition unit (input unit) 32 Specification verification section 35 Machine learning section 37 Estimation section 39 Output section

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本開示は、様々な仕様に応じて、適切な機械学習を行うことを目的とする。 そのため、本開示は、学習フェーズにおいて、機械学習モデルを所定の仕様に対応して機械学習させる仕様対応データ推定装置3であって、入力データ及び出力データのペアである複数の訓練例のデータ及び当該複数の訓練例のそれぞれが前記所定の仕様を満たすか否かを出力する仕様関数を取得する取得部31と、前記仕様関数を用いて、前記複数の訓練例のデータのうち前記所定の仕様を満たす所定の訓練例のデータを検証する仕様検証部32と、前記所定の訓練例のデータにより、前記機械学習モデルを機械学習させる機械学習部35と、を有する仕様対応データ推定装置である。

Description

仕様対応データ推定装置、機械学習方法、仕様対応データ推定方法、及びプログラム
 本開示は、任意の機械学習モデルに対する入出力データのペアが満たすべき所定の仕様が存在する場合に、入出力データが所為の仕様を満たしつつ予測誤差を小さくすることを可能とする技術に関する。
 Xを入力ドメイン、Yを出力ドメインとする。機械学習とは、Xの要素xiとYの要素yiのペアの系列である、訓練例の列S= [(x1,y1),(x2,y2),…,(xn,yn)] が与えられたときに、入力ドメインXから出力ドメインYへの写像である仮説h:X→Yのうち、できるだけ正しくxiに対応するyiが予測可能な仮説の集合Hから選択するアルゴリズムである。即ち、機械学習とは、h(xi)=yiを満たすような訓練例(xi,yi)∈Sが多数存在するような所定の仮説を、与えられた仮説の集合Hから選択する。
 例えば、入力ドメインXとしては、N次元の実数ベクトルの集合、画像の集合、ニュース記事の集合などが考えられる。また、各入力ドメインXに対する各出力ドメインYとしては、実数の集合、画像に映っている物体の名前の集合、ニュースのカテゴリの集合などが考えられる。特に、出力ドメインYが離散的な自然数の有限集合Y={1,2,…,K}であった場合、仮説h∈Hは多クラス分類器とよばれる。また、与えられた入力ドメインx∈Xに対して、仮説を用いて対応する出力ドメインy∈Yを推定する問題のことを多クラス分類問題とよぶ。
 このような機械学習技術を用いて多クラス分類問題を解く方法は広く利用されている。例えば、文書分類問題とは入力として与えられたニュース文書のジャンルを推定する問題であるが、この問題を多クラス分類問題とみなして機械学習技術を用いて解くことができる。
 機械学習技術は幅広い応用分野で利用されるが、機械学習技術が利用される場面によっては、与えられた入力ドメインxに対して、仮説の出力ドメインy=h(x)が満たすべき値が仕様により予め定まっている場合がある。例えば、オンラインショッピングサービスの利用者に対して、利用者が興味を持つと期待される商品を推薦する仕組みは、利用者の集合をX, 推薦の対象となる商品の集合をYとするような多クラス分類問題として定式化できる。機械学習技術を用いてこのような問題を解くと、訓練(学習)例から推定された仮説h:X→Yは、任意の利用者に対して任意の商品を推薦する可能性がある。
 ところが、サービスの規約等によって、未成年者に対して特定の商品群を推薦することが禁止されている場合には、未成年である利用者xに対して、仮説が出力した商品y=h(x)を推薦することは規約違反となる恐れがある。
 通常、仮説の集合Hから推定された仮説h∈Hが仕様(規約)を満たすことを保証することは困難である。そのため、従来は、このような仕様が存在する場合、仕様を加味することが可能な機械学習モデル(仮説の集合)として、例えば、Markov Logic Networksのような特定のモデルを利用する必要があった(非特許文献1参照)。
Matthew Rechardson and Pedro Domingos, "Markov Logic Networks," Machine Learning Vol.62, pp.107-136, 2006.
 しかし、上記未成年者の例に限らず様々な仕様が存在し、様々な仕様に応じてよい性能を発揮する機械学習モデルは異なる。そのため、仕様を満たすことを保証しようとすると、仕様内容に応じた特定の機械学習モデルを選択しなければならないが、様々な機械学習モデルの中から適切な特定のモデルを選択することは現実には困難である。
 本発明は、上記の点に鑑みてなされたものであって、様々な仕様に応じて、適切な機械学習を行うことを目的とする。
 上記課題を解決するため、請求項1に係る発明は、学習フェーズにおいて、機械学習モデルを所定の仕様に対応して機械学習させる仕様対応データ推定装置であって、入力データ及び出力データのペアである複数の訓練例のデータ及び当該複数の訓練例のそれぞれが前記所定の仕様を満たすか否かを出力する仕様関数を取得する取得部と、前記仕様関数を用いて、前記複数の訓練例のデータのうち前記所定の仕様を満たす所定の訓練例のデータを検証する仕様検証部と、前記所定の訓練例のデータにより、前記機械学習モデルを機械学習させる機械学習部と、を有する仕様対応データ推定装置である。
 以上説明したように本発明によれば、様々な仕様に応じて、適切な機械学習を行うことができるという効果を奏する。
本実施形態に係る通信システムの全体構成図である。 本実施形態に係る仕様対応データ推定装置の電気的なハードウェア構成図である。 本実施形態に係る通信端末の電気的なハードウェア構成図である。 学習フェーズにおける仕様対応データ推定装置の機能構成図である。 推定フェーズにおける仕様対応データ推定装置の機能構成図である。 学習フェ-ズにおいて仕様対応データ推定装置が実行する処理又は動作を示すフローチャートである。 推定フェ-ズにおいて仕様対応データ推定装置が実行する処理又は動作を示すフローチャートである。
 以下、図面に基づいて本発明の実施形態を説明する。
 〔実施形態のシステム構成〕
 まず、図1を用いて、本実施形態の通信システムの全体構成略について説明する。図1は、本実施形態に係る通信システムの全体構成図である。
 図1に示されているように、本実施形態の通信システム1は、仕様対応データ推定装置3、及び通信端末5によって構築されている。通信端末5は、ユーザによって管理及び使用される。ユーザは、仕様対応データ推定装置の出力結果を参照して、その後の対応を判断する者である。
 また、仕様対応データ推定装置3と通信端末5は、インターネット等の通信ネットワーク100を介して通信することができる。通信ネットワーク100の接続形態は、無線又は有線のいずれでも良い。
 仕様対応データ推定装置3は、単数又は複数のコンピュータによって構成されている。仕様対応データ推定装置3が複数のコンピュータによって構成されている場合には、「仕様対応データ推定装置」と示しても良いし、「仕様対応データ推定システム」と示しても良い。
 仕様対応データ推定装置3は、未成年者に対して特定の商品群を推薦することが禁止されている等の様々な仕様(規約)に応じて、適切な機械学習及び推定を行う。
 通信端末5は、コンピュータであり、図1では、一例としてノート型パソコンが示されている。図1では、ユーザが、通信端末5を操作する。なお、通信端末5を用いずに、仕様対応データ推定装置3単独で処理をしてもよい。
 〔ハードウェア構成〕
 <仕様対応データ推定装置のハードウェア構成>
 次に、図2を用いて、仕様対応データ推定装置3の電気的なハードウェア構成を説明する。図2は、仕様対応データ推定装置の電気的なハードウェア構成図である。
 仕様対応データ推定装置3は、コンピュータとして、図2に示されているように、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、SSD(Solid State Drive)304、外部機器接続I/F(Interface)305、ネットワークI/F306、メディアI/F309、及びバスライン310を備えている。
 これらのうち、CPU301は、仕様対応データ推定装置3全体の動作を制御する。ROM302は、IPL(Initial Program Loader)等のCPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。
 SSD304は、CPU301の制御に従って各種データの読み出し又は書き込みを行う。なお、SDD304の代わりに、HDD(Hard Disk Drive)を用いても良い。
 外部機器接続I/F305は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、ディスプレイ、スピーカ、キーボード、マウス、USB(Universal Serial Bus)メモリ、及びプリンタ等である。
 ネットワークI/F306は、通信ネットワーク100を介してデータ通信をするためのインターフェースである。
 メディアI/F309は、フラッシュメモリ等の記録メディア309mに対するデータの読み出し又は書き込み(記憶)を制御する。記録メディア309mには、DVD(Digital Versatile Disc)やBlu-ray Disc(登録商標)等も含まれる。
 バスライン310は、図2に示されているCPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
 <通信端末のハードウェア構成>
 次に、図3を用いて、通信端末5の電気的なハードウェア構成を説明する。図3は、通信端末の電気的なハードウェア構成図である。
 通信端末5は、コンピュータとして、図3に示されているように、CPU501、ROM502、RAM503、SSD504、外部機器接続I/F(Interface)505、ネットワークI/F506、ディスプレイ507、ポインティングデバイス508、メディアI/F509、及びバスライン510を備えている。
 これらのうち、CPU501は、通信端末5全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。
 SSD504は、CPU501の制御に従って各種データの読み出し又は書き込みを行う。なお、SSD504の代わりに、HDD(Hard Disk Drive)を用いてもよい。
 外部機器接続I/F505は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、ディスプレイ、スピーカ、キーボード、マウス、USBメモリ、及びプリンタ等である。
 ネットワークI/F506は、通信ネットワーク100を介してデータ通信をするためのインターフェースである。
 ディスプレイ507は、各種画像を表示する液晶や有機EL(Electro Luminescence)などの表示手段の一種である。
 ポインティングデバイス508は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。なお、ユーザがキーボードを使う場合は、ポインティングデバイス508の機能をOFFにしてもよい。
 メディアI/F509は、フラッシュメモリ等の記録メディア509mに対するデータの読み出し又は書き込み(記憶)を制御する。記録メディア509mには、DVDやBlu-ray Disc(登録商標)等も含まれる。
 バスライン510は、図4に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
 〔仕様対応データ推定装置の機能構成〕
 続いて、本実施形態に係る仕様対応データ推定装置3の学習フェーズ及び推定(予測)フェーズにおける機能構成について説明する。
 ここで、入力ドメインをX、出力ラベルをYとする。以下では、Yは離散的な値の集合Y={1,2,…,K}とする。仮説の関数hは、Xの要素を受け取りYの要素を出力する関数であり、hと表現する。
 <学習フェーズの機能構成>
 学習フェーズの仕様対応データ推定装置3は、訓練例の集合S'=[(x1,y1),(x2,y2),…,(xn,yn)]と、仮説hの有限又は無限の集合Hに基づいて、訓練損失
Figure JPOXMLDOC01-appb-M000001
を最小とするような仮説
Figure JPOXMLDOC01-appb-M000002
を選択する。ここで仮説の集合Hとしては、例えばパラメータ
Figure JPOXMLDOC01-appb-M000003
によって特徴づけられるすべてのニューラルネットワークの集合などが該当する。
Figure JPOXMLDOC01-appb-M000004
はパラメータに特定の値を設定したときのニューラルネットワークなどを表す。
Figure JPOXMLDOC01-appb-M000005
は損失関数であり、2つの引数y,y'∈Yを受け取り、非負実数を出力する。
 損失関数は2つの入力の相違度合いに応じて大きな値を出力する関数であり、例えば0-1損失
Figure JPOXMLDOC01-appb-M000006
は、y=y'であるならば
Figure JPOXMLDOC01-appb-M000007
を出力し、y≠y'ならば
Figure JPOXMLDOC01-appb-M000008
を出力する関数である。
 続いて、学習フェーズにおける仕様対応データ推定装置3の各機能について詳細に説明する。図4は、学習フェーズにおける仕様対応データ推定装置の機能構成図である。
 図4に示すように、仕様対応データ推定装置3は、取得部31、仕様検証部32、及び機械学習部35を有する。これら各部は、プログラムに基づき図2のCPU301による命令によって実現される機能である。また、RAM303又はSSD304には、機械学習モデル30aが記憶されている。
 取得部31は、通信端末7から、訓練例データS(入力データx,出力データy)と仕様関数cを取得する。取得部31は、機械学習用の学習データを入力するための入力部としての役割も果たす。具体的には、取得部31は、通信端末5等のような外部から、複数の訓練例のデータS=[(x1,y1),…,(xn,yn)]と、複数の訓練例のそれぞれが所定の仕様Aを満たすか否かを出力する仕様関数cとを取得する。ここで、仕様関数cは入出力データのペア(x,y)∈X×Yを受け取り、それが所定の仕様を満たすか否かを示す結果情報を出力する関数c(x,y)である。仕様関数c(x,y)は入出力データのペア(x,y)が仕様を満たす場合にはc(x,y)=1を出力し、満たさない場合にはc(x,y)=0を出力する。また、所定の仕様Aは、例えば、未成年者に特定の商品群又はサービス群を推薦することが禁止されている場合のように、提供される者に対する年齢制限が挙げられる。
 仕様検証部32は、取得部31によって取得された仕様関数cを用いて、複数の訓練例のデータSのうち、所定の仕様Aを満たす所定の訓練例のデータS'を検証する。この場合、仕様検証部32は、推定フェーズで利用するために、仕様関数cを管理(保持)しておく。具体的には、仕様検証部32は、取得部31から取得された仕様関数cを用いて、訓練例S中のペア(xi,yi)が上記所定の仕様Aを満たすか否かを検証する。
 機械学習部35は、訓練例の集合S'に対する訓練損失が最小となるような仮説h(入力データx,出力データy)に基づいて、機械学習モデル30gを機械学習させる。具体的には、機械学習部35は、仕様検証部32から、所定の仕様Aを満たす所定の訓練例S'のみを受け取って訓練損失を最小とするような仮説
Figure JPOXMLDOC01-appb-M000009
を求める処理を実行する。
 <推定フェーズの機能構成>
 推論フェーズの仕様対応データ推定装置3は、学習フェーズによって推定された仮説
Figure JPOXMLDOC01-appb-M000010
と、入力データx∈Xに基づいて、
Figure JPOXMLDOC01-appb-M000011
を出力する。なお、以下では仮説h:X→Yは、(x,y)∈X×Yを引数として受け取り実数を出力する関数h(x,y)によって、
Figure JPOXMLDOC01-appb-M000012
として定義されるとする。ニューラルネットワークなど、条件付き確率分布
Figure JPOXMLDOC01-appb-M000013
を表す仮説はこの定義に該当する。
 続いて、推定フェーズにおける仕様対応データ推定装置3の各機能について詳細に説明する。図5は、推定フェーズにおける仕様対応データ推定装置の機能構成図である。
 図5に示すように、仕様対応データ推定装置3は、取得部31、仕様検証部32、推定部37、及び出力部39を有する。これら各部は、プログラムに基づき図2のCPU301による命令によって実現される機能である。また、RAM303又はSSD304には、学習済み機械学習モデル30bが記憶されている。なお、学習フェーズにおける機能構成と同様の機能構成については、同一の符号を付して説明を省略する。
 推定部37は、学習済みの機械学習モデル30bを用いると共に、仕様検証部32で管理されている仕様関数cにより所定の仕様を満たす出力データyを推定して出力する。具体的には、推定部37は、学習フェーズで得られた仮説
Figure JPOXMLDOC01-appb-M000014
と、仕様関数cとを用いて、c(x,y)=1を満たす適切なy∈Yを求める。
 なお、yは
Figure JPOXMLDOC01-appb-M000015
として求められる。
 出力部39は、推定部37によって推定された所定の仕様を満たす出力データyを示す推定結果の情報を、仕様対応データ推定装置3から出力する。出力する例としては、図2の外部機器接続I/F305に接続されたディスプレイに表示させる場合、ネットワークI/F306を介して外部装置に送信する場合等が挙げられる。
 〔仕様対応データ推定装置の処理又は動作〕
 続いて、図6及び図7を用いて、仕様対応データ推定装置3の学習フェーズ及び推定フェーズにおける処理又は動作について説明する。
 <学習フェーズにおける処理又は動作>
 図6は、学習フェーズにおいて仕様対応データ推定装置が実行する処理又は動作を示すフローチャートである。
 S11:取得部31は、通信端末7から又は自装置(仕様対応データ推定装置)に対する直接の入力に基づき、訓練例S(入力データx,出力データy)と仕様関数cを取得する。
 S12:仕様検証部32は、取得部31によって取得された訓練例Sから、取得部31によって取得された仕様関数cを満たす所定の訓練例の集合S'を出力する。この場合、仕様検証部32は、推定フェーズで利用するために、仕様関数cを保持しておく。
 例えば、仕様検証部32は、取得部31から入力された訓練例データSから、仕様関数c(xi,yi)=1を満たす全てのサンプルを選択して得られる集合データ
Figure JPOXMLDOC01-appb-M000016
を作成する。
 S13:機械学習部35は、訓練例の集合データS'に対する訓練損失が最小となるような仮説h(入力データx,出力データy)に基づいて、機械学習モデル30aを機械学習させる。機械学習モデル30aは、既存のアルゴリズムを用いる。
 これによって、仕様対応データ推定装置3は、外部の仕様を加味しつつ、推定誤りの少ない仮説を選択できることを理論的に示すことができる。
 以上により、学習フェーズの処理又は動作の説明が終了する。
 <推定フェーズにおける処理又は動作>
 図7は、推定フェーズにおいて仕様対応データ推定装置が実行する処理又は動作を示すフローチャートである。
 S21:取得部31は、通信端末7から又は自装置(仕様対応データ推定装置3)に対する直接の入力に基づき、取得部31は、入力データx∈Xを取得する。
 S22:推定部37は、学習済みの機械学習モデル30bを用いると共に、仕様検証部32で管理(保持)されている仕様関数cにより所定の仕様Aを満たす出力データyを出力する。
 S23:出力部39は、推定結果の情報を出力する。
 以上により、推定フェーズの処理又は動作の説明が終了する。
 〔実施形態の効果〕
 以上説明したように本実施形態によれば、様々な仕様(規約)に応じて、適切な機械学習を行うことができるという効果を奏する。
 〔補足〕
 本発明は上述の実施形態に限定されるものではなく、以下に示すような構成又は処理(動作)であってもよい。
(1)仕様対応データ推定装置3はコンピュータとプログラムによっても実現できるが、このプログラムを(非一時的な)記録媒体に記録することも、通信ネットワーク100を介して提供することも可能である。
(2)仕様対応データ推定装置3と通信端末5との間の通信において、他の装置(サーバ、ルータ等)がデータを中継してもよい。例えば、本明細書では、簡略化のために、仕様対応データ推定装置3の入力部31が通信端末5に対してデータを送信する旨が記載しているが、この送信処理には、他の装置がデータを中継する場合も含まれる趣旨である。
(3)上記実施形態では、通信端末5の一例としてノート型パソコンが示されているが、これに限るものではなく、例えば、デスクトップパソコン、タブレット端末、スマートフォン、スマートウォッチ、カーナビゲーション装置、冷蔵庫、電子レンジ等であってもよい。
(4)各CPU301,501は、単一だけでなく、複数であってもよい。
1 通信システム
3 仕様対応データ推定装置
5 通信端末
30a 機械学習モデル
30b 学習済み機械学習モデル
31 取得部(入力部)
32 仕様検証部
35 機械学習部
37 推定部
39 出力部

Claims (8)

  1.  学習フェーズにおいて、機械学習モデルを所定の仕様に対応して機械学習させる仕様対応データ推定装置であって、
     入力データ及び出力データのペアである複数の訓練例のデータ及び当該複数の訓練例のそれぞれが前記所定の仕様を満たすか否かを出力する仕様関数を取得する取得部と、
     前記仕様関数を用いて、前記複数の訓練例のデータのうち前記所定の仕様を満たす所定の訓練例のデータを検証する仕様検証部と、
     前記所定の訓練例のデータにより、前記機械学習モデルを機械学習させる機械学習部と、
     を有する仕様対応データ推定装置。
  2.  前記所定の仕様は、提供される者に対する年齢制限を示す、請求項1に記載の仕様対応データ推定装置。
  3.  学習フェーズにおいて、機械学習モデルを所定の仕様に対応して機械学習させる仕様対応データ推定装置が実行する機械学習方法であって、
     前記仕様対応データ推定装置は、
     入力データ及び出力データのペアである複数の訓練例のデータ及び当該複数の訓練例のそれぞれが前記所定の仕様を満たすか否かを出力する仕様関数を取得する取得処理と、
     前記仕様関数を用いて、前記複数の訓練例のデータのうち前記所定の仕様を満たす所定の訓練例のデータを検証する仕様検証処理と、
     前記所定の訓練例のデータにより、前記機械学習モデルを機械学習させる機械学習処理と、
     を実行する機械学習方法。
  4.  コンピュータに、請求項3に記載の方法を実行させるプログラム。
  5.  推定フェーズにおいて、学習済み機械学習モデルを用いて所定の仕様に対応した推定を行う仕様対応データ推定装置であって、
     所定の入力データを取得する取得部と、
     学習済み機械学習モデルを用いると共に、入力データ及び出力データのペアである複数の訓練例のそれぞれが前記所定の仕様を満たすか否かを出力する仕様関数により前記所定の仕様を満たす出力データを推定する推定部と、
     推定された前記出力データを示す推定結果の情報を出力する出力部と、
     を有する仕様対応データ推定装置。
  6.  前記所定の仕様は、提供される者に対する年齢制限を示す、請求項5に記載の仕様対応データ推定装置。
  7.  推定フェーズにおいて、学習済み機械学習モデルを用いて所定の仕様に対応した推定を行う仕様対応データ推定装置が実行する仕様対応データ推定方法であって、
     前記仕様対応データ推定装置は、
     所定の入力データを取得する取得処理と、
     学習済み機械学習モデルを用いると共に、入力データ及び出力データのペアである複数の訓練例のそれぞれが前記所定の仕様を満たすか否かを出力する仕様関数により前記所定の仕様を満たす出力データを推定する推定処理と、
     推定された前記出力データを示す推定結果の情報を出力する出力処理と、
     を実行する仕様対応データ推定方法。
  8.  コンピュータに、請求項7に記載の方法を実行させるプログラム。
PCT/JP2022/021381 2022-05-25 2022-05-25 仕様対応データ推定装置、機械学習方法、仕様対応データ推定方法、及びプログラム WO2023228314A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/021381 WO2023228314A1 (ja) 2022-05-25 2022-05-25 仕様対応データ推定装置、機械学習方法、仕様対応データ推定方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/021381 WO2023228314A1 (ja) 2022-05-25 2022-05-25 仕様対応データ推定装置、機械学習方法、仕様対応データ推定方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2023228314A1 true WO2023228314A1 (ja) 2023-11-30

Family

ID=88918711

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/021381 WO2023228314A1 (ja) 2022-05-25 2022-05-25 仕様対応データ推定装置、機械学習方法、仕様対応データ推定方法、及びプログラム

Country Status (1)

Country Link
WO (1) WO2023228314A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200720A (ja) * 2018-05-18 2019-11-21 株式会社竹中工務店 設計支援装置及び設計支援モデル学習装置
KR102068585B1 (ko) * 2018-08-27 2020-01-21 주식회사 셀바스헬스케어 골밀도 측정장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200720A (ja) * 2018-05-18 2019-11-21 株式会社竹中工務店 設計支援装置及び設計支援モデル学習装置
KR102068585B1 (ko) * 2018-08-27 2020-01-21 주식회사 셀바스헬스케어 골밀도 측정장치

Similar Documents

Publication Publication Date Title
US11243747B2 (en) Application digital content control using an embedded machine learning module
US11544743B2 (en) Digital content control based on shared machine learning properties
US10783450B2 (en) Learning user preferences using sequential user behavior data to predict user behavior and provide recommendations
US11093818B2 (en) Customer profile learning based on semi-supervised recurrent neural network using partially labeled sequence data
WO2019137104A1 (zh) 基于深度学习的推荐方法和装置、电子设备、介质、程序
US11640617B2 (en) Metric forecasting employing a similarity determination in a digital medium environment
US10984343B2 (en) Training and estimation of selection behavior of target
US20200167690A1 (en) Multi-task Equidistant Embedding
CN107437111B (zh) 基于神经网络的数据处理方法、介质、装置和计算设备
US12008591B2 (en) Machine learning based user targeting
US20180012237A1 (en) Inferring user demographics through categorization of social media data
US11514318B2 (en) Multi-source transfer learning from pre-trained networks
US20210117854A1 (en) Resolving conflicts between experts' intuition and data-driven artificial intelligence models
WO2022174343A1 (en) Recommendation with neighbor-aware hyperbolic embedding
JP6975610B2 (ja) 学習装置および学習方法
WO2024051707A1 (zh) 训练推荐模型的方法、推荐资源的方法及其装置
WO2023228314A1 (ja) 仕様対応データ推定装置、機械学習方法、仕様対応データ推定方法、及びプログラム
Liu et al. Evolutionary Voting‐Based Extreme Learning Machines
CN112269942B (zh) 一种推荐对象的方法、装置、系统及电子设备
CN115080856A (zh) 推荐方法及装置、推荐模型的训练方法及装置
US11429996B2 (en) System and method for generating preferred ameliorative actions using generative adversarial networks
WO2022235599A1 (en) Generation and implementation of dedicated feature-based techniques to optimize inference performance in neural networks
CN114139059A (zh) 资源推荐模型的训练方法、资源推荐方法及装置
CN113947431A (zh) 一种用户行为质量评估方法、装置、设备和存储介质
CN111726653B (zh) 视频管理方法及设备、电子设备和介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22943718

Country of ref document: EP

Kind code of ref document: A1