JP2021012594A - System, method, and program - Google Patents

System, method, and program Download PDF

Info

Publication number
JP2021012594A
JP2021012594A JP2019127057A JP2019127057A JP2021012594A JP 2021012594 A JP2021012594 A JP 2021012594A JP 2019127057 A JP2019127057 A JP 2019127057A JP 2019127057 A JP2019127057 A JP 2019127057A JP 2021012594 A JP2021012594 A JP 2021012594A
Authority
JP
Japan
Prior art keywords
model
prediction
monitoring
result
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019127057A
Other languages
Japanese (ja)
Other versions
JP7497142B2 (en
Inventor
奈央 舟根
Nao Funane
奈央 舟根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019127057A priority Critical patent/JP7497142B2/en
Priority to US16/918,856 priority patent/US11928560B2/en
Publication of JP2021012594A publication Critical patent/JP2021012594A/en
Application granted granted Critical
Publication of JP7497142B2 publication Critical patent/JP7497142B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3006Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is distributed, e.g. networked systems, clusters, multiprocessor systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/302Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a software system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3055Monitoring arrangements for monitoring the status of the computing system or of the computing system component, e.g. monitoring if the computing system is on, off, available, not available
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3452Performance evaluation by statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Hardware Design (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

To reduce time and effort for maintaining fairness in operating a plurality of learned models.SOLUTION: A system monitors a plurality of models created through machine learning, and comprises: monitoring means that, when a result of prediction with a first model using input including a plurality of values satisfies a predetermined condition, issues a warning about a specific item of the input corresponding to the predetermined condition; and providing means that provides, about the specific item, a message for promoting the setting of a condition to be monitored by the monitoring means to a second model different from the first model. When the predetermined condition is set to the first model, in at least one of a case where the result of prediction with the first model is determined to satisfy the predetermined condition and a case where the second model is registered in the system, the providing means provides the message.SELECTED DRAWING: Figure 1

Description

本発明は、機械学習の学習済モデルを監視するシステム、方法、及びプログラムに関する。 The present invention relates to systems, methods, and programs for monitoring trained models of machine learning.

機械学習では、学習用データを用いて学習モデルを調整し、調整が完了した学習モデルを学習済モデルとして本番運用する。従来、このような学習済モデルを用いて、ある事柄を予測する予測システムが知られている。例えば、特許文献1には、利用者が学習済モデルの判断結果に違和感がある場合、利用者自身が判断要素の重み付けを変更するなどして、学習済モデルを修正することが開示されている。 In machine learning, the learning model is adjusted using the learning data, and the adjusted learning model is put into production as a learned model. Conventionally, a prediction system that predicts a certain matter using such a trained model has been known. For example, Patent Document 1 discloses that when the user feels uncomfortable with the judgment result of the trained model, the user himself modifies the trained model by changing the weighting of the judgment element. ..

特開2019−16279号公報Japanese Unexamined Patent Publication No. 2019-16279

ところで、利用者が学習済モデルを運用する場合、複数の業務のそれぞれに対して別の学習済モデルを運用している場合がある。このように複数の学習済モデルを運用する場合について、特許文献1のような従来技術では何ら考慮されていなかった。
学習済モデルには意図しない偏りが生じることがあり、公平性を担保できていない場合がある。例えば、対象者に対するローンの承認可否を予測するシステムでは、対象者の年齢、性別、収入、及び勤続年数などの入力データを基に、学習済モデルによってローンの承認可否を判断する。このような学習済モデルには、女性より男性を承認と予測しやすい、年齢が低い人より高い人を承認と予測しやすい、といった偏りが意図せずに生じることがある。運用中の学習済モデルにこのような偏りがある場合、この偏りを補正し公平性を担保することが望まれる。
従来、複数の学習済モデルを運用する場合では、複数の学習済モデルのそれぞれに対して偏りの検証が必要であり、それぞれ公平性に影響する項目及びその基準を検討し、設定しなければならず、手間がかかるという問題があった。また、複数の学習済モデルのうち、ある学習済モデルには適切な設定ができていたが、同様の設定をすべき別の学習済モデルには設定が漏れていたというように、設定ミスが起こる可能性があった。
本発明は、複数の学習済モデルを運用する場合における公平性を保つための手間を軽減することができるシステムを提供することを目的とする。
By the way, when a user operates a trained model, there is a case where another trained model is operated for each of a plurality of tasks. The case of operating a plurality of trained models in this way has not been considered in the prior art as in Patent Document 1.
The trained model may have unintended biases and may not be fair. For example, in a system that predicts the approval or disapproval of a loan to a target person, the approval or disapproval of the loan is determined by a learned model based on input data such as the age, gender, income, and years of service of the target person. Such a trained model may unintentionally be biased, such as making it easier to predict that men are approved than women, and easier to predict that older people are approved than younger people. If there is such a bias in the trained model in operation, it is desirable to correct this bias and ensure fairness.
Conventionally, when operating multiple trained models, it is necessary to verify the bias for each of the multiple trained models, and it is necessary to consider and set the items that affect fairness and their criteria. However, there was a problem that it took time and effort. In addition, among multiple trained models, one trained model had an appropriate setting, but another trained model that should have the same setting was missing a setting. It could happen.
An object of the present invention is to provide a system that can reduce the effort for maintaining fairness when operating a plurality of trained models.

本発明の一実施形態のシステムは、機械学習により作成されたモデルを複数、監視するシステムであって、複数の値を含む入力を用いた第1のモデルによる予測の結果が所定条件を満たす場合に、前記所定条件に対応する前記入力の特定項目について警告を行う監視手段と、前記第1のモデルとは異なる第2のモデルに対して、前記特定項目について、前記監視手段による監視の対象となる条件の設定を促すメッセージを提供する提供手段と、を有し、前記提供手段は、前記第1のモデルに対して前記所定条件が設定された場合、前記第1のモデルによる予測の結果が前記所定条件を満たすと判断された場合、及び、前記第2のモデルがシステムに登録された場合の少なくともいずれかの場合に、前記メッセージを提供する。 The system of one embodiment of the present invention is a system that monitors a plurality of models created by machine learning, and the result of prediction by the first model using an input including a plurality of values satisfies a predetermined condition. In addition, a monitoring means that warns about a specific item of the input corresponding to the predetermined condition and a second model different from the first model are subject to monitoring of the specific item by the monitoring means. The providing means includes a providing means for providing a message prompting the setting of the above-mentioned condition, and when the predetermined condition is set for the first model, the providing means determines the result of prediction by the first model. The message is provided when it is determined that the predetermined condition is satisfied and at least one of the cases where the second model is registered in the system.

本発明によれば、複数の学習済モデルを運用する場合における公平性を保つための手間を軽減することができる。 According to the present invention, it is possible to reduce the time and effort required to maintain fairness when operating a plurality of trained models.

本発明の実施例1に係るシステムの全体構成を示す模式図である。It is a schematic diagram which shows the whole structure of the system which concerns on Example 1 of this invention. 本発明の実施例1に係るシステムを構成する情報処理装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the information processing apparatus which comprises the system which concerns on Example 1 of this invention. (A)は、公平性管理システム101の機能構成の一例を示すブロック図であり、(B)は、予測システム102の機能構成の一例を示すブロック図であり、(C)は、業務システム103の機能構成の一例を示すブロック図である。(A) is a block diagram showing an example of the functional configuration of the fairness management system 101, (B) is a block diagram showing an example of the functional configuration of the prediction system 102, and (C) is a block diagram showing an example of the functional configuration of the business system 103. It is a block diagram which shows an example of the functional structure of. (A)及び(B)は、公平性管理システム101の表示部304が表示する画面の一例である。(A) and (B) are examples of screens displayed by the display unit 304 of the fairness management system 101. (A)は、業務システム103−1の表示部311が表示する生命保険加入審査画面の一例であり、(B)は、業務システム103−2の表示部311が表示する自動車保険加入審査画面の一例である。(A) is an example of the life insurance enrollment examination screen displayed by the display unit 311 of the business system 103-1. (B) is an example of the automobile insurance enrollment examination screen displayed by the display unit 311 of the business system 103-2. This is an example. 保険加入審査の予測を行う場合の、業務システム103、公平性管理システム101、及び予測システム102の処理を示したシーケンス図である。It is a sequence diagram which showed the processing of the business system 103, the fairness management system 101, and the prediction system 102 when the insurance participation examination is predicted. 公平性の監視処理のフローチャートである。It is a flowchart of fairness monitoring process. 図4(A)に示した予測システム監視画面400−1であって、図7の処理による表示がされた状態を示す図である。FIG. 4 is a diagram showing a state in which the prediction system monitoring screen 400-1 shown in FIG. 4A is displayed by the process of FIG. 7.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

<システム構成>
図1は、本発明の実施例1に係るシステムの全体構成を示す模式図である。
本発明の実施例1に係るシステム100は、公平性管理システム101、予測システム102−1、予測システム102−2、業務システム103−1、及び業務システム103−2を有して構成される。公平性管理システム101、予測システム102−1、予測システム102−2、業務システム103−1、及び業務システム103−2は、それぞれが1台以上の情報処理装置で構成されている。複数のシステムが1台の情報処理装置で構成されていてもよい。ここで情報処理装置は、パーソナルコンピュータなどの各種コンピュータ、又は仮想マシンなどのことである。仮想マシンは、例えばソフトウェアプログラムで動作をエミュレートした仮想のコンピュータなどである。この情報処理装置の一例である情報処理装置200については、図2を用いて後述する。公平性管理システム101は、予測システム102−1及び予測システム102−2のそれぞれで動作する学習済モデルが公平性を担保できているかを監視するシステムである。学習済モデルは、学習モデルを学習用データで学習させることで作成される。学習済モデルは、機械学習により作成されたモデルである。
<System configuration>
FIG. 1 is a schematic view showing an overall configuration of a system according to a first embodiment of the present invention.
The system 100 according to the first embodiment of the present invention includes a fairness management system 101, a prediction system 102-1, a prediction system 102-2, a business system 103-1 and a business system 103-2. The fairness management system 101, the prediction system 102-1, the prediction system 102-2, the business system 103-1 and the business system 103-2 are each composed of one or more information processing devices. A plurality of systems may be composed of one information processing device. Here, the information processing device refers to various computers such as personal computers, virtual machines, and the like. A virtual machine is, for example, a virtual computer whose operation is emulated by a software program. The information processing device 200, which is an example of this information processing device, will be described later with reference to FIG. The fairness management system 101 is a system that monitors whether the trained models operating in the prediction system 102-1 and the prediction system 102-2 can ensure fairness. The trained model is created by training the training model with training data. The trained model is a model created by machine learning.

ここで、公平性とは、例えば、学習済モデルを運用して予測結果を受け取るユーザー、及び実際に予測結果に基づくサービス提供を受けるユーザーにとって公平であるかどうかという観点である。また、公平性とは、例えば、学習済モデルが実際に運用される国、及び環境における、制度、慣習、及び文化に基づく基準に対して公平であるかどうかという観点である。つまり、公平性を判断するための基準は、利用者、及び利用環境に応じて変化する可能性がある。
そして、本実施例において、学習済モデルの予測結果を用いたアウトプットについて、そのような公平性が担保されるということは、そのような基準に対しての公平さを満たしている状態であるといえる。なお、公平性を判断するための基準は、例えば、学習済モデルを運用するユーザーなどが設定することができる。
Here, fairness is a viewpoint of whether or not it is fair to, for example, a user who operates a learned model and receives a prediction result, and a user who actually receives a service based on the prediction result. Fairness is, for example, the perspective of fairness to institutional, customary, and cultural standards in the country and environment in which the learned model is actually operated. In other words, the criteria for judging fairness may change depending on the user and the usage environment.
And, in this embodiment, the fact that such fairness is guaranteed for the output using the prediction result of the trained model is a state in which the fairness to such a standard is satisfied. It can be said that. The criteria for determining fairness can be set, for example, by a user who operates a trained model.

予測システム102−1は、業務システム103−1からの要求を受けて、学習済モデルを用いて予測を行うシステムである。業務システム103−1は、生命保険の加入希望者からの申請内容に対して保険加入の審査を行うシステムである。予測システム102−1の学習済モデルは、第2のモデルの一例である。
予測システム102−2は、業務システム103−2からの要求を受けて、学習済モデルを用いて予測を行うシステムである。業務システム103−2は、自動車保険の加入希望者からの申請内容に対して保険加入の審査を行うシステムである。予測システム102−2の学習済モデルは、第1のモデルの一例である。
ネットワーク104は、インターネットなどのネットワークであり、特に種類を問わない。公平性管理システム101、予測システム102−1、予測システム102−2、業務システム103−1、及び業務システム103−2は、ネットワーク104を介して、それぞれ同士で通信を行うことができる。
The prediction system 102-1 is a system that receives a request from the business system 103-1 and makes a prediction using a trained model. The business system 103-1 is a system that examines insurance coverage for the contents of applications from applicants for life insurance coverage. The trained model of the prediction system 102-1 is an example of the second model.
The prediction system 102-2 is a system that receives a request from the business system 103-2 and makes a prediction using a trained model. The business system 103-2 is a system that examines insurance coverage for the contents of applications from applicants for automobile insurance. The trained model of the prediction system 102-2 is an example of the first model.
The network 104 is a network such as the Internet, and is not particularly limited in type. The fairness management system 101, the prediction system 102-1, the prediction system 102-2, the business system 103-1 and the business system 103-2 can communicate with each other via the network 104.

<情報処理装置の内部構成>
図2は、図1に示したシステム100を構成する情報処理装置の内部構成の一例を示すブロック図である。
図1に示した公平性管理システム101、予測システム102−1、予測システム102−2、業務システム103−1、及び業務システム103−2のそれぞれは、図2の情報処理装置200によって構成される。
情報処理装置200は、本実施例に係るシステム100の動作を制御するプログラムを実行するCPU201を有する。CPUは、Central Processing Unitの略称である。情報処理装置200は、システムバス204を有する。CPU201は、システムバス204に接続される各ハードウェアを総括的に制御する。情報処理装置200は、HDD210及びディスクコントローラー209を有する。HDDは、Hard Disk Driveの略称である。HDD210は、記憶装置の一例であり、ここでは大容量記憶装置である。HDD210は、CPU201で実行されるプログラムを記憶する。ディスクコントローラー209は、HDD210を制御する。
<Internal configuration of information processing device>
FIG. 2 is a block diagram showing an example of the internal configuration of the information processing apparatus constituting the system 100 shown in FIG.
Each of the fairness management system 101, the prediction system 102-1, the prediction system 102-2, the business system 103-1 and the business system 103-2 shown in FIG. 1 is configured by the information processing device 200 of FIG. ..
The information processing device 200 has a CPU 201 that executes a program that controls the operation of the system 100 according to the present embodiment. CPU is an abbreviation for Central Processing Unit. The information processing device 200 has a system bus 204. The CPU 201 comprehensively controls each hardware connected to the system bus 204. The information processing device 200 includes an HDD 210 and a disk controller 209. HDD is an abbreviation for Hard Disk Drive. The HDD 210 is an example of a storage device, and here, it is a large-capacity storage device. The HDD 210 stores a program executed by the CPU 201. The disk controller 209 controls the HDD 210.

情報処理装置200は、メモリー202を有する。メモリー202は、CPU201の主メモリー、及びワークエリア等として機能する。情報処理装置200は、NIC203を有する。NICは、Network Interface Cardの略称である。NIC203は、ネットワーク104を介して、ネットワーク104に接続された他のノードと双方向でデータを送受信する。情報処理装置200は、キーボード206及びキーボードコントローラー205を有する。ユーザーは、キーボード206を操作して情報処理装置200に対する指示入力を行う。キーボードコントローラー205は、キーボード206による指示入力を受け付ける制御を行う。なお、情報処理装置200は、その役割によっては、キーボードコントローラー205及びキーボード206を有しない構成でもよい。情報処理装置200は、ディスプレイ208及びディスプレイコントローラー207を有する。ディスプレイ208は、液晶ディスプレイなどで構成される表示モジュールである。ディスプレイコントローラー207は、ディスプレイ208に表示する制御を行う。なお、情報処理装置200は、その役割によっては、ディスプレイ208及びディスプレイコントローラー207を有しない構成でもよい。 The information processing device 200 has a memory 202. The memory 202 functions as a main memory of the CPU 201, a work area, and the like. The information processing device 200 has a NIC 203. NIC is an abbreviation for Network Interface Card. The NIC 203 bidirectionally transmits and receives data to and from other nodes connected to the network 104 via the network 104. The information processing device 200 has a keyboard 206 and a keyboard controller 205. The user operates the keyboard 206 to input instructions to the information processing device 200. The keyboard controller 205 controls to accept instruction input by the keyboard 206. The information processing device 200 may not have the keyboard controller 205 and the keyboard 206 depending on its role. The information processing device 200 has a display 208 and a display controller 207. The display 208 is a display module composed of a liquid crystal display or the like. The display controller 207 controls the display on the display 208. The information processing device 200 may not have the display 208 and the display controller 207 depending on its role.

以下、公平性管理システム101、予測システム102−1、予測システム102−2、業務システム103−1、及び業務システム103−2それぞれの構成についてさらに説明する。なお、予測システム102−1及び予測システム102−2の構成については、図3(B)に示す予測システム102によって説明する。また、業務システム103−1及び業務システム103−2の構成については、図3(C)に示す業務システム103によって説明する。 Hereinafter, the configurations of the fairness management system 101, the prediction system 102-1, the prediction system 102-2, the business system 103-1 and the business system 1032 will be further described. The configurations of the prediction system 102-1 and the prediction system 102-2 will be described with reference to the prediction system 102 shown in FIG. 3 (B). Further, the configurations of the business system 103-1 and the business system 103-2 will be described with reference to the business system 103 shown in FIG. 3 (C).

<公平性管理システムの機能構成>
図3(A)は、公平性管理システム101の構成の一例を示すブロック図である。
公平性管理システム101は、制御部301、データ格納部302、通信部303、及び表示部304を有する。図3(A)に示す公平性管理システム101が有する各構成は、公平性管理システム101のHDD210に記憶されているプログラムを、CPU201がメモリー202に読み出して実行することによって実現される。
<Functional configuration of fairness management system>
FIG. 3A is a block diagram showing an example of the configuration of the fairness management system 101.
The fairness management system 101 includes a control unit 301, a data storage unit 302, a communication unit 303, and a display unit 304. Each configuration of the fairness management system 101 shown in FIG. 3A is realized by the CPU 201 reading the program stored in the HDD 210 of the fairness management system 101 into the memory 202 and executing the program.

制御部301は、表示部304などからの各種処理の実行指示などを受け付け、各種処理を実行するソフトウェアモジュールである。
データ格納部302は、HDD210に構成されるデータベースである。
通信部303は、ネットワーク104を介して、図3(B)の予測システム102、及び図3(C)の業務システム103と通信するためのソフトウェアモジュールである。
表示部304は、公平性管理システム101のUIを表示したり、ユーザーの操作を受け付けたりするソフトウェアモジュールである。UIは、User Interfaceの略称である。
The control unit 301 is a software module that receives execution instructions of various processes from the display unit 304 and the like and executes various processes.
The data storage unit 302 is a database configured in the HDD 210.
The communication unit 303 is a software module for communicating with the prediction system 102 of FIG. 3 (B) and the business system 103 of FIG. 3 (C) via the network 104.
The display unit 304 is a software module that displays the UI of the fairness management system 101 and accepts user operations. UI is an abbreviation for User Interface.

<予測システムの機能構成>
図3(B)は、予測システム102の機能構成の一例を示すブロック図である。
予測システム102は、制御部305、データ格納部306、及び通信部307を有する。図3(B)に示す予測システム102が有する各構成は、予測システム102のHDD210に記憶されているプログラムを、CPU201がメモリー202に読み出して実行することによって実現される。
<Functional configuration of prediction system>
FIG. 3B is a block diagram showing an example of the functional configuration of the prediction system 102.
The prediction system 102 includes a control unit 305, a data storage unit 306, and a communication unit 307. Each configuration of the prediction system 102 shown in FIG. 3B is realized by the CPU 201 reading the program stored in the HDD 210 of the prediction system 102 into the memory 202 and executing the program.

制御部305は、予測処理などの各種処理を実行するソフトウェアモジュールである。
データ格納部306は、HDD210に構成されるデータベースである。
通信部307は、ネットワーク104を介して、公平性管理システム101、及び業務システム103と通信するためのソフトウェアモジュールである。
The control unit 305 is a software module that executes various processes such as prediction processing.
The data storage unit 306 is a database configured in the HDD 210.
The communication unit 307 is a software module for communicating with the fairness management system 101 and the business system 103 via the network 104.

<業務システムの機能構成>
図3(C)は、業務システム103の機能構成の一例を示すブロック図である。
業務システム103は、制御部308、データ格納部309、通信部310、及び表示部311を有する。図3(C)に示す業務システム103が有する各構成は、業務システム103のHDD210に記憶されているプログラムを、CPU201がメモリー202に読み出して実行することによって実現される。
<Functional configuration of business system>
FIG. 3C is a block diagram showing an example of the functional configuration of the business system 103.
The business system 103 includes a control unit 308, a data storage unit 309, a communication unit 310, and a display unit 311. Each configuration of the business system 103 shown in FIG. 3C is realized by the CPU 201 reading the program stored in the HDD 210 of the business system 103 into the memory 202 and executing the program.

制御部308は、表示部311からの各種処理実行指示などを受け付け、各種処理を実行するソフトウェアモジュールである。
データ格納部309は、HDD210に構成されるデータベースである。
通信部310は、ネットワーク104を介して、公平性管理システム101、及び予測システム102と通信するためのソフトウェアモジュールである。
表示部304は、業務システム103のUIを表示したり、ユーザーの操作を受け付けたりするソフトウェアモジュールである。
The control unit 308 is a software module that receives various processing execution instructions from the display unit 311 and executes various processing.
The data storage unit 309 is a database configured in the HDD 210.
The communication unit 310 is a software module for communicating with the fairness management system 101 and the prediction system 102 via the network 104.
The display unit 304 is a software module that displays the UI of the business system 103 and accepts user operations.

<公平性監視の設定処理>
本実施例では、ある保険会社Aが、生命保険と自動車保険を扱っており、それぞれ学習済モデルを用いて保険の加入審査を行っている場合について説明する。図1の業務システム103−1は、生命保険業務を行うためのシステムである。図1の業務システム103−2は、自動車保険業務を行うためのシステムである。また、図1の予測システム102−1は、生命保険業務に関して学習済モデルを用いて加入審査を行う生命保険予測システムである。図1の予測システム102−2は、自動車保険業務に関して学習済モデルを用いて加入審査を行う自動車保険予測システムである。保険会社Aは、業務システム103−1及び予測システム102−1、並びに業務システム103−1及び予測システム102−1を運用する。
<Fairness monitoring setting process>
In this embodiment, a case where a certain insurance company A deals with life insurance and automobile insurance, and conducts insurance enrollment examination using each learned model will be described. The business system 103-1 in FIG. 1 is a system for performing life insurance business. The business system 103-2 of FIG. 1 is a system for performing automobile insurance business. Further, the prediction system 102-1 of FIG. 1 is a life insurance prediction system that performs enrollment examination using a learned model for life insurance business. The prediction system 102-2 of FIG. 1 is an automobile insurance prediction system that performs enrollment examination using a learned model for automobile insurance business. Insurance company A operates business system 103-1 and forecasting system 102-1, and business system 103-1 and forecasting system 102-1.

生命保険予測システムである予測システム102−1は、例えば「年齢」及び「病歴」を入力すると、生命保険加入可否判断を行うように学習された学習済モデルを用いる。予測システム102−1で用いる学習済モデルは、予測システム102−1のデータ格納部306に保存されている。予測システム102−1で用いる学習済モデルを、生命保険モデルと呼ぶ。
自動車保険予測システムである予測システム102−2は、例えば「年齢」、「性別」、「免許取得年数」、及び「運転頻度」を入力すると、自動車保険加入可否判断を行うように学習された学習済モデルを用いる。予測システム102−2で用いる学習済モデルは、予測システム102−2のデータ格納部306に保存されている。予測システム102−1で用いる学習済モデルを、自動車保険モデルと呼ぶ。
The prediction system 102-1 which is a life insurance prediction system uses a trained model trained to determine whether or not to enroll in life insurance by inputting, for example, "age" and "medical history". The trained model used in the prediction system 102-1 is stored in the data storage unit 306 of the prediction system 102-1. The trained model used in the prediction system 102-1 is called a life insurance model.
The prediction system 102-2, which is a car insurance prediction system, is learned to judge whether or not to enroll in car insurance by inputting, for example, "age", "gender", "years of license acquisition", and "driving frequency". Use the completed model. The trained model used in the prediction system 102-2 is stored in the data storage unit 306 of the prediction system 102-2. The trained model used in the prediction system 102-1 is called an automobile insurance model.

公平性管理システム101は、予測システム102−1及び予測システム102−2の公平性を監視する。公平性管理システム101は、監視対象である予測システム102−1及び予測システム102−2の学習済モデルの入力項目を管理する。
表1は、学習済モデル管理テーブルの一例を示す表である。学習済モデル管理テーブルは、公平性管理システム101のデータ格納部302に格納される。学習済モデル管理テーブルにおいては、1つのレコードが1つの学習済モデルを示している。学習済モデル管理テーブルは、利用者、モデル、及び項目の各列を有する。学習済モデル管理テーブルには、公平性管理システム101の利用者、すなわちシステム100の利用者である保険会社Aが運用する、生命保険モデル及び自動車保険モデルのそれぞれに学習させた入力項目を格納している。
The fairness management system 101 monitors the fairness of the prediction system 102-1 and the prediction system 102-2. The fairness management system 101 manages the input items of the trained model of the prediction system 102-1 and the prediction system 102-2 to be monitored.
Table 1 is a table showing an example of the trained model management table. The trained model management table is stored in the data storage unit 302 of the fairness management system 101. In the trained model management table, one record indicates one trained model. The trained model management table has columns for users, models, and items. The trained model management table stores input items trained by each of the life insurance model and the automobile insurance model operated by the user of the fairness management system 101, that is, the insurance company A which is the user of the system 100. ing.

Figure 2021012594
Figure 2021012594

図4(A)及び図4(B)は、公平性管理システム101の表示部304が表示する画面の一例である。本画面は、保険会社Aの予測システム管理担当者が使用するパソコンのブラウザからのリクエストに応じて公平性管理システム101の表示部304が生成し、そのパソコンのブラウザに表示される。パソコンは、パーソナルコンピュータの略称である。このパソコンは、ネットワーク104に接続され、公平性管理システム101と通信可能である。このパソコンは、公平性管理システム101と別の構成であってもよいし、公平性管理システム101を構成するものであってもよい。 4 (A) and 4 (B) are examples of screens displayed by the display unit 304 of the fairness management system 101. This screen is generated by the display unit 304 of the fairness management system 101 in response to a request from the browser of the personal computer used by the person in charge of the prediction system management of the insurance company A, and is displayed on the browser of the personal computer. Personal computer is an abbreviation for personal computer. This personal computer is connected to the network 104 and can communicate with the fairness management system 101. This personal computer may have a configuration different from that of the fairness management system 101, or may have a configuration of the fairness management system 101.

図4(A)は、公平性管理システム101が、予測システム102−1及び予測システム102−2の2つの予測システムを監視する場合の予測システム監視画面の例を示している。予測システム102−1は、生命保険の加入審査結果を予測する生命保険予測システムであり、予測システム102−2は、自動車保険の加入審査を予測する自動車保険予測システムである。
図4(A)の予測システム監視画面400−1は、監視対象の予測システムのそれぞれに対する領域である領域401−1及び領域401−2を有する。領域401−1は、予測システム102−1に対する監視状態の表示及び監視設定を行う領域である。領域401−2は、予測システム102−2に対する監視状態の表示及び監視設定を行う領域である。監視対象の予測システムが3つ以上の場合もそれぞれの予測システムに対する領域を表示する。
領域401−1及び領域401−2のそれぞれは、監視項目を設定するボタンと、監視状態の表示を行う領域を有する。領域401−1は、監視項目を設定するボタン402−1を有する。図4(A)では、予測システム102−1についての監視項目が設定されていないことから、予測システム102−1に対する領域401−1は、監視状態の表示を行う領域を表示していない。領域401−2は、監視項目を設定するボタン402−2と、監視状態の表示を行う領域403−1及び領域403−2を有する。領域403−1及び領域403−2のような監視状態の表示を行う領域の生成方法については後述する。
FIG. 4A shows an example of a prediction system monitoring screen when the fairness management system 101 monitors two prediction systems, the prediction system 102-1 and the prediction system 102-2. The prediction system 102-1 is a life insurance prediction system that predicts the result of the life insurance enrollment examination, and the prediction system 102-2 is an automobile insurance prediction system that predicts the automobile insurance enrollment examination.
The prediction system monitoring screen 400-1 of FIG. 4A has an area 401-1 and an area 401-2, which are areas for each of the prediction systems to be monitored. Area 401-1 is an area for displaying the monitoring status and setting the monitoring for the prediction system 102-1. Area 401-2 is an area for displaying the monitoring status and setting the monitoring for the prediction system 102-2. Even when there are three or more prediction systems to be monitored, the area for each prediction system is displayed.
Each of the area 401-1 and the area 401-2 has a button for setting a monitoring item and an area for displaying the monitoring status. Region 401-1 has a button 402-1 for setting a monitoring item. In FIG. 4A, since the monitoring item for the prediction system 102-1 is not set, the area 401-1 for the prediction system 102-1 does not display the area for displaying the monitoring status. The area 401-2 has a button 402-2 for setting a monitoring item, and an area 403-1 and an area 4032 for displaying the monitoring status. The method of generating an area for displaying the monitoring status such as area 403-1 and area 4032 will be described later.

予測システム管理担当者は、予測システム監視画面400−1から、各予測システムに対する監視設定を行う。以下、監視設定を行う場合の手順の例を説明する。
予測システム管理担当者は、自動車保険に関しては、性別及び年齢による差別があってはいけないと考え、予測システム102−2に対する入力のうち、性別及び年齢が公平性監視対象であると判断した。また、予測システム管理担当者は、生命保険に関しては、特に公平性を気にする項目はないと考え、監視対象はなしと判断した。この場合、予測システム管理担当者は、予測システム監視画面400−1のボタン402−2を押下して、自動車保険予測システムに対する監視設定を行う。
公平性管理システム101の表示部304は、予測システム監視画面400−1のボタン402−2の押下を受け付けると、図4(B)の画面を表示する。図4(B)は、公平性管理システム101が、監視項目を設定するボタンの押下を受け付けた場合に表示する監視項目設定画面の例を示している。
The person in charge of the prediction system management sets the monitoring for each prediction system from the prediction system monitoring screen 400-1. An example of the procedure for setting the monitoring setting will be described below.
The person in charge of the prediction system manager considered that there should be no discrimination based on gender and age regarding automobile insurance, and determined that gender and age were subject to fairness monitoring among the inputs to the prediction system 102-2. In addition, the person in charge of forecasting system management considered that there was no particular concern about fairness regarding life insurance, and decided that there was no monitoring target. In this case, the person in charge of the prediction system management presses the button 402-2 on the prediction system monitoring screen 400-1, and sets the monitoring for the automobile insurance prediction system.
The display unit 304 of the fairness management system 101 displays the screen of FIG. 4B when the button 402-2 of the prediction system monitoring screen 400-1 is pressed. FIG. 4B shows an example of a monitoring item setting screen displayed when the fairness management system 101 accepts the pressing of a button for setting a monitoring item.

公平性管理システム101の制御部301は、監視項目を設定するボタンの押下を受け付けると、そのボタンに対応付けられた予測システムのモデルについてのレコードを学習済モデル管理テーブル(表1)から取得する。例えばボタン402−2の押下を受け付けた場合、制御部301は、学習済モデル管理テーブルの「モデル」の列が自動車保険であるレコードを取得する。続いて、制御部301は、取得したレコードの「項目」の値を取得し、公平性管理システム101の表示部304は、取得した「項目」の値を、図4(B)の監視項目設定画面400−2に表示する。例えばボタン402−2の押下を受け付けた場合、制御部301が取得したレコードの「項目」の値は、年齢、性別、免許取得年数、及び運転頻度である。表示部304は、監視項目設定画面400−2に、これらの「項目」の値を監視項目候補として表示し、それぞれを監視項目として設定するか否か及び関連情報の、予測システム管理担当者による入力を受け付ける。 When the control unit 301 of the fairness management system 101 receives the press of the button for setting the monitoring item, the control unit 301 acquires a record about the model of the prediction system associated with the button from the trained model management table (Table 1). .. For example, when the button 402-2 is pressed, the control unit 301 acquires a record in which the "model" column of the learned model management table is automobile insurance. Subsequently, the control unit 301 acquires the value of the “item” of the acquired record, and the display unit 304 of the fairness management system 101 sets the acquired “item” value to the monitoring item in FIG. 4 (B). Displayed on screen 400-2. For example, when the press of the button 402-2 is accepted, the values of the "items" of the record acquired by the control unit 301 are the age, the gender, the number of years of license acquisition, and the driving frequency. The display unit 304 displays the values of these "items" as monitoring item candidates on the monitoring item setting screen 400-2, and determines whether or not to set each of them as a monitoring item and related information by the person in charge of the prediction system management. Accept input.

図4(B)に示すように、監視項目設定画面400−2は、監視項目設定領域406と、監視項目の設定を確定するボタン407と、監視項目の設定をキャンセルするボタン408を有する。監視項目候補の表示、及びその監視項目候補を監視項目として設定するか否か及び監視項目の関連情報の入力は、監視項目設定領域406で行う。監視項目の関連情報は、例えば、監視対象の情報、比較対象の情報、及び閾値を含む。監視項目の設定方法は、例えば、監視したい項目のチェックボックスにチェックを入れ、監視項目の関連情報を「値」又は「範囲」で入力する。この入力において、「値」で入力するか「範囲」で入力するかは、対象指定方法である。「値」で入力する場合は、入力する「値」をプルダウンで選択するようにしてもよい。 As shown in FIG. 4B, the monitoring item setting screen 400-2 has a monitoring item setting area 406, a button 407 for confirming the setting of the monitoring item, and a button 408 for canceling the setting of the monitoring item. The display of the monitoring item candidate, whether or not to set the monitoring item candidate as the monitoring item, and the input of the related information of the monitoring item are performed in the monitoring item setting area 406. The information related to the monitoring item includes, for example, information to be monitored, information to be compared, and a threshold value. As for the setting method of the monitoring item, for example, the check box of the item to be monitored is checked, and the related information of the monitoring item is input by "value" or "range". In this input, whether to input by "value" or "range" is a target specification method. When inputting by "value", the "value" to be input may be selected from the pull-down menu.

図4(B)の例では、監視対象項目に「年齢」を選択し、「18〜25」才を監視対象とし、「26〜60」才の予測結果と比較し、閾値0.9を下回っていた場合に警告する設定を行っている。また、図4(B)の例では、監視対象項目に「性別」を選択し、「女性」を監視対象とし、「男性」の比較結果と比較し、閾値0.9を下回っていた場合に警告する設定を行っている。ここでの比較方法は、監視対象の承認率/比較対象の承認率により比率を計算する。入力データの「年齢」が「18〜25」才は、第1の入力値の一例である。入力データの「年齢」が「26〜60」は、第2の入力値の一例である。入力データの「性別」が「女性」は、第1の入力値の一例である。入力データの「性別」が「男性」は、第2の入力値の一例である。監視対象の承認率は、第1の割合の一例である。比較対象の承認率は、第2の割合の一例である。比率が閾値を下回っていた場合、学習済モデルに偏りが生じており、監視対象が不利になっていると判断する。「比率が閾値を下回っていること」は、所定条件の一例である。「比率が閾値を下回っている場合」は、予測の結果が所定条件を満たす場合の一例である。「比率が閾値を下回っていない場合」は、予測の結果が所定条件を満たさない場合の一例である。予測結果の「承認」は、予測結果が所定の予測結果であることの一例である。所定条件は、例えば、第1の入力値を含む入力を用いた第1のモデルによる予測の結果と、第2の入力値を含む入力を用いた第1のモデルによる予測の結果と、の間に偏りがある場合に満たされる条件である。
表示部304は、監視項目設定画面400−2において、予測システム管理担当者によるボタン407の押下を受け付けると、監視項目設定画面400−2で入力された監視内容を公平性監視テーブルに格納する。
表2は、公平性監視テーブルの一例を示す表である。公平性監視テーブルは、公平性管理システム101のデータ格納部302に格納される。公平性監視テーブルにおいては、1つのレコードが1つの監視項目を示している。公平性監視テーブルは、利用者、モデル、項目、対象指定方法、監視対象、比較対象、及び閾値の各列を有する。
In the example of FIG. 4B, "age" is selected as the monitoring target item, "18 to 25" years old is monitored, and the result is compared with the prediction result of "26 to 60" years old, and the threshold value is below 0.9. It is set to warn if it is. Further, in the example of FIG. 4B, when "gender" is selected as the monitoring target item, "female" is monitored, and the comparison result is compared with "male", and the threshold value is less than 0.9. It is set to warn. In the comparison method here, the ratio is calculated based on the approval rate of the monitoring target / the approval rate of the comparison target. The "age" of the input data is "18 to 25", which is an example of the first input value. The "age" of the input data is "26 to 60", which is an example of the second input value. The "gender" of the input data is "female", which is an example of the first input value. The "gender" of the input data is "male", which is an example of the second input value. The approval rate of the monitoring target is an example of the first ratio. The approval rate for comparison is an example of the second ratio. If the ratio is below the threshold value, it is judged that the trained model is biased and the monitored target is disadvantageous. "The ratio is below the threshold value" is an example of a predetermined condition. "When the ratio is below the threshold value" is an example of the case where the prediction result satisfies a predetermined condition. "When the ratio does not fall below the threshold value" is an example of the case where the prediction result does not satisfy the predetermined condition. “Approval” of a prediction result is an example in which the prediction result is a predetermined prediction result. The predetermined condition is, for example, between the result of the prediction by the first model using the input including the first input value and the result of the prediction by the first model using the input including the second input value. This is a condition that is satisfied when there is a bias in.
When the display unit 304 receives the pressing of the button 407 by the person in charge of the prediction system management on the monitoring item setting screen 400-2, the display unit 304 stores the monitoring content input on the monitoring item setting screen 400-2 in the fairness monitoring table.
Table 2 is a table showing an example of the fairness monitoring table. The fairness monitoring table is stored in the data storage unit 302 of the fairness management system 101. In the fairness monitoring table, one record indicates one monitoring item. The fairness monitoring table has columns for users, models, items, targeting methods, monitoring targets, comparison targets, and threshold values.

Figure 2021012594
Figure 2021012594

<保険申請の審査処理>
図5(A)は、業務システム103−1の表示部311が表示する生命保険加入審査画面の一例である。本画面は、生命保険の加入申請を審査する担当者が使用するパソコンのブラウザからのリクエストに応じて業務システム103−1の表示部311が生成し、そのパソコンのブラウザに表示される。このパソコンは、ネットワーク104に接続され、業務システム103−1と通信可能である。このパソコンは、業務システム103−1と別の構成であってもよいし、業務システム103−1を構成するものであってもよい。
生命保険加入審査画面500−1は、データ入力部501、ボタン502、プルダウン503、ボタン504、及びボタン505を有する。ボタン502は審査の予測を実行するボタンである。プルダウン503は予測結果を表示するとともに担当者の判断結果を選択するプルダウンである。ボタン504は加入審査結果を確定するボタンである。ボタン505は審査をキャンセルするボタンである。予測結果には、生命保険の加入を認める「承認」と、生命保険の加入を拒否する「却下」とがある。
<Insurance application review process>
FIG. 5A is an example of the life insurance participation examination screen displayed by the display unit 311 of the business system 103-1. This screen is generated by the display unit 311 of the business system 103-1 in response to a request from the browser of the personal computer used by the person in charge of examining the application for life insurance, and is displayed on the browser of the personal computer. This personal computer is connected to the network 104 and can communicate with the business system 103-1. This personal computer may have a different configuration from the business system 103-1 or may configure the business system 103-1.
The life insurance participation examination screen 500-1 has a data input unit 501, a button 502, a pull-down 503, a button 504, and a button 505. Button 502 is a button for executing the prediction of the examination. The pull-down 503 is a pull-down that displays the prediction result and selects the judgment result of the person in charge. Button 504 is a button for confirming the entry examination result. Button 505 is a button for canceling the examination. Prediction results include "approval" to allow life insurance and "reject" to refuse life insurance.

図5(B)は、業務システム103−2の表示部311が表示する自動車保険加入審査画面の一例である。本画面は、自動車保険の加入申請を審査する担当者が使用するパソコンのブラウザからのリクエストに応じて業務システム103−2の表示部311が生成し、そのパソコンのブラウザに表示される。このパソコンは、ネットワーク104に接続され、業務システム103−2と通信可能である。このパソコンは、業務システム103−2と別の構成であってもよいし、業務システム103−2を構成するものであってもよい。
自動車保険加入審査画面500−2は、データ入力部501、ボタン502、プルダウン503、ボタン504、及びボタン505を有する。ボタン502は審査の予測を実行するボタンである。プルダウン503は予測結果を表示するとともに担当者の判断結果を選択するプルダウンである。ボタン504は加入審査結果を確定するボタンである。ボタン505は審査をキャンセルするボタンである。予測結果には、自動車保険の加入を認める「承認」と、自動車保険の加入を拒否する「却下」とがある。
FIG. 5B is an example of the automobile insurance participation examination screen displayed by the display unit 311 of the business system 103-2. This screen is generated by the display unit 311 of the business system 103-2 in response to a request from the browser of the personal computer used by the person in charge of examining the application for automobile insurance, and is displayed on the browser of the personal computer. This personal computer is connected to the network 104 and can communicate with the business system 103-2. This personal computer may have a configuration different from that of the business system 103-2, or may configure the business system 103-2.
The automobile insurance participation examination screen 500-2 has a data input unit 501, a button 502, a pull-down 503, a button 504, and a button 505. Button 502 is a button for executing the prediction of the examination. The pull-down 503 is a pull-down that displays the prediction result and selects the judgment result of the person in charge. Button 504 is a button for confirming the entry examination result. Button 505 is a button for canceling the examination. Forecast results include "approval" to allow car insurance and "reject" to refuse car insurance.

図6は、保険加入審査の予測を行う場合の、業務システム103、公平性管理システム101、及び予測システム102の処理を示したシーケンス図である。ここでは、自動車保険加入審査の例について説明するが、生命保険加入審査の処理も自動車保険加入審査の処理と同様である。
自動車保険の場合において、自動車保険加入審査画面500−2のデータ入力部501は、氏名及び住所の入力欄、並びに年齢、性別、免許取得年数及び運転頻度を選択するプルダウンを有する。
自動車保険の加入申請を審査する担当者は、自動車保険加入審査画面500−2のデータ入力部501に対して申請者の情報の入力及び選択を行い、ボタン502を押下する。
FIG. 6 is a sequence diagram showing the processing of the business system 103, the fairness management system 101, and the prediction system 102 when predicting the insurance coverage examination. Here, an example of the automobile insurance enrollment examination will be described, but the processing of the life insurance enrollment examination is the same as the processing of the automobile insurance enrollment examination.
In the case of automobile insurance, the data input unit 501 of the automobile insurance participation examination screen 500-2 has a name and address input fields, and a pull-down for selecting age, gender, number of years of license acquisition, and driving frequency.
The person in charge of examining the automobile insurance enrollment application inputs and selects the applicant's information in the data input unit 501 of the automobile insurance enrollment examination screen 500-2, and presses the button 502.

ステップS601で、業務システム103−2の表示部311はボタン502の押下を受け付け、制御部308はボタン502の押下を受け付けたことに応じて、通信部310を介し、予測システム102−2に対し予測依頼を行う。この際の予測依頼は、データ入力部401に入力されたデータを含む。ここで予測依頼に含めるデータは、データ入力部401に入力された申請者の情報すべてである必要はなく、予測システム102−2の学習済モデルが必要とするデータのみでよい。例えば、本実施例では、氏名及び住所を予測依頼に含めず、年齢、性別、免許取得年数、及び運転頻度を予測依頼に含める。
ステップS602で、予測システム102−2の通信部307は予測依頼を受け取り、制御部305は予測依頼を受け取ったことに応じて、データ格納部306に保存された学習済モデルにより、予測依頼に含まれた入力データを用いた予測を行う。
In step S601, the display unit 311 of the business system 103-2 accepts the press of the button 502, and the control unit 308 receives the press of the button 502, and responds to the prediction system 102-2 via the communication unit 310. Make a forecast request. The prediction request at this time includes the data input to the data input unit 401. Here, the data included in the prediction request does not have to be all the information of the applicant input to the data input unit 401, but only the data required by the trained model of the prediction system 102-2. For example, in this embodiment, the name and address are not included in the forecast request, but the age, gender, years of license acquisition, and driving frequency are included in the forecast request.
In step S602, the communication unit 307 of the prediction system 102-2 receives the prediction request, and the control unit 305 is included in the prediction request by the trained model stored in the data storage unit 306 in response to receiving the prediction request. Prediction is performed using the input data.

この説明では、ステップS602での予測結果が「却下」であったとする。
ステップS603で、通信部307は、ステップS602での予測結果を業務システム103−2に応答する。
ステップS604で、業務システム103−2の通信部310は予測結果を受け取り、表示部311は予測結果を受け取ったことに応じて、自動車保険加入審査画面500−2のプルダウン503に予測結果を表示する。この説明では予測結果が却下であるため、表示部311はプルダウン503を「却下」が選択された状態にする。
In this explanation, it is assumed that the prediction result in step S602 is "rejected".
In step S603, the communication unit 307 responds to the business system 103-2 with the prediction result in step S602.
In step S604, the communication unit 310 of the business system 103-2 receives the prediction result, and the display unit 311 displays the prediction result on the pull-down 503 of the automobile insurance subscription examination screen 500-2 in response to receiving the prediction result. .. In this explanation, since the prediction result is rejected, the display unit 311 sets the pull-down 503 in a state in which "rejected" is selected.

自動車保険の加入申請を審査する担当者は、プルダウン503に表示された予測結果を参考に審査を行う。担当者は、予測システム102−2の予測結果を変更し、プルダウン503を「承認」にすることも可能である。
ステップS605で、業務システム103−2の表示部311はボタン504の押下を受け付け、制御部308はボタン504の押下を受け付けたことに応じて、プルダウン503の現在の選択状態を審査結果として確定してデータ格納部309に保存する。
担当者がボタン504を押下せず、ボタン505を押下した場合は、表示部311はボタン505の押下を受け付け、制御部308はボタン505の押下を受け付けたことに応じて、データ格納部309への審査結果の保存は行わずに処理を終了する。
The person in charge of examining the application for automobile insurance conducts the examination with reference to the prediction result displayed in the pull-down 503. The person in charge can also change the prediction result of the prediction system 102-2 and set the pull-down 503 to "approve".
In step S605, the display unit 311 of the business system 103-2 accepts the press of the button 504, and the control unit 308 confirms the current selection state of the pull-down 503 as the examination result in response to the acceptance of the press of the button 504. Is stored in the data storage unit 309.
When the person in charge does not press the button 504 and presses the button 505, the display unit 311 accepts the press of the button 505, and the control unit 308 receives the press of the button 505 and goes to the data storage unit 309. The processing is terminated without saving the examination result of.

ステップS606で、審査結果が確定された場合、制御部308は、通信部310を介し、公平性管理システム101に統計依頼を行う。この際に、ステップS601で予測依頼に含めたデータ及びステップS603で受け取った予測結果を統計依頼に含める。
ステップS607で、公平性管理システム101の通信部303は統計依頼を受け取り、制御部301は統計依頼を受け取ったことに応じて、予測結果の統計を行う。予測結果の統計は、表3の予測結果統計テーブルに、今回の予測の結果を登録する処理である。
表3は、予測結果統計テーブルの一例を示す表である。予測結果統計テーブルは、公平性管理システム101のデータ格納部302に格納される。予測結果統計テーブルにおいては、1つのレコードが1つの監視対象を示している。予測結果統計テーブルは、利用者、モデル、項目、値、申請数、及び承認数の各列を有する。予測結果統計テーブルは、表2の公平性監視テーブルに格納された項目の各監視対象と比較対象について、申請数及び承認数を保持する。申請数は、第1の入力値を含む入力を用いて第1のモデルにより予測した予測総数の一例である。承認数は、第1の入力値を含む入力を用いて第1のモデルにより予測した予測結果が所定の予測結果であった回数の一例である。
表3は、過去の申請内容及び申請結果について、年齢が「18〜25才」の申請数は100人であって承認数が81人であることを示し、年齢が「26〜60才」の申請数は200人であって承認数が180人であることを示している。また表3は、過去の申請内容及び申請結果について、性別が「女性」の申請数は100人であって承認数が81人であることを示し、性別が「男性」の申請数は200人であって承認数が180人であることを示している。
When the examination result is confirmed in step S606, the control unit 308 requests the fairness management system 101 for statistics via the communication unit 310. At this time, the data included in the prediction request in step S601 and the prediction result received in step S603 are included in the statistical request.
In step S607, the communication unit 303 of the fairness management system 101 receives the statistical request, and the control unit 301 performs statistics on the prediction result in response to receiving the statistical request. The prediction result statistics is a process of registering the result of the current prediction in the prediction result statistics table of Table 3.
Table 3 is a table showing an example of the prediction result statistical table. The prediction result statistical table is stored in the data storage unit 302 of the fairness management system 101. In the prediction result statistical table, one record indicates one monitoring target. The prediction result statistics table has columns for users, models, items, values, number of applications, and number of approvals. The prediction result statistical table holds the number of applications and the number of approvals for each monitoring target and comparison target of the items stored in the fairness monitoring table of Table 2. The number of applications is an example of the total number of predictions predicted by the first model using the inputs including the first input value. The number of approvals is an example of the number of times that the prediction result predicted by the first model using the input including the first input value is a predetermined prediction result.
Table 3 shows that the number of applications for the past application contents and application results of "18 to 25 years old" is 100 and the number of approvals is 81, and the age is "26 to 60 years old". It shows that the number of applications is 200 and the number of approvals is 180. Table 3 shows that the number of applications for gender "female" is 100 and the number of approvals is 81, and the number of applications for gender "male" is 200. It shows that the number of approvals is 180.

Figure 2021012594
Figure 2021012594

ここで、今回の申請者(上述の説明でステップS602での予測が「却下」となった申請者)の情報が、性別が「女性」であり、年齢が「20才」であるとする。この場合、ステップS607で、制御部301は、予測結果統計テーブルのうち年齢が「18〜25才」のレコードの申請数に1を加算して101人にし、このレコードの承認数は加算せず81人のままにする。また制御部301は、さらに、予測結果統計テーブルにおける性別が「女性」のレコードの申請数に1を加算して101人にし、このレコードの承認数は加算せず81人のままにする。 Here, it is assumed that the information of the applicant this time (the applicant whose prediction in step S602 is "rejected" in the above explanation) is "female" in gender and "20 years old" in age. In this case, in step S607, the control unit 301 adds 1 to the number of applications for the record whose age is "18 to 25 years old" in the prediction result statistical table to make 101 people, and does not add the number of approvals for this record. Leave 81 people. Further, the control unit 301 adds 1 to the number of applications for the record whose gender is "female" in the prediction result statistics table to 101 people, and does not add the number of approvals for this record and leaves 81 people.

本実施例では、審査結果の確定(ステップS605)の後に予測結果の統計を行う例を説明した。これは、同一の入力データに対して複数回の予測を行った場合の重複、及び入力ミスに対しての予測を、統計から除くためである。本実施例によれば、例えば複数回ボタン502が押された場合、及び誤ったデータを入力した状態でボタン502が押下された場合を統計から除くことができる。
なお、予測結果の統計を行うタイミングはこれに限らない。例えば、予測結果がキャンセルできずに審査結果として確定される実施例の場合、及び入力ミスが想定されないようなシステムの場合は、他のタイミングで予測結果の統計を行ってもよい。このような場合、予測システム102が、ステップS602での予測を行った時点で、予測結果を公平性管理システム101に通知し、この時点で統計を行うようにしてもよい。
In this embodiment, an example in which the statistics of the prediction result are performed after the examination result is confirmed (step S605) has been described. This is to exclude from the statistics the duplication when the same input data is predicted multiple times and the prediction for the input error. According to this embodiment, for example, the case where the button 502 is pressed multiple times and the case where the button 502 is pressed with incorrect data input can be excluded from the statistics.
The timing of statistics on prediction results is not limited to this. For example, in the case of an embodiment in which the prediction result cannot be canceled and is determined as the examination result, or in the case of a system in which an input error is not expected, the statistics of the prediction result may be performed at other timings. In such a case, when the prediction system 102 makes the prediction in step S602, the prediction result may be notified to the fairness management system 101, and statistics may be performed at this time.

<公平性の監視処理>
以下、図7を用いて、公平性管理システム101で実行される処理であって、予測システム102の公平性の監視を行う処理について説明する。図7は、公平性の監視処理のフローチャートである。図8は、図4(A)に示した予測システム監視画面400−1であって、図7の処理による表示がされた状態を示す図である。図8の予測システム監視画面400−1は、保険会社Aの予測システム管理担当者が使用するパソコンのブラウザからのリクエストに応じて公平性管理システム101の表示部304が生成し、そのパソコンのブラウザに表示される。このパソコンは、ネットワーク104に接続され、公平性管理システム101と通信可能である。このパソコンは、公平性管理システム101と別の構成であってもよいし、公平性管理システム101を構成するものであってもよい。図8の予測システム監視画面400−1において、図4(A)の予測システム監視画面400−1と同じ表示については、図4(A)と同じ符号を付している。
<Fairness monitoring process>
Hereinafter, with reference to FIG. 7, a process executed by the fairness management system 101 and a process of monitoring the fairness of the prediction system 102 will be described. FIG. 7 is a flowchart of fairness monitoring processing. FIG. 8 is a diagram showing the prediction system monitoring screen 400-1 shown in FIG. 4 (A), showing a state in which the display is displayed by the process of FIG. 7. The prediction system monitoring screen 400-1 of FIG. 8 is generated by the display unit 304 of the fairness management system 101 in response to a request from the browser of the personal computer used by the person in charge of the prediction system management of the insurance company A, and the browser of the personal computer is generated. Is displayed in. This personal computer is connected to the network 104 and can communicate with the fairness management system 101. This personal computer may have a configuration different from that of the fairness management system 101, or may have a configuration of the fairness management system 101. In the prediction system monitoring screen 400-1 of FIG. 8, the same display as the prediction system monitoring screen 400-1 of FIG. 4A is designated by the same reference numerals as those of FIG. 4A.

図8の予測システム監視画面400−1における、予測システム102−1に対する領域401−1に表示された領域804−1及び領域804−2は、後述する監視設定推奨情報を表示する領域である。監視設定推奨情報を表示する処理は、特定項目について、監視手段による監視の対象となる条件の設定を促すメッセージを提供する提供手段の一例である。自動車保険予測において警告が起きた「年齢」及び「性別」は、特定項目の一例である。
まず、公平性の監視処理では、公平性管理システム101の表示部304はパソコンのブラウザからの表示リクエストを受け付ける。図7のステップS701で、制御部301は表示リクエストを受け付けたことに応じ、データ格納部302に格納された予測結果統計テーブル(表3)及び公平性監視テーブル(表2)から、予測結果統計情報及び監視設定情報を取得する。予測結果統計情報は、予測結果統計テーブルに格納された情報である。監視設定情報は公平性監視テーブルに格納された情報である。
In the prediction system monitoring screen 400-1 of FIG. 8, the areas 804-1 and 804-2 displayed in the area 401-1 with respect to the prediction system 102-1 are areas for displaying the monitoring setting recommended information described later. The process of displaying the monitoring setting recommended information is an example of the providing means for providing a message prompting the setting of the condition to be monitored by the monitoring means for a specific item. The "age" and "gender" that warned in the automobile insurance forecast are examples of specific items.
First, in the fairness monitoring process, the display unit 304 of the fairness management system 101 receives a display request from the browser of the personal computer. In step S701 of FIG. 7, when the control unit 301 receives the display request, the prediction result statistics are obtained from the prediction result statistics table (Table 3) and the fairness monitoring table (Table 2) stored in the data storage unit 302. Acquire information and monitoring setting information. The prediction result statistical information is the information stored in the prediction result statistical table. The monitoring setting information is the information stored in the fairness monitoring table.

ステップS702で、制御部301は、ステップS701で取得した情報を使用して公平性の判定を行う。
表3の状態の場合、監視項目である「年齢」が「18〜25才」の場合の承認率(承認数/申請数)は0.81であり、「年齢」が「26〜60才」の場合の承認率は0.9である。このため、監視対象の承認率/比較対象の承認率である比率は0.9であり、表2の公平性監視テーブルの閾値0.9を下回っていない。このことにより、本実施例では、制御部301は、監視項目である「年齢」が「18〜25才」の場合について、正常範囲と判断し、公平性の判定として「公平である」と判定する。
In step S702, the control unit 301 determines fairness using the information acquired in step S701.
In the case of the state of Table 3, the approval rate (number of approvals / number of applications) is 0.81 when the monitoring item "age" is "18 to 25 years old", and the "age" is "26 to 60 years old". The approval rate in the case of is 0.9. Therefore, the ratio of the approval rate of the monitoring target / the approval rate of the comparison target is 0.9, which is not lower than the threshold value of 0.9 in the fairness monitoring table in Table 2. As a result, in this embodiment, the control unit 301 determines that the monitoring item "age" is "18 to 25 years old" in the normal range, and determines that it is "fair" as a judgment of fairness. To do.

もうひとつの監視項目である「性別」についても、性別が「女性」の場合の承認率は0.81であり、性別が「男性」の場合の承認率は0.9である。このため、監視対象の承認率/比較対象の承認率である比率は0.9であり、表2の公平性監視テーブルの閾値0.9を下回っていない。このことにより、本実施例では、制御部301は、監視項目である「性別」が「女性」の場合について、正常範囲と判断し、公平性の判定として「公平である」と判定する。 Regarding the other monitoring item, "gender", the approval rate is 0.81 when the gender is "female", and the approval rate is 0.9 when the gender is "male". Therefore, the ratio of the approval rate of the monitoring target / the approval rate of the comparison target is 0.9, which is not lower than the threshold value of 0.9 in the fairness monitoring table in Table 2. As a result, in the present embodiment, the control unit 301 determines that the monitoring item "gender" is "female" in the normal range, and determines "fairness" as the determination of fairness.

さらに、表3の状態から、上述の通り申請者の情報が、性別が「女性」であり、年齢が「20才」であり、予測結果が「却下」というデータが、予測結果統計テーブルに追加された場合について説明する。この場合、監視項目である「年齢」が「18〜25才」の場合の承認率は約0.8であり、年齢が「26〜60才」の場合の承認率は0.9である。このため、監視対象の承認率/比較対象の承認率である比率は約0.89となり、閾値0.9を下回る。このことから、制御部301は、監視項目である「年齢」が「18〜25才」の場合について、偏りがある状態と判断し、公平性の判定として「不公平である」と判定する。 Furthermore, from the state of Table 3, as described above, the data that the applicant's information is "female" in gender, "20 years old" in age, and "rejected" in the prediction result is added to the prediction result statistics table. The case where it is done will be described. In this case, the approval rate when the monitoring item "age" is "18 to 25 years old" is about 0.8, and the approval rate when the age is "26 to 60 years old" is 0.9. Therefore, the ratio of the approval rate of the monitoring target / the approval rate of the comparison target is about 0.89, which is below the threshold value of 0.9. From this, the control unit 301 determines that the monitoring item "age" is "18 to 25 years old" in a biased state, and determines that the fairness is "unfair".

もうひとつの監視項目である「性別」についても、性別が「女性」の場合の承認率は約0.8であり、性別が「男性」の場合の承認率は0.9である。このため、監視対象の承認率/比較対象の承認率である比率は約0.89となり、閾値0.9を下回る。このことから、制御部301は、監視項目である「性別」が「女性」の場合について、偏りがある状態と判断し、公平性の判定として「不公平である」と判定する。 Regarding the other monitoring item, "gender", the approval rate is about 0.8 when the gender is "female", and the approval rate is 0.9 when the gender is "male". Therefore, the ratio of the approval rate of the monitoring target / the approval rate of the comparison target is about 0.89, which is below the threshold value of 0.9. From this, the control unit 301 determines that the monitoring item "gender" is "female" in a biased state, and determines that the fairness is "unfair".

ステップS703で、表示部304は、ステップS702での公平性の判定結果に応じて、領域403−1及び領域403−2に各監視項目について監視対象の公平性の計算結果と公平性の判定結果を表示する。この処理は、複数の値を含む入力を用いた第1のモデルによる予測の結果が所定条件を満たす場合に、所定条件に対応する入力の特定項目について警告を行う監視手段の一例である。
図4(A)は、ステップS702で自動車保険予測の学習済モデルが公平な状態であると判断した場合の表示例である。図4(A)では、公平性の計算結果として、領域403−1に「0.9」と表示し、領域403−2に「0.9」と表示している。図4(A)では、公平性の判定結果として、領域403−1に「正常」と表示し、領域403−2に「正常」と表示している。
図4(A)の場合は、いずれの監視項目も正常であり、警告状態ではないため、ステップS704で、制御部301は、警告状態の監視項目が存在しないと判断し、処理を終了する。
In step S703, the display unit 304 displays the fairness calculation result and the fairness determination result of the monitoring target for each monitoring item in the area 403-1 and the area 4032 according to the fairness determination result in step S702. Is displayed. This process is an example of a monitoring means that warns about a specific item of the input corresponding to the predetermined condition when the result of the prediction by the first model using the input including a plurality of values satisfies the predetermined condition.
FIG. 4A is a display example when it is determined in step S702 that the learned model of the automobile insurance prediction is in a fair state. In FIG. 4A, as the calculation result of fairness, “0.9” is displayed in the area 403-1 and “0.9” is displayed in the area 4032. In FIG. 4A, as the result of fairness determination, “normal” is displayed in the area 403-1 and “normal” is displayed in the area 4032.
In the case of FIG. 4A, since all the monitoring items are normal and not in the warning state, the control unit 301 determines in step S704 that the monitoring item in the warning state does not exist, and ends the process.

図8は、ステップS702で自動車保険予測の学習済モデルが公平ではない状態であると判断した場合の表示例である。図8では、公平性の計算結果として、領域403−1に「0.89」と表示し、領域403−2に「0.89」と表示している。図8では、公平性の判定結果として、領域403−1に「警告」と表示し、領域403−2に「警告」と表示している。
図8の場合は、いずれの監視項目も警告状態であるため、ステップS704で、制御部301は、警告状態の監視項目が存在すると判断し、ステップS705に遷移する。
FIG. 8 is a display example when it is determined in step S702 that the learned model of the automobile insurance prediction is in an unfair state. In FIG. 8, as the calculation result of fairness, “0.89” is displayed in the area 403-1 and “0.89” is displayed in the area 4032. In FIG. 8, as a result of determining fairness, “warning” is displayed in the area 403-1 and “warning” is displayed in the area 4032.
In the case of FIG. 8, since all the monitoring items are in the warning state, in step S704, the control unit 301 determines that the monitoring item in the warning state exists, and proceeds to step S705.

ステップS705で、制御部301は、表1の学習済モデル管理テーブルを用いて、公平性の警告が起きた学習済モデル以外に、保険会社Aが管理する学習済モデルが存在するか否かを確認する。ステップS705で、制御部301は、公平性の警告が起きた学習済モデル以外に、保険会社Aが管理する学習済モデルが存在しないと判断した場合は、処理を終了する。ステップS705で、制御部301は、公平性の警告が起きた学習済モデル以外に、保険会社Aが管理する学習済モデルが存在すると判断した場合は、ステップS706に遷移する。本実施例の場合、警告が起きたのが自動車保険予測の学習済モデルであり、別の学習済モデルとして生命保険予測の学習済モデルが存在する。 In step S705, the control unit 301 uses the trained model management table in Table 1 to determine whether or not there is a trained model managed by the insurance company A other than the trained model in which the fairness warning has occurred. Confirm. In step S705, if the control unit 301 determines that there is no trained model managed by the insurance company A other than the trained model in which the fairness warning has occurred, the control unit 301 ends the process. In step S705, when the control unit 301 determines that there is a trained model managed by the insurance company A other than the trained model in which the warning of fairness has occurred, the control unit 301 proceeds to step S706. In the case of this embodiment, the warning occurred in the trained model of automobile insurance prediction, and there is a trained model of life insurance prediction as another trained model.

ステップS706で、制御部301は、公平性の警告が起きた学習済モデル以外の、保険会社Aが管理する学習済モデルにおいて、公平性の警告が起きた監視項目が推奨非表示項目になっているか否かを確認する。推奨非表示項目については後述する。ステップS705で、制御部301は、公平性の警告が起きた監視項目が推奨非表示項目になっていると判断した場合は、処理を終了する。ステップS705で、制御部301は、公平性の警告が起きた監視項目が推奨非表示項目になっていないと判断した場合は、ステップS707に遷移する。 In step S706, the control unit 301 sets the monitoring item for which the fairness warning has occurred as a recommended non-display item in the trained model managed by the insurance company A other than the learned model for which the fairness warning has occurred. Check if it is. Recommended hidden items will be described later. In step S705, when the control unit 301 determines that the monitoring item for which the fairness warning has occurred is a recommended non-display item, the control unit 301 ends the process. If the control unit 301 determines in step S705 that the monitoring item for which the fairness warning has occurred is not a recommended non-display item, the process proceeds to step S707.

ステップS707で、制御部301は、警告が起きた学習済モデルとは別の学習済モデルが、警告が起きた監視項目と同じ項目を入力項目として持っているか否かを確認する。ステップS707で、制御部301は、警告が起きた学習済モデルとは別の学習済モデルが、警告が起きた監視項目と同じ項目を入力項目として持っていないと判断した場合はステップS710に遷移する。ステップS710で、表示部304は、ステップS707での制御部301による判断結果に基づき、学習済モデルの修正すなわち再学習を推奨する旨の表示を行う。すなわち、ステップS710で、表示部304は、警告が起きた監視項目を入力項目に含んだ学習用データで学習済モデルの再学習をすることを促すメッセージを提供する。ステップS707で、制御部301は、警告が起きた学習済モデルとは別の学習済モデルが、警告が起きた監視項目と同じ項目を入力項目として持っていると判断した場合はステップS708に遷移する。
同一利用者が管理する複数の学習済モデルについて、あるひとつの学習済モデルの特定の項目において公平性の偏りがある場合、その利用者が作成した他の学習済モデルも、その特定の項目において偏りがある可能性がある。このため、本来であれば、複数の学習済モデルに対し、同じ項目の監視が必要であったにもかかわらず、監視設定漏れをしている場合が考えられる。本実施例の場合、自動車保険予測の学習済モデルで警告が起きた監視項目は「年齢」と「性別」であるが、生命保険予測の学習済モデルは、項目として「年齢」は持っており「性別」は持っていない。ステップS707で、制御部301は、この状況を確認する。
In step S707, the control unit 301 confirms whether or not a trained model different from the trained model in which the warning has occurred has the same item as the monitoring item in which the warning has occurred as an input item. In step S707, when the control unit 301 determines that the trained model different from the trained model in which the warning has occurred does not have the same item as the monitoring item in which the warning has occurred, the process proceeds to step S710. To do. In step S710, the display unit 304 displays that the training model is recommended to be modified, that is, re-learning, based on the determination result by the control unit 301 in step S707. That is, in step S710, the display unit 304 provides a message urging the trained model to be relearned with the training data including the monitoring item in which the warning has occurred as the input item. In step S707, when the control unit 301 determines that the trained model different from the trained model in which the warning has occurred has the same item as the monitoring item in which the warning has occurred, the process proceeds to step S708. To do.
For multiple trained models managed by the same user, if there is a bias in fairness in a particular item of one trained model, the other trained models created by that user will also be in that particular item. There may be a bias. For this reason, it is conceivable that the monitoring settings are omitted even though the same item needs to be monitored for a plurality of trained models. In the case of this embodiment, the monitoring items for which warnings occurred in the trained model of automobile insurance prediction are "age" and "gender", but the trained model of life insurance prediction has "age" as an item. I don't have "gender". In step S707, the control unit 301 confirms this situation.

ステップS708で、制御部301は、警告が起きた学習済モデルとは別の学習済モデルが、警告が起きた監視項目と同じ項目を監視項目として持っているか否かを確認する。ステップS708で、制御部301は、警告が起きた学習済モデルとは別の学習済モデルが、警告が起きた監視項目と同じ項目を監視項目として持っていないと判断した場合は処理を終了する。ステップS708で、制御部301は、警告が起きた学習済モデルとは別の学習済モデルが、警告が起きた監視項目と同じ項目を監視項目として持っていると判断した場合はステップS709に遷移する。ステップS709で、表示部304は、ステップS708での制御部301による判断結果に基づき、監視項目への追加を推奨する旨の表示を行う。 In step S708, the control unit 301 confirms whether or not a trained model different from the trained model in which the warning has occurred has the same item as the monitoring item in which the warning has occurred as a monitoring item. In step S708, when the control unit 301 determines that the trained model other than the trained model in which the warning has occurred does not have the same item as the monitoring item in which the warning has occurred, the control unit 301 ends the process. .. In step S708, when the control unit 301 determines that the trained model different from the trained model in which the warning has occurred has the same item as the monitoring item in which the warning has occurred, the process proceeds to step S709. To do. In step S709, the display unit 304 displays that it is recommended to add to the monitoring item based on the determination result by the control unit 301 in step S708.

本実施例では、ステップS708で、制御部301は、「年齢」について、生命保険予測の学習済モデルで監視項目として持っているか否かを確認する。ステップS708で、制御部301は、「年齢」について、生命保険予測の学習済モデルで監視項目として既に持っている場合は処理を終了する。本実施例では、ステップS708で、制御部301は、「年齢」について、生命保険予測の学習済モデルで監視項目として持っていないので、監視項目への追加を推奨する判断をする。本実施例では、ステップS709で、表示部304は、ステップS708での制御部301による判断結果に基づき、図8の領域804−1において、「年齢」の監視項目への追加を推奨する旨の表示を行う。 In this embodiment, in step S708, the control unit 301 confirms whether or not the “age” is possessed as a monitoring item in the learned model of the life insurance prediction. In step S708, the control unit 301 ends the process if it already has the “age” as a monitoring item in the learned model of the life insurance prediction. In this embodiment, in step S708, the control unit 301 does not have the “age” as a monitoring item in the trained model of the life insurance prediction, and therefore determines that it is recommended to add it to the monitoring item. In this embodiment, in step S709, the display unit 304 recommends adding "age" to the monitoring item in the area 804-1 of FIG. 8 based on the determination result by the control unit 301 in step S708. Display.

本実施例では、ステップS707で、制御部301は、「性別」について生命保険予測の学習済モデルの入力項目として追加すること、及び「性別」について生命保険予測の学習済モデルでの監視項目へ追加することを推奨する判断をする。本実施例では、ステップS710で、表示部304は、ステップS707での制御部301による判断結果に基づき、図8の領域804−2において、「性別」を入力項目とするよう生命保険予測の学習済モデルの修正を推奨する旨の表示を行う。また、本実施例では、ステップS710で、表示部304は、ステップS707での制御部301による判断結果に基づき、図8の領域804−2において、「性別」の監視項目への追加を推奨する旨の表示を行ってもよい。
生命保険予測の学習済モデルは、学習させた入力項目として「性別」を持っていない。すなわち予測システム102−1の予測には「性別」は寄与していないが、結果として「性別」による偏りがあると申請者に疑いを持たれるような予測結果を導出する学習済モデルになっている場合が考えられる。本実施例によれば、上述のように学習済モデル自体の見直しの推奨を行うことで、予測システム管理担当者が偏りという観点で問題になりそうな項目を把握することが可能になり、より偏りのない学習済モデルを構築するための気づきを与えることが可能となる。
In this embodiment, in step S707, the control unit 301 adds "gender" as an input item of the trained model of the life insurance forecast, and "gender" to the monitoring item of the trained model of the life insurance forecast. Make a decision to recommend adding. In this embodiment, in step S710, the display unit 304 learns the life insurance prediction so that "gender" is used as an input item in the area 804-2 of FIG. 8 based on the determination result by the control unit 301 in step S707. Display that it is recommended to modify the completed model. Further, in this embodiment, in step S710, the display unit 304 recommends adding "gender" to the monitoring item in the area 804-2 of FIG. 8 based on the determination result by the control unit 301 in step S707. A message to that effect may be displayed.
The trained model of life insurance forecast does not have "gender" as the trained input item. That is, although "gender" does not contribute to the prediction of the prediction system 102-1, as a result, it becomes a learned model that derives a prediction result that makes the applicant suspect that there is a bias due to "gender". It is possible that there is. According to this embodiment, by recommending the review of the trained model itself as described above, it becomes possible for the person in charge of the prediction system manager to grasp the items that are likely to be a problem from the viewpoint of bias. It is possible to provide awareness for building an unbiased trained model.

予測システム管理担当者は、図8の領域804−1及び領域804−1に表示された推奨情報を確認し、推奨内容が適当か否かを判断し、監視設定の漏れの修正や、学習済モデルの再構築を行うことが可能となる。
本実施例では、予測システム管理担当者が、図8の領域804−1及び領域804−1に表示された推奨情報を確認し、推奨内容の適用が不要と判断した場合は、推奨表示を非表示にし、かつ以降同様の推奨を表示しないように設定することを可能とする。表示部304は、このような設定を行うためのお勧め不要ボタンとして、ボタン805−1を領域804−1に表示し、ボタン805−2を領域804−2に表示する。
表示部304は、ボタン805−1の押下を受け付けると、生命保険予測の学習済モデルについて、「年齢」に関する推奨表示を非表示にする。また、表示部304は、ボタン805−2の押下を受け付けると、生命保険予測の学習済モデルについて、「性別」に関する推奨表示を非表示にする。さらに、制御部301は、以降同様の推奨を表示しないように、推奨非表示テーブルにその旨の情報を格納する。制御部301は、ステップS707及びステップS708の判断において、推奨非表示テーブルに格納されている推奨非表示項目については、学習済モデルの入力項目として追加すること及び監視項目へ追加することを推奨しないと判断する。
表4は、推奨非表示テーブルの一例を示す表である。推奨非表示テーブルは、データ格納部302に格納される。推奨非表示テーブルにおいては、1つのレコードが1つの推奨非表示項目を示している。表4では、生命保険予測において「年齢」を推奨非表示項目にした場合を示している、推奨非表示テーブルは、利用者、モデル、及び推奨非表示項目の各列を有する。
The person in charge of the prediction system manager confirms the recommended information displayed in the areas 804-1 and 804-1 in FIG. 8, judges whether the recommended contents are appropriate, corrects the omission of the monitoring setting, and has learned. It is possible to rebuild the model.
In this embodiment, when the person in charge of the prediction system manager confirms the recommended information displayed in the areas 804-1 and 804-1 in FIG. 8 and determines that the application of the recommended contents is unnecessary, the recommended display is not displayed. It is possible to set it to be displayed and not to display the same recommendation thereafter. The display unit 304 displays the button 805-1 in the area 804-1 and the button 805-2 in the area 804-2 as a recommended unnecessary button for making such a setting.
When the display unit 304 receives the pressing of the button 805-1, the display unit 304 hides the recommended display regarding "age" for the trained model of the life insurance prediction. Further, when the display unit 304 receives the pressing of the button 805-2, the display unit 304 hides the recommended display regarding "gender" for the trained model of the life insurance prediction. Further, the control unit 301 stores information to that effect in the recommendation non-display table so that the same recommendation is not displayed thereafter. In the determination of step S707 and step S708, the control unit 301 does not recommend adding the recommended hidden items stored in the recommended hidden table as input items of the trained model and adding them to the monitoring items. Judge.
Table 4 is a table showing an example of the recommended hidden table. The recommended hidden table is stored in the data storage unit 302. In the recommended hidden table, one record indicates one recommended hidden item. Table 4 shows the case where "age" is set as the recommended hidden item in the life insurance forecast. The recommended hidden table has columns for users, models, and recommended hidden items.

Figure 2021012594
Figure 2021012594

本実施例は、ブラウザからのリクエストに応じて公平性の判定を行う方法を示したが、図6の予測結果統計処理(ステップS607)で予測結果の統計を行った際に合わせて公平性の判断を行うようにしてもよい。
その場合、公平性管理システム101に予測システム管理担当者のメールアドレスなどを予め保持しておき、閾値を下回っていた場合は電子メールなどで予測システム管理担当者に通知するようにしてもよい。
また、その場合、公平性管理システム101は、推奨表示を行うのではなく、警告が発生した監視項目について、自動で別の学習済モデルの監視項目に追加するようにしてもよい。
In this embodiment, a method of determining fairness in response to a request from a browser has been shown, but the fairness is determined when the prediction result statistics are performed in the prediction result statistical processing (step S607) of FIG. You may make a judgment.
In that case, the fairness management system 101 may hold the e-mail address of the person in charge of the prediction system management in advance, and if the value is below the threshold value, the person in charge of the prediction system management may be notified by e-mail or the like.
Further, in that case, the fairness management system 101 may automatically add the monitoring item for which the warning has occurred to the monitoring item of another trained model, instead of displaying the recommendation.

本実施例では、実際に偏りの警告が発生したということは、その利用者が作成した学習済モデルは、特定の項目において偏りがある可能性があるという判断から、警告発生時に別の学習済モデルへの同様の監視設定を推奨する例を示した。これは監視項目が過剰になるなどして予測システム管理担当者の手間を余計に増やすようなことを回避しながらも、必要十分な監視設定を行うのが目的である。しかしながら、監視設定の推奨を行うタイミングはこれに限らない。例えば、公平性管理システム101は、監視項目設定画面(図4(B))で、ある学習済モデルで監視項目の設定を行った際に、別の学習済モデルに対して、同様の監視項目の設定を推奨するようにしてもよい。第1のモデルである自動車保険予測システムの学習済モデルに対して監視の所定条件が設定された場合に、自動車保険予測システムの学習済モデルに対して、同様の監視項目の設定を推奨するようにしてもよい。また、システム100に新たな予測システムが登録された場合に、既に登録されていた予測システムで監視設定されている項目について、新たに登録された予測システムの学習済みモデルでの監視設定を推奨するようにしてもよい。 In this embodiment, the fact that a bias warning actually occurs means that the trained model created by the user may be biased in a specific item, and therefore another trained model is trained when the warning occurs. An example is shown that recommends similar monitoring settings for the model. The purpose of this is to make necessary and sufficient monitoring settings while avoiding an excessive increase in the time and effort of the forecasting system manager due to excessive monitoring items. However, the timing for recommending monitoring settings is not limited to this. For example, in the fairness management system 101, when a monitoring item is set in one trained model on the monitoring item setting screen (FIG. 4 (B)), the same monitoring item is set for another trained model. It may be recommended to set. When predetermined monitoring conditions are set for the trained model of the automobile insurance prediction system, which is the first model, it is recommended to set the same monitoring items for the trained model of the automobile insurance prediction system. It may be. In addition, when a new prediction system is registered in the system 100, it is recommended to set the monitoring settings in the trained model of the newly registered prediction system for the items that have been monitored and set in the already registered prediction system. You may do so.

本実施例は、保険会社Aが運用するすべての学習済モデルを対象に、ひとつの学習済モデルの監視項目を別の学習済モデルに推奨する例を示したが、対象範囲を限定してもよい。例えば、利用者が管理する複数の学習済モデルを、業務内容によりグルーピングを行い、そのグループ内でのみ、監視項目の推奨を行うようにしてもよい。
また、利用者が管理する複数の学習済モデルの監視項目が似ている場合、監視項目の共通化の推奨を行うようにしてもよい。例えば、各学習済モデルの監視項目が、ある一定の割合以上の数が共通であった場合、監視項目個別の推奨ではなく、全監視項目の共通化の推奨を行うようにしてもよい。
This example shows an example in which the monitoring items of one trained model are recommended to another trained model for all trained models operated by insurance company A, but even if the scope is limited. Good. For example, a plurality of learned models managed by the user may be grouped according to the business content, and the monitoring items may be recommended only within the group.
Further, when the monitoring items of a plurality of trained models managed by the user are similar, it may be recommended to standardize the monitoring items. For example, when the number of monitoring items of each trained model is common to a certain ratio or more, it may be recommended to standardize all monitoring items instead of recommending individual monitoring items.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 公平性管理システム
102 予測システム
103 業務システム
101 Fairness management system 102 Prediction system 103 Business system

Claims (9)

機械学習により作成されたモデルを複数、監視するシステムであって、
複数の値を含む入力を用いた第1のモデルによる予測の結果が所定条件を満たす場合に、前記所定条件に対応する前記入力の特定項目について警告を行う監視手段と、
前記第1のモデルとは異なる第2のモデルに対して、前記特定項目について、前記監視手段による監視の対象となる条件の設定を促すメッセージを提供する提供手段と、を有し、
前記提供手段は、前記第1のモデルに対して前記所定条件が設定された場合、前記第1のモデルによる予測の結果が前記所定条件を満たすと判断された場合、及び、前記第2のモデルがシステムに登録された場合の少なくともいずれかの場合に、前記メッセージを提供する
ことを特徴とするシステム。
A system that monitors multiple models created by machine learning.
When the result of prediction by the first model using inputs including a plurality of values satisfies a predetermined condition, a monitoring means for giving a warning about a specific item of the input corresponding to the predetermined condition, and
A second model different from the first model has a providing means for providing a message prompting the setting of conditions to be monitored by the monitoring means for the specific item.
The providing means includes, when the predetermined condition is set for the first model, when it is determined that the result of prediction by the first model satisfies the predetermined condition, and when the second model A system characterized in that the message is provided in at least one of the cases when is registered in the system.
複数のモデルをグルーピングするグルーピング手段をさらに有し、
前記提供手段は、
前記第1のモデルと前記第2のモデルとがグルーピングされている場合に、前記メッセージを提供し、
前記第1のモデルとグルーピングされていない第3のモデルには前記メッセージを提供しない
ことを特徴とする請求項1に記載のシステム。
It also has a grouping means for grouping multiple models,
The providing means
When the first model and the second model are grouped, the message is provided.
The system according to claim 1, wherein the message is not provided to the third model that is not grouped with the first model.
前記メッセージが提供された場合に、前記条件の設定を不要とするための入力手段をさらに有する
ことを特徴とする請求項1又は2に記載のシステム。
The system according to claim 1 or 2, further comprising an input means for eliminating the need to set the conditions when the message is provided.
前記提供手段は、前記第2のモデルに対して、前記特定項目について、前記監視手段による監視の対象となる条件が既に設定されている場合は、前記メッセージを提供しない
ことを特徴とする請求項1から3のいずれか1項に記載のシステム。
The claim is characterized in that the providing means does not provide the message to the second model when the conditions to be monitored by the monitoring means have already been set for the specific item. The system according to any one of 1 to 3.
前記提供手段は、前記第2のモデルの入力項目が前記特定項目を含まない場合には、前記特定項目を含んだ学習用データで前記第2モデルの再学習をすることを促すメッセージを提供する
ことを特徴とする請求項1から4のいずれか1項に記載のシステム。
When the input item of the second model does not include the specific item, the providing means provides a message prompting the re-learning of the second model with the learning data including the specific item. The system according to any one of claims 1 to 4, wherein the system is characterized by the above.
前記所定条件は、第1の入力値を含む入力を用いた前記第1のモデルによる予測の結果と、第2の入力値を含む入力を用いた前記第1のモデルによる予測の結果と、の間に偏りがある場合に満たされる条件である。
ことを特徴とする請求項1から5のいずれか1項に記載のシステム。
The predetermined condition is a result of prediction by the first model using an input including a first input value and a result of prediction by the first model using an input including a second input value. This is a condition that is satisfied when there is a bias between them.
The system according to any one of claims 1 to 5, characterized in that.
前記第1の入力値を含む入力を用いて前記第1のモデルにより予測した予測結果が所定の予測結果であった回数の、前記第1の入力値を含む入力を用いて前記第1のモデルにより予測した予測総数に対する割合を第1の割合とし、
前記第2の入力値を含む入力を用いて前記第1のモデルにより予測した予測結果が前記所定の予測結果であった回数の、前記第2の入力値を含む入力を用いて前記第1のモデルにより予測した予測総数に対する割合を第2の割合とし、
前記所定条件は、前記第1の割合と前記第2の割合との比率に応じた条件である
ことを特徴とする請求項6に記載のシステム。
The first model using the input including the first input value for the number of times that the prediction result predicted by the first model using the input including the first input value was a predetermined prediction result. The ratio to the total number of forecasts predicted by
The first using the input including the second input value, the number of times the prediction result predicted by the first model using the input including the second input value was the predetermined prediction result. The second ratio is the ratio to the total number predicted by the model.
The system according to claim 6, wherein the predetermined condition is a condition corresponding to the ratio of the first ratio and the second ratio.
機械学習により作成されたモデルを複数、監視するシステムで実行される方法あって、
複数の値を含む入力を用いた第1のモデルによる予測の結果が所定条件を満たす場合に、前記所定条件に対応する前記入力の特定項目について警告を行う監視工程と、
前記第1のモデルとは異なる第2のモデルに対して、前記特定項目について、前記監視工程における監視の対象となる条件の設定を促すメッセージを提供する提供工程と、を有し、
前記提供工程は、前記第1のモデルに対して前記所定条件が設定された場合、前記第1のモデルによる予測の結果が前記所定条件を満たすと判断された場合、及び、前記第2のモデルがシステムに登録された場合の少なくともいずれかの場合に、前記メッセージを提供する
ことを特徴とする方法。
There is a way to run on a system that monitors multiple models created by machine learning.
When the result of prediction by the first model using inputs including a plurality of values satisfies a predetermined condition, a monitoring step of giving a warning about a specific item of the input corresponding to the predetermined condition, and
A second model different from the first model has a providing step of providing a message prompting the setting of conditions to be monitored in the monitoring step for the specific item.
In the providing step, when the predetermined conditions are set for the first model, when it is determined that the result of prediction by the first model satisfies the predetermined conditions, and when the second model A method characterized in that the message is provided in at least one of the cases where is registered in the system.
請求項1乃至7のいずれか1項に記載のシステムの各手段としてコンピュータを機能させるためのプログラム。 A program for operating a computer as each means of the system according to any one of claims 1 to 7.
JP2019127057A 2019-07-08 2019-07-08 System, method, and program Active JP7497142B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019127057A JP7497142B2 (en) 2019-07-08 2019-07-08 System, method, and program
US16/918,856 US11928560B2 (en) 2019-07-08 2020-07-01 System, method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019127057A JP7497142B2 (en) 2019-07-08 2019-07-08 System, method, and program

Publications (2)

Publication Number Publication Date
JP2021012594A true JP2021012594A (en) 2021-02-04
JP7497142B2 JP7497142B2 (en) 2024-06-10

Family

ID=74101605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019127057A Active JP7497142B2 (en) 2019-07-08 2019-07-08 System, method, and program

Country Status (2)

Country Link
US (1) US11928560B2 (en)
JP (1) JP7497142B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023073967A1 (en) * 2021-10-29 2023-05-04 富士通株式会社 Accuracy determination program, accuracy determination device, and accuracy determination method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124937A (en) * 2017-02-03 2018-08-09 株式会社東芝 Abnormality detection device, abnormality detection method, and program
JP2019067139A (en) * 2017-09-29 2019-04-25 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitoring device, monitoring method, monitoring program, display device, display method and display program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6607885B2 (en) 2017-07-10 2019-11-20 株式会社三菱総合研究所 Information processing apparatus and information processing method
US11720813B2 (en) * 2017-09-29 2023-08-08 Oracle International Corporation Machine learning platform for dynamic model selection
US11995518B2 (en) * 2017-12-20 2024-05-28 AT&T Intellect al P Property I, L.P. Machine learning model understanding as-a-service
US20200372435A1 (en) * 2018-07-31 2020-11-26 Microsoft Technology Licensing, Llc Achieving fairness across multiple attributes in rankings
US11263550B2 (en) * 2018-09-09 2022-03-01 International Business Machines Corporation Audit machine learning models against bias

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124937A (en) * 2017-02-03 2018-08-09 株式会社東芝 Abnormality detection device, abnormality detection method, and program
JP2019067139A (en) * 2017-09-29 2019-04-25 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitoring device, monitoring method, monitoring program, display device, display method and display program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"AIシステムにおける透明性と信頼の構築 エンタープライズに求められる「透明性」と「公平性」を担保する", PROVISION 2019 NO.95 PROFESSIONAL VISION FOR INFORMATION TECHNOLOGY, JPN6023035579, 18 June 2019 (2019-06-18), pages 40 - 45, ISSN: 0005138111 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023073967A1 (en) * 2021-10-29 2023-05-04 富士通株式会社 Accuracy determination program, accuracy determination device, and accuracy determination method

Also Published As

Publication number Publication date
US20210012241A1 (en) 2021-01-14
US11928560B2 (en) 2024-03-12
JP7497142B2 (en) 2024-06-10

Similar Documents

Publication Publication Date Title
Srivastava et al. Mathematical notions vs. human perception of fairness: A descriptive approach to fairness for machine learning
AU2012245343B2 (en) Predictive modeling
US9152969B2 (en) Recommendation ranking system with distrust
JP7346110B2 (en) Systems, methods and programs
US20070300225A1 (en) Providing user information to introspection
US8751941B1 (en) Graphical user interface for unified identity management across internal and shared computing applications
US11551818B2 (en) Computer system and method of presenting information related to basis of predicted value output by predictor
WO2015022649A2 (en) Modeling of patient risk factors at discharge
US20160292637A1 (en) Methods, apparatuses, and systems for generating group solutions
JP2004355392A (en) Device and method for autonomously optimizing screen, recording medium, and program
US20070061701A1 (en) Input suggestions based on prior business process consequences
US20190180851A1 (en) System and method for predicting non-adherence risk based on socio-economic determinates of health
JP2021012594A (en) System, method, and program
CN113743615A (en) Feature removal framework to simplify machine learning
JP6474103B2 (en) Presentation device
JP2021174131A (en) Information processing system, information processor, information processing method, information processing program, communication terminal, and control method and control program thereof
CN111611353A (en) Screening method and device, electronic equipment and computer readable storage medium
Chen et al. An app for predicting nurse intention to quit the job using artificial neural networks (ANNs) in Microsoft Excel
CN113658676B (en) Internet-based cognitive behavioral and psychological health management method and system
JP2011186706A (en) Information processor, information processing method, and program
JP6751955B1 (en) Learning method, evaluation device, and evaluation system
Conde et al. Isotonic boosting classification rules
Gong et al. Large population size IGA with individuals’ fitness not assigned by user
KR20220150140A (en) Pagetalk-based multi-user e-commerce platform providing device and method by simultaneous connection
JP7256669B2 (en) Information processing device, estimation device, analysis device, information processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240529

R150 Certificate of patent or registration of utility model

Ref document number: 7497142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150