JP2024055111A - 機械学習プログラム,機械学習方法及び情報処理装置 - Google Patents

機械学習プログラム,機械学習方法及び情報処理装置 Download PDF

Info

Publication number
JP2024055111A
JP2024055111A JP2022161752A JP2022161752A JP2024055111A JP 2024055111 A JP2024055111 A JP 2024055111A JP 2022161752 A JP2022161752 A JP 2022161752A JP 2022161752 A JP2022161752 A JP 2022161752A JP 2024055111 A JP2024055111 A JP 2024055111A
Authority
JP
Japan
Prior art keywords
priority
relationship information
pieces
node
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022161752A
Other languages
English (en)
Inventor
聡子 岩倉
泉 新田
恭子 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2022161752A priority Critical patent/JP2024055111A/ja
Priority to EP23186647.6A priority patent/EP4350582A1/en
Priority to US18/355,454 priority patent/US20240119387A1/en
Publication of JP2024055111A publication Critical patent/JP2024055111A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/03Credit; Loans; Processing thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/18Legal services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • General Engineering & Computer Science (AREA)
  • Game Theory and Decision Science (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Technology Law (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Stored Programmes (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】AIシステムの開発者や提供者が、AIシステムの運用によって発生し得る倫理リスクを適切に認識し対処することを支援する。【解決手段】入力されたAIシステムの構成に基づいて定まる、それぞれが複数の属性を含む第1の複数の関係情報(D2)と他のAIシステムの構成に基づいて定まる第2の複数の関係情報(D4)とを比較し、比較の結果に基づいて、第1の複数の関係情報(D2)の優先度を決定し、各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステムのチェックリスト(D8)として出力する。【選択図】図9

Description

本発明は、機械学習プログラム,機械学習方法及び情報処理装置に関する。
AI(Artificial Intelligence)システムにおいて、倫理的なリスクのアセスメントが行われることがある。
さまざまな業種やタスクのAIシステムを利用することで、倫理上の問題が発生することがある。そのような問題が発生すると、AIシステムを提供した企業や組織だけでなく、AIシステムの利用者やその先にある社会に対する影響も大きい。
そこで、AIを社会実装する上で、倫理上のリスクを認識し対処できるような取り組みが行われている。
しかし、AIシステムが複数のステークホルダーを持ち、それらを取り巻く社会状況が変化することで、AIシステムの利用によってどのような倫理的な問題が発生するかを検知することは容易でない場合がある。
そこで、AI倫理に関する原則やガイドラインが示すチェックリストそのものが、AIシステムやそのステークホルダーに当てはめられて分析されることがある。
AI倫理に関する原則やガイドラインの例としては、「欧州High-Level Expert Group on AI (AI HLEG) “Ethics Guidelines for Trustworthy AI”」や「総務省 AI利活用ガイドライン」,「統合イノベーション戦略推進会議“人間中心のAI社会原則”」,「OECD “Recommendation of the Council on Artificial Intelligence”」が存在する。
また、様々なAIサービス提供の形態の存在を踏まえつつ、AIサービス提供者が自らのAIサービスに係るリスクコントロール検討に資するモデルとして、「リスクチェーンモデル(Risk Chain Model: RCModel)」が提案されている。
リスクチェーンモデルでは、以下の(1)~(3)によって、リスク構成要素の整理及び構造化が行われる。
(1)AIシステムの技術的構成要素
(2)サービス提供者の行動規範(ユーザとのコミュニケーションを含む)に係る構成要素
(3)ユーザの理解・行動・利用環境に係る構成要素
また、リスクチェーンモデルでは、リスクシナリオの識別及びリスク要因となる構成要素の特定と、リスクチェーンの可視化及びリスクコントロールの検討が行われる。リスクチェーンの可視化及びリスクコントロールの検討では、AIサービス提供者はリスクシナリオに関連する構成要素の関係性(リスクチェーン)を可視化することで、段階的なリスク低減の検討が可能になる。
国際公開第2020/240981号 国際公開第2021/084810号 米国公開公報第2020/0372374号 米国公開公報第2021/0271885号
松本敬史,江間有沙,"AIサービスのリスク低減を検討するリスクチェーンモデルの提案",2020年6月4日,インターネット<URL:ifi.u-tokyo.ac.jp/wp/wp-content/uploads/2020/06/policy_recommendation_tg_20200604.pdf>
しかしながら、原則やガイドラインが示すチェックリストは、AIシステムのどの部分がどうあるべきかを具体的に示すものではなく、AIシステムの開発者や提供者が具体化する必要がある。この具体化作業は難易度が高く、工数の負担も大きい。
また、リスクチェーンモデルはリスク構成要素が整理されているが、AIシステム提供者や開発者が、AIシステムのコンポーネントや個々のステークホルダーに対して実践すべき項目に落とし込む必要がある。
更に、AIシステムの構成が更新された場合には、AIシステムの運用によって発生し得る倫理リスクも検討し直しとなり、倫理リスクの認識が効率的に行えないおそれがある。
1つの側面では、AIシステムの開発者や提供者が、AIシステムの運用によって発生し得る倫理リスクを適切に認識し対処することを支援することを目的とする。
1つの側面では、機械学習プログラムは、入力されたArtificial Intelligence(AI)システムの構成に基づいて定まる、それぞれが複数の属性を含む第1の複数の関係情報と他のAIシステムの構成に基づいて定まる第2の複数の関係情報とを比較し、前記比較の結果に基づいて、前記第1の複数の関係情報の優先度を決定し、各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステムのチェックリストとして出力する、処理をコンピュータに実行させる。
1つの側面では、AIシステムの開発者や提供者が、AIシステムの運用によって発生し得る倫理リスクを適切に認識し対処することを支援することができる。
関連例における出力データとしての分析図を例示するブロック図である。 関連例における分析対象システム図を例示するブロック図である。 関連例におけるAI倫理チェックリストの一部を例示するテーブルである。 関連例における分析シートの一部を例示するテーブルである。 関連例における分析シートからのグラフ構造の生成例を示すブロック図である。 関連例におけるAI倫理チェック項目の抽出例を示すブロック図である。 関連例における情報処理装置のソフトウェア構成例を模式的に示すブロック図である。 関連例におけるAI倫理チェックリストの生成処理の詳細を説明するフローチャートである。 実施形態におけるAI倫理チェックリストの生成処理を説明するフローチャートである。 実施形態における差分検出処理及び重要度加点処理の第1の例を説明する図である。 実施形態における差分検出処理及び重要度加点処理の第2の例を説明する図である。 グラフ構造を説明する図である。 実施形態における差分検出処理の第1の具体例を説明する図である。 実施形態における差分検出処理の第2の具体例を説明する図である。 実施形態における差分検出処理の第3の具体例を説明する図である。 実施形態における差分検出処理の第4の具体例を説明する図である。 実施形態における情報処理装置のソフトウェア構成例を模式的に示すブロック図である。 実施形態における情報処理装置のハードウェア構成例を模式的に示すブロック図である。
〔A〕関連例
関連例は、AIシステム100(図2を用いて後述)が持つべき倫理的な特徴を、AIシステム100とステークホルダーとの関係に対応付けてチェックリスト化し、そのAI倫理チェックリストを用いて、AIシステム100の倫理リスクを分析する。これにより、AIサービス提供者10(図2を用いて後述)や開発者が、AIシステム100のコンポーネントや個々のステークホルダーに対して実践すべき項目に落とし込む作業を不要にする。
また、AIシステム100の構成要素とステークホルダーとの関係をグラフ構造化し、グラフ構造の特徴に基づいてAI倫理チェック項目に優先度を付けたAI倫理チェックリストを自動生成する。これにより、重要なAI倫理チェック項目を優先的に分析することで効率化を実現する。
図1は、関連例における出力データとしての分析図を例示するブロック図である。
AIを取り巻く倫理リスクは、AIシステムのコンポーネントとステークホルダーのいずれか2者間の関係(インタラクション)に紐づけて抽出及び可視化される。
図1に示す分析図では、訓練部110及び予測部120(いずれも図2を用いて後述)を含むシステム図に表示されているインタラクションID(S101~S114)のそれぞれに対して、該当するAI倫理チェック項目(図3で後述)があれば、対応付けられて表示される。また、各AI倫理チェック項目には、リスク事象(図1の一点鎖線枠を参照)とリスク要因(図1の点線枠を参照)とのいずれかが対応付けられて表示される。
図1に示す例では、S110に対してAI倫理チェック項目「集団公平性」及び「推論結果の制御性」が対応付けて表示されており、S111に対してAI倫理チェック項目「データ属性の十分性」及び「ラベルの妥当性」が対応付けて表示されている。S112に対してAI倫理チェック項目「データ属性の十分性」が対応付けて表示されており、S113に対してAI倫理チェック項目「推論結果の独立性」及び「機械学習・統計解析の適切性」が対応付けて表示されている。S114に対して、AI倫理チェック項目「推論結果の制御性」が対応付けて表示されている。
図2は、関連例における分析対象システム図を例示するブロック図である。
図2に示すAIシステム100は、ローン審査AIのインタラクションを例示している。図2における矢印は、インタラクションを示す。インタラクションの両端(始点,終点)は、ステークホルダー,データ,AIシステムのコンポーネントのいずれかの要素となる。相互作用の始点,終点に対応する要素の役割(データ提供者20,30,利用者40,訓練データ101,ローン審査モデル103等)によりインタラクションの種類を規定する。各インタラクションに付されているSxxxはインタラクションIDを示す。
AIシステム100は、AIサービスベンダ等のAIサービス提供者10と、信用調査機関等のデータ提供者20と、銀行等のデータ提供者30と、ローン申込者等の利用者40とによって使用される。
訓練部110は、訓練データ101に対する機械学習によって、ローン審査モデル103(別言すれば、AIモデル)の訓練を実行するローン審査モデル訓練部102(別言すれば、機械学習部)を備える。訓練データ101は、データ提供者20からの信用スコアの入力や、データ提供者30からの取引データの入力によって、生成されてよい。
予測部120は、ローン審査モデル103を用いて推論データ104に対する推論を行うことによって、審査結果106(別言すれば、推論結果)を出力する推論部105を備える。推論データ104は、データ提供者20からの信用スコアの入出力や、データ提供者30からの申込情報及び取引データの入出力、利用者40からの申込者情報の入力によって、生成されてよい。
図3は、関連例におけるAI倫理チェックリストの一部を例示するテーブルである。
AI倫理チェックリストは、AI倫理モデルに基づいて生成される。AI倫理モデルは、AI倫理に関する原則やガイドライン等を整理し、AIシステム100が満たすべきチェック項目のリストとして構成したものである。
AI倫理チェックリストは、図2におけるインタラクションの種類に応じて、満たすべきAI倫理チェック項目を対応付けたものである。AI倫理チェックリストにおける1つのチェック項目が、1種類のインタラクションに対応する。
図3に例示するAI倫理チェック項目の一部は、「欧州 High-Level Expert Group on AI (AI HLEG) “Ethics Guidelines for Trustworthy AI”」から導出されたAI倫理モデルに基づいている。
図3に示すAI倫理チェックリストの一部では、チェック項目と概要とインタラクション種類(From,To)とが対応付けられている。例えば、チェック項目「社会的信用の維持」に対して、概要「AIシステムを使うことによってステークホルダの信用が損なわれることがないこと」とインタラクション種類(From)「推論結果」とインタラクション種類(To)「利用者」と対応付けて登録されている。
図4は、関連例における分析シートの一部を例示するテーブルである。
分析シートには、インタラクションID毎に、ステークホルダーとデータの種類、リスク、AI倫理チェック項目(AI倫理特性)、施策等が対応付けられている。例えば、インタラクションID「S110」には、ステークホルダーの種類「利用者」,名称「ローン申込者」及び始点・終点の別「1(終点)」が対応付けられている。また、インタラクションID「S110」には、データの種類「推論結果」,データの名称「審査結果」及び始点・終点の別「0(始点)」が対応付けられている。更に、インタラクションID「S110」には、リスク(事象)「女性や黒人に対して審査が通りにくい」、AI倫理チェック項目「集団公平性」及び施策「性別・人種グループ間の融資可となる比率の差が許容範囲内に収まるようにAIアルゴリズムを改善する」が対応付けられている。
ここで、関連例におけるAI倫理リスクの分析処理について説明する。
以下の(1)~(4)の手順で、リスク分析がユーザにより実施される。
(1)AIシステム100の構成要素、データ、ステークホルダー間の関係がシステム図(図2を参照)として作図され、インタラクションが抽出される。
(2)分析シート(図4を参照)にインタラクション毎の内訳が記載される。
(3)AI倫理チェックリスト(図3を参照)の各項目について、該当するインタラクションがそのチェック項目を満たさない状態から想定されるリスク(リスク事象・リスク要因)が抽出され、分析シートに記載される。
(4)分析シートのリスクが参照され、同内容のものが整理され、事象と要因との関係が記載される。可視化する場合はシステム図にリスク事象と要因とを追加した分析図(図1を参照)が作成される。
すなわち、システム図、分析シート及び分析図が出力データとして出力される。
上記のリスク分析の手順(3)において、AI倫理チェックリストの項目が多いため、すべてのチェックリストを検証するための工数が大きい。そこで、上記のリスク分析の手順(3)について、優先度付きのAI倫理チェックリスト生成処理が実行される。
AI倫理チェックリスト生成処理では、分析対象のAIシステム100とステークホルダーのいずれか2者間の関係(インタラクション)がグラフ構造で表現される。そして、そのグラフ構造の特徴から、倫理的に注目すべき重要度の高い関係(インタラクション)がルールベースで抽出され、重要度の高い関係(インタラクション)と紐づいた、倫理的なリスクを抽出するためのチェック項目が、優先度付きのチェックリストとして提示される。
関連例における情報処理装置(不図示)は、AI倫理チェックリストの絞り込みを実施する。AI倫理チェックリストの絞り込みでは、「AIシステムの構成とステークホルダーとの関係」が持つ特徴が、インタラクションの集合から構成したグラフ構造の特徴として表現される。
分析シートの表データは「インタラクション集合」のデータ形式になっているため、グラフ構造の自動生成が可能となる。グラフ構造の特徴として、例えば以下を自動抽出できる。
・ステークホルダーのノード数
・複数の役割を持つステークホルダーの数
・AIシステムと直接関わらないステークホルダーの数
倫理的なリスクの発生が起こりやすいグラフ構造の特徴と、おさえておくべきAI倫理チェックリストの項目とが、あらかじめルールとして登録される。例えば、AIシステム100と直接関わらないステークホルダーの数が1つ以上ある場合は、そのステークホルダーが関わるインタラクションの優先度が上げられる。これは、AIシステム100の設計・開発において見落としがちな間接的なステークホルダーへの影響を把握するためである。
グラフ構造の特徴から登録したルールに基づいて、重要度の高いAI倫理チェック項目が絞り込まれ、優先度付きのAI倫理チェックリストとして生成される。
図5は、関連例における分析シートからのグラフ構造の生成例を示すブロック図である。
符号A1に示す分析シートは、図4に示した分析シートと同様のテーブル構造を有する。符号A1に示す分析シートからは、符号A2に示すようなグラフ構造が生成されてよい。
符号A2に示すグラフ構造では、丸印で示される各ノード間の矢印がインタラクションを表す。
図5に示す例では、ローン申込者からの申込者情報の出力がS101で表され、申込者情報の銀行への入力がS102で表され、申込者情報の信用調査機関への入力がS103で表される。また、銀行からの申込者情報・取引データ・信用スコアの出力がS104で表され、信用調査機関からの申込者情報・取引データ・信用スコアの出力がS105で表される。更に、申込者情報・取引データ・信用スコアからローン審査推論部への入力がS106で表され、ローン審査推論部からの審査データの出力がS107で表される。
符号A11に示すように、各ステークホルダーには、役割(ステークホルダーの種類)が登録され、符号A21に示すように、ローン申込者等の各ノードは、役割を持つ。
ここで、注目すべき重要度の高いインタラクションの抽出は、以下の(1)~(3)の順に行われる。
(1)すべてのインタラクションの重要度が1点に設定される。
(2)特定の特徴を持つインタラクションの重要度が加点される(特徴1つにつき1点加点されてよい)。
(3)インタラクションが重要度で順位付される。
上記の(2)における特定の特徴は、インタラクションの両端のノード(AIシステム100のコンポーネント、データ、ステークホルダー)の特徴と、接続関係の特徴とを含んでよい。インタラクションの両端のノードの特徴には、複数の役割(AIシステム提供者でデータ提供者)を持つステークホルダーと、利用者の役割を持つステークホルダーと、訓練データ提供者の役割を持つステークホルダーとが含まれてよい。接続関係の特徴には、AIシステム100の出力とつながらないステークホルダーのインタラクションと、訓練データあるいは推論データが複数のデータ提供者とつながるインタラクションとが含まれてよい。
図6は、関連例におけるA1倫理チェック項目の抽出例を示すブロック図である。
重要度の点数が高いインタラクションの順に、該当するAI倫理チェック項目が列挙される。
図6に示す例では、符号B1に示すAI倫理チェック項目のうち、符号B2に示すように重要度の点数が高い4つのAI倫理チェック項目が抽出されて列挙されている。
図7は、関連例における情報処理装置のソフトウェア構成例を模式的に示すブロック図である。
関連例における情報処理装置(不図示)は、グラフ生成部111,特徴抽出部112及びチェック項目抽出部113として機能する。
グラフ生成部111は、AIシステム100の構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性を含む複数の関係情報(別言すれば、インタラクション)を取得する。グラフ生成部111は、分析対象のインタラクション集合141に基づき、関係情報を取得してよい。グラフ生成部111は、取得した関係情報に基づいて、図4に示したグラフ構造を生成してよい。
特徴抽出部112は、対象者の種別の属性に基づいて、複数の関係情報の優先度を決定する。特徴抽出部112は、重要インタラクション抽出ルール142に基づいて、優先度を決定してよい。特徴抽出部112は、複数の関係情報のそれぞれに関係する特定の対象者の優先度を高くしてよい。特徴抽出部112は、複数の関係情報のうちの特定の関係情報の優先度を高くしてもよい。
チェック項目抽出部113は、各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステム100の絞り込んだAI倫理チェックリスト114として出力する。
次に、関連例におけるAI倫理チェックリストの生成処理の詳細を、図8に示すフローチャート(ステップC1~C8)に従って説明する。
グラフ生成部111は、重要インタラクション抽出ルール142と、AI倫理チェックリスト143と、分析対象のインタラクション集合141とを、入力データとして受け付ける(ステップC1~C3)。
グラフ生成部111は、インタラクション集合141からグラフ構造を生成する(ステップC4)。
特徴抽出部112は、グラフ構造から特徴を抽出する(ステップC5)。特徴の抽出は、例えば、ステークホルダーのノード数や、複数の役割を持つステークホルダーの数、AIシステム100と直接関わらないステークホルダーの数に基づいて実行されてよい。
特徴抽出部112は、抽出した特徴から、重要インタラクション抽出ルール142に基づいて、注目すべきインタラクションを抽出する(ステップC6)。
チェック項目抽出部113は、注目すべきインタラクションに対応するAI倫理チェックリスト143のチェック項目を抽出する(ステップC7)。
チェック項目抽出部113は、重要な項目を絞り込んだAI倫理チェックリスト143を出力する(ステップC8)。そして、AI倫理チェックリスト143の生成処理は終了する。
〔B〕実施形態
以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
上述した関連例においては、AI倫理チェックリストの生成処理において、倫理リスクが発生しやすい重要インタラクションとされるグラフ構造の特徴(たとえば、ステークホルダーの役割に関する特徴など)のルールに応じて、インタラクションに優先度が付与され、AI倫理チェックリストが絞り込まれた。一方、実施形態においては、倫理リスクが発生しやすい重要インタラクションとされるグラフ構造の特徴に加えて又はグラフ構造の特徴に代えて、現在のシステム図のグラフ構造と前versionのシステム図のグラフ構造との差分に応じて、インタラクションに優先度が付与される。過去に倫理リスク分析を行ったことがあるAIシステムについて、一部、構成の変更や詳細化が行われた際、変更前後の分析対象システム図が2つ存在し、変更前のシステム図が前version、変更後の最新のシステム図がNowversion である。AIシステムの変更に伴い、再度倫理リスク分析を行うにあたって、前versionとNowversionの間で変化があったインタラクションを、再分析において注目すべき重要インタラクションと位置づける。
実施形態におけるAI倫理チェックリストの生成処理を、図9に示すフローチャート(ステップD1~D8)に従って説明する。
AIシステム100(図2を参照)のシステム図Now versionには、AIコンポーネントとステークホルダーのいずれか2者間のインタラクションが記載されている。ここから全インタラクションが抽出され、分析シート(図4を参照)のデータ形式となったもの、すなわち、「インタラクション集合」のデータ形式となったものが、実施形態における情報処理装置1(図18を用いて後述)に入力される(ステップD1)。
Now versionのインタラクション集合から、グラフ構造が生成される(ステップD2)。
一方、前versionのシステム図のインタラクション集合も同様に、情報処理装置1に入力される(ステップD3)。
前versionのインタラクション集合から、グラフ構造が生成される(ステップD4)。
Now version、前versionの2つのグラフ構造が比較され、差分(変化)が検出される(ステップD5)。差分検出の方法は、あらかじめ登録したルールを用いる。ルールを用いて差分検出する一例を、図13~図16で後述する。
差分として検出したインタラクションを、注目すべきインタラクションとして、重要度が加点される(ステップD6)。
注目すべき(重要度の高い)インタラクションに対応するAI倫理チェックリストのチェック項目が抽出される(ステップD7)。
そして、重要なチェック項目を絞り込んだAI倫理チェックリストが出力される(ステップD8)。
図10は、実施形態におけるグラフ構造の差分検出処理及び重要度加点処理の第1の例を説明する図である。
情報処理装置1には、符号E1に示すシステム図「前version」のグラフ構造と、符号E2に示すシステム図「Now version」のグラフ構造とが入力され比較される。
システム図「Now version」において、符号E21に示すノード「証券会社」からノード「申込者情報・取引データ・信用スコア」へのインタラクションS201が差分インタラクションとして検出される。
インタラクションIDは、図の更新に伴い採番が変わっているケースがあるので、前version中の旧IDは考慮せず、新しいNow versionの図のIDに対して重要度スコアが付与される。ノード(例えば「ローン申込者」)の名称ベースでグラフ構造を比較するため、ノード名称は2つのシステム図で一致している前提とする。
検出された差分インタラクションに基づいて、インタラクションS201の重要度スコアに加点が行われる。
図11は、実施形態における差分検出処理及び重要度加点処理の第2の例を説明する図である。
情報処理装置1には、符号F1に示すシステム図「前version」のグラフ構造と、符号F2に示すシステム図「Now version」のグラフ構造とが入力され比較される。
システム図「Now version」において、符号F21に示すノード「申込者情報」からノード「データ収集・前処理(申込者データ)」までのインタラクションS102,S103,S104,S105,S106,S108,S109が差分インタラクションとして検出される。
これに基づいて、インタラクションS102,S103,S104,S105,S106,S108,S109の重要度スコアに加点が行われる。
すなわち、図11に示す例では、単純に新規追加されたインタラクションS108,S109だけを差分とするのではなく、部分グラフとして構造的に差分検出が行われる。
図12は、グラフ構造を説明する図である。
グラフ構造は、ノード(符号G1:○を参照)と、ノード間を結ぶエッジ(符号G2:→を参照)の関係により図示される。ノードはステークホルダー又はAIシステムコンポーネントを表し、エッジはインタラクションを表す。エッジには、方向(別言すれば、矢印の向き)がある。
各ノードには、ノードから出るエッジの数を表す出次数と、ノードに入るエッジの数を表す入次数とが記録される。符号G3に示すノードの出次数はインタラクションS102,S103の「2」であり、符号G4に示すノードの入次数はインタラクションS104,S105の「2」である。
図13は、実施形態における差分検出処理の第1の具体例を説明する図である。差分として検出される要素条件(あらかじめ設定される差分抽出ルール)は、分析にかかる工数と網羅性のバランスを鑑みて、適切なものが設定されてよい。差分として検出される要素条件の一例を示しながら説明する。
情報処理装置1には、符号H1に示すシステム図「前version」のグラフ構造と、符号H2に示すシステム図「Now version」のグラフ構造とが入力され比較される。
図13に示す例において、差分として検出される要素条件は、
・新規出現ノード(別言すれば、新名称のノード)
・新規出現エッジ(別言すれば、連結している両ノードの一方又は両方が、新規もしくは以前の連結先と異なる名称)
であるとする。
この場合、符号H1とH2のグラフ構造の差分として検出されるのは、符号H21で示すように、証券会社のノード(符号H211に示す、新規出現ノード)、証券会社のノードから出るS201のエッジ(符号H212に示す、新規出現エッジ)となる。
これにより、差分のインタラクションとして、S201が検出される。
これに基づいて、S201の重要度が加点される。
図14は、実施形態における差分検出処理の第2の具体例を説明する図である。比較する2つのグラフ構造は図12で示したものと同じだが、差分として検出される要素条件(差分抽出ルール)が異なる一例を示す。
情報処理装置1には、符号I1に示すシステム図「前version」のグラフ構造と、符号I2に示すシステム図「Now version」のグラフ構造とが入力され比較される。
図14に示す例において、差分として検出される要素条件は、図13で示した例と同様の
・新規出現ノード(別言すれば、新名称のノード)
・新規出現エッジ(別言すれば、連結している両ノードの一方又は両方が、新規もしくは以前の連結先と異なる名称)
に加えて、
・入次数・出次数が変更されたノード
・変更があったノードと連結しているエッジ
であるとする。
この場合、符号I1とI2のグラフ構造の差分として検出されるのは、符号I21で示すように、証券会社のノード(符号I211に示す、新規出現ノード)、S201のエッジ(符号I212に示す、新規出現エッジ)、申込者情報・取引データ・信用スコアのノード(符号I213に示す、出次/入次数に変更があったノード)、S106のエッジ(符号I214に示す、変更があったノードと連結しているエッジ)となる。
これにより、差分のインタラクションとして、S201とS106が検出される。
これに基づいて、S201とS106の重要度が加点される。
なお、差分として検出される要素条件は、さらに詳細な限定があってもよい。たとえば、「変更があったノードと連結しているエッジ」は、図13に示す例では、インタラクションS106のように、エッジの始点終点の片方のノードに変更があったエッジを検出しているが、「両端ともに変更があったノードのエッジ」としてもよい。
また、「変更があったノードと連結しているエッジ」は、「変更があったノードから出ているエッジ」としてもよい。
図15は、実施形態における差分検出処理の第3の具体例を説明する図である。比較する2つのグラフ構造は図13,図14で示したものと同じだが、差分として検出される要素条件(差分抽出ルール)が更に異なる一例を示す。
情報処理装置1には、符号J1に示すシステム図「前version」のグラフ構造と、符号J2に示すシステム図「Now version」のグラフ構造とが入力され比較される。
図15に示す例において、差分として検出される要素条件は、
・新規出現ノード(別言すれば、新名称のノード)
・新規出現エッジ(別言すれば、連結している両ノードの一方又は両方が、新規もしくは以前の連結先と異なる名称)
・入次数・出次数が変更されたノード
・変更があったノードと連結している、以降のノード及びエッジ
であるとする。
この場合、符号J1とJ2のグラフ構造の差分として検出されるのは、符号J21で示すように、証券会社のノード(符号J211に示す、新規出現ノード)、S201のエッジ(符号J212に示す、新規出現エッジ)、申込者情報・取引データ・信用スコアのノード(符号J213に示す、出次/入次数に変更があったノード)、S106のエッジ、ローン審査推論部のノード、S107のエッジ、審査データのノード(符号J214に示す、変更があったノードと連結している、以降のノード/エッジ)となる。
これにより、差分のインタラクションとして、S201、S106およびS107が検出される。
これに基づいて、S201、S106およびS107の重要度が加点される。
また、検出対象のノード及びエッジには、検出優先度が付与されてもよい。具体例には、変更があった最後のノード「申込者情報・取引データ・信用スコア」からのホップ数(別言すれば、経路上のエッジ数)が少ないほど優先度が高く設定されてよい。
変更があった最後のノード「申込者情報・取引データ・信用スコア」以前のノード及びエッジの優先度を高としてよい。図15に示す例では、エッジS201及びノード「証券会社」,「申込者情報・取引データ・信用スコア」の優先度が高に設定される。
また、変更があった「申込者情報・取引データ・信用スコア」ノードからのホップ数が1のノード及びエッジの優先度を中としてよい。図15に示す例では、エッジS106及びノード「ローン審査推論部」の優先度が中に設定される。
更に変更があった「申込者情報・取引データ・信用スコア」ノードからのホップ数が2以上のノード及びエッジの優先度を低としてよい。図15に示す例では、エッジS107及びノード「審査データ」の優先度が低に設定される。
そして、設定された検出優先度に応じて、高なら3点、中なら2点、低なら1点など、インタラクション重要度に加点する点数を高くしてよい。
図16は、実施形態における差分検出処理の第4の具体例を説明する図である。比較する2つのグラフ構造が図13~図15に示した例と異なる場合の一例である。
情報処理装置1には、符号K1に示すシステム図「前version」のグラフ構造と、符号K2に示すシステム図「Now version」のグラフ構造とが入力され比較される。
図16に示す例において、差分として検出される要素条件は、図14に示した例と同様に、
・新規出現ノード(別言すれば、新名称のノード)
・新規出現エッジ(別言すれば、連結している両ノードの一方又は両方が、新規もしくは以前の連結先と異なる名称)
・入次数・出次数が変更されたノード
・変更があったノードから出ているエッジ
であるとする。
符号K21に示すように、差分として検出される要素条件は、「申込者情報」ノード、「銀行」ノード,「申込者情報・取引データ・信用スコア」ノード(出次/入次数に変更があったノード、符号K211,K217,K219)と、エッジS102,S103,S104,S106(変更があったノードから出ているエッジ、符号K212,K213,K218)、エッジS108,S105,S109(新規出現エッジ、符号K214,K216)、「信用調査機関2」ノード(新規出現ノード、K215)となる。
これにより、差分のインタラクションとしてS102,S103,S104,S106, S108,S105,S109が検出される。
これに基づいて、S102,S103,S104,S106, S108,S105,S109の重要度が加点される。
図17は、実施形態における情報処理装置1のソフトウェア構成例を模式的に示すブロック図である。
実施形態における情報処理装置1は、グラフ生成部111,特徴抽出部112,チェック項目抽出部113及びグラフ差分検出部115して機能する。
グラフ生成部111は、AIシステム100の構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性を含む複数の関係情報(別言すれば、インタラクション)を取得する。グラフ生成部111は、現在のNow versionの分析対象のインタラクション集合141(別言すれば、第1の複数の関係情報)及び前versionの分析対象のインタラクション集合140(別言すれば、第2の複数の関係情報)に基づき、関係情報をそれぞれ取得してよい。グラフ生成部111は、取得した関係情報に基づいて、図10~図16等に示したグラフ構造を生成してよい。
グラフ差分検出部115は、現在のNow versionのシステム図によって生成されたグラフ構造と、前versionのシステム図によって生成されたグラフ構造を比較し、差分を検出する。グラフ差分検出部115は、差分に関する重要インタラクション抽出ルール144に基づいて、差分を検出してよい。
特徴抽出部112は、グラフ差分検出部115が検出したグラフ構造の差分に基づいて、複数の関係情報の優先度を決定する。特徴抽出部112は、差分に関する重要インタラクション抽出ルール144に基づいて、優先度を決定してよい。
チェック項目抽出部113は、各属性と対応付けられた複数のAI倫理チェック項目のうち、特徴抽出部112によって決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステム100の絞り込んだAI倫理チェックリスト143として出力する。
図18は、実施形態における情報処理装置1のハードウェア構成例を模式的に示すブロック図である。
図18に示すように、情報処理装置1は、CPU(Central Processing Unit)11,メモリ部12,表示制御部13,記憶装置14,入力Interface(IF)15,外部記録媒体処理部16及び通信IF17を備える。
メモリ部12は、記憶部の一例であり、例示的に、Read Only Memory(ROM)及びRandom Access Memory(RAM)などである。メモリ部12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれてよい。メモリ部12のソフトウェアプログラムは、CPU11に適宜に読み込まれて実行されてよい。また、メモリ部12のRAMは、一時記録メモリあるいはワーキングメモリとして利用されてよい。
表示制御部13は、表示装置131と接続され、表示装置131を制御する。表示装置131は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。表示装置131は、入力装置と組み合わされたものでもよく、例えば、タッチパネルでもよい。表示装置131は、情報処理装置1のユーザに対する種々の情報を表示する。
記憶装置14は、高IO性能の記憶装置であり、例えば、Dynamic Random Access Memory(DRAM)やSSD(Solid State Drive),Storage Class Memory(SCM),HDD(Hard Disk Drive)が用いられてよい。
入力IF15は、マウス151やキーボード152等の入力装置と接続され、マウス151やキーボード152等の入力装置を制御してよい。マウス151やキーボード152は、入力装置の一例であり、これらの入力装置を介して、オペレータが各種の入力操作を行う。
外部記録媒体処理部16は、記録媒体160が装着可能に構成される。外部記録媒体処理部16は、記録媒体160が装着された状態において、記録媒体160に記録されている情報を読み取り可能に構成される。本例では、記録媒体160は、可搬性を有する。例えば、記録媒体160は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。
通信IF17は、外部装置との通信を可能にするためのインタフェースである。
CPU11は、プロセッサの一例であり、種々の制御や演算を行う処理装置である。CPU11は、メモリ部12に読み込まれたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。なお、CPU11は、複数のCPUを含むマルチプロセッサであってもよいし、複数のCPUコアを有するマルチコアプロセッサであってもよく、或いは、マルチコアプロセッサを複数有する構成であってもよい。
情報処理装置1全体の動作を制御するための装置は、CPU11に限定されず、例えば、MPUやDSP,ASIC,PLD,FPGAのいずれか1つであってもよい。また、情報処理装置1全体の動作を制御するための装置は、CPU,MPU,DSP,ASIC,PLD及びFPGAのうちの2種類以上の組み合わせであってもよい。なお、MPUはMicro Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、ASICはApplication Specific Integrated Circuitの略称である。また、PLDはProgrammable Logic Deviceの略称であり、FPGAはField Programmable Gate Arrayの略称である。
〔C〕効果
上述した実施形態における機械学習プログラム,機械学習方法及び情報処理装置1によれば、例えば以下の作用効果を奏することができる。
グラフ差分検出部115は、入力されたAIシステムの構成に基づいて定まる、それぞれが複数の属性を含む第1の複数の関係情報と他のAIシステムの構成に基づいて定まる第2の複数の関係情報とを比較する。特徴抽出部112は、比較の結果に基づいて、第1の複数の関係情報の優先度を決定する。チェック項目抽出部113は、各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステムの絞り込んだAI倫理チェックリスト114として出力する。
これにより、AIシステムの開発者や提供者が、AIシステムの運用によって発生し得る倫理リスクを適切に認識し対処することを支援することができる。具体例には、AI倫理チェックリストを優先度付けすることができ、チェックリスト中の優先度の高い項目を優先的に分析することで、リスクに対する対処立案の効率が改善できる。特に、すでに倫理リスク分析を行ったことがあるAIシステムについて変更や詳細化が行われた後、再度リスク分析を行う際に、再分析を大幅に効率化することができる。
例えば、AI倫理リスクの分析過程において、インタラクションの漏れに気が付いて、システム図を修正して再分析するケースや、AI導入検討当初ラフだったシステム図が、AIライフサイクルのフェーズが進むにつれて詳細化していき、それにともなって詳細なリスク分析ができるようになるケースがある。このような場合に、システム図の変更に伴い新たに抽出されるリスクを優先的に認識することができる。
〔D〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
〔E〕付記
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
入力されたArtificial Intelligence(AI)システムの構成に基づいて定まる、それぞれが複数の属性を含む第1の複数の関係情報と他のAIシステムの構成に基づいて定まる第2の複数の関係情報とを比較し、
前記比較の結果に基づいて、前記第1の複数の関係情報の優先度を決定し、
各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステムのチェックリストとして出力する、
処理をコンピュータに実行させる、機械学習プログラム。
(付記2)
前記比較する処理において、前記第1の複数の関係情報と前記第2の複数の関係情報とをグラフ構造で比較し、
前記優先度を決定する処理において、前記比較の結果に基づいて、前記第1の複数の関係情報のうち、前記第2の複数の関係情報との差分が検出された関係情報の優先度を高くする、
処理を前記コンピュータに実行させる、付記1に記載の機械学習プログラム。
(付記3)
前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記AIシステムに含まれ、かつ、前記他のAIシステムに含まれないノードと、前記AIシステムに含まれ、かつ、前記他のAIシステムに含まれないエッジとを検出して、検出された関係情報の優先度を高くする、
処理を前記コンピュータに実行させる、付記2に記載の機械学習プログラム。
(付記4)
前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記第2の複数の関係情報との差分として、更に、入次数又は出次数が変更されたノードと、変更があったノードと連結しているエッジを検出して、検出された関係情報の優先度を高くする、
処理を前記コンピュータに実行させる、付記3に記載の機械学習プログラム。
(付記5)
前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記第2の複数の関係情報との差分として、更に、前記変更があったノードと連結しているエッジ以降に連結されているノード及びエッジを検出して、検出された関係情報の優先度を高くする、
処理を前記コンピュータに実行させる、付記4に記載の機械学習プログラム。
(付記6)
前記優先度を決定する処理において、前記変更があったノードと連結しているエッジ以降に連結されているノード及びエッジについて、前記変更があったノードからのホップ数が少ないノード又はエッジほど、検出優先度を高く付け、検出された関係情報の優先度を高くする、
処理を前記コンピュータに実行させる、付記5に記載の機械学習プログラム。
(付記7)
入力されたArtificial Intelligence(AI)システムの構成に基づいて定まる、それぞれが複数の属性を含む第1の複数の関係情報と他のAIシステムの構成に基づいて定まる第2の複数の関係情報とを比較し、
前記比較の結果に基づいて、前記第1の複数の関係情報の優先度を決定し、
各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステムのチェックリストとして出力する、
処理をコンピュータが実行する、機械学習方法。
(付記8)
前記比較する処理において、前記第1の複数の関係情報と前記第2の複数の関係情報とをグラフ構造で比較し、
前記優先度を決定する処理において、前記比較の結果に基づいて、前記第1の複数の関係情報のうち、前記第2の複数の関係情報との差分が検出された関係情報の優先度を高くする、
処理を前記コンピュータが実行する、付記7に記載の機械学習方法。
(付記9)
前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記AIシステムに含まれ、かつ、前記他のAIシステムに含まれないノードと、前記AIシステムに含まれ、かつ、前記他のAIシステムに含まれないエッジとを検出して、検出された関係情報の優先度を高くする、
処理を前記コンピュータが実行する、付記8に記載の機械学習方法。
(付記10)
前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記第2の複数の関係情報との差分として、更に、入次数又は出次数が変更されたノードと、変更があったノードと連結しているエッジを検出して、検出された関係情報の優先度を高くする、
処理を前記コンピュータが実行する、付記9に記載の機械学習方法。
(付記11)
前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記第2の複数の関係情報との差分として、更に、前記変更があったノードと連結しているエッジ以降に連結されているノード及びエッジを検出して、検出された関係情報の優先度を高くする、
処理を前記コンピュータが実行する、付記10に記載の機械学習方法。
(付記12)
前記優先度を決定する処理において、前記変更があったノードと連結しているエッジ以降に連結されているノード及びエッジについて、前記変更があったノードからのホップ数が少ないノード又はエッジほど、検出優先度を高く付け、検出された関係情報の優先度を高くする、
処理を前記コンピュータが実行する、付記11に記載の機械学習プログラム。
(付記13)
入力されたArtificial Intelligence(AI)システムの構成に基づいて定まる、それぞれが複数の属性を含む第1の複数の関係情報と他のAIシステムの構成に基づいて定まる第2の複数の関係情報とを比較し、
前記比較の結果に基づいて、前記第1の複数の関係情報の優先度を決定し、
各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステムのチェックリストとして出力する、
プロセッサを備える、情報処理装置。
(付記14)
前記プロセッサは、
前記比較する処理において、前記第1の複数の関係情報と前記第2の複数の関係情報とをグラフ構造で比較し、
前記優先度を決定する処理において、前記比較の結果に基づいて、前記第1の複数の関係情報のうち、前記第2の複数の関係情報との差分が検出された関係情報の優先度を高くする、
付記13に記載の情報処理装置。
(付記15)
前記プロセッサは、
前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記AIシステムに含まれ、かつ、前記他のAIシステムに含まれないノードと、前記AIシステムに含まれ、かつ、前記他のAIシステムに含まれないエッジとを検出して、検出された関係情報の優先度を高くする、
付記14に記載の情報処理装置。
(付記16)
前記プロセッサは、
前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記第2の複数の関係情報との差分として、更に、入次数又は出次数が変更されたノードと、変更があったノードと連結しているエッジを検出して、検出された関係情報の優先度を高くする、
付記15に記載の情報処理装置。
(付記17)
前記プロセッサは、
前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記第2の複数の関係情報との差分として、更に、前記変更があったノードと連結しているエッジ以降に連結されているノード及びエッジを検出して、検出された関係情報の優先度を高くする、
付記16に記載の情報処理装置。
(付記18)
前記プロセッサは、
前記優先度を決定する処理において、前記変更があったノードと連結しているエッジ以降に連結されているノード及びエッジについて、前記変更があったノードからのホップ数が少ないノード又はエッジほど、検出優先度を高く付け、検出された関係情報の優先度を高くする、
付記17に記載の情報処理装置。
1 :情報処理装置
2 :信用調査機関
10 :AIサービス提供者
11 :CPU
12 :メモリ部
13 :表示制御部
14 :記憶装置
15 :入力IF
16 :外部記録媒体処理部
17 :通信IF
20 :データ提供者
30 :データ提供者
40 :利用者
100 :AIシステム
101 :訓練データ
102 :ローン審査モデル訓練部
103 :ローン審査モデル
104 :推論データ
105 :推論部
106 :審査結果
110 :訓練部
111 :グラフ生成部
112 :特徴抽出部
113 :チェック項目抽出部
114 :AI倫理チェックリスト
115 :グラフ差分検出部
120 :予測部
131 :表示装置
140 :インタラクション集合
141 :インタラクション集合
142 :重要インタラクション抽出ルール
143 :AI倫理チェックリスト
144 :重要インタラクション抽出ルール
151 :マウス
152 :キーボード
160 :記録媒体

Claims (8)

  1. 入力されたArtificial Intelligence(AI)システムの構成に基づいて定まる、それぞれが複数の属性を含む第1の複数の関係情報と他のAIシステムの構成に基づいて定まる第2の複数の関係情報とを比較し、
    前記比較の結果に基づいて、前記第1の複数の関係情報の優先度を決定し、
    各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステムのチェックリストとして出力する、
    処理をコンピュータに実行させる、機械学習プログラム。
  2. 前記比較する処理において、前記第1の複数の関係情報と前記第2の複数の関係情報とをグラフ構造で比較し、
    前記優先度を決定する処理において、前記比較の結果に基づいて、前記第1の複数の関係情報のうち、前記第2の複数の関係情報との差分が検出された関係情報の優先度を高くする、
    処理を前記コンピュータに実行させる、請求項1に記載の機械学習プログラム。
  3. 前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記AIシステムに含まれ、かつ、前記他のAIシステムに含まれないノードと、前記AIシステムに含まれ、かつ、前記他のAIシステムに含まれないエッジとを検出して、検出された関係情報の優先度を高くする、
    処理を前記コンピュータに実行させる、請求項2に記載の機械学習プログラム。
  4. 前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記第2の複数の関係情報との差分として、更に、入次数又は出次数が変更されたノードと、変更があったノードと連結しているエッジを検出して、検出された関係情報の優先度を高くする、
    処理を前記コンピュータに実行させる、請求項3に記載の機械学習プログラム。
  5. 前記優先度を決定する処理において、前記第1の複数の関係情報における前記グラフ構造のうち、前記第2の複数の関係情報との差分として、更に、前記変更があったノードと連結しているエッジ以降に連結されているノード及びエッジを検出して、検出された関係情報の優先度を高くする、
    処理を前記コンピュータに実行させる、請求項4に記載の機械学習プログラム。
  6. 前記優先度を決定する処理において、前記変更があったノードと連結しているエッジ以降に連結されているノード及びエッジについて、前記変更があったノードからのホップ数が少ないノード又はエッジほど、検出優先度を高く付け、検出された関係情報の優先度を高くする、
    処理を前記コンピュータに実行させる、請求項5に記載の機械学習プログラム。
  7. 入力されたArtificial Intelligence(AI)システムの構成に基づいて定まる、それぞれが複数の属性を含む第1の複数の関係情報と他のAIシステムの構成に基づいて定まる第2の複数の関係情報とを比較し、
    前記比較の結果に基づいて、前記第1の複数の関係情報の優先度を決定し、
    各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステムのチェックリストとして出力する、
    処理をコンピュータが実行する、機械学習方法。
  8. 入力されたArtificial Intelligence(AI)システムの構成に基づいて定まる、それぞれが複数の属性を含む第1の複数の関係情報と他のAIシステムの構成に基づいて定まる第2の複数の関係情報とを比較し、
    前記比較の結果に基づいて、前記第1の複数の関係情報の優先度を決定し、
    各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステムのチェックリストとして出力する、
    プロセッサを備える、情報処理装置。
JP2022161752A 2022-10-06 2022-10-06 機械学習プログラム,機械学習方法及び情報処理装置 Pending JP2024055111A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022161752A JP2024055111A (ja) 2022-10-06 2022-10-06 機械学習プログラム,機械学習方法及び情報処理装置
EP23186647.6A EP4350582A1 (en) 2022-10-06 2023-07-20 Machine learning program, machine learning method, and information processing apparatus
US18/355,454 US20240119387A1 (en) 2022-10-06 2023-07-20 Computer-readable recording medium having stored therein machine learning program, machine learning method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022161752A JP2024055111A (ja) 2022-10-06 2022-10-06 機械学習プログラム,機械学習方法及び情報処理装置

Publications (1)

Publication Number Publication Date
JP2024055111A true JP2024055111A (ja) 2024-04-18

Family

ID=87426650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022161752A Pending JP2024055111A (ja) 2022-10-06 2022-10-06 機械学習プログラム,機械学習方法及び情報処理装置

Country Status (3)

Country Link
US (1) US20240119387A1 (ja)
EP (1) EP4350582A1 (ja)
JP (1) JP2024055111A (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8296175B2 (en) * 2010-01-11 2012-10-23 International Business Machines Corporation Social network marketing plan comparison method and system
CN109564635A (zh) 2017-08-11 2019-04-02 深圳市得道健康管理有限公司 人工智能设备、系统及其行为控制方法
EP3979137A4 (en) 2019-05-27 2022-08-10 Sony Group Corporation ARTIFICIAL INTELLIGENCE DEVICE AND PROGRAM MANUFACTURING PROCESS
WO2021084810A1 (ja) 2019-10-30 2021-05-06 ソニー株式会社 情報処理装置及び情報処理方法、並びに人工知能モデル製造方法
KR102248705B1 (ko) * 2019-12-09 2021-05-06 선문대학교 산학협력단 Ai 윤리 평가 방법 및 이를 지원하는 서버 장치
WO2021173939A1 (en) 2020-02-28 2021-09-02 Opera Solutions Usa, Llc Video analytics to detect animal abuse

Also Published As

Publication number Publication date
EP4350582A1 (en) 2024-04-10
US20240119387A1 (en) 2024-04-11

Similar Documents

Publication Publication Date Title
US10756982B2 (en) Machine learning microservice architecture design tools and methods
Voigt et al. Context-aware recommendation of visualization components
US7516155B2 (en) method to validate consistency of component business model maps
US8196126B2 (en) Methods and systems for dynamically generating and optimizing code for business rules
Syu et al. Time series forecasting for dynamic quality of web services: An empirical study
US9355370B2 (en) System and method for generating legal documents
Duboc et al. Systematic elaboration of scalability requirements through goal-obstacle analysis
JP2015502620A (ja) 矛盾するルールを伴うケースの検出
Jaafar et al. Detecting asynchrony and dephase change patterns by mining software repositories
WO2016063502A1 (ja) 知識管理装置、知識管理方法、及び、プログラムの記録媒体
Geetha et al. Acceptance testing based test case prioritization
JP2024055111A (ja) 機械学習プログラム,機械学習方法及び情報処理装置
Banerjee et al. An ontology-based approach to automated test case generation
EP4216111A1 (en) Risk analysis program, risk analysis method, and information processing device of risk analysis
Turkman et al. Business process model driven automatic software requirements generation
US20200364758A1 (en) Closed-Loop Control Mechanism to Optimize AI-Based Customer Support Performance for Customer Satisfaction, Customer Effort, or any Other Customer Satisfaction Metric
US20210201394A1 (en) Dynamic financial health predictor
Habibi et al. Generating test as a web service (TaaWS) through a method-based attribute grammar
Shrivastava et al. On interdisciplinarity between product adoption and vulnerability discovery modeling
Deepika et al. Software Reusability Estimation Using Machine Learning Techniques—A Systematic Literature Review
US12001977B2 (en) Systems and methods for providing an interactive visualization of an enterprise IT environment
US20240161130A1 (en) Determining a new candidate feature for a predetermined product based on an implicit request of a user
US20200234222A1 (en) Systems and Methods for Providing an Interactive Visualization of an Enterprise IT Environment
US20090125364A1 (en) Framework for achieving a rewarding relationship
US20240028996A1 (en) Root cause analysis in process mining