JP7473799B2 - 検索装置、モデル生成装置、検索方法、およびモデル生成方法 - Google Patents

検索装置、モデル生成装置、検索方法、およびモデル生成方法 Download PDF

Info

Publication number
JP7473799B2
JP7473799B2 JP2020088989A JP2020088989A JP7473799B2 JP 7473799 B2 JP7473799 B2 JP 7473799B2 JP 2020088989 A JP2020088989 A JP 2020088989A JP 2020088989 A JP2020088989 A JP 2020088989A JP 7473799 B2 JP7473799 B2 JP 7473799B2
Authority
JP
Japan
Prior art keywords
example data
data
learning
training
training example
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020088989A
Other languages
English (en)
Other versions
JP2021184153A (ja
Inventor
充 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissin Electric Co Ltd
Original Assignee
Nissin Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissin Electric Co Ltd filed Critical Nissin Electric Co Ltd
Priority to JP2020088989A priority Critical patent/JP7473799B2/ja
Publication of JP2021184153A publication Critical patent/JP2021184153A/ja
Application granted granted Critical
Publication of JP7473799B2 publication Critical patent/JP7473799B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明の一態様は、検索装置に関する。
近年、AI(Artificial Intelligence,人工知能)に関する様々な技術が提案されている。の一例として、エキスパートシステムが知られている。特許文献1には、エキスパートシステム(AIベースの問題解決手法の一例)における知識ベースの構築を容易化するための技術が開示されている。
特開平4-370833号公報
但し、問題解決に適した手法は、対象となる事例のデータ(ターゲット事例データ)によって異なりうる。ターゲット事例データの内容次第では、エキスパートシステムが必ずしも適切な問題解決手法であるとは限らない。エキスパートシステムに替えて、他の問題解決手法(例:ロジスティック回帰分析または決定木分析)を適用する方が好ましい場合も考えられる。しかしながら、複数の既存の問題解決手法から、ターゲット事例データに適した問題解決手法を選択することは、ユーザにとって必ずしも容易ではない。
本発明の一態様の目的は、ターゲット事例データに適用すべき問題解決手法を検索することが可能な技術を実現することにある。
上記の課題を解決するために、本発明の一態様に係る検索装置は、P個(Pは2以上の整数)の問題解決手法の内から、ターゲット事例データに適用すべき少なくとも1つの問題解決手法を検索する検索装置であって、上記P個の問題解決手法のそれぞれは、第1学習用事例データから第P学習用事例データまでのP個の学習用事例データと1対1に対応付けられており、上記P個の学習用事例データに基づく学習をCNN(Convolutional Neural Network)に行わせることにより、学習済CNNが予め生成されており、上記ターゲット事例データに応じた上記学習済CNNの出力に基づいて、上記少なくとも1つの問題解決手法を検索する検索部を備えている。
また、上記の課題を解決するために、本発明の一態様に係るモデル生成装置は、P個(Pは2以上の整数)の問題解決手法の内から、ターゲット事例データに適用すべき少なくとも1つの問題解決手法を検索するための学習モデルを生成するモデル生成装置であって、上記P個の問題解決手法のそれぞれは、第1学習用事例データから第P学習用事例データまでのP個の学習用事例データと1対1に対応付けられており、上記P個の学習用事例データに基づく学習をCNN(Convolutional Neural Network)に行わせることにより、上記学習モデルとしての学習済CNNを生成する学習部を備えている。
また、上記の課題を解決するために、本発明の一態様に係る検索方法は、P個(Pは2以上の整数)の問題解決手法の内から、ターゲット事例データに適用すべき少なくとも1つの問題解決手法を検索する検索方法であって、上記P個の問題解決手法のそれぞれは、第1学習用事例データから第P学習用事例データまでのP個の学習用事例データと1対1に対応付けられており、上記P個の学習用事例データに基づく学習をCNN(Convolutional Neural Network)に行わせることにより、学習済CNNが予め生成されており、上記ターゲット事例データに応じた上記学習済CNNの出力に基づいて、上記少なくとも1つの問題解決手法を検索する検索工程を含んでいる。
また、上記の課題を解決するために、本発明の一態様に係るモデル生成方法は、P個(Pは2以上の整数)の問題解決手法の内から、ターゲット事例データに適用すべき少なくとも1つの問題解決手法を検索するための学習モデルを生成するモデル生成方法であって、上記P個の問題解決手法のそれぞれは、第1学習用事例データから第P学習用事例データまでのP個の学習用事例データと1対1に対応付けられており、上記P個の学習用事例データに基づく学習をCNN(Convolutional Neural Network)に行わせることにより、上記学習モデルとしての学習済CNNを生成する学習工程を含んでいる。
本発明の一態様によれば、ターゲット事例データに適用すべき問題解決手法を検索することが可能となる。
実施形態1の情報処理システムの要部の構成を示すブロック図である。 過去事例データの一例を示す図である。 数値化された後の過去事例データの一例を示す図である。 学習データ群を生成する処理について説明する図である。 学習モデルの生成方法を説明する図である。 新規事例データの一例を示す図である。 数値化された後の新規事例データの一例を示す図である。 ユーザに提示される検索結果の一例を示す図である。
〔実施形態1〕
以下、実施形態1の情報処理システム100について説明する。説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、以降の各実施形態では、同じ符号を付記し、その説明を繰り返さない。また、簡潔化のため、公知技術と同様の事項についても、説明を適宜省略する。
本明細書において以下に述べる各数値は、単なる一例であることに留意されたい。本明細書では、任意の2つの数AおよびBについての「A~B」という記載は、特に明示されない限り、「A以上かつB以下」を意味する。本明細書では、任意の行列(2次元配列)Aのi行j列目の成分(要素)を、A(i,j)と表記する。また、本明細書では、AIベースの問題解決手法を、「AI手法」と略記する。
(情報処理システム100の概要)
図1は、情報処理システム100の要部の構成を示すブロック図である。情報処理システム100は、情報処理装置1、過去事例DB(Database)91、および新規事例DB92を備える。情報処理装置1は、制御装置10、入力部71、出力部72、および記憶部80を備える。制御装置10は、学習装置11(モデル生成装置)および検索装置12を備える。
情報処理装置1は、過去事例DB91および新規事例DB92と通信可能に接続されていればよい。このため、図1の例とは異なり、情報処理装置1の内部に、過去事例DB91および新規事例DB92の少なくとも一方が設けられていてもよい。制御装置10は、情報処理装置1の各部を統括的に制御する。記憶部80は、制御装置10の処理に用いられる各種のデータおよびプログラムを格納する。
以下に述べるように、制御装置10において、学習装置11は、過去事例データセットD1(学習用事例データのセット)に基づく学習を行うことにより、学習モデルD2を生成する。このことから、学習装置11は、モデル生成装置と称されてもよい。そして、検索装置12は、D2を用いて検索を行う。具体的には、検索装置12は、ターゲット事例データに適用すべきAI手法を検索する。
なお、実施形態1における過去事例データは、本発明の一態様に係る「学習用事例データ」の一例である。他方、新規事例データは、本発明の一態様に係る「ターゲット事例データ」の一例である。また、AI手法(AI手法名)は、本発明の一態様に係る「問題解決手法(問題解決手法名)」の一例である。
実施形態1では、「事例」として、「図面」を例示して説明する。実施形態1の説明における「図面」には、プラントエンジニアリング分野における任意の図面(例:仕様図面、設計図面、および製作図面)が含まれていてよい。さらに、当該図面には、仕様書、設計書、および、見積書が含まれていてもよい。このように、実施形態1の説明における「図面」は、「図面」という名称が含まれている書面に限定されない。
なお、「図面」以外の「事例」としては、例えば「クレーム事例」および「特許」等を挙げることができる。本発明の一態様に係る事例は、各事例と当該各事例に係る項目とをテーブル(表)の形式にてリストアップできるものであればよい(例えば、後述の図2におけるM行N列のテーブルを参照)。
入力部71は、ユーザの操作(ユーザ操作)を受け付ける。出力部72は、制御装置10による検索結果を、ユーザに対し出力(提示)する。一例として、出力部72は、当該検索結果を表示する表示部であってよい。
(学習装置11)
学習装置11は、学習データ取得部111、学習データ前処理部112(データ拡張部)、および学習モデル生成部113(学習部)を備える。
(学習データの取得)
過去事例DB91には、D1が予め格納されている。学習データ取得部111は、過去事例DB91からD1を取得する。D1には、P個の過去事例データ(第1~第P過去事例データ)が含まれている。Pは、2以上の整数である。第1~第P過去事例データはそれぞれ、第1~第P学習用事例データと称されてもよい。一例として、P=20である。
過去事例データのそれぞれは、M行N列のテーブル(2次元配列)として作成されている。MおよびNはそれぞれ、2以上の整数である。一例として、M=N=100である。なお、検索精度の向上のためには、MはN以上に設定されることが好ましい。
実施形態1では、第1~第P過去事例データのそれぞれには、異なるAI手法が適用されている。そして、ある1つの過去事例データは、同過去事例データに対して適用されたAI手法の名称(AI手法名)と紐付けられている。従って、実施形態1では、P個の過去事例データのそれぞれは、P個の個別のAI手法名と1対1に対応付けられている。
図2は、過去事例データを例示する図である。図2のテーブルTB1は、第1過去事例データの一例である。図2の例におけるTB1は、AI手法名「ロジスティック回帰分析」に対応付けられている。TB1の行方向には、M個の異なる事例(図面)がリストアップされている。以下、i番目の事例を「事例i」(あるいは、「第i事例」)とも称する。iは、1以上かつM以下の整数である。
TB1の列方向には、N個の異なる項目(後述する特定文字列)に係る内容を示すデータがリストアップされている。以下、j番目の項目を「項目j」(あるいは、「第j項目」)とも称する。jは、1以上かつN以下の整数である。項目jは、「第j特定文字列」に係る記載内容(以下、第j記載内容)を示す。TB1(i,j)は、事例iの第j記載内容を示す。このように、TB1のi行目は事例iに、TB1のj列目は第j記載内容に、それぞれ対応している。なお、TB1には、当該TB1に対応するAI手法名を示すラベルデータ202がさらに含まれている。
特定文字列とは、各事例データについて予め設定された特定の文字列(ストリング)である。実施形態1では、N個の異なる特定文字列(第1~第N特定文字列)が、予め設定されている。実施形態1の例では、第1特定文字列が「電圧値」、第2特定文字列が「電流値」、第N特定文字列が「扉開閉方向」として、それぞれ設定されている。但し、特定文字列は、これらの例に限定されない。特定文字列は、例えばエンジニアリング分野において、製品の仕様情報(技術情報)を説明するために、一般的に用いられている単語であればよい。特定文字列の説明については、本願と同じ発明者を筆頭発明者とする出願「特願2019-124555号」および「特願2019-173269号」も参照されたい。また、後述する内容パラメータの説明についても、これらの出願を参照されたい。
図2の例において、TB1(1,1)は、事例1の図面に「電圧値 90V」という、第1特定文字列を含む一連の文字列が記載されていることを示している。TB(1,1)のデータは、事例1の図面に公知の解析処理(例:OCR処理、キーワード抽出処理、および構文解析処理)を行うことにより得られる。第1特定文字列についての上記の説明は、第2特定文字列についても同様に当てはまる。例えば、図2の例において、TB1(1,2)は、事例1の図面に「電流値 1A」という、第2特定文字列を含む一連の文字列が記載されていることを示している。
図2の例において、TB1(1,N)は、事例1の図面には「扉開閉方向」が「反時計回り」である旨が記載されていることを示している。これに対し、TB1(2,N)は、事例2の図面には「扉開閉方向」が「時計回り」である旨が記載されていることを示している。
(過去事例データの数値化)
学習データ前処理部112は、学習データ取得部111から、第1~第P学習データのうち1つの学習データ(例:TB1)を取得する。そして、学習データ前処理部112は、当該学習データを数値化する。
以下の説明では、第1~第P学習データのうち、p番目の学習データを、第p学習データ(より詳細には、第p学習用事例データ)と称する。pは、1以上かつP以下の整数である。また、第p学習データが数値化された後のデータを、第p数値化学習データと称する。そして、第1~第P数値化学習データを、総称的に数値化学習データと称する。
図3は、数値化学習データの一例を示す図である、図3のTB1numは、TB1が数値化された後のデータ(第1数値化学習データ)である。TB1numは、TB1と同様に、M行N列のテーブルである。なお、学習データ前処理部112は、第p数値化学習データに、第p学習データと同じラベルデータ202を付与する。図3の例では、学習データ前処理部112は、TB1numを、AI手法名「ロジスティック回帰分析」に対応付ける。
TB1num(i,j)は、事例iの項目jに係る内容パラメータ(以下、第j内容パラメータ)を示す。このように、TB1numのi行目は事例iに、TB1numのj列目は第j内容パラメータに、それぞれ対応している。
「内容パラメータ」とは、各事例データの内容に関連する数値である。内容パラメータは、事例データの内容(具体的には、特定文字列に係る内容)を数値化(定量化)したデータであると言える。実施形態1の例では、内容パラメータは、図面の記載内容を示す指標である。本明細書では、後述する新規事例内容パラメータとの区別のため、過去事例データの内容パラメータは、過去事例内容パラメータと称されてもよい。この場合、過去事例データの第j内容パラメータ(第j特定文字列に対応する内容パラメータ)は、過去事例第j内容パラメータと称されてもよい。
学習データ前処理部112は、第j記載内容を数値化することにより、第j内容パラメータを設定する。一例として、学習データ前処理部112は、第j特定文字列を含む一例の文字列から、数値を抽出することにより、第j内容パラメータを設定してよい。例えば、学習データ前処理部112は、TB1(1,1)の文字列から、「90」という数値を抽出する。学習データ前処理部112は、抽出した当該数値を、TB1num(1,1)の値として設定する。図3の例における「TB1num(1,1)=90」という数値は、「事例1の図面には、電圧値が90Vであることが示されている」ことを意味している。第1内容パラメータについての上記の説明は、第2内容パラメータについても同様に当てはまる。例えば、図3の例における「TB1num(1,2)=1」という数値は、「事例1の図面には、電流値が1Aであることが示されている」ことを意味している。
別の例として、学習データ前処理部112は、第j記載内容を所定のフラグ値に置き換えることにより、第j内容パラメータを設定してよい。例えば、図3の例におけるTB1num(1,N)に示されるように、学習データ前処理部112は、「扉開閉方向が反時計回りであること」(すなわち、TB1(1,N)が示す内容)を、フラグ値「0」によって数値化する。他方、図3の例におけるTB1num(2,N)に示されるように、学習データ前処理部112は、「扉開閉方向が時計回りであること」(すなわち、TB1(2,N)が示す内容)を、フラグ値「1」によって数値化する。
(学習データ群の生成)
図4は、学習データ群230を生成する処理について説明する図である。学習データ前処理部112は、学習データ取得部111から、第1~第P数値化学習データのうち1つの数値化学習データ210(例:TB1num)を選択する。そして、学習データ前処理部112は、当該数値化学習データ210に基づき、学習データ群230を生成する。具体的には、学習データ前処理部112は、数値化学習データ210を学習データ群230へと拡張する。
学習データ前処理部112は、数値化学習データ210に加工処理を施すことにより、当該数値化学習データ210に対応する行列220を生成する。加工処理の一例としては、数値化学習データ210の任意の2つの行(例:図4の行211および行212)を入れ替える(交換する)処理(便宜上、行交換処理と称する)を挙げることができる。従って、学習データ群230には、行交換処理によって得られた付加的な2次元配列(行列220の一例)が含まれていてよい。
加工処理の別の例としては、数値化学習データ210の任意の2つの列(例:図4の列213および列214)を入れ替える処理(便宜上、列交換処理と称する)を挙げることができる。従って、学習データ群230には、列交換処理によって得られた付加的な2次元配列(行列220の別の例)が含まれていてよい。
図4に示される通り、行交換処理における行交換パターンは、M!通り存在する。また、列交換処理における列交換パターンは、N!通り存在する。従って、学習データ前処理部112は、加工処理によって、合計でM!×N!個の行列220を生成することができる。実施形態1では、学習データ前処理部112は、M!×N!個の行列220を、学習データ群230として生成する。
以下の説明では、第p数値化学習データに対応する学習データ群230を、「第p学習データ群」(より詳細には、第p学習用事例データ群)とも称する。第p学習データ群は、第p学習データに対応する学習データ群230と表現されてもよい。
第p学習データ群は、第p数値化学習データを拡張(水増し)(data augmentation)することによって得られたデータの集合である。そこで、学習データ前処理部112は、第p学習データ群に、第p数値化学習データと同じラベルデータ202を付与する。図4の例では、学習データ前処理部112は、第1学習データ群を、AI手法名「ロジスティック回帰分析」に対応付ける。このように、第p学習データ群には、第p数値化学習データと同じラベルデータ202が付与される。
(学習モデルの生成)
図5は、D2(学習モデル)の生成方法を説明する図である。学習モデル生成部113は、第1~第P学習データに基づき、D2を生成する。より好ましくは、学習モデル生成部113は、学習データ前処理部112によって生成された第1~第P学習データ群(総称的に、「学習データ群」とも称する)を用いて、D2を生成する。
図5の例では、簡略化のため、学習データ群の内、第1・第2学習データ群のみが図示されている。図5の例では、第1・第2学習データ群の区別のため、第1学習データ群に関する各要素に添字aを、第2学習データ群に関する各要素に添字bを、それぞれ付している。図5の例では、第2学習データ群は、AI手法名「決定木分析」に対応付けられている。
学習モデル生成部113は、CNN(Convolutional Neural Network)を含んでいる。実施形態1では、学習モデル生成部113は、学習データ群をCNNに学習させることにより、学習済CNNとしてのD2を構築する。
上述の通り、実施形態1では、M行N列の行列がCNNに入力される。このことから、当該行列は、画素数M×Nの画像における画素値の分布を示すデータに対応すると見立てる(擬える)ことができる。そこで、本明細書では、CNNへの入力データとしてのM行N列の行列を、「疑似画像」とも称する。図5の例の行列220(あるいは、図4の例の数値化学習データ210)は、「疑似画像」の一例である。疑似画像のi行j列目の成分は、上記画像のi行j列目の画素値に対応すると見立てることができる。従って、疑似画像のi行j列目の成分は、「疑似画素値」と称されてもよい。
(検索装置12)
検索装置12は、新規事例データ取得部121、新規事例データ前処理部122、および検索部123を備える。新規事例DB92には、新規事例データD3が予め格納されている。新規事例データ取得部121は、新規事例DB92からD3を取得し、当該D3を新規事例データ前処理部122に供給する。
D3は、過去事例データと同じデータ構造を有するテーブル(M行N列の行列320)である。図6は、行列320の一例を示す。行列320は、事例1~Mのそれぞれの第1~第N記載内容をリストアップしたM行N列のテーブルである。図6に示されるように、行列320では、過去事例データと同じ第1~第N特定文字列が使用されている。
新規事例データ前処理部122は、行列320を数値化することにより、数値化後の新規事例データ(行列321)を生成する。新規事例データ前処理部122における数化処理は、学習データ前処理部112と同様の手法によって行われる。図7は、行列321の一例を示す。行列321は、事例1~Mのそれぞれの第1~第N内容パラメータをリストアップしたM行N列のテーブルである。行列321も、行列220と同様に、疑似画像の一例である。
なお、実施形態1の例では、新規事例データ前処理部122は、第1記載内容が「記載無」の場合、第1内容パラメータをダミー値(図6の例では0)に設定する。このことは、第2記載内容および第2内容パラメータについても同様である。これらの処理は、学習データ前処理部112の数値化処理においても同様である。
本明細書では、上述の過去事例内容パラメータとの区別のため、行列321の内容パラメータは、新規事例内容パラメータと称されてもよい。この場合、行列321の第j内容パラメータは、新規事例第j内容パラメータと称されてもよい。
検索部123は、学習モデル生成部113によって生成されたD2を用いて、検索処理を行う。まず、検索部123は、D2に行列321を入力する。実施形態1では、D2は、行列321に関し、P個のAI手法(より厳密には、AI手法名)のそれぞれの正確度を算出する。D2は、当該それぞれの正確度(すなわち、以下に述べるACC(1)~ACC(P))を、演算結果として出力する。以下、第p学習データに対応付けられたAI手法を、便宜上「第pAI手法」(第p問題解決手法)と称する。また、第pAI手法の正確度を、ACC(p)と表記する。ACC(1)~ACC(P)を、総称的にACCと称する場合もある。なお、D2の出力には、付加的なデータが含まれていてもよい。D2の出力には、ACC(1)~ACC(P)が含まれていればよい。
ACC(p)とは、「第pAI手法がD3に適している(好適である)確率」を表す数値である。ACC(p)が高いほど、第pAI手法がD3に適していると期待できる。このことから、ACC(p)は、「D3に対する第pAI手法の好適性を示すスコア」(好適性スコア)と表現することもできる。なお、
ΣACC(p)=ACC(1)+ACC(2)+…+ACC(P)=1
の関係が成立する。
検索部123は、各AI手法を、当該各手法に対応するACCに応じてソートする。一例として、検索部123は、ACCが大きい順に各AI手法ソートする。そして、検索部123は、k番目に大きいACCに対応するAI手法名を、第k候補(以下、候補kとも称する)として決定する。kは、1以上かつP以下の整数である。
但し、検索部123は、検索結果の全体を、必ずしもユーザに提示しなくともよい。Pがあまりに多い場合、検索結果の全体をユーザに提示すると、かえってユーザの利便性が低下しうることも考えられるためである。そこで、検索部123は、第1~第Q候補の決定結果を示すリスト340を、ユーザに検索結果を提示するための出力データとして生成してよい。Qは、1以上かつP未満の整数である。一例として、Q=5である。
図8は、リスト340(すなわち、ユーザに提示される検索結果)の一例を示す。出力部72にリスト340を表示させることにより、ユーザに、検索装置12(より具体的には、検索部123)の検索結果を、一覧性が高い態様で提示することができる。なお、図8の例では、ACCは%表示されている。
図8の例では、ACC(1)が、各ACCの内、最大の値(60%)を有している。従って、検索部123は、ACC(1)に対応するAI手法名「ロジスティック回帰分析」を、候補1として決定する。また、図8の例では、ACC(Q)が、各ACCの内、Q番目に大きい値(1%)を有している。従って、検索部123は、ACC(Q)に対応するAI手法名「ニューラルネットワーク」を、候補Qとして決定する。
(効果)
情報処理装置1では、「過去事例データと当該過去事例データに適用されたAI手法との対応関係」をCNNに学習させることで、D2(学習済CNN)が生成されている。そして、D2を用いて、新規事例データに適した(適用すべき)AI手法の候補を検索できる。より具体的には、D2によって算出された各ACCに基づいて、上記候補を決定できる。例えば、ACCが高い順に、各AI手法の候補順位を決定できる。
上記の構成によれば、「新規事例データと関連性(類似性)が高いと期待される過去事例データ」に適用されたAI手法を、当該新規事例データに適したAI手法の候補として決定できる。これにより、ユーザの知識および経験に依存せずに、適切なAI手法を当該ユーザに選択させることが可能となる。このように、情報処理装置1によれば、ユーザは、新規事例データに適したAI手法を、従来よりも容易に決定できる。
また、図8に示されるように、情報処理装置1によれば、新規事例データに適したAI手法の候補を複数提示できる。実際には、最も高いACCを有するAI手法が、新規事例データに最適であるとは限らない。例えば、候補2のAI手法(決定木分析)が、候補1のAI手法(ロジスティック回帰分析)に比べて、実際には新規事例データにより適している場合もありうる。それゆえ、AI手法の候補を複数提示することにより、新規事例データに適用すべきAI手法を、ユーザ自身に判断させる余地を与えることができる。
なお、「画像認識(例:画像中の特徴抽出による物体の分類)に親和性の高い技術であるCNNを、疑似画像に適用すること」は、本願の発明者によって見出された斬新な技術的思想である。本発明の一態様において、ある疑似画像中における疑似画素値(すなわち内容パラメータ)の分布は、当該ある疑似画像に対応する事例データの特徴を表していると言える。それゆえ、複数の疑似画像を学習させることによって構築された学習済CNNによれば、新規事例データに適したAI手法を、高い信頼性によって決定(分類)することが可能と期待される。
〔実施形態2〕
実施形態1の例は、第1内容パラメータは、「第1特定文字列に係る物理量の大きさを示す値」であった。但し、第1内容パラメータの設定方法は、第1特定文字列に応じて変更されてよく、上記の例に限定されないことに留意されたい。以下、第1内容パラメータの設定方法の別の例について説明する。当然ながら、第1内容パラメータについての以下の説明は、その他の内容パラメータについても同様に当てはまる。
例えば、第1特定文字列が文字「OR」として設定されている場合を考える。この場合、事例1の図面のOCR処理後データに含まれる第1特定文字列「OR」の登場回数が検出されてよい。そして、当該図面に含まれている第1特定文字列「OR」の個数が、3つであったとする。この場合、第1内容パラメータは、3として設定される。このように、第1内容パラメータは、第1特定文字列「OR」の登場回数であってもよい。以上のように、第1内容パラメータは、第1特定文字列に関連した値である限り、事例1の図面を解析することによって得られる任意の量であってよい。
〔ソフトウェアによる実現例〕
情報処理装置1の制御ブロック(特に制御装置10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、情報処理装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の一態様の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔付記事項〕
本発明の一態様は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の一態様の技術的範囲に含まれる。
1 情報処理装置
10 制御装置
11 学習装置(モデル生成装置)
12 検索装置
100 情報処理システム
112 学習データ前処理部(データ拡張部)
113 学習モデル生成部(学習部)
123 検索部
202、202a、202b ラベルデータ
210 学習データ(2次元配列,数値化された後の学習用事例データ)
220 行列(付加的な2次元配列)
220a 行列(第1学習データ群に含まれる付加的な2次元配列)
220b 行列(第2学習データ群に含まれる付加的な2次元配列)
230 学習データ群(学習用事例データ群)
230a 第1学習データ群(第1学習用事例データ群)
230b 第2学習データ群(第1学習用事例データ群)
320 行列(2次元配列,ターゲット事例データ)
321 行列(2次元配列,数値化された後のターゲット事例データ)
D2 学習モデル(学習済CNN)
TB1 テーブル(第1学習データ)
TB1num テーブル(数値化された後の第1学習データ)

Claims (11)

  1. P個(Pは2以上の整数)の問題解決手法の内から、ターゲット事例データに適用すべき少なくとも1つの問題解決手法を検索する検索装置であって、
    上記P個の問題解決手法のそれぞれは、第1学習用事例データから第P学習用事例データまでのP個の学習用事例データと1対1に対応付けられており、
    上記P個の学習用事例データに基づく学習をCNN(Convolutional Neural Network)に行わせることにより、学習済CNNが予め生成されており、
    上記ターゲット事例データに応じた上記学習済CNNの出力に基づいて、上記少なくとも1つの問題解決手法を検索する検索部を備えている、検索装置。
  2. 上記P個の学習用事例データのそれぞれ、および、上記ターゲット事例データは、第1事例から第M事例(Mは2以上の整数)までのM個の事例のそれぞれの内容に係るデータを含んでおり、
    第1特定文字列から第N特定文字列までのN個(Nは2以上の整数)の特定文字列が予め設定されており、
    上記P個の学習用事例データのそれぞれ、および、上記ターゲット事例データは、M行N列の2次元配列であり、
    上記2次元配列は、第j特定文字列(jは1以上かつN以下の整数)に係る第j記載内容のデータを含んでおり、
    上記2次元配列のi行j列目(iは1以上かつM以下の整数)の成分は、第i事例の第j記載内容を示す、請求項1に記載の検索装置。
  3. 上記学習済CNNは、上記ターゲット事例データに対する上記P個の問題解決手法のそれぞれの好適性を示すスコアを出力し、
    上記検索部は、上記スコアに応じて、上記P個の問題解決手法のそれぞれをソートする、請求項1または2に記載の検索装置。
  4. P個(Pは2以上の整数)の問題解決手法の内から、ターゲット事例データに適用すべき少なくとも1つの問題解決手法を検索するための学習モデルを生成するモデル生成装置であって、
    上記P個の問題解決手法のそれぞれは、第1学習用事例データから第P学習用事例データまでのP個の学習用事例データと1対1に対応付けられており、
    上記P個の学習用事例データに基づく学習をCNN(Convolutional Neural Network)に行わせることにより、上記学習モデルとしての学習済CNNを生成する学習部を備えている、モデル生成装置。
  5. 上記P個の学習用事例データのそれぞれは、第1事例から第M事例(Mは2以上の整数)までのM個の事例のそれぞれの内容に係るデータを含んでおり、
    第1特定文字列から第N特定文字列までのN個(Nは2以上の整数)の特定文字列が予め設定されており、
    上記P個の学習用事例データのそれぞれは、M行N列の2次元配列であり、
    上記2次元配列は、第j特定文字列(jは1以上かつN以下の整数)に係る第j記載内容のデータを含んでおり、
    上記2次元配列のi行j列目(iは1以上かつM以下の整数)の成分は、第i事例の第j記載内容を示す、請求項4に記載のモデル生成装置。
  6. 上記P個の学習用事例データのうち、p番目(pは1以上かつP以下の整数)の学習用事例データを第p学習用事例データと称し、
    上記P個の問題解決手法のうち、上記第p学習用事例データに対応付けられた問題解決手法を第p問題解決手法と称し、
    上記第p学習用事例データを数値化および加工することにより、上記第p学習用事例データに対応する第p学習用事例データ群を生成するとともに、生成した上記第p学習用事例データ群を上記第p問題解決手法に対応付けるデータ拡張部をさらに備えている、請求項5に記載のモデル生成装置。
  7. 上記第p学習用事例データ群には、数値化された後の上記第p学習用事例データの任意の2つの行を入れ替えることによって得られた付加的な2次元配列が含まれている、請求項6に記載のモデル生成装置。
  8. 上記第p学習用事例データ群には、数値化された後の上記第p学習用事例データの任意の2つの列を入れ替えることによって得られた付加的な2次元配列が含まれている、請求項6または7に記載のモデル生成装置。
  9. 上記データ拡張部は、上記P個の学習用事例データのそれぞれを数値化および加工することにより、第1学習用事例データ群から第P学習用事例データ群までのP個の学習用事例データ群を生成し、
    上記学習部は、上記P個の学習用事例データ群を上記CNNに入力することにより、上記学習済CNNを生成する、請求項6から8のいずれか1項に記載のモデル生成装置。
  10. P個(Pは2以上の整数)の問題解決手法の内から、ターゲット事例データに適用すべき少なくとも1つの問題解決手法を、検索装置が検索する検索方法であって、
    上記P個の問題解決手法のそれぞれは、第1学習用事例データから第P学習用事例データまでのP個の学習用事例データと1対1に対応付けられており、
    上記P個の学習用事例データに基づく学習をCNN(Convolutional Neural Network)に行わせることにより、学習済CNNが予め生成されており、
    上記検索装置が備える検索部が、上記ターゲット事例データに応じた上記学習済CNNの出力に基づいて、上記少なくとも1つの問題解決手法を検索する検索工程を含んでいる、検索方法。
  11. P個(Pは2以上の整数)の問題解決手法の内から、ターゲット事例データに適用すべき少なくとも1つの問題解決手法を検索するための学習モデルを、モデル生成装置が生成するモデル生成方法であって、
    上記P個の問題解決手法のそれぞれは、第1学習用事例データから第P学習用事例データまでのP個の学習用事例データと1対1に対応付けられており、
    上記モデル生成装置が備える学習部が、上記P個の学習用事例データに基づく学習をCNN(Convolutional Neural Network)に行わせることにより、上記学習モデルとしての学習済CNNを生成する学習工程を含んでいる、モデル生成方法。
JP2020088989A 2020-05-21 2020-05-21 検索装置、モデル生成装置、検索方法、およびモデル生成方法 Active JP7473799B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020088989A JP7473799B2 (ja) 2020-05-21 2020-05-21 検索装置、モデル生成装置、検索方法、およびモデル生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020088989A JP7473799B2 (ja) 2020-05-21 2020-05-21 検索装置、モデル生成装置、検索方法、およびモデル生成方法

Publications (2)

Publication Number Publication Date
JP2021184153A JP2021184153A (ja) 2021-12-02
JP7473799B2 true JP7473799B2 (ja) 2024-04-24

Family

ID=78767432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020088989A Active JP7473799B2 (ja) 2020-05-21 2020-05-21 検索装置、モデル生成装置、検索方法、およびモデル生成方法

Country Status (1)

Country Link
JP (1) JP7473799B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287478A (ja) 2003-03-19 2004-10-14 Toyota Motor Corp 商品の予測需要量を算出する方法と装置とそのためのプログラム
JP2005044087A (ja) 2003-07-28 2005-02-17 Hitachi Ltd テキストマイニングシステム及びプログラム
JP2010205218A (ja) 2009-03-06 2010-09-16 Dainippon Printing Co Ltd データ分析支援装置、データ分析支援システム、データ分析支援方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287478A (ja) 2003-03-19 2004-10-14 Toyota Motor Corp 商品の予測需要量を算出する方法と装置とそのためのプログラム
JP2005044087A (ja) 2003-07-28 2005-02-17 Hitachi Ltd テキストマイニングシステム及びプログラム
JP2010205218A (ja) 2009-03-06 2010-09-16 Dainippon Printing Co Ltd データ分析支援装置、データ分析支援システム、データ分析支援方法、及びプログラム

Also Published As

Publication number Publication date
JP2021184153A (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
CN112632385B (zh) 课程推荐方法、装置、计算机设备及介质
CN106980683B (zh) 基于深度学习的博客文本摘要生成方法
CN110851596A (zh) 文本分类方法、装置及计算机可读存储介质
Hoque et al. Real time bangladeshi sign language detection using faster r-cnn
CN105139237A (zh) 信息推送的方法和装置
CN110705490B (zh) 视觉情感识别方法
WO2022134586A1 (zh) 基于元学习的目标分类方法、装置、设备和存储介质
CN111831924A (zh) 内容推荐方法、装置、设备及可读存储介质
CN112686345A (zh) 一种基于注意力机制的脱机英文手写识别方法
CN113627530A (zh) 相似问题文本生成方法、装置、设备及介质
CN112732872A (zh) 面向生物医学文本的基于主题注意机制的多标签分类方法
CN115238115A (zh) 基于中文数据的图像检索方法、装置、设备及存储介质
CN111444720A (zh) 一种英文文本的命名实体识别方法
Danilov et al. Predicting postoperative hospital stay in neurosurgery with recurrent neural networks based on operative reports
Azawi Handwritten digits recognition using transfer learning
CN113935459A (zh) 一种基于bert的深度神经网络模型的自动评卷方法
JP7473799B2 (ja) 検索装置、モデル生成装置、検索方法、およびモデル生成方法
CN112597304A (zh) 一种问句分类方法及其应用
CN115080689B (zh) 融合标签关联的隐空间数据增强多标签文本分类方法
AU2022216431B2 (en) Generating neural network outputs by enriching latent embeddings using self-attention and cross-attention operations
CN113468311B (zh) 一种基于知识图谱的复杂问句问答方法、装置及存储介质
CN115658885A (zh) 文本智能标注方法、系统、智能终端及存储介质
CN112347150B (zh) 一种学者学术标签标注方法、装置和电子设备
CN115291888A (zh) 基于自注意力交互式网络的软件社区仓库挖掘方法及装置
Ranjan et al. MCWS-transformers: towards an efficient modeling of protein sequences via multi context-window based scaled self-attention

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7473799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150