JP2021071957A - Information processing apparatus, control method, and program - Google Patents
Information processing apparatus, control method, and program Download PDFInfo
- Publication number
- JP2021071957A JP2021071957A JP2019198690A JP2019198690A JP2021071957A JP 2021071957 A JP2021071957 A JP 2021071957A JP 2019198690 A JP2019198690 A JP 2019198690A JP 2019198690 A JP2019198690 A JP 2019198690A JP 2021071957 A JP2021071957 A JP 2021071957A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- learning model
- group
- document
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 title claims description 39
- 238000012549 training Methods 0.000 claims description 14
- 238000005516 engineering process Methods 0.000 abstract description 2
- 239000013598 vector Substances 0.000 description 24
- 238000004590 computer program Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 11
- 238000013500 data storage Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 2
- 238000005553 drilling Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、データの特徴に応じた学習モデル選定の技術に関する。 The present invention relates to a technique for selecting a learning model according to the characteristics of data.
従来からユーザに対して適切な検索結果を提示するため、検索条件と文書群に含まれる各文書に含まれるターム(形態素解析、N−Gramなど一定の基準で切り出した文字列)の関連性を統計値として算出する技術がある。これらの技術を類似検索などと呼ぶ(以下、本発明の説明において、当該技術を統一的に類似検索と呼ぶこととし、本願発明における後述の順位学習による検索とは区別することにする)。 Conventionally, in order to present appropriate search results to the user, the relationship between the search conditions and the terms (morphological analysis, character strings cut out by a certain standard such as N-Gram) included in each document included in the document group is determined. There is a technique to calculate as a statistical value. These techniques are referred to as a similarity search or the like (hereinafter, in the description of the present invention, the techniques will be collectively referred to as a similarity search, and will be distinguished from the search by rank learning described later in the present invention).
また、学習データと検索対象となる文書群が類似する場合の特徴量を機械学習によりモデル化し、新たな検索条件が指定された場合に、当該学習モデルに基づきランキング調整をすることで、類似検索の精度を向上させる順位学習の技術がある。 In addition, the feature amount when the learning data and the document group to be searched are similar is modeled by machine learning, and when a new search condition is specified, the ranking is adjusted based on the learning model to perform a similar search. There is a ranking learning technique that improves the accuracy of.
順位学習には大量の学習データが必要であるが、学習データの収集は困難である。類似検索をシステムとして運用開始した後にユーザの検索ログから学習データを収集することも考えられるが、検索結果の評価にはユーザの負荷がかかることもあり、十分な量のログ収集が可能とは言い切れない。また運用開始前には、開発者がテスト用に作成した学習データなどに限定される。 Although a large amount of learning data is required for rank learning, it is difficult to collect the learning data. It is conceivable to collect learning data from the user's search log after starting the operation of similar search as a system, but it may be a burden on the user to evaluate the search results, so it is possible to collect a sufficient amount of logs. could not say it all. Also, before the start of operation, it is limited to learning data created by the developer for testing.
特許文献1は、予め用意された回答(いわばFAQの文書群)に対して、ユーザからの問い合わせに対して最も類似した質問(学習データの質問文)を見つけ、対応する回答を返す技術に対して、質問文が少ない場合でもトピック推定精度を高める技術を提供している。
具体的には、学習データの質問文に現れる単語に対して、対応する回答内の単語に置換することによって、学習データの質問文を拡張する、すなわち学習データの件数を増やしている。また拡充した質問文のうち不自然な質問文を除外するため、確率言語モデルを用いて質問文の存在確率を計算し、存在確率がある閾値を超える場合のみ学習データとして用いるとしている。 Specifically, by substituting the words appearing in the interrogative sentence of the learning data with the words in the corresponding answers, the interrogative sentence of the learning data is expanded, that is, the number of learning data is increased. In addition, in order to exclude unnatural question sentences from the expanded question sentences, the existence probability of the question sentence is calculated using a stochastic language model, and it is used as training data only when the existence probability exceeds a certain threshold.
しかしながら、特許文献1の技術においては、確率言語モデルを用いて拡充された質問文が適切であるか否かを判定しているが、置換された単語はあくまで予め用意された回答に含まれるものであり、専門用語やある組織特有の用語が使用されている可能性がある。その場合、確率言語モデルでは事例が不足していて、質問文が適切に拡充されない場合も発生する。
However, in the technique of
さらに特許文献1の技術においては、学習データとして用いる質問文を拡充させることで学習効果を高めること目的である。しかしながら学習データの件数が増加すると学習に要する計算時間が膨大になり、実用的ではなくなってしまうことある。
Further, the technique of
本発明の目的は、データの検索時に適切な学習モデルを選択する技術を提供することである。 An object of the present invention is to provide a technique for selecting an appropriate learning model when retrieving data.
本発明は、学習モデルを複数管理する情報処理装置であって、検索条件に従って検索されたデータを解析して分類したグループを提示し、グループの指定を受け付ける受付手段と、前記指定されたグループに分類されたデータに基づく第1の特徴データと、前記学習モデルそれぞれに関連付けられた第2の特徴データとに従って、学習モデルを選定する選定手段とを備えることを特徴とする。 The present invention is an information processing device that manages a plurality of learning models, presents a group that analyzes and classifies the data searched according to the search conditions, and accepts the designation of the group, and the designated group. It is characterized by including a first feature data based on the classified data and a selection means for selecting a learning model according to the second feature data associated with each of the learning models.
本発明により、データの検索時に適切な学習モデルを選択する技術を提供することが可能となる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a technique for selecting an appropriate learning model when searching data.
本発明においては機械学習により従来型の文書の検索結果を、機械学習を利用して検索順位を改めて指定し直す。これを順位学習などと呼ぶ。特に本発明では説明の便宜上、事前に学習モデルを決定する処理を“学習モデルの生成”、実際にユーザなどの検索条件に基づく検索結果を、生成された学習モデルを用いて順位を指定し直す処理を“再ランク付け”と呼ぶことにする。 In the present invention, the search result of the conventional document is redesignated by machine learning, and the search order is redesignated by using machine learning. This is called ranking learning. In particular, in the present invention, for convenience of explanation, the process of determining the learning model in advance is "generation of learning model", and the search result based on the search conditions such as the user is redesignated by using the generated learning model. We will call the process "reranking".
本発明の特徴は、次の3点にある。まず分類情報がない文書群に対して、後述の学習モデルを生成するために学習データをどのように記憶させるかということである。2点目に前記の学習データを元に、学習データとなる文書群をどのように一部に限定して学習モデルを生成するかである。3点目に検索時に動的にクラスタリングされた文書群の再ランク付けに際し、複数ある学習モデルの中から適切な学習モデルをいかに選択するかである。 The features of the present invention are the following three points. The first is how to store learning data in order to generate a learning model, which will be described later, for a group of documents that do not have classification information. The second point is how to generate a learning model by limiting the document group to be the learning data to a part based on the learning data. The third point is how to select an appropriate learning model from a plurality of learning models when re-ranking a group of documents dynamically clustered at the time of searching.
以下、本発明の実施の形態を、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施形態に係る機能構成の一例を示す図である。検索条件受付部101は、検索ユーザまたは他のプログラムから検索条件(文字列)を受け付けて、類似検索部102に送る。類似検索部102は、文書記憶部121を検索して検索条件に記載された条件にヒットした検索結果、すなわち文書一覧を取得する。この検索処理は単語の出現頻度などに基づき検索条件と文書の類似度を計算しその上位の文書を検索結果の文書一覧にする、など様々な周知の技術があり説明を省略する。
FIG. 1 is a diagram showing an example of a functional configuration according to an embodiment of the present invention. The search
前記検索結果である文書一覧はクラスタリング部103に渡され、自然言語処理にて各文書の類似度に基づきクラスタに分割する。クラスタリングについても周知の技術であり説明を省略する。またクラスタリングでは、1つの文書を必ず1つのクラスタに分類する方式と、1つの文書が複数のクラスタに含まれることを許容する方式があるが、本願発明ではそのいずれを用いても良い。
The document list that is the search result is passed to the
表示部104は、前記クラスタを表示して例えばユーザにクラスタのうちの1つを選択させる。ユーザが選択したクラスタを受け付けて当該クラスタに分類された文書群(前記検索結果の文書一覧の一部)を表示する。その際に、学習モデル選択部105はユーザが選択したクラスタに応じて、学習モデル記憶部123から適切な学習モデルを選択し、当該学習モデルに従って前記文書群を再ランク付けして表示部104に表示する。
The
また前記表示部104でユーザが選択したクラスタに含まれる前記前記文書群から例えばユーザに1つの文書を選択させ、当該文書を前記検索条件に対する正解として学習データ登録部107に渡し、当該学習データ登録部107は学習データを構成して学習データ記憶部122に登録する。
Further, for example, the user is made to select one document from the document group included in the cluster selected by the user on the
学習モデル生成部108は、学習データ記憶部122に記憶された学習データを用いて再ランク付けのための学習モデルを生成する。全ての学習データを用いて1つの学習モデルを生成するのではなく、生成モデル決定部109は当該学習データが登録された際のクラスタに含まれる文書群に関する情報を用いて学習データをグループ化し、そのグループに基づいて学習モデル生成部108が当該グループ毎に学習モデルを生成する。
The learning
図2は、本発明の実施形態に係る情報処理装置100に適用可能なハードウェア構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of a hardware configuration applicable to the information processing apparatus 100 according to the embodiment of the present invention.
図2に示すように、情報処理装置100は、システムバス204を介してCPU(Central Processing Unit)201、RAM(Random Access Memory)202、ROM(Read Only Memory)203、入力コントローラ205、ビデオコントローラ206、メモリコントローラ207、通信I/Fコントローラ208等が接続された構成を採る。
As shown in FIG. 2, the information processing apparatus 100 includes a CPU (Central Processing Unit) 201, a RAM (Random Access Memory) 202, a ROM (Read Only Memory) 203, an
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
The CPU 201 comprehensively controls each device and controller connected to the
また、ROM203あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、各サーバあるいは各PCが実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。また、本発明を実施するために必要な情報が記憶されている。なお外部メモリはデータベースであってもよい。
Further, the
RAM202は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM203あるいは外部メモリ211からRAM202にロードし、ロードしたプログラムを実行することで各種動作を実現する。
The RAM 202 functions as a main memory, a work area, and the like of the CPU 201. The CPU 201 realizes various operations by loading a program or the like necessary for executing the process from the
また、入力コントローラ205は、キーボード(KB)209や不図示のマウス等のポインティングデバイス等からの入力を制御する。
Further, the
ビデオコントローラ206は、ディスプレイ210等の表示器への表示を制御する。尚、表示器は液晶ディスプレイ等の表示器でもよい。これらは、必要に応じて管理者が使用する。
The
メモリコントローラ207は、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、あるいは、PCMCIA(Personal Computer Memory Card International Association)カードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ211へのアクセスを制御する。
The memory controller 207 is an external storage device (hard disk (HD)) for storing boot programs, various applications, font data, user files, edit files, various data, etc., a flexible disk (FD), or a PCMCIA (Personal Computer). It controls access to an
通信I/Fコントローラ208は、ネットワークを介して外部機器と接続・通信し、ネットワークでの通信制御処理を実行する。例えば、TCP/IP(Transmission Control Protocol/Internet Protocol)を用いた通信等が可能である。
The communication I /
尚、CPU201は、例えばRAM202内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上に表示することが可能である。また、CPU201は、ディスプレイ210上のマウスカーソル(図示しない)等によるユーザ指示を可能とする。 The CPU 201 can display the outline font on the display 210 by executing the outline font expansion (rasterization) process on the display information area in the RAM 202, for example. Further, the CPU 201 enables a user instruction by a mouse cursor (not shown) or the like on the display 210.
本発明を実現するための後述する各種プログラムは、外部メモリ211に記録されており、必要に応じてRAM202にロードされることによりCPU201によって実行されるものである。
Various programs described later for realizing the present invention are recorded in the
次に図3から図6を用いて検索の概要を説明する。図3は、本発明の実施形態に係わる検索条件の入力と検索結果から正解を指定するユーザインタフェースの一例である。 Next, the outline of the search will be described with reference to FIGS. 3 to 6. FIG. 3 is an example of a user interface for inputting search conditions and designating a correct answer from the search results according to the embodiment of the present invention.
条件検索入力画面301は、検索ユーザが質問文欄311に「大谷選手の打撃成績」を入力し、検索ボタン312を押下することで検索を開始する画面である。
The condition search input screen 301 is a screen in which the search user inputs "Otani's batting record" in the
検索ユーザが最終的に閲覧したい文書データの一覧を文書閲覧画面302で説明する。表示領域321に、文書のIDが”0028”であること、タイトル、本文などが表示される。
A list of document data that the search user finally wants to browse is described on the document browsing screen 302. In the
また、検索ユーザが表示領域321に表示された文書を閲覧して、まさに自身が見たかった情報であると判断すれば、正解ボタン322を押下することで、学習データ記憶部122に登録させることができる。
Further, if the search user browses the document displayed in the
しかし、文書ID”0028”にたどり着くためには、まず図4の検索結果一覧400が提示される。一般的に前記検索結果一覧400が検索ユーザに提示されることが多いが、一部の商用システムには自動分類して、検索ユーザに提示する文書群を限定することがある。これは登録されている文書の数にもよるが、検索条件に対して数百件がヒットした場合に、検索ユーザが求める情報にたどり着くのは大変であり、何らかの方法で、例えば検索ユーザに再度何かの条件を指定させることで数十件に限定することで求める情報にたどり着きやすくするためである。
However, in order to reach the document ID "0028", the
一つの方法として、検索条件にヒットした文書群をクラスタリングして、内容が類似する文書群をクラスタと呼ばれるグループとして提示する。検索ユーザはまず自身が得たい情報のクラスタを選択することで前述の通り確認する文書を一部に限定することになる。 As one method, a group of documents that hit the search conditions is clustered, and a group of documents having similar contents is presented as a group called a cluster. The search user first selects the cluster of information he / she wants to obtain, thereby limiting the documents to be confirmed to a part as described above.
図4の検索結果一覧には、例えば大谷一朗選手に関する情報であっても、高校時代、日本のプロ野球で活躍していた時代、さらにメジャーリーグでの成績などのクラスタに分かれると思われる。図5では、これらの分類がクラスタ一覧の例501として検索ユーザに提示される。 In the search result list in Fig. 4, for example, even information about Ichiro Otani may be divided into clusters such as high school days, times when he was active in professional baseball in Japan, and results in major leagues. In FIG. 5, these classifications are presented to the search user as Example 501 of the cluster list.
検索ユーザがクラスタ503の”メジャーリーグ”を選択すると、そのクラスタに分類された文書一覧(図6の600)が表示される。図4の検索結果一覧400では大谷一朗選手について様々な情報が含まれていたが、図6の文書一覧600ではメジャーリーグでの活躍に関する記事だけが含まれるという例を示している。このように文書一覧を制限することで、検索ユーザが求める情報(図3の文書ID”0028”)に容易にたどり着くことを可能とする。
When the search user selects "Major League" of the
また、クラスタリングは検索ユーザが指定する質問文(図3の311)にヒットする文書群が異なれば当然異なるグループに分類される。図5の502のように”アメリカでの野球”という質問文で検索すれば、大谷一朗選手に関する情報が集まるとは限らず、図4の例とは異なる文書がヒットする。さらにそれらの文書をクラスタリングすれば異なるクラスタが生成される。502の例では、メジャーリーグというクラスタ(504)が生成されているが、これは見出しは同じでも503とは全く異なる文書が多く含まれることになる。例えば、アメリカの野球の中でのメジャーリーグの位置づけ、大谷一朗選手以外の名選手の記録、などが含まれているなど考えられる。このように同じタイトルが付いていても”メジャーリーグ”というタイトルにはあまり意味はなく、それよりも同じクラスタに含まれる文書IDにはどのようなものがあるか、といったリストがこれらのクラスタの言語的特徴を表すものとして重要になるのである。 Further, clustering is naturally classified into a different group if the document group that hits the question sentence (311 in FIG. 3) specified by the search user is different. If you search for the question "baseball in the United States" as in 502 in FIG. 5, information about Ichiro Otani is not always collected, and a document different from the example in FIG. 4 is hit. Further clustering those documents will generate different clusters. In the example of 502, a cluster (504) called Major League Baseball is generated, which means that many documents with the same heading but completely different from 503 are included. For example, it may include the position of Major League Baseball in American baseball, records of famous players other than Ichiro Otani, and so on. The title "Major League" doesn't make much sense even if it has the same title like this, and the list of what kind of document IDs are included in the same cluster is the language of these clusters. It becomes important as a representation of the characteristic.
図7は、本発明の実施形態に係る学習データの構造の一例である。順位学習において学習モデルを生成するための学習データは、例えば実際にユーザが検索した際に、ユーザの検索意図に一致した文書を指定することで得られるものである。従って、少なくともユーザの検索条件と、ユーザが選択した文書を特定するための情報がペアで登録される必要がある。学習データ701においては、それらは質問文703、正解文書ID704として格納される。
FIG. 7 is an example of the structure of the learning data according to the embodiment of the present invention. The learning data for generating a learning model in rank learning is obtained by, for example, designating a document that matches the user's search intention when the user actually searches. Therefore, at least the user's search condition and the information for identifying the document selected by the user need to be registered as a pair. In the learning data 701, they are stored as the
本発明における学習データ記憶部122に格納された学習データ701(a〜f)は、前記質問文703、正解文書ID704以外に、同一クラスタ文書IDリスト705が格納されることを特徴とする。
The learning data 701 (a to f) stored in the learning
例えば、「大谷選手の打撃成績」という検索条件を入力した検索ユーザが、クラスタ503の「メジャーリーグ」を選択したことを図6で示している。当該クラスタは、文書IDとして”0005”、”0006”・・・、”0028”を含んでいるため、学習データ701aの同一クラスタ文書IDリスト705にはこれらの文書IDのリストがそのまま記載されている。
For example, FIG. 6 shows that the search user who entered the search condition “Otani's batting record” selected the “major league” of the
次に図8〜図9を用いて、学習モデル生成の処理について説明する。図8は、本発明の実施形態に係る学習モデル生成の処理を説明するフローチャートの一例である。図8のフローチャートの各ステップは、情報処理装置100上のCPU201で実行される。
<実施形態1>
ステップS801では、学習データ記憶部122に記憶された全ての学習データ群を読み込む。読み込んだデータを図9の学習データの文書IDベクトル(例1)901に示す。このテーブルは図7と本質的に同じものであるが、文書IDリストを一覧として表現した図7に対して、(例えば文書IDが1〜500まであるとすれば)それぞれの文書IDを1列にならべたベクトルとして表現している。ベクトルの各要素は、同一クラスタ文書IDリスト705にその文書IDが含まれる場合は”1”、含まれない場合は”0”としたものである。
Next, the process of generating the learning model will be described with reference to FIGS. 8 to 9. FIG. 8 is an example of a flowchart for explaining the process of generating a learning model according to the embodiment of the present invention. Each step of the flowchart of FIG. 8 is executed by the CPU 201 on the information processing apparatus 100.
<
In step S801, all the learning data groups stored in the learning
ステップS802では、学習データ(901)の中で、正解文書ID(911)が同一のものを図9の学習データの文書IDベクトル(例2)902のようにまとめる。例えば、正解文書IDが”0028”であるものは”L0001”、”L0003”の2つある。これらを902の1行目のようにまとめる。具体的には、学習データIDリスト916に、これら2つの学習データIDを列挙し、また901の文書IDベクトルは、各IDにあり(1)、なし(0)だけを示していたものを、合計で幾つあったかを表すようにする。例えば、文書IDが”0005”に相当する値は、914では”1”だが、917では”2”となっている。このように単純に合計するのはあくまで例であって様々な計算方法があることはいうまでもない。
In step S802, among the learning data (901), those having the same correct answer document ID (911) are put together as in the document ID vector (Example 2) 902 of the learning data of FIG. For example, there are two documents whose correct document ID is "0028", "L0001" and "L0003". These are summarized as in the first line of 902. Specifically, these two learning data IDs are listed in the learning
ステップS803では、902の学習データをグループ化する。目的は、1つの学習モデルを生成する際に使用する学習データを決定することである。すなわち、文書内に何らかの分類情報が入っている場合には、正解文書IDで示す文書内の分類情報が同一のものを集めて学習データをグループ化するなどが可能であるが、本願発明ではそのような分類情報を持たない、あるいは使用できない場合を想定しているため、図6のようにドリルダウンした際に、同じような文書群が含まれている学習データは、1つの学習モデルを生成するために使用するものと仮定している。 In step S803, the training data of 902 is grouped. The purpose is to determine the training data to use when generating one training model. That is, when some classification information is included in the document, it is possible to collect the same classification information in the document indicated by the correct answer document ID and group the learning data. However, in the present invention, this is possible. Since it is assumed that such classification information is not available or cannot be used, when drilling down as shown in FIG. 6, training data containing similar document groups generates one learning model. It is assumed that it will be used to do so.
なお、ここで学習モデルをグループ化する方法としては、周知の技術としてベクトルのクラスタリングがある。図9の例2では、文書数に相当する500次元のベクトルを相互に比較し、クラスタリングする技術である。また重複クラスタリングとして、同一のベクトルが複数のクラスタに含まれることを許容する技術もある。いずれにしてもこれらのベクトル群をクラスタに分ける技術であれば、どのような方式であっても良いことはいうまでもない。 As a method of grouping learning models here, there is vector clustering as a well-known technique. In Example 2 of FIG. 9, it is a technique of comparing and clustering 500-dimensional vectors corresponding to the number of documents. There is also a technique for allowing the same vector to be included in a plurality of clusters as duplicate clustering. In any case, it goes without saying that any method may be used as long as it is a technique for dividing these vector groups into clusters.
これにより、前記の通り予め文書群に分類情報がない場合であっても、学習データを適切なグループに分けて複数の学習データを生成することが可能になる、という効果を得ることができる。グループ化した学習モデル群を図9のグループ903(a、b)として例示する。 As a result, even if there is no classification information in the document group in advance as described above, it is possible to obtain the effect that the learning data can be divided into appropriate groups and a plurality of learning data can be generated. The grouped learning model group is illustrated as the group 903 (a, b) of FIG.
S804からS806の繰り返し処理は、S803でグループ化した学習データ群1つ1つに対する処理である。 The iterative processing of S804 to S806 is a processing for each learning data group grouped in S803.
S805は、グループ化した学習データ群(例えば図9の903a、903b)の1つずつに着目し、当該学習データで学習モデルの生成を行う。順位学習の場合SVM(サポートベクターマシン)などにより実現することが可能である。生成された学習モデルは、学習モデル記憶部123に格納する。
S805 pays attention to each of the grouped learning data groups (for example, 903a and 903b in FIG. 9), and generates a learning model with the learning data. In the case of rank learning, it can be realized by SVM (support vector machine) or the like. The generated learning model is stored in the learning
以上で図8のフローチャートによる本願発明における学習モデルの生成についての説明を完了する。 This completes the description of the generation of the learning model in the present invention according to the flowchart of FIG.
図10は、本発明の実施形態に係る学習モデルを記憶する際のデータ構造と検索時に選択されたクラスタの類似度計算を説明する図の一例である。まず学習モデル記憶部123に格納された学習モデルについて説明する。本図では2つの学習モデルが格納されているものとする。
FIG. 10 is an example of a diagram illustrating a data structure when storing a learning model according to an embodiment of the present invention and a similarity calculation of clusters selected at the time of retrieval. First, the learning model stored in the learning
SVM(サポートベクターマシン)などで生成された学習モデルの本体は、学習モデル記憶部123に格納されている。しかしながら、従来技術では、これらの学習モデルをどのような条件の下で利用するかという情報は含まれておらず、学習モデルを利用するアプリケーション(あるいはユーザ)が、複数ある学習モデルから使用すべきものを選択することになる。しかし、本願発明の前提として、文書群に分類情報に相当する情報が固定的に用意されておらず、また図5のクラスタも動的に生成されるため、どの学習モデルを利用すべきかは検索時に決定するしかない。
The main body of the learning model generated by SVM (support vector machine) or the like is stored in the learning
本願発明の特徴は、各々の学習モデルに関連づけて、その学習モデルがいかなる状況で使用されるかを示す学習モデルの言語的特徴1003を含むことにある。
A feature of the present invention is that it includes a
言語的特徴1003の設定データ1005の一例として、文書IDベクトル(総和)で表した場合を示す。文書IDベクトル(総和)1006は、図9のグループ903aに含まれる学習データの文書IDベクトルを単純に総和したものである。つまり、この学習モデルを生成した際に用いた学習データでは、正解文書と同じクラスタに、どのような文書がどの程度出現したか、という傾向が記載されていることになる。類似検索や文書のクラスタリングでは、これは1種の言語的特徴を示すものであり、本願発明での当該学習モデルの言語的特徴である。
As an example of the setting
図11は、本発明の実施形態に係る検索処理を説明するフローチャートの一例である。図11のフローチャートの各ステップは、情報処理装置100上のCPU201で実行される。 FIG. 11 is an example of a flowchart for explaining the search process according to the embodiment of the present invention. Each step of the flowchart of FIG. 11 is executed by the CPU 201 on the information processing apparatus 100.
ステップS1101では、検索ユーザあるいはアプリケーションから検索条件を受け付け、ステップS1102では、文書記憶部121から当該検索条件にヒットする文書群を取得する。
In step S1101, the search condition is received from the search user or the application, and in step S1102, the document group that hits the search condition is acquired from the
ステップS1103では、ステップS1102で取得した文書群をクラスタリングする。この例が図5の501で、例えば3つのクラスタとなっている。 In step S1103, the document group acquired in step S1102 is clustered. An example of this is 501 in FIG. 5, for example, three clusters.
ステップS1104では、前記クラスタの一覧をユーザに提示し、ステップS1105では、提示されたクラスタの中からユーザが1つを選択する。すなわちドリルダウンする。検索ユーザは図5の501の中から"メジャーリーグ”というクラスタを選択したとする。 In step S1104, the list of the clusters is presented to the user, and in step S1105, the user selects one from the presented clusters. That is, drill down. It is assumed that the search user selects a cluster called "Major League" from 501 in FIG.
ステップS1106では、前記ユーザが選択したクラスタ(例では”メジャーリーグ”)に含まれる文書IDリストをベクトルとして生成する。図10の1007(検索時に自動生成されたクラスタに含まれる文書IDベクトル)が生成されたものである。次に1001a〜1001bの文書IDベクトル(総和)1006の中で、1007のベクトルと類似度が一番高いものを特定する。 In step S1106, a document ID list included in the cluster selected by the user (“Major League” in the example) is generated as a vector. 1007 (document ID vector included in the cluster automatically generated at the time of search) of FIG. 10 is generated. Next, among the document ID vectors (sum) 1006 of 1001a to 1001b, the one having the highest degree of similarity to the vector of 1007 is specified.
しかしながら、一番類似度が高いものでも、学習モデルとして採用するのが不適切な場合がある。そこで、ステップS1107では、不図示の記憶部に記憶された閾値と比較し、ベクトルの類似度が閾値を超える学習モデルがない場合(NOの場合)は学習モデルを用いずに、ステップS1102の類似検索結果のランキングをそのままユーザに提示するようにしても良い。適切な学習モデルがある場合には、ステップS1108において、ステップS1102の類似検索の結果を再ランク付けし、ステップS1109で検索結果としてユーザに提示する。 However, even the one with the highest degree of similarity may be inappropriate to be adopted as a learning model. Therefore, in step S1107, when compared with the threshold value stored in the storage unit (not shown) and there is no learning model in which the vector similarity exceeds the threshold value (NO), the learning model is not used and the similarity in step S1102 is performed. The ranking of the search results may be presented to the user as it is. If there is an appropriate learning model, in step S1108, the results of the similar search in step S1102 are reranked and presented to the user as search results in step S1109.
最後にステップS1110では、ユーザが提示された検索結果の中から1つの文書を、ユーザ自身の検索に対して適切な文書であった、と指定した場合にはそれを正解選択として受付け、ステップS1111にて新たな学習データとして学習データ記憶部122に登録する。この学習データは次回の学習モデル生成時に使われることになる。
Finally, in step S1110, if one of the search results presented by the user is specified as an appropriate document for the user's own search, it is accepted as a correct answer selection, and step S1111 Is registered in the learning
以上で、図11のフローチャートを用いて、クラスタリング及びドリルダウンから、適切な学習モデルを選択して、クラスタ内に出現した文書群を再ランク付けしてユーザに提示する処理についての説明を完了する。
<実施形態2>
他の実施形態について説明する。図8のフローチャートにおいては、ステップS802で同一の正解文書IDをもつ学習データを1つにまとめたが、この処理を実施しなくても良い。
This completes the description of the process of selecting an appropriate learning model from clustering and drilldown using the flowchart of FIG. 11, re-ranking the document group appearing in the cluster, and presenting it to the user. ..
<
Other embodiments will be described. In the flowchart of FIG. 8, the learning data having the same correct answer document ID is put together in step S802, but this process does not have to be performed.
その場合には、同じ正解文書IDを持つ学習データが異なる学習データのグループに含まれるようになる。正解となる文書が同一のものであっても、そもそものユーザの検索意図が異なれば、検索条件の言語的特徴も異なり、同一クラスタに含まれる他の文書IDも全く異なる可能性もある。このような学習データを無理に1つにまとめて同一の学習データを生成するために用いる必要はなく、異なる学習モデルを生成するために用いることで、よりユーザの意図を反映した学習モデルが生成可能になるという効果を得ることができる。
<実施形態3>
図10の例では学習モデルの言語的特徴1003の設定データ1005を文書IDベクトル(総和)1006としているが、クラスタの言語的特徴を表すものであれば、いかなるものでもよいのはいうまでもない。
In that case, the learning data having the same correct document ID will be included in different training data groups. Even if the correct documents are the same, if the user's search intention is different, the linguistic characteristics of the search conditions are different, and other document IDs included in the same cluster may be completely different. It is not necessary to forcibly combine such learning data into one and use it to generate the same learning data, but by using it to generate different learning models, a learning model that more reflects the user's intention is generated. You can get the effect of being possible.
<
In the example of FIG. 10, the setting
例えば、対応する学習モデルを生成するために使用した学習モデルの”質問文”と、正解となる文書内のテキストから、特徴語(重要語など)を自然言語処理により取り出して、1005に格納しても良い。 For example, characteristic words (important words, etc.) are extracted by natural language processing from the "question sentence" of the learning model used to generate the corresponding learning model and the text in the document that is the correct answer, and stored in 1005. You may.
この場合、検索時にも検索ユーザが選択したクラスタに含まれる文書から特徴語を抽出して、1005と比較しても良い。 In this case, the feature words may be extracted from the documents included in the cluster selected by the search user during the search and compared with 1005.
また、単語そのものではなくても良い。周知の技術のモデルがある。”Tomas Mikolov,Kai Chen,and Jeffrey Dean,Efficient estimation of word representation in vector space,CoRR, Vol.abs/1301.3781,,2013”
この技術では、大量の文書内に出現する単語を例えば200次元の素性ベクトルとして表すように学習する。さらに文書の内容は、それら素性ベクトルの和として考えることができる。従って、学習モデルの生成に関与した質問文やクラスタに含まれた文書群の特徴を素性ベクトルとして表し、また検索時には、ユーザが選択したクラスタに含まれる文書群から素性ベクトルを生成して、類似度を比較することも可能である。
Also, it does not have to be the word itself. There are well-known technical models. "Tomas Mikolov, Kai Chen, and Jeff Dean, Effective stimation of world vector space, CoRR, Vol.abs / 1301.3781, 2013"
In this technique, words appearing in a large number of documents are learned to be represented as, for example, a 200-dimensional feature vector. Furthermore, the content of the document can be thought of as the sum of those feature vectors. Therefore, the features of the question sentences involved in the generation of the learning model and the document group included in the cluster are expressed as feature vectors, and at the time of search, the feature vector is generated from the document group included in the cluster selected by the user and similar. It is also possible to compare degrees.
これにより、単なる文書IDで構成される数値のベクトルの類似度や、特徴語の類似度だけではなく、より意味的に類似した学習モデルを選択することが可能になるという効果が得られる。 This has the effect of making it possible to select learning models that are more semantically similar, not just the similarity of numerical vectors composed of document IDs and the similarity of feature words.
クラスタに含まれる文書一覧を最適に再ランク付けするための学習モデルを選択するための方法であれば、いかなる素性を利用しても良いことはいうまでもない。 It goes without saying that any feature can be used as long as it is a method for selecting a learning model for optimally re-ranking the list of documents contained in the cluster.
また、本実施例では文書を対象としたが、データとして検索、分類、評価が可能な画像等、様々な種類のデータにも適用可能である。 Further, although a document is targeted in this embodiment, it can be applied to various types of data such as images that can be searched, classified, and evaluated as data.
なお、上述した各種データの構成及びその内容はこれに限定されるものではなく、用途や目的に応じて、様々な構成や内容で構成されることは言うまでもない。 It should be noted that the structure and contents of the various data described above are not limited to this, and it goes without saying that the structure and contents are various depending on the intended use and purpose.
以上、いくつかの実施形態について示したが、本発明は、例えば、システム、装置、方法、コンピュータプログラムもしくは記録媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although some embodiments have been described above, the present invention can take an embodiment as, for example, a system, an apparatus, a method, a computer program, a recording medium, or the like, and specifically, a plurality of devices. It may be applied to a system composed of, or may be applied to a device composed of one device.
また、本発明におけるコンピュータプログラムは、図8、図11に示すフローチャートの処理方法をコンピュータが実行可能なコンピュータプログラムであり、本発明の記憶媒体は図8、図11の処理方法をコンピュータが実行可能なコンピュータプログラムが記憶されている。なお、本発明におけるコンピュータプログラムは図8、図11の各装置の処理方法ごとのコンピュータプログラムであってもよい。 Further, the computer program in the present invention is a computer program in which a computer can execute the processing methods of the flowcharts shown in FIGS. 8 and 11, and the storage medium of the present invention can execute the processing methods in FIGS. 8 and 11. Computer programs are stored. The computer program in the present invention may be a computer program for each processing method of the devices shown in FIGS. 8 and 11.
以上のように、前述した実施形態の機能を実現するコンピュータプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたコンピュータプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。 As described above, a computer in which a recording medium on which a computer program that realizes the functions of the above-described embodiment is recorded is supplied to the system or device, and the computer (or CPU or MPU) of the system or device is stored in the recording medium. Needless to say, the object of the present invention can be achieved by reading and executing the program.
この場合、記録媒体から読み出されたコンピュータプログラム自体が本発明の新規な機能を実現することになり、そのコンピュータプログラムを記憶した記録媒体は本発明を構成することになる。 In this case, the computer program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the computer program constitutes the present invention.
コンピュータプログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。 Recording media for supplying computer programs include, for example, flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, DVD-ROMs, magnetic tapes, non-volatile memory cards, ROMs, EEPROMs, etc. Silicon disks, solid state drives, etc. can be used.
また、コンピュータが読み出したコンピュータプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのコンピュータプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the computer program read by the computer, not only the functions of the above-described embodiment are realized, but also the OS (operating system) or the like running on the computer is activated based on the instructions of the computer program. Needless to say, there are cases where a part or all of the actual processing is performed and the processing realizes the functions of the above-described embodiment.
さらに、記録媒体から読み出されたコンピュータプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのコンピュータプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, the computer program read from the recording medium is written to the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, and then its function is based on the instruction of the computer program code. Needless to say, there are cases where a CPU or the like provided in the expansion board or the function expansion unit performs a part or all of the actual processing, and the functions of the above-described embodiment are realized by the processing.
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にコンピュータプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのコンピュータプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Further, the present invention may be applied to a system composed of a plurality of devices or a device composed of one device. It goes without saying that the present invention can also be applied when it is achieved by supplying a computer program to a system or device. In this case, by reading the recording medium in which the computer program for achieving the present invention is stored into the system or the device, the system or the device can enjoy the effect of the present invention.
さらに、本発明を達成するためのコンピュータプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Further, by downloading and reading a computer program for achieving the present invention from a server, database, or the like on the network by a communication program, the system or device can enjoy the effect of the present invention.
なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 It should be noted that all the configurations in which each of the above-described embodiments and modifications thereof are combined are also included in the present invention.
100 情報処理装置
101 検索条件受付部
102 類似検索部
103 クラスタリング部
104 表示部
105 学習モデル選択部
106 再ランク付け部
107 学習データ登録部
108 学習モデル生成部
109 生成モデル決定部
121 文書記憶部
122 学習データ記憶部
123 学習モデル記憶部
100
Claims (7)
検索条件に従って検索されたデータを解析して分類したグループを提示し、グループの指定を受け付ける受付手段と、
前記指定されたグループに分類されたデータに基づく第1の特徴データと、前記学習モデルそれぞれに関連付けられた第2の特徴データとに従って、学習モデルを選定する選定手段と
を備えることを特徴とする情報処理装置。 An information processing device that manages multiple learning models.
A reception means that analyzes and classifies the data searched according to the search conditions, presents the group, and accepts the designation of the group.
It is characterized by comprising a first feature data based on the data classified into the designated group and a selection means for selecting a learning model according to the second feature data associated with each of the learning models. Information processing device.
受付手段が、検索条件に従って検索されたデータを解析して分類したグループを提示し、グループの指定を受け付ける受付ステップと、
選定手段が、前記指定されたグループに分類されたデータに基づく第1の特徴データと、前記学習モデルそれぞれに関連付けられた第2の特徴データとに従って、学習モデルを選定する選定ステップと
を備えることを特徴とする情報処理装置の制御方法。 It is a control method of an information processing device that manages multiple learning models.
A reception step in which the reception means analyzes the data searched according to the search conditions, presents the classified group, and accepts the designation of the group.
The selection means includes a selection step of selecting a learning model according to the first feature data based on the data classified into the designated group and the second feature data associated with each of the learning models. A control method for an information processing device characterized by.
前記情報処理装置を、
検索条件に従って検索されたデータを解析して分類したグループを提示し、グループの指定を受け付ける受付手段と、
前記指定されたグループに分類されたデータに基づく第1の特徴データと、前記学習モデルそれぞれに関連付けられた第2の特徴データとに従って、学習モデルを選定する選定手段
として機能させるためのプログラム。 A program that can be executed by an information processing device that manages multiple learning models.
The information processing device
A reception means that analyzes and classifies the data searched according to the search conditions, presents the group, and accepts the designation of the group.
A program for functioning as a selection means for selecting a learning model according to the first feature data based on the data classified into the designated group and the second feature data associated with each of the learning models.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019198690A JP7464814B2 (en) | 2019-10-31 | 2019-10-31 | Information processing device, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019198690A JP7464814B2 (en) | 2019-10-31 | 2019-10-31 | Information processing device, control method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021071957A true JP2021071957A (en) | 2021-05-06 |
JP2021071957A5 JP2021071957A5 (en) | 2022-11-08 |
JP7464814B2 JP7464814B2 (en) | 2024-04-10 |
Family
ID=75713223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019198690A Active JP7464814B2 (en) | 2019-10-31 | 2019-10-31 | Information processing device, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7464814B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009301221A (en) * | 2008-06-11 | 2009-12-24 | Yahoo Japan Corp | Document retrieval system, document retrieval method, and program |
JP2012173794A (en) * | 2011-02-17 | 2012-09-10 | Nippon Telegr & Teleph Corp <Ntt> | Document retrieval device having ranking model selection function, document retrieval method having ranking model selection function, and document retrieval program having ranking model selection function |
US20160117333A1 (en) * | 2011-10-11 | 2016-04-28 | Microsoft Technology Licensing, Llc | Time-Aware Ranking Adapted to a Search Engine Application |
JP2018156429A (en) * | 2017-03-17 | 2018-10-04 | ヤフー株式会社 | Information processing device, information processing method, and program |
-
2019
- 2019-10-31 JP JP2019198690A patent/JP7464814B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009301221A (en) * | 2008-06-11 | 2009-12-24 | Yahoo Japan Corp | Document retrieval system, document retrieval method, and program |
JP2012173794A (en) * | 2011-02-17 | 2012-09-10 | Nippon Telegr & Teleph Corp <Ntt> | Document retrieval device having ranking model selection function, document retrieval method having ranking model selection function, and document retrieval program having ranking model selection function |
US20160117333A1 (en) * | 2011-10-11 | 2016-04-28 | Microsoft Technology Licensing, Llc | Time-Aware Ranking Adapted to a Search Engine Application |
JP2018156429A (en) * | 2017-03-17 | 2018-10-04 | ヤフー株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7464814B2 (en) | 2024-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7769771B2 (en) | Searching a document using relevance feedback | |
JP5497022B2 (en) | Proposal of resource locator from input string | |
US9858358B1 (en) | Session-based query suggestions | |
US20150310116A1 (en) | Providing search results corresponding to displayed content | |
US8761575B2 (en) | Method and apparatus for searching replay data | |
US9477767B1 (en) | Demotion of already observed search query completions | |
AU2020221062B2 (en) | Generating and provisioning of additional content for source perspective(s) of a document | |
JP2007317194A (en) | Apparatus, system, and method for enhancing help resource selection in computer application | |
US20110302149A1 (en) | Identifying dominant concepts across multiple sources | |
JP5013701B2 (en) | Search device and search method | |
US20100131495A1 (en) | Lightning search aggregate | |
US10289624B2 (en) | Topic and term search analytics | |
JP4375626B2 (en) | Search service system and method for providing input order of keywords by category | |
US8868551B2 (en) | Method for storing bookmarks for search results from previously submitted search queries by a user and storing links to selected documents by the user | |
JP2003084783A (en) | Method, device, and program for playing music data and recording medium with music data playing program recorded thereon | |
JP7256357B2 (en) | Information processing device, control method, program | |
KR102604450B1 (en) | Method and apparatus for storing log of access based on kewords | |
JP2020161012A (en) | Information processing apparatus, control method and program | |
JP7477744B2 (en) | Information processing device, control method, and program | |
JP7464814B2 (en) | Information processing device, control method, and program | |
JP7078837B2 (en) | Information processing system, information processing device, its control method and program | |
JP7273293B2 (en) | Information processing device, control method, program | |
JP4574186B2 (en) | Important language identification method, important language identification program, important language identification device, document search device, and keyword extraction device | |
JP7032650B2 (en) | Similar text search method, similar text search device and similar text search program | |
US20240152561A1 (en) | Computer-based systems and methods for training and using a machine learning model for improved processing of user queries based on inferred user intent |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221028 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221028 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240311 |