JP7163168B2 - Medical image processing device, system and program - Google Patents
Medical image processing device, system and program Download PDFInfo
- Publication number
- JP7163168B2 JP7163168B2 JP2018237696A JP2018237696A JP7163168B2 JP 7163168 B2 JP7163168 B2 JP 7163168B2 JP 2018237696 A JP2018237696 A JP 2018237696A JP 2018237696 A JP2018237696 A JP 2018237696A JP 7163168 B2 JP7163168 B2 JP 7163168B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- trained
- data
- trained model
- medical image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明の実施形態は、医用画像処理装置、システム及びプログラムに関する。 The embodiments of the present invention relate to medical image processing apparatuses, systems, and programs.
機械学習の発展に伴い、医用分野においても機械学習の適用が進みつつある。医用データを用いてモデルを機械学習して学習済みモデルを作成する場合、学習用の医用データを大量に用意する必要がある。
ある目的の処理のために一度作成された学習済みモデルは、基本的に異なる目的の処理のために利用することは難しい。例えば、脳腫瘍を検出するための学習済みモデルは、脳の医用画像の中から腫瘍を検出することに特化している。よって、肝腫瘍など別の部位から腫瘍を検出することに当該学習済みモデルを利用したとしても、肝臓の医用画像に対する処理能力は低いと考えられる。
With the development of machine learning, application of machine learning is progressing also in the medical field. When creating a learned model by machine learning a model using medical data, it is necessary to prepare a large amount of medical data for learning.
It is difficult to use a trained model once created for processing for a certain purpose for processing for a fundamentally different purpose. For example, a trained model for detecting brain tumors specializes in detecting tumors in medical images of the brain. Therefore, even if the trained model is used to detect a tumor from another site such as a liver tumor, the processing capability for medical images of the liver is considered to be low.
そのため、例えば脳の医用画像から腫瘍を検出する学習済みモデルを生成または購入したユーザが、今度は肝腫瘍を検出する学習済みモデルを利用したいと考えたとする。この場合、新たに肝腫瘍の医用データを用意して肝腫瘍の学習済みモデルを生成するか、別途肝腫瘍の学習済みモデルを購入する必要がある。結果、以前に用いた医用データや学習済みモデルを再利用することができず、ユーザにとって労力およびコストの観点からも非常に負担がかかる。 Therefore, for example, a user who has generated or purchased a trained model for detecting tumors from medical images of the brain wants to use the trained model for detecting liver tumors. In this case, it is necessary to prepare new liver tumor medical data and generate a trained model of the liver tumor, or separately purchase a trained model of the liver tumor. As a result, previously used medical data and trained models cannot be reused, which imposes a heavy burden on the user in terms of labor and cost.
本発明が解決しようとする課題は、ユーザビリティを向上させることである。 A problem to be solved by the present invention is to improve usability.
本実施形態に係る医用画像処理装置は、取得部と、学習部とを含む。取得部は、入力データおよび出力データを用いて学習した第1学習済みモデルを取得する。生成部は、前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する。 A medical image processing apparatus according to this embodiment includes an acquisition unit and a learning unit. The acquisition unit acquires a first trained model trained using the input data and the output data. The generating unit re-learns the first trained model using the preprocessed data and the output data, and removes the processing corresponding to the preprocessing from the first trained model. generate a second trained model.
以下、図面を参照しながら本実施形態に係わる医用画像処理装置、システムおよびプログラムについて説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。以下、一実施形態について図面を用いて説明する。 A medical image processing apparatus, system, and program according to the present embodiment will be described below with reference to the drawings. In the following embodiments, it is assumed that parts denoted by the same reference numerals perform the same operations, and overlapping descriptions will be omitted as appropriate. An embodiment will be described below with reference to the drawings.
なお、以下の本実施形態に係る医用画像処理装置は、X線CT(Computed Tomography)装置またはMR(Magnetic Resonance)などの各医用画像診断装置のコンソールに含まれてもよいし、ワークステーションに含まれてもよいし、クラウドサーバなどのサーバに含まれてもよい。 The medical image processing apparatus according to the present embodiment described below may be included in the console of each medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus or MR (Magnetic Resonance), or may be included in a workstation. may be included in a server such as a cloud server.
(第1の実施形態)
第1の実施形態に係る医用画像処理装置は、学習済みモデルにより実行される処理内容を細分化し、ある処理内容に特化した学習済みモデルへ変更する。
第1の実施形態に係る医用画像処理装置について図1のブロック図を参照して説明する。
第1の実施形態に係る医用画像処理装置10は、処理回路11と、データ格納部12と、通信インタフェース13とを含む。処理回路11は、モデル取得機能111と、処理分割機能113と、学習機能115と、表示制御機能117とを含む。
(First embodiment)
The medical image processing apparatus according to the first embodiment subdivides the processing content to be executed by the trained model and changes it to a trained model specialized for certain processing content.
A medical image processing apparatus according to the first embodiment will be described with reference to the block diagram of FIG.
A medical
モデル取得機能111により処理回路11は、処理対象の学習済みモデルを取得する。処理対象の学習済みモデルは、ある入力データおよび出力データの組を学習用データとして用いて学習させることで生成されたモデルである。処理対象の学習済みモデルは、外部から取得されてもよいし、後述するデータ格納部12に予め格納される学習済みモデルを処理対象の学習済みモデルとして取得してもよい。また、処理対象の学習済みモデルは、後述する学習機能115によりモデルを学習させることで生成される学習済みモデルであってもよい。
With the
処理分割機能113により処理回路11は、処理対象の学習済みモデルで実行される処理内容を細分化し、処理内容がどのような処理の組合せにより実現されるかを示す細分化情報を得る。具体的には、CTの生データが入力され、肺結節がセグメンテーションされた画像を出力する学習済みモデルを想定する。当該学習済みモデルにおいて生データから肺結節がセグメンテーションされた画像を出力するまでの過程は、例えば、生データをCT画像再構成する処理と、CT画像から肺野をセグメンテーションする処理と、肺野内の結節をセグメンテーションする処理とに細分化できる。よって、処理分割機能113により処理回路11は、細分化された処理に関する情報を細分化情報として得ればよい。
なお、処理内容の細分化方法は、ユーザがどのような処理に細分化するかを医用画像処理装置10に入力する方法を想定する。なお、細分化方法は、外部から処理内容の細分化例を得たり、または過去に医用画像処理装置10で実行された処理内容の細分化例を得たりして、当該細分化例をルックアップテーブルとしてデータ格納部12に格納しておく。処理分割機能113により処理回路11は、当該ルックアップテーブルを参照する方法でもよい。
With the
In addition, as a method for subdividing the processing content, it is assumed that the user inputs to the medical
学習機能115により処理回路11は、細分化情報に基づいて、学習済みモデルを生成した際の入力データとは異なる前処理が施された前処理データと、学習済みモデルを生成した際の出力データとを学習用データとして、当該学習済みモデルを再学習させる。再学習の結果、学習機能115により処理回路11は、元の学習済みモデルから前処理に対応する処理が除かれた再学習済みモデルを生成する。
表示制御機能117により処理回路11は、学習済みモデル、学習済みモデルの細分化情報などをディスプレイに表示させる。
Based on the subdivision information, the
By means of the
データ格納部12は、種々の情報を記憶するHDD(Hard Disk Drive)やSSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。データ格納部12は、HDDやSSD等以外にも、CD(Compact Disc)、DVD(Digital Versatile Disc)、フラッシュメモリ等の可搬性記憶媒体や、RAM(Random Access Memory)等の半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリの保存領域は、医用画像処理装置10内にあってもよいし、ネットワークで接続された外部記憶装置内にあってもよい。
データ格納部12は、例えば、学習済みモデルを再学習させるための、入力データおよび正解データ(出力データ)となる学習用データ、細分化情報を格納する。入力データとしては、例えば生データ、サイノグラムデータ、ボリュームデータ、画像データが挙げられる。正解データとしては、例えばサイノグラムデータ、ボリュームデータ、画像データ、判定スコア(病変スコアなど)、分析結果が挙げられる。学習用データは、入力データと正解データとの組の場合もあるし、前処理データと正解データとの組の場合もある。データ格納部12はさらに、入力されるデータに対し前処理を行う学習済みモデルである前処理モデルを格納してもよい。前処理モデルを用いることで、入力データから前処理データを生成することができる。
The
The
通信インタフェース13は、外部と通信するためのインタフェースであり、一般的なインタフェースを用いればよいため、ここでの説明は省略する。
The
次に、学習機能115による学習済みモデルの細分化の具体例について図2Aおよび図2Bを参照して説明する。
学習済みモデルは、入力データと出力データとの組である学習用データに基づいて、モデル学習プログラムに従い、例えば多層ネットワークなどのモデルを機械学習することで生成される。機械学習のアルゴリズムとしては、ニューラルネットワーク、ディープラーニング、Random Forest等を想定するが、サポートベクタマシン、カーネル回帰など他の機械学習アルゴリズムを用いてもよい。なお、学習済みモデルは、複数の関数が合成されたパラメータ付き合成関数ともいえる。パラメータ付き合成関数は、複数の調整可能な関数およびパラメータの組合せにより定義される。学習済みモデルは、上記の要請を満たす如何なるパラメータ付き合成関数であってもよい。
Next, a specific example of segmentation of the trained model by the
A trained model is generated by machine learning a model such as a multi-layer network according to a model learning program based on learning data, which is a set of input data and output data. Machine learning algorithms are assumed to be neural networks, deep learning, random forests, etc., but other machine learning algorithms such as support vector machines and kernel regression may also be used. Note that the trained model can also be said to be a parameterized composite function obtained by combining a plurality of functions. A parameterized composite function is defined by a combination of multiple adjustable functions and parameters. A trained model can be any parameterized composite function that meets the above requirements.
ここで図2Aに示すように、(a)処理対象の学習済みモデルとして、処理内容が「肺の腫瘍をセグメンテーション」である学習済みモデル20を想定する。学習済みモデル20は、入力データ21としてボリュームデータが入力されると、出力データ22として肺の腫瘍がセグメンテーションされた画像データを出力する。
Here, as shown in FIG. 2A, (a) as a trained model to be processed, a trained
処理分割機能113により処理回路11は、細分化情報に基づき、ボリュームデータから肺の腫瘍をセグメンテーションするまでの学習済みモデル20の処理内容を細分化する。処理内容の細分化は、上述したようなユーザが適宜入力する方法でも、ルックアップテーブルを参照する方法でもよい。さらには、処理対象の学習済みモデル20の処理途中の状態を確認できる場合は、処理途中でどのような処理が行われているかを検出し、検出された処理に応じて処理内容を細分化してもよい。
With the
ここでは、ボリュームデータから肺をセグメンテーションする第1ステップと、セグメンテーションされた肺を肺葉ごとに分割する第2ステップと、腫瘍をセグメンテーションする第3ステップとに処理内容が細分化された場合を想定する。ここで、ユーザが第3ステップの処理を実行する学習済みモデルを生成したいと考える場合、第1ステップおよび第2ステップは前処理と呼ばれる。 Here, it is assumed that the processing is subdivided into a first step of segmenting the lung from the volume data, a second step of dividing the segmented lung into lobes, and a third step of segmenting the tumor. . Here, when the user wishes to generate a trained model that performs the processing of the third step, the first and second steps are called preprocessing.
学習機能115により処理回路11は、入力データ21に対する前処理として、入力データ21に第1ステップが実行されたデータを入力データ23とし、肺の腫瘍がセグメンテーションされたデータを出力データ22とする学習用データに基づいて、学習済みモデル20を再学習(例えば強化学習)させる(図2A中、(b))。入力データ23としては、予め肺がセグメンテーションされたボリュームデータをデータ格納部12に用意し、肺がセグメンテーションされたボリュームデータが用いられてもよい。または、外部から取得した肺がセグメンテーションされたボリュームデータが用いられてもよい。または、データ格納部12に格納されるボリュームデータに対して一般的なセグメンテーション処理を実行することで、肺がセグメンテーションされたボリュームデータが生成され用いられてもよい。または、ボリュームデータが入力され、肺がセグメンテーションされたデータを出力する学習済みモデルの出力が用いてもよい。
With the
再学習の結果として得られる再学習済みモデル24は、ボリュームデータから肺がセグメンテーションされた後のデータが入力データとして用いられるため、第1前処理済みデータを処理する学習済みモデルに変更される。つまり、再学習済みモデル24は、学習済みモデル20から第1前処理機能を除いたモデルに変更される(図2A中、(c))。再学習済みモデル24は、ボリュームデータから肺がセグメンテーションされたデータが入力され、肺の腫瘍がセグメンテーションされたデータを出力する。
The relearned
同様に、第2ステップに関する前処理済みのデータと出力データ22を用いて、再学習済みモデル24を再学習する例を図2Bに示す。
ここでは、第2ステップ、すなわち肺を肺葉ごとに分割したデータを入力データ25とし、肺の腫瘍がセグメンテーションされたデータを出力データ22とする学習用データに基づいて、再学習済みモデル24を再学習させる(図2B中、(d))。入力データ25は、入力データ23の場合と同様に取得されればよい。例えば、入力データ25として、予め肺葉ごとに分割されたデータが用いられてもよいし、肺がセグメンテーションされたデータが入力され、肺葉ごとに分割されたデータを出力する学習済みモデルの出力が用いられてもよい。
Similarly, an example of retraining a retrained
Here, in the second step, the relearned
再学習の結果として得られる再学習済みモデル26は、肺葉ごとに分割されたデータが入力データとして用いられるため、第2前処理済みデータを処理する学習済みモデルに変更される。つまり、再学習済みモデル26は、再学習済みモデル24から第2前処理機能を除いたモデルに変更される(図2A中、(e))。再学習済みモデル26は、肺葉ごとに分割されたデータが入力され、肺の腫瘍がセグメンテーションされたデータを出力する。
The
なお、図2Aおよび図2Bの(b)および(d)に示す再学習の段階で、学習機能115により処理回路11が、学習済みモデル20の多層ネットワークの中で前処理に相当する処理を実行している層を検出できる場合は、当該前処理に相当する処理を実行している層を削減したモデルに対して、再学習を実行し、再学習済みモデルを生成してもよい。
In the re-learning stages shown in (b) and (d) of FIGS. 2A and 2B, the
さらに、図2Aおよび図2Bでは、細分化された処理ごとに学習済みモデルを再学習しているが、これに限らず、図2Aの(b)の再学習を実行せずに、第2前処理済みデータを入力データとし、(d)の再学習を実行してもよい。 Furthermore, in FIGS. 2A and 2B, the learned model is re-learned for each subdivided process, but this is not restrictive. The re-learning of (d) may be executed using the processed data as input data.
以上に示した第1の実施形態によれば、学習済みモデルの処理内容を細分化し、汎用性の高い学習済みモデルとなるように再学習(強化学習)させることで、汎用性の高い学習済みモデルに学習済みモデルを変更することができる。つまり、例えば肺の腫瘍をセグメンテーションした画像を出力する学習済みモデルを再学習し、腫瘍をセグメンテーションする処理に特化した学習済みモデルに変更する。当該変更された学習済みモデルに、肝臓がセグメンテーションされたデータを入力すると、当該変更された学習済みモデルでは、何らかのセグメンテーションが実行されたデータに対して腫瘍をセグメンテーションした画像を出力するので、肺の医用データに限らず、肝臓など他の臓器の医用データから腫瘍をセグメンテーションできる。
すなわち、第1の実施形態によれば、より汎用性の高い学習済みモデルを生成でき、ユーザビリティを向上させることができる。
According to the first embodiment described above, by subdividing the processing content of a trained model and re-learning (reinforcement learning) to become a highly versatile trained model, a trained model with high versatility can be obtained. A trained model can be changed into a model. That is, for example, a trained model that outputs an image obtained by segmenting a lung tumor is retrained, and the trained model is changed to a trained model that specializes in the process of segmenting a tumor. When data obtained by segmenting the liver is input to the modified trained model, the modified trained model outputs an image obtained by segmenting the tumor with respect to the data on which some segmentation has been performed. Tumors can be segmented not only from medical data, but also from medical data of other organs such as the liver.
That is, according to the first embodiment, it is possible to generate a more versatile trained model and improve usability.
(第2の実施形態)
第2の実施形態では、所望の処理を1つの学習済みモデルで実現するのではなく、複数の汎用的な学習済みモデルを組み合わせることで所望の処理を実現する。
(Second embodiment)
In the second embodiment, desired processing is realized by combining a plurality of general-purpose trained models instead of realizing desired processing with one trained model.
第2の実施形態に係る医用画像処理装置10について図3のブロック図を参照して説明する。
第2の実施形態に係る医用画像処理装置10は、第1の実施形態に係る医用画像処理装置10に加え、処理回路11にモデル選択機能119をさらに含む。また、データ格納部12および処理回路11の処理分割機能113の構成が第1の実施形態と異なる。
A medical
The medical
データ格納部12は、複数の学習済みモデルを格納する。複数の学習済みモデルはそれぞれ、処理内容が異なる。例えば、腫瘍を抽出する学習済みモデル、肺をセグメンテーションする学習済みモデルなど、各用途に応じた学習済みモデルを格納する。なお、同じ処理内容であっても入力するデータの違いに応じて複数の学習済みモデルが格納されてもよい。例えば、CT画像から腫瘍をセグメンテーションする学習済みモデルと、MR画像から腫瘍をセグメンテーションする学習済みモデルとをそれぞれ格納する。
The
また、学習済みモデルには、付帯情報が付帯される。付帯情報は、学習済みモデルの処理内容、学習済みモデルから出力されるデータの正答率、学習済みモデルの入力データおよび出力データ、学習済みモデルの処理内容を実行するのに要する処理時間などを含む。 In addition, additional information is attached to the trained model. Supplementary information includes the processing details of the trained model, the correct answer rate of the data output from the trained model, the input data and output data of the trained model, the processing time required to execute the processing details of the trained model, etc. .
また、データ格納部12は、学習済みモデルに加え、ルールベースで設計された処理モデル(以下、ルールモデルという)を格納してもよい。ルールモデルにも付帯情報が付帯される。
Further, the
処理分割機能113により処理回路11は、ユーザの所望の処理(以下、目的処理と呼ぶ)を複数の処理に細分化する。言い換えれば、目的処理を複数の処理(ステップ)の組み合わせに変換する。目的処理を細分化する場合は、第1の実施形態に係る学習済みモデルの処理内容を細分化する場合と同様の方法を用いればよい。
モデル選択機能119により処理回路11は、付帯情報に基づき、目的処理を達成するための学習済みモデルの組合せを選択する。
With the
With the
次に、第2の実施形態に係る医用画像処理装置10の具体的な動作例について図4を参照して説明する。
目的処理40として、「X線CT装置により取得した生データから肺結節をセグメンテーションする」場合を想定する。以下、X線CT装置により取得した生データをCT生データという。
Next, a specific operation example of the medical
As the
処理分割機能113により処理回路11は、目的処理40を、CT生データからの画像再構成処理、肺野セグメンテーション処理、及び肺野内の結節セグメンテーション処理に細分化する。結果として、第1学習済みモデル41、第2学習済みモデル43および第3学習済みモデル45の組合せが得られる。
The
目的処理の細分化の粒度(例えば、組み合わされる処理の数)は、ユーザが所有している(データ格納部12に格納される)学習済みモデルを優先的に利用するように決定されてもよい。例えば、目的処理を第1の処理から第5の処理までの5つの処理に細分化できる場合、ユーザが既に第4および第5の処理をまとめた学習済みモデルを所有していれば、当該学習済みモデルを利用すべく、目的処理を3つの処理に細分化すればよい。なお、細分化の粒度は、なるべく細分化数が少なくなるような学習済みモデルの組合せに決定されてもよいし、反対に、なるべく細分化数が多くなるような学習済みモデルの組合せに決定されてもよい。 The granularity of subdivision of the target process (for example, the number of processes to be combined) may be determined so as to preferentially use the trained model owned by the user (stored in the data storage unit 12). . For example, when the target process can be subdivided into five processes from the first process to the fifth process, if the user already owns a trained model that summarizes the fourth and fifth processes, the learned model In order to use the finished model, the target process should be subdivided into three processes. The granularity of subdivision may be determined as a combination of trained models that minimizes the number of subdivisions, or conversely, it is determined as a combination of trained models that maximizes the number of subdivisions. may
モデル選択機能119により処理回路11は、目的処理が細分化された、画像再構成処理、肺野セグメンテーション処理および結節セグメンテーションに対応する各学習済みモデルを、データ格納部12から選択する。なお、モデル選択機能119により処理回路11は、自動的に学習モデルを選択することに限らずユーザが手動でモデルを選択してもよい。
With the
なお、目的処理を細分化する際には、目的処理が1つのパターンに細分化されず、複数のパターンが細分化候補として想定される場合もある。この場合、モデル選択機能119により処理回路11が、どの細分化候補が最も適切かを判定してもよい。
When subdividing the target process, the target process may not be subdivided into one pattern, and a plurality of patterns may be assumed as subdivision candidates. In this case,
モデル選択機能119による細分化候補の判定例について図5を参照して説明する。
図5の例では、図4に示す目的処理40「X線CT装置により取得した生データから肺結節をセグメンテーションする」について、2つの細分化候補51,53が生成される場合を示す。細分化候補51は「画像再構成処理→肺のセグメンテーション→肺葉のセグメンテーション→腫瘍のセグメンテーション」で示される順序の学習済みモデル511の組合せであり、細分化候補53は「肺のセグメンテーション→TDC取得処理→TDCに基づく腫瘍のセグメンテーション」で示される順序の学習済みモデル531の組合せである場合を想定する。
An example of determination of subdivision candidates by the
The example of FIG. 5 shows a case where two
学習済みモデル511には付帯情報513が付帯され、学習済みモデル531には付帯情報533が付帯される。また、細分化候補51には全体的な付帯情報52が付帯され、細分化候補53にも全体的な付帯情報54が付与される。なお、図5の例では、説明の便宜上、付帯情報513のみ内容を図示しているが、他の付帯情報にも同様の情報が含まれる。
全体的な付帯情報52および付帯情報54に含まれるデータの正答率は、細分化候補に含まれる各学習済みモデルの正答率の平均であってもよいし、細分化候補51または細分化候補53によりサンプルデータを処理させることで得られる正答率でもよい。または、第三者により実際に利用されたときの正答率のフィードバックデータを利用してもよい。全体的な付帯情報に含まれる処理時間は、各学習済みモデルの処理時間を積算した時間を用いればよい。
The correct answer rate of the data included in the overall
モデル選択機能119により処理回路11は、付帯情報に基づき、最適な細分化候補(組合せ候補)を処理モデルとして選択する。図5の例では、正答率が優先されるように設定してあれば、細分化候補53が処理モデルとして選択され、処理時間が優先される設定であれば、細分化候補51が処理モデルとして選択される。なお、提示される正答率または処理時間を考慮して、ユーザが手動で最適な細分化候補を処理モデルとして選択してもよい。
With the
以上に示した第2の実施形態によれば、目的処理を複数の処理に細分化し、モデル選択機能119により処理回路11が、処理ごとの学習済みモデルを組み合わせることで、目的処理を実現する。これにより、例えばユーザが、目的処理を処理内容とする学習済みモデルを所有していなくとも、手持ちの学習済みモデルを組み合わせることで同様の目的処理を実現できると共に、既に購入または作成された、手持ちの学習済みモデルを有効に利用することができる。
According to the second embodiment described above, the target process is subdivided into a plurality of processes, and the
(第3の実施形態)
第3の実施形態では、学習済みモデルの組合せを支援するGUI(Graphical User Interface)を提供する医用画像処理装置を示す。
(Third embodiment)
The third embodiment shows a medical image processing apparatus that provides a GUI (Graphical User Interface) that supports combination of trained models.
第3の実施形態に係るGUIの一例について図6を参照して説明する。
図6は、ユーザによる学習済みモデルの組合せを支援するGUIであり、表示制御機能117により処理回路11が、例えばコンソール装置またはワークステーションのディスプレイへの当該GUIの表示を制御する。
An example of the GUI according to the third embodiment will be described with reference to FIG.
FIG. 6 shows a GUI that assists the user in combining trained models, and the
ユーザは、キーボード、マウス、トラックボールなどの外部入力装置、または、タッチパネル式のディスプレイであれば直接触れることにより、GUIへの入力またはカーソル68の移動を実現し、目的処理を実現するための学習済みモデルの組合せ作業を含む設計を行うことができる。
The user can input to the GUI or move the
図6では、ある目的処理に対して、入力データと出力データとが決定されているとする。表示制御機能117により処理回路11は、目的処理に関する複数の学習済みモデルの組合せ作業を行う作業領域60、複数の学習済みモデル601を表示するAIモデルリスト62、ルールモデル640を表示するルールベースリスト64、および後述するコネクタ660を表示するコネクタリスト66を含むGUIの表示を制御する。AIモデルリスト62には、第2の実施形態に示すデータ格納部12に格納される複数の学習済みモデルが含まれることを想定する、第1の実施形態で生成された再学習済みモデルをAIモデルリスト62に含めてもよい。
In FIG. 6, it is assumed that input data and output data are determined for a certain target process. The
ユーザは、目的処理を実現するように、AIモデルリスト62から複数の学習済みモデル601を選択し、ルールベースリスト64からルールモデル640を選択して、学習済みモデル601およびルールモデル640の組合せ作業を実行する。また、図示しないが、学習済みモデル601を選択することで、学習済みモデル601に付帯される付帯情報を表示するようにしてもよい。また、ルールモデル640に対しても付帯情報が付帯されてもよい。以下、便宜上、学習済みモデル601およびルールモデル640をまとめて単に「モデル」と呼ぶ。
The user selects a plurality of learned
AIモデルリスト62、ルールベースリスト64、およびコネクタリスト66は、モデルの処理内容のカテゴリごとにソートして表示されてもよい。例えば、「セグメンテーション」のカテゴリ、「腫瘍判定」のカテゴリといったように区別してモデルを表示することで、ユーザの視認性を向上させることができる。
The
なお、第2の実施形態で示した細分化候補をデフォルトで作業領域60に表示させておき、ユーザが、細分化候補をそのまま利用するか、細分化候補を組み替えるかを判断してもよい。
The subdivision candidates shown in the second embodiment may be displayed in the
GUIで表示される学習済みモデル601は、説明ブロック6011と、入力端子6013と出力端子6015とを含む。説明ブロック6011は、学習済みモデル601の処理内容を記載したブロックである。入力端子6013は、入力データの形式が記号で示され、当該記号が説明ブロック6011の一端に枝を介して接続される。出力端子6015は、出力データの形式が記号で示され、当該記号が説明ブロック6011の他端に枝を介して接続される。
A trained
入力端子6013および出力端子6015の各データの形式としては、例えば、ピクセルデータ、ボクセルデータ、生データ、中間データ(例えば、サイノグラム)などが想定される。入力各データの形式を一意に識別するため、各データに異なる記号が割り当てられる。
As the format of each data of the
ユーザは、入力端子6013および出力端子6015の形状を見れば、入出力のデータ形式が一致するか否かを容易に判断できる。図6の例では、入力データがボリュームデータで記号が「○」であると想定すると、肺のセグメンテーション処理に関する学習済みモデル601の入力端子6013が「○」の記号であるので、ユーザは学習済みモデル601を入力に接続可能であると判断できる。なお、ルールモデル640については、学習済みモデル601と同様の表示形式であるので説明を省略する。
A user can easily determine whether or not the input and output data formats match by looking at the shapes of the
ここで、モデルの組合せ作業において、目的処理の入力および出力の間で入出力関係が揃わない場合も考えられる。例えば、先のモデルからの出力がボリュームデータで、接続したい学習済みモデル601の入力が画像データである場合、ボリュームデータから画像データへの変換が必要となる。また、入出力が同じ画像データでも、画像のマトリクスサイズが異なる場合は、入力先のマトリクスサイズに合わせて出力元のマトリクスサイズを変換する必要がある。
Here, in the work of combining models, there may be a case where the input/output relationship between the input and output of the target process is not aligned. For example, when the output from the previous model is volume data and the input of the trained
よって、データ形式の変換およびマトリクスサイズの変換など、モデル間の入出力関係を整合させるデータ変換を示すコネクタ660をコネクタリスト66に複数格納する。コネクタ660は、マトリクスサイズ変換であればマスク画像を用いればよく、データ変換であれば一般的なデータ変換式を用いればよい。
コネクタ660を用意することで、ユーザが視覚的かつ容易に学習済みモデル間のデータの入出力関係を合わせることができる。
Therefore, a
By preparing the
次に、GUIにおけるモデルの検索処理の第1例について図7を参照して説明する。
図7は、作業領域60に学習済みモデル601を1つ配置した状態を示す。表示制御機能117により処理回路11は、候補領域70をGUI上に表示する。候補領域70には、モデル候補701と必要コネクタ703とが対応付けられて表示される。
モデル候補701は、作業領域60に配置されたモデルに対し組合せ可能なモデルを示す。モデル候補は、例えば処理分割機能113により処理回路11が、細分化情報に基づいて、配置された学習済みモデル601に接続されたモデルを抽出すればよい。
必要コネクタ703は、作業領域60に配置されたモデルに対してモデル候補701を接続する際に必要となるコネクタを示す。必要コネクタは、例えば表示制御機能117により処理回路11が、付帯情報を参照して、作業領域60に配置されたモデルの出力と、組合せ可能なモデルの入力とに関する情報から、入出力関係が一致していなければ、入出力関係が一致するような変換、つまりコネクタを選択して表示させればよい。なお、コネクタが必要ない場合には、「なし」と記載されるか、空欄とすればよい。
Next, a first example of model search processing in the GUI will be described with reference to FIG.
FIG. 7 shows a state in which one trained
A
A required
表示制御機能117により処理回路11は、作業領域60に、モデルが配置されると、配置されたモデルを参照して、モデル候補をAIモデルリスト62、ルールベースリスト64およびコネクタリスト66から、対象となるモデルまたはコネクタを抽出し、候補領域70に表示する。
When a model is placed in the
次に、GUIにおけるモデルの検索処理の第2例について図8および図9を参照して説明する。図8および図9は、いわゆるインクリメンタルサーチを想定する。
図8は、ユーザがモデルの組合せに用いたいと考えるモデルについて、ユーザが検索ウィンドウ80に文字を入力する例である。「は」と入力すると、「は」から始まる学習済みモデル601およびルールモデル640の候補が候補欄81に表示される。なお、コネクタ660に名称を付与しておけば、学習済みモデル601およびルールモデル640と併せて、コネクタ660も検索対象に設定されてもよい。続けてユーザが検索ウィンドウ80に「はい」と入力すると、候補欄81に表示されるモデルが、「はい」から始まる学習済みモデル601およびルールモデル640に限定される。このような学習済みモデル601として、例えば、肺のセグメンテーションのモデルが表示される。
Next, a second example of model search processing in the GUI will be described with reference to FIGS. 8 and 9. FIG. 8 and 9 assume a so-called incremental search.
FIG. 8 is an example of a user entering characters into a
以上に示した第3の実施形態によれば、学習済みモデルの組合せを支援するGUIを提供することで、ユーザが目的処理を実現可能な範囲で自由にモデルを組合せることができ、目的処理の設計に関するユーザビリティを向上させることができる。 According to the third embodiment described above, by providing a GUI that supports the combination of learned models, the user can freely combine models within a range in which the target process can be achieved. can improve the usability of the design of
(第4の実施形態)
次に、第4の実施形態として、クラウドを利用してモデルの購入および販売を行う例について説明する。
第4の実施形態に係る医用画像診断装置を含む医用画像診断システムについて図10を参照して説明する。
(Fourth embodiment)
Next, as a fourth embodiment, an example of purchasing and selling models using the cloud will be described.
A medical image diagnostic system including a medical image diagnostic apparatus according to the fourth embodiment will be described with reference to FIG.
図10に示す医用画像診断システム1は、1以上の医用画像処理装置10と、クラウドサーバ3とを含む。1以上の医用画像処理装置10は、医用画像処理装置10が病院ごとに配置される場合を想定する。各医用画像処理装置10は、ネットワーク5を介してクラウドサーバ3と接続される。
A medical image
医用画像処理装置10は、第1の実施形態または第2の実施形態に係る医用画像処理装置10の構成でもよいが、ここでは、処理回路11は表示制御機能117を含むとする。
The medical
クラウドサーバ3は、データ格納部12と、処理回路11と、通信インタフェース13を含む。処理回路11は、モデル取得機能111、学習機能115および処理分割機能113を含む。このように、処理負荷が多いと想定される学習機能115や、メモリに対する負荷が多いデータ格納部12などの構成をクラウドサーバ3に含み、その他の構成を医用画像処理装置10に含むように構成を分散させてもよい。構成を分散させる際は、医用画像処理装置10ごとにアクセス権限を付与し、クラウドサーバ3に格納される学習用データおよび各種モデル(学習済みモデル、ルールモデル)のうち、アクセス権限を有するデータのみにアクセスを許可するようにアクセスを制限してもよい。
The
クラウドサーバ3は、医用画像処理装置10からの学習用データおよび各種モデルについてのダウンロード要求に応じて、医用画像処理装置10にデータをダウンロードさせてもよい。または、クラウドサーバ3は、医用画像処理装置10からの学習用データおよび各種モデルについてのアップロード要求に応じて、医用画像処理装置10にデータをアップロードさせてもよい。
The
図10に示すような構成とすることで、各医用画像処理装置10側では、処理回路11を実現するプロセッサやメモリの負荷を減らしつつ、スループットを向上させることができる。また、クラウドサーバ3側で学習処理などを行うことで、学習時間を短縮でき、データの一元管理を実現することができる。
By adopting the configuration shown in FIG. 10, on the side of each medical
次に、第4の実施形態に係る医用画像処理装置10の動作例を図11に示す。
図11は、図7と同様に作業領域60と候補領域72とを示すGUIの一例である。
Next, FIG. 11 shows an operation example of the medical
FIG. 11 is an example of a GUI showing a
表示制御機能117により処理回路11は、候補領域72をGUI上に表示する。候補領域72は、モデル候補701とユーザが当該モデル候補701を所有しているか否かを示す所有フラグ705とを対応付けて表示する。モデル候補に自身が所有していないモデル(以下、未所持モデル721という)は、所有フラグ705を「×」として表示させる。未所持モデル721は、図10のように、アイコンを破線で表示してもよいし、色を薄く表示してもよいし、マークを付けるなどしてもよい。すなわち、自身が所有しているモデルと区別して表示される態様で未所持モデル721が表示されればよい。
The
さらに、表示制御機能117により処理回路11は、未所持モデル721を購入するための購入ボタン723を表示してもよい。ユーザは、購入ボタン723にカーソル68を合わせクリックすることで、モデルおよび金額の確認画面(図示せず)を表示させ、さらに確認ボタンを押下すれば未所持モデル721を購入可能とする。未所持モデル721の購入方法は、例えばクラウドサーバ3に、多数の学習済みモデル、ルールモデルおよびコネクタを格納しておき、ユーザが利用する医用画像処理装置10からクラウドサーバ3にアクセスして未所持モデル721を購入可能とすればよい。
Furthermore, the
また、ユーザが作成した学習済みモデル、ルールモデルおよびコネクタをクラウドサーバ3に登録できるようにし、登録したモデルを第三者に販売できるようにしてもよい。
In addition, it is also possible to allow users to register learned models, rule models and connectors created by users in the
以上に示した第4の実施形態によれば、クラウドサーバに学習用データおよび各種モデルを格納し、ユーザが各種モデルをクラウドサーバから購入及び販売できることで、ユーザビリティを向上させることができる。 According to the fourth embodiment described above, learning data and various models are stored in the cloud server, and the user can purchase and sell various models from the cloud server, thereby improving usability.
本実施形態に係る処理回路11は、例えば、ハードウェア資源として、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサとROM(Read Only Memory)やRAM(Random Access Memory)等のメモリとを含む。また処理回路11は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)やフィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array:FPGA)、他の複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)により実現されてもよい。処理回路11は、メモリに展開されたプログラムを実行するプロセッサにより、モデル取得機能111、処理分割機能113、学習機能115、表示制御機能117およびモデル選択機能119を実行する。なお、各機能(モデル取得機能111、処理分割機能113、学習機能115、表示制御機能117およびモデル選択機能119)は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路11を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。
The
なお、上述した実施形態に係る各機能は、当該処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(ハードディスクなど)、光ディスク(CD-ROM、DVD、Blu-ray(登録商標)ディスクなど)、半導体メモリなどの記憶媒体に格納して頒布することも可能である。 Note that each function according to the above-described embodiment can also be realized by installing a program for executing the processing in a computer such as a workstation and deploying them on the memory. At this time, a program that can cause a computer to execute the method is stored in a storage medium such as a magnetic disk (hard disk, etc.), an optical disk (CD-ROM, DVD, Blu-ray (registered trademark) disk, etc.), a semiconductor memory, etc. It is also possible to distribute
上述の第1の実施形態から第3の実施形態に係る医用画像処理装置および第4の実施形態に係る医用画像処理システムによれば、ユーザビリティを向上させることができる。 According to the medical image processing apparatuses according to the first to third embodiments and the medical image processing system according to the fourth embodiment, usability can be improved.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.
1 医用画像診断システム
3 クラウドサーバ
5 ネットワーク
10 医用画像処理装置
11 処理回路
12 データ格納部
13 通信インタフェース
20 学習済みモデル
21,23,25 入力データ
22 出力データ
24,26 再学習済みモデル
40 目的処理
41,43,45,511,531,601 学習済みモデル
51,53 細分化候補
52,54,513,533 付帯情報
60 作業領域
62 AIモデルリスト
64 ルールベースリスト
66 コネクタリスト
68 カーソル
70,72 候補領域
80 検索ウィンドウ
111 モデル取得機能
113 処理分割機能
115 学習機能
117 表示制御機能
119 モデル選択機能
640 ルールモデル
660 コネクタ
701 モデル候補
703 必要コネクタ
705 所有フラグ
721 未所持モデル
723 購入ボタン
6011 説明ブロック
6013 入力端子
6015 出力端子
1 Medical
Claims (10)
前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する学習部と、
を具備する医用画像処理装置。 an acquisition unit that acquires a first trained model trained using the input data and the output data;
Re-learning the first trained model using preprocessed preprocessed data and the output data, and second learning in which processing corresponding to the preprocessing is removed from the first trained model a learning unit that generates a trained model;
A medical image processing apparatus comprising:
前記第2学習済みモデルは、前記第2学習済みモデルの処理内容および入出力に関する付帯情報が付帯され、
前記選択部は、前記付帯情報に基づき、目的処理を達成するための第2学習済みモデルの組合せを選択する、請求項1に記載の医用画像処理装置。 further comprising a selection unit,
the second trained model is accompanied by supplementary information regarding the processing content and input/output of the second trained model;
2. The medical image processing apparatus according to claim 1, wherein said selection unit selects a combination of second trained models for achieving target processing based on said supplementary information.
前記アイコンは、前記第2学習済みモデルの処理内容を記載したブロックと、前記ブロックの一端に接続され、入力データを表現した記号と、前記ブロックの他端に接続され、出力データを表現した記号とを含む、請求項6に記載の医用画像処理装置。 the second trained model and the rule model are displayed as icons;
The icon includes a block describing the processing details of the second trained model, a symbol connected to one end of the block representing input data, and a symbol connected to the other end of the block representing output data. The medical image processing apparatus according to claim 6, comprising:
前記サーバは、
入力データおよび出力データを用いて学習した第1学習済みモデルを取得する取得部と、
前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する学習部と、
前記入力データ、前記出力データ、前記前処理データおよび前記第2学習済みモデルを含む複数の学習済みモデルを格納する格納部と、
を具備し、
前記1以上の医用画像処理装置はそれぞれ、
前記複数の学習済みモデルに関する第1リストと、前記第1リストから選択された学習済みモデルの組合せ作業を行う作業領域と、を表示するGUI(Graphical User Interface)を制御する表示制御部を具備する、医用画像処理システム。 A medical image processing system including one or more medical image processing apparatuses and a server,
The server is
an acquisition unit that acquires a first trained model trained using the input data and the output data;
Re-learning the first trained model using preprocessed preprocessed data and the output data, and second learning in which processing corresponding to the preprocessing is removed from the first trained model a learning unit that generates a trained model;
a storage unit that stores a plurality of trained models including the input data, the output data, the preprocessed data, and the second trained model;
and
Each of the one or more medical image processing devices
a display control unit for controlling a GUI (Graphical User Interface) that displays a first list relating to the plurality of trained models and a work area for combining trained models selected from the first list; , medical imaging systems.
入力データおよび出力データを用いて学習した第1学習済みモデルを取得する取得機能と、
前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する学習機能と、を実現させる医用画像処理プログラム。 to the computer,
an acquisition function for acquiring a first trained model trained using input data and output data;
Re-learning the first trained model using preprocessed preprocessed data and the output data, and second learning in which processing corresponding to the preprocessing is removed from the first trained model A medical image processing program that realizes a learning function that generates a finished model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018237696A JP7163168B2 (en) | 2018-12-19 | 2018-12-19 | Medical image processing device, system and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018237696A JP7163168B2 (en) | 2018-12-19 | 2018-12-19 | Medical image processing device, system and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020101860A JP2020101860A (en) | 2020-07-02 |
JP7163168B2 true JP7163168B2 (en) | 2022-10-31 |
Family
ID=71141238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018237696A Active JP7163168B2 (en) | 2018-12-19 | 2018-12-19 | Medical image processing device, system and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7163168B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6914562B1 (en) * | 2020-07-08 | 2021-08-04 | 株式会社ヒューマノーム研究所 | Information processing system |
JP7224589B1 (en) * | 2022-03-18 | 2023-02-20 | AI inside株式会社 | Program, information processing device, information processing system, information processing method |
CN117396897A (en) | 2022-05-11 | 2024-01-12 | 艾佐斯株式会社 | Joint learner forming device, joint learner forming program, and non-transitory recording medium storing joint learner forming program |
WO2024176288A1 (en) * | 2023-02-20 | 2024-08-29 | 株式会社日立ハイテク | Model generation system and model generation method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017519282A (en) | 2014-05-12 | 2017-07-13 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Distributed model learning |
WO2018024555A1 (en) | 2016-08-02 | 2018-02-08 | Koninklijke Philips N.V. | Robust pulmonary lobe segmentation |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09147099A (en) * | 1995-11-24 | 1997-06-06 | Hitachi Ltd | Gradation conversion processing system for digital image |
-
2018
- 2018-12-19 JP JP2018237696A patent/JP7163168B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017519282A (en) | 2014-05-12 | 2017-07-13 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Distributed model learning |
WO2018024555A1 (en) | 2016-08-02 | 2018-02-08 | Koninklijke Philips N.V. | Robust pulmonary lobe segmentation |
JP2019522299A (en) | 2016-08-02 | 2019-08-08 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Robust lung lobe segmentation |
Non-Patent Citations (1)
Title |
---|
鈴木 藍雅 外3名,2段階転移学習を用いた深層畳み込みニューラルネットによるびまん性肺疾患の識別と特徴表現の解析,情報処理学会 研究報告 数理モデル化と問題解決(MPS) 2018-MPS-117 [online] ,日本,情報処理学会,2018年02月22日,pp.1-6 |
Also Published As
Publication number | Publication date |
---|---|
JP2020101860A (en) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7163168B2 (en) | Medical image processing device, system and program | |
US10025479B2 (en) | Advanced medical image processing wizard | |
JP5336370B2 (en) | An image context-dependent application related to anatomical structures for efficient diagnosis | |
US11164314B2 (en) | Systems and methods for lesion analysis | |
US20210319879A1 (en) | Method and system for computer aided detection of abnormalities in image data | |
US20180157928A1 (en) | Image analytics platform for medical data using expert knowledge models | |
US11229377B2 (en) | System and method for next-generation MRI spine evaluation | |
US10188361B2 (en) | System for synthetic display of multi-modality data | |
JP2020185374A (en) | Method for aiding visualization of lesions in medical image and apparatus using the same | |
JP6646395B2 (en) | Information processing apparatus and method, information processing system, computer program | |
JP2012045387A (en) | System and method for analyzing and visualizing local clinical feature | |
WO2018097882A1 (en) | System and method for rendering complex data in a virtual reality or augmented reality environment | |
JP6824845B2 (en) | Image processing systems, equipment, methods and programs | |
US9361711B2 (en) | Lesion-type specific reconstruction and display of digital breast tomosynthesis volumes | |
CN111223556A (en) | Integrated medical image visualization and exploration | |
Moreira et al. | 3D markup of radiological images in ePAD, a web-based image annotation tool | |
JP3989896B2 (en) | Medical image processing apparatus, region of interest extraction method, and program | |
Tang et al. | Lesion segmentation and RECIST diameter prediction via click-driven attention and dual-path connection | |
Alam et al. | Image data augmentation for improving performance of deep learning-based model in pathological lung segmentation | |
US10324582B2 (en) | Medical image display apparatus, method for controlling the same | |
JP2006075216A (en) | Medical image processing system, program and method | |
US20240087304A1 (en) | System for medical data analysis | |
US20230334663A1 (en) | Development of medical imaging ai analysis algorithms leveraging image segmentation | |
Lehmann et al. | Strategies to configure image analysis algorithms for clinical usage | |
US20160004819A1 (en) | Apparatus for staging of patients from medical image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7163168 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |