JP2019200558A - Image processing device and inspection system - Google Patents

Image processing device and inspection system Download PDF

Info

Publication number
JP2019200558A
JP2019200558A JP2018094258A JP2018094258A JP2019200558A JP 2019200558 A JP2019200558 A JP 2019200558A JP 2018094258 A JP2018094258 A JP 2018094258A JP 2018094258 A JP2018094258 A JP 2018094258A JP 2019200558 A JP2019200558 A JP 2019200558A
Authority
JP
Japan
Prior art keywords
image
display
annotation
inspection
artificial intelligence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018094258A
Other languages
Japanese (ja)
Other versions
JP7235272B2 (en
Inventor
伊東 大輔
Daisuke Ito
大輔 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AD-DICE KK
Original Assignee
AD-DICE KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AD-DICE KK filed Critical AD-DICE KK
Priority to JP2018094258A priority Critical patent/JP7235272B2/en
Publication of JP2019200558A publication Critical patent/JP2019200558A/en
Application granted granted Critical
Publication of JP7235272B2 publication Critical patent/JP7235272B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an image processing device capable of easily generating learning data.SOLUTION: An image processing device for generating learning data which causes an artificial intelligence program to perform machine learning, the artificial intelligence program autonomously determining whether or not a feature corresponding to a feature of a target exists in an inspection target. The image processing device includes an annotation applying unit that selects, as the feature of the target, an arbitrary portion of the target in a target model image obtained by taking in the target as an image, and applies an annotation to the portion. The annotation applying unit applies an annotation to the target model image, whereby learning data is generated from the target model image.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置及び検査システム、特に、対象物の特徴と一致する特徴が検査対象物に存在するか否かを自律的に判断する人工知能プログラムに機械学習をさせる学習データを生成する画像処理装置、及び対象物の特徴と一致する特徴が検査対象物に存在するか否かを判断して検査対象物を検査する検査システムに関する。   The present invention generates learning data that causes machine learning to be performed by an artificial intelligence program that autonomously determines whether or not a feature that matches the feature of an object exists in the image processing device and the inspection system. The present invention relates to an image processing apparatus and an inspection system that inspects an inspection object by determining whether or not a characteristic that matches the characteristic of the object exists in the inspection object.

ソフトウェアによって画像処理を行う場合は、処理を行う領域を選択する作業が必要となる。例えば、特許文献1では、画像表示手段に表示された画像データ上の任意の位置を選択する選択手段を備えた画像表示装置が提案されている。   When image processing is performed by software, it is necessary to select an area for processing. For example, Patent Document 1 proposes an image display device including a selection unit that selects an arbitrary position on image data displayed on an image display unit.

この種の画像表示装置では、ユーザが画像データ上の任意の位置を選択する際のユーザインターフェースとして、例えば、処理を行う領域を輪郭で囲むいわゆる投げ縄表示とも称される手法が採用されることがある。   In this type of image display device, as a user interface when the user selects an arbitrary position on the image data, for example, a so-called lasso display method that surrounds the area to be processed with an outline is adopted. There is.

特開平11−306374公報JP-A-11-306374

ところで、人工知能技術を用いて、対象物の特徴を学習させ、その特徴に基づいた対象物の選別を行わせるような場合は、例えば、対象物の画像データを用いて人工知能プログラムに対象物の特徴を学習させる必要がある。   By the way, when learning the characteristics of an object using artificial intelligence technology and selecting an object based on the characteristics, for example, the artificial intelligence program uses the image data of the object. It is necessary to learn the characteristics of

このように、対象物の画像データを用いて人工知能プログラムに対象物の特徴を学習させる場合は、画像データに表示される対象物の特徴のある部分を画像データ上において選択する必要がある。   As described above, when the artificial intelligence program learns the feature of the target object using the image data of the target object, it is necessary to select a part having the feature of the target object displayed in the image data on the image data.

一方で、人工知能プログラムに対象物の特徴を学習させる場合は、一般に、大量の画像データが必要となることから、画像データに表示される対象物の特徴のある部分を選択する作業が煩雑になることが想定される。   On the other hand, in order to make the artificial intelligence program learn the characteristics of the target object, in general, a large amount of image data is required. Therefore, the task of selecting the characteristic part of the target object displayed in the image data is complicated. It is assumed that

本発明は、上記事情に鑑みてなされたものであり、画像データを用いて人工知能プログラムに対象物の特徴を学習させる際に画像データ上において対象物の特徴のある部分を簡易に選択して学習データを生成することができる画像処理装置、及び画像処理装置で生成された学習データに基づいて効率的に機械学習を行うことができる人工知能プログラムを具備した検査システムを提供することを課題とするものである。   The present invention has been made in view of the above circumstances, and when an artificial intelligence program learns the characteristics of an object using image data, a portion having the characteristics of the object is easily selected on the image data. An object is to provide an image processing apparatus capable of generating learning data, and an inspection system including an artificial intelligence program capable of efficiently performing machine learning based on learning data generated by the image processing apparatus. To do.

上記課題を解決するための画像処理装置は、対象物の特徴と一致する特徴が検査対象物に存在するか否かを自律的に判断する人工知能プログラムに機械学習をさせる学習データを生成する画像処理装置において、対象物が画像として取り込まれた対象物モデル画像における対象物の任意の部分を対象物の特徴として選択してアノテーションを付与するアノテーション付与部を備え、アノテーション付与部で対象物モデル画像にアノテーションが付与されることによって対象物モデル画像から学習データが生成されることを特徴としている。   An image processing apparatus for solving the above-described problem is an image that generates learning data that causes an artificial intelligence program that autonomously determines whether or not a feature that matches the feature of an object exists in the inspection object to perform machine learning The processing apparatus includes an annotation adding unit that selects an arbitrary part of the target in the target model image in which the target is captured as an image as a feature of the target and adds an annotation. It is characterized in that learning data is generated from the object model image by giving an annotation to the object model image.

この画像処理装置によれば、アノテーションを付与するという簡易な操作によって、人工知能プログラムに大量に入力される対象物モデル画像に画像として取り込まれた対象物の任意の部分を、対象物の特徴として選択することができる。   According to this image processing apparatus, an arbitrary part of an object captured as an image in an object model image input in a large amount to an artificial intelligence program by a simple operation of giving an annotation as a feature of the object You can choose.

しかも、対象物モデル画像にアノテーションを付与することによって、対象物モデル画像を学習データとすることができることから、アノテーションを付与するという簡易な操作によって、学習データを容易に生成することができる。   Moreover, since the object model image can be used as learning data by giving an annotation to the object model image, the learning data can be easily generated by a simple operation of adding the annotation.

上記課題を解決するための検査システムは、対象物の特徴と一致する特徴が検査対象物に存在するか否かを判断して検査対象物を検査する検査システムにおいて、対象物が画像として取り込まれた対象物モデル画像を表示する表示部と、表示部に表示された対象物モデル画像に画像として取り込まれた対象物の任意の部分を対象物の特徴として選択してアノテーションを付与するアノテーション付与部と、アノテーション付与部で対象物モデル画像にアノテーションが付与されることによって対象物モデル画像から生成された学習データにより機械学習をさせた学習済みモデルに基づいて学習済みモデルとして学習された対象物の特徴と一致する特徴が検査対象物に存在するか否かを自律的に判断して検査対象物を検査する人工知能プログラムと、を備えることを特徴としている。   An inspection system for solving the above-described problem is an inspection system for inspecting an inspection object by determining whether or not the inspection object has a feature that matches the feature of the object. A display unit for displaying the target object model image, and an annotation adding unit for selecting an arbitrary part of the target object captured as an image in the target object model image displayed on the display unit as a feature of the target object and giving an annotation And an object that has been learned as a learned model based on a learned model that has been machine-learned by learning data generated from the object model image by annotating the object model image by the annotation assigning unit. Artificial intelligence program that inspects the inspection object by autonomously judging whether the inspection object has a feature that matches the feature It is characterized in that it comprises, when.

この検査システムによれば、アノテーションを対象物モデル画像に付与するという簡易な操作で学習データを容易に生成することができることから、人工知能プログラムが効率的に機械学習を行うことができる。したがって、検査対象物の検査を行う際の作業性を向上させることができる。   According to this inspection system, since the learning data can be easily generated by a simple operation of adding an annotation to the object model image, the artificial intelligence program can efficiently perform machine learning. Therefore, the workability at the time of inspecting the inspection object can be improved.

さらに、この検査システムでは、予め設定された表示基準に基づいて人工知能プログラムによる検査対象物の検査の結果が表示部に表示され、表示基準を変更して変更した表示基準に対応した検査対象物の検査の結果を表示部に表示させる表示基準変更部を備えることを特徴としている。   Further, in this inspection system, the inspection result of the inspection object by the artificial intelligence program is displayed on the display unit based on the preset display standard, and the inspection object corresponding to the display standard changed by changing the display standard It is characterized by including a display reference changing unit for displaying the result of the inspection on the display unit.

このように、予め設定された表示基準を表示基準変更部で変更することができることから、所望の表示基準で検査対象物の検査の結果を表示部に表示させることができる。   In this way, since the preset display standard can be changed by the display standard changing unit, the inspection result of the inspection object can be displayed on the display unit using the desired display standard.

しかも、この検査システムの表示基準変更部は、表示基準の上限及び下限が互いに独立して設定可能に形成されていることを特徴としていることから、表示基準を変更する際の操作性が向上する。   In addition, the display standard changing unit of the inspection system is characterized in that the upper and lower limits of the display standard can be set independently of each other, so that the operability when changing the display standard is improved. .

この発明によると、対象物モデル画像にアノテーションを付与するという簡易な操作によって、学習データを容易に生成することができる。さらに、人工知能プログラムが効率的に機械学習を行うことができる。   According to the present invention, learning data can be easily generated by a simple operation of giving an annotation to an object model image. Furthermore, the artificial intelligence program can perform machine learning efficiently.

本発明の実施の形態に係る検査システムで用いる対象物及び検査対象物の概略を説明する図である。It is a figure explaining the outline of the target object and inspection object used with the inspection system concerning an embodiment of the invention. 本発明の実施の形態に係る検査システムの概略を説明するブロック図である。It is a block diagram explaining the outline of the inspection system concerning an embodiment of the invention. 同じく、本実施の形態に係る対象物モデル画像の概略及びアノテーション付与部における処理の概略を説明する図である。Similarly, it is a figure explaining the outline of the object model image which concerns on this Embodiment, and the outline of the process in an annotation provision part. 同じく、本実施の形態に係る人工知能プログラムの処理の概略を説明するブロック図である。Similarly, it is a block diagram explaining the outline of the process of the artificial intelligence program which concerns on this Embodiment. 同じく、本実施の形態に係る表示基準変更部の処理の概略を説明する図である。Similarly, it is a figure explaining the outline of a process of the display reference change part which concerns on this Embodiment. 同じく、本実施の形態に係る表示基準変更部の処理の概略を説明する図である。Similarly, it is a figure explaining the outline of a process of the display reference change part which concerns on this Embodiment.

次に、本発明の実施の形態について、図1〜図6に基づいて説明する。   Next, an embodiment of the present invention will be described with reference to FIGS.

本実施の形態に係る検査システムの概略の説明に先立って、まず、本実施の形態に係る検査システムで用いる対象物及び検査対象物の概略を説明する。   Prior to the description of the outline of the inspection system according to the present embodiment, first, the outline of the object used in the inspection system according to the present embodiment and the inspection object will be described.

図1(a)は、対象物の概略を説明する図、図1(b)は、検査対象物の概略を説明する図である。図1(a)で示すように、対象物W1は、本実施の形態では人体から採取した組織T1であって、この組織T1をプレパラートによって病理標本としたものが画像として取り込まれることによって、対象物モデル画像D1が構成される。   FIG. 1A is a diagram illustrating an outline of an object, and FIG. 1B is a diagram illustrating an outline of an inspection object. As shown in FIG. 1 (a), the object W1 is a tissue T1 collected from a human body in the present embodiment, and this tissue T1 obtained as a pathological specimen by preparation is captured as an image. An object model image D1 is constructed.

この対象物モデル画像D1は、複数の人体から採取した複数の組織T1に基づいて、複数の画像データとして予め大量に生成されている。   A large amount of the object model image D1 is generated in advance as a plurality of image data based on a plurality of tissues T1 collected from a plurality of human bodies.

この対象物モデル画像D1に画像として取り込まれた病理標本の組織T1には、本実施の形態では、正常な細胞ではない異常細胞Cが組織T1の特徴として複数存在している。   In the tissue T1 of the pathological specimen captured as an image in the object model image D1, in the present embodiment, there are a plurality of abnormal cells C that are not normal cells as features of the tissue T1.

一方、図1(b)で示すように、検査対象物W2は、本実施の形態では人体から採取した組織T2であって、この組織T2をプレパラートによって病理標本としたものが画像として取り込まれることによって、検査対象物画像D5が構成される。   On the other hand, as shown in FIG. 1 (b), the inspection object W2 is a tissue T2 collected from a human body in the present embodiment, and the tissue T2 prepared as a pathological specimen by a preparation is captured as an image. Thus, the inspection object image D5 is formed.

この検査対象物画像D5に画像として取り込まれた組織T2が、検査システムによる検査の対象となるものであって、例えば、がん診断を行う際に、診断を受ける者の患部から採取した組織によって、組織T2が構成される。   The tissue T2 captured as an image in the inspection object image D5 is an inspection target by the inspection system. For example, when a cancer diagnosis is performed, the tissue T2 is extracted from the affected part of the person receiving the diagnosis. The organization T2 is configured.

本実施の形態では、検査対象物画像D5に画像として取り込まれた病理標本の組織T2に、正常な細胞ではない異常細胞Cが組織T2の特徴として複数存在している。   In the present embodiment, a plurality of abnormal cells C that are not normal cells exist as features of the tissue T2 in the tissue T2 of the pathological specimen captured as an image in the inspection object image D5.

次に、本実施の形態に係る検査システムの概略を説明する。   Next, an outline of the inspection system according to the present embodiment will be described.

図2は、本実施の形態に係る検査システムの概略を説明するブロック図である。図示のように、検査システム1は、コンピュータ10、コンピュータ10と接続されるスキャナ11、及びコンピュータ10と接続される表示部であるディスプレイ12を備える。   FIG. 2 is a block diagram for explaining the outline of the inspection system according to the present embodiment. As illustrated, the inspection system 1 includes a computer 10, a scanner 11 connected to the computer 10, and a display 12 that is a display unit connected to the computer 10.

コンピュータ10は、後述するスキャナ11を介して対象物モデル画像D1が入力される画像処理装置20、画像処理装置20と接続される人工知能プログラム21、及び人工知能プログラム21と画像処理装置20とが接続されるディスプレイ機能設定部22を備える。   The computer 10 includes an image processing device 20 to which an object model image D1 is input via a scanner 11 described later, an artificial intelligence program 21 connected to the image processing device 20, and an artificial intelligence program 21 and the image processing device 20. A display function setting unit 22 to be connected is provided.

画像処理装置20は、本実施の形態では、対象物モデル画像D1を取得してこの対象物モデル画像D1を人工知能プログラム21及びディスプレイ機能設定部22に出力する画像取得部20aを備える。   In the present embodiment, the image processing apparatus 20 includes an image acquisition unit 20a that acquires the object model image D1 and outputs the object model image D1 to the artificial intelligence program 21 and the display function setting unit 22.

画像取得部20aで取得してディスプレイ機能設定部22に出力された対象物モデル画像D1は、本実施の形態ではディスプレイ12に表示される。   The object model image D1 acquired by the image acquisition unit 20a and output to the display function setting unit 22 is displayed on the display 12 in the present embodiment.

さらに、画像処理装置20は、対象物モデル画像D1に画像として予め取り込まれた画像データにおける対象物の任意の部分を対象物の特徴として選択してアノテーションを付与するプログラムであるアノテーション付与部20bを備える。   Furthermore, the image processing apparatus 20 selects an annotation adding unit 20b which is a program for selecting an arbitrary part of the target in the image data captured in advance as an image in the target model image D1 as a feature of the target and giving an annotation. Prepare.

このアノテーション付与部20bは、画像取得部20aから人工知能プログラム21に出力された対象物モデル画像D1にアノテーションを付与するとともに、画像取得部20aで取得してディスプレイ機能設定部22に出力されてディスプレイ12に表示される対象物モデル画像D1にアノテーションを表示する。   The annotation giving unit 20b gives an annotation to the object model image D1 output from the image acquisition unit 20a to the artificial intelligence program 21, and is acquired by the image acquisition unit 20a and output to the display function setting unit 22 for display. An annotation is displayed on the object model image D1 displayed on the screen.

図3は、アノテーション付与部20bにおける処理の概略を説明する図である。本実施の形態では、図示のように、対象物モデル画像D1に画像として取り込まれた病理標本の組織T1の特徴として存在する複数の異常細胞Cの全てががん細胞であると判断されて、アノテーション付与部20bによってアノテーションD2が付与される。   FIG. 3 is a diagram for explaining the outline of processing in the annotation assigning unit 20b. In the present embodiment, as shown in the figure, it is determined that all of the plurality of abnormal cells C present as features of the tissue T1 of the pathological specimen captured as an image in the object model image D1 are cancer cells, Annotation D2 is assigned by the annotation assignment unit 20b.

アノテーションD2の付与は、画像取得部20a及びディスプレイ機能設定部22を介してディスプレイ12に表示される対象物モデル画像D1が観察されながら、画像取得部20aから人口知能プログラム21に出力された対象物モデル画像D1に、例えばマウスやポインティングデバイスといった外部入力機器が操作されることによって付与される。   The annotation D2 is assigned to the object output from the image acquisition unit 20a to the artificial intelligence program 21 while the object model image D1 displayed on the display 12 is observed via the image acquisition unit 20a and the display function setting unit 22. The model image D1 is given by operating an external input device such as a mouse or a pointing device.

アノテーションD2を付与する際には、図示しない重みづけのコマンドを選択することによって、付与するアノテーションD2に重みづけを行うことができる。   When the annotation D2 is given, the annotation D2 to be given can be weighted by selecting a weighting command (not shown).

人工知能プログラム21は、スキャナ11を介して入力される検査対象物画像D5における組織T2を検査するプログラムである。   The artificial intelligence program 21 is a program for inspecting the tissue T2 in the inspection object image D5 input through the scanner 11.

図4は、人工知能プログラム21の処理の概略を説明するブロック図である。図示のように、人工知能プログラム21では、対象物モデル画像D1における組織T1の特徴として存在する複数の異常細胞CにアノテーションD2が付与されることによって、対象物モデル画像D1から学習データD3が生成される。   FIG. 4 is a block diagram for explaining the outline of the process of the artificial intelligence program 21. As shown in the figure, the artificial intelligence program 21 generates learning data D3 from the object model image D1 by giving annotations D2 to a plurality of abnormal cells C existing as features of the tissue T1 in the object model image D1. Is done.

さらに、人工知能プログラム21は、生成した学習データD3で機械学習をすることによって、学習済みモデルD4を生成する。   Further, the artificial intelligence program 21 generates a learned model D4 by performing machine learning with the generated learning data D3.

機械学習を行う手法としては、ニューラルネットワーク、ランダムフォレスト、SVM(support vector machine)等、各種のアルゴリズムが適宜用いられる。   As a method for performing machine learning, various algorithms such as a neural network, a random forest, and an SVM (support vector machine) are appropriately used.

このように、人工知能プログラム21は、学習済みモデルD4に基づいて、学習済みモデルD4として学習された対象物モデル画像D1における組織T1の複数の異常細胞Cと一致する異常細胞Cが、検査対象物画像D5における組織T2に存在するか否かを自律的に判断して、組織T2を検査する。   As described above, the artificial intelligence program 21 detects, based on the learned model D4, abnormal cells C that match the plurality of abnormal cells C in the tissue T1 in the object model image D1 learned as the learned model D4. Whether or not the object image D5 exists in the tissue T2 is autonomously determined, and the tissue T2 is inspected.

ディスプレイ機能設定部22は、図2で示すように、画像取得部20a及び人工知能プログラム21に接続されてディスプレイ12に接続する出力部22a、出力部22aに接続する表示基準設定部22b、及びこの表示基準設定部22bに接続する表示基準変更部22cを備える。   As shown in FIG. 2, the display function setting unit 22 is connected to the image acquisition unit 20a and the artificial intelligence program 21 and connected to the display 12, the display unit setting unit 22b connected to the output unit 22a, and the display reference setting unit 22b. A display reference changing unit 22c connected to the display reference setting unit 22b is provided.

出力部22aは、画像処理装置20の画像取得部20aから出力された対象物モデル画像D1をディスプレイ12に出力して、対象物モデル画像D1をディスプレイ12に表示させる。   The output unit 22a outputs the object model image D1 output from the image acquisition unit 20a of the image processing device 20 to the display 12, and displays the object model image D1 on the display 12.

さらに出力部22aは、人工知能プログラム21による組織T2の検査の結果を結果データとしてディスプレイ12に出力して、結果データをディスプレイ12に表示させる。   Further, the output unit 22a outputs the result of the examination of the tissue T2 by the artificial intelligence program 21 to the display 12 as result data, and causes the display 12 to display the result data.

表示基準設定部22bには、人工知能プログラム21による組織T2の検査の結果を結果データとしてディスプレイ12に表示する際の表示基準が予め設定されている。   In the display reference setting unit 22b, a display reference for displaying the result of the examination of the tissue T2 by the artificial intelligence program 21 on the display 12 as result data is set in advance.

この表示基準は、例えば、対象物モデル画像D1における組織T1の複数の異常細胞Cと一致する異常細胞Cが検査対象物画像D5における組織T2に存在する割合に基づいて定められる。   This display standard is determined based on, for example, the ratio of abnormal cells C that match the plurality of abnormal cells C in the tissue T1 in the object model image D1 in the tissue T2 in the inspection object image D5.

例えば、組織T1の複数の異常細胞Cと一致する異常細胞Cが検査対象物画像D5における組織T2に存在する割合が60%と定められているのであれば、60%の割合で一致する人工知能プログラム21による組織T2の検査の結果を結果データとしてディスプレイ12に表示する。   For example, if the proportion of abnormal cells C that match a plurality of abnormal cells C in the tissue T1 in the tissue T2 in the inspection object image D5 is determined to be 60%, the artificial intelligence that matches at a rate of 60% The result of the examination of the tissue T2 by the program 21 is displayed on the display 12 as result data.

この場合、結果データには、対象物モデル画像D1における組織T1においてがん細胞であると判断されてアノテーションD2が付与された異常細胞Cと60%の割合で一致すると判断された、検査対象物画像D5における組織T2に存在する異常細胞Cにマーカが付与される。   In this case, in the result data, the test object that has been determined to be a cancer cell in the tissue T1 in the object model image D1 and matched with the abnormal cell C to which the annotation D2 has been given, at a rate of 60%. A marker is added to the abnormal cell C present in the tissue T2 in the image D5.

図5及び図6は、表示基準変更部22cの処理の概略を説明する図である。この表示基準変更部22cは、表示基準設定部22bに設定された表示基準を変更するものである。   5 and 6 are diagrams for explaining the outline of the processing of the display reference changing unit 22c. The display reference changing unit 22c changes the display reference set in the display reference setting unit 22b.

図示のように、表示基準変更部22cは、組織T1の複数の異常細胞Cと組織T2の異常細胞Cとの一致の割合の下限を設定するMinスライダ22ca、及びMinスライダ22caと独立して組織T1の複数の異常細胞Cと組織T2の異常細胞Cとの一致の割合の上限を設定するMaxスライダ22cbを備える。   As shown in the figure, the display reference changing unit 22c is independent of the Min slider 22ca and the Min slider 22ca that set the lower limit of the matching ratio between the abnormal cells C of the tissue T1 and the abnormal cells C of the tissue T2. A Max slider 22cb is provided for setting an upper limit of the rate of coincidence between the plurality of abnormal cells C in T1 and the abnormal cells C in the tissue T2.

この表示基準変更部22cは、結果データD6とともにディスプレイ12に表示され、図5で示すように、Minスライダ22caが80%に設定され、Maxスライダ22cbが100%に設定されている場合には、80%以上の割合で一致する人工知能プログラム21による組織T2の検査の結果が結果データD6としてディスプレイ12に表示される。   This display reference changing unit 22c is displayed on the display 12 together with the result data D6. As shown in FIG. 5, when the Min slider 22ca is set to 80% and the Max slider 22cb is set to 100%, The result of the examination of the tissue T2 by the artificial intelligence program 21 that matches at a rate of 80% or more is displayed on the display 12 as result data D6.

すなわち、対象物モデル画像D1における組織T1においてがん細胞であると判断されてアノテーションD2が付与された異常細胞Cと80%以上の割合で一致する異常細胞Cが、検査対象物画像D5における組織T2に存在すると判断されたこととなり、検査対象物画像D5における組織T2に存在する異常細胞Cに、マーカMが付与されている。   That is, an abnormal cell C that is determined to be a cancer cell in the tissue T1 in the object model image D1 and is annotated with the annotation D2 at a rate of 80% or more is a tissue in the inspection object image D5. It is determined that it exists in T2, and the marker M is given to the abnormal cell C existing in the tissue T2 in the inspection object image D5.

一方、図6で示すように、Minスライダ22caが60%に設定され、Maxスライダ22cbが80%に設定されている場合には、60%〜80%の割合で一致する人工知能プログラム21による組織T2の検査の結果が結果データD6としてディスプレイ12に表示される。   On the other hand, as shown in FIG. 6, when the Min slider 22ca is set to 60% and the Max slider 22cb is set to 80%, the organization by the artificial intelligence program 21 that matches at a rate of 60% to 80%. The result of the inspection at T2 is displayed on the display 12 as result data D6.

すなわち、対象物モデル画像D1における組織T1においてがん細胞であると判断されてアノテーションD2が付与された異常細胞Cと60%〜80%の割合で一致する異常細胞Cが、検査対象物画像D5における組織T2に存在すると判断されたこととなり、検査対象物画像D5における組織T2に存在する異常細胞Cに、マーカMが付与されている。   That is, the abnormal cell C that is determined to be a cancer cell in the tissue T1 in the target object model image D1 and is annotated with the annotation D2 at a rate of 60% to 80% is the inspection target image D5. The marker M is given to the abnormal cell C existing in the tissue T2 in the inspection object image D5.

このように、表示基準変更部22cでは、予め設定された表示基準を変更することによって、組織T1の複数の異常細胞Cと組織T2の異常細胞Cとの一致の割合を所望の割合に変更して、変更した一致の割合に対応した結果データD6をディスプレイ12に表示させることができる。   In this way, the display reference changing unit 22c changes the matching ratio between the plurality of abnormal cells C in the tissue T1 and the abnormal cells C in the tissue T2 to a desired ratio by changing a preset display reference. As a result, the result data D6 corresponding to the changed percentage of matching can be displayed on the display 12.

スキャナ11は、本実施の形態では、対象物モデル画像D1を取り込んで画像処理装置20に出力するとともに、検査対象物画像D5を取り込んで人工知能プログラム21に出力する。   In the present embodiment, the scanner 11 captures the object model image D1 and outputs it to the image processing apparatus 20, and also captures the inspection object image D5 and outputs it to the artificial intelligence program 21.

ディスプレイ12は、本実施の形態では、画像処理装置20の画像取得部20aから出力された対象物モデル画像D1を表示するとともに、人工知能プログラム21による検査対象物画像D5における組織T2の検査の結果を結果データD6として表示する。   In the present embodiment, the display 12 displays the object model image D1 output from the image acquisition unit 20a of the image processing device 20, and the result of the examination of the tissue T2 in the examination object image D5 by the artificial intelligence program 21. Is displayed as result data D6.

次に、本実施の形態に係る検査システム1の運用について説明する。   Next, the operation of the inspection system 1 according to the present embodiment will be described.

ユーザは、まず、複数の対象物モデル画像D1をスキャナ11で取り込んで、取り込んだ複数の対象物モデル画像D1を画像処理装置20に出力させる。   First, the user captures a plurality of object model images D1 with the scanner 11, and causes the image processing apparatus 20 to output the captured object model images D1.

画像処理装置20に出力させた複数の対象物モデル画像D1は、ディスプレイ機能設定部22に出力されてディスプレイ12に表示されるとともに、人工知能プログラム21に出力される。   The plurality of object model images D1 output to the image processing apparatus 20 are output to the display function setting unit 22 and displayed on the display 12, and are also output to the artificial intelligence program 21.

ユーザは、ディスプレイ12に表示される複数の対象物モデル画像D1を観察しながら、例えばマウスやポインティングデバイスといった外部入力機器を操作して、人口知能プログラム21に出力された複数の対象物モデル画像D1にアノテーションD2を付与する。   While observing a plurality of object model images D1 displayed on the display 12, the user operates an external input device such as a mouse or a pointing device to output a plurality of object model images D1 output to the artificial intelligence program 21. Is given an annotation D2.

本実施の形態では、対象物モデル画像D1に画像として取り込まれた病理標本の組織T1の特徴として存在する複数の異常細胞Cのそれぞれについて、がん細胞であるか否かを判断し、がん細胞であると判断した異常細胞CにアノテーションD2を付与する。   In the present embodiment, each of the plurality of abnormal cells C existing as a feature of the tissue T1 of the pathological specimen captured as an image in the object model image D1 is determined whether or not it is a cancer cell. Annotation D2 is given to the abnormal cell C determined to be a cell.

このように、人口知能プログラム21に出力された対象物モデル画像D1にアノテーションD2が付与されることによって、人工知能プログラム21において、対象物モデル画像D1から学習データD3が生成される。   As described above, the annotation D2 is given to the object model image D1 output to the artificial intelligence program 21, so that the artificial intelligence program 21 generates learning data D3 from the object model image D1.

学習データD3が生成されると、人工知能プログラム21では、生成した学習データD3で機械学習が実行されることによって、学習済みモデルD4が生成される。これにより、検査システム1で検査対象物画像D5における組織T2を検査する準備が完了する。   When the learning data D3 is generated, the artificial intelligence program 21 generates a learned model D4 by performing machine learning on the generated learning data D3. Thereby, the preparation for inspecting the tissue T2 in the inspection object image D5 by the inspection system 1 is completed.

続いて、ユーザは、検査対象物画像D5をスキャナ11で取り込んで、取り込んだ検査対象物画像D5を人工知能プログラム21に出力させる。   Subsequently, the user captures the inspection object image D5 with the scanner 11 and causes the artificial intelligence program 21 to output the captured inspection object image D5.

人工知能プログラム21は、学習済みモデルD4に基づいて、学習済みモデルD4として学習された対象物モデル画像D1における組織T1の複数の異常細胞Cと一致する異常細胞Cが、検査対象物画像D5における組織T2に存在するか否かを自律的に判断して、組織T2を検査する。   Based on the learned model D4, the artificial intelligence program 21 detects abnormal cells C that match a plurality of abnormal cells C in the tissue T1 in the object model image D1 learned as the learned model D4 in the inspection object image D5. The organization T2 is examined by autonomously judging whether or not it exists in the organization T2.

人工知能プログラム21による組織T2の検査の結果は、表示基準設定部22bに予め設定された表示基準に基づいて、結果データD6としてディスプレイ12に表示される。   The result of the examination of the tissue T2 by the artificial intelligence program 21 is displayed on the display 12 as result data D6 based on a display standard preset in the display standard setting unit 22b.

例えば、組織T1の複数の異常細胞Cと一致する異常細胞Cが検査対象物画像D5における組織T2に存在する割合が60%であると表示基準に定められているのであれば、60%の割合で一致する人工知能プログラム21による組織T2の検査の結果が結果データとしてディスプレイ12に表示される。   For example, if the display standard defines that the proportion of abnormal cells C that coincide with a plurality of abnormal cells C in the tissue T1 in the tissue T2 in the inspection object image D5 is 60%, the proportion is 60%. The result of the examination of the tissue T2 by the artificial intelligence program 21 that matches is displayed on the display 12 as result data.

一方、予め設定された表示基準を表示基準変更部22cで変更することによって、組織T1の複数の異常細胞Cと組織T2の異常細胞Cとの一致の割合を所望の割合に変更して、変更した一致の割合に対応した結果データD6をディスプレイ12に表示させることができる。   On the other hand, by changing the preset display standard by the display standard changing unit 22c, the ratio of the coincidence between the abnormal cells C in the tissue T1 and the abnormal cells C in the tissue T2 is changed to a desired ratio and changed. As a result, the result data D6 corresponding to the matching ratio can be displayed on the display 12.

したがって、例えば、80%以上の割合で一致する人工知能プログラム21による組織T2の検査の結果が結果データD6としてディスプレイ12に表示されると、異常細胞Cではあってもがん細胞ではないものまでマーカMが付されて結果データD6がディスプレイ12に表示されてしまうといった場合が想定される。   Therefore, for example, when the result of the examination of the tissue T2 by the artificial intelligence program 21 that matches at a rate of 80% or more is displayed on the display 12 as the result data D6, even if it is an abnormal cell C but not a cancer cell It is assumed that the marker M is attached and the result data D6 is displayed on the display 12.

このような場合には、60%〜80%の割合で一致する人工知能プログラム21による組織T2の検査の結果が結果データD6としてディスプレイ12に表示されるように表示基準を変更して、がん細胞ではない異常細胞CにはマーカMが付されていない結果データD6がディスプレイ12に表示されるようにすればよい。   In such a case, the display standard is changed so that the result of the examination of the tissue T2 by the artificial intelligence program 21 that matches at a rate of 60% to 80% is displayed on the display 12 as the result data D6. What is necessary is just to make it display on the display 12 the result data D6 to which the marker M is not attached | subjected to the abnormal cell C which is not a cell.

一方、ディスプレイ12に表示される結果データD6を見て、人工知能プログラム21が組織T2の異常細胞Cをがん細胞であると判断する一致の割合が高すぎる、あるいは低すぎると判断した場合は、結果データD6を対象物モデル画像D1と見立てて、アノテーションD2の付与を再度行って、人工知能プログラム21の再度の学習に供する。   On the other hand, when the result data D6 displayed on the display 12 is viewed and the artificial intelligence program 21 determines that the percentage of coincidence that the abnormal cell C of the tissue T2 is a cancer cell is too high or too low. The result data D6 is regarded as the object model image D1, and the annotation D2 is given again to be used for the learning of the artificial intelligence program 21 again.

このように、本実施の形態の検査システム1は、画像処理装置20において、アノテーションD2を付与するという簡易な操作によって、人工知能プログラム21に大量に入力される対象物モデル画像D1に、画像として予め取り込まれた組織T2の異常細胞Cを、組織T2の特徴として選択することができる。   As described above, the inspection system 1 according to the present embodiment uses the image processing apparatus 20 as an image on the object model image D1 that is input to the artificial intelligence program 21 by a simple operation of giving the annotation D2. The abnormal cells C of the tissue T2 that have been taken up in advance can be selected as the characteristics of the tissue T2.

しかも、対象物モデル画像D1にアノテーションD2を付与することによって、対象物モデル画像D1を学習データD3とすることができることから、アノテーションD2を付与するという簡易な操作によって、学習データD3を容易に生成することができる。   Moreover, since the object model image D1 can be used as the learning data D3 by adding the annotation D2 to the object model image D1, the learning data D3 can be easily generated by a simple operation of adding the annotation D2. can do.

本実施の形態の検査システム1は、アノテーションD2を対象物モデル画像D1に付与するという簡易な操作で学習データD3を容易に生成することができることから、人工知能プログラム21が、効率的に機械学習を行うことができる。   Since the inspection system 1 according to the present embodiment can easily generate the learning data D3 by a simple operation of assigning the annotation D2 to the object model image D1, the artificial intelligence program 21 efficiently performs machine learning. It can be performed.

したがって、検査対象物画像D5における組織T2の検査を行う際の作業性を向上させることができる。   Therefore, the workability at the time of inspecting the tissue T2 in the inspection object image D5 can be improved.

しかも、人工知能プログラム21による組織T2の検査を結果データD6としてディスプレイ12に表示させる際に、予め設定された表示基準を表示基準変更部22cで変更することができることから、所望の表示基準で結果データD6をディスプレイ12に表示させることができる。   In addition, when the examination of the tissue T2 by the artificial intelligence program 21 is displayed on the display 12 as the result data D6, the preset display standard can be changed by the display standard changing unit 22c. Data D6 can be displayed on the display 12.

この表示基準変更部22cは、表示基準の下限を設定するMinスライダ22ca、及びMinスライダ22caと独立して表示基準の上限を設定するMaxスライダ22cbを備え、それぞれ独立して操作することができることから、表示基準を変更する際の操作性が向上する。   The display reference changing unit 22c includes a Min slider 22ca that sets a lower limit of the display reference, and a Max slider 22cb that sets an upper limit of the display reference independently of the Min slider 22ca, and can be operated independently of each other. The operability when changing the display standard is improved.

なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲で種々変更可能である。上記実施の形態では、対象物W1及び検査対象物W2がそれぞれ、人体から採取した組織T1及び組織T2である場合を説明したが、例えば樹脂製品や半導体基板の表面の汚れ、混入した不純物、あるいは成形不良部分といったように、検査システム1で検査可能なものであれば、対象物W1及び検査対象物W2とすることができる。   In addition, this invention is not limited to the said embodiment, A various change is possible in the range which does not deviate from the meaning of invention. In the above-described embodiment, the case where the object W1 and the inspection object W2 are the tissue T1 and the tissue T2 respectively collected from the human body has been described. For example, the surface of the resin product or the semiconductor substrate, contaminated impurities, Any object that can be inspected by the inspection system 1 such as a defective molding portion can be the object W1 and the inspection object W2.

上記実施の形態では、アノテーションD2の付与が、マウスやポインティングデバイスといった外部入力機器が操作されることによって付与される場合を説明したが、例えばタッチパネル型のディスプレイを採用して、画面に接触することでアノテーションD2を付与するように構成してもよい。   In the above-described embodiment, the case where the annotation D2 is given by operating an external input device such as a mouse or a pointing device has been described. For example, a touch panel display is used to touch the screen. In this case, the annotation D2 may be added.

1 検査システム
10 コンピュータ
12 ディスプレイ(表示部)
20 画像処理装置
20b アノテーション付与部
21 人工知能プログラム
22 ディスプレイ機能設定部
22b 表示基準設定部
22c 表示基準変更部
D1 対象物モデル画像
D2 アノテーション
D3 学習データ
D4 学習済みモデル
D5 検査対象物画像
D6 結果データ
T1 組織
T2 組織
W1 対象物
W2 検査対象物
1 Inspection System 10 Computer 12 Display (Display Unit)
20 Image processing apparatus 20b Annotation giving unit 21 Artificial intelligence program 22 Display function setting unit 22b Display reference setting unit 22c Display reference changing unit D1 Object model image D2 Annotation D3 Learning data D4 Trained model D5 Inspection object image D6 Result data T1 Organization T2 Organization W1 Object W2 Inspection object

Claims (4)

対象物の特徴と一致する特徴が検査対象物に存在するか否かを自律的に判断する人工知能プログラムに機械学習をさせる学習データを生成する画像処理装置において、
前記対象物が画像として取り込まれた対象物モデル画像における前記対象物の任意の部分を前記対象物の特徴として選択してアノテーションを付与するアノテーション付与部を備え、
該アノテーション付与部で前記対象物モデル画像に前記アノテーションが付与されることによって該対象物モデル画像から前記学習データが生成されることを特徴とする画像処理装置。
In an image processing device that generates learning data that causes an artificial intelligence program to autonomously determine whether or not a feature that matches the feature of the target exists in the test target, machine learning,
An annotation adding unit that selects an arbitrary portion of the object in the object model image in which the object is captured as an image and adds an annotation as a feature of the object;
An image processing apparatus, wherein the learning data is generated from the object model image by adding the annotation to the object model image by the annotation adding unit.
対象物の特徴と一致する特徴が検査対象物に存在するか否かを判断して前記検査対象物を検査する検査システムにおいて、
前記対象物が画像として取り込まれた対象物モデル画像を表示する表示部と、
該表示部に表示された前記対象物モデル画像に画像として取り込まれた前記対象物の任意の部分を前記対象物の特徴として選択してアノテーションを付与するアノテーション付与部と、
該アノテーション付与部で前記対象物モデル画像に前記アノテーションが付与されることによって該対象物モデル画像から生成された学習データにより機械学習をさせた学習済みモデルに基づいて該学習済みモデルとして学習された前記対象物の特徴と一致する特徴が前記検査対象物に存在するか否かを自律的に判断して前記検査対象物を検査する人工知能プログラムと、
を備えることを特徴とする検査システム。
In the inspection system for inspecting the inspection object by determining whether the inspection object has a feature that matches the characteristic of the object,
A display unit for displaying an object model image in which the object is captured as an image;
An annotation giving unit for selecting an arbitrary part of the target object captured as an image in the target object model image displayed on the display unit as a feature of the target object and giving an annotation;
The annotation giving unit learns the learned model based on the learned model that has been machine-learned by the learning data generated from the object model image by giving the annotation to the object model image. An artificial intelligence program that autonomously determines whether or not a feature that matches the feature of the object exists in the inspection object and inspects the inspection object;
An inspection system comprising:
予め設定された表示基準に基づいて前記人工知能プログラムによる前記検査対象物の検査の結果が前記表示部に表示され、
前記表示基準を変更して変更した前記表示基準に対応した前記検査対象物の検査の結果を前記表示部に表示させる表示基準変更部を備えることを特徴とする請求項2に記載の検査システム。
The result of the inspection of the inspection object by the artificial intelligence program based on a preset display standard is displayed on the display unit,
The inspection system according to claim 2, further comprising: a display reference changing unit that causes the display unit to display a result of the inspection of the inspection object corresponding to the display reference changed by changing the display reference.
前記表示基準変更部は、
前記表示基準の上限及び下限が互いに独立して設定可能に形成されていることを特徴とする請求項3に記載の検査システム。
The display reference changing unit
The inspection system according to claim 3, wherein an upper limit and a lower limit of the display standard are configured to be set independently of each other.
JP2018094258A 2018-05-16 2018-05-16 Image processing device and inspection system Active JP7235272B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018094258A JP7235272B2 (en) 2018-05-16 2018-05-16 Image processing device and inspection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018094258A JP7235272B2 (en) 2018-05-16 2018-05-16 Image processing device and inspection system

Publications (2)

Publication Number Publication Date
JP2019200558A true JP2019200558A (en) 2019-11-21
JP7235272B2 JP7235272B2 (en) 2023-03-08

Family

ID=68613143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018094258A Active JP7235272B2 (en) 2018-05-16 2018-05-16 Image processing device and inspection system

Country Status (1)

Country Link
JP (1) JP7235272B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021206053A1 (en) * 2020-04-06 2021-10-14
WO2022182163A1 (en) * 2021-02-24 2022-09-01 (주) 제이엘케이 Method and device for automatically providing data processing, artificial intelligence model generation, and performance enhancement

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230439A (en) * 1994-02-17 1995-08-29 Fujitsu Ltd Category classification device with teacher
JP2000057349A (en) * 1998-08-10 2000-02-25 Hitachi Ltd Method for sorting defect, device therefor and method for generating data for instruction
JP2011145791A (en) * 2010-01-13 2011-07-28 Hitachi Ltd Classifier learning image production program, method and system
JP2012038244A (en) * 2010-08-11 2012-02-23 Fuji Xerox Co Ltd Learning model creation program, image identification information giving program, learning model creation device, image identification information giving device
JP2012084117A (en) * 2010-09-13 2012-04-26 Tokyo Institute Of Technology Attribute-learning and -transferring system, recognizer generation device, recognizer generation method and recognition device
JP2013164313A (en) * 2012-02-10 2013-08-22 Keyence Corp Screen display data editing device and screen display editing method
JP2013182395A (en) * 2012-03-01 2013-09-12 Nissan Motor Co Ltd Object inspection device, object inspection method, and object inspection program
JP2016028250A (en) * 2010-06-25 2016-02-25 シレカ セラノスティクス エルエルシーCireca Theranostics,Llc Method of analyzing biological test piece with spectrum image
JP2017516992A (en) * 2014-05-23 2017-06-22 ベンタナ メディカル システムズ, インコーポレイテッド System and method for detection of biological structures and / or patterns in images
JP2017162098A (en) * 2016-03-08 2017-09-14 富士通株式会社 Learning method, information processing device and learning program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230439A (en) * 1994-02-17 1995-08-29 Fujitsu Ltd Category classification device with teacher
JP2000057349A (en) * 1998-08-10 2000-02-25 Hitachi Ltd Method for sorting defect, device therefor and method for generating data for instruction
JP2011145791A (en) * 2010-01-13 2011-07-28 Hitachi Ltd Classifier learning image production program, method and system
JP2016028250A (en) * 2010-06-25 2016-02-25 シレカ セラノスティクス エルエルシーCireca Theranostics,Llc Method of analyzing biological test piece with spectrum image
JP2012038244A (en) * 2010-08-11 2012-02-23 Fuji Xerox Co Ltd Learning model creation program, image identification information giving program, learning model creation device, image identification information giving device
JP2012084117A (en) * 2010-09-13 2012-04-26 Tokyo Institute Of Technology Attribute-learning and -transferring system, recognizer generation device, recognizer generation method and recognition device
JP2013164313A (en) * 2012-02-10 2013-08-22 Keyence Corp Screen display data editing device and screen display editing method
JP2013182395A (en) * 2012-03-01 2013-09-12 Nissan Motor Co Ltd Object inspection device, object inspection method, and object inspection program
JP2017516992A (en) * 2014-05-23 2017-06-22 ベンタナ メディカル システムズ, インコーポレイテッド System and method for detection of biological structures and / or patterns in images
JP2017162098A (en) * 2016-03-08 2017-09-14 富士通株式会社 Learning method, information processing device and learning program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
池松 大志、外5名: ""Deep Learning画像認識エンジン生成作業効率化インターフェースの開発"", 電子情報通信学会技術研究報告, vol. 115, no. 415, JPN6022003254, 14 January 2016 (2016-01-14), JP, pages 89 - 94, ISSN: 0004987938 *
関根 良浩、外2名: ""GA・GP+MT法による外観検査性能の向上"", RICOH TECHNICAL REPORT, JPN6022018813, 25 December 2012 (2012-12-25), JP, pages 123 - 130, ISSN: 0004839135 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021206053A1 (en) * 2020-04-06 2021-10-14
JP7236202B2 (en) 2020-04-06 2023-03-09 国立大学法人 新潟大学 Data generation device, data generation method and program
WO2022182163A1 (en) * 2021-02-24 2022-09-01 (주) 제이엘케이 Method and device for automatically providing data processing, artificial intelligence model generation, and performance enhancement

Also Published As

Publication number Publication date
JP7235272B2 (en) 2023-03-08

Similar Documents

Publication Publication Date Title
US11960571B2 (en) Method and apparatus for training image recognition model, and image recognition method and apparatus
US11850021B2 (en) Dynamic self-learning medical image method and system
JP6348504B2 (en) Biological sample split screen display and system and method for capturing the records
JP5547597B2 (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program
KR20220158218A (en) Systems and methods for processing images for skin analysis and visualizing skin analysis
JP2019091454A (en) Data analysis processing device and data analysis processing program
US20230048386A1 (en) Method for detecting defect and method for training model
JP2011180845A (en) Inference apparatus
US20200311931A1 (en) Method for analyzing image of biopsy specimen to determine cancerous probability thereof
US20220044147A1 (en) Teaching data extending device, teaching data extending method, and program
CN107533323A (en) Information processor, information processing system and message handling program
JP2019200558A (en) Image processing device and inspection system
CN113705595A (en) Method, device and storage medium for predicting degree of abnormal cell metastasis
EP2834775B1 (en) Method and system for assisting the visual exploration of an image during a target search
JP2016133899A (en) Information processor, information processing method, and program
CN116869555A (en) Scanning protocol adjusting method, device and storage medium
JP5702943B2 (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program
KR102665091B1 (en) Apparatus and method for processing medical information
JP2015022438A (en) Report creation support device, method thereof, and program
JP2021128415A (en) Machine learning method and information processing device for machine learning
Rao et al. OCTAI: Smartphone-based Optical Coherence Tomography Image Analysis System
JP2021185924A (en) Medical diagnosis support device, medical diagnosis support program, and medical diagnosis support method
CN105326527B (en) Method and device for controlling display of reference image in fused ultrasonic image
Becerra-Rico The Augmented Worker
TW201810173A (en) Method and system for assisting in making a decision on nursing care

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221027

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221027

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20221115

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230124

C092 Termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C092

Effective date: 20230131

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7235272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150