JP2019200558A - Image processing device and inspection system - Google Patents
Image processing device and inspection system Download PDFInfo
- Publication number
- JP2019200558A JP2019200558A JP2018094258A JP2018094258A JP2019200558A JP 2019200558 A JP2019200558 A JP 2019200558A JP 2018094258 A JP2018094258 A JP 2018094258A JP 2018094258 A JP2018094258 A JP 2018094258A JP 2019200558 A JP2019200558 A JP 2019200558A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- annotation
- inspection
- artificial intelligence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 77
- 238000010801 machine learning Methods 0.000 claims abstract description 11
- 230000002159 abnormal effect Effects 0.000 description 34
- CIWBSHSKHKDKBQ-JLAZNSOCSA-N Ascorbic acid Chemical compound OC[C@H](O)[C@H]1OC(=O)C(O)=C1O CIWBSHSKHKDKBQ-JLAZNSOCSA-N 0.000 description 10
- 206010028980 Neoplasm Diseases 0.000 description 8
- 201000011510 cancer Diseases 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 230000008520 organization Effects 0.000 description 6
- 230000001575 pathological effect Effects 0.000 description 6
- 239000003550 marker Substances 0.000 description 5
- 238000002360 preparation method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置及び検査システム、特に、対象物の特徴と一致する特徴が検査対象物に存在するか否かを自律的に判断する人工知能プログラムに機械学習をさせる学習データを生成する画像処理装置、及び対象物の特徴と一致する特徴が検査対象物に存在するか否かを判断して検査対象物を検査する検査システムに関する。 The present invention generates learning data that causes machine learning to be performed by an artificial intelligence program that autonomously determines whether or not a feature that matches the feature of an object exists in the image processing device and the inspection system. The present invention relates to an image processing apparatus and an inspection system that inspects an inspection object by determining whether or not a characteristic that matches the characteristic of the object exists in the inspection object.
ソフトウェアによって画像処理を行う場合は、処理を行う領域を選択する作業が必要となる。例えば、特許文献1では、画像表示手段に表示された画像データ上の任意の位置を選択する選択手段を備えた画像表示装置が提案されている。 When image processing is performed by software, it is necessary to select an area for processing. For example, Patent Document 1 proposes an image display device including a selection unit that selects an arbitrary position on image data displayed on an image display unit.
この種の画像表示装置では、ユーザが画像データ上の任意の位置を選択する際のユーザインターフェースとして、例えば、処理を行う領域を輪郭で囲むいわゆる投げ縄表示とも称される手法が採用されることがある。 In this type of image display device, as a user interface when the user selects an arbitrary position on the image data, for example, a so-called lasso display method that surrounds the area to be processed with an outline is adopted. There is.
ところで、人工知能技術を用いて、対象物の特徴を学習させ、その特徴に基づいた対象物の選別を行わせるような場合は、例えば、対象物の画像データを用いて人工知能プログラムに対象物の特徴を学習させる必要がある。 By the way, when learning the characteristics of an object using artificial intelligence technology and selecting an object based on the characteristics, for example, the artificial intelligence program uses the image data of the object. It is necessary to learn the characteristics of
このように、対象物の画像データを用いて人工知能プログラムに対象物の特徴を学習させる場合は、画像データに表示される対象物の特徴のある部分を画像データ上において選択する必要がある。 As described above, when the artificial intelligence program learns the feature of the target object using the image data of the target object, it is necessary to select a part having the feature of the target object displayed in the image data on the image data.
一方で、人工知能プログラムに対象物の特徴を学習させる場合は、一般に、大量の画像データが必要となることから、画像データに表示される対象物の特徴のある部分を選択する作業が煩雑になることが想定される。 On the other hand, in order to make the artificial intelligence program learn the characteristics of the target object, in general, a large amount of image data is required. Therefore, the task of selecting the characteristic part of the target object displayed in the image data is complicated. It is assumed that
本発明は、上記事情に鑑みてなされたものであり、画像データを用いて人工知能プログラムに対象物の特徴を学習させる際に画像データ上において対象物の特徴のある部分を簡易に選択して学習データを生成することができる画像処理装置、及び画像処理装置で生成された学習データに基づいて効率的に機械学習を行うことができる人工知能プログラムを具備した検査システムを提供することを課題とするものである。 The present invention has been made in view of the above circumstances, and when an artificial intelligence program learns the characteristics of an object using image data, a portion having the characteristics of the object is easily selected on the image data. An object is to provide an image processing apparatus capable of generating learning data, and an inspection system including an artificial intelligence program capable of efficiently performing machine learning based on learning data generated by the image processing apparatus. To do.
上記課題を解決するための画像処理装置は、対象物の特徴と一致する特徴が検査対象物に存在するか否かを自律的に判断する人工知能プログラムに機械学習をさせる学習データを生成する画像処理装置において、対象物が画像として取り込まれた対象物モデル画像における対象物の任意の部分を対象物の特徴として選択してアノテーションを付与するアノテーション付与部を備え、アノテーション付与部で対象物モデル画像にアノテーションが付与されることによって対象物モデル画像から学習データが生成されることを特徴としている。 An image processing apparatus for solving the above-described problem is an image that generates learning data that causes an artificial intelligence program that autonomously determines whether or not a feature that matches the feature of an object exists in the inspection object to perform machine learning The processing apparatus includes an annotation adding unit that selects an arbitrary part of the target in the target model image in which the target is captured as an image as a feature of the target and adds an annotation. It is characterized in that learning data is generated from the object model image by giving an annotation to the object model image.
この画像処理装置によれば、アノテーションを付与するという簡易な操作によって、人工知能プログラムに大量に入力される対象物モデル画像に画像として取り込まれた対象物の任意の部分を、対象物の特徴として選択することができる。 According to this image processing apparatus, an arbitrary part of an object captured as an image in an object model image input in a large amount to an artificial intelligence program by a simple operation of giving an annotation as a feature of the object You can choose.
しかも、対象物モデル画像にアノテーションを付与することによって、対象物モデル画像を学習データとすることができることから、アノテーションを付与するという簡易な操作によって、学習データを容易に生成することができる。 Moreover, since the object model image can be used as learning data by giving an annotation to the object model image, the learning data can be easily generated by a simple operation of adding the annotation.
上記課題を解決するための検査システムは、対象物の特徴と一致する特徴が検査対象物に存在するか否かを判断して検査対象物を検査する検査システムにおいて、対象物が画像として取り込まれた対象物モデル画像を表示する表示部と、表示部に表示された対象物モデル画像に画像として取り込まれた対象物の任意の部分を対象物の特徴として選択してアノテーションを付与するアノテーション付与部と、アノテーション付与部で対象物モデル画像にアノテーションが付与されることによって対象物モデル画像から生成された学習データにより機械学習をさせた学習済みモデルに基づいて学習済みモデルとして学習された対象物の特徴と一致する特徴が検査対象物に存在するか否かを自律的に判断して検査対象物を検査する人工知能プログラムと、を備えることを特徴としている。 An inspection system for solving the above-described problem is an inspection system for inspecting an inspection object by determining whether or not the inspection object has a feature that matches the feature of the object. A display unit for displaying the target object model image, and an annotation adding unit for selecting an arbitrary part of the target object captured as an image in the target object model image displayed on the display unit as a feature of the target object and giving an annotation And an object that has been learned as a learned model based on a learned model that has been machine-learned by learning data generated from the object model image by annotating the object model image by the annotation assigning unit. Artificial intelligence program that inspects the inspection object by autonomously judging whether the inspection object has a feature that matches the feature It is characterized in that it comprises, when.
この検査システムによれば、アノテーションを対象物モデル画像に付与するという簡易な操作で学習データを容易に生成することができることから、人工知能プログラムが効率的に機械学習を行うことができる。したがって、検査対象物の検査を行う際の作業性を向上させることができる。 According to this inspection system, since the learning data can be easily generated by a simple operation of adding an annotation to the object model image, the artificial intelligence program can efficiently perform machine learning. Therefore, the workability at the time of inspecting the inspection object can be improved.
さらに、この検査システムでは、予め設定された表示基準に基づいて人工知能プログラムによる検査対象物の検査の結果が表示部に表示され、表示基準を変更して変更した表示基準に対応した検査対象物の検査の結果を表示部に表示させる表示基準変更部を備えることを特徴としている。 Further, in this inspection system, the inspection result of the inspection object by the artificial intelligence program is displayed on the display unit based on the preset display standard, and the inspection object corresponding to the display standard changed by changing the display standard It is characterized by including a display reference changing unit for displaying the result of the inspection on the display unit.
このように、予め設定された表示基準を表示基準変更部で変更することができることから、所望の表示基準で検査対象物の検査の結果を表示部に表示させることができる。 In this way, since the preset display standard can be changed by the display standard changing unit, the inspection result of the inspection object can be displayed on the display unit using the desired display standard.
しかも、この検査システムの表示基準変更部は、表示基準の上限及び下限が互いに独立して設定可能に形成されていることを特徴としていることから、表示基準を変更する際の操作性が向上する。 In addition, the display standard changing unit of the inspection system is characterized in that the upper and lower limits of the display standard can be set independently of each other, so that the operability when changing the display standard is improved. .
この発明によると、対象物モデル画像にアノテーションを付与するという簡易な操作によって、学習データを容易に生成することができる。さらに、人工知能プログラムが効率的に機械学習を行うことができる。 According to the present invention, learning data can be easily generated by a simple operation of giving an annotation to an object model image. Furthermore, the artificial intelligence program can perform machine learning efficiently.
次に、本発明の実施の形態について、図1〜図6に基づいて説明する。 Next, an embodiment of the present invention will be described with reference to FIGS.
本実施の形態に係る検査システムの概略の説明に先立って、まず、本実施の形態に係る検査システムで用いる対象物及び検査対象物の概略を説明する。 Prior to the description of the outline of the inspection system according to the present embodiment, first, the outline of the object used in the inspection system according to the present embodiment and the inspection object will be described.
図1(a)は、対象物の概略を説明する図、図1(b)は、検査対象物の概略を説明する図である。図1(a)で示すように、対象物W1は、本実施の形態では人体から採取した組織T1であって、この組織T1をプレパラートによって病理標本としたものが画像として取り込まれることによって、対象物モデル画像D1が構成される。 FIG. 1A is a diagram illustrating an outline of an object, and FIG. 1B is a diagram illustrating an outline of an inspection object. As shown in FIG. 1 (a), the object W1 is a tissue T1 collected from a human body in the present embodiment, and this tissue T1 obtained as a pathological specimen by preparation is captured as an image. An object model image D1 is constructed.
この対象物モデル画像D1は、複数の人体から採取した複数の組織T1に基づいて、複数の画像データとして予め大量に生成されている。 A large amount of the object model image D1 is generated in advance as a plurality of image data based on a plurality of tissues T1 collected from a plurality of human bodies.
この対象物モデル画像D1に画像として取り込まれた病理標本の組織T1には、本実施の形態では、正常な細胞ではない異常細胞Cが組織T1の特徴として複数存在している。 In the tissue T1 of the pathological specimen captured as an image in the object model image D1, in the present embodiment, there are a plurality of abnormal cells C that are not normal cells as features of the tissue T1.
一方、図1(b)で示すように、検査対象物W2は、本実施の形態では人体から採取した組織T2であって、この組織T2をプレパラートによって病理標本としたものが画像として取り込まれることによって、検査対象物画像D5が構成される。 On the other hand, as shown in FIG. 1 (b), the inspection object W2 is a tissue T2 collected from a human body in the present embodiment, and the tissue T2 prepared as a pathological specimen by a preparation is captured as an image. Thus, the inspection object image D5 is formed.
この検査対象物画像D5に画像として取り込まれた組織T2が、検査システムによる検査の対象となるものであって、例えば、がん診断を行う際に、診断を受ける者の患部から採取した組織によって、組織T2が構成される。 The tissue T2 captured as an image in the inspection object image D5 is an inspection target by the inspection system. For example, when a cancer diagnosis is performed, the tissue T2 is extracted from the affected part of the person receiving the diagnosis. The organization T2 is configured.
本実施の形態では、検査対象物画像D5に画像として取り込まれた病理標本の組織T2に、正常な細胞ではない異常細胞Cが組織T2の特徴として複数存在している。 In the present embodiment, a plurality of abnormal cells C that are not normal cells exist as features of the tissue T2 in the tissue T2 of the pathological specimen captured as an image in the inspection object image D5.
次に、本実施の形態に係る検査システムの概略を説明する。 Next, an outline of the inspection system according to the present embodiment will be described.
図2は、本実施の形態に係る検査システムの概略を説明するブロック図である。図示のように、検査システム1は、コンピュータ10、コンピュータ10と接続されるスキャナ11、及びコンピュータ10と接続される表示部であるディスプレイ12を備える。
FIG. 2 is a block diagram for explaining the outline of the inspection system according to the present embodiment. As illustrated, the inspection system 1 includes a
コンピュータ10は、後述するスキャナ11を介して対象物モデル画像D1が入力される画像処理装置20、画像処理装置20と接続される人工知能プログラム21、及び人工知能プログラム21と画像処理装置20とが接続されるディスプレイ機能設定部22を備える。
The
画像処理装置20は、本実施の形態では、対象物モデル画像D1を取得してこの対象物モデル画像D1を人工知能プログラム21及びディスプレイ機能設定部22に出力する画像取得部20aを備える。
In the present embodiment, the
画像取得部20aで取得してディスプレイ機能設定部22に出力された対象物モデル画像D1は、本実施の形態ではディスプレイ12に表示される。
The object model image D1 acquired by the
さらに、画像処理装置20は、対象物モデル画像D1に画像として予め取り込まれた画像データにおける対象物の任意の部分を対象物の特徴として選択してアノテーションを付与するプログラムであるアノテーション付与部20bを備える。
Furthermore, the
このアノテーション付与部20bは、画像取得部20aから人工知能プログラム21に出力された対象物モデル画像D1にアノテーションを付与するとともに、画像取得部20aで取得してディスプレイ機能設定部22に出力されてディスプレイ12に表示される対象物モデル画像D1にアノテーションを表示する。
The
図3は、アノテーション付与部20bにおける処理の概略を説明する図である。本実施の形態では、図示のように、対象物モデル画像D1に画像として取り込まれた病理標本の組織T1の特徴として存在する複数の異常細胞Cの全てががん細胞であると判断されて、アノテーション付与部20bによってアノテーションD2が付与される。
FIG. 3 is a diagram for explaining the outline of processing in the
アノテーションD2の付与は、画像取得部20a及びディスプレイ機能設定部22を介してディスプレイ12に表示される対象物モデル画像D1が観察されながら、画像取得部20aから人口知能プログラム21に出力された対象物モデル画像D1に、例えばマウスやポインティングデバイスといった外部入力機器が操作されることによって付与される。
The annotation D2 is assigned to the object output from the
アノテーションD2を付与する際には、図示しない重みづけのコマンドを選択することによって、付与するアノテーションD2に重みづけを行うことができる。 When the annotation D2 is given, the annotation D2 to be given can be weighted by selecting a weighting command (not shown).
人工知能プログラム21は、スキャナ11を介して入力される検査対象物画像D5における組織T2を検査するプログラムである。
The
図4は、人工知能プログラム21の処理の概略を説明するブロック図である。図示のように、人工知能プログラム21では、対象物モデル画像D1における組織T1の特徴として存在する複数の異常細胞CにアノテーションD2が付与されることによって、対象物モデル画像D1から学習データD3が生成される。
FIG. 4 is a block diagram for explaining the outline of the process of the
さらに、人工知能プログラム21は、生成した学習データD3で機械学習をすることによって、学習済みモデルD4を生成する。
Further, the
機械学習を行う手法としては、ニューラルネットワーク、ランダムフォレスト、SVM(support vector machine)等、各種のアルゴリズムが適宜用いられる。 As a method for performing machine learning, various algorithms such as a neural network, a random forest, and an SVM (support vector machine) are appropriately used.
このように、人工知能プログラム21は、学習済みモデルD4に基づいて、学習済みモデルD4として学習された対象物モデル画像D1における組織T1の複数の異常細胞Cと一致する異常細胞Cが、検査対象物画像D5における組織T2に存在するか否かを自律的に判断して、組織T2を検査する。
As described above, the
ディスプレイ機能設定部22は、図2で示すように、画像取得部20a及び人工知能プログラム21に接続されてディスプレイ12に接続する出力部22a、出力部22aに接続する表示基準設定部22b、及びこの表示基準設定部22bに接続する表示基準変更部22cを備える。
As shown in FIG. 2, the display
出力部22aは、画像処理装置20の画像取得部20aから出力された対象物モデル画像D1をディスプレイ12に出力して、対象物モデル画像D1をディスプレイ12に表示させる。
The
さらに出力部22aは、人工知能プログラム21による組織T2の検査の結果を結果データとしてディスプレイ12に出力して、結果データをディスプレイ12に表示させる。
Further, the
表示基準設定部22bには、人工知能プログラム21による組織T2の検査の結果を結果データとしてディスプレイ12に表示する際の表示基準が予め設定されている。
In the display
この表示基準は、例えば、対象物モデル画像D1における組織T1の複数の異常細胞Cと一致する異常細胞Cが検査対象物画像D5における組織T2に存在する割合に基づいて定められる。 This display standard is determined based on, for example, the ratio of abnormal cells C that match the plurality of abnormal cells C in the tissue T1 in the object model image D1 in the tissue T2 in the inspection object image D5.
例えば、組織T1の複数の異常細胞Cと一致する異常細胞Cが検査対象物画像D5における組織T2に存在する割合が60%と定められているのであれば、60%の割合で一致する人工知能プログラム21による組織T2の検査の結果を結果データとしてディスプレイ12に表示する。
For example, if the proportion of abnormal cells C that match a plurality of abnormal cells C in the tissue T1 in the tissue T2 in the inspection object image D5 is determined to be 60%, the artificial intelligence that matches at a rate of 60% The result of the examination of the tissue T2 by the
この場合、結果データには、対象物モデル画像D1における組織T1においてがん細胞であると判断されてアノテーションD2が付与された異常細胞Cと60%の割合で一致すると判断された、検査対象物画像D5における組織T2に存在する異常細胞Cにマーカが付与される。 In this case, in the result data, the test object that has been determined to be a cancer cell in the tissue T1 in the object model image D1 and matched with the abnormal cell C to which the annotation D2 has been given, at a rate of 60%. A marker is added to the abnormal cell C present in the tissue T2 in the image D5.
図5及び図6は、表示基準変更部22cの処理の概略を説明する図である。この表示基準変更部22cは、表示基準設定部22bに設定された表示基準を変更するものである。
5 and 6 are diagrams for explaining the outline of the processing of the display
図示のように、表示基準変更部22cは、組織T1の複数の異常細胞Cと組織T2の異常細胞Cとの一致の割合の下限を設定するMinスライダ22ca、及びMinスライダ22caと独立して組織T1の複数の異常細胞Cと組織T2の異常細胞Cとの一致の割合の上限を設定するMaxスライダ22cbを備える。
As shown in the figure, the display
この表示基準変更部22cは、結果データD6とともにディスプレイ12に表示され、図5で示すように、Minスライダ22caが80%に設定され、Maxスライダ22cbが100%に設定されている場合には、80%以上の割合で一致する人工知能プログラム21による組織T2の検査の結果が結果データD6としてディスプレイ12に表示される。
This display
すなわち、対象物モデル画像D1における組織T1においてがん細胞であると判断されてアノテーションD2が付与された異常細胞Cと80%以上の割合で一致する異常細胞Cが、検査対象物画像D5における組織T2に存在すると判断されたこととなり、検査対象物画像D5における組織T2に存在する異常細胞Cに、マーカMが付与されている。 That is, an abnormal cell C that is determined to be a cancer cell in the tissue T1 in the object model image D1 and is annotated with the annotation D2 at a rate of 80% or more is a tissue in the inspection object image D5. It is determined that it exists in T2, and the marker M is given to the abnormal cell C existing in the tissue T2 in the inspection object image D5.
一方、図6で示すように、Minスライダ22caが60%に設定され、Maxスライダ22cbが80%に設定されている場合には、60%〜80%の割合で一致する人工知能プログラム21による組織T2の検査の結果が結果データD6としてディスプレイ12に表示される。
On the other hand, as shown in FIG. 6, when the Min slider 22ca is set to 60% and the Max slider 22cb is set to 80%, the organization by the
すなわち、対象物モデル画像D1における組織T1においてがん細胞であると判断されてアノテーションD2が付与された異常細胞Cと60%〜80%の割合で一致する異常細胞Cが、検査対象物画像D5における組織T2に存在すると判断されたこととなり、検査対象物画像D5における組織T2に存在する異常細胞Cに、マーカMが付与されている。 That is, the abnormal cell C that is determined to be a cancer cell in the tissue T1 in the target object model image D1 and is annotated with the annotation D2 at a rate of 60% to 80% is the inspection target image D5. The marker M is given to the abnormal cell C existing in the tissue T2 in the inspection object image D5.
このように、表示基準変更部22cでは、予め設定された表示基準を変更することによって、組織T1の複数の異常細胞Cと組織T2の異常細胞Cとの一致の割合を所望の割合に変更して、変更した一致の割合に対応した結果データD6をディスプレイ12に表示させることができる。
In this way, the display
スキャナ11は、本実施の形態では、対象物モデル画像D1を取り込んで画像処理装置20に出力するとともに、検査対象物画像D5を取り込んで人工知能プログラム21に出力する。
In the present embodiment, the
ディスプレイ12は、本実施の形態では、画像処理装置20の画像取得部20aから出力された対象物モデル画像D1を表示するとともに、人工知能プログラム21による検査対象物画像D5における組織T2の検査の結果を結果データD6として表示する。
In the present embodiment, the
次に、本実施の形態に係る検査システム1の運用について説明する。 Next, the operation of the inspection system 1 according to the present embodiment will be described.
ユーザは、まず、複数の対象物モデル画像D1をスキャナ11で取り込んで、取り込んだ複数の対象物モデル画像D1を画像処理装置20に出力させる。
First, the user captures a plurality of object model images D1 with the
画像処理装置20に出力させた複数の対象物モデル画像D1は、ディスプレイ機能設定部22に出力されてディスプレイ12に表示されるとともに、人工知能プログラム21に出力される。
The plurality of object model images D1 output to the
ユーザは、ディスプレイ12に表示される複数の対象物モデル画像D1を観察しながら、例えばマウスやポインティングデバイスといった外部入力機器を操作して、人口知能プログラム21に出力された複数の対象物モデル画像D1にアノテーションD2を付与する。
While observing a plurality of object model images D1 displayed on the
本実施の形態では、対象物モデル画像D1に画像として取り込まれた病理標本の組織T1の特徴として存在する複数の異常細胞Cのそれぞれについて、がん細胞であるか否かを判断し、がん細胞であると判断した異常細胞CにアノテーションD2を付与する。 In the present embodiment, each of the plurality of abnormal cells C existing as a feature of the tissue T1 of the pathological specimen captured as an image in the object model image D1 is determined whether or not it is a cancer cell. Annotation D2 is given to the abnormal cell C determined to be a cell.
このように、人口知能プログラム21に出力された対象物モデル画像D1にアノテーションD2が付与されることによって、人工知能プログラム21において、対象物モデル画像D1から学習データD3が生成される。
As described above, the annotation D2 is given to the object model image D1 output to the
学習データD3が生成されると、人工知能プログラム21では、生成した学習データD3で機械学習が実行されることによって、学習済みモデルD4が生成される。これにより、検査システム1で検査対象物画像D5における組織T2を検査する準備が完了する。
When the learning data D3 is generated, the
続いて、ユーザは、検査対象物画像D5をスキャナ11で取り込んで、取り込んだ検査対象物画像D5を人工知能プログラム21に出力させる。
Subsequently, the user captures the inspection object image D5 with the
人工知能プログラム21は、学習済みモデルD4に基づいて、学習済みモデルD4として学習された対象物モデル画像D1における組織T1の複数の異常細胞Cと一致する異常細胞Cが、検査対象物画像D5における組織T2に存在するか否かを自律的に判断して、組織T2を検査する。
Based on the learned model D4, the
人工知能プログラム21による組織T2の検査の結果は、表示基準設定部22bに予め設定された表示基準に基づいて、結果データD6としてディスプレイ12に表示される。
The result of the examination of the tissue T2 by the
例えば、組織T1の複数の異常細胞Cと一致する異常細胞Cが検査対象物画像D5における組織T2に存在する割合が60%であると表示基準に定められているのであれば、60%の割合で一致する人工知能プログラム21による組織T2の検査の結果が結果データとしてディスプレイ12に表示される。
For example, if the display standard defines that the proportion of abnormal cells C that coincide with a plurality of abnormal cells C in the tissue T1 in the tissue T2 in the inspection object image D5 is 60%, the proportion is 60%. The result of the examination of the tissue T2 by the
一方、予め設定された表示基準を表示基準変更部22cで変更することによって、組織T1の複数の異常細胞Cと組織T2の異常細胞Cとの一致の割合を所望の割合に変更して、変更した一致の割合に対応した結果データD6をディスプレイ12に表示させることができる。
On the other hand, by changing the preset display standard by the display
したがって、例えば、80%以上の割合で一致する人工知能プログラム21による組織T2の検査の結果が結果データD6としてディスプレイ12に表示されると、異常細胞Cではあってもがん細胞ではないものまでマーカMが付されて結果データD6がディスプレイ12に表示されてしまうといった場合が想定される。
Therefore, for example, when the result of the examination of the tissue T2 by the
このような場合には、60%〜80%の割合で一致する人工知能プログラム21による組織T2の検査の結果が結果データD6としてディスプレイ12に表示されるように表示基準を変更して、がん細胞ではない異常細胞CにはマーカMが付されていない結果データD6がディスプレイ12に表示されるようにすればよい。
In such a case, the display standard is changed so that the result of the examination of the tissue T2 by the
一方、ディスプレイ12に表示される結果データD6を見て、人工知能プログラム21が組織T2の異常細胞Cをがん細胞であると判断する一致の割合が高すぎる、あるいは低すぎると判断した場合は、結果データD6を対象物モデル画像D1と見立てて、アノテーションD2の付与を再度行って、人工知能プログラム21の再度の学習に供する。
On the other hand, when the result data D6 displayed on the
このように、本実施の形態の検査システム1は、画像処理装置20において、アノテーションD2を付与するという簡易な操作によって、人工知能プログラム21に大量に入力される対象物モデル画像D1に、画像として予め取り込まれた組織T2の異常細胞Cを、組織T2の特徴として選択することができる。
As described above, the inspection system 1 according to the present embodiment uses the
しかも、対象物モデル画像D1にアノテーションD2を付与することによって、対象物モデル画像D1を学習データD3とすることができることから、アノテーションD2を付与するという簡易な操作によって、学習データD3を容易に生成することができる。 Moreover, since the object model image D1 can be used as the learning data D3 by adding the annotation D2 to the object model image D1, the learning data D3 can be easily generated by a simple operation of adding the annotation D2. can do.
本実施の形態の検査システム1は、アノテーションD2を対象物モデル画像D1に付与するという簡易な操作で学習データD3を容易に生成することができることから、人工知能プログラム21が、効率的に機械学習を行うことができる。
Since the inspection system 1 according to the present embodiment can easily generate the learning data D3 by a simple operation of assigning the annotation D2 to the object model image D1, the
したがって、検査対象物画像D5における組織T2の検査を行う際の作業性を向上させることができる。 Therefore, the workability at the time of inspecting the tissue T2 in the inspection object image D5 can be improved.
しかも、人工知能プログラム21による組織T2の検査を結果データD6としてディスプレイ12に表示させる際に、予め設定された表示基準を表示基準変更部22cで変更することができることから、所望の表示基準で結果データD6をディスプレイ12に表示させることができる。
In addition, when the examination of the tissue T2 by the
この表示基準変更部22cは、表示基準の下限を設定するMinスライダ22ca、及びMinスライダ22caと独立して表示基準の上限を設定するMaxスライダ22cbを備え、それぞれ独立して操作することができることから、表示基準を変更する際の操作性が向上する。
The display
なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲で種々変更可能である。上記実施の形態では、対象物W1及び検査対象物W2がそれぞれ、人体から採取した組織T1及び組織T2である場合を説明したが、例えば樹脂製品や半導体基板の表面の汚れ、混入した不純物、あるいは成形不良部分といったように、検査システム1で検査可能なものであれば、対象物W1及び検査対象物W2とすることができる。 In addition, this invention is not limited to the said embodiment, A various change is possible in the range which does not deviate from the meaning of invention. In the above-described embodiment, the case where the object W1 and the inspection object W2 are the tissue T1 and the tissue T2 respectively collected from the human body has been described. For example, the surface of the resin product or the semiconductor substrate, contaminated impurities, Any object that can be inspected by the inspection system 1 such as a defective molding portion can be the object W1 and the inspection object W2.
上記実施の形態では、アノテーションD2の付与が、マウスやポインティングデバイスといった外部入力機器が操作されることによって付与される場合を説明したが、例えばタッチパネル型のディスプレイを採用して、画面に接触することでアノテーションD2を付与するように構成してもよい。 In the above-described embodiment, the case where the annotation D2 is given by operating an external input device such as a mouse or a pointing device has been described. For example, a touch panel display is used to touch the screen. In this case, the annotation D2 may be added.
1 検査システム
10 コンピュータ
12 ディスプレイ(表示部)
20 画像処理装置
20b アノテーション付与部
21 人工知能プログラム
22 ディスプレイ機能設定部
22b 表示基準設定部
22c 表示基準変更部
D1 対象物モデル画像
D2 アノテーション
D3 学習データ
D4 学習済みモデル
D5 検査対象物画像
D6 結果データ
T1 組織
T2 組織
W1 対象物
W2 検査対象物
1
20
Claims (4)
前記対象物が画像として取り込まれた対象物モデル画像における前記対象物の任意の部分を前記対象物の特徴として選択してアノテーションを付与するアノテーション付与部を備え、
該アノテーション付与部で前記対象物モデル画像に前記アノテーションが付与されることによって該対象物モデル画像から前記学習データが生成されることを特徴とする画像処理装置。 In an image processing device that generates learning data that causes an artificial intelligence program to autonomously determine whether or not a feature that matches the feature of the target exists in the test target, machine learning,
An annotation adding unit that selects an arbitrary portion of the object in the object model image in which the object is captured as an image and adds an annotation as a feature of the object;
An image processing apparatus, wherein the learning data is generated from the object model image by adding the annotation to the object model image by the annotation adding unit.
前記対象物が画像として取り込まれた対象物モデル画像を表示する表示部と、
該表示部に表示された前記対象物モデル画像に画像として取り込まれた前記対象物の任意の部分を前記対象物の特徴として選択してアノテーションを付与するアノテーション付与部と、
該アノテーション付与部で前記対象物モデル画像に前記アノテーションが付与されることによって該対象物モデル画像から生成された学習データにより機械学習をさせた学習済みモデルに基づいて該学習済みモデルとして学習された前記対象物の特徴と一致する特徴が前記検査対象物に存在するか否かを自律的に判断して前記検査対象物を検査する人工知能プログラムと、
を備えることを特徴とする検査システム。 In the inspection system for inspecting the inspection object by determining whether the inspection object has a feature that matches the characteristic of the object,
A display unit for displaying an object model image in which the object is captured as an image;
An annotation giving unit for selecting an arbitrary part of the target object captured as an image in the target object model image displayed on the display unit as a feature of the target object and giving an annotation;
The annotation giving unit learns the learned model based on the learned model that has been machine-learned by the learning data generated from the object model image by giving the annotation to the object model image. An artificial intelligence program that autonomously determines whether or not a feature that matches the feature of the object exists in the inspection object and inspects the inspection object;
An inspection system comprising:
前記表示基準を変更して変更した前記表示基準に対応した前記検査対象物の検査の結果を前記表示部に表示させる表示基準変更部を備えることを特徴とする請求項2に記載の検査システム。 The result of the inspection of the inspection object by the artificial intelligence program based on a preset display standard is displayed on the display unit,
The inspection system according to claim 2, further comprising: a display reference changing unit that causes the display unit to display a result of the inspection of the inspection object corresponding to the display reference changed by changing the display reference.
前記表示基準の上限及び下限が互いに独立して設定可能に形成されていることを特徴とする請求項3に記載の検査システム。 The display reference changing unit
The inspection system according to claim 3, wherein an upper limit and a lower limit of the display standard are configured to be set independently of each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018094258A JP7235272B2 (en) | 2018-05-16 | 2018-05-16 | Image processing device and inspection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018094258A JP7235272B2 (en) | 2018-05-16 | 2018-05-16 | Image processing device and inspection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019200558A true JP2019200558A (en) | 2019-11-21 |
JP7235272B2 JP7235272B2 (en) | 2023-03-08 |
Family
ID=68613143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018094258A Active JP7235272B2 (en) | 2018-05-16 | 2018-05-16 | Image processing device and inspection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7235272B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021206053A1 (en) * | 2020-04-06 | 2021-10-14 | ||
WO2022182163A1 (en) * | 2021-02-24 | 2022-09-01 | (주) 제이엘케이 | Method and device for automatically providing data processing, artificial intelligence model generation, and performance enhancement |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07230439A (en) * | 1994-02-17 | 1995-08-29 | Fujitsu Ltd | Category classification device with teacher |
JP2000057349A (en) * | 1998-08-10 | 2000-02-25 | Hitachi Ltd | Method for sorting defect, device therefor and method for generating data for instruction |
JP2011145791A (en) * | 2010-01-13 | 2011-07-28 | Hitachi Ltd | Classifier learning image production program, method and system |
JP2012038244A (en) * | 2010-08-11 | 2012-02-23 | Fuji Xerox Co Ltd | Learning model creation program, image identification information giving program, learning model creation device, image identification information giving device |
JP2012084117A (en) * | 2010-09-13 | 2012-04-26 | Tokyo Institute Of Technology | Attribute-learning and -transferring system, recognizer generation device, recognizer generation method and recognition device |
JP2013164313A (en) * | 2012-02-10 | 2013-08-22 | Keyence Corp | Screen display data editing device and screen display editing method |
JP2013182395A (en) * | 2012-03-01 | 2013-09-12 | Nissan Motor Co Ltd | Object inspection device, object inspection method, and object inspection program |
JP2016028250A (en) * | 2010-06-25 | 2016-02-25 | シレカ セラノスティクス エルエルシーCireca Theranostics,Llc | Method of analyzing biological test piece with spectrum image |
JP2017516992A (en) * | 2014-05-23 | 2017-06-22 | ベンタナ メディカル システムズ, インコーポレイテッド | System and method for detection of biological structures and / or patterns in images |
JP2017162098A (en) * | 2016-03-08 | 2017-09-14 | 富士通株式会社 | Learning method, information processing device and learning program |
-
2018
- 2018-05-16 JP JP2018094258A patent/JP7235272B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07230439A (en) * | 1994-02-17 | 1995-08-29 | Fujitsu Ltd | Category classification device with teacher |
JP2000057349A (en) * | 1998-08-10 | 2000-02-25 | Hitachi Ltd | Method for sorting defect, device therefor and method for generating data for instruction |
JP2011145791A (en) * | 2010-01-13 | 2011-07-28 | Hitachi Ltd | Classifier learning image production program, method and system |
JP2016028250A (en) * | 2010-06-25 | 2016-02-25 | シレカ セラノスティクス エルエルシーCireca Theranostics,Llc | Method of analyzing biological test piece with spectrum image |
JP2012038244A (en) * | 2010-08-11 | 2012-02-23 | Fuji Xerox Co Ltd | Learning model creation program, image identification information giving program, learning model creation device, image identification information giving device |
JP2012084117A (en) * | 2010-09-13 | 2012-04-26 | Tokyo Institute Of Technology | Attribute-learning and -transferring system, recognizer generation device, recognizer generation method and recognition device |
JP2013164313A (en) * | 2012-02-10 | 2013-08-22 | Keyence Corp | Screen display data editing device and screen display editing method |
JP2013182395A (en) * | 2012-03-01 | 2013-09-12 | Nissan Motor Co Ltd | Object inspection device, object inspection method, and object inspection program |
JP2017516992A (en) * | 2014-05-23 | 2017-06-22 | ベンタナ メディカル システムズ, インコーポレイテッド | System and method for detection of biological structures and / or patterns in images |
JP2017162098A (en) * | 2016-03-08 | 2017-09-14 | 富士通株式会社 | Learning method, information processing device and learning program |
Non-Patent Citations (2)
Title |
---|
池松 大志、外5名: ""Deep Learning画像認識エンジン生成作業効率化インターフェースの開発"", 電子情報通信学会技術研究報告, vol. 115, no. 415, JPN6022003254, 14 January 2016 (2016-01-14), JP, pages 89 - 94, ISSN: 0004987938 * |
関根 良浩、外2名: ""GA・GP+MT法による外観検査性能の向上"", RICOH TECHNICAL REPORT, JPN6022018813, 25 December 2012 (2012-12-25), JP, pages 123 - 130, ISSN: 0004839135 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021206053A1 (en) * | 2020-04-06 | 2021-10-14 | ||
JP7236202B2 (en) | 2020-04-06 | 2023-03-09 | 国立大学法人 新潟大学 | Data generation device, data generation method and program |
WO2022182163A1 (en) * | 2021-02-24 | 2022-09-01 | (주) 제이엘케이 | Method and device for automatically providing data processing, artificial intelligence model generation, and performance enhancement |
Also Published As
Publication number | Publication date |
---|---|
JP7235272B2 (en) | 2023-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11960571B2 (en) | Method and apparatus for training image recognition model, and image recognition method and apparatus | |
US11850021B2 (en) | Dynamic self-learning medical image method and system | |
JP6348504B2 (en) | Biological sample split screen display and system and method for capturing the records | |
JP5547597B2 (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program | |
KR20220158218A (en) | Systems and methods for processing images for skin analysis and visualizing skin analysis | |
JP2019091454A (en) | Data analysis processing device and data analysis processing program | |
US20230048386A1 (en) | Method for detecting defect and method for training model | |
JP2011180845A (en) | Inference apparatus | |
US20200311931A1 (en) | Method for analyzing image of biopsy specimen to determine cancerous probability thereof | |
US20220044147A1 (en) | Teaching data extending device, teaching data extending method, and program | |
CN107533323A (en) | Information processor, information processing system and message handling program | |
JP2019200558A (en) | Image processing device and inspection system | |
CN113705595A (en) | Method, device and storage medium for predicting degree of abnormal cell metastasis | |
EP2834775B1 (en) | Method and system for assisting the visual exploration of an image during a target search | |
JP2016133899A (en) | Information processor, information processing method, and program | |
CN116869555A (en) | Scanning protocol adjusting method, device and storage medium | |
JP5702943B2 (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program | |
KR102665091B1 (en) | Apparatus and method for processing medical information | |
JP2015022438A (en) | Report creation support device, method thereof, and program | |
JP2021128415A (en) | Machine learning method and information processing device for machine learning | |
Rao et al. | OCTAI: Smartphone-based Optical Coherence Tomography Image Analysis System | |
JP2021185924A (en) | Medical diagnosis support device, medical diagnosis support program, and medical diagnosis support method | |
CN105326527B (en) | Method and device for controlling display of reference image in fused ultrasonic image | |
Becerra-Rico | The Augmented Worker | |
TW201810173A (en) | Method and system for assisting in making a decision on nursing care |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221027 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221027 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20221115 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230124 |
|
C092 | Termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C092 Effective date: 20230131 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7235272 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |