JP2022082952A - Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system - Google Patents
Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system Download PDFInfo
- Publication number
- JP2022082952A JP2022082952A JP2020194146A JP2020194146A JP2022082952A JP 2022082952 A JP2022082952 A JP 2022082952A JP 2020194146 A JP2020194146 A JP 2020194146A JP 2020194146 A JP2020194146 A JP 2020194146A JP 2022082952 A JP2022082952 A JP 2022082952A
- Authority
- JP
- Japan
- Prior art keywords
- image
- discrimination
- tumor
- oral
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 80
- 206010028980 Neoplasm Diseases 0.000 claims abstract description 305
- 210000000214 mouth Anatomy 0.000 claims abstract description 71
- 201000011510 cancer Diseases 0.000 claims abstract description 23
- 230000036541 health Effects 0.000 claims abstract description 12
- 230000003211 malignant effect Effects 0.000 claims description 61
- 238000001228 spectrum Methods 0.000 claims description 57
- 230000006870 function Effects 0.000 claims description 54
- 238000006243 chemical reaction Methods 0.000 claims description 26
- 230000001131 transforming effect Effects 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 120
- 208000023983 oral cavity neoplasm Diseases 0.000 abstract 5
- 208000013481 benign neoplasm of oral cavity Diseases 0.000 abstract 2
- 201000005443 oral cavity cancer Diseases 0.000 abstract 2
- 230000008569 process Effects 0.000 description 66
- 238000004891 communication Methods 0.000 description 40
- 238000003384 imaging method Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 23
- 210000001519 tissue Anatomy 0.000 description 16
- 210000002569 neuron Anatomy 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 10
- 238000012216 screening Methods 0.000 description 8
- 230000003595 spectral effect Effects 0.000 description 8
- 238000011176 pooling Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000001575 pathological effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 208000003445 Mouth Neoplasms Diseases 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 208000012987 lip and oral cavity carcinoma Diseases 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 206010041823 squamous cell carcinoma Diseases 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 102000008186 Collagen Human genes 0.000 description 2
- 108010035532 Collagen Proteins 0.000 description 2
- 229920001436 collagen Polymers 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000004877 mucosa Anatomy 0.000 description 2
- 230000009854 mucosal lesion Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 206010006895 Cachexia Diseases 0.000 description 1
- 206010067807 Gingival cancer Diseases 0.000 description 1
- 206010027476 Metastases Diseases 0.000 description 1
- 229910019687 S105-No Inorganic materials 0.000 description 1
- 206010062129 Tongue neoplasm Diseases 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000000981 epithelium Anatomy 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000008595 infiltration Effects 0.000 description 1
- 238000001764 infiltration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000009401 metastasis Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000003254 palate Anatomy 0.000 description 1
- 238000002559 palpation Methods 0.000 description 1
- 210000003800 pharynx Anatomy 0.000 description 1
- 210000003079 salivary gland Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 201000006134 tongue cancer Diseases 0.000 description 1
- 239000000439 tumor marker Substances 0.000 description 1
Images
Landscapes
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Endoscopes (AREA)
Abstract
Description
本明細書で開示された実施形態は、口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行うための、判別装置、判別端末装置、判別装置の制御方法及び制御プログラム、並びに判別システムに関する。 The embodiments disclosed in the present specification include a discrimination device, a discrimination terminal device, a control method and control program of the discrimination device, and a discrimination for discriminating the presence or absence of an oral tumor and discriminating between benign and malignant oral tumors. Regarding the system.
従来、口腔癌のスクリーニングは、主に医師による視診及び触診によって実施される。近年、口腔癌のスクリーニングにおいて用いられるスクリーニングデバイスとして、蛍光観察装置が実用化されている。 Conventionally, screening for oral cancer is mainly performed by inspection and palpation by a doctor. In recent years, a fluorescence observation device has been put into practical use as a screening device used in the screening of oral cancer.
蛍光観察装置は、外部からの光照射に対する口腔内の健常組織及び病的組織における励起光の特徴を利用した光学機器であり、435~460nmの波長の青色光を照射する。口腔内の健常組織はコラーゲンを有するため、蛍光観察装置によって照射された青色光により、健常組織において蛍光可視が保持される。一方、口腔内の病的組織では、コラーゲンが壊れているため、蛍光観察装置により青色光が照射されても蛍光可視の低下が起こり、暗色が観察される。このように、医師は、蛍光観察装置を用いることにより、患部に接触することなく、非常に簡便で非侵襲的なスクリーニング検査を実施することができる。 The fluorescence observation device is an optical device that utilizes the characteristics of excitation light in healthy tissues and pathological tissues in the oral cavity with respect to external light irradiation, and irradiates blue light having a wavelength of 435 to 460 nm. Since the healthy tissue in the oral cavity has collagen, the fluorescence visibility is maintained in the healthy tissue by the blue light irradiated by the fluorescence observation device. On the other hand, in the pathological tissue in the oral cavity, since collagen is broken, even if blue light is irradiated by the fluorescence observation device, the fluorescence visibility is lowered and a dark color is observed. As described above, by using the fluorescence observation device, the doctor can carry out a very simple and non-invasive screening test without contacting the affected area.
例えば、特許文献1には、標的組織から発光する蛍光又は他の微弱光を検出する検査鏡、及び、標的組織を覆うことで周囲室内光等の不都合な光の観察領域への侵入を防止する覆装置又は前置装置について記載されている。また、特許文献2には、カメラ及び蛍光可視装置によって撮影された患者の口腔内のデジタル画像データを管理し、口腔内検診を支援する口腔内検診管理システムについて記載されている。
For example, Patent Document 1 describes an inspection mirror that detects fluorescence emitted from a target tissue or other weak light, and covers the target tissue to prevent intrusion of inconvenient light such as ambient room light into the observation area. Describes a cover device or a front-end device. Further,
特許文献3には、特定健診項目の測定値を要素とする特徴ベクトルを入力値とし、所定の腫瘍マーカーの測定値を教師値として用いて学習した予測モデルに基づいて、所定の疾病について罹病の可能性を予測する機械学習装置について記載されている。また、特許文献4及び5には、医療画像を用いて学習した学習モデルに基づいて、腫瘍の良悪性を判別する技術について記載されている。
In Patent Document 3, a feature vector having a measured value of a specific medical examination item as an element is used as an input value, and a predicted model learned by using a measured value of a predetermined tumor marker as a teacher value is used as an input value. A machine learning device that predicts the possibility of Further,
従来の蛍光観察に係る技術が用いられることで、健常粘膜から口腔粘膜病変をスクリーニングする可能性が向上したが、蛍光観察に係る技術だけでは、経験の浅い医師にとって、口腔内の腫瘍の良悪性の鑑別を行うことは難しかった。このため、口腔癌のスクリーニングにおいて、蛍光観察装置が用いられたとしても、医師の主観的な判断に頼らざるを得ず、診断の精度は、担当医師の経験に依存してしまうという問題が生じていた。 The use of conventional techniques related to fluorescence observation has improved the possibility of screening oral mucosal lesions from healthy mucosa, but the techniques related to fluorescence observation alone have improved the possibility of screening oral mucosal lesions. It was difficult to distinguish between them. For this reason, even if a fluorescence observation device is used in the screening of oral cancer, there is no choice but to rely on the subjective judgment of the doctor, and the accuracy of the diagnosis depends on the experience of the doctor in charge. Was there.
また、従来の機械学習を用いた腫瘍の判別技術では、医療画像又は検査装置による測定値を単に入力データとして学習するだけであり、熟練した専門医の知見を効果的に反映した判別処理が実現されていなかった。このような機械学習では、人間によって入力された特徴量が教師データとして用いられることがあり、学習済みの判別モデルによる識別性能は、特徴量を設定した人に依存し、有用且つ潜在的な特徴を見逃している可能性があった。 Further, in the conventional tumor discrimination technique using machine learning, the measurement value by the medical image or the inspection device is simply learned as input data, and the discrimination process that effectively reflects the knowledge of a skilled specialist is realized. I wasn't. In such machine learning, features input by humans may be used as teacher data, and the discrimination performance by the trained discrimination model depends on the person who set the features, which is useful and potential features. I could have missed it.
開示された判別装置、判別端末装置、判別装置の制御方法及び制御プログラム、並びに判別システムは、熟練した専門医の知見を効果的に判別処理に適用し、精度の高い口腔内腫瘍の判別を実現することを可能とする。 The disclosed discrimination device, discrimination terminal device, control method and control program of the discrimination device, and the discrimination system effectively apply the knowledge of a skilled specialist to the discrimination process to realize highly accurate discrimination of oral tumors. Make it possible.
開示された判別装置は、青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別装置であって、撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、学習済みの第1判別モデルに対して空間周波数スペクトルを入力し、入力された空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、学習済みの第2判別モデルに対して撮影画像を入力し、入力された撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、第1判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、又は、第2判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して撮影画像を入力し、入力された撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、第1判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別され且つ第2判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、又は、第3判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、患者の口腔内に口腔内腫瘍が存在しないことを示す健常情報を出力し、第3判別部によって撮影画像が良性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、第3判別部によって撮影画像が悪性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部とを有する。 The disclosed discrimination device is a discrimination device that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor by using a photographed image of the oral cavity of a patient irradiated with blue light. A transforming unit that generates a spatial frequency spectrum by Fourier transforming an image and a spatial frequency spectrum that has been trained for the first discrimination model are input, and the captured image corresponding to the input spatial frequency spectrum is an oral tumor. A captured image is input to the first discriminant unit that discriminates whether or not the image contains the tumor and the trained second discriminant model, and whether or not the input captured image is an image containing an intraoral tumor. When the captured image is determined to be an image containing an oral tumor by the second discrimination unit and the first discrimination unit, or when the captured image is an image containing an oral tumor by the second discrimination unit. If discriminated, a captured image is input to the trained third discrimination model, and the input captured image includes an image containing a benign oral tumor, an image containing a malignant oral tumor, and an oral tumor. The third discrimination unit that determines which of the images does not contain the tumor, and the first discrimination unit determine that the captured image is an image that does not contain an oral tumor, and the second discrimination unit determines that the captured image is an oral tumor. If it is determined that the image does not contain an oral tumor, or if the captured image is determined to be an image that does not contain an oral tumor by the third discrimination unit, it is determined that there is no oral tumor in the patient's oral cavity. When the health information shown is output and the captured image is determined by the third discrimination unit to be an image containing a benign oral tumor, the benign tumor information indicating the presence of a benign oral tumor in the patient's oral cavity. Is output, and when the captured image is determined to be an image containing a malignant oral tumor by the third discrimination unit, malignant tumor information indicating the presence of a malignant oral tumor in the patient's oral cavity is output. It has an output unit.
また、開示された判別装置において、第2判別部は、第1判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合に限り、学習済みの第2判別モデルに対して撮影画像を入力し、撮影画像が口腔内腫瘍を含む画像であるか否かを判別することが好ましい。 Further, in the disclosed discrimination device, the second discrimination unit refers to the trained second discrimination model only when the captured image is determined by the first discrimination unit to be an image that does not include an intraoral tumor. It is preferable to input a captured image and determine whether or not the captured image is an image containing an oral tumor.
また、開示された判別装置は、出力部によって出力された各情報を表示する表示部を有することが好ましい。 Further, it is preferable that the disclosed discrimination device has a display unit that displays each information output by the output unit.
また、開示された判別装置は、空間周波数スペクトルを入力データとし、空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを示すデータを出力データとして、第1判別モデルを学習させ、撮影画像を入力データとし、撮影画像が口腔内腫瘍を含む画像であるか否かを示すデータを出力データとして、第2判別モデルを学習させ、撮影画像を入力データとし、撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像、のいずれかであることを示すデータを出力データとして、第3判別モデルを学習させる学習部を有することが好ましい。 Further, the disclosed discrimination device uses the spatial frequency spectrum as input data, and uses the data indicating whether or not the captured image corresponding to the spatial frequency spectrum is an image including an oral tumor as output data, and uses the first discrimination model. The training is performed, the captured image is used as input data, the data indicating whether or not the captured image is an image containing an intraoral tumor is used as output data, the second discrimination model is trained, the captured image is used as input data, and the captured image is , An image containing a benign oral tumor, an image containing a malignant oral tumor, and an image not containing an oral tumor, as output data, and training to train the third discrimination model. It is preferable to have a portion.
また、開示された判別装置は、第2判別モデル及び第3判別モデルを学習させるために用いられる入力データは、撮影した撮影画像を複数に分割した分割画像、並びに、分割画像を左右回転した画像、及び分割画像を左右反転した画像よりなる群から選択される一種以上の画像を含むことが好ましい。 Further, in the disclosed discrimination device, the input data used for learning the second discrimination model and the third discrimination model is a divided image obtained by dividing the captured image into a plurality of captured images, and an image obtained by rotating the divided image left and right. , And one or more images selected from the group consisting of left-right inverted divided images.
開示された判別端末装置は、青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別端末装置であって、青色光を照射する照射部と、所定の撮影方向の撮影対象空間を撮影する撮影部と、撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、学習済みの第1判別モデルに対して空間周波数スペクトルを入力し、入力された空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、学習済みの第2判別モデルに対して撮影画像を入力し、入力された撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、第1判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、又は、第2判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して撮影画像を入力し、入力された撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、第1判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別され且つ第2判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、又は、第3判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、患者の口腔内に口腔内腫瘍が存在しないことを示す健常情報を出力し、第3判別部によって撮影画像が良性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、第3判別部によって撮影画像が悪性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部と、を有する。 The disclosed discrimination terminal device is a discrimination terminal device that discriminates the presence or absence of an oral tumor and discriminates whether the oral tumor is benign or malignant by using a photographed image of the oral cavity of a patient irradiated with blue light. , The irradiation unit that irradiates blue light, the imaging unit that captures the imaging target space in a predetermined imaging direction, the conversion unit that generates a spatial frequency spectrum by Fourier transforming the captured image, and the learned first discrimination. A first discriminant unit that inputs a spatial frequency spectrum to the model and determines whether or not the captured image corresponding to the input spatial frequency spectrum is an image containing an intraoral tumor, and a trained second discriminant model. A second discriminant unit that inputs a captured image to the subject and determines whether or not the input captured image is an image containing an oral tumor, and an image captured by the first discriminant unit that includes an oral tumor. If it is determined to be present, or if the captured image is determined to be an image containing an intraoral tumor by the second discrimination unit, the captured image is input to the trained third discrimination model and input. Photographed by a third discriminating unit and a first discriminating unit that determine whether the captured image is an image containing a benign oral tumor, an image containing a malignant oral tumor, or an image not containing an oral tumor. When the image is determined to be an image that does not contain an oral tumor and the captured image is determined to be an image that does not contain an oral tumor by the second discrimination unit, or the captured image is an intraoral image by the third discrimination unit. When it is determined that the image does not contain a tumor, health information indicating that an oral tumor does not exist in the patient's oral cavity is output, and the image taken by the third discrimination unit is an image containing a benign oral tumor. If it is determined to be present, benign tumor information indicating that a benign oral tumor is present in the patient's oral cavity is output, and the image taken by the third discrimination unit is determined to be an image containing a malignant oral tumor. If so, it has an output unit that outputs malignant tumor information indicating that a malignant oral tumor is present in the oral cavity of the patient.
開示された制御方法は、青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別装置の制御方法であって、撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成し、学習済みの第1判別モデルに対して空間周波数スペクトルを入力し、入力された空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第1判別ステップと、学習済みの第2判別モデルに対して撮影画像を入力し、入力された撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第2判別ステップと、第1判別ステップにおいて撮影画像が口腔内腫瘍を含む画像であると判別された場合、又は、第2判別ステップにおいて撮影画像が口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して撮影画像を入力し、入力された撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別ステップと、第1判別ステップにおいて撮影画像が口腔内腫瘍を含まない画像であると判別され且つ第2判別ステップにおいて撮影画像が口腔内腫瘍を含まない画像であると判別された場合、又は、第3判別ステップにおいて撮影画像が口腔内腫瘍を含まない画像であると判別された場合、患者の口腔内に口腔内腫瘍が存在しないことを示す健常情報を出力し、第3判別ステップにおいて撮影画像が良性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、第3判別ステップにおいて撮影画像が悪性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力ステップとを含む。 The disclosed control method is a control method of a discrimination device that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor by using a photographed image of the oral cavity of a patient irradiated with blue light. Then, a spatial frequency spectrum is generated by Fourier transforming the captured image, the spatial frequency spectrum is input to the trained first discrimination model, and the captured image corresponding to the input spatial frequency spectrum is an oral tumor. The first discrimination step for determining whether or not the image contains the tumor, and the captured image is input to the trained second discrimination model, and whether or not the input captured image is an image containing an intraoral tumor. When the captured image is determined to be an image containing an oral tumor in the second discrimination step and the first discrimination step, or when the captured image is an image containing an oral tumor in the second discrimination step. If discriminated, a captured image is input to the trained third discrimination model, and the input captured image includes an image containing a benign oral tumor, an image containing a malignant oral tumor, and an oral tumor. In the third discrimination step for determining which of the images does not contain, and in the first discrimination step, the captured image is determined to be an image that does not contain an oral tumor, and in the second discrimination step, the captured image is an oral tumor. If it is determined that the image does not contain an oral tumor, or if the captured image is determined to be an image that does not contain an oral tumor in the third discrimination step, it is determined that there is no oral tumor in the patient's oral cavity. If the captured image is determined to be an image containing a benign oral tumor in the third discrimination step, the benign tumor information indicating that a benign oral tumor is present in the patient's oral cavity is output. Is output, and when the captured image is determined to be an image containing a malignant oral tumor in the third discrimination step, malignant tumor information indicating the presence of a malignant oral tumor in the patient's oral cavity is output. Includes output steps.
開示された制御プログラムは、青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別装置の制御プログラムであって、撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換機能と、学習済みの第1判別モデルに対して空間周波数スペクトルを入力し、入力された空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第1判別機能と、学習済みの第2判別モデルに対して撮影画像を入力し、入力された撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第2判別機能と、第1判別機能において撮影画像が口腔内腫瘍を含む画像であると判別された場合、又は、第2判別機能において撮影画像が口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して撮影画像を入力し、入力された撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別機能と、第1判別機能において撮影画像が口腔内腫瘍を含まない画像であると判別され且つ第2判別機能において撮影画像が口腔内腫瘍を含まない画像であると判別された場合、又は、第3判別機能において撮影画像が口腔内腫瘍を含まない画像であると判別された場合、患者の口腔内に口腔内腫瘍が存在しないことを示す健常情報を出力し、第3判別機能において撮影画像が良性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、第3判別機能において撮影画像が悪性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力機能とを判別装置に実現させる。 The disclosed control program is a control program of a discrimination device that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor by using a photographed image of the oral cavity of a patient irradiated with blue light. Then, a conversion function that generates a spatial frequency spectrum by Fourier transforming the captured image and a captured image that corresponds to the input spatial frequency spectrum by inputting the spatial frequency spectrum to the trained first discrimination model. The first discrimination function for discriminating whether or not the image contains an oral tumor and the captured image are input to the trained second discrimination model, and the input captured image is an image containing an oral tumor. When the second discrimination function for discriminating whether or not the image is determined by the first discrimination function and the captured image is an image containing an oral tumor, or when the second discrimination function determines that the captured image contains an oral tumor. If it is determined to be, an image taken is input to the trained third discrimination model, and the input image is an image containing a benign oral tumor, an image containing a malignant oral tumor, and an image containing a malignant oral tumor. The third discrimination function that discriminates which of the images does not contain the oral tumor and the first discrimination function determine that the captured image is an image that does not contain the oral tumor, and the second discrimination function captures the captured image. If it is determined that the image does not contain an oral tumor, or if the captured image is determined to be an image that does not contain an oral tumor by the third discrimination function, an oral tumor is present in the patient's oral cavity. If the image taken by the third discrimination function is determined to be an image containing a benign oral tumor, it indicates that a benign oral tumor is present in the patient's oral cavity. When benign tumor information is output and the captured image is determined to be an image containing a malignant oral tumor by the third discrimination function, malignant tumor information indicating the presence of a malignant oral tumor in the patient's oral cavity. The discriminator realizes the output function to output.
開示された判別システムは、青色光が照射された患者の口腔内を撮影し、撮影された撮影画像を出力する端末装置と、撮影画像を用いて口腔内腫瘍の存否を判別する判別装置とを有する判別システムであって、端末装置は、青色光を照射する照射部と、所定の撮影方向の撮影対象空間を撮影する撮影部と、撮影された撮影画像を出力する端末出力部とを有し、判別装置は、撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、学習済みの第1判別モデルに対して空間周波数スペクトルを入力し、入力された空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、学習済みの第2判別モデルに対して撮影画像を入力し、入力された撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、第1判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、又は、第2判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して撮影画像を入力し、入力された撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、第1判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別され且つ第2判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、又は、第3判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、患者の口腔内に口腔内腫瘍が存在しないことを示す健常情報を出力し、第3判別部によって撮影画像が良性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、第3判別部によって撮影画像が悪性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部とを有する。 The disclosed discrimination system includes a terminal device that photographs the oral cavity of a patient irradiated with blue light and outputs the captured image, and a discrimination device that determines the presence or absence of an oral tumor using the captured image. The terminal device has an irradiation unit that irradiates blue light, a shooting unit that shoots a shooting target space in a predetermined shooting direction, and a terminal output unit that outputs a shot image. The discriminator inputs the spatial frequency spectrum to the first discriminant model that has been trained and the conversion unit that generates the spatial frequency spectrum by Fourier transforming the captured image, and corresponds to the input spatial frequency spectrum. The captured image is input to the first discrimination unit that determines whether or not the captured image is an image containing an oral tumor and the trained second discrimination model, and the input captured image contains an oral tumor. When the second discrimination unit that determines whether or not the image is an image and the first discrimination unit determine that the captured image is an image containing an oral tumor, or the second discrimination unit determines that the captured image is an oral tumor. When it is determined that the image contains a benign oral tumor, a captured image is input to the trained third discrimination model, and the input captured image includes an image containing a benign oral tumor and a malignant oral tumor. The third discrimination unit that determines whether the image is an image or an image that does not contain an oral tumor, and the first discrimination unit determine that the captured image is an image that does not contain an oral tumor, and the second discrimination unit determines. If the captured image is determined to be an image that does not contain an oral tumor, or if the captured image is determined to be an image that does not contain an oral tumor by the third discrimination unit, the patient's oral cavity is intraoral. When the healthy information indicating that the tumor does not exist is output and the captured image is determined by the third discrimination unit to be an image containing a benign oral tumor, a benign oral tumor is present in the patient's oral cavity. When the image taken by the third discriminator is determined to be an image containing a malignant oral tumor, it indicates that a malignant oral tumor is present in the patient's oral cavity. It has an output unit that outputs malignant tumor information.
判別装置、判別端末装置、判別装置の制御方法及び制御プログラム、並びに判別システムによって、熟練した専門医の知見を効果的に判別処理に適用し、精度の高い口腔内腫瘍の判別を実現することが可能となる。 It is possible to effectively apply the knowledge of a skilled specialist to the discrimination process and realize highly accurate discrimination of oral tumors by using the discrimination device, discrimination terminal device, control method and control program of the discrimination device, and discrimination system. Will be.
以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. However, it should be noted that the technical scope of the present invention is not limited to those embodiments and extends to the inventions described in the claims and their equivalents.
(判別システム1の概要)
図1は、判別システム1の概略構成の一例を示す図である。判別システム1は、青色光が照射された患者の口腔内を撮影し、撮影された撮影画像に用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を実行する。判別システム1は、医師又は看護師等の医療従事者によって操作される端末装置2と、患者の口腔内における腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行うための判別装置3とを備える。以下、端末装置2を操作する医療従事者を「ユーザ」と称する場合がある。
(Overview of discrimination system 1)
FIG. 1 is a diagram showing an example of a schematic configuration of the discrimination system 1. The discrimination system 1 photographs the oral cavity of a patient irradiated with blue light, and uses the captured images to determine the presence or absence of an oral tumor and to determine whether the oral tumor is benign or malignant. The discrimination system 1 includes a
口腔は、口裂から咽頭に連なる器官であり、舌、口底、頬、口蓋、口唇、歯肉、唾液腺等の部位によって構成される。口腔内腫瘍(口腔腫瘍)は、口腔に生じる腫瘍であり、悪性の口腔内腫瘍と良性の口腔内腫瘍とに分類される。悪性の口腔内腫瘍の多くは、粘膜の上皮から発生する扁平上皮癌(Squamous Cell Carcinoma:SCC)であり、発生部位により、舌がん、歯肉がん及び口底がん等と呼ばれる。良性の口腔内腫瘍は、悪性の口腔内腫瘍と同様に細胞が異常増殖した組織の塊であるが、所謂「浸潤と転移」及び「悪液質」を引き起こさない腫瘍である。 The oral cavity is an organ extending from the mouth fissure to the pharynx, and is composed of parts such as the tongue, the floor of the mouth, the cheeks, the palate, the lips, the gums, and the salivary glands. Oral tumors (oral tumors) are tumors that occur in the oral cavity and are classified into malignant oral tumors and benign oral tumors. Most malignant oral tumors are squamous cell carcinoma (SCC) that develops from the epithelium of the mucous membrane, and are called tongue cancer, gingival cancer, oral floor cancer, etc., depending on the site of occurrence. A benign oral tumor is a mass of tissue in which cells are abnormally proliferated like a malignant oral tumor, but is a tumor that does not cause so-called "infiltration and metastasis" and "cachexia".
端末装置2は、青色光照射機能及び撮影機能を有する口腔内蛍光観察装置である。端末装置2の青色光照射機能により、435~460nmの波長の青色光が照射される。端末装置2の撮影機能により、青色光が照射された口腔内の撮影対象空間が撮影され、撮影された撮影画像が青色光照射画像として出力される。
The
照射された青色光の深達度は400~600μm程度であり、健常組織では蛍光可視が保持(Fluorescence Visualization Retention:FVR)される。このため、青色光照射画像において、健常組織に対応するピクセルは青緑色(Apple-Green)の色情報を有する。これに対して、SCC等の病的組織では蛍光可視の低下が起こる(Fluorescence Visualization Loss:FVL)ため、青色光照射画像において、病的組織に対応するピクセルは暗色の色情報を有する。 The invasion depth of the irradiated blue light is about 400 to 600 μm, and fluorescence visualization (FVR) is maintained in healthy tissues. Therefore, in the blue light irradiation image, the pixel corresponding to the healthy tissue has blue-green (Apple-Green) color information. On the other hand, in a pathological tissue such as SCC, a decrease in fluorescence visibility occurs (Fluorescence Visualization Loss: FVL), so that the pixel corresponding to the pathological tissue has dark color information in the blue light irradiation image.
端末装置2は、多機能携帯電話(所謂「スマートフォン」)、タブレット端末、タブレットPC(Personal Computer)、ウェアラブルコンピュータ等の携帯端末機と、蛍光観察装置とを組み合わせたものでもよい。この場合、蛍光観察装置は、撮影機能を有さず、携帯端末機が、蛍光観察装置によって青色光が照射された口腔内の青色光照射画像を撮影する。例えば、端末装置2として、「ベルスコープ(登録商標)」、「オーラルック(登録商標)」等の、スマートフォンを収容可能な収容部を備える蛍光観察装置が用いられてもよい。
The
判別装置3は、コンピュータ、サーバ等の情報処理装置である。判別装置3は、端末装置2によって撮影された青色光照射画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する判別機能を有する。
The discrimination device 3 is an information processing device such as a computer or a server. The discrimination device 3 determines whether the blue light irradiation image taken by the
図1では、1台の判別装置3が判別システム1の構成要素として図示されているが、判別装置3は複数の物理的に別体のコンピュータの集合であってもよい。この場合、複数のコンピュータのそれぞれは、同一の機能を有するものでもよく、1台の判別装置3の機能を分散して有するものでもよい。 Although one discriminating device 3 is shown as a component of the discriminating system 1 in FIG. 1, the discriminating device 3 may be a set of a plurality of physically separate computers. In this case, each of the plurality of computers may have the same function, or may have the functions of one discriminating device 3 in a distributed manner.
(端末装置2)
図2は、端末装置2の概略構成の一例を示す図である。
(Terminal device 2)
FIG. 2 is a diagram showing an example of a schematic configuration of the
端末装置2は、所定の照射方向の一定範囲に向けて青色光を照射する機能と、所定の照射方向と略同一方向の撮影方向の撮影対象空間を撮影する機能とを少なくとも有する。また、端末装置2は、青色光照射画像の画像データを無線通信によって判別装置3に送信する機能を有する。そのために、端末装置2は、端末通信部21と、端末記憶部22と、端末表示部23と、端末操作部24と、照射部25と、撮影部26と、端末制御部27とを備える。
The
端末通信部21は、図示しない無線LAN(Local Area Network)のアクセスポイントとの間でIEEE(The Institute of Electrical and Electronics Engineers, Inc.)802.11規格の無線通信方式に基づいて無線通信を行う通信インターフェース回路を備える。端末通信部21は、端末制御部27から取得した青色光照射画像の画像データを無線通信により判別装置3に送信する。また、端末通信部21は、図示しない基地局により割り当てられるチャネルを介して、基地局との間でLTE(Long Term Evolution)方式、第5世代(5G)移動通信システム等による無線信号回線を確立し、基地局との間で通信を行ってもよい。また、端末通信部21は、Bluetooth(登録商標)等の通信方式に従った近距離無線通信を行うためのインターフェース回路を有し、判別装置3に向けて電波を送信してもよい。また、端末通信部21は、青色光照射画像の画像データに対応する各種信号を赤外線通信等によって送信するための送信回路を有してもよい。また、端末通信部21は、有線LANの通信インターフェース回路を備えてもよい。これにより、端末装置2は、端末通信部21を介して判別装置3に青色光照射画像を提供することができる。
The
なお、端末装置2は、端末通信部21に代えて又は端末通信部21とともに、可搬型記憶媒体を着脱可能に保持する入出力装置を備えてもよい。この場合、入出力装置は、端末制御部27から取得した青色光照射画像の画像データを可搬型記憶媒体に記憶する。これにより、端末装置2は、可搬型記憶媒体を介して判別装置3に青色光照射画像を提供することができる。
The
端末記憶部22は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリ装置である。端末記憶部22は、端末制御部27における処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム及びデータ等を記憶する。端末記憶部22に記憶されるドライバプログラムは、端末通信部21を制御する通信デバイスドライバプログラム、端末表示部23を制御する出力デバイスドライバプログラム、端末操作部24を制御する入力デバイスドライバプログラム、照射部25を制御する照射デバイスドライバプログラム、及び、撮影部26を制御する撮影デバイスドライバプログラム等である。端末記憶部22に記憶されるアプリケーションプログラムは、ユーザによる端末操作部24の操作に応じて入力された指示に基づいて、照射部25を動作させて所定の照射方向の一定範囲に向けて青色光を照射させる照射処理、撮影部26を動作させて青色光照射画像の画像データを取得する撮影処理、取得された青色光照射画像の画像データを判別装置3に送信する送信処理等を端末制御部27に実行させるための制御プログラム等である。また、端末記憶部22は、所定の処理に係るデータを一時的に記憶してもよい。
The
端末表示部23は、液晶ディスプレイである。なお、端末表示部23は、有機EL(Electro-Luminescence)ディスプレイ等でもよい。端末表示部23は、撮影された青色光照射画像等を表示する。
The
端末操作部24は、タッチパネル、マウス等のポインティングデバイスである。端末操作部24は、入力キー等でもよい。タッチパネルは、静電容量式の近接センサを備え、ユーザの非接触操作を検出可能に構成されてもよい。ユーザは、端末操作部24を用いて、文字、数字及び記号、若しくは、端末表示部23の表示画面上の位置等を入力することができる。端末操作部24は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、端末操作部24は、発生した信号をユーザの指示として、端末制御部27に供給する。
The
照射部25は、狭帯域光を出射するレーザダイオード(Laser Diode)等の半導体レーザにより構成される。照射部25は、狭帯域の青色光(例えば435~460nmの波長帯域の波長を有する光)を励起光として照射出力する。
The
撮影部26は、光学レンズ及び撮像素子等を有する。光学レンズは、被写体からの光束を撮像素子の撮像面上に結像させる。撮像素子は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等であり、撮像面上に結像した被写体像の画像を出力する。撮影部26は、撮像素子によって生成された画像から所定のファイル形式の静止画像データを作成して出力する。撮影部26は、画像データを出力する際に、画像データの取得時刻を対応付けてもよい。なお、撮影部26は、連続して撮像素子によって生成された画像から、所定期間毎に所定のファイル形式の動画像データを作成して出力してもよい。
The photographing
端末制御部27は、端末記憶部22に記憶されているオペレーティングシステムプログラム、ドライバプログラム及びアプリケーションプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する処理装置である。端末制御部27は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)等の電子回路、又は各種電子回路の組み合わせである。図2においては、端末制御部27が単一の構成要素として図示されているが、端末制御部27は複数の物理的に別体のプロセッサの集合であってもよい。
The
端末制御部27は、制御プログラムに含まれる各種命令を実行することにより、照射制御部271、撮影制御部272、及び送信制御部273として機能する。以下、照射制御部271、撮影制御部272、及び送信制御部273の機能の一例を、図3を参照して説明する。
The
図3(a)は、端末装置2の一例を示す斜視図である。
FIG. 3A is a perspective view showing an example of the
図3(a)に示される端末装置2は略板状であり、端末装置2の表面(例えば、最も広い一対の面の一方の面)に、照射部25及び撮影部26が設置される。照射部25の照射方向及び撮影部26の撮影方向は、ともに表面の垂直方向と略同一である。これにより、照射部25によって照射された青色光の照射空間の少なくとも一部は、撮影部26の撮影対象空間に含まれる。
The
図3(b)は、端末装置の使用方法の一例を示す図である。端末装置2の裏面(例えば、最も広い一対の面の他方の面)に、端末表示部23が設置される。
FIG. 3B is a diagram showing an example of how to use the terminal device. The
照射制御部271は、ユーザによる端末操作部24の操作に応じて照射指示が入力された場合、所定の照射方向の一定範囲に向けて青色光を照射するように照射部25を制御する。
The
ユーザによる端末操作部24の操作に応じて撮影指示が入力された場合、撮影部26は、所定時間(例えば、1/30秒、1/15秒、又は1秒)ごとに照射方向と略同一方向の撮影方向の撮影対象空間を撮影する。撮影制御部272は、撮影部26による撮影のたびに、撮影された撮影画像を端末表示部23に表示する。
When a shooting instruction is input according to the operation of the
図3(b)に示される例では、端末装置2の表面は、ユーザによって患者Pの口腔の方向に向けられている。これにより、照射部25によって照射される青色光の照射方向は患者Pの口腔の方向となる。図3(b)に示される照射範囲R1は、患者Pに照射された青色光の照射範囲の一例である。
In the example shown in FIG. 3B, the surface of the
また、図3(b)に示される例では、撮影部26の撮影方向は、照射部25の照射方向と略同一であるため、撮影部26の撮影方向は口腔の方向である。図3(b)に示される撮影範囲R2は、患者Pに対する撮影範囲の一例である。端末表示部23には、撮影範囲R2に対応する撮影画像が所定時間ごとに表示される。これにより、ユーザは、撮影部26によって現在撮影されている撮影範囲R2をリアルタイムに確認しながら、端末装置2の向きを調整することが可能となる。
Further, in the example shown in FIG. 3B, the imaging direction of the
ユーザによる端末操作部24の操作に応じて取得指示が入力された場合、撮影制御部272は、当該取得指示が入力されたタイミングで撮影された撮影画像を青色光照射画像として取得し、青色光照射画像の画像データを端末記憶部22に記憶する。撮影制御部272は、撮影された撮影画像のうちの少なくとも一部の範囲の画像を、診断範囲の青色光照射画像として取得してもよい。撮影制御部272による診断範囲の青色光照射画像の取得処理は、例えば、撮影された撮影画像のうちの、ユーザによる端末操作部24の操作によって指定された診断範囲に対応する画像が、診断範囲の青色光照射画像として取得される処理である。また、撮影制御部272による診断範囲の青色光照射画像の取得処理は、撮影された撮影画像のうちの、検出領域を抽出する公知の画像処理を用いて自動的に設定された診断範囲に対応する画像が、診断範囲の青色光照射画像として取得される処理でもよい。また、端末装置2は、これら手動による診断範囲設定及び自動による診断範囲設定を切替えるための操作手段(例えばタッチパネルに表示される切替ボタン等)を備えてもよい。なお、以下で述べる「青色光照射画像」は、診断範囲の青色光照射画像(撮影された撮影画像のうちの少なくとも一部の診断範囲の画像)を含む。
When an acquisition instruction is input in response to an operation of the
撮影制御部272は、青色光照射画像の画像データの記憶前及び/又は記憶後に、取得された青色光照射画像を、端末表示部23に表示してもよい。
The photographing
ユーザによる端末操作部24の操作に応じて送信指示が入力された場合、送信制御部273は、端末記憶部22に記憶された青色光照射画像の画像データを取得し、端末通信部21を介して判別装置3に送信する。
When a transmission instruction is input in response to an operation of the
端末装置2の形状及びサイズは、図3に示される例に限定されない。例えば、端末装置2は、患者Pの口腔内に挿入可能な形状及びサイズであってもよい。
The shape and size of the
(判別装置3)
図4は、判別装置3の概略構成の一例を示す図である。
(Discrimination device 3)
FIG. 4 is a diagram showing an example of a schematic configuration of the discrimination device 3.
判別装置3は、端末装置2から送信された青色光照射画像の画像データを受信する受信機能、青色光照射画像を空間周波数スペクトルに変換する変換機能を有する。また、判別装置3は、判別モデルを学習させる学習機能、学習済みの判別モデルを用いて口腔内腫瘍の存否及び口腔内腫瘍の良悪性を判別する判別機能、判別機能による判別結果を出力する出力機能等を有する。そのために、判別装置3は、通信部31と、記憶部32と、表示部33と、操作部34と、処理部35とを備える。
The discrimination device 3 has a reception function for receiving image data of the blue light irradiation image transmitted from the
通信部31は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。判別装置3は、通信部31を介して、端末装置2から青色光照射画像の画像データを受信することができる。また、通信部31は、Bluetooth(登録商標)等の通信方式に従った近距離無線通信を行うためのインターフェース回路を有し、端末装置2からの電波を受信してもよい。また、通信部31は、青色光照射画像の画像データに対応する各種信号を赤外線通信等によって受信するための受信回路を有してもよい。また、通信部31は、有線LANの通信インターフェース回路を備えてもよい。これにより、判別装置3は、通信部31を介して端末装置2から青色光照射画像を取得することができる。
The
なお、判別装置3は、通信部31に代えて又は通信部31とともに、可搬型記憶媒体を着脱可能に保持する入出力装置を備えてもよい。この場合、入出力装置は、可搬型記憶媒体に記憶された青色光照射画像の画像データを取得し、取得した画像データを処理部35に供給する。これにより、判別装置3は、可搬型記憶媒体を介して端末装置2から青色光照射画像を取得することができる。
The discrimination device 3 may include an input / output device that detachably holds the portable storage medium in place of the
記憶部32は、例えば、ROM、RAM等の半導体メモリ装置である。記憶部32は、例えば、磁気ディスク、光ディスク、又はデータを記憶可能な前記以外の各種記憶装置でもよい。記憶部32は、処理部35における処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム及びデータ等を記憶する。記憶部32に記憶されるコンピュータプログラムは、例えばCD-ROM、DVD-ROM等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いて記憶部32にインストールされてもよい。
The
記憶部32に記憶されるデータは、後述する、第1判別モデルM1、第2判別モデルM2、及び第3判別モデルM3、教師データTD等である。また、記憶部32は、端末装置2から取得した青色光照射画像の画像データを記憶する。記憶部32は、所定の処理に係るデータを一時的に記憶してもよい。
The data stored in the
表示部33は、液晶ディスプレイである。なお、表示部33は、有機ELディスプレイ等でもよい。表示部33は、処理部35から供給される画像データに基づく青色光照射画像、判別処理の結果情報等を表示する。
The
操作部34は、キーボード、及び/又はマウスである。操作部34は、タッチパネル等のポインティングデバイスでもよい。ユーザは、操作部34を用いて、文字や数字、記号、若しくは、表示部33の表示画面上の位置等を入力することができる。操作部34は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、発生した信号は、ユーザの指示として処理部35に供給される。
The
処理部35は、記憶部32に記憶されているオペレーティングシステムプログラム、ドライバプログラム及びアプリケーションプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する処理装置である。処理部35は、例えば、CPU、MPU、DSP等の電子回路、又は各種電子回路の組み合わせである。図4においては、処理部35が単一の構成要素として図示されているが、処理部35は複数の物理的に別体のプロセッサの集合であってもよい。
The
処理部35は、記憶部32に記憶されたアプリケーションプログラム(制御プログラム)に含まれる各種命令を実行することにより、受信処理部351、変換処理部352、学習処理部353、判別処理部354、及び出力処理部335として機能する。以下、受信処理部351、変換処理部352、学習処理部353、判別処理部354、及び出力処理部335の機能の一例を、図5-8を参照して説明する。
By executing various instructions included in the application program (control program) stored in the
受信処理部351は、端末装置2から送信された青色光照射画像の画像データを、通信部31を介して受信し、受信した青色光照射画像の画像データを記憶部32に記憶する。
The
図5(a)及び(b)は、青色光照射画像の一例を示す図である。 5 (a) and 5 (b) are diagrams showing an example of a blue light irradiation image.
図5(a)に示される青色光照射画像は、口腔内腫瘍を含まない画像(健常組織のみを含む画像)の一例であり、図5(b)に示される青色光照射画像は、悪性の口腔内腫瘍を含む画像である。 The blue light irradiation image shown in FIG. 5 (a) is an example of an image containing no oral tumor (an image containing only healthy tissue), and the blue light irradiation image shown in FIG. 5 (b) is malignant. It is an image including an intraoral tumor.
学習処理部353は、記憶部32に記憶された3種類の教師データTDのそれぞれを用いて学習させた第1判別モデルM1、第2判別モデルM2、及び第3判別モデルM3を生成し、生成した各判別モデルM1-M3を記憶部32に記憶する。
The
3種類の教師データTDのうちの第1教師データTD1は、青色光照射画像をフーリエ変換することにより生成された空間周波数スペクトルを入力データとし、「青色光照射画像が口腔内腫瘍を含む画像であること」及び「青色光照射画像が口腔内腫瘍を含まない画像であること」のいずれか一方を示すラベルデータを出力データとする教師データである。また、3種類の教師データTDのうちの第2教師データTD2は、青色光照射画像の画像データを入力データとし、「青色光照射画像が口腔内腫瘍を含む画像であること」及び「青色光照射画像が口腔内腫瘍を含まない画像であること」のいずれか一方を示すラベルデータを出力データとする教師データである。また、3種類の教師データTDのうちの第3教師データTD3は、青色光照射画像の画像データを入力データとし、「青色光照射画像が悪性の口腔内腫瘍を含む画像であること」、「青色光照射画像が良性の口腔内腫瘍を含む画像であること」及び「青色光照射画像が口腔内腫瘍を含まない画像であること」のいずれかを示すラベルデータを出力データとする教師データである。 The first teacher data TD1 of the three types of teacher data TD uses the spatial frequency spectrum generated by Fourier transforming the blue light irradiation image as input data, and "the blue light irradiation image is an image including an oral tumor. It is teacher data using label data indicating either "there is" or "the blue light irradiation image is an image that does not include an oral tumor" as output data. Further, the second teacher data TD2 of the three types of teacher data TD uses the image data of the blue light irradiation image as input data, and "the blue light irradiation image is an image including an oral tumor" and "blue light". It is teacher data that uses label data indicating either one of "the irradiated image is an image that does not include an intraoral tumor" as output data. Further, the third teacher data TD3 of the three types of teacher data TD uses the image data of the blue light irradiation image as input data, and "the blue light irradiation image is an image including a malignant oral tumor", " With teacher data using label data as output data indicating either "the blue light irradiation image is an image containing a benign oral tumor" or "the blue light irradiation image is an image not containing an oral tumor". be.
第2教師データTD2及び第3教師データTD3は、ユーザ又は判別装置3の管理者等によって生成されたデータである。第1教師データTD1の入力データである空間周波数スペクトルは、変換処理部352によって生成される。以下、変換処理部352の変換処理の一例について説明する。
The second teacher data TD2 and the third teacher data TD3 are data generated by a user, an administrator of the discriminating device 3, or the like. The spatial frequency spectrum, which is the input data of the first teacher data TD1, is generated by the
変換処理部352は、記憶部32に記憶された第2教師データTD2を抽出する。次に、変換処理部352は、抽出した第2教師データTD2の入力データである青色光照射画像の画像データを、以下の式(1)で表される公知のフーリエ変換を行った後、式(2)により空間周波数スペクトルを生成する。なお、生成された空間周波数スペクトルは、画像データの中心からの距離rに対応する成分量p(r)である。そして、変換処理部352は、生成された空間周波数スペクトルのデータを入力データとし、抽出した第2教師データTD2のラベルデータを出力データとする第1教師データTD1を生成し、記憶部32に記憶する。
The
図5(c)及び(d)は、空間周波数スペクトルの一例を説明するためのスペクトル画像を示す図である。 5 (c) and 5 (d) are diagrams showing spectrum images for explaining an example of a spatial frequency spectrum.
図5(c)に示されるスペクトル画像は、図5(a)に示される青色光照射画像の画像データを、式(1)で表される公知のフーリエ変換によって算出されたF(u,v)に係るパワースペクトルを示す画像を説明するための一例の図である。また、図5(d)に示されるスペクトル画像は、図5(b)に示される青色光照射画像の画像データを、式(1)で表される公知のフーリエ変換によって算出されたF(u,v)に係るパワースペクトルを示す画像を説明するための一例の図である。 The spectral image shown in FIG. 5 (c) is an F (u, v) calculated by a known Fourier transform represented by the formula (1) from the image data of the blue light irradiation image shown in FIG. 5 (a). ) Is an example diagram for explaining an image showing a power spectrum. Further, in the spectral image shown in FIG. 5 (d), the image data of the blue light irradiation image shown in FIG. 5 (b) is calculated by the known Fourier transform represented by the equation (1). , V) is an example diagram for explaining an image showing a power spectrum.
スペクトル画像では、画像の中心付近が低周波成分であり且つ中心から離れるほど高周波成分になる空間周波数スペクトルが示される。例えば、図5(a)に示されるように、青色光照射画像が口腔内腫瘍を含まない画像(健常組織のみを含む画像)である場合、健常組織(健常粘膜)では粘膜表面は滑らかであり、ピクセルの位置の変化に対する輝度(画素値)の変化は小さい。このため、図5(a)に示される青色光照射画像の画像データをフーリエ変換することによって算出されたF(u,v)に係るスペクトル画像は、低周波成分を多く含むスペクトル画像(図5(c))となる。 The spectral image shows a spatial frequency spectrum in which the vicinity of the center of the image is a low frequency component and the farther away from the center is the higher frequency component. For example, as shown in FIG. 5A, when the blue light irradiation image is an image that does not contain an oral tumor (an image that contains only healthy tissue), the mucosal surface is smooth in healthy tissue (healthy mucosa). , The change in brightness (pixel value) with respect to the change in pixel position is small. Therefore, the spectral image related to F (u, v) calculated by Fourier transforming the image data of the blue light irradiation image shown in FIG. 5A is a spectral image containing a large amount of low frequency components (FIG. 5). (C)).
一方、図5(b)に示されるように、青色光照射画像が口腔内腫瘍を含む画像である場合、口腔内腫瘍では粘膜表面に凹凸があり、ピクセルの位置の変化に対して輝度(画素値)が大きく変化する。このため、図5(b)に示される青色光照射画像の画像データをフーリエ変換することによって算出されたF(u,v)に係るスペクトル画像は、図5(c)に示されるスペクトル画像に比べて、より高周波の画素値変動成分を含むスペクトル画像(図5(d))となる。 On the other hand, as shown in FIG. 5B, when the blue light irradiation image is an image including an oral tumor, the oral tumor has irregularities on the mucosal surface, and the brightness (pixels) with respect to the change in the position of the pixels. Value) changes greatly. Therefore, the spectral image related to F (u, v) calculated by Fourier transforming the image data of the blue light irradiation image shown in FIG. 5 (b) is the spectral image shown in FIG. 5 (c). In comparison, a spectral image (FIG. 5 (d)) containing a higher frequency pixel value fluctuation component is obtained.
図6(a)は、第2教師データTD2及び第3教師データTD3の入力データの一例を説明するための模式図である。 FIG. 6A is a schematic diagram for explaining an example of input data of the second teacher data TD2 and the third teacher data TD3.
図6(a)に示される青色光照射画像の画像データは、縦及び横が1,600ピクセルの画像である。なお、青色光照射画像の画像データの画像サイズは、図6(a)に示されるものに限らず、どのようなサイズであってもよい。学習処理部353は、青色光照射画像の画像データを、2,500個の縦及び横が32ピクセルの画像データに分割する。そして、学習処理部353は、分割された画像データを入力データとし、「青色光照射画像が口腔内腫瘍を含む画像であること」及び「青色光照射画像が口腔内腫瘍を含まない画像であること」のいずれか一方を示すラベルデータを出力データとする第2教師データTD2を生成する。すなわち、図6(a)に示される青色光照射画像の画像データから、2,500の教師データが生成される。なお、学習処理部353は、2,500の青色光照射画像の画像データのそれぞれに対して、左回転した画像(2,500)、右回転した画像(2,500)、上下反転した画像(2,500)、及び左右反転した画像(2,500)を生成し、これらの合計12,500の画像の画像データを教師データとしてもよい。学習処理部353は、2,500の青色光照射画像、左回転した画像(2,500)、右回転した画像(2,500)、上下反転した画像(2,500)、及び左右反転した画像(2,500)よりなる群から選択される一種類以上の画像の画像データを教師データとしてもよい。例えば、2,500の青色光照射画像、及び、左回転した画像(2,500)の、合計5,000の画像の画像データが教師データとして用いられてもよい。このように、学習処理部353は、口腔内腫瘍を含む青色光照射画像の入手が難しい場合でも、教師データの数を増加させることを可能とする。
The image data of the blue light irradiation image shown in FIG. 6A is an image having 1,600 pixels in length and width. The image size of the image data of the blue light irradiation image is not limited to that shown in FIG. 6A, and may be any size. The
同様に、学習処理部353は、分割された画像データを入力データとし、「青色光照射画像が悪性の口腔内腫瘍を含む画像であること」、「青色光照射画像が良性の口腔内腫瘍を含む画像であること」及び「青色光照射画像が口腔内腫瘍を含まない画像であること」のいずれかを示すラベルデータを出力データとする第3教師データTD3を生成する。
Similarly, the
次に、学習処理部353による学習処理について説明する。
Next, the learning process by the
図6(b)は、第1判別モデルの一例を示す模式図である。図6(b)に示される第1判別モデルM1は、入力層M1-1、隠れ層M1-2及び出力層M1-3を有するニューラルネットワークモデルである。入力層M1-1の所謂「ニューロン」のそれぞれは、第1教師データTD1の空間周波数スペクトルの各rに対応する成分量p(r)が入力されるものである。入力層M1-1の各ニューロンに、空間周波数スペクトルが入力される。なお、入力層M1-1のニューロンのうち、空間周波数スペクトルのrに対応しないニューロンが存在してもよく、この場合、当該ニューロンはバイアスとして機能する。 FIG. 6B is a schematic diagram showing an example of the first discrimination model. The first discrimination model M1 shown in FIG. 6B is a neural network model having an input layer M1-1, a hidden layer M1-2, and an output layer M1-3. Each of the so-called "neurons" of the input layer M1-1 is input with a component amount p (r) corresponding to each r of the spatial frequency spectrum of the first teacher data TD1. A spatial frequency spectrum is input to each neuron in the input layer M1-1. In addition, among the neurons of the input layer M1-1, there may be a neuron that does not correspond to r of the spatial frequency spectrum, and in this case, the neuron functions as a bias.
隠れ層M1-2のニューロンの数は、入力層M1-1のニューロンの数よりも多くても少なくてもよい。また、出力層M1-3に含まれる2つのニューロンは、それぞれ「青色光照射画像が口腔内腫瘍を含む画像であること」を示すラベルデータ及び「青色光照射画像が口腔内腫瘍を含まない画像であること」を示すラベルデータに対応する。 The number of neurons in the hidden layer M1-2 may be greater or less than the number of neurons in the input layer M1-1. In addition, the two neurons contained in the output layer M1-3 have label data indicating that "the blue light irradiation image is an image containing an oral tumor" and "an image in which the blue light irradiation image does not contain an oral tumor". Corresponds to the label data indicating "is".
図7(a)は、第2判別モデルの一例を示す模式図である。図7(a)に示される第2判別モデルM2は、入力層M2-1、畳み込み層M2-2、プーリング層M2-3及び出力層M2-4を有する畳み込みニューラルネットワークなどを含む深層ニューラルネットワークモデルである。畳み込み層M2-2及びプーリング層M2-3は、それぞれ2以上であってもよい。入力層M2-1のニューロンは、第2教師データTD2の(分割された)青色光照射画像の画像データの各ピクセルに対応する色情報(R値、G値、B値)に対応する。出力層M2-4に含まれる2つのニューロンは、それぞれ「青色光照射画像が口腔内腫瘍を含む画像であること」を示すラベルデータ及び「青色光照射画像が口腔内腫瘍を含まない画像であること」を示すラベルデータに対応する。 FIG. 7A is a schematic diagram showing an example of the second discrimination model. The second discrimination model M2 shown in FIG. 7A is a deep neural network model including a convolutional neural network having an input layer M2-1, a convolutional layer M2-2, a pooling layer M2-3, and an output layer M2-4. Is. The number of the convolutional layer M2-2 and the pooling layer M2-3 may be two or more, respectively. The neurons of the input layer M2-1 correspond to the color information (R value, G value, B value) corresponding to each pixel of the image data of the (divided) blue light irradiation image of the second teacher data TD2. The two neurons contained in the output layer M2-4 are label data indicating that "the blue light irradiation image is an image containing an oral tumor" and "the blue light irradiation image is an image not containing an oral tumor", respectively. Corresponds to the label data indicating "that".
図7(b)は、第3判別モデルの一例を示す模式図である。図7(b)に示される第3判別モデルM3は、入力層M3-1、畳み込み層M3-2、プーリング層M3-3及び出力層M3-4を有する畳み込みニューラルネットワークなどを含む深層ニューラルネットワークモデルである。入力層M3-1、畳み込み層M3-2及びプーリング層M3-3は、入力層M2-1、畳み込み層M2-2及びプーリング層M2-3と同様である。出力層M3-4に含まれる3つのニューロンは、それぞれ「青色光照射画像が悪性の口腔内腫瘍を含む画像であること」を示すラベルデータ、「青色光照射画像が良性の口腔内腫瘍を含む画像であること」を示すラベルデータ及び「青色光照射画像が口腔内腫瘍を含まない画像であること」を示すラベルデータに対応する。 FIG. 7B is a schematic diagram showing an example of the third discrimination model. The third discrimination model M3 shown in FIG. 7B is a deep neural network model including a convolutional neural network having an input layer M3-1, a convolutional layer M3-2, a pooling layer M3-3, and an output layer M3-4. Is. The input layer M3-1, the convolution layer M3-2, and the pooling layer M3-3 are the same as the input layer M2-1, the convolution layer M2-2, and the pooling layer M2-3. The three neurons contained in the output layer M3-4 each include label data indicating that "the blue light irradiation image is an image containing a malignant oral tumor" and "the blue light irradiation image contains a benign oral tumor". It corresponds to the label data indicating that it is an image and the label data indicating that the blue light irradiation image is an image that does not include an intraoral tumor.
学習処理部353は、第1教師データTD1を用いて公知のマシンラーニング学習を実行することにより、ニューラルネットワークにおける各ニューロンの重みが学習された第1判別モデルを生成又は更新する。また、学習処理部353は、第2教師データTD2を用いて公知のディープラーニング学習を実行することにより、多層構造のニューラルネットワークにおける各ニューロンの重みが学習された第2判別モデルを生成又は更新する。また、学習処理部353は、第3教師データTD3を用いて公知のディープラーニング学習を実行することにより、多層構造のニューラルネットワークにおける各ニューロンの重みが学習された第3判別モデルを生成又は更新する。
The
図8は、判別処理の概要を説明するための模式図である。判別処理は、変換処理部352、判別処理部354及び出力処理部355によって実行される。判別処理では、端末装置2から新たな患者の(教師データTDとは異なる)青色光照射画像の画像データが取得された場合、取得された青色光照射画像に対応する判定結果(悪性腫瘍情報、良性腫瘍情報又は健常情報)が出力される。
FIG. 8 is a schematic diagram for explaining the outline of the discrimination process. The discrimination process is executed by the
まず、変換処理部352は、取得された青色光照射画像の画像データをフーリエ変換することにより、第1判定処理で用いられる空間周波数スペクトルを生成する。なお、変換処理部352は、取得された青色光照射画像を小サイズ(32画素×32画素)に分割した画像データ又は後述する出力画像の画像データをフーリエ変換することにより、第1判定処理で用いられる空間周波数スペクトルを生成してもよい。
First, the
次に、判別処理部354は、(取得された青色光照射画像が分割されている場合は)小サイズ(32画素×32画素)に分割された画像から、元の大きさの画像(取得された青色光照射画像)を再構成する。判別処理部354は、青色光照射画像における口腔内の任意の画素について、その画素を含む複数の分割画像を生成し、多数決により判定を行う。判別処理部354は、多数決による判定処理を口腔内領域の全画素に対して行うことで、後述する第2判別処理及び第3判別処理にて用いる最終的な出力画像を出力する。なお、出力画像は、判別対象となる青色光照射画像のうちの一部の画像である。
Next, the
次に、判別処理部354は、第1判別処理及び第2判別処理を実行する。第1判別処理では、判別処理部354は、生成した空間周波数スペクトルを示すデータを入力データとして推定されるラベルデータの確率を、第1判別モデルM1を用いて算出する。そして、判別処理部354は、算出したラベルデータの確率に基づいて、「空間周波数スペクトルに対応する青色光照射画像(取得された青色光照射画像)が口腔内腫瘍を含む画像である」又は「空間周波数スペクトルに対応する青色光照射画像が口腔内腫瘍を含まない画像である」のいずれか一方を判別する。例えば、判別処理部354は、「青色光照射画像が口腔内腫瘍を含む画像であること」を示すラベルデータの確率として82%を算出し、「青色光照射画像が口腔内腫瘍を含まない画像であること」を示すラベルデータの確率として18%を算出した場合、「青色光照射画像が口腔内腫瘍を含む画像である」と判別する。
Next, the
第2判別処理では、判別処理部354は、出力画像(青色光照射画像のうちの一部の画像)の画像データを入力データとして推定されるラベルデータの確率を、第2判別モデルM2を用いて算出する。そして、判別処理部354は、算出したラベルデータの確率に基づいて、「青色光照射画像が口腔内腫瘍を含む画像である」及び「青色光照射画像が口腔内腫瘍を含まない画像である」のいずれか一方を判別する。
In the second discrimination process, the
次に、判別処理部354は、第1判別処理及び第2判別処理の判別結果がともに「青色光照射画像が口腔内腫瘍を含まない画像である」という結果か否かを判定する。第1判別処理及び第2判別処理の判別結果がともに「青色光照射画像が口腔内腫瘍を含まない画像である」という結果である場合、判別処理部354は、当該判別結果を出力処理部355に送信する。そして、出力処理部355は、第1判別処理及び第2判別処理の判別結果がともに「青色光照射画像が口腔内腫瘍を含まない画像である」という結果を取得すると、健常情報を出力する。健常情報は、取得された青色光照射画像が撮影された患者の口腔内に口腔内腫瘍が存在しないことを示す情報である。また、健常情報の出力は、表示部33への健常情報の表示、及び/又は、他装置への健常情報の送信等である。
Next, the
第1判別処理及び第2判別処理の判別結果がともに「青色光照射画像が口腔内腫瘍を含まない画像である」という結果でない場合(第1判別処理の判定結果及び第2判別処理の判定結果の少なくとも一方が「青色光照射画像が口腔内腫瘍を含む画像である」という結果である場合)、判別処理部354は、第3判別処理を実行する。
When the discrimination results of the first discrimination process and the second discrimination process are not the result that "the blue light irradiation image is an image that does not include the intraoral tumor" (the judgment result of the first discrimination process and the judgment result of the second discrimination process). When at least one of the above is the result that "the blue light irradiation image is an image including an oral tumor"), the
第3判別処理では、判別処理部354は、出力画像(青色光照射画像のうちの一部の画像)の画像データを入力データとして推定されるラベルデータの確率を、第3判別モデルM3を用いて算出する。そして、判別処理部354は、算出したラベルデータの確率に基づいて、「青色光照射画像が悪性の口腔内腫瘍を含む画像である」、「青色光照射画像が良性の口腔内腫瘍を含む画像である」及び「青色光照射画像が口腔内腫瘍を含まない画像である」のいずれかを判別する。例えば、判別処理部354は、「青色光照射画像が悪性の口腔内腫瘍を含む画像であること」を示すラベルデータの確率が68%と算出し、「青色光照射画像が良性の口腔内腫瘍を含む画像であること」を示すラベルデータの確率が23%と算出し、「青色光照射画像が口腔内腫瘍を含まない画像であること」を示すラベルデータの確率が9%と算出した場合、「青色光照射画像が悪性の口腔内腫瘍を含む画像である」と判別する。
In the third discrimination process, the
次に、判別処理部354は、第3判別処理の判別結果を出力処理部355に送信する。出力処理部355は、第3判別処理の判別結果が「青色光照射画像が悪性の口腔内腫瘍を含む画像である」という結果を取得すると、悪性腫瘍情報を出力する。出力処理部355は、第3判別処理の判別結果が「青色光照射画像が良性の口腔内腫瘍を含む画像である」という結果を取得すると、良性腫瘍情報を出力する。出力処理部355は、第3判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含まない画像である」という結果を取得すると、健常情報を出力する。なお、悪性腫瘍情報は、取得された青色光照射画像が撮影された患者の口腔内に悪性の口腔内腫瘍が存在することを示す情報である。また、良性腫瘍情報は、取得された青色光照射画像が撮影された患者の口腔内に良性の口腔内腫瘍が存在することを示す情報である。また、悪性腫瘍情報の出力は、表示部33への悪性腫瘍情報の表示、及び/又は、他装置への悪性腫瘍情報の送信等であり、良性腫瘍情報の出力は、表示部33への良性腫瘍情報の表示、及び/又は、他装置への良性腫瘍情報の送信等である。
Next, the
図9は、変換処理部352、判別処理部354及び出力処理部355による判別処理の動作フローの一例を示す図である。
FIG. 9 is a diagram showing an example of an operation flow of discrimination processing by the
まず、変換処理部352は、青色光照射画像の画像データが端末装置2から取得された場合、取得された青色光照射画像の画像データをフーリエ変換することにより、空間周波数スペクトルを生成する(ステップS101)。
First, when the image data of the blue light irradiation image is acquired from the
次に、判別処理部354は、第1判別処理を実行する(ステップS102)。
Next, the
次に、判別処理部354は、第1判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果であるか否かを判定する(ステップS103)。
Next, the
第1判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果である場合(ステップS103-Yes)、判別処理部354は、処理をステップS106に進める。
When the discrimination result of the first discrimination process is the result that "the blue light irradiation image is an image including an intraoral tumor" (step S103-Yes), the
第1判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含まない画像である」という結果である場合(ステップS103-No)、判別処理部354は、第2判別処理を実行する(ステップS104)
When the discrimination result of the first discrimination process is the result that "the blue light irradiation image is an image that does not include the intraoral tumor" (step S103-No), the
次に、判別処理部354は、第2判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果であるか否かを判定する(ステップS105)。
Next, the
第1判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果である場合(ステップS105-Yes)、判別処理部354は、処理をステップS106に進める。
When the discrimination result of the first discrimination process is the result that "the blue light irradiation image is an image including an intraoral tumor" (step S105-Yes), the
第1判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含まない画像である」という結果である場合(ステップS105-No)、判別処理部354は、処理をステップS111に進める。
When the discrimination result of the first discrimination process is the result that "the blue light irradiation image is an image that does not include the intraoral tumor" (step S105-No), the
ステップS106では、判別処理部354は、第3判別処理を実行する。
In step S106, the
次に、判別処理部354は、第3判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果であるか否かを判定する(ステップS107)。
Next, the
第3判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含まない画像である」という結果である場合(ステップS107-No)、判別処理部354は、処理をステップS111に進める。
When the discrimination result of the third discrimination process is the result that "the blue light irradiation image is an image that does not include the intraoral tumor" (step S107-No), the
第3判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果である場合(ステップS107-Yes)、第3判別処理の判別結果が「青色光照射画像が悪性の口腔内腫瘍を含む画像である」という結果であるか否かを判定する(ステップS108)。 When the discrimination result of the third discrimination process is "the blue light irradiation image is an image containing an oral tumor" (step S107-Yes), the discrimination result of the third discrimination process is "the blue light irradiation image is malignant". It is determined whether or not the result is "an image including an intraoral tumor" (step S108).
第3判別処理の判別結果が「青色光照射画像が悪性の口腔内腫瘍を含む画像である」という結果である場合(ステップS108-Yes)、出力処理部355は、悪性腫瘍情報を出力し(ステップS109)、判別処理を終了する。
When the discrimination result of the third discrimination process is the result that "the blue light irradiation image is an image including a malignant oral tumor" (step S108-Yes), the
第3判別処理の判別結果が「青色光照射画像が良性の口腔内腫瘍を含む画像である」という結果である場合(ステップS108-No)、出力処理部355は、良性腫瘍情報を出力し(ステップS110)、判別処理を終了する。
When the discrimination result of the third discrimination process is the result that "the blue light irradiation image is an image including a benign oral tumor" (step S108-No), the
ステップS111では、出力処理部355は、健常情報を出力して判別処理を終了する。
In step S111, the
以上、詳述したとおり、本実施形態の判別システム1は、青色光照射画像を教師データとして学習済みの第2及び第3判別モデルを用いた第2及び第3判別処理を実行するとともに、口腔内の腫瘍の粘膜表面及び口腔内の健常組織の粘膜表面における青色光照射画像での輝度の違いに着目した第1判別モデルを用いた第1判別処理を実行する。これにより、本実施形態の判別システム1において、熟練した専門医の知見を効果的に判別処理に適用することができ、精度の高い口腔内腫瘍の判別を実現することが可能となる。 As described in detail above, the discrimination system 1 of the present embodiment executes the second and third discrimination processes using the second and third discrimination models that have been trained using the blue light irradiation image as the teacher data, and also performs the oral cavity. The first discrimination process using the first discrimination model focusing on the difference in brightness in the blue light irradiation image between the mucosal surface of the tumor inside and the mucosal surface of the healthy tissue in the oral cavity is executed. As a result, in the discrimination system 1 of the present embodiment, the knowledge of a skilled specialist can be effectively applied to the discrimination process, and it becomes possible to realize highly accurate discrimination of oral tumors.
また、本実施形態の判別システム1では、それぞれが異なる第1、第2及び第3判別モデルを用いた第1、第2及び第3判別処理を段階的に実行することで、青色光照射画像を悪性腫瘍、良性腫瘍及び健常に分類する。このため、本実施形態の判別システム1では、第2及び第3判別モデルの教師データの数が十分でなくとも、1種類の判別モデルのみで分類する場合に比べ、より精度の高い判別処理が可能となる。また、第2及び第3判別モデルの教師データとして、1種類の画像データから画像処理(分割、回転、及び/又は反転処理)した複数種類の画像データを用いることで、青色光照射画像の入手が困難であっても判別処理の精度を向上させることが可能となる。このように、判別モデルに用いる教師データの数を低減させることができ、判別装置3の処理負荷及び/又は端末装置2と判別装置3との間の通信負荷を軽減させ、判別装置3の処理リソースを過度に消費することなく、精度の高い口腔内腫瘍の判別を実現することが可能となる。
Further, in the discrimination system 1 of the present embodiment, the first, second, and third discrimination processes using the first, second, and third discrimination models, which are different from each other, are sequentially executed to obtain a blue light irradiation image. Are classified as malignant tumors, benign tumors and healthy tumors. Therefore, in the discrimination system 1 of the present embodiment, even if the number of teacher data of the second and third discrimination models is not sufficient, the discrimination processing with higher accuracy can be performed as compared with the case of classifying with only one type of discrimination model. It will be possible. Further, by using a plurality of types of image data processed (divided, rotated, and / or inverted) from one type of image data as the teacher data of the second and third discrimination models, a blue light irradiation image can be obtained. Even if it is difficult, it is possible to improve the accuracy of the discrimination process. In this way, the number of teacher data used in the discrimination model can be reduced, the processing load of the discrimination device 3 and / or the communication load between the
(変形例1)
なお、本発明は、本実施形態に限定されるものではない。例えば、判別装置3を使用せずに、端末装置2に、判別装置3の変換機能、学習機能、判別機能及び出力機能を備えさせた判別端末装置4が用いられてもよい。
(Modification 1)
The present invention is not limited to the present embodiment. For example, instead of using the discriminating device 3, a discriminating
図10は、判別端末装置4の概略構成の一例を示す図である。判別端末装置4は、判別装置3の変換機能、学習機能、判別機能及び出力機能を備える端末装置2である。なお、図10において、図2及び図4と同じ構成については同じ符号を付し、その説明を省略する。
FIG. 10 is a diagram showing an example of a schematic configuration of the
判別端末装置4の変換処理部352、学習処理部353及び判別処理部354は、端末記憶部22に記憶された青色光照射画像(撮影制御部272によって記憶された青色光照射画像)を用いて、それぞれ変換処理、学習処理及び判別処理を実行する。
The
また、出力処理部355は、判別結果(健常情報、悪性腫瘍情報、良性腫瘍情報)を、端末表示部23に表示出力する。
Further, the
このように、判別端末装置4では、1台の装置によって、青色光照射画像の撮影処理、判別処理、及び判別結果の表示が実行されるため、他の装置へのデータの送信処理が不要となるとともに、ユーザは青色光照射画像の撮影後に即座に判別結果を確認することができる。このように、判別端末装置4によって、口腔内腫瘍の判別精度の向上及びスクリーニングに係る時間の短縮が可能となる。
As described above, in the
(変形例2)
第1判別処理において用いられる第1判別モデルは、サポートベクターマシン(Support Vector Machine,SVM)等であってもよい。この場合、周波数スペクトルが特徴量として用いられ、「青色光照射画像」が、「口腔内腫瘍を含む画像である」及び「口腔内腫瘍を含まない画像である」のいずれかに分類される。
(Modification 2)
The first discrimination model used in the first discrimination process may be a support vector machine (SVM) or the like. In this case, the frequency spectrum is used as a feature amount, and the "blue light irradiation image" is classified into either "an image containing an oral tumor" or "an image not including an oral tumor".
1 判別システム
2 端末装置
21 端末通信部
22 端末記憶部
23 端末表示部
24 端末操作部
25 照射部
26 撮影部
27 端末制御部
271 照射制御部
272 撮影制御部
273 送信制御部
3 判別装置
31 通信部
32 記憶部
33 表示部
34 操作部
35 処理部
351 受信処理部
352 変換処理部
353 学習処理部
354 判別処理部
355 出力処理部
4 判別端末装置
M1 第1判別モデル
M2 第2判別モデル
M3 第3判別モデル
TD 教師データ
1
Claims (9)
前記撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、
学習済みの第1判別モデルに対して前記空間周波数スペクトルを入力し、入力された前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、
学習済みの第2判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、又は、前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別され且つ前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、又は、前記第3判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、前記患者の口腔内に前記口腔内腫瘍が存在しないことを示す健常情報を出力し、
前記第3判別部によって前記撮影画像が前記良性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、
前記第3判別部によって前記撮影画像が前記悪性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部と
を有することを特徴とする判別装置。 It is a discrimination device that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor using a photographed image of the oral cavity of a patient irradiated with blue light.
A conversion unit that generates a spatial frequency spectrum by Fourier transforming the captured image, and
The first discrimination model in which the spatial frequency spectrum is input to the trained first discrimination model and whether or not the captured image corresponding to the input spatial frequency spectrum is an image including the oral tumor is determined. Department and
A second discrimination unit that inputs the captured image to the trained second discrimination model and determines whether or not the input captured image is an image including the oral tumor.
When the captured image is determined to be an image containing the oral tumor by the first discrimination unit, or when the captured image is determined to be an image containing the oral tumor by the second discrimination unit. In the case, the captured image is input to the trained third discrimination model, and the input captured image includes the benign oral tumor, the malignant oral tumor, and the oral cavity. A third discriminating unit that discriminates which of the images does not contain an internal tumor,
When the captured image is determined to be an image that does not contain the oral tumor by the first discrimination unit, and the captured image is determined to be an image that does not contain the oral tumor by the second discrimination unit. Alternatively, when the captured image is determined by the third discrimination unit to be an image that does not include the oral tumor, health information indicating that the oral tumor does not exist in the oral cavity of the patient is output.
When the captured image is determined by the third discrimination unit to be an image containing the benign oral tumor, benign tumor information indicating that the benign oral tumor is present in the oral cavity of the patient is output. death,
When the photographed image is determined by the third discrimination unit to be an image containing the malignant oral tumor, malignant tumor information indicating that the malignant oral tumor is present in the oral cavity of the patient is output. A discriminant device characterized by having an output unit and an output unit.
前記撮影画像を入力データとし、前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを示すデータを出力データとして、前記第2判別モデルを学習させ、
前記撮影画像を入力データとし、前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像、のいずれかであることを示すデータを出力データとして、前記第3判別モデルを学習させる学習部を有する、請求項1-3のいずれか一項に記載の判別装置。 The first discrimination model is trained using the spatial frequency spectrum as input data and data indicating whether or not the captured image corresponding to the spatial frequency spectrum is an image containing the oral tumor as output data.
The second discriminant model is trained using the captured image as input data and data indicating whether or not the captured image is an image containing the oral tumor as output data.
Using the captured image as input data, the captured image is either an image containing the benign oral tumor, an image containing the malignant oral tumor, or an image not containing the oral tumor. The discriminant device according to any one of claims 1-3, which has a learning unit for learning the third discriminant model using the indicated data as output data.
前記青色光を照射する照射部と、
所定の撮影方向の撮影対象空間を撮影する撮影部と、
前記撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、
学習済みの第1判別モデルに対して前記空間周波数スペクトルを入力し、入力された前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、
学習済みの第2判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、又は、前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別され且つ前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、又は、前記第3判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、前記患者の口腔内に前記口腔内腫瘍が存在しないことを示す健常情報を出力し、
前記第3判別部によって前記撮影画像が前記良性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、
前記第3判別部によって前記撮影画像が前記悪性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部と
を有することを特徴とする判別端末装置。 It is a discrimination terminal device that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor using a photographed image of the oral cavity of a patient irradiated with blue light.
The irradiation unit that irradiates the blue light and
A shooting unit that shoots the shooting target space in a predetermined shooting direction,
A conversion unit that generates a spatial frequency spectrum by Fourier transforming the captured image, and
The first discrimination model in which the spatial frequency spectrum is input to the trained first discrimination model and whether or not the captured image corresponding to the input spatial frequency spectrum is an image including the oral tumor is determined. Department and
A second discrimination unit that inputs the captured image to the trained second discrimination model and determines whether or not the input captured image is an image including the oral tumor.
When the captured image is determined to be an image containing the oral tumor by the first discrimination unit, or when the captured image is determined to be an image containing the oral tumor by the second discrimination unit. In the case, the captured image is input to the trained third discrimination model, and the input captured image includes the benign oral tumor, the malignant oral tumor, and the oral cavity. A third discriminating unit that discriminates which of the images does not contain an internal tumor,
When the captured image is determined to be an image that does not contain the oral tumor by the first discrimination unit, and the captured image is determined to be an image that does not contain the oral tumor by the second discrimination unit. Alternatively, when the captured image is determined by the third discrimination unit to be an image that does not include the oral tumor, health information indicating that the oral tumor does not exist in the oral cavity of the patient is output.
When the captured image is determined by the third discrimination unit to be an image containing the benign oral tumor, benign tumor information indicating that the benign oral tumor is present in the oral cavity of the patient is output. death,
When the photographed image is determined by the third discrimination unit to be an image containing the malignant oral tumor, malignant tumor information indicating that the malignant oral tumor is present in the oral cavity of the patient is output. A discriminant terminal device characterized by having an output unit.
前記撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成し、
学習済みの第1判別モデルに対して前記空間周波数スペクトルを入力し、入力された前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第1判別ステップと、
学習済みの第2判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第2判別ステップと、
前記第1判別ステップにおいて前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、又は、前記第2判別ステップにおいて前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別ステップと、
前記第1判別ステップにおいて前記撮影画像が前記口腔内腫瘍を含まない画像であると判別され且つ前記第2判別ステップにおいて前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、又は、前記第3判別ステップにおいて前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、前記患者の口腔内に前記口腔内腫瘍が存在しないことを示す健常情報を出力し、
前記第3判別ステップにおいて前記撮影画像が前記良性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、
前記第3判別ステップにおいて前記撮影画像が前記悪性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力ステップと
を含むことを特徴とする制御方法。 It is a control method of a discriminator that discriminates the presence or absence of an oral tumor and whether the oral tumor is benign or malignant by using a photographed image of the oral cavity of a patient irradiated with blue light.
By Fourier transforming the captured image, a spatial frequency spectrum is generated.
The first discrimination model in which the spatial frequency spectrum is input to the trained first discrimination model and whether or not the captured image corresponding to the input spatial frequency spectrum is an image including the oral tumor is determined. Steps and
A second discrimination step in which the captured image is input to the trained second discrimination model and it is determined whether or not the input captured image is an image containing the oral tumor.
When the captured image was determined to be an image containing the oral tumor in the first discrimination step, or when the captured image was determined to be an image containing the oral tumor in the second discrimination step. In the case, the captured image is input to the trained third discrimination model, and the input captured image includes the benign oral tumor, the malignant oral tumor, and the oral cavity. A third discrimination step for determining which of the images does not contain an internal tumor, and
When the captured image is determined to be an image that does not contain the oral tumor in the first discrimination step, and the captured image is determined to be an image that does not contain the oral tumor in the second discrimination step. Alternatively, when the captured image is determined to be an image that does not include the oral tumor in the third discrimination step, health information indicating that the oral tumor does not exist in the oral cavity of the patient is output.
When the captured image is determined to be an image containing the benign oral tumor in the third discrimination step, benign tumor information indicating that the benign oral tumor is present in the oral cavity of the patient is output. death,
When the captured image is determined to be an image containing the malignant oral tumor in the third discrimination step, malignant tumor information indicating that the malignant oral tumor is present in the oral cavity of the patient is output. A control method characterized by including an output step to be performed.
前記撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換機能と、
学習済みの第1判別モデルに対して前記空間周波数スペクトルを入力し、入力された前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第1判別機能と、
学習済みの第2判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第2判別機能と、
前記第1判別機能において前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、又は、前記第2判別機能において前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別機能と、
前記第1判別機能において前記撮影画像が前記口腔内腫瘍を含まない画像であると判別され且つ前記第2判別機能において前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、又は、前記第3判別機能において前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、前記患者の口腔内に前記口腔内腫瘍が存在しないことを示す健常情報を出力し、
前記第3判別機能において前記撮影画像が前記良性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、
前記第3判別機能において前記撮影画像が前記悪性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力機能と
を前記判別装置に実現させるための制御プログラム。 It is a control program of a discriminator that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor using a photographed image of the oral cavity of a patient irradiated with blue light.
A conversion function that generates a spatial frequency spectrum by Fourier transforming the captured image,
The first discrimination model in which the spatial frequency spectrum is input to the trained first discrimination model and whether or not the captured image corresponding to the input spatial frequency spectrum is an image including the oral tumor is determined. Functions and
A second discrimination function that inputs the captured image to the trained second discrimination model and determines whether or not the input captured image is an image containing the oral tumor.
When the captured image is determined to be an image containing the oral tumor in the first discrimination function, or when the captured image is determined to be an image containing the oral tumor in the second discrimination function. In the case, the captured image is input to the trained third discrimination model, and the input captured image includes the benign oral tumor, the malignant oral tumor, and the oral cavity. The third discrimination function that discriminates which of the images does not include the internal tumor, and
When the captured image is determined to be an image that does not contain the oral tumor in the first discrimination function, and the captured image is determined to be an image that does not contain the oral tumor in the second discrimination function. Alternatively, when the captured image is determined by the third discrimination function to be an image that does not include the oral tumor, health information indicating that the oral tumor does not exist in the oral cavity of the patient is output.
When the captured image is determined to be an image containing the benign oral tumor by the third discrimination function, benign tumor information indicating that the benign oral tumor is present in the oral cavity of the patient is output. death,
When the captured image is determined to be an image containing the malignant oral tumor by the third discrimination function, malignant tumor information indicating that the malignant oral tumor is present in the oral cavity of the patient is output. A control program for realizing the output function to be performed by the discrimination device.
前記端末装置は、
前記青色光を照射する照射部と、
所定の撮影方向の撮影対象空間を撮影する撮影部と、
前記撮影された撮影画像を出力する端末出力部とを有し、
前記判別装置は、
前記撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、
学習済みの第1判別モデルに対して前記空間周波数スペクトルを入力し、入力された前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、
学習済みの第2判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、又は、前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別され且つ前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、又は、前記第3判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、前記患者の口腔内に前記口腔内腫瘍が存在しないことを示す健常情報を出力し、
前記第3判別部によって前記撮影画像が前記良性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、
前記第3判別部によって前記撮影画像が前記悪性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部とを有する
ことを特徴とする判別システム。 A terminal device that photographs the oral cavity of a patient irradiated with blue light and outputs the captured image, and the photographed image is used to determine the presence or absence of an oral tumor and to determine whether the oral tumor is benign or malignant. A discrimination system having a discrimination device,
The terminal device is
The irradiation unit that irradiates the blue light and
A shooting unit that shoots the shooting target space in a predetermined shooting direction,
It has a terminal output unit that outputs the captured image, and has a terminal output unit.
The discrimination device is
A conversion unit that generates a spatial frequency spectrum by Fourier transforming the captured image, and
The first discrimination model in which the spatial frequency spectrum is input to the trained first discrimination model and whether or not the captured image corresponding to the input spatial frequency spectrum is an image including the oral tumor is determined. Department and
A second discrimination unit that inputs the captured image to the trained second discrimination model and determines whether or not the input captured image is an image including the oral tumor.
When the captured image is determined to be an image containing the oral tumor by the first discrimination unit, or when the captured image is determined to be an image containing the oral tumor by the second discrimination unit. In the case, the captured image is input to the trained third discrimination model, and the input captured image includes the benign oral tumor, the malignant oral tumor, and the oral cavity. A third discriminating unit that discriminates which of the images does not contain an internal tumor,
When the captured image is determined to be an image that does not contain the oral tumor by the first discrimination unit, and the captured image is determined to be an image that does not contain the oral tumor by the second discrimination unit. Alternatively, when the captured image is determined by the third discrimination unit to be an image that does not include the oral tumor, health information indicating that the oral tumor does not exist in the oral cavity of the patient is output.
When the captured image is determined by the third discrimination unit to be an image containing the benign oral tumor, benign tumor information indicating that the benign oral tumor is present in the oral cavity of the patient is output. death,
When the photographed image is determined by the third discrimination unit to be an image containing the malignant oral tumor, malignant tumor information indicating that the malignant oral tumor is present in the oral cavity of the patient is output. A discrimination system characterized by having an output unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020194146A JP2022082952A (en) | 2020-11-24 | 2020-11-24 | Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020194146A JP2022082952A (en) | 2020-11-24 | 2020-11-24 | Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022082952A true JP2022082952A (en) | 2022-06-03 |
Family
ID=81811393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020194146A Pending JP2022082952A (en) | 2020-11-24 | 2020-11-24 | Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022082952A (en) |
-
2020
- 2020-11-24 JP JP2020194146A patent/JP2022082952A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11382558B2 (en) | Skin feature imaging system | |
JP6340477B2 (en) | Distance image acquisition device and distance image acquisition method | |
US10521924B2 (en) | System and method for size estimation of in-vivo objects | |
US10285624B2 (en) | Systems, devices, and methods for estimating bilirubin levels | |
US9089303B2 (en) | Automated assessment of skin lesions using image library | |
CN112005312A (en) | Wound imaging and analysis | |
JP5594711B2 (en) | Method for enhancing in-vivo image contrast | |
JP2016516475A (en) | Estimating bilirubin levels | |
CN112884666B (en) | Image processing method, device and computer storage medium | |
KR20110094037A (en) | Video infrared retinal image scanner | |
US8913807B1 (en) | System and method for detecting anomalies in a tissue imaged in-vivo | |
JP7286208B2 (en) | Biometric face detection method, biometric face detection device, electronic device, and computer program | |
KR20150049585A (en) | Polyp detection apparatus and operating method for the same | |
CN114693593A (en) | Image processing method, device and computer device | |
CN115153397A (en) | Imaging method for endoscopic camera system and endoscopic camera system | |
JP2009282706A (en) | Vein authentication device and vein authentication method | |
KR102462975B1 (en) | Ai-based cervical caner screening service system | |
JP2022082952A (en) | Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system | |
CN114341923A (en) | Control apparatus, control method, and storage medium | |
US20160242678A1 (en) | Organ image photographing apparatus | |
CN107317986A (en) | Terminal installation, information acquiring system and its information acquisition method | |
CN114366021A (en) | System and method for assessing survival rate of parathyroid gland | |
JPWO2019077863A1 (en) | Identification device and electronic equipment | |
Outlaw | Screening for Neonatal Jaundice by Smartphone Sclera Imaging | |
JP2023543255A (en) | System and method for detecting gastrointestinal diseases |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240531 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240604 |