JP2022082952A - Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system - Google Patents

Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system Download PDF

Info

Publication number
JP2022082952A
JP2022082952A JP2020194146A JP2020194146A JP2022082952A JP 2022082952 A JP2022082952 A JP 2022082952A JP 2020194146 A JP2020194146 A JP 2020194146A JP 2020194146 A JP2020194146 A JP 2020194146A JP 2022082952 A JP2022082952 A JP 2022082952A
Authority
JP
Japan
Prior art keywords
image
discrimination
tumor
oral
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020194146A
Other languages
Japanese (ja)
Inventor
忠典 深見
Tadanori Fukami
恵生 石川
Yoshio Ishikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamagata University NUC
Original Assignee
Yamagata University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamagata University NUC filed Critical Yamagata University NUC
Priority to JP2020194146A priority Critical patent/JP2022082952A/en
Publication of JP2022082952A publication Critical patent/JP2022082952A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Endoscopes (AREA)

Abstract

To provide a discrimination device, etc. for achieving accurate discrimination of an oral cavity tumor by applying findings of skilled medical specialists to discrimination processing effectively.SOLUTION: When a captured image is discriminated to be an image that does not include an oral cavity tumor by a first discrimination part, and the captured image is discriminated to be an image that does not include an oral cavity tumor by a second discrimination part, or when the captured image is discriminated to be an image that does not include an oral cavity tumor by a third discrimination part, a discrimination device outputs health information indicating that an oral cavity tumor does not exist in the oral cavity of a patient. When the captured image is discriminated to be an image including a benign oral cavity tumor by the third discrimination part, the discrimination device outputs benign tumor information indicating that a benign oral cavity tumor exists in the oral cavity of the patient. When the captured image is discriminated to be an image including a malignant oral cavity tumor by the third discrimination part, the discrimination device outputs malignant tumor information indicating that a malignant oral cavity tumor exists in the oral cavity of the patient.SELECTED DRAWING: Figure 9

Description

本明細書で開示された実施形態は、口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行うための、判別装置、判別端末装置、判別装置の制御方法及び制御プログラム、並びに判別システムに関する。 The embodiments disclosed in the present specification include a discrimination device, a discrimination terminal device, a control method and control program of the discrimination device, and a discrimination for discriminating the presence or absence of an oral tumor and discriminating between benign and malignant oral tumors. Regarding the system.

従来、口腔癌のスクリーニングは、主に医師による視診及び触診によって実施される。近年、口腔癌のスクリーニングにおいて用いられるスクリーニングデバイスとして、蛍光観察装置が実用化されている。 Conventionally, screening for oral cancer is mainly performed by inspection and palpation by a doctor. In recent years, a fluorescence observation device has been put into practical use as a screening device used in the screening of oral cancer.

蛍光観察装置は、外部からの光照射に対する口腔内の健常組織及び病的組織における励起光の特徴を利用した光学機器であり、435~460nmの波長の青色光を照射する。口腔内の健常組織はコラーゲンを有するため、蛍光観察装置によって照射された青色光により、健常組織において蛍光可視が保持される。一方、口腔内の病的組織では、コラーゲンが壊れているため、蛍光観察装置により青色光が照射されても蛍光可視の低下が起こり、暗色が観察される。このように、医師は、蛍光観察装置を用いることにより、患部に接触することなく、非常に簡便で非侵襲的なスクリーニング検査を実施することができる。 The fluorescence observation device is an optical device that utilizes the characteristics of excitation light in healthy tissues and pathological tissues in the oral cavity with respect to external light irradiation, and irradiates blue light having a wavelength of 435 to 460 nm. Since the healthy tissue in the oral cavity has collagen, the fluorescence visibility is maintained in the healthy tissue by the blue light irradiated by the fluorescence observation device. On the other hand, in the pathological tissue in the oral cavity, since collagen is broken, even if blue light is irradiated by the fluorescence observation device, the fluorescence visibility is lowered and a dark color is observed. As described above, by using the fluorescence observation device, the doctor can carry out a very simple and non-invasive screening test without contacting the affected area.

例えば、特許文献1には、標的組織から発光する蛍光又は他の微弱光を検出する検査鏡、及び、標的組織を覆うことで周囲室内光等の不都合な光の観察領域への侵入を防止する覆装置又は前置装置について記載されている。また、特許文献2には、カメラ及び蛍光可視装置によって撮影された患者の口腔内のデジタル画像データを管理し、口腔内検診を支援する口腔内検診管理システムについて記載されている。 For example, Patent Document 1 describes an inspection mirror that detects fluorescence emitted from a target tissue or other weak light, and covers the target tissue to prevent intrusion of inconvenient light such as ambient room light into the observation area. Describes a cover device or a front-end device. Further, Patent Document 2 describes an oral examination management system that manages digital image data in the oral cavity of a patient taken by a camera and a fluorescence visualization device and supports the oral examination.

特許文献3には、特定健診項目の測定値を要素とする特徴ベクトルを入力値とし、所定の腫瘍マーカーの測定値を教師値として用いて学習した予測モデルに基づいて、所定の疾病について罹病の可能性を予測する機械学習装置について記載されている。また、特許文献4及び5には、医療画像を用いて学習した学習モデルに基づいて、腫瘍の良悪性を判別する技術について記載されている。 In Patent Document 3, a feature vector having a measured value of a specific medical examination item as an element is used as an input value, and a predicted model learned by using a measured value of a predetermined tumor marker as a teacher value is used as an input value. A machine learning device that predicts the possibility of Further, Patent Documents 4 and 5 describe a technique for discriminating between benign and malignant tumors based on a learning model learned using medical images.

特許5681162号公報Japanese Patent No. 5681162 特許6453607号公報Japanese Patent No. 6453607 特開2018-68752号公報Japanese Unexamined Patent Publication No. 2018-68752 特開2018-183583号公報Japanese Unexamined Patent Publication No. 2018-183583 特表2002-530133号公報Special Table 2002-530133

従来の蛍光観察に係る技術が用いられることで、健常粘膜から口腔粘膜病変をスクリーニングする可能性が向上したが、蛍光観察に係る技術だけでは、経験の浅い医師にとって、口腔内の腫瘍の良悪性の鑑別を行うことは難しかった。このため、口腔癌のスクリーニングにおいて、蛍光観察装置が用いられたとしても、医師の主観的な判断に頼らざるを得ず、診断の精度は、担当医師の経験に依存してしまうという問題が生じていた。 The use of conventional techniques related to fluorescence observation has improved the possibility of screening oral mucosal lesions from healthy mucosa, but the techniques related to fluorescence observation alone have improved the possibility of screening oral mucosal lesions. It was difficult to distinguish between them. For this reason, even if a fluorescence observation device is used in the screening of oral cancer, there is no choice but to rely on the subjective judgment of the doctor, and the accuracy of the diagnosis depends on the experience of the doctor in charge. Was there.

また、従来の機械学習を用いた腫瘍の判別技術では、医療画像又は検査装置による測定値を単に入力データとして学習するだけであり、熟練した専門医の知見を効果的に反映した判別処理が実現されていなかった。このような機械学習では、人間によって入力された特徴量が教師データとして用いられることがあり、学習済みの判別モデルによる識別性能は、特徴量を設定した人に依存し、有用且つ潜在的な特徴を見逃している可能性があった。 Further, in the conventional tumor discrimination technique using machine learning, the measurement value by the medical image or the inspection device is simply learned as input data, and the discrimination process that effectively reflects the knowledge of a skilled specialist is realized. I wasn't. In such machine learning, features input by humans may be used as teacher data, and the discrimination performance by the trained discrimination model depends on the person who set the features, which is useful and potential features. I could have missed it.

開示された判別装置、判別端末装置、判別装置の制御方法及び制御プログラム、並びに判別システムは、熟練した専門医の知見を効果的に判別処理に適用し、精度の高い口腔内腫瘍の判別を実現することを可能とする。 The disclosed discrimination device, discrimination terminal device, control method and control program of the discrimination device, and the discrimination system effectively apply the knowledge of a skilled specialist to the discrimination process to realize highly accurate discrimination of oral tumors. Make it possible.

開示された判別装置は、青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別装置であって、撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、学習済みの第1判別モデルに対して空間周波数スペクトルを入力し、入力された空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、学習済みの第2判別モデルに対して撮影画像を入力し、入力された撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、第1判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、又は、第2判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して撮影画像を入力し、入力された撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、第1判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別され且つ第2判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、又は、第3判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、患者の口腔内に口腔内腫瘍が存在しないことを示す健常情報を出力し、第3判別部によって撮影画像が良性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、第3判別部によって撮影画像が悪性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部とを有する。 The disclosed discrimination device is a discrimination device that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor by using a photographed image of the oral cavity of a patient irradiated with blue light. A transforming unit that generates a spatial frequency spectrum by Fourier transforming an image and a spatial frequency spectrum that has been trained for the first discrimination model are input, and the captured image corresponding to the input spatial frequency spectrum is an oral tumor. A captured image is input to the first discriminant unit that discriminates whether or not the image contains the tumor and the trained second discriminant model, and whether or not the input captured image is an image containing an intraoral tumor. When the captured image is determined to be an image containing an oral tumor by the second discrimination unit and the first discrimination unit, or when the captured image is an image containing an oral tumor by the second discrimination unit. If discriminated, a captured image is input to the trained third discrimination model, and the input captured image includes an image containing a benign oral tumor, an image containing a malignant oral tumor, and an oral tumor. The third discrimination unit that determines which of the images does not contain the tumor, and the first discrimination unit determine that the captured image is an image that does not contain an oral tumor, and the second discrimination unit determines that the captured image is an oral tumor. If it is determined that the image does not contain an oral tumor, or if the captured image is determined to be an image that does not contain an oral tumor by the third discrimination unit, it is determined that there is no oral tumor in the patient's oral cavity. When the health information shown is output and the captured image is determined by the third discrimination unit to be an image containing a benign oral tumor, the benign tumor information indicating the presence of a benign oral tumor in the patient's oral cavity. Is output, and when the captured image is determined to be an image containing a malignant oral tumor by the third discrimination unit, malignant tumor information indicating the presence of a malignant oral tumor in the patient's oral cavity is output. It has an output unit.

また、開示された判別装置において、第2判別部は、第1判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合に限り、学習済みの第2判別モデルに対して撮影画像を入力し、撮影画像が口腔内腫瘍を含む画像であるか否かを判別することが好ましい。 Further, in the disclosed discrimination device, the second discrimination unit refers to the trained second discrimination model only when the captured image is determined by the first discrimination unit to be an image that does not include an intraoral tumor. It is preferable to input a captured image and determine whether or not the captured image is an image containing an oral tumor.

また、開示された判別装置は、出力部によって出力された各情報を表示する表示部を有することが好ましい。 Further, it is preferable that the disclosed discrimination device has a display unit that displays each information output by the output unit.

また、開示された判別装置は、空間周波数スペクトルを入力データとし、空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを示すデータを出力データとして、第1判別モデルを学習させ、撮影画像を入力データとし、撮影画像が口腔内腫瘍を含む画像であるか否かを示すデータを出力データとして、第2判別モデルを学習させ、撮影画像を入力データとし、撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像、のいずれかであることを示すデータを出力データとして、第3判別モデルを学習させる学習部を有することが好ましい。 Further, the disclosed discrimination device uses the spatial frequency spectrum as input data, and uses the data indicating whether or not the captured image corresponding to the spatial frequency spectrum is an image including an oral tumor as output data, and uses the first discrimination model. The training is performed, the captured image is used as input data, the data indicating whether or not the captured image is an image containing an intraoral tumor is used as output data, the second discrimination model is trained, the captured image is used as input data, and the captured image is , An image containing a benign oral tumor, an image containing a malignant oral tumor, and an image not containing an oral tumor, as output data, and training to train the third discrimination model. It is preferable to have a portion.

また、開示された判別装置は、第2判別モデル及び第3判別モデルを学習させるために用いられる入力データは、撮影した撮影画像を複数に分割した分割画像、並びに、分割画像を左右回転した画像、及び分割画像を左右反転した画像よりなる群から選択される一種以上の画像を含むことが好ましい。 Further, in the disclosed discrimination device, the input data used for learning the second discrimination model and the third discrimination model is a divided image obtained by dividing the captured image into a plurality of captured images, and an image obtained by rotating the divided image left and right. , And one or more images selected from the group consisting of left-right inverted divided images.

開示された判別端末装置は、青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別端末装置であって、青色光を照射する照射部と、所定の撮影方向の撮影対象空間を撮影する撮影部と、撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、学習済みの第1判別モデルに対して空間周波数スペクトルを入力し、入力された空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、学習済みの第2判別モデルに対して撮影画像を入力し、入力された撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、第1判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、又は、第2判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して撮影画像を入力し、入力された撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、第1判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別され且つ第2判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、又は、第3判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、患者の口腔内に口腔内腫瘍が存在しないことを示す健常情報を出力し、第3判別部によって撮影画像が良性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、第3判別部によって撮影画像が悪性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部と、を有する。 The disclosed discrimination terminal device is a discrimination terminal device that discriminates the presence or absence of an oral tumor and discriminates whether the oral tumor is benign or malignant by using a photographed image of the oral cavity of a patient irradiated with blue light. , The irradiation unit that irradiates blue light, the imaging unit that captures the imaging target space in a predetermined imaging direction, the conversion unit that generates a spatial frequency spectrum by Fourier transforming the captured image, and the learned first discrimination. A first discriminant unit that inputs a spatial frequency spectrum to the model and determines whether or not the captured image corresponding to the input spatial frequency spectrum is an image containing an intraoral tumor, and a trained second discriminant model. A second discriminant unit that inputs a captured image to the subject and determines whether or not the input captured image is an image containing an oral tumor, and an image captured by the first discriminant unit that includes an oral tumor. If it is determined to be present, or if the captured image is determined to be an image containing an intraoral tumor by the second discrimination unit, the captured image is input to the trained third discrimination model and input. Photographed by a third discriminating unit and a first discriminating unit that determine whether the captured image is an image containing a benign oral tumor, an image containing a malignant oral tumor, or an image not containing an oral tumor. When the image is determined to be an image that does not contain an oral tumor and the captured image is determined to be an image that does not contain an oral tumor by the second discrimination unit, or the captured image is an intraoral image by the third discrimination unit. When it is determined that the image does not contain a tumor, health information indicating that an oral tumor does not exist in the patient's oral cavity is output, and the image taken by the third discrimination unit is an image containing a benign oral tumor. If it is determined to be present, benign tumor information indicating that a benign oral tumor is present in the patient's oral cavity is output, and the image taken by the third discrimination unit is determined to be an image containing a malignant oral tumor. If so, it has an output unit that outputs malignant tumor information indicating that a malignant oral tumor is present in the oral cavity of the patient.

開示された制御方法は、青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別装置の制御方法であって、撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成し、学習済みの第1判別モデルに対して空間周波数スペクトルを入力し、入力された空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第1判別ステップと、学習済みの第2判別モデルに対して撮影画像を入力し、入力された撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第2判別ステップと、第1判別ステップにおいて撮影画像が口腔内腫瘍を含む画像であると判別された場合、又は、第2判別ステップにおいて撮影画像が口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して撮影画像を入力し、入力された撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別ステップと、第1判別ステップにおいて撮影画像が口腔内腫瘍を含まない画像であると判別され且つ第2判別ステップにおいて撮影画像が口腔内腫瘍を含まない画像であると判別された場合、又は、第3判別ステップにおいて撮影画像が口腔内腫瘍を含まない画像であると判別された場合、患者の口腔内に口腔内腫瘍が存在しないことを示す健常情報を出力し、第3判別ステップにおいて撮影画像が良性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、第3判別ステップにおいて撮影画像が悪性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力ステップとを含む。 The disclosed control method is a control method of a discrimination device that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor by using a photographed image of the oral cavity of a patient irradiated with blue light. Then, a spatial frequency spectrum is generated by Fourier transforming the captured image, the spatial frequency spectrum is input to the trained first discrimination model, and the captured image corresponding to the input spatial frequency spectrum is an oral tumor. The first discrimination step for determining whether or not the image contains the tumor, and the captured image is input to the trained second discrimination model, and whether or not the input captured image is an image containing an intraoral tumor. When the captured image is determined to be an image containing an oral tumor in the second discrimination step and the first discrimination step, or when the captured image is an image containing an oral tumor in the second discrimination step. If discriminated, a captured image is input to the trained third discrimination model, and the input captured image includes an image containing a benign oral tumor, an image containing a malignant oral tumor, and an oral tumor. In the third discrimination step for determining which of the images does not contain, and in the first discrimination step, the captured image is determined to be an image that does not contain an oral tumor, and in the second discrimination step, the captured image is an oral tumor. If it is determined that the image does not contain an oral tumor, or if the captured image is determined to be an image that does not contain an oral tumor in the third discrimination step, it is determined that there is no oral tumor in the patient's oral cavity. If the captured image is determined to be an image containing a benign oral tumor in the third discrimination step, the benign tumor information indicating that a benign oral tumor is present in the patient's oral cavity is output. Is output, and when the captured image is determined to be an image containing a malignant oral tumor in the third discrimination step, malignant tumor information indicating the presence of a malignant oral tumor in the patient's oral cavity is output. Includes output steps.

開示された制御プログラムは、青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別装置の制御プログラムであって、撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換機能と、学習済みの第1判別モデルに対して空間周波数スペクトルを入力し、入力された空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第1判別機能と、学習済みの第2判別モデルに対して撮影画像を入力し、入力された撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第2判別機能と、第1判別機能において撮影画像が口腔内腫瘍を含む画像であると判別された場合、又は、第2判別機能において撮影画像が口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して撮影画像を入力し、入力された撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別機能と、第1判別機能において撮影画像が口腔内腫瘍を含まない画像であると判別され且つ第2判別機能において撮影画像が口腔内腫瘍を含まない画像であると判別された場合、又は、第3判別機能において撮影画像が口腔内腫瘍を含まない画像であると判別された場合、患者の口腔内に口腔内腫瘍が存在しないことを示す健常情報を出力し、第3判別機能において撮影画像が良性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、第3判別機能において撮影画像が悪性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力機能とを判別装置に実現させる。 The disclosed control program is a control program of a discrimination device that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor by using a photographed image of the oral cavity of a patient irradiated with blue light. Then, a conversion function that generates a spatial frequency spectrum by Fourier transforming the captured image and a captured image that corresponds to the input spatial frequency spectrum by inputting the spatial frequency spectrum to the trained first discrimination model. The first discrimination function for discriminating whether or not the image contains an oral tumor and the captured image are input to the trained second discrimination model, and the input captured image is an image containing an oral tumor. When the second discrimination function for discriminating whether or not the image is determined by the first discrimination function and the captured image is an image containing an oral tumor, or when the second discrimination function determines that the captured image contains an oral tumor. If it is determined to be, an image taken is input to the trained third discrimination model, and the input image is an image containing a benign oral tumor, an image containing a malignant oral tumor, and an image containing a malignant oral tumor. The third discrimination function that discriminates which of the images does not contain the oral tumor and the first discrimination function determine that the captured image is an image that does not contain the oral tumor, and the second discrimination function captures the captured image. If it is determined that the image does not contain an oral tumor, or if the captured image is determined to be an image that does not contain an oral tumor by the third discrimination function, an oral tumor is present in the patient's oral cavity. If the image taken by the third discrimination function is determined to be an image containing a benign oral tumor, it indicates that a benign oral tumor is present in the patient's oral cavity. When benign tumor information is output and the captured image is determined to be an image containing a malignant oral tumor by the third discrimination function, malignant tumor information indicating the presence of a malignant oral tumor in the patient's oral cavity. The discriminator realizes the output function to output.

開示された判別システムは、青色光が照射された患者の口腔内を撮影し、撮影された撮影画像を出力する端末装置と、撮影画像を用いて口腔内腫瘍の存否を判別する判別装置とを有する判別システムであって、端末装置は、青色光を照射する照射部と、所定の撮影方向の撮影対象空間を撮影する撮影部と、撮影された撮影画像を出力する端末出力部とを有し、判別装置は、撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、学習済みの第1判別モデルに対して空間周波数スペクトルを入力し、入力された空間周波数スペクトルに対応する撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、学習済みの第2判別モデルに対して撮影画像を入力し、入力された撮影画像が口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、第1判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、又は、第2判別部によって撮影画像が口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して撮影画像を入力し、入力された撮影画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、第1判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別され且つ第2判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、又は、第3判別部によって撮影画像が口腔内腫瘍を含まない画像であると判別された場合、患者の口腔内に口腔内腫瘍が存在しないことを示す健常情報を出力し、第3判別部によって撮影画像が良性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、第3判別部によって撮影画像が悪性の口腔内腫瘍を含む画像であると判別された場合、患者の口腔内に悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部とを有する。 The disclosed discrimination system includes a terminal device that photographs the oral cavity of a patient irradiated with blue light and outputs the captured image, and a discrimination device that determines the presence or absence of an oral tumor using the captured image. The terminal device has an irradiation unit that irradiates blue light, a shooting unit that shoots a shooting target space in a predetermined shooting direction, and a terminal output unit that outputs a shot image. The discriminator inputs the spatial frequency spectrum to the first discriminant model that has been trained and the conversion unit that generates the spatial frequency spectrum by Fourier transforming the captured image, and corresponds to the input spatial frequency spectrum. The captured image is input to the first discrimination unit that determines whether or not the captured image is an image containing an oral tumor and the trained second discrimination model, and the input captured image contains an oral tumor. When the second discrimination unit that determines whether or not the image is an image and the first discrimination unit determine that the captured image is an image containing an oral tumor, or the second discrimination unit determines that the captured image is an oral tumor. When it is determined that the image contains a benign oral tumor, a captured image is input to the trained third discrimination model, and the input captured image includes an image containing a benign oral tumor and a malignant oral tumor. The third discrimination unit that determines whether the image is an image or an image that does not contain an oral tumor, and the first discrimination unit determine that the captured image is an image that does not contain an oral tumor, and the second discrimination unit determines. If the captured image is determined to be an image that does not contain an oral tumor, or if the captured image is determined to be an image that does not contain an oral tumor by the third discrimination unit, the patient's oral cavity is intraoral. When the healthy information indicating that the tumor does not exist is output and the captured image is determined by the third discrimination unit to be an image containing a benign oral tumor, a benign oral tumor is present in the patient's oral cavity. When the image taken by the third discriminator is determined to be an image containing a malignant oral tumor, it indicates that a malignant oral tumor is present in the patient's oral cavity. It has an output unit that outputs malignant tumor information.

判別装置、判別端末装置、判別装置の制御方法及び制御プログラム、並びに判別システムによって、熟練した専門医の知見を効果的に判別処理に適用し、精度の高い口腔内腫瘍の判別を実現することが可能となる。 It is possible to effectively apply the knowledge of a skilled specialist to the discrimination process and realize highly accurate discrimination of oral tumors by using the discrimination device, discrimination terminal device, control method and control program of the discrimination device, and discrimination system. Will be.

判別システムの概要構成の一例を示す図である。It is a figure which shows an example of the outline structure of the discrimination system. 端末装置の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of a terminal device. (a)は、端末装置の一例を示す斜視図であり、(b)は、端末装置の使用方法の一例を示す図である。(A) is a perspective view showing an example of a terminal device, and (b) is a diagram showing an example of how to use the terminal device. 判別装置の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the discrimination device. (a)及び(b)は、青色光照射画像の一例を示す図であり、(c)及び(d)は、空間周波数スペクトルの一例を説明するためのスペクトル画像を示す図である。(A) and (b) are diagrams showing an example of a blue light irradiation image, and (c) and (d) are diagrams showing a spectrum image for explaining an example of a spatial frequency spectrum. (a)は、教師データの入力データの一例を説明するための模式図であり、(b)は、第1判別モデルの一例を示す模式図である。(A) is a schematic diagram for explaining an example of input data of teacher data, and (b) is a schematic diagram showing an example of a first discrimination model. (a)は、第2判別モデルの一例を示す模式図であり、(b)は、第3判別モデルの一例を示す模式図である。(A) is a schematic diagram showing an example of a second discrimination model, and (b) is a schematic diagram showing an example of a third discrimination model. 判別処理の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of the discrimination process. 判別処理の動作フローの一例を示す図である。It is a figure which shows an example of the operation flow of the discrimination process. 判別端末装置の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the discrimination terminal device.

以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. However, it should be noted that the technical scope of the present invention is not limited to those embodiments and extends to the inventions described in the claims and their equivalents.

(判別システム1の概要)
図1は、判別システム1の概略構成の一例を示す図である。判別システム1は、青色光が照射された患者の口腔内を撮影し、撮影された撮影画像に用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を実行する。判別システム1は、医師又は看護師等の医療従事者によって操作される端末装置2と、患者の口腔内における腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行うための判別装置3とを備える。以下、端末装置2を操作する医療従事者を「ユーザ」と称する場合がある。
(Overview of discrimination system 1)
FIG. 1 is a diagram showing an example of a schematic configuration of the discrimination system 1. The discrimination system 1 photographs the oral cavity of a patient irradiated with blue light, and uses the captured images to determine the presence or absence of an oral tumor and to determine whether the oral tumor is benign or malignant. The discrimination system 1 includes a terminal device 2 operated by a medical worker such as a doctor or a nurse, and a discrimination device 3 for discriminating the presence or absence of a tumor in the oral cavity of a patient and discriminating between benign and malignant oral tumors. To prepare for. Hereinafter, a medical worker who operates the terminal device 2 may be referred to as a “user”.

口腔は、口裂から咽頭に連なる器官であり、舌、口底、頬、口蓋、口唇、歯肉、唾液腺等の部位によって構成される。口腔内腫瘍(口腔腫瘍)は、口腔に生じる腫瘍であり、悪性の口腔内腫瘍と良性の口腔内腫瘍とに分類される。悪性の口腔内腫瘍の多くは、粘膜の上皮から発生する扁平上皮癌(Squamous Cell Carcinoma:SCC)であり、発生部位により、舌がん、歯肉がん及び口底がん等と呼ばれる。良性の口腔内腫瘍は、悪性の口腔内腫瘍と同様に細胞が異常増殖した組織の塊であるが、所謂「浸潤と転移」及び「悪液質」を引き起こさない腫瘍である。 The oral cavity is an organ extending from the mouth fissure to the pharynx, and is composed of parts such as the tongue, the floor of the mouth, the cheeks, the palate, the lips, the gums, and the salivary glands. Oral tumors (oral tumors) are tumors that occur in the oral cavity and are classified into malignant oral tumors and benign oral tumors. Most malignant oral tumors are squamous cell carcinoma (SCC) that develops from the epithelium of the mucous membrane, and are called tongue cancer, gingival cancer, oral floor cancer, etc., depending on the site of occurrence. A benign oral tumor is a mass of tissue in which cells are abnormally proliferated like a malignant oral tumor, but is a tumor that does not cause so-called "infiltration and metastasis" and "cachexia".

端末装置2は、青色光照射機能及び撮影機能を有する口腔内蛍光観察装置である。端末装置2の青色光照射機能により、435~460nmの波長の青色光が照射される。端末装置2の撮影機能により、青色光が照射された口腔内の撮影対象空間が撮影され、撮影された撮影画像が青色光照射画像として出力される。 The terminal device 2 is an intraoral fluorescence observation device having a blue light irradiation function and an imaging function. The blue light irradiation function of the terminal device 2 irradiates blue light having a wavelength of 435 to 460 nm. The photographing function of the terminal device 2 photographs the space to be photographed in the oral cavity irradiated with blue light, and the photographed image is output as a blue light irradiation image.

照射された青色光の深達度は400~600μm程度であり、健常組織では蛍光可視が保持(Fluorescence Visualization Retention:FVR)される。このため、青色光照射画像において、健常組織に対応するピクセルは青緑色(Apple-Green)の色情報を有する。これに対して、SCC等の病的組織では蛍光可視の低下が起こる(Fluorescence Visualization Loss:FVL)ため、青色光照射画像において、病的組織に対応するピクセルは暗色の色情報を有する。 The invasion depth of the irradiated blue light is about 400 to 600 μm, and fluorescence visualization (FVR) is maintained in healthy tissues. Therefore, in the blue light irradiation image, the pixel corresponding to the healthy tissue has blue-green (Apple-Green) color information. On the other hand, in a pathological tissue such as SCC, a decrease in fluorescence visibility occurs (Fluorescence Visualization Loss: FVL), so that the pixel corresponding to the pathological tissue has dark color information in the blue light irradiation image.

端末装置2は、多機能携帯電話(所謂「スマートフォン」)、タブレット端末、タブレットPC(Personal Computer)、ウェアラブルコンピュータ等の携帯端末機と、蛍光観察装置とを組み合わせたものでもよい。この場合、蛍光観察装置は、撮影機能を有さず、携帯端末機が、蛍光観察装置によって青色光が照射された口腔内の青色光照射画像を撮影する。例えば、端末装置2として、「ベルスコープ(登録商標)」、「オーラルック(登録商標)」等の、スマートフォンを収容可能な収容部を備える蛍光観察装置が用いられてもよい。 The terminal device 2 may be a combination of a mobile terminal such as a multifunctional mobile phone (so-called “smartphone”), a tablet terminal, a tablet PC (Personal Computer), a wearable computer, and a fluorescence observation device. In this case, the fluorescence observation device does not have a photographing function, and the mobile terminal captures a blue light irradiation image in the oral cavity irradiated with blue light by the fluorescence observation device. For example, as the terminal device 2, a fluorescence observation device having a storage unit capable of accommodating a smartphone, such as "Velscope (registered trademark)" or "Auralook (registered trademark)", may be used.

判別装置3は、コンピュータ、サーバ等の情報処理装置である。判別装置3は、端末装置2によって撮影された青色光照射画像が、良性の口腔内腫瘍を含む画像、悪性の口腔内腫瘍を含む画像、及び口腔内腫瘍を含まない画像のいずれであるかを判別する判別機能を有する。 The discrimination device 3 is an information processing device such as a computer or a server. The discrimination device 3 determines whether the blue light irradiation image taken by the terminal device 2 is an image containing a benign oral tumor, an image containing a malignant oral tumor, or an image not containing an oral tumor. It has a discriminating function for discriminating.

図1では、1台の判別装置3が判別システム1の構成要素として図示されているが、判別装置3は複数の物理的に別体のコンピュータの集合であってもよい。この場合、複数のコンピュータのそれぞれは、同一の機能を有するものでもよく、1台の判別装置3の機能を分散して有するものでもよい。 Although one discriminating device 3 is shown as a component of the discriminating system 1 in FIG. 1, the discriminating device 3 may be a set of a plurality of physically separate computers. In this case, each of the plurality of computers may have the same function, or may have the functions of one discriminating device 3 in a distributed manner.

(端末装置2)
図2は、端末装置2の概略構成の一例を示す図である。
(Terminal device 2)
FIG. 2 is a diagram showing an example of a schematic configuration of the terminal device 2.

端末装置2は、所定の照射方向の一定範囲に向けて青色光を照射する機能と、所定の照射方向と略同一方向の撮影方向の撮影対象空間を撮影する機能とを少なくとも有する。また、端末装置2は、青色光照射画像の画像データを無線通信によって判別装置3に送信する機能を有する。そのために、端末装置2は、端末通信部21と、端末記憶部22と、端末表示部23と、端末操作部24と、照射部25と、撮影部26と、端末制御部27とを備える。 The terminal device 2 has at least a function of irradiating blue light toward a certain range in a predetermined irradiation direction and a function of photographing a shooting target space in a shooting direction substantially the same as the predetermined irradiation direction. Further, the terminal device 2 has a function of transmitting the image data of the blue light irradiation image to the discrimination device 3 by wireless communication. Therefore, the terminal device 2 includes a terminal communication unit 21, a terminal storage unit 22, a terminal display unit 23, a terminal operation unit 24, an irradiation unit 25, a photographing unit 26, and a terminal control unit 27.

端末通信部21は、図示しない無線LAN(Local Area Network)のアクセスポイントとの間でIEEE(The Institute of Electrical and Electronics Engineers, Inc.)802.11規格の無線通信方式に基づいて無線通信を行う通信インターフェース回路を備える。端末通信部21は、端末制御部27から取得した青色光照射画像の画像データを無線通信により判別装置3に送信する。また、端末通信部21は、図示しない基地局により割り当てられるチャネルを介して、基地局との間でLTE(Long Term Evolution)方式、第5世代(5G)移動通信システム等による無線信号回線を確立し、基地局との間で通信を行ってもよい。また、端末通信部21は、Bluetooth(登録商標)等の通信方式に従った近距離無線通信を行うためのインターフェース回路を有し、判別装置3に向けて電波を送信してもよい。また、端末通信部21は、青色光照射画像の画像データに対応する各種信号を赤外線通信等によって送信するための送信回路を有してもよい。また、端末通信部21は、有線LANの通信インターフェース回路を備えてもよい。これにより、端末装置2は、端末通信部21を介して判別装置3に青色光照射画像を提供することができる。 The terminal communication unit 21 performs wireless communication with an access point of a wireless LAN (Local Area Network) (not shown) based on the wireless communication method of the IEEE (The Institute of Electrical and Electronics Engineers, Inc.) 802.11 standard. It is equipped with a communication interface circuit. The terminal communication unit 21 transmits the image data of the blue light irradiation image acquired from the terminal control unit 27 to the discrimination device 3 by wireless communication. Further, the terminal communication unit 21 establishes a wireless signal line with an LTE (Long Term Evolution) system, a fifth generation (5G) mobile communication system, or the like with a base station via a channel assigned by a base station (not shown). However, communication may be performed with the base station. Further, the terminal communication unit 21 has an interface circuit for performing short-range wireless communication according to a communication method such as Bluetooth (registered trademark), and may transmit radio waves to the discrimination device 3. Further, the terminal communication unit 21 may have a transmission circuit for transmitting various signals corresponding to the image data of the blue light irradiation image by infrared communication or the like. Further, the terminal communication unit 21 may include a communication interface circuit of a wired LAN. As a result, the terminal device 2 can provide the blue light irradiation image to the discrimination device 3 via the terminal communication unit 21.

なお、端末装置2は、端末通信部21に代えて又は端末通信部21とともに、可搬型記憶媒体を着脱可能に保持する入出力装置を備えてもよい。この場合、入出力装置は、端末制御部27から取得した青色光照射画像の画像データを可搬型記憶媒体に記憶する。これにより、端末装置2は、可搬型記憶媒体を介して判別装置3に青色光照射画像を提供することができる。 The terminal device 2 may include an input / output device that detachably holds the portable storage medium in place of the terminal communication unit 21 or together with the terminal communication unit 21. In this case, the input / output device stores the image data of the blue light irradiation image acquired from the terminal control unit 27 in the portable storage medium. Thereby, the terminal device 2 can provide the blue light irradiation image to the discrimination device 3 via the portable storage medium.

端末記憶部22は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリ装置である。端末記憶部22は、端末制御部27における処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム及びデータ等を記憶する。端末記憶部22に記憶されるドライバプログラムは、端末通信部21を制御する通信デバイスドライバプログラム、端末表示部23を制御する出力デバイスドライバプログラム、端末操作部24を制御する入力デバイスドライバプログラム、照射部25を制御する照射デバイスドライバプログラム、及び、撮影部26を制御する撮影デバイスドライバプログラム等である。端末記憶部22に記憶されるアプリケーションプログラムは、ユーザによる端末操作部24の操作に応じて入力された指示に基づいて、照射部25を動作させて所定の照射方向の一定範囲に向けて青色光を照射させる照射処理、撮影部26を動作させて青色光照射画像の画像データを取得する撮影処理、取得された青色光照射画像の画像データを判別装置3に送信する送信処理等を端末制御部27に実行させるための制御プログラム等である。また、端末記憶部22は、所定の処理に係るデータを一時的に記憶してもよい。 The terminal storage unit 22 is, for example, a semiconductor memory device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The terminal storage unit 22 stores operating system programs, driver programs, application programs, data, and the like used for processing in the terminal control unit 27. The driver programs stored in the terminal storage unit 22 include a communication device driver program that controls the terminal communication unit 21, an output device driver program that controls the terminal display unit 23, an input device driver program that controls the terminal operation unit 24, and an irradiation unit. An irradiation device driver program that controls 25, a photographing device driver program that controls the photographing unit 26, and the like. The application program stored in the terminal storage unit 22 operates the irradiation unit 25 based on an instruction input in response to the operation of the terminal operation unit 24 by the user, and blue light is directed toward a certain range in a predetermined irradiation direction. The terminal control unit performs irradiation processing for irradiating the device, imaging processing for operating the photographing unit 26 to acquire image data of the blue light irradiation image, transmission processing for transmitting the acquired image data of the blue light irradiation image to the discrimination device 3, and the like. It is a control program or the like for making 27 execute. Further, the terminal storage unit 22 may temporarily store data related to a predetermined process.

端末表示部23は、液晶ディスプレイである。なお、端末表示部23は、有機EL(Electro-Luminescence)ディスプレイ等でもよい。端末表示部23は、撮影された青色光照射画像等を表示する。 The terminal display unit 23 is a liquid crystal display. The terminal display unit 23 may be an organic EL (Electro-Luminescence) display or the like. The terminal display unit 23 displays a captured blue light irradiation image or the like.

端末操作部24は、タッチパネル、マウス等のポインティングデバイスである。端末操作部24は、入力キー等でもよい。タッチパネルは、静電容量式の近接センサを備え、ユーザの非接触操作を検出可能に構成されてもよい。ユーザは、端末操作部24を用いて、文字、数字及び記号、若しくは、端末表示部23の表示画面上の位置等を入力することができる。端末操作部24は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、端末操作部24は、発生した信号をユーザの指示として、端末制御部27に供給する。 The terminal operation unit 24 is a pointing device such as a touch panel and a mouse. The terminal operation unit 24 may be an input key or the like. The touch panel may include a capacitive proximity sensor and may be configured to be capable of detecting a user's non-contact operation. The user can use the terminal operation unit 24 to input characters, numbers and symbols, or the position of the terminal display unit 23 on the display screen. When the terminal operation unit 24 is operated by the user, the terminal operation unit 24 generates a signal corresponding to the operation. Then, the terminal operation unit 24 supplies the generated signal to the terminal control unit 27 as a user's instruction.

照射部25は、狭帯域光を出射するレーザダイオード(Laser Diode)等の半導体レーザにより構成される。照射部25は、狭帯域の青色光(例えば435~460nmの波長帯域の波長を有する光)を励起光として照射出力する。 The irradiation unit 25 is composed of a semiconductor laser such as a laser diode that emits narrow-band light. The irradiation unit 25 irradiates and outputs narrow-band blue light (for example, light having a wavelength in the wavelength band of 435 to 460 nm) as excitation light.

撮影部26は、光学レンズ及び撮像素子等を有する。光学レンズは、被写体からの光束を撮像素子の撮像面上に結像させる。撮像素子は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等であり、撮像面上に結像した被写体像の画像を出力する。撮影部26は、撮像素子によって生成された画像から所定のファイル形式の静止画像データを作成して出力する。撮影部26は、画像データを出力する際に、画像データの取得時刻を対応付けてもよい。なお、撮影部26は、連続して撮像素子によって生成された画像から、所定期間毎に所定のファイル形式の動画像データを作成して出力してもよい。 The photographing unit 26 has an optical lens, an image pickup device, and the like. The optical lens forms a luminous flux from the subject on the image pickup surface of the image pickup device. The image pickup device is a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, and outputs an image of a subject image formed on the image pickup surface. The photographing unit 26 creates and outputs still image data in a predetermined file format from the image generated by the image sensor. When the image data is output, the photographing unit 26 may associate the acquisition time of the image data with the image data. The photographing unit 26 may continuously create and output moving image data in a predetermined file format from the images generated by the image sensor at predetermined period intervals.

端末制御部27は、端末記憶部22に記憶されているオペレーティングシステムプログラム、ドライバプログラム及びアプリケーションプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する処理装置である。端末制御部27は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)等の電子回路、又は各種電子回路の組み合わせである。図2においては、端末制御部27が単一の構成要素として図示されているが、端末制御部27は複数の物理的に別体のプロセッサの集合であってもよい。 The terminal control unit 27 is a processing device that loads an operating system program, a driver program, and an application program stored in the terminal storage unit 22 into a memory and executes an instruction included in the loaded program. The terminal control unit 27 is, for example, an electronic circuit such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), or a combination of various electronic circuits. In FIG. 2, the terminal control unit 27 is shown as a single component, but the terminal control unit 27 may be a set of a plurality of physically separate processors.

端末制御部27は、制御プログラムに含まれる各種命令を実行することにより、照射制御部271、撮影制御部272、及び送信制御部273として機能する。以下、照射制御部271、撮影制御部272、及び送信制御部273の機能の一例を、図3を参照して説明する。 The terminal control unit 27 functions as an irradiation control unit 271, an imaging control unit 272, and a transmission control unit 273 by executing various commands included in the control program. Hereinafter, an example of the functions of the irradiation control unit 271, the imaging control unit 272, and the transmission control unit 273 will be described with reference to FIG.

図3(a)は、端末装置2の一例を示す斜視図である。 FIG. 3A is a perspective view showing an example of the terminal device 2.

図3(a)に示される端末装置2は略板状であり、端末装置2の表面(例えば、最も広い一対の面の一方の面)に、照射部25及び撮影部26が設置される。照射部25の照射方向及び撮影部26の撮影方向は、ともに表面の垂直方向と略同一である。これにより、照射部25によって照射された青色光の照射空間の少なくとも一部は、撮影部26の撮影対象空間に含まれる。 The terminal device 2 shown in FIG. 3A has a substantially plate shape, and the irradiation unit 25 and the photographing unit 26 are installed on the surface of the terminal device 2 (for example, one surface of the widest pair of surfaces). The irradiation direction of the irradiation unit 25 and the imaging direction of the imaging unit 26 are both substantially the same as the vertical direction of the surface. As a result, at least a part of the irradiation space of the blue light irradiated by the irradiation unit 25 is included in the imaging target space of the imaging unit 26.

図3(b)は、端末装置の使用方法の一例を示す図である。端末装置2の裏面(例えば、最も広い一対の面の他方の面)に、端末表示部23が設置される。 FIG. 3B is a diagram showing an example of how to use the terminal device. The terminal display unit 23 is installed on the back surface of the terminal device 2 (for example, the other surface of the widest pair of surfaces).

照射制御部271は、ユーザによる端末操作部24の操作に応じて照射指示が入力された場合、所定の照射方向の一定範囲に向けて青色光を照射するように照射部25を制御する。 The irradiation control unit 271 controls the irradiation unit 25 so as to irradiate blue light toward a certain range in a predetermined irradiation direction when an irradiation instruction is input in response to an operation of the terminal operation unit 24 by the user.

ユーザによる端末操作部24の操作に応じて撮影指示が入力された場合、撮影部26は、所定時間(例えば、1/30秒、1/15秒、又は1秒)ごとに照射方向と略同一方向の撮影方向の撮影対象空間を撮影する。撮影制御部272は、撮影部26による撮影のたびに、撮影された撮影画像を端末表示部23に表示する。 When a shooting instruction is input according to the operation of the terminal operation unit 24 by the user, the shooting unit 26 is substantially the same as the irradiation direction every predetermined time (for example, 1/30 second, 1/15 second, or 1 second). Shooting in the direction Shoot the shooting target space in the direction. The shooting control unit 272 displays the shot image taken on the terminal display unit 23 each time the shooting unit 26 takes a picture.

図3(b)に示される例では、端末装置2の表面は、ユーザによって患者Pの口腔の方向に向けられている。これにより、照射部25によって照射される青色光の照射方向は患者Pの口腔の方向となる。図3(b)に示される照射範囲R1は、患者Pに照射された青色光の照射範囲の一例である。 In the example shown in FIG. 3B, the surface of the terminal device 2 is directed by the user towards the oral cavity of patient P. As a result, the irradiation direction of the blue light emitted by the irradiation unit 25 becomes the direction of the oral cavity of the patient P. The irradiation range R1 shown in FIG. 3B is an example of the irradiation range of the blue light irradiated to the patient P.

また、図3(b)に示される例では、撮影部26の撮影方向は、照射部25の照射方向と略同一であるため、撮影部26の撮影方向は口腔の方向である。図3(b)に示される撮影範囲R2は、患者Pに対する撮影範囲の一例である。端末表示部23には、撮影範囲R2に対応する撮影画像が所定時間ごとに表示される。これにより、ユーザは、撮影部26によって現在撮影されている撮影範囲R2をリアルタイムに確認しながら、端末装置2の向きを調整することが可能となる。 Further, in the example shown in FIG. 3B, the imaging direction of the imaging unit 26 is substantially the same as the irradiation direction of the irradiation unit 25, so that the imaging direction of the imaging unit 26 is the direction of the oral cavity. The imaging range R2 shown in FIG. 3B is an example of an imaging range for patient P. On the terminal display unit 23, the captured images corresponding to the imaging range R2 are displayed at predetermined time intervals. This allows the user to adjust the orientation of the terminal device 2 while checking the shooting range R2 currently being shot by the shooting unit 26 in real time.

ユーザによる端末操作部24の操作に応じて取得指示が入力された場合、撮影制御部272は、当該取得指示が入力されたタイミングで撮影された撮影画像を青色光照射画像として取得し、青色光照射画像の画像データを端末記憶部22に記憶する。撮影制御部272は、撮影された撮影画像のうちの少なくとも一部の範囲の画像を、診断範囲の青色光照射画像として取得してもよい。撮影制御部272による診断範囲の青色光照射画像の取得処理は、例えば、撮影された撮影画像のうちの、ユーザによる端末操作部24の操作によって指定された診断範囲に対応する画像が、診断範囲の青色光照射画像として取得される処理である。また、撮影制御部272による診断範囲の青色光照射画像の取得処理は、撮影された撮影画像のうちの、検出領域を抽出する公知の画像処理を用いて自動的に設定された診断範囲に対応する画像が、診断範囲の青色光照射画像として取得される処理でもよい。また、端末装置2は、これら手動による診断範囲設定及び自動による診断範囲設定を切替えるための操作手段(例えばタッチパネルに表示される切替ボタン等)を備えてもよい。なお、以下で述べる「青色光照射画像」は、診断範囲の青色光照射画像(撮影された撮影画像のうちの少なくとも一部の診断範囲の画像)を含む。 When an acquisition instruction is input in response to an operation of the terminal operation unit 24 by the user, the imaging control unit 272 acquires the captured image captured at the timing when the acquisition instruction is input as a blue light irradiation image, and blue light. The image data of the irradiation image is stored in the terminal storage unit 22. The imaging control unit 272 may acquire an image in at least a part of the captured image as a blue light irradiation image in the diagnostic range. In the acquisition process of the blue light irradiation image of the diagnostic range by the imaging control unit 272, for example, among the captured images, the image corresponding to the diagnostic range specified by the operation of the terminal operation unit 24 by the user is the diagnostic range. It is a process acquired as a blue light irradiation image of. Further, the acquisition process of the blue light irradiation image of the diagnostic range by the imaging control unit 272 corresponds to the diagnostic range automatically set by using the known image processing for extracting the detection area from the captured images. The image to be processed may be a process of being acquired as a blue light irradiation image in the diagnostic range. Further, the terminal device 2 may be provided with an operation means (for example, a switching button displayed on the touch panel) for switching between the manual diagnosis range setting and the automatic diagnosis range setting. The "blue light irradiation image" described below includes a blue light irradiation image in the diagnostic range (an image in at least a part of the captured images taken in the diagnostic range).

撮影制御部272は、青色光照射画像の画像データの記憶前及び/又は記憶後に、取得された青色光照射画像を、端末表示部23に表示してもよい。 The photographing control unit 272 may display the acquired blue light irradiation image on the terminal display unit 23 before and / or after the storage of the image data of the blue light irradiation image.

ユーザによる端末操作部24の操作に応じて送信指示が入力された場合、送信制御部273は、端末記憶部22に記憶された青色光照射画像の画像データを取得し、端末通信部21を介して判別装置3に送信する。 When a transmission instruction is input in response to an operation of the terminal operation unit 24 by the user, the transmission control unit 273 acquires the image data of the blue light irradiation image stored in the terminal storage unit 22 and via the terminal communication unit 21. Is transmitted to the discrimination device 3.

端末装置2の形状及びサイズは、図3に示される例に限定されない。例えば、端末装置2は、患者Pの口腔内に挿入可能な形状及びサイズであってもよい。 The shape and size of the terminal device 2 is not limited to the example shown in FIG. For example, the terminal device 2 may have a shape and size that can be inserted into the oral cavity of patient P.

(判別装置3)
図4は、判別装置3の概略構成の一例を示す図である。
(Discrimination device 3)
FIG. 4 is a diagram showing an example of a schematic configuration of the discrimination device 3.

判別装置3は、端末装置2から送信された青色光照射画像の画像データを受信する受信機能、青色光照射画像を空間周波数スペクトルに変換する変換機能を有する。また、判別装置3は、判別モデルを学習させる学習機能、学習済みの判別モデルを用いて口腔内腫瘍の存否及び口腔内腫瘍の良悪性を判別する判別機能、判別機能による判別結果を出力する出力機能等を有する。そのために、判別装置3は、通信部31と、記憶部32と、表示部33と、操作部34と、処理部35とを備える。 The discrimination device 3 has a reception function for receiving image data of the blue light irradiation image transmitted from the terminal device 2 and a conversion function for converting the blue light irradiation image into a spatial frequency spectrum. Further, the discrimination device 3 outputs a learning function for learning the discrimination model, a discrimination function for discriminating the presence or absence of the oral tumor and the benign / malignant of the oral tumor using the trained discrimination model, and an output of the discrimination result by the discrimination function. It has a function and the like. Therefore, the discrimination device 3 includes a communication unit 31, a storage unit 32, a display unit 33, an operation unit 34, and a processing unit 35.

通信部31は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。判別装置3は、通信部31を介して、端末装置2から青色光照射画像の画像データを受信することができる。また、通信部31は、Bluetooth(登録商標)等の通信方式に従った近距離無線通信を行うためのインターフェース回路を有し、端末装置2からの電波を受信してもよい。また、通信部31は、青色光照射画像の画像データに対応する各種信号を赤外線通信等によって受信するための受信回路を有してもよい。また、通信部31は、有線LANの通信インターフェース回路を備えてもよい。これにより、判別装置3は、通信部31を介して端末装置2から青色光照射画像を取得することができる。 The communication unit 31 is implemented as hardware, firmware, communication software such as a TCP / IP driver or a PPP driver, or a combination thereof. The discrimination device 3 can receive the image data of the blue light irradiation image from the terminal device 2 via the communication unit 31. Further, the communication unit 31 has an interface circuit for performing short-range wireless communication according to a communication method such as Bluetooth (registered trademark), and may receive radio waves from the terminal device 2. Further, the communication unit 31 may have a reception circuit for receiving various signals corresponding to the image data of the blue light irradiation image by infrared communication or the like. Further, the communication unit 31 may include a communication interface circuit of a wired LAN. As a result, the discrimination device 3 can acquire the blue light irradiation image from the terminal device 2 via the communication unit 31.

なお、判別装置3は、通信部31に代えて又は通信部31とともに、可搬型記憶媒体を着脱可能に保持する入出力装置を備えてもよい。この場合、入出力装置は、可搬型記憶媒体に記憶された青色光照射画像の画像データを取得し、取得した画像データを処理部35に供給する。これにより、判別装置3は、可搬型記憶媒体を介して端末装置2から青色光照射画像を取得することができる。 The discrimination device 3 may include an input / output device that detachably holds the portable storage medium in place of the communication unit 31 or together with the communication unit 31. In this case, the input / output device acquires the image data of the blue light irradiation image stored in the portable storage medium, and supplies the acquired image data to the processing unit 35. As a result, the discrimination device 3 can acquire the blue light irradiation image from the terminal device 2 via the portable storage medium.

記憶部32は、例えば、ROM、RAM等の半導体メモリ装置である。記憶部32は、例えば、磁気ディスク、光ディスク、又はデータを記憶可能な前記以外の各種記憶装置でもよい。記憶部32は、処理部35における処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム及びデータ等を記憶する。記憶部32に記憶されるコンピュータプログラムは、例えばCD-ROM、DVD-ROM等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いて記憶部32にインストールされてもよい。 The storage unit 32 is, for example, a semiconductor memory device such as a ROM or RAM. The storage unit 32 may be, for example, a magnetic disk, an optical disk, or various storage devices other than those capable of storing data. The storage unit 32 stores an operating system program, a driver program, an application program, data, and the like used for processing in the processing unit 35. The computer program stored in the storage unit 32 may be installed in the storage unit 32 from a computer-readable portable recording medium such as a CD-ROM or a DVD-ROM using a known setup program or the like.

記憶部32に記憶されるデータは、後述する、第1判別モデルM1、第2判別モデルM2、及び第3判別モデルM3、教師データTD等である。また、記憶部32は、端末装置2から取得した青色光照射画像の画像データを記憶する。記憶部32は、所定の処理に係るデータを一時的に記憶してもよい。 The data stored in the storage unit 32 are the first discrimination model M1, the second discrimination model M2, the third discrimination model M3, the teacher data TD, and the like, which will be described later. Further, the storage unit 32 stores the image data of the blue light irradiation image acquired from the terminal device 2. The storage unit 32 may temporarily store data related to a predetermined process.

表示部33は、液晶ディスプレイである。なお、表示部33は、有機ELディスプレイ等でもよい。表示部33は、処理部35から供給される画像データに基づく青色光照射画像、判別処理の結果情報等を表示する。 The display unit 33 is a liquid crystal display. The display unit 33 may be an organic EL display or the like. The display unit 33 displays a blue light irradiation image based on the image data supplied from the processing unit 35, result information of the discrimination process, and the like.

操作部34は、キーボード、及び/又はマウスである。操作部34は、タッチパネル等のポインティングデバイスでもよい。ユーザは、操作部34を用いて、文字や数字、記号、若しくは、表示部33の表示画面上の位置等を入力することができる。操作部34は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、発生した信号は、ユーザの指示として処理部35に供給される。 The operation unit 34 is a keyboard and / or a mouse. The operation unit 34 may be a pointing device such as a touch panel. The user can use the operation unit 34 to input characters, numbers, symbols, or the position of the display unit 33 on the display screen. When the operation unit 34 is operated by the user, the operation unit 34 generates a signal corresponding to the operation. Then, the generated signal is supplied to the processing unit 35 as a user's instruction.

処理部35は、記憶部32に記憶されているオペレーティングシステムプログラム、ドライバプログラム及びアプリケーションプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する処理装置である。処理部35は、例えば、CPU、MPU、DSP等の電子回路、又は各種電子回路の組み合わせである。図4においては、処理部35が単一の構成要素として図示されているが、処理部35は複数の物理的に別体のプロセッサの集合であってもよい。 The processing unit 35 is a processing device that loads an operating system program, a driver program, and an application program stored in the storage unit 32 into a memory and executes an instruction included in the loaded program. The processing unit 35 is, for example, an electronic circuit such as a CPU, MPU, DSP, or a combination of various electronic circuits. In FIG. 4, the processing unit 35 is shown as a single component, but the processing unit 35 may be a set of a plurality of physically separate processors.

処理部35は、記憶部32に記憶されたアプリケーションプログラム(制御プログラム)に含まれる各種命令を実行することにより、受信処理部351、変換処理部352、学習処理部353、判別処理部354、及び出力処理部335として機能する。以下、受信処理部351、変換処理部352、学習処理部353、判別処理部354、及び出力処理部335の機能の一例を、図5-8を参照して説明する。 By executing various instructions included in the application program (control program) stored in the storage unit 32, the processing unit 35 includes a reception processing unit 351 and a conversion processing unit 352, a learning processing unit 353, a discrimination processing unit 354, and a discrimination processing unit 354. It functions as an output processing unit 335. Hereinafter, an example of the functions of the reception processing unit 351, the conversion processing unit 352, the learning processing unit 353, the discrimination processing unit 354, and the output processing unit 335 will be described with reference to FIGS. 5-8.

受信処理部351は、端末装置2から送信された青色光照射画像の画像データを、通信部31を介して受信し、受信した青色光照射画像の画像データを記憶部32に記憶する。 The reception processing unit 351 receives the image data of the blue light irradiation image transmitted from the terminal device 2 via the communication unit 31, and stores the received image data of the blue light irradiation image in the storage unit 32.

図5(a)及び(b)は、青色光照射画像の一例を示す図である。 5 (a) and 5 (b) are diagrams showing an example of a blue light irradiation image.

図5(a)に示される青色光照射画像は、口腔内腫瘍を含まない画像(健常組織のみを含む画像)の一例であり、図5(b)に示される青色光照射画像は、悪性の口腔内腫瘍を含む画像である。 The blue light irradiation image shown in FIG. 5 (a) is an example of an image containing no oral tumor (an image containing only healthy tissue), and the blue light irradiation image shown in FIG. 5 (b) is malignant. It is an image including an intraoral tumor.

学習処理部353は、記憶部32に記憶された3種類の教師データTDのそれぞれを用いて学習させた第1判別モデルM1、第2判別モデルM2、及び第3判別モデルM3を生成し、生成した各判別モデルM1-M3を記憶部32に記憶する。 The learning processing unit 353 generates and generates a first discrimination model M1, a second discrimination model M2, and a third discrimination model M3 trained using each of the three types of teacher data TD stored in the storage unit 32. Each discriminant model M1-M3 is stored in the storage unit 32.

3種類の教師データTDのうちの第1教師データTD1は、青色光照射画像をフーリエ変換することにより生成された空間周波数スペクトルを入力データとし、「青色光照射画像が口腔内腫瘍を含む画像であること」及び「青色光照射画像が口腔内腫瘍を含まない画像であること」のいずれか一方を示すラベルデータを出力データとする教師データである。また、3種類の教師データTDのうちの第2教師データTD2は、青色光照射画像の画像データを入力データとし、「青色光照射画像が口腔内腫瘍を含む画像であること」及び「青色光照射画像が口腔内腫瘍を含まない画像であること」のいずれか一方を示すラベルデータを出力データとする教師データである。また、3種類の教師データTDのうちの第3教師データTD3は、青色光照射画像の画像データを入力データとし、「青色光照射画像が悪性の口腔内腫瘍を含む画像であること」、「青色光照射画像が良性の口腔内腫瘍を含む画像であること」及び「青色光照射画像が口腔内腫瘍を含まない画像であること」のいずれかを示すラベルデータを出力データとする教師データである。 The first teacher data TD1 of the three types of teacher data TD uses the spatial frequency spectrum generated by Fourier transforming the blue light irradiation image as input data, and "the blue light irradiation image is an image including an oral tumor. It is teacher data using label data indicating either "there is" or "the blue light irradiation image is an image that does not include an oral tumor" as output data. Further, the second teacher data TD2 of the three types of teacher data TD uses the image data of the blue light irradiation image as input data, and "the blue light irradiation image is an image including an oral tumor" and "blue light". It is teacher data that uses label data indicating either one of "the irradiated image is an image that does not include an intraoral tumor" as output data. Further, the third teacher data TD3 of the three types of teacher data TD uses the image data of the blue light irradiation image as input data, and "the blue light irradiation image is an image including a malignant oral tumor", " With teacher data using label data as output data indicating either "the blue light irradiation image is an image containing a benign oral tumor" or "the blue light irradiation image is an image not containing an oral tumor". be.

第2教師データTD2及び第3教師データTD3は、ユーザ又は判別装置3の管理者等によって生成されたデータである。第1教師データTD1の入力データである空間周波数スペクトルは、変換処理部352によって生成される。以下、変換処理部352の変換処理の一例について説明する。 The second teacher data TD2 and the third teacher data TD3 are data generated by a user, an administrator of the discriminating device 3, or the like. The spatial frequency spectrum, which is the input data of the first teacher data TD1, is generated by the conversion processing unit 352. Hereinafter, an example of the conversion process of the conversion process unit 352 will be described.

変換処理部352は、記憶部32に記憶された第2教師データTD2を抽出する。次に、変換処理部352は、抽出した第2教師データTD2の入力データである青色光照射画像の画像データを、以下の式(1)で表される公知のフーリエ変換を行った後、式(2)により空間周波数スペクトルを生成する。なお、生成された空間周波数スペクトルは、画像データの中心からの距離rに対応する成分量p(r)である。そして、変換処理部352は、生成された空間周波数スペクトルのデータを入力データとし、抽出した第2教師データTD2のラベルデータを出力データとする第1教師データTD1を生成し、記憶部32に記憶する。 The conversion processing unit 352 extracts the second teacher data TD2 stored in the storage unit 32. Next, the conversion processing unit 352 performs a known Fourier transform represented by the following equation (1) on the image data of the blue light irradiation image which is the input data of the extracted second teacher data TD2, and then the equation. A spatial frequency spectrum is generated by (2). The generated spatial frequency spectrum is a component amount p (r) corresponding to the distance r from the center of the image data. Then, the conversion processing unit 352 generates the first teacher data TD1 whose input data is the generated spatial frequency spectrum data and whose output data is the label data of the extracted second teacher data TD2, and stores it in the storage unit 32. do.

Figure 2022082952000002
Figure 2022082952000002

Figure 2022082952000003
Figure 2022082952000003

図5(c)及び(d)は、空間周波数スペクトルの一例を説明するためのスペクトル画像を示す図である。 5 (c) and 5 (d) are diagrams showing spectrum images for explaining an example of a spatial frequency spectrum.

図5(c)に示されるスペクトル画像は、図5(a)に示される青色光照射画像の画像データを、式(1)で表される公知のフーリエ変換によって算出されたF(u,v)に係るパワースペクトルを示す画像を説明するための一例の図である。また、図5(d)に示されるスペクトル画像は、図5(b)に示される青色光照射画像の画像データを、式(1)で表される公知のフーリエ変換によって算出されたF(u,v)に係るパワースペクトルを示す画像を説明するための一例の図である。 The spectral image shown in FIG. 5 (c) is an F (u, v) calculated by a known Fourier transform represented by the formula (1) from the image data of the blue light irradiation image shown in FIG. 5 (a). ) Is an example diagram for explaining an image showing a power spectrum. Further, in the spectral image shown in FIG. 5 (d), the image data of the blue light irradiation image shown in FIG. 5 (b) is calculated by the known Fourier transform represented by the equation (1). , V) is an example diagram for explaining an image showing a power spectrum.

スペクトル画像では、画像の中心付近が低周波成分であり且つ中心から離れるほど高周波成分になる空間周波数スペクトルが示される。例えば、図5(a)に示されるように、青色光照射画像が口腔内腫瘍を含まない画像(健常組織のみを含む画像)である場合、健常組織(健常粘膜)では粘膜表面は滑らかであり、ピクセルの位置の変化に対する輝度(画素値)の変化は小さい。このため、図5(a)に示される青色光照射画像の画像データをフーリエ変換することによって算出されたF(u,v)に係るスペクトル画像は、低周波成分を多く含むスペクトル画像(図5(c))となる。 The spectral image shows a spatial frequency spectrum in which the vicinity of the center of the image is a low frequency component and the farther away from the center is the higher frequency component. For example, as shown in FIG. 5A, when the blue light irradiation image is an image that does not contain an oral tumor (an image that contains only healthy tissue), the mucosal surface is smooth in healthy tissue (healthy mucosa). , The change in brightness (pixel value) with respect to the change in pixel position is small. Therefore, the spectral image related to F (u, v) calculated by Fourier transforming the image data of the blue light irradiation image shown in FIG. 5A is a spectral image containing a large amount of low frequency components (FIG. 5). (C)).

一方、図5(b)に示されるように、青色光照射画像が口腔内腫瘍を含む画像である場合、口腔内腫瘍では粘膜表面に凹凸があり、ピクセルの位置の変化に対して輝度(画素値)が大きく変化する。このため、図5(b)に示される青色光照射画像の画像データをフーリエ変換することによって算出されたF(u,v)に係るスペクトル画像は、図5(c)に示されるスペクトル画像に比べて、より高周波の画素値変動成分を含むスペクトル画像(図5(d))となる。 On the other hand, as shown in FIG. 5B, when the blue light irradiation image is an image including an oral tumor, the oral tumor has irregularities on the mucosal surface, and the brightness (pixels) with respect to the change in the position of the pixels. Value) changes greatly. Therefore, the spectral image related to F (u, v) calculated by Fourier transforming the image data of the blue light irradiation image shown in FIG. 5 (b) is the spectral image shown in FIG. 5 (c). In comparison, a spectral image (FIG. 5 (d)) containing a higher frequency pixel value fluctuation component is obtained.

図6(a)は、第2教師データTD2及び第3教師データTD3の入力データの一例を説明するための模式図である。 FIG. 6A is a schematic diagram for explaining an example of input data of the second teacher data TD2 and the third teacher data TD3.

図6(a)に示される青色光照射画像の画像データは、縦及び横が1,600ピクセルの画像である。なお、青色光照射画像の画像データの画像サイズは、図6(a)に示されるものに限らず、どのようなサイズであってもよい。学習処理部353は、青色光照射画像の画像データを、2,500個の縦及び横が32ピクセルの画像データに分割する。そして、学習処理部353は、分割された画像データを入力データとし、「青色光照射画像が口腔内腫瘍を含む画像であること」及び「青色光照射画像が口腔内腫瘍を含まない画像であること」のいずれか一方を示すラベルデータを出力データとする第2教師データTD2を生成する。すなわち、図6(a)に示される青色光照射画像の画像データから、2,500の教師データが生成される。なお、学習処理部353は、2,500の青色光照射画像の画像データのそれぞれに対して、左回転した画像(2,500)、右回転した画像(2,500)、上下反転した画像(2,500)、及び左右反転した画像(2,500)を生成し、これらの合計12,500の画像の画像データを教師データとしてもよい。学習処理部353は、2,500の青色光照射画像、左回転した画像(2,500)、右回転した画像(2,500)、上下反転した画像(2,500)、及び左右反転した画像(2,500)よりなる群から選択される一種類以上の画像の画像データを教師データとしてもよい。例えば、2,500の青色光照射画像、及び、左回転した画像(2,500)の、合計5,000の画像の画像データが教師データとして用いられてもよい。このように、学習処理部353は、口腔内腫瘍を含む青色光照射画像の入手が難しい場合でも、教師データの数を増加させることを可能とする。 The image data of the blue light irradiation image shown in FIG. 6A is an image having 1,600 pixels in length and width. The image size of the image data of the blue light irradiation image is not limited to that shown in FIG. 6A, and may be any size. The learning processing unit 353 divides the image data of the blue light irradiation image into 2,500 image data having a length and width of 32 pixels. Then, the learning processing unit 353 uses the divided image data as input data, and "the blue light irradiation image is an image containing an oral tumor" and "the blue light irradiation image is an image not including an oral tumor". The second teacher data TD2 is generated with the label data indicating one of the above as the output data. That is, 2,500 teacher data are generated from the image data of the blue light irradiation image shown in FIG. 6 (a). In addition, the learning processing unit 353 has a left-rotated image (2,500), a right-rotated image (2,500), and an upside-down image (upside-down image) for each of the image data of the 2,500 blue light irradiation images. 2,500) and left-right inverted images (2,500) may be generated, and the image data of a total of 12,500 of these images may be used as teacher data. The learning processing unit 353 has 2,500 blue light irradiation images, a left-handed image (2,500), a right-handed image (2,500), an upside-down image (2,500), and a left-right inverted image. Image data of one or more types of images selected from the group consisting of (2,500) may be used as teacher data. For example, image data of a total of 5,000 images, that is, 2,500 blue light irradiation images and left-rotated images (2,500) may be used as teacher data. As described above, the learning processing unit 353 makes it possible to increase the number of teacher data even when it is difficult to obtain a blue light irradiation image including an intraoral tumor.

同様に、学習処理部353は、分割された画像データを入力データとし、「青色光照射画像が悪性の口腔内腫瘍を含む画像であること」、「青色光照射画像が良性の口腔内腫瘍を含む画像であること」及び「青色光照射画像が口腔内腫瘍を含まない画像であること」のいずれかを示すラベルデータを出力データとする第3教師データTD3を生成する。 Similarly, the learning processing unit 353 uses the divided image data as input data, and "the blue light irradiation image is an image containing a malignant oral tumor" and "the blue light irradiation image is a benign oral tumor". The third teacher data TD3 is generated using the label data indicating either "the image is an image including" or "the image irradiated with blue light is an image not including an oral tumor" as output data.

次に、学習処理部353による学習処理について説明する。 Next, the learning process by the learning process unit 353 will be described.

図6(b)は、第1判別モデルの一例を示す模式図である。図6(b)に示される第1判別モデルM1は、入力層M1-1、隠れ層M1-2及び出力層M1-3を有するニューラルネットワークモデルである。入力層M1-1の所謂「ニューロン」のそれぞれは、第1教師データTD1の空間周波数スペクトルの各rに対応する成分量p(r)が入力されるものである。入力層M1-1の各ニューロンに、空間周波数スペクトルが入力される。なお、入力層M1-1のニューロンのうち、空間周波数スペクトルのrに対応しないニューロンが存在してもよく、この場合、当該ニューロンはバイアスとして機能する。 FIG. 6B is a schematic diagram showing an example of the first discrimination model. The first discrimination model M1 shown in FIG. 6B is a neural network model having an input layer M1-1, a hidden layer M1-2, and an output layer M1-3. Each of the so-called "neurons" of the input layer M1-1 is input with a component amount p (r) corresponding to each r of the spatial frequency spectrum of the first teacher data TD1. A spatial frequency spectrum is input to each neuron in the input layer M1-1. In addition, among the neurons of the input layer M1-1, there may be a neuron that does not correspond to r of the spatial frequency spectrum, and in this case, the neuron functions as a bias.

隠れ層M1-2のニューロンの数は、入力層M1-1のニューロンの数よりも多くても少なくてもよい。また、出力層M1-3に含まれる2つのニューロンは、それぞれ「青色光照射画像が口腔内腫瘍を含む画像であること」を示すラベルデータ及び「青色光照射画像が口腔内腫瘍を含まない画像であること」を示すラベルデータに対応する。 The number of neurons in the hidden layer M1-2 may be greater or less than the number of neurons in the input layer M1-1. In addition, the two neurons contained in the output layer M1-3 have label data indicating that "the blue light irradiation image is an image containing an oral tumor" and "an image in which the blue light irradiation image does not contain an oral tumor". Corresponds to the label data indicating "is".

図7(a)は、第2判別モデルの一例を示す模式図である。図7(a)に示される第2判別モデルM2は、入力層M2-1、畳み込み層M2-2、プーリング層M2-3及び出力層M2-4を有する畳み込みニューラルネットワークなどを含む深層ニューラルネットワークモデルである。畳み込み層M2-2及びプーリング層M2-3は、それぞれ2以上であってもよい。入力層M2-1のニューロンは、第2教師データTD2の(分割された)青色光照射画像の画像データの各ピクセルに対応する色情報(R値、G値、B値)に対応する。出力層M2-4に含まれる2つのニューロンは、それぞれ「青色光照射画像が口腔内腫瘍を含む画像であること」を示すラベルデータ及び「青色光照射画像が口腔内腫瘍を含まない画像であること」を示すラベルデータに対応する。 FIG. 7A is a schematic diagram showing an example of the second discrimination model. The second discrimination model M2 shown in FIG. 7A is a deep neural network model including a convolutional neural network having an input layer M2-1, a convolutional layer M2-2, a pooling layer M2-3, and an output layer M2-4. Is. The number of the convolutional layer M2-2 and the pooling layer M2-3 may be two or more, respectively. The neurons of the input layer M2-1 correspond to the color information (R value, G value, B value) corresponding to each pixel of the image data of the (divided) blue light irradiation image of the second teacher data TD2. The two neurons contained in the output layer M2-4 are label data indicating that "the blue light irradiation image is an image containing an oral tumor" and "the blue light irradiation image is an image not containing an oral tumor", respectively. Corresponds to the label data indicating "that".

図7(b)は、第3判別モデルの一例を示す模式図である。図7(b)に示される第3判別モデルM3は、入力層M3-1、畳み込み層M3-2、プーリング層M3-3及び出力層M3-4を有する畳み込みニューラルネットワークなどを含む深層ニューラルネットワークモデルである。入力層M3-1、畳み込み層M3-2及びプーリング層M3-3は、入力層M2-1、畳み込み層M2-2及びプーリング層M2-3と同様である。出力層M3-4に含まれる3つのニューロンは、それぞれ「青色光照射画像が悪性の口腔内腫瘍を含む画像であること」を示すラベルデータ、「青色光照射画像が良性の口腔内腫瘍を含む画像であること」を示すラベルデータ及び「青色光照射画像が口腔内腫瘍を含まない画像であること」を示すラベルデータに対応する。 FIG. 7B is a schematic diagram showing an example of the third discrimination model. The third discrimination model M3 shown in FIG. 7B is a deep neural network model including a convolutional neural network having an input layer M3-1, a convolutional layer M3-2, a pooling layer M3-3, and an output layer M3-4. Is. The input layer M3-1, the convolution layer M3-2, and the pooling layer M3-3 are the same as the input layer M2-1, the convolution layer M2-2, and the pooling layer M2-3. The three neurons contained in the output layer M3-4 each include label data indicating that "the blue light irradiation image is an image containing a malignant oral tumor" and "the blue light irradiation image contains a benign oral tumor". It corresponds to the label data indicating that it is an image and the label data indicating that the blue light irradiation image is an image that does not include an intraoral tumor.

学習処理部353は、第1教師データTD1を用いて公知のマシンラーニング学習を実行することにより、ニューラルネットワークにおける各ニューロンの重みが学習された第1判別モデルを生成又は更新する。また、学習処理部353は、第2教師データTD2を用いて公知のディープラーニング学習を実行することにより、多層構造のニューラルネットワークにおける各ニューロンの重みが学習された第2判別モデルを生成又は更新する。また、学習処理部353は、第3教師データTD3を用いて公知のディープラーニング学習を実行することにより、多層構造のニューラルネットワークにおける各ニューロンの重みが学習された第3判別モデルを生成又は更新する。 The learning processing unit 353 generates or updates a first discriminant model in which the weights of each neuron in the neural network are learned by executing known machine learning learning using the first teacher data TD1. Further, the learning processing unit 353 generates or updates a second discriminant model in which the weights of each neuron in the multi-layered neural network are learned by executing known deep learning learning using the second teacher data TD2. .. Further, the learning processing unit 353 generates or updates a third discrimination model in which the weights of each neuron in the multi-layered neural network are learned by executing known deep learning learning using the third teacher data TD3. ..

図8は、判別処理の概要を説明するための模式図である。判別処理は、変換処理部352、判別処理部354及び出力処理部355によって実行される。判別処理では、端末装置2から新たな患者の(教師データTDとは異なる)青色光照射画像の画像データが取得された場合、取得された青色光照射画像に対応する判定結果(悪性腫瘍情報、良性腫瘍情報又は健常情報)が出力される。 FIG. 8 is a schematic diagram for explaining the outline of the discrimination process. The discrimination process is executed by the conversion process unit 352, the discrimination process unit 354, and the output processing unit 355. In the discrimination process, when the image data of a new patient's blue light irradiation image (different from the teacher data TD) is acquired from the terminal device 2, the determination result (malignant tumor information, malignant tumor information, corresponding to the acquired blue light irradiation image, (Benign tumor information or healthy information) is output.

まず、変換処理部352は、取得された青色光照射画像の画像データをフーリエ変換することにより、第1判定処理で用いられる空間周波数スペクトルを生成する。なお、変換処理部352は、取得された青色光照射画像を小サイズ(32画素×32画素)に分割した画像データ又は後述する出力画像の画像データをフーリエ変換することにより、第1判定処理で用いられる空間周波数スペクトルを生成してもよい。 First, the conversion processing unit 352 generates a spatial frequency spectrum used in the first determination processing by Fourier transforming the image data of the acquired blue light irradiation image. The conversion processing unit 352 performs a first determination process by Fourier transforming the image data obtained by dividing the acquired blue light irradiation image into small sizes (32 pixels × 32 pixels) or the image data of the output image described later. The spatial frequency spectrum used may be generated.

次に、判別処理部354は、(取得された青色光照射画像が分割されている場合は)小サイズ(32画素×32画素)に分割された画像から、元の大きさの画像(取得された青色光照射画像)を再構成する。判別処理部354は、青色光照射画像における口腔内の任意の画素について、その画素を含む複数の分割画像を生成し、多数決により判定を行う。判別処理部354は、多数決による判定処理を口腔内領域の全画素に対して行うことで、後述する第2判別処理及び第3判別処理にて用いる最終的な出力画像を出力する。なお、出力画像は、判別対象となる青色光照射画像のうちの一部の画像である。 Next, the discrimination processing unit 354 receives an image of the original size (acquired) from the image divided into small sizes (32 pixels × 32 pixels) (when the acquired blue light irradiation image is divided). (Blue light irradiation image) is reconstructed. The discrimination processing unit 354 generates a plurality of divided images including the pixels of any pixel in the oral cavity in the blue light irradiation image, and makes a determination by majority voting. The discrimination processing unit 354 outputs a final output image used in the second discrimination processing and the third discrimination processing, which will be described later, by performing the judgment processing by majority voting on all the pixels in the oral cavity region. The output image is a part of the blue light irradiation image to be discriminated.

次に、判別処理部354は、第1判別処理及び第2判別処理を実行する。第1判別処理では、判別処理部354は、生成した空間周波数スペクトルを示すデータを入力データとして推定されるラベルデータの確率を、第1判別モデルM1を用いて算出する。そして、判別処理部354は、算出したラベルデータの確率に基づいて、「空間周波数スペクトルに対応する青色光照射画像(取得された青色光照射画像)が口腔内腫瘍を含む画像である」又は「空間周波数スペクトルに対応する青色光照射画像が口腔内腫瘍を含まない画像である」のいずれか一方を判別する。例えば、判別処理部354は、「青色光照射画像が口腔内腫瘍を含む画像であること」を示すラベルデータの確率として82%を算出し、「青色光照射画像が口腔内腫瘍を含まない画像であること」を示すラベルデータの確率として18%を算出した場合、「青色光照射画像が口腔内腫瘍を含む画像である」と判別する。 Next, the discrimination processing unit 354 executes the first discrimination processing and the second discrimination processing. In the first discrimination process, the discrimination processing unit 354 calculates the probability of the label data estimated by using the data showing the generated spatial frequency spectrum as the input data by using the first discrimination model M1. Then, the discrimination processing unit 354 "is an image including the oral tumor in the blue light irradiation image (acquired blue light irradiation image) corresponding to the spatial frequency spectrum" or "the image including the oral tumor" based on the calculated probability of the label data. The blue light irradiation image corresponding to the spatial frequency spectrum is an image that does not include an intraoral tumor. " For example, the discrimination processing unit 354 calculates 82% as the probability of the label data indicating that "the blue light irradiation image is an image containing an oral tumor", and "the image that the blue light irradiation image does not include an oral tumor". When 18% is calculated as the probability of the label data indicating "is", it is determined that "the blue light irradiation image is an image including an oral tumor".

第2判別処理では、判別処理部354は、出力画像(青色光照射画像のうちの一部の画像)の画像データを入力データとして推定されるラベルデータの確率を、第2判別モデルM2を用いて算出する。そして、判別処理部354は、算出したラベルデータの確率に基づいて、「青色光照射画像が口腔内腫瘍を含む画像である」及び「青色光照射画像が口腔内腫瘍を含まない画像である」のいずれか一方を判別する。 In the second discrimination process, the discrimination processing unit 354 uses the second discrimination model M2 to determine the probability of the label data estimated by using the image data of the output image (a part of the blue light irradiation image) as the input data. To calculate. Then, the discrimination processing unit 354 "is an image in which the blue light irradiation image contains an oral tumor" and "an image in which the blue light irradiation image does not include an oral tumor" based on the calculated probability of the label data. Either one is determined.

次に、判別処理部354は、第1判別処理及び第2判別処理の判別結果がともに「青色光照射画像が口腔内腫瘍を含まない画像である」という結果か否かを判定する。第1判別処理及び第2判別処理の判別結果がともに「青色光照射画像が口腔内腫瘍を含まない画像である」という結果である場合、判別処理部354は、当該判別結果を出力処理部355に送信する。そして、出力処理部355は、第1判別処理及び第2判別処理の判別結果がともに「青色光照射画像が口腔内腫瘍を含まない画像である」という結果を取得すると、健常情報を出力する。健常情報は、取得された青色光照射画像が撮影された患者の口腔内に口腔内腫瘍が存在しないことを示す情報である。また、健常情報の出力は、表示部33への健常情報の表示、及び/又は、他装置への健常情報の送信等である。 Next, the discrimination processing unit 354 determines whether or not the discrimination results of the first discrimination process and the second discrimination process are both "the blue light irradiation image is an image that does not include the intraoral tumor". When both the discrimination results of the first discrimination process and the second discrimination process are the results that "the blue light irradiation image is an image that does not include an intraoral tumor", the discrimination processing unit 354 outputs the discrimination result to the output processing unit 355. Send to. Then, when the output processing unit 355 acquires the result that the discrimination result of the first discrimination process and the second discrimination process is "the blue light irradiation image is an image not including the intraoral tumor", the output processing unit 355 outputs the health information. The healthy information is information indicating that there is no oral tumor in the oral cavity of the patient from which the acquired blue light irradiation image was taken. Further, the output of the health information is the display of the health information on the display unit 33 and / or the transmission of the health information to another device.

第1判別処理及び第2判別処理の判別結果がともに「青色光照射画像が口腔内腫瘍を含まない画像である」という結果でない場合(第1判別処理の判定結果及び第2判別処理の判定結果の少なくとも一方が「青色光照射画像が口腔内腫瘍を含む画像である」という結果である場合)、判別処理部354は、第3判別処理を実行する。 When the discrimination results of the first discrimination process and the second discrimination process are not the result that "the blue light irradiation image is an image that does not include the intraoral tumor" (the judgment result of the first discrimination process and the judgment result of the second discrimination process). When at least one of the above is the result that "the blue light irradiation image is an image including an oral tumor"), the discrimination processing unit 354 executes the third discrimination processing.

第3判別処理では、判別処理部354は、出力画像(青色光照射画像のうちの一部の画像)の画像データを入力データとして推定されるラベルデータの確率を、第3判別モデルM3を用いて算出する。そして、判別処理部354は、算出したラベルデータの確率に基づいて、「青色光照射画像が悪性の口腔内腫瘍を含む画像である」、「青色光照射画像が良性の口腔内腫瘍を含む画像である」及び「青色光照射画像が口腔内腫瘍を含まない画像である」のいずれかを判別する。例えば、判別処理部354は、「青色光照射画像が悪性の口腔内腫瘍を含む画像であること」を示すラベルデータの確率が68%と算出し、「青色光照射画像が良性の口腔内腫瘍を含む画像であること」を示すラベルデータの確率が23%と算出し、「青色光照射画像が口腔内腫瘍を含まない画像であること」を示すラベルデータの確率が9%と算出した場合、「青色光照射画像が悪性の口腔内腫瘍を含む画像である」と判別する。 In the third discrimination process, the discrimination processing unit 354 uses the third discrimination model M3 to determine the probability of the label data estimated by using the image data of the output image (a part of the blue light irradiation image) as the input data. To calculate. Then, the discrimination processing unit 354 "is an image containing a malignant oral tumor in the blue light irradiation image" and "an image including a benign oral tumor in the blue light irradiation image" based on the calculated probability of the label data. It is determined whether "the image is an image that does not contain an oral tumor" or "the image irradiated with blue light is an image that does not include an oral tumor". For example, the discrimination processing unit 354 calculates that the probability of the label data indicating that "the blue light irradiation image is an image containing a malignant oral tumor" is 68%, and "the blue light irradiation image is a benign oral tumor". When the probability of the label data indicating "the image contains" is calculated to be 23%, and the probability of the label data indicating "the image irradiated with blue light is an image containing no oral tumor" is calculated to be 9%. , "The blue light irradiation image is an image containing a malignant oral tumor".

次に、判別処理部354は、第3判別処理の判別結果を出力処理部355に送信する。出力処理部355は、第3判別処理の判別結果が「青色光照射画像が悪性の口腔内腫瘍を含む画像である」という結果を取得すると、悪性腫瘍情報を出力する。出力処理部355は、第3判別処理の判別結果が「青色光照射画像が良性の口腔内腫瘍を含む画像である」という結果を取得すると、良性腫瘍情報を出力する。出力処理部355は、第3判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含まない画像である」という結果を取得すると、健常情報を出力する。なお、悪性腫瘍情報は、取得された青色光照射画像が撮影された患者の口腔内に悪性の口腔内腫瘍が存在することを示す情報である。また、良性腫瘍情報は、取得された青色光照射画像が撮影された患者の口腔内に良性の口腔内腫瘍が存在することを示す情報である。また、悪性腫瘍情報の出力は、表示部33への悪性腫瘍情報の表示、及び/又は、他装置への悪性腫瘍情報の送信等であり、良性腫瘍情報の出力は、表示部33への良性腫瘍情報の表示、及び/又は、他装置への良性腫瘍情報の送信等である。 Next, the discrimination processing unit 354 transmits the discrimination result of the third discrimination processing to the output processing unit 355. When the output processing unit 355 obtains the result that the discrimination result of the third discrimination process is "the blue light irradiation image is an image including a malignant oral tumor", the output processing unit 355 outputs the malignant tumor information. When the output processing unit 355 obtains the result that the discrimination result of the third discrimination process is "the blue light irradiation image is an image including a benign oral tumor", the output processing unit 355 outputs the benign tumor information. When the output processing unit 355 obtains the result that the discrimination result of the third discrimination process is "the blue light irradiation image is an image that does not include the intraoral tumor", the output processing unit 355 outputs the healthy information. The malignant tumor information is information indicating that a malignant oral tumor is present in the oral cavity of the patient from which the acquired blue light irradiation image was taken. The benign tumor information is information indicating that a benign oral tumor is present in the oral cavity of the patient from which the acquired blue light irradiation image was taken. Further, the output of the malignant tumor information is the display of the malignant tumor information on the display unit 33 and / or the transmission of the malignant tumor information to another device, and the output of the benign tumor information is the benign tumor information to the display unit 33. Displaying tumor information and / or transmitting benign tumor information to other devices.

図9は、変換処理部352、判別処理部354及び出力処理部355による判別処理の動作フローの一例を示す図である。 FIG. 9 is a diagram showing an example of an operation flow of discrimination processing by the conversion processing unit 352, the discrimination processing unit 354, and the output processing unit 355.

まず、変換処理部352は、青色光照射画像の画像データが端末装置2から取得された場合、取得された青色光照射画像の画像データをフーリエ変換することにより、空間周波数スペクトルを生成する(ステップS101)。 First, when the image data of the blue light irradiation image is acquired from the terminal device 2, the conversion processing unit 352 generates a spatial frequency spectrum by Fourier transforming the acquired image data of the blue light irradiation image (step). S101).

次に、判別処理部354は、第1判別処理を実行する(ステップS102)。 Next, the discrimination processing unit 354 executes the first discrimination processing (step S102).

次に、判別処理部354は、第1判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果であるか否かを判定する(ステップS103)。 Next, the discrimination processing unit 354 determines whether or not the discrimination result of the first discrimination process is the result that "the blue light irradiation image is an image including an oral tumor" (step S103).

第1判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果である場合(ステップS103-Yes)、判別処理部354は、処理をステップS106に進める。 When the discrimination result of the first discrimination process is the result that "the blue light irradiation image is an image including an intraoral tumor" (step S103-Yes), the discrimination processing unit 354 proceeds to the process to step S106.

第1判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含まない画像である」という結果である場合(ステップS103-No)、判別処理部354は、第2判別処理を実行する(ステップS104) When the discrimination result of the first discrimination process is the result that "the blue light irradiation image is an image that does not include the intraoral tumor" (step S103-No), the discrimination processing unit 354 executes the second discrimination process (step S103-No). Step S104)

次に、判別処理部354は、第2判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果であるか否かを判定する(ステップS105)。 Next, the discrimination processing unit 354 determines whether or not the discrimination result of the second discrimination process is the result that "the blue light irradiation image is an image including an oral tumor" (step S105).

第1判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果である場合(ステップS105-Yes)、判別処理部354は、処理をステップS106に進める。 When the discrimination result of the first discrimination process is the result that "the blue light irradiation image is an image including an intraoral tumor" (step S105-Yes), the discrimination processing unit 354 proceeds to the process in step S106.

第1判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含まない画像である」という結果である場合(ステップS105-No)、判別処理部354は、処理をステップS111に進める。 When the discrimination result of the first discrimination process is the result that "the blue light irradiation image is an image that does not include the intraoral tumor" (step S105-No), the discrimination processing unit 354 proceeds to the process to step S111.

ステップS106では、判別処理部354は、第3判別処理を実行する。 In step S106, the discrimination processing unit 354 executes the third discrimination processing.

次に、判別処理部354は、第3判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果であるか否かを判定する(ステップS107)。 Next, the discrimination processing unit 354 determines whether or not the discrimination result of the third discrimination process is the result that "the blue light irradiation image is an image including an oral tumor" (step S107).

第3判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含まない画像である」という結果である場合(ステップS107-No)、判別処理部354は、処理をステップS111に進める。 When the discrimination result of the third discrimination process is the result that "the blue light irradiation image is an image that does not include the intraoral tumor" (step S107-No), the discrimination processing unit 354 proceeds to the process to step S111.

第3判別処理の判別結果が「青色光照射画像が口腔内腫瘍を含む画像である」という結果である場合(ステップS107-Yes)、第3判別処理の判別結果が「青色光照射画像が悪性の口腔内腫瘍を含む画像である」という結果であるか否かを判定する(ステップS108)。 When the discrimination result of the third discrimination process is "the blue light irradiation image is an image containing an oral tumor" (step S107-Yes), the discrimination result of the third discrimination process is "the blue light irradiation image is malignant". It is determined whether or not the result is "an image including an intraoral tumor" (step S108).

第3判別処理の判別結果が「青色光照射画像が悪性の口腔内腫瘍を含む画像である」という結果である場合(ステップS108-Yes)、出力処理部355は、悪性腫瘍情報を出力し(ステップS109)、判別処理を終了する。 When the discrimination result of the third discrimination process is the result that "the blue light irradiation image is an image including a malignant oral tumor" (step S108-Yes), the output processing unit 355 outputs the malignant tumor information (step S108-Yes). Step S109), the discrimination process is terminated.

第3判別処理の判別結果が「青色光照射画像が良性の口腔内腫瘍を含む画像である」という結果である場合(ステップS108-No)、出力処理部355は、良性腫瘍情報を出力し(ステップS110)、判別処理を終了する。 When the discrimination result of the third discrimination process is the result that "the blue light irradiation image is an image including a benign oral tumor" (step S108-No), the output processing unit 355 outputs the benign tumor information (step S108-No). Step S110), the discrimination process is terminated.

ステップS111では、出力処理部355は、健常情報を出力して判別処理を終了する。 In step S111, the output processing unit 355 outputs healthy information and ends the discrimination process.

以上、詳述したとおり、本実施形態の判別システム1は、青色光照射画像を教師データとして学習済みの第2及び第3判別モデルを用いた第2及び第3判別処理を実行するとともに、口腔内の腫瘍の粘膜表面及び口腔内の健常組織の粘膜表面における青色光照射画像での輝度の違いに着目した第1判別モデルを用いた第1判別処理を実行する。これにより、本実施形態の判別システム1において、熟練した専門医の知見を効果的に判別処理に適用することができ、精度の高い口腔内腫瘍の判別を実現することが可能となる。 As described in detail above, the discrimination system 1 of the present embodiment executes the second and third discrimination processes using the second and third discrimination models that have been trained using the blue light irradiation image as the teacher data, and also performs the oral cavity. The first discrimination process using the first discrimination model focusing on the difference in brightness in the blue light irradiation image between the mucosal surface of the tumor inside and the mucosal surface of the healthy tissue in the oral cavity is executed. As a result, in the discrimination system 1 of the present embodiment, the knowledge of a skilled specialist can be effectively applied to the discrimination process, and it becomes possible to realize highly accurate discrimination of oral tumors.

また、本実施形態の判別システム1では、それぞれが異なる第1、第2及び第3判別モデルを用いた第1、第2及び第3判別処理を段階的に実行することで、青色光照射画像を悪性腫瘍、良性腫瘍及び健常に分類する。このため、本実施形態の判別システム1では、第2及び第3判別モデルの教師データの数が十分でなくとも、1種類の判別モデルのみで分類する場合に比べ、より精度の高い判別処理が可能となる。また、第2及び第3判別モデルの教師データとして、1種類の画像データから画像処理(分割、回転、及び/又は反転処理)した複数種類の画像データを用いることで、青色光照射画像の入手が困難であっても判別処理の精度を向上させることが可能となる。このように、判別モデルに用いる教師データの数を低減させることができ、判別装置3の処理負荷及び/又は端末装置2と判別装置3との間の通信負荷を軽減させ、判別装置3の処理リソースを過度に消費することなく、精度の高い口腔内腫瘍の判別を実現することが可能となる。 Further, in the discrimination system 1 of the present embodiment, the first, second, and third discrimination processes using the first, second, and third discrimination models, which are different from each other, are sequentially executed to obtain a blue light irradiation image. Are classified as malignant tumors, benign tumors and healthy tumors. Therefore, in the discrimination system 1 of the present embodiment, even if the number of teacher data of the second and third discrimination models is not sufficient, the discrimination processing with higher accuracy can be performed as compared with the case of classifying with only one type of discrimination model. It will be possible. Further, by using a plurality of types of image data processed (divided, rotated, and / or inverted) from one type of image data as the teacher data of the second and third discrimination models, a blue light irradiation image can be obtained. Even if it is difficult, it is possible to improve the accuracy of the discrimination process. In this way, the number of teacher data used in the discrimination model can be reduced, the processing load of the discrimination device 3 and / or the communication load between the terminal device 2 and the discrimination device 3 can be reduced, and the processing of the discrimination device 3 can be reduced. It is possible to realize highly accurate discrimination of oral tumors without consuming excessive resources.

(変形例1)
なお、本発明は、本実施形態に限定されるものではない。例えば、判別装置3を使用せずに、端末装置2に、判別装置3の変換機能、学習機能、判別機能及び出力機能を備えさせた判別端末装置4が用いられてもよい。
(Modification 1)
The present invention is not limited to the present embodiment. For example, instead of using the discriminating device 3, a discriminating terminal device 4 having the discriminating device 3 having a conversion function, a learning function, a discriminating function, and an output function may be used.

図10は、判別端末装置4の概略構成の一例を示す図である。判別端末装置4は、判別装置3の変換機能、学習機能、判別機能及び出力機能を備える端末装置2である。なお、図10において、図2及び図4と同じ構成については同じ符号を付し、その説明を省略する。 FIG. 10 is a diagram showing an example of a schematic configuration of the discrimination terminal device 4. The discrimination terminal device 4 is a terminal device 2 having a conversion function, a learning function, a discrimination function, and an output function of the discrimination device 3. In FIG. 10, the same reference numerals are given to the same configurations as those in FIGS. 2 and 4, and the description thereof will be omitted.

判別端末装置4の変換処理部352、学習処理部353及び判別処理部354は、端末記憶部22に記憶された青色光照射画像(撮影制御部272によって記憶された青色光照射画像)を用いて、それぞれ変換処理、学習処理及び判別処理を実行する。 The conversion processing unit 352, the learning processing unit 353, and the discrimination processing unit 354 of the discrimination terminal device 4 use the blue light irradiation image (blue light irradiation image stored by the photographing control unit 272) stored in the terminal storage unit 22. , Perform conversion processing, learning processing, and discrimination processing, respectively.

また、出力処理部355は、判別結果(健常情報、悪性腫瘍情報、良性腫瘍情報)を、端末表示部23に表示出力する。 Further, the output processing unit 355 displays and outputs the discrimination result (healthy information, malignant tumor information, benign tumor information) to the terminal display unit 23.

このように、判別端末装置4では、1台の装置によって、青色光照射画像の撮影処理、判別処理、及び判別結果の表示が実行されるため、他の装置へのデータの送信処理が不要となるとともに、ユーザは青色光照射画像の撮影後に即座に判別結果を確認することができる。このように、判別端末装置4によって、口腔内腫瘍の判別精度の向上及びスクリーニングに係る時間の短縮が可能となる。 As described above, in the discrimination terminal device 4, one device executes the shooting process of the blue light irradiation image, the discrimination process, and the display of the discrimination result, so that the data transmission process to other devices is unnecessary. At the same time, the user can confirm the discrimination result immediately after taking the blue light irradiation image. As described above, the discrimination terminal device 4 makes it possible to improve the discrimination accuracy of the oral tumor and shorten the time required for screening.

(変形例2)
第1判別処理において用いられる第1判別モデルは、サポートベクターマシン(Support Vector Machine,SVM)等であってもよい。この場合、周波数スペクトルが特徴量として用いられ、「青色光照射画像」が、「口腔内腫瘍を含む画像である」及び「口腔内腫瘍を含まない画像である」のいずれかに分類される。
(Modification 2)
The first discrimination model used in the first discrimination process may be a support vector machine (SVM) or the like. In this case, the frequency spectrum is used as a feature amount, and the "blue light irradiation image" is classified into either "an image containing an oral tumor" or "an image not including an oral tumor".

1 判別システム
2 端末装置
21 端末通信部
22 端末記憶部
23 端末表示部
24 端末操作部
25 照射部
26 撮影部
27 端末制御部
271 照射制御部
272 撮影制御部
273 送信制御部
3 判別装置
31 通信部
32 記憶部
33 表示部
34 操作部
35 処理部
351 受信処理部
352 変換処理部
353 学習処理部
354 判別処理部
355 出力処理部
4 判別端末装置
M1 第1判別モデル
M2 第2判別モデル
M3 第3判別モデル
TD 教師データ
1 Discrimination system 2 Terminal device 21 Terminal communication unit 22 Terminal storage unit 23 Terminal display unit 24 Terminal operation unit 25 Irradiation unit 26 Imaging unit 27 Terminal control unit 271 Irradiation control unit 272 Imaging control unit 273 Transmission control unit 3 Discrimination device 31 Communication unit 32 Storage unit 33 Display unit 34 Operation unit 35 Processing unit 351 Reception processing unit 352 Conversion processing unit 353 Learning processing unit 354 Discrimination processing unit 355 Output processing unit 4 Discrimination terminal device M1 First discrimination model M2 Second discrimination model M3 Third discrimination Model TD teacher data

Claims (9)

青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別装置であって、
前記撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、
学習済みの第1判別モデルに対して前記空間周波数スペクトルを入力し、入力された前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、
学習済みの第2判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、又は、前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別され且つ前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、又は、前記第3判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、前記患者の口腔内に前記口腔内腫瘍が存在しないことを示す健常情報を出力し、
前記第3判別部によって前記撮影画像が前記良性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、
前記第3判別部によって前記撮影画像が前記悪性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部と
を有することを特徴とする判別装置。
It is a discrimination device that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor using a photographed image of the oral cavity of a patient irradiated with blue light.
A conversion unit that generates a spatial frequency spectrum by Fourier transforming the captured image, and
The first discrimination model in which the spatial frequency spectrum is input to the trained first discrimination model and whether or not the captured image corresponding to the input spatial frequency spectrum is an image including the oral tumor is determined. Department and
A second discrimination unit that inputs the captured image to the trained second discrimination model and determines whether or not the input captured image is an image including the oral tumor.
When the captured image is determined to be an image containing the oral tumor by the first discrimination unit, or when the captured image is determined to be an image containing the oral tumor by the second discrimination unit. In the case, the captured image is input to the trained third discrimination model, and the input captured image includes the benign oral tumor, the malignant oral tumor, and the oral cavity. A third discriminating unit that discriminates which of the images does not contain an internal tumor,
When the captured image is determined to be an image that does not contain the oral tumor by the first discrimination unit, and the captured image is determined to be an image that does not contain the oral tumor by the second discrimination unit. Alternatively, when the captured image is determined by the third discrimination unit to be an image that does not include the oral tumor, health information indicating that the oral tumor does not exist in the oral cavity of the patient is output.
When the captured image is determined by the third discrimination unit to be an image containing the benign oral tumor, benign tumor information indicating that the benign oral tumor is present in the oral cavity of the patient is output. death,
When the photographed image is determined by the third discrimination unit to be an image containing the malignant oral tumor, malignant tumor information indicating that the malignant oral tumor is present in the oral cavity of the patient is output. A discriminant device characterized by having an output unit and an output unit.
前記第2判別部は、前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合に限り、学習済みの第2判別モデルに対して前記撮影画像を入力し、前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する、請求項1に記載の判別装置。 The second discrimination unit inputs the captured image to the trained second discrimination model only when the captured image is determined by the first discrimination unit to be an image that does not include the intraoral tumor. The discriminating device according to claim 1, wherein the captured image is discriminated as to whether or not the image includes the intraoral tumor. 前記出力部によって出力された各情報を表示する表示部を有する、請求項1又は2に記載の判別装置。 The discrimination device according to claim 1 or 2, further comprising a display unit that displays each information output by the output unit. 前記空間周波数スペクトルを入力データとし、前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを示すデータを出力データとして、前記第1判別モデルを学習させ、
前記撮影画像を入力データとし、前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを示すデータを出力データとして、前記第2判別モデルを学習させ、
前記撮影画像を入力データとし、前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像、のいずれかであることを示すデータを出力データとして、前記第3判別モデルを学習させる学習部を有する、請求項1-3のいずれか一項に記載の判別装置。
The first discrimination model is trained using the spatial frequency spectrum as input data and data indicating whether or not the captured image corresponding to the spatial frequency spectrum is an image containing the oral tumor as output data.
The second discriminant model is trained using the captured image as input data and data indicating whether or not the captured image is an image containing the oral tumor as output data.
Using the captured image as input data, the captured image is either an image containing the benign oral tumor, an image containing the malignant oral tumor, or an image not containing the oral tumor. The discriminant device according to any one of claims 1-3, which has a learning unit for learning the third discriminant model using the indicated data as output data.
前記第2判別モデル及び前記第3判別モデルを学習させるために用いられる前記入力データは、前記撮影した撮影画像を複数に分割した分割画像、並びに、前記分割画像を左右回転した画像、及び前記分割画像を左右反転した画像よりなる群から選択される一種以上の画像を含む、請求項4に記載の判別装置。 The input data used for training the second discriminant model and the third discriminant model are a divided image obtained by dividing the captured image into a plurality of captured images, an image obtained by rotating the divided image left and right, and the divided image. The discrimination device according to claim 4, further comprising one or more images selected from a group consisting of left-right inverted images. 青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別端末装置であって、
前記青色光を照射する照射部と、
所定の撮影方向の撮影対象空間を撮影する撮影部と、
前記撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、
学習済みの第1判別モデルに対して前記空間周波数スペクトルを入力し、入力された前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、
学習済みの第2判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、又は、前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別され且つ前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、又は、前記第3判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、前記患者の口腔内に前記口腔内腫瘍が存在しないことを示す健常情報を出力し、
前記第3判別部によって前記撮影画像が前記良性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、
前記第3判別部によって前記撮影画像が前記悪性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部と
を有することを特徴とする判別端末装置。
It is a discrimination terminal device that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor using a photographed image of the oral cavity of a patient irradiated with blue light.
The irradiation unit that irradiates the blue light and
A shooting unit that shoots the shooting target space in a predetermined shooting direction,
A conversion unit that generates a spatial frequency spectrum by Fourier transforming the captured image, and
The first discrimination model in which the spatial frequency spectrum is input to the trained first discrimination model and whether or not the captured image corresponding to the input spatial frequency spectrum is an image including the oral tumor is determined. Department and
A second discrimination unit that inputs the captured image to the trained second discrimination model and determines whether or not the input captured image is an image including the oral tumor.
When the captured image is determined to be an image containing the oral tumor by the first discrimination unit, or when the captured image is determined to be an image containing the oral tumor by the second discrimination unit. In the case, the captured image is input to the trained third discrimination model, and the input captured image includes the benign oral tumor, the malignant oral tumor, and the oral cavity. A third discriminating unit that discriminates which of the images does not contain an internal tumor,
When the captured image is determined to be an image that does not contain the oral tumor by the first discrimination unit, and the captured image is determined to be an image that does not contain the oral tumor by the second discrimination unit. Alternatively, when the captured image is determined by the third discrimination unit to be an image that does not include the oral tumor, health information indicating that the oral tumor does not exist in the oral cavity of the patient is output.
When the captured image is determined by the third discrimination unit to be an image containing the benign oral tumor, benign tumor information indicating that the benign oral tumor is present in the oral cavity of the patient is output. death,
When the photographed image is determined by the third discrimination unit to be an image containing the malignant oral tumor, malignant tumor information indicating that the malignant oral tumor is present in the oral cavity of the patient is output. A discriminant terminal device characterized by having an output unit.
青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別装置の制御方法であって、
前記撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成し、
学習済みの第1判別モデルに対して前記空間周波数スペクトルを入力し、入力された前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第1判別ステップと、
学習済みの第2判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第2判別ステップと、
前記第1判別ステップにおいて前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、又は、前記第2判別ステップにおいて前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別ステップと、
前記第1判別ステップにおいて前記撮影画像が前記口腔内腫瘍を含まない画像であると判別され且つ前記第2判別ステップにおいて前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、又は、前記第3判別ステップにおいて前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、前記患者の口腔内に前記口腔内腫瘍が存在しないことを示す健常情報を出力し、
前記第3判別ステップにおいて前記撮影画像が前記良性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、
前記第3判別ステップにおいて前記撮影画像が前記悪性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力ステップと
を含むことを特徴とする制御方法。
It is a control method of a discriminator that discriminates the presence or absence of an oral tumor and whether the oral tumor is benign or malignant by using a photographed image of the oral cavity of a patient irradiated with blue light.
By Fourier transforming the captured image, a spatial frequency spectrum is generated.
The first discrimination model in which the spatial frequency spectrum is input to the trained first discrimination model and whether or not the captured image corresponding to the input spatial frequency spectrum is an image including the oral tumor is determined. Steps and
A second discrimination step in which the captured image is input to the trained second discrimination model and it is determined whether or not the input captured image is an image containing the oral tumor.
When the captured image was determined to be an image containing the oral tumor in the first discrimination step, or when the captured image was determined to be an image containing the oral tumor in the second discrimination step. In the case, the captured image is input to the trained third discrimination model, and the input captured image includes the benign oral tumor, the malignant oral tumor, and the oral cavity. A third discrimination step for determining which of the images does not contain an internal tumor, and
When the captured image is determined to be an image that does not contain the oral tumor in the first discrimination step, and the captured image is determined to be an image that does not contain the oral tumor in the second discrimination step. Alternatively, when the captured image is determined to be an image that does not include the oral tumor in the third discrimination step, health information indicating that the oral tumor does not exist in the oral cavity of the patient is output.
When the captured image is determined to be an image containing the benign oral tumor in the third discrimination step, benign tumor information indicating that the benign oral tumor is present in the oral cavity of the patient is output. death,
When the captured image is determined to be an image containing the malignant oral tumor in the third discrimination step, malignant tumor information indicating that the malignant oral tumor is present in the oral cavity of the patient is output. A control method characterized by including an output step to be performed.
青色光が照射された患者の口腔内を撮影した撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別装置の制御プログラムであって、
前記撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換機能と、
学習済みの第1判別モデルに対して前記空間周波数スペクトルを入力し、入力された前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第1判別機能と、
学習済みの第2判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第2判別機能と、
前記第1判別機能において前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、又は、前記第2判別機能において前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別機能と、
前記第1判別機能において前記撮影画像が前記口腔内腫瘍を含まない画像であると判別され且つ前記第2判別機能において前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、又は、前記第3判別機能において前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、前記患者の口腔内に前記口腔内腫瘍が存在しないことを示す健常情報を出力し、
前記第3判別機能において前記撮影画像が前記良性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、
前記第3判別機能において前記撮影画像が前記悪性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力機能と
を前記判別装置に実現させるための制御プログラム。
It is a control program of a discriminator that discriminates the presence or absence of an oral tumor and the benign or malignant of an oral tumor using a photographed image of the oral cavity of a patient irradiated with blue light.
A conversion function that generates a spatial frequency spectrum by Fourier transforming the captured image,
The first discrimination model in which the spatial frequency spectrum is input to the trained first discrimination model and whether or not the captured image corresponding to the input spatial frequency spectrum is an image including the oral tumor is determined. Functions and
A second discrimination function that inputs the captured image to the trained second discrimination model and determines whether or not the input captured image is an image containing the oral tumor.
When the captured image is determined to be an image containing the oral tumor in the first discrimination function, or when the captured image is determined to be an image containing the oral tumor in the second discrimination function. In the case, the captured image is input to the trained third discrimination model, and the input captured image includes the benign oral tumor, the malignant oral tumor, and the oral cavity. The third discrimination function that discriminates which of the images does not include the internal tumor, and
When the captured image is determined to be an image that does not contain the oral tumor in the first discrimination function, and the captured image is determined to be an image that does not contain the oral tumor in the second discrimination function. Alternatively, when the captured image is determined by the third discrimination function to be an image that does not include the oral tumor, health information indicating that the oral tumor does not exist in the oral cavity of the patient is output.
When the captured image is determined to be an image containing the benign oral tumor by the third discrimination function, benign tumor information indicating that the benign oral tumor is present in the oral cavity of the patient is output. death,
When the captured image is determined to be an image containing the malignant oral tumor by the third discrimination function, malignant tumor information indicating that the malignant oral tumor is present in the oral cavity of the patient is output. A control program for realizing the output function to be performed by the discrimination device.
青色光が照射された患者の口腔内を撮影し、撮影された撮影画像を出力する端末装置と、前記撮影画像を用いて口腔内腫瘍の存否の判別及び口腔内腫瘍の良悪性の判別を行う判別装置とを有する判別システムであって、
前記端末装置は、
前記青色光を照射する照射部と、
所定の撮影方向の撮影対象空間を撮影する撮影部と、
前記撮影された撮影画像を出力する端末出力部とを有し、
前記判別装置は、
前記撮影画像をフーリエ変換することにより、空間周波数スペクトルを生成する変換部と、
学習済みの第1判別モデルに対して前記空間周波数スペクトルを入力し、入力された前記空間周波数スペクトルに対応する前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第1判別部と、
学習済みの第2判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が前記口腔内腫瘍を含む画像であるか否かを判別する第2判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、又は、前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含む画像であると判別された場合、学習済みの第3判別モデルに対して前記撮影画像を入力し、入力された前記撮影画像が、良性の前記口腔内腫瘍を含む画像、悪性の前記口腔内腫瘍を含む画像、及び前記口腔内腫瘍を含まない画像のいずれであるかを判別する第3判別部と、
前記第1判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別され且つ前記第2判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、又は、前記第3判別部によって前記撮影画像が前記口腔内腫瘍を含まない画像であると判別された場合、前記患者の口腔内に前記口腔内腫瘍が存在しないことを示す健常情報を出力し、
前記第3判別部によって前記撮影画像が前記良性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記良性の口腔内腫瘍が存在することを示す良性腫瘍情報を出力し、
前記第3判別部によって前記撮影画像が前記悪性の口腔内腫瘍を含む画像であると判別された場合、前記患者の口腔内に前記悪性の口腔内腫瘍が存在することを示す悪性腫瘍情報を出力する出力部とを有する
ことを特徴とする判別システム。
A terminal device that photographs the oral cavity of a patient irradiated with blue light and outputs the captured image, and the photographed image is used to determine the presence or absence of an oral tumor and to determine whether the oral tumor is benign or malignant. A discrimination system having a discrimination device,
The terminal device is
The irradiation unit that irradiates the blue light and
A shooting unit that shoots the shooting target space in a predetermined shooting direction,
It has a terminal output unit that outputs the captured image, and has a terminal output unit.
The discrimination device is
A conversion unit that generates a spatial frequency spectrum by Fourier transforming the captured image, and
The first discrimination model in which the spatial frequency spectrum is input to the trained first discrimination model and whether or not the captured image corresponding to the input spatial frequency spectrum is an image including the oral tumor is determined. Department and
A second discrimination unit that inputs the captured image to the trained second discrimination model and determines whether or not the input captured image is an image including the oral tumor.
When the captured image is determined to be an image containing the oral tumor by the first discrimination unit, or when the captured image is determined to be an image containing the oral tumor by the second discrimination unit. In the case, the captured image is input to the trained third discrimination model, and the input captured image includes the benign oral tumor, the malignant oral tumor, and the oral cavity. A third discriminating unit that discriminates which of the images does not contain an internal tumor,
When the captured image is determined to be an image that does not contain the oral tumor by the first discrimination unit, and the captured image is determined to be an image that does not contain the oral tumor by the second discrimination unit. Alternatively, when the captured image is determined by the third discrimination unit to be an image that does not include the oral tumor, health information indicating that the oral tumor does not exist in the oral cavity of the patient is output.
When the captured image is determined by the third discrimination unit to be an image containing the benign oral tumor, benign tumor information indicating that the benign oral tumor is present in the oral cavity of the patient is output. death,
When the photographed image is determined by the third discrimination unit to be an image containing the malignant oral tumor, malignant tumor information indicating that the malignant oral tumor is present in the oral cavity of the patient is output. A discrimination system characterized by having an output unit.
JP2020194146A 2020-11-24 2020-11-24 Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system Pending JP2022082952A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020194146A JP2022082952A (en) 2020-11-24 2020-11-24 Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020194146A JP2022082952A (en) 2020-11-24 2020-11-24 Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system

Publications (1)

Publication Number Publication Date
JP2022082952A true JP2022082952A (en) 2022-06-03

Family

ID=81811393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020194146A Pending JP2022082952A (en) 2020-11-24 2020-11-24 Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system

Country Status (1)

Country Link
JP (1) JP2022082952A (en)

Similar Documents

Publication Publication Date Title
US11382558B2 (en) Skin feature imaging system
JP6340477B2 (en) Distance image acquisition device and distance image acquisition method
US10521924B2 (en) System and method for size estimation of in-vivo objects
US10285624B2 (en) Systems, devices, and methods for estimating bilirubin levels
US9089303B2 (en) Automated assessment of skin lesions using image library
CN112005312A (en) Wound imaging and analysis
JP5594711B2 (en) Method for enhancing in-vivo image contrast
JP2016516475A (en) Estimating bilirubin levels
CN112884666B (en) Image processing method, device and computer storage medium
KR20110094037A (en) Video infrared retinal image scanner
US8913807B1 (en) System and method for detecting anomalies in a tissue imaged in-vivo
JP7286208B2 (en) Biometric face detection method, biometric face detection device, electronic device, and computer program
KR20150049585A (en) Polyp detection apparatus and operating method for the same
CN114693593A (en) Image processing method, device and computer device
CN115153397A (en) Imaging method for endoscopic camera system and endoscopic camera system
JP2009282706A (en) Vein authentication device and vein authentication method
KR102462975B1 (en) Ai-based cervical caner screening service system
JP2022082952A (en) Discrimination device, discrimination terminal device, control method and control program of discrimination device, and discrimination system
CN114341923A (en) Control apparatus, control method, and storage medium
US20160242678A1 (en) Organ image photographing apparatus
CN107317986A (en) Terminal installation, information acquiring system and its information acquisition method
CN114366021A (en) System and method for assessing survival rate of parathyroid gland
JPWO2019077863A1 (en) Identification device and electronic equipment
Outlaw Screening for Neonatal Jaundice by Smartphone Sclera Imaging
JP2023543255A (en) System and method for detecting gastrointestinal diseases

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604