JP2023543255A - System and method for detecting gastrointestinal diseases - Google Patents

System and method for detecting gastrointestinal diseases Download PDF

Info

Publication number
JP2023543255A
JP2023543255A JP2023519167A JP2023519167A JP2023543255A JP 2023543255 A JP2023543255 A JP 2023543255A JP 2023519167 A JP2023519167 A JP 2023519167A JP 2023519167 A JP2023519167 A JP 2023519167A JP 2023543255 A JP2023543255 A JP 2023543255A
Authority
JP
Japan
Prior art keywords
images
subject
tongue
representations
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023519167A
Other languages
Japanese (ja)
Inventor
アサフ ゴラン、
ディビッド レイニス、
アリエル シッフ、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jubaan Ltd
Original Assignee
Jubaan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jubaan Ltd filed Critical Jubaan Ltd
Publication of JP2023543255A publication Critical patent/JP2023543255A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Endoscopes (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Medicines Containing Plant Substances (AREA)

Abstract

少なくとも1つのハードウェアプロセッサと、少なくとも1つのプログラムコードを記憶した非一時的コンピュータ可読記憶媒体とを備えたシステムである。プログラムコードは、n個の画像を受信して前処理するために少なくとも1つのハードウェアプロセッサによって実行可能である。前処理は画像選択および画像調整の少なくとも1つを含み、それによってn’個の画像を取得し、少なくとも1つの特徴強調アルゴリズムを使用して前記n’個の画像の各々のm個の表現を生成し、前記n’*m個の表現に機械学習アルゴリズムを適用することによって前記n’*m個の表現をクラスに分類する。クラスは、少なくとも消化器疾患について陽性および消化器疾患について陰性を含み、前記n’*m個の表現の少なくとも所定の割合/パーセンテージが消化器疾患について陽性であると分類されるとき、被験者が消化器疾患に罹患していると識別される。【選択図】図2A system includes at least one hardware processor and a non-transitory computer readable storage medium having at least one program code stored thereon. Program code is executable by at least one hardware processor to receive and preprocess the n images. The preprocessing includes at least one of image selection and image adjustment, whereby n' images are acquired and m representations of each of said n' images are created using at least one feature enhancement algorithm. and classifying the n'*m representations into classes by applying a machine learning algorithm to the n'*m representations. The class includes at least positive for gastrointestinal disease and negative for gastrointestinal disease, and when at least a predetermined proportion/percentage of said n'*m expressions are classified as positive for gastrointestinal disease, be identified as suffering from an organic disease. [Selection diagram] Figure 2

Description

本発明はそのいくつかの実施形態において、舌の診断に関し、より詳細には、限定されないが、消化器疾患の検出に関する。 The present invention, in some of its embodiments, relates to tongue diagnosis, and more particularly, but not exclusively, to the detection of gastrointestinal disorders.

舌の診断は、伝統的な漢方医学における一般的な診断ツールである。被験者の舌の観察は、医師が被験者の症状および/または病態を診断することを可能にする。施術者によって観察される舌の特性のいくつかは、形状、色、質感、幾何学的形状、および形態である。そのような特徴を観察することによって、医師は、非侵襲的方法で被験者の病態を検出することができる。 Tongue diagnosis is a common diagnostic tool in traditional Chinese medicine. Observation of a subject's tongue allows a physician to diagnose the subject's symptoms and/or pathology. Some of the characteristics of the tongue observed by the practitioner are shape, color, texture, geometry, and morphology. By observing such characteristics, a physician can detect a subject's medical condition in a non-invasive manner.

今日、下部消化器病態の検出のために一般的に使用される方法には、便グアヤック(guaiac)試験、便潜血試験(FOBT)および便免疫化学試験(FIT)が含まれる。 Today, commonly used methods for the detection of lower gastrointestinal pathologies include the fecal guaiac test, the fecal occult blood test (FOBT), and the fecal immunochemical test (FIT).

FITは糞便中のヒト血液を検出するために特異的抗体を使用し、それは、定性的グアヤク便潜血試験(FOBT)などの他のタイプの糞便試験よりも消化器病理学にとってより決定的である。グアヤック試験は、食事(例えば、赤身肉)または特定の薬物療法の結果として消化器系に存在し得る他のタイプの血液に起因して、偽陽性結果をもたらすことが多い。FITは、FOBTよりも、感度および特異度の両方が高い。 FIT uses specific antibodies to detect human blood in feces, and it is more conclusive for gastrointestinal pathology than other types of fecal tests, such as the qualitative guaiac fecal occult blood test (FOBT). . The guaiac test often yields false-positive results due to other types of blood that may be present in the digestive system as a result of diet (e.g., red meat) or certain medications. FIT is both more sensitive and more specific than FOBT.

FOBTまたはFITは一般に、40%~70%の範囲の検出感度率を有する。しかしながら、典型的には、結果の感度を高めるために、FOBTまたはFITを用いて、連続3日間にわたって3回被験者を試験することが推奨される。各キットのコストは通常、7~35ドルの範囲であり、検査についての各検査機関分析の結果を受け取るまでに約2週間かかる。 FOBT or FIT generally has a detection sensitivity rate in the range of 40% to 70%. However, it is typically recommended to test subjects three times over three consecutive days using FOBT or FIT to increase the sensitivity of the results. The cost of each kit typically ranges from $7 to $35, and it takes approximately two weeks to receive the results of each laboratory analysis for the test.

今日、上部消化器病態を検出するための一般的な手順は、消化器内への内視鏡を通した視覚補助の挿入を伴う胃内視鏡検査を含む。したがって、上部消化器の出血または上部消化器の他の病態を同定するために、被験者は侵襲的処置を受ける。そのような処置のための準備は、処置の前に6~8時間、食物および液体を避けることを含む。 Today, a common procedure for detecting upper gastrointestinal pathologies involves gastroscopy, which involves the insertion of a visual aid through an endoscope into the gastrointestinal tract. Therefore, subjects undergo invasive procedures to identify upper gastrointestinal bleeding or other upper gastrointestinal pathologies. Preparation for such treatment includes avoiding food and liquids for 6 to 8 hours prior to treatment.

関連技術の前述の例およびそれに関連する限定は例示的なものであり、排他的なものではないことが意図される。関連技術の他の制限は本明細書を読み、図面を検討することにより、当業者に明らかになるであろう。 The foregoing examples of related art and their associated limitations are intended to be illustrative, not exclusive. Other limitations of the related art will become apparent to those skilled in the art from reading this specification and examining the drawings.

以下の実施形態およびその態様は例示的かつ例示的であることが意図され、範囲を限定することが意図されない、システム、ツール、および方法と併せて説明され、例示される。 The following embodiments and aspects thereof are described and illustrated in conjunction with systems, tools, and methods that are intended to be exemplary and exemplary, and not intended to be limiting in scope.

本発明のいくつかの実施形態によれば、少なくとも1つのハードウェアプロセッサと、少なくとも1つのハードウェアプロセッサによって実行可能なプログラムコードを記憶した非一時的コンピュータ読取可能記憶媒体とを含むシステムが提供される。プログラムコードは、それぞれが被験者の舌を表すn個の画像を受信し、n個の画像を前処理する。前処理は、画像選択および画像調整の少なくとも1つを含み、それによってn’個の画像を取得し、少なくとも1つの特徴強調アルゴリズムを使用してn’個の画像の各々のm個の表現(presentation)を生成する。n’*m個の表現に機械学習アルゴリズムを適用することによってn’*m個の表現(すなわち、n’個の画像のm個の表現)を分類する。クラスは、少なくとも、消化器疾患について陽性および消化器疾患について陰性を含み、n’*m個の表現の少なくとも所定の割合/パーセンテージが消化器疾患について陽性であると分類されるとき、被験者は消化器疾患に罹患していると識別される。 According to some embodiments of the invention, a system is provided that includes at least one hardware processor and a non-transitory computer-readable storage medium storing program code executable by the at least one hardware processor. Ru. The program code receives n images, each representing the subject's tongue, and preprocesses the n images. The preprocessing includes at least one of image selection and image adjustment, thereby obtaining n' images and using at least one feature enhancement algorithm to create m representations ( presentation). Classify the n'*m representations (i.e., m representations of n' images) by applying a machine learning algorithm to the n'*m representations. The class includes at least positive for gastrointestinal disease and negative for gastrointestinal disease, and when at least a predetermined proportion/percentage of the n'*m expressions are classified as positive for gastrointestinal disease, the subject be identified as suffering from an organic disease.

本発明のいくつかの実施形態によれば、少なくとも1つのハードウェアプロセッサによって実行可能なプログラムコードを含むコンピュータプログラム製品が提供される。プログラムコードは、被験者の舌または舌の一部を表すn個の画像を受信し、n個の画像を前処理する。前処理は画像選択および画像調整の少なくとも1つを含み、それによってn’個の画像を取得し、少なくとも1つの特徴強調アルゴリズムを使用してn’個の画像の各々のm個の表現を生成し、n’*m個の表現に機械学習アルゴリズムを適用することによってn’個の画像を少なくとも2つのクラスに分類する。少なくとも2つのクラスは、消化器疾患について陽性および消化器疾患について陰性を含み、n’*m個の表現の少なくとも所定の割合/パーセンテージが消化器疾患について陽性であると分類されるとき、被験者は消化器疾患に罹患していると識別される。 According to some embodiments of the invention, a computer program product is provided that includes program code executable by at least one hardware processor. The program code receives n images representing the subject's tongue or a portion of the tongue and preprocesses the n images. The preprocessing includes at least one of image selection and image adjustment, thereby acquiring n' images and generating m representations of each of the n' images using at least one feature enhancement algorithm. Then, the n' images are classified into at least two classes by applying a machine learning algorithm to the n'*m representations. When at least two classes include positive for gastrointestinal disease and negative for gastrointestinal disease, and at least a predetermined proportion/percentage of the n'*m expressions are classified as positive for gastrointestinal disease, the subject Identified as having a gastrointestinal disease.

いくつかの実施形態によれば、画像選択は動き検出を含む。動き検出では、動きの間に撮影された画像に1つまたは複数の動きベクトルが割り当てられ、続いて、検出された画像から、ベクトルが所定の閾値を超える画像を除外(sorting out)する。いくつかの実施形態によれば、画像調整は、n’個の画像のコントラスト、輝度、レベル、色相、鮮明度、および彩度のうちの1つまたは複数の調整を含む。
いくつかの実施形態によれば、プログラムコードは、消化器疾患について陽性であると分類されるn’*m個の表現に少なくとも部分的に基づいて、結腸関連病態および胃関連病態の1つまたは複数のサブクラスに、被験者をさらに分類するように実行可能である。いくつかの実施形態によれば、サブクラスは、結腸特異的病態の2つ以上のサブクラスをさらに含む。いくつかの実施形態によれば、結腸特異的病態の2つ以上のサブクラスは、結腸直腸癌(CRC)、ポリープ、異なるタイプのポリープ、および下部腸管(IBD)を含む炎症性腸疾患から選択される。
According to some embodiments, image selection includes motion detection. In motion detection, one or more motion vectors are assigned to images captured during motion, and then images whose vectors exceed a predetermined threshold are sorted out from the detected images. According to some embodiments, the image adjustments include adjusting one or more of the n'images' contrast, brightness, level, hue, sharpness, and saturation.
According to some embodiments, the program code determines one or more of a colon-related condition and a stomach-related condition based at least in part on the n'*m expressions that are classified as positive for a gastrointestinal disease. It is possible to further classify the subject into multiple subclasses. According to some embodiments, the subclass further includes two or more subclasses of colon-specific conditions. According to some embodiments, the two or more subclasses of colon-specific pathologies are selected from colorectal cancer (CRC), polyps, different types of polyps, and inflammatory bowel disease including lower intestinal tract (IBD). Ru.

いくつかの実施形態によれば、結腸特異的病態のサブクラスは、腺腫性ポリープ、過形成性ポリープ、鋸歯状ポリープ、炎症性ポリープ、および絨毛腺腫ポリープ、ならびに複合ポリープから選択される。いくつかの実施形態によれば、クラスは、上部消化器特異的病態の2つ以上のサブクラスをさらに含む。いくつかの実施形態によれば、上部消化器特異的病態の2つ以上のサブクラスは、胃悪性腫瘍、胃炎、食道悪性腫瘍、食道炎および十二指腸炎から選択される。 According to some embodiments, the subclass of colon-specific pathology is selected from adenomatous polyps, hyperplastic polyps, serrated polyps, inflammatory polyps, and villous adenomatous polyps, and complex polyps. According to some embodiments, the class further includes two or more subclasses of upper gastrointestinal-specific conditions. According to some embodiments, the two or more subclasses of upper gastrointestinal-specific conditions are selected from gastric malignancies, gastritis, esophageal malignancies, esophagitis, and duodenitis.

いくつかの実施形態によれば、サブクラスは、疾患の悪性度に関連するスコアを含む。いくつかの実施形態によれば、サブクラスは、被験者が1つ以上の病態において悪性腫瘍を発症する可能性があることに対応するスコアを含む。いくつかの実施形態によれば、m個の表現は、被験者の描写された舌の3次元表現をさらに含むことができる。 According to some embodiments, the subclass includes a score related to the malignancy of the disease. According to some embodiments, a subclass includes a score corresponding to the likelihood that a subject will develop a malignancy in one or more disease states. According to some embodiments, the m representations may further include a three-dimensional representation of the subject's depicted tongue.

いくつかの実施形態によれば、プログラムは、複数の異なるタイプの撮像装置からn個の画像を受信するように構成される。いくつかの実施形態によれば、プログラムは、受信した画像を正規化するように実行可能である。いくつかの実施形態によれば、ハードウェアプロセッサは少なくとも1つの撮像装置に結合可能であり、プログラムコードは、被験者の舌をリアルタイムで識別するように実行可能である。いくつかの実施形態によれば、プログラムコードは、n個の画像を撮影するように実行可能である。 According to some embodiments, the program is configured to receive n images from a plurality of different types of imaging devices. According to some embodiments, the program is executable to normalize the received image. According to some embodiments, the hardware processor is coupled to at least one imaging device and the program code is executable to identify the subject's tongue in real time. According to some embodiments, the program code is executable to take n images.

いくつかの実施形態によれば、少なくとも1つのハードウェアデータと、プログラムコードを記憶した非一時的コンピュータ可読記憶媒体が提供される。プログラムコードは、n個の画像を受信するために少なくとも1つのハードウェアプロセッサによって実行可能である。各々が被験者の舌(または舌の一部)を描写するn個の画像を受信して前処理する。前処理は、画像選択および画像調整の少なくとも1つを含み、n’個の画像を取得する。前処理は、少なくとも1つの特徴強調および/または抽出アルゴリズムを使用して、n’個の画像の各々のm個の表現を生成し、n’*m個の表現に機械学習アルゴリズムおよび任意選択で被験者についての追加データを適用することによって、n’*m個の表現に少なくとも部分的に基づいて被験者を分類する。クラスは、少なくとも消化器疾患について陽性であることおよび消化器疾患について陰性であることを含み、n’*m個の表現の少なくとも所定の割合/パーセンテージが陽性であると分類されるとき、被験者は消化器疾患に罹患していると識別される。いくつかの実施形態によれば、被験者に関する追加のデータは、例えば、被験者の血圧、心拍数、呼吸数、年齢、性別、食習慣、民族的背景、および喫煙習慣のうちの1つまたは複数を含み得る。 According to some embodiments, a non-transitory computer readable storage medium having at least one hardware data and program code stored thereon is provided. Program code is executable by at least one hardware processor to receive n images. Receive and preprocess n images, each depicting the subject's tongue (or a portion of the tongue). The pre-processing includes at least one of image selection and image adjustment to obtain n' images. The preprocessing involves generating m representations of each of the n' images using at least one feature enhancement and/or extraction algorithm, and applying a machine learning algorithm and optionally a machine learning algorithm to the n'*m representations. The subject is classified based at least in part on the n'*m expressions by applying additional data about the subject. The class includes at least positive for gastrointestinal disease and negative for gastrointestinal disease, and when at least a predetermined proportion/percentage of the n'*m expressions are classified as positive, the subject Identified as having a gastrointestinal disease. According to some embodiments, the additional data about the subject includes, for example, one or more of the subject's blood pressure, heart rate, respiratory rate, age, gender, dietary habits, ethnic background, and smoking habits. may be included.

いくつかの実施形態では画像選択が動き検出を含み、動き検出では動きの間に撮影された画像に1つまたは複数の動きベクトルが割り当てられ、続いて、検出された画像から、ベクトルが所定の閾値を超える画像が除外される。いくつかの実施形態では、画像調整は、n’個の画像および/またはn’*m個の表現のコントラスト、輝度、テクスチャ、レベル、色相、および彩度のうちの1つまたは複数の調整を含む。いくつかの実施形態では、画像調整は、n個の画像の一部または全部から追加の画像を作成すること、例えば、高ダイナミックレンジ(HDR)撮像を含む。 In some embodiments, the image selection includes motion estimation, where one or more motion vectors are assigned to images taken during the motion, and the vectors are then assigned from the detected images to a predetermined Images that exceed the threshold are excluded. In some embodiments, image adjustments include adjusting one or more of contrast, brightness, texture, levels, hue, and saturation of n' images and/or n'*m representations. include. In some embodiments, image adjustment includes creating additional images from some or all of the n images, such as high dynamic range (HDR) imaging.

いくつかの実施形態では、プログラムコードは、消化器疾患について陽性であると分類されるn’*m個の表現に少なくとも部分的に基づいて、被験者を結腸関連病態および胃関連病態の1つまたは複数のサブクラスにさらに分類するように実行可能である。いくつかの実施形態では、サブクラスが結腸特異的病態の2つ以上のクラスをさらに含む。いくつかの実施形態では、結腸特異的病態の2つ以上のサブクラスが結腸直腸癌(CRC)、ポリープ、および炎症性腸疾患(IBD)から選択される。いくつかの実施形態では、サブクラスが胃特異的病態の2つ以上のクラスをさらに含む。いくつかの実施形態では、胃特異的病態の2つ以上のサブクラスが胃悪性腫瘍、胃炎、食道悪性腫瘍、食道炎および十二指腸炎から選択される。 In some embodiments, the program code assigns the subject one or more of a colon-related condition and a stomach-related condition based at least in part on the n'*m expressions that are classified as positive for a gastrointestinal condition. Further classification into multiple subclasses is possible. In some embodiments, the subclass further includes two or more classes of colon-specific conditions. In some embodiments, the two or more subclasses of colon-specific pathologies are selected from colorectal cancer (CRC), polyps, and inflammatory bowel disease (IBD). In some embodiments, the subclass further includes two or more classes of gastric-specific conditions. In some embodiments, the two or more subclasses of gastric-specific conditions are selected from gastric malignancies, gastritis, esophageal malignancies, esophagitis, and duodenitis.

いくつかの実施形態では、m個の表現が被験者の描写された舌の3次元表現を含む。いくつかの実施形態では、プログラムは、複数の異なるタイプの撮像装置からn個の画像を受信するように構成される。いくつかの実施形態では、プログラムは、受信した画像を正規化するように実行可能である。いくつかの実施形態では、m個の表現が元のn個の画像のうちの少なくとも1つ(すなわち、撮影されたn個の画像のうちの少なくとも1つ)を含む。いくつかの実施形態では、m個の表現は画像であってもよい。いくつかの実施形態では、m個の表現が1つまたは複数の画像フォーマットのファイルを含むことができる。 In some embodiments, the m representations include three-dimensional representations of the subject's depicted tongue. In some embodiments, the program is configured to receive n images from multiple different types of imaging devices. In some embodiments, the program is executable to normalize the received image. In some embodiments, the m representations include at least one of the original n images (ie, at least one of the n images taken). In some embodiments, the m representations may be images. In some embodiments, the m representations may include files in one or more image formats.

いくつかの実施形態では、ハードウェアプロセッサが少なくとも1つの撮像装置に結合可能であり、プログラムコードは被験者の舌をリアルタイムで識別するように実行可能である。いくつかの実施形態では、プログラムコードは、n個の画像を撮影するように実行可能である。 In some embodiments, a hardware processor is coupled to the at least one imaging device and the program code is executable to identify the subject's tongue in real time. In some embodiments, the program code is executable to take n images.

上述の例示的な態様および実施形態に加えて、さらなる態様および実施形態は、図面を参照することによって、および以下の詳細な説明を検討することによって明らかになるであろう。 In addition to the exemplary aspects and embodiments described above, further aspects and embodiments will become apparent by reference to the drawings and by consideration of the detailed description below.

例示的な実施形態は、参照される図に示される。図中に示される構成要素および特徴の寸法は、一般に、表示の便宜および明瞭さのために選択され、必ずしも縮尺通りに示されない。図面を以下に列挙する。
図1は、本発明のいくつかの実施形態による、消化器疾患を検出するためのシステムの概略的な簡略図である。 図2は、本発明のいくつかの実施形態による、消化器疾患の検出のためのプロセスにおける機能ステップのフローチャートである。 図3は、本発明のいくつかの実施形態による、例示的なセグメントマップの正面概略図である。 図4は、本発明のいくつかの実施形態による、消化器疾患を検出するための例示的な撮像装置の簡略化された斜視図である。
Exemplary embodiments are illustrated in the referenced figures. Dimensions of components and features illustrated in the figures are generally chosen for convenience and clarity of presentation and are not necessarily drawn to scale. The drawings are listed below.
FIG. 1 is a schematic simplified diagram of a system for detecting gastrointestinal diseases, according to some embodiments of the invention. FIG. 2 is a flowchart of functional steps in a process for detection of gastrointestinal diseases, according to some embodiments of the invention. FIG. 3 is a front schematic view of an exemplary segment map, according to some embodiments of the invention. FIG. 4 is a simplified perspective view of an exemplary imaging device for detecting gastrointestinal disease, according to some embodiments of the invention.

本発明のいくつかの実施形態の一態様によれば、画像処理、コンピュータビジョン、カラーサイエンス、および/またはディープラーニングを使用して、被験者の舌の1つまたは複数の画像に基づいて消化器疾患を検出するためのシステムおよび方法が提供される。 According to one aspect of some embodiments of the present invention, image processing, computer vision, color science, and/or deep learning is used to determine whether a patient has a gastrointestinal disease based on one or more images of a subject's tongue. Systems and methods are provided for detecting.

いくつかの実施形態では、システムは、少なくとも1つのハードウェアプロセッサと、プログラムコードが記憶された記憶モジュールとを備える。いくつかの実施形態では、プログラムコードは、少なくとも1つのハードウェアプロセッサによって実行可能であり、それぞれが被験者の舌を示すn個の画像を受信し、n個の画像を前処理する。前処理は、画像選択および画像調整少なくとも1つを含み、それによってn’個の画像を取得する。いくつかの実施形態では、プログラムコードは、少なくとも1つの特徴強調アルゴリズムを使用してn’個の画像の各々のm個の表現を生成し、訓練された機械学習アルゴリズムをn’*m個の表現に適用することによって、n’*m個の表現に少なくとも部分的に基づいて被験者を分類するように実行可能である。いくつかの実施形態では、クラスが、少なくとも、消化器疾患について陽性および消化器疾患について陰性を含む。いくつかの実施形態では、プログラムコードは、n’*m個の表現の少なくとも所定のパーセンテージが消化器疾患について陽性と分類されるとき、被験者が消化器疾患に罹患していると識別するように実行可能である。 In some embodiments, the system includes at least one hardware processor and a storage module with program code stored thereon. In some embodiments, the program code is executable by at least one hardware processor to receive n images, each showing a tongue of a subject, and to preprocess the n images. Pre-processing includes at least one of image selection and image adjustment, thereby obtaining n' images. In some embodiments, the program code generates m representations of each of the n' images using at least one feature enhancement algorithm, and generates m representations of each of the n' images using the at least one feature enhancement algorithm, and generates m representations of each of the n' By applying it to the expressions, it is possible to classify the subject based at least in part on the n'*m expressions. In some embodiments, the class includes at least positive for gastrointestinal disease and negative for gastrointestinal disease. In some embodiments, the program code is configured to identify a subject as having a gastrointestinal disease when at least a predetermined percentage of the n'*m expressions are classified as positive for the gastrointestinal disease. It is doable.

本明細書に開示されるシステムおよび方法の潜在的な利点は、消化器疾患の検出が被験者の舌の1つまたは複数の画像に基づいており、したがって非侵襲的であることである。いくつかの実施形態では、消化器疾患の検出は自動である。いくつかの実施形態では、検出はリアルタイムで分析される。いくつかの実施形態では、消化器疾患を検出するためのシステムおよび方法は、少なくとも70%の感度および/または特異度で病態を検出する。 A potential advantage of the systems and methods disclosed herein is that detection of gastrointestinal disease is based on one or more images of a subject's tongue and is therefore non-invasive. In some embodiments, detection of gastrointestinal disease is automatic. In some embodiments, detection is analyzed in real time. In some embodiments, systems and methods for detecting gastrointestinal diseases detect the condition with a sensitivity and/or specificity of at least 70%.

いくつかの実施形態では、消化器疾患を検出するためのシステムおよび方法は、舌の画像を取得するために一般的または汎用カメラを使用することを含み、それに基づいて病態が検出される。いくつかの実施形態では、システムおよび方法は、例えば、スマートフォンカメラを使用して自分の舌の画像を撮影することによって、自宅で、および/または施術者を訪問することなく、ユーザによって使用され得る。いくつかの実施形態では、消化器疾患を検出するためのシステムおよび方法は、被験者の舌の画像を得る日または前日の間、いかなる準備または特別な食事も必要としない。例外的には、いくつかの実施形態において、画像を得る前に、顔料/染料を有する食品および/または飲料を摂取することは防止されるべきである。それらの製品の着色が被験者の舌の自然な色をマスクしないようにするためである。 In some embodiments, systems and methods for detecting gastrointestinal diseases include using a common or universal camera to obtain images of the tongue, based on which the pathology is detected. In some embodiments, the systems and methods may be used by a user at home and/or without visiting a practitioner, for example, by taking an image of their tongue using a smartphone camera. . In some embodiments, the system and method for detecting gastrointestinal disease does not require any preparation or special diet during the day or the day before obtaining images of the subject's tongue. Exceptionally, in some embodiments, ingestion of food and/or beverages with pigments/dyes should be prevented prior to obtaining the image. This is to ensure that the coloring of those products does not mask the natural color of the subject's tongue.

舌の画像を得る日または前日の間に、いかなる準備または特別な食事も必要としない消化器疾患の検出のためのシステムおよび方法の潜在的な利点は、被験者が検査の当日または検査日に至るまでの食習慣を変更する必要がないことである。例えば、被験者に処方された経口薬剤は、定期的に服用することができる。 A potential advantage of a system and method for the detection of gastrointestinal diseases that does not require any preparation or special diet on or before the day the tongue image is obtained is that the subject does not have to undergo any preparation or special diet leading up to or on the day of the test. There is no need to change your eating habits. For example, oral medications prescribed to a subject can be taken on a regular basis.

いくつかの実施形態では、消化器疾患を検出するためのシステムおよび方法は、FOBTおよびFITなどの一般的に使用される検出試験に取って代わるように構成される。いくつかの実施形態では、消化器疾患を検出するためのシステムおよび方法は、FOBTに関連する少なくとも3つの病態を同定する。 In some embodiments, systems and methods for detecting gastrointestinal diseases are configured to replace commonly used detection tests such as FOBT and FIT. In some embodiments, the systems and methods for detecting gastrointestinal disease identify at least three conditions associated with FOBT.

本開示は、消化器疾患を検出するように訓練された1つまたは複数の機械学習モデルを提供する。これは、消化器疾患があると診断された被験者の舌のラベル付き画像を使用してディープニューラルネットワークを訓練することによって開発された。いくつかの実施形態では、ここに開示する機械学習モデルは、既知の分類技法と比較して、より高い予測精度を提供する。いくつかの実施形態では、本開示は、消化器疾患の早期予測のための、自動化され、正確で、標準化された機械学習モデルを生成するために、深層学習技術を使用する。 The present disclosure provides one or more machine learning models trained to detect gastrointestinal diseases. It was developed by training a deep neural network using labeled images of the tongues of subjects diagnosed with digestive disorders. In some embodiments, the machine learning models disclosed herein provide higher predictive accuracy compared to known classification techniques. In some embodiments, the present disclosure uses deep learning techniques to generate automated, accurate, standardized machine learning models for early prediction of gastrointestinal diseases.

いくつかの実施形態では、本開示は、被験者の舌の少なくとも一部を描写する画像データを含む訓練データに少なくとも部分的に基づいて、1つまたは複数の機械学習モデルを訓練することを提供する。いくつかの実施形態では、画像データは、画像および一連の画像のうちの少なくとも1つを含む。いくつかの実施形態では、画像データは、ビデオセグメント、動きベクトルセグメント、および3次元ビデオセグメントのうちの少なくとも1つを含む。いくつかの実施形態では、画像データは、被験者の舌(または舌の一部)の(元の)撮影された画像を含む。いくつかの実施形態では、画像データは、被験者の舌の1つまたは複数の撮影された画像の1つまたは複数の表現を含む。いくつかの実施形態では、表現は画像であってもよい。いくつかの実施形態では、表現は、1つまたは複数の画像フォーマットのファイルを含むことができる。 In some embodiments, the present disclosure provides for training one or more machine learning models based at least in part on training data that includes image data depicting at least a portion of a subject's tongue. . In some embodiments, the image data includes at least one of an image and a series of images. In some embodiments, the image data includes at least one of a video segment, a motion vector segment, and a three-dimensional video segment. In some embodiments, the image data comprises an (original) captured image of the subject's tongue (or part of the tongue). In some embodiments, the image data includes one or more representations of one or more captured images of the subject's tongue. In some embodiments, the representation may be an image. In some embodiments, a representation may include files in one or more image formats.

いくつかの実施形態では、画像データが被験者の舌および/または舌の一部を描写する。いくつかの実施形態では、本明細書の他の箇所でより詳細に説明するように、画像データは、画像データが撮影された時間、および別の画像の撮影時間に関連して画像が撮影された相対時間、の少なくとも1つを示すデータを含む。それぞれの可能性は別個の実施形態である。 In some embodiments, the image data depicts the subject's tongue and/or a portion of the tongue. In some embodiments, the image data is captured relative to the time at which the image data was captured and the time at which another image was captured, as described in more detail elsewhere herein. The data includes data indicating at least one of the following relative times. Each possibility is a separate embodiment.

いくつかの実施形態では、画像データは、被験者および/または被験者の舌ごとに、n個の画像を含む。いくつかの実施形態では、n個の画像が1つまたは複数の画像を含む。いくつかの実施形態では、n個の画像は複数の画像を含む。いくつかの実施形態では、画像データは、アクティブピクセルセンサまたは電荷結合素子(CCD)などの画像センサを使用して取得される。いくつかの実施形態では、画像データは、RGB撮像技術を使用して取得される。いくつかの実施形態では、画像データは、デジタルトポロジ技術を使用して取得される。いくつかの実施形態では、画像データは、異なる撮像機器を使用して撮影されてもよい。いくつかの実施形態では、画像データは、被験者の舌からの反射波長の全部または少なくとも一部を合焦させることによって得られる。いくつかの実施形態では、波長は380nm~800nmの範囲である。いくつかの実施形態では、反射波長が少なくとも100mmの被写界深度を可能にする。 In some embodiments, the image data includes n images for each subject and/or the subject's tongue. In some embodiments, the n images include one or more images. In some embodiments, the n images include multiple images. In some embodiments, image data is acquired using an image sensor such as an active pixel sensor or a charge coupled device (CCD). In some embodiments, image data is acquired using RGB imaging techniques. In some embodiments, image data is obtained using digital topology techniques. In some embodiments, image data may be captured using different imaging equipment. In some embodiments, image data is obtained by focusing all or at least some of the reflected wavelengths from the subject's tongue. In some embodiments, the wavelength ranges from 380 nm to 800 nm. In some embodiments, the reflected wavelength allows for a depth of field of at least 100 mm.

いくつかの実施形態によれば、本明細書の他の箇所でより詳細に説明されるように、画像データは、被験者の舌の規定された照明下で取得される。いくつかの実施形態では、画像データは、被験者の舌が最適な色忠実度で得られるように、舌が規定された照明で照明されている間に得られる。いくつかの実施形態では、規定された照明を少なくとも部分的に生成するように構成されたレーザおよびフィルタのうちの少なくとも1つを使用して舌が照明される。いくつかの実施形態では、システムは、規定された照明を連続的に較正するように構成される。 According to some embodiments, image data is acquired under defined illumination of the subject's tongue, as described in more detail elsewhere herein. In some embodiments, image data is obtained while the subject's tongue is illuminated with defined illumination such that the tongue is obtained with optimal color fidelity. In some embodiments, the tongue is illuminated using at least one of a laser and a filter configured to at least partially produce defined illumination. In some embodiments, the system is configured to continuously calibrate the prescribed illumination.

いくつかの実施形態によれば、規定された照明は、被験者の舌の色と、撮影されたn個の画像とが条件等色(metamerically matched)であるように構成される。いくつかの実施形態では、本明細書の他の箇所でより詳細に説明されるように、システムは、被験者の舌の色と撮影されたn個の画像との間の条件等色を維持するために、照明部材の照明タイプ、照明スペクトル、および/または位置を変更するように構成される。 According to some embodiments, the prescribed illumination is configured such that the color of the subject's tongue and the n images taken are metamerically matched. In some embodiments, the system maintains conditional matching between the subject's tongue color and the n images taken, as described in more detail elsewhere herein. The illumination type, illumination spectrum, and/or position of the illumination member is configured to be changed for the purpose of changing the illumination type, illumination spectrum, and/or position of the illumination member.

いくつかの実施形態では、消化器疾患を検出するためのシステムは、様々な撮像機器からの異なる画像データを受信、正規化、および/または比較するように構成される。いくつかの実施形態では、画像データは、n個の画像に対応するn’個の画像データセットによって表される。いくつかの実施形態では、n’個の画像データセットは、前処理および画像処理分析の少なくとも1つにおいて、n個の画像を操作することによって取得される。いくつかの実施形態では、画像の操作は、色忠実度、テクスチャエンハンスメント、局所コントラストエンハンスメント、局所カラーコントラストエンハンスメント、幾何学的特徴エンハンスメント、画像セグメンテーション、画像カラーセグメンテーション、及び動き検出のうちの少なくとも1つを含む。それぞれの可能性は別個の実施形態である。 In some embodiments, a system for detecting gastrointestinal disease is configured to receive, normalize, and/or compare different image data from various imaging devices. In some embodiments, the image data is represented by n' image datasets corresponding to n images. In some embodiments, the n' image datasets are obtained by manipulating the n images in at least one of preprocessing and image processing analysis. In some embodiments, the image manipulation includes at least one of color fidelity, texture enhancement, local contrast enhancement, local color contrast enhancement, geometric feature enhancement, image segmentation, image color segmentation, and motion detection. including. Each possibility is a separate embodiment.

いくつかの実施形態では、画像の操作は、画像によって描写される舌の3次元表現、画像の撮影中の舌の動きに関連する動作または動き検出、およびn’個の画像および/またはn個の画像のうちの1つまたは複数を使用するビデオの生成、の少なくとも1つを含む。それぞれの可能性は別個の実施形態である。いくつかの実施形態では、画像データセットは、操作されたn’個の画像を含む。いくつかの実施形態では、画像の操作は、画像の撮影中の舌の動きによって引き起こされるモーションブラー、歪み、および/またはデータ複製を考慮することを含む。 In some embodiments, the manipulation of the images includes a three-dimensional representation of the tongue depicted by the images, motion or motion detection associated with the movement of the tongue during the capture of the images, and n' images and/or n images. generating a video using one or more of the images. Each possibility is a separate embodiment. In some embodiments, the image dataset includes n' manipulated images. In some embodiments, image manipulation includes accounting for motion blur, distortion, and/or data duplication caused by tongue movement during image capture.

いくつかの実施形態では、消化器疾患を検出するためのシステムおよび方法は、訓練された機械学習モジュールを使用して、画像データセットのn’個の画像の少なくとも一部に基づいて消化器疾患を検出するように構成される。いくつかの実施形態では、機械学習モジュールは、1つまたは複数の診断された消化器疾患を有する1つまたは複数の被験者の舌に関連するn’個の画像の画像データセット上で訓練される。 In some embodiments, the system and method for detecting a gastrointestinal disease uses a trained machine learning module to detect a gastrointestinal disease based on at least a portion of n' images of an image dataset. configured to detect. In some embodiments, the machine learning module is trained on an image dataset of n' images related to the tongue of one or more subjects with one or more diagnosed gastrointestinal diseases. .

いくつかの実施形態では、機械学習モジュールは、画像データのn個の画像および/または画像データセットのn’個の画像を受信するように構成される。いくつかの実施形態では、機械学習モジュールは、受信された画像データを、消化器疾患に関連するクラスおよび/またはサブクラスに分類するように訓練される。いくつかの実施形態では、消化器疾患を検出するためのシステムおよび/または方法は、n’画像の各々のm個の表現を生成するように構成される。いくつかの実施形態では、システムおよび/または方法は、n’個の画像の少なくとも一部のm個の表現を生成するように構成される。いくつかの実施形態では、機械学習モジュールがm個の表現を受信するように構成される。いくつかの実施形態では、機械学習モジュールは、受信されたm個の表現を、消化器疾患に関連するクラスおよび/またはサブクラスに分類するように訓練される。 In some embodiments, the machine learning module is configured to receive n images of image data and/or n' images of an image dataset. In some embodiments, the machine learning module is trained to classify received image data into classes and/or subclasses related to gastrointestinal diseases. In some embodiments, a system and/or method for detecting a gastrointestinal disease is configured to generate m representations of each of the n' images. In some embodiments, the system and/or method is configured to generate m representations of at least a portion of the n' images. In some embodiments, the machine learning module is configured to receive m representations. In some embodiments, the machine learning module is trained to classify the m received representations into classes and/or subclasses related to gastrointestinal diseases.

いくつかの実施形態では、クラスは、下部消化器病態について陰性、下部消化器病態について陽性、上部消化器関連病態について陰性、および上部消化器関連病態について陽性、のうちの少なくとも1つを含む。いくつかの実施形態では、サブクラスは、結腸直腸癌(CRC)、ポリープ、炎症性腸疾患(IBD)、胃悪性腫瘍、胃炎、食道悪性腫瘍、食道炎、および十二指腸炎、のうちの少なくとも1つを含む。それぞれの可能性は別個の実施形態である。 In some embodiments, the class includes at least one of: negative for lower gastrointestinal conditions, positive for lower gastrointestinal conditions, negative for upper gastrointestinal-related conditions, and positive for upper gastrointestinal-related conditions. In some embodiments, the subclass is at least one of colorectal cancer (CRC), polyp, inflammatory bowel disease (IBD), gastric malignancy, gastritis, esophageal malignancy, esophagitis, and duodenitis. including. Each possibility is a separate embodiment.

いくつかの実施形態によれば、サブクラスは、病態のタイプ、例えば、ポリープのタイプを含む。いくつかの実施形態によれば、サブクラスは、無茎性ポリープおよび振り子状ポリープのうちの少なくとも1つを含む。いくつかの実施形態によれば、サブクラスは、癌性および/または非癌性ポリープを含む。いくつかの実施形態によれば、サブクラスは、良性および/または悪性ポリープを含む。いくつかの実施形態によれば、サブクラスは、腺腫性ポリープ、過形成性ポリープ、鋸歯状ポリープ、炎症性ポリープ、および絨毛腺腫ポリープ、ならびに複合ポリープのうちの1つまたは複数を含む。 According to some embodiments, subclasses include types of disease states, such as types of polyps. According to some embodiments, the subclass includes at least one of sessile polyps and pendulum polyps. According to some embodiments, the subclass includes cancerous and/or non-cancerous polyps. According to some embodiments, subclasses include benign and/or malignant polyps. According to some embodiments, the subclass includes one or more of adenomatous polyps, hyperplastic polyps, serrated polyps, inflammatory polyps, and chorioadenomatous polyps, and composite polyps.

いくつかの実施形態によれば、サブクラスへの分類は、識別された疾患を、疾患のリスクレベルに関連する値でランク付けすることを含む。いくつかの実施形態によれば、リスクレベルは、手術の致死性レベルおよび/または緊急性であり得る。いくつかの実施形態によれば、サブクラスは、ポリープのサイズの1つ以上の範囲を含む。 According to some embodiments, classifying into subclasses includes ranking the identified diseases with a value associated with the risk level of the disease. According to some embodiments, the level of risk may be the level of lethality and/or urgency of the surgery. According to some embodiments, a subclass includes one or more ranges of polyp sizes.

いくつかの実施形態によれば、サブクラスは、疾患の悪性度のレベルに関連するスコアを含む。いくつかの実施形態によれば、サブクラスは、被験者が1つ以上の病態において悪性腫瘍を発症する可能性があることに対応するスコアを含む。例えば、いくつかの実施形態によれば、サブクラスは、ポリープを有さない被験者が1つ以上のタイプのポリープを発症する可能性を予測し得る。いくつかの実施形態によれば、スコアは、例えば、0~10%、10~30%、30~50%、50~70%、および70%超などのパーセンテージで評価される。いくつかの実施形態では、スコアは、被験者における既知の疾患の特定の悪性腫瘍の発生の可能性、および/または被験者における疾患の悪性腫瘍の特定の発生の可能性を示す。いくつかの実施形態によれば、スコアは、被験者が1つ以上の病態において悪性腫瘍を発症するリスクレベルに関連する。いくつかの実施形態によれば、スコアは、被験者が将来病態を発症するリスクレベルに関連する。 According to some embodiments, the subclass includes a score related to the level of malignancy of the disease. According to some embodiments, a subclass includes a score corresponding to the likelihood that a subject will develop a malignancy in one or more disease states. For example, according to some embodiments, a subclass may predict the likelihood that a subject without polyps will develop one or more types of polyps. According to some embodiments, the score is rated as a percentage, such as, for example, 0-10%, 10-30%, 30-50%, 50-70%, and greater than 70%. In some embodiments, the score indicates the probability of occurrence of a particular malignancy of a known disease in the subject and/or the probability of occurrence of a particular malignancy of a disease in the subject. According to some embodiments, the score relates to the level of risk that the subject will develop a malignancy in one or more disease states. According to some embodiments, the score is related to the subject's level of risk of developing the condition in the future.

いくつかの実施形態では、システムは、少なくとも1つのハードウェアプロセッサと、プログラムコードを記憶した非一時的コンピュータ可読記憶媒体とを備える。いくつかの実施形態によれば、プログラムコードは、n個の画像を受信して前処理するように、少なくとも1つのハードウェアプロセッサによって実行可能である。各画像は被験者の舌の少なくとも一部を示す。前処理は、画像選択および画像調整の少なくとも1つを含み、それによってn’個の画像を取得し、少なくとも1つの特徴強調アルゴリズムを使用してn’個の画像の各々のm個の表現を生成し、生成されたn’*m個の表現を機械学習アルゴリズムを使用してクラスに分類する。クラスは、少なくとも消化器疾患について陽性および消化器疾患について陰性を含み、生成されたn’*m個の表現の少なくとも所定の割合/パーセンテージが消化器疾患について陽性であると分類されるとき、被験者が消化器疾患に罹患していると識別する。 In some embodiments, the system includes at least one hardware processor and a non-transitory computer readable storage medium having program code stored thereon. According to some embodiments, program code is executable by at least one hardware processor to receive and preprocess n images. Each image shows at least a portion of the subject's tongue. The preprocessing includes at least one of image selection and image adjustment, whereby n' images are acquired and m representations of each of the n' images are created using at least one feature enhancement algorithm. The generated n'*m representations are classified into classes using a machine learning algorithm. The class includes at least positive for gastrointestinal disease and negative for gastrointestinal disease, and the subject identify as suffering from a gastrointestinal disease.

いくつかの実施形態によれば、本明細書の他の場所でより詳細に説明されるように、機械学習アルゴリズムは、1つまたは複数の被験者に関連するn’*m個の表現を含むデータセット上で訓練され得る。いくつかの実施形態によれば、n個の画像を受信して前処理するために、少なくとも1つのハードウェアプロセッサによって実行可能なプログラムコードを有するコンピュータ可読記憶媒体が提供される。前記プログラムコードは少なくとも1つのハードウェアプロセッサによって実行可能である。前処理は、画像選択および画像調整の少なくとも一つを含む。これにより、n’個の画像を取得し、n’個の画像の各m個の表現を、少なくとも1つの特徴強調アルゴリズムを使用して生成し、訓練された機械学習アルゴリズムを前記m個の表現に適用することによって、前記n’個の画像を少なくとも2つのクラスに分類する。前記少なくとも2つのクラスは、消化器疾患について陽性および消化器疾患について陰性を含み、前記n’個の画像の少なくとも所定の割合/パーセンテージが消化器疾患について陽性であると分類されるとき、前記被験者が消化器疾患に罹患していると識別する。 According to some embodiments, as described in more detail elsewhere herein, a machine learning algorithm generates data containing n'*m representations related to one or more subjects. Can be trained on set. According to some embodiments, a computer readable storage medium having program code executable by at least one hardware processor is provided to receive and preprocess n images. The program code is executable by at least one hardware processor. Pre-processing includes at least one of image selection and image adjustment. Thereby, acquiring n' images, generating each m representation of the n' images using at least one feature enhancement algorithm, and applying a trained machine learning algorithm to the m representations. is applied to classify the n' images into at least two classes. said at least two classes include positive for gastrointestinal disease and negative for gastrointestinal disease, and when at least a predetermined proportion/percentage of said n' images are classified as positive for gastrointestinal disease, said subject identify as suffering from a gastrointestinal disease.

[消化器疾患検出システム]
図1を参照すると、図1は、本発明のいくつかの実施形態による、消化器疾患を検出するためのシステムの概略的な簡略図である。いくつかの実施形態では、システム100は、ハードウェアプロセッサ102、記憶モジュール104、撮像モジュール106、画像処理モジュール108、機械学習モジュール110、およびユーザインターフェースモジュール112のうちの少なくとも1つを備える。それぞれの可能性は別個の実施形態である。いくつかの実施形態では、システム100は、被験者の舌の画像に基づいて被験者の消化器疾患を検出するように構成される。
[Gastrointestinal disease detection system]
Referring to FIG. 1, FIG. 1 is a schematic simplified diagram of a system for detecting gastrointestinal disease, according to some embodiments of the invention. In some embodiments, system 100 includes at least one of a hardware processor 102, a storage module 104, an imaging module 106, an image processing module 108, a machine learning module 110, and a user interface module 112. Each possibility is a separate embodiment. In some embodiments, system 100 is configured to detect a digestive disorder in a subject based on an image of the subject's tongue.

いくつかの実施形態では、プロセッサ102は、記憶モジュール104、撮像モジュール106、画像処理モジュール108、機械学習モデル110、およびユーザインターフェースモジュール112のうちの少なくとも1つと通信する。いくつかの実施形態では、プロセッサ102は、記憶モジュール104、撮像モジュール106、画像処理モジュール108、機械学習モデル110、およびユーザインターフェースモジュール112のうちの任意の1つまたは複数の動作を制御するように構成される。それぞれの可能性は別個の実施形態である。 In some embodiments, processor 102 communicates with at least one of storage module 104, imaging module 106, image processing module 108, machine learning model 110, and user interface module 112. In some embodiments, processor 102 is configured to control operation of any one or more of storage module 104, imaging module 106, image processing module 108, machine learning model 110, and user interface module 112. configured. Each possibility is a separate embodiment.

いくつかの実施形態では、記憶モジュール104は、非一時的コンピュータ可読記憶媒体を備える。いくつかの実施形態では、記憶モジュール104は、消化器疾患を検出するための1つまたは複数のプログラムコードおよび/または命令のセットを備える。プログラムコードは、プロセッサ102、撮像モジュール106、画像処理モジュール108、機械学習モジュール110、およびユーザインターフェースモジュール112のうちの少なくとも1つの使用を命令する。それぞれの可能性は別個の実施形態である。いくつかの実施形態では、記憶モジュール104は、方法200を使用して、被験者の舌の1つまたは複数の画像に少なくとも部分的に基づいて、被験者の消化器疾患を検出するように構成された1つまたは複数のアルゴリズムを備える。 In some embodiments, storage module 104 comprises a non-transitory computer readable storage medium. In some embodiments, storage module 104 comprises one or more program codes and/or sets of instructions for detecting a gastrointestinal disease. Program code directs use of at least one of processor 102, imaging module 106, image processing module 108, machine learning module 110, and user interface module 112. Each possibility is a separate embodiment. In some embodiments, the storage module 104 is configured to detect a digestive disorder in the subject based at least in part on the one or more images of the subject's tongue using the method 200. one or more algorithms.

いくつかの実施形態では、撮像モジュール106は、被験者の舌のn個の画像を取得するように構成される。いくつかの実施形態では、プロセッサ102は、n個の画像のうちの1つまたは複数を取得するように撮像モジュール106に命令する。いくつかの実施形態では、撮像モジュール106は、システム100と撮像装置との間で通信するように構成された撮像装置および/またはカプラを備える。例えば、いくつかの実施形態では、撮像モジュール106がCMOSセンサを備える。いくつかの実施形態では、カプラが、プロセッサ102が撮像装置からn個の画像を取得するためのケーブルまたはワイヤレス接続を備える。 In some embodiments, imaging module 106 is configured to acquire n images of the subject's tongue. In some embodiments, processor 102 instructs imaging module 106 to acquire one or more of n images. In some embodiments, the imaging module 106 comprises an imaging device and/or a coupler configured to communicate between the system 100 and the imaging device. For example, in some embodiments, imaging module 106 includes a CMOS sensor. In some embodiments, the coupler comprises a cable or wireless connection for processor 102 to acquire n images from the imaging device.

いくつかの実施形態では、撮像モジュール106が、n個の画像の撮影中に被験者の舌を照明するように構成される。いくつかの実施形態では、プロセッサ102が、撮像モジュール106の照明を制御するように構成される。 In some embodiments, the imaging module 106 is configured to illuminate the subject's tongue during the capture of the n images. In some embodiments, processor 102 is configured to control illumination of imaging module 106.

いくつかの実施形態では、撮像モジュール106が、被験者の舌の動きを検出するように構成された1つまたは複数のセンサを備え、および/またはそれと通信する。いくつかの実施形態では、1つまたは複数のセンサは、例えば熱センサなどの運動センサである。 In some embodiments, imaging module 106 comprises and/or communicates with one or more sensors configured to detect movement of the subject's tongue. In some embodiments, the one or more sensors are motion sensors, such as thermal sensors.

いくつかの実施形態では、記憶モジュール104に記憶されたプログラムのうちの1つまたは複数が、n個の画像を撮影するように実行可能である。いくつかの実施形態では、プロセッサ102が、撮像モジュール106から画像データを受信しながら、画像の撮影をリアルタイムで命令するように構成される。いくつかの実施形態では、撮像モジュール106および/またはシステム100が、複数の異なるタイプの撮像装置から画像を受信するように構成される。いくつかの実施形態では、本明細書の他の箇所でより詳細に説明するように、システム100は、画像処理モジュール108を使用して2つ以上の撮像装置によって撮影され得る異なる画像を正規化するように構成される。 In some embodiments, one or more of the programs stored in storage module 104 are executable to take n images. In some embodiments, processor 102 is configured to command the capture of images in real time while receiving image data from imaging module 106. In some embodiments, imaging module 106 and/or system 100 are configured to receive images from multiple different types of imaging devices. In some embodiments, system 100 uses image processing module 108 to normalize different images that may be taken by two or more imaging devices, as described in more detail elsewhere herein. configured to do so.

いくつかの実施形態では、プロセッサ102が、クラウド記憶ユニットと通信する。いくつかの実施形態では、記憶モジュール104が、クラウド記憶ユニットを備える。いくつかの実施形態では、画像処理モジュール108が、クラウド記憶ユニットおよび/または記憶モジュール104上に記憶される。いくつかの実施形態では、記憶モジュール104が、記憶モジュール104の結合記憶ユニット上にn個の画像をアップロードすることによって、n個の画像を受信するように構成される。
いくつかの実施形態では、画像処理モジュール108が、撮像モジュール106を使用して受信されたn個の画像を前処理するように構成される。いくつかの実施形態では、画像処理モジュール108が、n個の画像に少なくとも部分的に基づいて、n個の画像の画像データセットを生成するように構成される。いくつかの実施形態では、画像処理モジュールが、n個の画像および/またはn’個の画像の少なくとも配分に、画像処理アルゴリズムを適用するように構成される。いくつかの実施形態では、本明細書の他の箇所でより詳細に説明するように、画像処理モジュール108は、画像処理アルゴリズムを使用してn’個の画像データセットの少なくとも一部を生成するように構成される。
In some embodiments, processor 102 communicates with a cloud storage unit. In some embodiments, storage module 104 comprises a cloud storage unit. In some embodiments, image processing module 108 is stored on cloud storage unit and/or storage module 104. In some embodiments, storage module 104 is configured to receive n images by uploading the n images onto a combined storage unit of storage module 104.
In some embodiments, image processing module 108 is configured to preprocess n images received using imaging module 106. In some embodiments, image processing module 108 is configured to generate an image dataset of n images based at least in part on the n images. In some embodiments, the image processing module is configured to apply an image processing algorithm to at least the distribution of the n images and/or the n' images. In some embodiments, image processing module 108 generates at least a portion of the n' image datasets using an image processing algorithm, as described in more detail elsewhere herein. It is configured as follows.

いくつかの実施形態では、機械学習モジュール110が、n’*m個の表現の画像データセットを受信する。いくつかの実施形態では、本明細書の他の箇所でより詳細に説明するように、機械学習モジュール110は、n’*m個の表現の画像データセットに関連する1つまたは複数の消化器疾患を検出するように訓練される。 In some embodiments, machine learning module 110 receives an image dataset of n'*m representations. In some embodiments, as described in more detail elsewhere herein, machine learning module 110 determines one or more digestive organs associated with an image dataset of n'*m representations. Trained to detect diseases.

いくつかの実施形態では、システム100が、ユーザインターフェースモジュール112を備える。いくつかの実施形態では、ユーザインターフェースモジュール112が、例えば、年齢、性別、血圧、食習慣、特定の疾患に関連する危険因子、遺伝データ、被験者の家族の病歴、および被験者の病歴などのメタデータをユーザから受信するように構成される。いくつかの実施形態では、ユーザインターフェースモジュール112が、ユーザ入力データが機械学習モジュール110に供給されるように、プロセッサと通信する。 In some embodiments, system 100 includes a user interface module 112. In some embodiments, the user interface module 112 includes metadata such as, for example, age, gender, blood pressure, dietary habits, risk factors associated with a particular disease, genetic data, the subject's family medical history, and the subject's medical history. is configured to receive from the user. In some embodiments, user interface module 112 communicates with the processor such that user input data is provided to machine learning module 110.

いくつかの実施形態では、ユーザインターフェースモジュール112が、表示画面およびボタンのうちの少なくとも1つを備える。いくつかの実施形態では、ユーザインターフェースモジュール112が、入力された情報をユーザからプロセッサ102に転送するように構成されたソフトウェアを備える。いくつかの実施形態では、ユーザインターフェースモジュール112が、コンピュータプログラムおよび/またはスマートフォンアプリケーションを備える。 In some embodiments, user interface module 112 includes at least one of a display screen and buttons. In some embodiments, user interface module 112 comprises software configured to transfer input information from a user to processor 102. In some embodiments, user interface module 112 comprises a computer program and/or a smartphone application.

いくつかの実施形態では、ユーザインターフェースモジュール112がキーボードを備える。いくつかの実施形態では、ユーザインターフェースモジュールが、プロセッサ102からデータを受信し、および/またはプロセッサ102から受信したデータを表示するように構成される。いくつかの実施形態では、ユーザインターフェースモジュール112が、消化器疾患の検出の結果を表示するように構成される。 In some embodiments, user interface module 112 includes a keyboard. In some embodiments, a user interface module is configured to receive data from processor 102 and/or display data received from processor 102. In some embodiments, user interface module 112 is configured to display results of gastrointestinal disease detection.

[消化器疾患の検出方法]
図2は、本発明のいくつかの実施形態による、消化器疾患を検出するためのプロセスにおける機能的ステップのフローチャートである。
[Method for detecting gastrointestinal diseases]
FIG. 2 is a flowchart of functional steps in a process for detecting gastrointestinal disease, according to some embodiments of the invention.

いくつかの実施形態では、方法200が、被験者の口腔の1つまたは複数の画像を取得することを含む。いくつかの実施形態では、方法200が、被験者の舌のn個の画像を取得することを含む。いくつかの実施形態では、n個の画像が少なくとも1つの画像を含む。いくつかの実施形態では、n個の画像が1~10の範囲の数の画像を含む。いくつかの実施形態では、n個の画像が6~45の範囲の数の画像を含む。いくつかの実施形態では、方法200が被験者の舌のn個の画像を撮影することを含む。いくつかの実施形態では、方法200が、撮像装置からn個の画像を直接および/または間接的に受信することを含む。いくつかの実施形態では、方法200が、撮像装置および/または撮像モジュール106と通信することを含む。 In some embodiments, method 200 includes acquiring one or more images of the subject's oral cavity. In some embodiments, method 200 includes acquiring n images of the subject's tongue. In some embodiments, the n images include at least one image. In some embodiments, the n images include a number of images ranging from 1 to 10. In some embodiments, the n images include a number ranging from 6 to 45 images. In some embodiments, method 200 includes taking n images of the subject's tongue. In some embodiments, method 200 includes receiving n images directly and/or indirectly from an imaging device. In some embodiments, method 200 includes communicating with imaging device and/or imaging module 106.

いくつかの実施形態では、方法200が、特定の帯域の照明を有する、被験者の舌の1つまたは複数の画像を取得することを含む。いくつかの実施形態では、照明の帯域が複数の波長を含む。いくつかの実施形態では、照明の帯域が、約380~730nm、例えば、約400nm~700nmの範囲の波長を含む。 In some embodiments, method 200 includes acquiring one or more images of a subject's tongue with a particular band of illumination. In some embodiments, the band of illumination includes multiple wavelengths. In some embodiments, the band of illumination includes wavelengths in the range of about 380-730 nm, such as about 400 nm-700 nm.

いくつかの実施形態では、ステップ202において、方法200は、各々が被験者の舌を示すn個の画像を受信することを含む。いくつかの実施形態では、方法が、撮像装置に結合されたコネクタを介してn個の画像を取得することを含む。いくつかの実施形態では、方法200が、撮像モジュール106および/または記憶モジュール104からn個の画像を受信することを含む。いくつかの実施形態では、n個の画像が、撮像モジュール106から、プロセッサ102、記憶モジュール104、画像処理モジュール108、機械学習モデル110、およびユーザインターフェースモジュール112のうちの1つまたは複数に転送される。 In some embodiments, at step 202, method 200 includes receiving n images, each showing the subject's tongue. In some embodiments, a method includes acquiring n images via a connector coupled to an imaging device. In some embodiments, method 200 includes receiving n images from imaging module 106 and/or storage module 104. In some embodiments, the n images are transferred from the imaging module 106 to one or more of the processor 102, the storage module 104, the image processing module 108, the machine learning model 110, and the user interface module 112. Ru.

いくつかの実施形態では、方法200が、n個の画像のうちの少なくとも1つにおける被験者の舌および/または被験者の舌の位置を識別することを含む。いくつかの実施形態では、方法200が、被験者の舌および/または被験者の舌の位置をリアルタイムで識別することを含む。いくつかの実施形態では、方法200が、1つまたは複数の運動センサを使用して舌の位置を識別することを含む。
いくつかの実施形態では、方法200が、所定の位置にある被験者の舌の画像を撮影することを含む。
In some embodiments, method 200 includes identifying the subject's tongue and/or the position of the subject's tongue in at least one of the n images. In some embodiments, method 200 includes identifying the subject's tongue and/or the position of the subject's tongue in real time. In some embodiments, method 200 includes identifying tongue position using one or more motion sensors.
In some embodiments, method 200 includes capturing an image of the subject's tongue in a predetermined location.

いくつかの実施形態では、方法200が、指定された照明設定で被験者の舌の画像を撮影することを含む。いくつかの実施形態では、方法が、被験者の舌の1つまたは複数の識別された位置に対応して、指定された時間に、および/またはリアルタイムで画像を撮影するように撮像モジュール106に命令することを含む。 In some embodiments, method 200 includes capturing an image of the subject's tongue at specified lighting settings. In some embodiments, the method instructs the imaging module 106 to take images at specified times and/or in real time corresponding to one or more identified locations of the subject's tongue. including doing.

いくつかの実施形態では、プロセッサ102が、舌の所定の位置を識別するように構成される。いくつかの実施形態では、プロセッサ102が、指定された照明設定を識別するように構成される。いくつかの実施形態では、プロセッサ102が、舌の背面が露出する舌の位置を識別するように構成される。いくつかの実施形態では、所定の位置が、舌の頂点、舌の本体、正中舌溝、弁状乳頭、および舌の葉状乳頭のうちの任意の1つまたは複数が露出される、舌の位置を含む。いくつかの実施形態では、舌の所定の位置が、被験者の舌が外側に延在する位置を含む。いくつかの実施形態では、舌の所定の位置は、舌の背面の少なくとも一部分が撮像装置と平行である位置を含む。 In some embodiments, processor 102 is configured to identify the predetermined location of the tongue. In some embodiments, processor 102 is configured to identify specified lighting settings. In some embodiments, processor 102 is configured to identify a position on the tongue where the back of the tongue is exposed. In some embodiments, the predetermined location is a tongue location in which any one or more of the tongue apex, tongue body, midlingual groove, valve papillae, and lobular papillae of the tongue are exposed. including. In some embodiments, the predetermined position of the tongue includes a position where the subject's tongue extends outward. In some embodiments, the predetermined position of the tongue includes a position where at least a portion of the dorsal surface of the tongue is parallel to the imaging device.

いくつかの実施形態によれば、舌の所定の位置は、舌の特定の舌反射セグメントに従って舌のセグメントを視覚的に露出させることに関連付けられる。いくつかの実施形態では、方法200が、被験者の舌の1つまたは複数の舌反射セグメントを識別することを含む。 According to some embodiments, the predetermined position of the tongue is associated with visually exposing a segment of the tongue according to a particular tongue reflex segment of the tongue. In some embodiments, method 200 includes identifying one or more tongue reflex segments of the subject's tongue.

いくつかの実施形態では、方法200が舌の画像を撮影するように構成された較正プロセスを適用することを含む。いくつかの実施形態では、較正プロセスのうちの1つまたは複数が、画像セグメント化、リアルタイム画像較正、照明クリッピングを回避すること、リアルタイムで照明クリッピングを回避すること、モーションブラー(motion blur)を回避すること、およびリアルタイムでモーションブラーを回避することのうちの少なくとも1つを含む。それぞれの可能性は別個の実施形態である。 In some embodiments, method 200 includes applying a calibration process configured to capture images of the tongue. In some embodiments, one or more of the calibration processes includes image segmentation, real-time image calibration, avoiding lighting clipping, avoiding lighting clipping in real-time, and avoiding motion blur. and avoiding motion blur in real time. Each possibility is a separate embodiment.

いくつかの実施形態では、方法200が、1つまたは複数のn個の画像の撮影中および/または撮影後に、画像の照明の均一性を検証することを含む。いくつかの実施形態では、方法200が、1つまたは複数のn個の画像への撮影中および/または撮影後に、画像の焦点レベルを検証することを含む。いくつかの実施形態では、方法200が、撮像装置のレンズのシェーディングを制御することを含む。いくつかの実施形態では、方法200が、撮像装置によって撮影された画像を較正することを含む。いくつかの実施形態において、方法200は、n個の画像を較正することを含む。 In some embodiments, method 200 includes verifying uniformity of illumination of the images during and/or after taking the one or more n images. In some embodiments, method 200 includes verifying the focus level of the images during and/or after taking the one or more n images. In some embodiments, method 200 includes controlling shading of a lens of an imaging device. In some embodiments, method 200 includes calibrating images taken by an imaging device. In some embodiments, method 200 includes calibrating n images.

いくつかの実施形態では、方法200が、規定された照明で被験者の舌を照明することを含む。いくつかの実施形態では、方法200が、被験者の舌が最適な色忠実度で得られるように、被験者の舌を照明することを含む。いくつかの実施形態では、方法200が、画像データを取得する前に規定された照明を較正することを含む。いくつかの実施形態では、方法200が、規定された照明を連続的に較正することを含む。いくつかの実施形態では、方法200が、被験者の舌の色と取り込まれたn個の画像との間の条件等色を維持するために、撮像装置の照明部材の照明タイプ、照明スペクトル、および/または位置を調整することを含む。 In some embodiments, method 200 includes illuminating the subject's tongue with defined illumination. In some embodiments, method 200 includes illuminating the subject's tongue such that the subject's tongue is obtained with optimal color fidelity. In some embodiments, method 200 includes calibrating the defined illumination prior to acquiring image data. In some embodiments, method 200 includes continuously calibrating the prescribed illumination. In some embodiments, the method 200 determines the illumination type, illumination spectrum and and/or adjusting the position.

いくつかの実施形態では、方法200が、動画および/または複数の画像を撮影することを含む。いくつかの実施形態では、方法200が、撮影画像、画像、および/または動画をクラウド記憶ユニットにアップロードすることを含む。いくつかの実施形態では、方法200が、動画および/または複数の画像によって描写される舌の動きベクトルを分析することを含む。いくつかの実施形態において、方法200は、舌を追跡することを含む。いくつかの実施形態では、方法200が、リアルタイムで、および/または撮影された動画セグメントで、舌を追跡することを含む。いくつかの実施形態では、方法200が舌の振動を分析することを含む。いくつかの実施形態では、方法200が舌の動きベクトルを分析することを含む。いくつかの実施形態では、方法200が撮像装置の動きに関連する動きを分析することを含む。いくつかの実施形態では、方法が、舌振動に関連する動きと、撮像装置の動きに関連する動きとを区別することを含む。 In some embodiments, method 200 includes capturing a video and/or a plurality of images. In some embodiments, method 200 includes uploading captured images, images, and/or videos to a cloud storage unit. In some embodiments, method 200 includes analyzing tongue movement vectors depicted by a video and/or a plurality of images. In some embodiments, method 200 includes tracking the tongue. In some embodiments, method 200 includes tracking the tongue in real time and/or in captured video segments. In some embodiments, method 200 includes analyzing tongue vibrations. In some embodiments, method 200 includes analyzing tongue movement vectors. In some embodiments, method 200 includes analyzing motion associated with motion of the imaging device. In some embodiments, a method includes distinguishing between motion associated with tongue vibration and motion associated with imaging device motion.

舌の動きを分析する潜在的な利点は、分析が舌の振動によって引き起こされるぼやけの除去を可能にし、より鮮明な画像の生成を可能にすることである。 A potential advantage of analyzing tongue movements is that the analysis allows for the removal of blur caused by tongue vibrations, allowing for the generation of clearer images.

いくつかの実施形態では、方法200が、動き検出を含み、動きの間に撮影された画像に、1つまたは複数の動きベクトルが割り当てられる。いくつかの実施形態では、方法は、ベクトルが所定の閾値を超える検出画像を除外することを含む。いくつかの実施形態では、前記所定の閾値は、処理された画像の所定の解像度に対応する。 In some embodiments, method 200 includes motion estimation, and one or more motion vectors are assigned to images captured during motion. In some embodiments, the method includes excluding detected images whose vectors exceed a predetermined threshold. In some embodiments, the predetermined threshold corresponds to a predetermined resolution of the processed image.

いくつかの実施形態では、方法200は、ステップ204において、n個の画像を前処理することによってn’個の画像を取得することを含む。いくつかの実施形態では、前処理が、画像選択および画像調整のうちの少なくとも1つを含む。いくつかの実施形態では、前処理が、n個の画像の正規化を含む。いくつかの実施形態では、画像調整が、n個の画像のコントラスト、輝度、レベル、色相、および彩度のうちの1つまたは複数の調整を含む。それぞれの可能性は別個の実施形態である。いくつかの実施形態では、方法が、n個の画像の少なくとも一部分を前処理することを含む。 In some embodiments, the method 200 includes obtaining n' images by preprocessing the n images in step 204. In some embodiments, pre-processing includes at least one of image selection and image adjustment. In some embodiments, preprocessing includes normalization of the n images. In some embodiments, the image adjustments include adjusting one or more of n images' contrast, brightness, level, hue, and saturation. Each possibility is a separate embodiment. In some embodiments, a method includes preprocessing at least a portion of the n images.

いくつかの実施形態によれば、前処理は、n個の画像内の舌の特定の領域を表すセグメント化を生成することを含む。いくつかの実施形態によれば、舌の指定された領域のうちの1つまたは複数は、消化管の1つまたは複数の再結合に関連し得る。いくつかの実施形態によれば、舌の指定された領域のうちの1つまたは複数は、消化管の1つまたは複数の病態に対応し得る。いくつかの実施形態によれば、舌の特定の領域はそれぞれ、消化管の個々の病態に対応する。 According to some embodiments, pre-processing includes generating segmentations that represent specific regions of the tongue within the n images. According to some embodiments, one or more of the designated regions of the tongue may be associated with one or more reconnections of the gastrointestinal tract. According to some embodiments, one or more of the designated regions of the tongue may correspond to one or more pathologies of the gastrointestinal tract. According to some embodiments, each specific region of the tongue corresponds to a respective pathology of the gastrointestinal tract.

本発明のいくつかの実施形態による、例示的なセグメントマップの正面概略図である図3を参照する。いくつかの実施形態によれば、セグメント302a/302b/302c/302d/302e/302f/302g/302h/302i/302j/302k/302l/302m(以下、セグメント302と総称する)は、被験者の舌の表面の少なくとも一部のマップ300を定義する。いくつかの実施形態によれば、セグメント302は、少なくとも2、3、5、8、または10個の指定された領域を画定する。いくつかの実施形態によれば、2つ以上のセグメント302が隣接している。いくつかの実施形態によれば、2つ以上のセグメント302は一致(congruent)する。いくつかの実施形態によれば、2つ以上のセグメント302が合致(coincide)する。 Reference is made to FIG. 3, which is a front schematic illustration of an exemplary segment map, according to some embodiments of the invention. According to some embodiments, segments 302a/302b/302c/302d/302e/302f/302g/302h/302i/302j/302k/302l/302m (hereinafter collectively referred to as segments 302) are located on the subject's tongue. A map 300 of at least a portion of the surface is defined. According to some embodiments, segment 302 defines at least 2, 3, 5, 8, or 10 designated regions. According to some embodiments, two or more segments 302 are adjacent. According to some embodiments, two or more segments 302 are congruent. According to some embodiments, two or more segments 302 coincide.

いくつかの実施形態によれば、前処理は、例えば、数値および/または色など、セグメント302のセグメントの各々にキーを割り当てることを含む。いくつかの実施形態によれば、キーは、舌の特定の領域、例えば、舌の舌先、基部を示す。いくつかの実施形態によれば、セグメント302のマップ300は、セグメント302に関連付けられたキーによって表すことができる。いくつかの実施形態によれば、前処理は、セグメント302と、セグメントの各々の関連するキーとに少なくとも部分的に基づいて、被験者の舌をマッピングすることを含む。 According to some embodiments, preprocessing includes assigning a key to each of the segments of segment 302, such as, for example, a numerical value and/or a color. According to some embodiments, the key indicates a particular region of the tongue, eg, the tip, base of the tongue. According to some embodiments, map 300 of segments 302 may be represented by keys associated with segments 302. According to some embodiments, pre-processing includes mapping the subject's tongue based at least in part on the segments 302 and the associated keys of each of the segments.

いくつかの実施形態によれば、方法200は、セグメント302と、セグメント302に関連付けられたキーとを機械学習モジュールに入力することを含む。いくつかの実施形態によれば、方法200は、入力されたキーに指標値を割り当てることを含み、指標値は、特定の病態に関連付けられる。いくつかの実施形態によれば、方法200は、指標値を機械学習モジュールに入力することを含む。いくつかの実施形態によれば、キーの指標値は、キーに関連付けられた舌の指定された領域に対する特定の病態の関連性に関連付けられる。いくつかの実施形態によれば、指標値は二値(バイナリ)である。いくつかの実施形態によれば、指標値は、特定の領域と特定の病態との関連性のレベルに対応する範囲を含む。 According to some embodiments, method 200 includes inputting segment 302 and a key associated with segment 302 to a machine learning module. According to some embodiments, method 200 includes assigning an index value to the input key, where the index value is associated with a particular medical condition. According to some embodiments, method 200 includes inputting the indicator value into a machine learning module. According to some embodiments, the index value of the key is associated with the relevance of a particular medical condition to the specified region of the tongue associated with the key. According to some embodiments, the index value is binary. According to some embodiments, the index value includes a range that corresponds to the level of association between a particular region and a particular disease state.

例えば、特定の病態またはその悪性腫瘍のリスクを検出するために、セグメント302aおよび302jなどの1つまたは2つの関連するセグメント302のみが存在し得る。そのような例では、302dおよび302kなどの他のセグメントに割り当てられた指標値は「0」であり得る。302aおよび302jに割り当てられた指標値は「1」であり得る。 For example, to detect a particular disease state or its risk of malignancy, there may only be one or two relevant segments 302, such as segments 302a and 302j. In such an example, the index values assigned to other segments such as 302d and 302k may be "0". The index value assigned to 302a and 302j may be "1".

いくつかの実施形態によれば、機械学習モジュールは、キーおよび/またはセグメント302に割り当てられた指標値に従ってn個の画像を分析するように構成される。いくつかの実施形態によれば、機械学習モジュールは、キーに関連付けられた指標値が特定の病態の低関連性レベルに対応するセグメントを見過ごすように構成される。例えば、いくつかの実施形態では、機械学習モジュールは、キーに関連付けられた指標値が「0」であるセグメントを見過ごすように構成される。 According to some embodiments, the machine learning module is configured to analyze the n images according to the index values assigned to the keys and/or segments 302. According to some embodiments, the machine learning module is configured to overlook segments where the index value associated with the key corresponds to a low level of relevance for a particular condition. For example, in some embodiments, the machine learning module is configured to overlook segments where the index value associated with the key is "0".

いくつかの実施形態では、方法200がn個の画像の品質を評価することを含む。いくつかの実施形態では、プロセッサ102がn個の画像の品質のデータを受信する。いくつかの実施形態では、方法200が、評価に基づいて、撮像モジュール106の変化を命令することを含む。いくつかの実施形態では、画像の撮影中に周囲条件の変化が画像の結果の品質を向上させ得る画像について、プロセッサ102は、周囲条件に変化が生じるように、撮像モジュール106に変化を命令することができる。例えば、プロセッサは、画像を撮影しながら、被験者の周囲の明るさの変化を命令することができる。いくつかの実施形態では、方法200が、ユーザインターフェースモジュール112を使用して、位置および/または照明の変更を行うようにユーザに命令することを含む。いくつかの実施形態では、本明細書の他の箇所でより詳細に説明するように、プロセッサ102は、n個の画像の撮影中に撮像装置の変更を直接命令するように構成される。 In some embodiments, method 200 includes evaluating the quality of n images. In some embodiments, processor 102 receives quality data for n images. In some embodiments, method 200 includes directing changes to imaging module 106 based on the evaluation. In some embodiments, for images where a change in ambient conditions during image capture may improve the resulting quality of the image, processor 102 directs the imaging module 106 to make changes such that the change in ambient conditions occurs. be able to. For example, the processor can command changes in the brightness around the subject while taking images. In some embodiments, method 200 includes instructing a user to make position and/or lighting changes using user interface module 112. In some embodiments, processor 102 is configured to directly command changes to the imaging device during the capture of the n images, as described in more detail elsewhere herein.

いくつかの実施形態では、方法200が、撮像装置の角度、撮像装置の照明部材から放射される光、撮像中の被験者の照明の明るさ、被験者の舌に対する撮像装置の角度、および撮像中に使用される露光時間、のうちの任意の1つまたは複数を調整することを含む。いくつかの実施形態では、方法が、被験者の舌および/または口腔の特定の領域の、撮像モジュールおよび/またはカメラの設定、背景、背景、倍率、および倍率、のうちの任意の1つまたは複数を調整することを含む。 In some embodiments, the method 200 includes determining the angle of the imaging device, the light emitted from the illumination member of the imaging device, the brightness of the illumination of the subject during imaging, the angle of the imaging device relative to the tongue of the subject, and during imaging. including adjusting any one or more of the exposure times used. In some embodiments, the method includes determining any one or more of the following: imaging module and/or camera settings, background, background, magnification, and magnification of a particular region of a subject's tongue and/or oral cavity. including adjusting the

いくつかの実施形態では、方法200が、n個の画像のうちの2つ以上を組み合わせて、n’個の画像の単一の画像を形成することを含む。いくつかの実施形態では、方法が、複数のn個の画像を組み合わせて、複数のn’個の画像を形成することを含む。いくつかの実施形態では、方法が、画像のつなぎ合わせ(stitching)を含む。いくつかの実施形態では、方法が、n個の画像をつなぎ合わせて、n’個の画像を取得することを含む。いくつかの実施形態では、方法が、n個の画像をつなぎ合わせることを含む。いくつかの実施形態では、方法が、つなぎ合わされた単一の画像が、各々がn個の画像の別個の画像によって描写された舌の異なる角度のデータを含むように、n個の画像をつなぎ合わせることを含む。いくつかの実施形態では、方法が、n’個の画像が超解像画像を含むように、n個の画像からn’個の画像を生成することを含む。いくつかの実施形態では、n個の画像に対応するn’個の画像の数が、取得されたn個の画像の数よりも少ない。いくつかの実施形態では、n個の画像に対応するn’個の画像の数が、取得されたn個の画像の数に等しい。 In some embodiments, method 200 includes combining two or more of the n images to form a single image of n' images. In some embodiments, a method includes combining a plurality of n images to form a plurality of n' images. In some embodiments, the method includes stitching images. In some embodiments, a method includes stitching n images to obtain n' images. In some embodiments, a method includes stitching n images together. In some embodiments, the method stitches the n images such that the single stitched image each includes data for a different angle of the tongue depicted by a separate image of the n images. Including matching. In some embodiments, a method includes generating n' images from the n images, such that the n' images include super-resolution images. In some embodiments, the number of n' images corresponding to the n images is less than the number of n images acquired. In some embodiments, the number of n' images corresponding to the n images is equal to the number of n images acquired.

いくつかの実施形態では、n個の画像に対応するn’個の画像の数が、取得されたn個の画像の数よりも大きい。いくつかの実施形態では、n’個の画像が、例えば、n個の画像の特定の特徴を示す、n個の画像のうちの1つまたは複数からのデータを含む。いくつかの実施形態では、n’個の画像が、n個の画像のうちの1つ以上からの部分データを含む。いくつかの実施形態では、n’個の画像のうちの1つまたは複数が、複数のn個の画像からの部分データを含む。 In some embodiments, the number of n' images corresponding to the n images is greater than the number of n images acquired. In some embodiments, the n' images include data from one or more of the n images, eg, indicative of particular features of the n images. In some embodiments, the n' images include partial data from one or more of the n images. In some embodiments, one or more of the n' images includes partial data from multiple n images.

いくつかの実施形態では、方法200が、n個の画像を使用して高ダイナミックレンジ(HDR)撮像を取得することを含む。いくつかの実施形態では、方法200が、n個の画像の少なくとも一部から、1つまたは複数の画像を作成することを含む画像調整を含む。いくつかの実施形態によれば、n個の画像は、1つまたは複数の異なる焦点または露光レベルを使用して取得される。いくつかの実施形態によれば、n個の画像の少なくとも一部分は、1つまたは複数の画像に合成され、それによって、1つまたは複数の画像内の被験者の舌の各部分に対する最適な露出を得る。 In some embodiments, method 200 includes obtaining high dynamic range (HDR) imaging using n images. In some embodiments, method 200 includes image conditioning that includes creating one or more images from at least a portion of the n images. According to some embodiments, the n images are acquired using one or more different focus or exposure levels. According to some embodiments, at least a portion of the n images are composited into one or more images, thereby providing optimal exposure for each portion of the subject's tongue within the one or more images. obtain.

いくつかの実施形態では、n個の画像に対応するn’個の画像の数が、n個の画像のソートに起因して、取得されたn個の画像の数よりも少ない。いくつかの実施形態では、n個の画像のうちの1つまたは複数が、所定の閾値よりも低い解像度、所定の閾値よりも低いコントラスト、および所定の閾値よりも高いコントラストのうちのいずれか1つまたは複数を理由として、n’個の画像と関連付けられない。いくつかの実施形態では、プロセッサ102が所定の閾値を決定した。いくつかの実施形態では、ユーザが、ユーザインターフェースモジュール112を介して所定の閾値を決定することができる。 In some embodiments, the number of n' images corresponding to the n images is less than the number of n images acquired due to the sorting of the n images. In some embodiments, one or more of the n images have one of the following: resolution below a predetermined threshold, contrast below a predetermined threshold, and contrast above a predetermined threshold. is not associated with n' images for one or more reasons. In some embodiments, processor 102 has determined the predetermined threshold. In some embodiments, a user can determine the predetermined threshold via user interface module 112.

いくつかの実施形態では、方法200が、画像処理アルゴリズムをn個の画像に適用することを含む。いくつかの実施形態では、方法200は、ステップ206において、n’個の画像の各々のm個の表現を生成することを含む。いくつかの実施形態では、方法200が、n’個の画像に基づいてm個の表現を生成することを含む。いくつかの実施形態では、方法200が、少なくとも1つの特徴強調および/または抽出アルゴリズムを使用して、n’画像の各々のm個の表現を生成することを含む。 In some embodiments, method 200 includes applying an image processing algorithm to n images. In some embodiments, method 200 includes generating m representations of each of the n' images in step 206. In some embodiments, method 200 includes generating m representations based on n' images. In some embodiments, method 200 includes generating m representations of each of the n' images using at least one feature enhancement and/or extraction algorithm.

いくつかの実施形態では、m個の表示のうちの1つまたは複数が、n個の画像から抽出された1つまたは複数の特徴を含む。いくつかの実施形態では、m個の表現のうちの1つまたは複数が、n個の画像のうちの1つまたは複数を備える。いくつかの実施形態では、m個の表現は画像であってもよい。いくつかの実施形態では、m個の表現が1つまたは複数の画像フォーマットのファイルを含むことができる。 In some embodiments, one or more of the m representations include one or more features extracted from the n images. In some embodiments, one or more of the m representations comprises one or more of the n images. In some embodiments, the m representations may be images. In some embodiments, the m representations may include files in one or more image formats.

いくつかの実施形態では、m個の表現のうちの1つまたは複数が、舌セグメントカラーマップ、n個の画像に関連付けられた動きベクトル、被験者の舌の2次元表現、被験者の舌の3次元表現、舌の異なる平面の表現、舌の複数の位置、舌のトポロジーマップ、および1つまたは複数のデジタル的に生成された動画セグメントを含む。いくつかの実施形態では、m個の表現が、表現において表される特定の位置における舌の画像なしにデジタル的に生成された被験者の舌の位置および/または構成を含む。いくつかの実施形態では、m個の表現が時間の関数を含む。 In some embodiments, one or more of the m representations may include a tongue segment color map, a motion vector associated with the n images, a two-dimensional representation of the subject's tongue, or a three-dimensional representation of the subject's tongue. a representation, a representation of different planes of the tongue, multiple positions of the tongue, a topology map of the tongue, and one or more digitally generated video segments. In some embodiments, the m representations include positions and/or configurations of the subject's tongue that are digitally generated without images of the tongue at the particular positions represented in the representations. In some embodiments, the m representations include functions of time.

いくつかの実施形態では、m個の表現のうちの1つまたは複数が、n個の画像から抽出された1つまたは複数の特徴を含む。いくつかの実施形態では、抽出された特徴が、色、舌の表面のうちの1つまたは複数の形態、舌のトポロジ、舌の寸法、および舌の振動分析を含む。それぞれの可能性は別個の実施形態である。 In some embodiments, one or more of the m representations include one or more features extracted from the n images. In some embodiments, the extracted features include color, morphology of one or more of the tongue surfaces, tongue topology, tongue dimensions, and tongue vibration analysis. Each possibility is a separate embodiment.

いくつかの実施形態では、ステップ208において、方法200はn’*m個の表現をクラスに分類することを含む。クラスは、少なくとも下部消化器病態について陽性および下部消化器病態について陰性を含む。いくつかの実施形態によれば、n’*m個の表現の分類は、n’*m個の表現に、訓練された機械学習モジュール110を適用することを含む。いくつかの実施形態では、クラスが、消化器疾患について少なくとも陽性および消化器疾患について陰性を含む。いくつかの実施形態では、方法が、n’個の画像の各々に基づいて被検者を個別に分類することを含む。いくつかの実施形態では、方法が、m個の表現のそれぞれに基づいて被験者を分類することを含む。 In some embodiments, at step 208, method 200 includes classifying the n'*m expressions into classes. The class includes at least positive for lower gastrointestinal pathology and negative for lower gastrointestinal pathology. According to some embodiments, classifying the n'*m representations includes applying the trained machine learning module 110 to the n'*m representations. In some embodiments, the class includes at least positive for gastrointestinal disease and negative for gastrointestinal disease. In some embodiments, the method includes individually classifying the subject based on each of the n' images. In some embodiments, a method includes classifying a subject based on each of the m expressions.

いくつかの実施形態では、方法200が、消化器疾患について陽性であると分類される被験者を、結腸関連病態および胃関連病態の1つまたは複数のサブクラスにさらに分類することを含む。いくつかの実施形態では、方法200が、結腸関連病態を、結腸直腸癌(CRC)、ポリープ、下部腸管(結腸)を含む炎症性腸疾患(IBD)のうちの1つまたは複数にサブクラス分類することを含む。いくつかの実施形態では、方法200が、上部消化器病態を、胃悪性腫瘍、胃炎、食道悪性腫瘍、食道炎、および十二指腸炎のうちの1つまたは複数にサブクラスすることを含む。 In some embodiments, method 200 includes further classifying subjects classified as positive for a gastrointestinal disease into one or more subclasses of colon-related conditions and stomach-related conditions. In some embodiments, method 200 subclassifies a colon-related condition into one or more of the following: colorectal cancer (CRC), polyps, and inflammatory bowel disease (IBD), including lower intestinal tract (colon). Including. In some embodiments, method 200 includes subclassing the upper gastrointestinal condition into one or more of gastric malignancy, gastritis, esophageal malignancy, esophagitis, and duodenitis.

いくつかの実施形態ではステップ210において、方法200は、被験者を消化器疾患に罹患していると識別することを含む。いくつかの実施形態では、方法が、1つまたは複数の消化器疾患について陽性である被験者に関連するn’*m個の表現のパーセントに少なくとも部分的に基づいて、被験者が消化器疾患に罹患していると識別することを含む。いくつかの実施形態では、方法が、被験者が特定のサブクラスに対して陽性であることに関連するn’*m個の表現のパーセントに少なくとも部分的に基づいて、被験者が消化器疾患のサブクラスに罹患していると識別することを含む。いくつかの実施形態では、方法が、サブクラスのそれぞれに関連するn’*m個の表現の割合に少なくとも部分的に基づいて、被験者が消化器疾患に罹患していると識別することを含む。 In some embodiments, at step 210, method 200 includes identifying the subject as suffering from a gastrointestinal disease. In some embodiments, the method determines whether a subject has a gastrointestinal disease based, at least in part, on the percentage of n'*m expressions associated with the subject being positive for the one or more gastrointestinal diseases. including identifying that In some embodiments, the method determines whether the subject belongs to a subclass of gastrointestinal disease based, at least in part, on the percentage of n'*m expressions that are associated with the subject being positive for a particular subclass. Including identifying as having the disease. In some embodiments, a method includes identifying a subject as suffering from a gastrointestinal disease based at least in part on the proportion of n'*m expressions associated with each of the subclasses.

いくつかの実施形態では、方法200が、ユーザインターフェースモジュール112を使用して、検出された病態をユーザに提示することを含む。 In some embodiments, method 200 includes presenting the detected condition to a user using user interface module 112.

[機械学習モジュールおよびトレーニング]
いくつかの実施形態では、機械学習モジュール110が、1つまたは複数の消化器疾患を患っていると識別された被験者の舌の1つまたは複数の画像に基づいて、1つまたは複数の消化器疾患を検出するように訓練された機械学習モジュールを備える。いくつかの実施形態では、機械学習モデルが例えば、被験者の年齢、性別、血圧、食習慣、および病歴のうちの1つまたは複数など、被験者に関連するメタデータに少なくとも部分的に基づいて、1つまたは複数の消化器疾患を検出するように訓練される。いくつかの実施形態では、検出の感度が70%、80%、90%、95%、および98%のうちの少なくとも1つを超える。それぞれの可能性は別個の実施形態である。
[Machine learning module and training]
In some embodiments, machine learning module 110 determines one or more digestive disorders based on one or more images of the tongue of a subject identified as suffering from one or more digestive disorders. Equipped with a machine learning module trained to detect diseases. In some embodiments, the machine learning model is based at least in part on metadata related to the subject, such as, for example, one or more of the subject's age, gender, blood pressure, dietary habits, and medical history. trained to detect one or more gastrointestinal diseases. In some embodiments, the sensitivity of detection is greater than at least one of 70%, 80%, 90%, 95%, and 98%. Each possibility is a separate embodiment.

いくつかの実施形態では、機械学習モデルは、消化器疾患を検出するためにn個の画像および/またはm個の表現のすべてを使用する。いくつかの実施形態では、機械学習モジュールが、消化器疾患を検出するためにメタデータのすべてを使用する。いくつかの実施形態では、機械学習モジュールが、1つまたは複数の消化器疾患を検出するために、および/または被験者に関連する病態を識別するために、受信されたデータのすべてを使用するように構成された少なくとも1つのニューラルネットワークを備える。 In some embodiments, the machine learning model uses all n images and/or m representations to detect gastrointestinal disease. In some embodiments, a machine learning module uses all of the metadata to detect gastrointestinal diseases. In some embodiments, the machine learning module is configured to use all of the received data to detect one or more gastrointestinal diseases and/or to identify a medical condition associated with the subject. at least one neural network configured to.

いくつかの実施形態では、機械学習モデルが、識別された消化器疾患を有する被験者のn個の画像に関連するm個の表現を含む訓練セット上で訓練される。いくつかの実施形態では、機械学習モデルが、消化器疾患に罹患していないと識別された被験者のn個の画像に関連するm個の表現を含む訓練セット上で訓練される。いくつかの実施形態では、機械学習モデルが、消化器疾患を有すると識別された被験者のn個の画像に関連するm個の表現を含む訓練セット上で訓練される。いくつかの実施形態では、機械学習モデルが、消化器疾患に罹患していないと識別された被験者のn個の画像に関連するm個の表現を含む訓練セット上で訓練される。いくつかの実施形態では、機械学習モデルが、消化器疾患を有すると識別された被験者のn’*m個の表現を含む訓練セット上で訓練される。いくつかの実施形態では、訓練セットのm個の表現が、少なくとも消化器疾患について陽性および消化器疾患について陰性を示す標識を含む。いくつかの実施形態では、前記標識は、結腸関連病態、下部消化器関連病態、上部消化器関連病態、上部消化器関連病態、結腸直腸癌(CRC)、ポリープ、炎症性腸疾患(IBD)、胃悪性腫瘍、胃炎、食道悪性腫瘍、食道炎、および十二指腸炎、のうちの任意の1つまたは複数を示す。 In some embodiments, a machine learning model is trained on a training set that includes m representations associated with n images of a subject with an identified gastrointestinal disease. In some embodiments, a machine learning model is trained on a training set that includes m representations associated with n images of subjects identified as not suffering from a gastrointestinal disease. In some embodiments, a machine learning model is trained on a training set that includes m representations associated with n images of a subject identified as having a gastrointestinal disease. In some embodiments, a machine learning model is trained on a training set that includes m representations associated with n images of subjects identified as not suffering from a gastrointestinal disease. In some embodiments, a machine learning model is trained on a training set that includes n'*m representations of subjects identified as having a gastrointestinal disease. In some embodiments, the m representations of the training set include at least an indicator indicating positive for a gastrointestinal disease and negative for a gastrointestinal disease. In some embodiments, the label is associated with a colon-related condition, a lower GI-related condition, an upper GI-related condition, an upper GI-related condition, colorectal cancer (CRC), polyp, inflammatory bowel disease (IBD), Indicates any one or more of gastric malignancy, gastritis, esophageal malignancy, esophagitis, and duodenitis.

いくつかの実施形態では、同じ機械学習モデルが、複数の消化器疾患について訓練される。いくつかの実施形態では、同じ機械学習モデルが、複数の消化器疾患に関連するラベルを使用して訓練される。 In some embodiments, the same machine learning model is trained for multiple gastrointestinal diseases. In some embodiments, the same machine learning model is trained using labels associated with multiple gastrointestinal diseases.

いくつかの実施形態では、前記ラベルは、n’*m個の表現によって示される舌の異なるセグメントに関連付けられる。いくつかの実施形態では、単一の画像が複数のラベルに関連付けられ、各ラベルは画像によって描写される舌の異なるセグメントに関連付けられる。いくつかの実施形態では、前記ラベルは、n’*m個の表現によって示される舌のセグメントに関連する。いくつかの実施形態では、単一の画像が複数のラベルに関連付けられ、各ラベルは描写される被験者の舌の舌反射セグメントに関連付けられる。 In some embodiments, the labels are associated with different segments of the tongue indicated by n'*m representations. In some embodiments, a single image is associated with multiple labels, each label being associated with a different segment of the tongue depicted by the image. In some embodiments, the labels relate to tongue segments indicated by n'*m expressions. In some embodiments, a single image is associated with multiple labels, each label associated with a tongue reflex segment of the subject's tongue that is depicted.

[撮像装置]
本発明のいくつかの実施形態による、消化器疾患を検出するための例示的な撮像装置の簡略化された斜視図を示す図4を参照する。いくつかの実施形態では、撮像装置400は、カメラおよび/または撮像装置400のレンズに対する被験者の舌の位置決めを均一にできるように構成される。いくつかの実施形態では、撮像装置400は、撮像モジュール106およびプロセッサ102のうちの少なくとも1つと動作可能に通信する。それぞれの可能性は別個の実施形態である。いくつかの実施形態では、撮像装置400は、ユーザが被験者の舌の画像を撮影することを可能にするように構成される。
[Imaging device]
Reference is made to FIG. 4 illustrating a simplified perspective view of an exemplary imaging device for detecting gastrointestinal disease, according to some embodiments of the present invention. In some embodiments, the imaging device 400 is configured to allow uniform positioning of the subject's tongue relative to the camera and/or lens of the imaging device 400. In some embodiments, imaging device 400 is in operative communication with at least one of imaging module 106 and processor 102. Each possibility is a separate embodiment. In some embodiments, imaging device 400 is configured to allow a user to capture images of a subject's tongue.

いくつかの実施形態では、撮像装置400がフレーム402を備える。いくつかの実施形態では、フレーム402は、ベース404と、少なくとも1つの脚部406とを備える。いくつかの実施形態では、フレーム402は剛性である。いくつかの実施形態では、ベース406および/または脚部406は、表面に位置付けられたときにフレーム402を安定させるように構成される。いくつかの実施形態では、フレーム402は、ベース404および脚部406のうちの1つまたは複数から延在する2つ以上の支柱416を備える。いくつかの実施形態では、2つ以上の支柱416は、レスト(rest)410およびホルダ408のうちの少なくとも1つを支持するように構成される。それぞれの可能性は別個の実施形態である。 In some embodiments, imaging device 400 includes frame 402. In some embodiments, frame 402 includes a base 404 and at least one leg 406. In some embodiments, frame 402 is rigid. In some embodiments, base 406 and/or legs 406 are configured to stabilize frame 402 when positioned on a surface. In some embodiments, frame 402 includes two or more struts 416 extending from one or more of base 404 and legs 406. In some embodiments, two or more posts 416 are configured to support at least one of rest 410 and holder 408. Each possibility is a separate embodiment.

いくつかの実施形態では、レスト410は、額当てを備え、フレーム402に対して被験者の頭部の位置を静止状態に維持するように構成される。いくつかの実施形態では、レスト410は、被験者の顔の一部に当接するように構成される。いくつかの実施形態では、レスト410は、第1端で1つの支柱416に結合され、第2端で第2の支柱406に結合される。いくつかの実施形態では、れスト410は、剛性、半剛性、または可撓性である。いくつかの実施形態では、レスト410は、被験者の特定の顔の特徴が使用中に考慮され得るように適応可能である。いくつかの実施形態では、レスト410の位置が、フレーム402および/または少なくとも1つの支柱416に対して調整可能である。 In some embodiments, rest 410 includes a forehead rest and is configured to maintain a stationary position of the subject's head relative to frame 402. In some embodiments, rest 410 is configured to abut a portion of the subject's face. In some embodiments, the rest 410 is coupled at a first end to one post 416 and at a second end to a second post 406. In some embodiments, rest 410 is rigid, semi-rigid, or flexible. In some embodiments, rest 410 is adaptable so that the subject's particular facial features may be taken into account during use. In some embodiments, the position of rest 410 is adjustable with respect to frame 402 and/or at least one post 416.

いくつかの実施形態では、撮像装置400が、カメラおよび/またはセンサの位置を固定するように構成されたホルダ408を備える。いくつかの実施形態では、撮像装置400が、カメラおよび/またはセンサを備える。いくつかの実施形態では、ホルダ408が、その上にカメラおよび/またはセンサが結合されるドックを備える。いくつかの実施形態では、ドックは、例えば、スマートフォンなどの汎用カメラを受信するように構成される。いくつかの実施形態では、ドックは、フレーム402に摺動可能に結合される。いくつかの実施形態では、ホルダ408および/またはドックが少、なくとも2つの移動軸の周りを摺動可能である。いくつかの実施形態では、ホルダ408および/またはドックが、少なくとも3つの移動軸の周りを摺動可能である。いくつかの実施形態では、ドックが、ホルダ408に結合されたカメラおよび/またはセンサの空間的配向が変更されるように傾斜可能である。いくつかの実施形態では、ドックが、ホルダ408に結合されたカメラおよび/またはセンサが傾けられ、パンされ、および/またはロールされるように調整可能である。いくつかの実施形態では、カメラが、フレーム402、レスト410、およびホルダ408のうちの任意の1つまたは複数に対して、パン、チルト、および/またはロールするように構成される。いくつかの実施形態では、フレーム402および/またはレスト410に対するドックの角度は調整可能である。いくつかの実施形態では、ホルダ408が、ホルダ408をフレーム402に対して所定の位置および/または角度に駆動するように構成されたモータを備える。 In some embodiments, the imaging device 400 includes a holder 408 configured to fix the position of the camera and/or sensor. In some embodiments, imaging device 400 includes a camera and/or a sensor. In some embodiments, holder 408 includes a dock onto which a camera and/or sensor is coupled. In some embodiments, the dock is configured to receive a general purpose camera, such as a smartphone, for example. In some embodiments, the dock is slidably coupled to frame 402. In some embodiments, the holder 408 and/or the dock are slidable about fewer or at least two axes of movement. In some embodiments, the holder 408 and/or the dock are slidable about at least three axes of movement. In some embodiments, the dock is tiltable such that the spatial orientation of cameras and/or sensors coupled to holder 408 is changed. In some embodiments, the dock is adjustable such that the camera and/or sensor coupled to holder 408 is tilted, panned, and/or rolled. In some embodiments, the camera is configured to pan, tilt, and/or roll relative to any one or more of frame 402, rest 410, and holder 408. In some embodiments, the angle of the dock relative to frame 402 and/or rest 410 is adjustable. In some embodiments, holder 408 includes a motor configured to drive holder 408 into a predetermined position and/or angle relative to frame 402.

いくつかの実施形態では、撮像装置400がプロセッサ418を備える。いくつかの実施形態では、撮像装置400がプロセッサ102/418と動作可能に通信する。いくつかの実施形態では、撮像装置400がプロセッサ102/418と通信する電源ユニット414を備える。いくつかの実施形態では、電力ユニット414がホルダ408のモータに結合される。 In some embodiments, imaging device 400 includes a processor 418. In some embodiments, imaging device 400 is in operative communication with processor 102/418. In some embodiments, the imaging device 400 includes a power supply unit 414 in communication with the processor 102/418. In some embodiments, a power unit 414 is coupled to the motor of holder 408.

いくつかの実施形態では、プロセッサ102/400が、n個の画像の撮影中に、撮像装置400の構造の変化を直接命令するように構成される。いくつかの実施形態では、プロセッサ102/400が、フレーム402に対するホルダ408の位置および/または角度の変化を直接命令するように構成される。 In some embodiments, processor 102/400 is configured to directly command changes in the structure of imaging device 400 during the capture of n images. In some embodiments, processor 102/400 is configured to directly command changes in the position and/or angle of holder 408 relative to frame 402.

別途定義されない限り、本発明の様々な実施形態は、複数のフォーマット、プラットフォームでエンドユーザに提供されることが可能であり、コンピュータ可読メモリ、コンピュータ表示デバイス、プリントアウト、ネットワーク上のコンピュータ、タブレットもしくはスマートフォンアプリケーション、またはユーザのうちの少なくとも1つに出力され得る。特に定義しない限り、本明細書中で用いられる全ての技術用語および科学用語は、本発明が属する技術分野の当業者によって一般的に理解されるものと同じ意味を有する。本明細書に提供される材料、方法、および実施例は、例示にすぎず、限定を意図するものではない。 Unless otherwise defined, various embodiments of the present invention may be provided to end users in multiple formats, platforms, computer readable memory, computer display devices, printouts, networked computers, tablets, etc. The information may be output to at least one of a smartphone application or a user. Unless defined otherwise, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. The materials, methods, and examples provided herein are illustrative only and not intended to be limiting.

本発明の方法およびシステムの実施は、特定の選択されたタスクまたはステップを手動で、自動的に、またはそれらの組み合わせで実行または完了することを含む。さらに、本発明の方法およびシステムの好ましい実施形態の実際の装置化および機器によれば、いくつかの選択されたステップは、ハードウェアによって、または任意のファームウェアの任意のオペレーティングシステム上のソフトウェアによって、またはそれらの組合せによって実装され得る。例えば、ハードウェアとして、本発明の選択されたステップは、チップまたは回路として実装され得る。ソフトウェアとして、本発明の選択されたステップは、任意の適切なオペレーティングシステムを使用してコンピュータによって実行される複数のソフトウェア命令として実装され得る。いずれの場合も、本発明の方法およびシステムの選択されたステップは、複数の命令を実行するためのコンピューティングプラットフォームなどのデータプロセッサによって実行されるものとして説明することができる。 Implementation of the methods and systems of the present invention includes performing or completing certain selected tasks or steps manually, automatically, or a combination thereof. Furthermore, according to the actual implementation and equipment of the preferred embodiments of the method and system of the present invention, some selected steps can be performed by hardware or by software on any operating system in any firmware. or a combination thereof. For example, as hardware, selected steps of the invention may be implemented as a chip or a circuit. As software, selected steps of the invention may be implemented as software instructions executed by a computer using any suitable operating system. In either case, selected steps of the methods and systems of the present invention may be described as being performed by a data processor, such as a computing platform, for executing instructions.

本発明は「コンピュータネットワーク」上の「プロセッサ」または「コンピュータ」に関して説明されるが、任意選択で、データプロセッサを特徴とする任意の装置および/または1つまたは複数の命令を実行する能力は限定はしないが、PC(パーソナルコンピュータ)、サーバ、ミニコンピュータ、携帯電話、スマートフォン、PDA(携帯情報端末)、ページャを含む、コンピュータとして説明され得ることに留意されたい。互いに通信する2つ以上のそのような装置、および/または任意の他のコンピュータと通信する任意のコンピュータは、任意選択で「コンピュータネットワーク」を含むことができる。 Although the present invention is described in terms of a "processor" or "computer" on a "computer network," optionally any device that features a data processor and/or limited ability to execute one or more instructions. Note that computers may be described as computers, including, but not limited to, PCs (personal computers), servers, minicomputers, mobile phones, smart phones, PDAs (personal digital assistants), and pagers. Two or more such devices in communication with each other and/or any computer in communication with any other computer may optionally include a "computer network."

本発明の実施形態は、本明細書の動作を実行するための装置を含むことができる。この装置は、所望の目的のために特別に構成されてもよく、またはコンピュータに記憶されたコンピュータプログラムによって選択的に起動または再構成された汎用コンピュータを含んでもよい。そのようなコンピュータプログラムはフロッピー(登録商標)ディスク、光ディスク、CD-ROM、光磁気ディスク、読取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、電気的にプログラマブル読取り専用メモリ(EPROM)、電気的に消去可能かつプログラマブル読取り専用メモリ(EEPROM)、磁気カードもしくは光カード、または電子命令を記憶するのに適し、コンピュータシステムバスに結合され得る任意の他のタイプの媒体を含むが、これらに限定されない、任意のタイプのディスクなどのコンピュータ可読記憶媒体に記憶され得る。 Embodiments of the invention may include apparatus for performing the operations herein. The apparatus may be specially configured for the desired purpose or may include a general purpose computer selectively activated or reconfigured by a computer program stored on the computer. Such computer programs can be stored on floppy disks, optical disks, CD-ROMs, magneto-optical disks, read-only memory (ROM), random access memory (RAM), electrically programmable read-only memory (EPROM), electrical including, but not limited to, erasable and programmable read-only memory (EEPROM), magnetic or optical cards, or any other type of medium suitable for storing electronic instructions and that can be coupled to a computer system bus. , may be stored on any type of computer-readable storage medium, such as a disk.

本明細書に提示されるプロセスおよびディスプレイは、いかなる特定のコンピュータまたは他の装置にも本質的に関連していない。様々な汎用システムが本明細書の教示に従うプログラムと共に使用されてもよく、または所望の方法を実行するために、より特化された装置を構築することが便利であることが分かってもよい。様々なこれらのシステムの所望の構造は、以下の説明から明らかになるであろう。さらに、本発明の実施形態は、任意の特定のプログラミング言語を参照して記載されていない。様々なプログラミング言語が、本明細書に記載される本発明の教示を実施するために使用され得ることが理解されるであろう。 The processes and displays presented herein are not inherently related to any particular computer or other apparatus. Various general purpose systems may be used with programs in accordance with the teachings herein, or it may prove convenient to construct more specialized apparatus to carry out the desired method. The desired structure for a variety of these systems will appear from the description below. Furthermore, embodiments of the invention have not been described with reference to any particular programming language. It will be appreciated that a variety of programming languages may be used to implement the inventive teachings described herein.

本発明は、コンピュータによって実行されるプログラムモジュールなどのコンピュータ実行可能命令の一般的な文脈で説明することができる。一般に、プログラムモジュールは、ルーチン、プログラム、オブジェクト、部品、データ構造などを含み、これらは、特定のタスクを実行するか、または特定の抽象データ型を実装する。本発明はまた、タスクが、通信ネットワークを通してリンクされた分散型理装置によって実行される、分散型計算環境において実行されてもよい。分散コンピューティング環境では、プログラムモジュールがメモリ記憶デバイスを含むローカルおよびリモートコンピュータ記憶媒体の両方に配置され得る。 The invention may be described in the general context of computer-executable instructions, such as program modules, being executed by a computer. Generally, program modules include routines, programs, objects, components, data structures, etc. that perform particular tasks or implement particular abstract data types. The invention may also be practiced in distributed computing environments where tasks are performed by distributed computing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote computer storage media including memory storage devices.

いくつかの例示的な態様および実施形態が上記で論じられたが、当業者はそれらの特定の修正、追加、および組合せを認識するであろう。したがって、以下の特許請求の範囲は、それらの真の精神および範囲内にあるようなすべての修正、追加、およびサブコンビネーションを含むものと解釈されることが意図される。 Although several exemplary aspects and embodiments have been discussed above, those skilled in the art will recognize certain modifications, additions, and combinations thereof. It is therefore intended that the following claims be construed as including all modifications, additions, and subcombinations as fall within their true spirit and scope.

本出願を通して、本発明の様々な実施形態を範囲形式で提示することができる。範囲形式での説明は単に便宜上および簡潔にするためのものであり、本発明の範囲に対する柔軟性のない限定として解釈されるべきではないことを理解されたい。したがって、範囲の記載は、具体的に開示された全ての可能な部分範囲、ならびにその範囲内の個々の数値を有すると考えられるべきである。例えば、1~6などの範囲の記載は1~3、1~4、1~5、2~4、2~6、3~6などの具体的に開示された部分範囲、ならびにその範囲内の個々の数、例えば、1、2、3、4、5、および6を有するとみなされるべきである。このことは、範囲の広さにかかわらず適用される。 Throughout this application, various embodiments of the invention may be presented in a range format. It is to be understood that the description in range format is merely for convenience and brevity and is not to be construed as an inflexible limitation on the scope of the invention. Accordingly, range statements should be considered to include all possible subranges specifically disclosed, as well as individual numerical values within that range. For example, the description of a range such as 1-6 includes specifically disclosed subranges such as 1-3, 1-4, 1-5, 2-4, 2-6, 3-6, etc., as well as subranges within that range. It should be considered to have individual numbers, for example 1, 2, 3, 4, 5, and 6. This applies regardless of the scope.

数値範囲が本明細書に示されるときはいつでも、示された範囲内の任意の引用された数字(分数または整数)を含むことが意味される。第1の指標と第2の指標と「の間の範囲」という語句と、第1の指標「から」第2の指標「まで」の範囲という語句とは、本明細書では互換的に使用され、第1の指標と第2の指標とを含み、それらの間のすべての分数および整数を含むことを意味する。 Whenever a numerical range is indicated herein, it is meant to include any recited numbers (fractional or integer) within the indicated range. The phrases "range between" a first index and a second index and the phrases "range between" a first index and "to" a second index are used interchangeably herein. , is meant to include the first index and the second index, and include all fractions and integers therebetween.

本出願の説明および特許請求の範囲において、「備える」、「含む」および「有する」という単語のそれぞれ、およびそれらの形成は、必ずしも、単語が関連付けられ得るリスト内のメンバに限定されない。加えて、本出願と参照により組み込まれる任意の文書との間に不一致がある場合、本出願が優先することが本明細書によって意図される。 In the description and claims of this application, each of the words "comprising," "comprising," and "having" and their formations are not necessarily limited to the members in the list with which the words may be associated. Additionally, in the event of any discrepancy between this application and any document incorporated by reference, it is hereby intended that the present application shall control.

本発明の様々な実施形態の説明は例示の目的で提示されているが、網羅的であることも、開示された実施形態に限定されることも意図されていない。記載された実施形態の範囲および精神から逸脱することなく、多くの修正および変形が可能であることが、当業者には明らかであろう。本明細書で使用される用語は、実施形態の原理、市場で見出される技術に対する実際の適用または技術的改善を最もよく説明するために、または当業者が本明細書で開示される実施形態を理解することを可能にするために選択された。
The descriptions of various embodiments of the invention are presented for purposes of illustration and are not intended to be exhaustive or limited to the disclosed embodiments. It will be apparent to those skilled in the art that many modifications and variations are possible without departing from the scope and spirit of the described embodiments. The terminology used herein is used to best describe the principles of the embodiments, their practical application or technical improvements to technology found in the marketplace, or to help those skilled in the art understand the embodiments disclosed herein. selected to enable understanding.

Claims (17)

少なくとも1つのハードウェアプロセッサと、
前記少なくとも1つのハードウェアプロセッサによって実行可能なプログラムコードを記憶した非一時的コンピュータ可読記憶媒体とを備えたシステムであって、
前記プログラムコードは、前記少なくとも1つのハードウェアプロセッサに、
各画像が被験者の舌の少なくとも一部分を示すn個の画像を受け取らせ、
前記n個の画像を前処理し、前処理は画像選択および画像調整の少なくとも1つを含み、それによってn’個の画像を取得させ、
少なくとも1つの特徴強調アルゴリズムを使用して前記n’画像の各々のm個の表現を生成させ、
生成されたn’*m個の表現を、前記n’*m個の表現に機械学習アルゴリズムを適用することによってクラスに分類させ、
前記クラスは、少なくとも消化器疾患について陽性および消化器疾患について陰性を含み、生成されたn’*m個の表現の少なくとも所定の割合/パーセンテージが消化器疾患について陽性であると分類される場合、被験者が消化器疾患に罹患していると識別される、システム。
at least one hardware processor;
a non-transitory computer-readable storage medium storing program code executable by the at least one hardware processor, the system comprising:
The program code causes the at least one hardware processor to:
receiving n images, each image showing at least a portion of the subject's tongue;
preprocessing the n images, the preprocessing including at least one of image selection and image adjustment, thereby obtaining n'images;
generating m representations of each of the n′ images using at least one feature enhancement algorithm;
Classifying the generated n'*m expressions into classes by applying a machine learning algorithm to the n'*m expressions;
said class comprises at least positive for gastrointestinal diseases and negative for gastrointestinal diseases, if at least a predetermined proportion/percentage of the n'*m expressions generated are classified as positive for gastrointestinal diseases; A system in which a subject is identified as suffering from a gastrointestinal disease.
前記画像選択は動き検出を含み、前記動き検出は、動きの間に撮影された画像に1つ以上の動きベクトルが割り当てられ、前記ベクトルが所定の閾値を超える画像を除外する、請求項1に記載のシステム。 2. The image selection method according to claim 1, wherein the image selection includes motion estimation, wherein one or more motion vectors are assigned to images captured during motion, and wherein the motion vectors exclude images that exceed a predetermined threshold. System described. 前記画像調整は、前記n’個の画像のコントラスト、明るさ、レベル、色相、鮮鋭度、および彩度のうちの1つ以上の調整を含む、請求項1~2のいずれか一項に記載のシステム。 According to any one of claims 1 to 2, the image adjustment includes adjusting one or more of contrast, brightness, level, hue, sharpness, and saturation of the n' images. system. 前記プログラムコードは、消化器疾患に対して陽性であると分類されるn’*m個の表現に少なくとも部分的に基づいて、結腸関連病態および胃関連病態の1つまたは複数のサブクラスに前記被験者をさらに分類するように実行可能である、請求項1~3のいずれか一項に記載のシステム。 The program code assigns the subject to one or more subclasses of a colon-related condition and a stomach-related condition based at least in part on the n'*m expressions being classified as positive for a gastrointestinal disease. A system according to any one of claims 1 to 3, which is executable for further classifying. 前記サブクラスへの分類が、結腸特異的病態の2つ以上のサブクラスをさらに含む、請求項4に記載のシステム。 5. The system of claim 4, wherein the classification into subclasses further includes two or more subclasses of colon-specific conditions. 前記結腸特異的病態の2つ以上のサブクラスが、結腸直腸癌(CRC)、ポリープ、異なるタイプのポリープ、および下部腸管(IBD)を含む炎症性腸疾患から選択される、請求項5に記載のシステム。 6. The two or more subclasses of colon-specific pathologies are selected from colorectal cancer (CRC), polyps, different types of polyps, and inflammatory bowel disease including lower intestinal tract (IBD). system. 前記結腸特異的病態のサブクラスが、腺腫性ポリープ、過形成性ポリープ、鋸歯状ポリープ、炎症性ポリープ、および絨毛腺腫ポリープ、ならびに複合ポリープから選択される、請求項6に記載のシステム。 7. The system of claim 6, wherein the subclass of colon-specific pathologies is selected from adenomatous polyps, hyperplastic polyps, serrated polyps, inflammatory polyps, and chorioadenomatous polyps, and complex polyps. 前記サブクラスへの分類が、上部消化器特異的病態の2つ以上のサブクラスをさらに含む、請求項5~7のいずれか一項に記載のシステム。 The system according to any one of claims 5 to 7, wherein the classification into subclasses further includes two or more subclasses of upper gastrointestinal specific pathologies. 前記上部消化器特異的病態の2つ以上のサブクラスが、胃悪性腫瘍、胃炎、食道悪性腫瘍、食道炎および十二指腸炎から選択される、請求項8に記載のシステム。 9. The system of claim 8, wherein the two or more subclasses of upper gastrointestinal specific conditions are selected from gastric malignancy, gastritis, esophageal malignancy, esophagitis, and duodenitis. 前記サブクラスが、疾患の悪性度のレベルに関連するスコアを含む、請求項5~9のいずれか一項に記載のシステム。 A system according to any one of claims 5 to 9, wherein the subclass comprises a score related to the level of malignancy of the disease. 前記サブクラスが、前記被験者が1つ以上の病態において悪性腫瘍を発症する可能性に対応するスコアを含む、請求項5~10のいずれか一項に記載のシステム。 The system according to any one of claims 5 to 10, wherein the subclass comprises a score corresponding to the likelihood that the subject will develop a malignancy in one or more disease states. 前記m個の表現は、前記被験者の描写された舌の3次元表現をさらに含み得る、請求項1~11のいずれか一項に記載のシステム。 The system according to any one of claims 1 to 11, wherein the m representations may further include a three-dimensional representation of the subject's depicted tongue. 前記プログラムは、複数の異なるタイプの撮像装置から前記n個の画像を受信するように構成される、請求項1~12のいずれか一項に記載のシステム。 A system according to any preceding claim, wherein the program is configured to receive the n images from a plurality of different types of imaging devices. 前記プログラムは、前記受信された画像を正規化するように実行可能である、請求項13に記載のシステム。 14. The system of claim 13, wherein the program is executable to normalize the received image. 前記ハードウェアプロセッサは少なくとも1つの撮像装置に結合可能であり、前記プログラムコードは、リアルタイムで被験者の舌を識別するように実行可能である、請求項1~14のいずれか一項に記載のシステム。 15. The system of any one of claims 1-14, wherein the hardware processor is coupled to at least one imaging device and the program code is executable to identify a subject's tongue in real time. . 前記プログラムコードは、前記n個の画像を撮影するように実行可能である、請求項15に記載のシステム。 16. The system of claim 15, wherein the program code is executable to capture the n images. 少なくとも1つのハードウェアプロセッサによって実行可能なプログラムコードを具現化したコンピュータ可読記憶媒体を含むコンピュータプログラム製品であって、
前記プログラムコードは、前記少なくとも1つのハードウェアプロセッサに、
各画像が被験者の舌の少なくとも一部分を示すn個の画像を受け取らせ、
n個の画像の前処理であって、画像選択および画像調整のうちの少なくとも1つを含み、それによってn’個の画像を取得する前処理を行わせ、
少なくとも1つの特徴強調アルゴリズムを使用して前記n’画像の各々のm個の表現を生成させ、
n’*m個の表現に訓練された機械学習アルゴリズムを適用することによって、生成されたn’*m個の表現を少なくとも2つのクラスに分類させ、
前記少なくとも2つのクラスは、消化器疾患について陽性および消化器疾患について陰性を含み、
生成されたn’*m個の表現の少なくとも所定の割合/パーセンテージが消化器疾患について陽性であると分類されるとき、被験者が消化器疾患に罹患していると識別される、コンピュータプログラム製品。
A computer program product comprising a computer readable storage medium embodying program code executable by at least one hardware processor, the computer program product comprising:
The program code causes the at least one hardware processor to:
receiving n images, each image showing at least a portion of the subject's tongue;
pre-processing the n images, the pre-processing comprising at least one of image selection and image adjustment, thereby obtaining n'images;
generating m representations of each of the n′ images using at least one feature enhancement algorithm;
Classifying the generated n'*m representations into at least two classes by applying a trained machine learning algorithm to the n'*m representations;
the at least two classes include positive for gastrointestinal disease and negative for gastrointestinal disease;
A computer program product, wherein a subject is identified as suffering from a gastrointestinal disease when at least a predetermined proportion/percentage of the n'*m representations generated are classified as positive for the gastrointestinal disease.
JP2023519167A 2020-10-05 2021-10-04 System and method for detecting gastrointestinal diseases Pending JP2023543255A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063087401P 2020-10-05 2020-10-05
US63/087,401 2020-10-05
PCT/IL2021/051189 WO2022074644A1 (en) 2020-10-05 2021-10-04 System and method for detecting gastrointestinal disorders

Publications (1)

Publication Number Publication Date
JP2023543255A true JP2023543255A (en) 2023-10-13

Family

ID=81125721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023519167A Pending JP2023543255A (en) 2020-10-05 2021-10-04 System and method for detecting gastrointestinal diseases

Country Status (7)

Country Link
US (1) US20230386660A1 (en)
EP (1) EP4226391A4 (en)
JP (1) JP2023543255A (en)
CN (1) CN116324885A (en)
CA (1) CA3196415A1 (en)
IL (1) IL301672A (en)
WO (1) WO2022074644A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295139B (en) * 2016-07-29 2019-04-02 汤一平 A kind of tongue body autodiagnosis health cloud service system based on depth convolutional neural networks
CN106683087B (en) * 2016-12-26 2021-03-30 华南理工大学 Tongue coating constitution identification method based on deep neural network
CN109147935A (en) * 2018-07-19 2019-01-04 山东和合信息科技有限公司 The health data platform of identification technology is acquired based on characteristics of human body

Also Published As

Publication number Publication date
EP4226391A1 (en) 2023-08-16
WO2022074644A1 (en) 2022-04-14
CA3196415A1 (en) 2022-04-14
CN116324885A (en) 2023-06-23
EP4226391A4 (en) 2024-04-03
IL301672A (en) 2023-05-01
US20230386660A1 (en) 2023-11-30

Similar Documents

Publication Publication Date Title
US9445713B2 (en) Apparatuses and methods for mobile imaging and analysis
CN110337258B (en) System and method for multi-class classification of images using programmable light sources
Viscaino et al. Computer-aided diagnosis of external and middle ear conditions: A machine learning approach
JP2020073081A (en) Image diagnosis assistance apparatus, learned model, image diagnosis assistance method, and image diagnosis assistance program
Tania et al. Advances in automated tongue diagnosis techniques
US20180263568A1 (en) Systems and Methods for Clinical Image Classification
Mariakakis et al. Biliscreen: smartphone-based scleral jaundice monitoring for liver and pancreatic disorders
CN113573654A (en) AI system for detecting and determining lesion size
CN109635871B (en) Capsule endoscope image classification method based on multi-feature fusion
US20140316235A1 (en) Skin imaging and applications
CN111275041B (en) Endoscope image display method and device, computer equipment and storage medium
EP2566384A1 (en) Image analysis for cervical neoplasia detection and diagnosis
Cho et al. Comparison of convolutional neural network models for determination of vocal fold normality in laryngoscopic images
JP2019526304A (en) Classification of hormone receptor status in malignant neoplastic tissue by chest thermography image
WO2019064704A1 (en) Endoscopic image observation assistance system, endoscopic image observation assistance device, and endoscopic image observation assistance method
CN112334990A (en) Automatic cervical cancer diagnosis system
Xie et al. Digital tongue image analyses for health assessment
JP2006325640A (en) Method of displaying abnormal shadow candidate and medical image processing system
CN110858396A (en) System for generating cervical learning data and method for classifying cervical learning data
US20220328186A1 (en) Automatic cervical cancer diagnosis system
JP2006340835A (en) Displaying method for abnormal shadow candidate, and medical image processing system
García-Rodríguez et al. In vivo computer-aided diagnosis of colorectal polyps using white light endoscopy
JP6425868B1 (en) ENDOSCOPIC IMAGE OBSERVATION SUPPORT SYSTEM, ENDOSCOPIC IMAGE OBSERVATION SUPPORT DEVICE, AND ENDOSCOPIC IMAGE OBSERVATION SUPPORT METHOD
Sharma et al. Generous approach for diagnosis and detection of gastrointestinal tract disease with application of deep neural network
JP2006334140A (en) Display method of abnormal shadow candidate and medical image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240611