WO2023286199A1 - 処理装置、処理プログラム、処理方法及び処理システム - Google Patents

処理装置、処理プログラム、処理方法及び処理システム Download PDF

Info

Publication number
WO2023286199A1
WO2023286199A1 PCT/JP2021/026442 JP2021026442W WO2023286199A1 WO 2023286199 A1 WO2023286199 A1 WO 2023286199A1 JP 2021026442 W JP2021026442 W JP 2021026442W WO 2023286199 A1 WO2023286199 A1 WO 2023286199A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
determination
information
processing
processor
Prior art date
Application number
PCT/JP2021/026442
Other languages
English (en)
French (fr)
Inventor
祐二 有安
将司 早出
渉 ▲高▼橋
佳大 轟
敦史 福田
浩之 吉原
Original Assignee
アイリス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイリス株式会社 filed Critical アイリス株式会社
Priority to KR1020237044815A priority Critical patent/KR20240032748A/ko
Priority to PCT/JP2021/026442 priority patent/WO2023286199A1/ja
Priority to CN202180100203.6A priority patent/CN117651517A/zh
Priority to EP21950140.0A priority patent/EP4371466A1/en
Priority to JP2023534510A priority patent/JPWO2023286199A1/ja
Publication of WO2023286199A1 publication Critical patent/WO2023286199A1/ja
Priority to US18/404,970 priority patent/US20240130604A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00025Operational features of endoscopes characterised by power management
    • A61B1/00027Operational features of endoscopes characterised by power management characterised by power supply
    • A61B1/00032Operational features of endoscopes characterised by power management characterised by power supply internally powered
    • A61B1/00034Operational features of endoscopes characterised by power management characterised by power supply internally powered rechargeable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00052Display arrangement positioned at proximal end of the endoscope body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00087Tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00101Insertion part of the endoscope body characterised by distal tip features the distal tip features being detachable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00105Constructional details of the endoscope body characterised by modular construction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances

Definitions

  • the present disclosure relates to a processing device, processing program, processing method, and processing system for processing an image of a subject captured by a camera.
  • Non-Patent Document 1 reports that lymphatic follicles appearing in the deepest part of the pharynx located in the oral cavity have a pattern peculiar to influenza. Lymphoid follicles having this unique pattern are called influenza follicles, which are characteristic signs of influenza and are said to appear about 2 hours after onset. However, such a pharynx portion is diagnosed by a doctor's direct visual inspection, and diagnosis using an image has not been made.
  • the possibility of affliction with a predetermined disease is determined using a determination image of a subject obtained by imaging the oral cavity of the user. It aims at providing the processing apparatus, the processing program, the processing method, or the processing system for.
  • the at least one processor captures an image of the subject including at least a portion of the oral cavity of the user via a camera. Based on the learned judgment model stored in memory for obtaining one or more judgment images of and judging the possibility of affliction with a predetermined disease, and the acquired one or more judgment images, A processing device configured to perform processing for determining the possibility of affliction with the predetermined disease and outputting information indicating the determined possibility of affliction is provided.
  • a processing program is provided that causes the at least one processor to determine a likelihood of affliction with a disease and output information indicative of the determined likelihood of affliction.
  • a processing method executed by at least one processor, for capturing an image of a subject including at least a portion of the oral cavity of a user, via a camera, Based on the step of acquiring one or more determination images, a learned determination model stored in memory for determining the possibility of affliction with a predetermined disease, and the acquired one or more determination images and outputting information indicating the determined possibility of affliction.
  • a photographing device including a camera for photographing an image of a subject including at least part of the oral cavity of the user, and connected to the photographing device via a wired or wireless network
  • a processing system comprising: a processing apparatus as described above.
  • a processing device a processing program, a processing method, and a processing system suitable for processing an image obtained by photographing the inside of the oral cavity for use in intraoral diagnosis.
  • FIG. 1 is a diagram showing a usage state of a processing system 1 according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating a usage state of the processing system 1 according to an embodiment of the present disclosure.
  • FIG. 3 is a schematic diagram of a processing system 1 according to one embodiment of the present disclosure.
  • FIG. 4 is a block diagram showing the configuration of the processing system 1 according to one embodiment of the present disclosure.
  • FIG. 5 is a schematic diagram showing the configuration of the top surface of the imaging device 200 according to an embodiment of the present disclosure.
  • FIG. 6 is a schematic diagram showing a cross-sectional configuration of an imaging device 200 according to an embodiment of the present disclosure.
  • FIG. 7A is a diagram conceptually showing an image management table stored in the processing device 100 according to an embodiment of the present disclosure.
  • FIG. 7B is a diagram conceptually showing a user table stored in the processing device 100 according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram illustrating a processing sequence executed between the processing device 100 and the imaging device 200 according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram showing a processing flow performed by the processing device 100 according to one embodiment of the present disclosure.
  • FIG. 10 is a diagram showing a processing flow performed in the imaging device 200 according to one embodiment of the present disclosure.
  • FIG. 11 is a diagram showing a processing flow performed by the processing device 100 according to one embodiment of the present disclosure.
  • FIG. 12 is a diagram showing a processing flow performed by the processing device 100 according to one embodiment of the present disclosure.
  • FIG. 12 is a diagram showing a processing flow performed by the processing device 100 according to one embodiment of the present disclosure.
  • FIG. 13 is a diagram illustrating a processing flow for generating a trained model according to an embodiment of the present disclosure
  • FIG. 14 is a diagram showing a processing flow performed by the processing device 100 according to an embodiment of the present disclosure.
  • FIG. 15 is a diagram illustrating a processing flow for generating a trained model according to an embodiment of the present disclosure
  • FIG. 16 is a diagram illustrating a processing flow for generating a trained model according to an embodiment of the present disclosure
  • FIG. 17 is a diagram illustrating a processing flow for generating a trained model according to an embodiment of the present disclosure
  • FIG. 18 is a diagram showing an example of a screen displayed on the processing device 100 according to an embodiment of the present disclosure.
  • FIG. 19 is a diagram showing an example of a screen displayed on the processing device 100 according to an embodiment of the present disclosure.
  • FIG. 20 is a schematic diagram of a processing system 1 according to one embodiment of the present disclosure.
  • the processing system 1 according to the present disclosure is mainly used to photograph the inside of the user's oral cavity and obtain a subject image.
  • the processing system 1 is used for imaging the back of the larynx of the oral cavity, specifically the pharynx. Therefore, the case where the processing system 1 according to the present disclosure is used for radiography of the pharynx will be mainly described below.
  • the pharynx is an example of an imaged region, and naturally, the processing system 1 according to the present disclosure can be preferably used for other regions such as tonsils in the oral cavity.
  • the processing system 1 determines the possibility of affliction with a predetermined disease from a subject image obtained by photographing a subject including at least the pharynx region of the oral cavity of the user, and diagnoses the predetermined disease. Or it is used to assist it.
  • An example of a disease determined by the processing system 1 is influenza. Influenza probabilities are usually diagnosed by examining the user's pharynx and tonsil regions and determining the presence or absence of findings such as follicles in the pharynx region. However, by using the processing system 1 to determine the possibility of affliction with influenza and outputting the result, it is possible to diagnose or assist the disease. Note that the determination of the possibility of contracting influenza is an example.
  • the processing system 1 can be suitably used for determination of any disease that causes a difference in findings in the oral cavity due to being affected. It should be noted that the difference in finding is not limited to the one discovered by a doctor or the like and whose existence is medically known. For example, any difference that can be recognized by a person other than a doctor or a difference that can be detected by artificial intelligence or image recognition technology can be suitably applied to the processing system 1 .
  • diseases include, in addition to influenza, infections such as streptococcal infection, adenovirus infection, EB virus infection, mycoplasma infection, hand-foot-and-mouth disease, herpangina, candidiasis, arteriosclerosis, diabetes, Diseases exhibiting vascular disorders or mucosal disorders such as hypertension, and tumors such as tongue cancer and pharyngeal cancer are included.
  • infections such as streptococcal infection, adenovirus infection, EB virus infection, mycoplasma infection, hand-foot-and-mouth disease, herpangina, candidiasis, arteriosclerosis, diabetes, Diseases exhibiting vascular disorders or mucosal disorders such as hypertension, and tumors such as tongue cancer and pharyngeal cancer are included.
  • the processing system 1 of the present disclosure may be used by the user himself/herself or by an operator other than a doctor to be judged or diagnosed by the processing device 100 included in the processing system 1. .
  • the user to be imaged by the imaging device 200 can include all humans such as patients, subjects, diagnostic users, and healthy subjects.
  • an operator who holds the imaging device 200 and performs imaging operations is not limited to medical professionals such as doctors, nurses, and laboratory technicians, and may include any person such as the user himself/herself.
  • the processing system 1 according to the present disclosure is typically assumed to be used in medical institutions. However, it is not limited to this case, and may be used at any location such as the user's home, school, or workplace.
  • the subject should include at least part of the user's oral cavity.
  • any disease can be determined as long as it causes a difference in findings in the oral cavity.
  • the subject includes the pharynx or the vicinity of the pharynx and the possibility of affliction with influenza is determined as the disease.
  • the subject image and the determination image may be one or more moving images or one or more still images.
  • a through image is captured by the camera, and the captured through image is displayed on the display 203 .
  • the operator presses the capture button one or more still images are captured by the camera, and the captured images are displayed on the display 203 .
  • shooting button shooting of a moving image is started, and the image being shot by the camera is displayed on the display 203 during that time. Then, when the shooting button is pressed again, the shooting of the moving image ends.
  • various images such as through images, still images, and moving images are captured by the camera and displayed on the display. , may contain all of the images captured by the camera.
  • FIG. 1 is a diagram showing a usage state of a processing system 1 according to an embodiment of the present disclosure.
  • a processing system 1 according to the present disclosure includes a processing device 100 and an imaging device 200 .
  • the operator attaches the auxiliary tool 300 to the tip of the imaging device 200 so as to cover it, and inserts the imaging device 200 together with the auxiliary tool 300 into the oral cavity 710 of the user.
  • the operator attaches the auxiliary tool 300 to the tip of the photographing device 200 so as to cover it.
  • the operator inserts the imaging device 200 with the auxiliary tool 300 attached into the oral cavity 710 .
  • the tip of the assisting device 300 is inserted through the incisor 711 to the vicinity of the soft palate 713 . That is, the imaging device 200 is similarly inserted up to the vicinity of the soft palate 713 .
  • the auxiliary tool 300 (which functions as a tongue depressor) pushes the tongue 714 downward and restricts the movement of the tongue 714 .
  • the tip of the assisting device 300 pushes the soft palate 713 upward.
  • the operator can secure a good field of view of the imaging device 200 and can take a good image of the pharynx 715 located in front of the imaging device 200 .
  • a captured subject image (typically, an image including the pharynx 715) is transmitted from the imaging device 200 to the processing device 100 communicably connected via a wired or wireless network.
  • the processor of the processing device 100 that has received the subject image processes the program stored in the memory, thereby selecting a determination image to be used for determination from the subject image and determining the possibility of affliction with a predetermined disease. be. Then, the result is output to a display or the like.
  • FIG. 2 is a diagram showing a usage state of the processing system 1 according to one embodiment of the present disclosure. Specifically, FIG. 2 is a diagram showing a state in which the operator 600 holds the imaging device 200 of the processing system 1 .
  • the imaging device 200 is composed of a main body 201, a grip 202 and a display 203 from the side inserted into the oral cavity.
  • the main body 201 and the grip 202 are formed in a substantially columnar shape with a predetermined length along the insertion direction H into the oral cavity.
  • the display 203 is arranged on the side of the grip 202 opposite to the main body 201 side.
  • the photographing device 200 is formed in a substantially columnar shape as a whole, and is gripped by the operator 600 by holding it like a pencil. That is, since the display panel of the display 203 faces the direction of the operator 600 himself in the use state, it is possible to easily handle the photographing device 200 while confirming the subject image photographed by the photographing device 200 in real time.
  • the shooting button 220 is arranged on the upper surface side of the grip. Therefore, when the operator 600 holds it, the operator 600 can easily press the shooting button 220 with his index finger or the like.
  • FIG. 3 is a schematic diagram of the processing system 1 according to one embodiment of the present disclosure.
  • the processing system 1 includes a processing device 100 and an imaging device 200 communicably connected to the processing device 100 via a wired or wireless network.
  • the processing device 100 receives an operation input by an operator and controls photography by the photography device 200 .
  • the processing device 100 also processes the subject image captured by the imaging device 200 to determine the possibility of the user contracting influenza. Furthermore, the processing device 100 outputs the determined result and notifies the user, operator, doctor, or the like of the result.
  • the imaging device 200 has its tip inserted into the user's oral cavity and images the oral cavity, especially the pharynx. The specific shooting process will be described later.
  • a captured subject image is transmitted to the processing device 100 via a wired or wireless network.
  • the processing system 1 can further include a mounting table 400 as necessary.
  • the mounting table 400 can stably mount the imaging device 200 .
  • by connecting the mounting table 400 to a power supply via a wired cable it is possible to supply power to the image capturing apparatus 200 from the power supply terminal of the mounting table 400 through the power supply port of the image capturing apparatus 200 .
  • FIG. 4 is a block diagram showing the configuration of the processing system 1 according to one embodiment of the present disclosure.
  • the processing system 1 includes a processing device 100 including a processor 111, a memory 112, an input interface 113, an output interface 114 and a communication interface 115, a camera 211, a light source 212, a processor 213, a memory 214, a display panel 215, and an imaging device 200 including an input interface 210 and a communication interface 216 .
  • Each of these components are electrically connected to each other via control lines and data lines.
  • the processing system 1 does not need to include all of the components shown in FIG. 4, and may be configured by omitting some or adding other components.
  • processing system 1 may include a battery or the like for driving each component.
  • the processor 111 of the processing device 100 functions as a control unit that controls other components of the processing system 1 based on programs stored in the memory 112 .
  • the processor 111 controls the driving of the camera 211 and the driving of the light source 212 based on the program stored in the memory 112, stores the subject image received from the imaging device 200 in the memory 112, and reproduces the stored subject image. process.
  • the processor 111 performs a process of acquiring a subject image of a subject from the camera 211, a process of inputting the acquired subject image into a judgment image selection model to acquire candidates for a judgment image, and a process of acquiring judgment image candidates.
  • the processor 111 is mainly composed of one or more CPUs, but may be combined with a GPU, FPGA, or the like as appropriate.
  • the memory 112 is composed of RAM, ROM, nonvolatile memory, HDD, etc., and functions as a storage unit.
  • the memory 112 stores instruction commands for various controls of the processing system 1 according to this embodiment as programs. Specifically, the memory 112 performs a process of acquiring a subject image of a subject from the camera 211, a process of inputting the acquired subject image into a judgment image selection model to acquire candidates for a judgment image, and a process of acquiring judgment image candidates.
  • a process of acquiring a determination image from candidates based on the degree of similarity between each image a process of acquiring at least one of user interview information and attribute information, a learned determination model stored in the memory 112, and an acquisition processing for determining the possibility of affliction with influenza based on one or more determination images obtained and, if necessary, at least one of medical interview information and attribute information of the user, for diagnosing affliction with a predetermined disease, or It stores a program for the processor 111 to execute, such as a process of outputting information indicating the possibility of morbidity determined to assist the diagnosis.
  • the memory 112 stores subject images captured by the camera 211 of the image capturing apparatus 200, an image management table for managing the images, user attribute information, interview information, determination results, and the like. Stores a user table and the like.
  • the memory 112 stores each learned model such as a learned determination image selection model used for selecting a determination image from a subject image and a learned determination model for determining the possibility of affliction with a disease from a determination image. do.
  • the input interface 113 functions as an input unit that receives an operator's instruction input to the processing device 100 and the imaging device 200 .
  • Examples of the input interface 113 include a "shooting button” for instructing the start/end of recording by the shooting device 200, a “confirmation button” for making various selections, and a button for returning to the previous screen or canceling an input confirmation operation.
  • a "return/cancel button” for inputting characters, a cross key button for moving a pointer or the like output to the output interface 114, an on/off key for turning on/off the power of the processing device 100, and inputting various characters.
  • physical key buttons such as character input key buttons.
  • the input interface 113 it is also possible to use a touch panel which is superimposed on the display functioning as the output interface 114 and has an input coordinate system corresponding to the display coordinate system of the display.
  • icons corresponding to the physical keys are displayed on the display, and the operator inputs instructions via the touch panel to select each icon. Any method such as a capacitive method, a resistive film method, or the like may be used to detect a user's instruction input through the touch panel.
  • the input interface 113 does not always need to be physically provided in the processing device 100, and may be connected as necessary via a wired or wireless network.
  • the output interface 114 functions as an output unit for outputting a subject image captured by the imaging device 200 and outputting the results determined by the processor 111 .
  • An example of the output interface 114 is a display composed of a liquid crystal panel, an organic EL display, a plasma display, or the like.
  • the processing device 100 itself does not necessarily have to have a display.
  • an interface for connecting to a display or the like that can be connected to the processing device 100 via a wired or wireless network can function as the output interface 114 that outputs display data to the display or the like.
  • the communication interface 115 functions as a communication unit for transmitting and receiving various commands related to the start of shooting and image data captured by the imaging device 200 to and from the imaging device 200 connected via a wired or wireless network.
  • Examples of the communication interface 115 include connectors for wired communication such as USB and SCSI, transmitting/receiving devices for wireless communication such as wireless LAN, Bluetooth (registered trademark) and infrared rays, and various connection terminals for printed mounting boards and flexible mounting boards. and so on.
  • the camera 211 of the imaging device 200 functions as an imaging unit that detects reflected light reflected by the oral cavity, which is a subject, and generates a subject image.
  • the camera 211 includes, for example, a CMOS image sensor to detect the light, and a lens system and a drive system for realizing desired functions.
  • the image sensor is not limited to a CMOS image sensor, and other sensors such as a CCD image sensor can also be used.
  • the camera 211 can have an autofocus function, and is preferably set to focus on a specific part in front of the lens, for example.
  • the camera 211 can also have a zoom function, and is preferably set to image at an appropriate magnification according to the size of the pharynx or influenza follicles.
  • the lymphoid follicles that appear in the deepest part of the pharynx located in the oral cavity have a pattern unique to influenza. Lymphoid follicles having this unique pattern are called influenza follicles, which are characteristic signs of influenza and are said to appear about 2 hours after onset.
  • influenza follicles which are characteristic signs of influenza and are said to appear about 2 hours after onset.
  • the processing system 1 of the present embodiment is used, for example, to image the pharynx of the oral cavity and detect the follicles, thereby determining the possibility of the user being infected with influenza. Therefore, when the photographing device 200 is inserted into the oral cavity, the distance between the camera 211 and the subject becomes relatively short.
  • the camera 211 preferably has an angle of view (2 ⁇ ) such that the value calculated by [(distance from the tip of the camera 211 to the posterior wall of the pharynx)*tan ⁇ ] is 20 mm or more vertically and 40 mm or more horizontally.
  • 2 ⁇ the value calculated by [(distance from the tip of the camera 211 to the posterior wall of the pharynx)*tan ⁇ ] is 20 mm or more vertically and 40 mm or more horizontally.
  • the main subject imaged by the camera 211 is the pharynx or influenza follicles formed in the pharynx.
  • the pharynx is recessed in the depth direction, so if the depth of field is shallow, the focus shifts between the anterior pharynx and the posterior pharynx. becomes difficult.
  • camera 211 has a depth of field of at least 20 mm or more, preferably 30 mm or more. By using a camera having such a depth of field, it is possible to obtain a subject image in which any part from the anterior pharynx to the posterior pharynx is in focus.
  • the light source 212 is driven by an instruction from the processing device 100 or the imaging device 200, and functions as a light source unit for irradiating light into the oral cavity.
  • Light source 212 includes one or more light sources.
  • the light source 212 is composed of one or a plurality of LEDs, and each LED emits light having a predetermined frequency band toward the oral cavity.
  • the light source 212 uses light in a desired band from among an ultraviolet light band, a visible light band, and an infrared light band, or a combination thereof. It should be noted that when the processing apparatus 100 determines the possibility of influenza, it is preferable to use light in the short wavelength band of the ultraviolet light band.
  • the processor 213 functions as a control unit that controls other components of the imaging device 200 based on programs stored in the memory 214 .
  • the processor 213 controls the driving of the camera 211 and the light source 212 based on the program stored in the memory 214 , and controls the storage of the subject image captured by the camera 211 in the memory 214 .
  • the processor 213 also controls the output of the subject image and user information stored in the memory 214 to the display 203 and the transmission to the processing device 100 .
  • the processor 213 is mainly composed of one or more CPUs, but may be appropriately combined with other processors.
  • the memory 214 is composed of RAM, ROM, nonvolatile memory, HDD, etc., and functions as a storage unit.
  • the memory 214 stores instruction commands for various controls of the imaging device 200 as programs.
  • the memory 214 stores a subject image captured by the camera 211, various user information, and the like.
  • the display panel 215 functions as a display unit provided on the display 203 to display the subject image captured by the imaging device 200 .
  • the display panel 215 is configured by a liquid crystal panel, it is not limited to the liquid crystal panel, and may be configured by an organic EL display, a plasma display, or the like.
  • the input interface 210 functions as an input unit that receives user's instruction input to the processing device 100 and the imaging device 200 .
  • Examples of the input interface 210 include a “shooting button” for instructing the start/end of recording by the shooting device 200, a “power button” for turning on/off the power of the shooting device 200, and a “power button” for making various selections. a “return/cancel button” for returning to the previous screen or canceling the entered confirmation operation; be done.
  • These various buttons and keys may be physically prepared, or may be displayed as icons on the display panel 215, and a touch panel or the like superimposed on the display panel 215 and arranged as the input interface 210 may be used. It may be made selectable by using Any method such as a capacitive method, a resistive film method, or the like may be used to detect a user's instruction input through the touch panel.
  • the communication interface 216 functions as a communication unit for transmitting and receiving information with the imaging device 200 and/or other devices.
  • Examples of the communication interface 216 include connectors for wired communication such as USB and SCSI, transmitting/receiving devices for wireless communication such as wireless LAN, Bluetooth (registered trademark) and infrared rays, and various connection terminals for printed mounting boards and flexible mounting boards. and so on.
  • FIG. 5 is a top view showing the configuration of the imaging device 200 according to one embodiment of the present disclosure.
  • FIG. 5 is a diagram showing a state in which the photographing device 200 including the main body 201, the grip 202, and the display 203 is viewed from above from the side that is inserted into the oral cavity.
  • the body 201 has a proximal end 225 and a distal end 222, and has a predetermined length in a direction in which light is emitted from the light source 212, i.e., in a direction substantially parallel to the direction H of insertion into the oral cavity. It is composed of pillars. At least the tip 222 of the main body 201 is then inserted into the oral cavity.
  • the main body 201 is formed in the shape of a hollow cylindrical column whose cross section is a perfect circle.
  • the wall portion 224 may be made of any material as long as it can guide light into the interior thereof, and for example, it can be obtained using a thermoplastic resin.
  • Thermoplastic resins include linear polyolefin resins (polypropylene resins, etc.), polyolefin resins such as cyclic polyolefin resins (norbornene resins, etc.), cellulose ester resins such as triacetyl cellulose and diacetyl cellulose, and polyesters. resins, polycarbonate resins, (meth)acrylic resins, polystyrene resins, or mixtures or copolymers thereof. That is, the wall portion 224 of the main body 201 functions as a light guide for guiding the light emitted from the light source into the oral cavity or toward the diffusion plate.
  • the main body 201 Since the main body 201 is formed hollow, a housing space 223 is formed on the inner surface by the wall portion 224 .
  • the camera 211 is accommodated in this accommodation space 223 .
  • the main body 201 only needs to be formed in a columnar shape having the accommodation space 223 . Therefore, the accommodation space 223 does not need to have a cylindrical shape with a perfectly circular cross section, and may have an elliptical or polygonal cross section. Further, the main body 201 does not necessarily have to be hollow inside.
  • the tip of the grip 202 is connected to the proximal end 225 of the main body 201 .
  • a user grips the grip 202 and performs an operation such as inserting/removing the photographing apparatus 200 .
  • the grip 202 is composed of a columnar body having a predetermined length in a direction substantially parallel to the direction H in which it is inserted into the oral cavity, that is, along the longitudinal direction of the main body 201, and is coaxial with the main body 201 in the direction H. placed on a line.
  • the cross section in the vertical direction is formed to have a substantially elliptical shape, but it is not necessary to have an elliptical shape, and may be a perfect circle, an ellipse, or a polygon.
  • the grip 202 has a connecting portion 230 formed at a position closest to the proximal end 225 of the main body 201 and is connected to the main body 201 via the connecting portion 230 .
  • the outer periphery of the connecting portion 230 has engaging projections 217 (217-1 to 217-4) for positioning the auxiliary tool 300 and positioning projections 218. As shown in FIG.
  • the engaging projections 217 are engaged with the engaging projections 318 (318-1 to 318-4) provided on the auxiliary tool 300 with each other.
  • the positioning protrusion 218 is inserted into an insertion hole 321 provided in the auxiliary tool 300 to position the photographing device 200 and the auxiliary tool 300 relative to each other.
  • the engaging projections 217 of the main body 201 include a total of four engaging projections (engaging projections 217-1 to 217-4) that are located on the surface of the grip 202 and on the base of the main body 201. They are evenly spaced at positions near the edge 225 .
  • One positioning projection 218 is arranged between the engaging projections 217 on the surface of the grip 202 and near the base end 225 of the main body 201 .
  • the arrangement is not limited to this, and only one of the engaging projection 217 and the positioning projection 218 may be arranged.
  • the number of the engaging protrusions 217 and the positioning protrusions 218 may be any number as long as the number is one or more.
  • the grip 202 includes an imaging button 220 at a position close to the proximal end 225 of the main body 201 on its upper surface, that is, near the distal end of the grip 202 in the insertion direction H into the oral cavity.
  • the power button 221 is arranged on the upper surface of the grip 202 at a position close to the display 203 , that is, at a position on the opposite side of the grip 202 from the shooting button 220 . As a result, it is possible to prevent the operator 600 from accidentally pressing the power button 221 while the operator 600 is holding and capturing an image.
  • the display 203 has a substantially rectangular parallelepiped shape as a whole and is arranged on the same straight line in the direction H as the main body 201 .
  • the display 203 also includes a display panel 215 on the surface opposite to the direction H of insertion into the oral cavity (that is, the direction toward the user). Therefore, the display 203 is formed such that the surface including the display panel is substantially perpendicular to the longitudinal direction of the main body 201 and the grip 202 which are formed substantially parallel to the direction H of insertion into the oral cavity. be. Then, it is connected to the grip 202 on the side opposite to the oral cavity of the grip 202 on the surface opposite to the surface including the display panel.
  • the shape of the display is not limited to a substantially rectangular parallelepiped shape, and may be any shape such as a columnar shape.
  • the diffuser plate 219 is arranged at the tip 222 of the main body 201 and diffuses the light emitted from the light source 212 and passed through the main body 201 toward the intraoral cavity.
  • the diffuser plate 219 has a shape corresponding to the cross-sectional shape of the portion of the main body 201 configured to be able to guide light.
  • the main body 201 is formed in a hollow cylindrical shape. Therefore, the cross section of diffusion plate 219 is also formed hollow corresponding to the shape.
  • the camera 211 is used to generate a subject image by detecting reflected light that has been diffused from the diffusion plate 219, irradiated into the oral cavity, and reflected on the subject.
  • the camera 211 is arranged on the same straight line in the direction H as the main body 201 on the inner surface of the wall portion 224 of the main body 201 , that is, in the housing space 223 formed inside the main body 201 .
  • the imaging device 200 may include a plurality of cameras. By generating a subject image using a plurality of cameras, the subject image includes information about the three-dimensional shape.
  • the camera 211 is arranged in the accommodation space 223 of the main body 201, but the camera 211 can may be placed in
  • FIG. 6 is a schematic diagram showing a cross-sectional configuration of the imaging device 200 according to one embodiment of the present disclosure.
  • a total of four light sources 212 - 1 to 212 - 4 are arranged on a substrate 231 arranged on the tip side of the grip 202 .
  • the light sources 212 each include an LED, and light having a predetermined frequency band is emitted from each LED toward the oral cavity.
  • the light emitted from the light source 212 enters the base end 225 of the main body 201 and is guided toward the diffusion plate 219 by the wall portion 224 of the main body 201 .
  • the light reaching the diffuser plate 219 is diffused by the diffuser plate 219 into the oral cavity.
  • the light diffused by the diffusion plate 219 is reflected by the object such as the pharynx 715 .
  • this reflected light reaches the camera 211, a subject image is generated.
  • the light sources 212-1 to 212-4 may be configured to be controlled independently. For example, by illuminating some of the light sources 212-1 to 212-4, the shadow of a subject having a three-dimensional shape (such as influenza follicles) can be included in the subject image. As a result, the subject image includes information about the three-dimensional shape of the subject, making it possible to more clearly identify the subject and more accurately determine the possibility of influenza infection by the determination algorithm.
  • a subject having a three-dimensional shape such as influenza follicles
  • the light sources 212-1 to 212-4 are arranged on the base end 225 side of the main body 201, but the tip 222 of the main body 201 or the main body 201 may be located on the perimeter of the
  • the diffusion plate 219 is used to prevent the light emitted from the light source 212 from illuminating only a part of the oral cavity and to generate uniform light. Therefore, as an example, a lens-shaped diffusion plate is used in which a fine lens array is formed on the surface of the diffusion plate 219 and has an arbitrary diffusion angle. Alternatively, a diffuser plate that can diffuse light by other methods, such as a diffuser plate that achieves a light diffusion function with fine irregularities randomly arranged on the surface, may be used. Furthermore, the diffuser plate 219 may be configured integrally with the main body 201 . For example, it can be realized by a method such as forming fine unevenness on the tip portion of the main body 201 .
  • the diffusion plate 219 is arranged on the tip 222 side of the main body 201 .
  • the present invention is not limited to this, as long as it is between the light source 212 and the oral cavity to be irradiated with it. ) may be placed.
  • FIG. 7A is a diagram conceptually showing an image management table stored in the processing device 100 according to an embodiment of the present disclosure. The information stored in the image management table is updated and stored as needed according to the progress of the processing of the processor 111 of the processing device 100 .
  • the image management table stores subject image information, candidate information, determination image information, etc. in association with user ID information.
  • User ID information is information unique to each user and for specifying each user. User ID information is generated each time a new user is registered by the operator.
  • Subject image information is information specifying a subject image captured by the operator for each user.
  • a subject image is one or a plurality of images including a subject captured by the camera of the imaging device 200 , and is stored in the memory 112 by being received from the imaging device 200 .
  • the “candidate information” is information specifying an image that is a candidate for selecting a determination image from one or more subject images.
  • Determination image information is information for specifying a determination image used to determine the possibility of influenza infection.
  • Such a determination image is selected based on the degree of similarity from the candidate images specified by the candidate information.
  • information for specifying each image is stored as subject image information, candidate information, and determination image information.
  • the information for specifying each image is typically identification information for identifying each image, but it may be information indicating the storage location of each image or the image data of each image itself. good too.
  • FIG. 7B is a diagram conceptually showing a user table stored in the processing device 100 according to an embodiment of the present disclosure.
  • the information stored in the user table is updated and stored as needed according to the progress of the processing of the processor 111 of the processing device 100 .
  • attribute information, interview information, two-dimensional code information, determination result information, etc. are stored in the user table in association with user ID information.
  • User ID information is information unique to each user and for specifying each user. User ID information is generated each time a new user is registered by the operator.
  • attribute information is information input by an operator or a user, for example, and is information related to an individual user such as the user's name, sex, age, and address.
  • Information is, for example, information input by an operator or a user, and is information such as the user's medical history and symptoms that is used as a reference for diagnosis by a doctor or the like.
  • interview information examples include weight, allergy, patient background such as underlying disease, body temperature, peak body temperature from onset, elapsed time from onset, heart rate, pulse rate, oxygen saturation, blood pressure, medication Usage status, contact status with other influenza patients, joint pain, muscle pain, headache, malaise, loss of appetite, chills, sweating, cough, sore throat, nasal discharge/congestion, tonsillitis, digestive symptoms, rash on hands and feet , the presence or absence of subjective symptoms and physical findings such as pharynx redness and white lichen, tonsil swelling, history of tonsil resection, strawberry tongue, swollen anterior cervical lymph nodes with tenderness, influenza vaccination history, vaccination timing, etc. mentioned.
  • “Two-dimensional code information” is information for specifying a recording medium on which at least one of user ID information, information for specifying it, attribute information, interview information, and a combination thereof is recorded. be. Such a recording medium need not be a two-dimensional code. In place of the two-dimensional code, various items such as one-dimensional bar code, other multi-dimensional code, text information such as specific numbers and characters, and image information can be used.
  • “Determination result information” is information indicating the determination result of the possibility of contracting influenza based on the determination image. An example of such determination result information is the positive rate for influenza. However, it is not limited to the positive rate, and any information that indicates the possibility, such as information specifying whether it is positive or negative, may be used. Moreover, the determination result does not need to be a specific numerical value, and may be in any form, such as classification according to the positive rate, classification indicating whether it is positive or negative, and the like.
  • the attribute information and inquiry information need not be input each time by the user or operator, and may be received from an electronic medical record device or other terminal device connected via a wired or wireless network, for example. . Alternatively, it may be obtained by analyzing a subject image captured by the imaging device 200 . Furthermore, although not particularly illustrated in FIGS. 7A and 7B, information on current epidemics of infectious diseases to be diagnosed or assisted in diagnosing influenza etc., judgment results and disease status of other users regarding these infectious diseases It is also possible to further store external factor information such as
  • FIG. 8 is a diagram showing a processing sequence executed between the processing device 100 and the photographing device 200 according to an embodiment of the present disclosure. Specifically, FIG. 8 is executed after the processing device 100 selects the shooting mode, the shooting device 200 shoots the subject image, and the processing device 100 outputs the determination result. A processing sequence is shown.
  • the processing device 100 outputs a mode selection screen via the output interface 114, and receives mode selection by the operator via the input interface 113 (S11). Then, when the selection of the shooting mode is accepted, the processing device 100 outputs an attribute information input screen via the output interface 114 .
  • the processing device 100 receives input from the operator or user via the input interface 113, acquires the attribute information, and stores it in the user table in association with the user ID information (S12). Further, when the attribute information is acquired, the processing device 100 outputs an input screen for inquiry information via the output interface 114 .
  • the processing device 100 receives an input from an operator or a user via the input interface 113, acquires inquiry information, and stores it in the user table in association with the user ID information (S13).
  • attribute information and inquiry information need not be performed at this timing, and can be performed at other timing such as before the determination process.
  • information may be acquired not only by receiving input via the input interface 113 but also by receiving from an electronic medical chart device or other terminal device connected via a wired or wireless network.
  • these information are recorded in a recording medium such as a two-dimensional code after being input by an electronic medical record device or other terminal device, and the recording medium is photographed by a camera or a photographing device 200 connected to the processing device 100.
  • a recording medium such as a two-dimensional code after being input by an electronic medical record device or other terminal device, and the recording medium is photographed by a camera or a photographing device 200 connected to the processing device 100.
  • a paper medium such as a medical questionnaire by users, operators, patients, medical personnel, etc.
  • the paper medium is captured by a scanner or imaging device 200 connected to the processing device 100.
  • optically recognizing characters may be obtained by optically recognizing characters.
  • the processing device 100 Under the control of the processor 111, the processing device 100 generates a two-dimensional code in which user ID information generated in advance is recorded, and stores it in the memory 112 (S14). Then, the processing device 100 outputs the generated two-dimensional code via the output interface 114 (S15).
  • the photographing device 200 activates the camera 211 and the like in response to an input from the operator to the input interface 210 (for example, a power button) (S21). Then, by photographing the two-dimensional code output via the output interface 114 with the activated camera 211, the photographing device 200 reads the user ID information recorded in the two-dimensional code (S22).
  • the operator covers the tip of the imaging device 200 with the auxiliary tool 300 and inserts the imaging device 200 into the user's oral cavity to a predetermined position.
  • the imaging device 200 Upon receiving an operator's input to the input interface 210 (for example, an image capture button), the imaging device 200 starts capturing a subject image of the subject including at least part of the oral cavity (S23).
  • the photographing device 200 associates the photographed subject image with the user ID information read from the two-dimensional code, stores the photographed subject image in the memory 214, and displays the photographed subject image on the display panel 215 of the display. Then, the subject image is output (S24).
  • the photographing apparatus 200 receives the input of the end of photographing by the operator through the input interface 210, the photographing apparatus 200 associates the stored object image (T21) with the user ID information through the communication interface 216, and outputs it to the processing apparatus. Send to 100.
  • the processing device 100 receives the subject image via the communication interface 115, it stores it in the memory 112 and registers it in the image management table based on the user ID information.
  • the processing device 100 selects a judgment image to be used for judging the possibility of contracting influenza from the stored subject images (S31).
  • the processing device 100 uses the selected determination image to execute the processing of determining the possibility of contracting influenza (S32).
  • the processing device 100 stores the obtained determination result in association with the user ID information in the user table and outputs it via the output interface 114 (S33). After that, the processing sequence ends.
  • FIG. 9 is a diagram showing a processing flow performed by the processing device 100 according to one embodiment of the present disclosure. Specifically, FIG. 9 is a diagram showing a processing flow that is executed at predetermined intervals for the processing related to S11 to S15 of FIG. The processing flow is mainly performed by the processor 111 of the processing device 100 reading and executing a program stored in the memory 112 .
  • FIG. 18 is a diagram showing an example of a screen displayed on the processing device 100 according to an embodiment of the present disclosure. Specifically, FIG. 18 shows an example of the mode selection screen output in S111 and S112 of FIG. According to FIG. 18, approximately at the center of the display functioning as the output interface 114, there is a photographing mode icon 11 for shifting to a photographing mode for photographing a subject image, and the result of having already determined the possibility of contracting influenza is displayed on the display. A determination result confirmation mode icon 12 for shifting to the output determination result confirmation mode is displayed. The user can operate the input interface 113 to select which mode to shift to.
  • the processor 111 determines whether or not the mode selection by the operator has been accepted via the input interface 113 (S112). At this time, if the processor 111 determines that neither the shooting mode icon 11 nor the determination result confirmation mode icon 12 shown in FIG. 18 has been input and no mode selection has been received, the processing flow ends.
  • the processor 111 determines whether or not the shooting mode has been selected. (S113).
  • the processor 111 determines that the determination result confirmation mode icon 12 shown in FIG. 18 has been selected, the desired determination result is displayed via the output interface 114 (S118).
  • the processor 111 determines that the shooting mode icon 11 shown in FIG. 18 has been selected, it displays a screen for accepting input of the user's attribute information on the output interface 114 (not shown).
  • the screen includes items such as the user's name, gender, age, address, etc., which must be input as attribute information, and input boxes for inputting answers to each item.
  • the processor 111 acquires the information input to each input box via the input interface 113 as attribute information (S114).
  • the processor 111 then generates new user ID information corresponding to the user newly stored in the user table, and stores the attribute information in the user table in association with the user ID information. . Note that if the user ID information is selected in advance before inputting the attribute information, it is possible to omit generating new user ID information.
  • the processor 111 displays on the output interface 114 a screen for accepting the user's inquiry information input (not shown).
  • the screen includes items such as the user's body temperature, heart rate, medication status, presence or absence of subjective symptoms, etc., which need to be input as interview information, and an input box for inputting answers to each item.
  • the processor 111 acquires the information input to each input box via the input interface 113 as interview information, and stores it in the user table in association with the user ID information (S115).
  • attribute information and inquiry information are input by the processing device 100 .
  • the information is not limited to this, and may be acquired by receiving information input to an electronic medical chart device or other terminal device connected via a wired or wireless network.
  • the processor 111 refers to the user table, reads the user ID information corresponding to the user whose information has been input, and generates a two-dimensional code recording this (S116).
  • the processor 111 associates the generated two-dimensional code with the user ID information, stores it in the user table, and outputs it via the output interface 114 (S117). With the above, the processing flow ends.
  • FIG. 19 is a diagram showing an example of a screen displayed on the processing device 100 according to an embodiment of the present disclosure.
  • FIG. 19 is a diagram showing an example of the display screen of the two-dimensional code output in S117 of FIG.
  • the user ID information of the user whose attribute information and the like are input is displayed above the display functioning as the output interface 114 .
  • the two-dimensional code generated in S116 of FIG. 19 is displayed approximately in the center of the display.
  • FIG. 10 is a diagram showing a processing flow performed by the processing device 100 according to one embodiment of the present disclosure. Specifically, FIG. 10 is a diagram showing a processing flow that is executed at predetermined intervals for the processing related to S21 to S24 of FIG. The processing flow is mainly performed by the processor 213 of the imaging device 200 reading and executing a program stored in the memory 214 .
  • the processor 213 determines whether or not an operator's input is accepted via the input interface 210 (eg, power button) (S211). At this time, if the processor 213 determines that the operator's input has not been received, the processing flow ends.
  • the processor 213 determines that the operator's input has been accepted, it outputs a standby screen to the display panel 215 (S212).
  • the standby screen (not shown) includes a through image captured via the camera 211 .
  • the operator moves the photographing device 200 so that the angle of view of the camera 211 includes the two-dimensional code output to the output interface 114 of the processing device 100, and the processor 213 photographs the two-dimensional code with the camera 211. (S213).
  • processor 213 reads the user ID information recorded in the two-dimensional code, and stores the read user ID information in memory 214 (S214).
  • the processor 213 then outputs the standby screen to the display panel 215 again (S215).
  • the operator covers the tip of the imaging device 200 with the auxiliary tool 300, and inserts the imaging device 200 into the oral cavity of the user to a predetermined position.
  • the processor 213 receives a shooting start operation from the operator via the input interface 210 (for example, a shooting button)
  • the processor 213 controls the camera 211 to start shooting a subject image of the subject (S216).
  • the photographing of the subject images is performed by continuously photographing a predetermined number of images (for example, 30 images) at a predetermined interval by pressing the photographing button.
  • processor 213 stores the photographed subject image in memory 214 in association with the read user ID information.
  • Processor 213 then outputs the subject image stored in display panel 215 (S217).
  • the operator takes out the imaging device 200 together with the aid 300 from the intraoral cavity, checks the subject image output to the display panel 215, and if the desired image is not obtained, inputs an instruction for re-imaging. It is possible. Therefore, the processor 213 determines whether or not the input of the re-imaging instruction by the operator has been received via the input interface 210 (S218). If the input of the re-imaging instruction is received, the processor 213 displays the standby screen of S215 again to enable the imaging of the subject image.
  • the processor 213 transfers the image to the memory via the communication interface 216 . 214 and the user ID information associated with the subject image are transmitted to the processing device 100 (S219). After that, the processing flow ends.
  • FIG. 11 is a diagram showing a processing flow performed by the processing device 100 according to one embodiment of the present disclosure. Specifically, FIG. 11 is a diagram showing a processing flow executed for the processing related to S31 to S33 of FIG. The processing flow is mainly performed by the processor 111 of the processing device 100 reading and executing a program stored in the memory 112 .
  • the processor 111 when the processor 111 receives the subject image and the associated user ID information from the photographing device 200, it stores it in the memory 112 and registers it in the image management table (S311). Then, the processor 111 outputs the received user ID information or attribute information (for example, name) corresponding to the received user ID information through the output interface 114, and selects a user whose possibility of affliction with influenza is to be determined. is accepted (S312). At this time, when a plurality of pieces of user ID information and associated subject images are received from the photographing device 200, a plurality of pieces of user ID information or attribute information corresponding thereto are output, and any It is possible to select the user.
  • the processor 111 receives the subject image and the associated user ID information from the photographing device 200, it stores it in the memory 112 and registers it in the image management table (S311). Then, the processor 111 outputs the received user ID information or attribute information (for example, name) corresponding to the received user ID information through the output interface 114,
  • the processor 111 When the processor 111 receives the selection of the user to be judged via the input interface 113, it reads the attribute information associated with the user ID information of the user from the user table in the memory 112 (S313). Similarly, the processor 111 reads medical inquiry information associated with the user ID information of the user to be determined from the user table in the memory 112 (S314).
  • the processor 111 reads out the subject image associated with the user ID information of the selected user from the memory 112, and selects the determination image used to determine the possibility of affliction with influenza. (S315: The details of this selection process will be described later.). Then, the processor 111 executes processing for determining the possibility of contracting influenza based on the selected determination image (S316: details of this determination processing will be described later).
  • the processor 111 stores it in the user table in association with the user ID information, and outputs the determination result via the output interface 114 (S317). After that, the processing flow ends.
  • FIG. 12 is a diagram showing a processing flow executed by the processing device 100 according to one embodiment of the present disclosure. Specifically, FIG. 12 is a diagram showing the details of the determination image selection process executed in S315 of FIG. The processing flow is mainly performed by the processor 111 of the processing device 100 reading and executing a program stored in the memory 112 .
  • the processor 111 reads the subject image associated with the user ID information of the selected user from the memory 112 (S411).
  • the processor 412 selects an image that is a candidate for the determination image from the read subject images (S412). This selection is performed, for example, using a learned judgment image selection model.
  • FIG. 13 is a diagram showing a processing flow for generating a trained model according to an embodiment of the present disclosure. Specifically, FIG. 13 is a diagram showing a processing flow relating to generation of a learned judgment image selection model used in S412 of FIG.
  • the processing flow may be executed by the processor 111 of the processing device 100 or by a processor of another processing device.
  • the processor executes a step of acquiring a subject image of a subject including at least part of the pharynx as a learning subject image (S511).
  • the processor executes a processing step of adding label information indicating whether or not the acquired learning subject image is an image that can be used as a determination image (S512).
  • the processor executes a step of storing the assigned label information in association with the learning object image (S513). Note that in the labeling process and the label information storage process, a human judges in advance whether or not the object image for learning is a judgment image, and the processor stores it in association with the object image for learning.
  • the processor may analyze whether or not the image is a determination image by a known image analysis process, and store the result in association with the learning object image. Also, the label information is given based on the viewpoints of whether or not at least a partial region of the oral cavity, which is the subject, is captured, and whether or not the image quality is good such as camera shake, defocus, and cloudiness.
  • the processor executes a step of performing machine learning of the selection pattern of the determination image using them (S514).
  • machine learning for example, a set of an object image for learning and label information is given to a neural network configured by combining neurons, and the parameters of each neuron are adjusted so that the output of the neural network is the same as the label information. This is done by repeating learning while making adjustments.
  • a step of acquiring a trained judgment image selection model for example, neural network and parameters
  • the acquired learned determination image selection model may be stored in the memory 112 of the processing device 100 or another processing device connected to the processing device 100 via a wired or wireless network.
  • the processor 111 inputs the subject image read out in S411 to the learned judgment image selection model, thereby obtaining candidate images as judgment image candidates as output.
  • This makes it possible to favorably select an image showing at least a partial region of the oral cavity, which is a subject, or an image with good image quality such as camera shake, defocus, motion blur of the subject, exposure, and cloudiness.
  • the processor 111 registers the acquired candidate images, which are candidates for the determination image, in the image management table.
  • the processor 111 executes selection processing of a judgment image based on the degree of similarity from the selected candidate images (S413). Specifically, the processor 111 compares the obtained candidate images and calculates the degree of similarity between the candidate images. Then, the processor 111 selects a candidate image judged to have a low degree of similarity to other candidate images as a judgment image.
  • the degree of similarity between such candidate images can be determined by a method using local feature amounts in each candidate image (Bag-of-Keypoints method), a method using EMD (Earth Mover's Distance), SVM ( It is calculated by a method using support vector machine), a method using Hamming distance, a method using cosine similarity, or the like.
  • the processor 111 registers the candidate image selected based on the degree of similarity as the determination image in the image management table (S414).
  • each of the subject image, the candidate image, and the determination image may be one or a plurality of images.
  • by using a plurality of determination image groups for the determination processing described later it is possible to further improve the determination accuracy as compared with the case where only one determination image is used.
  • each time a subject image is captured the captured subject image is transmitted to the processing device 100 and then the candidate image and the determination image are selected, or the candidate image is selected by the image capturing device 200 .
  • Image selection and determination image selection may be performed, and photographing may be terminated when a predetermined number of determination images (for example, about five) are obtained. By doing so, it is possible to minimize the time required for photographing the subject image while maintaining the improvement in determination accuracy as described above. In other words, discomfort to the user such as vomiting reflex can be reduced.
  • a predetermined number of determination images for example, about five
  • FIG. 14 is a diagram showing a processing flow performed by the processing device 100 according to one embodiment of the present disclosure. Specifically, FIG. 14 is a diagram showing details of the processing for determining the possibility of contracting influenza, which is executed in S316 of FIG. The processing flow is mainly performed by the processor 111 of the processing device 100 reading and executing a program stored in the memory 112 .
  • the processor 111 obtains the determination result by ensemble processing the first positive rate, the second positive rate, and the third positive rate obtained by different methods.
  • the processor 111 reads from the memory 112 the determination image associated with the user ID information of the user to be determined (S611). Then, the processor 111 performs predetermined preprocessing on the read judgment image.
  • preprocessing includes filter processing such as bandpass filters including high-pass filters and low-pass filters, averaging filters, Gaussian filters, Gabor filters, Canny filters, Sobel filters, Laplacian filters, median filters, bilateral filters, etc.
  • Blood vessel extraction processing using Hessian matrix etc. segmentation processing of specific regions (e.g., follicles) using machine learning, trimming processing for segmented regions, defogging processing, super-resolution processing, and combinations of these, high-definition It is selected according to the purpose such as image reduction, area extraction, noise removal, edge enhancement, image correction, and image conversion.
  • preprocessing it is possible to improve the determination accuracy by extracting and emphasizing in advance a region of interest that is important in diagnosing a disease, such as follicles in influenza.
  • defogging processing as an example, a set of a learning subject image and a learning degraded image to which cloudiness is added by applying a cloudiness addition filter or the like from the learning subject image is given to the learning device, and machine learning is performed.
  • the processor 111 inputs the read judgment image as an input into the learned defogging image model stored in the memory 112, and acquires the judgment image with the defogging removed as an output.
  • a set of high-resolution images of the subject and low-resolution images obtained by degrading the high-resolution images, such as scale reduction and blurring, are used as training images for the learning device. and use a trained super-resolution image model obtained by machine learning.
  • the processor 111 receives the defogged determination image as an input, inputs it to the trained super-resolution image model stored in the memory 112, and acquires the super-resolution-processed determination image as an output.
  • the segmentation process includes a learning object image and position information of the label obtained by labeling a region of interest (for example, a follicle) based on an operation input by a doctor or the like to the learning object image.
  • the processor 111 receives the super-resolution-processed judgment image as an input, inputs the learned segmentation image model stored in the memory 112, and obtains a judgment image in which a region of interest (eg, follicle) is segmented.
  • the processor 112 then stores the preprocessed decision image in the memory 112 .
  • the defogging process, the super-resolution process, and the segmentation process are processed in this order, but the order may be any order, and at least any one process may be performed.
  • other processes such as defogging filter, scale enlargement process, and sharpening process may be used.
  • the processor 111 gives the preprocessed determination image as an input to the feature amount extractor (S613), and acquires the image feature amount of the determination image as an output (S614). Further, the processor 111 provides the feature amount of the obtained determination image as input to the classifier (S615), and obtains as output the first positive rate indicating the first possibility of contracting influenza (S616).
  • the feature amount extractor can obtain a predetermined number of feature amounts, such as the presence or absence of follicles and the presence or absence of redness in the determination image, as vectors. As an example, 1024-dimensional feature quantity vectors are extracted from the judgment image and stored as the feature quantity of the judgment image.
  • FIG. 15 is a diagram showing a processing flow for generating a trained model according to an embodiment of the present disclosure. Specifically, FIG. 15 is a diagram showing a processing flow relating to generation of a trained positive rate determination selection model including the feature amount extractor of S613 and the classifier of S615 of FIG.
  • the processing flow may be executed by the processor 111 of the processing device 100 or by a processor of another processing device.
  • the processor executes a step of obtaining, as a learning determination image, an image of a subject including at least part of the pharynx that has undergone preprocessing similar to S612 of FIG. 14 (S711).
  • the processor assigns a correct label based on the results of a rapid influenza test by immunochromatography, a PCR test, a virus isolation culture test, etc., to the user who is the subject of the acquired determination image for learning. (S712).
  • the processor executes a step of storing the assigned correct label information as determination result information in association with the learning determination image (S713).
  • the processor uses them to carry out machine learning of positive rate determination patterns (S714).
  • machine learning for example, a combination of a learning judgment image and correct label information is given to a feature quantity extractor composed of a convolutional neural network and a classifier composed of a neural network, and an output from the classifier is the same as the correct label information, learning is repeated while adjusting the parameters of each neuron.
  • a step of acquiring a learned positive rate determination model is executed (S715).
  • the acquired learned positive rate determination model may be stored in the memory 112 of the processing device 100 or another processing device connected to the processing device 100 via a wired or wireless network.
  • the processor 111 inputs the judgment image preprocessed in S612 to the learned positive rate judgment model, thereby obtaining the feature quantity (S614) of the judgment image and the first influenza morbidity.
  • a first positive rate (S616) indicating the possibility is obtained as an output and stored in the memory 112 in association with the user ID information.
  • the processor 111 reads from the memory 112 at least one of medical inquiry information and attribute information associated with the user ID information of the user to be determined (S617). Further, the processor 111 reads from the memory 112 the feature amount of the determination image calculated in S614 and stored in the memory 112 in association with the user ID information (S614). Then, the processor 111 gives at least one of the read medical interview information and attribute information and the feature amount of the judgment image as inputs to the learned positive rate judgment model (S618), and calculates the second possibility of affliction with influenza. The indicated second positive rate is obtained as an output (S619).
  • FIG. 16 is a diagram showing a processing flow for generating a trained model according to an embodiment of the present disclosure. Specifically, FIG. 16 is a diagram showing a processing flow relating to generation of the learned positive rate determination selection model in S618 of FIG.
  • the processing flow may be executed by the processor 111 of the processing device 100 or by a processor of another processing device.
  • the processor executes a step of acquiring a learning feature amount from a determination image obtained by performing preprocessing similar to S612 of FIG. 14 on an image of a subject including at least part of the pharynx (S721 ). Also, the processor executes a step of acquiring interview information and attribute information stored in advance in association with the user ID information of the user who is the subject of the determination image (S721). Next, the processor carries out a processing step of assigning a correct label to the user who is the subject of the judgment image, which is assigned in advance based on the results of the rapid influenza test by immunochromatography, the PCR test, the virus isolation and culture test, and the like. Execute (S722). Then, the processor executes a step of storing the assigned correct label information as determination result information in association with the learning feature amount of the determination image, the inquiry information, and the attribute information (S723).
  • the processor executes a step of performing machine learning of the positive rate judgment pattern using them ( S724).
  • the machine learning provides a set of information to a neural network that combines neurons, and learns while adjusting the parameters of each neuron so that the output from the neural network is the same as the correct label information. is performed by repeating Then, a step of obtaining a learned positive rate determination model is executed (S725).
  • the acquired learned positive rate determination model may be stored in the memory 112 of the processing device 100 or another processing device connected to the processing device 100 via a wired or wireless network.
  • the processor 111 inputs at least one of the feature amount of the judgment image read out in S614 and the inquiry information and attribute information read out in S617 for the learned positive rate judgment model.
  • a second positive rate (S619) indicating the second possibility of contracting influenza is obtained as an output and stored in memory 112 in association with the user ID information.
  • the processor 111 reads from the memory 112 at least one of medical inquiry information and attribute information associated with the user ID information of the user to be determined (S617).
  • the processor 111 also reads from the memory 112 the first positive rate calculated in S616 and stored in the memory 112 in association with the user ID information. Then, the processor 111 gives at least one of the read medical interview information and attribute information and the first positive rate as inputs to the learned positive rate determination model (S620), and indicates the third possibility of affliction with influenza.
  • a third positive rate is obtained as an output (S621).
  • FIG. 17 is a diagram showing a processing flow for generating a trained model according to an embodiment of the present disclosure. Specifically, FIG. 17 is a diagram showing a processing flow relating to generation of the learned positive rate determination selection model in S620 of FIG.
  • the processing flow may be executed by the processor 111 of the processing device 100 or by a processor of another processing device.
  • the processor performs the same preprocessing as in S612 of FIG. 14 on the image of the subject including at least part of the pharynx, and converts the determination image into a feature amount extractor (S613 in FIG. 14) and a classifier. (S615 of FIG. 14) is executed to acquire the first positive rate information obtained by inputting to the learned positive rate determination selection model (S731). Also, the processor executes a step of acquiring interview information and attribute information stored in advance in association with the user ID information of the user who is the subject of the determination image (S731).
  • the processor carries out a processing step of assigning a correct label to the user who is the subject of the judgment image, which is assigned in advance based on the results of the rapid influenza test by immunochromatography, the PCR test, the virus isolation and culture test, and the like. Execute (S732). Then, the processor executes a step of storing the assigned correct label information as determination result information in association with the first positive rate information, medical inquiry information and attribute information (S733).
  • the processor executes a step of performing machine learning of positive rate determination patterns using them (S734).
  • the machine learning provides a set of information to a neural network that combines neurons, and learns while adjusting the parameters of each neuron so that the output from the neural network is the same as the correct label information. is performed by repeating Then, a step of acquiring a learned positive rate determination model is executed (S735).
  • the acquired learned positive rate determination model may be stored in the memory 112 of the processing device 100 or another processing device connected to the processing device 100 via a wired or wireless network.
  • the processor 111 inputs at least one of the first positive rate information read out in S616 and the inquiry information and attribute information read out in S617 for the learned positive rate determination model.
  • the third positive rate (S621) indicating the third possibility of contracting influenza is acquired as an output, and stored in memory 112 in association with the user ID information.
  • the processor 111 reads each positive rate from the memory 112 and performs ensemble processing (S622).
  • the obtained first positive rate, second positive rate, and third positive rate are given as inputs to the ridge regression model, and each positive rate is ensembled as a determination result of the possibility of affliction with influenza.
  • the result obtained is obtained (S623).
  • the ridge regression model used in S622 is generated by machine learning by the processor 111 of the processing device 100 or a processor of another processing device. Specifically, the processor acquires the first positive rate, the second positive rate, and the third positive rate from the learning determination image. In addition, the processor preliminarily assigns a correct label based on the results of a rapid influenza test by immunochromatography, a PCR test, a virus isolation culture test, etc., to the user who is the subject of the learning determination image.
  • the processor gives each positive rate and a set of correct labels associated with it to a ridge regression model, and the parameters given to each positive rate so that the output is the same as the correct label information of the ridge regression model Repeat learning while adjusting
  • a ridge regression model used for ensemble processing is obtained and stored in the memory 112 of the processing device 100 or another processing device connected to the processing device 100 via a wired or wireless network.
  • the processor 111 associates the determination result thus obtained with the user ID information and stores it in the user table of the memory 112 (S624). This ends the processing flow.
  • each positive rate may be directly used as the final determination result, or an ensemble process using any two positive rates may be performed as the final determination result.
  • ensemble processing may be performed by adding other positive rates obtained by other methods, and the final determination result may be obtained.
  • the obtained determination results are output via the output interface 114, but only the final determination results may be output, or each positive rate may also be output together.
  • a processing device a processing program, a processing method, and a processing system suitable for processing an image obtained by photographing the intraoral cavity for use in intraoral diagnosis are provided. becomes possible.
  • a learned information estimation model is obtained by applying attribute information and interview information associated with the learning object image as a correct label to the learning object image and subjecting these sets to machine learning using a neural network. Then, the processor 111 can obtain desired medical inquiry information and attribute information by giving the subject image as an input to the learned information estimation model. Examples of such interview information and attribute information include sex, age, degree of pharyngeal redness, degree of tonsil swelling, presence or absence of white moss, and the like. This saves the operator the trouble of inputting medical inquiry information and attribute information.
  • follicles appearing in the pharyngeal region are characteristic signs of influenza, and are confirmed by visual inspection even in the diagnosis by a doctor. Therefore, a region of interest such as a follicle is subjected to labeling processing by a doctor or the like on the object image for learning. Then, the position information (shape information) of the label in the learning object image is acquired as the learning position information, and the set of the learning object image and the learning position information labeled with the learning object image is machine-learned by the neural network. , to obtain a trained region extraction model.
  • the processor 111 outputs the position information (shape information) of the attention area (that is, the follicle) by giving the subject image as an input to the learned area extraction model. After that, the processor 111 stores the obtained positional information (shape information) of the follicles as interview information.
  • the processor 111 receives a predetermined period of photographing time as a subject image.
  • the processor 111 extracts each RGB color component from each frame constituting the received moving image to obtain the luminance of the G (green) component.
  • the processor 111 generates a luminance waveform of the G component in the moving image from the obtained luminance of the G component of each frame, and estimates the heart rate from its peak value.
  • this method utilizes the fact that hemoglobin in blood absorbs green light, the heart rate may of course be estimated by other methods.
  • the processor 111 stores the heart rate estimated in this way as inquiry information.
  • the processor 111 may read the determination image from the memory 112 and provide the read determination image without preprocessing as an input to the feature amount extractor. Moreover, even when preprocessing is performed, the processor 111 may provide both a preprocessed determination image and a non-preprocessed determination image as inputs to the feature amount extractor.
  • the judgment image subjected to the same preprocessing as in S612 of FIG. 14 was used as learning data.
  • the judgment image without preprocessing is may be used as training data.
  • Each trained model described in FIGS. 13, 15 to 17, etc. was generated using a neural network or a convolutional neural network. However, not limited to these, it is also possible to generate using machine learning such as the nearest neighbor method, decision tree, regression tree, random forest, or the like.
  • FIG. 20 is a schematic diagram of a processing system 1 according to one embodiment of the present disclosure. Specifically, FIG. 20 is a diagram showing a connection example of various devices that may constitute the processing system 1 . According to FIG. 20, the processing system 1 includes a processing device 100, an imaging device 200, a terminal device 810 such as a smartphone, a tablet, a laptop PC, an electronic medical record device 820, and a server device 830. Connected via a wired or wireless network. Note that each device shown in FIG. 20 does not necessarily have to be provided, and may be provided as appropriate according to the distribution example of processing illustrated below.
  • the photographing apparatus 200 executes all processes such as photographing of a subject image, acquisition of attribute information and interview information, selection of a judgment image, judgment processing, and output of judgment results.
  • the photographing device 200 captures the subject image and outputs the determination result, and the server device 830 (cloud server device) performs processing using machine learning, such as determination image selection and determination processing.
  • the terminal device 810 inputs medical inquiry information and attribute information, the processing device 100 selects a judgment image, the judgment processing, and outputs the judgment result, and the photographing device 200 shoots a subject image.
  • the photographing device 200 executes the input of inquiry information and attribute information and the photographing of the subject image, and the processing device 100 executes the selection of the determination image, the determination processing, and the output of the determination result.
  • Input of inquiry information and attribute information and output of determination results are performed by the terminal device 810 , determination image selection and determination processing are performed by the processing device 100 , and subject images are captured by the imaging device 200 .
  • the electronic medical chart device 820 executes the input of medical inquiry information and attribute information, the processing device 100 executes the selection of the judgment image and the judgment processing, the photographing device 200 executes the photographing of the subject image, and the output of the judgment result. is executed on the terminal device 810 .
  • the electronic medical chart device 820 executes the input of medical inquiry information and attribute information and the output of the judgment result, the processing device 100 executes the selection of the judgment image and the judgment processing, and the photographing device 200 executes the photographing of the subject image. .
  • Input of inquiry information and attribute information and output of determination results are performed by the terminal device 810 , selection of determination images and determination processing are performed by the server device 830 , and subject images are captured by the imaging device 200 .
  • the terminal device 810 and the electronic medical record device 820 execute the input of medical interview information and attribute information and the output of the judgment result, the server device 830 executes the selection of the judgment image and the judgment processing, and the photographing of the subject image is performed by the imaging device. 200 to run.
  • the electronic medical record device 820 executes the input of medical inquiry information and attribute information and the output of the judgment result
  • the server device 830 executes the selection of the judgment image and the judgment processing
  • the photographing device 200 executes the photographing of the subject image.
  • a terminal device 810 such as a smart phone held by a patient or the like, a tablet used in a medical institution or the like, or a laptop PC used by a doctor or the like executes the processing related to S11 to S15 shown in FIG. After that, when the processing related to S21 to S24 is executed in the imaging device 200, the subject image is transmitted to the server device 830 via the terminal device 810 or directly. In the server device 830 that has received the subject image, the processing related to S31 to S32 is executed, and the determination result is output from the server device 830 to the terminal device 810. FIG. In the terminal device 810 that receives the output of the determination result, the determination result is stored in the memory and displayed on the display.
  • the processing device 100 is called a processing device.
  • the processing device 100 is simply referred to as a processing device because it simply executes various processes related to determination processing and the like. For example, when various processes are executed by the imaging device 200, the terminal device 810, the electronic medical record device 820, the server device 830, etc., these also function as processing devices and are sometimes called processing devices.
  • the image of the subject is captured using the substantially cylindrical imaging device 200 as the imaging device 200 .
  • the terminal device 810 as a photographing device and photograph a subject image using a camera provided in the terminal device 810, for example.
  • the camera is not inserted to the vicinity of the pharynx in the oral cavity, but is placed outside the incisors (outside the body) to photograph the oral cavity.
  • processes and procedures described in this specification can be implemented not only by those explicitly described in the embodiments, but also by software, hardware, or a combination thereof. Specifically, the processes and procedures described herein are implemented by implementing logic corresponding to the processes in media such as integrated circuits, volatile memories, non-volatile memories, magnetic disks, and optical storage. be done. Further, the processes and procedures described in this specification can be implemented as computer programs and executed by various computers including processing devices and server devices.
  • Processing System 100 Processing Device 200 Imaging Device 300 Auxiliary Tool 400 Mounting Table 600 Operator 700 User 810 Terminal Device 820 Electronic Medical Record Device 830 Server Device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Dentistry (AREA)
  • Pulmonology (AREA)
  • Physiology (AREA)
  • Otolaryngology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Endoscopes (AREA)

Abstract

【課題】 口腔内の診断に用いるために口腔内を撮影して得られた画像を処理するのに適した処理装置等を提供する。 【解決手段】 少なくとも一つのプロセッサを含み、前記少なくとも一つのプロセッサが、使用者の口腔の少なくとも一部が含まれた被写体の画像を撮影するためのカメラを介して前記被写体の一又は複数の判定画像を取得し、所定の疾患に対する罹患の可能性を判定するためにメモリに記憶された学習済み判定モデルと、取得された前記一又は複数の判定画像とに基づいて、前記所定の疾患に対する罹患の可能性を判定し、判定された前記罹患の可能性を示す情報を出力する、ための処理をするように構成される、処理装置が提供される。

Description

処理装置、処理プログラム、処理方法及び処理システム
 本開示は、カメラによって撮影された被写体の画像を処理するための処理装置、処理プログラム、処理方法及び処理システムに関する。
 従来より、医者によって、使用者の口腔の状態の変化を観察して、例えばウイルス性の風邪などの診断をすることが知られていた。非特許文献1は、口腔内に位置する咽頭の最深部に出現するリンパ濾胞にはインフルエンザに特有のパターンがあることを報告している。この特有のパターンを有するリンパ濾胞はインフルエンザ濾胞と呼ばれ、インフルエンザに特徴的なサインであって、発症後2時間程度で出現するとされる。しかし、このような咽頭部分は医師が直接視診することによって診断されており、画像を用いた診断がなされてこなかった。
宮本・渡辺著「咽頭の診察所見(インフルエンザ濾胞)の意味と価値の考察」日大医誌72(1):11~18(2013)
 そこで、上記のような技術を踏まえ、本開示では、様々な実施形態により、使用者の口腔を撮像して得られた被写体の判定画像を用いて、所定の疾患に対する罹患の可能性を判定するための処理装置、処理プログラム、処理方法又は処理システムを提供することを目的とする。
 本開示の一態様によれば、「少なくとも一つのプロセッサを含み、前記少なくとも一つのプロセッサが、使用者の口腔の少なくとも一部が含まれた被写体の画像を撮影するためのカメラを介して前記被写体の一又は複数の判定画像を取得し、所定の疾患に対する罹患の可能性を判定するためにメモリに記憶された学習済み判定モデルと、取得された前記一又は複数の判定画像とに基づいて、前記所定の疾患に対する罹患の可能性を判定し、判定された前記罹患の可能性を示す情報を出力する、ための処理をするように構成される、処理装置」が提供される。
 本開示の一態様によれば、「少なくとも一つのプロセッサにより実行されることにより、使用者の口腔の少なくとも一部が含まれた被写体の画像を撮影するためのカメラを介して前記被写体の一又は複数の判定画像を取得し、所定の疾患に対する罹患の可能性を判定するためにメモリに記憶された学習済み判定モデルと、取得された前記一又は複数の判定画像とに基づいて、前記所定の疾患に対する罹患の可能性を判定し、判定された前記罹患の可能性を示す情報を出力する、ように前記少なくとも一つのプロセッサを機能させる処理プログラム」が提供される。
 本開示の一態様によれば、「少なくとも1つのプロセッサにより実行される処理方法であって、使用者の口腔の少なくとも一部が含まれた被写体の画像を撮影するためのカメラを介して前記被写体の一又は複数の判定画像を取得する段階と、所定の疾患に対する罹患の可能性を判定するためにメモリに記憶された学習済み判定モデルと、取得された前記一又は複数の判定画像とに基づいて、前記所定の疾患に対する罹患の可能性を判定する段階と、判定された前記罹患の可能性を示す情報を出力する段階と、を含む処理方法」が提供される。
 本開示の一態様によれば、「前記使用者の口腔の少なくとも一部が含まれた被写体の画像を撮影するためのカメラを備える撮影装置と、前記撮影装置と有線又は無線ネットワークを介して接続された上記記載の処理装置と、を含む処理システム」が提供される。
 本開示によれば、口腔内の診断に用いるために口腔内を撮影して得られた画像を処理するのに適した処理装置、処理プログラム、処理方法及び処理システムを提供することができる。
 なお、上記効果は説明の便宜のための例示的なものであるにすぎず、限定的なものではない。上記効果に加えて、又は上記効果に代えて、本開示中に記載されたいかなる効果や当業者であれば明らかな効果を奏することも可能である。
図1は、本開示の一実施形態に係る処理システム1の使用状態を示す図である。 図2は、本開示の一実施形態に係る処理システム1の使用状態を示す図である。 図3は、本開示の一実施形態に係る処理システム1の概略図である。 図4は、本開示の一実施形態に係る処理システム1の構成を示すブロック図である。 図5は、本開示の一実施形態に係る撮影装置200の上面の構成を示す概略図である。 図6は、本開示の一実施形態に係る撮影装置200の断面の構成を示す概略図である。 図7Aは、本開示の一実施形態に係る処理装置100に記憶される画像管理テーブルを概念的に示す図である。 図7Bは、本開示の一実施形態に係る処理装置100に記憶される使用者テーブルを概念的に示す図である。 図8は、本開示の一実施形態に係る処理装置100と撮影装置200との間で実行される処理シーケンスを示す図である。 図9は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。 図10は、本開示の一実施形態に係る撮影装置200において実行される処理フローを示す図である。 図11は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。 図12は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。 図13は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。 図14は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。 図15は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。 図16は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。 図17は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。 図18は、本開示の一実施形態に係る処理装置100に表示される画面の例を示す図である。 図19は、本開示の一実施形態に係る処理装置100に表示される画面の例を示す図である。 図20は、本開示の一実施形態に係る処理システム1の概略図である。
 添付図面を参照して本開示の様々な実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。
<第1実施形態>
1.処理システム1の概要
 本開示に係る処理システム1は、主に使用者の口腔の内部を撮影し被写体画像を得るために用いられる。特に、当該処理システム1は、口腔の喉奥周辺、具体的には咽頭を撮影するために用いられる。したがって、以下においては、本開示に係る処理システム1を咽頭の撮影に用いた場合について主に説明する。ただし、咽頭は撮影部位の一例であって、当然に、口腔内であれば扁桃などの他の部位であっても、本開示に係る処理システム1を好適に用いることができる。
 本開示に係る処理システム1は、使用者の口腔の少なくとも咽頭領域が含まれた被写体を撮影して得られた被写体画像から、所定の疾患に対する罹患の可能性を判定し、所定の疾患に対する診断又はその補助をするために用いられる。処理システム1によって判定される疾患の一例としては、インフルエンザが挙げられる。通常、インフルエンザの罹患の可能性は、使用者の咽頭や扁桃領域を診察したり、咽頭領域に濾胞などの所見の有無を判断することによって診断される。しかし、処理システム1を用いてインフルエンザに対する罹患の可能性を判定しその結果を出力することで、その診断又は補助をすることが可能となる。なお、インフルエンザの罹患の可能性の判定は一例である。処理システム1は、罹患することによって口腔内の所見に差が現れる疾患の判定であれば、いずれであっても好適に用いることができる。なお、所見の差とは、医師等により発見されかつ医学的にその存在が既知となっているものに限らない。例えば、医師以外の者によって認識され得る差や、人工知能や画像認識技術によってその検出が可能な差であれば、処理システム1に対して好適に適用することが可能である。そのような疾患の一例としては、インフルエンザのほかに、溶連菌感染症、アデノウイルス感染症、EBウイルス感染症、マイコプラズマ感染症、手足口病、ヘルパンギーナ、カンジダ症などの感染症、動脈硬化、糖尿病、高血圧症などの血管障害または粘膜障害を呈する疾病、舌癌、咽頭癌などの腫瘍などが挙げられる。
 なお、本開示において、疾患に対する「判定」や「診断」等の用語を用いるが、これらは医師による確定的な判定又は診断を必ずしも意味するものではない。例えば、本開示の処理システム1を使用者自らが使用したり、医師以外の操作者が使用したりして、処理システム1に含まれる処理装置100によって判定又は診断されることも当然に含みうる。
 また、本開示において、撮影装置200による撮影の対象となる使用者は、患者、被検者、診断使用者、健常者など、あらゆるヒトを含みうる。また、本開示において撮影装置200を保持して撮影の操作を行う操作者は、医師、看護師、検査技師などの医療従事者に限らず、使用者自身などあらゆるヒトを含みうる。本開示に係る処理システム1は、典型的には医療機関で使用されることが想定される。しかし、この場合に限らず、例えば使用者の自宅や学校、職場など、その使用場所はいずれでもよい。
 また、本開示においては、上記のとおり、被写体としては使用者の口腔の少なくとも一部が含まれていればよい。また、判定される疾患も口腔内の所見に差が現れる疾患であればいずれでもよい。しかし、以下においては、被写体として咽頭又は咽頭周辺を含み、疾患としてインフルエンザに対する罹患の可能性を判定する場合について説明する。
 また、本開示においては、被写体画像や判定画像は、一又は複数の動画であってもよいし一又は複数の静止画であってもよい。動作の一例としては、電源ボタンが押下されると、カメラによるスルー画像の取り込みを行い、取り込まれたスルー画像がディスプレイ203に表示される。その後、操作者によって撮影ボタンが押下されると、一又は複数の静止画像がカメラによって撮影され、撮影された画像をディスプレイ203に表示する。又は、使用者によって撮影ボタンが押下されると、動画の撮影が開始され、その間カメラで撮像されている画像がディスプレイ203に表示される。そして、再度撮影ボタンが押下されると動画の撮像が終了される。このように、一連の動作において、スルー画像や静止画、動画など様々な画像がカメラによって撮像され、ディスプレイに表示されるが、被写体画像はこれらのうちの特定の画像のみを意味するのではなく、カメラで撮像された画像の全てを含みうる。
 図1は、本開示の一実施形態に係る処理システム1の使用状態を示す図である。図1によれば、本開示に係る処理システム1は、処理装置100と撮影装置200とを含む。操作者は、撮影装置200の先端に補助具300を被覆するように装着し、補助具300とともに撮影装置200を使用者の口腔710に挿入する。具体的には、まず、操作者(使用者700自らの場合もあれば使用者700とは異なるものの場合もある)が撮影装置200の先端に、補助具300を被覆するように装着する。そして、操作者は、補助具300が装着された撮影装置200を、口腔710内に挿入する。このとき補助具300の先端は、門歯711を通過して軟口蓋713近辺まで挿入される。つまり、撮影装置200も同様に軟口蓋713近辺まで挿入される。このとき、補助具300(舌圧子として機能する。)によって、舌714が下方へ押しやられ舌714の動きが制限される。また、補助具300の先端によって軟口蓋713が上方へ押しやられる。これによって、操作者は、撮影装置200の良好な視野を確保して、撮影装置200の前方に位置する咽頭715の良好な撮影が可能となる。
 撮影された被写体画像(典型的には、咽頭715を含む画像)は、撮影装置200から有線又は無線ネットワークで通信可能に接続された処理装置100に送信される。被写体画像を受信した処理装置100のプロセッサがメモリに記憶されたプログラムを処理することによって、被写体画像から判定に用いられる判定画像の選択が行われるとともに、所定の疾患に対する罹患の可能性が判定される。そして、結果がディスプレイなどに出力される。
 図2は、本開示の一実施形態に係る処理システム1の使用状態を示す図である。具体的には、図2は、処理システム1のうち撮影装置200について、操作者600が把持した状態を示す図である。図2によれば、撮影装置200は、口腔内に挿入される側から、本体201、グリップ202及びディスプレイ203により構成される。本体201及びグリップ202は、口腔への挿入方向Hに沿って所定長の略柱状に形成される。また、ディスプレイ203は、グリップ202の本体201側とは反対側に配置される。そのため、撮影装置200は、全体として略柱状に形成されており、鉛筆を把持するような持ち方をすることによって、操作者600に把持される。つまり、使用状態においてディスプレイ203の表示パネルが操作者600自身の方向を向くため、撮影装置200によって撮像された被写体画像をリアルタイムで確認しながら撮影装置200を容易に取り扱うことが可能である。
 また、ディスプレイ203に被写体画像が通常の向きに表示される向きで操作者600がグリップ202を把持するとき、撮影ボタン220がグリップの上面側に配置されるように構成されている。そのため、操作者600が把持したときに、操作者600が撮影ボタン220を人差し指等で容易に押下可能になっている。
2.処理システム1の構成
 図3は、本開示の一実施形態に係る処理システム1の概略図である。図3によれば、処理システム1は、処理装置100と、当該処理装置100に有線又は無線ネットワークを介して通信可能に接続された撮影装置200とを含む。処理装置100は、操作者による操作入力を受け付けて、撮影装置200による撮影を制御する。また、処理装置100は、撮影装置200によって撮影された被写体画像を処理して、使用者のインフルエンザへの罹患の可能性を判定する。さらに、処理装置100は、判定された結果を出力して、使用者、操作者又は医師等に、その結果を通知する。
 撮影装置200は、その先端が使用者の口腔内に挿入されて、口腔内、特に咽頭を撮影する。その具体的な撮影処理については、後述する。撮影された被写体画像は、有線又は無線ネットワークを介して処理装置100へ送信される。
 なお、処理システム1は、必要に応じてさらに載置台400を含むことが可能である。載置台400は、撮影装置200を安定的に載置することが可能である。また、載置台400は、有線ケーブルを介して電源に接続することで、載置台400の給電端子から撮影装置200の給電ポートを通じて撮影装置200に給電することが可能である。
 図4は、本開示の一実施形態に係る処理システム1の構成を示すブロック図である。図4によると、処理システム1は、プロセッサ111、メモリ112、入力インターフェイス113、出力インターフェイス114及び通信インターフェイス115を含む処理装置100と、カメラ211、光源212、プロセッサ213、メモリ214、表示パネル215、入力インターフェイス210及び通信インターフェイス216を含む撮影装置200とを含む。これらの各構成要素は、互いに、制御ライン及びデータラインを介して互いに電気的に接続される。なお、処理システム1は、図4に示す構成要素のすべてを備える必要はなく、一部を省略して構成することも可能であるし、他の構成要素を加えることも可能である。例えば、処理システム1は、各構成要素を駆動するためのバッテリ等を含むことが可能である。
 まず、処理装置100のうち、プロセッサ111は、メモリ112に記憶されたプログラムに基づいて処理システム1の他の構成要素の制御を行う制御部として機能する。プロセッサ111は、メモリ112に記憶されたプログラムに基づいて、カメラ211の駆動、光源212の駆動を制御するとともに、撮影装置200から受信した被写体画像をメモリ112に記憶し、記憶された被写体画像を処理する。具体的には、プロセッサ111は、カメラ211から被写体の被写体画像を取得する処理、判定画像選択モデルに取得された被写体画像を入力して判定画像の候補を取得する処理、取得された判定画像の候補から各画像間の類似度に基づいて判定画像を取得する処理、使用者の問診情報及び属性情報の少なくともいずれか一つを取得する処理、メモリ112に記憶された学習済み判定モデルと、取得された一又は複数の判定画像と、必要に応じて使用者の問診情報及び属性情報の少なくともいずれかとに基づいてインフルエンザに対する罹患の可能性を判定する処理、所定の疾患に対する罹患を診断するため又はその診断を補助するために判定された罹患の可能性を示す情報を出力する処理などを、メモリ112に記憶されたプログラムに基づいて実行する。プロセッサ111は、主に一又は複数のCPUにより構成されるが、適宜GPUやFPGAなどを組み合わせてもよい。
 メモリ112は、RAM、ROM、不揮発性メモリ、HDD等から構成され、記憶部として機能する。メモリ112は、本実施形態に係る処理システム1の様々な制御のための指示命令をプログラムとして記憶する。具体的には、メモリ112は、カメラ211から被写体の被写体画像を取得する処理、判定画像選択モデルに取得された被写体画像を入力して判定画像の候補を取得する処理、取得された判定画像の候補から各画像間の類似度に基づいて判定画像を取得する処理、使用者の問診情報及び属性情報の少なくともいずれか一つを取得する処理、メモリ112に記憶された学習済み判定モデルと、取得された一又は複数の判定画像と、必要に応じて使用者の問診情報及び属性情報の少なくともいずれかとに基づいてインフルエンザに対する罹患の可能性を判定する処理、所定の疾患に対する罹患を診断するため又はその診断を補助するために判定された罹患の可能性を示す情報を出力する処理などプロセッサ111が実行するためのプログラムを記憶する。また、メモリ112は、当該プログラムのほかに、撮影装置200のカメラ211で撮像された被写体画像や当該画像等を管理する画像管理テーブル、使用者の属性情報や問診情報、判定結果等を記憶する使用者テーブルなどを記憶する。また、メモリ112は、被写体画像から判定画像の選択に用いられる学習済み判定画像選択モデルや、判定画像から疾患に対する罹患の可能性を判定するための学習済み判定モデル等の各学習済みモデルを記憶する。
 入力インターフェイス113は、処理装置100及び撮影装置200に対する操作者の指示入力を受け付ける入力部として機能する。入力インターフェイス113の一例としては、撮影装置200による録画の開始・終了を指示するための「撮影ボタン」、各種選択を行うための「確定ボタン」、前画面に戻ったり入力した確定操作をキャンセルするための「戻る/キャンセルボタン」、出力インターフェイス114に出力されたポインタ等の移動をするための十字キーボタン、処理装置100の電源のオンオフをするためのオン・オフキー、様々な文字を入力するための文字入力キーボタン等の物理キーボタンが挙げられる。なお、入力インターフェイス113には、出力インターフェイス114として機能するディスプレイに重畳して設けられ、ディスプレイの表示座標系に対応する入力座標系を有するタッチパネルを用いることも可能である。この場合、ディスプレイに上記物理キーに対応するアイコンが表示され、タッチパネルを介して操作者が指示入力を行うことで、各アイコンに対する選択が行われる。タッチパネルによる使用者の指示入力の検出方式は、静電容量式、抵抗膜式などいかなる方式であってもよい。入力インターフェイス113は、常に処理装置100に物理的に備えられる必要はなく、有線や無線ネットワークを介して必要に応じて接続されてもよい。
 出力インターフェイス114は、撮影装置200によって撮影された被写体画像を出力したり、プロセッサ111で判定された結果を出力するための出力部として機能する。出力インターフェイス114の一例としては、液晶パネル、有機ELディスプレイ又はプラズマディスプレイ等から構成されるディスプレイが挙げられる。しかし、必ずしも処理装置100そのものにディスプレイが備えられている必要はない。例えば、有線又は無線ネットワークを介して処理装置100と接続可能なディスプレイ等と接続するためのインターフェイスが、当該ディスプレイ等に表示データを出力する出力インターフェイス114として機能することも可能である。
 通信インターフェイス115は、有線又は無線ネットワークを介して接続された撮影装置200に対して撮影開始などに関連する各種コマンドや撮影装置200で撮影された画像データを送受信するための通信部として機能する。通信インターフェイス115の一例としては、USB、SCSIなどの有線通信用コネクタや、無線LAN、Bluetooth(登録商標)、赤外線などの無線通信用送受信デバイスや、プリント実装基板やフレキシブル実装基板用の各種接続端子など、様々なものが挙げられる。
 次に、撮影装置200のうち、カメラ211は、被写体である口腔に反射した反射光を検出して被写体画像を生成する撮像部として機能する。カメラ211は、その光を検出するために、一例としてCMOSイメージセンサと、所望の機能を実現するためのレンズ系と駆動系を備える。イメージセンサは、CMOSイメージセンサに限らず、CCDイメージセンサ等の他のセンサを用いることも可能である。カメラ211は、特に図示はしないが、オートフォーカス機能を有することができ、例えばレンズの正面に焦点が特定部位に合うように設定されていることが好ましい。また、カメラ211は、ズーム機能を有することができ、咽頭又はインフルエンザ濾胞のサイズに応じて適切な倍率で撮像するように設定されていることが好ましい。
 ここで、口腔内に位置する咽頭の最深部に出現するリンパ濾胞にはインフルエンザに特有のパターンがあることが知られている。この特有のパターンを有するリンパ濾胞はインフルエンザ濾胞と呼ばれ、インフルエンザに特徴的なサインであって、発症後2時間程度で出現されるとされる。上記のとおり、本実施形態の処理システム1は、例えば口腔の咽頭を撮像して、上記濾胞を検出することにより、使用者のインフルエンザへの罹患の可能性を判定するために用いられる。そのため、撮影装置200が口腔へ挿入されると、カメラ211と被写体との距離が比較的近くなる。したがって、カメラ211は、[(カメラ211の先端部から咽頭後壁までの距離)*tanθ]によって算出される値が垂直20mm以上及び水平40mm以上となる画角(2θ)を有するのが好ましい。このような画角を有するカメラを用いることによって、カメラ211と被写体とが近接していたとしても、より広範な範囲の撮像が可能となる。すなわち、カメラ211は、通常のカメラを用いることも可能であるが、いわゆる広角カメラや超広角カメラと呼ばれるカメラを用いることも可能である。
 また、本実施形態において、カメラ211によって撮像される主な被写体は咽頭や咽頭部分に形成されたインフルエンザ濾胞である。一般に咽頭は奥行き方向に奥まって形成されるため、被写界深度が浅いと咽頭前部と咽頭後部の間で焦点がずれ、処理装置100での判定に用いるのに適切な被写体画像を得ることが困難になる。したがって、カメラ211は少なくとも20mm以上、好ましくは30mm以上の被写界深度を有する。このような被写界深度を有するカメラを用いることによって、咽頭前部から咽頭後部にかけていずれの部位でも焦点があった被写体画像を得ることが可能となる。
 光源212は、処理装置100又は撮影装置200からの指示によって駆動され、口腔内に光を照射するための光源部として機能する。光源212は、一又は複数の光源を含む。本実施形態においては、光源212は、一又は複数のLEDから構成され、各LEDから所定の周波数帯域を有する光が口腔方向に照射される。光源212には、紫外光帯域、可視光帯域、赤外光帯域の中から所望の帯域を有する光、又はそれらの組み合わせが用いられる。なお、処理装置100においてインフルエンザの罹患の可能性の判定を行う場合には、紫外光帯域の短波長帯域の光を用いるのが好ましい。
 プロセッサ213は、メモリ214に記憶されたプログラムに基づいて撮影装置200の他の構成要素の制御を行う制御部として機能する。プロセッサ213は、メモリ214に記憶されたプログラムに基づいて、カメラ211の駆動、光源212の駆動を制御するとともに、カメラ211によって撮像された被写体画像のメモリ214への記憶を制御する。また、プロセッサ213は、メモリ214に記憶された被写体画像や使用者の情報のディスプレイ203への出力や、処理装置100への送信を制御する。プロセッサ213は、主に一又は複数のCPUにより構成されるが、他のプロセッサと適宜組み合わせてもよい。
 メモリ214は、RAM、ROM、不揮発性メモリ、HDD等から構成され、記憶部として機能する。メモリ214は、撮影装置200の様々な制御のための指示命令をプログラムとして記憶する。また、メモリ214は、当該プログラムのほかに、カメラ211で撮像された被写体画像、使用者の各種情報などを記憶する。
 表示パネル215は、ディスプレイ203に設けられ撮影装置200によって撮像された被写体画像を表示するための表示部として機能する。表示パネル215は、液晶パネルによって構成されるが、液晶パネルに限らず、有機ELディスプレイやプラズマディスプレイ等から構成されていてもよい。
 入力インターフェイス210は、処理装置100及び撮影装置200に対する使用者の指示入力を受け付ける入力部として機能する。入力インターフェイス210の一例としては、撮影装置200による録画の開始・終了を指示するための「撮影ボタン」、撮影装置200の電源のオンオフをするための「電源ボタン」、各種選択を行うための「確定ボタン」、前画面に戻ったり入力した確定操作をキャンセルするための「戻る/キャンセルボタン」、表示パネル215に表示されたアイコン等の移動をするための十字キーボタン等の物理キーボタンが挙げられる。なお、これらの各種ボタン・キーは、物理的に用意されたものであってもよいし、表示パネル215にアイコンとして表示され、表示パネル215に重畳して入力インターフェイス210として配置されたタッチパネル等を用いて選択可能にしたものであってもよい。タッチパネルによる使用者の指示入力の検出方式は、静電容量式、抵抗膜式などいかなる方式であってもよい。
 通信インターフェイス216は、撮影装置200及び/又は他の装置と情報の送受信を行うための通信部として機能する。通信インターフェイス216の一例としては、USB、SCSIなどの有線通信用コネクタや、無線LAN、Bluetooth(登録商標)、赤外線などの無線通信用送受信デバイスや、プリント実装基板やフレキシブル実装基板用の各種接続端子など、様々なものが挙げられる。
 図5は、本開示の一実施形態に係る撮影装置200の構成を示す上面図である。具体的には、図5は、口腔に挿入される方から本体201、グリップ202及びディスプレイ203を含む撮影装置200を上方からみた状態を示す図である。図5によると、本体201は、基端225及び先端222を備え、光源212から光が照射される方向、すなわち口腔内に挿入される方向Hに略平行な方向に所定長の長さを有する柱状体によって構成されている。そして、本体201の少なくとも先端222が、口腔に挿入される。
 本体201は、その断面が真円となる中空の円筒形をした柱状に形成される。その壁部224は、その内部に光を導光可能な材料であればいずれでもよく、一例としては熱可塑性樹脂を用いて得ることができる。熱可塑性樹脂には、鎖状ポリオレフィン系樹脂(ポリプロピレン系樹脂等)、環状ポリオレフィン系樹脂(ノルボルネン系樹脂等)のようなポリオレフィン系樹脂、トリアセチルセルロース、ジアセチルセルロースのようなセルロースエステル系樹脂、ポリエステル系樹脂、ポリカーボネート系樹脂、(メタ)アクリル系樹脂、ポリスチレン系樹脂、又はこれらの混合物、共重合物などが用いられる。すなわち、本体201の壁部224は、光源から照射された光を口腔内又は拡散板方向に導光するための導光体として機能する。
 本体201は、中空に形成されるため、壁部224によってその内面に収容空間223が形成される。この収容空間223には、カメラ211が収容される。なお、本体201は、収容空間223を有する柱状に形成されさえすればよい。したがって、収容空間223は、断面が真円の円筒形を有する必要はく、断面が楕円であったり多角形であってもよい。また、本体201は、必ずしも内部が中空に形成される必要もない。
 グリップ202は、その先端が本体201の基端225に接続される。使用者は当該グリップ202を把持して撮影装置200の抜き差しなどの操作を行う。グリップ202は、口腔内に挿入される方向Hに略平行な方向に、すなわち本体201の長手方向に沿って、所定長の長さを有する柱状体によって構成され、本体201と方向Hにおいて同一直線上に配置されている。なお、本実施形態では、垂直方向の断面が略長円形になるように形成されているが、長円形である必要はなく、真円や楕円、多角形であってもよい。
 グリップ202は、本体201の基端225に最も近い位置に連結部230が形成され、当該連結部230を介して本体201に連結される。連結部230の外周には、補助具300を位置決めするための係合突起217(217-1~217-4)と、位置決め突起218とを有する。係合突起217は、補助具300に設けられた係合突起318(318-1~318-4)と互いに係合する。また、位置決め突起218は、補助具300に設けられた挿入穴321に挿入されて、撮影装置200と補助具300とを互いに位置決めする。なお、本実施形態においては、本体201の係合突起217は、合計4個の係合突起(係合突起217-1~217-4)が、グリップ202の表面であって、本体201の基端225近傍の位置に、等間隔に配置される。また、位置決め突起218は、グリップ202の表面の係合突起217の間であって、本体201の基端225近傍の位置に、一つ配置される。しかし、これに限らず、係合突起217と位置決め突起218のいずれか一方を配置するだけであってもよい。また、その個数も、係合突起217及び位置決め突起218のいずれも、一又は複数の個数であれば、何個であってもよい。
 また、グリップ202は、その上面で本体201の基端225に近い位置、すなわちグリップ202の口腔内の挿入方向Hにおける先端付近に撮影ボタン220を含む。これにより、操作者600が把持したときに、操作者600が撮影ボタン220を人差し指等で容易に押下可能になっている。また、グリップ202は、その上面でディスプレイ203に近い位置、すなわちグリップ202の撮影ボタン220と反対側の位置に電源ボタン221が配置されている。これにより、操作者600が把持して撮像しているときに、誤って電源ボタン221を押下してしまうのを防止することが可能となる。
 ディスプレイ203は、全体として略直方体形状  をし、本体201と方向Hにおいて同一直線上に配置されている。また、ディスプレイ203は、口腔内に挿入される方向Hの反対方向(つまりは、使用者側の方向)の面に表示パネル215を含む。したがって、ディスプレイ203は、口腔内に挿入される方向Hに略平行になるように形成された本体201及びグリップ202の長手方向に対して、表示パネルを含む面が略垂直になるように形成される。そして、表示パネルを含む面に相対する面において、グリップ202の口腔とは反対側でグリップ202と連結される。なお、ディスプレイの形状は、略直方体形状に限らず、円柱状などいかなる形状であってもよい。
 拡散板219は、本体201の先端222に配置され、光源212から照射され、本体201を通過した光を口腔内に向けて拡散する。拡散板219は、本体201の導光可能に構成された部分の断面形状に対応した形状を有する。本実施形態においては、本体201は、中空の円筒形に形成されている。したがって、拡散板219の断面も、その形状に対応して中空状に形成される。
 カメラ211は、拡散板219から拡散され口腔内に照射され、被写体に反射してきた反射光を検出して、被写体画像を生成するために用いられる。カメラ211は、本体201の壁部224の内面、すなわち本体201の内部に形成された収容空間223に、本体201と方向Hにおいて同一直線上になるように配置される。なお、本実施形態では、カメラ211は一個のみ記載しているが、撮影装置200は複数のカメラを含んでもよい。複数のカメラを用いて被写体画像を生成することにより、立体形状に関する情報を被写体画像が含むことになる。また、本実施形態では、カメラ211は、本体201の収容空間223に配置されているが、本体201の先端222又は本体201(本体201の内部であっても本体201の外周上であってもよい)に配置されてもよい。
 図6は、本開示の一実施形態に係る撮影装置200の断面の構成を示す概略図である。図6によると、光源212は、グリップ202の先端側に配置された基板231上に、合計4個の光源212-1~212-4が配置される。光源212は、一例としては、それぞれLEDで構成され、各LEDから所定の周波数帯域を有する光が口腔の方向に向かって照射される。具体的には、光源212から照射された光は、本体201の基端225に入光し、本体201の壁部224によって、拡散板219方向に導光される。拡散板219に達した光は、拡散板219によって口腔内に拡散される。そして、拡散板219によって拡散された光は、被写体である咽頭715等に反射する。この反射光がカメラ211に到達することで、被写体画像が生成される。
 なお、光源212-1~212-4は、独立に制御されるように構成されてもよい。例えば、光源212-1~212-4のうち一部を光らせることにより、立体形状を有する被写体(インフルエンザ濾胞等)の陰を被写体画像に含むことができる。これにより、被写体の立体形状に関する情報を被写体画像が含むことになり、被写体の判別をより明確にし、判定アルゴリズムによりインフルエンザへの罹患の可能性をより正確に判定することが可能になる。
 また、本実施形態において、光源212-1~212-4は、本体201の基端225側に配置されているが、本体201の先端222又は本体201(本体201の内部であっても本体201の外周上であってもよい)に配置されてもよい。
 本実施形態においては、拡散板219は、光源212から照射された光が口腔内の一部のみを照らすのを防止し、一様な光を生成するために用いられる。したがって、一例としては、拡散板219の表面に微細なレンズアレイを形成し、任意の拡散角度を有するレンズ状の拡散板が用いられる。また、これに変えて、表面にランダムに配置された微細な凹凸によって光拡散機能を実現する拡散板など、他の方法により光を拡散することが可能な拡散板を用いてもよい。さらに、拡散板219は本体201と一体として構成されていてもよい。例えば、本体201の先端部分に微細な凹凸を形成するなどの方法によって実現することが可能である。
 また、本実施形態において、拡散板219、本体201の先端222側に配置されている。しかし、これに限らず、光源212とその照射対象となる口腔内の間であればいずれでもよく、例えば、本体201の先端222又は本体201(本体201の内部であっても本体201の外周上であってもよい)に配置されてもよい。
3.処理装置100のメモリ112に記憶される情報
 図7Aは、本開示の一実施形態に係る処理装置100に記憶される画像管理テーブルを概念的に示す図である。画像管理テーブルに記憶される情報は、処理装置100のプロセッサ111の処理の進行に応じて随時更新して記憶される。
 図7Aによれば、画像管理テーブルには、使用者ID情報に対応付けて、被写体画像情報、候補情報及び判定画像情報等が記憶される。「使用者ID情報」は、各使用者に固有の情報で各使用者を特定するための情報である。使用者ID情報は、操作者によって新たな使用者が登録されるごとに生成される。「被写体画像情報」は、各使用者に対して操作者が撮像した被写体画像を特定する情報である。被写体画像は、撮影装置200のカメラで撮影された被写体を含む一又は複数の画像であり、撮影装置200から受信することでメモリ112に記憶される。「候補情報」は、一又は複数の被写体画像のなかから判定画像を選択する候補となる画像を特定する情報である。「判定画像情報」は、インフルエンザの罹患の可能性の判定に用いられる判定画像を特定するための情報である。このような判定画像は、候補情報によって特定される候補画像の中から類似度に基づいて選択される。なお、上記のとおり、被写体画像情報、候補情報及び判定画像情報として、各画像を特定するための情報が記憶される。このように、各画像を特定するための情報は、典型的には各画像を識別するための識別情報であるが、各画像の格納場所を示す情報や、各画像の画像データそのものであってもよい。
 図7Bは、本開示の一実施形態に係る処理装置100に記憶される使用者テーブルを概念的に示す図である。使用者テーブルに記憶される情報は、処理装置100のプロセッサ111の処理の進行に応じて随時更新して記憶される。
 図7Bによれば、使用者テーブルには、使用者ID情報に対応付けて、属性情報、問診情報、二次元コード情報及び判定結果情報等が記憶される。「使用者ID情報」は、各使用者に固有の情報で各使用者を特定するための情報である。使用者ID情報は、操作者によって新たな使用者が登録されるごとに生成される。「属性情報」は、例えば操作者又は使用者等によって入力された情報で、使用者の名前、性別、年齢、住所などの使用者個人に関連する情報である。「問診情報」は、例えば操作者又は使用者等によって入力された情報で、使用者の病歴や症状などの医師等による診断の参考にされる情報である。このような問診情報の例としては、体重、アレルギー、基礎疾患などの患者背景、体温、発症からのピーク時体温、発症からの経過時間、心拍数、脈拍数、酸素飽和度、血圧、薬の服用状況、他のインフルエンザ患者との接触状況、関節痛、筋肉痛、頭痛、倦怠感、食欲不振、悪寒、発汗、咳嗽、咽頭痛、鼻汁・鼻閉、扁桃炎、消化器症状、手足の発疹、咽頭の発赤や白苔、扁桃の腫脹、扁桃の切除歴、いちご舌、圧痛を伴う前頸部リンパ節の腫脹などの自覚症状や身体所見の有無、インフルエンザワクチン接種歴、ワクチン接種時期等が挙げられる。「二次元コード情報」は、使用者ID情報、それを特定するための情報、属性情報、問診情報、及びそれらの組み合わせのうちの少なくともいずれかが記録された記録媒体を特定するための情報である。このような記録媒体としては、二次元コードである必要はない。二次元コードに代えて、一次元バーコード、多次元の他のコード、特定の数字や文字等のテキスト情報、画像情報等、様々なものを利用することができる。「判定結果情報」は、判定画像に基づいてインフルエンザの罹患の可能性の判定結果を示す情報である。このような判定結果情報の一例としては、インフルエンザに対する陽性率が挙げられる。しかし、陽性率に限らず、陽性か陰性かを特定する情報など可能性が示されたものであればいずれでもよい。また、判定結果は、具体的な数値である必要はなく、陽性率の高さに応じた分類、陽性か陰性かを示す分類など、その形式はいずれでもよい。
 なお、属性情報や問診情報は、使用者又は操作者によってその都度入力される必要はなく、例えば有線又は無線ネットワークを介して接続された電子カルテ装置や他の端末装置等から受信してもよい。また、撮影装置200によって撮影された被写体画像の解析によって取得されてもよい。さらに、図7A及び図7Bにおいて特に図示はしないが、インフルエンザ等の診断又は診断を補助する対象となる感染症の現在の流行情報や、これら感染症についての他の使用者の判定結果や罹患状況などの外部要因情報をさらにメモリ112に記憶することも可能である
4.処理装置100及び撮影装置200で実行される処理シーケンス
 図8は、本開示の一実施形態に係る処理装置100と撮影装置200との間で実行される処理シーケンスを示す図である。具体的には、図8は、処理装置100において撮影モードの選択が行われてから、撮影装置200で被写体画像の撮影が行われ、処理装置100から判定結果が出力されるまでに実行される処理シーケンスを示す。
 図8によると、処理装置100は、出力インターフェイス114を介してモード選択画面を出力し、入力インターフェイス113を介して操作者によるモードの選択を受け付ける(S11)。そして、撮影モードの選択が受け付けられると、処理装置100は、出力インターフェイス114を介して属性情報の入力画面を出力する。処理装置100は、入力インターフェイス113を介して操作者又は使用者による入力を受け付け、属性情報を取得し、使用者ID情報に対応付けて使用者テーブルに記憶する(S12)。また、属性情報が取得されると、処理装置100は、出力インターフェイス114を介して問診情報の入力画面を出力する。処理装置100は、入力インターフェイス113を介して操作者又は使用者による入力を受け付け、問診情報を取得し、使用者ID情報に対応付けて使用者テーブルに記憶する(S13)。なお、属性情報及び問診情報の取得はこのタイミングで行う必要はなく、判定処理の前など他のタイミングで行うことも可能である。また、これらの情報は、入力インターフェイス113を介した入力の受け付けのみではなく、有線又は無線ネットワークを介して接続された電子カルテ装置や他の端末装置等から受信することで取得してもよい。また、これらの情報は、電子カルテ装置や他の端末装置で入力されたのち二次元コード等の記録媒体に記録し、当該記録媒体を処理装置100に接続されたカメラ又は撮影装置200で撮影することによって取得してもよい。また、これらの情報は、使用者や操作者、患者、医療関係者等に対して問診票等の紙媒体に記入させ、当該紙媒体を処理装置100に接続されたスキャナや撮影装置200で取り込んで光学的に文字認識をすることによって取得してもよい。
 処理装置100は、プロセッサ111の制御によって、あらかじめ生成された使用者ID情報を記録した二次元コードを生成し、メモリ112に記憶する(S14)。そして、処理装置100は、出力インターフェイス114を介して生成された二次元コードを出力する(S15)。
 次に、撮影装置200は、操作者による入力インターフェイス210(例えば電源ボタン)への入力が受け付けられることによって、カメラ211等の起動を行う(S21)。そして、出力インターフェイス114を介して出力された二次元コードを起動されたカメラ211によって撮影することで、撮影装置200は二次元コードに記録された使用者ID情報を読み取る(S22)。
 次に、操作者は、撮影装置200の先端を補助具300で被覆し、使用者の口腔に撮影装置200を所定の位置まで挿入する。撮影装置200は、操作者による入力インターフェイス210(例えば、撮影ボタン)への入力を受け付けると、口腔の少なくとも一部が含まれた被写体の被写体画像の撮影を開始する(S23)。被写体画像の撮影が終了すると、撮影装置200は、撮影された被写体画像を二次元コードから読みとられた使用者ID情報に対応付けてメモリ214に記憶するとともに、ディスプレイの表示パネル215に撮影された被写体画像を出力する(S24)。そして、撮影装置200は、入力インターフェイス210を介して操作者による撮影の終了の入力を受け付けると、通信インターフェイス216を介して記憶された被写体画像(T21)を使用者ID情報に対応付けて処理装置100に送信する。
 次に、処理装置100は、通信インターフェイス115を介して被写体画像を受信するとメモリ112に記憶するとともに、使用者ID情報に基づいて画像管理テーブルに登録する。処理装置100は、記憶された被写体画像からインフルエンザに対する罹患の可能性の判定に使用される判定画像の選択を行う(S31)。処理装置100は、判定画像が選択されると、選択された判定画像を用いてインフルエンザに対する罹患の可能性の判定処理を実行する(S32)。処理装置100は、判定結果が得られると、使用者ID情報に対応付けて得られた判定結果を使用者テーブルに記憶するとともに、出力インターフェイス114を介して出力する(S33)。以上によって、当該処理シーケンスを終了する。
5.処理装置100で実行される処理フロー(モード選択処理等)
 図9は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。具体的には、図9は、図8のS11~S15に係る処理のために、所定周期で実行される処理フローを示す図である。当該処理フローは、主に処理装置100のプロセッサ111がメモリ112に記憶されたプログラムを読み出して実行することにより行われる。
 図9によると、プロセッサ111は、出力インターフェイス114を介して、モード選択画面を出力する(S111)。ここで、図18は、本開示の一実施形態に係る処理装置100に表示される画面の例を示す図である。具体的には、図18は図9のS111及びS112で出力されるモード選択画面の例を示す。図18によると、出力インターフェイス114として機能するディスプレイの略中心に、被写体画像を撮影する撮影モードに移行するための撮影モードアイコン11と、既にインフルエンザに対する罹患の可能性が判定された結果をディスプレイに出力する判定結果確認モードに移行するための判定結果確認モードアイコン12とが表示されている。使用者は、入力インターフェイス113を操作していずれのモードに移行するか選択することが可能である。
 再び図9に戻り、プロセッサ111は、入力インターフェイス113を介して、操作者によるモードの選択を受け付けたか否かを判定する(S112)。このとき、プロセッサ111が図18に示す撮影モードアイコン11又は判定結果確認モードアイコン12のいずれに対する入力もなされておらずモードの選択を受け付けていないと判定すると、当該処理フローは終了する。
 他方、プロセッサ111が図18に示す撮影モードアイコン11又は判定結果確認モードアイコン12のいずれに対する入力を受け付けてモードの選択が行われたと判定すると、プロセッサ111は撮影モードが選択されたか否かを判定する(S113)。そして、プロセッサ111は、図18に示す判定結果確認モードアイコン12が選択されたと判定すると、出力インターフェイス114を介して所望の判定結果を表示する(S118)。
 他方、プロセッサ111は、図18に示す撮影モードアイコン11が選択されたと判定すると、出力インターフェイス114に使用者の属性情報の入力を受け付ける画面を表示する(図示しない。)。当該画面には、属性情報として入力が必要な使用者の名前、性別、年齢、住所等の各項目と、各項目に対する回答を入力するための入力ボックスが含まれる。そして、プロセッサ111は、入力インターフェイス113を介して各入力ボックスに入力された情報を属性情報として取得する(S114)。そして、プロセッサ111は使用者テーブルに新たに記憶される当該使用者に対応して、新たに使用者ID情報を生成し、当該使用者ID情報と対応付けて属性情報を使用者テーブルに記憶する。なお、属性情報の入力前にあらかじめ使用者ID情報が選択された場合には、新たに使用者ID情報を生成することは省略することができる。
 次に、プロセッサ111は、出力インターフェイス114に使用者の問診情報の入力を受け付ける画面を表示する(図示しない。)。当該画面には、問診情報として入力が必要な使用者の体温、心拍数、薬の服用状況、自覚症状の有無等の各項目と、各項目に対する回答を入力するための入力ボックスが含まれる。そして、プロセッサ111は、入力インターフェイス113を介して各入力ボックスに入力された情報を問診情報として取得し、使用者ID情報と対応付けて使用者テーブルに記憶する(S115)。
 なお、これら属性情報や問診情報は処理装置100によって入力される場合について説明した。しかし、これに限らず、有線又は無線ネットワークを介して接続された電子カルテ装置や他の端末装置に入力された情報を受信することで取得してもよい。
 次に、プロセッサ111は、使用者テーブルを参照して、これらの情報が入力された使用者に対応する使用者ID情報を読み出して、これを記録した二次元コードを生成する(S116)。プロセッサ111は、生成された二次元コードを使用者ID情報に対応付けて使用者テーブルに記憶するとともに、出力インターフェイス114を介して出力する(S117)。以上により、当該処理フローは終了する。
 ここで、図19は、本開示の一実施形態に係る処理装置100に表示される画面の例を示す図である。具体的には、図19は、図9のS117において出力された二次元コードの表示画面の例を示す図である。図19によると、出力インターフェイス114として機能するディスプレイの上方に、属性情報等が入力された使用者の使用者ID情報が表示されている。また、これに加えて、ディスプレイの略中央に、図19のS116で生成された二次元コードが表示されている。当該二次元コードを撮影装置200で撮影することによって、当該二次元コードに記録された使用者ID情報を読み取ることが可能である。
6.撮影装置200で実行される処理フロー(撮影処理等)
 図10は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。具体的には、図10は、図8のS21~S24に係る処理のために、所定周期で実行される処理フローを示す図である。当該処理フローは、主に撮影装置200のプロセッサ213がメモリ214に記憶されたプログラムを読み出して実行することにより行われる。
 図10によると、プロセッサ213は、入力インターフェイス210(例えば、電源ボタン)を介して操作者による入力が受け付けられたか否かを判定する(S211)。なお、このとき、プロセッサ213が操作者による入力が受け付けられていないと判定すると、当該処理フローは終了する。
 他方、プロセッサ213は操作者による入力が受け付けられたと判定すると、表示パネル215にスタンバイ画面を出力する(S212)。当該スタンバイ画面(図示しない)には、カメラ211を介して撮影されたスルー画像が含まれる。そして、操作者が処理装置100の出力インターフェイス114に出力された二次元コードをカメラ211の画角に含むように撮影装置200を移動することによって、プロセッサ213はカメラ211によって二次元コードを撮影する(S213)。二次元コードが撮影されると、プロセッサ213は当該二次元コードに記録された使用者ID情報を読み取り、読み取った使用者ID情報をメモリ214に記憶する(S214)。そして、プロセッサ213は、再度スタンバイ画面を表示パネル215に出力する(S215)
 次に、操作者が、撮影装置200の先端を補助具300で被覆し、使用者の口腔に撮影装置200を所定の位置まで挿入する。そして、プロセッサ213は、入力インターフェイス210(例えば、撮影ボタン)を介して操作者による撮影開始操作が受け付けられると、プロセッサ213はカメラ211を制御して被写体の被写体画像の撮影を開始する(S216)。この被写体画像の撮影は、撮影ボタンが押下されることによって一定枚数(例えば、30枚)をまとめて一定間隔で連写して撮影されることにより実施される。プロセッサ213は、被写体画像の撮影が終了すると、撮影された被写体画像をメモリ214に読み取られた使用者ID情報と対応付けて記憶する。そして、プロセッサ213は、表示パネル215に記憶された被写体画像を出力する(S217)。
 ここで、操作者は、撮影装置200を補助具300とともに口腔内から取り出して表示パネル215に出力された被写体画像を確認し、所望の画像が得られなかった場合には再撮影の指示入力を行うことが可能である。そのため、プロセッサ213は、入力インターフェイス210を介して操作者による再撮影指示の入力を受け付けたか否かを判定する(S218)。再撮影指示の入力を受け付けた場合には、プロセッサ213は再度S215のスタンバイ画面を表示し、被写体画像の撮影を可能にする。
 他方、再撮影指示の入力を受け付けておらず、操作者によって載置台400に撮影装置200が戻されて処理装置100から撮影終了の指示を受信すると、プロセッサ213は、通信インターフェイス216を介してメモリ214に記憶された被写体画像と当該被写体画像に対応付けられた使用者ID情報を処理装置100に送信する(S219)。以上によって、当該処理フローを終了する。
7.処理装置100で実行される処理フロー(判定処理等)
 図11は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。具体的には、図11は、図8のS31~S33に係る処理のために実行される処理フローを示す図である。当該処理フローは、主に処理装置100のプロセッサ111がメモリ112に記憶されたプログラムを読み出して実行することにより行われる。
 図11によると、プロセッサ111は、撮影装置200から被写体画像とそれに対応付けられた使用者ID情報を受信すると、メモリ112に記憶するとともに、画像管理テーブルに登録する(S311)。そして、プロセッサ111は、出力インターフェイス114を介して、受信された使用者ID情報又はそれに対応する属性情報(例えば、氏名)を出力し、インフルエンザに対する罹患の可能性の判定対象となる使用者の選択を受け付ける(S312)。なお、このとき、撮影装置200から複数の使用者ID情報とそれに対応付けられた被写体画像を受信した場合には、複数の使用者ID情報又はそれに対応する属性情報を出力して、いずれかの使用者を選択することが可能である。
 プロセッサ111は、入力インターフェイス113を介して判定対象の使用者の選択を受け付けると、その使用者の使用者ID情報に対応付けられた属性情報をメモリ112の使用者テーブルから読み出す(S313)。また、同様に、プロセッサ111は、判定対象の使用者の使用者ID情報に対応付けられた問診情報をメモリ112の使用者テーブルから読み出す(S314)。
 次に、プロセッサ111は、メモリ112から選択された使用者の使用者ID情報に対応付けられた被写体画像を読み出して、インフルエンザに対する罹患の可能性の判定に用いられる判定画像の選択処理を実行する(S315:この選択処理の詳細については後述する。)。そして、プロセッサ111は、選択された判定画像に基づいてインフルエンザに対する罹患の可能性の判定処理を実行する(S316:この判定処理の詳細については後述する。)。プロセッサ111は、判定処理によって判定結果が得られえると、使用者ID情報に対応付けて使用者テーブルに記憶するとともに、出力インターフェイス114を介して、判定結果を出力する(S317)。以上により、当該処理フローを終了する。
 図12は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。具体的には、図12は、図11のS315で実行される判定画像の選択処理の詳細を示す図である。当該処理フローは、主に処理装置100のプロセッサ111がメモリ112に記憶されたプログラムを読み出して実行することにより行われる。
 図12によると、プロセッサ111は、メモリ112から選択された使用者の使用者ID情報に対応付けられた被写体画像を読み出す(S411)。次に、プロセッサ412は、読み出された被写体画像の中から判定画像の候補となる画像の選択を行う(S412)。この選択は、一例としては、学習済み判定画像選択モデルを利用して行われる。
 ここで、図13は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図13は、図12のS412で利用される学習済み判定画像選択モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ111によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。
 図13によると、プロセッサは、咽頭の少なくとも一部が含まれる被写体の被写体画像を学習用被写体画像として取得するステップを実行する(S511)。次に、プロセッサは、取得された学習用被写体画像に対して、判定画像として使用可能な画像であるか否かのラベル情報を付与する処理ステップを実行する(S512)。そして、プロセッサは付与されたラベル情報を学習用被写体画像に対応付けて記憶するステップを実行する(S513)。なお、当該ラベル付与処理やラベル情報の記憶処理は、あらかじめ学習用被写体画像に対してヒトによって判定画像であるか否かの判断を行って、プロセッサがそれを学習用被写体画像に対応付けて記憶するようにしてもいし、プロセッサが公知の画像解析処理によって判定画像であるか否かの解析を行いその結果を学習用被写体画像に対応付けて記憶するようにしてもよい。また、ラベル情報は、被写体となる口腔の少なくとも一部の領域が写っているか否か、手ぶれ、焦点ずれ、曇りなどの画質が良好であるか否か等の観点に基づいて付与される。
 学習用被写体画像とそれに対応付けられたラベル情報がそれぞれ得られると、プロセッサは、それらを用いて判定画像の選択パターンの機械学習を行うステップを実行する(S514)。当該機械学習は、一例として、学習用被写体画像とラベル情報の組を、ニューロンを組み合わせて構成されたニューラルネットワークに与え、ニューラルネットワークの出力がラベル情報と同じになるように、各ニューロンのパラメータを調整しながら学習を繰り返すことにより行われる。そして、学習済みの判定画像選択モデル(例えば、ニューラルネットワークとパラメータ)を取得するステップが実行される(S515)。取得された学習済み判定画像選択モデルは、処理装置100のメモリ112や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶されていてもよい。
 再び図12に戻り、プロセッサ111は、学習済み判定画像選択モデルに対してS411で読み出された被写体画像を入力することによって、判定画像の候補となる候補画像を出力として取得する。これによって、被写体となる口腔の少なくとも一部の領域が写っている画像や、手ぶれ、焦点ずれ、被写体の動きぼけ、露出、曇りなどの画質が良好である画像を良好に選択することができる。また、操作者の撮影手技の巧拙によらず、画質が良好である画像を安定的に選択することができる。そして、プロセッサ111は、取得された判定画像の候補となる候補画像を画像管理テーブルに登録する。
 次に、プロセッサ111は、選択された候補画像から類似度に基づく判定画像の選択処理を実行する(S413)。具体的には、プロセッサ111は、得られた候補画像同士を比較して、各候補画像間の類似度を算出する。そして、プロセッサ111は、他の候補画像に対して類似度が低いと判断された候補画像を判定画像として選択する。このような各候補画像間の類似度は、各候補画像中の局所的な特徴量を用いた方法(Bag-of-Keypoints法)、EMD(Earth Mover’s Distance)を用いた方法、SVM(サポートベクタマシン)を用いた方法、ハミング距離を用いた方法、コサイン類似度を用いた方法などによって算出される。
 このように、得られた候補画像間で類似度を算出し、他の候補画像に対して類似度が低いと判断された候補画像を選択することで、互いに視野の異なる被写体画像が判定画像として選択されることとなる。これにより、同じ視野で得られた被写体画像を判定画像として用いる場合に比べてより多様な情報に基づいて判定処理を行うことが可能となるため、判定精度をより向上させることが可能となる。具体的には、ある判定画像で咽頭の一部領域が口蓋垂によって隠されていても、視野の異なる別の判定画像では隠されていた咽頭の一部領域が見えているため、インフルエンザ濾胞等の重要な特徴を見逃すことを防止できる。
 次に、プロセッサ111は、類似度に基づいて選択された候補画像を判定画像として画像管理テーブルに登録する(S414)。
 ここで、被写体画像、候補画像及び判定画像は、いずれも1枚であってもよいし複数枚であってもよい。しかし、一例としては、例えば5~30枚程度の被写体画像群から候補画像群を選択し、最終的に5枚程度の判定画像群を得るのが好ましい。これは、多数の被写体画像の中から判定画像を選択することによって、より良好な判定画像が得られる可能性が高くなるためである。また、複数の判定画像群を後述の判定処理に利用することによって、1枚の判定画像のみを用いる場合に比べて判定精度をより向上させることができるためである。また、他の例としては、被写体画像の撮影が行われるたびに、撮影された被写体画像を処理装置100に送信したうえで候補画像の選択と判定画像の選択を行うか、撮影装置200において候補画像の選択と判定画像の選択を行い、判定画像が所定の枚数(例えば5枚程度)だけ取得できた段階で撮影を終了させるようにしてもよい。このようにすることで、上記のとおり判定精度の向上を維持しつつも、被写体画像の撮影に係る時間を最小限にすることができる。つまり、嘔吐反射等の使用者に対する不快感を低減することができる。
 図14は、本開示の一実施形態に係る処理装置100において実行される処理フローを示す図である。具体的には、図14は、図11のS316で実行されるインフルエンザに対する罹患の可能性の判定処理の詳細を示す図である。当該処理フローは、主に処理装置100のプロセッサ111がメモリ112に記憶されたプログラムを読み出して実行することにより行われる。
 図14によると、プロセッサ111は、それぞれ異なる手法で取得した第1陽性率、第2陽性率及び第3陽性率をアンサンブル処理することによって判定結果を取得する。
 まず、第1陽性率を取得する処理について説明する。プロセッサ111は、判定対象となる使用者の使用者ID情報に対応付けられた判定画像をメモリ112から読み出す(S611)。そして、プロセッサ111は、読み出された判定画像に対して所定の前処理を行う。このような前処理としては、ハイパスフィルタやローパスフィルタを含むバンドパスフィルタ、平均化フィルタ、ガウシアンフィルタ、ガボールフィルタ、キャニーフィルタ、ソーベルフィルタ、ラプラシアンフィルタ、メディアンフィルタ、バイラテラルフィルタなどのフィルタ処理、ヘッセ行列等を用いた血管抽出処理、機械学習を用いた特定領域(例えば、濾胞)のセグメンテーション処理、セグメンテーションされた領域に対するトリミング処理、曇り除去処理、超解像処理及びこれらの組み合わせから、高精細化、領域抽出、ノイズ除去、エッジ強調、画像補正、画像変換などの目的に応じて選択される。このように、前処理を実行することによって、インフルエンザにおける濾胞などの、疾患に対する診断において重要な注目領域をあらかじめ抽出したり強調したりすることで、判定精度を向上させることが可能となる。
 ここでは、このような前処理として、曇り除去処理、超解像処理及びセグメンテーション処理を行う場合について、一例として以下に具体的に説明する。まず曇り除去処理は、一例としては学習用被写体画像と学習用被写体画像から曇り付加フィルタ等の適用によって曇りを付加した学習用劣化画像の組を学習器に与え、機械学習することによって得られた学習済み曇り除去画像モデルを使用する。プロセッサ111は、読み出された判定画像を入力として、メモリ112に記憶された学習済み曇り除去画像モデルに入力し、曇りが除去された判定画像を出力として取得する。また、超解像処理は、被写体の高解像度画像と、高解像度画像に対してスケール縮小処理やぼかし処理などの劣化処理を行って得られた低解像度画像の組をそれぞれ学習用画像として学習器に与え、機械学習することによって得られた学習済み超解像画像モデル使用する。プロセッサ111は、曇り除去処理がされた判定画像を入力として、メモリ112に記憶された学習済み超解像画像モデルに入力し、超解像処理がなされた判定画像を出力として取得する。また、セグメンテーション処理は、学習用被写体画像と、当該学習用被写体画像に対して医師らによる操作入力に基づいて注目領域(例えば、濾胞)にラベルを付与することで得られた当該ラベルの位置情報の組を学習器に与え、機械学習することによって得られた学習済みセグメンテーション画像モデルを使用する。プロセッサ111は、超解像処理がなされた判定画像を入力として、メモリ112に記憶された学習済みセグメンテーション画像モデル入力し、注目領域(例えば、濾胞)がセグメンテーションされた判定画像を取得する。そして、プロセッサ112は、このように前処理された判定画像をメモリ112に記憶する。なお、ここでは、曇り除去処理、超解像処理及びセグメンテーション処理の順で処理したが、いずれの順番であってもよいし、少なくともいずれか一つの処理だけであってもよい。また、いずれの処理も学習済みモデルを使用した処理を例示したが、曇り除去フィルタ、スケール拡大処理、鮮鋭化処理等の処理を用いてもよい。
 そして、プロセッサ111は、前処理後の判定画像を入力として特徴量抽出器に与え(S613)、出力として判定画像の画像特徴量を出力として取得する(S614)。さらに、プロセッサ111は、取得された判定画像の特徴量を入力として分類器に与え(S615)、インフルエンザに対する罹患の第1の可能性を示す第1陽性率を出力として取得する(S616)。なお、特徴量抽出器では、判定画像中の濾胞の有無や発赤の有無などの所定数の特徴量をベクトルとして得ることができる。一例としては、判定画像から1024次元の特徴量ベクトルがそれぞれ抽出され、これらが当該判定画像の特徴量として記憶される。
 ここで、図15は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図15は、図14のS613の特徴量抽出器及びS615の分類器が含まれる学習済み陽性率判定選択モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ111によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。
 図15によると、プロセッサは、咽頭の少なくとも一部が含まれる被写体の画像に、図14のS612と同様の前処理を行った画像を学習用判定画像として取得するステップを実行する(S711)。次に、プロセッサは、取得された学習用判定画像の被写体となった使用者に対して、あらかじめイムノクロマトによるインフルエンザ迅速検査、PCR検査、ウイルス分離培養検査の結果等に基づいて付与され正解ラベルを付与する処理ステップを実行する(S712)。そして、プロセッサは付与された正解ラベル情報を判定結果情報として学習用判定画像に対応付けて記憶するステップを実行する(S713)。
 学習用判定画像とそれに対応付けられた正解ラベル情報がそれぞれ得られると、プロセッサは、それらを用いて陽性率判定パターンの機械学習を行うステップを実行する(S714)。当該機械学習は、一例として、畳み込みニューラルネットワークから構成された特徴量抽出器とニューラルネットワークから構成された分類器に対して、学習用判定画像と正解ラベル情報の組を与え、分類器からの出力が正解ラベル情報と同じになるように、各ニューロンのパラメータを調整しながら学習を繰り返すことにより行われる。そして、学習済みの陽性率判定モデルを取得するステップが実行される(S715)。取得された学習済み陽性率判定モデルは、処理装置100のメモリ112や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶されていてもよい。
 再び図14に戻り、プロセッサ111は、学習済み陽性率判定モデルに対してS612で前処理された判定画像を入力することによって、判定画像の特徴量(S614)と、インフルエンザに対する罹患の第1の可能性を示す第1陽性率(S616)を出力として取得し、使用者ID情報に対応付けてメモリ112に記憶する。
 次に、第2陽性率を取得する処理について説明する。プロセッサ111は、判定対象となる使用者の使用者ID情報に対応付けられた問診情報及び属性情報のうちの少なくともいずれかをメモリ112から読み出す(S617)。また、プロセッサ111は、S614で算出されメモリ112に使用者ID情報に対応付けて記憶された判定画像の特徴量をメモリ112から読み出す(S614)。そして、プロセッサ111は、読み出された問診情報及び属性情報の少なくともいずれかと、判定画像の特徴量を入力として学習済み陽性率判定モデルに与え(S618)、インフルエンザに対する罹患の第2の可能性を示す第2陽性率を出力として取得する(S619)。
 ここで、図16は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図16は、図14のS618の学習済み陽性率判定選択モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ111によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。
 図16によると、プロセッサは、咽頭の少なくとも一部が含まれる被写体の画像に対して図14のS612と同様の前処理を行った判定画像から学習用特徴量を取得するステップを実行する(S721)。また、プロセッサは、当該判定画像の被写体となった使用者の使用者ID情報にあらかじめ対応付けて記憶された問診情報及び属性情報を取得するステップを実行する(S721)。次に、プロセッサは、当該判定画像の被写体となった使用者に対して、あらかじめイムノクロマトによるインフルエンザ迅速検査、PCR検査、ウイルス分離培養検査の結果等に基づいて付与され正解ラベルを付与する処理ステップを実行する(S722)。そして、プロセッサは付与された正解ラベル情報を判定結果情報として判定画像の学習用特徴量、並びに問診情報及び属性情報に対応付けて記憶するステップを実行する(S723)。
 判定画像の学習用特徴量、並びに問診情報及び属性情報とそれに対応付けられた正解ラベル情報がそれぞれ得られると、プロセッサは、それらを用いて陽性率判定パターンの機械学習を行うステップを実行する(S724)。当該機械学習は、一例として、ニューロンを組み合わせたニューラルネットワークに対して、これら情報の組を与え、ニューラルネットワークからの出力が正解ラベル情報と同じになるように、各ニューロンのパラメータを調整しながら学習を繰り返すことにより行われる。そして、学習済みの陽性率判定モデルを取得するステップが実行される(S725)。取得された学習済み陽性率判定モデルは、処理装置100のメモリ112や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶されていてもよい。
 再び図14に戻り、プロセッサ111は、学習済み陽性率判定モデルに対してS614で読み出された判定画像の特徴量と、S617で読み出された問診情報及び属性情報の少なくともいずれかを入力することによって、インフルエンザに対する罹患の第2の可能性を示す第2陽性率(S619)を出力として取得し、使用者ID情報に対応付けてメモリ112に記憶する。
 次に、第3陽性率を取得する処理について説明する。プロセッサ111は、判定対象となる使用者の使用者ID情報に対応付けられた問診情報及び属性情報のうちの少なくともいずれかをメモリ112から読み出す(S617)。また、プロセッサ111は、S616で算出されメモリ112に使用者ID情報に対応付けて記憶された第1陽性率をメモリ112から読み出す。そして、プロセッサ111は、読み出された問診情報及び属性情報の少なくともいずれかと、第1陽性率を入力として学習済み陽性率判定モデルに与え(S620)、インフルエンザに対する罹患の第3の可能性を示す第3陽性率を出力として取得する(S621)。
 ここで、図17は、本開示の一実施形態に係る学習済みモデルの生成に係る処理フローを示す図である。具体的には、図17は、図14のS620の学習済み陽性率判定選択モデルの生成に係る処理フローを示す図である。当該処理フローは、処理装置100のプロセッサ111によって実行されてもよいし、他の処理装置のプロセッサによって実行されてもよい。
 図17によると、プロセッサは、咽頭の少なくとも一部が含まれる被写体の画像に対して図14のS612と同様の前処理を行った判定画像を特徴量抽出器(図14のS613)及び分類器(図14のS615)が含まれる学習済み陽性率判定選択モデルに入力して得られた第1陽性率情報を取得するステップを実行する(S731)。また、プロセッサは、当該判定画像の被写体となった使用者の使用者ID情報にあらかじめ対応付けて記憶された問診情報及び属性情報を取得するステップを実行する(S731)。次に、プロセッサは、当該判定画像の被写体となった使用者に対して、あらかじめイムノクロマトによるインフルエンザ迅速検査、PCR検査、ウイルス分離培養検査の結果等に基づいて付与され正解ラベルを付与する処理ステップを実行する(S732)。そして、プロセッサは付与された正解ラベル情報を判定結果情報として第1陽性率情報、並びに問診情報及び属性情報に対応付けて記憶するステップを実行する(S733)。
 第1陽性率情報、並びに問診情報及び属性情報とそれに対応付けられた正解ラベル情報がそれぞれ得られると、プロセッサは、それらを用いて陽性率判定パターンの機械学習を行うステップを実行する(S734)。当該機械学習は、一例として、ニューロンを組み合わせたニューラルネットワークに対して、これら情報の組を与え、ニューラルネットワークからの出力が正解ラベル情報と同じになるように、各ニューロンのパラメータを調整しながら学習を繰り返すことにより行われる。そして、学習済みの陽性率判定モデルを取得するステップが実行される(S735)。取得された学習済み陽性率判定モデルは、処理装置100のメモリ112や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶されていてもよい。
 再び図14に戻り、プロセッサ111は、学習済み陽性率判定モデルに対してS616で読み出された第1陽性率情報と、S617で読み出された問診情報及び属性情報の少なくともいずれかを入力することによって、インフルエンザに対する罹患の第3の可能性を示す第3陽性率(S621)を出力として取得し、使用者ID情報に対応付けてメモリ112に記憶する。
 このようにして、第1陽性率、第2陽性率及び第3陽性率がそれぞれ算出されると、プロセッサ111は各陽性率をメモリ112から読み出してアンサンブル処理を実施する(S622)。当該アンサンブル処理の一例としては、得られた第1陽性率、第2陽性率及び第3陽性率をリッジ回帰モデルに入力として与え、インフルエンザに対する罹患の可能性の判定結果として各陽性率がアンサンブルされた結果が取得される(S623)。
 なお、S622で用いられるリッジ回帰モデルは、処理装置100のプロセッサ111又は他の処理装置のプロセッサによって機械学習されることによって生成される。具体的には、プロセッサは、学習用判定画像から第1陽性率、第2陽性率及び第3陽性率をそれぞれ取得する。また、プロセッサは、学習用判定画像の被写体となった使用者に対して、あらかじめイムノクロマトによるインフルエンザ迅速検査、PCR検査、ウイルス分離培養検査の結果等に基づいて付与され正解ラベルを付与する。そして、プロセッサは、各陽性率及びそれに対応付けられた正解ラベルの組をリッジ回帰モデル与え、出力が当該リッジ回帰モデルの正解ラベル情報と同じになるように、各陽性率に対して与えられるパラメータを調整しながら学習を繰り返す。これにより、アンサンブル処理に用いられるリッジ回帰モデルが得られ、処理装置100のメモリ112や処理装置100と有線又は無線ネットワークを介して接続された他の処理装置内に記憶される。
 また、アンサンブル処理の一例としてリッジ回帰モデルを使用する場合について説明したが、各陽性率の平均値を取得する処理、最大値を取得する処理、最小値を取得する処理、重み付け加算する処理、バギング、ブースティング、スタッキング、ラッソ回帰、線形回帰等の他の機械学習手法を用いる処理など、いずれの手法を使用してもよい。
 プロセッサ111は、このようにして得られた判定結果を使用者ID情報に対応付けてメモリ112の使用者テーブルに記憶する(S624)。これにより当該処理フローを終了する。
 なお、図14においては、第1陽性率、第2陽性率及び第3陽性率に対してアンサンブル処理を行って、最終的に判定結果を得るようにした。しかし、これに限らず、各陽性率のそれぞれを最終的な判定結果としてそのまま用いてもよいし、いずれか二つの陽性率によるアンサンブル処理を行って最終的な判定結果としてもよい。さらに、他の手法によって得られた他の陽性率をさらに加えてアンサンブル処理を行い、最終的な判定結果としてもよい。
 また、図11に示すように、得られた判定結果は出力インターフェイス114を介して出力されるが、最終的な判定結果のみを出力してもよいし、各陽性率も一緒に出力するようにしてもよい。
 このように、本実施形態においては、口腔内の診断に用いるために口腔内を撮影して得られた画像を処理するのに適した処理装置、処理プログラム、処理方法及び処理システムを提供することが可能となる。
8.変形例
 図14の例では、問診情報及び属性情報の少なくともいずれかを用いてインフルエンザに対する罹患の可能性を示す情報を出力する場合について説明した。しかし、これらの情報に代えて、又はこれらの情報に加えて、インフルエンザに関連する外部要因情報を用いて、インフルエンザに対する罹患の可能性を示す情報を出力するようにしてもよい。このような外部要因情報には、他の使用者に対してなされて判定結果や、医師による診断結果、また使用者が属する地域等におけるインフルエンザの流行情報などが挙げられる。プロセッサ111は、このような外部要因情報を通信インターフェイス115を介して他の処理装置等から取得し、学習済み陽性率判定モデルに外部要因情報を入力として与えることで、外部要因情報を考慮した陽性率を得ることが可能となる。
 図14の例では、問診情報及び属性情報は、あらかじめ操作者又は使用者によって入力されるか、有線又は無線ネットワークに接続された電子カルテ装置等から受信する場合について説明した。しかし、これらに代えて、又はこれらに加えて撮影された被写体画像からこれらの情報を入手してもよい。学習用被写体画像に対して、当該学習用被写体画像に対応付けられた属性情報や問診情報を正解ラベルとして与え、これらの組をニューラルネットワークで機械学習することによって学習済み情報推定モデルを得る。そして、プロセッサ111が、当該学習済み情報推定モデルに対して被写体画像を入力として与えることで、所望の問診情報及び属性情報を得ることができる。このような問診情報及び属性情報の一例としては、性別、年齢、咽頭発赤度合い、扁桃腫脹度合い、白苔の有無等が挙げられる。これにより、操作者が問診情報及び属性情報を入力する手間を省くことができる。
 以下に、問診情報の具体例として、咽頭の濾胞の特徴量を得る場合について説明する。上記のとおり、咽頭部分に現れる濾胞は、インフルエンザに特徴的なサインであり、医師による診断においても視診によって確認される。そこで、学習用被写体画像に対して医師らによる操作入力によって濾胞などの注目領域に対するラベル付与処理を行う。そして、学習用被写体画像中におけるラベルの位置情報(形状情報)を学習用位置情報として取得し、学習用被写体画像とそれにラベル付けられた学習用位置情報の組をニューラルネットワークで機械学習することによって、学習済み領域抽出モデルを得る。そして、プロセッサ111が、当該学習済み領域抽出モデルに対して被写体画像を入力として与えることで、注目領域(つまり濾胞)の位置情報(形状情報)を出力する。その後、プロセッサ111は、得られた濾胞の位置情報(形状情報)を問診情報として記憶する。
 また、問診情報の他の具体例として、心拍数を得る場合について説明する。まず、プロセッサ111は、被写体画像として所定期間の撮影時間を受信する。そして、プロセッサ111は、受信した動画を構成する各フレームにRGBの各色成分を抽出して、G(緑)成分の輝度を得る。プロセッサ111は、得られた各フレームのG成分の輝度から動画におけるG成分の輝度波形を生成し、そのピーク値から心拍数を推定する。なお、当該方法は、血液中のヘモグロビンが緑色の光を吸収することを利用した方法であるが、当然に他の方法によって心拍数が推定されてもよい。そして、プロセッサ111は、このように推定された心拍数を問診情報として記憶する。
 図14の例では、メモリ112から読み出された判定画像に対してS612において前処理を行ったうえで、特徴量抽出器に入力として与える場合について説明した。しかし、必ずしも前処理は必要ではない。例えば、プロセッサ111は、メモリ112から判定画像を読み出し、前処理をすることなく読み出された判定画像を特徴量抽出器に入力として与えてもよい。また、前処理を行う場合であっても、プロセッサ111は、前処理がされた判定画像と前処理がされていない判定画像の両方を、特徴量抽出器に入力として与えてもよい。
 また、図15~図17において示した各学習済みモデルの生成においても、学習用データとして図14のS612と同様の前処理を行った判定画像を用いた。しかし、上記のように図14において前処理を行わない場合や、前処理後の判定画像と前処理前の判定画像の両方を判定画像として用いる場合を考慮して、前処理を行わない判定画像を学習用データとして用いてもよい。
 図13、図15~図17等で説明した各学習済みモデルは、ニューラルネットワークや畳み込みニューラルネットワークを用いて生成した。しかし、これらに限らず、ニアレストネイバー法、決定木、回帰木、ランダムフォレスト等の機械学習を用いて生成することも可能である。
 図8の例では、処理装置100において属性情報や問診情報の取得、判定画像の選択、判定処理、判定結果の出力が行われ、撮影装置200において被写体画像の撮影が行われる場合について説明した。しかし、これらの各種処理は、処理装置100や撮影装置200などで適宜分散して処理することが可能である。図20は、本開示の一実施形態に係る処理システム1の概略図である。具体的には、図20は、処理システム1を構成する可能性のある各種装置の接続例を示す図である。図20によれば、処理システム1には、処理装置100、撮影装置200、例えばスマートフォンやタブレット、ラップトップPC等の端末装置810、電子カルテ装置820、及びサーバ装置830が含まれ、これらが互いに有線又は無線ネットワークを介して接続される。なお、図20にあげる各装置は必ず備えられる必要はなく、以下に例示する処理の分散例にしたがって適宜備えられれば良い。
 図8の例に代えて、図20に例示する処理システム1において、以下のとおり各種処理を分散することができる。
(1)被写体画像の撮影、属性情報や問診情報の取得、判定画像の選択、判定処理、判定結果の出力などのすべての処理を撮影装置200で実行する。
(2)被写体画像の撮影及び判定結果の出力を撮影装置200で実行し、判定画像の選択や判定処理など、機械学習を利用する処理をサーバ装置830(クラウドサーバ装置)で実行する。
(3)問診情報や属性情報の入力を端末装置810で実行し、判定画像の選択、判定処理、判定結果の出力を処理装置100で実行し、被写体画像の撮影を撮影装置200で実行する。
(4)問診情報や属性情報の入力、被写体画像の撮影を撮影装置200で実行し、判定画像の選択、判定処理、判定結果の出力を処理装置100で実行する。
(5)問診情報や属性情報の入力、判定結果の出力を端末装置810で実行し、判定画像の選択、判定処理を処理装置100で実行し、被写体画像の撮影を撮影装置200で実行する。
(6)問診情報や属性情報の入力を電子カルテ装置820で実行し、判定画像の選択、判定処理を処理装置100で実行し、被写体画像の撮影を撮影装置200で実行し、判定結果の出力を端末装置810で実行する。
(7)問診情報や属性情報の入力、判定結果の出力を電子カルテ装置820で実行し、判定画像の選択、判定処理を処理装置100で実行し、被写体画像の撮影を撮影装置200で実行する。
(8)問診情報や属性情報の入力、判定結果の出力を端末装置810で実行し、判定画像の選択、判定処理をサーバ装置830で実行し、被写体画像の撮影を撮影装置200で実行する。
(9)問診情報や属性情報の入力、判定結果の出力を端末装置810及び電子カルテ装置820で実行し、判定画像の選択、判定処理をサーバ装置830で実行し、被写体画像の撮影を撮影装置200で実行する。
(10)問診情報や属性情報の入力、判定結果の出力を電子カルテ装置820で実行し、判定画像の選択、判定処理をサーバ装置830で実行し、被写体画像の撮影を撮影装置200で実行する。
 上記の処理の分散例のうち一例について具体的に説明する。患者等が保持するスマートフォン、医療機関等で用いられるタブレット、医師等が使用するラップトップPCなど端末装置810において、図8に示すS11~S15に係る処理が実行される。その後、撮影装置200においてS21~S24に係る処理が実行されると、端末装置810を介して、又は直接、サーバ装置830に被写体画像が送信される。被写体画像を受信したサーバ装置830において、S31~S32に係る処理が実行され、サーバ装置830から判定結果が端末装置810に出力される。判定結果の出力を受けた端末装置810において、その判定結果がメモリに記憶されるとともに、ディスプレイに表示される。
 なお、上記はあくまで処理の分散の一例であるにすぎない。また、本開示において処理装置100のことを処理装置と呼称している。しかし、これは単に判定処理等に係る様々な処理を実行ことから、処理装置100を処理装置と呼称しているにすぎない。例えば、各種処理を撮影装置200、端末装置810、電子カルテ装置820、サーバ装置830等が実行する場合には、これらも処理装置として機能し、処理装置と呼称されることがある。
 図3の例では、撮影装置200として略円柱状の撮影装置200を用いて被写体画像を撮影した。しかし、これに限らず、例えば端末装置810を撮影装置として利用し、端末装置810に備えられたカメラを使って被写体画像を撮影することも可能である。このような場合、カメラは口腔内の咽頭近辺まで挿入されることなく、門歯の外側(体外側)に配置され口腔内の撮影を行うこととなる。
 なお、これら変形例は、上記で具体的に説明する点を除いて、図1~図19で説明した一実施形態における構成、処理、手順と同様である。したがって、それらの事項の詳細な説明は省略する。また、各変形例や各実施形態で説明した各要素を適宜組み合わせるか、それらを置き換えてシステムを構成することも可能である。
 本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能である。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、処理装置やサーバ装置を含む各種のコンピュータに実行させることが可能である。
 本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明される各種情報が単一のメモリや記憶部に格納される旨が説明されたとしても、そのような情報は、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェア及びハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。
 1    処理システム
 100  処理装置
 200  撮影装置
 300  補助具
 400  載置台
 600  操作者
 700  使用者
 810  端末装置
 820  電子カルテ装置
 830  サーバ装置
 

 

Claims (15)

  1.  少なくとも一つのプロセッサを含み、
     前記少なくとも一つのプロセッサが、
     使用者の口腔の少なくとも一部が含まれた被写体の画像を撮影するためのカメラを介して前記被写体の一又は複数の判定画像を取得し、
     所定の疾患に対する罹患の可能性を判定するためにメモリに記憶された学習済み判定モデルと、取得された前記一又は複数の判定画像とに基づいて、前記所定の疾患に対する罹患の可能性を判定し、
     判定された前記罹患の可能性を示す情報を出力する、
     ための処理をするように構成される、処理装置。
  2.  前記被写体には咽頭が少なくとも含まれる、請求項1に記載の処理装置。
  3.  前記被写体には扁桃が少なくとも含まれる、請求項1に記載の処理装置。
  4.  前記一又は複数の判定画像は、前記カメラで撮影された一又は複数の被写体画像から前記一又は複数の判定画像を選択するために前記メモリに記憶された学習済み判定画像選択モデルに、前記一又は複数の被写体画像を入力することで取得される、請求項1~3のいずれか一項に記載の処理装置。
  5.  前記学習済み判定画像選択モデルは、前記被写体を撮影した学習用被写体画像と、前記学習用被写体画像に対して前記罹患の可能性の判定に用いることができるか否かをしめすラベル情報とを用いて学習することによって得られる、請求項4に記載の処理装置。
  6.  前記一又は複数の判定画像は、前記カメラで撮影された複数の被写体画像から各被写体画像間の類似度に基づいて取得される、請求項1~3のいずれか一項に記載の処理装置。
  7.  前記プロセッサは、
     前記所定の疾患に対する罹患の可能性の判定は、前記一又は複数の判定画像から所定の特徴量を抽出するための学習済み特徴量抽出器に、前記一又は複数の判定画像を入力して前記所定の特徴量を算出し、
     前記所定の特徴量と前記学習済み判定モデルとに基づいて前記所定の疾患に対する罹患の可能性を判定する、
     請求項1~6のいずれか一項に記載の処理装置。
  8.  前記プロセッサは、
     前記使用者の問診情報及び属性情報の少なくともいずれかを取得し、
     前記学習済み判定モデルと前記一又は複数の判定画像に加えて、前記問診情報及び前記属性情報の少なくともいずれかに基づいて、前記所定の疾患に対する罹患の可能性を判定する、
     請求項1~7のいずれか一項に記載の処理装置。
  9.  前記プロセッサは、
     前記使用者の問診情報及び属性情報の少なくともいずれかを取得し、
     前記問診情報及び前記属性情報のいずれも用いることなく、前記学習済み判定モデルと前記一又は複数の判定画像とに基づいて、前記所定の疾患に対する罹患の第1の可能性を判定し、
     前記学習済み判定モデルと前記一又は複数の判定画像に加えて、前記問診情報及び前記属性情報の少なくともいずれかに基づいて、前記所定の疾患に対する罹患の第2の可能性を判定し、
     前記第1の可能性と前記第2の可能性とに基づいて前記罹患の可能性を示す情報を取得する、
     請求項1~7のいずれか一項に記載の処理装置。
  10.  前記属性情報は、前記カメラで撮影された一又は複数の被写体画像から取得される情報である、請求項8又は9に記載の処理装置。
  11.  前記プロセッサは、
     前記所定の疾患に関連する外部要因情報を取得し、
     前記学習済み判定モデルと前記一又は複数の判定画像に加えて、前記外部要因情報に基づいて、前記所定の疾患に対する罹患の可能性を判定する、
     請求項1~10のいずれか一項に記載の処理装置。
  12.  前記プロセッサは、少なくとも2枚以上の複数の判定画像に基づいて、前記所定の疾患に対する罹患の可能性を判定する、請求項1~11のいずれか一項に記載の処理装置。
  13.  少なくとも一つのプロセッサにより実行されることにより、
     使用者の口腔の少なくとも一部が含まれた被写体の画像を撮影するためのカメラを介して前記被写体の一又は複数の判定画像を取得し、
     所定の疾患に対する罹患の可能性を判定するためにメモリに記憶された学習済み判定モデルと、取得された前記一又は複数の判定画像とに基づいて、前記所定の疾患に対する罹患の可能性を判定し、
     判定された前記罹患の可能性を示す情報を出力する、
     ように前記少なくとも一つのプロセッサを機能させる処理プログラム。
  14.  少なくとも1つのプロセッサにより実行される処理方法であって、
     使用者の口腔の少なくとも一部が含まれた被写体の画像を撮影するためのカメラを介して前記被写体の一又は複数の判定画像を取得する段階と、
     所定の疾患に対する罹患の可能性を判定するためにメモリに記憶された学習済み判定モデルと、取得された前記一又は複数の判定画像とに基づいて、前記所定の疾患に対する罹患の可能性を判定する段階と、
     判定された前記罹患の可能性を示す情報を出力する段階と、
     を含む処理方法。
  15.  前記使用者の口腔の少なくとも一部が含まれた被写体の画像を撮影するためのカメラを備える撮影装置と、
     前記撮影装置と有線又は無線ネットワークを介して接続された請求項1~12のいずれか一項に記載の処理装置と、
     を含む処理システム。
     

     
PCT/JP2021/026442 2021-07-14 2021-07-14 処理装置、処理プログラム、処理方法及び処理システム WO2023286199A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020237044815A KR20240032748A (ko) 2021-07-14 2021-07-14 처리 장치, 처리 프로그램, 처리 방법 및 처리 시스템
PCT/JP2021/026442 WO2023286199A1 (ja) 2021-07-14 2021-07-14 処理装置、処理プログラム、処理方法及び処理システム
CN202180100203.6A CN117651517A (zh) 2021-07-14 2021-07-14 处理装置、处理程序、处理方法以及处理系统
EP21950140.0A EP4371466A1 (en) 2021-07-14 2021-07-14 Processing device, processing program, processing method, and processing system
JP2023534510A JPWO2023286199A1 (ja) 2021-07-14 2021-07-14
US18/404,970 US20240130604A1 (en) 2021-07-14 2024-01-05 Processing Device, Processing Program, Processing Method, And Processing System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/026442 WO2023286199A1 (ja) 2021-07-14 2021-07-14 処理装置、処理プログラム、処理方法及び処理システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/404,970 Continuation US20240130604A1 (en) 2021-07-14 2024-01-05 Processing Device, Processing Program, Processing Method, And Processing System

Publications (1)

Publication Number Publication Date
WO2023286199A1 true WO2023286199A1 (ja) 2023-01-19

Family

ID=84919744

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/026442 WO2023286199A1 (ja) 2021-07-14 2021-07-14 処理装置、処理プログラム、処理方法及び処理システム

Country Status (6)

Country Link
US (1) US20240130604A1 (ja)
EP (1) EP4371466A1 (ja)
JP (1) JPWO2023286199A1 (ja)
KR (1) KR20240032748A (ja)
CN (1) CN117651517A (ja)
WO (1) WO2023286199A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199408A1 (ja) * 2016-05-19 2017-11-23 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム
WO2018105062A1 (ja) * 2016-12-07 2018-06-14 オリンパス株式会社 画像処理装置及び画像処理方法
JP2018527997A (ja) * 2015-05-12 2018-09-27 ジップライン ヘルス、インク. 医療診断情報を取得するための装置、方法、およびシステム、ならびに遠隔医療サービスの提供
WO2019131327A1 (ja) * 2017-12-28 2019-07-04 アイリス株式会社 口内撮影装置、医療装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018527997A (ja) * 2015-05-12 2018-09-27 ジップライン ヘルス、インク. 医療診断情報を取得するための装置、方法、およびシステム、ならびに遠隔医療サービスの提供
WO2017199408A1 (ja) * 2016-05-19 2017-11-23 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム
WO2018105062A1 (ja) * 2016-12-07 2018-06-14 オリンパス株式会社 画像処理装置及び画像処理方法
WO2019131327A1 (ja) * 2017-12-28 2019-07-04 アイリス株式会社 口内撮影装置、医療装置及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IRIS CO., LTD.: "Applied for approval of the world's first AI-equipped medical device for diagnosing infectious diseases that can detect influenza", PRTIMES.JP, PRTIMES.JP, JP, 16 June 2021 (2021-06-16), JP, pages 1 - 2, XP093024065, Retrieved from the Internet <URL:https://prtimes.jp/main/html/rd/p/000000014.000035813.html> [retrieved on 20230215] *
MIYAMOTOWATANABE: "Consideration of Meanings and Values of Examination Findings of Pharynx (Influenza Follicles", JOURNAL OF THE JAPAN MEDICAL JOURNAL, vol. 72, no. 1, 2013, pages 11 - 18

Also Published As

Publication number Publication date
JPWO2023286199A1 (ja) 2023-01-19
US20240130604A1 (en) 2024-04-25
KR20240032748A (ko) 2024-03-12
CN117651517A (zh) 2024-03-05
EP4371466A1 (en) 2024-05-22

Similar Documents

Publication Publication Date Title
JP7498521B2 (ja) 口内撮影装置、医療装置及びプログラム
US9445713B2 (en) Apparatuses and methods for mobile imaging and analysis
US11877843B2 (en) Human body measurement using thermographic images
US6427022B1 (en) Image comparator system and method for detecting changes in skin lesions
JP2021100555A (ja) 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム
JP2009077765A (ja) 内視鏡システム
JP6830082B2 (ja) 歯科分析システムおよび歯科分析x線システム
EP4091532A1 (en) Medical image processing device, endoscope system, diagnosis assistance method, and program
JP7345023B2 (ja) 内視鏡システム
US20220222817A1 (en) Transfer learning for medical applications using limited data
JP4649965B2 (ja) 健康度判定装置、及びプログラム
US20220084194A1 (en) Computer program, processor for endoscope, and information processing method
WO2021085443A1 (ja) 撮像装置及び撮像システム
WO2023286199A1 (ja) 処理装置、処理プログラム、処理方法及び処理システム
WO2023073844A1 (ja) 処理装置、処理プログラム及び処理方法
WO2022009285A1 (ja) 処理装置、処理プログラム、処理方法及び処理システム
KR101985378B1 (ko) 치아 촬영용 엑스레이 촬영기
WO2023181417A1 (ja) 撮影装置、プログラム及び方法
WO2019131328A1 (ja) 口内撮影補助具、及びその口内撮影補助具を含む医療装置
JP7427766B2 (ja) 画像選択支援装置、画像選択支援方法、及び画像選択支援プログラム
WO2023195091A1 (ja) 処理装置、処理プログラム及び処理方法
CN117893953B (zh) 一种软式消化道内镜操作规范动作评估方法及系统
WO2023170788A1 (ja) 補助具、撮影装置、プログラム及び方法
CN114549524A (zh) 牙齿图像数据处理方法、电子设备及可读存储介质
Sengupta et al. AUTOMATED DENTAL CARIES DETECTION

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21950140

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023534510

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202180100203.6

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2021950140

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021950140

Country of ref document: EP

Effective date: 20240214