JP7067743B2 - Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program - Google Patents

Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program Download PDF

Info

Publication number
JP7067743B2
JP7067743B2 JP2018185038A JP2018185038A JP7067743B2 JP 7067743 B2 JP7067743 B2 JP 7067743B2 JP 2018185038 A JP2018185038 A JP 2018185038A JP 2018185038 A JP2018185038 A JP 2018185038A JP 7067743 B2 JP7067743 B2 JP 7067743B2
Authority
JP
Japan
Prior art keywords
oral cancer
image
partial image
unit
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018185038A
Other languages
Japanese (ja)
Other versions
JP2020054444A (en
Inventor
尊士 荒木
千章 土井
博之 佐野
紗和 興梠
大造 池田
雅二 片桐
啓一 佐々木
大貴 日原
一賢 泉田
哲 高橋
衆 纐纈
健 小坂
潤 相田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
NTT Docomo Inc
Original Assignee
Tohoku University NUC
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, NTT Docomo Inc filed Critical Tohoku University NUC
Priority to JP2018185038A priority Critical patent/JP7067743B2/en
Publication of JP2020054444A publication Critical patent/JP2020054444A/en
Application granted granted Critical
Publication of JP7067743B2 publication Critical patent/JP7067743B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Description

本発明は、口腔癌診断システム及び口腔癌診断プログラムに関する。 The present invention relates to an oral cancer diagnostic system and an oral cancer diagnostic program.

口腔内の画像に基づいて、種々の疾患が診断されている。疾患の診断は、例えば、医師による画像の目視及び画像解析等により行われる。疾患の診断には、主として口腔内写真が用いられる。口腔内写真は、口腔内の所定の領域を表した複数の画像からなる。なお、口腔内写真の一例として、所定の口腔内規格写真が用いられる場合がある。口腔内写真を構成する各画像は、口腔内の部分を表した複数の画像を重畳領域に基づいて合成する、いわゆるパノラマ画像として生成される。また、口腔内画像に基づいて、う蝕検出のために歯の表面の画像の分類をする技術が知られている(例えば、特許文献1参照)。 Various diseases have been diagnosed based on the images in the oral cavity. The diagnosis of the disease is performed, for example, by visual inspection and image analysis of the image by a doctor. Intraoral photographs are mainly used for diagnosing diseases. An intraoral photograph consists of a plurality of images showing a predetermined area in the oral cavity. As an example of the intraoral photograph, a predetermined intraoral standard photograph may be used. Each image constituting the intraoral photograph is generated as a so-called panoramic image in which a plurality of images representing a portion of the oral cavity are combined based on a superposed region. Further, there is known a technique for classifying an image of a tooth surface for caries detection based on an intraoral image (see, for example, Patent Document 1).

特表2014-509908号公報Japanese Patent Publication No. 2014-509908

口腔内の疾患の1つである口腔癌の診断は、診断の対象部分の色及び形状等に基づいて行われる。精度の高い診断を行うためには、口腔内写真において対象部位が正しく表されている必要がある。しかしながら、通常に撮影された口腔内の画像では、唾液により反射が発生する場合がある。このような画像において、反射が発生した箇所は、色等が実際の状態と異なって表される。反射が生じている部分を含む画像に基づいて口腔癌の診断が行われると、誤診断が発生する可能性がある。 Diagnosis of oral cancer, which is one of the diseases in the oral cavity, is made based on the color and shape of the target portion of the diagnosis. In order to make a highly accurate diagnosis, it is necessary that the target site is correctly represented in the intraoral photograph. However, saliva may cause reflexes in images of the oral cavity taken normally. In such an image, the part where the reflection occurs is represented by a color or the like different from the actual state. Misdiagnosis can occur when oral cancer is diagnosed based on images that include areas of reflexes.

そこで、本発明は、上記問題点に鑑みてなされたものであり、口腔内写真に基づく口腔癌の診断において、誤診断の可能性を低減させることを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object thereof is to reduce the possibility of misdiagnosis in the diagnosis of oral cancer based on an intraoral photograph.

上記課題を解決するために、本発明の一形態に係る口腔癌診断システムは、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する口腔癌診断システムであって、ユーザの口腔内の部分を撮像した部分画像を複数取得する取得部と、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する除去部と、除去部により取得された部分画像を含む複数の部分画像を合成して口腔内写真を生成する生成部と、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定部と、判定部により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力部と、を備える。 In order to solve the above problems, the oral cancer diagnostic system according to one embodiment of the present invention is a disease related to oral cancer in the user's oral cavity based on an intraoral photograph consisting of a plurality of images showing a predetermined area in the oral cavity. An oral cancer diagnosis system for diagnosing oral cancer, which includes an acquisition unit that acquires a plurality of partial images of a part of the oral cavity of a user, and a removal or reflection portion of a reflection portion that is a region where reflection occurs in the partial image. A removal unit that acquires a partial image that does not include a reflective portion by extracting a partial image that does not exist, a generation unit that synthesizes a plurality of partial images including a partial image acquired by the removal unit to generate an intraoral photograph, and an oral cavity. Based on the characteristics of the image of the predetermined determination target area shown in the internal photograph, the determination unit for determining the presence / absence and state of the oral cancer-related disease and the presence / absence and state of the oral cancer-related disease determined by the determination unit. It includes an output unit that outputs determination information.

また、本発明の一形態に係る口腔癌診断プログラムは、コンピュータを、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する口腔癌診断システムとして機能させるための口腔癌診断プログラムであって、コンピュータに、ユーザの口腔内の部分を撮像した部分画像を複数取得する取得機能と、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する除去機能と、除去機能により取得された部分画像を含む複数の部分画像を合成して口腔内写真を生成する生成機能と、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定機能と、判定機能により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力機能と、を実現させる。 Further, the oral cancer diagnosis program according to one embodiment of the present invention uses a computer to diagnose a disease related to oral cancer in the user's oral cavity based on an intraoral photograph consisting of a plurality of images showing a predetermined area in the oral cavity. It is an oral cancer diagnosis program for functioning as an oral cancer diagnosis system, and is an acquisition function for acquiring a plurality of partial images of a part of the oral cavity of a user by a computer, and a region where reflection occurs in the partial image. By removing the reflective part or extracting the partial image that does not include the reflective part, the removal function that acquires the partial image that does not include the reflective part and the multiple partial images that include the partial image acquired by the removal function are combined into the oral cavity. Judgment was made by a generation function for generating a photograph, a determination function for determining the presence or absence and a state of a disease related to oral cancer based on the characteristics of an image of a predetermined determination target area shown in an intraoral photograph, and a determination function. It realizes an output function that outputs determination information regarding the presence / absence and condition of a disease related to oral cancer.

上記の形態によれば、反射部分が含まれない部分画像に基づいて口腔内写真が生成される。このように生成された口腔内写真に基づいて口腔癌の診断が行われることにより、誤診断の可能性を低減できる。 According to the above embodiment, an intraoral photograph is generated based on a partial image that does not include a reflective portion. By diagnosing oral cancer based on the intraoral photograph generated in this way, the possibility of misdiagnosis can be reduced.

口腔内写真に基づく口腔癌の診断において、誤診断の可能性を低減させることが可能となる。 In the diagnosis of oral cancer based on intraoral photographs, it is possible to reduce the possibility of misdiagnosis.

本実施形態に係る口腔癌診断システムの装置構成を示す図である。It is a figure which shows the apparatus configuration of the oral cancer diagnostic system which concerns on this embodiment. 本実施形態の口腔癌診断装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the oral cancer diagnostic apparatus of this embodiment. 口腔癌診断装置のハードブロック図である。It is a hard block diagram of an oral cancer diagnostic apparatus. ユーザの端末の機能的構成を示す図である。It is a figure which shows the functional configuration of a user's terminal. 医師の端末の機能的構成を示す図である。It is a figure which shows the functional structure of the terminal of a doctor. 診断の対象となる口腔内の各部分を模式的に示す図である。It is a figure which shows typically each part in the oral cavity which is the object of diagnosis. 部分画像及び複数の部分画像に基づいて合成されたパノラマ画像の例を示す図である。It is a figure which shows the example of the panoramic image which was combined based on a partial image and a plurality of partial images. 除去部による、反射部分を含まない部分画像の抽出処理の例を示す図である。It is a figure which shows the example of the extraction processing of the partial image which does not include the reflection part by the removal part. 反射部分を含む複数の部分画像及び反射部分が除去された部分画像の例を模式的に示す図である。It is a figure which shows the example of the plurality of partial images including the reflection part, and the part image which removed the reflection part schematically. 除去部による反射部分の除去の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the removal of the reflection part by the removal part. 生成部により生成される口腔内写真の例を示す図である。It is a figure which shows the example of the intraoral photograph generated by the generation part. 歯領域が除去された口腔内写真を示す図である。It is a figure which shows the intraoral photograph which the tooth region was removed. 判定部による口腔癌の有無及び状態の判定処理のフローチャートを示す図である。It is a figure which shows the flowchart of the determination process of the presence / absence and the state of oral cancer by the determination unit. 口腔癌の進行レベルの判定の結果の情報の例を示す図であって、口腔癌の可能性のある箇所がマークされた口腔内写真を模式的に示す図である。It is a figure which shows the example of the information of the result of the determination of the progression level of oral cancer, and is the figure which shows typically the intraoral photograph which marked the possibility of oral cancer. 本実施形態の口腔癌診断方法の処理内容の例を示すフローチャートである。It is a flowchart which shows the example of the processing content of the oral cancer diagnosis method of this embodiment. ユーザの端末における処理内容の例を示すフローチャートである。It is a flowchart which shows the example of the processing content in a user's terminal. 医師の端末における処理内容の例を示すフローチャートである。It is a flowchart which shows the example of the processing content in the terminal of a doctor. 口腔癌診断プログラムの構成を示す図である。It is a figure which shows the structure of the oral cancer diagnosis program.

本発明に係る口腔癌診断システムの実施形態について図面を参照して説明する。なお、可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。 An embodiment of the oral cancer diagnostic system according to the present invention will be described with reference to the drawings. If possible, the same parts will be designated by the same reference numerals, and duplicate description will be omitted.

図1は、本実施形態に係る口腔癌診断システムの装置構成を示す図である。口腔癌診断システム1は、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断するシステムである。図1に示す口腔癌診断システム1は、口腔癌診断装置10並びにユーザの端末20及び医師の端末30を含み、口腔癌診断装置10及び端末20,30は、ネットワークNを介して互いに通信可能である。 FIG. 1 is a diagram showing an apparatus configuration of an oral cancer diagnostic system according to the present embodiment. The oral cancer diagnosis system 1 is a system for diagnosing a disease related to oral cancer in the user's oral cavity based on an intraoral photograph including a plurality of images showing a predetermined area in the oral cavity. The oral cancer diagnostic system 1 shown in FIG. 1 includes an oral cancer diagnostic device 10, a user's terminal 20, and a doctor's terminal 30, and the oral cancer diagnostic device 10 and the terminals 20, 30 can communicate with each other via the network N. be.

口腔癌診断装置10は、例えば、サーバ等のコンピュータにより構成されるが、口腔癌診断装置10を構成する装置は限定されない。端末20,30は、例えば、据置型又は携帯型のパーソナルコンピュータ、高機能携帯電話機(スマートフォン)等により構成されるが、端末20,30を構成する装置は限定されず、例えば携帯電話機、携帯情報端末(PDA)などの携帯端末でもよい。なお、図1では、例として各1台の端末20及び端末30が示されているが、その数はこれに限定されない。 The oral cancer diagnostic apparatus 10 is composed of, for example, a computer such as a server, but the apparatus constituting the oral cancer diagnostic apparatus 10 is not limited. The terminals 20 and 30 are composed of, for example, a stationary or portable personal computer, a high-performance mobile phone (smartphone), etc., but the devices constituting the terminals 20 and 30 are not limited, and for example, the mobile phone and mobile information. It may be a mobile terminal such as a terminal (PDA). In FIG. 1, one terminal 20 and one terminal 30 are shown as an example, but the number thereof is not limited to this.

図2は、本実施形態に係る口腔癌診断装置10の機能的構成を示す図である。本実施形態の口腔癌診断装置10は、口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する装置である。口腔内写真は、口腔内の疾患を診断するために取得される口腔内を撮像した写真である。口腔内写真は、例えば、口腔内の所定の領域を表した複数の画像からなる。 FIG. 2 is a diagram showing a functional configuration of the oral cancer diagnostic apparatus 10 according to the present embodiment. The oral cancer diagnostic apparatus 10 of the present embodiment is an apparatus for diagnosing a disease related to oral cancer in the user's oral cavity based on an intraoral photograph. The intraoral photograph is a photograph of the oral cavity obtained for diagnosing a disease in the oral cavity. An intraoral photograph comprises, for example, a plurality of images showing a predetermined area in the oral cavity.

図2に示すように、口腔癌診断装置10は、機能的には、取得部11、前処理部12、除去部13、補正部14、生成部15、判定部16及び出力部17を備える。なお、本実施形態では、口腔癌診断装置10は、図2に示すような1つの装置により構成されているが、口腔癌診断装置10に含まれる各機能部が複数の装置に分散されて構成されてもよい。口腔癌診断装置10の各機能部については後に詳細に説明する。 As shown in FIG. 2, the oral cancer diagnostic apparatus 10 functionally includes an acquisition unit 11, a pretreatment unit 12, a removal unit 13, a correction unit 14, a generation unit 15, a determination unit 16, and an output unit 17. In the present embodiment, the oral cancer diagnostic device 10 is composed of one device as shown in FIG. 2, but each functional unit included in the oral cancer diagnostic device 10 is dispersed in a plurality of devices. May be done. Each functional part of the oral cancer diagnostic apparatus 10 will be described in detail later.

なお、図2に示したブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。 The block diagram shown in FIG. 2 shows a block of functional units. These functional blocks (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. (For example, wired and / or wireless) may be connected and realized by these plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and assumption. Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc., but limited to these I can't. For example, a functional block (component) that makes transmission function is called a transmitting unit or a transmitter. In each case, as described above, the realization method is not particularly limited.

例えば、本発明の一実施の形態における口腔癌診断装置10は、コンピュータとして機能してもよい。図3は、本実施形態に係る口腔癌診断装置10のハードウェア構成の一例を示す図である。口腔癌診断装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the oral cancer diagnostic apparatus 10 according to the embodiment of the present invention may function as a computer. FIG. 3 is a diagram showing an example of the hardware configuration of the oral cancer diagnostic apparatus 10 according to the present embodiment. The oral cancer diagnostic device 10 may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。口腔癌診断装置10のハードウェア構成は、図2に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the oral cancer diagnostic device 10 may be configured to include one or more of the devices shown in FIG. 2, or may be configured not to include some of the devices.

口腔癌診断装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。 For each function of the oral cancer diagnostic apparatus 10, the processor 1001 performs calculations by loading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, and communication by the communication device 1004, the memory 1002, and the memory 1002. It is realized by controlling the reading and / or writing of data in the storage 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、図1に示した各機能部11~17などは、プロセッサ1001で実現されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be composed of a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like. For example, each of the functional units 11 to 17 shown in FIG. 1 may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、口腔癌診断装置10の各機能部11~17は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 Further, the processor 1001 reads a program (program code), a software module and data from the storage 1003 and / or the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. For example, each functional unit 11 to 17 of the oral cancer diagnostic apparatus 10 may be realized by a control program stored in the memory 1002 and operated by the processor 1001. Although it has been described that the various processes described above are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be mounted on one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る棚割情報生成方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, and the like that can be executed to implement the shelving allocation information generation method according to the embodiment of the present invention.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, and is, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server or other suitable medium containing memory 1002 and / or storage 1003.

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The communication device 1004 is hardware (transmission / reception device) for communicating between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be composed of a single bus or may be composed of different buses between the devices.

また、口腔癌診断装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。 Further, the oral cancer diagnostic apparatus 10 includes hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). It may be configured to include, and a part or all of each functional block may be realized by the hardware. For example, the processor 1001 may be implemented on at least one of these hardware.

図4は、本実施形態のユーザの端末20の機能的構成を示す図である。図4に示すように、端末20は、画像取得部21、画像送信部22、判定結果受信部23及び判定結果提示部24を備える。また、端末20は、画像センサ25及びディスプレイ29を含む。 FIG. 4 is a diagram showing a functional configuration of the user terminal 20 of the present embodiment. As shown in FIG. 4, the terminal 20 includes an image acquisition unit 21, an image transmission unit 22, a determination result receiving unit 23, and a determination result presenting unit 24. Further, the terminal 20 includes an image sensor 25 and a display 29.

画像センサ25は、撮像対象の画像を光学的に取得するセンサである。また、端末20は、深度センサ26を含んでもよい。深度センサ26は、赤外線により、対象までの距離を示す深度を取得するセンサである。 The image sensor 25 is a sensor that optically acquires an image to be imaged. Further, the terminal 20 may include a depth sensor 26. The depth sensor 26 is a sensor that acquires a depth indicating a distance to an object by infrared rays.

また、端末20は、加速度センサ27及び角速度センサ28を含んでもよい。加速度センサ27は、端末20において生じた加速度を検出するセンサである。角速度センサ28は、端末20において生じた角速度を検出するセンサである。 Further, the terminal 20 may include an acceleration sensor 27 and an angular velocity sensor 28. The acceleration sensor 27 is a sensor that detects the acceleration generated in the terminal 20. The angular velocity sensor 28 is a sensor that detects the angular velocity generated in the terminal 20.

画像取得部21は、画像センサ25により撮像された部分画像を取得する。部分画像は、口腔内の部分を撮像した画像である。画像取得部21は、複数の部分画像を取得する。 The image acquisition unit 21 acquires a partial image captured by the image sensor 25. The partial image is an image obtained by capturing a portion of the oral cavity. The image acquisition unit 21 acquires a plurality of partial images.

画像取得部21は、部分画像の取得時において深度センサ26により検出された、撮像対象までの距離を示す深度を取得できる。これにより、画像取得部21は、1以上の画素からなる領域ごとに深度が関連付けられた部分画像を取得できる。 The image acquisition unit 21 can acquire the depth indicating the distance to the image pickup target detected by the depth sensor 26 at the time of acquiring the partial image. As a result, the image acquisition unit 21 can acquire a partial image in which the depth is associated with each region consisting of one or more pixels.

また、端末20は、部分画像の取得時の加速度を加速度センサ27により検出し、検出値を部分画像に関連付けて送出できる。また、端末20は、部分画像の取得時の角速度を角速度センサ28により検出し、検出値を部分画像に関連付けて送出できる。 Further, the terminal 20 can detect the acceleration at the time of acquiring the partial image by the acceleration sensor 27 and send the detected value in association with the partial image. Further, the terminal 20 can detect the angular velocity at the time of acquiring the partial image by the angular velocity sensor 28 and send the detected value in association with the partial image.

複数の部分画像は、それぞれが静止画として取得されてもよいし、動画像として取得された各フレームから抽出されたものであってもよい。これにより、画像取得部21は、口腔内における同一の部分を撮像した複数の部分画像を取得できる。さらに、画像取得部21は、口腔内における同一の部分を異なる方向から撮像した複数の部分画像を取得できる。本実施形態では、ユーザが、端末20を用いて、自らの口腔内の画像を撮像することができる。 Each of the plurality of partial images may be acquired as a still image, or may be extracted from each frame acquired as a moving image. As a result, the image acquisition unit 21 can acquire a plurality of partial images of the same portion in the oral cavity. Further, the image acquisition unit 21 can acquire a plurality of partial images obtained by capturing the same portion in the oral cavity from different directions. In the present embodiment, the user can take an image of his / her oral cavity by using the terminal 20.

画像送信部22は、画像取得部21により取得された複数の部分画像を口腔癌診断装置10に送信する。画像送信部22は、各部分画像の取得時にセンサにより検出された検出値を、部分画像に関連付けて送信できる。検出値は、加速度センサ27により検出された加速度及び角速度センサ28により検出された角速度の少なくとも1つを含むことができる。 The image transmission unit 22 transmits a plurality of partial images acquired by the image acquisition unit 21 to the oral cancer diagnostic apparatus 10. The image transmission unit 22 can transmit the detection value detected by the sensor at the time of acquiring each partial image in association with the partial image. The detected value can include at least one of the acceleration detected by the acceleration sensor 27 and the angular velocity detected by the angular velocity sensor 28.

判定結果受信部23は、判定情報を口腔癌診断装置10から受信する。判定情報は、口腔癌に関する疾患の有無及び状態に関して口腔癌診断装置の判定部16により判定された結果を示す情報である。口腔内の口腔癌に関する疾患の判定は、画像送信部22により送信された複数の部分画像に基づいて口腔癌診断装置10の判定部16において実施される。判定の結果は、例えば、疾患の箇所がマークされた口腔内写真及び発見された疾患に関するコメント等を含む。また、判定結果受信部23は、口腔癌診断装置10から端末30に送信された判定情報を、端末30を介して受信してもよい。 The determination result receiving unit 23 receives the determination information from the oral cancer diagnostic apparatus 10. The determination information is information indicating the result of determination by the determination unit 16 of the oral cancer diagnostic apparatus regarding the presence / absence and state of a disease related to oral cancer. The determination of the disease related to oral cancer in the oral cavity is carried out by the determination unit 16 of the oral cancer diagnostic apparatus 10 based on the plurality of partial images transmitted by the image transmission unit 22. The determination result includes, for example, an intraoral photograph in which the location of the disease is marked, a comment on the discovered disease, and the like. Further, the determination result receiving unit 23 may receive the determination information transmitted from the oral cancer diagnostic apparatus 10 to the terminal 30 via the terminal 30.

また、判定結果受信部23は、診断情報を端末30から受信する。診断情報は、医師による口腔癌に関する疾患の診断の結果を示す情報であって、口腔癌診断装置10から端末30に送信された判定情報及び口腔内写真を参照した医師により端末30において入力された情報である。なお、診断情報は、ユーザの受診の要否に関する受診要否情報を含んでもよい。また、判定結果受信部23は、端末30から口腔癌診断装置10に送信された診断情報を、口腔癌診断装置10を介して受信してもよい。 Further, the determination result receiving unit 23 receives the diagnostic information from the terminal 30. The diagnostic information is information showing the result of diagnosis of a disease related to oral cancer by a doctor, and is input to the terminal 30 by a doctor who referred to the determination information transmitted from the oral cancer diagnostic device 10 to the terminal 30 and the intraoral photograph. Information. In addition, the diagnostic information may include consultation necessity information regarding the necessity of consultation of the user. Further, the determination result receiving unit 23 may receive the diagnostic information transmitted from the terminal 30 to the oral cancer diagnostic device 10 via the oral cancer diagnostic device 10.

判定結果提示部24は、判定結果受信部23により受信された、診断情報をディスプレイ29に表示させる。また、判定結果提示部24は、判定情報をディスプレイ29に表示させてもよい。 The determination result presenting unit 24 displays the diagnostic information received by the determination result receiving unit 23 on the display 29. Further, the determination result presentation unit 24 may display the determination information on the display 29.

図5は、本実施形態の医師の端末30の機能的構成を示す図である。図5に示すように、端末30は、受信部31、提示部32、受付部33及び送信部34を備える。また、端末30は、ディスプレイ35を含む。 FIG. 5 is a diagram showing a functional configuration of the doctor's terminal 30 of the present embodiment. As shown in FIG. 5, the terminal 30 includes a receiving unit 31, a presenting unit 32, a receiving unit 33, and a transmitting unit 34. Further, the terminal 30 includes a display 35.

受信部31は、口腔癌に関する疾患に関する判定の結果を示す判定情報を口腔癌診断装置10から受信する。判定情報は、例えば、疾患の箇所がマークされた口腔内写真及び発見された疾患に関するコメント等を判定の結果として含むことができる。 The receiving unit 31 receives the determination information indicating the result of the determination regarding the disease related to oral cancer from the oral cancer diagnostic apparatus 10. The determination information can include, for example, an intraoral photograph in which the location of the disease is marked, a comment regarding the discovered disease, and the like as the result of the determination.

提示部32は、受信部31により受信された判定情報をディスプレイ35に表示させる。これにより、判定情報を医師に提示することができる。 The presenting unit 32 causes the display 35 to display the determination information received by the receiving unit 31. Thereby, the determination information can be presented to the doctor.

受付部33は、端末30に対して医師により入力された診断情報を受け付ける。即ち、医師は、提示部32により提示された判定情報及び口腔内写真等を参照できるので、これらの参照に基づいて、医師は自らの知見及び経験に基づく診断の結果を端末30に入力できる。受付部33は、このように入力された診断の結果を診断情報として受け付ける。なお、医師は、判定情報及び口腔内写真等の参照に基づいて、ユーザの受診の要否を検討できる。そして、医師は、ユーザに受診を促すための受診の要否に関する受信要否情報を診断情報に含めさせて入力できる。 The reception unit 33 receives the diagnostic information input by the doctor to the terminal 30. That is, since the doctor can refer to the determination information and the intraoral photograph presented by the presentation unit 32, the doctor can input the result of the diagnosis based on his / her own knowledge and experience to the terminal 30 based on these references. The reception unit 33 receives the diagnosis result input in this way as diagnostic information. In addition, the doctor can examine the necessity of the user's consultation based on the judgment information and the reference of the intraoral photograph and the like. Then, the doctor can input the diagnosis information including the reception necessity information regarding the necessity of the consultation for encouraging the user to receive the consultation.

送信部34は、診断情報をユーザの端末20に送信する。これにより、診断情報は、ユーザの端末20において提示されることができる。また、送信部34は、診断情報を、口腔癌診断装置10を介して端末20に送信してもよい。この場合には、口腔癌診断装置10の出力部17が、送信部34からの診断情報を端末20に転送し、診断情報を端末20において出力させる。 The transmission unit 34 transmits the diagnostic information to the user's terminal 20. Thereby, the diagnostic information can be presented on the user's terminal 20. Further, the transmission unit 34 may transmit the diagnostic information to the terminal 20 via the oral cancer diagnostic apparatus 10. In this case, the output unit 17 of the oral cancer diagnostic apparatus 10 transfers the diagnostic information from the transmission unit 34 to the terminal 20, and causes the terminal 20 to output the diagnostic information.

再び図2を参照して、口腔癌診断装置10の各機能部について説明する。取得部11は、ユーザの口腔内の部分を撮像した部分画像を複数取得する。具体的には、取得部11は、端末20の画像センサ25により撮像された部分画像を取得する。 Each functional part of the oral cancer diagnostic apparatus 10 will be described with reference to FIG. 2 again. The acquisition unit 11 acquires a plurality of partial images of the portion in the oral cavity of the user. Specifically, the acquisition unit 11 acquires a partial image captured by the image sensor 25 of the terminal 20.

図6は、本実施形態の口腔癌診断システム1において診断の対象となる口腔内の各部分を模式的に示す図である。本実施形態において、診断の対象となる部分は、いわゆる口腔内規格写真に表される部分並びに図6に示される舌d1、頬粘膜d2、硬口蓋d3、臼後三角d4及び歯肉d5である。頬粘膜d2は、頬の内側を覆っている組織である。硬口蓋d3は、口腔の天井部分である。臼後三角d4は、親知らずの後方の領域である。取得部11は、これらの診断対象となる部分が表された部分画像を取得する。 FIG. 6 is a diagram schematically showing each part in the oral cavity to be diagnosed in the oral cancer diagnosis system 1 of the present embodiment. In the present embodiment, the parts to be diagnosed are the part shown in the so-called intraoral standard photograph and the tongue d1, buccal mucosa d2, hard palate d3, posterior acetabular triangle d4 and gingiva d5 shown in FIG. The buccal mucosa d2 is a tissue covering the inside of the cheek. The hard palate d3 is the ceiling portion of the oral cavity. The posterior acetabular triangle d4 is the posterior region of the wisdom tooth. The acquisition unit 11 acquires a partial image showing these parts to be diagnosed.

図7は、部分画像及び複数の部分画像に基づいて合成されたパノラマ画像の例を示す図である。図7に示すように、取得部11は、例えば、歯列の正面右側の部分画像A01、正面中央の部分画像A02及び正面左側の部分画像A03を取得する。これらの部分画像は、それぞれが静止画として取得されてもよいし、動画像として取得された各フレームから抽出されたものであってもよい。 FIG. 7 is a diagram showing an example of a panoramic image synthesized based on a partial image and a plurality of partial images. As shown in FIG. 7, the acquisition unit 11 acquires, for example, a partial image A01 on the front right side of the dentition, a partial image A02 in the center of the front surface, and a partial image A03 on the left side of the front surface. Each of these partial images may be acquired as a still image, or may be extracted from each frame acquired as a moving image.

後述するように、本実施形態では、各部分画像A01~A03における口腔内の同じ部分が表された重畳領域に基づいて、複数の部分画像A01~A03を合成することにより、パノラマ画像Bが生成される。図7に示すパノラマ画像Bは、口腔内写真における正面画像を構成する。部分画像の重畳領域に基づくパノラマ画像の合成には、種々の周知技術を適用できる。 As will be described later, in the present embodiment, the panoramic image B is generated by synthesizing a plurality of partial images A01 to A03 based on the superimposed region in which the same portion in the oral cavity is represented in each of the partial images A01 to A03. Will be done. The panoramic image B shown in FIG. 7 constitutes a frontal image in an intraoral photograph. Various well-known techniques can be applied to the composition of panoramic images based on the superimposed region of partial images.

前処理部12は、所定の条件に該当する部分画像を、口腔内写真を構成するための部分画像から除外する。具体的には、取得部11が、撮像時における角速度センサ28及び加速度センサ27のうちの少なくとも一方の検出値が関連付けられている部分画像を取得した場合に、前処理部12は、所定値以上の検出値が関連付けられた部分画像を、口腔内写真の生成に用いないこととする。 The preprocessing unit 12 excludes the partial image corresponding to the predetermined condition from the partial image for forming the intraoral photograph. Specifically, when the acquisition unit 11 acquires a partial image to which the detection value of at least one of the angular velocity sensor 28 and the acceleration sensor 27 at the time of imaging is associated, the preprocessing unit 12 has a predetermined value or more. The partial image associated with the detection value of is not used for the generation of the intraoral photograph.

部分画像の取得時において大きい角速度または加速度が生じていた場合には、その部分画像にぶれが生じている可能性が高い。前処理部12は、所定値以上の検出値が関連付けられた部分画像を、口腔内写真を構成するための部分画像から除外することにより、ぶれが生じている部分画像が口腔内写真の生成に用いられないようにすることができる。 If a large angular velocity or acceleration occurs when the partial image is acquired, it is highly possible that the partial image is blurred. The preprocessing unit 12 excludes the partial image associated with the detection value of the predetermined value or more from the partial image for forming the intraoral photograph, so that the partial image in which the blur occurs is generated as the intraoral photograph. It can be prevented from being used.

除去部13は、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する。口腔内を撮像した画像では、口腔内に存在する唾液に起因して反射が生じる場合がある。口腔癌の診断を高精度に実施するためには、口腔内写真において口腔内の状態が正しく表されている必要があるところ、反射が発生した箇所の画像は、色等が実際の状態と異なって表される。本実施形態では、反射部分を含まない部分画像が取得されることにより、高精度の診断を実現させる。 The removal unit 13 acquires a partial image that does not include the reflection portion by removing the reflection portion that is a region where reflection occurs in the partial image or extracting the partial image that does not include the reflection portion. Images taken in the oral cavity may cause reflexes due to saliva present in the oral cavity. In order to make a highly accurate diagnosis of oral cancer, it is necessary to correctly show the condition of the oral cavity in the intraoral photograph, but the color etc. of the image of the part where the reflection occurred is different from the actual condition. Is represented. In the present embodiment, high-precision diagnosis is realized by acquiring a partial image that does not include the reflection portion.

具体的には、除去部13は、取得部11により取得された部分画像から反射部分を含まない部分画像を抽出できる。図8は、除去部13による、反射部分を含まない部分画像の抽出処理の例を示す図である。図8に示されるように、部分画像のセットas0は、取得部11により取得された複数の部分画像であって、部分画像a1,a2,a3・・・を含む。 Specifically, the removal unit 13 can extract a partial image that does not include the reflection portion from the partial image acquired by the acquisition unit 11. FIG. 8 is a diagram showing an example of extraction processing of a partial image not including a reflection portion by the removal unit 13. As shown in FIG. 8, the set as0 of the partial images is a plurality of partial images acquired by the acquisition unit 11, and includes the partial images a1, a2, a3, and so on.

例えば、除去部13は、周知の画像解析技術により、反射部分の特有の画像的特徴(例えば、所定値以上の輝度を有すること等)を有する部分画像を抽出する。具体的には、まず、除去部13は、部分画像a1,a2,a3・・・に対してグレースケール変換を実施する。続いて、除去部13は、各部分画像a1,a2,a3・・・の画素毎の輝度値を取得する。そして、除去部13は、所定の閾値以上の輝度値の画素を有する部分画像を、反射部分を含む部分画像として抽出する。 For example, the removing unit 13 uses a well-known image analysis technique to extract a partial image having a unique image feature of the reflective portion (for example, having a brightness of a predetermined value or more). Specifically, first, the removal unit 13 performs grayscale conversion on the partial images a1, a2, a3 .... Subsequently, the removing unit 13 acquires the luminance value for each pixel of each of the partial images a1, a2, a3 .... Then, the removing unit 13 extracts a partial image having pixels having a luminance value equal to or higher than a predetermined threshold value as a partial image including the reflection portion.

図8に示す例では、除去部13は、セットas0に含まれる部分画像のうち、所定の閾値以上の輝度値を有する部分rf0を含む部分画像a2を、反射部分を含む部分画像として抽出する。そして、除去部13は、部分画像a2以外の部分画像a1、a3・・・を含む部分画像のセットas1を、口腔内写真の生成に用いるための部分画像として抽出する。また、除去部13は、その他の種々の周知技術により、反射部分を含まない部分画像を抽出できる。 In the example shown in FIG. 8, the removing unit 13 extracts the partial image a2 including the portion rf0 having a luminance value equal to or higher than a predetermined threshold value as the partial image including the reflection portion among the partial images included in the set as0. Then, the removing unit 13 extracts a set as1 of the partial images including the partial images a1, a3 ... Other than the partial image a2 as a partial image for use in generating an intraoral photograph. In addition, the removing unit 13 can extract a partial image that does not include the reflective portion by various other well-known techniques.

また、除去部13は、部分画像において反射が生じている領域である反射部分を除去することにより、反射部分を含まない部分画像を取得できる。さらに具体的には、除去部13は、部分画像に表されている部分の射影方向を所定の方向に合わせるように複数の部分画像を変換し、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして複数の部分画像を加算平均合成することにより、反射部分が除去された部分画像を取得する。 Further, the removing unit 13 can acquire a partial image that does not include the reflecting portion by removing the reflecting portion that is a region where the reflection occurs in the partial image. More specifically, the removing unit 13 converts a plurality of partial images so that the projection direction of the portion represented in the partial image is aligned with a predetermined direction, and the pixels representing the same portion in the oral cavity are associated with each other. A partial image in which the reflection portion is removed is acquired by performing the alignment so as to be performed and adding and averaging a plurality of partial images.

図9及び図10を参照して、除去部13による反射部分の除去の処理を詳細に説明する。図9は、反射部分を含む複数の部分画像及び反射部分が除去された部分画像の例を模式的に示す図である。図10は、除去部13による反射部分の除去の処理内容を示すフローチャートである。 The process of removing the reflective portion by the removing unit 13 will be described in detail with reference to FIGS. 9 and 10. FIG. 9 is a diagram schematically showing an example of a plurality of partial images including a reflective portion and a partial image in which the reflective portion is removed. FIG. 10 is a flowchart showing the processing contents of the removal of the reflection portion by the removal unit 13.

ステップS21において、除去部13は、一の部分画像を取得する。図9に示す例においては、除去部13は、部分画像A11を取得する。部分画像A11には、反射部分rf1が含まれている。 In step S21, the removing unit 13 acquires one partial image. In the example shown in FIG. 9, the removing unit 13 acquires the partial image A11. The partial image A11 includes a reflection portion rf1.

続いて、ステップS22において、除去部13は、部分画像に表されている部分の射影方向を所定の方向に合わせるように複数の部分画像を変換する。具体的には、除去部13は、例えば、口腔内写真を構成する各画像の規格に合うように、部分画像に対してホモグラフィ変換を実施する。ホモグラフィ変換は、周知の画像の変換技術であって、ある平面に三次元の対象物を射影して表した二次元画像を、射影変換を用いて、別の平面に射影された二次元画像を生成する技術である。除去部13は、部分画像A11に対して、口腔内写真における正面画像の規格に合うようにホモグラフィ変換を実施して、変換された部分画像A21を得る。 Subsequently, in step S22, the removing unit 13 converts a plurality of partial images so that the projection direction of the portion represented by the partial image is aligned with a predetermined direction. Specifically, the removing unit 13 performs homography conversion on the partial image so as to meet the standard of each image constituting the intraoral photograph, for example. Homography conversion is a well-known image conversion technique, in which a two-dimensional image represented by projecting a three-dimensional object onto one plane is projected onto another plane using a projective transformation. Is a technology to generate. The removal unit 13 performs homography conversion on the partial image A11 so as to meet the standard of the front image in the intraoral photograph, and obtains the converted partial image A21.

ステップS23において、除去部13は、全ての部分画像の処理が完了したか否かを判定する。全ての部分画像の処理が完了したと判定された場合には、処理はステップS24に進む。一方、全ての部分画像の処理が完了したと判定されなかった場合には、処理はステップS21に進む。 In step S23, the removal unit 13 determines whether or not the processing of all the partial images has been completed. If it is determined that the processing of all the partial images is completed, the processing proceeds to step S24. On the other hand, if it is not determined that the processing of all the partial images is completed, the processing proceeds to step S21.

図9を参照して説明する例においては、部分画像A12,A13の処理が完了していないので、これらの部分画像A12,A13に対するステップS31,S32の処理が繰り返される。即ち、除去部13は、反射部分rf2を含む部分画像A12に対してホモグラフィ変換を実施して、部分画像A22を得る。さらに、除去部13は、反射部分rf3を含む部分画像A13に対してホモグラフィ変換を実施して、部分画像A23を得る。 In the example described with reference to FIG. 9, since the processing of the partial images A12 and A13 is not completed, the processing of steps S31 and S32 for these partial images A12 and A13 is repeated. That is, the removal unit 13 performs homography transformation on the partial image A12 including the reflection portion rf2 to obtain the partial image A22. Further, the removal unit 13 performs homography transformation on the partial image A13 including the reflection portion rf3 to obtain the partial image A23.

ステップS24において、除去部13は、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして複数の部分画像を加算平均合成する。図9を参照して説明する例では、除去部13は、変換された部分画像A21~A23に対して、口腔内における同じ部分を表す画素が対応付けられるように位置合わせをして、加算平均合成する。なお、加算平均合成は、画像処理の分野において周知の技術である。 In step S24, the removing unit 13 aligns the pixels representing the same portion in the oral cavity so as to be associated with each other, and adds and averages a plurality of partial images. In the example described with reference to FIG. 9, the removing unit 13 aligns the converted partial images A21 to A23 so that pixels representing the same portion in the oral cavity are associated with each other, and adds and averages them. Synthesize. The additive average composition is a well-known technique in the field of image processing.

部分画像A11~A13のそれぞれは、口腔内における同一の部分を互いに異なる方向から撮像した画像である。このため、部分画像A22及び部分画像A23では、部分画像A21における反射部分rf1の位置に、反射は生じていない。また、部分画像A21及び部分画像A23では、部分画像A22における反射部分rf2の位置に、反射は生じていない。また、部分画像A21及び部分画像A22では、部分画像A23における反射部分rf3の位置に、反射は生じていない。 Each of the partial images A11 to A13 is an image obtained by capturing the same portion in the oral cavity from different directions. Therefore, in the partial image A22 and the partial image A23, no reflection occurs at the position of the reflection portion rf1 in the partial image A21. Further, in the partial image A21 and the partial image A23, no reflection occurs at the position of the reflection portion rf2 in the partial image A22. Further, in the partial image A21 and the partial image A22, no reflection occurs at the position of the reflection portion rf3 in the partial image A23.

一の部分画像のある部分において反射が生じていても、当該部分に反射が生じていない複数の他の部分画像と当該一の部分画像とを加算平均合成することにより、反射が除去された合成画像を得ることができる。図9を参照して説明する例においては、除去部13は、部分画像A21~A23を位置合わせして加算平均合成することにより、反射部分が除去された部分画像C1を取得できる。 Even if reflection occurs in a certain part of one partial image, the reflection is removed by adding and averaging a plurality of other partial images in which the reflection does not occur in the part and the one partial image. You can get an image. In the example described with reference to FIG. 9, the removal unit 13 can acquire the partial image C1 from which the reflection portion has been removed by aligning the partial images A21 to A23 and performing additive averaging synthesis.

再び図2を参照して、補正部14は、部分画像の各領域に関連付けられた深度に基づいて、各領域の輝度を補正する。口腔内の撮像においては、深度が深い領域ほど光量が少ないため、深度が深い領域ほど、輝度値が小さくなりやすいという傾向がある。補正部14は、この光量の差異を是正すべく輝度値を補正する。 With reference to FIG. 2 again, the correction unit 14 corrects the brightness of each region based on the depth associated with each region of the partial image. In the imaging of the oral cavity, the deeper the depth, the smaller the amount of light, so the deeper the depth, the smaller the luminance value tends to be. The correction unit 14 corrects the luminance value in order to correct this difference in the amount of light.

具体的には、補正部14は、各領域の深度を取得し、予め設定された深度と輝度補正値との対応関係に基づいて、取得した深度に関連付けられた輝度補正値を当該領域の輝度値に加算することにより、各領域の輝度を補正する。以下に、この補正の例を説明する。 Specifically, the correction unit 14 acquires the depth of each region, and based on the correspondence between the preset depth and the luminance correction value, the luminance correction value associated with the acquired depth is used as the luminance of the region. By adding to the value, the brightness of each area is corrected. An example of this correction will be described below.

例えば、ある領域の深度をD、補正前の画素のRGB値を(r,g,b)、画素補正値を(r,g,b)、(r,g,b)として、以下のような、深度Dと画素補正値との対応関係が予め設定されているとする。なお、この例では、各領域を構成する画素のRGB値の各色の値を減少させることにより、輝度値を増加させる補正を実現させる。即ち、画素補正値は、輝度補正値に相当する。 For example, the depth of a certain area is D, the RGB value of the pixel before correction is (r 0 , g 0 , b 0 ), and the pixel correction value is (r 1 , g 1 , b 1 ), (r 2 , g 2 , As b 2 ), it is assumed that the corresponding relationship between the depth D and the pixel correction value is set in advance as follows. In this example, the correction for increasing the luminance value is realized by reducing the value of each color of the RGB values of the pixels constituting each region. That is, the pixel correction value corresponds to the luminance correction value.

深度Dと画素補正値との対応関係:
深度Dがn未満の場合 画素のRGB値を補正しない。
深度Dがn以上m未満の場合 画素のRGB値を補正(r-r,g-g,b-b
深度Dがm以上の場合 画素のRGB値を補正(r-r,g-g,b-b
Correspondence between depth D and pixel correction value:
When the depth D is less than n, the RGB value of the pixel is not corrected.
When the depth D is n or more and less than m, the RGB value of the pixel is corrected (r 0 -r 1 , g 0 -g 1 , b 0 -b 1 ).
When the depth D is m or more, the RGB value of the pixel is corrected (r 0 -r 2 , g 0 -g 2 , b 0 -b 2 ).

補正部14は、上記対応関係を参照して、各領域の深度に応じて、各領域の画素のRGB値を補正する。なお、上記対応関係において、n、mの値及び画素補正値の各値は、設計的に設定してもよい。このように、各領域の画素の輝度が深度に応じて適切に補正される。これにより、口腔内の状態が一様に認識容易な口腔内写真を得ることが可能となる。 The correction unit 14 corrects the RGB values of the pixels in each region according to the depth of each region with reference to the above correspondence. In the above correspondence, each value of n, m and a pixel correction value may be set by design. In this way, the brightness of the pixels in each region is appropriately corrected according to the depth. This makes it possible to obtain an intraoral photograph in which the state of the oral cavity is uniformly and easily recognized.

また、補正部14は、複数の部分画像の各領域のうちの第1の領域が、第1の領域とは異なる第2の領域の深度より深い深度を有する場合に、第1の領域の輝度を、補正前より大きい値に補正することとしてもよい。 Further, the correction unit 14 determines the brightness of the first region when the first region of each region of the plurality of partial images has a depth deeper than the depth of the second region different from the first region. May be corrected to a value larger than that before the correction.

前述のとおり、口腔内の部分を表した部分画像の深度が深い領域の光量は少なくなる傾向があり、その領域の画像が暗いものになりやすい。そこで、本実施形態の口腔癌診断装置10では、補正部14は、他の領域よりも深度が深い領域の輝度値を、より大きい値に補正する。 As described above, the amount of light in the deep region of the partial image representing the portion in the oral cavity tends to be small, and the image in that region tends to be dark. Therefore, in the oral cancer diagnostic apparatus 10 of the present embodiment, the correction unit 14 corrects the luminance value in the region deeper than the other regions to a larger value.

生成部15は、除去部13により取得された部分画像を含む複数の部分画像を合成して口腔内写真を生成する。口腔内写真の生成に用いられる部分画像は、前処理部12及び補正部14による前処理及び補正処理を経たものであってもよい。 The generation unit 15 generates an intraoral photograph by synthesizing a plurality of partial images including the partial image acquired by the removal unit 13. The partial image used for generating the intraoral photograph may have undergone pretreatment and correction processing by the pretreatment unit 12 and the correction unit 14.

具体的には、生成部15は、図7に示したように、口腔内の同じ部分が表された重畳領域に基づいて部分画像を合成してパノラマ画像を生成することにより、口腔内写真の規格に従った複数の画像を生成する。部分画像の合成による口腔内写真の生成には、いわゆるパノラマ画像の生成に関する周知の手法を適用することができる。 Specifically, as shown in FIG. 7, the generation unit 15 generates a panoramic image by synthesizing a partial image based on a superposed region in which the same part in the oral cavity is represented, thereby producing a panoramic image of the oral cavity photograph. Generate multiple images according to the standard. A well-known method for generating a so-called panoramic image can be applied to the generation of an intraoral photograph by synthesizing a partial image.

具体的には、生成部15は、取得した複数の部分画像の向き及び配列を調整する。続いて、生成部15は、口腔内の同じ部分が表された重畳領域に基づいて、互いに隣接する部分画像を重畳合成することにより、一のパノラマ画像を生成する。一のパノラマ画像は、口腔内写真を構成する複数の画像のうちの一つを構成する。 Specifically, the generation unit 15 adjusts the orientation and arrangement of the acquired plurality of partial images. Subsequently, the generation unit 15 generates one panoramic image by superimposing and synthesizing partial images adjacent to each other based on the superposed region in which the same portion in the oral cavity is represented. One panoramic image constitutes one of a plurality of images constituting an intraoral photograph.

歯が表された部分画像に基づいて口腔内写真を生成する場合には、生成部15は、歯が表された重畳領域に基づいて各部分画像を重畳して口腔内写真を生成する。また、舌、頬粘膜、硬口蓋及び臼後三角が表された口腔内写真を生成する場合には、生成部15は、歯、唇、口蓋垂等が表された領域を重畳領域として各部分画像を重畳して口腔内写真を生成できる。 When generating an intraoral photograph based on a partial image in which teeth are represented, the generation unit 15 superimposes each partial image based on a superposed region in which teeth are represented to generate an intraoral photograph. In addition, when generating an intraoral photograph showing the tongue, buccal mucosa, hard palate, and posterior uvula, the generation unit 15 uses each partial image as a superposed region with regions showing teeth, lips, uvula, and the like. Can be superimposed to generate an intraoral photograph.

図11は、生成部15により生成される口腔内写真の例を示す図である。口腔内写真MPは、口腔内の所定の領域を表した複数の画像からなる。図11に示す例は、いわゆる5枚撮影法による口腔内規格写真である。口腔内規格写真の撮影法には、構成する画像の数及び各画像の撮像部分に応じて、5枚撮影法、9枚撮影法、12枚撮影法及び14枚撮影法等がある。図11に示すように、生成部15は、例えば、5枚撮影法により撮影された口腔内写真MPを生成できる。口腔内写真MPは、口蓋側画像mp1、右側画像mp2、正面画像mp3、左側画像mp4及び舌側画像mp5を含む。 FIG. 11 is a diagram showing an example of an intraoral photograph generated by the generation unit 15. The intraoral photograph MP consists of a plurality of images showing a predetermined area in the oral cavity. The example shown in FIG. 11 is an intraoral standard photograph by a so-called five-photographing method. The method of taking an intraoral standard photograph includes a 5-image photography method, a 9-image photography method, a 12-image photography method, a 14-image photography method, and the like, depending on the number of constituent images and the imaged portion of each image. As shown in FIG. 11, the generation unit 15 can generate, for example, an intraoral photograph MP taken by a five-photographing method. The intraoral photograph MP includes a palatal side image mp1, a right side image mp2, a frontal image mp3, a left side image mp4, and a lingual side image mp5.

また、生成部15は、口腔内写真から、歯が表された領域である歯領域を所定の画像処理技術により除去する。本実施形態の口腔癌診断システムは、口腔癌の診断を実施するシステムである。従って、歯領域は、診断対象領域ではない。生成部15は、歯領域を除去することにより、診断対象領域が表された口腔内写真を生成できる。 In addition, the generation unit 15 removes the tooth region, which is the region where the teeth are represented, from the intraoral photograph by a predetermined image processing technique. The oral cancer diagnostic system of the present embodiment is a system for diagnosing oral cancer. Therefore, the tooth region is not a diagnostic target region. By removing the tooth region, the generation unit 15 can generate an intraoral photograph showing the region to be diagnosed.

具体的には、生成部15は、部分画像を重畳して生成した口腔内写真を取得する。続いて、生成部15は、口腔内写真に対して2値化処理を実施して、2値化画像を得る。2値化画像において、歯領域は、例えば、白色により表され、歯領域以外の領域は、黒色により表されることとなる。そして、生成部15は、2値化画像に対してブロブ解析を実施して、歯領域と歯領域以外の領域とを認識して、歯領域を除去する。なお、口腔内写真からの歯領域の認識及び除去のための手法には、これらの手法には限定されず、周知の種々の画像処理技術を適用できる。 Specifically, the generation unit 15 acquires an intraoral photograph generated by superimposing a partial image. Subsequently, the generation unit 15 performs a binarization process on the intraoral photograph to obtain a binarized image. In the binarized image, the tooth region is represented by, for example, white, and the region other than the tooth region is represented by black. Then, the generation unit 15 performs blob analysis on the binarized image, recognizes the tooth region and the region other than the tooth region, and removes the tooth region. The method for recognizing and removing the tooth region from the intraoral photograph is not limited to these methods, and various well-known image processing techniques can be applied.

図12は、歯領域が除去された口腔内写真MP1を示す図である。口腔内写真MP1は、図11に示される口腔内写真MPから歯領域が除去されたものである。図12に示されるように、口腔内写真MP1は、歯領域が除去された口蓋側画像mp11、右側画像mp12、正面画像mp13、左側画像mp14及び舌側画像mp15を含む。 FIG. 12 is a diagram showing an intraoral photograph MP1 from which a tooth region has been removed. The intraoral photograph MP1 is the one in which the tooth region is removed from the intraoral photograph MP shown in FIG. As shown in FIG. 12, the intraoral photograph MP1 includes a palatal side image mp11, a right side image mp12, a frontal image mp13, a left side image mp14 and a lingual side image mp15 from which the tooth region has been removed.

口蓋側画像mp11は、口蓋側画像mp1から歯領域t11が除去された画像であって、判定対象領域r11からなる。判定対象領域r11は、例えば、歯肉が表された領域を含む。右側画像mp12、正面画像mp13、左側画像mp14及び舌側画像mp15のそれぞれは、右側画像mp2、正面画像mp3、左側画像mp4及び舌側画像mp5のそれぞれから、歯領域t12,t13,t14,t15が除去された画像であって、判定対象領域r12,r13,r14,r15のそれぞれからなる。 The palate-side image mp11 is an image in which the tooth region t11 is removed from the palate-side image mp1 and includes a determination target region r11. The determination target region r11 includes, for example, a region in which the gingiva is represented. The right image mp12, the front image mp13, the left image mp14, and the lingual image mp15 have tooth regions t12, t13, t14, and t15 from the right image mp2, the front image mp3, the left image mp4, and the lingual image mp5, respectively. The removed image is composed of each of the determination target areas r12, r13, r14, and r15.

判定部16は、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する。具体的には、判定部16は、歯領域が除去された口腔内写真に基づいて判定を実施する。即ち、判定部16は、口腔内写真に表された領域のうちの歯領域以外の領域を判定対象領域として口腔癌の有無及び状態を判定する。口腔癌が発生している箇所では、白斑等の色の変化及び凸状になる等の形状の変化等が発生する場合があるので、判定部16は、これらの変化を示す画像の特徴を口腔内写真から検出する。 The determination unit 16 determines the presence / absence and state of a disease related to oral cancer based on the characteristics of the image of the predetermined determination target region shown in the intraoral photograph. Specifically, the determination unit 16 makes a determination based on an intraoral photograph in which the tooth region is removed. That is, the determination unit 16 determines the presence / absence and state of oral cancer by using a region other than the tooth region among the regions shown in the intraoral photograph as a determination target region. In the place where oral cancer has occurred, a change in color such as vitiligo and a change in shape such as convexity may occur. Therefore, the determination unit 16 describes the characteristics of the image showing these changes in the oral cavity. Detect from the inside photo.

口腔癌に関する疾患の判定について、図13及び図14を参照して説明する。図13は、判定部16による口腔癌の有無及び状態の判定処理のフローチャートを示す図である。 The determination of a disease related to oral cancer will be described with reference to FIGS. 13 and 14. FIG. 13 is a diagram showing a flowchart of the process of determining the presence / absence and state of oral cancer by the determination unit 16.

ステップS31において、判定部16は、生成部15により生成された口腔内写真を取得する。前述のとおり、判定部16は、歯領域が除去された口腔内写真を取得できる。 In step S31, the determination unit 16 acquires an intraoral photograph generated by the generation unit 15. As described above, the determination unit 16 can acquire an intraoral photograph from which the tooth region has been removed.

ステップS32において、判定部16は、ステップS31において取得された口腔内写真を入力データとして、口腔癌判定モデルに入力する。口腔癌判定モデルは、口腔内写真の画像データを入力値として、口腔癌の有無及び進行レベルを判定するためのモデルであって、事前に機械学習により構築される。 In step S32, the determination unit 16 inputs the intraoral photograph acquired in step S31 as input data to the oral cancer determination model. The oral cancer determination model is a model for determining the presence / absence and progression level of oral cancer by using image data of an intraoral photograph as an input value, and is constructed in advance by machine learning.

口腔癌判定モデルは、例えば、癌の箇所をマスクした口腔内写真を学習データとして、いわゆるサポートベクターマシン(Support Vector Machine:SVM)といった分類器として構築される。口腔癌判定モデルから出力される判定結果は、例えば、健全、進行レベルT1,T2,T3,T4(低:T1→高:T4)といった口腔癌の有無及び進行の程度の段階の分類の情報及び口腔癌の箇所を示す情報として出力される。 The oral cancer determination model is constructed as a classifier such as a so-called support vector machine (SVM), for example, using an intraoral photograph masking a cancerous part as learning data. The judgment results output from the oral cancer judgment model include, for example, information on classification of the presence or absence of oral cancer and the degree of progression such as soundness, progression level T1, T2, T3, T4 (low: T1 → high: T4) and classification. It is output as information indicating the location of oral cancer.

また、口腔癌判定モデルは、ニューラルネットワークにより構築されてもよい。ニューラルネットワークを含む口腔癌判定モデルは、学習用の口腔内写真を入力して得られる口腔癌の進行レベルの判定値に基づいて誤差計算(誤差逆伝搬)を含む機械学習を行うことにより生成される。誤差計算には、種々の損失関数を適用できる。 Further, the oral cancer determination model may be constructed by a neural network. An oral cancer judgment model including a neural network is generated by performing machine learning including error calculation (error back propagation) based on the judgment value of the progression level of oral cancer obtained by inputting an intraoral photograph for learning. To. Various loss functions can be applied to the error calculation.

また、判定部16は、モデルによらず、口腔内写真の画素値に関して部位毎に設定された閾値に基づいて、口腔癌が発生している領域及び進行レベルを判定してもよい。 Further, the determination unit 16 may determine the region where oral cancer is occurring and the progression level based on the threshold value set for each site with respect to the pixel value of the intraoral photograph regardless of the model.

ステップS33において、判定部16は、ステップS32において出力された、モデルによる分類結果、即ち、口腔癌の有無及び進行レベルを示す情報を出力する。図14は、口腔癌の進行レベルの判定の結果の情報の例を示す図であって、口腔癌の可能性のある箇所がマークされた口腔内写真を模式的に示す図である。図14に示すように、判定部16により出力された口腔内写真mp20は、口腔癌の箇所のマークDを含む。口腔癌の箇所のマークDに関連付けられて、当該箇所の進行レベルの情報が例えば、「マークされた箇所は、口腔癌の進行レベルT0の疑いがあります」というようなテキスト等により出力されてもよい。 In step S33, the determination unit 16 outputs the classification result by the model, that is, the information indicating the presence / absence of oral cancer and the progress level, which was output in step S32. FIG. 14 is a diagram showing an example of information on the result of determination of the progression level of oral cancer, and is a diagram schematically showing an intraoral photograph in which a portion having a possibility of oral cancer is marked. As shown in FIG. 14, the intraoral photograph mp20 output by the determination unit 16 includes the mark D at the site of oral cancer. Even if the information on the progression level of the site is associated with the mark D of the oral cancer site and is output by a text such as "The marked site is suspected to have the progression level T0 of oral cancer". good.

再び図2を参照して、出力部17は、判定部16により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する。具体的には、出力部17は、判定情報として出力された、口腔癌の箇所がマークされた口腔内写真及びテキストを医師の端末30において出力させる。さらに具体的には、出力部17は、医師の端末30のディスプレイ35に判定情報を表示させる。また、出力部17は、判定情報をユーザの端末20に出力させてもよい。また、出力部17は、判定情報を所定の記憶手段に記憶させてもよい。 With reference to FIG. 2 again, the output unit 17 outputs the determination information regarding the presence / absence and the state of the disease related to oral cancer determined by the determination unit 16. Specifically, the output unit 17 outputs an intraoral photograph and a text in which the portion of oral cancer is marked, which is output as determination information, on the terminal 30 of the doctor. More specifically, the output unit 17 causes the display 35 of the doctor's terminal 30 to display the determination information. Further, the output unit 17 may output the determination information to the user's terminal 20. Further, the output unit 17 may store the determination information in a predetermined storage means.

次に、図15を参照して、口腔癌診断システム1及び口腔癌診断装置10における口腔癌診断方法について説明する。図15は、本実施形態の口腔癌診断方法の処理内容の例を示すフローチャートである。 Next, with reference to FIG. 15, the oral cancer diagnosis method in the oral cancer diagnosis system 1 and the oral cancer diagnosis device 10 will be described. FIG. 15 is a flowchart showing an example of the processing content of the oral cancer diagnosis method of the present embodiment.

ステップS1において、取得部11は、ユーザの口腔内の部分を撮像した部分画像を複数取得する。次に、ステップS2において、前処理部12は、部分画像における所定の検出値に基づいて、ぶれを有する可能性のある部分画像を、口腔内写真を生成する部分画像から除外する。ここで判定に用いられる検出値は、例えば、部分画像の撮像時に取得された、撮像する装置において発生した加速度及び角速度等である。 In step S1, the acquisition unit 11 acquires a plurality of partial images of the portion in the oral cavity of the user. Next, in step S2, the preprocessing unit 12 excludes the partial image having a possibility of blurring from the partial image for generating the intraoral photograph based on the predetermined detection value in the partial image. The detected values used for the determination here are, for example, the acceleration and the angular velocity generated in the image pickup device acquired at the time of capturing the partial image.

ステップS3において、除去部13は、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する。反射部分の除去処理は、例えば、図10を参照して説明したとおりである。 In step S3, the removal unit 13 acquires a partial image that does not include the reflection portion by removing the reflection portion that is a region where reflection occurs in the partial image or extracting the partial image that does not include the reflection portion. The processing for removing the reflection portion is as described, for example, with reference to FIG.

ステップS4において、補正部14は、部分画像の各領域に関連付けられた深度に基づいて、各領域の輝度を補正する。 In step S4, the correction unit 14 corrects the brightness of each region based on the depth associated with each region of the partial image.

ステップS5において、生成部15は、複数の部分画像を合成して口腔内写真を生成する。続いて、ステップS6において、生成部15は、ステップS5において生成された口腔内写真から、所定の画像処理技術により歯領域を除去する。 In step S5, the generation unit 15 synthesizes a plurality of partial images to generate an intraoral photograph. Subsequently, in step S6, the generation unit 15 removes the tooth region from the intraoral photograph generated in step S5 by a predetermined image processing technique.

ステップS7において、判定部16は、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する。具体的には、判定部16は、ステップS6において歯領域が除去された口腔内写真に基づいて判定を実施する。判定処理は、例えば、図13を参照して説明したとおりである。 In step S7, the determination unit 16 determines the presence / absence and state of a disease related to oral cancer based on the characteristics of the image of the predetermined determination target region shown in the intraoral photograph. Specifically, the determination unit 16 makes a determination based on the intraoral photograph from which the tooth region is removed in step S6. The determination process is, for example, as described with reference to FIG.

ステップS8において、判定部16は、判定処理の判定結果において、口腔癌に関する疾患の有無を判定する。口腔癌に関する疾患があると判定された場合には、処理はステップS9に進む。一方、口腔癌に関する疾患があると判定されなかった場合には、処理はステップS10に進む。 In step S8, the determination unit 16 determines the presence or absence of a disease related to oral cancer in the determination result of the determination process. If it is determined that there is a disease related to oral cancer, the process proceeds to step S9. On the other hand, if it is not determined that there is a disease related to oral cancer, the process proceeds to step S10.

ステップS9において、判定部16は、口腔癌に関する疾患の箇所にマークされた口腔内写真を判定情報として生成する。判定部16は、当該箇所の進行レベルを示すテキスト情報を併せて生成及び出力してもよい。 In step S9, the determination unit 16 generates an intraoral photograph marked at a location of a disease related to oral cancer as determination information. The determination unit 16 may also generate and output text information indicating the progress level of the relevant portion.

ステップS10において、出力部17は、判定部16により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する。出力部17は、判定情報を、医師の端末30において出力させてもよいし、ユーザの端末20において出力させてもよい。 In step S10, the output unit 17 outputs the determination information regarding the presence / absence and the state of the disease related to oral cancer determined by the determination unit 16. The output unit 17 may output the determination information on the doctor's terminal 30 or the user's terminal 20.

次に、図16を参照して、口腔癌診断システム1の医師の端末30における処理を説明する。図16は、医師の端末30における処理内容の例を示すフローチャートである。 Next, with reference to FIG. 16, the processing in the terminal 30 of the doctor of the oral cancer diagnostic system 1 will be described. FIG. 16 is a flowchart showing an example of processing contents in the terminal 30 of a doctor.

ステップS41において、受信部31は、口腔内における口腔癌に関する疾患に関する判定の結果を示す判定情報を口腔癌診断装置10から受信する。判定情報は、口腔癌の箇所がマークされた口腔内写真及び発見された疾患に関するコメント等を含んでもよい。 In step S41, the receiving unit 31 receives the determination information indicating the result of the determination regarding the disease related to oral cancer in the oral cavity from the oral cancer diagnostic apparatus 10. The determination information may include an intraoral photograph in which the location of oral cancer is marked, a comment on the discovered disease, and the like.

ステップS42において、提示部32は、ステップS41において受信部31により受診された判定情報を医師に対して提示する。提示部32は、例えば、判定情報をディスプレイ29に表示させる。 In step S42, the presenting unit 32 presents the determination information received by the receiving unit 31 in step S41 to the doctor. The presentation unit 32 displays, for example, the determination information on the display 29.

ステップS43において、受付部33は、判定情報の提示に応じて医師により入力された診断情報を受け付ける。診断情報は、ユーザの受診の要否に関する受診要否情報を含んでもよい。 In step S43, the reception unit 33 receives the diagnostic information input by the doctor in response to the presentation of the determination information. The diagnostic information may include consultation necessity information regarding the necessity of consultation of the user.

ステップS44において、送信部34は、ステップS43において受け付けられた診断情報をユーザの端末20に送信する。また、送信部34は、診断情報を、口腔癌診断装置10を介して端末20に送信してもよい。 In step S44, the transmission unit 34 transmits the diagnostic information received in step S43 to the user's terminal 20. Further, the transmission unit 34 may transmit the diagnostic information to the terminal 20 via the oral cancer diagnostic apparatus 10.

次に、図17を参照して、口腔癌診断システム1のユーザの端末20における処理を説明する。図17は、ユーザの端末20における処理内容の例を示すフローチャートである。 Next, with reference to FIG. 17, the processing in the terminal 20 of the user of the oral cancer diagnostic system 1 will be described. FIG. 17 is a flowchart showing an example of processing contents in the user's terminal 20.

ステップS51において、画像センサ25は複数の部分画像を撮像する。そして、画像取得部21は、画像センサ25により撮像された複数の部分画像を取得する。 In step S51, the image sensor 25 captures a plurality of partial images. Then, the image acquisition unit 21 acquires a plurality of partial images captured by the image sensor 25.

ステップS52において、画像送信部22は、ステップS51において画像取得部21により取得された複数の部分画像を口腔癌診断装置10に送信する。 In step S52, the image transmission unit 22 transmits a plurality of partial images acquired by the image acquisition unit 21 in step S51 to the oral cancer diagnostic apparatus 10.

ステップS53において、判定結果受信部23は、口腔癌に関する疾患の判定の結果である診断情報を、医師の端末30から受信する。判定結果受信部23は、口腔癌診断装置10を介して送信された診断情報を受信してもよい。 In step S53, the determination result receiving unit 23 receives the diagnostic information that is the result of the determination of the disease related to oral cancer from the terminal 30 of the doctor. The determination result receiving unit 23 may receive the diagnostic information transmitted via the oral cancer diagnostic apparatus 10.

ステップS54において、判定結果提示部24は、ステップS53において判定結果受信部23により受診された診断情報をユーザに対して提示する。判定結果提示部24は、例えば、診断情報をディスプレイ29に表示させる。 In step S54, the determination result presenting unit 24 presents the diagnostic information received by the determination result receiving unit 23 in step S53 to the user. The determination result presentation unit 24 displays, for example, diagnostic information on the display 29.

次に、コンピュータを、本実施形態の口腔癌診断装置10として機能させるための口腔癌診断プログラムについて説明する。図18は、口腔癌診断プログラムP1の構成を示す図である。 Next, an oral cancer diagnostic program for causing the computer to function as the oral cancer diagnostic apparatus 10 of the present embodiment will be described. FIG. 18 is a diagram showing the configuration of the oral cancer diagnostic program P1.

口腔癌診断プログラムP1は、口腔癌診断装置10における口腔疾患診断処理を統括的に制御するメインモジュールm10、取得モジュールm11、前処理モジュールm12、除去モジュールm13、補正モジュールm14、生成モジュールm15、判定モジュールm16及び出力モジュールm17を備えて構成される。そして、各モジュールm11~m17により、口腔癌診断装置10における取得部11、前処理部12、除去部13、補正部14、生成部15、判定部16及び出力部17のための各機能が実現される。なお、口腔癌診断プログラムP1は、通信回線等の伝送媒体を介して伝送される態様であってもよいし、図8に示されるように、記録媒体M1に記憶される態様であってもよい。 The oral cancer diagnosis program P1 includes a main module m10, an acquisition module m11, a pretreatment module m12, a removal module m13, a correction module m14, a generation module m15, and a determination module that comprehensively control the oral disease diagnosis process in the oral cancer diagnosis device 10. It is configured to include m16 and an output module m17. Then, each module m11 to m17 realizes each function for the acquisition unit 11, the pretreatment unit 12, the removal unit 13, the correction unit 14, the generation unit 15, the determination unit 16, and the output unit 17 in the oral cancer diagnostic apparatus 10. Will be done. The oral cancer diagnosis program P1 may be transmitted via a transmission medium such as a communication line, or may be stored in the recording medium M1 as shown in FIG. ..

以上説明した本実施形態の口腔癌診断システム1、口腔癌診断装置10、口腔癌診断方法及び口腔癌診断プログラムP1では、反射部分が含まれない部分画像に基づいて口腔内写真が生成される。このように生成された口腔内写真に基づいて口腔癌の診断が行われることにより、誤診断の可能性を低減できる。 In the oral cancer diagnosis system 1, the oral cancer diagnosis device 10, the oral cancer diagnosis method, and the oral cancer diagnosis program P1 of the present embodiment described above, an intraoral photograph is generated based on a partial image that does not include a reflex portion. By diagnosing oral cancer based on the intraoral photograph generated in this way, the possibility of misdiagnosis can be reduced.

また、別の形態に係る口腔癌診断システムでは、除去部は、部分画像に含まれる各画素の画素値に基づいて当該部分画像が反射部分を含むか否かを判定し、取得部により取得された複数の部分画像から、反射部分を含まない部分画像を抽出することとしてもよい。 Further, in the oral cancer diagnosis system according to another embodiment, the removal unit determines whether or not the partial image includes the reflection portion based on the pixel value of each pixel included in the partial image, and is acquired by the acquisition unit. A partial image that does not include a reflective portion may be extracted from the plurality of partial images.

上記形態によれば、反射部分を含まない部分画像のみを、口腔内写真の生成に供することができる。 According to the above embodiment, only a partial image that does not include a reflective portion can be used for generating an intraoral photograph.

また、別の形態に係る口腔癌診断システムでは、除去部は、部分画像における反射部分を所定の画像処理技術により除去することとしてもよい。 Further, in the oral cancer diagnosis system according to another embodiment, the removing portion may remove the reflected portion in the partial image by a predetermined image processing technique.

上記形態によれば、取得された部分画像に基づいて、反射部分を含まない部分画像を得ることが可能となる。 According to the above embodiment, it is possible to obtain a partial image that does not include the reflection portion based on the acquired partial image.

また、別の形態に係る口腔癌診断システムでは、取得部は、口腔内における同一の部分を異なる方向から撮像した複数の部分画像を取得し、除去部は、部分画像に表されている部分の射影方向を所定の方向に合わせるように複数の部分画像を変換し、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして複数の部分画像を加算平均合成することにより、反射部分が除去された部分画像を取得することとしてもよい。 Further, in the oral cancer diagnosis system according to another form, the acquisition unit acquires a plurality of partial images obtained by capturing the same portion in the oral cavity from different directions, and the removal unit is the portion represented by the partial image. By converting multiple partial images so that the projection direction is aligned with a predetermined direction, aligning the pixels representing the same part in the oral cavity so that they are associated with each other, and averaging the multiple partial images. It may be possible to acquire a partial image from which the reflective portion has been removed.

上記形態によれば、同一の部分を異なる方向から撮像した複数の部分画像が取得される。このように取得された複数の部分画像においては、一つの部分画像において特定の箇所に反射が生じていたとしても、他の部分画像においては、反射箇所及び反射状態が異なる可能性が高い。ある部分の射影方向が所定の方向に揃えられるように変換された複数の部分画像が、位置合わせされた上で加算平均合成されるので、反射部分が除去された部分画像を得ることが可能となる。 According to the above embodiment, a plurality of partial images obtained by capturing the same portion from different directions are acquired. In the plurality of partial images acquired in this way, even if reflection occurs at a specific portion in one partial image, there is a high possibility that the reflection portion and the reflection state are different in the other partial images. Since a plurality of partial images converted so that the projection direction of a certain part is aligned in a predetermined direction are aligned and then added and averaged, it is possible to obtain a partial image in which the reflection part is removed. Become.

また、別の形態に係る口腔癌診断システムでは、生成部は、口腔内写真から、歯が表された領域である歯領域を所定の画像処理技術により除去し、判定部は、生成部により歯領域が除去された口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定することとしてもよい。 Further, in the oral cancer diagnosis system according to another embodiment, the generation unit removes the tooth region, which is the region where the tooth is represented, from the intraoral photograph by a predetermined image processing technique, and the determination unit uses the generation unit to remove the tooth. The presence or absence and state of a disease related to oral cancer may be determined based on the characteristics of the image of the predetermined determination target region shown in the intraoral photograph in which the region is removed.

上記形態によれば、口腔癌の診断対象ではない歯の領域が除去された口腔内写真に基づいて口腔癌に関する判定が行われるので、口腔癌に関する診断が適切に実施される。 According to the above embodiment, since the determination regarding oral cancer is made based on the intraoral photograph in which the region of the tooth that is not the target of diagnosis of oral cancer is removed, the diagnosis regarding oral cancer is appropriately performed.

また、別の形態に係る口腔癌診断システムでは、出力部は、判定情報を、ユーザとは異なる医師の第1の端末において出力させ、判定情報の出力に応じて第1の端末に対して入力された、疾患の診断に関する診断情報が、ユーザの第2の端末において出力されることとしてもよい。 Further, in the oral cancer diagnosis system according to another embodiment, the output unit outputs the determination information to the first terminal of a doctor different from the user, and inputs the determination information to the first terminal according to the output of the determination information. The diagnostic information regarding the diagnosis of the disease may be output to the user's second terminal.

上記形態によれば、口腔癌に関する判定の結果が医師の端末において出力されるので、医師に対してユーザの口腔癌に関する判定結果を容易に通知できる。さらに、通知された判定の結果に応じて医師により入力された、診断情報をユーザに通知できるので、ユーザに診断結果を適切に認識させることが可能となる。 According to the above embodiment, since the result of the determination regarding oral cancer is output on the terminal of the doctor, the doctor can be easily notified of the determination result regarding the oral cancer of the user. Further, since the diagnostic information input by the doctor according to the notified determination result can be notified to the user, it is possible to make the user appropriately recognize the diagnostic result.

また、別の形態に係る口腔癌診断システムでは、出力部は、判定情報を、第2の端末において出力させることとしてもよい。 Further, in the oral cancer diagnosis system according to another embodiment, the output unit may output the determination information at the second terminal.

上記形態によれば、口腔癌に関する判定の結果がユーザの端末において出力されるので、ユーザに対して、ユーザ自身の口腔癌に関する判定の結果を容易に通知できる。 According to the above embodiment, since the result of the determination regarding oral cancer is output on the terminal of the user, the user can be easily notified of the result of the determination regarding oral cancer of the user himself / herself.

また、別の形態に係る口腔癌診断システムでは、取得部は、部分画像の撮像時における、当該部分画像を撮像した装置において検出された角速度及び加速度のうちの少なくとも一方の検出値が関連付けられている部分画像を取得し、口腔癌診断システムは、所定値以上の検出値が関連付けられた部分画像を、生成部による口腔内写真の生成に用いられる部分画像から除外する前処理部、をさらに含むこととしてもよい。 Further, in the oral cancer diagnostic system according to another embodiment, the acquisition unit is associated with the detection value of at least one of the angular velocity and the acceleration detected by the device that captured the partial image at the time of capturing the partial image. The oral cancer diagnostic system further includes a preprocessing unit, which excludes a partial image associated with a detection value equal to or higher than a predetermined value from the partial image used for generating an intraoral photograph by the generation unit. It may be that.

上記形態によれば、角速度センサまたは加速度センサの所定値以上の検出値が関連付けられた部分画像が口腔内写真の生成に用いる画像から除外される。これにより、口腔内写真の合成に、ぶれが生じた部分画像が用いられないこととなる。従って、口腔内の状態の認識が容易な口腔内写真を得ることが可能となる。 According to the above embodiment, the partial image associated with the detection value equal to or higher than the predetermined value of the angular velocity sensor or the acceleration sensor is excluded from the image used for generating the intraoral photograph. As a result, the partially image with blurring is not used for compositing the intraoral photograph. Therefore, it is possible to obtain an intraoral photograph that makes it easy to recognize the state of the oral cavity.

また、別の形態に係る口腔癌診断システムでは、取得部は、1以上の画素からなる領域ごとに撮像対象までの距離を示す深度が関連付けられている部分画像を取得し、口腔癌診断システムは、深度に基づいて部分画像の各領域の輝度を補正する補正部、をさらに含むこととしてもよい。 Further, in the oral cancer diagnosis system according to another form, the acquisition unit acquires a partial image in which the depth indicating the distance to the imaging target is associated with each region consisting of one or more pixels, and the oral cancer diagnosis system , A correction unit that corrects the brightness of each region of the partial image based on the depth, may be further included.

上記形態によれば、口腔内を撮像した画像において、深度が深い領域ほど光源からの光が当たりにくいという知見のもと、深度に基づいて各領域の輝度が補正された部分画像の合成により口腔内写真が生成されるので、口腔内の状態が一様に把握可能な口腔内写真に基づく診断が可能となる。 According to the above embodiment, based on the finding that the deeper the depth of the image taken in the oral cavity, the more difficult it is for the light from the light source to hit, the oral cavity is synthesized by synthesizing a partial image in which the brightness of each region is corrected based on the depth. Since the internal photograph is generated, it is possible to make a diagnosis based on the intraoral photograph that can uniformly grasp the state of the oral cavity.

以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiment has been described in detail above, it is clear to those skilled in the art that the present embodiment is not limited to the embodiments described in the present specification. This embodiment can be implemented as an amendment or modification without departing from the spirit and scope of the present invention as determined by the description of the scope of claims. Therefore, the description of the present specification is for the purpose of illustration and does not have any limiting meaning to the present embodiment.

本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Each aspect / embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA ( Registered Trademarks), GSM (Registered Trademarks), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth It may be applied to (Registered Trademarks), other systems that utilize appropriate systems and / or next-generation systems that are extended based on them.

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, etc. of each aspect / embodiment described in the present disclosure may be changed as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order and are not limited to the particular order presented.

情報等は、上位レイヤ(または下位レイヤ)から下位レイヤ(または上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。 Information and the like can be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input / output may be performed via a plurality of network nodes.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present disclosure may be used alone, in combination, or may be switched and used according to the execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether called software, firmware, middleware, microcode, hardware description language, or other names, instructions, instruction sets, codes, code segments, program codes, programs, subprograms, software modules. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Further, software, instructions, and the like may be transmitted and received via a transmission medium. For example, the software may use wired technology such as coaxial cable, fiber optic cable, twist pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to website, server, or other. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described in the present disclosure may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

なお、本開示において説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms described in the present disclosure and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings.

本開示において使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used in this disclosure are used interchangeably.

また、本開示において説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 Further, the information, parameters, and the like described in the present disclosure may be represented by absolute values, relative values from predetermined values, or other corresponding information.

本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 The terms "determining" and "determining" used in this disclosure may include a wide variety of actions. "Judgment" and "decision" are, for example, judgment, calculation, computing, processing, deriving, investigating, looking up, search, inquiry. It may include (eg, searching in a table, database or another data structure), ascertaining as "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. It may include (for example, accessing data in memory) to be regarded as "judgment" or "decision". In addition, "judgment" and "decision" are considered to be "judgment" and "decision" when the things such as solving, selecting, choosing, establishing, and comparing are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision". Further, "judgment (decision)" may be read as "assuming", "expecting", "considering" and the like.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in the present disclosure, the two elements use at least one of one or more wires, cables and printed electrical connections, and as some non-limiting and non-comprehensive examples, the radio frequency region. Can be considered to be "connected" or "coupled" to each other using electromagnetic energy having wavelengths in the microwave and light (both visible and invisible) regions.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used in this disclosure does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

本開示において「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 When the terms "first", "second", etc. are used in the present disclosure, any reference to the elements does not generally limit the quantity or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, references to the first and second elements do not mean that only two elements can be adopted there, or that the first element must somehow precede the second element.

「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 As long as "include", "including", and variations thereof are used herein or within the scope of the claims, these terms are similar to the term "comprising". In addition, it is intended to be inclusive. Moreover, the term "or" as used herein or in the claims is intended to be non-exclusive.

本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In the present disclosure, if articles are added by translation, for example a, an and the in English, the disclosure may include the plural nouns following these articles.

本開示において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。 In the present disclosure, a plurality of devices are also included unless the device has only one apparently in context or technically.

本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 The entire disclosure is intended to include the plural, unless the context clearly indicates the singular.

1…口腔癌診断システム、10…口腔癌診断装置、11…取得部、12…前処理部、13…除去部、14…補正部、15…生成部、16…判定部、17…出力部、20…端末、21…画像取得部、22…画像送信部、23…判定結果受信部、24…判定結果提示部、25…画像センサ、26…深度センサ、27…加速度センサ、28…角速度センサ、29…ディスプレイ、30…端末、31…受信部、32…提示部、33…受付部、34…送信部、35…ディスプレイ、M1…記録媒体、m10…メインモジュール、m11…取得モジュール、m12…前処理モジュール、m13…除去モジュール、m14…補正モジュール、m15…生成モジュール、m16…判定モジュール、m17…出力モジュール、N…ネットワーク、P1…口腔癌診断プログラム。 1 ... Oral cancer diagnostic system, 10 ... Oral cancer diagnostic device, 11 ... Acquisition unit, 12 ... Pretreatment unit, 13 ... Removal unit, 14 ... Correction unit, 15 ... Generation unit, 16 ... Judgment unit, 17 ... Output unit, 20 ... Terminal, 21 ... Image acquisition unit, 22 ... Image transmission unit, 23 ... Judgment result reception unit, 24 ... Judgment result presentation unit, 25 ... Image sensor, 26 ... Depth sensor, 27 ... Acceleration sensor, 28 ... Angle speed sensor, 29 ... Display, 30 ... Terminal, 31 ... Receiving unit, 32 ... Presenting unit, 33 ... Reception unit, 34 ... Transmitting unit, 35 ... Display, M1 ... Recording medium, m10 ... Main module, m11 ... Acquisition module, m12 ... Previous Processing module, m13 ... removal module, m14 ... correction module, m15 ... generation module, m16 ... judgment module, m17 ... output module, N ... network, P1 ... oral cancer diagnosis program.

Claims (8)

口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する口腔癌診断システムであって、
前記ユーザの口腔内の部分を撮像した部分画像を複数取得する取得部と、
前記部分画像において反射が生じている領域である反射部分の除去または前記反射部分を含まない部分画像の抽出により、前記反射部分を含まない部分画像を取得する除去部と、
前記除去部により取得された部分画像を含む複数の部分画像を合成して前記口腔内写真を生成する生成部と、
前記口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定部と、
前記判定部により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力部と、を備え
前記取得部は、口腔内における同一の部分を異なる方向から撮像した複数の部分画像を取得し、
前記除去部は、
前記部分画像における前記反射部分を所定の画像処理技術により除去し、
前記部分画像に表されている前記部分の射影方向を所定の方向に合わせるように複数の前記部分画像を変換し、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして前記複数の部分画像を加算平均合成することにより、前記反射部分が除去された部分画像を取得する、
口腔癌診断システム。
An oral cancer diagnostic system for diagnosing diseases related to oral cancer in the user's oral cavity based on an intraoral photograph consisting of a plurality of images showing a predetermined area in the oral cavity.
An acquisition unit that acquires a plurality of partial images of the portion in the oral cavity of the user, and
A removal unit that acquires a partial image that does not include the reflection portion by removing a reflection portion that is a region where reflection occurs in the partial image or extracting a partial image that does not include the reflection portion.
A generation unit that generates the intraoral photograph by synthesizing a plurality of partial images including the partial image acquired by the removal unit.
A determination unit for determining the presence or absence and a state of a disease related to oral cancer based on the characteristics of an image of a predetermined determination target area shown in the intraoral photograph.
It is provided with an output unit that outputs determination information regarding the presence / absence and state of a disease related to oral cancer determined by the determination unit .
The acquisition unit acquires a plurality of partial images obtained by capturing the same portion in the oral cavity from different directions.
The removal part
The reflection portion in the partial image is removed by a predetermined image processing technique, and the reflection portion is removed.
A plurality of the partial images are converted so that the projection direction of the portion represented in the partial image is aligned with a predetermined direction, and the pixels representing the same portion in the oral cavity are aligned so as to be associated with each other. By adding and averaging the plurality of partial images, a partial image from which the reflected portion is removed is acquired.
Oral cancer diagnostic system.
前記除去部は、前記部分画像に含まれる各画素の画素値に基づいて当該部分画像が前記反射部分を含むか否かを判定し、前記取得部により取得された複数の部分画像から、前記反射部分を含まない部分画像を抽出する、
請求項1に記載の口腔癌診断システム。
The removing unit determines whether or not the partial image includes the reflection portion based on the pixel value of each pixel included in the partial image, and the reflection from the plurality of partial images acquired by the acquisition unit. Extract a partial image that does not contain a part,
The oral cancer diagnostic system according to claim 1.
前記生成部は、前記口腔内写真から、歯が表された領域である歯領域を所定の画像処理技術により除去し、
前記判定部は、前記生成部により前記歯領域が除去された前記口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する、
請求項1または2に記載の口腔癌診断システム。
The generation unit removes the tooth region, which is the region where the teeth are represented, from the intraoral photograph by a predetermined image processing technique.
The determination unit determines the presence or absence and a state of a disease related to oral cancer based on the characteristics of the image of the predetermined determination target area shown in the intraoral photograph in which the tooth region is removed by the generation unit.
The oral cancer diagnostic system according to claim 1 or 2 .
前記出力部は、前記判定情報を、前記ユーザとは異なる医師の第1の端末において出力させ、
前記判定情報の出力に応じて前記第1の端末に対して入力された、疾患の診断に関する診断情報が、前記ユーザの第2の端末において出力される、
請求項1~のいずれか一項に記載の口腔癌診断システム。
The output unit outputs the determination information on a first terminal of a doctor different from the user.
The diagnostic information regarding the diagnosis of the disease, which is input to the first terminal in response to the output of the determination information, is output to the second terminal of the user.
The oral cancer diagnostic system according to any one of claims 1 to 3 .
前記出力部は、前記判定情報を、前記第2の端末において出力させる、
請求項に記載の口腔癌診断システム。
The output unit outputs the determination information at the second terminal.
The oral cancer diagnostic system according to claim 4 .
前記取得部は、前記部分画像の撮像時における、当該部分画像を撮像した装置において検出された角速度及び加速度のうちの少なくとも一方の検出値が関連付けられている前記部分画像を取得し、
前記口腔癌診断システムは、
所定値以上の前記検出値が関連付けられた前記部分画像を、前記生成部による口腔内写真の生成に用いられる部分画像から除外する前処理部、をさらに含む、
請求項1~のいずれか一項に記載の口腔癌診断システム。
The acquisition unit acquires the partial image to which the detection value of at least one of the angular velocity and the acceleration detected in the apparatus that captured the partial image at the time of capturing the partial image is associated.
The oral cancer diagnostic system is
A pretreatment unit for excluding the partial image associated with the detection value of a predetermined value or more from the partial image used for generating the intraoral photograph by the generation unit is further included.
The oral cancer diagnostic system according to any one of claims 1 to 5 .
前記取得部は、1以上の画素からなる領域ごとに撮像対象までの距離を示す深度が関連付けられている前記部分画像を取得し、
前記口腔癌診断システムは、
深度に基づいて前記部分画像の各領域の輝度を補正する補正部、をさらに含む、
請求項1~のいずれか一項に記載の口腔癌診断システム。
The acquisition unit acquires the partial image in which the depth indicating the distance to the image pickup target is associated with each region consisting of one or more pixels.
The oral cancer diagnostic system is
Further includes a correction unit, which corrects the brightness of each region of the partial image based on the depth.
The oral cancer diagnostic system according to any one of claims 1 to 6 .
コンピュータを、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する口腔癌診断システムとして機能させるための口腔癌診断プログラムであって、
前記コンピュータに、
前記ユーザの口腔内の部分を撮像した部分画像を複数取得する取得機能と、
前記部分画像において反射が生じている領域である反射部分の除去または前記反射部分を含まない部分画像の抽出により、前記反射部分を含まない部分画像を取得する除去機能と、
前記除去機能により取得された部分画像を含む複数の部分画像を合成して前記口腔内写真を生成する生成機能と、
前記口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定機能と、
前記判定機能により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力機能と、を実現させ
前記取得機能は、口腔内における同一の部分を異なる方向から撮像した複数の部分画像を取得し、
前記除去機能は、
前記部分画像における前記反射部分を所定の画像処理技術により除去し、
前記部分画像に表されている前記部分の射影方向を所定の方向に合わせるように複数の前記部分画像を変換し、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして前記複数の部分画像を加算平均合成することにより、前記反射部分が除去された部分画像を取得する、
口腔癌診断プログラム。
It is an oral cancer diagnosis program for making a computer function as an oral cancer diagnostic system for diagnosing diseases related to oral cancer in the user's oral cavity based on an intraoral photograph consisting of a plurality of images showing a predetermined area in the oral cavity. hand,
To the computer
The acquisition function to acquire a plurality of partial images of the part in the oral cavity of the user, and
A removal function for acquiring a partial image that does not include the reflective portion by removing a reflective portion that is a region where reflection occurs in the partial image or extracting a partial image that does not include the reflective portion.
A generation function for generating the intraoral photograph by synthesizing a plurality of partial images including the partial image acquired by the removal function, and
A determination function for determining the presence or absence and a state of a disease related to oral cancer based on the characteristics of an image of a predetermined determination target area shown in the intraoral photograph.
The output function that outputs the judgment information regarding the presence / absence and the state of the disease related to oral cancer, which is judged by the judgment function, is realized .
The acquisition function acquires a plurality of partial images obtained by capturing the same portion in the oral cavity from different directions.
The removal function
The reflection portion in the partial image is removed by a predetermined image processing technique, and the reflection portion is removed.
A plurality of the partial images are converted so that the projection direction of the portion represented in the partial image is aligned with a predetermined direction, and the pixels representing the same portion in the oral cavity are aligned so as to be associated with each other. By adding and averaging the plurality of partial images, a partial image from which the reflected portion is removed is acquired.
Oral cancer diagnostic program.
JP2018185038A 2018-09-28 2018-09-28 Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program Active JP7067743B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018185038A JP7067743B2 (en) 2018-09-28 2018-09-28 Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018185038A JP7067743B2 (en) 2018-09-28 2018-09-28 Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program

Publications (2)

Publication Number Publication Date
JP2020054444A JP2020054444A (en) 2020-04-09
JP7067743B2 true JP7067743B2 (en) 2022-05-16

Family

ID=70105581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018185038A Active JP7067743B2 (en) 2018-09-28 2018-09-28 Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program

Country Status (1)

Country Link
JP (1) JP7067743B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7462534B2 (en) 2020-11-02 2024-04-05 株式会社Nttドコモ Image Recording System
JP7520362B2 (en) 2020-11-24 2024-07-23 国立大学法人山形大学 Discrimination device, discrimination terminal device, control method and control program for discrimination device, and discrimination system
KR102517232B1 (en) * 2021-08-02 2023-03-31 가천대학교 산학협력단 Method for removing reflected light of medical image based on machine learning and device using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102514A (en) 1998-09-30 2000-04-11 Internatl Univ Of Health & Welfare Remote medical system
JP2003283924A (en) 2002-03-26 2003-10-03 Fuji Photo Film Co Ltd Imaging device, image processing system, imaging method, and program
JP2006041603A (en) 2004-07-22 2006-02-09 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program
JP2011521237A (en) 2008-05-20 2011-07-21 ユニバーシティー ヘルス ネットワーク Apparatus and method for imaging and monitoring based on fluorescent light
WO2017199635A1 (en) 2016-05-18 2017-11-23 オリンパス株式会社 Image analysis device, image analysis system, and method for operating image analysis device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3078085B2 (en) * 1991-03-26 2000-08-21 オリンパス光学工業株式会社 Image processing apparatus and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102514A (en) 1998-09-30 2000-04-11 Internatl Univ Of Health & Welfare Remote medical system
JP2003283924A (en) 2002-03-26 2003-10-03 Fuji Photo Film Co Ltd Imaging device, image processing system, imaging method, and program
JP2006041603A (en) 2004-07-22 2006-02-09 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program
JP2011521237A (en) 2008-05-20 2011-07-21 ユニバーシティー ヘルス ネットワーク Apparatus and method for imaging and monitoring based on fluorescent light
WO2017199635A1 (en) 2016-05-18 2017-11-23 オリンパス株式会社 Image analysis device, image analysis system, and method for operating image analysis device

Also Published As

Publication number Publication date
JP2020054444A (en) 2020-04-09

Similar Documents

Publication Publication Date Title
US11106938B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
JP6938410B2 (en) Oral Disease Diagnosis System and Oral Disease Diagnosis Program
WO2022151755A1 (en) Target detection method and apparatus, and electronic device, storage medium, computer program product and computer program
JP7067743B2 (en) Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program
US10966599B2 (en) Endoscopic stereo matching method and apparatus using direct attenuation model
KR102383129B1 (en) Method for correcting image based on category and recognition rate of objects included image and electronic device for the same
JP7260115B2 (en) Mobile devices and photography assistance programs
EP4206973A1 (en) Method for providing text translation managing data related to application, and electronic device thereof
WO2022022350A1 (en) Image processing method and apparatus, electronic device, storage medium, and computer program product
JP2010263423A (en) Method and device for processing image
US11509815B2 (en) Electronic device and method for processing image having human object and providing indicator indicating a ratio for the human object
US8625896B2 (en) Image matting
US10346953B2 (en) Flash and non-flash images in flash artifact removal
JP2017033256A (en) Image processing device, communication system, image processing method, and program
CN108697310B (en) Image processing apparatus, image processing method, and program-recorded medium
JP6938409B2 (en) Intracavitary photo generator and intracavitary photo generator
JP2017213058A (en) Image processing device, endoscope device, image processing method, and image processing program
JP2011198270A (en) Object recognition device and controller using the same, and object recognition method
JP2018084861A (en) Information processing apparatus, information processing method and information processing program
CN115049819A (en) Watching region identification method and device
CN106851135A (en) The unique mark value of sensor
TW202009790A (en) Method, module and system of gesture recognition
JP2015022525A (en) Information processing device, method for detecting subject portion, and program
JP7321772B2 (en) Image processing device, image processing method, and program
CN112598074A (en) Image processing method and device, computer readable storage medium and electronic device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220419

R150 Certificate of patent or registration of utility model

Ref document number: 7067743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150