JP2020054444A - Oral cavity cancer diagnostic system and oral cavity cancer diagnostic program - Google Patents

Oral cavity cancer diagnostic system and oral cavity cancer diagnostic program Download PDF

Info

Publication number
JP2020054444A
JP2020054444A JP2018185038A JP2018185038A JP2020054444A JP 2020054444 A JP2020054444 A JP 2020054444A JP 2018185038 A JP2018185038 A JP 2018185038A JP 2018185038 A JP2018185038 A JP 2018185038A JP 2020054444 A JP2020054444 A JP 2020054444A
Authority
JP
Japan
Prior art keywords
oral cancer
unit
partial image
image
oral cavity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018185038A
Other languages
Japanese (ja)
Other versions
JP7067743B2 (en
Inventor
尊士 荒木
Takashi Araki
尊士 荒木
千章 土井
Chiaki Doi
千章 土井
佐野 博之
Hiroyuki Sano
博之 佐野
紗和 興梠
Sawa Korogi
紗和 興梠
池田 大造
Daizo Ikeda
大造 池田
片桐 雅二
Masaji Katagiri
雅二 片桐
佐々木 啓一
Keiichi Sasaki
啓一 佐々木
大貴 日原
Daiki Hihara
大貴 日原
一賢 泉田
Kazumasa Izumida
一賢 泉田
高橋 哲
Satoru Takahashi
哲 高橋
衆 纐纈
Atsumu Koketsu
衆 纐纈
健 小坂
Takeshi Kosaka
健 小坂
潤 相田
Jun Aida
潤 相田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
NTT Docomo Inc
Original Assignee
Tohoku University NUC
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, NTT Docomo Inc filed Critical Tohoku University NUC
Priority to JP2018185038A priority Critical patent/JP7067743B2/en
Publication of JP2020054444A publication Critical patent/JP2020054444A/en
Application granted granted Critical
Publication of JP7067743B2 publication Critical patent/JP7067743B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

To reduce possibility of wrong diagnosis in a diagnosis of oral cavity cancer based on an oral cavity photograph.SOLUTION: An oral cavity cancer diagnostic device 10 is a device for diagnosing a disease on an oral cavity cancer in an oral cavity of a user on the basis of an oral cavity photograph consisting of a plurality of images indicating a predetermined region in the oral cavity, and includes: an acquisition unit 11 for acquiring a plurality of partial images that image a part in the oral cavity of a user; a removal unit 13 for acquiring a partial image that does not include reflection parts by removal of reflection parts in the partial image or extraction of the partial image that does not include the reflection parts; a creation unit 15 for compositing the plurality of partial images including the partial images acquired by the removal unit 13 and creating an oral cavity photograph; a determination unit 16 for determining presence/absence and status of a disease on an oral cavity cancer on the basis of feature of images of a predetermined determination object region represented in the oral cavity photograph; and an output unit 17 for outputting determination information on presence/absence and status of the disease on the oral cavity cancer.SELECTED DRAWING: Figure 2

Description

本発明は、口腔癌診断システム及び口腔癌診断プログラムに関する。   The present invention relates to an oral cancer diagnostic system and an oral cancer diagnostic program.

口腔内の画像に基づいて、種々の疾患が診断されている。疾患の診断は、例えば、医師による画像の目視及び画像解析等により行われる。疾患の診断には、主として口腔内写真が用いられる。口腔内写真は、口腔内の所定の領域を表した複数の画像からなる。なお、口腔内写真の一例として、所定の口腔内規格写真が用いられる場合がある。口腔内写真を構成する各画像は、口腔内の部分を表した複数の画像を重畳領域に基づいて合成する、いわゆるパノラマ画像として生成される。また、口腔内画像に基づいて、う蝕検出のために歯の表面の画像の分類をする技術が知られている(例えば、特許文献1参照)。   Various diseases have been diagnosed based on images in the oral cavity. The diagnosis of the disease is performed, for example, by visual observation of the image by a doctor and image analysis. Intraoral photography is mainly used for diagnosis of the disease. The intraoral photograph is composed of a plurality of images representing a predetermined region in the oral cavity. As an example of the intraoral photograph, a predetermined intraoral standard photograph may be used. Each image constituting the intra-oral photograph is generated as a so-called panoramic image in which a plurality of images representing portions in the oral cavity are synthesized based on a superimposed region. Further, there is known a technique of classifying an image of a tooth surface for caries detection based on an intraoral image (for example, see Patent Document 1).

特表2014−509908号公報JP, 2014-509908, A

口腔内の疾患の1つである口腔癌の診断は、診断の対象部分の色及び形状等に基づいて行われる。精度の高い診断を行うためには、口腔内写真において対象部位が正しく表されている必要がある。しかしながら、通常に撮影された口腔内の画像では、唾液により反射が発生する場合がある。このような画像において、反射が発生した箇所は、色等が実際の状態と異なって表される。反射が生じている部分を含む画像に基づいて口腔癌の診断が行われると、誤診断が発生する可能性がある。   Diagnosis of oral cancer, which is one of the diseases in the oral cavity, is performed based on the color and shape of the diagnosis target portion. In order to perform highly accurate diagnosis, it is necessary that the target site is correctly represented in the intraoral photograph. However, in a normally taken image of the oral cavity, reflection may occur due to saliva. In such an image, the location where the reflection has occurred is represented in a different color or the like from the actual state. If a diagnosis of oral cancer is made based on an image including a portion where reflection occurs, an erroneous diagnosis may occur.

そこで、本発明は、上記問題点に鑑みてなされたものであり、口腔内写真に基づく口腔癌の診断において、誤診断の可能性を低減させることを目的とする。   Therefore, the present invention has been made in view of the above problems, and has as its object to reduce the possibility of erroneous diagnosis in the diagnosis of oral cancer based on intraoral photographs.

上記課題を解決するために、本発明の一形態に係る口腔癌診断システムは、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する口腔癌診断システムであって、ユーザの口腔内の部分を撮像した部分画像を複数取得する取得部と、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する除去部と、除去部により取得された部分画像を含む複数の部分画像を合成して口腔内写真を生成する生成部と、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定部と、判定部により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力部と、を備える。   In order to solve the above problems, an oral cancer diagnostic system according to an aspect of the present invention provides a disease related to oral cancer in an oral cavity of a user based on an intraoral photograph including a plurality of images representing a predetermined region in the oral cavity. An oral cancer diagnosis system for diagnosing a part, comprising: an acquisition unit that acquires a plurality of partial images obtained by imaging a part in the oral cavity of a user; and a removal or reflection part of a reflection part that is an area where reflection occurs in the partial image A removing unit that obtains a partial image that does not include a reflection portion by extracting a partial image that does not include a generating unit that generates an intraoral photograph by combining a plurality of partial images that include the partial image obtained by the removing unit; A determining unit that determines the presence and state of a disease related to oral cancer based on the characteristics of the image of the predetermined determination target region represented in the inner photograph, and the presence or absence of a disease related to oral cancer determined by the determining unit And an output unit for outputting the determination information about the fine state.

また、本発明の一形態に係る口腔癌診断プログラムは、コンピュータを、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する口腔癌診断システムとして機能させるための口腔癌診断プログラムであって、コンピュータに、ユーザの口腔内の部分を撮像した部分画像を複数取得する取得機能と、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する除去機能と、除去機能により取得された部分画像を含む複数の部分画像を合成して口腔内写真を生成する生成機能と、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定機能と、判定機能により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力機能と、を実現させる。   In addition, an oral cancer diagnosis program according to an embodiment of the present invention diagnoses a disease related to oral cancer in a user's oral cavity based on an intraoral photograph including a plurality of images representing a predetermined region in the oral cavity. An oral cancer diagnostic program for causing the computer to function as an oral cancer diagnostic system, the computer having an acquisition function of acquiring a plurality of partial images of a portion of the user's oral cavity, and an area where reflection occurs in the partial images. By removing the reflection part or extracting the partial image that does not include the reflection part, the removal function that obtains the partial image that does not include the reflection part, and a plurality of partial images including the partial image obtained by the removal function are combined into the oral cavity The presence / absence and state of a disease related to oral cancer are determined based on the generation function of generating a photograph and the characteristics of the image of the predetermined determination target region represented in the intraoral photograph. A determination function of, determined by the determination function, and an output function of outputting the determination information about the presence and status of diseases related oral cancer, to realize.

上記の形態によれば、反射部分が含まれない部分画像に基づいて口腔内写真が生成される。このように生成された口腔内写真に基づいて口腔癌の診断が行われることにより、誤診断の可能性を低減できる。   According to the above aspect, the intraoral photograph is generated based on the partial image that does not include the reflection part. By diagnosing oral cancer based on the intraoral photograph thus generated, the possibility of erroneous diagnosis can be reduced.

口腔内写真に基づく口腔癌の診断において、誤診断の可能性を低減させることが可能となる。   In the diagnosis of oral cancer based on intraoral photographs, the possibility of erroneous diagnosis can be reduced.

本実施形態に係る口腔癌診断システムの装置構成を示す図である。It is a figure showing the device composition of the oral cancer diagnostic system concerning this embodiment. 本実施形態の口腔癌診断装置の機能的構成を示すブロック図である。It is a block diagram showing functional composition of an oral cancer diagnostic device of this embodiment. 口腔癌診断装置のハードブロック図である。It is a hardware block diagram of an oral cancer diagnostic device. ユーザの端末の機能的構成を示す図である。It is a figure showing the functional composition of a user's terminal. 医師の端末の機能的構成を示す図である。It is a figure showing the functional composition of a doctor's terminal. 診断の対象となる口腔内の各部分を模式的に示す図である。It is a figure which shows each part in the oral cavity used for a diagnosis typically. 部分画像及び複数の部分画像に基づいて合成されたパノラマ画像の例を示す図である。FIG. 4 is a diagram illustrating an example of a panoramic image synthesized based on a partial image and a plurality of partial images. 除去部による、反射部分を含まない部分画像の抽出処理の例を示す図である。FIG. 9 is a diagram illustrating an example of a process of extracting a partial image that does not include a reflection portion by a removing unit. 反射部分を含む複数の部分画像及び反射部分が除去された部分画像の例を模式的に示す図である。FIG. 4 is a diagram schematically illustrating an example of a plurality of partial images including a reflective portion and a partial image from which the reflective portion has been removed. 除去部による反射部分の除去の処理内容を示すフローチャートである。9 is a flowchart illustrating processing of removing a reflection portion by a removing unit. 生成部により生成される口腔内写真の例を示す図である。It is a figure showing an example of an intraoral photograph generated by a generating part. 歯領域が除去された口腔内写真を示す図である。It is a figure which shows the intraoral photograph from which the tooth area was removed. 判定部による口腔癌の有無及び状態の判定処理のフローチャートを示す図である。It is a figure which shows the flowchart of the determination processing of the presence or absence and state of an oral cancer by a determination part. 口腔癌の進行レベルの判定の結果の情報の例を示す図であって、口腔癌の可能性のある箇所がマークされた口腔内写真を模式的に示す図である。It is a figure which shows the example of the information of the result of the determination of the progress level of oral cancer, and is a figure which shows typically the intraoral photograph in which the location with the possibility of oral cancer was marked. 本実施形態の口腔癌診断方法の処理内容の例を示すフローチャートである。It is a flow chart which shows an example of processing contents of an oral cancer diagnostic method of this embodiment. ユーザの端末における処理内容の例を示すフローチャートである。6 is a flowchart illustrating an example of processing contents in a user terminal. 医師の端末における処理内容の例を示すフローチャートである。It is a flowchart which shows the example of the processing content in a doctor's terminal. 口腔癌診断プログラムの構成を示す図である。It is a figure showing composition of an oral cancer diagnostic program.

本発明に係る口腔癌診断システムの実施形態について図面を参照して説明する。なお、可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。   An embodiment of an oral cancer diagnosis system according to the present invention will be described with reference to the drawings. Note that, where possible, the same portions are denoted by the same reference numerals, and redundant description will be omitted.

図1は、本実施形態に係る口腔癌診断システムの装置構成を示す図である。口腔癌診断システム1は、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断するシステムである。図1に示す口腔癌診断システム1は、口腔癌診断装置10並びにユーザの端末20及び医師の端末30を含み、口腔癌診断装置10及び端末20,30は、ネットワークNを介して互いに通信可能である。   FIG. 1 is a diagram showing a device configuration of the oral cancer diagnosis system according to the present embodiment. The oral cancer diagnosis system 1 is a system that diagnoses a disease related to oral cancer in an oral cavity of a user based on an intraoral photograph including a plurality of images representing a predetermined region in the oral cavity. The oral cancer diagnostic system 1 shown in FIG. 1 includes an oral cancer diagnostic device 10, a user terminal 20, and a doctor terminal 30. The oral cancer diagnostic device 10 and the terminals 20, 30 can communicate with each other via a network N. is there.

口腔癌診断装置10は、例えば、サーバ等のコンピュータにより構成されるが、口腔癌診断装置10を構成する装置は限定されない。端末20,30は、例えば、据置型又は携帯型のパーソナルコンピュータ、高機能携帯電話機(スマートフォン)等により構成されるが、端末20,30を構成する装置は限定されず、例えば携帯電話機、携帯情報端末(PDA)などの携帯端末でもよい。なお、図1では、例として各1台の端末20及び端末30が示されているが、その数はこれに限定されない。   The oral cancer diagnostic device 10 is configured by, for example, a computer such as a server, but the device configuring the oral cancer diagnostic device 10 is not limited. The terminals 20 and 30 are configured by, for example, a stationary or portable personal computer, a high-performance mobile phone (smartphone), and the like. However, the devices that configure the terminals 20 and 30 are not limited. A portable terminal such as a terminal (PDA) may be used. Although FIG. 1 shows one terminal 20 and one terminal 30 as an example, the number is not limited to this.

図2は、本実施形態に係る口腔癌診断装置10の機能的構成を示す図である。本実施形態の口腔癌診断装置10は、口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する装置である。口腔内写真は、口腔内の疾患を診断するために取得される口腔内を撮像した写真である。口腔内写真は、例えば、口腔内の所定の領域を表した複数の画像からなる。   FIG. 2 is a diagram showing a functional configuration of the oral cancer diagnostic device 10 according to the present embodiment. The oral cancer diagnostic device 10 of the present embodiment is a device that diagnoses a disease related to oral cancer in the oral cavity of a user based on an intraoral photograph. The intraoral photograph is a photograph of the inside of the oral cavity acquired for diagnosing a disease in the oral cavity. The intraoral photograph is composed of, for example, a plurality of images representing a predetermined region in the oral cavity.

図2に示すように、口腔癌診断装置10は、機能的には、取得部11、前処理部12、除去部13、補正部14、生成部15、判定部16及び出力部17を備える。なお、本実施形態では、口腔癌診断装置10は、図2に示すような1つの装置により構成されているが、口腔癌診断装置10に含まれる各機能部が複数の装置に分散されて構成されてもよい。口腔癌診断装置10の各機能部については後に詳細に説明する。   As shown in FIG. 2, the oral cancer diagnostic device 10 functionally includes an acquisition unit 11, a preprocessing unit 12, a removal unit 13, a correction unit 14, a generation unit 15, a determination unit 16, and an output unit 17. In the present embodiment, the oral cancer diagnostic device 10 is configured by one device as shown in FIG. 2, but each functional unit included in the oral cancer diagnostic device 10 is distributed to a plurality of devices. May be done. Each functional unit of the oral cancer diagnostic device 10 will be described later in detail.

なお、図2に示したブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。   Note that the block diagram shown in FIG. 2 shows blocks in functional units. These functional blocks (components) are realized by an arbitrary combination of hardware and / or software. The means for implementing each functional block is not particularly limited. That is, each functional block may be realized by one device physically and / or logically coupled, or two or more devices physically and / or logically separated from each other directly and / or indirectly. (For example, wired and / or wireless) and may be realized by these multiple devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。   Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, resolution, selection, selection, establishment, comparison, assumption, expectation, deemed, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, but not limited to these I can't. For example, a functional block (configuration unit) that causes transmission to function is called a transmitting unit (transmitting unit) or a transmitter (transmitter). In any case, as described above, the realization method is not particularly limited.

例えば、本発明の一実施の形態における口腔癌診断装置10は、コンピュータとして機能してもよい。図3は、本実施形態に係る口腔癌診断装置10のハードウェア構成の一例を示す図である。口腔癌診断装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。   For example, the oral cancer diagnosis device 10 according to one embodiment of the present invention may function as a computer. FIG. 3 is a diagram illustrating an example of a hardware configuration of the oral cancer diagnostic device 10 according to the present embodiment. The oral cancer diagnosis device 10 may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。口腔癌診断装置10のハードウェア構成は、図2に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。   In the following description, the term “apparatus” can be read as a circuit, a device, a unit, or the like. The hardware configuration of the oral cancer diagnostic device 10 may be configured to include one or more devices illustrated in FIG. 2, or may be configured without including some devices.

口腔癌診断装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。   The functions of the oral cancer diagnostic apparatus 10 are performed by reading predetermined software (program) on hardware such as the processor 1001 and the memory 1002 so that the processor 1001 performs an arithmetic operation. This is realized by controlling reading and / or writing of data in the storage 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、図1に示した各機能部11〜17などは、プロセッサ1001で実現されてもよい。   The processor 1001 controls the entire computer by operating an operating system, for example. The processor 1001 may be configured by a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic device, a register, and the like. For example, each of the functional units 11 to 17 illustrated in FIG. 1 may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、口腔癌診断装置10の各機能部11〜17は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。   In addition, the processor 1001 reads a program (program code), a software module, and data from the storage 1003 and / or the communication device 1004 to the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operation described in the above embodiment is used. For example, each of the functional units 11 to 17 of the oral cancer diagnostic device 10 may be realized by a control program stored in the memory 1002 and operated by the processor 1001. Although it has been described that the various processes described above are executed by one processor 1001, the processes may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be implemented with one or more chips. Note that the program may be transmitted from a network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る棚割情報生成方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。   The memory 1002 is a computer-readable recording medium, and includes, for example, at least one of a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be called a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, and the like that can be executed to execute the shelf allocation information generation method according to one embodiment of the present invention.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。   The storage 1003 is a computer-readable recording medium such as an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, and a magneto-optical disk (eg, a compact disk, a digital versatile disk, a Blu-ray). (Registered trademark) disk), a smart card, a flash memory (for example, a card, a stick, a key drive), a floppy (registered trademark) disk, and a magnetic strip. The storage 1003 may be called an auxiliary storage device. The storage medium described above may be, for example, a database including the memory 1002 and / or the storage 1003, a server, or any other suitable medium.

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。   The communication device 1004 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。   The input device 1005 is an input device that receives an external input (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, and the like). The output device 1006 is an output device that performs output to the outside (for example, a display, a speaker, an LED lamp, and the like). Note that the input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。   Each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be configured by a single bus, or may be configured by a different bus between the devices.

また、口腔癌診断装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。   The oral cancer diagnostic apparatus 10 includes hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). The hardware may implement some or all of the functional blocks. For example, the processor 1001 may be implemented by at least one of these hardware.

図4は、本実施形態のユーザの端末20の機能的構成を示す図である。図4に示すように、端末20は、画像取得部21、画像送信部22、判定結果受信部23及び判定結果提示部24を備える。また、端末20は、画像センサ25及びディスプレイ29を含む。   FIG. 4 is a diagram illustrating a functional configuration of the user terminal 20 of the present embodiment. As shown in FIG. 4, the terminal 20 includes an image acquisition unit 21, an image transmission unit 22, a determination result reception unit 23, and a determination result presentation unit 24. The terminal 20 includes an image sensor 25 and a display 29.

画像センサ25は、撮像対象の画像を光学的に取得するセンサである。また、端末20は、深度センサ26を含んでもよい。深度センサ26は、赤外線により、対象までの距離を示す深度を取得するセンサである。   The image sensor 25 is a sensor that optically acquires an image of an imaging target. The terminal 20 may include a depth sensor 26. The depth sensor 26 is a sensor that acquires a depth indicating a distance to a target by infrared rays.

また、端末20は、加速度センサ27及び角速度センサ28を含んでもよい。加速度センサ27は、端末20において生じた加速度を検出するセンサである。角速度センサ28は、端末20において生じた角速度を検出するセンサである。   Further, the terminal 20 may include an acceleration sensor 27 and an angular velocity sensor 28. The acceleration sensor 27 is a sensor that detects an acceleration generated in the terminal 20. The angular velocity sensor 28 is a sensor that detects an angular velocity generated in the terminal 20.

画像取得部21は、画像センサ25により撮像された部分画像を取得する。部分画像は、口腔内の部分を撮像した画像である。画像取得部21は、複数の部分画像を取得する。   The image acquisition unit 21 acquires a partial image captured by the image sensor 25. The partial image is an image obtained by imaging a part in the oral cavity. The image acquisition unit 21 acquires a plurality of partial images.

画像取得部21は、部分画像の取得時において深度センサ26により検出された、撮像対象までの距離を示す深度を取得できる。これにより、画像取得部21は、1以上の画素からなる領域ごとに深度が関連付けられた部分画像を取得できる。   The image acquisition unit 21 can acquire the depth indicating the distance to the imaging target, which is detected by the depth sensor 26 when acquiring the partial image. Accordingly, the image acquisition unit 21 can acquire a partial image in which the depth is associated with each region including one or more pixels.

また、端末20は、部分画像の取得時の加速度を加速度センサ27により検出し、検出値を部分画像に関連付けて送出できる。また、端末20は、部分画像の取得時の角速度を角速度センサ28により検出し、検出値を部分画像に関連付けて送出できる。   Further, the terminal 20 can detect the acceleration at the time of acquiring the partial image by the acceleration sensor 27 and transmit the detected value in association with the partial image. Further, the terminal 20 can detect the angular velocity at the time of acquiring the partial image by the angular velocity sensor 28 and transmit the detected value in association with the partial image.

複数の部分画像は、それぞれが静止画として取得されてもよいし、動画像として取得された各フレームから抽出されたものであってもよい。これにより、画像取得部21は、口腔内における同一の部分を撮像した複数の部分画像を取得できる。さらに、画像取得部21は、口腔内における同一の部分を異なる方向から撮像した複数の部分画像を取得できる。本実施形態では、ユーザが、端末20を用いて、自らの口腔内の画像を撮像することができる。   Each of the plurality of partial images may be acquired as a still image, or may be extracted from each frame acquired as a moving image. Thereby, the image acquisition unit 21 can acquire a plurality of partial images of the same portion in the oral cavity. Further, the image acquisition unit 21 can acquire a plurality of partial images obtained by imaging the same portion in the oral cavity from different directions. In the present embodiment, the user can use the terminal 20 to capture an image of his own oral cavity.

画像送信部22は、画像取得部21により取得された複数の部分画像を口腔癌診断装置10に送信する。画像送信部22は、各部分画像の取得時にセンサにより検出された検出値を、部分画像に関連付けて送信できる。検出値は、加速度センサ27により検出された加速度及び角速度センサ28により検出された角速度の少なくとも1つを含むことができる。   The image transmitting unit 22 transmits the plurality of partial images acquired by the image acquiring unit 21 to the oral cancer diagnostic device 10. The image transmission unit 22 can transmit a detection value detected by the sensor when acquiring each partial image in association with the partial image. The detected value can include at least one of the acceleration detected by the acceleration sensor 27 and the angular velocity detected by the angular velocity sensor 28.

判定結果受信部23は、判定情報を口腔癌診断装置10から受信する。判定情報は、口腔癌に関する疾患の有無及び状態に関して口腔癌診断装置の判定部16により判定された結果を示す情報である。口腔内の口腔癌に関する疾患の判定は、画像送信部22により送信された複数の部分画像に基づいて口腔癌診断装置10の判定部16において実施される。判定の結果は、例えば、疾患の箇所がマークされた口腔内写真及び発見された疾患に関するコメント等を含む。また、判定結果受信部23は、口腔癌診断装置10から端末30に送信された判定情報を、端末30を介して受信してもよい。   The determination result receiving unit 23 receives the determination information from the oral cancer diagnosis device 10. The determination information is information indicating a result determined by the determination unit 16 of the oral cancer diagnostic device regarding the presence / absence and state of a disease related to oral cancer. The determination of a disease related to oral cancer in the oral cavity is performed by the determination unit 16 of the oral cancer diagnostic device 10 based on the plurality of partial images transmitted by the image transmission unit 22. The result of the determination includes, for example, an intraoral photograph in which the location of the disease is marked, a comment on the found disease, and the like. The determination result receiving unit 23 may receive the determination information transmitted from the oral cancer diagnostic device 10 to the terminal 30 via the terminal 30.

また、判定結果受信部23は、診断情報を端末30から受信する。診断情報は、医師による口腔癌に関する疾患の診断の結果を示す情報であって、口腔癌診断装置10から端末30に送信された判定情報及び口腔内写真を参照した医師により端末30において入力された情報である。なお、診断情報は、ユーザの受診の要否に関する受診要否情報を含んでもよい。また、判定結果受信部23は、端末30から口腔癌診断装置10に送信された診断情報を、口腔癌診断装置10を介して受信してもよい。   Further, the determination result receiving unit 23 receives the diagnostic information from the terminal 30. The diagnosis information is information indicating a result of a diagnosis of a disease related to oral cancer by a doctor, and is input at the terminal 30 by a doctor who refers to the determination information transmitted from the oral cancer diagnostic device 10 to the terminal 30 and the intraoral photograph. Information. The diagnosis information may include consultation necessity information regarding necessity of consultation by the user. Further, the determination result receiving unit 23 may receive the diagnostic information transmitted from the terminal 30 to the oral cancer diagnostic device 10 via the oral cancer diagnostic device 10.

判定結果提示部24は、判定結果受信部23により受信された、診断情報をディスプレイ29に表示させる。また、判定結果提示部24は、判定情報をディスプレイ29に表示させてもよい。   The determination result presentation unit 24 causes the display 29 to display the diagnostic information received by the determination result receiving unit 23. Further, the determination result presenting unit 24 may cause the display 29 to display the determination information.

図5は、本実施形態の医師の端末30の機能的構成を示す図である。図5に示すように、端末30は、受信部31、提示部32、受付部33及び送信部34を備える。また、端末30は、ディスプレイ35を含む。   FIG. 5 is a diagram illustrating a functional configuration of the doctor's terminal 30 according to the present embodiment. As illustrated in FIG. 5, the terminal 30 includes a receiving unit 31, a presenting unit 32, a receiving unit 33, and a transmitting unit 34. The terminal 30 includes a display 35.

受信部31は、口腔癌に関する疾患に関する判定の結果を示す判定情報を口腔癌診断装置10から受信する。判定情報は、例えば、疾患の箇所がマークされた口腔内写真及び発見された疾患に関するコメント等を判定の結果として含むことができる。   The receiving unit 31 receives, from the oral cancer diagnosis device 10, determination information indicating a result of determination regarding a disease related to oral cancer. The determination information can include, for example, an intraoral photograph in which the location of the disease is marked, a comment on the discovered disease, and the like as the result of the determination.

提示部32は、受信部31により受信された判定情報をディスプレイ35に表示させる。これにより、判定情報を医師に提示することができる。   The presentation unit 32 causes the display 35 to display the determination information received by the reception unit 31. Thereby, the determination information can be presented to the doctor.

受付部33は、端末30に対して医師により入力された診断情報を受け付ける。即ち、医師は、提示部32により提示された判定情報及び口腔内写真等を参照できるので、これらの参照に基づいて、医師は自らの知見及び経験に基づく診断の結果を端末30に入力できる。受付部33は、このように入力された診断の結果を診断情報として受け付ける。なお、医師は、判定情報及び口腔内写真等の参照に基づいて、ユーザの受診の要否を検討できる。そして、医師は、ユーザに受診を促すための受診の要否に関する受信要否情報を診断情報に含めさせて入力できる。   The receiving unit 33 receives diagnostic information input to the terminal 30 by a doctor. That is, since the doctor can refer to the determination information, the intraoral photograph, and the like presented by the presentation unit 32, the doctor can input a diagnosis result based on his / her own knowledge and experience to the terminal 30 based on these references. The receiving unit 33 receives the result of the diagnosis input as described above as diagnostic information. It should be noted that the doctor can determine whether or not the user is required to consult based on the determination information and the reference to the intraoral photograph and the like. Then, the doctor can input the reception necessity information regarding the necessity of the consultation for prompting the user to perform the consultation in the diagnosis information.

送信部34は、診断情報をユーザの端末20に送信する。これにより、診断情報は、ユーザの端末20において提示されることができる。また、送信部34は、診断情報を、口腔癌診断装置10を介して端末20に送信してもよい。この場合には、口腔癌診断装置10の出力部17が、送信部34からの診断情報を端末20に転送し、診断情報を端末20において出力させる。   The transmitting unit 34 transmits the diagnostic information to the user terminal 20. Thus, the diagnostic information can be presented on the user terminal 20. The transmitting unit 34 may transmit the diagnostic information to the terminal 20 via the oral cancer diagnostic device 10. In this case, the output unit 17 of the oral cancer diagnostic device 10 transfers the diagnostic information from the transmitting unit 34 to the terminal 20 and causes the terminal 20 to output the diagnostic information.

再び図2を参照して、口腔癌診断装置10の各機能部について説明する。取得部11は、ユーザの口腔内の部分を撮像した部分画像を複数取得する。具体的には、取得部11は、端末20の画像センサ25により撮像された部分画像を取得する。   With reference to FIG. 2 again, each functional unit of the oral cancer diagnostic device 10 will be described. The acquisition unit 11 acquires a plurality of partial images obtained by imaging a portion in the oral cavity of the user. Specifically, the obtaining unit 11 obtains a partial image captured by the image sensor 25 of the terminal 20.

図6は、本実施形態の口腔癌診断システム1において診断の対象となる口腔内の各部分を模式的に示す図である。本実施形態において、診断の対象となる部分は、いわゆる口腔内規格写真に表される部分並びに図6に示される舌d1、頬粘膜d2、硬口蓋d3、臼後三角d4及び歯肉d5である。頬粘膜d2は、頬の内側を覆っている組織である。硬口蓋d3は、口腔の天井部分である。臼後三角d4は、親知らずの後方の領域である。取得部11は、これらの診断対象となる部分が表された部分画像を取得する。   FIG. 6 is a diagram schematically illustrating each part in the oral cavity to be diagnosed in the oral cancer diagnostic system 1 of the present embodiment. In the present embodiment, the parts to be diagnosed are the parts shown in the so-called intraoral standard photograph and the tongue d1, the buccal mucosa d2, the hard palate d3, the posterior triangular d4 and the gingiva d5 shown in FIG. The buccal mucosa d2 is a tissue that covers the inside of the cheek. The hard palate d3 is a ceiling portion of the oral cavity. The mortar triangle d4 is an area behind the wisdom tooth. The obtaining unit 11 obtains partial images showing these portions to be diagnosed.

図7は、部分画像及び複数の部分画像に基づいて合成されたパノラマ画像の例を示す図である。図7に示すように、取得部11は、例えば、歯列の正面右側の部分画像A01、正面中央の部分画像A02及び正面左側の部分画像A03を取得する。これらの部分画像は、それぞれが静止画として取得されてもよいし、動画像として取得された各フレームから抽出されたものであってもよい。   FIG. 7 is a diagram illustrating an example of a partial image and a panoramic image synthesized based on a plurality of partial images. As illustrated in FIG. 7, the acquisition unit 11 acquires, for example, a partial image A01 on the front right side of the tooth row, a partial image A02 on the front center, and a partial image A03 on the front left side. Each of these partial images may be obtained as a still image, or may be extracted from each frame obtained as a moving image.

後述するように、本実施形態では、各部分画像A01〜A03における口腔内の同じ部分が表された重畳領域に基づいて、複数の部分画像A01〜A03を合成することにより、パノラマ画像Bが生成される。図7に示すパノラマ画像Bは、口腔内写真における正面画像を構成する。部分画像の重畳領域に基づくパノラマ画像の合成には、種々の周知技術を適用できる。   As will be described later, in the present embodiment, a panoramic image B is generated by synthesizing a plurality of partial images A01 to A03 based on a superimposed region in which the same portion in the oral cavity in each of the partial images A01 to A03 is represented. Is done. The panoramic image B shown in FIG. 7 constitutes a front image in an intraoral photograph. Various well-known techniques can be applied to the synthesis of the panoramic image based on the superimposed region of the partial images.

前処理部12は、所定の条件に該当する部分画像を、口腔内写真を構成するための部分画像から除外する。具体的には、取得部11が、撮像時における角速度センサ28及び加速度センサ27のうちの少なくとも一方の検出値が関連付けられている部分画像を取得した場合に、前処理部12は、所定値以上の検出値が関連付けられた部分画像を、口腔内写真の生成に用いないこととする。   The preprocessing unit 12 excludes a partial image satisfying a predetermined condition from partial images for forming an intraoral photograph. Specifically, when the acquiring unit 11 acquires a partial image in which at least one of the detected values of the angular velocity sensor 28 and the acceleration sensor 27 at the time of imaging is associated, the preprocessing unit 12 The partial image associated with the detection value of is not used for generating the intraoral photograph.

部分画像の取得時において大きい角速度または加速度が生じていた場合には、その部分画像にぶれが生じている可能性が高い。前処理部12は、所定値以上の検出値が関連付けられた部分画像を、口腔内写真を構成するための部分画像から除外することにより、ぶれが生じている部分画像が口腔内写真の生成に用いられないようにすることができる。   If a large angular velocity or acceleration has occurred at the time of acquiring the partial image, it is highly likely that the partial image has blurred. The preprocessing unit 12 excludes the partial image associated with the detection value equal to or greater than the predetermined value from the partial images for forming the intraoral photograph, so that the blurred partial image is used for generating the intraoral photograph. Can be prevented from being used.

除去部13は、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する。口腔内を撮像した画像では、口腔内に存在する唾液に起因して反射が生じる場合がある。口腔癌の診断を高精度に実施するためには、口腔内写真において口腔内の状態が正しく表されている必要があるところ、反射が発生した箇所の画像は、色等が実際の状態と異なって表される。本実施形態では、反射部分を含まない部分画像が取得されることにより、高精度の診断を実現させる。   The removing unit 13 acquires a partial image that does not include a reflective portion by removing a reflective portion that is a region where reflection occurs in the partial image or extracting a partial image that does not include the reflective portion. In an image obtained by imaging the inside of the oral cavity, reflection may occur due to saliva present in the oral cavity. In order to perform oral cancer diagnosis with high accuracy, it is necessary that the state of the oral cavity is correctly represented in the intraoral photograph, but the color of the image where the reflection occurs differs from the actual state. Is represented by In the present embodiment, a high-precision diagnosis is realized by acquiring a partial image that does not include a reflection portion.

具体的には、除去部13は、取得部11により取得された部分画像から反射部分を含まない部分画像を抽出できる。図8は、除去部13による、反射部分を含まない部分画像の抽出処理の例を示す図である。図8に示されるように、部分画像のセットas0は、取得部11により取得された複数の部分画像であって、部分画像a1,a2,a3・・・を含む。   Specifically, the removing unit 13 can extract a partial image that does not include a reflection portion from the partial image acquired by the acquiring unit 11. FIG. 8 is a diagram illustrating an example of a process of extracting a partial image that does not include a reflected portion by the removing unit 13. As shown in FIG. 8, the partial image set as0 is a plurality of partial images acquired by the acquiring unit 11, and includes partial images a1, a2, a3,.

例えば、除去部13は、周知の画像解析技術により、反射部分の特有の画像的特徴(例えば、所定値以上の輝度を有すること等)を有する部分画像を抽出する。具体的には、まず、除去部13は、部分画像a1,a2,a3・・・に対してグレースケール変換を実施する。続いて、除去部13は、各部分画像a1,a2,a3・・・の画素毎の輝度値を取得する。そして、除去部13は、所定の閾値以上の輝度値の画素を有する部分画像を、反射部分を含む部分画像として抽出する。   For example, the removing unit 13 extracts a partial image having a characteristic image characteristic (for example, having a luminance equal to or more than a predetermined value) of the reflection part by a known image analysis technique. Specifically, first, the removing unit 13 performs grayscale conversion on the partial images a1, a2, a3,. Subsequently, the removing unit 13 acquires a luminance value for each pixel of each of the partial images a1, a2, a3,. Then, the removing unit 13 extracts a partial image having a pixel having a luminance value equal to or higher than a predetermined threshold value as a partial image including a reflection portion.

図8に示す例では、除去部13は、セットas0に含まれる部分画像のうち、所定の閾値以上の輝度値を有する部分rf0を含む部分画像a2を、反射部分を含む部分画像として抽出する。そして、除去部13は、部分画像a2以外の部分画像a1、a3・・・を含む部分画像のセットas1を、口腔内写真の生成に用いるための部分画像として抽出する。また、除去部13は、その他の種々の周知技術により、反射部分を含まない部分画像を抽出できる。   In the example illustrated in FIG. 8, the removing unit 13 extracts a partial image a2 including a portion rf0 having a luminance value equal to or greater than a predetermined threshold value from among the partial images included in the set as0, as a partial image including a reflection portion. Then, the removing unit 13 extracts a set as1 of partial images including partial images a1, a3,... Other than the partial image a2 as a partial image to be used for generating an intraoral photograph. In addition, the removing unit 13 can extract a partial image that does not include a reflective portion by using various other known techniques.

また、除去部13は、部分画像において反射が生じている領域である反射部分を除去することにより、反射部分を含まない部分画像を取得できる。さらに具体的には、除去部13は、部分画像に表されている部分の射影方向を所定の方向に合わせるように複数の部分画像を変換し、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして複数の部分画像を加算平均合成することにより、反射部分が除去された部分画像を取得する。   In addition, the removing unit 13 can obtain a partial image that does not include a reflective portion by removing a reflective portion that is a region where reflection occurs in the partial image. More specifically, the removing unit 13 converts the plurality of partial images so that the projection direction of the portion represented in the partial image is adjusted to a predetermined direction, and pixels representing the same portion in the oral cavity are associated with each other. Then, by averaging and synthesizing a plurality of partial images so as to obtain a partial image from which the reflection portion has been removed.

図9及び図10を参照して、除去部13による反射部分の除去の処理を詳細に説明する。図9は、反射部分を含む複数の部分画像及び反射部分が除去された部分画像の例を模式的に示す図である。図10は、除去部13による反射部分の除去の処理内容を示すフローチャートである。   With reference to FIG. 9 and FIG. 10, a process of removing the reflection portion by the removing unit 13 will be described in detail. FIG. 9 is a diagram schematically illustrating an example of a plurality of partial images including a reflective portion and a partial image from which the reflective portion has been removed. FIG. 10 is a flowchart showing the processing of removing the reflection portion by the removing unit 13.

ステップS21において、除去部13は、一の部分画像を取得する。図9に示す例においては、除去部13は、部分画像A11を取得する。部分画像A11には、反射部分rf1が含まれている。   In step S21, the removing unit 13 acquires one partial image. In the example illustrated in FIG. 9, the removing unit 13 acquires the partial image A11. The partial image A11 includes a reflection part rf1.

続いて、ステップS22において、除去部13は、部分画像に表されている部分の射影方向を所定の方向に合わせるように複数の部分画像を変換する。具体的には、除去部13は、例えば、口腔内写真を構成する各画像の規格に合うように、部分画像に対してホモグラフィ変換を実施する。ホモグラフィ変換は、周知の画像の変換技術であって、ある平面に三次元の対象物を射影して表した二次元画像を、射影変換を用いて、別の平面に射影された二次元画像を生成する技術である。除去部13は、部分画像A11に対して、口腔内写真における正面画像の規格に合うようにホモグラフィ変換を実施して、変換された部分画像A21を得る。   Subsequently, in step S22, the removing unit 13 converts the plurality of partial images so that the projection direction of the portion represented in the partial image is adjusted to a predetermined direction. Specifically, the removing unit 13 performs, for example, homography conversion on the partial image so as to conform to the standard of each image constituting the intraoral photograph. Homography transformation is a well-known image transformation technique, in which a two-dimensional image projected by projecting a three-dimensional object onto a certain plane is projected onto another plane using a projective transformation. Is a technology that generates The removing unit 13 performs homography conversion on the partial image A11 so as to conform to the standard of the front image in the intraoral photograph, and obtains a converted partial image A21.

ステップS23において、除去部13は、全ての部分画像の処理が完了したか否かを判定する。全ての部分画像の処理が完了したと判定された場合には、処理はステップS24に進む。一方、全ての部分画像の処理が完了したと判定されなかった場合には、処理はステップS21に進む。   In step S23, the removing unit 13 determines whether or not processing of all partial images has been completed. If it is determined that the processing of all the partial images has been completed, the processing proceeds to step S24. On the other hand, if it is not determined that the processing of all the partial images has been completed, the process proceeds to step S21.

図9を参照して説明する例においては、部分画像A12,A13の処理が完了していないので、これらの部分画像A12,A13に対するステップS31,S32の処理が繰り返される。即ち、除去部13は、反射部分rf2を含む部分画像A12に対してホモグラフィ変換を実施して、部分画像A22を得る。さらに、除去部13は、反射部分rf3を含む部分画像A13に対してホモグラフィ変換を実施して、部分画像A23を得る。   In the example described with reference to FIG. 9, since the processing of the partial images A12 and A13 has not been completed, the processing of steps S31 and S32 for these partial images A12 and A13 is repeated. That is, the removing unit 13 performs the homography conversion on the partial image A12 including the reflection part rf2 to obtain the partial image A22. Further, the removing unit 13 performs a homography conversion on the partial image A13 including the reflection portion rf3 to obtain a partial image A23.

ステップS24において、除去部13は、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして複数の部分画像を加算平均合成する。図9を参照して説明する例では、除去部13は、変換された部分画像A21〜A23に対して、口腔内における同じ部分を表す画素が対応付けられるように位置合わせをして、加算平均合成する。なお、加算平均合成は、画像処理の分野において周知の技術である。   In step S24, the removing unit 13 performs positioning such that pixels representing the same portion in the oral cavity are associated with each other, and performs averaging synthesis of the plurality of partial images. In the example described with reference to FIG. 9, the removing unit 13 aligns the converted partial images A21 to A23 so that pixels representing the same part in the oral cavity are associated with each other, and performs averaging. Combine. The averaging synthesis is a well-known technique in the field of image processing.

部分画像A11〜A13のそれぞれは、口腔内における同一の部分を互いに異なる方向から撮像した画像である。このため、部分画像A22及び部分画像A23では、部分画像A21における反射部分rf1の位置に、反射は生じていない。また、部分画像A21及び部分画像A23では、部分画像A22における反射部分rf2の位置に、反射は生じていない。また、部分画像A21及び部分画像A22では、部分画像A23における反射部分rf3の位置に、反射は生じていない。   Each of the partial images A11 to A13 is an image obtained by capturing the same portion in the oral cavity from different directions. Therefore, in the partial image A22 and the partial image A23, no reflection occurs at the position of the reflection portion rf1 in the partial image A21. In the partial image A21 and the partial image A23, no reflection occurs at the position of the reflection portion rf2 in the partial image A22. In the partial image A21 and the partial image A22, no reflection occurs at the position of the reflection portion rf3 in the partial image A23.

一の部分画像のある部分において反射が生じていても、当該部分に反射が生じていない複数の他の部分画像と当該一の部分画像とを加算平均合成することにより、反射が除去された合成画像を得ることができる。図9を参照して説明する例においては、除去部13は、部分画像A21〜A23を位置合わせして加算平均合成することにより、反射部分が除去された部分画像C1を取得できる。   Even if reflection occurs in a certain part of one partial image, the reflection is removed by adding and averaging the plurality of other partial images in which no reflection occurs in the part and the one partial image. Images can be obtained. In the example described with reference to FIG. 9, the removing unit 13 can acquire the partial image C1 from which the reflection part has been removed by aligning the partial images A21 to A23 and performing averaging synthesis.

再び図2を参照して、補正部14は、部分画像の各領域に関連付けられた深度に基づいて、各領域の輝度を補正する。口腔内の撮像においては、深度が深い領域ほど光量が少ないため、深度が深い領域ほど、輝度値が小さくなりやすいという傾向がある。補正部14は、この光量の差異を是正すべく輝度値を補正する。   Referring to FIG. 2 again, correction unit 14 corrects the luminance of each region based on the depth associated with each region of the partial image. In imaging of the oral cavity, since the light amount is smaller in a deeper region, the luminance value tends to be smaller in a deeper region. The correction unit 14 corrects the luminance value to correct the difference in light amount.

具体的には、補正部14は、各領域の深度を取得し、予め設定された深度と輝度補正値との対応関係に基づいて、取得した深度に関連付けられた輝度補正値を当該領域の輝度値に加算することにより、各領域の輝度を補正する。以下に、この補正の例を説明する。   Specifically, the correction unit 14 obtains the depth of each area, and based on the correspondence between the preset depth and the brightness correction value, sets the brightness correction value associated with the obtained depth to the brightness of the area. By adding to the value, the luminance of each area is corrected. Hereinafter, an example of this correction will be described.

例えば、ある領域の深度をD、補正前の画素のRGB値を(r,g,b)、画素補正値を(r,g,b)、(r,g,b)として、以下のような、深度Dと画素補正値との対応関係が予め設定されているとする。なお、この例では、各領域を構成する画素のRGB値の各色の値を減少させることにより、輝度値を増加させる補正を実現させる。即ち、画素補正値は、輝度補正値に相当する。 For example, the depth of a certain area is D, the RGB values of pixels before correction are (r 0 , g 0 , b 0 ), and the pixel correction values are (r 1 , g 1 , b 1 ), (r 2 , g 2 , It is assumed that the following correspondence between the depth D and the pixel correction value is set in advance as b 2 ). In this example, correction for increasing the luminance value is realized by decreasing the value of each color of the RGB values of the pixels constituting each area. That is, the pixel correction value corresponds to a luminance correction value.

深度Dと画素補正値との対応関係:
深度Dがn未満の場合 画素のRGB値を補正しない。
深度Dがn以上m未満の場合 画素のRGB値を補正(r−r,g−g,b−b
深度Dがm以上の場合 画素のRGB値を補正(r−r,g−g,b−b
Correspondence relationship between depth D and pixel correction value:
When the depth D is less than n, the RGB value of the pixel is not corrected.
Depth D is corrected RGB value when a pixel less than n m (r 0 -r 1, g 0 -g 1, b 0 -b 1)
Depth D is corrected RGB value when a pixel over m (r 0 -r 2, g 0 -g 2, b 0 -b 2)

補正部14は、上記対応関係を参照して、各領域の深度に応じて、各領域の画素のRGB値を補正する。なお、上記対応関係において、n、mの値及び画素補正値の各値は、設計的に設定してもよい。このように、各領域の画素の輝度が深度に応じて適切に補正される。これにより、口腔内の状態が一様に認識容易な口腔内写真を得ることが可能となる。   The correction unit 14 corrects the RGB values of the pixels in each area according to the depth of each area with reference to the correspondence. In the above correspondence, the values of n and m and the pixel correction value may be set in design. In this way, the brightness of the pixels in each area is appropriately corrected according to the depth. As a result, it is possible to obtain an intra-oral photograph in which the state of the intra-oral can be easily recognized uniformly.

また、補正部14は、複数の部分画像の各領域のうちの第1の領域が、第1の領域とは異なる第2の領域の深度より深い深度を有する場合に、第1の領域の輝度を、補正前より大きい値に補正することとしてもよい。   Further, when the first region of the regions of the plurality of partial images has a depth greater than the depth of the second region different from the first region, the correction unit 14 may adjust the luminance of the first region. May be corrected to a value larger than that before correction.

前述のとおり、口腔内の部分を表した部分画像の深度が深い領域の光量は少なくなる傾向があり、その領域の画像が暗いものになりやすい。そこで、本実施形態の口腔癌診断装置10では、補正部14は、他の領域よりも深度が深い領域の輝度値を、より大きい値に補正する。   As described above, the amount of light in a region where the depth of the partial image representing the portion in the oral cavity is deep tends to be small, and the image in that region tends to be dark. Therefore, in the oral cancer diagnosis apparatus 10 of the present embodiment, the correction unit 14 corrects the luminance value of a region having a depth greater than that of another region to a larger value.

生成部15は、除去部13により取得された部分画像を含む複数の部分画像を合成して口腔内写真を生成する。口腔内写真の生成に用いられる部分画像は、前処理部12及び補正部14による前処理及び補正処理を経たものであってもよい。   The generation unit 15 generates an intraoral photograph by combining a plurality of partial images including the partial images acquired by the removal unit 13. The partial image used for generating the intraoral photograph may have been subjected to preprocessing and correction processing by the preprocessing unit 12 and the correction unit 14.

具体的には、生成部15は、図7に示したように、口腔内の同じ部分が表された重畳領域に基づいて部分画像を合成してパノラマ画像を生成することにより、口腔内写真の規格に従った複数の画像を生成する。部分画像の合成による口腔内写真の生成には、いわゆるパノラマ画像の生成に関する周知の手法を適用することができる。   Specifically, as illustrated in FIG. 7, the generation unit 15 generates a panoramic image by synthesizing a partial image based on a superimposed region in which the same portion in the oral cavity is represented, thereby generating a panoramic image. Generate multiple images according to the standard. A well-known technique for generating a so-called panoramic image can be applied to generation of an intraoral photograph by combining partial images.

具体的には、生成部15は、取得した複数の部分画像の向き及び配列を調整する。続いて、生成部15は、口腔内の同じ部分が表された重畳領域に基づいて、互いに隣接する部分画像を重畳合成することにより、一のパノラマ画像を生成する。一のパノラマ画像は、口腔内写真を構成する複数の画像のうちの一つを構成する。   Specifically, the generation unit 15 adjusts the orientation and the arrangement of the acquired partial images. Subsequently, the generating unit 15 generates one panoramic image by superimposing and synthesizing adjacent partial images based on the superimposed region in which the same part in the oral cavity is represented. One panoramic image constitutes one of a plurality of images constituting an intraoral photograph.

歯が表された部分画像に基づいて口腔内写真を生成する場合には、生成部15は、歯が表された重畳領域に基づいて各部分画像を重畳して口腔内写真を生成する。また、舌、頬粘膜、硬口蓋及び臼後三角が表された口腔内写真を生成する場合には、生成部15は、歯、唇、口蓋垂等が表された領域を重畳領域として各部分画像を重畳して口腔内写真を生成できる。   When generating the intraoral photograph based on the partial image in which the teeth are represented, the generating unit 15 generates the intraoral photograph by superimposing each partial image based on the superimposed region in which the teeth are represented. When generating an intraoral photograph in which the tongue, the buccal mucosa, the hard palate, and the posterior triangle are represented, the generating unit 15 sets each of the partial images as a superimposed region with the region in which the teeth, lips, uvula, etc. are represented. Can be superimposed to generate an intraoral photograph.

図11は、生成部15により生成される口腔内写真の例を示す図である。口腔内写真MPは、口腔内の所定の領域を表した複数の画像からなる。図11に示す例は、いわゆる5枚撮影法による口腔内規格写真である。口腔内規格写真の撮影法には、構成する画像の数及び各画像の撮像部分に応じて、5枚撮影法、9枚撮影法、12枚撮影法及び14枚撮影法等がある。図11に示すように、生成部15は、例えば、5枚撮影法により撮影された口腔内写真MPを生成できる。口腔内写真MPは、口蓋側画像mp1、右側画像mp2、正面画像mp3、左側画像mp4及び舌側画像mp5を含む。   FIG. 11 is a diagram illustrating an example of an intraoral photograph generated by the generation unit 15. The intraoral photograph MP is composed of a plurality of images representing a predetermined region in the oral cavity. The example shown in FIG. 11 is a standard intraoral photograph by the so-called five-image photographing method. The method of photographing the intraoral standard photograph includes a five-photographing method, a nine-photographing method, a twelve-photographing method, a fourteen-photographing method, and the like, depending on the number of constituent images and the imaging portion of each image. As illustrated in FIG. 11, the generating unit 15 can generate an intraoral photograph MP photographed by, for example, a five-image photographing method. The intraoral photograph MP includes a palatal image mp1, a right image mp2, a front image mp3, a left image mp4, and a lingual image mp5.

また、生成部15は、口腔内写真から、歯が表された領域である歯領域を所定の画像処理技術により除去する。本実施形態の口腔癌診断システムは、口腔癌の診断を実施するシステムである。従って、歯領域は、診断対象領域ではない。生成部15は、歯領域を除去することにより、診断対象領域が表された口腔内写真を生成できる。   In addition, the generation unit 15 removes the tooth region, which is the region where the teeth are represented, from the intraoral photograph by a predetermined image processing technique. The oral cancer diagnosis system of the present embodiment is a system for diagnosing oral cancer. Therefore, the tooth area is not a diagnosis target area. The generation unit 15 can generate an intra-oral photograph showing the diagnosis target region by removing the tooth region.

具体的には、生成部15は、部分画像を重畳して生成した口腔内写真を取得する。続いて、生成部15は、口腔内写真に対して2値化処理を実施して、2値化画像を得る。2値化画像において、歯領域は、例えば、白色により表され、歯領域以外の領域は、黒色により表されることとなる。そして、生成部15は、2値化画像に対してブロブ解析を実施して、歯領域と歯領域以外の領域とを認識して、歯領域を除去する。なお、口腔内写真からの歯領域の認識及び除去のための手法には、これらの手法には限定されず、周知の種々の画像処理技術を適用できる。   Specifically, the generation unit 15 acquires an intraoral photograph generated by superimposing the partial images. Subsequently, the generation unit 15 performs a binarization process on the intraoral photograph to obtain a binarized image. In the binarized image, the tooth region is represented by, for example, white, and the region other than the tooth region is represented by black. Then, the generation unit 15 performs blob analysis on the binarized image, recognizes the tooth region and the region other than the tooth region, and removes the tooth region. The method for recognizing and removing the tooth region from the intraoral photograph is not limited to these methods, and various known image processing techniques can be applied.

図12は、歯領域が除去された口腔内写真MP1を示す図である。口腔内写真MP1は、図11に示される口腔内写真MPから歯領域が除去されたものである。図12に示されるように、口腔内写真MP1は、歯領域が除去された口蓋側画像mp11、右側画像mp12、正面画像mp13、左側画像mp14及び舌側画像mp15を含む。   FIG. 12 is a diagram showing the intraoral photograph MP1 from which the tooth region has been removed. The intraoral photograph MP1 is obtained by removing the tooth region from the intraoral photograph MP shown in FIG. As shown in FIG. 12, the intraoral photograph MP1 includes a palatal image mp11, a right image mp12, a front image mp13, a left image mp14, and a lingual image mp15 from which the tooth region has been removed.

口蓋側画像mp11は、口蓋側画像mp1から歯領域t11が除去された画像であって、判定対象領域r11からなる。判定対象領域r11は、例えば、歯肉が表された領域を含む。右側画像mp12、正面画像mp13、左側画像mp14及び舌側画像mp15のそれぞれは、右側画像mp2、正面画像mp3、左側画像mp4及び舌側画像mp5のそれぞれから、歯領域t12,t13,t14,t15が除去された画像であって、判定対象領域r12,r13,r14,r15のそれぞれからなる。   The palatal-side image mp11 is an image obtained by removing the tooth region t11 from the palatal-side image mp1, and includes a determination target region r11. The determination target region r11 includes, for example, a region where gingiva is represented. The right image mp12, the front image mp13, the left image mp14, and the lingual image mp15 have tooth regions t12, t13, t14, and t15 from the right image mp2, the front image mp3, the left image mp4, and the lingual image mp5, respectively. This is an image that has been removed, and includes each of the determination target regions r12, r13, r14, and r15.

判定部16は、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する。具体的には、判定部16は、歯領域が除去された口腔内写真に基づいて判定を実施する。即ち、判定部16は、口腔内写真に表された領域のうちの歯領域以外の領域を判定対象領域として口腔癌の有無及び状態を判定する。口腔癌が発生している箇所では、白斑等の色の変化及び凸状になる等の形状の変化等が発生する場合があるので、判定部16は、これらの変化を示す画像の特徴を口腔内写真から検出する。   The determination unit 16 determines the presence / absence and state of a disease related to oral cancer based on the characteristics of the image of the predetermined determination target region represented in the intraoral photograph. Specifically, the determination unit 16 performs the determination based on the intraoral photograph from which the tooth region has been removed. That is, the determination unit 16 determines the presence or absence and the state of the oral cancer as a determination target region in the region shown in the intra-oral photograph other than the tooth region. At a place where oral cancer has occurred, color changes such as vitiligo and shape changes such as convexity may occur. Therefore, the determination unit 16 determines the characteristics of an image indicating these changes in the oral cavity. Detected from inside photos.

口腔癌に関する疾患の判定について、図13及び図14を参照して説明する。図13は、判定部16による口腔癌の有無及び状態の判定処理のフローチャートを示す図である。   The determination of a disease related to oral cancer will be described with reference to FIGS. FIG. 13 is a diagram illustrating a flowchart of the determination processing of the presence / absence and state of oral cancer by the determination unit 16.

ステップS31において、判定部16は、生成部15により生成された口腔内写真を取得する。前述のとおり、判定部16は、歯領域が除去された口腔内写真を取得できる。   In step S31, the determination unit 16 acquires the intraoral photograph generated by the generation unit 15. As described above, the determination unit 16 can acquire the intraoral photograph from which the tooth region has been removed.

ステップS32において、判定部16は、ステップS31において取得された口腔内写真を入力データとして、口腔癌判定モデルに入力する。口腔癌判定モデルは、口腔内写真の画像データを入力値として、口腔癌の有無及び進行レベルを判定するためのモデルであって、事前に機械学習により構築される。   In step S32, the determination unit 16 inputs the intraoral photograph acquired in step S31 into the oral cancer determination model as input data. The oral cancer determination model is a model for determining the presence / absence and progress level of oral cancer using image data of an intraoral photograph as an input value, and is constructed in advance by machine learning.

口腔癌判定モデルは、例えば、癌の箇所をマスクした口腔内写真を学習データとして、いわゆるサポートベクターマシン(Support Vector Machine:SVM)といった分類器として構築される。口腔癌判定モデルから出力される判定結果は、例えば、健全、進行レベルT1,T2,T3,T4(低:T1→高:T4)といった口腔癌の有無及び進行の程度の段階の分類の情報及び口腔癌の箇所を示す情報として出力される。   The oral cancer determination model is constructed as a classifier such as a so-called Support Vector Machine (SVM) using, as learning data, an intraoral photograph in which a cancer site is masked. The determination results output from the oral cancer determination model include, for example, information on the presence / absence of oral cancer and the classification of stages of the degree of progression, such as soundness, progress levels T1, T2, T3, and T4 (low: T1 → high: T4). It is output as information indicating the location of oral cancer.

また、口腔癌判定モデルは、ニューラルネットワークにより構築されてもよい。ニューラルネットワークを含む口腔癌判定モデルは、学習用の口腔内写真を入力して得られる口腔癌の進行レベルの判定値に基づいて誤差計算(誤差逆伝搬)を含む機械学習を行うことにより生成される。誤差計算には、種々の損失関数を適用できる。   In addition, the oral cancer determination model may be constructed by a neural network. An oral cancer determination model including a neural network is generated by performing machine learning including error calculation (error back propagation) based on a determination value of the progress level of oral cancer obtained by inputting an intraoral photograph for learning. You. Various loss functions can be applied to the error calculation.

また、判定部16は、モデルによらず、口腔内写真の画素値に関して部位毎に設定された閾値に基づいて、口腔癌が発生している領域及び進行レベルを判定してもよい。   In addition, the determination unit 16 may determine the region where the oral cancer has occurred and the progress level based on the threshold value set for each region with respect to the pixel value of the intraoral photograph, regardless of the model.

ステップS33において、判定部16は、ステップS32において出力された、モデルによる分類結果、即ち、口腔癌の有無及び進行レベルを示す情報を出力する。図14は、口腔癌の進行レベルの判定の結果の情報の例を示す図であって、口腔癌の可能性のある箇所がマークされた口腔内写真を模式的に示す図である。図14に示すように、判定部16により出力された口腔内写真mp20は、口腔癌の箇所のマークDを含む。口腔癌の箇所のマークDに関連付けられて、当該箇所の進行レベルの情報が例えば、「マークされた箇所は、口腔癌の進行レベルT0の疑いがあります」というようなテキスト等により出力されてもよい。   In step S33, the determination unit 16 outputs the classification result by the model, that is, the information indicating the presence / absence of oral cancer and the progress level output in step S32. FIG. 14 is a diagram illustrating an example of information on the result of the determination of the progress level of oral cancer, and is a diagram schematically illustrating an intraoral photograph in which a location where there is a possibility of oral cancer is marked. As shown in FIG. 14, the intraoral photograph mp20 output by the determination unit 16 includes a mark D of a location of oral cancer. In connection with the mark D of the location of the oral cancer, the information of the progress level of the location may be output, for example, as a text such as "The marked location is suspected of the progress level T0 of the oral cancer". Good.

再び図2を参照して、出力部17は、判定部16により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する。具体的には、出力部17は、判定情報として出力された、口腔癌の箇所がマークされた口腔内写真及びテキストを医師の端末30において出力させる。さらに具体的には、出力部17は、医師の端末30のディスプレイ35に判定情報を表示させる。また、出力部17は、判定情報をユーザの端末20に出力させてもよい。また、出力部17は、判定情報を所定の記憶手段に記憶させてもよい。   Referring to FIG. 2 again, the output unit 17 outputs the determination information on the presence / absence and state of the disease related to the oral cancer, determined by the determination unit 16. Specifically, the output unit 17 causes the doctor's terminal 30 to output the intraoral photograph and the text in which the position of the oral cancer is marked, which is output as the determination information. More specifically, the output unit 17 causes the display 35 of the doctor's terminal 30 to display the determination information. The output unit 17 may output the determination information to the user terminal 20. The output unit 17 may store the determination information in a predetermined storage unit.

次に、図15を参照して、口腔癌診断システム1及び口腔癌診断装置10における口腔癌診断方法について説明する。図15は、本実施形態の口腔癌診断方法の処理内容の例を示すフローチャートである。   Next, an oral cancer diagnosis method in the oral cancer diagnostic system 1 and the oral cancer diagnostic device 10 will be described with reference to FIG. FIG. 15 is a flowchart illustrating an example of processing contents of the oral cancer diagnosis method of the present embodiment.

ステップS1において、取得部11は、ユーザの口腔内の部分を撮像した部分画像を複数取得する。次に、ステップS2において、前処理部12は、部分画像における所定の検出値に基づいて、ぶれを有する可能性のある部分画像を、口腔内写真を生成する部分画像から除外する。ここで判定に用いられる検出値は、例えば、部分画像の撮像時に取得された、撮像する装置において発生した加速度及び角速度等である。   In step S1, the acquisition unit 11 acquires a plurality of partial images obtained by imaging a portion in the oral cavity of the user. Next, in step S2, the preprocessing unit 12 excludes a partial image that may have a blur from a partial image for generating an intraoral photograph based on a predetermined detection value in the partial image. Here, the detection value used for the determination is, for example, an acceleration and an angular velocity generated in the imaging device, which are acquired at the time of capturing the partial image.

ステップS3において、除去部13は、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する。反射部分の除去処理は、例えば、図10を参照して説明したとおりである。   In step S3, the removing unit 13 acquires a partial image that does not include a reflective portion by removing a reflective portion that is a region where the partial image reflects, or extracting a partial image that does not include the reflective portion. The process of removing the reflection portion is, for example, as described with reference to FIG.

ステップS4において、補正部14は、部分画像の各領域に関連付けられた深度に基づいて、各領域の輝度を補正する。   In step S4, the correction unit 14 corrects the luminance of each area based on the depth associated with each area of the partial image.

ステップS5において、生成部15は、複数の部分画像を合成して口腔内写真を生成する。続いて、ステップS6において、生成部15は、ステップS5において生成された口腔内写真から、所定の画像処理技術により歯領域を除去する。   In step S5, the generation unit 15 generates an intraoral photograph by combining a plurality of partial images. Subsequently, in step S6, the generation unit 15 removes the tooth region from the intraoral photograph generated in step S5 by a predetermined image processing technique.

ステップS7において、判定部16は、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する。具体的には、判定部16は、ステップS6において歯領域が除去された口腔内写真に基づいて判定を実施する。判定処理は、例えば、図13を参照して説明したとおりである。   In step S7, the determination unit 16 determines the presence / absence and state of a disease related to oral cancer based on the characteristics of the image of the predetermined determination target region represented in the intraoral photograph. Specifically, the determination unit 16 performs the determination based on the intraoral photograph from which the tooth region has been removed in step S6. The determination process is, for example, as described with reference to FIG.

ステップS8において、判定部16は、判定処理の判定結果において、口腔癌に関する疾患の有無を判定する。口腔癌に関する疾患があると判定された場合には、処理はステップS9に進む。一方、口腔癌に関する疾患があると判定されなかった場合には、処理はステップS10に進む。   In step S8, the determination unit 16 determines whether there is a disease related to oral cancer in the determination result of the determination processing. If it is determined that there is a disease related to oral cancer, the process proceeds to step S9. On the other hand, if it is not determined that there is a disease related to oral cancer, the process proceeds to step S10.

ステップS9において、判定部16は、口腔癌に関する疾患の箇所にマークされた口腔内写真を判定情報として生成する。判定部16は、当該箇所の進行レベルを示すテキスト情報を併せて生成及び出力してもよい。   In step S9, the determination unit 16 generates, as the determination information, an intraoral photograph marked at the location of the disease related to oral cancer. The determination unit 16 may also generate and output text information indicating the progress level of the location.

ステップS10において、出力部17は、判定部16により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する。出力部17は、判定情報を、医師の端末30において出力させてもよいし、ユーザの端末20において出力させてもよい。   In step S10, the output unit 17 outputs the determination information regarding the presence / absence and state of the disease related to oral cancer, determined by the determination unit 16. The output unit 17 may output the determination information at the doctor's terminal 30 or at the user's terminal 20.

次に、図16を参照して、口腔癌診断システム1の医師の端末30における処理を説明する。図16は、医師の端末30における処理内容の例を示すフローチャートである。   Next, with reference to FIG. 16, the processing in the terminal 30 of the doctor of the oral cancer diagnosis system 1 will be described. FIG. 16 is a flowchart showing an example of the processing contents in the doctor's terminal 30.

ステップS41において、受信部31は、口腔内における口腔癌に関する疾患に関する判定の結果を示す判定情報を口腔癌診断装置10から受信する。判定情報は、口腔癌の箇所がマークされた口腔内写真及び発見された疾患に関するコメント等を含んでもよい。   In step S <b> 41, the receiving unit 31 receives, from the oral cancer diagnostic device 10, determination information indicating a result of determination regarding a disease related to oral cancer in the oral cavity. The determination information may include an intraoral photograph in which the location of the oral cancer is marked, a comment on the found disease, and the like.

ステップS42において、提示部32は、ステップS41において受信部31により受診された判定情報を医師に対して提示する。提示部32は、例えば、判定情報をディスプレイ29に表示させる。   In step S42, the presentation unit 32 presents the determination information received by the reception unit 31 in step S41 to the doctor. The presentation unit 32 causes the display 29 to display the determination information, for example.

ステップS43において、受付部33は、判定情報の提示に応じて医師により入力された診断情報を受け付ける。診断情報は、ユーザの受診の要否に関する受診要否情報を含んでもよい。   In step S43, the receiving unit 33 receives the diagnostic information input by the doctor in response to the presentation of the determination information. The diagnosis information may include consultation necessity information regarding necessity of consultation by the user.

ステップS44において、送信部34は、ステップS43において受け付けられた診断情報をユーザの端末20に送信する。また、送信部34は、診断情報を、口腔癌診断装置10を介して端末20に送信してもよい。   In step S44, the transmitting unit 34 transmits the diagnostic information received in step S43 to the user terminal 20. The transmitting unit 34 may transmit the diagnostic information to the terminal 20 via the oral cancer diagnostic device 10.

次に、図17を参照して、口腔癌診断システム1のユーザの端末20における処理を説明する。図17は、ユーザの端末20における処理内容の例を示すフローチャートである。   Next, the processing in the terminal 20 of the user of the oral cancer diagnosis system 1 will be described with reference to FIG. FIG. 17 is a flowchart illustrating an example of processing contents in the user terminal 20.

ステップS51において、画像センサ25は複数の部分画像を撮像する。そして、画像取得部21は、画像センサ25により撮像された複数の部分画像を取得する。   In step S51, the image sensor 25 captures a plurality of partial images. Then, the image acquiring unit 21 acquires a plurality of partial images captured by the image sensor 25.

ステップS52において、画像送信部22は、ステップS51において画像取得部21により取得された複数の部分画像を口腔癌診断装置10に送信する。   In step S52, the image transmitting unit 22 transmits the plurality of partial images acquired by the image acquiring unit 21 in step S51 to the oral cancer diagnostic device 10.

ステップS53において、判定結果受信部23は、口腔癌に関する疾患の判定の結果である診断情報を、医師の端末30から受信する。判定結果受信部23は、口腔癌診断装置10を介して送信された診断情報を受信してもよい。   In step S53, the determination result receiving unit 23 receives, from the doctor's terminal 30, diagnostic information that is the result of determining a disease related to oral cancer. The determination result receiving unit 23 may receive the diagnostic information transmitted via the oral cancer diagnostic device 10.

ステップS54において、判定結果提示部24は、ステップS53において判定結果受信部23により受診された診断情報をユーザに対して提示する。判定結果提示部24は、例えば、診断情報をディスプレイ29に表示させる。   In step S54, the determination result presenting unit 24 presents the diagnosis information received by the determination result receiving unit 23 in step S53 to the user. The determination result presenting unit 24 causes the display 29 to display diagnostic information, for example.

次に、コンピュータを、本実施形態の口腔癌診断装置10として機能させるための口腔癌診断プログラムについて説明する。図18は、口腔癌診断プログラムP1の構成を示す図である。   Next, an oral cancer diagnosis program for causing a computer to function as the oral cancer diagnostic apparatus 10 of the present embodiment will be described. FIG. 18 is a diagram showing a configuration of the oral cancer diagnosis program P1.

口腔癌診断プログラムP1は、口腔癌診断装置10における口腔疾患診断処理を統括的に制御するメインモジュールm10、取得モジュールm11、前処理モジュールm12、除去モジュールm13、補正モジュールm14、生成モジュールm15、判定モジュールm16及び出力モジュールm17を備えて構成される。そして、各モジュールm11〜m17により、口腔癌診断装置10における取得部11、前処理部12、除去部13、補正部14、生成部15、判定部16及び出力部17のための各機能が実現される。なお、口腔癌診断プログラムP1は、通信回線等の伝送媒体を介して伝送される態様であってもよいし、図8に示されるように、記録媒体M1に記憶される態様であってもよい。   The oral cancer diagnosis program P1 includes a main module m10, an acquisition module m11, a preprocessing module m12, a removal module m13, a correction module m14, a generation module m15, and a determination module that comprehensively control the oral disease diagnosis processing in the oral cancer diagnosis apparatus 10. m16 and an output module m17. The modules m11 to m17 realize the functions of the acquisition unit 11, the preprocessing unit 12, the removal unit 13, the correction unit 14, the generation unit 15, the determination unit 16, and the output unit 17 in the oral cancer diagnostic device 10. Is done. The oral cancer diagnosis program P1 may be transmitted via a transmission medium such as a communication line, or may be stored in a recording medium M1 as shown in FIG. .

以上説明した本実施形態の口腔癌診断システム1、口腔癌診断装置10、口腔癌診断方法及び口腔癌診断プログラムP1では、反射部分が含まれない部分画像に基づいて口腔内写真が生成される。このように生成された口腔内写真に基づいて口腔癌の診断が行われることにより、誤診断の可能性を低減できる。   In the oral cancer diagnostic system 1, the oral cancer diagnostic apparatus 10, the oral cancer diagnostic method, and the oral cancer diagnostic program P1 of the present embodiment described above, an intraoral photograph is generated based on a partial image that does not include a reflective portion. By diagnosing oral cancer based on the intraoral photograph thus generated, the possibility of erroneous diagnosis can be reduced.

また、別の形態に係る口腔癌診断システムでは、除去部は、部分画像に含まれる各画素の画素値に基づいて当該部分画像が反射部分を含むか否かを判定し、取得部により取得された複数の部分画像から、反射部分を含まない部分画像を抽出することとしてもよい。   In the oral cancer diagnosis system according to another aspect, the removing unit determines whether or not the partial image includes a reflective portion based on the pixel value of each pixel included in the partial image, and the removal unit acquires the partial image. From the plurality of partial images, a partial image that does not include the reflection part may be extracted.

上記形態によれば、反射部分を含まない部分画像のみを、口腔内写真の生成に供することができる。   According to the above embodiment, only a partial image that does not include a reflection portion can be used for generating an intraoral photograph.

また、別の形態に係る口腔癌診断システムでは、除去部は、部分画像における反射部分を所定の画像処理技術により除去することとしてもよい。   In the oral cancer diagnosis system according to another aspect, the removing unit may remove the reflection part in the partial image by a predetermined image processing technique.

上記形態によれば、取得された部分画像に基づいて、反射部分を含まない部分画像を得ることが可能となる。   According to the above aspect, it is possible to obtain a partial image that does not include a reflection portion based on the acquired partial image.

また、別の形態に係る口腔癌診断システムでは、取得部は、口腔内における同一の部分を異なる方向から撮像した複数の部分画像を取得し、除去部は、部分画像に表されている部分の射影方向を所定の方向に合わせるように複数の部分画像を変換し、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして複数の部分画像を加算平均合成することにより、反射部分が除去された部分画像を取得することとしてもよい。   Further, in the oral cancer diagnosis system according to another embodiment, the acquisition unit acquires a plurality of partial images of the same portion in the oral cavity taken from different directions, and the removal unit removes a portion represented in the partial image. By converting a plurality of partial images so that the projection direction is adjusted to a predetermined direction, by performing averaging synthesis of the plurality of partial images by performing alignment so that pixels representing the same portion in the oral cavity are associated with each other, A partial image from which the reflection portion has been removed may be obtained.

上記形態によれば、同一の部分を異なる方向から撮像した複数の部分画像が取得される。このように取得された複数の部分画像においては、一つの部分画像において特定の箇所に反射が生じていたとしても、他の部分画像においては、反射箇所及び反射状態が異なる可能性が高い。ある部分の射影方向が所定の方向に揃えられるように変換された複数の部分画像が、位置合わせされた上で加算平均合成されるので、反射部分が除去された部分画像を得ることが可能となる。   According to the above embodiment, a plurality of partial images obtained by imaging the same portion from different directions are obtained. In a plurality of partial images acquired in this way, even if reflection occurs at a specific portion in one partial image, there is a high possibility that the reflection portion and the reflection state are different in other partial images. A plurality of partial images converted so that the projection direction of a certain part is aligned in a predetermined direction are aligned and averaged and synthesized, so that it is possible to obtain a partial image from which a reflected part has been removed. Become.

また、別の形態に係る口腔癌診断システムでは、生成部は、口腔内写真から、歯が表された領域である歯領域を所定の画像処理技術により除去し、判定部は、生成部により歯領域が除去された口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定することとしてもよい。   In the oral cancer diagnosis system according to another aspect, the generation unit removes, from the intraoral photograph, a tooth region that is a region where the teeth are represented by a predetermined image processing technique, and the determination unit determines that the tooth is generated by the generation unit. The presence / absence and state of a disease related to oral cancer may be determined based on the characteristics of the image of the predetermined determination target region shown in the intraoral photograph from which the region has been removed.

上記形態によれば、口腔癌の診断対象ではない歯の領域が除去された口腔内写真に基づいて口腔癌に関する判定が行われるので、口腔癌に関する診断が適切に実施される。   According to the above aspect, since the determination regarding the oral cancer is performed based on the intraoral photograph from which the tooth region which is not the target of the diagnosis of the oral cancer is removed, the diagnosis regarding the oral cancer is appropriately performed.

また、別の形態に係る口腔癌診断システムでは、出力部は、判定情報を、ユーザとは異なる医師の第1の端末において出力させ、判定情報の出力に応じて第1の端末に対して入力された、疾患の診断に関する診断情報が、ユーザの第2の端末において出力されることとしてもよい。   In the oral cancer diagnosis system according to another aspect, the output unit causes the determination information to be output at a first terminal of a doctor different from the user, and inputs the determination information to the first terminal according to the output of the determination information. The performed diagnosis information on the diagnosis of the disease may be output at the second terminal of the user.

上記形態によれば、口腔癌に関する判定の結果が医師の端末において出力されるので、医師に対してユーザの口腔癌に関する判定結果を容易に通知できる。さらに、通知された判定の結果に応じて医師により入力された、診断情報をユーザに通知できるので、ユーザに診断結果を適切に認識させることが可能となる。   According to the above aspect, the result of the determination regarding oral cancer is output at the doctor's terminal, so that the determination result regarding the oral cancer of the user can be easily notified to the doctor. Furthermore, since the diagnostic information input by the doctor according to the notified determination result can be notified to the user, it is possible for the user to appropriately recognize the diagnostic result.

また、別の形態に係る口腔癌診断システムでは、出力部は、判定情報を、第2の端末において出力させることとしてもよい。   In the oral cancer diagnosis system according to another aspect, the output unit may cause the second terminal to output the determination information.

上記形態によれば、口腔癌に関する判定の結果がユーザの端末において出力されるので、ユーザに対して、ユーザ自身の口腔癌に関する判定の結果を容易に通知できる。   According to the above aspect, since the result of the determination regarding the oral cancer is output at the user's terminal, the user can easily be notified of the result of the determination regarding the oral cancer of the user himself.

また、別の形態に係る口腔癌診断システムでは、取得部は、部分画像の撮像時における、当該部分画像を撮像した装置において検出された角速度及び加速度のうちの少なくとも一方の検出値が関連付けられている部分画像を取得し、口腔癌診断システムは、所定値以上の検出値が関連付けられた部分画像を、生成部による口腔内写真の生成に用いられる部分画像から除外する前処理部、をさらに含むこととしてもよい。   In the oral cancer diagnosis system according to another aspect, the acquisition unit associates a detection value of at least one of the angular velocity and the acceleration detected by the device that captured the partial image when capturing the partial image. The oral cancer diagnostic system further includes a preprocessing unit that acquires the partial image that is present and excludes the partial image associated with the detection value equal to or greater than the predetermined value from the partial image used for generating the intraoral photograph by the generation unit. It may be good.

上記形態によれば、角速度センサまたは加速度センサの所定値以上の検出値が関連付けられた部分画像が口腔内写真の生成に用いる画像から除外される。これにより、口腔内写真の合成に、ぶれが生じた部分画像が用いられないこととなる。従って、口腔内の状態の認識が容易な口腔内写真を得ることが可能となる。   According to the embodiment, the partial image associated with the detection value equal to or greater than the predetermined value of the angular velocity sensor or the acceleration sensor is excluded from the image used for generating the intraoral photograph. As a result, the blurred partial image is not used for the synthesis of the intraoral photograph. Therefore, it is possible to obtain an intraoral photograph in which the state of the oral cavity can be easily recognized.

また、別の形態に係る口腔癌診断システムでは、取得部は、1以上の画素からなる領域ごとに撮像対象までの距離を示す深度が関連付けられている部分画像を取得し、口腔癌診断システムは、深度に基づいて部分画像の各領域の輝度を補正する補正部、をさらに含むこととしてもよい。   In the oral cancer diagnosis system according to another aspect, the acquisition unit acquires a partial image in which a depth indicating a distance to an imaging target is associated with each region including one or more pixels, and the oral cancer diagnosis system includes: And a correction unit that corrects the luminance of each region of the partial image based on the depth.

上記形態によれば、口腔内を撮像した画像において、深度が深い領域ほど光源からの光が当たりにくいという知見のもと、深度に基づいて各領域の輝度が補正された部分画像の合成により口腔内写真が生成されるので、口腔内の状態が一様に把握可能な口腔内写真に基づく診断が可能となる。   According to the above-described embodiment, based on the knowledge that the light from the light source is harder to hit in a deeper area in an image obtained by capturing the inside of the oral cavity, the oral cavity is synthesized by combining partial images in which the brightness of each area is corrected based on the depth. Since the internal photograph is generated, a diagnosis based on the intraoral photograph in which the state in the oral cavity can be uniformly grasped becomes possible.

以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。   Although the present embodiment has been described in detail above, it is obvious to those skilled in the art that the present embodiment is not limited to the embodiment described in this specification. This embodiment can be implemented as a modified or changed embodiment without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description in this specification is for the purpose of illustration and description, and does not have any restrictive meaning to the present embodiment.

本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。   Each aspect / embodiment described in the present disclosure is applicable to LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA (W-CDMA). (Registered trademark), GSM (registered trademark), CDMA2000, Ultra Mobile Broadband (UMB), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth (Registered trademark), a system using other appropriate systems, and / or a next-generation system extended based on these systems.

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。   The processing procedure, sequence, flowchart, and the like of each aspect / embodiment described in the present disclosure may be rearranged as long as there is no inconsistency. For example, the methods described herein present elements of various steps in a sample order, and are not limited to the specific order presented.

情報等は、上位レイヤ(または下位レイヤ)から下位レイヤ(または上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。   Information and the like can be output from an upper layer (or lower layer) to a lower layer (or upper layer). Input and output may be performed via a plurality of network nodes.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。   The input and output information and the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Information that is input and output can be overwritten, updated, or added. The output information or the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。   The determination may be made based on a value (0 or 1) represented by one bit, a Boolean value (Boolean: true or false), or a comparison of numerical values (for example, a predetermined value). Value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。   Each aspect / embodiment described in the present disclosure may be used alone, may be used in combination, or may be switched and used with execution. Further, the notification of the predetermined information (for example, the notification of “X”) is not limited to being explicitly performed, and is performed implicitly (for example, not performing the notification of the predetermined information). Is also good.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。   Software, regardless of whether it is called software, firmware, middleware, microcode, a hardware description language, or any other name, instructions, instruction sets, codes, code segments, program codes, programs, subprograms, software modules , Applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。   Also, software, instructions, and the like may be transmitted and received via a transmission medium. For example, if the software uses a wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or a wireless technology such as infrared, wireless and microwave, the website, server, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。   The information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc., that can be referred to throughout the above description are not limited to voltages, currents, electromagnetic waves, magnetic or magnetic particles, optical or photons, or any of these. May be represented by a combination of

なお、本開示において説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。   Note that terms described in the present disclosure and / or terms necessary for understanding the present specification may be replaced with terms having the same or similar meaning.

本開示において使用する「システム」および「ネットワーク」という用語は、互換的に使用される。   The terms "system" and "network" as used in this disclosure are used interchangeably.

また、本開示において説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。   Further, the information, parameters, and the like described in the present disclosure may be represented by an absolute value, may be represented by a relative value from a predetermined value, or may be represented by other corresponding information.

本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。   The terms "determining" and "determining" as used in the present disclosure may encompass a wide variety of operations. `` Judgment '', `` decision '', for example, judgment (judging), calculation (calculating), calculation (computing), processing (processing), derivation (deriving), investigating (investigating), searching (looking up, search, inquiry) (E.g., searching in a table, database, or another data structure), ascertaining may be considered "determined", "determined", and the like. Also, “determining” and “deciding” include receiving (eg, receiving information), transmitting (eg, transmitting information), input (input), output (output), and access. (accessing) (for example, accessing data in a memory) may be regarded as “determined” or “determined”. In addition, `` judgment '' and `` decision '' means that resolving, selecting, selecting, establishing, establishing, comparing, etc. are regarded as `` judgment '' and `` decided ''. May be included. In other words, “judgment” and “decision” may include deeming any operation as “judgment” and “determined”. “Judgment (determination)” may be read as “assuming”, “expecting”, “considering”, or the like.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。   The terms "connected," "coupled," or any variation thereof, mean any direct or indirect connection or connection between two or more elements that It may include the presence of one or more intermediate elements between the two elements "connected" or "coupled." The coupling or connection between the elements may be physical, logical, or a combination thereof. For example, “connection” may be read as “access”. As used in this disclosure, two elements may be implemented using at least one of one or more wires, cables, and printed electrical connections, and as some non-limiting and non-exhaustive examples, in the radio frequency domain. , Can be considered "connected" or "coupled" to each other using electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。   Reference to “based on” as used in the present disclosure does not mean “based solely on” unless otherwise indicated. In other words, the phrase "based on" means both "based only on" and "based at least on."

本開示において「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。   In using the designations “first,” “second,” and the like in this disclosure, any reference to the element does not generally limit the quantity or order of the element. These designations may be used herein as a convenient way to distinguish between two or more elements. Thus, a reference to a first and second element does not mean that only two elements may be employed therein, or that the first element must somehow precede the second element.

「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。   As long as “include”, “including”, and variations thereof, are used in the present description or claims, these terms are equivalent to the term “comprising” It is intended to be comprehensive. Further, it is intended that the term "or", as used herein or in the claims, not be the exclusive OR.

本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。   In the present disclosure, where articles are added by translation, for example, a, an and the in English, the present disclosure may include that the nouns following these articles are plural.

本開示において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。   This disclosure also includes a plurality of devices, unless the context or technology clearly indicates that only one device exists.

本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。   Throughout this disclosure, the singular may include the plural unless the context clearly dictates otherwise.

1…口腔癌診断システム、10…口腔癌診断装置、11…取得部、12…前処理部、13…除去部、14…補正部、15…生成部、16…判定部、17…出力部、20…端末、21…画像取得部、22…画像送信部、23…判定結果受信部、24…判定結果提示部、25…画像センサ、26…深度センサ、27…加速度センサ、28…角速度センサ、29…ディスプレイ、30…端末、31…受信部、32…提示部、33…受付部、34…送信部、35…ディスプレイ、M1…記録媒体、m10…メインモジュール、m11…取得モジュール、m12…前処理モジュール、m13…除去モジュール、m14…補正モジュール、m15…生成モジュール、m16…判定モジュール、m17…出力モジュール、N…ネットワーク、P1…口腔癌診断プログラム。   DESCRIPTION OF SYMBOLS 1 ... Oral cancer diagnostic system, 10 ... Oral cancer diagnostic apparatus, 11 ... Acquisition part, 12 ... Preprocessing part, 13 ... Removal part, 14 ... Correction part, 15 ... Generation part, 16 ... Judgment part, 17 ... Output part, 20 terminal, 21 image acquisition unit, 22 image transmission unit, 23 determination result receiving unit, 24 determination result presentation unit, 25 image sensor, 26 depth sensor, 27 acceleration sensor, 28 angular velocity sensor, 29 display, 30 terminal, 31 reception unit, 32 presentation unit, 33 reception unit, 34 transmission unit, 35 display, M1 recording medium, m10 main module, m11 acquisition module, m12 front Processing module, m13: removal module, m14: correction module, m15: generation module, m16: determination module, m17: output module, N: network, P1: oral cancer diagnosis Program.

Claims (10)

口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する口腔癌診断システムであって、
前記ユーザの口腔内の部分を撮像した部分画像を複数取得する取得部と、
前記部分画像において反射が生じている領域である反射部分の除去または前記反射部分を含まない部分画像の抽出により、前記反射部分を含まない部分画像を取得する除去部と、
前記除去部により取得された部分画像を含む複数の部分画像を合成して前記口腔内写真を生成する生成部と、
前記口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定部と、
前記判定部により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力部と、
を備える口腔癌診断システム。
An oral cancer diagnostic system for diagnosing a disease related to oral cancer in the oral cavity of a user based on an intraoral photograph composed of a plurality of images representing a predetermined region in the oral cavity,
An acquisition unit configured to acquire a plurality of partial images obtained by imaging a portion in the oral cavity of the user,
By removing the reflection portion which is a region where reflection has occurred in the partial image or extracting the partial image not including the reflection portion, a removal unit to obtain a partial image not including the reflection portion,
A generation unit that generates the intraoral photograph by synthesizing a plurality of partial images including the partial image obtained by the removal unit,
Based on the characteristics of the image of the predetermined determination target region represented in the intraoral photograph, a determination unit that determines the presence or absence and state of a disease related to oral cancer,
An output unit that has been determined by the determination unit and outputs determination information about the presence or absence and state of a disease related to oral cancer,
An oral cancer diagnostic system comprising:
前記除去部は、前記部分画像に含まれる各画素の画素値に基づいて当該部分画像が前記反射部分を含むか否かを判定し、前記取得部により取得された複数の部分画像から、前記反射部分を含まない部分画像を抽出する、
請求項1に記載の口腔癌診断システム。
The removal unit determines whether or not the partial image includes the reflection portion based on a pixel value of each pixel included in the partial image, and from the plurality of partial images acquired by the acquisition unit, Extract partial images that do not include the part,
The oral cancer diagnostic system according to claim 1.
前記除去部は、前記部分画像における前記反射部分を所定の画像処理技術により除去する、請求項1に記載の口腔癌診断システム。   The oral cancer diagnostic system according to claim 1, wherein the removing unit removes the reflection part in the partial image by a predetermined image processing technique. 前記取得部は、口腔内における同一の部分を異なる方向から撮像した複数の部分画像を取得し、
前記除去部は、前記部分画像に表されている前記部分の射影方向を所定の方向に合わせるように複数の前記部分画像を変換し、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして前記複数の部分画像を加算平均合成することにより、前記反射部分が除去された部分画像を取得する、
請求項3に記載の口腔癌診断システム。
The acquisition unit acquires a plurality of partial images obtained by imaging the same portion in the oral cavity from different directions,
The removing unit converts the plurality of partial images so that the projection direction of the part represented in the partial image is aligned with a predetermined direction, so that pixels representing the same part in the oral cavity are associated with each other. By performing averaging synthesis of the plurality of partial images by performing position alignment, a partial image from which the reflection portion has been removed is obtained,
The oral cancer diagnostic system according to claim 3.
前記生成部は、前記口腔内写真から、歯が表された領域である歯領域を所定の画像処理技術により除去し、
前記判定部は、前記生成部により前記歯領域が除去された前記口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する、
請求項1〜4のいずれか一項に記載の口腔癌診断システム。
From the intraoral photograph, the generation unit removes a tooth region that is a region where a tooth is represented by a predetermined image processing technique,
The determination unit is configured to determine the presence and absence of a disease related to oral cancer based on a feature of an image of a predetermined determination target region represented in the intraoral photograph from which the tooth region has been removed by the generation unit.
The oral cancer diagnostic system according to any one of claims 1 to 4.
前記出力部は、前記判定情報を、前記ユーザとは異なる医師の第1の端末において出力させ、
前記判定情報の出力に応じて前記第1の端末に対して入力された、疾患の診断に関する診断情報が、前記ユーザの第2の端末において出力される、
請求項1〜5のいずれか一項に記載の口腔癌診断システム。
The output unit causes the determination information to be output at a first terminal of a doctor different from the user,
Diagnostic information relating to the diagnosis of a disease, which is input to the first terminal in response to the output of the determination information, is output at the second terminal of the user.
The oral cancer diagnostic system according to any one of claims 1 to 5.
前記出力部は、前記判定情報を、前記第2の端末において出力させる、
請求項6に記載の口腔癌診断システム。
The output unit causes the second terminal to output the determination information.
The oral cancer diagnostic system according to claim 6.
前記取得部は、前記部分画像の撮像時における、当該部分画像を撮像した装置において検出された角速度及び加速度のうちの少なくとも一方の検出値が関連付けられている前記部分画像を取得し、
前記口腔癌診断システムは、
所定値以上の前記検出値が関連付けられた前記部分画像を、前記生成部による口腔内写真の生成に用いられる部分画像から除外する前処理部、をさらに含む、
請求項1〜7のいずれか一項に記載の口腔癌診断システム。
The acquisition unit, at the time of imaging the partial image, acquires the partial image associated with at least one detection value of the angular velocity and the acceleration detected in the device that has captured the partial image,
The oral cancer diagnostic system,
A preprocessing unit that excludes the partial image associated with the detection value equal to or greater than a predetermined value from the partial image used for generating the intraoral photograph by the generation unit,
The oral cancer diagnostic system according to any one of claims 1 to 7.
前記取得部は、1以上の画素からなる領域ごとに撮像対象までの距離を示す深度が関連付けられている前記部分画像を取得し、
前記口腔癌診断システムは、
深度に基づいて前記部分画像の各領域の輝度を補正する補正部、をさらに含む、
請求項1〜8のいずれか一項に記載の口腔癌診断システム。
The acquisition unit acquires the partial image associated with a depth indicating a distance to an imaging target for each region including one or more pixels,
The oral cancer diagnostic system,
A correction unit that corrects the luminance of each region of the partial image based on the depth,
The oral cancer diagnostic system according to any one of claims 1 to 8.
コンピュータを、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する口腔癌診断システムとして機能させるための口腔癌診断プログラムであって、
前記コンピュータに、
前記ユーザの口腔内の部分を撮像した部分画像を複数取得する取得機能と、
前記部分画像において反射が生じている領域である反射部分の除去または前記反射部分を含まない部分画像の抽出により、前記反射部分を含まない部分画像を取得する除去機能と、
前記除去機能により取得された部分画像を含む複数の部分画像を合成して前記口腔内写真を生成する生成機能と、
前記口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定機能と、
前記判定機能により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力機能と、
を実現させる口腔癌診断プログラム。
An oral cancer diagnostic program for causing a computer to function as an oral cancer diagnostic system for diagnosing a disease related to oral cancer in the oral cavity of a user based on an intraoral photograph composed of a plurality of images representing a predetermined region in the oral cavity. hand,
On the computer,
An acquisition function of acquiring a plurality of partial images obtained by imaging a portion in the oral cavity of the user,
By removing the reflection portion which is a region where reflection occurs in the partial image or extracting the partial image not including the reflection portion, a removal function of acquiring a partial image not including the reflection portion,
A generation function of synthesizing a plurality of partial images including the partial image obtained by the removal function to generate the intraoral photograph,
Based on the characteristics of the image of the predetermined determination target area represented in the intraoral photograph, a determination function of determining the presence or absence and state of a disease related to oral cancer,
An output function of outputting determination information on the presence or absence and state of a disease related to oral cancer, determined by the determination function,
An oral cancer diagnosis program that realizes.
JP2018185038A 2018-09-28 2018-09-28 Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program Active JP7067743B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018185038A JP7067743B2 (en) 2018-09-28 2018-09-28 Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018185038A JP7067743B2 (en) 2018-09-28 2018-09-28 Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program

Publications (2)

Publication Number Publication Date
JP2020054444A true JP2020054444A (en) 2020-04-09
JP7067743B2 JP7067743B2 (en) 2022-05-16

Family

ID=70105581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018185038A Active JP7067743B2 (en) 2018-09-28 2018-09-28 Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program

Country Status (1)

Country Link
JP (1) JP7067743B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230019527A (en) * 2021-08-02 2023-02-09 가천대학교 산학협력단 Method for removing reflected light of medical image based on machine learning and device using the same
JP7462534B2 (en) 2020-11-02 2024-04-05 株式会社Nttドコモ Image Recording System

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108819A (en) * 1991-03-26 1993-04-30 Olympus Optical Co Ltd Picture processor
JP2000102514A (en) * 1998-09-30 2000-04-11 Internatl Univ Of Health & Welfare Remote medical system
JP2003283924A (en) * 2002-03-26 2003-10-03 Fuji Photo Film Co Ltd Imaging device, image processing system, imaging method, and program
JP2006041603A (en) * 2004-07-22 2006-02-09 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program
JP2011521237A (en) * 2008-05-20 2011-07-21 ユニバーシティー ヘルス ネットワーク Apparatus and method for imaging and monitoring based on fluorescent light
WO2017199635A1 (en) * 2016-05-18 2017-11-23 オリンパス株式会社 Image analysis device, image analysis system, and method for operating image analysis device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108819A (en) * 1991-03-26 1993-04-30 Olympus Optical Co Ltd Picture processor
JP2000102514A (en) * 1998-09-30 2000-04-11 Internatl Univ Of Health & Welfare Remote medical system
JP2003283924A (en) * 2002-03-26 2003-10-03 Fuji Photo Film Co Ltd Imaging device, image processing system, imaging method, and program
JP2006041603A (en) * 2004-07-22 2006-02-09 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program
JP2011521237A (en) * 2008-05-20 2011-07-21 ユニバーシティー ヘルス ネットワーク Apparatus and method for imaging and monitoring based on fluorescent light
WO2017199635A1 (en) * 2016-05-18 2017-11-23 オリンパス株式会社 Image analysis device, image analysis system, and method for operating image analysis device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7462534B2 (en) 2020-11-02 2024-04-05 株式会社Nttドコモ Image Recording System
KR20230019527A (en) * 2021-08-02 2023-02-09 가천대학교 산학협력단 Method for removing reflected light of medical image based on machine learning and device using the same
KR102517232B1 (en) * 2021-08-02 2023-03-31 가천대학교 산학협력단 Method for removing reflected light of medical image based on machine learning and device using the same

Also Published As

Publication number Publication date
JP7067743B2 (en) 2022-05-16

Similar Documents

Publication Publication Date Title
JP6938410B2 (en) Oral Disease Diagnosis System and Oral Disease Diagnosis Program
WO2022151755A1 (en) Target detection method and apparatus, and electronic device, storage medium, computer program product and computer program
US20160037067A1 (en) Method for generating image and electronic device thereof
JP7260115B2 (en) Mobile devices and photography assistance programs
US9886766B2 (en) Electronic device and method for adding data to image and extracting added data from image
US10966599B2 (en) Endoscopic stereo matching method and apparatus using direct attenuation model
WO2021103938A1 (en) Medical image processing method, apparatus and device, medium and endoscope
WO2019011148A1 (en) White balance processing method and apparatus
WO2022022350A1 (en) Image processing method and apparatus, electronic device, storage medium, and computer program product
JP2021051573A (en) Image processing apparatus, and method of controlling image processing apparatus
KR102224064B1 (en) Apparatus For Separating Gum Area From Oral Scan Image
JP7067743B2 (en) Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program
JP2017033256A (en) Image processing device, communication system, image processing method, and program
US9311522B2 (en) Apparatus and method for improving face recognition ratio
CN114693593A (en) Image processing method, device and computer device
JP6807869B2 (en) Image processing equipment, image processing methods and programs
JP6938409B2 (en) Intracavitary photo generator and intracavitary photo generator
JP2017213058A (en) Image processing device, endoscope device, image processing method, and image processing program
JP2018084861A (en) Information processing apparatus, information processing method and information processing program
JP2011198270A (en) Object recognition device and controller using the same, and object recognition method
WO2018107566A1 (en) Processing method and mobile device
US8358353B2 (en) Image input apparatus, image verification apparatus, and control methods therefor
JP2015156540A (en) Image processing device, image processing method, and image processing program
CN106851135A (en) The unique mark value of sensor
JP2011029710A (en) Image processor, image processing program, and imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220419

R150 Certificate of patent or registration of utility model

Ref document number: 7067743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150