JP2020054444A - Oral cavity cancer diagnostic system and oral cavity cancer diagnostic program - Google Patents
Oral cavity cancer diagnostic system and oral cavity cancer diagnostic program Download PDFInfo
- Publication number
- JP2020054444A JP2020054444A JP2018185038A JP2018185038A JP2020054444A JP 2020054444 A JP2020054444 A JP 2020054444A JP 2018185038 A JP2018185038 A JP 2018185038A JP 2018185038 A JP2018185038 A JP 2018185038A JP 2020054444 A JP2020054444 A JP 2020054444A
- Authority
- JP
- Japan
- Prior art keywords
- oral cancer
- unit
- partial image
- image
- oral cavity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
Abstract
Description
本発明は、口腔癌診断システム及び口腔癌診断プログラムに関する。 The present invention relates to an oral cancer diagnostic system and an oral cancer diagnostic program.
口腔内の画像に基づいて、種々の疾患が診断されている。疾患の診断は、例えば、医師による画像の目視及び画像解析等により行われる。疾患の診断には、主として口腔内写真が用いられる。口腔内写真は、口腔内の所定の領域を表した複数の画像からなる。なお、口腔内写真の一例として、所定の口腔内規格写真が用いられる場合がある。口腔内写真を構成する各画像は、口腔内の部分を表した複数の画像を重畳領域に基づいて合成する、いわゆるパノラマ画像として生成される。また、口腔内画像に基づいて、う蝕検出のために歯の表面の画像の分類をする技術が知られている(例えば、特許文献1参照)。 Various diseases have been diagnosed based on images in the oral cavity. The diagnosis of the disease is performed, for example, by visual observation of the image by a doctor and image analysis. Intraoral photography is mainly used for diagnosis of the disease. The intraoral photograph is composed of a plurality of images representing a predetermined region in the oral cavity. As an example of the intraoral photograph, a predetermined intraoral standard photograph may be used. Each image constituting the intra-oral photograph is generated as a so-called panoramic image in which a plurality of images representing portions in the oral cavity are synthesized based on a superimposed region. Further, there is known a technique of classifying an image of a tooth surface for caries detection based on an intraoral image (for example, see Patent Document 1).
口腔内の疾患の1つである口腔癌の診断は、診断の対象部分の色及び形状等に基づいて行われる。精度の高い診断を行うためには、口腔内写真において対象部位が正しく表されている必要がある。しかしながら、通常に撮影された口腔内の画像では、唾液により反射が発生する場合がある。このような画像において、反射が発生した箇所は、色等が実際の状態と異なって表される。反射が生じている部分を含む画像に基づいて口腔癌の診断が行われると、誤診断が発生する可能性がある。 Diagnosis of oral cancer, which is one of the diseases in the oral cavity, is performed based on the color and shape of the diagnosis target portion. In order to perform highly accurate diagnosis, it is necessary that the target site is correctly represented in the intraoral photograph. However, in a normally taken image of the oral cavity, reflection may occur due to saliva. In such an image, the location where the reflection has occurred is represented in a different color or the like from the actual state. If a diagnosis of oral cancer is made based on an image including a portion where reflection occurs, an erroneous diagnosis may occur.
そこで、本発明は、上記問題点に鑑みてなされたものであり、口腔内写真に基づく口腔癌の診断において、誤診断の可能性を低減させることを目的とする。 Therefore, the present invention has been made in view of the above problems, and has as its object to reduce the possibility of erroneous diagnosis in the diagnosis of oral cancer based on intraoral photographs.
上記課題を解決するために、本発明の一形態に係る口腔癌診断システムは、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する口腔癌診断システムであって、ユーザの口腔内の部分を撮像した部分画像を複数取得する取得部と、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する除去部と、除去部により取得された部分画像を含む複数の部分画像を合成して口腔内写真を生成する生成部と、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定部と、判定部により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力部と、を備える。 In order to solve the above problems, an oral cancer diagnostic system according to an aspect of the present invention provides a disease related to oral cancer in an oral cavity of a user based on an intraoral photograph including a plurality of images representing a predetermined region in the oral cavity. An oral cancer diagnosis system for diagnosing a part, comprising: an acquisition unit that acquires a plurality of partial images obtained by imaging a part in the oral cavity of a user; and a removal or reflection part of a reflection part that is an area where reflection occurs in the partial image A removing unit that obtains a partial image that does not include a reflection portion by extracting a partial image that does not include a generating unit that generates an intraoral photograph by combining a plurality of partial images that include the partial image obtained by the removing unit; A determining unit that determines the presence and state of a disease related to oral cancer based on the characteristics of the image of the predetermined determination target region represented in the inner photograph, and the presence or absence of a disease related to oral cancer determined by the determining unit And an output unit for outputting the determination information about the fine state.
また、本発明の一形態に係る口腔癌診断プログラムは、コンピュータを、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する口腔癌診断システムとして機能させるための口腔癌診断プログラムであって、コンピュータに、ユーザの口腔内の部分を撮像した部分画像を複数取得する取得機能と、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する除去機能と、除去機能により取得された部分画像を含む複数の部分画像を合成して口腔内写真を生成する生成機能と、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定機能と、判定機能により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力機能と、を実現させる。 In addition, an oral cancer diagnosis program according to an embodiment of the present invention diagnoses a disease related to oral cancer in a user's oral cavity based on an intraoral photograph including a plurality of images representing a predetermined region in the oral cavity. An oral cancer diagnostic program for causing the computer to function as an oral cancer diagnostic system, the computer having an acquisition function of acquiring a plurality of partial images of a portion of the user's oral cavity, and an area where reflection occurs in the partial images. By removing the reflection part or extracting the partial image that does not include the reflection part, the removal function that obtains the partial image that does not include the reflection part, and a plurality of partial images including the partial image obtained by the removal function are combined into the oral cavity The presence / absence and state of a disease related to oral cancer are determined based on the generation function of generating a photograph and the characteristics of the image of the predetermined determination target region represented in the intraoral photograph. A determination function of, determined by the determination function, and an output function of outputting the determination information about the presence and status of diseases related oral cancer, to realize.
上記の形態によれば、反射部分が含まれない部分画像に基づいて口腔内写真が生成される。このように生成された口腔内写真に基づいて口腔癌の診断が行われることにより、誤診断の可能性を低減できる。 According to the above aspect, the intraoral photograph is generated based on the partial image that does not include the reflection part. By diagnosing oral cancer based on the intraoral photograph thus generated, the possibility of erroneous diagnosis can be reduced.
口腔内写真に基づく口腔癌の診断において、誤診断の可能性を低減させることが可能となる。 In the diagnosis of oral cancer based on intraoral photographs, the possibility of erroneous diagnosis can be reduced.
本発明に係る口腔癌診断システムの実施形態について図面を参照して説明する。なお、可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。 An embodiment of an oral cancer diagnosis system according to the present invention will be described with reference to the drawings. Note that, where possible, the same portions are denoted by the same reference numerals, and redundant description will be omitted.
図1は、本実施形態に係る口腔癌診断システムの装置構成を示す図である。口腔癌診断システム1は、口腔内の所定の領域を表した複数の画像からなる口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断するシステムである。図1に示す口腔癌診断システム1は、口腔癌診断装置10並びにユーザの端末20及び医師の端末30を含み、口腔癌診断装置10及び端末20,30は、ネットワークNを介して互いに通信可能である。
FIG. 1 is a diagram showing a device configuration of the oral cancer diagnosis system according to the present embodiment. The oral cancer diagnosis system 1 is a system that diagnoses a disease related to oral cancer in an oral cavity of a user based on an intraoral photograph including a plurality of images representing a predetermined region in the oral cavity. The oral cancer diagnostic system 1 shown in FIG. 1 includes an oral cancer
口腔癌診断装置10は、例えば、サーバ等のコンピュータにより構成されるが、口腔癌診断装置10を構成する装置は限定されない。端末20,30は、例えば、据置型又は携帯型のパーソナルコンピュータ、高機能携帯電話機(スマートフォン)等により構成されるが、端末20,30を構成する装置は限定されず、例えば携帯電話機、携帯情報端末(PDA)などの携帯端末でもよい。なお、図1では、例として各1台の端末20及び端末30が示されているが、その数はこれに限定されない。
The oral cancer
図2は、本実施形態に係る口腔癌診断装置10の機能的構成を示す図である。本実施形態の口腔癌診断装置10は、口腔内写真に基づいてユーザの口腔内の口腔癌に関する疾患を診断する装置である。口腔内写真は、口腔内の疾患を診断するために取得される口腔内を撮像した写真である。口腔内写真は、例えば、口腔内の所定の領域を表した複数の画像からなる。
FIG. 2 is a diagram showing a functional configuration of the oral cancer
図2に示すように、口腔癌診断装置10は、機能的には、取得部11、前処理部12、除去部13、補正部14、生成部15、判定部16及び出力部17を備える。なお、本実施形態では、口腔癌診断装置10は、図2に示すような1つの装置により構成されているが、口腔癌診断装置10に含まれる各機能部が複数の装置に分散されて構成されてもよい。口腔癌診断装置10の各機能部については後に詳細に説明する。
As shown in FIG. 2, the oral cancer
なお、図2に示したブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。 Note that the block diagram shown in FIG. 2 shows blocks in functional units. These functional blocks (components) are realized by an arbitrary combination of hardware and / or software. The means for implementing each functional block is not particularly limited. That is, each functional block may be realized by one device physically and / or logically coupled, or two or more devices physically and / or logically separated from each other directly and / or indirectly. (For example, wired and / or wireless) and may be realized by these multiple devices.
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, resolution, selection, selection, establishment, comparison, assumption, expectation, deemed, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, but not limited to these I can't. For example, a functional block (configuration unit) that causes transmission to function is called a transmitting unit (transmitting unit) or a transmitter (transmitter). In any case, as described above, the realization method is not particularly limited.
例えば、本発明の一実施の形態における口腔癌診断装置10は、コンピュータとして機能してもよい。図3は、本実施形態に係る口腔癌診断装置10のハードウェア構成の一例を示す図である。口腔癌診断装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
For example, the oral
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。口腔癌診断装置10のハードウェア構成は、図2に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
In the following description, the term “apparatus” can be read as a circuit, a device, a unit, or the like. The hardware configuration of the oral cancer
口腔癌診断装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。
The functions of the oral cancer
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、図1に示した各機能部11〜17などは、プロセッサ1001で実現されてもよい。
The
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、口腔癌診断装置10の各機能部11〜17は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
In addition, the
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る棚割情報生成方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。
The
通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
The
また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
Each device such as the
また、口腔癌診断装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。
The oral cancer
図4は、本実施形態のユーザの端末20の機能的構成を示す図である。図4に示すように、端末20は、画像取得部21、画像送信部22、判定結果受信部23及び判定結果提示部24を備える。また、端末20は、画像センサ25及びディスプレイ29を含む。
FIG. 4 is a diagram illustrating a functional configuration of the
画像センサ25は、撮像対象の画像を光学的に取得するセンサである。また、端末20は、深度センサ26を含んでもよい。深度センサ26は、赤外線により、対象までの距離を示す深度を取得するセンサである。
The
また、端末20は、加速度センサ27及び角速度センサ28を含んでもよい。加速度センサ27は、端末20において生じた加速度を検出するセンサである。角速度センサ28は、端末20において生じた角速度を検出するセンサである。
Further, the terminal 20 may include an
画像取得部21は、画像センサ25により撮像された部分画像を取得する。部分画像は、口腔内の部分を撮像した画像である。画像取得部21は、複数の部分画像を取得する。
The
画像取得部21は、部分画像の取得時において深度センサ26により検出された、撮像対象までの距離を示す深度を取得できる。これにより、画像取得部21は、1以上の画素からなる領域ごとに深度が関連付けられた部分画像を取得できる。
The
また、端末20は、部分画像の取得時の加速度を加速度センサ27により検出し、検出値を部分画像に関連付けて送出できる。また、端末20は、部分画像の取得時の角速度を角速度センサ28により検出し、検出値を部分画像に関連付けて送出できる。
Further, the terminal 20 can detect the acceleration at the time of acquiring the partial image by the
複数の部分画像は、それぞれが静止画として取得されてもよいし、動画像として取得された各フレームから抽出されたものであってもよい。これにより、画像取得部21は、口腔内における同一の部分を撮像した複数の部分画像を取得できる。さらに、画像取得部21は、口腔内における同一の部分を異なる方向から撮像した複数の部分画像を取得できる。本実施形態では、ユーザが、端末20を用いて、自らの口腔内の画像を撮像することができる。
Each of the plurality of partial images may be acquired as a still image, or may be extracted from each frame acquired as a moving image. Thereby, the
画像送信部22は、画像取得部21により取得された複数の部分画像を口腔癌診断装置10に送信する。画像送信部22は、各部分画像の取得時にセンサにより検出された検出値を、部分画像に関連付けて送信できる。検出値は、加速度センサ27により検出された加速度及び角速度センサ28により検出された角速度の少なくとも1つを含むことができる。
The
判定結果受信部23は、判定情報を口腔癌診断装置10から受信する。判定情報は、口腔癌に関する疾患の有無及び状態に関して口腔癌診断装置の判定部16により判定された結果を示す情報である。口腔内の口腔癌に関する疾患の判定は、画像送信部22により送信された複数の部分画像に基づいて口腔癌診断装置10の判定部16において実施される。判定の結果は、例えば、疾患の箇所がマークされた口腔内写真及び発見された疾患に関するコメント等を含む。また、判定結果受信部23は、口腔癌診断装置10から端末30に送信された判定情報を、端末30を介して受信してもよい。
The determination
また、判定結果受信部23は、診断情報を端末30から受信する。診断情報は、医師による口腔癌に関する疾患の診断の結果を示す情報であって、口腔癌診断装置10から端末30に送信された判定情報及び口腔内写真を参照した医師により端末30において入力された情報である。なお、診断情報は、ユーザの受診の要否に関する受診要否情報を含んでもよい。また、判定結果受信部23は、端末30から口腔癌診断装置10に送信された診断情報を、口腔癌診断装置10を介して受信してもよい。
Further, the determination
判定結果提示部24は、判定結果受信部23により受信された、診断情報をディスプレイ29に表示させる。また、判定結果提示部24は、判定情報をディスプレイ29に表示させてもよい。
The determination
図5は、本実施形態の医師の端末30の機能的構成を示す図である。図5に示すように、端末30は、受信部31、提示部32、受付部33及び送信部34を備える。また、端末30は、ディスプレイ35を含む。
FIG. 5 is a diagram illustrating a functional configuration of the doctor's terminal 30 according to the present embodiment. As illustrated in FIG. 5, the terminal 30 includes a receiving
受信部31は、口腔癌に関する疾患に関する判定の結果を示す判定情報を口腔癌診断装置10から受信する。判定情報は、例えば、疾患の箇所がマークされた口腔内写真及び発見された疾患に関するコメント等を判定の結果として含むことができる。
The receiving
提示部32は、受信部31により受信された判定情報をディスプレイ35に表示させる。これにより、判定情報を医師に提示することができる。
The
受付部33は、端末30に対して医師により入力された診断情報を受け付ける。即ち、医師は、提示部32により提示された判定情報及び口腔内写真等を参照できるので、これらの参照に基づいて、医師は自らの知見及び経験に基づく診断の結果を端末30に入力できる。受付部33は、このように入力された診断の結果を診断情報として受け付ける。なお、医師は、判定情報及び口腔内写真等の参照に基づいて、ユーザの受診の要否を検討できる。そして、医師は、ユーザに受診を促すための受診の要否に関する受信要否情報を診断情報に含めさせて入力できる。
The receiving
送信部34は、診断情報をユーザの端末20に送信する。これにより、診断情報は、ユーザの端末20において提示されることができる。また、送信部34は、診断情報を、口腔癌診断装置10を介して端末20に送信してもよい。この場合には、口腔癌診断装置10の出力部17が、送信部34からの診断情報を端末20に転送し、診断情報を端末20において出力させる。
The transmitting
再び図2を参照して、口腔癌診断装置10の各機能部について説明する。取得部11は、ユーザの口腔内の部分を撮像した部分画像を複数取得する。具体的には、取得部11は、端末20の画像センサ25により撮像された部分画像を取得する。
With reference to FIG. 2 again, each functional unit of the oral cancer
図6は、本実施形態の口腔癌診断システム1において診断の対象となる口腔内の各部分を模式的に示す図である。本実施形態において、診断の対象となる部分は、いわゆる口腔内規格写真に表される部分並びに図6に示される舌d1、頬粘膜d2、硬口蓋d3、臼後三角d4及び歯肉d5である。頬粘膜d2は、頬の内側を覆っている組織である。硬口蓋d3は、口腔の天井部分である。臼後三角d4は、親知らずの後方の領域である。取得部11は、これらの診断対象となる部分が表された部分画像を取得する。
FIG. 6 is a diagram schematically illustrating each part in the oral cavity to be diagnosed in the oral cancer diagnostic system 1 of the present embodiment. In the present embodiment, the parts to be diagnosed are the parts shown in the so-called intraoral standard photograph and the tongue d1, the buccal mucosa d2, the hard palate d3, the posterior triangular d4 and the gingiva d5 shown in FIG. The buccal mucosa d2 is a tissue that covers the inside of the cheek. The hard palate d3 is a ceiling portion of the oral cavity. The mortar triangle d4 is an area behind the wisdom tooth. The obtaining
図7は、部分画像及び複数の部分画像に基づいて合成されたパノラマ画像の例を示す図である。図7に示すように、取得部11は、例えば、歯列の正面右側の部分画像A01、正面中央の部分画像A02及び正面左側の部分画像A03を取得する。これらの部分画像は、それぞれが静止画として取得されてもよいし、動画像として取得された各フレームから抽出されたものであってもよい。
FIG. 7 is a diagram illustrating an example of a partial image and a panoramic image synthesized based on a plurality of partial images. As illustrated in FIG. 7, the
後述するように、本実施形態では、各部分画像A01〜A03における口腔内の同じ部分が表された重畳領域に基づいて、複数の部分画像A01〜A03を合成することにより、パノラマ画像Bが生成される。図7に示すパノラマ画像Bは、口腔内写真における正面画像を構成する。部分画像の重畳領域に基づくパノラマ画像の合成には、種々の周知技術を適用できる。 As will be described later, in the present embodiment, a panoramic image B is generated by synthesizing a plurality of partial images A01 to A03 based on a superimposed region in which the same portion in the oral cavity in each of the partial images A01 to A03 is represented. Is done. The panoramic image B shown in FIG. 7 constitutes a front image in an intraoral photograph. Various well-known techniques can be applied to the synthesis of the panoramic image based on the superimposed region of the partial images.
前処理部12は、所定の条件に該当する部分画像を、口腔内写真を構成するための部分画像から除外する。具体的には、取得部11が、撮像時における角速度センサ28及び加速度センサ27のうちの少なくとも一方の検出値が関連付けられている部分画像を取得した場合に、前処理部12は、所定値以上の検出値が関連付けられた部分画像を、口腔内写真の生成に用いないこととする。
The preprocessing
部分画像の取得時において大きい角速度または加速度が生じていた場合には、その部分画像にぶれが生じている可能性が高い。前処理部12は、所定値以上の検出値が関連付けられた部分画像を、口腔内写真を構成するための部分画像から除外することにより、ぶれが生じている部分画像が口腔内写真の生成に用いられないようにすることができる。
If a large angular velocity or acceleration has occurred at the time of acquiring the partial image, it is highly likely that the partial image has blurred. The preprocessing
除去部13は、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する。口腔内を撮像した画像では、口腔内に存在する唾液に起因して反射が生じる場合がある。口腔癌の診断を高精度に実施するためには、口腔内写真において口腔内の状態が正しく表されている必要があるところ、反射が発生した箇所の画像は、色等が実際の状態と異なって表される。本実施形態では、反射部分を含まない部分画像が取得されることにより、高精度の診断を実現させる。
The removing
具体的には、除去部13は、取得部11により取得された部分画像から反射部分を含まない部分画像を抽出できる。図8は、除去部13による、反射部分を含まない部分画像の抽出処理の例を示す図である。図8に示されるように、部分画像のセットas0は、取得部11により取得された複数の部分画像であって、部分画像a1,a2,a3・・・を含む。
Specifically, the removing
例えば、除去部13は、周知の画像解析技術により、反射部分の特有の画像的特徴(例えば、所定値以上の輝度を有すること等)を有する部分画像を抽出する。具体的には、まず、除去部13は、部分画像a1,a2,a3・・・に対してグレースケール変換を実施する。続いて、除去部13は、各部分画像a1,a2,a3・・・の画素毎の輝度値を取得する。そして、除去部13は、所定の閾値以上の輝度値の画素を有する部分画像を、反射部分を含む部分画像として抽出する。
For example, the removing
図8に示す例では、除去部13は、セットas0に含まれる部分画像のうち、所定の閾値以上の輝度値を有する部分rf0を含む部分画像a2を、反射部分を含む部分画像として抽出する。そして、除去部13は、部分画像a2以外の部分画像a1、a3・・・を含む部分画像のセットas1を、口腔内写真の生成に用いるための部分画像として抽出する。また、除去部13は、その他の種々の周知技術により、反射部分を含まない部分画像を抽出できる。
In the example illustrated in FIG. 8, the removing
また、除去部13は、部分画像において反射が生じている領域である反射部分を除去することにより、反射部分を含まない部分画像を取得できる。さらに具体的には、除去部13は、部分画像に表されている部分の射影方向を所定の方向に合わせるように複数の部分画像を変換し、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして複数の部分画像を加算平均合成することにより、反射部分が除去された部分画像を取得する。
In addition, the removing
図9及び図10を参照して、除去部13による反射部分の除去の処理を詳細に説明する。図9は、反射部分を含む複数の部分画像及び反射部分が除去された部分画像の例を模式的に示す図である。図10は、除去部13による反射部分の除去の処理内容を示すフローチャートである。
With reference to FIG. 9 and FIG. 10, a process of removing the reflection portion by the removing
ステップS21において、除去部13は、一の部分画像を取得する。図9に示す例においては、除去部13は、部分画像A11を取得する。部分画像A11には、反射部分rf1が含まれている。
In step S21, the removing
続いて、ステップS22において、除去部13は、部分画像に表されている部分の射影方向を所定の方向に合わせるように複数の部分画像を変換する。具体的には、除去部13は、例えば、口腔内写真を構成する各画像の規格に合うように、部分画像に対してホモグラフィ変換を実施する。ホモグラフィ変換は、周知の画像の変換技術であって、ある平面に三次元の対象物を射影して表した二次元画像を、射影変換を用いて、別の平面に射影された二次元画像を生成する技術である。除去部13は、部分画像A11に対して、口腔内写真における正面画像の規格に合うようにホモグラフィ変換を実施して、変換された部分画像A21を得る。
Subsequently, in step S22, the removing
ステップS23において、除去部13は、全ての部分画像の処理が完了したか否かを判定する。全ての部分画像の処理が完了したと判定された場合には、処理はステップS24に進む。一方、全ての部分画像の処理が完了したと判定されなかった場合には、処理はステップS21に進む。
In step S23, the removing
図9を参照して説明する例においては、部分画像A12,A13の処理が完了していないので、これらの部分画像A12,A13に対するステップS31,S32の処理が繰り返される。即ち、除去部13は、反射部分rf2を含む部分画像A12に対してホモグラフィ変換を実施して、部分画像A22を得る。さらに、除去部13は、反射部分rf3を含む部分画像A13に対してホモグラフィ変換を実施して、部分画像A23を得る。
In the example described with reference to FIG. 9, since the processing of the partial images A12 and A13 has not been completed, the processing of steps S31 and S32 for these partial images A12 and A13 is repeated. That is, the removing
ステップS24において、除去部13は、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして複数の部分画像を加算平均合成する。図9を参照して説明する例では、除去部13は、変換された部分画像A21〜A23に対して、口腔内における同じ部分を表す画素が対応付けられるように位置合わせをして、加算平均合成する。なお、加算平均合成は、画像処理の分野において周知の技術である。
In step S24, the removing
部分画像A11〜A13のそれぞれは、口腔内における同一の部分を互いに異なる方向から撮像した画像である。このため、部分画像A22及び部分画像A23では、部分画像A21における反射部分rf1の位置に、反射は生じていない。また、部分画像A21及び部分画像A23では、部分画像A22における反射部分rf2の位置に、反射は生じていない。また、部分画像A21及び部分画像A22では、部分画像A23における反射部分rf3の位置に、反射は生じていない。 Each of the partial images A11 to A13 is an image obtained by capturing the same portion in the oral cavity from different directions. Therefore, in the partial image A22 and the partial image A23, no reflection occurs at the position of the reflection portion rf1 in the partial image A21. In the partial image A21 and the partial image A23, no reflection occurs at the position of the reflection portion rf2 in the partial image A22. In the partial image A21 and the partial image A22, no reflection occurs at the position of the reflection portion rf3 in the partial image A23.
一の部分画像のある部分において反射が生じていても、当該部分に反射が生じていない複数の他の部分画像と当該一の部分画像とを加算平均合成することにより、反射が除去された合成画像を得ることができる。図9を参照して説明する例においては、除去部13は、部分画像A21〜A23を位置合わせして加算平均合成することにより、反射部分が除去された部分画像C1を取得できる。
Even if reflection occurs in a certain part of one partial image, the reflection is removed by adding and averaging the plurality of other partial images in which no reflection occurs in the part and the one partial image. Images can be obtained. In the example described with reference to FIG. 9, the removing
再び図2を参照して、補正部14は、部分画像の各領域に関連付けられた深度に基づいて、各領域の輝度を補正する。口腔内の撮像においては、深度が深い領域ほど光量が少ないため、深度が深い領域ほど、輝度値が小さくなりやすいという傾向がある。補正部14は、この光量の差異を是正すべく輝度値を補正する。
Referring to FIG. 2 again,
具体的には、補正部14は、各領域の深度を取得し、予め設定された深度と輝度補正値との対応関係に基づいて、取得した深度に関連付けられた輝度補正値を当該領域の輝度値に加算することにより、各領域の輝度を補正する。以下に、この補正の例を説明する。
Specifically, the
例えば、ある領域の深度をD、補正前の画素のRGB値を(r0,g0,b0)、画素補正値を(r1,g1,b1)、(r2,g2,b2)として、以下のような、深度Dと画素補正値との対応関係が予め設定されているとする。なお、この例では、各領域を構成する画素のRGB値の各色の値を減少させることにより、輝度値を増加させる補正を実現させる。即ち、画素補正値は、輝度補正値に相当する。 For example, the depth of a certain area is D, the RGB values of pixels before correction are (r 0 , g 0 , b 0 ), and the pixel correction values are (r 1 , g 1 , b 1 ), (r 2 , g 2 , It is assumed that the following correspondence between the depth D and the pixel correction value is set in advance as b 2 ). In this example, correction for increasing the luminance value is realized by decreasing the value of each color of the RGB values of the pixels constituting each area. That is, the pixel correction value corresponds to a luminance correction value.
深度Dと画素補正値との対応関係:
深度Dがn未満の場合 画素のRGB値を補正しない。
深度Dがn以上m未満の場合 画素のRGB値を補正(r0−r1,g0−g1,b0−b1)
深度Dがm以上の場合 画素のRGB値を補正(r0−r2,g0−g2,b0−b2)
Correspondence relationship between depth D and pixel correction value:
When the depth D is less than n, the RGB value of the pixel is not corrected.
Depth D is corrected RGB value when a pixel less than n m (r 0 -r 1, g 0 -g 1, b 0 -b 1)
Depth D is corrected RGB value when a pixel over m (r 0 -r 2, g 0 -g 2, b 0 -b 2)
補正部14は、上記対応関係を参照して、各領域の深度に応じて、各領域の画素のRGB値を補正する。なお、上記対応関係において、n、mの値及び画素補正値の各値は、設計的に設定してもよい。このように、各領域の画素の輝度が深度に応じて適切に補正される。これにより、口腔内の状態が一様に認識容易な口腔内写真を得ることが可能となる。
The
また、補正部14は、複数の部分画像の各領域のうちの第1の領域が、第1の領域とは異なる第2の領域の深度より深い深度を有する場合に、第1の領域の輝度を、補正前より大きい値に補正することとしてもよい。
Further, when the first region of the regions of the plurality of partial images has a depth greater than the depth of the second region different from the first region, the
前述のとおり、口腔内の部分を表した部分画像の深度が深い領域の光量は少なくなる傾向があり、その領域の画像が暗いものになりやすい。そこで、本実施形態の口腔癌診断装置10では、補正部14は、他の領域よりも深度が深い領域の輝度値を、より大きい値に補正する。
As described above, the amount of light in a region where the depth of the partial image representing the portion in the oral cavity is deep tends to be small, and the image in that region tends to be dark. Therefore, in the oral
生成部15は、除去部13により取得された部分画像を含む複数の部分画像を合成して口腔内写真を生成する。口腔内写真の生成に用いられる部分画像は、前処理部12及び補正部14による前処理及び補正処理を経たものであってもよい。
The
具体的には、生成部15は、図7に示したように、口腔内の同じ部分が表された重畳領域に基づいて部分画像を合成してパノラマ画像を生成することにより、口腔内写真の規格に従った複数の画像を生成する。部分画像の合成による口腔内写真の生成には、いわゆるパノラマ画像の生成に関する周知の手法を適用することができる。
Specifically, as illustrated in FIG. 7, the
具体的には、生成部15は、取得した複数の部分画像の向き及び配列を調整する。続いて、生成部15は、口腔内の同じ部分が表された重畳領域に基づいて、互いに隣接する部分画像を重畳合成することにより、一のパノラマ画像を生成する。一のパノラマ画像は、口腔内写真を構成する複数の画像のうちの一つを構成する。
Specifically, the
歯が表された部分画像に基づいて口腔内写真を生成する場合には、生成部15は、歯が表された重畳領域に基づいて各部分画像を重畳して口腔内写真を生成する。また、舌、頬粘膜、硬口蓋及び臼後三角が表された口腔内写真を生成する場合には、生成部15は、歯、唇、口蓋垂等が表された領域を重畳領域として各部分画像を重畳して口腔内写真を生成できる。
When generating the intraoral photograph based on the partial image in which the teeth are represented, the generating
図11は、生成部15により生成される口腔内写真の例を示す図である。口腔内写真MPは、口腔内の所定の領域を表した複数の画像からなる。図11に示す例は、いわゆる5枚撮影法による口腔内規格写真である。口腔内規格写真の撮影法には、構成する画像の数及び各画像の撮像部分に応じて、5枚撮影法、9枚撮影法、12枚撮影法及び14枚撮影法等がある。図11に示すように、生成部15は、例えば、5枚撮影法により撮影された口腔内写真MPを生成できる。口腔内写真MPは、口蓋側画像mp1、右側画像mp2、正面画像mp3、左側画像mp4及び舌側画像mp5を含む。
FIG. 11 is a diagram illustrating an example of an intraoral photograph generated by the
また、生成部15は、口腔内写真から、歯が表された領域である歯領域を所定の画像処理技術により除去する。本実施形態の口腔癌診断システムは、口腔癌の診断を実施するシステムである。従って、歯領域は、診断対象領域ではない。生成部15は、歯領域を除去することにより、診断対象領域が表された口腔内写真を生成できる。
In addition, the
具体的には、生成部15は、部分画像を重畳して生成した口腔内写真を取得する。続いて、生成部15は、口腔内写真に対して2値化処理を実施して、2値化画像を得る。2値化画像において、歯領域は、例えば、白色により表され、歯領域以外の領域は、黒色により表されることとなる。そして、生成部15は、2値化画像に対してブロブ解析を実施して、歯領域と歯領域以外の領域とを認識して、歯領域を除去する。なお、口腔内写真からの歯領域の認識及び除去のための手法には、これらの手法には限定されず、周知の種々の画像処理技術を適用できる。
Specifically, the
図12は、歯領域が除去された口腔内写真MP1を示す図である。口腔内写真MP1は、図11に示される口腔内写真MPから歯領域が除去されたものである。図12に示されるように、口腔内写真MP1は、歯領域が除去された口蓋側画像mp11、右側画像mp12、正面画像mp13、左側画像mp14及び舌側画像mp15を含む。 FIG. 12 is a diagram showing the intraoral photograph MP1 from which the tooth region has been removed. The intraoral photograph MP1 is obtained by removing the tooth region from the intraoral photograph MP shown in FIG. As shown in FIG. 12, the intraoral photograph MP1 includes a palatal image mp11, a right image mp12, a front image mp13, a left image mp14, and a lingual image mp15 from which the tooth region has been removed.
口蓋側画像mp11は、口蓋側画像mp1から歯領域t11が除去された画像であって、判定対象領域r11からなる。判定対象領域r11は、例えば、歯肉が表された領域を含む。右側画像mp12、正面画像mp13、左側画像mp14及び舌側画像mp15のそれぞれは、右側画像mp2、正面画像mp3、左側画像mp4及び舌側画像mp5のそれぞれから、歯領域t12,t13,t14,t15が除去された画像であって、判定対象領域r12,r13,r14,r15のそれぞれからなる。 The palatal-side image mp11 is an image obtained by removing the tooth region t11 from the palatal-side image mp1, and includes a determination target region r11. The determination target region r11 includes, for example, a region where gingiva is represented. The right image mp12, the front image mp13, the left image mp14, and the lingual image mp15 have tooth regions t12, t13, t14, and t15 from the right image mp2, the front image mp3, the left image mp4, and the lingual image mp5, respectively. This is an image that has been removed, and includes each of the determination target regions r12, r13, r14, and r15.
判定部16は、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する。具体的には、判定部16は、歯領域が除去された口腔内写真に基づいて判定を実施する。即ち、判定部16は、口腔内写真に表された領域のうちの歯領域以外の領域を判定対象領域として口腔癌の有無及び状態を判定する。口腔癌が発生している箇所では、白斑等の色の変化及び凸状になる等の形状の変化等が発生する場合があるので、判定部16は、これらの変化を示す画像の特徴を口腔内写真から検出する。
The
口腔癌に関する疾患の判定について、図13及び図14を参照して説明する。図13は、判定部16による口腔癌の有無及び状態の判定処理のフローチャートを示す図である。
The determination of a disease related to oral cancer will be described with reference to FIGS. FIG. 13 is a diagram illustrating a flowchart of the determination processing of the presence / absence and state of oral cancer by the
ステップS31において、判定部16は、生成部15により生成された口腔内写真を取得する。前述のとおり、判定部16は、歯領域が除去された口腔内写真を取得できる。
In step S31, the
ステップS32において、判定部16は、ステップS31において取得された口腔内写真を入力データとして、口腔癌判定モデルに入力する。口腔癌判定モデルは、口腔内写真の画像データを入力値として、口腔癌の有無及び進行レベルを判定するためのモデルであって、事前に機械学習により構築される。
In step S32, the
口腔癌判定モデルは、例えば、癌の箇所をマスクした口腔内写真を学習データとして、いわゆるサポートベクターマシン(Support Vector Machine:SVM)といった分類器として構築される。口腔癌判定モデルから出力される判定結果は、例えば、健全、進行レベルT1,T2,T3,T4(低:T1→高:T4)といった口腔癌の有無及び進行の程度の段階の分類の情報及び口腔癌の箇所を示す情報として出力される。 The oral cancer determination model is constructed as a classifier such as a so-called Support Vector Machine (SVM) using, as learning data, an intraoral photograph in which a cancer site is masked. The determination results output from the oral cancer determination model include, for example, information on the presence / absence of oral cancer and the classification of stages of the degree of progression, such as soundness, progress levels T1, T2, T3, and T4 (low: T1 → high: T4). It is output as information indicating the location of oral cancer.
また、口腔癌判定モデルは、ニューラルネットワークにより構築されてもよい。ニューラルネットワークを含む口腔癌判定モデルは、学習用の口腔内写真を入力して得られる口腔癌の進行レベルの判定値に基づいて誤差計算(誤差逆伝搬)を含む機械学習を行うことにより生成される。誤差計算には、種々の損失関数を適用できる。 In addition, the oral cancer determination model may be constructed by a neural network. An oral cancer determination model including a neural network is generated by performing machine learning including error calculation (error back propagation) based on a determination value of the progress level of oral cancer obtained by inputting an intraoral photograph for learning. You. Various loss functions can be applied to the error calculation.
また、判定部16は、モデルによらず、口腔内写真の画素値に関して部位毎に設定された閾値に基づいて、口腔癌が発生している領域及び進行レベルを判定してもよい。
In addition, the
ステップS33において、判定部16は、ステップS32において出力された、モデルによる分類結果、即ち、口腔癌の有無及び進行レベルを示す情報を出力する。図14は、口腔癌の進行レベルの判定の結果の情報の例を示す図であって、口腔癌の可能性のある箇所がマークされた口腔内写真を模式的に示す図である。図14に示すように、判定部16により出力された口腔内写真mp20は、口腔癌の箇所のマークDを含む。口腔癌の箇所のマークDに関連付けられて、当該箇所の進行レベルの情報が例えば、「マークされた箇所は、口腔癌の進行レベルT0の疑いがあります」というようなテキスト等により出力されてもよい。
In step S33, the
再び図2を参照して、出力部17は、判定部16により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する。具体的には、出力部17は、判定情報として出力された、口腔癌の箇所がマークされた口腔内写真及びテキストを医師の端末30において出力させる。さらに具体的には、出力部17は、医師の端末30のディスプレイ35に判定情報を表示させる。また、出力部17は、判定情報をユーザの端末20に出力させてもよい。また、出力部17は、判定情報を所定の記憶手段に記憶させてもよい。
Referring to FIG. 2 again, the
次に、図15を参照して、口腔癌診断システム1及び口腔癌診断装置10における口腔癌診断方法について説明する。図15は、本実施形態の口腔癌診断方法の処理内容の例を示すフローチャートである。
Next, an oral cancer diagnosis method in the oral cancer diagnostic system 1 and the oral cancer
ステップS1において、取得部11は、ユーザの口腔内の部分を撮像した部分画像を複数取得する。次に、ステップS2において、前処理部12は、部分画像における所定の検出値に基づいて、ぶれを有する可能性のある部分画像を、口腔内写真を生成する部分画像から除外する。ここで判定に用いられる検出値は、例えば、部分画像の撮像時に取得された、撮像する装置において発生した加速度及び角速度等である。
In step S1, the
ステップS3において、除去部13は、部分画像において反射が生じている領域である反射部分の除去または反射部分を含まない部分画像の抽出により、反射部分を含まない部分画像を取得する。反射部分の除去処理は、例えば、図10を参照して説明したとおりである。
In step S3, the removing
ステップS4において、補正部14は、部分画像の各領域に関連付けられた深度に基づいて、各領域の輝度を補正する。
In step S4, the
ステップS5において、生成部15は、複数の部分画像を合成して口腔内写真を生成する。続いて、ステップS6において、生成部15は、ステップS5において生成された口腔内写真から、所定の画像処理技術により歯領域を除去する。
In step S5, the
ステップS7において、判定部16は、口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する。具体的には、判定部16は、ステップS6において歯領域が除去された口腔内写真に基づいて判定を実施する。判定処理は、例えば、図13を参照して説明したとおりである。
In step S7, the
ステップS8において、判定部16は、判定処理の判定結果において、口腔癌に関する疾患の有無を判定する。口腔癌に関する疾患があると判定された場合には、処理はステップS9に進む。一方、口腔癌に関する疾患があると判定されなかった場合には、処理はステップS10に進む。
In step S8, the
ステップS9において、判定部16は、口腔癌に関する疾患の箇所にマークされた口腔内写真を判定情報として生成する。判定部16は、当該箇所の進行レベルを示すテキスト情報を併せて生成及び出力してもよい。
In step S9, the
ステップS10において、出力部17は、判定部16により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する。出力部17は、判定情報を、医師の端末30において出力させてもよいし、ユーザの端末20において出力させてもよい。
In step S10, the
次に、図16を参照して、口腔癌診断システム1の医師の端末30における処理を説明する。図16は、医師の端末30における処理内容の例を示すフローチャートである。
Next, with reference to FIG. 16, the processing in the
ステップS41において、受信部31は、口腔内における口腔癌に関する疾患に関する判定の結果を示す判定情報を口腔癌診断装置10から受信する。判定情報は、口腔癌の箇所がマークされた口腔内写真及び発見された疾患に関するコメント等を含んでもよい。
In step S <b> 41, the receiving
ステップS42において、提示部32は、ステップS41において受信部31により受診された判定情報を医師に対して提示する。提示部32は、例えば、判定情報をディスプレイ29に表示させる。
In step S42, the
ステップS43において、受付部33は、判定情報の提示に応じて医師により入力された診断情報を受け付ける。診断情報は、ユーザの受診の要否に関する受診要否情報を含んでもよい。
In step S43, the receiving
ステップS44において、送信部34は、ステップS43において受け付けられた診断情報をユーザの端末20に送信する。また、送信部34は、診断情報を、口腔癌診断装置10を介して端末20に送信してもよい。
In step S44, the transmitting
次に、図17を参照して、口腔癌診断システム1のユーザの端末20における処理を説明する。図17は、ユーザの端末20における処理内容の例を示すフローチャートである。
Next, the processing in the
ステップS51において、画像センサ25は複数の部分画像を撮像する。そして、画像取得部21は、画像センサ25により撮像された複数の部分画像を取得する。
In step S51, the
ステップS52において、画像送信部22は、ステップS51において画像取得部21により取得された複数の部分画像を口腔癌診断装置10に送信する。
In step S52, the
ステップS53において、判定結果受信部23は、口腔癌に関する疾患の判定の結果である診断情報を、医師の端末30から受信する。判定結果受信部23は、口腔癌診断装置10を介して送信された診断情報を受信してもよい。
In step S53, the determination
ステップS54において、判定結果提示部24は、ステップS53において判定結果受信部23により受診された診断情報をユーザに対して提示する。判定結果提示部24は、例えば、診断情報をディスプレイ29に表示させる。
In step S54, the determination
次に、コンピュータを、本実施形態の口腔癌診断装置10として機能させるための口腔癌診断プログラムについて説明する。図18は、口腔癌診断プログラムP1の構成を示す図である。
Next, an oral cancer diagnosis program for causing a computer to function as the oral cancer
口腔癌診断プログラムP1は、口腔癌診断装置10における口腔疾患診断処理を統括的に制御するメインモジュールm10、取得モジュールm11、前処理モジュールm12、除去モジュールm13、補正モジュールm14、生成モジュールm15、判定モジュールm16及び出力モジュールm17を備えて構成される。そして、各モジュールm11〜m17により、口腔癌診断装置10における取得部11、前処理部12、除去部13、補正部14、生成部15、判定部16及び出力部17のための各機能が実現される。なお、口腔癌診断プログラムP1は、通信回線等の伝送媒体を介して伝送される態様であってもよいし、図8に示されるように、記録媒体M1に記憶される態様であってもよい。
The oral cancer diagnosis program P1 includes a main module m10, an acquisition module m11, a preprocessing module m12, a removal module m13, a correction module m14, a generation module m15, and a determination module that comprehensively control the oral disease diagnosis processing in the oral
以上説明した本実施形態の口腔癌診断システム1、口腔癌診断装置10、口腔癌診断方法及び口腔癌診断プログラムP1では、反射部分が含まれない部分画像に基づいて口腔内写真が生成される。このように生成された口腔内写真に基づいて口腔癌の診断が行われることにより、誤診断の可能性を低減できる。
In the oral cancer diagnostic system 1, the oral cancer
また、別の形態に係る口腔癌診断システムでは、除去部は、部分画像に含まれる各画素の画素値に基づいて当該部分画像が反射部分を含むか否かを判定し、取得部により取得された複数の部分画像から、反射部分を含まない部分画像を抽出することとしてもよい。 In the oral cancer diagnosis system according to another aspect, the removing unit determines whether or not the partial image includes a reflective portion based on the pixel value of each pixel included in the partial image, and the removal unit acquires the partial image. From the plurality of partial images, a partial image that does not include the reflection part may be extracted.
上記形態によれば、反射部分を含まない部分画像のみを、口腔内写真の生成に供することができる。 According to the above embodiment, only a partial image that does not include a reflection portion can be used for generating an intraoral photograph.
また、別の形態に係る口腔癌診断システムでは、除去部は、部分画像における反射部分を所定の画像処理技術により除去することとしてもよい。 In the oral cancer diagnosis system according to another aspect, the removing unit may remove the reflection part in the partial image by a predetermined image processing technique.
上記形態によれば、取得された部分画像に基づいて、反射部分を含まない部分画像を得ることが可能となる。 According to the above aspect, it is possible to obtain a partial image that does not include a reflection portion based on the acquired partial image.
また、別の形態に係る口腔癌診断システムでは、取得部は、口腔内における同一の部分を異なる方向から撮像した複数の部分画像を取得し、除去部は、部分画像に表されている部分の射影方向を所定の方向に合わせるように複数の部分画像を変換し、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして複数の部分画像を加算平均合成することにより、反射部分が除去された部分画像を取得することとしてもよい。 Further, in the oral cancer diagnosis system according to another embodiment, the acquisition unit acquires a plurality of partial images of the same portion in the oral cavity taken from different directions, and the removal unit removes a portion represented in the partial image. By converting a plurality of partial images so that the projection direction is adjusted to a predetermined direction, by performing averaging synthesis of the plurality of partial images by performing alignment so that pixels representing the same portion in the oral cavity are associated with each other, A partial image from which the reflection portion has been removed may be obtained.
上記形態によれば、同一の部分を異なる方向から撮像した複数の部分画像が取得される。このように取得された複数の部分画像においては、一つの部分画像において特定の箇所に反射が生じていたとしても、他の部分画像においては、反射箇所及び反射状態が異なる可能性が高い。ある部分の射影方向が所定の方向に揃えられるように変換された複数の部分画像が、位置合わせされた上で加算平均合成されるので、反射部分が除去された部分画像を得ることが可能となる。 According to the above embodiment, a plurality of partial images obtained by imaging the same portion from different directions are obtained. In a plurality of partial images acquired in this way, even if reflection occurs at a specific portion in one partial image, there is a high possibility that the reflection portion and the reflection state are different in other partial images. A plurality of partial images converted so that the projection direction of a certain part is aligned in a predetermined direction are aligned and averaged and synthesized, so that it is possible to obtain a partial image from which a reflected part has been removed. Become.
また、別の形態に係る口腔癌診断システムでは、生成部は、口腔内写真から、歯が表された領域である歯領域を所定の画像処理技術により除去し、判定部は、生成部により歯領域が除去された口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定することとしてもよい。 In the oral cancer diagnosis system according to another aspect, the generation unit removes, from the intraoral photograph, a tooth region that is a region where the teeth are represented by a predetermined image processing technique, and the determination unit determines that the tooth is generated by the generation unit. The presence / absence and state of a disease related to oral cancer may be determined based on the characteristics of the image of the predetermined determination target region shown in the intraoral photograph from which the region has been removed.
上記形態によれば、口腔癌の診断対象ではない歯の領域が除去された口腔内写真に基づいて口腔癌に関する判定が行われるので、口腔癌に関する診断が適切に実施される。 According to the above aspect, since the determination regarding the oral cancer is performed based on the intraoral photograph from which the tooth region which is not the target of the diagnosis of the oral cancer is removed, the diagnosis regarding the oral cancer is appropriately performed.
また、別の形態に係る口腔癌診断システムでは、出力部は、判定情報を、ユーザとは異なる医師の第1の端末において出力させ、判定情報の出力に応じて第1の端末に対して入力された、疾患の診断に関する診断情報が、ユーザの第2の端末において出力されることとしてもよい。 In the oral cancer diagnosis system according to another aspect, the output unit causes the determination information to be output at a first terminal of a doctor different from the user, and inputs the determination information to the first terminal according to the output of the determination information. The performed diagnosis information on the diagnosis of the disease may be output at the second terminal of the user.
上記形態によれば、口腔癌に関する判定の結果が医師の端末において出力されるので、医師に対してユーザの口腔癌に関する判定結果を容易に通知できる。さらに、通知された判定の結果に応じて医師により入力された、診断情報をユーザに通知できるので、ユーザに診断結果を適切に認識させることが可能となる。 According to the above aspect, the result of the determination regarding oral cancer is output at the doctor's terminal, so that the determination result regarding the oral cancer of the user can be easily notified to the doctor. Furthermore, since the diagnostic information input by the doctor according to the notified determination result can be notified to the user, it is possible for the user to appropriately recognize the diagnostic result.
また、別の形態に係る口腔癌診断システムでは、出力部は、判定情報を、第2の端末において出力させることとしてもよい。 In the oral cancer diagnosis system according to another aspect, the output unit may cause the second terminal to output the determination information.
上記形態によれば、口腔癌に関する判定の結果がユーザの端末において出力されるので、ユーザに対して、ユーザ自身の口腔癌に関する判定の結果を容易に通知できる。 According to the above aspect, since the result of the determination regarding the oral cancer is output at the user's terminal, the user can easily be notified of the result of the determination regarding the oral cancer of the user himself.
また、別の形態に係る口腔癌診断システムでは、取得部は、部分画像の撮像時における、当該部分画像を撮像した装置において検出された角速度及び加速度のうちの少なくとも一方の検出値が関連付けられている部分画像を取得し、口腔癌診断システムは、所定値以上の検出値が関連付けられた部分画像を、生成部による口腔内写真の生成に用いられる部分画像から除外する前処理部、をさらに含むこととしてもよい。 In the oral cancer diagnosis system according to another aspect, the acquisition unit associates a detection value of at least one of the angular velocity and the acceleration detected by the device that captured the partial image when capturing the partial image. The oral cancer diagnostic system further includes a preprocessing unit that acquires the partial image that is present and excludes the partial image associated with the detection value equal to or greater than the predetermined value from the partial image used for generating the intraoral photograph by the generation unit. It may be good.
上記形態によれば、角速度センサまたは加速度センサの所定値以上の検出値が関連付けられた部分画像が口腔内写真の生成に用いる画像から除外される。これにより、口腔内写真の合成に、ぶれが生じた部分画像が用いられないこととなる。従って、口腔内の状態の認識が容易な口腔内写真を得ることが可能となる。 According to the embodiment, the partial image associated with the detection value equal to or greater than the predetermined value of the angular velocity sensor or the acceleration sensor is excluded from the image used for generating the intraoral photograph. As a result, the blurred partial image is not used for the synthesis of the intraoral photograph. Therefore, it is possible to obtain an intraoral photograph in which the state of the oral cavity can be easily recognized.
また、別の形態に係る口腔癌診断システムでは、取得部は、1以上の画素からなる領域ごとに撮像対象までの距離を示す深度が関連付けられている部分画像を取得し、口腔癌診断システムは、深度に基づいて部分画像の各領域の輝度を補正する補正部、をさらに含むこととしてもよい。 In the oral cancer diagnosis system according to another aspect, the acquisition unit acquires a partial image in which a depth indicating a distance to an imaging target is associated with each region including one or more pixels, and the oral cancer diagnosis system includes: And a correction unit that corrects the luminance of each region of the partial image based on the depth.
上記形態によれば、口腔内を撮像した画像において、深度が深い領域ほど光源からの光が当たりにくいという知見のもと、深度に基づいて各領域の輝度が補正された部分画像の合成により口腔内写真が生成されるので、口腔内の状態が一様に把握可能な口腔内写真に基づく診断が可能となる。 According to the above-described embodiment, based on the knowledge that the light from the light source is harder to hit in a deeper area in an image obtained by capturing the inside of the oral cavity, the oral cavity is synthesized by combining partial images in which the brightness of each area is corrected based on the depth. Since the internal photograph is generated, a diagnosis based on the intraoral photograph in which the state in the oral cavity can be uniformly grasped becomes possible.
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiment has been described in detail above, it is obvious to those skilled in the art that the present embodiment is not limited to the embodiment described in this specification. This embodiment can be implemented as a modified or changed embodiment without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description in this specification is for the purpose of illustration and description, and does not have any restrictive meaning to the present embodiment.
本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Each aspect / embodiment described in the present disclosure is applicable to LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA (W-CDMA). (Registered trademark), GSM (registered trademark), CDMA2000, Ultra Mobile Broadband (UMB), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth (Registered trademark), a system using other appropriate systems, and / or a next-generation system extended based on these systems.
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedure, sequence, flowchart, and the like of each aspect / embodiment described in the present disclosure may be rearranged as long as there is no inconsistency. For example, the methods described herein present elements of various steps in a sample order, and are not limited to the specific order presented.
情報等は、上位レイヤ(または下位レイヤ)から下位レイヤ(または上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。 Information and the like can be output from an upper layer (or lower layer) to a lower layer (or upper layer). Input and output may be performed via a plurality of network nodes.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input and output information and the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Information that is input and output can be overwritten, updated, or added. The output information or the like may be deleted. The input information or the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made based on a value (0 or 1) represented by one bit, a Boolean value (Boolean: true or false), or a comparison of numerical values (for example, a predetermined value). Value).
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present disclosure may be used alone, may be used in combination, or may be switched and used with execution. Further, the notification of the predetermined information (for example, the notification of “X”) is not limited to being explicitly performed, and is performed implicitly (for example, not performing the notification of the predetermined information). Is also good.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, regardless of whether it is called software, firmware, middleware, microcode, a hardware description language, or any other name, instructions, instruction sets, codes, code segments, program codes, programs, subprograms, software modules , Applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Also, software, instructions, and the like may be transmitted and received via a transmission medium. For example, if the software uses a wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or a wireless technology such as infrared, wireless and microwave, the website, server, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc., that can be referred to throughout the above description are not limited to voltages, currents, electromagnetic waves, magnetic or magnetic particles, optical or photons, or any of these. May be represented by a combination of
なお、本開示において説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 Note that terms described in the present disclosure and / or terms necessary for understanding the present specification may be replaced with terms having the same or similar meaning.
本開示において使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" as used in this disclosure are used interchangeably.
また、本開示において説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 Further, the information, parameters, and the like described in the present disclosure may be represented by an absolute value, may be represented by a relative value from a predetermined value, or may be represented by other corresponding information.
本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 The terms "determining" and "determining" as used in the present disclosure may encompass a wide variety of operations. `` Judgment '', `` decision '', for example, judgment (judging), calculation (calculating), calculation (computing), processing (processing), derivation (deriving), investigating (investigating), searching (looking up, search, inquiry) (E.g., searching in a table, database, or another data structure), ascertaining may be considered "determined", "determined", and the like. Also, “determining” and “deciding” include receiving (eg, receiving information), transmitting (eg, transmitting information), input (input), output (output), and access. (accessing) (for example, accessing data in a memory) may be regarded as “determined” or “determined”. In addition, `` judgment '' and `` decision '' means that resolving, selecting, selecting, establishing, establishing, comparing, etc. are regarded as `` judgment '' and `` decided ''. May be included. In other words, “judgment” and “decision” may include deeming any operation as “judgment” and “determined”. “Judgment (determination)” may be read as “assuming”, “expecting”, “considering”, or the like.
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected," "coupled," or any variation thereof, mean any direct or indirect connection or connection between two or more elements that It may include the presence of one or more intermediate elements between the two elements "connected" or "coupled." The coupling or connection between the elements may be physical, logical, or a combination thereof. For example, “connection” may be read as “access”. As used in this disclosure, two elements may be implemented using at least one of one or more wires, cables, and printed electrical connections, and as some non-limiting and non-exhaustive examples, in the radio frequency domain. , Can be considered "connected" or "coupled" to each other using electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 Reference to “based on” as used in the present disclosure does not mean “based solely on” unless otherwise indicated. In other words, the phrase "based on" means both "based only on" and "based at least on."
本開示において「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 In using the designations “first,” “second,” and the like in this disclosure, any reference to the element does not generally limit the quantity or order of the element. These designations may be used herein as a convenient way to distinguish between two or more elements. Thus, a reference to a first and second element does not mean that only two elements may be employed therein, or that the first element must somehow precede the second element.
「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 As long as “include”, “including”, and variations thereof, are used in the present description or claims, these terms are equivalent to the term “comprising” It is intended to be comprehensive. Further, it is intended that the term "or", as used herein or in the claims, not be the exclusive OR.
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In the present disclosure, where articles are added by translation, for example, a, an and the in English, the present disclosure may include that the nouns following these articles are plural.
本開示において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。 This disclosure also includes a plurality of devices, unless the context or technology clearly indicates that only one device exists.
本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 Throughout this disclosure, the singular may include the plural unless the context clearly dictates otherwise.
1…口腔癌診断システム、10…口腔癌診断装置、11…取得部、12…前処理部、13…除去部、14…補正部、15…生成部、16…判定部、17…出力部、20…端末、21…画像取得部、22…画像送信部、23…判定結果受信部、24…判定結果提示部、25…画像センサ、26…深度センサ、27…加速度センサ、28…角速度センサ、29…ディスプレイ、30…端末、31…受信部、32…提示部、33…受付部、34…送信部、35…ディスプレイ、M1…記録媒体、m10…メインモジュール、m11…取得モジュール、m12…前処理モジュール、m13…除去モジュール、m14…補正モジュール、m15…生成モジュール、m16…判定モジュール、m17…出力モジュール、N…ネットワーク、P1…口腔癌診断プログラム。 DESCRIPTION OF SYMBOLS 1 ... Oral cancer diagnostic system, 10 ... Oral cancer diagnostic apparatus, 11 ... Acquisition part, 12 ... Preprocessing part, 13 ... Removal part, 14 ... Correction part, 15 ... Generation part, 16 ... Judgment part, 17 ... Output part, 20 terminal, 21 image acquisition unit, 22 image transmission unit, 23 determination result receiving unit, 24 determination result presentation unit, 25 image sensor, 26 depth sensor, 27 acceleration sensor, 28 angular velocity sensor, 29 display, 30 terminal, 31 reception unit, 32 presentation unit, 33 reception unit, 34 transmission unit, 35 display, M1 recording medium, m10 main module, m11 acquisition module, m12 front Processing module, m13: removal module, m14: correction module, m15: generation module, m16: determination module, m17: output module, N: network, P1: oral cancer diagnosis Program.
Claims (10)
前記ユーザの口腔内の部分を撮像した部分画像を複数取得する取得部と、
前記部分画像において反射が生じている領域である反射部分の除去または前記反射部分を含まない部分画像の抽出により、前記反射部分を含まない部分画像を取得する除去部と、
前記除去部により取得された部分画像を含む複数の部分画像を合成して前記口腔内写真を生成する生成部と、
前記口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定部と、
前記判定部により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力部と、
を備える口腔癌診断システム。 An oral cancer diagnostic system for diagnosing a disease related to oral cancer in the oral cavity of a user based on an intraoral photograph composed of a plurality of images representing a predetermined region in the oral cavity,
An acquisition unit configured to acquire a plurality of partial images obtained by imaging a portion in the oral cavity of the user,
By removing the reflection portion which is a region where reflection has occurred in the partial image or extracting the partial image not including the reflection portion, a removal unit to obtain a partial image not including the reflection portion,
A generation unit that generates the intraoral photograph by synthesizing a plurality of partial images including the partial image obtained by the removal unit,
Based on the characteristics of the image of the predetermined determination target region represented in the intraoral photograph, a determination unit that determines the presence or absence and state of a disease related to oral cancer,
An output unit that has been determined by the determination unit and outputs determination information about the presence or absence and state of a disease related to oral cancer,
An oral cancer diagnostic system comprising:
請求項1に記載の口腔癌診断システム。 The removal unit determines whether or not the partial image includes the reflection portion based on a pixel value of each pixel included in the partial image, and from the plurality of partial images acquired by the acquisition unit, Extract partial images that do not include the part,
The oral cancer diagnostic system according to claim 1.
前記除去部は、前記部分画像に表されている前記部分の射影方向を所定の方向に合わせるように複数の前記部分画像を変換し、口腔内における同じ部分を表す画素が互いに対応付けられるように位置合わせをして前記複数の部分画像を加算平均合成することにより、前記反射部分が除去された部分画像を取得する、
請求項3に記載の口腔癌診断システム。 The acquisition unit acquires a plurality of partial images obtained by imaging the same portion in the oral cavity from different directions,
The removing unit converts the plurality of partial images so that the projection direction of the part represented in the partial image is aligned with a predetermined direction, so that pixels representing the same part in the oral cavity are associated with each other. By performing averaging synthesis of the plurality of partial images by performing position alignment, a partial image from which the reflection portion has been removed is obtained,
The oral cancer diagnostic system according to claim 3.
前記判定部は、前記生成部により前記歯領域が除去された前記口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する、
請求項1〜4のいずれか一項に記載の口腔癌診断システム。 From the intraoral photograph, the generation unit removes a tooth region that is a region where a tooth is represented by a predetermined image processing technique,
The determination unit is configured to determine the presence and absence of a disease related to oral cancer based on a feature of an image of a predetermined determination target region represented in the intraoral photograph from which the tooth region has been removed by the generation unit.
The oral cancer diagnostic system according to any one of claims 1 to 4.
前記判定情報の出力に応じて前記第1の端末に対して入力された、疾患の診断に関する診断情報が、前記ユーザの第2の端末において出力される、
請求項1〜5のいずれか一項に記載の口腔癌診断システム。 The output unit causes the determination information to be output at a first terminal of a doctor different from the user,
Diagnostic information relating to the diagnosis of a disease, which is input to the first terminal in response to the output of the determination information, is output at the second terminal of the user.
The oral cancer diagnostic system according to any one of claims 1 to 5.
請求項6に記載の口腔癌診断システム。 The output unit causes the second terminal to output the determination information.
The oral cancer diagnostic system according to claim 6.
前記口腔癌診断システムは、
所定値以上の前記検出値が関連付けられた前記部分画像を、前記生成部による口腔内写真の生成に用いられる部分画像から除外する前処理部、をさらに含む、
請求項1〜7のいずれか一項に記載の口腔癌診断システム。 The acquisition unit, at the time of imaging the partial image, acquires the partial image associated with at least one detection value of the angular velocity and the acceleration detected in the device that has captured the partial image,
The oral cancer diagnostic system,
A preprocessing unit that excludes the partial image associated with the detection value equal to or greater than a predetermined value from the partial image used for generating the intraoral photograph by the generation unit,
The oral cancer diagnostic system according to any one of claims 1 to 7.
前記口腔癌診断システムは、
深度に基づいて前記部分画像の各領域の輝度を補正する補正部、をさらに含む、
請求項1〜8のいずれか一項に記載の口腔癌診断システム。 The acquisition unit acquires the partial image associated with a depth indicating a distance to an imaging target for each region including one or more pixels,
The oral cancer diagnostic system,
A correction unit that corrects the luminance of each region of the partial image based on the depth,
The oral cancer diagnostic system according to any one of claims 1 to 8.
前記コンピュータに、
前記ユーザの口腔内の部分を撮像した部分画像を複数取得する取得機能と、
前記部分画像において反射が生じている領域である反射部分の除去または前記反射部分を含まない部分画像の抽出により、前記反射部分を含まない部分画像を取得する除去機能と、
前記除去機能により取得された部分画像を含む複数の部分画像を合成して前記口腔内写真を生成する生成機能と、
前記口腔内写真に表された所定の判定対象領域の画像の特徴に基づいて、口腔癌に関する疾患の有無及び状態を判定する判定機能と、
前記判定機能により判定された、口腔癌に関する疾患の有無及び状態に関する判定情報を出力する出力機能と、
を実現させる口腔癌診断プログラム。
An oral cancer diagnostic program for causing a computer to function as an oral cancer diagnostic system for diagnosing a disease related to oral cancer in the oral cavity of a user based on an intraoral photograph composed of a plurality of images representing a predetermined region in the oral cavity. hand,
On the computer,
An acquisition function of acquiring a plurality of partial images obtained by imaging a portion in the oral cavity of the user,
By removing the reflection portion which is a region where reflection occurs in the partial image or extracting the partial image not including the reflection portion, a removal function of acquiring a partial image not including the reflection portion,
A generation function of synthesizing a plurality of partial images including the partial image obtained by the removal function to generate the intraoral photograph,
Based on the characteristics of the image of the predetermined determination target area represented in the intraoral photograph, a determination function of determining the presence or absence and state of a disease related to oral cancer,
An output function of outputting determination information on the presence or absence and state of a disease related to oral cancer, determined by the determination function,
An oral cancer diagnosis program that realizes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018185038A JP7067743B2 (en) | 2018-09-28 | 2018-09-28 | Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018185038A JP7067743B2 (en) | 2018-09-28 | 2018-09-28 | Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020054444A true JP2020054444A (en) | 2020-04-09 |
JP7067743B2 JP7067743B2 (en) | 2022-05-16 |
Family
ID=70105581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018185038A Active JP7067743B2 (en) | 2018-09-28 | 2018-09-28 | Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7067743B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230019527A (en) * | 2021-08-02 | 2023-02-09 | 가천대학교 산학협력단 | Method for removing reflected light of medical image based on machine learning and device using the same |
JP7462534B2 (en) | 2020-11-02 | 2024-04-05 | 株式会社Nttドコモ | Image Recording System |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05108819A (en) * | 1991-03-26 | 1993-04-30 | Olympus Optical Co Ltd | Picture processor |
JP2000102514A (en) * | 1998-09-30 | 2000-04-11 | Internatl Univ Of Health & Welfare | Remote medical system |
JP2003283924A (en) * | 2002-03-26 | 2003-10-03 | Fuji Photo Film Co Ltd | Imaging device, image processing system, imaging method, and program |
JP2006041603A (en) * | 2004-07-22 | 2006-02-09 | Seiko Epson Corp | Image processing apparatus, image processing method, and image processing program |
JP2011521237A (en) * | 2008-05-20 | 2011-07-21 | ユニバーシティー ヘルス ネットワーク | Apparatus and method for imaging and monitoring based on fluorescent light |
WO2017199635A1 (en) * | 2016-05-18 | 2017-11-23 | オリンパス株式会社 | Image analysis device, image analysis system, and method for operating image analysis device |
-
2018
- 2018-09-28 JP JP2018185038A patent/JP7067743B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05108819A (en) * | 1991-03-26 | 1993-04-30 | Olympus Optical Co Ltd | Picture processor |
JP2000102514A (en) * | 1998-09-30 | 2000-04-11 | Internatl Univ Of Health & Welfare | Remote medical system |
JP2003283924A (en) * | 2002-03-26 | 2003-10-03 | Fuji Photo Film Co Ltd | Imaging device, image processing system, imaging method, and program |
JP2006041603A (en) * | 2004-07-22 | 2006-02-09 | Seiko Epson Corp | Image processing apparatus, image processing method, and image processing program |
JP2011521237A (en) * | 2008-05-20 | 2011-07-21 | ユニバーシティー ヘルス ネットワーク | Apparatus and method for imaging and monitoring based on fluorescent light |
WO2017199635A1 (en) * | 2016-05-18 | 2017-11-23 | オリンパス株式会社 | Image analysis device, image analysis system, and method for operating image analysis device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7462534B2 (en) | 2020-11-02 | 2024-04-05 | 株式会社Nttドコモ | Image Recording System |
KR20230019527A (en) * | 2021-08-02 | 2023-02-09 | 가천대학교 산학협력단 | Method for removing reflected light of medical image based on machine learning and device using the same |
KR102517232B1 (en) * | 2021-08-02 | 2023-03-31 | 가천대학교 산학협력단 | Method for removing reflected light of medical image based on machine learning and device using the same |
Also Published As
Publication number | Publication date |
---|---|
JP7067743B2 (en) | 2022-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6938410B2 (en) | Oral Disease Diagnosis System and Oral Disease Diagnosis Program | |
WO2022151755A1 (en) | Target detection method and apparatus, and electronic device, storage medium, computer program product and computer program | |
US20160037067A1 (en) | Method for generating image and electronic device thereof | |
JP7260115B2 (en) | Mobile devices and photography assistance programs | |
US9886766B2 (en) | Electronic device and method for adding data to image and extracting added data from image | |
US10966599B2 (en) | Endoscopic stereo matching method and apparatus using direct attenuation model | |
WO2021103938A1 (en) | Medical image processing method, apparatus and device, medium and endoscope | |
WO2019011148A1 (en) | White balance processing method and apparatus | |
WO2022022350A1 (en) | Image processing method and apparatus, electronic device, storage medium, and computer program product | |
JP2021051573A (en) | Image processing apparatus, and method of controlling image processing apparatus | |
KR102224064B1 (en) | Apparatus For Separating Gum Area From Oral Scan Image | |
JP7067743B2 (en) | Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program | |
JP2017033256A (en) | Image processing device, communication system, image processing method, and program | |
US9311522B2 (en) | Apparatus and method for improving face recognition ratio | |
CN114693593A (en) | Image processing method, device and computer device | |
JP6807869B2 (en) | Image processing equipment, image processing methods and programs | |
JP6938409B2 (en) | Intracavitary photo generator and intracavitary photo generator | |
JP2017213058A (en) | Image processing device, endoscope device, image processing method, and image processing program | |
JP2018084861A (en) | Information processing apparatus, information processing method and information processing program | |
JP2011198270A (en) | Object recognition device and controller using the same, and object recognition method | |
WO2018107566A1 (en) | Processing method and mobile device | |
US8358353B2 (en) | Image input apparatus, image verification apparatus, and control methods therefor | |
JP2015156540A (en) | Image processing device, image processing method, and image processing program | |
CN106851135A (en) | The unique mark value of sensor | |
JP2011029710A (en) | Image processor, image processing program, and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181127 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7067743 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |