JP7163155B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP7163155B2 JP7163155B2 JP2018227511A JP2018227511A JP7163155B2 JP 7163155 B2 JP7163155 B2 JP 7163155B2 JP 2018227511 A JP2018227511 A JP 2018227511A JP 2018227511 A JP2018227511 A JP 2018227511A JP 7163155 B2 JP7163155 B2 JP 7163155B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- area
- image
- deformation
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
Description
本発明は、内視鏡画像の関心領域の視認性を高める技術に関する。 The present invention relates to a technique for enhancing the visibility of a region of interest in an endoscopic image.
特許文献1は、被写体を含む撮像画像に対して注目領域を設定し、注目領域を他の領域よりも相対的に拡大する局所的な変倍処理を実施する内視鏡装置を開示する。この内視鏡装置は、画角を維持しながら画像を変倍処理し、注目領域を所定の倍率で拡大する。
近年、医療施設における医師の診断支援を目的として、撮影した内視鏡画像に含まれる病変を抽出するニューラルネットワークが開発されている。また内視鏡画像の観察の際、泡や残渣などを含む領域は観察に不適切であるため、内視鏡画像に含まれる泡や残渣などを抽出するニューラルネットワークも注目されている。内視鏡画像の表示時、病変を含む領域、泡や残渣などを含む領域をマーキングすることで、医師による読影作業を効率化できる。 In recent years, neural networks have been developed for extracting lesions contained in captured endoscopic images for the purpose of supporting diagnosis by doctors in medical facilities. In addition, when observing an endoscopic image, since areas containing bubbles and residue are not suitable for observation, a neural network for extracting bubbles and residue contained in the endoscopic image is also attracting attention. When displaying endoscopic images, doctors can more efficiently interpret images by marking areas that contain lesions and areas that contain bubbles and debris.
しかしながら病変領域をマーキングしても、病変領域が小さければ、病変領域の視認性は高くならない。また表示装置に複数の内視鏡画像を並べて表示する場合、各内視鏡画像が縮小表示されることで、病変領域の視認性は低くなる。また表示装置の画面サイズがそもそも小さければ、病変領域は小さく表示される。そこで病変領域の視認性を高めることに対して切実な要望が存在する。 However, even if the lesion area is marked, if the lesion area is small, the visibility of the lesion area is not high. Further, when displaying a plurality of endoscopic images side by side on the display device, each endoscopic image is displayed in a reduced size, which reduces the visibility of the lesion area. Also, if the screen size of the display device is originally small, the lesion area will be displayed small. Therefore, there is an urgent need to improve the visibility of the lesion area.
本発明はこうした状況に鑑みなされたものであり、その目的は、病変を含む関心領域の視認性を高める技術を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for enhancing the visibility of a region of interest including a lesion.
上記課題を解決するために、本発明のある態様の画像処理装置は、内視鏡画像の画像領域を、関心領域である第1領域、観察に不適切な領域である第2領域、第1領域および第2領域とは異なる第3領域に分類した結果を取得する領域情報取得部と、第1領域を拡大し、第2領域を第3領域よりも優先して縮小する変形処理部と、変形処理部により変形された変形画像を表示装置に表示させる表示制御部とを備える。 In order to solve the above problems, an image processing apparatus according to one aspect of the present invention divides an image region of an endoscopic image into a first region that is a region of interest, a second region that is an inappropriate region for observation, a first a region information acquisition unit that acquires a region and a result of classification into a third region different from the second region; a transformation processing unit that enlarges the first region and shrinks the second region with priority over the third region; and a display control unit that causes a display device to display the deformed image deformed by the deformation processing unit.
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 Any combination of the above constituent elements, and conversion of expressions of the present invention into methods, devices, systems, recording media, computer programs, etc. are also effective as aspects of the present invention.
本発明によれば、病変を含む関心領域の視認性を高める技術を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which improves the visibility of the region of interest containing a lesion can be provided.
図1は、画像処理システム1の機能ブロックを示す。画像処理システム1は、内視鏡画像記憶部10、領域分類装置20、画像処理装置30および表示装置40を備える。内視鏡画像記憶部10は、撮影された内視鏡画像を記憶する。内視鏡画像は、医師が内視鏡検査中に撮影した画像であってよく、カプセル内視鏡が撮影した画像であってもよい。
FIG. 1 shows functional blocks of an
領域分類装置20は、内視鏡画像に含まれる画像領域を認識して、各画像領域のカテゴリを分類するニューラルネットワークであってよい。ここで領域分類装置20は、病変が撮影された関心領域である第1領域を抽出する第1機能と、泡や残渣などが撮影された第2領域を抽出する第2機能とを少なくとも含む。第2領域は、泡や残渣の存在のために医師による観察に不適切な領域であり、ここで観察に不適切とは、観察が不能または観察が不要であることを含む。第1機能および第2機能は、それぞれ機械学習したモデルにより実現されてよい。
The
領域分類装置20はさらに、第1領域および第2領域とは異なる第3領域を抽出する第3機能を有する。第3領域は、正常な粘膜等を撮影した領域を含む。実施例で領域分類装置20は、第1領域および第2領域のいずれとしても抽出されなかった領域を第3領域として抽出してよい。つまり第3領域は、第1領域および第2領域として抽出されなかった画像領域と定義されてよい。なお第3領域は、機械学習したモデルによって抽出されてもよい。
The
領域分類装置20は、内視鏡画像の画像領域を任意のタイミングでカテゴリに分類してよい。たとえば内視鏡画像が内視鏡画像記憶部10に格納されたとき、領域分類装置20は、画像領域の分類処理を実施してよい。分類処理結果は、内視鏡画像に関連づけられて、内視鏡画像記憶部10に記憶される。なお医師が内視鏡画像を観察する際に、領域分類装置20が、内視鏡画像を内視鏡画像記憶部10から読み出して分類処理し、内視鏡画像とともに分類処理結果を画像処理装置30に提供してもよい。いずれにしても領域分類装置20は、画像処理装置30による画像処理の前に、内視鏡画像の画像領域のカテゴリを特定する。
The
図2は、内視鏡画像の例を示す。この例で内視鏡画像は、横方向に8分割、縦方向に8分割される。分割された局所領域は同じ大きさを有し、1以上の所定数の画素のまとまりで構成される。領域分類装置20は、計64個の局所領域のそれぞれのカテゴリを特定することで、画像領域の分類処理を実施する。
FIG. 2 shows an example of an endoscopic image. In this example, the endoscopic image is divided into 8 in the horizontal direction and 8 in the vertical direction. The divided local regions have the same size and are composed of groups of a predetermined number of pixels that are one or more. The
実施例の内視鏡画像の画像領域は、関心領域である第1領域50、観察に不適切な領域である第2領域60、第1領域および第2領域以外の領域である第3領域70に分類される。図2で第1領域50は、複数の局所領域にまたがる連続領域として示されているが、病変の大きさは様々であり、1つの細胞の大きさであることもある。
The image regions of the endoscopic image of the embodiment are a
領域分類装置20は、内視鏡画像を複数の局所領域に分割して、各局所領域のカテゴリを算出する。各局所領域のカテゴリは、病変を含むことを示すカテゴリ(関心カテゴリ)、観察に不適切な泡や残渣などを含むことを示すカテゴリ(観察不適カテゴリ)、関心領域および観察不適領域のいずれでもない領域であることを示すカテゴリ(正常カテゴリ)のいずれかに設定される。
The
領域分類装置20は、局所領域を画像解析して、当該局所領域の各カテゴリの確率を算出し、最も高い確率のカテゴリを特定する。たとえば、ある局所領域に関して、関心カテゴリである確率が80%、観察不適カテゴリである確率が15%、正常カテゴリである確率が5%であることが算出されれば、当該局所領域のカテゴリは、最も確率の高い関心カテゴリと導出される。
The
図2において、横軸をX軸、縦軸をY軸とし、局所領域を(X座標、Y座標)で表現すると、関心カテゴリに分類された局所領域は、以下のとおり。
(1,3)、(2,3)、(3,3)、(4,3)、(5,3)、(6,3)、(7,3)、(8,3)、(1,4)、(2,4)、(3,4)、(4,4)、(5,4)、(6,4)、(7,4)、(8,4)
関心カテゴリに分類された局所領域の集合が、第1領域50を構成する。
In FIG. 2, the horizontal axis is the X axis, the vertical axis is the Y axis, and the local areas are expressed by (X coordinate, Y coordinate), and the local areas classified into the interest categories are as follows.
(1,3), (2,3), (3,3), (4,3), (5,3), (6,3), (7,3), (8,3), (1 ,4), (2,4), (3,4), (4,4), (5,4), (6,4), (7,4), (8,4)
A set of local regions classified into interest categories constitutes the
観察不適カテゴリに分類された局所領域は、以下のとおり。
(1,6)、(2,6)、(3,6)、(4,6)、(5,6)、(6,6)、(7,6)、(8,6)、(1,7)、(2,7)、(3,7)、(4,7)、(5,7)、(6,7)、(7,7)、(8,7)、(1,8)、(2,8)、(3,8)、(4,8)、(5,8)、(6,8)、(7,8)、(8,8)
観察不適カテゴリに分類された局所領域の集合が、第2領域60を構成する。
Local areas classified into the unobservable category are as follows.
(1,6), (2,6), (3,6), (4,6), (5,6), (6,6), (7,6), (8,6), (1 ,7), (2,7), (3,7), (4,7), (5,7), (6,7), (7,7), (8,7), (1,8 ), (2,8), (3,8), (4,8), (5,8), (6,8), (7,8), (8,8)
A set of local regions classified into the unobservable category constitutes the
正常カテゴリに分類された局所領域は、以下のとおり。
(1,1)、(2,1)、(3,1)、(4,1)、(5,1)、(6,1)、(7,1)、(8,1)、(1,2)、(2,2)、(3,2)、(4,2)、(5,2)、(6,2)、(7,2)、(8,2)、(1,5)、(2,5)、(3,5)、(4,5)、(5,5)、(6,5)、(7,5)、(8,5)
正常カテゴリに分類された局所領域の集合が、第3領域70を構成する。
The locoregions classified into the normal category are:
(1,1), (2,1), (3,1), (4,1), (5,1), (6,1), (7,1), (8,1), (1 , 2), (2, 2), (3, 2), (4, 2), (5, 2), (6, 2), (7, 2), (8, 2), (1, 5 ), (2,5), (3,5), (4,5), (5,5), (6,5), (7,5), (8,5)
A set of local regions classified into the normal category constitutes the
医師による画像観察時、画像処理装置30は、領域分類装置20による分類処理結果にもとづいて、内視鏡画像に含まれる関心領域(第1領域)を拡大する画像変形処理を実施し、変形した画像を表示装置40に出力する。これにより関心領域の視認性が高まり、医師は、拡大表示された関心領域を観察する。
When a doctor observes an image, the
画像処理装置30は、領域情報取得部32、変形処理部34および表示制御部36を備える。領域情報取得部32は、内視鏡画像の画像領域を、第1領域、第2領域、第3領域に分類した結果を取得する。領域情報取得部32は分類結果を、内視鏡画像記憶部10から、内視鏡画像とともに取得してよい。
The
変形処理部34は、第1領域50を拡大し、第2領域60を第3領域70よりも優先して縮小する。表示制御部36は、変形処理部34により変形された変形画像を表示装置40に表示させる。
The
画像処理装置30のそれぞれの構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
Each configuration of the
図3は、図2に示す内視鏡画像を変形した変形画像の例を示す。変形処理部34は、第1領域50を拡大し、第1領域50を拡大した面積分だけ、第2領域60を縮小する。この例では、変形処理部34が、関心カテゴリに分類された局所領域のそれぞれの面積を2倍に拡大し、第1領域50の視認性を高めている。
FIG. 3 shows an example of a deformed image obtained by deforming the endoscopic image shown in FIG. The
変形処理部34は、第1領域50を拡大することで増える面積増加分を算出し、算出した面積増加分と、変形前の第2領域60の総面積とを比較する。変形後の第1領域50の面積増加分が、変形前の第2領域60の総面積以下であれば、変形処理部34は、第1領域50の面積増加分を、第2領域60を縮小することでまかなう。
The
この例では、第1領域50を構成する局所領域の面積が2倍に拡大されるため、(変形前の局所領域の面積×16)が面積増加分となる。変形前の第2領域60の総面積は(変形前の局所領域の面積×24)であり、変形前の第2領域60の総面積の方が大きい。そこで変形処理部34は、第3領域70を縮小することなく、第2領域60を縮小することで、第2領域60の面積縮小分を第1領域50の面積増加分にあてる。
In this example, since the area of the local region forming the
第1領域50が拡大表示されることで、第1領域50の視認性を高められる。また第3領域70の表示面積が縮小されないことで、第3領域70の視認性を維持できる。このように変形処理部34は、第2領域60を第3領域70よりも優先して縮小する変形処理を実施することで、第3領域70の視認性を維持しつつ、第1領域50の視認性を高めることができる。なお変形処理部34は、第3領域70の表示面積を維持する限りにおいて、第3領域70の形状を変形してもよい。
The visibility of the
変形処理部34は、目的関数と制約条件を用いて局所領域の格子点の位置を求める最適化問題を解くことで、局所領域の変形処理を実施する。目的関数は、各格子点の移動量の総和、平均、分散、標準偏差のいずれかにもとづく関数であってよい。制約条件は、以下のように定められてよい。
The
(制約条件1)
変形後の第1領域の面積が、変形前の第1領域の面積の所定倍となる。拡大率は適宜設定されてよいが、実施例では、拡大率を2倍としている。
(制約条件2)
第2領域を構成する局所領域の変形前後の面積比が同一である。たとえば図3に示す例では、第2領域を構成する局所領域の(変形後の面積/変形前の面積)が1/3である。
(制約条件3)
第3領域を構成する局所領域の面積が変形前後で変わらない。
(Constraint 1)
The area of the first region after deformation is a predetermined multiple of the area of the first region before deformation. The enlargement rate may be set as appropriate, but in the embodiment, the enlargement rate is set to 2 times.
(Constraint 2)
The area ratios of the local regions that constitute the second region are the same before and after the deformation. For example, in the example shown in FIG. 3, the (area after deformation/area before deformation) of the local region forming the second region is 1/3.
(Constraint 3)
The area of the local region forming the third region does not change before and after deformation.
以下の例で変形処理部34は、目的関数fを、各格子点の移動量の総和とする。
このとき4点の移動後の格子で囲まれた局所領域の面積Sijは、以下の式で示される。
第2領域を構成する局所領域 (S1, ... ,Sa)
第1領域を構成する局所領域 (Sa+1, ... ,Sb)
第3領域を構成する局所領域 (Sb+1, ... ,SN)
At this time, the area S ij of the local region surrounded by the grid after the movement of the four points is expressed by the following formula.
Local regions (S 1 , ... ,S a ) forming the second region
Local regions (Sa+1, ... ,S b ) that make up the first region
Local regions (S b+1 , ... ,S N ) constituting the third region
このときの制約条件を示す。
このように第1領域50を拡大することで増える面積増加分が、変形前の第2領域60の総面積以下である場合、変形処理部34は、第3領域70を縮小することなく、第2領域60の縮小する変形処理を実施する。
If the increase in area by enlarging the
次に、第1領域50を拡大することで増える面積増加分が、変形前の第2領域60の総面積より大きい場合の変形処理について説明する。
Next, a description will be given of deformation processing in the case where the increase in area by enlarging the
図4は、内視鏡画像の別の例を示す。
この例で、関心カテゴリに分類された局所領域は、以下のとおり。
(1,3)、(2,3)、(3,3)、(4,3)、(5,3)、(6,3)、(7,3)、(8,3)、(1,4)、(2,4)、(3,4)、(4,4)、(5,4)、(6,4)、(7,4)、(8,4)
FIG. 4 shows another example of an endoscopic image.
In this example, the local regions classified into categories of interest are:
(1,3), (2,3), (3,3), (4,3), (5,3), (6,3), (7,3), (8,3), (1 ,4), (2,4), (3,4), (4,4), (5,4), (6,4), (7,4), (8,4)
観察不適カテゴリに分類された局所領域は、以下のとおり。
(1,8)、(2,8)、(3,8)、(4,8)、(5,8)、(6,8)、(7,8)、(8,8)
正常カテゴリに分類された局所領域は、残りの局所領域である。
Local areas classified into the unobservable category are as follows.
(1,8), (2,8), (3,8), (4,8), (5,8), (6,8), (7,8), (8,8)
The local regions classified into the normal category are the remaining local regions.
変形処理部34は、第1領域50を拡大し、第2領域60を第3領域70よりも優先して縮小する。ここで変形処理部34は、第1領域50の面積増加分と、変形前の第2領域60の総面積とを比較する。上記したように変形後の第1領域50の面積増加分が、変形前の第2領域60の総面積以下であれば、変形処理部34は、第1領域50の面積増加分を、第2領域60を縮小することでまかなう。
The
図4に示す例では、第1領域50を構成する局所領域が2倍の面積に拡大され、(変形前の局所領域の面積×16)が面積増加分となる。一方、変形前の第2領域60の総面積は、(変形前の局所領域の面積×8)であり、第1領域50の面積増加分の方が大きい。そこで変形処理部34は、第2領域60をなくすだけでは第1領域50の面積増加分を補うことができず、第3領域70を縮小しなければならないことを判断する。
In the example shown in FIG. 4, the area of the local area that constitutes the
図5は、図4に示す内視鏡画像を変形した変形画像の例を示す。図5に示す変形画像では、第1領域50が拡大表示され、第2領域60が表示から削除され、第3領域70が縮小表示されている。このとき第3領域70を構成する各局所領域の変形後と変形前の面積比を同じにすることが好ましい。図5に示す例では、第1領域50の面積増加分から第2領域60の総面積を引いた(変形前の局所領域の面積×8)を、第3領域70を縮小することでまかなう。そのため、第2領域を構成する全ての局所領域の(変形後の面積/変形前の面積)は、4/5とされる。
FIG. 5 shows an example of a deformed image obtained by deforming the endoscopic image shown in FIG. In the deformed image shown in FIG. 5, the
第1領域50が拡大表示されることで、第1領域50の視認性を高められる。また第3領域70の表示面積が縮小されつつも、各局所領域の変形前後の面積比を同一とすることで、第3領域70の視認性を維持できる。このように変形処理部34は、第2領域60を第3領域70よりも優先して縮小する変形処理を実施することで、第3領域70の視認性を維持しつつ、第1領域50の視認性を高めることができる。
The visibility of the
このときの制約条件を示す。
このように第1領域50を拡大することで増える面積増加分が、変形前の第2領域60の総面積より大きい場合、変形処理部34は、第2領域60を削除しつつ、第3領域70の局所面積を同一の拡大率で縮小する変形処理を実施する。
When the increase in area by enlarging the
なお上記した実施例で変形処理部34は、第1領域50の拡大率を2倍としているが、第1領域50の視認性に応じて第1領域50の拡大率を決定してよい。変形処理部34は、変形前の第1領域50の視認性の良否を、表示装置40における第1領域50の表示サイズに応じて判断する。たとえば表示装置40における第1領域50の表示サイズ(たとえば縦長または横長)が所定値未満である場合、変形処理部34は、第1領域50の視認性が低いことを判定する。このとき変形処理部34は、表示装置40における第1領域50の表示サイズが所定値以上となる大きさに拡大してよい。
Although the
なお表示装置40における第1領域50の表示サイズは、表示装置40の画面サイズに依存する。またPCなどの端末装置で表示する場合と、スマートフォンなどの携帯型端末装置で表示する場合とでは、目と表示装置との距離が異なるために、第1領域50の表示サイズが同じであっても視認性は異なる。そこで領域情報取得部32は、表示装置40の種類および画面サイズに応じて、視認性の良否を判定するための表示サイズの閾値を設定してよい。
Note that the display size of the
なお視認性の良否判断は、表示サイズだけでなく、病変の種類や、色、コントラスト、明るさなどを基準としてもよい。いずれにしても変形処理部34は、元の内視鏡画像に含まれる第1領域50の視認性が低いことが推定される場合に、当該第1領域50を拡大変形する。なお変形処理部34は、第1領域50の視認性が高いことが推定される場合には、当該第1領域50を拡大変形しなくてもよい。
It should be noted that the quality of visibility may be determined based on not only the display size but also the type of lesion, color, contrast, brightness, and the like. In any case, the
以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the examples. Those skilled in the art will understand that the embodiments are illustrative, and that various modifications can be made to combinations of each component and each treatment process, and such modifications are also within the scope of the present invention.
1・・・画像処理システム、10・・・内視鏡画像記憶部、20・・・領域分類装置、30・・・画像処理装置、32・・・領域情報取得部、34・・・変形処理部、36・・・表示制御部、40・・・表示装置、50・・・第1領域、60・・・第2領域、70・・・第3領域。
DESCRIPTION OF
Claims (6)
前記第1領域を拡大し、前記第2領域を前記第3領域よりも優先して縮小する変形処理部と、
前記変形処理部により変形された変形画像を表示装置に表示させる表示制御部と、
を備えることを特徴とする画像処理装置。 Acquiring a result of classifying an image region of an endoscopic image into a first region that is a region of interest, a second region that is an inappropriate region for observation, and a third region that is different from the first region and the second region. a region information acquisition unit for
a transformation processing unit that enlarges the first area and shrinks the second area with priority over the third area;
a display control unit for displaying a deformed image deformed by the deformation processing unit on a display device;
An image processing device comprising:
ことを特徴とする請求項1に記載の画像処理装置。 The deformation processing unit reduces the second area without reducing the third area.
2. The image processing apparatus according to claim 1, wherein:
ことを特徴とする請求項1に記載の画像処理装置。 The deformation processing unit reduces the third region when the area increased by enlarging the first region is larger than the total area of the second region.
2. The image processing apparatus according to claim 1, wherein:
ことを特徴とする請求項1に記載の画像処理装置。 The deformation processing unit determines the enlargement ratio of the first area according to the visibility of the first area.
2. The image processing apparatus according to claim 1, wherein:
前記変形処理部は、局所領域を変形することで、前記変形画像を生成する、
ことを特徴とする請求項1に記載の画像処理装置。 An endoscopic image is divided into a plurality of local regions,
The deformation processing unit generates the deformed image by deforming the local region.
2. The image processing apparatus according to claim 1, wherein:
ことを特徴とする請求項5に記載の画像処理装置。 The deformation processing unit makes the area ratios of the local regions forming the third region the same after deformation and before deformation,
6. The image processing apparatus according to claim 5, characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018227511A JP7163155B2 (en) | 2018-12-04 | 2018-12-04 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018227511A JP7163155B2 (en) | 2018-12-04 | 2018-12-04 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020089498A JP2020089498A (en) | 2020-06-11 |
JP7163155B2 true JP7163155B2 (en) | 2022-10-31 |
Family
ID=71011879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018227511A Active JP7163155B2 (en) | 2018-12-04 | 2018-12-04 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7163155B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011055614A1 (en) | 2009-11-06 | 2011-05-12 | オリンパスメディカルシステムズ株式会社 | Endoscope system |
JP2012245157A (en) | 2011-05-27 | 2012-12-13 | Olympus Corp | Endoscope apparatus |
JP2013066646A (en) | 2011-09-26 | 2013-04-18 | Olympus Medical Systems Corp | Image processing apparatus for endoscope, endoscope apparatus and image processing method |
WO2017002184A1 (en) | 2015-06-29 | 2017-01-05 | オリンパス株式会社 | Image processing device, endoscope system, image processing method, and image processing program |
JP2018057799A (en) | 2016-09-29 | 2018-04-12 | 富士フイルム株式会社 | Endoscope system and method of driving endoscope system |
-
2018
- 2018-12-04 JP JP2018227511A patent/JP7163155B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011055614A1 (en) | 2009-11-06 | 2011-05-12 | オリンパスメディカルシステムズ株式会社 | Endoscope system |
JP2012245157A (en) | 2011-05-27 | 2012-12-13 | Olympus Corp | Endoscope apparatus |
JP2013066646A (en) | 2011-09-26 | 2013-04-18 | Olympus Medical Systems Corp | Image processing apparatus for endoscope, endoscope apparatus and image processing method |
WO2017002184A1 (en) | 2015-06-29 | 2017-01-05 | オリンパス株式会社 | Image processing device, endoscope system, image processing method, and image processing program |
JP2018057799A (en) | 2016-09-29 | 2018-04-12 | 富士フイルム株式会社 | Endoscope system and method of driving endoscope system |
Also Published As
Publication number | Publication date |
---|---|
JP2020089498A (en) | 2020-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11342063B2 (en) | Information processing apparatus, information processing method, and program | |
US20210406591A1 (en) | Medical image processing method and apparatus, and medical image recognition method and apparatus | |
TWI777092B (en) | Image processing method, electronic device, and storage medium | |
WO2021031459A1 (en) | Image enhancement method and apparatus suitable for endoscope, and storage medium | |
CN105979847B (en) | Endoscopic images diagnosis aid system | |
US20240029243A1 (en) | Referenceless image evaluation method for capsule endoscope, electronic device, and medium | |
US9824189B2 (en) | Image processing apparatus, image processing method, image display system, and storage medium | |
CN111091559A (en) | Depth learning-based auxiliary diagnosis system for small intestine sub-scope lymphoma | |
CN110619318B (en) | Image processing method, microscope, system and medium based on artificial intelligence | |
US11954860B2 (en) | Image matching method and device, and storage medium | |
CN113052844B (en) | Method and device for processing images in intestinal endoscope observation video and storage medium | |
US20240005494A1 (en) | Methods and systems for image quality assessment | |
CN115439470A (en) | Polyp image segmentation method, computer-readable storage medium, and computer device | |
JP2010250419A (en) | Image processing device for detecting eye condition | |
JP7163155B2 (en) | Image processing device | |
JP2009247490A (en) | Image processor, image processing method and program | |
JP2010244251A (en) | Image processor for detecting coordinate position for characteristic site of face | |
CN114926448A (en) | Capsule endoscope image feature point extraction method | |
CN106251378B (en) | The minimizing technology and device of edge artifact in medical image | |
JP2022121091A (en) | Diagnosis supporting system of oral mucosal diseases, method, and program | |
CN114565538B (en) | Endoscopic image processing method, system, storage medium and equipment | |
EP3150107A1 (en) | Image processing device | |
US20230073729A1 (en) | Method and apparatus for compensating image segmentation lines | |
WO2021149169A1 (en) | Operation assistance device, operation assistance method, and computer-readable recording medium | |
JP2024002327A (en) | Information processing device, information processing system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221019 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7163155 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |