JP7163155B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP7163155B2
JP7163155B2 JP2018227511A JP2018227511A JP7163155B2 JP 7163155 B2 JP7163155 B2 JP 7163155B2 JP 2018227511 A JP2018227511 A JP 2018227511A JP 2018227511 A JP2018227511 A JP 2018227511A JP 7163155 B2 JP7163155 B2 JP 7163155B2
Authority
JP
Japan
Prior art keywords
region
area
image
deformation
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018227511A
Other languages
Japanese (ja)
Other versions
JP2020089498A (en
Inventor
律郎 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2018227511A priority Critical patent/JP7163155B2/en
Publication of JP2020089498A publication Critical patent/JP2020089498A/en
Application granted granted Critical
Publication of JP7163155B2 publication Critical patent/JP7163155B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Description

本発明は、内視鏡画像の関心領域の視認性を高める技術に関する。 The present invention relates to a technique for enhancing the visibility of a region of interest in an endoscopic image.

特許文献1は、被写体を含む撮像画像に対して注目領域を設定し、注目領域を他の領域よりも相対的に拡大する局所的な変倍処理を実施する内視鏡装置を開示する。この内視鏡装置は、画角を維持しながら画像を変倍処理し、注目領域を所定の倍率で拡大する。 Patent Literature 1 discloses an endoscope apparatus that sets a region of interest for a captured image including a subject and performs local scaling processing to enlarge the region of interest relative to other regions. This endoscope apparatus performs variable magnification processing on an image while maintaining the angle of view, and enlarges a region of interest by a predetermined magnification.

特開2012-245157号公報JP 2012-245157 A

近年、医療施設における医師の診断支援を目的として、撮影した内視鏡画像に含まれる病変を抽出するニューラルネットワークが開発されている。また内視鏡画像の観察の際、泡や残渣などを含む領域は観察に不適切であるため、内視鏡画像に含まれる泡や残渣などを抽出するニューラルネットワークも注目されている。内視鏡画像の表示時、病変を含む領域、泡や残渣などを含む領域をマーキングすることで、医師による読影作業を効率化できる。 In recent years, neural networks have been developed for extracting lesions contained in captured endoscopic images for the purpose of supporting diagnosis by doctors in medical facilities. In addition, when observing an endoscopic image, since areas containing bubbles and residue are not suitable for observation, a neural network for extracting bubbles and residue contained in the endoscopic image is also attracting attention. When displaying endoscopic images, doctors can more efficiently interpret images by marking areas that contain lesions and areas that contain bubbles and debris.

しかしながら病変領域をマーキングしても、病変領域が小さければ、病変領域の視認性は高くならない。また表示装置に複数の内視鏡画像を並べて表示する場合、各内視鏡画像が縮小表示されることで、病変領域の視認性は低くなる。また表示装置の画面サイズがそもそも小さければ、病変領域は小さく表示される。そこで病変領域の視認性を高めることに対して切実な要望が存在する。 However, even if the lesion area is marked, if the lesion area is small, the visibility of the lesion area is not high. Further, when displaying a plurality of endoscopic images side by side on the display device, each endoscopic image is displayed in a reduced size, which reduces the visibility of the lesion area. Also, if the screen size of the display device is originally small, the lesion area will be displayed small. Therefore, there is an urgent need to improve the visibility of the lesion area.

本発明はこうした状況に鑑みなされたものであり、その目的は、病変を含む関心領域の視認性を高める技術を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for enhancing the visibility of a region of interest including a lesion.

上記課題を解決するために、本発明のある態様の画像処理装置は、内視鏡画像の画像領域を、関心領域である第1領域、観察に不適切な領域である第2領域、第1領域および第2領域とは異なる第3領域に分類した結果を取得する領域情報取得部と、第1領域を拡大し、第2領域を第3領域よりも優先して縮小する変形処理部と、変形処理部により変形された変形画像を表示装置に表示させる表示制御部とを備える。 In order to solve the above problems, an image processing apparatus according to one aspect of the present invention divides an image region of an endoscopic image into a first region that is a region of interest, a second region that is an inappropriate region for observation, a first a region information acquisition unit that acquires a region and a result of classification into a third region different from the second region; a transformation processing unit that enlarges the first region and shrinks the second region with priority over the third region; and a display control unit that causes a display device to display the deformed image deformed by the deformation processing unit.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 Any combination of the above constituent elements, and conversion of expressions of the present invention into methods, devices, systems, recording media, computer programs, etc. are also effective as aspects of the present invention.

本発明によれば、病変を含む関心領域の視認性を高める技術を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which improves the visibility of the region of interest containing a lesion can be provided.

画像処理システムの機能ブロックを示す図である。2 is a diagram showing functional blocks of an image processing system; FIG. 内視鏡画像の例を示す図である。It is a figure which shows the example of an endoscope image. 内視鏡画像を変形した変形画像の例を示す図である。FIG. 10 is a diagram showing an example of a deformed image obtained by deforming an endoscopic image; 内視鏡画像の別の例を示す図である。FIG. 10 is a diagram showing another example of an endoscopic image; 内視鏡画像を変形した変形画像の例を示す図である。FIG. 10 is a diagram showing an example of a deformed image obtained by deforming an endoscopic image;

図1は、画像処理システム1の機能ブロックを示す。画像処理システム1は、内視鏡画像記憶部10、領域分類装置20、画像処理装置30および表示装置40を備える。内視鏡画像記憶部10は、撮影された内視鏡画像を記憶する。内視鏡画像は、医師が内視鏡検査中に撮影した画像であってよく、カプセル内視鏡が撮影した画像であってもよい。 FIG. 1 shows functional blocks of an image processing system 1 . The image processing system 1 includes an endoscope image storage unit 10 , a region classification device 20 , an image processing device 30 and a display device 40 . The endoscopic image storage unit 10 stores captured endoscopic images. The endoscopic image may be an image captured by a doctor during an endoscopy, or an image captured by a capsule endoscope.

領域分類装置20は、内視鏡画像に含まれる画像領域を認識して、各画像領域のカテゴリを分類するニューラルネットワークであってよい。ここで領域分類装置20は、病変が撮影された関心領域である第1領域を抽出する第1機能と、泡や残渣などが撮影された第2領域を抽出する第2機能とを少なくとも含む。第2領域は、泡や残渣の存在のために医師による観察に不適切な領域であり、ここで観察に不適切とは、観察が不能または観察が不要であることを含む。第1機能および第2機能は、それぞれ機械学習したモデルにより実現されてよい。 The region classifier 20 may be a neural network that recognizes image regions contained in the endoscopic image and classifies categories for each image region. Here, the region classification device 20 includes at least a first function for extracting a first region, which is a region of interest in which lesions are photographed, and a second function for extracting a second region in which bubbles, residues, etc. are photographed. A second area is an area unsuitable for observation by a physician due to the presence of bubbles or debris, where unsuitable for observation includes impossible or unnecessary observation. The first function and the second function may each be realized by machine-learned models.

領域分類装置20はさらに、第1領域および第2領域とは異なる第3領域を抽出する第3機能を有する。第3領域は、正常な粘膜等を撮影した領域を含む。実施例で領域分類装置20は、第1領域および第2領域のいずれとしても抽出されなかった領域を第3領域として抽出してよい。つまり第3領域は、第1領域および第2領域として抽出されなかった画像領域と定義されてよい。なお第3領域は、機械学習したモデルによって抽出されてもよい。 The region classifier 20 further has a third function of extracting a third region different from the first and second regions. The third area includes an imaged area of normal mucosa and the like. In an embodiment, the region classifying device 20 may extract a region that was not extracted as either the first region or the second region as the third region. That is, the third region may be defined as the image region that was not extracted as the first and second regions. Note that the third region may be extracted by a machine-learned model.

領域分類装置20は、内視鏡画像の画像領域を任意のタイミングでカテゴリに分類してよい。たとえば内視鏡画像が内視鏡画像記憶部10に格納されたとき、領域分類装置20は、画像領域の分類処理を実施してよい。分類処理結果は、内視鏡画像に関連づけられて、内視鏡画像記憶部10に記憶される。なお医師が内視鏡画像を観察する際に、領域分類装置20が、内視鏡画像を内視鏡画像記憶部10から読み出して分類処理し、内視鏡画像とともに分類処理結果を画像処理装置30に提供してもよい。いずれにしても領域分類装置20は、画像処理装置30による画像処理の前に、内視鏡画像の画像領域のカテゴリを特定する。 The region classification device 20 may classify the image regions of the endoscopic image into categories at arbitrary timing. For example, when an endoscopic image is stored in the endoscopic image storage unit 10, the region classification device 20 may perform image region classification processing. The classification processing result is stored in the endoscopic image storage unit 10 in association with the endoscopic image. Note that when a doctor observes an endoscopic image, the region classification device 20 reads the endoscopic image from the endoscopic image storage unit 10, performs classification processing, and outputs the classification processing result together with the endoscopic image to the image processing device. 30 may be provided. In any event, the region classifier 20 identifies categories of image regions of the endoscopic image prior to image processing by the image processor 30 .

図2は、内視鏡画像の例を示す。この例で内視鏡画像は、横方向に8分割、縦方向に8分割される。分割された局所領域は同じ大きさを有し、1以上の所定数の画素のまとまりで構成される。領域分類装置20は、計64個の局所領域のそれぞれのカテゴリを特定することで、画像領域の分類処理を実施する。 FIG. 2 shows an example of an endoscopic image. In this example, the endoscopic image is divided into 8 in the horizontal direction and 8 in the vertical direction. The divided local regions have the same size and are composed of groups of a predetermined number of pixels that are one or more. The region classification device 20 performs image region classification processing by specifying the category of each of a total of 64 local regions.

実施例の内視鏡画像の画像領域は、関心領域である第1領域50、観察に不適切な領域である第2領域60、第1領域および第2領域以外の領域である第3領域70に分類される。図2で第1領域50は、複数の局所領域にまたがる連続領域として示されているが、病変の大きさは様々であり、1つの細胞の大きさであることもある。 The image regions of the endoscopic image of the embodiment are a first region 50 which is a region of interest, a second region 60 which is an inappropriate region for observation, and a third region 70 which is a region other than the first region and the second region. are categorized. Although the first region 50 is shown in FIG. 2 as a continuous region spanning multiple focal regions, lesions may vary in size and may be the size of a single cell.

領域分類装置20は、内視鏡画像を複数の局所領域に分割して、各局所領域のカテゴリを算出する。各局所領域のカテゴリは、病変を含むことを示すカテゴリ(関心カテゴリ)、観察に不適切な泡や残渣などを含むことを示すカテゴリ(観察不適カテゴリ)、関心領域および観察不適領域のいずれでもない領域であることを示すカテゴリ(正常カテゴリ)のいずれかに設定される。 The region classification device 20 divides the endoscopic image into a plurality of local regions and calculates the category of each local region. The category of each local region is neither a category indicating that it contains a lesion (category of interest), a category indicating that it contains bubbles or residue unsuitable for observation (category unsuitable for observation), nor a region of interest or unsuitable for observation. It is set to one of the categories (normal category) indicating that it is an area.

領域分類装置20は、局所領域を画像解析して、当該局所領域の各カテゴリの確率を算出し、最も高い確率のカテゴリを特定する。たとえば、ある局所領域に関して、関心カテゴリである確率が80%、観察不適カテゴリである確率が15%、正常カテゴリである確率が5%であることが算出されれば、当該局所領域のカテゴリは、最も確率の高い関心カテゴリと導出される。 The region classification device 20 performs image analysis on the local region, calculates the probability of each category of the local region, and identifies the category with the highest probability. For example, if it is calculated that a certain local region has an 80% probability of being an interesting category, a 15% probability of being an unobservable category, and a 5% probability of being a normal category, the category of the local region is The most probable interest category is derived.

図2において、横軸をX軸、縦軸をY軸とし、局所領域を(X座標、Y座標)で表現すると、関心カテゴリに分類された局所領域は、以下のとおり。
(1,3)、(2,3)、(3,3)、(4,3)、(5,3)、(6,3)、(7,3)、(8,3)、(1,4)、(2,4)、(3,4)、(4,4)、(5,4)、(6,4)、(7,4)、(8,4)
関心カテゴリに分類された局所領域の集合が、第1領域50を構成する。
In FIG. 2, the horizontal axis is the X axis, the vertical axis is the Y axis, and the local areas are expressed by (X coordinate, Y coordinate), and the local areas classified into the interest categories are as follows.
(1,3), (2,3), (3,3), (4,3), (5,3), (6,3), (7,3), (8,3), (1 ,4), (2,4), (3,4), (4,4), (5,4), (6,4), (7,4), (8,4)
A set of local regions classified into interest categories constitutes the first region 50 .

観察不適カテゴリに分類された局所領域は、以下のとおり。
(1,6)、(2,6)、(3,6)、(4,6)、(5,6)、(6,6)、(7,6)、(8,6)、(1,7)、(2,7)、(3,7)、(4,7)、(5,7)、(6,7)、(7,7)、(8,7)、(1,8)、(2,8)、(3,8)、(4,8)、(5,8)、(6,8)、(7,8)、(8,8)
観察不適カテゴリに分類された局所領域の集合が、第2領域60を構成する。
Local areas classified into the unobservable category are as follows.
(1,6), (2,6), (3,6), (4,6), (5,6), (6,6), (7,6), (8,6), (1 ,7), (2,7), (3,7), (4,7), (5,7), (6,7), (7,7), (8,7), (1,8 ), (2,8), (3,8), (4,8), (5,8), (6,8), (7,8), (8,8)
A set of local regions classified into the unobservable category constitutes the second region 60 .

正常カテゴリに分類された局所領域は、以下のとおり。
(1,1)、(2,1)、(3,1)、(4,1)、(5,1)、(6,1)、(7,1)、(8,1)、(1,2)、(2,2)、(3,2)、(4,2)、(5,2)、(6,2)、(7,2)、(8,2)、(1,5)、(2,5)、(3,5)、(4,5)、(5,5)、(6,5)、(7,5)、(8,5)
正常カテゴリに分類された局所領域の集合が、第3領域70を構成する。
The locoregions classified into the normal category are:
(1,1), (2,1), (3,1), (4,1), (5,1), (6,1), (7,1), (8,1), (1 , 2), (2, 2), (3, 2), (4, 2), (5, 2), (6, 2), (7, 2), (8, 2), (1, 5 ), (2,5), (3,5), (4,5), (5,5), (6,5), (7,5), (8,5)
A set of local regions classified into the normal category constitutes the third region 70 .

医師による画像観察時、画像処理装置30は、領域分類装置20による分類処理結果にもとづいて、内視鏡画像に含まれる関心領域(第1領域)を拡大する画像変形処理を実施し、変形した画像を表示装置40に出力する。これにより関心領域の視認性が高まり、医師は、拡大表示された関心領域を観察する。 When a doctor observes an image, the image processing device 30 performs image deformation processing for enlarging a region of interest (first region) included in the endoscopic image based on the classification processing result of the region classification device 20, and deforms the region. The image is output to the display device 40 . This enhances the visibility of the region of interest, and the doctor observes the magnified region of interest.

画像処理装置30は、領域情報取得部32、変形処理部34および表示制御部36を備える。領域情報取得部32は、内視鏡画像の画像領域を、第1領域、第2領域、第3領域に分類した結果を取得する。領域情報取得部32は分類結果を、内視鏡画像記憶部10から、内視鏡画像とともに取得してよい。 The image processing device 30 includes an area information acquisition section 32 , a deformation processing section 34 and a display control section 36 . The area information acquisition unit 32 acquires the result of classifying the image area of the endoscopic image into the first area, the second area, and the third area. The region information acquisition unit 32 may acquire the classification result from the endoscopic image storage unit 10 together with the endoscopic image.

変形処理部34は、第1領域50を拡大し、第2領域60を第3領域70よりも優先して縮小する。表示制御部36は、変形処理部34により変形された変形画像を表示装置40に表示させる。 The deformation processing unit 34 enlarges the first area 50 and reduces the second area 60 with priority over the third area 70 . The display control unit 36 causes the display device 40 to display the deformed image deformed by the deformation processing unit 34 .

画像処理装置30のそれぞれの構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。 Each configuration of the image processing device 30 can be implemented by any processor, memory, or other LSI in terms of hardware, and implemented by programs loaded in the memory in terms of software. It depicts the functional blocks realized by cooperation. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware alone, software alone, or a combination thereof.

図3は、図2に示す内視鏡画像を変形した変形画像の例を示す。変形処理部34は、第1領域50を拡大し、第1領域50を拡大した面積分だけ、第2領域60を縮小する。この例では、変形処理部34が、関心カテゴリに分類された局所領域のそれぞれの面積を2倍に拡大し、第1領域50の視認性を高めている。 FIG. 3 shows an example of a deformed image obtained by deforming the endoscopic image shown in FIG. The deformation processing unit 34 enlarges the first area 50 and reduces the second area 60 by the area of the enlarged first area 50 . In this example, the deformation processing unit 34 doubles the area of each of the local regions classified into the interest category to improve the visibility of the first region 50 .

変形処理部34は、第1領域50を拡大することで増える面積増加分を算出し、算出した面積増加分と、変形前の第2領域60の総面積とを比較する。変形後の第1領域50の面積増加分が、変形前の第2領域60の総面積以下であれば、変形処理部34は、第1領域50の面積増加分を、第2領域60を縮小することでまかなう。 The deformation processing unit 34 calculates the increased area by enlarging the first region 50, and compares the calculated increased area with the total area of the second region 60 before deformation. If the increased area of the first region 50 after deformation is equal to or less than the total area of the second region 60 before deformation, the deformation processing unit 34 reduces the increased area of the first region 50 by reducing the second region 60. I will cover it by doing.

この例では、第1領域50を構成する局所領域の面積が2倍に拡大されるため、(変形前の局所領域の面積×16)が面積増加分となる。変形前の第2領域60の総面積は(変形前の局所領域の面積×24)であり、変形前の第2領域60の総面積の方が大きい。そこで変形処理部34は、第3領域70を縮小することなく、第2領域60を縮小することで、第2領域60の面積縮小分を第1領域50の面積増加分にあてる。 In this example, since the area of the local region forming the first region 50 is doubled, the increase in area is (the area of the local region before deformation×16). The total area of the second region 60 before deformation is (the area of the local region before deformation×24), and the total area of the second region 60 before deformation is larger. Therefore, the deformation processing unit 34 reduces the area of the second area 60 without reducing the area of the third area 70 , thereby allocating the area reduction of the second area 60 to the area increase of the first area 50 .

第1領域50が拡大表示されることで、第1領域50の視認性を高められる。また第3領域70の表示面積が縮小されないことで、第3領域70の視認性を維持できる。このように変形処理部34は、第2領域60を第3領域70よりも優先して縮小する変形処理を実施することで、第3領域70の視認性を維持しつつ、第1領域50の視認性を高めることができる。なお変形処理部34は、第3領域70の表示面積を維持する限りにおいて、第3領域70の形状を変形してもよい。 The visibility of the first area 50 can be improved by displaying the first area 50 in an enlarged manner. Further, since the display area of the third region 70 is not reduced, the visibility of the third region 70 can be maintained. In this way, the deformation processing unit 34 performs the deformation processing of shrinking the second region 60 with priority over the third region 70 , thereby maintaining the visibility of the third region 70 while reducing the size of the first region 50 . Visibility can be improved. Note that the deformation processing section 34 may change the shape of the third region 70 as long as the display area of the third region 70 is maintained.

変形処理部34は、目的関数と制約条件を用いて局所領域の格子点の位置を求める最適化問題を解くことで、局所領域の変形処理を実施する。目的関数は、各格子点の移動量の総和、平均、分散、標準偏差のいずれかにもとづく関数であってよい。制約条件は、以下のように定められてよい。 The deformation processing unit 34 performs deformation processing of the local region by solving an optimization problem for finding the positions of the lattice points of the local region using the objective function and the constraint conditions. The objective function may be a function based on any one of the sum, average, variance, and standard deviation of the amount of movement of each lattice point. Constraints may be defined as follows.

(制約条件1)
変形後の第1領域の面積が、変形前の第1領域の面積の所定倍となる。拡大率は適宜設定されてよいが、実施例では、拡大率を2倍としている。
(制約条件2)
第2領域を構成する局所領域の変形前後の面積比が同一である。たとえば図3に示す例では、第2領域を構成する局所領域の(変形後の面積/変形前の面積)が1/3である。
(制約条件3)
第3領域を構成する局所領域の面積が変形前後で変わらない。
(Constraint 1)
The area of the first region after deformation is a predetermined multiple of the area of the first region before deformation. The enlargement rate may be set as appropriate, but in the embodiment, the enlargement rate is set to 2 times.
(Constraint 2)
The area ratios of the local regions that constitute the second region are the same before and after the deformation. For example, in the example shown in FIG. 3, the (area after deformation/area before deformation) of the local region forming the second region is 1/3.
(Constraint 3)
The area of the local region forming the third region does not change before and after deformation.

以下の例で変形処理部34は、目的関数fを、各格子点の移動量の総和とする。

Figure 0007163155000001
ここでpxyは、画像領域左下隅の原点から横方向にx番目、縦方向にy番目の格子点の移動後の位置を表す2次元ベクトルであり、oxyは格子点の移動前の初期位置を表す2次元ベクトルである。 In the following example, the transformation processing unit 34 sets the objective function f to be the sum of the amounts of movement of each lattice point.
Figure 0007163155000001
Here, p xy is a two-dimensional vector representing the position after movement of the x-th grid point in the horizontal direction and the y-th grid point in the vertical direction from the origin at the lower left corner of the image area, and o xy is the initial position before moving the grid point. A two-dimensional vector representing a position.

このとき4点の移動後の格子で囲まれた局所領域の面積Sijは、以下の式で示される。

Figure 0007163155000002
局所領域の面積Sijに1からN(画像領域の分割数)の間で以下のように番号付けをする。
第2領域を構成する局所領域 (S1, ... ,Sa)
第1領域を構成する局所領域 (Sa+1, ... ,Sb)
第3領域を構成する局所領域 (Sb+1, ... ,SN) At this time, the area S ij of the local region surrounded by the grid after the movement of the four points is expressed by the following formula.
Figure 0007163155000002
The areas S ij of the local regions are numbered from 1 to N (the number of divisions of the image region) as follows.
Local regions (S 1 , ... ,S a ) forming the second region
Local regions (Sa+1, ... ,S b ) that make up the first region
Local regions (S b+1 , ... ,S N ) constituting the third region

このときの制約条件を示す。

Figure 0007163155000003
ここでSOrignは、Snの初期値であり、変形前の局所領域の面積である。第1領域の局所面積に乗算されている「2」は、第1領域の拡大率であり、第2領域の局所面積に乗算されている「r」は、第1領域の増加面積分を吸収するための第2領域の拡大率(<1)である。変形処理部34は、制約条件を用いて、最急降下法等の最適化手法により、各格子点の移動後の座標を求める。 The constraint conditions at this time are shown.
Figure 0007163155000003
Here, SOrig n is the initial value of S n and the area of the local region before deformation. "2" multiplied by the local area of the first region is the magnification of the first region, and "r" multiplied by the local area of the second region absorbs the increased area of the first region. is the enlargement ratio (<1) of the second region for The deformation processing unit 34 uses the constraint conditions and obtains the post-movement coordinates of each grid point by an optimization method such as the steepest descent method.

このように第1領域50を拡大することで増える面積増加分が、変形前の第2領域60の総面積以下である場合、変形処理部34は、第3領域70を縮小することなく、第2領域60の縮小する変形処理を実施する。 If the increase in area by enlarging the first region 50 in this way is equal to or less than the total area of the second region 60 before deformation, the deformation processing unit 34 does not reduce the third region 70, A deformation process for reducing the two regions 60 is performed.

次に、第1領域50を拡大することで増える面積増加分が、変形前の第2領域60の総面積より大きい場合の変形処理について説明する。 Next, a description will be given of deformation processing in the case where the increase in area by enlarging the first region 50 is larger than the total area of the second region 60 before deformation.

図4は、内視鏡画像の別の例を示す。
この例で、関心カテゴリに分類された局所領域は、以下のとおり。
(1,3)、(2,3)、(3,3)、(4,3)、(5,3)、(6,3)、(7,3)、(8,3)、(1,4)、(2,4)、(3,4)、(4,4)、(5,4)、(6,4)、(7,4)、(8,4)
FIG. 4 shows another example of an endoscopic image.
In this example, the local regions classified into categories of interest are:
(1,3), (2,3), (3,3), (4,3), (5,3), (6,3), (7,3), (8,3), (1 ,4), (2,4), (3,4), (4,4), (5,4), (6,4), (7,4), (8,4)

観察不適カテゴリに分類された局所領域は、以下のとおり。
(1,8)、(2,8)、(3,8)、(4,8)、(5,8)、(6,8)、(7,8)、(8,8)
正常カテゴリに分類された局所領域は、残りの局所領域である。
Local areas classified into the unobservable category are as follows.
(1,8), (2,8), (3,8), (4,8), (5,8), (6,8), (7,8), (8,8)
The local regions classified into the normal category are the remaining local regions.

変形処理部34は、第1領域50を拡大し、第2領域60を第3領域70よりも優先して縮小する。ここで変形処理部34は、第1領域50の面積増加分と、変形前の第2領域60の総面積とを比較する。上記したように変形後の第1領域50の面積増加分が、変形前の第2領域60の総面積以下であれば、変形処理部34は、第1領域50の面積増加分を、第2領域60を縮小することでまかなう。 The deformation processing unit 34 enlarges the first area 50 and reduces the second area 60 with priority over the third area 70 . Here, the deformation processing unit 34 compares the increased area of the first region 50 with the total area of the second region 60 before deformation. As described above, if the increased area of the first region 50 after deformation is equal to or less than the total area of the second region 60 before deformation, the deformation processing unit 34 changes the increased area of the first region 50 to the second region. This is covered by shrinking the region 60 .

図4に示す例では、第1領域50を構成する局所領域が2倍の面積に拡大され、(変形前の局所領域の面積×16)が面積増加分となる。一方、変形前の第2領域60の総面積は、(変形前の局所領域の面積×8)であり、第1領域50の面積増加分の方が大きい。そこで変形処理部34は、第2領域60をなくすだけでは第1領域50の面積増加分を補うことができず、第3領域70を縮小しなければならないことを判断する。 In the example shown in FIG. 4, the area of the local area that constitutes the first area 50 is doubled, and (the area of the local area before deformation×16) is the increase in area. On the other hand, the total area of the second region 60 before deformation is (the area of the local region before deformation×8), and the increased area of the first region 50 is larger. Therefore, the deformation processing unit 34 determines that the increase in the area of the first region 50 cannot be compensated for by simply eliminating the second region 60, and that the third region 70 must be reduced.

図5は、図4に示す内視鏡画像を変形した変形画像の例を示す。図5に示す変形画像では、第1領域50が拡大表示され、第2領域60が表示から削除され、第3領域70が縮小表示されている。このとき第3領域70を構成する各局所領域の変形後と変形前の面積比を同じにすることが好ましい。図5に示す例では、第1領域50の面積増加分から第2領域60の総面積を引いた(変形前の局所領域の面積×8)を、第3領域70を縮小することでまかなう。そのため、第2領域を構成する全ての局所領域の(変形後の面積/変形前の面積)は、4/5とされる。 FIG. 5 shows an example of a deformed image obtained by deforming the endoscopic image shown in FIG. In the deformed image shown in FIG. 5, the first area 50 is displayed enlarged, the second area 60 is deleted from the display, and the third area 70 is displayed reduced. At this time, it is preferable that the area ratios of the respective local regions forming the third region 70 before and after deformation are the same. In the example shown in FIG. 5, the area increase of the first region 50 minus the total area of the second region 60 (the area of the local region before deformation×8) is covered by the reduction of the third region 70 . Therefore, the (area after deformation/area before deformation) of all the local regions constituting the second region is 4/5.

第1領域50が拡大表示されることで、第1領域50の視認性を高められる。また第3領域70の表示面積が縮小されつつも、各局所領域の変形前後の面積比を同一とすることで、第3領域70の視認性を維持できる。このように変形処理部34は、第2領域60を第3領域70よりも優先して縮小する変形処理を実施することで、第3領域70の視認性を維持しつつ、第1領域50の視認性を高めることができる。 The visibility of the first area 50 can be improved by displaying the first area 50 in an enlarged manner. Further, even though the display area of the third region 70 is reduced, the visibility of the third region 70 can be maintained by making the area ratios of the local regions before and after deformation the same. In this way, the deformation processing unit 34 performs the deformation processing of shrinking the second region 60 with priority over the third region 70 , thereby maintaining the visibility of the third region 70 while reducing the size of the first region 50 . Visibility can be improved.

このときの制約条件を示す。

Figure 0007163155000004
第1領域の局所面積に乗算されている「2」は、第1領域の拡大率であり、第3領域の局所面積に乗算されている「r」は、第3領域の拡大率(<1)である。変形処理部34は、制約条件を用いて、最急降下法等の最適化手法により、各格子点の移動後の座標を求める。 The constraint conditions at this time are shown.
Figure 0007163155000004
“2” multiplied by the local area of the first region is the magnification of the first region, and “r” multiplied by the local area of the third region is the magnification of the third region (<1 ). The deformation processing unit 34 uses the constraint conditions and obtains the post-movement coordinates of each grid point by an optimization method such as the steepest descent method.

このように第1領域50を拡大することで増える面積増加分が、変形前の第2領域60の総面積より大きい場合、変形処理部34は、第2領域60を削除しつつ、第3領域70の局所面積を同一の拡大率で縮小する変形処理を実施する。 When the increase in area by enlarging the first region 50 in this way is larger than the total area of the second region 60 before deformation, the deformation processing unit 34 deletes the second region 60 while removing the third region. A deformation process is performed to reduce the local area of 70 at the same magnification.

なお上記した実施例で変形処理部34は、第1領域50の拡大率を2倍としているが、第1領域50の視認性に応じて第1領域50の拡大率を決定してよい。変形処理部34は、変形前の第1領域50の視認性の良否を、表示装置40における第1領域50の表示サイズに応じて判断する。たとえば表示装置40における第1領域50の表示サイズ(たとえば縦長または横長)が所定値未満である場合、変形処理部34は、第1領域50の視認性が低いことを判定する。このとき変形処理部34は、表示装置40における第1領域50の表示サイズが所定値以上となる大きさに拡大してよい。 Although the deformation processing unit 34 doubles the magnification of the first area 50 in the above embodiment, the magnification of the first area 50 may be determined according to the visibility of the first area 50 . The deformation processing unit 34 determines whether the visibility of the first region 50 before deformation is good or bad according to the display size of the first region 50 on the display device 40 . For example, when the display size (for example, vertically or horizontally) of first area 50 on display device 40 is less than a predetermined value, deformation processing unit 34 determines that visibility of first area 50 is low. At this time, the deformation processing unit 34 may enlarge the display size of the first area 50 on the display device 40 to a size equal to or larger than a predetermined value.

なお表示装置40における第1領域50の表示サイズは、表示装置40の画面サイズに依存する。またPCなどの端末装置で表示する場合と、スマートフォンなどの携帯型端末装置で表示する場合とでは、目と表示装置との距離が異なるために、第1領域50の表示サイズが同じであっても視認性は異なる。そこで領域情報取得部32は、表示装置40の種類および画面サイズに応じて、視認性の良否を判定するための表示サイズの閾値を設定してよい。 Note that the display size of the first area 50 on the display device 40 depends on the screen size of the display device 40 . In addition, the display size of the first area 50 is the same between when displaying on a terminal device such as a PC and when displaying on a portable terminal device such as a smartphone because the distance between the eyes and the display device is different. visibility is different. Therefore, the area information acquisition unit 32 may set a threshold value of the display size for determining the quality of visibility according to the type and screen size of the display device 40 .

なお視認性の良否判断は、表示サイズだけでなく、病変の種類や、色、コントラスト、明るさなどを基準としてもよい。いずれにしても変形処理部34は、元の内視鏡画像に含まれる第1領域50の視認性が低いことが推定される場合に、当該第1領域50を拡大変形する。なお変形処理部34は、第1領域50の視認性が高いことが推定される場合には、当該第1領域50を拡大変形しなくてもよい。 It should be noted that the quality of visibility may be determined based on not only the display size but also the type of lesion, color, contrast, brightness, and the like. In any case, the deformation processing unit 34 enlarges and deforms the first region 50 included in the original endoscopic image when it is estimated that the visibility of the first region 50 is low. Note that the deformation processing unit 34 does not need to enlarge and deform the first region 50 when it is estimated that the visibility of the first region 50 is high.

以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the examples. Those skilled in the art will understand that the embodiments are illustrative, and that various modifications can be made to combinations of each component and each treatment process, and such modifications are also within the scope of the present invention.

1・・・画像処理システム、10・・・内視鏡画像記憶部、20・・・領域分類装置、30・・・画像処理装置、32・・・領域情報取得部、34・・・変形処理部、36・・・表示制御部、40・・・表示装置、50・・・第1領域、60・・・第2領域、70・・・第3領域。 DESCRIPTION OF SYMBOLS 1... Image processing system 10... Endoscope image storage part 20... Region classification device 30... Image processing device 32... Region information acquisition part 34... Deformation process Section 36 Display control section 40 Display device 50 First area 60 Second area 70 Third area.

Claims (6)

内視鏡画像の画像領域を、関心領域である第1領域、観察に不適切な領域である第2領域、前記第1領域および前記第2領域とは異なる第3領域に分類した結果を取得する領域情報取得部と、
前記第1領域を拡大し、前記第2領域を前記第3領域よりも優先して縮小する変形処理部と、
前記変形処理部により変形された変形画像を表示装置に表示させる表示制御部と、
を備えることを特徴とする画像処理装置。
Acquiring a result of classifying an image region of an endoscopic image into a first region that is a region of interest, a second region that is an inappropriate region for observation, and a third region that is different from the first region and the second region. a region information acquisition unit for
a transformation processing unit that enlarges the first area and shrinks the second area with priority over the third area;
a display control unit for displaying a deformed image deformed by the deformation processing unit on a display device;
An image processing device comprising:
前記変形処理部は、前記第3領域を縮小せず、前記第2領域を縮小する、
ことを特徴とする請求項1に記載の画像処理装置。
The deformation processing unit reduces the second area without reducing the third area.
2. The image processing apparatus according to claim 1, wherein:
前記変形処理部は、前記第1領域を拡大することで増える面積が、前記第2領域の総面積よりも大きい場合に、前記第3領域を縮小する、
ことを特徴とする請求項1に記載の画像処理装置。
The deformation processing unit reduces the third region when the area increased by enlarging the first region is larger than the total area of the second region.
2. The image processing apparatus according to claim 1, wherein:
前記変形処理部は、前記第1領域の視認性に応じて、前記第1領域の拡大率を決定する、
ことを特徴とする請求項1に記載の画像処理装置。
The deformation processing unit determines the enlargement ratio of the first area according to the visibility of the first area.
2. The image processing apparatus according to claim 1, wherein:
内視鏡画像は、複数の局所領域に分割されるものであって、
前記変形処理部は、局所領域を変形することで、前記変形画像を生成する、
ことを特徴とする請求項1に記載の画像処理装置。
An endoscopic image is divided into a plurality of local regions,
The deformation processing unit generates the deformed image by deforming the local region.
2. The image processing apparatus according to claim 1, wherein:
前記変形処理部は、前記第3領域を構成する各局所領域の変形後と変形前の面積比を同じにする、
ことを特徴とする請求項5に記載の画像処理装置。
The deformation processing unit makes the area ratios of the local regions forming the third region the same after deformation and before deformation,
6. The image processing apparatus according to claim 5, characterized by:
JP2018227511A 2018-12-04 2018-12-04 Image processing device Active JP7163155B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018227511A JP7163155B2 (en) 2018-12-04 2018-12-04 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018227511A JP7163155B2 (en) 2018-12-04 2018-12-04 Image processing device

Publications (2)

Publication Number Publication Date
JP2020089498A JP2020089498A (en) 2020-06-11
JP7163155B2 true JP7163155B2 (en) 2022-10-31

Family

ID=71011879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018227511A Active JP7163155B2 (en) 2018-12-04 2018-12-04 Image processing device

Country Status (1)

Country Link
JP (1) JP7163155B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011055614A1 (en) 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 Endoscope system
JP2012245157A (en) 2011-05-27 2012-12-13 Olympus Corp Endoscope apparatus
JP2013066646A (en) 2011-09-26 2013-04-18 Olympus Medical Systems Corp Image processing apparatus for endoscope, endoscope apparatus and image processing method
WO2017002184A1 (en) 2015-06-29 2017-01-05 オリンパス株式会社 Image processing device, endoscope system, image processing method, and image processing program
JP2018057799A (en) 2016-09-29 2018-04-12 富士フイルム株式会社 Endoscope system and method of driving endoscope system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011055614A1 (en) 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 Endoscope system
JP2012245157A (en) 2011-05-27 2012-12-13 Olympus Corp Endoscope apparatus
JP2013066646A (en) 2011-09-26 2013-04-18 Olympus Medical Systems Corp Image processing apparatus for endoscope, endoscope apparatus and image processing method
WO2017002184A1 (en) 2015-06-29 2017-01-05 オリンパス株式会社 Image processing device, endoscope system, image processing method, and image processing program
JP2018057799A (en) 2016-09-29 2018-04-12 富士フイルム株式会社 Endoscope system and method of driving endoscope system

Also Published As

Publication number Publication date
JP2020089498A (en) 2020-06-11

Similar Documents

Publication Publication Date Title
US11342063B2 (en) Information processing apparatus, information processing method, and program
US20210406591A1 (en) Medical image processing method and apparatus, and medical image recognition method and apparatus
TWI777092B (en) Image processing method, electronic device, and storage medium
WO2021031459A1 (en) Image enhancement method and apparatus suitable for endoscope, and storage medium
CN105979847B (en) Endoscopic images diagnosis aid system
US20240029243A1 (en) Referenceless image evaluation method for capsule endoscope, electronic device, and medium
US9824189B2 (en) Image processing apparatus, image processing method, image display system, and storage medium
CN111091559A (en) Depth learning-based auxiliary diagnosis system for small intestine sub-scope lymphoma
CN110619318B (en) Image processing method, microscope, system and medium based on artificial intelligence
US11954860B2 (en) Image matching method and device, and storage medium
CN113052844B (en) Method and device for processing images in intestinal endoscope observation video and storage medium
US20240005494A1 (en) Methods and systems for image quality assessment
CN115439470A (en) Polyp image segmentation method, computer-readable storage medium, and computer device
JP2010250419A (en) Image processing device for detecting eye condition
JP7163155B2 (en) Image processing device
JP2009247490A (en) Image processor, image processing method and program
JP2010244251A (en) Image processor for detecting coordinate position for characteristic site of face
CN114926448A (en) Capsule endoscope image feature point extraction method
CN106251378B (en) The minimizing technology and device of edge artifact in medical image
JP2022121091A (en) Diagnosis supporting system of oral mucosal diseases, method, and program
CN114565538B (en) Endoscopic image processing method, system, storage medium and equipment
EP3150107A1 (en) Image processing device
US20230073729A1 (en) Method and apparatus for compensating image segmentation lines
WO2021149169A1 (en) Operation assistance device, operation assistance method, and computer-readable recording medium
JP2024002327A (en) Information processing device, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R151 Written notification of patent or utility model registration

Ref document number: 7163155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151